L’an dernier, 57 % du contenu texte sur internet était généré par des intelligences artificielles, selon des chercheurs d’Amazon Web Services (AWS). À première vue, cette statistique qui ne cesse de croitre est un triomphe technologique mais elle cache en fait une réalité préoccupante. Pour produire de nouveaux contenus, les modèles d’IA se nourrissent en effet des données disponibles sur internet (qui représentent 70 % à 80 % des données totales) de plus en plus alimentées… par les mêmes contenus qu’ils créent. Un cercle vicieux – l’IA produit du contenu qui produit l’IA – qui pourrait, à force de recycler les mêmes données, nourrir les algorithmes avec des datas générées par les IA elles-mêmes, et à terme impacter la qualité des contenus disponibles, à l’image du plastique qui perd de sa qualité à chaque recyclage. Loin d’être une solution parfaite, l’IA risquerait donc de se retrouver enfermée dans un cycle d’appauvrissement perpétuel.
La corruption des modèles d’IA générative
Ce phénomène, connu sous le nom de corruption de modèle, représente un véritable défi pour les créateurs de modèles d’IA générative dont la quantité et la qualité des données disponibles représentent le principal facteur de performance, bien au-delà de l’intelligence de ses algorithmes. Si les algorithmes sont rois, les données sont désormais reines…
Avant même l’atrophie, une IA qui se perfectionne avec sa propre connaissance, court le risque à terme d’amplifier les erreurs et les biais présents dans les données, engendrant de fait de plus en plus d’hallucinations ou générant de fausses informations. On le voit avec ces millions de sites de contenus déployés par les services de désinformation russes sur l’ensemble de la planète, et dans toutes les langues, pour orienter les réponses des modèles d’IA génératives qui se basent sur leurs contenus pour augmenter sa base de connaissance et ainsi véhiculer de fausses informations, notamment sur la guerre en Ukraine, érigées en vérité.
En privilégiant le commun et les représentations majoritaires, les IA négligent également délibérément les contenus marginaux, quels que soient leur véracité ou leur caractère disruptif. Avec le risque, à terme, d’une standardisation du contenu qui diluerait à chaque régénération la richesse de l’information humaine dont les contenus originaux et novateurs se retrouveraient noyés dans un « océan sans vagues de textes bateaux » générés par des modèles d’IA. Une sorte de serpent numérique qui se mord la queue digitale…
Le rôle clé des institutions éducatives et des entreprises
Face à la montée en puissance des IA génératives, il devient donc crucial de réaffirmer le rôle irremplaçable de l’humain. Le capital humain, cet atout fondamental pour la production d’analyses, d’études, capable de créativité, d’innovation et de prise de positions, doit absolument être replacé au cœur de la génération d’informations. Pour préserver cet équilibre instable, les institutions éducatives ont un rôle clé à jouer, notamment en ne cédant pas à la tentation de se reposer sur des modèles d’IA génériques pour créer de nouveaux contenus. Elles doivent éduquer les populations jeunes à être productrices et non seulement consommatrices, de contenus numériques.
Les entreprises ne sont pas en reste, loin s’en faut. Et la responsabilité des employeurs de se préoccuper de la maîtrise de leur propriété intellectuelle, comme levier stratégique pour conserver un avantage concurrentiel et protéger leurs processus créatifs, est particulièrement forte. De plus, les organisations ont besoin pour performer de managers et d’employés capables de réflexion critique, d’analyse approfondie et de production de solutions innovantes. L’humain doit donc demeurer au cœur de la stratégie de création car si l’automatisation peut compléter le travail, elle ne peut pas remplacer l’intelligence, la pensée indépendante et la capacité à naviguer dans des contextes complexes. En tout cas à date…
On le voit notamment dans les recrutements où le recours à une IA générative dans les process de sélection permet d’aller chercher des candidats décalés et originaux que l’esprit humain n’aurait pas, du moins statistiquement, retenus en première analyse. Si jamais l’IA s’autoalimente dans une boucle infinie, cette promesse bienvenue de diversité dans la chasse aux talents de demain va disparaitre.
Un autre domaine dans lequel les entreprises doivent faire preuve de vigilance est celui des chatbots dédiés aux collaborateurs. Ces assistants virtuels sont conçus pour apporter un premier niveau de réponse aux salariés : sur la paie, les congés payés, les formations, les parcours de carrière, les métiers disponibles, les mobilités internes ou les démarches administratives. S’ils permettent de gagner en efficacité, ils ne sont pas sans risques, notamment d’altération de la pertinence et de la qualité des réponses apportées. D’où l’importance de conserver y compris dans les process RH un contact humain, indispensable pour traiter certaines situations avec empathie, discernement et respect du contexte.
Un dernier exemple de l’impact potentiel de l’IA dégénérative concerne l’adaptive learning, qui utilise l’IA pour personnaliser les parcours de formation des salariés. Le risque est ici à terme d’uniformiser et standardiser les cursus, ce qui irait à l’encontre de la promesse initiale de personnalisation accrue. Et ce d’autant que la fonction learning, avec les difficultés de recrutement qui persistent ou s’aggravent selon les secteurs, va de plus en plus être pour les employeurs un facteur différenciant d’attractivité des meilleurs profils et de rétention des talents.
Le risque d’un auto-appauvrissement
Avec cette atrophie des IA génératives, on court donc en théorie le risque de se retrouver dans un monde où les contenus créés se résumeront à une masse d’informations normées et appauvries, et plus recyclées, au final, que créées à l’instar des « savants sans âme » de Nietzsche, ces intellectuels déconnectés de la réalité qui se complaisent dans la médiocrité et rejettent tout ce qui est irrégulier ou unique.
Mais le pire n’est jamais certain et surtout pas inéluctable. Si le risque d’auto-appauvrissement de l’IA est réel, la solution existe et la prise de conscience collective des principaux acteurs de l’IA générative pour éviter que le banal ne s’érige en modèle fait doucement son chemin. Une IA générative avertie en vaut deux, non ?