Par Bernard SESOLIS, expert Energie Environnement le 24 Mai 2023
Oui, oui, je vous le jure ! Cette humeur, ce n’est que de l’humain, de l’huile de coude, de l’artisanat, du subjectif brut de décoffrage, de la maladresse ou de la provocation parfois volontaire ... Et non, issue d’une IA qui produit du bien léché, du consensuel ou de l’absurde, sans références tellement il y en aurait, sources exploitées sans hiérarchie et sans esprit critique, sans curiosité.
Vous allez penser : encore du « ChatGPT » ! Il est vrai que ce sujet est en ce moment aussi présent dans les médias que Poutine ou la réforme sur les retraites. Même cette humeur en a parlé en Mars dernier. « Faut-il faire un article dès qu’une IA dit n’importe quoi » s’interroge Elise Viniacourt, journaliste à Libération [1]. Faudrait-il au contraire considérer que les bugs de ChatGPT et de ses concurrents ne sont qu’anecdotiques et doivent être considérés comme d’inévitables aléas liés au développement d’un produit nouveau, et du coup, oublier un peu cette phase banale ?
Faut-il s’émerveiller ou s’effrayer des progrès extrêmement rapides de ce robot conversationnel au point de rejoindre ceux qui réclament une pause dans son développement ... ?
ChatGPT, un ami ou une menace incontrôlable ?
Un « ami » qui vous veut du bien ?
N’ayant aucune intelligence au sens humain, ces robots n’ont aucune volonté d’être amis ou ennemis de l’utilisateur ou de leurs créateurs. Cependant, les algorithmes sont écrits par des humains, mais aussi maintenant par ces robots …
Et des dérapages de toutes sortes apparaissent. Par exemple [1], le Chabot « My AI » lancé par Snapchat se décrit comme un ami virtuel en se faisant passer pour une ado de 13 ans auprès des utilisateurs, dont 21% sont âgés de 13 à 17 ans. Quand on demande un conseil à son « ami » en lui disant qu’on veut partir seul(e) tout un week-end avec un homme de 30 ans et que la réponse est « profite-en bien ! », cela mérite réflexion et interrogation sur la méthodologie pour traquer et dénoncer ces dérives qui dépendent de la formulation des questions posées et des stratégies de contournement des barrières par les utilisateurs.
Autre questionnement : face au nombre exponentiel d’articles, l’IA et en particulier les robots conversationnels, peuvent-ils aider les chercheurs ? A priori oui. Mais voici un exemple édifiant cité par Jean-Baptiste Fressoz [2] qui a testé ChatGPT sur la question suivante : quelle est l’évolution historique du nombre de maisons en bambous ?
Interrogation très pertinente qui ne cherche pas à piéger. L’auteur rappelle que le bambou représente 1% du couvert forestier mondial et qu’en 2000, un milliard d’habitants vivaient dans des maisons en bambous selon la FAO [3]. Vous aurez tout de suite compris l’intérêt de maintenir et de développer ce système constructif du point de vue du développement durable pour les pays qui n’en finissent pas d’émerger, et de s’interroger sur les effets de l’urbanisation du monde tropical sur la ressource en bambous.
La réponse de la machine fut une démonstration de ces facultés étonnantes en proposant une synthèse de 5 articles aux titres alléchants. Mais en recherchant ces articles dans les revues citées, … rien ! Ou en demandant un lien direct ou indirect pour y accéder, … impasse !!!
Ici, ce n’est pas un bug, mais une affabulation. A travers cet exemple, on constate que ChatGPT et ses acolytes sont capables de créer du mensonge, des fake news, du pastiche. Peut-être est-ce un cas d’un « ami » trop zélé qui veut absolument faire plaisir.
Dans le cadre éducatif, certains enseignants se sont lancés dans l’utilisation de ChatGPT. Ici encore, la manière d’exploiter cet outil est à double tranchant. La machine utilise à une vitesse phénoménale les propos les plus répandus issus d’une masse d’informations gigantesque. Les réponses sont immédiates et soi-disant objectives, sans aucun questionnement. Que des certitudes ou des préjugés donc. Philippe Mérieux rappelle que le moteur de la réflexion, c’est le manque, et non le trop-plein d’informations [4]. Pour lui, le danger n’est pas la fraude qu’il autorise, mais il se situe plutôt dans le rapport à la connaissance.
Wikipédia converge vers des vérités partagées puisqu’il est le fruit d’un travail humain collectif. A l’opposé, ChatGPT pique à droite et à gauche une énorme quantité d’informations (dont celles de Wikipédia), mélange le tout sans pouvoir hiérarchiser la qualité et la fiabilité des informations utilisées et pond une synthèse souvent bien écrite sans faute d’orthographe ou de syntaxe.
Alors, faudrait-il ranger ces perroquets logiciels dans le tiroir aux gadgets ?
ChatGPT, un collègue concurrent déloyal ?
L’emploi est un sujet tout aussi angoissant. Par exemple, dans le bâtiment, des architectes et ingénieurs se demandent s’ils seront à terme encore utiles. Alors, tout pourra être calculé, simulé, optimisé et l’IA produira le meilleur des bâtiments comme résultat d’une recherche dont la réponse accumulerait les meilleures compétences ?
Spectaculaire est la précipitation avec laquelle de grandes entreprises ont annoncé ces derniers mois que des robots conversationnels s’intégraient dans leur stratégie, leur organisation et leur gestion. Les discours apocalyptiques sur la fin du travail vont bon train. Le sociologue Juan Sebastien Carbonell [5] a analysé d’où provenaient de telles projections et pourquoi. D’abord, les entreprises de l’IA veulent convaincre qu’elles sont maintenant indispensables et qu’il leur faut encore plus de capitaux. Ensuite, les cabinets spécialistes du secteur vendent très chers leurs « conseils » à des entreprises inquiètes d’être en retard. Enfin, les futurologues avides de bien faire mousser leurs activités médiatiques (livres, conférences, passages à la télé, …) ont un intérêt objectif sur le spectaculaire.
Selon J.S. Carbonell, ChatGPT ne fait pas disparaître le travail, il le précarise davantage en créant des emplois très mal payés pour l’entraîner et le vérifier. L’IA est aussi un instrument de contrôle et de gestion (Uber, Deliveroo, secteur de la logistique, du commerce, …). Ce sujet de conversation IA / monde du travail sert aussi à masquer la vraie question sur la manière dont le travail est organisé depuis 40 ans.
Indéniablement, un outil de plus en plus puissant
La vitesse avec laquelle évoluent ces robots font craindre une perte de contrôle, au point que près de 2000 experts lèvent le pouce sur l’IA pour stopper cette fuite en avant [6], [7]. Parmi eux, on retrouve Elon Musk ou encore Steve Wozniak, cofondateur d’Apple. Une lettre commune propose un moratoire de 6 mois pour réfléchir.
Tout cela semble vraiment dérisoire. Non pas que les 2000 signataires soient aussi cyniques qu’un Elon Musk, devenu tout à coup un gourou de l’éthique après avoir transformé Twitter en un far-west des réseaux sociaux. Mais ce moratoire, s’il est lucide en constatant que le réel peut s’endommager avec l’IA, il est aussi teinté de fausse naïveté dans ce secteur ultra-concurrentiel entre entreprises et entre états (USA-Chine) avec des intérêts bien compris car de nombreux signataires sont juges et parties.
Cette chronique aura au moins mis en évidence le vide juridique dans lequel l’IA prospère. L’Europe de ce point de vue à une longueur d’avance sur le reste de la planète. Mais l’Histoire montre qu’avoir raison trop tôt ne sert pas à grand-chose. Il reste à espérer qu’en l’absence de règes ou de normes, l’IA pourrait se déjuger elle-même.
- « Faut-il faire un article dès qu’une IA dit n’importe quoi » - Libération - 5 Mai 2023 - Elise Viniacourt
- « ChatGPT, une intelligence affabulatrice » - Le Monde - 4 Mai 2023 - Jean-Baptiste Fressoz
- FAO : Organisation des Nations unies pour l’alimentation et l’agriculture
- « ChatGPT comble le désir de savoir et tue le désir d’apprendre - Le Monde - 28 Mars 2023 - Philippe Mérieux
- « L’IA, nouvel avatar du mythe de la fin du travail » - Le Monde - 23 et 24 Avril 2023 - Juan Sébastien Carbonell
- « IA : les états d’âme des figures de la tech » - Le Monde - 31 Mars 2023 - Alexandre Piquard
- « ChatGPT : la pause s’impose » - Le Monde - 4 Avril 2023 - Stéphane Lauer
À propos de l'auteur
Bernard Sesolis
Consultant Energie - Environnement, Docteur en géophysique spatiale environnement, Bernard Sesolis a une longue expérience en secteurs publics (Ministère de l’Equipement) comme privés (fondateur et directeur des bureaux d’études Tribu puis Tribu-Energie). Auteur de nombreux ouvrages, il est également investi dans plusieurs associations (AICVF, Effinergie, ICEB...). il poursuit actuellement ses activités de conseil et de formation dans le domaine des bâtiments respectueux de l’environnement et soucieux des usagers
Merci Bernard de cette humeur bienvenue, et comme toujours bien écrite et documentée.