Chargement...

Intelligence artificielle « IA » : il faut tiquer sur l’éthique



26 Avril 2019

Par Bernard Sesolis - Expert Energie Environnement


Depuis le 11 Avril, le débat entre les « modernes » et les « anciens » est relancé. Faut-il réparer Notre-Dame à l’identique ou bien marquer l’évènement et le présent ? Refaire du Viollet-Le-Duc, qui n’est d’ailleurs pas la version d’origine ? Ou à l’extrême opposé, transformer Notre-Dame en cathédrale durable, comme aurait pu l’imaginer le regretté Reiser pour tenter de dédramatiser cet évènement, en proposant par exemple une toiture photovoltaïque et une éolienne ou un lumiduc en guise de flèche ?


Cet horrible incendie rappelle que rien n’est immuable. Le risque 0 n’existe pas.

Cette actualité entre en résonnance avec l’éternel débat sur la question de la prévention des risques majeurs : une centrale nucléaire qui exploserait, une nature qui deviendrait définitivement stérile par la pollution, une technologie qui asservirait les hommes … et nous revoilà replongés dans l’humeur de Septembre 2017 et celle du mois dernier.

Aussi, revenons à nouveau sur l’intelligence artificielle (IA) qui, faut-il le rappeler, représente réellement la 3ème révolution industrielle et concerne toute la planète. A ce titre et dans l’instant, il ne faut pas cesser de s’interroger sur ce qu’elle peut devenir. Une technologie libératrice contribuant à l’équité ? Ou bien un risque majeur de se transformer en un moyen « moderne » d’asservissement mondialisé ?

Abordons donc la délicate question de l’éthique.



intelligence-artificielle-choix

Intelligence artificielle pour opérer des choix humains


1 - L’éthique des mastodontes

En Juin 2018, les employés de Google demandèrent à leurs employeurs l’arrêt de la participation au projet militaire américain Marven consistant à analyser des images prises par des drones et prêtèrent un serment éthique : « Nous ne concevrons ni de déploierons d’intelligence artificielle dans des technologies qui sont globalement nocives, ou qui présentent des risques de l’être » (2).
Pourtant, depuis 2016, les GAFAMI (1) ont déjà mis en place, en collaboration avec des ONG, la structure interdisciplinaire, PartnerShip on AI (PAI), afin de définir des garde-fous. Une sorte de Nations Unies de l’IA.
Mais cette structure, vertueuse sur les principes, sera-t-elle aussi impuissante que sa grande sœur pour préserver la paix dans le monde ?

Faut-il des lois ou bien des règles souples, option évidemment préférées par le secteur privé ?

Jean-Gabriel Ganascia nous invite à ne pas être dupes face aux serments et règles éthiques des GAFAMI proclamées. Il considère qu’il s’agit essentiellement de construire une image positive à peu de frais. Laisser des entreprises de ce secteur primordial choisir leur propre déontologie serait collectivement irresponsable. A l’opposé, réglementer un domaine en évolution très rapide n’est pas réaliste. Les américains et … les chinois avancent comme ils veulent !

Pendant ce temps, l’Europe prospecte une voie intermédiaire en préparant une première directive éthique pour une « IA de confiance » (elle sera détaillée dans la suite (3)). Issue d’une commission réunissant des experts, cette directive était en consultation publique depuis le 18 Janvier 2019 et devait aboutir à des recommandations en Mars. Nozha Boujemma, vice-présidente de cette commission précise que l’éthique seule à ses limites (4). Il serait naïf de nier que pour de nombreux acteurs, l’éthique n’est qu’un résumé de bons sentiments empathiques n’engageant personne et qu’il n’est pas question d’entraver le développement de l’IA. Et peu importent ses biais. On ne fait pas d’omelette sans casser des œufs …


2 - Biais et dérapages

Pour l’instant, l’IA n’exécute que des taches simples, mais très rapidement (choix multicritères en particulier dans de nombreux domaines). Pourtant, dans les rôles qu’on lui assigne, il arrive que l’IA propose des solutions inquiétantes.
Elle apprend seule. Certaines conclusions ne sont pas explicables ! D’autres reproduisent les préjugés et les turpitudes des concepteurs des algorithmes … qui sont très majoritairement de sexe masculin et blanc.

Les chercheurs constatent que l’IA ne parvient pas à se débarrasser des aléas humains.

L’utilisation de l’IA pour analyser des CV, pour élire une miss, pour calculer des cotisations d’assurances, pour décider de prêts bancaires, pour la reconnaissance faciale, … est entachée des stéréotypes qu’elle récupère dans les bases de données.

Certains imaginent que l’Etat devrait intervenir en s’appuyant sur des internautes, des associations techniques et d’usagers, afin de réglementer ces bases, les rendre plus « équitables » en les corrigeant en amont (5). Aux Etats-Unis, des mouvements tels que « Women AI », « Black AI » se sont constitués pour combattre les arbitraires sexistes et raciaux et introduire l’idée d’inclusion dans la technologie de l’IA. Elle touche en effet à l’intégralité d’une population et crée une personnalisation de masse (6).

Pour l’instant, nous assistons à des développements d’applications de l’IA qui échappent à tout contrôle. La dernière actualité sur la console Alexa d’Amazon est significative. Cette merveille technologique ne se contente pas de répondre à des sollicitations orales et d’agir en conséquence, elle enregistre également à l’insu de ses utilisateurs leurs conversations. Amazon ne le nie même pas et avoue en toute candeur qu’il s’agit juste de lui permettre de mieux cibler les attentes !

Et que penser de l’« IA générale », capable à terme de mieux raisonner que l’Homme ?

Si des experts renommés pensent que cette hypothèse est mythique (exemple : (7)), des centres de recherches comme Open AI à San Francisco, ou encore le CHAI, « Center of Human-compatible AI » à Berkeley travaillent sur le « button of », processus permettant à l’homme d’éteindre la machine si cette dernière devenait hors contrôle ou dangereuse. Cela rappelle la scène du célèbre film « 2001, l’odyssée de l’espace » de Stanley Kubrick, dans laquelle l’ordinateur Hal d’un vaisseau spatial pète les plombs par orgueil.
Les recherches sur l’éthique d’une future IA générale visent à assigner le logiciel à une fonction d’objectif la plus précise possible afin d’éviter toute dérive. Par exemple, un robot aspirateur ne doit pas aspirer n’importe quoi ! Ces chercheurs se posent la question de l’alignement de ces fonctions à nos valeurs. Faudrait-il encore se mettre d’accord dans tous les pays sur ces fameuses valeurs !


3 - Quels moyens pour un développement éthique de l’IA ?

L’Europe imagine, de manière encore isolée, une IA fiable, éthique et compatible avec les Droits de l’Homme (3). Cette IA dite de « confiance » s’appuierait sur une réflexion critique de l’IA générale, sur des critères mettant en œuvre l’auditabilité, la traçabilité, la transparence, tant durant les phases de conception et de développement que durant celles du déploiement et de l’usage.
Cette IA de confiance ne doit pas son nom qu’à des soucis éthiques. Selon la directive européenne, elle se développera harmonieusement si elle sera compatible avec les exigences technico-économiques, c'est-à-dire, si elle s’avère robuste et efficace. Bref, si elle pourra répondre à ses promesses, si elle ne décevra pas.

A ce stade, on peut qu’être en accord avec ces principes. Mais qu’en est-il là où l’IA se développe réellement, les Etats Unis et la Chine, là où le citoyen n’est pas consulté. Les marchés s’imposent. Et ce, malgré les déceptions ou grâce aux satisfactions des utilisateurs.
La console Alexa va continuer à se vendre comme des petits pains. La liste des avantages et des inconvénients de la voiture autonome devrait à elle seule permettre à n’importe qui de conclure qu’il serait ridicule de continuer dans cette voie. Pourtant, cette véritable poudre aux yeux mondiale mise en place par l’industrie automobile et relayée par des médias peu empressés de contrarier des sponsors extrêmement puissants est un exemple qui balaye d’un revers toute future déception !

Ce sujet est même devenu la tarte à la crème de la question éthique de l’IA : en cas de problème, qui écraser si l’accident devient inévitable ? J’ai une réponse : pas de voiture autonome …

L’IA est imposée sans attendre la moindre acceptation de la part de l’utilisateur, considéré exclusivement comme un consommateur et non comme un citoyen.

Même en France : le compteur Linky sera imposé et généralisé malgré les réticences de nombreux utilisateurs. Les arguments techniques sur la smartitude des réseaux électriques, permettant à terme le déploiement de la mutualisation des productions et utilisations locales, n’ont pas été discutés avec les citoyens. Sont-ils considérés comme incapables d’exprimer des idées positives ou négatives sur la question ?

Toujours en France, un an après la sortie du rapport sur l’IA pour l’Humanité, coordonné par Cédric Villani, les moyens mis en œuvre ne sont pas du tout à la hauteur des enjeux (8). La mise en place d’équipes interdisciplinaires, le développement de bases de données transparentes, les moyens pour y parvenir, toutes ces bonnes intentions restent en grande partie sur le papier. Pour garder dans l’hexagone les têtes bien faites, il était proposé de doubler les salaires. Irréaliste voyons ! Ou encore, de laisser la possibilité à des chercheurs de travailler à ½ temps pour le secteur public et à ½ temps pour le privé, meilleur payeur. Trop compliqué d’un point de vue juridique, notamment sur la question de la propriété industrielle et sur la neutralité des travaux dans le secteur public !
Selon le cabinet de recrutement Big Cloud, un chercheur français est trois fois moins payé que son confrère suisse et le britannique gagne 36% de plus que son homologue français (9).

Comment alors développer et, avec qui, une IA éthique à la française ou européenne ? Si l’inflation des salaires provoquée par les GAFAMI est patente, elle ne concerne principalement que les chercheurs en « amont ». Dans le domaine de la recherche développant des systèmes opérationnels, des applications, secteur favori des Start-up, il est encore possible d’inciter les talents à rester en Europe et à travailler dans un cadre plus soucieux d’une éthique et d’un partage de valeurs communes. Nécessaire, mais insuffisant.


4 - Une non-conclusion

En relisant cette humeur, le bilan sur l’évolution de l’IA semble très pessimiste. Et pourtant, il faut reprendre une des conclusions du roman de Jean-Gabriel Ganascia, alias Gabriel Naëj, « Ce matin, maman a été téléchargée » (Buchet-Chastel) cité dans (10) : « On n’arrêtera pas le progrès, mais ce qui est important, c’est de faire en sorte que la technologie ne nous tombe pas sur la tête. De nous souvenir que nous pouvons faire des choix ».

J’ajouterai qu’il ne faut pas seulement se souvenir. Il faut se battre pour que l’inéluctable développement de l’IA soit régit pour le bien commun.



Bernard SESOLIS
Expert Energie Environnement



  1.   GAFAMI : Google, Apple, Facebook, Amazon, Microsoft, IBM
  2.  « L’éthique dans l’IA, année 0 », Le Monde - 5 Octobre 2018 - Alexandre Picquard - Morgane Tual
  3.  « Pour une IA de confiance », Le Monde - 9 Janvier 2019 - Nozha Boujemma
  4.  « Algorithmes : l’éthique n’est pas toute la question » - Le Monde - 19 Septembre 2018 - Nozha Boujemma
  5.  « IA : biaise moi » - Libération - 19 avril 2019 - Amaelle Guiton
  6.  «  L’éthique biaisée de l’IA » - Le Monde - 20 Septembre 2018 - Matthieu Sénéchal
  7.  « Le Mythe de la singularité » - Jean-Gabriel Ganascia - Editions du Seuil
  8.  « Un an après, quid du plan IA ? » - Le Monde - 10 Avril 2019 - Nozha Boujemma
  9.  « IA : des talents à prix d’or » - Le Monde - 31 Mars et 1er Avril 2019 - Vincent Fagot
  10. « Jean-Gabriel Ganascia – L’esprit de l’intelligence artificielle » - Le Monde - 26 février 2019 - Catherine Vincent




Commentaires

Aucun commentaire actuellement, soyez le premier à participer !

LAISSER UN COMMENTAIRE

ABONNEZ-VOUS !
Ce site respecte strictement la réglementation RGPD sur les données personnelles. Pour connaitre et exercer vos droits, vous pouvez consulter notre politique de confidentialité
Reférencement gratuit

Référencez gratuitement votre société dans l'annuaire