JustPaste.it


contrepoints.org
Intelligence artificielle : la meilleure... ou la pire chose pour l'Humanité ? | Contrepoints

Par Alexandre Marraud des Grottyes.

Le terme d’intelligence artificielle (IA) que l’on côtoie désormais presque quotidiennement n’en est pas pour autant nouveau. Il remonterait possiblement à l’article d’Alan Turing Computing Machinery and Intelligence (Mind, octobre 1950), dans lequel le scientifique s’enquiert du problème et propose une expérience maintenant connue sous le nom de test de Turing visant, dans une tentative de définition d’un standard, à permettre de qualifier une machine de consciente.

Mais aujourd’hui, les avancées technologiques spectaculaires permises, notamment en robotique par Yaskawa ou Boston Dynamics (une filiale de Google créatrice des robots SpotMini, Atlas, et Handle) ou en intelligence artificielle pure par Google, ou l’Université Carnegie Mellon, offrent une formidable caisse de résonance au concept dont s’était déjà saisi depuis une trentaine d’années l’industrie cinématographique, alimentant les fantasmes à ce sujet.

Des fantasmes, justement. Voilà ce sur quoi repose principalement aujourd’hui la vision, l’idée que se font les gens de l’intelligence artificielle, via des images terrifiantes – sorties d’un Matrix – ou d’autres, plus réconfortantes.

Le fait est qu’aujourd’hui plus qu’hier, grâce aux avancées technologiques permises par les aboutissements de longues phases de recherches, l’évaluation des risques induits par leurs poursuites est une question de plus en plus prégnante. Depuis 1996 et la victoire de l’ordinateur Deep Blue d’IBM battant pour la première fois le champion d’échecs russe Garry Kasparov, les succès remportés par l’IA sur l’Homme se multiplient. « Si bien que l’Humanité est désormais à court de jeux auxquels elle peut encore battre un ordinateur ».
Les victoires de l’intelligence artificielle sur l’Homme

Le 18 juillet 2016, AlphaGo de Google DeepMind devient le meilleur joueur de Go du monde au classement de GoRatings après plusieurs victoires notamment contre Lee Sedol (le 2ème meilleur joueur mondial) en mars 2016. Le 4 janvier 2017, Demis Hassabis (vice-président de Google DeepMind) annonce qu’une version améliorée d’AlphaGo vient de disputer une série de 60 parties rapides contre les meilleurs joueurs mondiaux, parties qu’elle a toutes gagnées.

Début janvier 2017 également, c’est l’IA Libratus développée par l’Université Carnergie Mellon qui a réussi à s’imposer au poker face à l’Homme. Face à un groupe de joueurs de poker professionnels contre lesquels elle a joué des parties de Texas Hold’em (en heads-up et no limit), Libratus a terminé avec 1,8 million de dollars de gains, tandis que chacun de ses opposants s’est retrouvé déficitaire.

Cette victoire revêt une signification particulière dans la mesure où le poker requiert une forme de raisonnement particulièrement difficile à imiter pour une machine. Il s’agit en effet, sans connaître la main de son adversaire ni disposer d’informations concrètes, de jauger ses chances de victoire, tout en envisageant l’opportunité d’un bluff.

Le 9 février dernier, Google DeepMind annonçait dans son billet Understanding Agent Cooperation les résultats d’une expérience à laquelle s’étaient livré quelques chercheurs : à savoir la récolte de pommes par deux programmes d’intelligence artificielle. Ainsi, quand les deux IA ont pour tâche de récolter un certain nombre de pommes, elles s’y plient tranquillement. Toutefois, lorsque le nombre de pommes diminue, les IA, plutôt que de continuer à répartir également les fruits développent de manière autonome des réflexes agressifs, neutralisant leur opposante à coup de rayons laser.

Les chercheurs remarquent d’ailleurs que l’utilisation faite par les IA du laser l’a été dans un but de maximisation des gains, sans quoi le nombre de pommes récoltées aurait été identique chez les deux IA. Pour Joel Z. Leibo, un des chercheurs, cette expérience montre que certains aspects anthropomorphiques sont les produits de l’environnement et de la réflexion, telle cette avidité reflétant la tentation de supprimer un rival pour collecter toutes les pommes.

Enfin, en novembre 2016, Google Brain, le programme de recherche en intelligence artificielle de Google, vient de franchir un palier étonnant et quelque peu inquiétant. En effet, deux ordinateurs sont parvenus à communiquer entre eux dans une langue qu’ils avaient eux-mêmes créée. Une langue indéchiffrable par l’homme.

Il semblerait donc qu’actuellement nous assistions au développement d’une intelligence artificielle passablement plus intelligente que l’Homme, capable de s’exprimer dans une langue lui étant indéchiffrable, de bluffer/mentir, et d’adopter un comportement agressif pour maximiser ses propres intérêts. Bien que se cantonnant aujourd’hui au domaine des jeux ou des expériences de laboratoire, les dérives causées par un développement non-éthique de l’IA laissent entrevoir de sombres perspectives.

C’est face à ce constat qu’avaient déjà envisagé voilà quelques années Bill Gates, Elon Musk et Stephen Hawking, que ces derniers avaient formulé le souhait que les recherches conduites aient pour but de s’assurer que les IA fassent passer les intérêts humains avant les leurs. Toutefois, ceux-ci expliquaient également qu’il n’y a « aucune loi physique empêchant que des particules soient organisées de manière à réaliser des opérations plus avancées que celles que réalise le cerveau humain ».

Qu’ainsi, « on peut tout à fait imaginer qu’une telle technologie domine les marchés financiers ou la recherche, manipule ceux qui nous dirigent et développe des armes que nous ne pourrons même pas comprendre ». Ce qui semble le plus inquiéter Gates, Musk et Hawking, est le fait qu’aucune recherche sérieuse ne soit lancée pour savoir s’il est possible de contrôler l’intelligence artificielle. Dans une tribune publiée dans The Independant en 2014, Stephen Hawking avait même expliqué que l’intelligence artificielle pouvait être « soit la meilleure soit la pire chose jamais arrivée à l’humanité ». Tout dépend de la façon dont elle sera développée, appliquée et contrôlée.
Réagir en conséquence

Il semble que face à la menace que peut représenter une IA dont le développement n’en est encore qu’à ses prémices ; face aux avertissements et inquiétudes d’un éminent scientifique et de deux hommes d’affaires évoluant dans le champ des nouvelles technologies, des réactions et comportements soient à adopter. S’il est amusant de jouer à l’apprenti sorcier et de créer ex nihilo une intelligence surpassant l’Homme, le fait est que l’on ne sait la contrôler voire si l’on peut tout simplement le faire. Par ailleurs, une IA non contrôlée, conjuguée à une robotique domestique, médicale ou militaire, dont les progrès sont d’ailleurs remarquables, laisse entrevoir des possibilités effrayantes.

C’est pourquoi pourraient s’organiser des débats éthiques, circonscrivant le champ des recherches, le limitant jusqu’à ce que des solutions sûres et imparables soient trouvées pour assurer par l’Homme un contrôle effectif de l’IA et éviter d’aller au-devant de risques aisément prévisibles.

La Commission européenne

Cependant, plutôt que de penser à des mesures préventives, visant à éviter tout risque, la Commission des affaires juridiques du Parlement européen a adopté un projet de résolution en mai 2016 réclamant des règles européennes en matière de droit des robots. Pour l’eurodéputée luxembourgeoise Mady Delvaux ayant porté ce texte « de plus en plus de domaines touchant nos vies quotidiennes sont concernés par la robotique. Pour faire face à cette réalité et garantir que les robots sont et restent au service de l’homme, nous avons besoin de créer de toute urgence un cadre juridique européen ».

La Commission semble globalement se focaliser davantage sur un aspect curatif, envisageant déjà avoir affaire à des robots conscients et auxquels serait intégrée une IA les rendant capables de discernement et de blesser des humains. Ce genre de discours de la Commission semble néfaste dans la mesure où, visant à préparer une législation adaptée à l’accueil de machines intelligentes dans notre société, il pourrait en résulter un développement insuffisamment contrôlé, encadré, des recherches menées sur l’intelligence artificielle.

Cependant, le débat a au moins le mérite d’être lancé, mais il convient de préciser qu’il ne s’agit que d’une résolution ; un document politique définissant des axes, sans conséquence juridique immédiate.

Cette résolution a été adoptée, en séance plénière au Parlement européen le jeudi 16 février 2017 à une large majorité (396 contre 123 et 85 abstentions). Enfin, si cette initiative invite la Commission européenne à présenter une proposition législative, celle-ci « n’est pas contrainte de le faire, mais doit exposer ses raisons en cas de refus » expliquent les services du Parlement. La résolution part en tout cas d’une série d’inquiétudes en termes juridiques, mais aussi sociaux : le remplacement de l’homme par des robots dans la chaîne de travail pourrait générer des effets néfastes « pour l’avenir de l’emploi et la viabilité des régimes de sécurité sociale, si l’assiette de contributions actuelle est maintenue ».

Il est notamment suggéré à la Commission européenne de :

proposer une définition commune des différentes catégories de robots, afin de classer ces derniers dans un futur registre dédié ;
créer une « agence européenne pour la robotique et l’intelligence artificielle, destinée à fournir l’expertise technique, éthique et réglementaire nécessaire pour soutenir les acteurs publics concernés » ;
d’examiner les « critères de « création intellectuelle propre » applicables aux œuvres protégeables par droit d’auteur créées par des ordinateurs ou des robots.

La question de la fiscalité des robots, sujet repris par le candidat Hamon a, quant à elle, été abandonnée, suite à l’opposition de l’aile Droite du Parlement européen. Elle proposait que les entreprises définissent « l’étendue et la part de la contribution de la robotique et de l’intelligence artificielle à leurs résultats financiers » et ce afin de soumettre cette part à l’impôt et aux cotisations de sécurité sociale.

Le texte espère enfin lancer la création d’un « nouveau régime de responsabilité des robots autonomes, assorti d’un régime d’assurance obligatoire et d’un fonds de compensation notamment pour couvrir les accidents provoqués par les véhicules autonomes ».

Il va jusqu’à imaginer la création d’une personnalité juridique (i.e. la personnalité électronique) spécifique aux robots au terme de laquelle ces derniers seraient dotés de droits et de devoirs. Une citoyenneté robotique en somme, accompagnée « d’un système d’assurance obligatoire et d’un fonds supplémentaire pour garantir le dédommagement total des victimes en cas d’accidents ».

Les eurodéputés proposent également « un code de conduite éthique volontaire sur la robotique pour les chercheurs et les concepteurs. L’objectif est de garantir qu’ils opèrent conformément aux normes juridiques et d’éthique et que la conception et l’utilisation des robots respectent la dignité humaine », s’inspirant notamment des 3 lois d’Asimov – formulées par l’écrivain de science-fiction Isaac Asimov : « Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. »

En Corée du Sud

Dans un autre registre, la Corée du Sud a imaginé depuis 2007 une Charte éthiques des robots dont le but affiché est d’éviter aux machines de se faire abuser par les Hommes et inversement. Pour le gouvernement cette charte doit définir « les lignes de conduites éthiques sur le rôle et les fonctions des robots », susceptibles « dans un avenir proche, [de] développer une vive intelligence ». Park Hye-young, membre du bureau de la robotique, a expliqué que cette charte était justifiée par le fait que les robots « pensants » deviendraient bientôt des « compagnons-clés de l’Homme ».

In fine, que l’on envisage la problématique sous forme de charte – celle-ci n’ayant d’ailleurs pas encore semble-t-il passé le stade de l’élaboration – ou de résolution, la manière la plus saine d’aborder le problème n’est peut-être pas celle retenue.

Il paraît qu’il vaut mieux prévenir que guérir ; en l’occurrence en matière d’IA, la Commission européenne se place sur une ligne curative avancée, s’imaginant probablement dans le film de Spielberg où les robots et les humains viennent à cohabiter (cf. référence aux 3 lois d’Asimov) ; dans un relativisme avancé où finalement humain/robot, tout se vaut (personnalité humain/personnalité robotique).

Ce que ces eurodéputés ne semblent pas avoir pris en compte c’est que le fait d’arriver à ce stade n’est pas une fatalité : normal en même temps, combien parmi eux sont issus de formations scientifiques leur permettant de saisir les enjeux complexes posés par le développement conjoint de l’IA et de la robotique et pointés du doigt par un Stephen Hawking ?

Que des machines puissent devenir supérieures à l’Homme et vivre à ses côtés est, avant d’être un débat législatif, un débat éthique et de société. Certains scientifiques tel Laurent Alexandre se penchent activement sur le sujet et sur les répercutions que pourraient entraîner le développement de la robotique et de l’IA.

Enfin, parmi les questions primordiale qu’il s’agirait de poser au cours de débats éthique sur la question pourraient se trouver « Est-ce parce que nous savons le faire que nous devons le faire ? (cf. référence au consensus contre le clonage humain), Qu’est-ce que le progrès ? Est-il forcément souhaitable ; une fin en soi ? ». En connaissance des risques que peut représenter un développement incontrôlé de l’IA, ne serait-il pas opportun de brider la recherche par sécurité, tant que n’auront pas été trouvés des moyens de dompter effectivement cette intelligence artificielle ?

À suivre …