Intelligence Artificielle, Inexorable Armageddon ?


Par Thierry Berthier.

Elon Musk, visionnaire ou Cassandre de l’IA ?

Elon Musk, entrepreneur visionnaire, fondateur de Tesla et de Space X, inventeur gĂ©nial, dĂ©veloppeur Ă©clairĂ© de l’innovation, futurologue, futur premier voyagiste du systĂšme solaire, communique de plus en plus souvent sur l’intelligence artificielle qu’il considĂšre aujourd’hui comme « le plus grand risque auquel notre civilisation sera confrontĂ©e ».

Ses derniĂšres interventions ne souffrent d’aucune ambiguĂŻtĂ©, ne s’embarrassent d’aucune prĂ©caution pour affirmer que le genre humain est en danger, que le pĂ©ril est parmi nous et que l’IA pourrait nous conduire prochainement Ă  un IrrĂ©mĂ©diable Armageddon.

Elon Musk n’est d’ailleurs pas la seule personnalitĂ© de dimension planĂ©taire Ă  donner l’alerte. Il partage ce rĂŽle de lanceur d’alerte ou de Cassandre avec Stephen Hawking et Bill Gates qui tiennent en substance le mĂȘme discours.

Les mises en garde ont rĂ©ellement commencĂ© en 2015 avec la publication d’une lettre ouverte devenue cĂ©lĂšbre par le FHI d’Oxford alertant sur les risques de l’IA utilisĂ©e dans les robots armĂ©s autonomes.

ParticuliĂšrement pessimiste, Elon Musk affirme qu’il sera vite trop tard pour l’avenir de l’humanitĂ© si des mesures conservatoires et contraignantes ne sont pas prises dĂšs aujourd’hui pour encadrer le dĂ©veloppement de l’IA.

Musk acteur mondial de l’IA

On pourrait y voir un premier paradoxe ou une lĂ©gĂšre schizophrĂ©nie sachant qu’ Elon Musk est un acteur mondial de l’IA, qu’il contribue Ă  ses progrĂšs dans les diffĂ©rentes activitĂ©s de R&D qu’il finance et dans les diffĂ©rents projets qu’il soutient.

Pourquoi ne met-il pas alors immĂ©diatement un terme Ă  toutes ses participations ayant de prĂšs ou de loin un rapport avec l’IA ?  Peut-on endosser le rĂŽle de lanceur d’alerte en mĂȘme temps que celui de gĂ©nĂ©rateur du pĂ©ril que l’on dĂ©nonce ?

Une pirouette rhĂ©torique pourrait faire dire Ă  Elon Musk que c’est justement parce qu’il participe au projet global de l’IA qu’il bĂ©nĂ©ficie d’une vision privilĂ©giĂ©e des dangers et des pĂ©rils collatĂ©raux qui nous menacent. C’est effectivement sur cette posture intellectuelle et ce prisme de lecture qu’il faut Ă©couter et lire Elon Musk.

Écouter Elon Musk, c’est, en prĂ©alable, filtrer l’écume de son discours qui participe au solutionnisme ambiant en Silicon Valley. Lorsqu’Elon annonce l’homme sur Mars en 2024, il se laisse sept petites annĂ©es pour rĂ©soudre l’ensemble des problĂšmes inhĂ©rents Ă  cette future mission alors que la NASA vient de jeter l’éponge faute de crĂ©dits.

L’IA nuira-t-elle à l’espùce humaine ?

Le tropisme solutionniste sous-estime la complexitĂ© de l’environnement et des processus, gomme les obstacles, nie les forces de l’alĂ©atoire et de l’imprĂ©visible et fait preuve d’une certaine arrogance face aux temporalitĂ©s humaines.

Pour autant, une fois cette Ă©cume solutionniste Ă©vacuĂ©e, il reste des interrogations lĂ©gitimes sur les capacitĂ©s futures de l’IA dont celle de nuire Ă  l’espĂšce humaine. Lors de ses mises en garde et alertes, Elon Musk se projette clairement dans un contexte d’intelligence artificielle forte disposant d’une forme de conscience de ses propres actions.

Sous l’hypothĂšse d’IA forte, la question de la dĂ©rive malveillante d’une IA prend alors tout son sens. Une IA forte pourrait par exemple privilĂ©gier ses propres choix au dĂ©triment des intĂ©rĂȘts humains et s’engager dĂ©libĂ©rĂ©ment vers un rapport de force et un conflit. Elle pourrait aussi s’ auto-attribuer la mission supĂ©rieure d’Ɠuvrer pour le bien de l’humanitĂ© au prix d’un abandon du libre arbitre de ceux qu’elle cherche Ă  aider.

Croyant faire le bien de l’espĂšce humaine, elle contribuerait au contraire Ă  son aliĂ©nation et Ă  sa vassalisation. Dans le contexte d’une IA forte, toutes les situations de concurrences puis de duels avec l’espĂšce humaine sont rationnellement envisageables.

Ce sont d’ailleurs ces scĂ©narios qui nourrissent depuis trois dĂ©cennies tous les films de science fiction Ă©voquant l’IA
 Finalement, lorsqu’Elon Musk Ă©voque des dĂ©rives prĂ©visibles de l’IA forte, il ne fait que proposer de nouveaux scĂ©narios de science fiction qu’il est objectivement impossible de confirmer ou d’infirmer en l’état actuel des connaissances scientifiques.

Les risques de dĂ©tournement malveillant d’une IA faible en 2017

La situation qu’il convient d’examiner et sur laquelle une rĂ©flexion rationnelle doit ĂȘtre menĂ©e sans tarder est celle de la possibilité  d’effets collatĂ©raux indĂ©sirables, nuisibles ou destructeurs provoquĂ©s par une IA faible n’ayant, rappelons-le,  aucune conscience d’elle-mĂȘme, de son propre fonctionnement et de ses sorties produites.

Dans ce contexte, on ne fait intervenir dans la rĂ©flexion que l’existant technologique actuel, l’état de l’art, et la R&D en cours  sur l’IA Ă  l’horizon 2022, en tenant compte d’une durĂ©e de programme de recherche sur cinq ans.

Ce cadrage prĂ©alable permet d’évacuer les hypothĂšses indĂ©cidables relevant de la science fiction et celles issues d’un solutionnisme niant la complexitĂ© des dĂ©fis technologiques.

La question posée par Musk

La question qu’ Elon Musk pourrait rationnellement poser devient : « Dans l’état actuel des connaissances et des recherches en cours, le fonctionnement des IA peut-il provoquer des dĂ©sordres ? des dĂ©sastres ?  un Armageddon ? ».

Concernant les désordres, la réponse est clairement positive au regard des expérimentations de cybersécurité réalisées depuis 2014.

Concernant les dĂ©sastres et  un Ă©ventuel Armageddon, il semble impossible d’apporter  une rĂ©ponse qui ne relĂšve pas immĂ©diatement de la fiction. Cela dit, il est possible de lister au moins un  scĂ©nario dont les mĂ©canismes et automatismes mis en rĂ©sonance deviendraient si instables qu’ils pourraient Ă©chapper au contrĂŽle humain. L’issue  pourrait alors ĂȘtre trĂšs incertaine ou chaotique.

Des facteurs d’instabilitĂ©

Le premier facteur d’instabilitĂ© relĂšve de la cybersĂ©curitĂ© de l’intelligence artificielle et rassemble l’ensemble des dĂ©tournements rĂ©alisables par hacking, prise de contrĂŽle illicite ou influence volontairement malveillante des processus d’apprentissage d’un systĂšme autonome.

Tay, l’IA conversationnelle de Microsoft en a fait les frais il y a quelques mois avec un apprentissage forcĂ© aux propos racistes et fascistes, le tout en moins de 24 heures d’utilisation. Pour autant, les effets indĂ©sirables du dĂ©tournement de Tay ont Ă©tĂ© trĂšs limitĂ©s et se rĂ©duisent finalement Ă  un prĂ©judice d’image pour l’équipe responsable de ce ChatBot particuliĂšrement vulnĂ©rable.

Le dĂ©tournement d’un systĂšme armĂ© autonome s’appuyant sur une phase d’apprentissage serait beaucoup plus problĂ©matique. L’armement autonome s’apprĂȘte Ă  dĂ©ferler sur le champ de bataille.

Des robots armés autonomes

Le 10 juillet 2017, le groupe industriel russe Kalashnikov a présenté officiellement sa gamme de robots armés autonomes embarquant une architecture de réseaux de neurones dédiée à la reconnaissance et au traitement automatique des cibles.

La nouvelle doctrine militaire russe a pour objectif d’exclure l’homme de la zone d’immĂ©diate conflictualitĂ© et de robotiser plus de 30 % de ses systĂšmes d’armes. Il en est de mĂȘme du cĂŽtĂ© amĂ©ricain et chinois avec le dĂ©veloppement de navires de lutte anti-sous-marine  autonomes (programme Darpa Sea Hunter).

Le piratage et la prise de contrĂŽle des ces systĂšmes autonomes par un adversaire pourrait provoquer d’importants dommages et de fortes instabilitĂ©s sur le terrain..

De la mĂȘme façon, les systĂšmes d’aide Ă  la dĂ©cision militaires (anciennement appelĂ©s systĂšmes experts) sont eux aussi sensibles aux cyberattaques et peuvent potentiellement devenir la cible de dĂ©tournement par orientation de leur phase d’apprentissage.

Le problÚme central des fausses données

A ce titre, le rĂŽle des fausses donnĂ©es injectĂ©es volontairement dans l’espace de collecte de ces systĂšmes (pour les tromper) devient central.

L’IA peut aujourd’hui produire des imitations de si bonne qualitĂ© qu’il devient presque impossible de dĂ©tecter le faux du vrai. Cela a Ă©tĂ© le cas en 2016 avec la production d’un tableau Ă  la maniĂšre de Rembrandt par une IA qui a Ă©tĂ© Ă©duquĂ©e Ă  partir de l’ensemble des Ɠuvres du MaĂźtre et qui commandait une imprimante 3D pour l’exĂ©cution du tableau.

Plus rĂ©cemment, une IA a produit une vidĂ©o d’un discours fictif de Barack Obama Ă  partir d’une phase d’apprentissage des vrais discours de l’ancien PrĂ©sident. Le rĂ©sultat est absolument saisissant !

On imagine les effets sur la population mondiale, sur les marchĂ©s et sur l’équilibre gĂ©opolitique  d’un faux communiquĂ© vidĂ©o d’un PrĂ©sident amĂ©ricain annonçant une attaque chimique, biologique ou nuclĂ©aire fictive
 L’instabilitĂ© provoquĂ©e par la diffusion d’un vidĂ©o « Fake News » crĂ©dible de dĂ©claration de guerre pourrait vite devenir incontrĂŽlable


Les fausses donnĂ©es numĂ©riques interprĂ©tĂ©es ou produites par des IA constituent le premier vecteur d’instabilitĂ© induit par l’IA. Elles doivent faire l’objet de recherches et de dĂ©veloppement de systĂšmes automatisĂ©s capables de dĂ©tecter en temps rĂ©el et en haute frĂ©quence la vĂ©racitĂ© d’une donnĂ©e puis de donner l’alerte en cas de doute lĂ©gitime.

Les mĂ©canismes imprĂ©vus de l’IA

Enfin, pour faire Ă©cho aux propos d’Elon Musk, on doit examiner un scĂ©nario inĂ©dit qui ne fait pas intervenir de piratage ou de dĂ©tournement d’IA mais qui s’appuie sur une mise en rĂ©sonance imprĂ©vue de plusieurs mĂ©canismes associĂ©s Ă  des IA  distinctes, fonctionnant lĂ©gitimement et correctement. Pour prĂ©ciser ce scĂ©nario, on utilise deux mĂ©canismes liĂ©s Ă  la cybersĂ©curitĂ© et au fonctionnement de l’OTAN.

Le premier mĂ©canisme prĂ©cise que toute cyberattaque massive sur un pays membre de l’OTAN peut entraĂźner une rĂ©ponse militaire classique des autres pays membres et des États-Unis aprĂšs attribution de l’attaque.

Des automatismes d’alerte ont Ă©tĂ© crĂ©Ă©s en ce sens. Les États-Unis ont annoncĂ© qu’en cas de cyberattaque massive sur leurs infrastructures critiques, ils se rĂ©servaient le droit de riposter par des bombardements. Le cyberespace est considĂ©rĂ© aujourd’hui par l’OTAN comme un espace des opĂ©rations au mĂȘme titre que l’espace maritime, terrestre et spatial.

Le programme de Darpa

Le second mĂ©canisme concerne un programme lancĂ© par la Darpa (l’agence amĂ©ricaine de dĂ©veloppement des technologies de dĂ©fense). Ce programme de cybersĂ©curitĂ© dĂ©veloppe des outils autonomes d’inspection et de dĂ©tection automatisĂ©e de vulnĂ©rabilitĂ©s dans les codes informatiques.

Le travail de recherche de bugs et de failles de sécurité est confié à une IA qui passe en revue les programmes et détecte (une partie seulement) des vulnérabilités.

On peut alors imaginer le scĂ©nario suivant :  Un systĂšme expert militaire OTAN (une IA) qui souhaite s’entraĂźner et amĂ©liorer ses performances actionne l’IA de dĂ©tection automatisĂ©e de vulnĂ©rabilitĂ©s de programmes sensibles d’un pays membre jugĂ© fragile.

En guise d’exercice, le systĂšme expert lance des attaques sur l’ensemble des vulnĂ©rabilitĂ©s recensĂ©es du pays membre, en camouflant l’origine de l’attaque et en laissant des traces d’un pays tiers non membre de l’OTAN.

Cette cyberattaque massive rentre alors dans le cadre du processus de rĂ©ponse automatisĂ©e et d’agression contre un membre de l’organisation qui engage alors une rĂ©ponse militaire sur le pays tiers.

Ce scĂ©nario, fortement rĂ©sumĂ© et simplifiĂ©, a fait l’objet d’une Ă©tude publiĂ©e en 2017 dans une revue de DĂ©fense (RGN). Il met l’accent sur le risque rĂ©el de mise en rĂ©sonance d’automatismes indĂ©pendants et lĂ©gitimes associĂ©s Ă  des IA qui placĂ©es dans une certaine sĂ©quence provoquent une instabilitĂ© ou une situation de crise. C’est sans doute dans cette perspective de dĂ©sordres qu’il faut entendre les propos alarmants d’Elon Musk .

Pour conclure


Il est aujourd’hui strictement impossible de prĂ©voir les futures capacitĂ©s de l’IA Ă  l’horizon 2035-2040 ou d’affirmer qu’une IA forte sera disponible dans une ou deux dĂ©cennies.

Pour autant, la prolifération des fausses données numériques créées par les IA, leur qualité et leur impact sur notre écosystÚme hyper connecté vont produire de fortes turbulences à court terme.

Ajoutons Ă  cela le risque de dĂ©tournement volontaire ou de mise en rĂ©sonance de systĂšmes autonomes pour avoir la certitude que la nĂ©cessaire montĂ©e en puissance de l’intelligence artificielle ne s’effectuera pas sans quelques dommages collatĂ©raux.

 

Cet article Intelligence Artificielle, Inexorable Armageddon ? est paru initialement sur Contrepoints – Journal libĂ©ral d’actualitĂ©s en ligne

Via: Contrepoints — http://ift.tt/2uggE39

July 21, 2017 at 07:37AM

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icÎne pour vous connecter:

Logo WordPress.com

Vous commentez Ă  l'aide de votre compte WordPress.com. DĂ©connexion /  Changer )

Photo Google+

Vous commentez Ă  l'aide de votre compte Google+. DĂ©connexion /  Changer )

Image Twitter

Vous commentez Ă  l'aide de votre compte Twitter. DĂ©connexion /  Changer )

Photo Facebook

Vous commentez Ă  l'aide de votre compte Facebook. DĂ©connexion /  Changer )

w

Connexion Ă  %s

WordPress.com.

Retour en haut ↑

%d blogueurs aiment cette page :