La révolte des robots intelligents - Quelques réflexions

Philippe Brindet - 27.11.2017

Plusieurs célébrités du monde des sciences et des techniques, comme le physicien Stephen Hawking et l'entrepreneur Elon Musk, estiment que les robots intelligents qui sont aujourd'hui en cours de conception, seraient capables de se retourner contre l'humanité. Trois courants répliquent à ces alarmes.

Se moquer des alarmistes

La première réplique consiste à se moquer des gens alarmistes.

C'est toujours ainsi que les choses se déroulent. Lorsqu'une technique nouvelle, des gens conservateurs sur-estiment les dangers ou inconvénients de la nouvelle technique. Au courant du XIX° siècle, avec les premiers trains de voyageurs, on craignait que la surpression provoquée par l'entrée du train dans un tunnel tuerait les passagers. AU début du XX° siècle, les adversaires de l'automobile était parvenu à imposer une règle du code de la route selon laquelle l'automobile devrait franchir un carrefour, précédée d'un homme à pied agitant un drapeau rouge pour assurer la sécurité.

Malgré tout, les alarmes concernant l'énergie atomique civile se sont révélées partiellement vraies. En particulier, si les accidents sont rares, ils sont loin d'être négligeables, d'autant plus qu'ils sont encore aujourd'hui plus ou moins minimisés. On citera le cas de l'accident de Fukushima dans lequel 7 ans après on est seulement en train de retrouver le corium répandu sous la centrale, où encore l'accident de Tchernobyl dont le sarcophage de protection, vingt ans après, est peut être en action. Mais nous pouvons seulement dire peut être.

Les dangers inhérents à la robotique intelligente seraient tous de nature à être obvié par des dispositions permettant d'interdire la "révolte" des robots. Ainsi, si un robot devenait menaçant, l'idée consisterait alors à trouver un mécanisme de neutralisation d'urgence du robot désobéissant.

Une telle solution serait contournable de manière intelligente. En effet, une disposition de neutralisation d'un robot intelligent pose à ce robot dans le cadre d'une désobéissance un problème technique déterminé. Si le robot dispose réellement d'une intelligence artificielle, il pourrait être capable de résoudre à son avantage un tel problème. Et ce que craignent les alarmistes serait une coopération dans ce but de plusieurs robots intelligents ou même l'intervention d'un homme ayant des objectifs agressifs et qui coopèrerait avec le robot désobéissant.

Mais, là encore, les adversaires des alarmistes estiment que les spécialistes de la construction et de la gestion de robots intelligents devraient être capables de résoudre ce genre de problèmes, de menace en menace.

Surestimer les avantages

Une deuxième réplique consiste à surestimer les avantages de la nouvelle technique et à prétendre de plus qu'on est capable ou d'empêcher l'inconvénient ou de réduire son risque de manière arbitrairement acceptable.

Les partisans de la robotique intelligente estiment que un certain nombre de tâches ne sont pas réalisables par des humains. C'est notamment le cas des travaux dangereux, comme ceux de décontamination des sites d'accidents atomiques. Aujourd'hui, l'intervention de robots intelligents n'est pas encore possible et à Fukushima, seuls des robots téléguidés interviendraient d'après les informations publiées.

Mais, lorsque l'on constate l'hécatombe subie par les Russes et par les Ukrainiens pour réduire l'accident de Tchernobyl, on conçoit l'importance capitale de la robotique intelligente pour résoudre les problèmes de l'état antérieur de la technique, la robotique intelligente semblant pouvoir apporter une solution à un inconvénient grave de l'industrie atomique civile.

La mesure cependant pose un problème de fuite en avant. Pour résoudre le problème de la pollution chimique et celui de l'épuisement des réssources naturelles de l'industrie pétrolière, l'industrie nucléaire est apparue comme la meilleure solution lors de la seconde moitié du XX° siècle. Aujourd'hui, lors de la première moitié du XXI° siècle, on recherche une nouvelle technique, celle des robots intelligents, susceptible de résoudre les problèmes du progrès technique passé, dans le cas des accidents atomiques. Tout cela ressemble furieusement à une fuite dans laquelle l'humanité est en train d'accumuler les menaces techniques de génération en génération.

Imaginer un monde dans lequel l'alarme s'est déroulée

Une autre réplique consiste justement à imaginer comment sera le monde quand la menace des alarmistes sera réalisée. Et ce serait de se préparer à ce mond enouveau qu'il faudrait se préparer.

Ainsi, certains imaginent d'accorder des droits juridiques aux robots intelligents de sorte que la société humaine puisse coexister avec la société des robots intelligents. Le thème entre d'ailleurs en résonnace avec d'autres développements de l'humanité augmentée ou de la transhumanité, mais aussi des droits des animaux et autres êtres vivants. Le mouvement revient à étendre la question de la place de l'humanité dans l'univers en écartant cette question de son environnement tradictionnel

Pour nous, le mouvement coopératif revient à abandonner l'idée de la menace pour lui faire rejoindre l'ensemble des menaces avec lesquelles l'humanité a toujours composée. Ainsi un robot intelligent qui échappe à son gestionnaire et qui devient un robot tueur d'hommes, ne serait pas bien différent d'un animal éduqué et qui échapperait au contrôle de son maitre en retrouvant ses instincts de meurtre.

L'aspect négatif d'une technique peut provenir d'un détournement par l'homme. Ce détournement est relativement géré par la question morale ou éthique.

La question du robot intelligent révolté est, semble t'il, différente. Si l'on écarte la question des robots tueurs qui sont conçus pour mener des tâches d'élimination d'êtres humains selon des critères de sélection à la portée de l'intelligence artificielle, la révolte du robot intelligent consiste à une mise en oeuvre de règles d'intelligence artificielle que le robot intelligent détourne de manière imprévue pour son concepteur.

Supposons que deux robots intelligents, correctement programmés, soient A et B, disposent d'ensembles de règles propres, soient a et b, respectivement. Un comportement xa du robot A provient d'une application de règles a(i) tirées de la base de règles a selon le contexte i. Le comportement xb du robot b provient d'une application de règles b(j) tirées de la base de règles b selon le contexte j, qui peut être partiellement identique au contexte i.

Le problème est soulevé quand particulièrement le robot A est conçu pour coopérer avec le robot B. Il existe alors un risque, dans leur interaction, qu'il existe une sous-partie de règles a'(i) qui soit produite par cette interaction avec le robot B et que dans cette sous-partie se trouve des règles conduisant le robot intelligent A à prendre des mesures agressives à l'encontre des hommes qu'aucun des deux robots intelligents n'auraient pu calculer séparément. Et si la coopération de A et B est fortuite, il est probable qu'aucune mesure de protection contre cette occurence n'ait pu être prise.

En manière de conclusions

Il nous semble que le danger le plus grand de la robotique intelligente est clairement celui de robots tueurs, programmés pour éliminer des catégories déterminées d'êtres humains, par exemple sur la base de critères susceptibles d'être détectés par le robot tueur lui-même.

Le cas arrivera dès lors qu'une partie de la population, par exemple celle qui détient la maîtrise des moyens de production des robots intelligents, décidera qu'une autre partie de la population est devenue inutile, par exemple parce que les tâches que cette partie de population sont maintenant accomplies par les robots intelligents. Rien n'interdira à la population des propriétaires des moyens de production de robots intelligents de faire croître des robots tueurs susceptibles d'éliminer la population devenue inutile.

Particulièrement, le cas serait intéressant pour la caste des maîtres dès lors que leur morale les protégerait de toute culpabilité dès lors que la décision a été prise selon des critères déterminés et admis et qu'elle est appliquée par des robots tueurs incapables de commettre des erreurs.

Un certain nombre de logiciels experts existent déjà qui appliquent des sanctions déterminées à des fractions de la population et devant la multiplication des contentieux judiciaires, l'extension de l'utilisation de tels logiciels est actuellement prévue.

Mais, le souci soulevé par Hawking et Musk ne nous paraît pas anodin. Le risque que des robots intelligents puissent se révolter contre toute ou partie de l'humanité ne nous paraît pas aujourd'hui négligeable ni nécessairement obviable.


Revue THOMAS (c) 2017