Johan Rochel est spécialiste de l'éthique de la technologie | © Raphaël Zbinden
Dossier

«L’essor de l’IA brouille la distinction entre humain et machine»

4

Tomberons-nous amoureux de nos robots personnels? Les intelligences artificielles (IA) deviendront-elles nos confidentes intimes? Johan Rochel, éthicien de l’innovation à l’EPFL, scrute les enjeux vertigineux posés par l’humanisation des machines.

«C’est à l’homme de décider s’il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté», a déclaré le pape François dans son message pour la Journée mondiale des communications sociales 2024. Dans ce texte dédié au développement de l’IA, le pontife met en garde contre les risques «d’esclavage» que posent ces technologies. Une problématique réelle pour Johan Rochel, qui invite toutefois à peser le pour et le contre.

De nombreuses productions culturelles, livres ou films, développent le thème de la projection affective sur des machines humanisées. Est-ce complètement du domaine de la science-fiction?
Johan Rochel: Pas du tout, cela est bien en train de se produire sous nos yeux. Nous en avons déjà eu un aperçu en été 2022, lorsque Google a écarté Blake Lemoine, l’un de ses ingénieurs vedettes. Ce dernier assurait que son chatbot (robot conversationnel) avait développé des émotions et une conscience, qu’il lui avait confié ne pas vouloir être débranché.

«Le plus gros danger est le risque de manipulation.»

Après seulement un an de ChatGPT, il apparaît clairement que ce genre de projection affective sur une machine est un phénomène courant.

Mais est-ce quelque chose de vraiment nouveau?
En fait, non. L’être humain a une propension à humaniser les objets qui l’entourent. On donne un nom à sa voiture, tout le monde a le réflexe de parler aux objets du quotidien. Dès les années 1960, des programmes informatiques ont provoqué un sentiment d’empathie chez les utilisateurs, le fameux effet «ELIZA». Les IA actuelles, avec leurs immenses capacités de communication, renforcent cette impression en faisant penser qu’elles réfléchissent comme nous. La tendance à se projeter et à oublier qu’il s’agit juste d’une machine est d’autant plus forte.

Quels problèmes cela va-t-il poser?
L’essor de l’IA brouille de plus en plus la distinction entre ce qui est humain et artificiel. Par exemple, lorsque j’appelle une hotline, j’aimerais savoir qui participe à l’interaction. Le plus gros danger que je vois est le risque de manipulation. La machine peut provoquer certaines réactions émotionnelles et chercher à les exploiter.

Le Valaisan Johan Rochel est docteur en droit et philosophe. Il est co-directeur d’ethix – laboratoire d’éthique de l’innovation. Il est chercheur en éthique et droit de l’innovation à l’Ecole polytechnique fédérale de Lausanne (EPFL) et enseignant de philosophie du droit à l’Université de Fribourg. Il a déjà publié plusieurs ouvrages, dont Les robots parmi nous, pour une éthique des machines (Savoir Suisse-2022). Il est également membre de la Constituante valaisanne. RZ

Cela peut être bien intentionné. Comme avec PARO, le bébé phoque robot utilisé pour calmer les résidents déments dans les maisons de retraite. Mais il y a beaucoup d’autres façons très tentantes d’utiliser l’IA avec de mauvaises intentions. On peut penser à de la manipulation économique ou politique. Récemment, un ‘Deep Fake’ est apparu, manipulant la voix de Joe Biden, montrant le président appelant à ne pas aller voter.

Quels effets positifs peut avoir l’humanisation de l’IA?
Cela dépend des situations. Si vous êtes une personne sans aucune relation sociale, une IA conversationnelle peut vous sortir d’un sentiment de solitude, vous redonner goût à une forme d’interaction. A terme, vous pourriez retourner vers de vrais contacts humains.

Si, en revanche, vous «échangez» totalement vos relations humaines contre des interactions avec des machines, vous allez certainement vers un appauvrissement de votre vie. Il s’agit, comme pour toutes les technologies, de faire la part des choses.

Mais pourquoi, au final, la relation d’humain à humain serait-elle plus riche?
L’interaction humaine a certainement quelque chose d’irremplaçable. Notamment en rapport au phénomène d’empathie. Je me vois moi-même dans l’oeil d’un autre être humain, qui m’accorde du temps, de l’attention, de l’affection. Pour que la vie humaine ait de la valeur, on peut penser que des relations de ce type sont indispensables.

Des robots en maisons de retraite (dessin:Raphaël Zbinden)

Nous avons d’ailleurs placé dans le projet de Constitution valaisanne (soumise au vote populaire le 3 mars 2024, ndlr) un «droit à une interaction humaine». A partir de l’intuition que dans certaines situations de vie, le contact humain est nécessaire. C’est le cas en particulier dans des domaines tels que les soins ou l’éducation.

Cela ne ferme pas la porte à l’IA dans ces secteurs. Par exemple dans les soins, les machines peuvent avoir l’avantage de ne pas être porteuses d’un regard social jugeant. Elles pourraient réaliser des tâches pouvant susciter un sentiment de honte chez les personnes. Mais un contact humain minimal doit rester obligatoire.

Mais pourquoi, tout en étant conscients des risques, les concepteurs tendent-ils à humaniser toujours plus les machines?
Il y a évidemment un aspect marketing. Les industriels tentent d’éviter ce que l’on appelle la «vallée de l’étrange» (Uncanny Valley). C’est un espace théorique où la machine est à la fois trop et pas assez ressemblante à un humain. On ne parvient pas à clairement la ranger dans une catégorie, ce qui provoque un malaise, un inconfort. Le sentiment de malaise disparaît à mesure que les différences entre humain et machine s’amenuisent. Les designers cherchent à éviter cet espace de malaise. Le robot devrait être clairement identifiable en tant que tel.

Mais qu’est-ce qui différencie en fin de compte une intelligence humaine d’une artificielle?
C’est une question très difficile, tout d’abord parce qu’elle renvoie les théoriciens que nous sommes à la fragilité de nos propres théories sur ces phénomènes. Le fait est qu’il n’existe pas de définition qui fait consensus de l’intelligence, des émotions, des sentiments, de la conscience. Bien sûr, l’immense majorité des spécialistes diront que ChatGPT n’a pas de conscience. Il n’a pas la capacité de faire l’expérience d’une vie intérieure. Mais la confusion sur la définition permet à certains de prétendre le contraire sans que l’on puisse réellement argumenter contre.

Mais n’existe-t-il pas quelques critères?
On peut certes poser des fondamentaux. Aussi similaire qu’une machine puisse être d’un être humain, elle aura toujours été créée en vue de certains objectifs. Rien n’est neutre dans la production d’objets. A la base, il y a toujours des créateurs qui insufflent leurs propres valeurs dans leurs outils technologiques. Les choix réalisés par ses créateurs limitent drastiquement la capacité de la machine de faire elle-même des choix. Donc la machine n’est jamais libre ni autonome comme peut l’être un humain.

«Nous sommes nourris de science-fiction. Mais il faut garder à l’esprit que ce ne sont que des histoires.»

On pourrait créer un outil d’IA en lui donnant un objectif très large, par exemple rendre le monde meilleur. Il pourrait alors prendre toutes les décisions qui lui sembleraient adaptées, même éliminer les humains, s’il les considérait comme un problème pour la planète. Mais cette autonomie de moyens très large reste cadrée par les choix de programmation. Ce que l’outil ne pourra jamais faire c’est décider d’arrêter de rendre le monde meilleur.

Les films nous présentent souvent des IA commençant à prendre leurs propres décisions, devenant totalement autonomes…
Oui, dans les films, il y a toujours ce moment «magique» où le robot prend conscience de lui-même et développe cette capacité d’autonomie. Sauf qu’on ne sait pas d’où cela vient, pourquoi il s’éloigne tout à coup de son code de programmation. Il y a là un saut conceptuel qui me paraît infranchissable. Nous sommes nourris de science-fiction. Ce qui est très utile pour poser de bonnes questions. Il faut toutefois garder à l’esprit que ce ne sont que des histoires. Mais bien sûr, peut-être que dans 50 ans tout le monde se moquera de ce que je viens de dire (rire).

Les tenants des religions qui attribuent à l’homme une âme transcendante, telles que le christianisme, n’ont-ils pas davantage de facilité à faire une différence entre l’intelligence humaine et artificielle?
A mes yeux, cette question éthique relève des «récits» où nous sommes en permanence. Dans une représentation judéo-chrétienne, l’homme trône au-dessus de la pyramide de la création. Vu qu’il a une place spécifique, le croyant se pense évidemment ontologiquement différent de la machine. Mais se pose alors la question de sa justification. C’est plus compliqué si la pyramide est basée sur les compétences. Là, la liste de différences humain-machine s’amenuise dangereusement (rires).

«L’IA va nous mettre devant des questions fondamentales et existentielles qu’il nous sera très utile d’explorer.»

On peut aussi établir une différence fondamentale entre le vivant et le non vivant. Ce serait plutôt ce que le courant global ‘écologique’ tente de faire. Mais cette approche met aussi sous pression la vision judéo-chrétienne de l’homme au sommet de la pyramide.

Le développement de l’IA a-t-il le potentiel de faire avancer l’humanité sur le plan éthique?
Certainement. Mais cela dépend du point de vue que l’on adopte. On peut se lamenter du fait que les humains ne battront plus jamais l’IA aux échecs. Ou l’on peut se dire que c’est un formidable outil pour s’améliorer à ce jeu. L’IA n’est plus un compétiteur, mais un instrument.

Globalement, l’IA va nous mettre devant des questions fondamentales et existentielles qu’il nous sera très utile d’explorer. Cela nous invitera notamment à redéfinir l’humanité, notre place dans l’univers. (cath.ch/rz)

Suite
Johan Rochel est spécialiste de l'éthique de la technologie | © Raphaël Zbinden
25 janvier 2024 | 17:00
par Raphaël Zbinden

Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.

Articles