Le doute, pour «humaniser» les intelligences artificielles

Le théologien franciscain Paolo Benanti est membre de l’organe consultatif des Nations Unies pour l’intelligence artificielle (IA). Il estime urgent d’élever le niveau de l’enseignement éthique des logiciels. Il préconise, afin de respecter au mieux la nature humaine, d’apprendre à l’IA à intégrer la notion de ‘doute’.

Prions «pour que le développement rapide de formes d’intelligence artificielle n’augmente pas les trop nombreuses inégalités et injustices déjà présentes dans le monde, mais contribue à mettre fin aux guerres et aux conflits, et à soulager les nombreuses formes de souffrance qui affligent la famille humaine». Tel a été le souhait du pape dans son message à l’occasion de la Journée mondiale de la paix, publié le 1er janvier 2024.

Le pontife, comme le reste de l’humanité, a certainement été profondément interrogé par la récente arrivée de robots conversationnels aux performances impressionnantes, dont le plus médiatisé a été ChatGPT. Ces avancées ont provoqué un certain vertige dans l’opinion publique, entre craintes de pertes d’emploi massives et asservissement de l’humain par la machine.

Des machines «miséricordieuses»?

Beaucoup de voix ont adopté une approche modérée, refusant la diabolisation de ces technologies, tout en appelant à une réflexion globale et à la pose de limites. C’est le cas du théologien Paolo Benanti, éthicien et spécialiste de l’IA. Membre de l’organe consultatif des Nations Unies pour ces questions, il s’est exprimé dans le journal italien La Stampa du 3 janvier 2024 sur les orientations souhaitables dans ce domaine.

«Les algorithmes diffèrent des humains sur un point crucial: ils ne savent pas ce qu’ils ne savent pas»

Steve Fleming

«La meilleure façon de traiter avec l’IA est de donner la priorité à l’être humain», assure ainsi le franciscain italien. «Entre l’objectif de la machine et l’objectif de l’être humain, le projet de l’être humain doit passer en premier. L’IA doit donner à l’humain la possibilité de définir ses priorités et donc son autodétermination sociale.»

Pour Paolo Benanti, trois valeurs primordiales devraient ainsi être intégrées par les IA. Dans le domaine social, «la dimension de l’équité et de l’égalité est crucial», assure-t-il. «Sinon, l’IA alimentera la dangereuse division en classes sociales par le biais des préjugés.» L’éthicien préconise également «la miséricorde, c’est-à-dire la capacité à ne pas se laisser déterminer uniquement par les événements négatifs qu’une personne a subis et inscrits dans son histoire».

Manque d’introspection

Mais pour le franciscain, la chose la plus importante pour une IA serait d’intégrer la notion de doute. «Si nous demandons quelque chose à ChatGPT, il nous donne toujours une réponse. Et parfois, ce sont des élucubrations», note-t-il. Le manque d’introspection est en effet un aspect de l’IA largement reconnu par les experts du secteur. «Si les algorithmes (…) peuvent sembler étonnamment intelligents, ils diffèrent actuellement des humains sur un point crucial: ils ne savent pas ce qu’ils ne savent pas, une capacité que les psychologues appellent la métacognition», note Steve Fleming.

«Une fois que les machines font partie de notre vie quotidienne, nous avons tendance à nous montrer complaisants à l’égard des risques encourus»

Steve Fleming

Dans un article publié en 2021 dans le Financial Times, le professeur de neurosciences cognitives au University College de Londres explique que «la métacognition est la capacité de réfléchir à sa propre pensée – de reconnaître quand on peut se tromper, par exemple, ou quand il serait sage de demander un deuxième avis». Les chercheurs en IA savent depuis un certain temps que les technologies d’apprentissage automatique ont tendance à être trop confiantes, avertit le professeur britannique. «Au lieu de s’avouer vaincu, il [le logiciel] donne souvent des réponses erronées avec une grande confiance.»

Donner des limites à l’IA

«À l’heure actuelle, la plus grande ‘vertu’ à laquelle nous, hommes et femmes, pouvons aspirer n’est pas la capacité de répondre, mais de se demander si la réponse est valable ou non», affirme ainsi Paolo Benanti. »Si nous pouvions donner à la machine la prédisposition à douter de ses réponses, nous ferions quelque chose de beaucoup plus respectueux de la nature humaine.»

Le professeur d’éthique exhorte, quoiqu’il en soit, à clairement faire la différence entre notre esprit humain et un «cerveau artificiel». «Il faut partir du principe que l’IA ne peut pas être éduquée moralement, parce qu’elle n’est pas une subjectivité personnelle», rappelle-t-il dans La Stampa.

«Les valeurs sur lesquelles l’IA se base sont numériques. Mais elles peuvent être ajustées dans une certaine mesure, contrôlées par des algorithmes qui peuvent être utilisés comme une sorte de garde-fou éthique. Par conséquent, une éducation morale nouvelle et renouvelée des utilisateurs, c’est-à-dire des citoyens, devient cruciale, qui ne se contenteront pas d’interagir avec l’intelligence artificielle, mais qui lui donneront ses limites ou ses champs d’application.»

«Le problème ne concernera pas la relation entre Dieu et l’IA, mais notre attitude, en tant qu’humains, vis-à-vis de l’IA»

Paolo Benanti

Steve Fleming incite lui aussi à nous demander «de réfléchir à ce que nous sommes en train de créer lorsque nous élaborons ces algorithmes. L’histoire de l’automatisation suggère qu’une fois que les machines font partie du tissu de notre vie quotidienne, les humains ont tendance à se montrer complaisants à l’égard des risques encourus».

Il cite le philosophe américain Daniel Dennett, selon lequel «le véritable danger n’est pas que des machines plus intelligentes que nous usurpent notre rôle de capitaine de notre destin, mais que nous surestimions la compréhension de nos derniers outils de pensée, leur cédant prématurément une autorité qui va bien au-delà de leurs compétences».

L’illusion du ‘cloud’ divin

Le spécialiste du cerveau cite également le grand rabbin britannique Jonathan Sacks (1948-2020): «Si nous cherchons à préserver notre humanité, la réponse n’est pas d’élever le niveau d’intelligence (…) C’est la conscience d’eux-mêmes qui rend les êtres humains différents.» «La capacité à douter, à se remettre en question, à rechercher ce que nous ne savons pas encore est le moteur de la créativité scientifique qui a donné naissance à l’IA», remarque Steve Fleming.

Ainsi, pour Paolo Benanti, «le problème ne concernera pas la relation entre Dieu et l’IA, mais notre attitude, en tant qu’humains, vis-à-vis de l’IA. Parce que nous avons tendance à nous créer des idoles (…) En pratique, le risque est que nous nous tournions vers le ‘cloud’, où réside l’IA, plutôt que vers le ciel, et que nous considérions l’IA comme un ›nouveau dieu’». (cath.ch/stampa/financialtimes/arch/rz)

Raphaël Zbinden

Portail catholique suisse

https://www.cath.ch/newsf/le-doute-pour-humaniser-les-intelligences-artificielles/