Ezékiel Kwetchi Takam, doctorant en théologie à Genève | Maurice Page
Dossier

«L’IA peut reproduire une infime partie de l’intelligence humaine»

5

Un diagnostic de votre médecin, l’octroi d’un prêt par votre banquier, votre engagement professionnel, l’accès à une prestation sociale seront peut-être bientôt décidés par une Intelligence Artificielle (IA). C’est dire si les enjeux éthiques de la 4e révolution industrielle sont grands. Le théologien Ezékiel Kwetchi Takam prône une approche techno-critique.   

L’intelligence artificielle est un terme générique un peu fourre-tout. Comment la définir?
Ezékiel Kwetchi Takam
: Historiquement le terme d’intelligence artificielle désigne l’ensemble des programmes capables de produire des résultats qui jusque là auraient eu besoin de l’intelligence d’un cerveau humain. Depuis les années 2000, il est entré dans le langage courant et pris un sens beaucoup plus vaste.

Mais en fait c’est un abus de langage. Dès les années 1950, les critiques ont signalé le caractère exclusivement ‘imitationnel’ de ce que l’on qualifie d’intelligence. Il faudrait parler plus justement de formes d’intelligence artificielle, des termes qui tiennent mieux compte de la pluralité des domaines et des usages et qui soulignent que ces dispositifs sont toujours des systèmes socio-techniques. C’est-à-dire des outils technologiques qui s’insèrent dans un contexte social et économique qu’ils ont toujours tendance à reproduire.
Comme le rappelle à juste titre le message du pape François pour la journée mondiale de la paix 2024, cette imitation n’est que fragmentaire. L’IA n’est capable de reproduire qu’une infime partie de l’intelligence humaine. Le terme technique correct serait en fait celui de systèmes algorithmiques.

Ezekiel Kwetchi Takam est doctorant en éthique théologique à l’Université de Genève. Ses travaux explorent, sous une perspective théologique, les enjeux éthiques de l’intelligence artificielle. Plus précisément, il s’agit de proposer, à lumière de la théologie de la libération, une critique de l’injustice algorithmique et de l’injustice des données/data. Parallèlement à ses recherches, il est le fondateur de l’Observatoire Euro-Africain de l’intelligence artificielle, qui œuvre pour une culture éthique de l’intelligence artificielle en Europe et en Afrique. MP

L’être humain se définit aussi par des dimensions comme les sentiments, la compassion, le pardon, la miséricorde. Comment l’IA pourrait-elle les prendre en compte?
L’âme qui définit notre rapport à la transcendance restera le monopole de l’intelligence humaine. La Bible parle de ‘nephesh’, le souffle comme la particularité qui anime les êtres vivants. Au rapport à la transcendance viennent se greffer des valeurs comme l’attachement, la compassion, l’empathie, le pardon. Comme je viens de le dire, l’IA ne peut être qu’imitative, reproductrice. Elle ne se situe pas dans le champ de la vérité.
L’homme communique par son corps. L’IA n’a évidement pas de corps, ce qui est très différent. ‘L’apprentissage’ d’une machine n’a rien à voir avec l’apprentissage que nous avons du fait de notre corps et de nos rapports sociaux. Les gestes ou le sourire d’un robot humanoïde ne seront que des mimiques, même s’ils imitent le sentiment de compassion.

«L’humanité dès sa naissance a été expliquée en termes d’informations donc de data.»

Un autre aspect est celui du pardon et de la rédemption. Internet, et a fortiori l’IA, n’oublient rien. Le moindre fait, même très ancien et privé, peut instantanément être remis en surface pour vous nuire. Or le droit à l’oubli est essentiel dans la vie en société. La rédemption est-elle encore possible à l’heure des réseaux sociaux? Des hommes politiques ont vu leur carrière détruite pour des faits ou des déclarations remontant à plusieurs décennies alors qu’ils étaient jeunes, naïfs ou insouciants. C’est une vraie interrogation.

Vous reprenez la thèse du ‘dataïsme’ qui estime que l’IA remplace la divinité.
Ce concept de ‘dataïsme’ a été présenté par le journaliste américain David Brooks en 2013. Il relève que l’humanité dès sa naissance a été expliquée en termes d’informations donc de data. Selon lui, on peut donc exploiter ces données pour comprendre le passé et le présent et anticiper le futur. Ces données nous définissent en tant qu’être social, politique ou économique. Ce concept est assez intéressant car il rend compte d’une réalité capitale pour la définition de l’être humain. Ce n’est pas seulement la biologie ou la dimension spirituelle qui nous caractérisent, mais aussi ces informations qui nous permettent de nous situer dans l’espace-temps.

Comment l’intelligence artificielle peut-elle faire progresser la connaissance? | DR

En ce sens, l’IA serait une sorte de succédané de religion?
Le véritable danger vient du fait d’ériger cela en ‘religion’. On peut faire une analogie avec les prophètes auto-proclamés de certaines Églises évangéliques qui se prétendent capables de prédire nos vies. Aujourd’hui avec la maîtrise d’un grand nombre de data, d’autres ‘prophètes’ peuvent les exploiter pour déterminer notre futur. Ce n’est plus une conséquence d’une révélation transcendante mais d’une exploitation des data.
Il y a une réduction de l’humain que le philosophe Marc Augé a dénoncé comme une ‘sur-modernité’. L’être humain est réduit à un ensemble de chiffres, à un code. Nous sommes observés, décryptés. Nos faits, nos gestes, nos comportements, nos réactions, nos émotions sont analysés en temps réel par des algorithmes afin de déterminer les décisions et les actions que nous devons entreprendre.

D’où la nécessité d’encadrer l’IA par des règles éthiques.
C’est une évidence et une urgence. Au début 2023, des représentants des diverses religions ont signé au Vatican l’Appel de Rome pour l’éthique de l’IA promue par l’Académie pontificale pour la vie. On a forgé pour cela le terme d’algor-etica. Cet appel fixe six principes pour l’utilisation de l’IA.

«L’IA fonctionne quasi exclusivement sur un modèle basé sur une vision du monde et des valeurs occidentales.»


Le premier est la transparence dès la conception même du système. Aujourd’hui, les systèmes sont le plus souvent opaques, ce sont des ‘black-box’ qui produisent des résultats selon des mécanismes que l’on ne parvient pas à saisir. Les développeurs ont la responsabilité d’être transparents dans leur processus d’élaboration. L’IA ‘open source’ est heureusement en train de croître. Pour expliquer simplement, elle vit comme wikipedia grâce aux contributions ouvertes de ses auteurs, par opposition aux ‘closed IA’ fermées qui sont aux mains de propriétaires privés.

Le deuxième principe est l’inclusion.
Pour l’heure, l’IA fonctionne quasi exclusivement sur un modèle basé sur une vision du monde et des valeurs occidentales, mais l’enjeu est en fait planétaire. Il s’agit donc d’inclure d’autres réalités ou systèmes culturels. Des efforts dans ce sens existent, mais il faut se méfier de ‘l’ethic-washing’ qui permet de se donner une bonne image à bon marché.

La responsabilité constitue le troisième des critères de base.
Elle est évidemment liée aux deux premiers. Le citoyen doit être en capacité d’identifier le responsable d’une IA que ce soit les développeurs, ou l’IA elle-même en raison de sa capacité d’autonomie. C’est le cas bien sûr face aux entreprises qui développent des IA dans un but de profit.

Le principe d’impartialité vient ensuite, il semble assez proche de celui de l’inclusion.
Oui. Il s’agit d’éviter les biais cognitifs et culturels et donner la parole à tous, en particulier aux groupes marginalisés. Il faut défendre la pluralité des savoirs. Concrètement cela passe par exemple par une participation des femmes plus équitable parmi les développeurs ou au sein des conseils d’administration des entreprises.

Une IA doit encore répondre au principe de fiabilité.
Elles s’applique aux moyens techniques et aux procédures avec des systèmes de vérifications et de contrôle, comme on en a, par exemple, pour le commerce des médicaments. C’est important parce qu’aujourd’hui les géants de l’informatique dictent souvent leur loi aux États ou ont tendance à se placer au dessus des législations nationales. L’Union Européenne a développé une législation, mais des voix se font entendre pour dire qu’une régulation risque de faire perdre en compétitivité.

«On pourrait dire que l’IA a phagocyté la dissuasion atomique.»

La sécurité et de la confidentialité de données du points de vue de l’utilisateur est le sixième principe éthique.
Il faut éviter de faire des data des objets d’un commerce non réglementé et sans protection de la vie privée des individus qui est un des droits humains fondamentaux.

Les enjeux éthiques de l’IA ont également une dimension géo-politique.
On attribue à Vladimir Poutine cette sentence «Celui qui contrôle l’IA contrôlera le monde». Cet enjeu va redéfinir les forces mondiales. Les tensions entre la Chine et les États-Unis l’illustrent bien. On pourrait dire que l’IA a phagocyté la dissuasion atomique.

Malgré les apparences, l’intelligence artificielle ne fonctionne pas du tout comme un cerveau humain | © Michael Dziedzic/Unsplash

Beaucoup voient dans l’IA un danger potentiel pour la démocratie.
Oui, il y a un risque d’assassinat de la démocratie. La capacité de manipulation de l’IA peut influencer les décisions politiques. Cela va des données de ‘Cambridge analytica’ exploitées par les équipes de campagne de Donald Trump aux ‘deep Fake’ ultra-réalistes très difficiles à repérer pour le citoyen ordinaire. Les législations des États sont souvent en retard sur ces sujets. Le renforcement des discriminations est un autre aspect à prendre en compte au plan social, par exemple dans le recrutement de personnel.

Grâce à l’IA, des États ont développé un système de surveillance des individus.
La société de surveillance est un des autres dangers de l’IA. En Chine, la reconnaissance faciale permet de traquer les personnes dont le comportement social n’est pas conforme et de leur infliger des punitions. Aux États-Unis, des noirs ont été arrêtés injustement parce le système de reconnaissance faciale n’avait pas été entraîné pour des visages de couleur. En France, on a fait des projets pilotes pour laisser l’IA décider de l’attribution de prestations sociales.

«Des centaines de milliers de personnes dans le monde, pour deux dollars de l’heure, trient et valident des datas ‘à la main’, pour les grandes entreprises occidentales.»

Vous rappelez en outre que les inégalités économiques sont un des aspects méconnus du développement de l’IA. 
En effet, les dimensions ‘existentielles’ de l’IA occultent souvent la réalité économique. ChatGPT, aussi incroyable que cela puisse paraître, repose aussi sur le travail de centaines de milliers de personnes, au Kenya ou à Madagascar par exemple, qui, pour deux dollars de l’heure, trient et valident des datas ‘à la main’, pour les grandes entreprises occidentales. C’est pour cela aussi que parler d’intelligence artificielle est abusif, car des humains sont sacrifiés dans ce business.

Vous mettez en avant la nécessité d’un contre-discours qui privilégie dans les débats éthiques l›aspect néfaste des créations technologiques. N’est-ce pas-là un discours de peur?
Cette peur est là non pas pour nous empêcher d’agir, mais plutôt pour nous inviter à le faire dans la perspective de protéger les générations futures. Dans l’histoire de l’humanité, toutes les grandes innovations se sont accompagnée de crainte et de fascination. Mais capitaliser sur les peurs vise à réduire les effets néfastes pour augmenter les incidences positives. Le fait de révéler une plaie est le premier pas vers son traitement. Il serait totalement faux de croire en un mythe du progrès technologique continu capable de résoudre tous les problèmes.

«L’IA peut offrir la possibilité pour l’humain d’ouvrir de nouveaux espaces pour développer et cultiver son humanité.»

L’IA peut apporter aussi beaucoup de bienfaits.
Oui bien sûr. On parle de 4e révolution industrielle qui permet de réduire encore les travaux pénibles ou les tâches répétitives en améliorant la productivité. On peut parler aussi d’avancées majeures de la médecine, de la recherche scientifique, ou des communications entre autres domaines.

Globalement êtes-vous plutôt optimiste ou pessimiste?
Je suis réaliste. Je suis conscient des progrès et des innovations, mais je garde une attitude techno-critique dans un esprit de responsabilité envers le bien commun. On peut également voir dans l’utilisation de l’IA la possibilité pour l’humain d’ouvrir de nouveaux espaces pour précisément développer et cultiver son humanité. (cath.ch/mp)

Suite
Ezékiel Kwetchi Takam, doctorant en théologie à Genève | Maurice Page
8 février 2024 | 17:00
par Maurice Page

Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.

Articles