Avec ses étudiants en philosophe, Stève Bobillier répertorie les limites de l'intelligence artificielle | © Grégory Roth
Dossier

Stève Bobillier: «L’IA ne peut pas prier, elle n’a pas de conscience»

7

Dans le cadre de son message pour la Journée mondiale des communications sociales 2024, le pape a ouvert une fenêtre à l’intelligence artificielle. Pour le professeur de philosophie Stève Bobillier, l’IA n’a pas de conscience de soi: elle ne peut donc pas exercer sa liberté, ni définir ce qui est juste.

Pensez-vous qu’un jour l’intelligence artificielle (IA) puisse devenir ‘disciple de Jésus’?
Stève Bobillier: Se convertir à une religion ou se mettre à la suite de Jésus implique une foi. Or la foi n’est pas dans l’ordre du savoir. Si je suis croyant, cela veut dire que j’accorde une croyance à une donnée qui n’est pas connue jusqu’à ce qu’elle devienne intime et forte. Ce qui est, de ce point de vue-là, impossible pour l’intelligence artificielle. Parce que l’IA n’a pas de croyance; elle ne s’appuie que sur des données qu’elle traite.

Que représente l’IA selon vous?
Il faut bien être conscient que l’IA ne comprend pas la question que vous lui posez, ne comprend pas les données qu’elle traite, et ne comprend pas la réponse qu’elle donne. Il s’agit pour elle de données, du big-data. Ce que va faire l’IA, c’est d’aller chercher les données et de voir ce qui est le plus en lien entre les différents termes et d’amener la phrase ou la réponse la plus cohérente. C’est un traitement de données, loin de toute foi ou croyance.

«L’IA n’a pas de croyance; elle ne s’appuie que sur des données qu’elle traite.»

De la même manière, est-ce que ma calculatrice pourrait croire un jour que – bien que un plus un égale deux factuellement –, en raison du mystère de la trinité, un plus un égale trois? On sait bien que la calculette ne le fera jamais, car elle traite des données factuelles, mais elle ne comprend pas ce qu’est l’égalité, l’addition, la soustraction, etc. Sur la question de la rapidité des traitements de données, elle est plus forte que nous; de même que l’IA en termes de quantité de données traitées. Mais le danger serait de lui prêter cette foi ou cette croyance, ce qui n’est pas possible.

Est-ce que le terme ‘intelligence’ est vraiment adapté à l’IA?
Un terme qui serait plus approprié est celui de l’anglais intelligency, – comme dans C.I.A. –, qui signifie ‘renseignement’. Dans la mesure où les renseignements sont compilés et traités par pertinence, sans être critiqués ou jugés. Maintenant, cela dépend de ce que l’on définit par intelligence. Est-ce que le fait d’avoir beaucoup de savoirs à disposition me rend intelligent? Est-ce que mon encyclopédie est intelligente, puisqu’elle contient un grand nombre de savoirs? Dans ce cas, on parle d’intelligence comme une somme de savoirs: l’intelligence computationnelle.

«L’IA prend tout ce qu’elle trouve sur le net, sans démêler le vrai du faux»

Faire le comput, c’est faire le décompte, c’est-à-dire compiler tous les savoirs qui existent sur internet. Alors que l’intelligence, dans ma compréhension, devrait aussi avoir une capacité de mettre en lien et critiquer ces données. L’IA va prendre tout ce qu’elle trouve sur le net, sans pouvoir démêler le vrai du faux.

L’IA n’est donc pas dotée d’une intelligence critique…
Effectivement, on remarque que si l’on impose des faits erronés à l’IA, elle va finir par les intégrer comme données crédibles. Des étudiants ont fait le test, en demandant à ChatGPT de leur dire ce qui est le plus nourrissant entre un œuf de vache et un œuf de poule. Le logiciel a fini par leur répondre que l’œuf de vache est le plus nourrissant, parce qu’il est plus grand et qu’il contient davantage de matières grasses. Ces exemples prouvent que si l’on impose des faits à internet, l’IA ne peut pas les critiquer.

«Si l’on impose des faits erronés à l’IA, elle va finir par les intégrer comme données crédibles.»

On en revient donc à la question de la définition d’intelligence…
Oui, et une autre limite de l’IA est l’intentionnalité, expliquent des philosophes contemporains comme John Searle. Si tout animal pose un acte en vue d’une finalité, l’ordinateur fait uniquement ce qu’on lui demande de faire. Il n’a pas, et n’aura sans doute jamais, d’intention. Contrairement à ce que pensent les partisans du ‘fantasme de Terminator’: ceux qui pensent qu’un jour les machines prendront le pas et développeront leurs propres intentions. Elles pourront certes changer ou redémarrer leur propre programme, mais elles ne pourront pas penser par elles-mêmes et prendre des décisions éthiques, parce qu’elles ne sont pas libres. C’est la grande différence entre l’intelligence et la pensée.

Intelligence et pensée: N’est-ce pas ce qui différencie l’animal de l’humain?
Absolument. L’intelligence permet, dans les questions quotidiennes, de répondre à des problèmes pratiques. Par exemple, le chemin le plus court que je peux prendre, si je dois aller faire des courses, chercher les enfants à l’école et passer à la poste. Cette capacité d’abstraction a également été observée chez certains animaux.

La pensée, que définit déjà Aristote comme spécificité humaine, est cette capacité de se rassembler pour définir ce qui est juste de ce qui ne l’est pas, de ce qui est préférable de ce qui ne l’est pas. La pensée donne du sens: est-ce que c’est bien ou mal? Seul l’humain, «animal politique», est capable de se réunir pour se poser cette question. Parce que l’ordinateur ne pourra jamais dire ce qui est bien et ce qui est mal, il ne sera pas jamais libre de choisir le bien et il ne pourra donc jamais se mettre à la suite du Christ.

Pensez-vous néanmoins que l’IA est un outil utile, si elle est employée avec intelligence?
Le danger est de confier des décisions éthiques à une machine qui est incapable de penser. Comme elle n’a pas de conscience morale, elle ne pourra pas juger de ‘ses’ propres actions et de leur valeur. C’est intéressant de se rappeler de l’analyse d’Annah Harendt au ‘Procès Eichmann’ à Jérusalem. Bien que Adolf Eichmann était un ‘génie’ du transport, il a totalement mis de côté sa conscience morale pour exécuter la ‘solution finale’, et s’est ainsi mis au service de l’horreur.

«Ce qui me préoccupe, ce n’est pas l’IA, mais le comportement humain face à l’IA.»

Depuis plusieurs années, le pape François prône pour une transparence des algorithmes. Car nous le savons, les réactions émotionnelles sont plus grandes face aux contenus agressifs ou négatifs. Sur les réseaux sociaux, nous le voyons bien: si quelqu’un aime un contenu, il va mettre un petit cœur. Au contraire, il n’aime pas le contenu, il va poster un énorme commentaire, qui va inciter d’autres à répondre, etc. Nous voyons bien que ces algorithmes cherchent à faire réagir, mais nous ne savons pas comment ils sont programmés.

En conclusion, il vaut mieux garder l’IA a une distance raisonnable…
Ce qui me préoccupe, ce n’est pas l’IA, mais le comportement humain face à l’IA. Car nous n’avons pas encore compris à quoi sert le savoir: son but n’est pas d’amasser et posséder le plus grand nombre d’avoirs, ni de briller en société, mais bien d’apprendre, de changer sa capacité de penser et de changer ses perceptives sur le monde. Le problème de déléguer le savoir et la transformation du savoir à la machine nous empêche de penser le monde de manière critique, et d’être transformés, d’évoluer et de devenir meilleur. Le principal danger de l’IA est de lui laisser faire ce boulot de culture, de pensée, de vie intellectuelle et de vie de l’esprit, qui est en fait la plus belle partie du savoir. (cath.ch/gr)

Stève Bobillier enseigne la philosophie au collège St-Michel à Fribourg. Il est aussi membre de la commission étique et santé du Valais et membre de la commission de bioéthique de la Conférence des évêques suisses. GR

Suite
Avec ses étudiants en philosophe, Stève Bobillier répertorie les limites de l'intelligence artificielle | © Grégory Roth
22 février 2024 | 17:15
par Grégory Roth

Le message pour la Journée mondiale des communications sociales 2024 du pape François porte sur l'intelligence artificielle. A cette occasion, cath.ch vous propose un dossier consacré à la foi et à l'IA. Une thématique qui intéresse tout autant qu'elle préoccupe le pontife.

Articles