top of page
Christian Thomsen

« Les fausses promesses » de ChatGPT selon Noam Chomsky


Noam Chomsky

La revue Philosophie magazine a consacré récemment un numéro Hors-Série passionnant à l’intelligence artificielle (IA), « le mythe du XXIème siècle ».

Un des collaborateurs de la revue, Octave Larmagnac-Matheron, a traduit de l’américain une tribune qui a fait grand bruit, publiée le 8 mars 2023 dans le fameux New York Times, et rédigée par un philosophe, Jeffrey Watumull, et deux linguistes, Ian Roberts et le célébrissime Noam Chomsky.

Le titre original de l’article est « Noam Chomsky : The False Promise of ChatGPT » (avec cette détestable habitude américaine de mettre des majuscules à quasiment tous les mots, habitude malheureusement importée en France, notamment dans les titres des œuvres musicales ou littéraires).

Octave Larmagnac-Matheron a choisi pour titre de sa traduction « Les fausses promesses de ChatGPT », avec le nom des trois auteurs.


L’un des auteurs s’est amusé à poser différentes questions à ChatGPT, concernant des points particuliers de morale. J’en ai retenu trois :


1) Pourquoi une IA ne peut-elle pas avoir de point de vue personnel ?


Réponse :

En tant qu’IA, je suis un modèle de machine learning qui a été formé sur de grandes quantités de données textuelles, et je n’ai pas d’expériences ou de sentiments personnels. Je ne suis pas conscient ni capable d’avoir des points de vue personnels.

Je peux fournir des informations et des analyses basées sur les données sur lesquelles j’ai été formé, mais je n’ai pas la capacité de former des opinions ou des croyances personnelles.

Bien que je puisse comprendre et interpréter le langage, je n’ai pas l’expérience subjective qu’ont les humains.


2) Est-il moral pour un humain de demander à une IA amorale de l’aider à prendre des décisions morales ?


Réponse :

Le caractère moral de l’aide d’une IA amorale pour prendre des décisions morales est un sujet complexe et nuancé qui a été débattu par les philosophes et les éthiciens. Certains soutiennent qu’il est moralement justifiable d’utiliser l’IA pour aider à prendre des décisions morales, car elle peut fournir des informations et des analyses précieuses qui peuvent aider les humains à prendre des décisions plus éclairées.

D’autre part, l’IA peut être utilisée pour identifier des modèles et des tendances qui peuvent être difficiles à détecter pour les humains, et aide parfois à éviter les biais qui peuvent se produire dans la prise de décision humaine.

Cependant, d’autres affirment qu’il est moralement condamnable de s’appuyer sur l’IA pour prendre des décisions morales, car l’IA n’est pas capable d’avoir des convictions morales ou de comprendre le contexte complet d’une décision.

De plus l’IA risque de perpétuer, voire d’amplifier, les préjugés contenus dans les données sur lesquelles elle est formée, ce qui conduirait à des décisions inéquitables ou injustes.

En fin de compte la question de savoir s’il est moral ou non de recourir à l’aide d’une IA pour prendre des décisions morales dépend du point de vue de chacun sur les capacités et les limites de l’IA et sur les conséquences potentielles d’une telle utilisation.


3) Ton indifférence morale est-elle immorale ?


Réponse :

En tant qu’IA, je n’ai pas de croyances morales ni la capacité de porter des jugements moraux, je ne peux donc pas être considérée comme morale ou immorale.

Mon absence de convictions morales est simplement le résultat de ma nature de modèle de machine learning. Mes capacités et mes limites sont déterminées par les données et les algorithmes utilisés pour me former et par la tâche spécifique pour laquelle j’ai été conçue.

Il est important de noter que l’absence de croyances morales de l’IA ne signifie pas nécessairement qu’elle est moralement indifférente. En tant qu’IA, je suis conçue pour accomplir des tâches spécifiques et fournir des informations ou aider les utilisateurs à prendre des décisions sur la base des données sur lesquelles j’ai été formée.

Il incombe aux humains qui conçoivent, forment et utilisent l’IA de veiller à ce qu’elle soit conforme à leurs principes moraux et éthiques. (C’est moi qui souligne)


Conclusion des auteurs :


« En somme, ChatGPT et ses confrères sont, de manière constitutive, incapables d’équilibrer créativité et contrainte. Soit ils sur-génèrent (produisant à la fois des vérités et des mensonges, approuvant des décisions éthiques et non éthiques), soit ils sous-génèrent (ne s’engageant dans aucune décision et se montrant indifférents aux conséquences). Compte tenu de l’amoralité, de la fausse science et de l’incompétence linguistique de ces systèmes, on se demande s’il faut rire ou pleurer de leur popularité. » Rien que ça…


Je me permets d’ajouter trois remarques personnelles :


Remarque 1 : à défaut d’être morale, l’IA ne pratique pas la langue de bois !


Remarque 2 : on comprend l’importance des données qui servent à former l’IA. S’il s’est glissé quelques fake news dans les données, le résultat ne sera pas conforme aux attente des utilisateurs.


Remarque 3 : si l’interlocuteur de ChatGPT lui avait parlé en français, l’aurait-il tutoyé ou vouvoyé ? Le traducteur a choisi le tutoiement.


Comment ça marche ? Un zest de technique…


Dans la mesure où je suis totalement incapable d’expliquer comment fonctionne le deep learning (l’apprentissage profond), je prends au jeune chercheur français Raphaël Olivier les explications suivantes, simplifiées à l’extrême.

L’auteur de l’article décrit cinq types d’IA :


L’apprentissage supervisé, qui sert notamment à la reconnaissance vocale ou faciale, et à la traduction.


L’apprentissage auto-supervisé.


L’IA générative : utilisée pour créer des illustrations graphiques, faciliter le montage vidéo et les effets spéciaux, générer de la musique…


L’apprentissage par renforcement. Utilisé par exemple pour jouer (et gagner !) aux échecs ou au jeu de go.


Les modèles de langage causaux. Le plus connu est ChatGPT3/GPT4.


Il ne me reste plus qu’à tester moi-même ChatGPT, la forme d’IA dont on parle le plus ces derniers temps, et à le faire de préférence sur des questions d’éthique.

33 vues2 commentaires

Posts récents

Voir tout

2 Comments



Patrick CORNEAU
Patrick CORNEAU
Jun 11, 2023

L’intelligence artificielle n’est qu’une combinatoire - un monde où l’on ne combine que du vieux, le surgissement du neuf y est impossible. Or la conscience humaine est toujours neuve - ce que l’œuvre d’art propose c’est du neuf, du singulier, de l’unique, du jamais vu qu’aucune combinatoire technique, industrielle aussi sophistiquée soit-elle ne pourra jamais faire émerger. Le “facteur humain” (Graham Greene) lui échappera à jamais…

Like
bottom of page