POSTS RECENTS GNIPL

José Ramón Ubieto / Chat GTP-3, DALL-E 2 : l’intelligence artificielle va-t-elle nous remplacer ?

304views

Texte publié le 25 février 2023 sur le site zadigespana

« Si vous travaillez comme radiologue, vous êtes comme le coyote qui est déjà au bord du précipice, mais qui n’a pas baissé les yeux. » C’est la « mauvaise nouvelle » que Geoffrey Hinton, le « parrain » de l’apprentissage en profondeur, a publié en 2016 avertissant que l’IA était mieux adaptée que les médecins pour lire les images IRM. La vérité est que nous sommes en 2023 et pas un seul radiologue n’a été remplacé. Au contraire, il existe un consensus sur le fait que l’apprentissage automatique offert par l’IA appliquée à la radiologie est plus difficile qu’il n’y paraît. 

Aujourd’hui, nous sommes loin des machines capables de comprendre réellement le langage humain. Elon Musk nous a également dit que le nouveau robot humanoïde en construction, Optimus, serait un jour plus gros que l’industrie automobile, mais lors de la journée de démonstration de l’IA de Tesla (2021), Optimus s’est avéré être un humain déguisé et, lorsqu’ils ont utilisé « Mode de conduite entièrement autonome », leur Tesla n’a pas reconnu une personne partiellement masquée par le panneau d’arrêt qu’elle portait, ni le panneau, de sorte que le conducteur humain a dû prendre le relais. À la surprise générale, le système ne savait pas quoi faire. 

Depuis quelques semaines, nous n’arrêtons pas de lire des nouvelles sur le succès du chat GPT-3, un produit d’OpenAI — une entreprise qui compte parmi ses promoteurs Elon Musk, Mark Zuckerberg ou Bill Gates, bien qu’elle se présente comme « à but non lucratif ». « — Qui est un modèle de langage qui utilise l’apprentissage en profondeur pour produire des textes qui simulent l’écriture humaine. Sa version bêta est disponible “gratuitement” pour tous les utilisateurs afin de bien l’entraîner (c’est gratuit) pour obtenir une future version pro payante. À ce jour, ils n’ont pas réussi à éviter — faute de contexte — de produire des informations erronées comme accuser Bill Gates d’avoir inventé le COVID-19, affirmer que les vaccins ne sont pas très efficaces ou proposer que sacrifier des êtres humains serait le seul moyen pour éviter la fin du monde Il est prévisible que la formation volontaire de plus d’un million d’utilisateurs de longue durée, qu’il a déjà réalisée au cours des 5 premiers jours (maintenant, une recherche Google affiche plus de 700 millions de résultats), améliorera le programme. Aussi DALL-E 2, un autre produit de la même société est disponible en open et permet de dessiner n’importe quelle instruction textuelle qui lui est donnée. Il le fait avec tant de diligence que certains artistes numériques et autres professionnels l’utilisent déjà pour leurs croquis, à partir desquels ils finalisent leur travail. 

Tous ces systèmes réussissent — et s’amélioreront chaque jour — lorsqu’ils apprennent à partir d’exemples spécifiques qu’ils ont déjà vus, mais trébuchent lorsqu’ils sont confrontés à quelque chose de nouveau. Leur opacité et leur manque de transparence (algorithmes “invisibles”) caractérisent la soi-disant “boîte noire” de l’IA. Tant que les résultats sont positifs, nous ne sommes pas trop inquiets de ne pas pouvoir expliquer quelles sont les causes sous-jacentes de ces avantages. Le problème est que lorsque des vies humaines sont en jeu — comme en radiologie ou en voiture sans conducteur — il convient d’être prudent.

Sa nouveauté et ses avancées nous font peur, car elle nous fait peur de penser que nous allons devenir obsolètes, mais l’IA, aujourd’hui, ne remplacera pas l’intelligence humaine, car son système ne répond qu’au “quoi”, pas au “pourquoi” et encore moins au » que ce passerait-il si… ? » Il le complétera, car il peut composer une symphonie similaire à celles de Beethoven ou répliquer un Rembrandt, mais il ne capte pas quelque chose d’aussi humain que les concepts de causalité et d’imagination, car l’IA apprend, mais ne comprend pas. Et surtout, il s’inspire de choses déjà faites, pas d’expériences de vie. Ces avancées nous posent des dilemmes dont nous devrons débattre sur la créativité (les artistes ne créent-ils pas également à partir de modèles antérieurs réalisés par d’autres artistes ?), la paternité légale, la vie privée et les préjugés qu’elle reproduit.

Les limites actuelles de l’IA tiennent aux usages du langage que nous, êtres parlants, faisons qui vont au-delà du code universel et qui incluent l’humour, l’ironie ou le double sens des mots. Pour cette raison, GTP3, pour le moment, ne peut pas faire une bonne blague ou faire des lapsus, ni comprendre les homophonies impossibles du Finnegans Wake de Joyce, ni les explications curieuses d’un ancien président galicien ou les paroles de chansons comme Motomami. Pour cela, l’humain reste irremplaçable, mais jusqu’à quand ?

*Psychanalyste. Membre de l’AMP (ELP)