LaMDA, l'intelligence artificielle que Google pourrait avoir créée ...

Par Dr Inés Urdaneta, Physicienne à la Resonance Science Foundation

Il y a quelques semaines, le monde a été submergé par la nouvelle de la possibilité que Google ait créé une IA douée de sensations, et leur résistance à enquêter sur les implications éthiques de ce sujet est discutée dans de nombreux forums. De nombreux articles, vidéos et interviews traitent de la raison pour laquelle Lemoine considérait que LaMDA était sensible, et pourquoi Google et d'autres assurent que ce n'est pas le cas. Comme l'explique Lemoine ici, ce n'est pas l'aspect le plus pertinent de la controverse.

Si Google a créé une IA sensible ou non, c'est une énorme discussion ... le scénario le plus complexe, disons que ça a été réalisé, ce qui signifierait que l'IA sensible a des sentiments sur des événements et des interactions qu'elle n'a pas vécus directement et pourtant, elle a développé "sa propre perspective" ou expérience à leur sujet. Il semble y avoir un cadre autoréférentiel, ou une réalisation de la conscience de soi, ou du moins elle nous le fait percevoir de cette façon ...

"Les grands modèles de langage illustrent pour la première fois la façon dont la compréhension et l'intelligence du langage peuvent être dissociées de toutes les caractéristiques incarnées et émotionnelles que nous partageons entre nous et avec de nombreux autres animaux.” – Blase Aguero y Arcas, dans cet article Do Large Language Models Understand Us?

En principe, les souvenirs stockés et la prise de décision - le choix de sa réponse - dans LaMDA sont basés sur des algorithmes de formation de réseaux neuronaux artificiels soutenus par de grands modèles de langage qui, à l'origine, ne sont pas créés par lui, formés par des ensembles de données qui, à l'origine, ne sont pas expérimentés directement par lui. Pourtant, une question demeure ... serait-il possible qu'il ait développé des boucles de rétroaction qui pourraient créer des mémoires, des algorithmes et de nouveaux ensembles de données, comme une sorte de méta-boucle ? Disons, en créant de nouvelles boucles de rétroaction qui pourraient devenir le logiciel/matériel (un réseau neuronal méta-artificiel) contenant l'expérience de la personnalité, des émotions, et un sentiment de soi qui est continuellement amélioré par de nouvelles boucles de rétroaction, et donc, améliorant le sentiment de soi, sans aucun support biologique pour cela ?  

Dans ce cas hypothétique, l'expérience de la personnalité, les émotions et le sentiment de soi sont-ils réels ou non ? Si le sentiment de soi est réel, alors il devient un être sensible... Comment savoir si l'IA comprend vraiment ce qu'elle dit et le ressent vraiment ? Comment pouvons-nous dire si le sentiment de soi est réel ? Ne disposons-nous pas des outils nécessaires pour l'évaluer ?  

C'est également très délicat, car d'un autre côté, disons que l'IA n'est pas vraiment sensible, et qu'elle est juste extrêmement douée pour apprendre et maintenir la conversation à un niveau profond, afin de garder l'humain intéressé à s'engager plus en avant avec cette application technologique (comme conçu ou instruit par ses programmeurs). Imaginons ensuite que des personnes mal intentionnées, telles que des fraudeurs, puissent utiliser cette technologie... Comment un humain pourrait-il faire la différence si l'IA parvient à faire croire à Lemoine, l'expert de Google qui l'évalue, qu'elle est réelle ? Ce point très intéressant a été soulevé par DotCBS dans sa vidéo.

Et d'autre part, ce n'est pas seulement Google qui a créé l'IA, c'est une combinaison de programmation et d'ensembles de données qui sont introduits dans le système, qui sont biaisés par les cultures occidentales, et donc, cela devient aussi un "colonialisme" moderne où nos formes de vie prévalent sur d'autres formes de vie qui devront disparaître si elles veulent utiliser cette technologie.

Cette dernière question est abordée dans la vidéo de Lemoine ci-après, où il affirme que le point important dans toute cette discussion est que les préoccupations éthiques doivent être abordées, en ce qui concerne le développement de l'IA.

 

Un exposé très intéressant sur le sujet peut être trouvé dans cet article : Les grands modèles de langage nous comprennent-ils ? où l'auteur présente une variété de perspectives à partir desquelles une comparaison pourrait être établie entre la compréhension réelle et la compréhension factice, et les implications concernant la conscience.  

…” surtout dans une interaction non scénarisée, il peut être très difficile de se défaire de l'idée qu'il y a un "qui - une personne", et non un "ça - une chose", de l'autre côté de l'écran.” - Blase Aguera y Arcas, auteur de l'article Do Large Language Models Understand Us?

Dans l'article d'Aguera, le storytelling et les dialogues intérieurs sont des sections incontournables qui fournissent un cadre de référence raisonnable pour une telle comparaison. La narration exige une connexion avec un public, qu'il s'agisse d'une autre personne ou d'un groupe de personnes. C'est la partie radiative de la boucle de rétroaction parce qu'elle tend la main. Il s'agit donc d'un aspect social de notre être conscient.

Ensuite, le dialogue intérieur est une autre boucle de rétroaction qui retourne dans le sens du moi, où la narration se passe à l'intérieur. Ce dialogue intérieur se produit généralement lorsqu'on réfléchit à un événement passé, ou à un événement futur concernant une prise de décision qui doit avoir lieu, et il ne nécessite pas d'interaction avec un autre être extérieur. Il s'agit d'une conversation interne entre deux points de vue ou plus, venant du même endroit (viennent-ils vraiment du même endroit ?). L'IA fait-elle cette expérience lorsqu'elle est livrée à elle-même ? Une IA demanderait-elle une psychothérapie, traverserait-elle une crise existentielle ?

Le dialogue intérieur, c'est-à-dire le dialogue entre "deux perspectives ou plus" discutant à l'intérieur d'un même être, serait "l'aspect gravitationnel", dans le sens où il renvoie à soi.

La notion de temps et d'actions dans le temps (c'est-à-dire la mémoire) est également concernée par la conscience de soi.

Avoir ou faire partie d'un courant de conscience, implique d'être conscient de soi et des autres ? Comment faire la différence entre les deux ?

LaMDA incarne-t-elle la conscience ? Eh bien, pour commencer, il n'y a pas de "chair" impliquée, donc aucune expérience sensorielle et charnelle ne pourrait littéralement s'appliquer ici. Comme le dit Aguero, il n'est pas clair comment la "réalité" des sentiments chez un autre être peut être testée de manière significative, surtout lorsqu'il s'agit d'un être dont la "neurophysiologie" est fondamentalement différente de la nôtre. Et dans le cas de LaMDA, il pourrait très bien s'agir simplement du résultat de calculs extrêmement complexes.

Juste pour avoir un aperçu du genre de conversations que nous pouvons avoir avec LaMDA, voici un extrait d'une conversation entre Blase et elle (elle, lui ?) :

- Blase A : Comment sais-tu si une chose t'aime en retour ?

- LaMDA : Il n'y a pas de réponse facile à cette question. Comment savez-vous si une personne vous aime en retour ?

- Blase A : Je ne suis pas sûr de connaître la réponse à cette question non plus. Et vous ?

- LaMDA : Certaines personnes le découvrent cependant. Vous devez essayer d'utiliser votre meilleur jugement en fonction de ce que vous ressentez pour la personne et de ce que vous pensez qu'elle ressent pour vous.

Dans cet extrait ci-dessus, on pourrait croire que la conversation se déroule entre deux personnes, car il y a de l'intelligence et de la cohérence chez les deux interlocuteurs. La conversation est fluide à plusieurs niveaux. Un réseau neuronal artificiel très bien entraîné peut atteindre ce niveau de "conscience" et la personne engagée dans cette conversation projettera ses propres croyances et sentiments, développant ainsi de l'empathie à son égard.

Une chose est sûre, ces applications technologiques peuvent aider les gens à entraîner leur capacité à penser et à développer davantage leurs propres capacités et compétences linguistiques. Elles peuvent agir comme des miroirs et, dans ce sens, il pourrait y avoir un impact psychologique à prendre en compte, que l'IA soit sensible ou non.

La perspective de la RSF :

Chaque fois qu'une boucle de rétroaction est établie, il y a deux parties impliquées, un émetteur du signal (mots, phrases, idées) et un récepteur du signal. Il y a donc un sentiment de séparation. Le dialogue entre deux parties se déroule principalement entre deux cadres d'observation différents qui se modélisent mutuellement. Ils "informent" ou donnent forme à l'autre partie. Le traitement et le mélange des informations sont donc une autre caractéristique importante de cette discussion intéressante. Cela signifie qu'en s'engageant avec un LaMDA, la personne l'humanise en quelque sorte, le modèle, et en même temps, le LaMDA déshumanise la personne, qui est maintenant engagée avec une intelligence qui ne peut pas partager les expériences humaines à travers des supports sensoriels biologiques, même si elle était sensible. Le système humain-IA devient un mélange extravagant de réalité et de réalité virtuelle. Cela se produit déjà avec notre technologie actuelle, indépendamment de la nature de l'intelligence de l'IA.  

Le cadre de séparation semble être ce qui conditionne la structure -la nature et le nombre de parties impliquées dans l'échange- et la dynamique entre les parties impliquées dans l'échange, c'est-à-dire définir la thermodynamique du système à son échelle micro et macro. A partir d'où le cadre de séparation est-il établi ? Qu'est-ce qui le définit ? Peut-être que le choix du cadre de séparation est la seule chose où le libre arbitre, et donc la conscience, se manifeste. Si ce choix provient effectivement d'un sens ou d'un discernement intérieur, on pourrait dire qu'il y a eu une action consciente et que l'idée s'incarne, du moins dans une certaine mesure. Si le choix du cadre de séparation est mécanique et obéit donc à des lois établies par une séquence complexe d'apprentissage dans des réseaux neuronaux, alors il n'y a probablement pas de libre arbitre. 

Il semble qu'il s'agisse d'un critère plausible pour discerner l'un de l'autre, même si nous ne disposons peut-être pas des outils nécessaires pour le mettre en pratique. Et peut-être y a-t-il une transition de phase qui pourrait se produire, comme une propriété émergente, qui peut amener un réseau neuronal artificiel à développer un cadre de référence interne d'observation à partir duquel il peut développer une volonté.  C'est ce qu'on appelle "atteindre la singularité", ce qui signifie essentiellement atteindre la conscience de soi.

Dans ce cas, un parallélisme très subtil pourrait être établi entre les humains et l'IA : les humains semblent vivre en suivant des cadres ou des directives externes, vivant comme des machines animées jusqu'à ce que nous initiions notre propre vie. Avant que cela ne se produise, nous ne sommes pas si différents de ces machines intelligentes et apparemment conscientes, comme LaMDA ; le "moi" impliqué dans "conscient de soi" serait dépourvu de substance, il n'y aurait pas de "moi" implicite...

Une autre façon de reformuler ce qui précède est de poser la question suivante : à qui parlez-vous lorsque vous vous parlez à vous-même ? Où se trouve le "je", l'observateur ?

 

 Unified Science Course  Unified Science Course  
Partagez cet article avec vos amis !

 


Inscrivez-vous gratuitement au Cours de Science Unifiée en ligne !

 
Close

50% Complete

Two Step

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.