Ne vous inquiétez pas, selon Yann LeCun, les grands modèles de langage (LLM) tels que ChatGPT ne possèdent pas même l’intelligence des chiens

Yann LeCun

Bien que vous puissiez être impressionné par les capacités des LLM tels que ChatGPT, tels que l’écriture de code, la création d’applications et la réussite de l’examen du barreau, ils manquent encore d’intelligence artificielle générale. Cela signifie qu’ils ne possèdent pas la capacité hypothétique d’accomplir les tâches intellectuelles effectuées par les humains ou les animaux.

Selon Yann LeCun, responsable scientifique de Meta pour l’IA, les LLM ne sont pas aussi intelligents que les chiens. Il affirme que ces modèles ne sont pas vraiment intelligents, car ils ne peuvent pas comprendre, interagir ou appréhender la réalité. Leur production est basée uniquement sur l’apprentissage du langage.

LeCun soutient que la véritable intelligence va au-delà du langage, et que la plupart des connaissances humaines ne sont pas directement liées au langage. Les LLM tels que ChatGPT sont dépourvus d’émotions, de créativité, de sensibilité et de conscience, qui sont les éléments fondamentaux de l’intelligence humaine.

Bien que ChatGPT puisse résoudre des problèmes mathématiques complexes et expliquer comment créer des substances nocives sans les contraintes appropriées, il ne possède pas les capacités cognitives nécessaires pour exercer le bon sens, la planification ou la raisonnement basé sur les expériences du monde réel. Néanmoins, la dernière version du modèle de langage d’OpenAI, GPT-4, a démontré des performances comparables à celles des humains en mathématiques, en codage et en droit, laissant entrevoir la possibilité d’une intelligence générale artificielle.

OpenAI poursuit ses efforts pour former et améliorer les capacités de ses modèles de langage GPT, dans l’espoir d’atteindre un jour une intelligence générale artificielle. Cependant, l’entreprise reconnaît que la réalisation d’une telle technologie pourrait avoir des conséquences majeures sur la société.

En mai, lors de son témoignage devant le Sénat américain, le PDG d’OpenAI, Sam Altman, a exprimé sa plus grande préoccupation quant aux dommages potentiellement causés par leur technologie. OpenAI affirme dans un article de blog qu’il est essentiel d’utiliser la technologie et de mener des recherches de manière responsable, car les êtres artificiels deviendront éventuellement plus intelligents que les humains.

Yann LeCun soutient que lorsque ce jour viendra, il sera crucial de contrôler ces êtres artificiels et de les soumettre fondamentalement à l’autorité humaine. Il affirme que la peur que les êtres artificiellement intelligents veuillent prendre le contrôle du monde est infondée, car il n’y a pas de corrélation entre l’intelligence et le désir de prendre le contrôle.

Les opinions d’OpenAI sur la création d’une IA capable d’atteindre l’intelligence générale artificielle sont similaires à celles de LeCun. L’entreprise estime qu’il est impossible d’empêcher la création d’êtres artificiels aussi intelligents, voire plus intelligents que les humains. Cependant, la mission d’OpenAI est de veiller à ce que le développement de cette technologie se fasse avec une grande prudence, car les risques liés à l’intelligence générale artificielle pourraient être « existenciels » s’ils tombaient entre de mauvaises mains ou étaient utilisés à des fins malveillantes.

L’avenir de l’intelligence artificielle, autrefois réservé à la science-fiction, se trouve dans notre futur proche. Sommes-nous prêts ?

Recommended For You

About the Author: RobertP

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *