L’intelligence artificielle (IA) est aujourd’hui au cœur de nombreuses avancées technologiques. Mais une question persiste : ces machines comprennent-elles réellement ce qu’elles disent ou se contentent-elles de manipuler des mots appris ? Une étude récente menée par des chercheurs chinois suggère que les grands modèles de langage comme ChatGPT pourraient bien posséder une forme de cognition qui rappelle celle des humains, notamment dans la façon dont ils catégorisent et interprètent le monde qui les entoure.
Une cognition spontanée chez les IA ?
Les IA, comme ChatGPT, sont souvent perçues comme des algorithmes sophistiqués capables de prédire la suite d’une phrase en se basant sur des données massives. Mais des chercheurs de l’Académie chinoise des sciences et de l’Université de technologie de Chine du Sud ont poussé l’étude plus loin. Leur recherche, publiée dans Nature Machine Intelligence, montre que ces IA vont au-delà de simples calculs, et génèrent spontanément des catégories pour organiser des objets naturels, une manière de faire étonnamment proche de la façon dont les humains perçoivent le monde.
Cette étude est fascinante, car elle montre que des IA, sans formation explicite, peuvent créer des dimensions conceptuelles pour classer des objets de manière plus complexe que de simples catégories comme « animaux » ou « meubles ». Par exemple, les IA prennent en compte des critères comme la texture, l’usage émotionnel ou l’adaptabilité pour les enfants. Une approche qui ressemble étrangement à la représentation mentale que nous, humains, avons des objets qui nous entourent.
Des dimensions conceptuelles riches et complexes
Pour comprendre l’ampleur de cette découverte, imaginez une immense base de données de 4,7 millions de réponses générées par plusieurs modèles d’IA sur 1 854 objets différents : des chiens, des chaises, des pommes, des voitures… Ces objets ont été classés par les IA selon 66 dimensions conceptuelles. Plutôt que de se contenter de les organiser de manière simple, comme dans des catégories classiques, les IA ont créé des liens plus complexes entre ces objets, en fonction de critères subtils et variés.
Cela va bien au-delà d’une simple organisation mécanique ; ces IA multimodales combinent des informations textuelles et visuelles pour aboutir à une carte mentale sophistiquée qui ressemble à celle que pourrait produire un cerveau humain. Une approche innovante qui illustre le potentiel de l’IA à comprendre les objets d’une manière beaucoup plus nuancée que ce qu’on pensait jusqu’ici.
Une étonnante similarité avec le cerveau humain
L’étude a encore poussé plus loin l’analyse en comparant la manière dont les modèles d’IA et le cerveau humain réagissent aux mêmes objets. Les résultats sont étonnants : certaines zones du cerveau humain et celles des IA semblent être activées de manière similaire lorsqu’elles rencontrent ces objets. Ce parallèle est encore plus frappant avec les IA multimodales, capables de traiter à la fois des images et des textes. Cela imite la façon dont nous combinons nos sens pour comprendre notre environnement.
Mais attention, il ne faut pas pour autant confondre cette imitation de la cognition humaine avec une véritable compréhension. Comme le rappellent les chercheurs, les IA ne vivent pas d’expérience sensorielle. Elles ne ressentent pas ce qu’elles catégorisent. Leur « compréhension » se limite à un traitement statistique des données et à l’identification de schémas complexes dans les informations qu’elles traitent.
Vers une intelligence artificielle générale ?
Cette étude soulève une question cruciale : si les IA peuvent générer spontanément des représentations complexes, cela signifie-t-il que nous nous rapprochons de la création d’une intelligence artificielle générale (AGI) ? En d’autres termes, des machines capables de raisonner sur des tâches variées comme un humain. Les résultats obtenus suggèrent que les IA commencent à élaborer des modèles internes du monde, indépendamment de leurs programmations initiales, un pas potentiel vers des intelligences artificielles plus autonomes.
Pourquoi cette découverte est importante
Au-delà de la question philosophique sur la nature de la conscience des IA, cette avancée a des implications concrètes pour des secteurs comme la robotique, l’éducation et la collaboration homme-machine. Imaginez un robot assisté par une telle IA capable de reconnaître qu’un objet est fragile ou émotionnellement important, et d’agir en conséquence, sans avoir besoin d’instructions précises. Cette capacité à « comprendre » sans expérience sensorielle pourrait ouvrir la voie à des robots bien plus intuitifs et adaptés aux besoins humains.
En résumé : un miroir sophistiqué, mais pas (encore) un cerveau
En conclusion, les grands modèles de langage comme ChatGPT ne sont pas simplement des imitateurs du langage humain. Ils possèdent une capacité étonnante à générer des représentations conceptuelles complexes, proches de la cognition humaine. Cependant, bien qu’elles puissent simuler la pensée humaine en organisant et en classant les informations, ces IA ne « pensent » pas comme nous et ne ressentent pas ce qu’elles manipulent. Elles restent des outils puissants, mais des miroirs sophistiqués de notre propre façon de percevoir le monde, sans en avoir une véritable expérience.
L’avenir de ces technologies pourrait bien nous conduire vers des IA encore plus intelligentes, qui, un jour, pourraient interagir avec nous de manière encore plus naturelle et intuitive.
