L’intelligence artificielle n’a jamais autant fait parler d’elle. Depuis quelques années, des chercheurs repoussent les frontières de la technologie en développant des IA capables de simuler des comportements humains complexes. Ces avancées, portées par des modèles hybrides comme la Centaur AI, promettent de révolutionner la compréhension de la cognition et de redéfinir notre rapport à la machine. Mais jusqu’où ces systèmes peuvent-ils réellement imiter le cerveau humain ? 

Quand l’IA s’inspire du cerveau humain

Les dernières recherches montrent que les systèmes d’IA ne se contentent plus de traiter des données à la chaîne. Désormais, certains modèles intègrent des mécanismes inspirés du fonctionnement du cerveau humain.

L’objectif ? Reproduire la façon dont l’humain apprend, s’adapte, ou même doute. Cette approche, baptisée “Centaur AI”, combine la puissance de calcul des algorithmes avec l’intuition et la flexibilité de l’esprit humain.

Centaur est un modèle particulier dont la base de connaissances s'appuie sur un corpus de 160 grandes expérimentations en psychologie dans lesquelles 60 000 personnes ont pris 10 millions de décisions pour résoudre différentes tâches, indique la revue Nature.

intelligence artificielle

Cela ouvre une fenêtre sur la façon dont l'esprit humain fonctionne selon son environnement et ses expériences pour faire des choix, et cela peut permettre d'anticiper les décisions humaines et de s'y adapter.

Centaur peut ainsi prédire le comportement humain dans certaines situations comme les paris, les jeux de mémoire ou la résolution de problèmes mais aussi il est aussi capable de deviner les choix les plus probables d'un humain dans des situations sur lesquelles l'IA n'a pas été spécifiquement entraînée.

Résultat : des IA capables de résoudre des problèmes complexes, de s’ajuster face à l’inattendu, et même de simuler des prises de décision nuancées. Les chercheurs y voient une avancée majeure pour mieux comprendre les rouages de la cognition humaine, mais aussi pour développer des outils capables de collaborer de façon plus naturelle avec l’humain ou encore la création de modèles virtuels pour tester des expérimentations psychologiques...sans participants humains.

Des promesses, mais aussi des limites

Si ces IA hybrides impressionnent par leur capacité à simuler certains comportements, elles restent loin de reproduire toute la richesse du cerveau humain. Les modèles actuels excellent dans des tâches précises, mais peinent dès qu’il s’agit de généraliser ou d’improviser face à des situations totalement inédites.

Les chercheurs soulignent que, malgré des progrès fulgurants, il existe encore un fossé entre la logique algorithmique et la complexité de la pensée humaine. La question de la “compréhension réelle” reste ouverte : une IA qui imite la décision humaine comprend-elle vraiment ce qu’elle fait, ou ne fait-elle que reproduire des schémas appris ?

Shéma homme et intelligence artificielle face à face

Centaur est ainsi par exemple capable de prédire une action humaine face à une situation donnée mais pas le temps mis par une personne pour arriver à cette décision. L'augmentation du volume de données permettra-t-elle de rapprocher un peu plus l'IA des schémas de pensée humains ?

Peut-être. Mais déjà se profilent les problématiques de biais, la majorité des études ingérées par le modèle fondateur venant de l'Occident et des sociétés industrielles.

Centaur risque ainsi de devenir expert en cognition d'un certain type de groupes humains mais passer à côté des schémas de pensée d'autres groupes ethniques moins bien documentés.

Dans tous les cas, on n'en est pas encore à la superintelligence générale, ou AGI, dont rêvent tous les grands groupes et les startups de l'IA.

Vers une collaboration homme-machine plus naturelle

L’un des enjeux majeurs de cette révolution cognitive, c’est la capacité des IA à travailler main dans la main avec l’humain. Les modèles hybrides, comme la Centaur AI, ouvrent la voie à des applications inédites dans la santé, l’éducation ou encore la robotique.

En simulant le comportement humain, ces systèmes facilitent la communication et l’apprentissage mutuel. Imaginez un assistant médical capable de comprendre les hésitations d’un patient, ou un robot éducatif qui adapte son discours en fonction des réactions d’un élève.

Ce type de collaboration pourrait transformer des secteurs entiers et offrir de nouveaux outils pour résoudre des problèmes complexes.

Quels défis pour l’avenir de la cognition artificielle ?

Malgré l’enthousiasme, de nombreux défis persistent. Les IA hybrides doivent encore apprendre à gérer l’incertitude, à interpréter des signaux contradictoires ou à intégrer des valeurs humaines dans leurs décisions.

Les chercheurs travaillent sur des modèles capables de mieux simuler l’apprentissage et l’adaptation, mais le chemin reste long avant d’atteindre une véritable intelligence “générale”.

La question de la transparence et de l’éthique s’impose aussi, car plus l’IA devient “humaine”, plus il devient difficile de comprendre ses choix. Les débats autour de la confiance, de la responsabilité et des biais algorithmiques sont loin d’être clos.

Source : Nature