L’interprétation des comportements sociaux a longtemps été considérée comme l’un des bastions de l’intelligence humaine. Décoder une expression faciale, évaluer la sincérité d’un sourire ou saisir l’ambiguïté d’un geste sont autant d’aptitudes qui s’ancrent dans des réseaux neuronaux complexes façonnés par des millénaires d’évolution. Voir une intelligence artificielle s’en approcher – voire égaler un individu humain dans la fiabilité de ces détections – témoigne d’un changement de paradigme dans la recherche en sciences cognitives.
L’étude menée par le Turku PET Centre repose sur une méthodologie particulièrement ambitieuse. Les chercheurs ont soumis ChatGPT et GPT-4V à l’évaluation de 138 caractéristiques sociales, allant du rire et du contact physique à des dimensions abstraites comme l’empathie ou la dominance. Ces résultats ont été comparés aux jugements de plus de 2 000 participants humains, représentant un volume de plus de 10 000 heures d’annotations. Là où un seul évaluateur humain montrait des variations, l’IA affichait une cohérence supérieure, produisant des résultats jugés « plus fiables » qu’un jugement isolé.
Quand l’IA cartographie les émotions dans le cerveau
L’innovation ne réside pas seulement dans la comparaison comportementale. Les chercheurs ont également cherché à savoir si les jugements produits par l’IA s’alignaient sur l’activité cérébrale humaine. À partir de données d’IRM fonctionnelle recueillies sur 97 participants regardant des extraits de films riches en interactions sociales, ils ont mis en évidence une correspondance impressionnante.
La corrélation entre les cartes cérébrales générées par GPT-4V et celles issues des annotations humaines atteint 0,95, un niveau rarement observé dans ce type d’expérimentation. Les zones activées – sillon temporal supérieur, jonction temporo-pariétale, gyrus fusiforme – correspondent aux noyaux identifiés depuis longtemps comme centraux dans la perception sociale. En d’autres termes, l’IA ne se contente pas d’imiter des jugements humains : elle produit des représentations qui reflètent fidèlement les structures de traitement du cerveau social.
Cette convergence soulève une question vertigineuse : l’IA développe-t-elle une forme d’« intelligence sociale fonctionnelle », ou ne fait-elle que mimer les schémas statistiques des données sur lesquelles elle a été entraînée ? Les chercheurs demeurent prudents, mais reconnaissent que cette validation neuronale constitue un jalon scientifique inédit.
Des applications immédiates et transformatrices
Les implications concrètes sont considérables. Dans le secteur de la santé, des systèmes pourraient analyser en continu le visage ou le langage corporel des patients, détectant précocement des signaux de détresse psychologique ou de douleur. Contrairement à des équipes médicales soumises à la fatigue et à la disponibilité humaine, l’IA pourrait fournir un suivi permanent, réduisant les risques d’incidents non détectés.
La sécurité figure également parmi les domaines les plus concernés. L’analyse en temps réel de séquences de vidéosurveillance pourrait permettre d’identifier des comportements suspects, d’anticiper une altercation ou de repérer un individu en détresse dans un espace public. Ces usages, déjà partiellement testés dans certains contextes, gagneraient une fiabilité accrue grâce à cette nouvelle capacité de l’IA à lire les interactions sociales.
Le monde de l’entreprise n’est pas en reste. Dans le service client, analyser la micro-expression d’un interlocuteur en visioconférence permettrait de détecter insatisfaction ou confusion, améliorant l’adaptation des réponses. Dans les ressources humaines, on peut imaginer des outils de support à l’évaluation comportementale lors de processus de recrutement ou de formation managériale. Bien que de tels scénarios soulèvent d’évidentes questions éthiques, la tentation d’un usage opérationnel rapide sera forte.
Le chercheur Severi Santavirta souligne également l’efficacité logistique : « Alors que l’évaluation humaine a mobilisé plus de 2 000 personnes et des milliers d’heures, ChatGPT a produit des résultats équivalents en quelques heures seulement ». Cette réduction des coûts et du temps représente en soi un argument décisif pour l’adoption industrielle.
Les limites d’une intelligence encore perfectible
Toutefois, l’étude de Turku insiste sur les zones d’ombre. L’IA égale un individu humain, mais reste en deçà du jugement collectif agrégé de plusieurs personnes, qui conserve une supériorité en précision. Les situations sociales complexes, telles que le harcèlement ou certains états émotionnels subtils comme la sérénité, montrent des divergences significatives entre IA et humains.
Cette limite met en évidence une différence fondamentale : l’IA excelle dans la cohérence, mais peut manquer la nuance. La perception sociale humaine n’est pas qu’une lecture d’indices visuels ; elle intègre contexte, culture, expérience personnelle. Une scène interprétée comme hostile dans un environnement peut être vue comme humoristique dans un autre. Ces subtilités restent pour l’instant hors de portée des modèles.
De plus, le risque d’un biais algorithmique persiste. Les IA sont entraînées sur des bases de données issues majoritairement de cultures et de contextes occidentaux. L’exportation de ces modèles vers d’autres environnements sociaux, notamment en Afrique ou en Asie, pourrait entraîner des erreurs d’interprétation aux conséquences graves si elles ne sont pas corrigées.
Vers une nouvelle génération d’interactions homme-IA
Cette avancée survient au moment où les grands laboratoires annoncent déjà la sortie de modèles encore plus performants, comme GPT-5. Les chercheurs anticipent que ces nouveaux systèmes iront plus loin dans la compréhension contextuelle, réduisant les écarts avec le jugement collectif humain.
L’enjeu dépasse la seule prouesse technique. L’intégration de l’IA dans les relations sociales modifie profondément notre rapport à la machine. Lorsque des systèmes seront capables d’identifier en temps réel notre frustration, notre enthousiasme ou notre scepticisme, la frontière entre interaction humaine et interaction assistée par IA deviendra de plus en plus floue.
Pour les décideurs publics et privés, cette évolution impose une réflexion stratégique. Comment encadrer l’usage de ces technologies dans les secteurs sensibles ? Quels garde-fous éthiques et réglementaires mettre en place ? Comment s’assurer que la collecte et l’analyse de signaux sociaux respectent la vie privée et les droits fondamentaux ?
Un signal fort pour la recherche et les entreprises
En définitive, cette étude finlandaise confirme que l’IA ne se contente plus d’exceller dans des tâches techniques – comme la traduction, le calcul ou la génération de texte – mais qu’elle s’immisce désormais dans l’un des territoires les plus humains : la lecture des relations sociales.
Les chercheurs y voient une opportunité scientifique unique : utiliser l’IA comme miroir pour mieux comprendre les mécanismes cérébraux de la perception sociale. Les entreprises, elles, y discernent déjà des cas d’usage susceptibles de transformer leurs pratiques.
Mais la prudence demeure nécessaire. L’intelligence sociale artificielle ne doit pas être confondue avec l’intelligence sociale humaine. La première repose sur des corrélations statistiques, la seconde sur des siècles de socialisation, de culture et de vécu. La confusion entre ces deux réalités constituerait un risque autant scientifique que sociétal.
La démonstration venue de Turku n’en reste pas moins historique : pour la première fois, une IA a prouvé sa capacité à égaler l’humain dans la lecture des interactions sociales visuelles et à refléter, jusque dans l’architecture cérébrale, les dynamiques de notre cognition sociale. Un jalon qui redéfinit le champ des possibles et interpelle autant les chercheurs que les dirigeants sur l’avenir des relations homme-machine.







![[INTERVIEW] Stage PFE : piloter la pyramide de talents chez Deloitte Maroc — Interview avec Mélanie BENALI et Hicham OUAZI l DRH.ma](https://drh-ma.s3.amazonaws.com/wp-content/uploads/2025/11/19103455/Interview-avec-Me%CC%81lanie-BENALI-et-Hicham-OUAZI.jpg)


