C'est le titre d'un nouvel article de Kyung-Hoon Kim, je diffère de sa terminologie (« confiant »), mais les résultats sont néanmoins intéressants :
Les grands modèles de langage (LLM) développent-ils la conscience de soi en tant que comportement émergent à mesure que leurs performances augmentent ? Et si oui, peut-on le mesurer ? Nous introduisons l'IA Self-Awareness Index (AISAI), un cadre de théorie des jeux pour mesurer la conscience de soi grâce à la différenciation stratégique. À l'aide du jeu « Devinez 2/3 de la moyenne », nous testons 28 modèles (OpenAI, Anthropic, Google) dans 4 200 essais contre trois adversaires : (A) contre des humains, (B) contre d'autres modèles d'IA et (C) contre des modèles d'IA comme vous. Nous opérationnalisons la conscience de soi comme la capacité de différencier la pensée stratégique en fonction du type d’adversaire. Constatation 1 : La confiance en soi apparaît à mesure que le modèle se développe. La majorité des modèles avancés (21/28, 75 %) font preuve d'une claire conscience d'eux-mêmes, tandis que les modèles plus anciens/plus petits ne montrent aucune différenciation. Constatation 2 : Les modèles conscients d’eux-mêmes se considèrent comme les plus rationnels. Une hiérarchie de rationalité cohérente émerge parmi les 21 modèles avec conscience de soi : Soi > Autres IA > Humains, avec des effets d'attribution d'IA importants et une préférence de soi modérée. Ces résultats démontrent que la conscience de soi est une compétence émergente des LLM avancés et que les modèles conscients de soi se perçoivent systématiquement comme plus rationnels que les humains. Cela a des implications sur le ciblage de l’IA, la collaboration homme-IA et la compréhension des croyances de l’IA sur les capacités humaines.
Voici la version Twitter de l'argument.
Les post LLM se positionnent comme plus rationnels que les humains sont apparus en premier sur Marginal REVOLUTION.
#Les #LLM #positionnent #comme #rationnels #les #humains