L'IA perçoit-elle et donne-t-elle un sens au monde de la même manière que les humains ?
L'intelligence artificielle (IA) devient de plus en plus importante et est déjà présente dans de nombreux aspects de notre vie quotidienne. Mais l'IA perçoit-elle et pense-t-elle le monde de la même manière que nous, les humains ? Pour répondre à cette question, les chercheurs de Max Planck et les membres de la Justus-Liebig-Universität Gießen Florian Mahner, Lukas Muttenthaler et Martin Hebart ont cherché à savoir si l'IA reconnaissait les objets de la même manière que les humains et ont publié leurs résultats dans la revue Nature Machine Intelligence. Ils ont développé une nouvelle approche qui permet d'identifier clairement et de comparer les dimensions clés auxquelles les humains et l'IA prêtent attention lorsqu'ils voient des objets.
Ces dimensions représentent diverses propriétés des objets, allant d'aspects purement visuels, comme "rond" ou "blanc", à des propriétés plus sémantiques, comme "lié à un animal" ou "lié à un feu", de nombreuses dimensions contenant à la fois des éléments visuels et sémantiques", explique Florian Mahner, premier auteur de l'étude. "Nos résultats ont révélé une différence importante : Alors que les humains se concentrent principalement sur les dimensions liées à la signification - ce qu'est un objet et ce que nous savons à son sujet - les modèles d'intelligence artificielle s'appuient davantage sur les dimensions capturant les propriétés visuelles, telles que la forme ou la couleur de l'objet. Nous appelons ce phénomène le "biais visuel" dans l'IA. Même lorsque l'IA semble reconnaître des objets comme le font les humains, elle utilise souvent des stratégies fondamentalement différentes. Cette différence est importante car elle signifie que les systèmes d'IA, même s'ils se comportent de la même manière que les humains, peuvent penser et prendre des décisions de manière totalement différente, ce qui influe sur la confiance que nous pouvons leur accorder.
En ce qui concerne le comportement humain, les scientifiques ont utilisé environ 5 millions de jugements de type "odd-one-out" accessibles au public et portant sur 1 854 images d'objets différents. Par exemple, on montre à un participant une image d'une guitare, d'un éléphant et d'une chaise et on lui demande quel est l'objet qui ne correspond pas. Les scientifiques ont ensuite traité plusieurs réseaux neuronaux profonds (RNP) capables de reconnaître des images analogues à celles des participants humains et ont recueilli des jugements de similarité pour les images des mêmes objets que ceux utilisés pour les humains. Ils ont ensuite appliqué le même algorithme pour identifier les caractéristiques clés de ces images - appelées "dimensions" par les scientifiques - qui sous-tendent les décisions de non correspondance. En traitant le réseau neuronal de manière analogue à l'homme, ils ont assuré une comparabilité directe entre les deux. "Lorsque nous avons examiné pour la première fois les dimensions découvertes dans les réseaux neuronaux profonds, nous avons pensé qu'elles ressemblaient beaucoup à celles que l'on trouve chez l'homme", explique Martin Hebart, dernier auteur de l'article. "Mais lorsque nous avons commencé à y regarder de plus près et à les comparer à celles des humains, nous avons remarqué d'importantes différences."
Outre le biais visuel identifié par les scientifiques, ils ont utilisé des techniques d'interprétabilité courantes dans l'analyse des réseaux neuronaux pour juger si les dimensions qu'ils ont trouvées avaient réellement un sens. Par exemple, une dimension peut comporter beaucoup d'animaux et être qualifiée de "liée aux animaux". Pour vérifier si la dimension est réellement liée aux animaux, les scientifiques ont effectué plusieurs tests : Ils ont examiné quelles parties des images étaient utilisées par le réseau neuronal, ils ont généré de nouvelles images qui correspondaient le mieux aux dimensions individuelles, et ils ont même manipulé les images pour supprimer certaines dimensions. "Tous ces tests stricts ont révélé des dimensions très interprétables", ajoute Florian Mahner. "Mais lorsque nous avons comparé directement les dimensions correspondantes entre les humains et les réseaux neuronaux profonds, nous avons constaté que le réseau ne faisait qu'approximer ces dimensions. Pour une dimension liée aux animaux, de nombreuses images d'animaux n'ont pas été incluses, et de même, de nombreuses images ont été incluses alors qu'elles n'étaient pas du tout des animaux. C'est une chose que nous n'aurions pas remarquée avec les techniques standard". Les scientifiques espèrent que les recherches futures utiliseront des approches similaires qui comparent directement les humains à l'IA afin de mieux comprendre comment l'IA donne un sens au monde. "Notre recherche fournit une méthode claire et interprétable pour étudier ces différences, ce qui nous aide à mieux comprendre comment l'IA traite l'information par rapport à l'homme", déclare Martin Hebart, "Ces connaissances peuvent non seulement nous aider à améliorer la technologie de l'IA, mais elles fournissent également des informations précieuses sur la cognition humaine."
Note: Cet article a été traduit à l'aide d'un système informatique sans intervention humaine. LUMITOS propose ces traductions automatiques pour présenter un plus large éventail d'actualités. Comme cet article a été traduit avec traduction automatique, il est possible qu'il contienne des erreurs de vocabulaire, de syntaxe ou de grammaire. L'article original dans Anglais peut être trouvé ici.