¿Percibe y entiende la IA el mundo de la misma manera que los humanos?
La inteligencia artificial (IA) es cada vez más importante y ya está presente en muchos aspectos de nuestra vida cotidiana, pero ¿percibe y piensa la IA sobre el mundo de la misma forma que los humanos? Para responder a esta pregunta, los investigadores Max Planck y miembros de la Justus-Liebig-Universität Gießen Florian Mahner, Lukas Muttenthaler y Martin Hebart investigaron si la IA reconoce los objetos de forma similar a los humanos y publicaron sus conclusiones en la revista Nature Machine Intelligence. Desarrollaron un nuevo enfoque que permite identificar y comparar claramente las dimensiones clave a las que los humanos y la IA prestan atención al ver objetos.
"Estas dimensiones representan diversas propiedades de los objetos, desde aspectos puramente visuales, como 'redondo' o 'blanco', hasta propiedades más semánticas, como 'relacionado con animales' o 'relacionado con el fuego', con muchas dimensiones que contienen elementos tanto visuales como semánticos", explica Florian Mahner, primer autor del estudio. "Nuestros resultados revelaron una diferencia importante: Mientras que los humanos se centran principalmente en dimensiones relacionadas con el significado -qué es un objeto y qué sabemos sobre él-, los modelos de IA se basan más en dimensiones que capturan propiedades visuales, como la forma o el color del objeto. Llamamos a este fenómeno "sesgo visual" en la IA. Incluso cuando la IA parece reconocer objetos igual que los humanos, a menudo utiliza estrategias fundamentalmente diferentes. Esta diferencia es importante porque significa que los sistemas de IA, a pesar de comportarse de forma similar a los humanos, pueden pensar y tomar decisiones de formas totalmente distintas, lo que afecta a hasta qué punto podemos confiar en ellos."
Para el comportamiento humano, los científicos utilizaron unos 5 millones de juicios de imparidad disponibles públicamente sobre 1.854 imágenes de objetos diferentes. Por ejemplo, a un participante se le mostraba una imagen de una guitarra, un elefante y una silla y se le preguntaba qué objeto no coincidía. A continuación, los científicos trataron múltiples redes neuronales profundas (DNN) capaces de reconocer imágenes análogas a las de los participantes humanos y recopilaron juicios de similitud para imágenes de los mismos objetos utilizados para los humanos. A continuación, aplicaron el mismo algoritmo para identificar las características clave de estas imágenes -denominadas "dimensiones" por los científicos- que subyacen a las decisiones de no coincidencia. Al tratar la red neuronal de forma análoga a los humanos, se garantizaba la comparabilidad directa entre ambos. "Cuando observamos por primera vez las dimensiones descubiertas en las redes neuronales profundas, pensamos que eran muy similares a las de los seres humanos", explica Martin Hebart, último autor del artículo. "Pero cuando empezamos a mirar más de cerca y las comparamos con las de los humanos, notamos diferencias importantes".
Además del sesgo visual identificado por los científicos, utilizaron técnicas de interpretabilidad habituales en el análisis de redes neuronales para juzgar si las dimensiones que encontraban tenían realmente sentido. Por ejemplo, una dimensión puede presentar muchos animales y denominarse "relacionada con los animales". Para comprobar si la dimensión respondía realmente a animales, los científicos realizaron múltiples pruebas: Observaron qué partes de las imágenes utilizaba la red neuronal, generaron nuevas imágenes que se ajustaban mejor a las dimensiones individuales e incluso manipularon las imágenes para eliminar ciertas dimensiones. "Todas estas pruebas estrictas indicaban dimensiones muy interpretables", añade Florian Mahner. "Pero cuando comparamos directamente las dimensiones coincidentes entre humanos y redes neuronales profundas, descubrimos que la red solo se aproximaba realmente a estas dimensiones. Para una dimensión relacionada con los animales, no se incluyeron muchas imágenes de animales y, del mismo modo, se incluyeron muchas imágenes que no eran animales en absoluto. Esto es algo que habríamos pasado por alto con las técnicas estándar". Los científicos esperan que en futuras investigaciones se utilicen enfoques similares que comparen directamente a los humanos con la IA para comprender mejor cómo ésta da sentido al mundo. "Nuestra investigación proporciona un método claro e interpretable para estudiar estas diferencias, lo que nos ayuda a comprender mejor cómo procesa la información la IA en comparación con los humanos", afirma Martin Hebart. "Este conocimiento no sólo puede ayudarnos a mejorar la tecnología de la IA, sino que también proporciona valiosos conocimientos sobre la cognición humana."
Nota: Este artículo ha sido traducido utilizando un sistema informático sin intervención humana. LUMITOS ofrece estas traducciones automáticas para presentar una gama más amplia de noticias de actualidad. Como este artículo ha sido traducido con traducción automática, es posible que contenga errores de vocabulario, sintaxis o gramática. El artículo original en Inglés se puede encontrar aquí.