L'intelligenza artificiale percepisce e dà senso al mondo come gli esseri umani?
L'intelligenza artificiale (IA) sta diventando sempre più importante ed è già presente in molti aspetti della nostra vita quotidiana, ma l'IA percepisce e pensa al mondo come noi umani? Per rispondere a questa domanda, i ricercatori del Max Planck e della Justus-Liebig-Universität di Gießen Florian Mahner, Lukas Muttenthaler e Martin Hebart hanno studiato se l'IA riconosce gli oggetti in modo simile agli esseri umani e hanno pubblicato i loro risultati sulla rivista Nature Machine Intelligence. Hanno sviluppato un nuovo approccio che permette di identificare e confrontare chiaramente le dimensioni chiave a cui gli esseri umani e le IA prestano attenzione quando vedono gli oggetti.
"Queste dimensioni rappresentano varie proprietà degli oggetti, che vanno da aspetti puramente visivi, come 'rotondo' o 'bianco', a proprietà più semantiche, come 'legato agli animali' o 'legato al fuoco', con molte dimensioni che contengono sia elementi visivi che semantici", spiega Florian Mahner, primo autore dello studio. "I nostri risultati hanno rivelato un'importante differenza: Mentre gli esseri umani si concentrano principalmente sulle dimensioni relative al significato - cosa è un oggetto e cosa sappiamo su di esso - i modelli IA si basano maggiormente sulle dimensioni che catturano le proprietà visive, come la forma o il colore dell'oggetto. Chiamiamo questo fenomeno "pregiudizio visivo" nell'IA. Anche quando l'intelligenza artificiale sembra riconoscere gli oggetti proprio come gli esseri umani, spesso utilizza strategie fondamentalmente diverse. Questa differenza è importante perché significa che i sistemi di IA, nonostante si comportino in modo simile agli esseri umani, potrebbero pensare e prendere decisioni in modi completamente diversi, influenzando il grado di fiducia che possiamo riporre in loro."
Per il comportamento umano, gli scienziati hanno utilizzato circa 5 milioni di giudizi dispari pubblicamente disponibili su 1.854 immagini di oggetti diversi. Ad esempio, a un partecipante è stata mostrata l'immagine di una chitarra, di un elefante e di una sedia e gli è stato chiesto quale oggetto non corrisponde. Gli scienziati hanno quindi trattato più reti neurali profonde (DNN) in grado di riconoscere immagini analoghe a quelle dei partecipanti umani e hanno raccolto giudizi di somiglianza per immagini degli stessi oggetti utilizzati per gli esseri umani. Poi hanno applicato lo stesso algoritmo per identificare le caratteristiche chiave di queste immagini - definite "dimensioni" dagli scienziati - che sono alla base delle decisioni di esclusione. Trattando la rete neurale in modo analogo agli esseri umani, si è garantita la comparabilità diretta tra i due. "Quando abbiamo osservato per la prima volta le dimensioni scoperte nelle reti neurali profonde, abbiamo pensato che fossero molto simili a quelle riscontrate negli esseri umani", spiega Martin Hebart, ultimo autore del lavoro. "Ma quando abbiamo iniziato a guardarle più da vicino e a confrontarle con quelle umane, abbiamo notato importanti differenze".
Oltre alla distorsione visiva identificata dagli scienziati, essi hanno utilizzato tecniche di interpretabilità comuni nell'analisi delle reti neurali per giudicare se le dimensioni trovate avessero effettivamente senso. Ad esempio, una dimensione potrebbe presentare molti animali e potrebbe essere definita "legata agli animali". Per verificare se la dimensione rispondesse davvero agli animali, gli scienziati hanno eseguito diversi test: Hanno esaminato quali parti delle immagini venivano utilizzate dalla rete neurale, hanno generato nuove immagini che corrispondevano al meglio alle singole dimensioni e hanno persino manipolato le immagini per eliminare alcune dimensioni. "Tutti questi test rigorosi hanno indicato dimensioni molto interpretabili", aggiunge Florian Mahner. "Ma quando abbiamo confrontato direttamente le dimensioni corrispondenti tra gli esseri umani e le reti neurali profonde, abbiamo scoperto che la rete si limitava ad approssimare realmente queste dimensioni. Per una dimensione legata agli animali, molte immagini di animali non sono state incluse e, allo stesso modo, sono state incluse molte immagini che non erano affatto animali. Questo è un aspetto che ci sarebbe sfuggito con le tecniche standard". Gli scienziati sperano che le ricerche future utilizzino approcci simili che mettano a confronto direttamente gli esseri umani e le IA per capire meglio come le IA interpretano il mondo. "La nostra ricerca fornisce un metodo chiaro e interpretabile per studiare queste differenze, che ci aiuta a capire meglio come l'IA elabora le informazioni rispetto agli esseri umani", afferma Martin Hebart, "Questa conoscenza non solo può aiutarci a migliorare la tecnologia dell'IA, ma fornisce anche preziose intuizioni sulla cognizione umana".
Nota: questo articolo è stato tradotto utilizzando un sistema informatico senza intervento umano. LUMITOS offre queste traduzioni automatiche per presentare una gamma più ampia di notizie attuali. Poiché questo articolo è stato tradotto con traduzione automatica, è possibile che contenga errori di vocabolario, sintassi o grammatica. L'articolo originale in Inglese può essere trovato qui.