Menlo Park (California) – La notizia dei due bot, Alice e Bob, che hanno iniziato a dialogare tra loro in una lingua sconosciuta ai ricercatori durante un esperimento sull’intelligenza artificiale condotto da Facebook ha fatto il giro del mondo, scatenando la preoccupazione per gli scenari possibili legati alle macchine che, in un futuro, potrebbero agire senza bisogno dell’intervento umano. I giornali americani hanno raccontato l’accaduto con allarmismo: sul Sun Kevin Warwick, professore inglese esperto di robotica, descrive il fatto come una “pietra miliare per la scienza, ma chi dice che non costituisce un pericolo nasconde la testa sotto la sabbia”, e che non si è ancora a conoscenza di cosa realmente volessero dirsi i due robot.
In realtà, come ha spiegato Dhruv Batra, uno dei ricercatori che ha preso parte all’esperimento, “Nonostante l’idea che delle macchine che inventano un nuovo linguaggio per parlare tra loro suoni inaspettata e allarmante per chi non si occupa di Intelligenza artificiale, in realtà si tratta di un aspetto molto ben conosciuto del settore, con pubblicazioni in merito che sono vecchie di decenni”. In laboratorio, si stava cercando di far dialogare Alice e Bob, due intelligenze artificiali allenate alla negoziazione, con una serie di obiettivi da raggiungere; ogni agente artificiale ha dei valori su cui basa la negoziazione, e dialoga con l’altro per raggiungere la serie di obiettivi prefissati. In questo caso, i due agenti hanno modificato il linguaggio, probabilmente per raggiungere prima l’obiettivo, ma in realtà il risultato è stato privo di significato. La conversazione tra le due macchine è stata la seguente:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
L’esperimento, che peraltro non era destinato al pubblico, è stato quindi sospeso, non perché ritenuto pericoloso, ma semplicemente perché i risultati ottenuti non erano quelli che la squadra di ricerca era interessata a studiare. Nessuna possibilità di AI superiore che possa prendere il dominio sfuggendo al controllo umano, dunque, e nessuna spina staccata per evitare problemi: la ricerca è stata semplicemente modificata nei parametri, perché quanto emerso esulava dall’interesse degli scienziati. La materia della AI resta ostica, e il modo in cui i media l’hanno affrontata dimostra delle riserve culturali non indifferenti da parte dell’opinione pubblica. Per tranquillizzare gli animi, Batra ha concluso il suo post affermando: “alcuni bot a cui viene chiesto di svolgere un compito spesso trovano dei modi non intuitivi per raggiungere il risultato. Cambiare i parametri dell’esperimento NON significa ‘fermare l’intelligenza artificiale’ o staccargli la spina, come è stato scritto. Se fosse questo il caso, ogni sviluppatore in questo campo dovrebbe lasciare tutto ogni volta che un lavoro non raggiunge l’obiettivo“.