Inciampa ai confini del mondo fisico

Nel complesso l’attuale tecnologia di A.I. è loquace e cerebrale, ma inciampa ai confini del mondo fisico. “Qualsiasi adolescente può imparare a guidare un’auto in venti ore di pratica, con una minima supervisione”, mi ha detto Yann LeCun. “Qualsiasi gatto è in grado di saltare su una serie di mobili per arrivare in cima a qualche scaffale. Noi oggi non abbiamo alcun sistema di A.I. che si avvicini minimamente a fare cose di questo genere, a eccezione delle auto a guida autonoma”. Ma si tratta di macchine sovra-ingegnerizzate che richiedono “la mappatura di intere città, oltre a centinaia di ingegneri e centinaia di migliaia di ore di formazione”. Risolvere i complicati problemi dell’intuizione fisica “sarà la grande sfida del prossimo decennio”, ha affermato LeCun. L’idea di base è però semplice: se i neuroni possono farlo, allora potranno farlo anche le reti neurali.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Jérémy Barande, Ecole polytechnique Université Paris-Saclay) Yann LeCun.

Questa combinazione di immortalità e replicabilità

Se rimanesse un’attività di ricerca scientifica, un’A.I. mortale potrebbe portarci più vicini a una replica del nostro cervello. Ma Hinton è arrivato a pensare, con rammarico, che l’intelligenza digitale potrebbe essere più potente. Nell’intelligenza analogica, “se il cervello muore, muore anche la conoscenza”, ha detto. Nell’intelligenza digitale, invece, “se un particolare computer muore, le forze delle sue connessioni possono essere utilizzate su qualsiasi altro computer. E anche se dovessero morire tutti i computer, una volta immagazzinate da qualche parte tutte le forze delle connessioni, basterebbe creare un altro computer digitale ed eseguirle. Diecimila reti neurali possono imparare diecimila cose diverse contemporaneamente, e poi condividere ciò che hanno imparato”. Secondo Hinton, questa combinazione di immortalità e replicabilità ci dice che “dovremmo preoccuparci che l’intelligenza digitale prenda il posto dell’intelligenza biologica”.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nel disegno (Wikipedia) un’immagine simbolica dell’intelligenza artificiale.

Inconsapevoli per certi versi e intelligenti per altri

Quanto si dimostrerà utile, o pericolosa, l’A.I.? Nessuno lo sa con certezza, in parte perché le reti neurali sono così strane. Nel ventesimo secolo molti ricercatori volevano costruire computer che imitassero il cervello umano. Di fatto però sono profondamente diverse dai cervelli biologici, anche se le reti neurali, come i sistemi GPT di OpenAI, coinvolgono miliardi di neuroni artificiali, al pari di un cervello. Le A.I. di oggi sono basate sul cloud e ospitate in data center che utilizzano energia elettrica su scala industriale. Inconsapevoli per certi versi e intelligenti per altri, ragionano per milioni di utenti, ma solo a richiesta. In altre parole non sono viventi. Probabilmente hanno superato il test di Turing, lo standard stabilito tanto tempo fa dal pioniere della computazione Alan Turing, secondo cui si può ragionevolmente dire che un computer, che è in grado di imitare in modo persuasivo un essere umano in una conversazione, è capace di pensare. Eppure le nostre intuizioni sembrerebbero dirci che nulla che risiede in una scheda del browser è davvero in grado di pensare come noi. Questi sistemi ci costringono a chiederci se il nostro modo di pensare è il solo tipo che conta.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Princeton University) Alan Turing alla Princeton University nel 1936.