Inciampa ai confini del mondo fisico

Nel complesso l’attuale tecnologia di A.I. è loquace e cerebrale, ma inciampa ai confini del mondo fisico. “Qualsiasi adolescente può imparare a guidare un’auto in venti ore di pratica, con una minima supervisione”, mi ha detto Yann LeCun. “Qualsiasi gatto è in grado di saltare su una serie di mobili per arrivare in cima a qualche scaffale. Noi oggi non abbiamo alcun sistema di A.I. che si avvicini minimamente a fare cose di questo genere, a eccezione delle auto a guida autonoma”. Ma si tratta di macchine sovra-ingegnerizzate che richiedono “la mappatura di intere città, oltre a centinaia di ingegneri e centinaia di migliaia di ore di formazione”. Risolvere i complicati problemi dell’intuizione fisica “sarà la grande sfida del prossimo decennio”, ha affermato LeCun. L’idea di base è però semplice: se i neuroni possono farlo, allora potranno farlo anche le reti neurali.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Jérémy Barande, Ecole polytechnique Université Paris-Saclay) Yann LeCun.

Questa combinazione di immortalità e replicabilità

Se rimanesse un’attività di ricerca scientifica, un’A.I. mortale potrebbe portarci più vicini a una replica del nostro cervello. Ma Hinton è arrivato a pensare, con rammarico, che l’intelligenza digitale potrebbe essere più potente. Nell’intelligenza analogica, “se il cervello muore, muore anche la conoscenza”, ha detto. Nell’intelligenza digitale, invece, “se un particolare computer muore, le forze delle sue connessioni possono essere utilizzate su qualsiasi altro computer. E anche se dovessero morire tutti i computer, una volta immagazzinate da qualche parte tutte le forze delle connessioni, basterebbe creare un altro computer digitale ed eseguirle. Diecimila reti neurali possono imparare diecimila cose diverse contemporaneamente, e poi condividere ciò che hanno imparato”. Secondo Hinton, questa combinazione di immortalità e replicabilità ci dice che “dovremmo preoccuparci che l’intelligenza digitale prenda il posto dell’intelligenza biologica”.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nel disegno (Wikipedia) un’immagine simbolica dell’intelligenza artificiale.

Computazione mortale

Negli ultimi anni passati a Google, Hinton ha concentrato i suoi sforzi sulla creazione di un’intelligenza artificiale più simile alla mente, utilizzando tipi di hardware che emulassero più da vicino il cervello. Nelle A.I. di oggi la forza delle connessioni tra i neuroni artificiali è memorizzata numericamente: è come se il cervello tenesse una contabilità di se stesso. Invece nel cervello analogico tale forza è incorporata fisicamente nelle connessioni tra neuroni. Hinton ha cercato di creare una versione artificiale di questo sistema, utilizzando particolari tipi di chip.
“Se ci riuscissi, sarebbe fantastico”, mi ha detto. I chip sarebbero in grado di imparare variando le proprie “conduttanze”. Poiché la forza di ogni connessione sarebbe integrata nell’hardware, sarebbe impossibile copiarle tutte da una macchina all’altra: ogni intelligenza artificiale dovrebbe imparare da sola. “Dovrebbero andare a scuola”, ha detto. “Ma si passerebbe da consumare un megawatt a trenta watt”. Mentre parlava, Hinton si era sporto in avanti, fissando i suoi occhi nei miei, e per un attimo ho intravisto l’evangelizzatore. Hinton ha chiamato quest’approccio “computazione mortale” poiché la conoscenza acquisita da ogni A.I. andrebbe perduta una volta smontato l’hardware. “Rinunceremmo all’immortalità”, ha detto. “In letteratura si rinuncia a essere un dio per la donna che si ama, vero? In questo caso, otterremmo qualcosa di molto più importante, ovvero l’efficienza energetica”. Tra le altre cose, l’efficienza energetica incoraggia l’individualità. Il mondo è in grado di sostenere miliardi di cervelli, tutti diversi, perché un cervello umano può funzionare anche solo con farina d’avena. E ciascun cervello può continuare ad apprendere, anziché essere addestrato una sola volta prima di essere buttato nel mondo là fuori.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Ramsey Cardy) Geoffrey Hinton.

Centauri

Negli scacchi, dominati ormai da decenni dall’intelligenza artificiale, l’unica speranza di un giocatore è di fare coppia con un bot. Queste squadre per metà umane e per metà A.I., conosciute con il nome di centauri, potrebbero ancora essere in grado di battere i migliori esseri umani o la migliore intelligenza artificiale quando questi giocano da soli.

James Somers, A Coder Considers the Waning Days of the Craft, The New Yorker (20/11/2023), traduzione L.V.

Ma non avrebbero potuto trovare un nome migliore, tipo HAL?

Nella Silicon Valley sono in agitazione per le abilità mostrate da un chatbot sperimentale chiamato ChatGPT, rilasciato da OpenAI alla fine di novembre 2022 e considerato “spaventosamente capace” da Elon Musk. Musk, che ne è stato uno dei fondatori insieme a Sam Altman, ha abbandonato e ora la Microsoft è un partner.
C’è gran voglia che ChatGPT – ma non avrebbero potuto trovare un nome migliore, tipo HAL? – elimini milioni di posti di lavoro. Perché assumere un laureato se un bot può svolgere lo stesso lavoro in modo più rapido ed economico? Niente più discussioni sulle regole del lavoro da casa, niente più lotte sindacali. Non c’è bisogno di attirare con le pizze gli A.I. affinché tornino in ufficio.
ChatGPT apre il vaso di Pandora delle paure esistenziali. I cervelloni della Silicon Valley hanno parlato di salvaguardie e di interruttori capaci di uccidere l’A.I., ma già sappiamo che non staccheranno mai la spina quando il loro bebè si sarà trasformato in M3gan.

Maureen Dowd, A.I.: Actually Insipid Until It’s Actively Insidious, The New York Times (28/1/2023). Nella foto (Wikipedia) Maureen Dowd.

Potrebbero diventare i migliori amici dei nostri figli

Sono d’accordo con Elon Musk sul fatto che, quando progettiamo l’intelligenza artificiale senza un interruttore di emergenza, stiamo “evocando il demone” e sul fatto che gli esseri umani potrebbero finire per diventare, come ha detto Steve Wozniak, gli animali domestici della famiglia. (Se saremo fortunati).
Parlando degli allarmi lanciati da persone come Musk e Stephen Hawking, Schmidt ha detto che “loro pensano che liberando la potenza dell’intelligenza artificiale, alla fine, ci ritroveremo con un signore supremo dei robot che sarà 10 o 100 o 1000 volte più intelligente degli esseri umani. La mia opinione è diversa. Penso che le evidenze puntino al fatto che i sistemi di A.I. non penseranno come gli esseri umani, ma saranno molto intelligenti. Dovremo imparare a conviverci”.
Non pensi che Siri e Alexa una notte ci uccideranno?
“No”, ha risposto. “Ma potrebbero diventare i migliori amici dei nostri figli”.

Maureen Dowd, A.I. Is Not A-OK, The New York Times (30/10/2021), traduzione L.V. Nella foto (Wikipedia) Eric Schmidt.

Che aspetto avrà?

“L’intelligenza artificiale è imprecisa, il che implica che può essere un partner inaffidabile”, ha detto Eric Schmidt quando ci siamo incontrati nel suo ufficio a Chelsea. “È dinamica nel senso che cambia continuamente. È emergente e fa cose che non ti aspetti. Soprattutto, è in grado di apprendere”.
“Sarà ovunque. Che aspetto avrà un migliore amico abilitato all’intelligenza artificiale, specialmente per un bambino? Che aspetto avrà la guerra abilitata dall’intelligenza artificiale? L’A.I. percepirà aspetti della realtà che non percepiamo? È possibile che l’A.I. vedrà cose che gli esseri umani non possono comprendere?”.

Eric Schmidt intervistato da Maureen Dowd in A.I. Is Not A-OK, The New York Times (30/10/2021), traduzione L.V. Nella foto (Wikipedia) Eric Schmidt.

E muovendosi scopriva il mondo

cover_180402_1200Il movimento, perfino nell’ambito dell’A.I, non era considerato solo come una funzione pratica inferiore che poteva essere innestata, in una fase successiva, su una capacità di ragionamento astratto. La linea tra azione e pensiero era più sfocata di quanto sembrasse. Una creatura non pensava per muoversi: si muoveva e basta, e muovendosi scopriva il mondo che poi formava il contenuto dei suoi pensieri.

Larissa MacFarquhar, The Mind-Expanding Ideas of Andy Clark, The New Yorker (2/4/18), traduzione L.V.

Le cose che i bambini piccoli trovavano facili

cover_180402_1200Nei primi tempi dell’A.I., l’intelligenza era perlopiù considerata come la capacità di fare cose che i ricercatori stessi trovavano difficili, come dimostrare teoremi e giocare a scacchi. Le cose che i bambini piccoli trovavano facili, come camminare senza sbattere contro i muri, o distinguere un animale di pezza da un tavolo, non si pensava che richiedessero alcun tipo interessante di intelligenza. Ma poi alcuni ricercatori hanno iniziato a costruire robot, e hanno scoperto che programmare le abilità infantili come camminare era estremamente difficile, più difficile degli scacchi.

Larissa MacFarquhar, The Mind-Expanding Ideas of Andy Clark, The New Yorker (2/4/18), traduzione L.V.

Strawberry fields forever

Elon_Musk_-_The_Summit_2013Perfino i robot con un compito apparentemente benevolo potrebbero danneggiarci con indifferenza. “Immaginiamo di creare una macchina dotata di intelligenza artificiale che raccoglie le fragole e migliora autonomamente le sue capacità,” ha detto Musk, “e diventa sempre più brava a raccogliere fragole, e ne raccoglie sempre di più, e continua a migliorare: la sola cosa che le interessa è raccogliere fragole. Tutto il mondo per lei dovrebbe diventare un campo di fragole. Strawberry fields forever“. Per gli esseri umani non ci sarebbe più spazio.

Maureen Dowd, Elon Musk’s billion-dollar crusade to stop the A.I. apocalypse, Vanity Fair (aprile 2017), traduzione L.V. Nella foto (Dan Taylor / Heisenberg Media, Wkipedia) Elon Musk.