I capricci del linguaggio umano

Poiché i modelli linguistici di grandi dimensioni sono stati formati in questo modo, uno dei mestieri improvvisamente in voga nel settore tecnologico è quello del “prompt engineer”: qualcuno così preciso con il linguaggio a cui può essere affidato il compito di creare meta-prompt e altre istruzioni per i modelli di intelligenza artificiale. Ma anche quando la programmazione in prosa viene eseguita abilmente, essa presenta evidenti limiti. I capricci del linguaggio umano possono portare a conseguenze indesiderate, come illustrano innumerevoli sitcom e favole della buonanotte. In un certo senso si può dire che programmiamo la società in prosa da migliaia di anni, scrivendo leggi. Eppure abbiamo ancora bisogno di vasti sistemi di tribunali e giurie per interpretare tali istruzioni ogni volta che una situazione è anche leggermente nuova.

Charles Duhigg, The Inside Story of Microsoft’s Partnership with OpenAI, The New Yorker (11/12/2023), traduzione L.V. Nella foto (Wikipedia, Ohio State University Center for Operational Excellence) Charles Duhigg.

Inciampa ai confini del mondo fisico

Nel complesso l’attuale tecnologia di A.I. è loquace e cerebrale, ma inciampa ai confini del mondo fisico. “Qualsiasi adolescente può imparare a guidare un’auto in venti ore di pratica, con una minima supervisione”, mi ha detto Yann LeCun. “Qualsiasi gatto è in grado di saltare su una serie di mobili per arrivare in cima a qualche scaffale. Noi oggi non abbiamo alcun sistema di A.I. che si avvicini minimamente a fare cose di questo genere, a eccezione delle auto a guida autonoma”. Ma si tratta di macchine sovra-ingegnerizzate che richiedono “la mappatura di intere città, oltre a centinaia di ingegneri e centinaia di migliaia di ore di formazione”. Risolvere i complicati problemi dell’intuizione fisica “sarà la grande sfida del prossimo decennio”, ha affermato LeCun. L’idea di base è però semplice: se i neuroni possono farlo, allora potranno farlo anche le reti neurali.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Jérémy Barande, Ecole polytechnique Université Paris-Saclay) Yann LeCun.

Questa combinazione di immortalità e replicabilità

Se rimanesse un’attività di ricerca scientifica, un’A.I. mortale potrebbe portarci più vicini a una replica del nostro cervello. Ma Hinton è arrivato a pensare, con rammarico, che l’intelligenza digitale potrebbe essere più potente. Nell’intelligenza analogica, “se il cervello muore, muore anche la conoscenza”, ha detto. Nell’intelligenza digitale, invece, “se un particolare computer muore, le forze delle sue connessioni possono essere utilizzate su qualsiasi altro computer. E anche se dovessero morire tutti i computer, una volta immagazzinate da qualche parte tutte le forze delle connessioni, basterebbe creare un altro computer digitale ed eseguirle. Diecimila reti neurali possono imparare diecimila cose diverse contemporaneamente, e poi condividere ciò che hanno imparato”. Secondo Hinton, questa combinazione di immortalità e replicabilità ci dice che “dovremmo preoccuparci che l’intelligenza digitale prenda il posto dell’intelligenza biologica”.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nel disegno (Wikipedia) un’immagine simbolica dell’intelligenza artificiale.

Computazione mortale

Negli ultimi anni passati a Google, Hinton ha concentrato i suoi sforzi sulla creazione di un’intelligenza artificiale più simile alla mente, utilizzando tipi di hardware che emulassero più da vicino il cervello. Nelle A.I. di oggi la forza delle connessioni tra i neuroni artificiali è memorizzata numericamente: è come se il cervello tenesse una contabilità di se stesso. Invece nel cervello analogico tale forza è incorporata fisicamente nelle connessioni tra neuroni. Hinton ha cercato di creare una versione artificiale di questo sistema, utilizzando particolari tipi di chip.
“Se ci riuscissi, sarebbe fantastico”, mi ha detto. I chip sarebbero in grado di imparare variando le proprie “conduttanze”. Poiché la forza di ogni connessione sarebbe integrata nell’hardware, sarebbe impossibile copiarle tutte da una macchina all’altra: ogni intelligenza artificiale dovrebbe imparare da sola. “Dovrebbero andare a scuola”, ha detto. “Ma si passerebbe da consumare un megawatt a trenta watt”. Mentre parlava, Hinton si era sporto in avanti, fissando i suoi occhi nei miei, e per un attimo ho intravisto l’evangelizzatore. Hinton ha chiamato quest’approccio “computazione mortale” poiché la conoscenza acquisita da ogni A.I. andrebbe perduta una volta smontato l’hardware. “Rinunceremmo all’immortalità”, ha detto. “In letteratura si rinuncia a essere un dio per la donna che si ama, vero? In questo caso, otterremmo qualcosa di molto più importante, ovvero l’efficienza energetica”. Tra le altre cose, l’efficienza energetica incoraggia l’individualità. Il mondo è in grado di sostenere miliardi di cervelli, tutti diversi, perché un cervello umano può funzionare anche solo con farina d’avena. E ciascun cervello può continuare ad apprendere, anziché essere addestrato una sola volta prima di essere buttato nel mondo là fuori.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Ramsey Cardy) Geoffrey Hinton.

Meno di un secondo per mettersi in pari

Hinton aveva fatto un calcolo a mente. Supponiamo che nel 1985 avesse iniziato a eseguire un programma su un veloce computer di ricerca di allora e che lo avesse lasciato in esecuzione finoora. Se oggi avesse iniziato a eseguire lo stesso programma, sui sistemi più veloci attualmente in uso nell’intelligenza artificiale, avrebbe impiegato meno di un secondo per mettersi in pari.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Ramsey Cardy) Geoffrey Hinton.

Centauri

Negli scacchi, dominati ormai da decenni dall’intelligenza artificiale, l’unica speranza di un giocatore è di fare coppia con un bot. Queste squadre per metà umane e per metà A.I., conosciute con il nome di centauri, potrebbero ancora essere in grado di battere i migliori esseri umani o la migliore intelligenza artificiale quando questi giocano da soli.

James Somers, A Coder Considers the Waning Days of the Craft, The New Yorker (20/11/2023), traduzione L.V.

Spionaggio a scopo di lucro

Il campo dell’intelligenza artificiale, fondato negli anni Cinquanta, ha inizialmente tentato di setacciare i dati al fine di identificare le regole con cui gli esseri umani ragionano. L’approccio si è però scontrato contro un muro, in un momento noto come “collo di bottiglia dell’acquisizione della conoscenza”. La svolta è arrivata con i progressi nella potenza di calcolo e con l’idea di utilizzare i vasti archivi di dati che per decenni si erano accumulati nel mondo sia governativo sia industriale, al fine di insegnare alle macchine a insegnare a se stesse come rilevare pattern o andamenti: macchine e apprendimento. “Le spie hanno aperto la strada alla memorizzazione e conservazione di dati su larga scala”, scrivono Chris Wiggins e Matthew L. Jones, ma “a partire dai dati dei sistemi di prenotazione delle compagnie aeree negli anni Sessanta, l’industria ha iniziato ad accumulare dati sui propri clienti con un’accelerazione crescente”, raccogliendo di tutto, dalle transazioni con carte di credito ai noleggi d’auto ai prestiti e alle restituzioni di libri registrati dalle biblioteche. Nel 1962 John Tukey, un matematico dei Bell Labs, aveva esortato a sviluppare un nuovo approccio, che aveva denominato “analisi dei dati”, l’antenato dell’odierna “scienza dei dati”. Le origini sono dunque nel lavoro di intelligence e nella spinta ad anticipare i sovietici. Che cosa hanno prodotto in seguito? Che Netflix possa prevedere che cosa volete guardare, che Google sappia quali siti offrirvi: questi miracoli sono il risultato di strumenti sviluppati dalle spie durante la Guerra Fredda. Il commercio nel ventunesimo secolo è spionaggio a scopo di lucro.

Jill Lepore, The data delusion, The New Yorker (27/3/2023), traduzione L.V. Nella foto (Harvard University) Jill Lepore. Nella foto (Wikipedia) John Tukey.

Con assoluta sicumera

Oggi DeepL era particolarmente allucinato. Gli ho dato in pasto un testo tecnico nel quale a un certo punto la parola estremità era stata scritta senza la e iniziale. E così si è inventato, con assoluta sicumera, la “parola” inglese stremity (in inglese estremità si traduce spesso extremity). Poi ha incontrato diposizione (refuso al posto di disposizione) e ha inventato diposition. Poco dopo ha partorito un discutibilissimo nondeteriorable come traduzione “inglese” di non deteriorabile.
Sembrava una persona di lingua italiana che ricorreva al vecchio trucco “se non sai una parola in una lingua, prova a usare quella italiana adattandola allo stile della lingua”. Se è tedesco, mettici un -en in fondo, alla Sturmtruppen; se è spagnolo, sbattici in coda un -os e vai che vai bene così.

Paolo Attivissimo, Le allucinazioni di DeepL Translator, Il Disinformartico (1-5/3/2023). Nella foto (Wikipedia) Paolo Attivissimo.

Ma non avrebbero potuto trovare un nome migliore, tipo HAL?

Nella Silicon Valley sono in agitazione per le abilità mostrate da un chatbot sperimentale chiamato ChatGPT, rilasciato da OpenAI alla fine di novembre 2022 e considerato “spaventosamente capace” da Elon Musk. Musk, che ne è stato uno dei fondatori insieme a Sam Altman, ha abbandonato e ora la Microsoft è un partner.
C’è gran voglia che ChatGPT – ma non avrebbero potuto trovare un nome migliore, tipo HAL? – elimini milioni di posti di lavoro. Perché assumere un laureato se un bot può svolgere lo stesso lavoro in modo più rapido ed economico? Niente più discussioni sulle regole del lavoro da casa, niente più lotte sindacali. Non c’è bisogno di attirare con le pizze gli A.I. affinché tornino in ufficio.
ChatGPT apre il vaso di Pandora delle paure esistenziali. I cervelloni della Silicon Valley hanno parlato di salvaguardie e di interruttori capaci di uccidere l’A.I., ma già sappiamo che non staccheranno mai la spina quando il loro bebè si sarà trasformato in M3gan.

Maureen Dowd, A.I.: Actually Insipid Until It’s Actively Insidious, The New York Times (28/1/2023). Nella foto (Wikipedia) Maureen Dowd.