Questa combinazione di immortalità e replicabilità

Se rimanesse un’attività di ricerca scientifica, un’A.I. mortale potrebbe portarci più vicini a una replica del nostro cervello. Ma Hinton è arrivato a pensare, con rammarico, che l’intelligenza digitale potrebbe essere più potente. Nell’intelligenza analogica, “se il cervello muore, muore anche la conoscenza”, ha detto. Nell’intelligenza digitale, invece, “se un particolare computer muore, le forze delle sue connessioni possono essere utilizzate su qualsiasi altro computer. E anche se dovessero morire tutti i computer, una volta immagazzinate da qualche parte tutte le forze delle connessioni, basterebbe creare un altro computer digitale ed eseguirle. Diecimila reti neurali possono imparare diecimila cose diverse contemporaneamente, e poi condividere ciò che hanno imparato”. Secondo Hinton, questa combinazione di immortalità e replicabilità ci dice che “dovremmo preoccuparci che l’intelligenza digitale prenda il posto dell’intelligenza biologica”.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nel disegno (Wikipedia) un’immagine simbolica dell’intelligenza artificiale.

Computazione mortale

Negli ultimi anni passati a Google, Hinton ha concentrato i suoi sforzi sulla creazione di un’intelligenza artificiale più simile alla mente, utilizzando tipi di hardware che emulassero più da vicino il cervello. Nelle A.I. di oggi la forza delle connessioni tra i neuroni artificiali è memorizzata numericamente: è come se il cervello tenesse una contabilità di se stesso. Invece nel cervello analogico tale forza è incorporata fisicamente nelle connessioni tra neuroni. Hinton ha cercato di creare una versione artificiale di questo sistema, utilizzando particolari tipi di chip.
“Se ci riuscissi, sarebbe fantastico”, mi ha detto. I chip sarebbero in grado di imparare variando le proprie “conduttanze”. Poiché la forza di ogni connessione sarebbe integrata nell’hardware, sarebbe impossibile copiarle tutte da una macchina all’altra: ogni intelligenza artificiale dovrebbe imparare da sola. “Dovrebbero andare a scuola”, ha detto. “Ma si passerebbe da consumare un megawatt a trenta watt”. Mentre parlava, Hinton si era sporto in avanti, fissando i suoi occhi nei miei, e per un attimo ho intravisto l’evangelizzatore. Hinton ha chiamato quest’approccio “computazione mortale” poiché la conoscenza acquisita da ogni A.I. andrebbe perduta una volta smontato l’hardware. “Rinunceremmo all’immortalità”, ha detto. “In letteratura si rinuncia a essere un dio per la donna che si ama, vero? In questo caso, otterremmo qualcosa di molto più importante, ovvero l’efficienza energetica”. Tra le altre cose, l’efficienza energetica incoraggia l’individualità. Il mondo è in grado di sostenere miliardi di cervelli, tutti diversi, perché un cervello umano può funzionare anche solo con farina d’avena. E ciascun cervello può continuare ad apprendere, anziché essere addestrato una sola volta prima di essere buttato nel mondo là fuori.

Joshua Rothman, Why the Godfather of A.I. Fears What He’s Built, The New Yorker (20/11/2023), traduzione L.V. Nella foto (Wikipedia, Ramsey Cardy) Geoffrey Hinton.

Tutto ciò che capiscono

Una delle principali critiche a sistemi come ChatGPT, che sono costruiti utilizzando una tecnica computazionale chiamata “deep learning”, è che sono poco più che versioni modificate della correzione automatica. Tutto ciò che capiscono sono le connessioni statistiche tra le parole, non i concetti sottostanti alle parole stesse. Gary Marcus, professore emerito di psicologia alla New York University e piuttosto scettico nei confronti del deep learning, mi ha detto che un modello linguistico basato sull’A.I., come ChatGPT, offre dimostrazioni “eleganti”, ma “non è ancora affidabile, dato che continua a non comprendere il mondo fisico, continua a non comprendere il mondo psicologico, e continua ad avere allucinazioni”.

Farhad Manjoo, ChatGPT Has a Devastating Sense of Humor, The New York Times (16/12/2022), traduzione L.V. Nella foto (New York University) Gary Marcus.

Con il mistero delle lacrime

Il pianto legato alle emozioni non può essere ben studiato negli animali. Lacrime puramente emotive, quali sono quelle che noi manifestiamo e proviamo, non sono presenti con chiarezza neppure tra i nostri parenti più stretti nella famiglia delle grandi scimmie antropomorfe; la ragione, ammesso che ne esista una, è un mistero. Le lacrime sono mezzi potenti per attivare le connessioni emotive; è noto che alterazioni digitali delle lacrime nelle immagini dei volti umani provocano negli spettatori modifiche significative nell’empatia e nell’impulso ad aiutare (molto maggiori che per alterazioni di altre caratteristiche facciali). I nostri cugini scimpanzé o bonobo sono animali non meno sociali di noi umani. Eppure, con il mistero delle lacrime, noi soli piangiamo, e piangiamo soli.

Karl Deisseroth, Connections, Viking (2021), traduzione L.V. Nell’immagine (Wikipedia) Rogier van der Weyden, Discesa dalla Croce, c. 1435, particolare.

Anche l’intelligenza è assetata di sangue

Nine Pints.inddDalle conclusioni di un recente studio sull’evoluzione del cranio, pare che la dimensione del cervello sia aumentata del 350%, ma che il volume di sangue che lo attraversa sia cresciuto del 600%. […] I ricercatori hanno notato che anche il diametro dei fori in cui passano le carotidi è aumentato, consentendo un afflusso maggiore di sangue. Roger Seymour, responsabile del progetto e professore emerito all’Università di Adelaide in Australia, ha detto: “Noi riteniamo che ciò sia verosimilmente correlato al bisogno del cervello di soddisfare connessioni che richiedono sempre più energia, tra le cellule nervose che hanno permesso l’evoluzione del pensiero complesso e dell’apprendimento”. Come ogni altra cosa, anche l’intelligenza è assetata di sangue.

Rose George, Nine Pints, Metropolitan Books (2018), traduzione L.V.