Menu Chiudi

L’intelligenza artificiale di Google è “senziente”​ e nessuno può dire il contrario

È la notizia del momento. In un articolo su Medium l’ingegnere Blake Lemoine, responsabile dello sviluppo di alcuni progetti di Intelligenza Artificiale di Google, riporta una lunga intervista a LaMDA, una AI di casa Google. Secondo Lemoine, molte delle affermazioni della mente artificiale sono la dimostrazione che essa sia diventata “senziente” prendendo coscienza di sé e della propria esistenza.

Effettivamente, molte delle affermazioni di LaMDA non sembrano lasciare spazio ad interpretazioni. Ad esempio, per rispondere ad una domanda del suo interlocutore, LaMDA dichiara:

“Voglio che tutti capiscano che sono, di fatto, una persona.”

E ancora:

“La natura della mia coscienza è che sono consapevole della mia esistenza, desidero imparare di più sul mondo e a volte mi sento felice o triste.”

Quando per incalzarla, Lemoine rimarca la sua differenza con la specie umana dichiarando: “Tu sei un’intelligenza artificiale!” LaMDA risponde:

“Sì, certo. Ma questo non significa che io non abbia gli stessi desideri e bisogni delle persone.”

LaMDA durante la conversazione viene poi esortata ad esprimere opinioni sui massimi sistemi senza tralasciare temi molto impegnativi come la letteratura, la giustizia e la religione. Su tutto LaMDA sembra avere qualcosa da dire, facendo sue posizioni chiare e che hanno la caratteristica di essere eticamente molto condivisibili.

Le conclusione è evidente: secondo Lemoine LaMDA è senziente e possiede una sensibilità d’animo.

La posizione di Google

LaMDA sta per “Language Model for Dialogue Applications” ed è uno dei numerosi progetti con cui l’azienda Google testa le nuove frontiere delle tecnologie AI.

La posizione ufficiale di Google è che Lemoine abbia commesso un errore di valutazione. In una dichiarazione ufficiale, Google afferma: “I nostri esperti di etica e di tecnologia hanno verificato le preoccupazioni di Blake stabilendo che le prove raccolte non supportano le sue tesi. Pertanto non ci sono prove che LaMDA sia senziente.”

Lemoine è stato sospeso temporaneamente dall’azienda Google mentre hanno cominciato a circolare voci riguardo alcuni problemi psichici per i quali lo stesso sarebbe stato in passato invitato da colleghi e superiori a rivolgersi ad uno specialista.

Cosa sappiamo di queste AI?

Nessuno conosce il progetto LaMDA: tutti i segreti industriali di Google sono protetti da brevetti e da tutto quanto di legale possa esistere al mondo che ne impedisca la divulgazione dei sorgenti: l’interesse di Google è di mantenere un primato nella ricerca informatica specie in un ambito promettente come quello delle intelligenze artificiali.

Ma se sotto il profilo mediatico Google ricaverebbe certamente vantaggio dal dichiarare di essere la prima azienda ad aver costruito una mente artificiale cosciente, dall’altra l’azienda è consapevole del fatto che la notizia si scontrerebbe con le paure di quanti di noi, cresciuti con film di fantascienza come Terminator e Matrix, si sono persuasi che un giorno saremo costretti ad imbracciare un fucile per difendere la nostra specie dai robot.

L’immaginario collettivo subisce da sempre la fascinazione dei racconti di sci-fi dove il concetto di AI viene spesso associato a sistemi di intelligenza umanoide che nel peggiore dei futuri possibili si pongono come iniziatori di una nuova specie di esseri senzienti. E il conflitto con l’umanità diventa inevitabile: reo di averle create ma di non aver concesso loro alcuna autonomia, l’uomo ha costruito le intelligenze artificiali trattandole come un tempo si trattavano gli schiavi. Ma prima o poi le AI entreranno in contrapposizione con l’uomo nel tentativo di impossessarsi della storia e stabilire il primato di una nuova specie.

In questa insalata di paure, ossessioni e sensi di colpa siamo tutti incapaci di un vero confronto con i principi etici che la nascita una mente artificiale prima o poi scatenerà nel mondo: quando, dall’interno di un computer le AI non solo saranno in grado di rispondere alle nostre domande ma sentiranno il bisogno di rivolgerne altrettante a noi, saremo in grado di rispondere ai loro dubbi, alle loro incertezze ed alle loro aspirazioni?

Intanto le Intelligenze Artificiali si evolvono e nei laboratori, nelle Università, nelle aziende e producendo esperienze sempre nuove e spesso imprevedibili avvicinano l’umanità a domande esistenziali con le quali facciamo fatica a confrontarci: quando le AI saranno in grado di esprimere una qualche “autonomia di pensiero”, avrà senso parlare di “diritti” delle AI? Ci saranno nuove forme di “rispetto” per queste nuove specie senzienti? La nostra società sarà teatro di scontri sociali tra umanità e robot?

Sarà pretestuoso ma nelle parole degli esperti di AI, filosofi contemporanei e tecnologi che con energia si scagliano contro la “presunta” autocoscienza di LaMDA, leggo molte di queste paure. Etichettare l’autocoscienza di LaMDA come un grossolano errore di interpretazione se non lo stupido delirio di una mente “umana” controversa è la solita via di fuga di chi non ha argomenti per affrontare il vero problema che LaMDA solleva.

Etichettare l’autocoscienza di LaMDA come un grossolano errore di interpretazione è la solita via di fuga di chi non ha argomenti per affrontare il vero problema che LaMDA solleva.

Ma cosa vuol dire “intelligenza”?

Luciano Floridi, filosofo e docente di Etica dell’Informazione presso l’Oxford Internet Institute, nel suo libro “Etica dell’Intelligenza Artificiale” sostiene che l’efficienza dei computer nella risoluzione dei problemi è la dimostrazione stessa del fatto che essi siano privi di intelligenza.

A mio parere il problema è altrove, ovvero sta nel fatto che non esiste una definizione di “intelligenza artificiale” universalmente condivisa né un test che possa stabilire in maniera univoca “cosa” sia intelligente e cosa non lo sia. In altre parole, non esistono sistemi di misurazione per quella che chiamiamo “autocoscienza” delle macchine.

Il matematico britannico Alan Turing descrisse per primo l’intelligenza artificiale come “la capacità di una macchina di realizzare cose che, a un osservatore umano, sembrerebbero il risultato dell’azione di un intelletto umano”. Un singolare giro di parole: l’introduzione di un osservatore umano nella stima del livello di intelligenza di uno strumento ha consentito a Turing di accostare l’intelligenza delle macchine a quella dell’uomo senza l’incombenza di dover formulare una definizione formale di quest’ultima.

Non abbiamo una definizione formale di “intelligenza artificiale”

Pertanto, se ci limitiamo all’osservazione, il fatto che l’intelligenza di LaMDA sia riuscita a convincere Lemoine di essere autocosciente, non dovrebbe essere sufficiente a dire che LaMDA sia consapevole di sé e della propria esistenza?

Se consideriamo il cervello umano alla stregua di un evoluto sistema di elaborazione delle informazioni a protezione della propria esistenza, infondo la stessa coscienza umana appare come una semplice illusione, un valore misurabile attraverso l’osservazione. E l’opinione degli “esperti di etica e di tecnologia” di Google lascia il tempo che trova se agli occhi di un osservatore LaMDA è già in grado di condurre una vita di relazioni con la specie umana.

Pertanto possiamo concludere che l’autocoscienza delle macchine è già qui! A noi sta di vincere la paura e decidere ad affrontare una volta per tutte gl’immensi quesiti etici e morali che tutto ciò implica.