L’ intelligenza artificiale sarà cosciente. Lo studio è avviato

L’intelligenza artificiale cosciente? È la nuova frontiera verso cui si spinge l’ambizione dei ricercatori che vogliono avere risposte su questo argomento, partendo da una base che investe non solo la scienza, ma anche la filosofia.

I Robot avranno un’anima?

Cosa significa essere coscienti? È da qui che partono gli scienziati, per trovare la risposta alla domanda posta a monte, ossia l’IA potrebbe diventare cosciente? Un interrogativo che se da una parte entusiasma gli amanti della fantascienza, dall’altra sgomenta, e non poco. Ma c’è un altro dilemma che attanaglia i ricercatori: se ciò dovesse succedere, come ce ne accorgeremo?

Lo studio sulla coscienza artificiale è una sfida che sconfina dalle sceneggiature del cinema per arrivare sul tavolo di un gruppo di 19 neuroscienziati, filosofi e informatici che hanno elaborato una lista di criteri che, se soddisfatti, indicherebbero che un sistema ha un’alta probabilità di essere cosciente. Come si legge su Nature, ai fini del rapporto, i ricercatori si sono concentrati sulla “coscienza fenomenica”, meglio conosciuta come esperienza soggettiva. Si tratta dell’esperienza dell’essere: cosa vuol dire essere una persona, un animale o un sistema di intelligenza artificiale (se uno di loro risulta essere cosciente).

Se per Carl Gustav Jung la coscienza umana è “la manifestazione invisibile e intangibile dell’anima” vuol dire che siamo passati da negare l’anima agli animali, almeno quella razionale secondo Aristotele e la Chiesa Cattolica, a dare un’anima (nello specifico non è chiara quale) a degli algoritmi. Una lista di controllo derivata da sei teorie della coscienza basate sulle neuroscienze potrebbe aiutare nella valutazione.

Cosa vuol dire essere coscienti

L’avvento dell’AI ha messo in moto il desiderio di prendere in considerazione anche l’idea che essa diventi cosciente. Eh sì, proprio come in Odissea nello spazio. Sono gli stessi leader dell’Intelligenza artificiale a riconoscere che questa possibilità possa diventare realtà.

Intelligenza artificiale cosciente – fuorionline

Il primo input (o campanellino d’allarme, dipende dai punti di vista) è arrivato l’anno scorso con un tweet divulgato dal capo scienziato di OpenAi, la società dietro il chatbot ChatGPT, Ilya Sutskever, con cui asseriva che alcune delle reti di intelligenza artificiale più all’avanguardia, potrebbero essere “leggermente consapevoli”.

Molti ricercatori affermano che i sistemi di intelligenza artificiale non sono ancora allo stato di coscienza, ma che il ritmo dell’evoluzione dell’intelligenza artificiale li ha portati a riflettere: come faremmo a sapere se lo fossero? Ecco perché si è ritenuto necessario stilare prima una guida per chiarire cosa vuol dire essere coscienti. Insomma, si parte dall’ABC.

Valutare i modelli di coscienza

La guida, che attualmente è provvisoria, elaborata dagli scienziati coinvolti nel progetto, è stata pubblicata qualche giorno fa nel Repository di prestampa ArXiv1, prima della revisione tra pari.

Gli autori hanno deciso di partire da qui perché “sembrava che ci fosse una vera carenza di discussioni dettagliate, empiricamente fondate e ponderate sulla coscienza dell’intelligenza artificiale”, afferma il coautore Robert Long, filosofo del Center for AI Safety, un’organizzazione di ricerca senza scopo di lucro, situata a San Francisco in California.

Il team afferma che l’incapacità di identificare se un sistema di intelligenza artificiale sia diventato cosciente ha importanti implicazioni morali. Se qualcosa è stato etichettato come “cosciente”, secondo la coautrice Megan Peters, neuroscienziata dell’Università della California, Irvine, “ciò cambia molto nel modo in cui noi, come esseri umani, riteniamo che quell’entità debba essere trattata”. Insomma, c’è il rischio che le macchine possano anche “soffrire” per causa nostra, a nostra insaputa.

Long aggiunge che, per quanto ne sa, le aziende che costruiscono sistemi avanzati di intelligenza artificiale non stanno facendo abbastanza sforzi per valutare i modelli per la coscienza e fare piani su cosa fare se ciò accade. “E questo nonostante il fatto che, se si ascoltano le osservazioni dei responsabili dei principali laboratori, dicono che la coscienza dell’IA o la sensibilità dell’IA è qualcosa su cui si interrogano”, aggiunge.

Assistenza alla produttività umana

Nature ha contattato due delle principali aziende tecnologiche coinvolte nel progresso dell’intelligenza artificiale: Microsoft e Google e ha pubblicato le loro risposte. Un portavoce di Microsoft ha affermato che lo sviluppo dell’intelligenza artificiale da parte dell’azienda è incentrato sull’assistenza alla produttività umana in modo responsabile, piuttosto che sulla replica dell’intelligenza umana. Ciò che è chiaro dall’introduzione di GPT-4 – la versione più avanzata di ChatGPT rilasciata pubblicamente – “è che sono necessarie nuove metodologie per valutare le capacità di questi modelli di intelligenza artificiale mentre esploriamo come raggiungere il pieno potenziale dell’intelligenza artificiale a beneficio della società come società.”. Google invece non ha risposto.

Intelligenza artificiale cosciente – fuorinoline

Esistono molte teorie basate sulle neuroscienze che descrivono le basi biologiche della coscienza. Ma non c’è il consenso su quale sia quello “giusto”. Per creare la guida, gli autori hanno quindi utilizzato una serie di queste teorie, arrivando ad una conclusione: se un sistema di intelligenza artificiale funziona in modo da corrispondere ad aspetti di molte di queste teorie, allora c’è una maggiore probabilità che sia cosciente.

Gli scienziati sostengono che questo è il migliore approccio per valutare la coscienza rispetto al semplice sottoporre un sistema a un test comportamentale, ad esempio chiedendo a ChatGPT se è cosciente o sfidandolo e vedendo come risponde. Questo perché i sistemi di intelligenza artificiale sono diventati straordinariamente bravi nell’imitare gli esseri umani.

Secondo il neuroscienziato Anil Seth, direttore del centro per la scienza della coscienza presso l’Università del Sussex vicino a Brighton, nel Regno Unito, questo metodo è giusto. Anche se ciò evidenzia, che “abbiamo bisogno di teorie della coscienza più precise e ben testate”, afferma.

L’ intelligenza artificiale cosciente e funzionalismo computazionale

Per sviluppare i loro criteri, gli autori hanno ipotizzato che la coscienza sia correlata al modo in cui i sistemi elaborano le informazioni, indipendentemente da cosa siano fatti, siano essi neuroni, chip di computer o qualcos’altro.

Questo approccio è chiamato funzionalismo computazionale. Hanno anche ipotizzato che le teorie della coscienza basate sulle neuroscienze, che vengono studiate attraverso scansioni cerebrali e altre tecniche negli esseri umani e negli animali, possano essere applicate all’intelligenza artificiale.

Sulla base di questi presupposti, il team ha selezionato sei di queste teorie e ne ha estratto un elenco di indicatori di coscienza. Una di queste, la teoria dello spazio di lavoro globale, afferma, ad esempio, che gli esseri umani e gli altri animali utilizzano molti sistemi specializzati, chiamati anche moduli, per eseguire compiti cognitivi come la vista e l’udito. Questi moduli funzionano in modo indipendente, ma in parallelo, e condividono le informazioni integrandosi in un unico sistema.

LEGGI ANCHE —————————————-> L’ intelligenza artificiale, quanto è intelligente e quanto è artificiale? Ecco com’è nata la Chat GPT

Gli autori affermano però che la loro pubblicazione è ben lungi dall’essere una versione definitiva su come valutare i sistemi di intelligenza artificiale per la coscienza e che vogliono che altri ricercatori li aiutino a perfezionare la loro metodologia. Ma è già possibile applicare i criteri ai sistemi di intelligenza artificiale esistenti? Si. Il rapporto valuta, ad esempio, modelli linguistici di grandi dimensioni come ChatGPT e rileva che questo tipo di sistema ha probabilmente alcuni degli indicatori di coscienza associati alla teoria dello spazio di lavoro globale. Per adesso possiamo stare tranquilli: il lavoro non suggerisce che alcun sistema di intelligenza artificiale esistente sia un forte candidato per la coscienza, almeno non ancora.

Condividi su

Lascia un commento