L’intelligenza artificiale può essere cosciente?

“È possibile che le maggiori reti neurali di oggi siano leggermente coscienti di se stesse”. È bastato un tweet per riaprire una discussione che, negli ultimi anni, era stata faticosamente accantonata: quella relativa alla possibilità che le intelligenze artificiali basate su deep learning sviluppino un giorno una coscienza o riescano magari a superare l’intelligenza dell’essere umano.

A sollevare l’ipotesi via Twitter è stato Ilya Sutskever, scienziato capo di una delle realtà più importanti del settore: OpenAI, la società fondata da Elon Musk (che l’ha poi abbandonata in seguito a disaccordi sulla strategia da seguire). OpenAI è per esempio responsabile della creazione di Gpt-3, il potentissimo algoritmo specializzato in Nlp (natural language processing, elaborazione del linguaggio naturale) che è stato in grado di scrivere un intero saggio sul rapporto tra IA ed esseri umani pubblicato qualche tempo fa sul Guardian.

Proprio gli impressionanti risultati ottenuti da Gpt-3 avevano nuovamente sollevato la possibilità che questi algoritmi stessero raggiungendo qualche forma di “vera” intelligenza. Ipotesi poi smontata da alcune analisi: Gpt-3 non solo aveva ricevuto un lungo addestramento specifico sul tema di cui avrebbe dovuto scrivere, ma un redattore umano si era occupato di selezionare e cucire assieme le parti migliori delle decine di versioni che l’algoritmo aveva prodotto sullo stesso argomento.

Non solo: Gary Marcus – neuroscienziato e fondatore di Robust.AI – ha messo alla prova Gpt-3 con una serie di semplici esercizi logici (di quelli che noi esseri umani eseguiamo senza nemmeno pensarci) ottenendo spesso delle risposte assurde. Gpt-3, quindi, non è intelligente: è una colossale rete neurale in grado di eseguire un gigantesco taglia e cuci probabilistico grazie al quale – dopo essere stata addestrata a lungo su un tema specifico – può mettere insieme un testo apparentemente coerente. Tutto questo, come ha segnalato proprio Marcus, “senza avere alcuna idea di cosa stia facendo”.

In poche parole, dove a noi sembra di vedere intelligenza c’è in realtà soltanto un’enorme abilità statistica che permette agli algoritmi di deep learning di scovare correlazioni in un mare di dati e utilizzarle per fare previsioni o prendere decisioni su temi attentamente delimitati. Nonostante tutto ciò, non è la prima volta che Sutskever si espone con dichiarazioni di stampo fantascientifico. Già un anno fa, in occasione del documentario iHuman, Sutskever aveva affermato che la Agi (intelligenza artificiale generale, di livello almeno pari a quello umano) avrebbe “risolto tutti i problemi dell’umanità”, rischiando però di dare vita a “dittature impossibili da abbattere”. Moniti che sorprendono soprattutto perché vengono da parte di chi, nel 2015, ha cofondato la no-profit OpenAI per studiare i rischi concreti posti dall’intelligenza artificiale. Col tempo, però, OpenAI ha cambiato priorità e ha iniziato a ricercare proprio la possibilità di dare vita a un’intelligenza artificiale generale (causando nel 2018 l’addio di Elon Musk e poi abbandonando lo statuto di no-profit).

È anche questo aspetto che ha suscitato l’ira dei colleghi di Sutskever, che vedono dietro alle sue dichiarazioni, come ha scritto l’esperto di sociotecnologia Jürgen Geuter, “una promozione delle capacità magiche di una startup che in realtà si basa su semplice statistica, anche se in grandissima quantità”. Altri, come il ricercatore dell’università di Sidney Toby Walsh, hanno sottolineato un altro aspetto problematico: “Ogni volta che si dà spazio a questi commenti speculativi, ci vogliono poi mesi di lavoro per riportare la conversazione sulle opportunità e sui pericoli più realistici posti dalle intelligenze artificiali”.

Per quanto non stia per diventare cosciente e tanto meno per assoggettare l’umanità, la IA pone infatti molti rischi concreti: dal cosiddetto pregiudizio degli algoritmi (che a causa di dataset non sufficientemente diversificati perpetuano gli stessi pregiudizi presenti nella società), alla possibile automazione del lavoro, fino alla sorveglianza sempre più diffusa e altri ancora. Da questo punto di vista, spostare la discussione su qualcosa – come l’intelligenza artificiale dotata di coscienza – che è sicuramente ancora molto distante e che alcuni esperti del settore ritengono non possa nemmeno mai essere sviluppata rischia di distrarci da temi più realistici e pressanti. Eppure non tutti gli esperti di deep learning hanno reagito allo stesso modo alle dichiarazioni di Sutskever.

Tamay Besiroglu, scienziato informatico dell’Mit di Boston, ha infatti spezzato una lancia a favore del collega: “Vedere così tanti importanti esperti di deep learning ridicolizzare questa idea è una delusione. Mi rende meno speranzoso nella capacità di questo settore di affrontare alcune delle questioni più profonde, bizzarre e importanti che dovremo senza dubbio affrontare nei prossimi decenni”. Subito dopo, Besiroglu ha precisato di non ritenere che gli algoritmi odierni siano nemmeno “leggermente” coscienti, ma di considerare la questione “importante e non da evitare”.

Ma come potremo mai capire se un’intelligenza artificiale ha acquisito consapevolezza di se stessa? Sarà possibile cancellare il sospetto che stia solo simulando questa coscienza? È un problema che la filosofia ha affrontato spesso: dalla questione degli “zombie filosofici” (esseri privi di coscienza che però si comportano esattamente come se la avessero), fino alla soluzione al dilemma individuata da Ludwig Wittgenstein. Secondo il filosofo austriaco, poiché è impossibile avere la certezza assoluta che qualcuno non stia solo simulando di possedere una coscienza, non abbiamo altra scelta che trattarlo come se la avesse. Il sospetto, però, è che tutto questo dibattito abbia molto a che fare con il problema filosofico e spirituale della coscienza, ma riguardi invece poco gli algoritmi di deep learning che, oggi come oggi, ci aiutano a fare acquisti su Amazon e a individuare la prossima canzone da ascoltare su Spotify.

Fonte : Repubblica