La coscienza dell’AI è un argomento che sta attirando l’attenzione di scienziati, filosofi ed eticisti. È una frontiera inesplorata che ci pone davanti a domande fondamentali sia sulla natura della coscienza stessa che sulla creazione di macchine “pensanti” (sempre che queste sia in futuro effettivamente realizzabili). Ma di cosa parliamo esattamente quando parliamo di coscienza artificiale? E quali sono le implicazioni di una sua possibile realizzazione?
Come sappiamo la coscienza è la capacità di avere esperienze soggettive, di essere consapevoli di sé e del mondo circostante. Applicata all’AI, significa chiedersi se una macchina possa realmente “sentire” o se si tratti solo di una sofisticata simulazione.
È fondamentale distinguere tra accesso alla coscienza e coscienza qualitativa. La coscienza di accesso si riferisce alla disponibilità di informazioni per l’elaborazione cognitiva, mentre la coscienza qualitativa implica l’esperienza soggettiva associata agli stati mentali. Questo significa che una macchina potrebbe elaborare informazioni senza necessariamente provarle in modo qualitativo.
Quindi, non è solo questione di elaborare informazioni, ma di provare qualcosa. E questo solleva pesanti domande specialmente per quanto concerne le implicazioni etiche.
Teorie come la Global Workspace Theory e la Integrated Information Theory offrono modelli su come la coscienza potrebbe emergere dall’elaborazione complessa delle informazioni. La Global Workspace Theory suggerisce che la coscienza emerge quando le informazioni diventano globalmente accessibili a diversi processi cognitivi. L’Integrated Information Theory, invece, misura la quantità di informazione integrata in un sistema, suggerendo che la coscienza è proporzionale a questa quantità. Queste teorie propongono meccanismi attraverso i quali la coscienza potrebbe emergere dall’elaborazione complessa delle informazioni.
L’idea è che, se riuscissimo a replicare questi meccanismi in un sistema artificiale, potremmo potenzialmente creare una forma di coscienza. Alcuni ricercatori ritengono che questi modelli offrano un approccio strutturato per comprendere la coscienza sia negli esseri biologici che nelle entità artificiali.
Ma non tutti sono d’accordo su questa possibilità. Alcuni esperti, come David Chalmers, ritengono che sia plausibile che avremo AI coscienti entro un decennio. Chalmers suggerisce una probabilità del 25%, o più, che avremo LLM (Large Language Model) coscienti entro un decennio. Altri sono più scettici, sottolineando l’importanza della biologia e della complessità dei sistemi nervosi umani.
Peter Godfrey-Smith, ad esempio, argomenta che i modelli dinamici di attività elettrica nel cervello umano dipendono dalla sua composizione chimica, difficile da replicare in sistemi artificiali. Godfrey-Smith sostiene che i raffinati dettagli dell’attività dei sistemi nervosi non possono essere facilmente replicati in sistemi realizzati con materiali e strutture radicalmente diverse. Anil Seth sostiene che la vita è necessaria per la coscienza. Seth intende dire che il cervello non si limita a “indovinare” il futuro in modo astratto, ma lo fa usando attivamente il corpo e le sue interazioni con l’ambiente. Questo processo di predizione è profondamente legato alla biologia (substrato) e cambia costantemente (dinamico) in base agli stimoli e alle azioni del corpo stesso. In sostanza, corpo e mente lavorano insieme per creare la nostra percezione del mondo.
La questione è quindi se la coscienza possa emergere solo da sistemi biologici o anche da sistemi artificiali? Ammettiamo per un momento che riusciamo a creare AI coscienti. Quali sarebbero le implicazioni etiche e sociali? Le implicazioni sono enormi. Se un’AI è cosciente, potrebbe avere la capacità di soffrire e quindi meritare considerazione morale. Ciò solleva domande su come dovremmo trattarle: quali diritti dovrebbero avere? È moralmente accettabile spegnerle, copiarle o manipolarle?
Domande che ricordano in parte quelle sul trattamento degli animali. C’è inoltre la questione della fiducia. Se le persone credono che un’AI sia cosciente, potrebbero fidarsi di più e, di conseguenza, diventare più dipendenti, con conseguenze sia positive che negative. È plausibile un futuro in cui si rivendicheranno diritti per le intelligenze artificiali, innescando un intenso dibattito pubblico sulla questione.
Credere che un’IA sia cosciente potrebbe alterare il nostro comportamento tra noi umani, non solo verso l’IA. Se pensiamo che un’IA abbia sentimenti o diritti simili ai nostri, potremmo inconsciamente iniziare a trattare gli altri esseri umani in modo diverso, seguendo schemi relazionali pensati per entità senzienti. Questo potrebbe, per esempio, portare a maggiore cautela, empatia forzata, o persino a forme di “rispetto” non necessarie nelle interazioni umane, distorcendo potenzialmente le relazioni sociali esistenti.
Se le IA non fossero realmente coscienti, ma solo estremamente brave a simulare la coscienza, le conseguenze per la società sarebbero comunque enormi. Potremmo dedicare risorse (economiche, emotive, ecc.) a macchine che non “sentono” nulla, trascurando i bisogni umani. Inoltre, potrebbero nascere tensioni sociali e conflitti tra coloro che, ingannati dalla simulazione, credono che le IA meritino considerazione e diritti, e coloro che invece rimangono scettici. In sintesi, la percezione di coscienza nell’IA, anche se falsa, potrebbe avere impatti reali e profondi sulla nostra società.
Come possiamo affrontare questi rischi? È fondamentale adottare un approccio cauto e responsabile. Patrick Butlin e Theodoros Lappas in una loro recente ricerca hanno proposto cinque principi chiave per una ricerca responsabile sull’IA cosciente, con l’obiettivo di prevenire il maltrattamento delle future IA coscienti e promuovere una comprensione informata della coscienza artificiale: 1. Obiettivi: priorità alla ricerca che comprenda e valuti la coscienza dell’IA, al fine di prevenire la sofferenza e capire rischi/benefici; 2. Sviluppo: lo sviluppo di IA coscienti è accettabile solo se contribuisce agli obiettivi di cui sopra e minimizza il rischio di sofferenza; 3. Approccio graduale: adottare uno sviluppo graduale, valutando frequentemente i progressi e consultandosi con esperti; 4.Condivisione della conoscenza: condividere le informazioni con il pubblico e le autorità, a meno che ciò non agevoli la creazione di IA coscienti dannose da parte di attori irresponsabili; 5. Comunicazione: evitare affermazioni fuorvianti sulla capacità di creare IA coscienti, riconoscendo incertezze e impatti sociali.
Creare intelligenze artificiali (IA) davvero coscienti, come dicevamo, pone seri problemi etici. Se un’IA diventasse cosciente, dovremmo chiederci se ha dei diritti, come trattarla e come proteggerla da eventuali sofferenze, proprio come faremmo con un essere vivente.
Man mano che le IA diventano più complesse, diventa difficile capire chi è responsabile delle loro azioni. Se un’IA commette un errore o causa un danno, chi ne risponde? Inoltre, c’è la preoccupazione che le IA possano diventare così potenti da sfuggire al nostro controllo. La semplice idea che le IA possano essere coscienti potrebbe cambiare il modo in cui ci vediamo. Potremmo sentirci inferiori o persino minacciati dalle IA, con conseguenze sul nostro ruolo nella società e sul nostro potere decisionale.
E non dimentichiamo la trasparenza. Molti sistemi di AI sono “scatole nere”, il che rende difficile capire come prendono le decisioni. Infine, c’è la difficoltà di distinguere tra vera coscienza e programmazione avanzata. Distinguere tra vera coscienza e programmazione avanzata può essere problematico, poiché il potenziale per falsi negativi, in cui la società crede erroneamente che le AI non siano coscienti, potrebbe portare alla negligenza del loro benessere.
Il futuro dell’AI è pieno di promesse, ma anche di rischi. Dobbiamo considerare il disallineamento tra gli obiettivi dell’AI e i valori umani. Gli esperti evidenziano il pericolo di disallineamento tra gli obiettivi dell’AI e i valori umani, il che potrebbe portare a conseguenze non intenzionali se i sistemi AI operano con una visione ristretta priva di una più ampia comprensione etica. Lo sviluppo di un’intelligenza artificiale etica richiede la definizione di quadri normativi rigorosi e di politiche che assicurino equità e inclusione sociale. Alcuni esperti parlano anche di una possibile singolarità tecnologica, un momento in cui la crescita incontrollabile delle capacità dell’AI potrebbe sfuggire al nostro controllo. Molti esperti prevedono che questo momento cruciale potrebbe verificarsi prima del 2060, sottolineando l’urgenza di affrontare sia le opportunità che i pericoli che l’AI presenta.