Questo lavoro segue alcuni interventi che ho già fatto sull’Intelligenza Artificiale, in particolare due articoli del 2023 o, meglio, un lavoro diviso in due parti: la prima (Il Caos Management 146, https://www.caosmanagement.it/2023/05/25/a-proposito-di-ai/) era scritta in forma di dialogo con Andrea Fiaschi e delineava i tratti dello scenario attuale partendo dai dati storici; la seconda (Il Caos Management 147, https://www.caosmanagement.it/2023/07/31/il-manuale- delle-giovani-marmotte-forse-esiste-ma-e-inattendibile/) approfondiva la questione del confronto tra le macchine “AI” e gli esseri umani con riferimento soprattutto ai fondamenti della loro diversa natura.
________________________________________________
[AI (o A.I.) è l’acronimo inglese per “Artificial Intelligence”, cioè Intelligenza Artificiale; ho scelto questo, invece dell’italiano “IA”, perché è quello più utilizzato abitualmente.]
Fenomenologia delle concezioni sull’AI
Una madre (persona anziana) parla al figlio che le ha regalato un piccolo robot domestico, uno di quelli per pulire i pavimenti, al quale si può dare il via in una stanza e lasciarlo andare finché non ha finito (si spegne da sé). La madre all’inizio ha resistito, non voleva quel “coso” per casa; poi si è lasciata convincere e, rapidamente, è diventata un’appassionata del mezzo. Commenta: “Vedi, lui capisce quando il pavimento è pulito e si ferma”.
L’uso del pronome personale (“lui”) e del verbo “capire” (“lui capisce…”) significa che, almeno a livello inconscio, la signora ha attribuito una coscienza, una personalità o, come si sarebbe detto una volta, un’anima allo strumento inanimato che usa. E’ una cosa piuttosto comune; l’animismo è una primitiva forma di religione ed è abbastanza abituale anche oggi attribuire (almeno inconsciamente) volontà e intenzioni ad animali e oggetti. E fin qui parliamo di gente comune.
Ma il linguaggio evolve, oggi questo atteggiamento si chiama panpsichismo; in passato si è parlato di antropomorfismo e di antropomorfizzazione quando si attribuivano ad animali e a cose (ma anche alla/alle divinità) caratteristiche umane o quando si cercava di interpretare certi risultati scientifici attraverso concetti derivati dal mondo degli esseri umani. E la cosa curiosa, in questo mondo di oggi apparentemente iper-razionale, è che il panpsichismo sta vivendo una nuova fioritura.
Va tenuto presente che l’antropomorfismo è oggetto di dispute filosofiche fin dall’antichità: Senofane di Colofone [1] già nel VI secolo Avanti Cristo si scagliava contro Omero e Esiodo che avevano attribuito agli Dei qualità del tutto umane (e, pare a me, neanche quelle migliori!). In tempi più moderni, quando la concezione galileiana (il determinismo, il meccanicismo) dominava il mondo della scienza, il cadere nell’antropomorfismo era ritenuto un peccato mortale per un ricercatore serio.
Ma insieme al rifiorire del panpsichismo, sono state recentemente proposte visioni che vanno perfino oltre i limiti del fantastico, che ipotizzano scenari nei quali gli esseri umani sarebbero indefinitamente integrabili con tecnologie digitali presenti e (soprattutto!) future e potrebbero essere enormemente potenziati in termini di salute, longevità, intelligenza e via dicendo. Si arriva perfino a immaginare che le informazioni contenute in un cervello umano siano digitalizzabili e trasferibili su un qualunque supporto alternativo, indefinitamente riproducibili e capaci, quindi, di garantire l’immortalità. Il corpo non servirebbe più. Queste visioni sono raccolte sotto i due filoni di pensiero (innanzitutto in filosofia) del Post-umanesimo e del Trans-umanesimo [2] , che non sono, in realtà, ben distinguibili l’una dall’altra. Entrambe, comunque, introducono anche le tecnologie nell’insieme delle “cose” aventi coscienza e anima.
A parte questi estremi, tuttavia, ci sono specialisti (non stiamo più parlando di “gente comune”) che trattano seriamente (e con dati sperimentali di appoggio) la questione dell’intelligenza distribuita in ambiti diversi da un cervello umano.
Faccio alcuni esempi.
(1) Nel 2020 ho intervistato il professor Giorgio Vallortigara il quale, tra le altre cose, studia l’intelligenza in una specie di insetti Imenotteri, delle vespe [3] . Mi spiegava che, nell’ambito della sua ricerca, che è di tipo comparativo, lui utilizza una definizione di “intelligenza” adatta allo scopo: l’intelligenza è la capacità di risolvee problemi; se fosse stato uno psicologo, avrebbe usato un concetto diverso. Chiesi allora cos’è, dal punto di vista di questa ricerca, un problema: “L’aspetto minimale è avere un obiettivo da raggiungere e trovarsi di fronte a un qualche genere di ostacolo (di qualsiasi tipo, non necessariamente un ostacolo fisico, materiale) rispetto al raggiungimento di questo obiettivo.” Chiesi ancora: “Dunque il problema coincide con l’ostacolo che si frappone al raggiungimento dell’obiettivo?”. La risposta fu: “Sì, tenendo presente che l’aspetto cruciale per un organismo vivente è il fatto di avere un obiettivo, il fatto di avere scopi.”
Osservo, per inciso, che i termini “scopo” e “obiettivo” sono derivati dal mondo degli esseri umani, e che le vespe non “sanno” di avere scopi e, o, obiettivi; quello che “sanno” è solo vivere la propria vita secondo gli schemi di comportamento dei quali le ha fornite Madre Natura.
(2) Nel 2012 un gruppo di ricercatori di provenienza mista (fisici, botanici e altro) ha pubblicato un articolo sul “comportamento di sciame” (swarming behaviour) nelle piante [4] , in particolare nelle loro radici. Si parla di piantine di mais che crescono vicine e il comportamento di sciame è dovuto al fatto che, nella crescita, gli apici radicali si influenzano a vicenda (attraverso l’emissione di sostanze chimiche) e coordinano la loro crescita rivelando
un “comportamento sociale” delle piante. Si parla di “intelligenza di sciame” come non limitata agli animali e agli esseri umani; si parla di “scambio di informazioni” tra le radici di piante vicine ai fini di “ottimizzare attività territoriali, compresi i comportamenti competitivi e la simbiosi con funghi e batteri”.
Io non so che effetto facciano queste parole a chi legge, ma a me danno l’impressione di una forzatura, della volontà di costringere osservazioni che sarebbero spiegabili anche in altri modi (più semplici) dentro paradigmi caratterizzati da intenzionalità e (almeno quasi) da coscienza. L’antropomorfismo, qui, sembra proprio vicino.
(3) E’ molto recente, invece, la mia “scoperta” dei lavori di Michael Levin. Mi riferisco in particolare all’ampia presentazione curata da Loz Blain, che parla apertamente di “Un nuovo modello di intelligenza che potrebbe sovvertire la biologia, la genetica, la medicina e l’AI” [5] , e all’articolo dello stesso Levin riguardo al TAME (Technological Approach to Mind Everywhere – Approccio tecnologico alla mente dovunque) [6] , che presenta come un “framework” (una “struttura”, un’impalcatura) a base sperimentale “per comprendere corpi e menti diversi”. Il pensiero di Levin, che è un quotato scienziatamericano [7] , è complesso e non è possibile entrare nei dettagli in questo articolo; però alcune conclusioni che trae sono sufficientemente chiare. Per esempio anche lui considera una caratteristica unificante della vita “l’abilità di dispiegare intelligenza per il problem-solving in differenti domini”, e vede la vita come un continuum di fenomeni che senza soluzione di continuità può passare dal mondo dell’ingegneria e delle tecnologie a quello della biologia e dei suoi fenomeni superiori [8]. Rigetta a priori la possibile accusa di antropomorfismo, che qualifica come una nozione “popolare” (folk notion) utile solo per i più banali esempi di tentativi di riduzione di sistemi complessi a oggetti più semplici. Il suo concetto di “intelligenza” è esteso dal livello degli organismi a quello delle cellule e, dopo questo, al livello delle molecole; alla fine, siamo tutti degli assemblati (esattamente: “patchworks”) di subunità (definite “agents”, agenti, come se fossero dotati di intenzionalità) le quali, ai loro livelli, possiedono intelligenza (capacità di comportamenti orientati agli obiettivi). E come “sistemi collettivi” siamo ampiamente manipolabili, orientabili e riparabili, ovviamente se si conoscono le regole di funzionamento; queste sono identificate da Levin soprattutto nell’attività bioelettrica dei tessuti, mentre il ruolo della genetica, e in particolare le funzioni del DNA, sono fortemente diminuite di importanza.
Alla fine, tutte le componenti degli esseri umani, ad ogni livello, sono “animate” nel senso tradizionale del termine, e Levin mostra una fiducia illimitata nella nostra capacità di controllare razionalmente tutti questi livelli e arrivare a ingegnerizzare gli esseri umani liberandoli dalla vecchiaia, dalle malattie… Non so se dalla morte, questo non l’ho trovato specificato. Comunque questa lunga parabola ha portato a convergere verso qualcosa di abbastanza vicino al post- e al trans-umanesimo; e la tensione verso i “wider approaches” (gli approcci più ampi) si conclude con un riferimento al Buddismo, come esempio di una concezione che implica non uno, ma tanti agenti che hanno “preferenze, obiettivi, preoccupazioni e capacità cognitive”, sia pure in modi che non ci sono (ancora) familiari. Il framework “TAME” cerca di sviluppare meccanismi razionali, sperimentalmente basati, per riconoscere i tanti “Self” che ci circondano.
(4) Nel 1990 Rodney Brooks, un australiano esperto di robotica trapiantato negli Stati Uniti, espresse una posizione divergente rispetto al pensiero corrente sull’Intelligenza Artificiale [9] . Tutti erano orientati, ai fini di far muovere robot “intelligenti” nel mondo reale, a costruire una rappresentazione del mondo basata su simboli da caricare nel robot stesso come software. Brooks affermò che il mondo reale è la migliore rappresentazione di se stesso e criticò l’idea che una centrale di controllo unica fosse in grado di gestire in modo efficiente un robot. Quindi, invece dei sistemi ultra complessi basati sulla rappresentazione simbolica del mondo, costruì delle macchine molto semplici, ciascuna adatta a un compito semplice (per esempio raccogliere lattine di bibite vuote dalle scrivanie) ma in grado di muoversi autonomamente in ambienti di lavoro reali. E queste funzionavano, svolgevano i loro compiti come richiesto. La conclusione fu che per avere un’intelligenza artificiale non era necessario (non era nemmeno opportuno) scindere la rappresentazione del mondo dall’interazione con esso; le sue macchine “phisically grounded” se la cavavano a meraviglia senza avere un cervello, semplicemente seguendo regole locali di interazione.
(5) Nel 1984 fu pubblicato “I veicoli pensanti”, di Valentino Breitenberg [10] . Presentava 14 semplici macchine, di livello di complessità progressivamente crescente, alle quali era attribuita la qualità di “pensare”. Le macchine avevano solo un motore (o più motori) e dei sensori, collegati in modi diversi per ottenere effetti diversi come, per esempio, avvicinarsi o allontanarsi da sorgenti di stimoli (per esempio fonti luminose). Una volta messi in moto, i veicoli si muovevano nell’ambiente del laboratorio secondo traiettorie che non potevano essere effettivamente calcolate a priori; forse per questo si faceva riferimento ad esse con termini antropomorfi come “sceglie”, “decide” e così via. E forse è per questo che li si presentava come veicoli “pensanti”; il punto è che la traduzione dei movimenti dei veicoli con il termine “comportamenti” e l’attribuzione a tali comportamenti di emozioni umane (veicolo 2 – “Paura e aggressività”; veicolo 3 – “Amore”; veicolo 14 – “Egoismo e ottimismo”) appare completamente arbitraria. Sono scelte (interpretazioni) dell’autore, mancano i passaggi logici per far derivare tali interpretazioni dai veicoli stessi.
Potremmo andare avanti a ritroso, fino agli Anni ‘50 del Secolo scorso (l’idea di Intelligenza Artificiale nacque in quel periodo) o agli Anni ‘40, nei quali Alan Turing, a Bletchley Park vicino Londra, violava i codici nazisti e pensava alla possibile intelligenza delle macchine. Ma direi che questa carrellata può fermarsi qui. Abbiamo materiale sufficiente per far avanzare la riflessione.
Ma, allora, cos’è l’intelligenza?
Posta in questi termini, forse la domanda non avrà mai risposta. L’intelligenza (umana, senza specificazioni) è una di quelle cose che siamo in grado di riconoscere se la vediamo, ma che ci sfugge se cerchiamo di congelarla in una definizione. Possiamo tentare rifacendoci a principi come “pensare fuori dagli schemi” o a caratteristiche come l’originalità (qualcosa che nessun altro aveva pensato prima); tuttavia non possiamo escludere che, in casi particolari, la soluzione migliore sia quella di applicare uno schema ben noto. Allora cos’è, il percorso mentale attraverso il quale ci arriviamo (decidiamo che quella è proprio la soluzione migliore, non la scegliamo per abitudine)? Il pensiero rischia di perdersi e noi di non arrivare a niente.
C’è una domanda che pongo di solito a chi si occupa di intelligenza e di “cultura” animale; è una domanda formulata in modo grezzo, forse un po’ brutale, ma è così perché serve a portare ai limiti la riflessione: come mai non esiste una civiltà industriale degli scimpanzé? Specialisti del settore hanno individuato, presso popolazioni di animali che vivono in ambienti naturali, comportamenti che possono essere definiti, in senso lato, aventi una base culturale, perché ci sono conoscenze che gli animali si trasmettono l’un l’altro in qualche modo, che non richiedono il passaggio nel DNA e generazioni successive [11] . Ma parliamo di comportamenti, se rapportati alla scala umana, veramente minimali; le società umane più primitive delle quali abbiamo conoscenza sono incommensurabilmente più avanti.
Ci sarebbe un’altra domanda, sempre di tipo semplice e diretto (quasi brutale), stavolta da porre a chi si occupa di intelligenza artificiale: esiste, oggi, una macchina “AI” che sia in grado di fare qualcosa di comparabile a quello che fece Galileo con il cannocchiale? Già: cosa fece Galileo con il cannocchiale? Forse non tutti sanno che Galileo Galilei non “inventò”, in senso proprio, il cannocchiale; un esemplare di questo gli fu portato dall’Olanda, dove veniva venduto per poco come giocattolo per bambini, perché avvicinava le cose a chi osservava. Ma lui vide subito le potenzialità scientifiche dello strumento, lo perfezionò e lo fece diventare il mezzo che aprì le vie della conoscenza dei fenomeni celesti all’umanità.
Ma ci manca un altro punto di vista, in questa riflessione, cioè quello degli esperti in AI. Gli esperti delle macchine e delle applicazioni che sono raccolti sotto l’insegna “AI” che cosa pensano dei loro sistemi rispetto all’intelligenza? Di questo abbiamo un’idea abbastanza precisa perché la rete è piena di loro articoli e, in particolare, di loro interventi filmati (conferenze, discussioni con altri esperti e via dicendo). Proviamo a dare un’occhiata.
Cosa pensano gli esperti di AI In questi ultimi mesi ho avuto occasione di partecipare a diversi webinar sull’AI, proposti da istituzioni pubbliche o organizzazioni private; estrapolo da questi alcuni esempi di posizioni espresse, sull’Intelligenza Artificiale, da esperti di Intelligenza Artificiale.
Caso 1
“L’intelligenza artificiale, lo saprete, è tutto tranne che intelligente… [come i computer comuni] più che riordinare e fare statistiche l’AI non fa… [se chiedo di farmi una presentazione Power Point su un dato tema] il risultato lo devo prendere come bozza [da rivedere], come tutto quello che l’AI fa; però è tanta roba. Quando ho chiesto a colleghi o stagisti di darmi una mano a preparare una presentazione uscivano cose molto più brutte di quelle prodotte dall’AI, se gli davo l’input giusto… E qui c’è tutto il tema del prompt engineering… bisogna sapere come interrogare l’intelligenza artificiale perché questa reagisce in funzione del prompt.
Caso 2
Sulla capacità dell’AI di imparare: “Imparare no, perché suppone intelligenza, ma di approssimare via via sempre di più la risposta alla richiesta dell’utente, di aggiustare il tiro, di andare a eliminare tutti quei “bias” che possono esserci rispetto all’attesa… Anche con tutti i rischi che si manifesti una “eco–chamber” [cioè che la macchina ti dica ciò che ti vuoi sentir dire]…Quello che ha l’AI è di essere molto, molto veloce e di mettere in ordine molto rapidamente i dati; qui lavora proprio come un ordinateur [12] , e non c’è niente di intelligente in questo… Per esempio se io digito sul mio smartphone un messaggio per invitare i miei amici a un aperitivo al bar “Bronga” (la parola non ha significato ma facciamo che il bar esista davvero) lo smartphone cerca di correggerla; la volta successiva me la corregge di nuovo, ma dalla terza, quarta, ennesima volta in poi non la corregge più. Anzi, se io comincio di nuovo a digitare il messaggio di invito, è la macchina che mi suggerisce il nome per completarlo. Ma in questo non c’è niente di intelligente, la macchina non ha imparato; ha solo fatto, velocemente, una serie di elaborazioni statistiche”.
Caso 3
L’oratore si rivolge alla sala e dice: “Il punto è che la quantità di dati che noi abbiamo è ormai fuori portata degli esseri umani, non possiamo più trovare correlazioni tra i dati. Per esempio se io dovessi trovare fra di voi qual è il colore preferito e qual è il tipo di abbigliamento più comune, non ce la farei, nessun umano ha queste capacità; se io do alla macchina le vostre fotografie, questa andrebbe a confrontarle pixel per pixel e farebbe delle correlazioni statistiche… perché la macchina fa solo questo, niente di intelligente, siamo noi gli esseri intelligenti… La macchina ci trova delle correlazioni, poi sono gli esseri umani a valutarle… Anche le macchine autonome sono autonome fino a un certo punto; non è, come dicono certi media, che la macchina ci seppellirà o ci sostituirà. La macchina non ha alcuna intenzionalità, nessuno scopo, siamo noi che la formiamo, la costruiamo e la usiamo”.
Caso 4
“La cosa pericolosa è delegare a una macchina le decisioni, cosa che tendiamo a fare perché abbiamo sempre più cose da fare, perché siamo pressati dalle urgenze, perché il tempo è sempre meno e noi vogliamo fare tutto… E in molti contesti (anche se, forse, non in tutti) questa delega implica dei rischi etici altissimi, perché la macchina non ha una comprensione del contesto, non ha un corpo per fare esperienza del mondo, non si può pentire di una decisione che ha preso, mentre noi sì. Dunque, delegare a qualcosa che sa fare solo correlazioni, che non ha una competenza di causa ed effetto, che non ha un corpo (quindi non ha le sensazioni che abbiamo noi)… come facciamo a dire che è intelligente o, addirittura, cosciente?… Stiamo usando un lessico sbagliato; diciamo che “la macchina ha deciso” ma così prendiamo in prestito i termini adatti a noi, in realtà non è così. La macchina ha fatto solo operazioni algoritmiche il cui risultato sembra una decisione; dobbiamo inventare un linguaggio adatto per ciò che fanno le macchine.
Così come diciamo che la macchina “impara” (machine learning); in realtà non impara nel senso nostro, che impariamo dai genitori e dalle nostre esperienze nel corso della vita…”.
Insomma, gli esperti AI sembrano avere le idee chiare su ciò di cui parliamo, sui suoi limiti, sui suoi difetti e sui problemi che, insieme a delle soluzioni, ci possono portare queste macchine. Non sappiamo cos’è l’intelligenza, però possiamo dire di sapere che l’Intelligenza Artificiale NON E’ INTELLIGENTE. E questo è un risultato non da poco.
Proviamo a concludere
C’è un modo per poter distinguere l’operato di una macchina AI da quello di un essere umano?
Cos’è che li qualifica? Sono davvero così diversi? Forse è possibile avanzare un’ipotesi proprio a partire da quello che è il punto di forza delle macchine e che, simmetricamente, è il punto debole degli esseri umani: l’elaborazione dei dati.
Le macchine (soprattutto quelle “AI”) sono bravissime a elaborare i dati, perché sono velocissime e ne elaborano quantità enormi in tempi insignificanti, cosa che un essere umano non è in grado di fare. Kahneman [13] faceva notare che noi non siamo per niente bravi a ricordare lunghe liste di oggetti, ma siamo molto bravi a ricordare storie; ciò a cui facciamo riferimento, contrariamente a ciò che fanno i nostri computer, è il filo logico che collega le parti della storia, i personaggi e le loro vicende. Infatti uno dei metodi più usati dai campioni delle gare di memoria è quello di costruire una storia che leghi gli oggetti da memorizzare, in modo da aggirare la difficoltà (così si ricorda la storia, non si ricordano i singoli oggetti). E qui è il punto: le nostre macchine sono bravissime a elaborare dati, ma hanno bisogno di questi, altrimenti non possono operare. I dati ci devono già essere, questo è del tutto irrinunciabile, il data processing è così. Ma per gli esseri umani no: gli esseri umani sono in grado di interpretare CIO’ CHE NON C’E’, cosa impossibile per una macchina. E la mia proposta è che questa sia la chiave della loro intelligenza: saper vedere (immaginare) ciò che non c’è (o ciò che non ancora c’è). E’ questo che ha fatto Galileo con il cannocchiale-giocattolo che gli era stato portato: ha visto, immaginando le modifiche necessarie, ciò che ancora non c’era, che era solo in potenza nell’oggetto ma non ancora in atto: ha visto uno strumento per lo studio dell’astronomia.
Questo comportamento, tipicamente umano, noi l’abbiamo osservato studiando l’interpretazione dei testi scritti in soggetti adulti, ricerca che è stata pubblicata nel 2015: il campione sperimentale doveva studiare uno scambio di messaggi in un ambiente di lavoro e i soggetti non solo fornivano le loro indicazioni e interpretazioni su ciò che trovavano nei messaggi, ma di frequente anche su ciò che non trovavano [14] . Per esempio: “Poiché l’autore del messaggio non dice questo, allora significa che…”. Oppure: “L’autore si esprime così solo perché sa che sta parlando a una donna, sennò si sarebbe espresso in modo diverso” (ovviamente nel testo del messaggio non c’era alcun riferimento al sesso della destinataria e l’interpretazione è frutto della fantasia, o dei vissuti, del, della partecipante alla ricerca).
Stiamo parlando di mondi diversi: l’elaborazione dati (data processing) e l’interpretazione delle informazioni, qualunque ne sia il supporto, sono processi incommensurabilmente diversi, uno tipico delle macchine, l’altro tipico degli umani. Ma, esattamente, cosa vuol dire che gli esseri umani non elaborano informazioni ma interpretano? Prendiamo la questione del contesto: per un essere umano il contesto nel quale fa un’esperienza non è un pacchetto di informazioni da aggiungere a quelle riferite all’evento principale; l’esperienza è sempre globale, l’evento principale non avviene come se fosse nel vuoto. Il contesto è indistricabilmente legato all’esperienza, che senza di esso non esiste, fino al punto di rendere arbitraria la distinzione fra evento principale e contesto. Il contesto è un fattore fondamentale per l’attribuzione di un significato all’esperienza; questa è l’interpretazione, qualcosa di molto diverso dal data processing.
Credo che di questo dovremmo prendere atto e smettere, finalmente, di cercare di mischiare le due cose.
Note
[1] Si veda, per esempio, https://www.treccani.it/enciclopedia/antropomorfismo/
[2] Si vedano, per esempio, https://en.wikipedia.org/wiki/Transhumanism, più https://en.wikipedia.org/wiki/Posthumanism e https://ethics.org.au/ethics-explainer-post-humanism/. La critica più approfondita che io conosca a queste idee è quella portata da Thomas Fuchs nel suo libro del 2021 In defense of the human being; una sintesi si trova nella mia recensione al libro reperibile in https://oajournals.fupress.net/index.php/sf/article/view/13389/12574 (andare a pagina 12).
[3] Giorgio Vallortigara è professore di Neuroscienze presso il Centre for Mind-Brain Sciences dell’Università di Trento, di cui è stato a lungo anche direttore. L’intervista si trova in Il Caos Management 127, https://www.caosmanagement.it/2020/03/15/animali-intelligenti/ .
[4] Ciszak M, Comparini D, Mazzolai B, Baluska F, Arecchi FT, Vicsek T, et al. (2012) Swarming Behavior in Plant Roots. PLoS ONE 7(1): e29759. https://doi.org/10.1371/journal.pone.0029759. Reperibile all’URL https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0029759 .[5] Si veda all’URL https://newatlas.com/biology/levin-bioelectricity-cellular-intelligence-dna/ (l’articolo è corredato da 12 immagini utili per capire e da due riferimenti a interventi di Levin ai “TED talks” presenti su Youtube).
[6] Levin, 2022, Technological Approach to Mind Everywhere: An Experimentally-Grounded Framework for Understanding Diverse Bodies and Minds, Frontiers in Systems Neuroscience, Volume 16 – 2022, reperibile all’URL https://www.frontiersin.org/journals/systems-neuroscience/articles/10.3389/fnsys.2022.768201/full .
[7] Blain lo presenta così: è il Direttore dell’Allen Discovery Center alla Tufts University e del Tufts Center for Regenerative and Developmental Biology; è co-Direttore dell’Institute for Computationally Designed Organisms. E’ autore o co-autore di diverse centinaia di articoli di ricerca scientifica e ha una lista di riconoscimenti lunga un braccio.
[8] In un altro lavoro, Bongard & Levin, 2021, Living Things Are Not (20th Century) Machines: Updating Mechanism Metaphors in Light of the Modern Science of Machine Behavior, Frontiers in Ecology and Evolution, reperibile all’URL https://www.frontiersin.org/journals/ecology-and-evolution/articles/10.3389/fevo.2021.650726/full , si può leggere: “It is now essential to re-draw (or perhaps erase) artificial boundaries between biology and engineering” (E’ ora essenziale ridisegnare (o forse cancellare) i confini artificiali fra la biologia e l’ingegneria).
[9] Rodney A. Brooks, Elephants don’t play chess, MIT Robotics and Autonomous Systems 6 (1990) 3-15. Reperibile all’URL https://people.csail.mit.edu/brooks/papers/elephants.pdf .
[10] Valentino Breitenberg, I veicoli pensanti, Garzanti, Milano 1984 (ri-edito nel 2008 da Edizioni Mimesis, Milano-Udine).
[11] Un libro famoso di 50 anni fa, che ha introdotto l’argomento è: Danilo Mainardi, L’animale culturale, Rizzoli, Milano 1974.
[12] Il termine francese per “computer”.
[13] Daniel Kahneman, psicologo sperimentale israelo-americano, premio Nobel per l’economia 2002, fondatore dell’economia comportamentale, critica verso le teorie basate sull’assunto di razionalità, morto novantenne a marzo di quest’anno. Tra i suoi libri è famoso: Pensieri lenti e veloci, Mondadori, Milano 2012.
[14] Dicendo “noi” mi sono riferito al Gruppo interno di ricerca dell’Associazione ARPA-Firenze APS, denominato A.L.B.E.R.T. (ARPA-Firenze APS Landmarks on human Behaviour Experimental Research Team – Gruppo sperimentale di ricerca di ARPA-Firenze APS per i riferimenti sul comportamento umano). Il gruppo è l’autore della ricerca, pubblicata nel 2015, Contributions to a neurophisiology of meaning: the interpretation of written messages could be an automatic stimulus-reaction mechanism before becoming conscious processing of information, Peer J 2015. Reperibile all’URL: https://peerj.com/articles/1361/.