Numero 51 Registrazione al tribunale di Roma N° 3/2004 del 14/01/2004

Filosofi e calcolatori, gli attori di un nuovo umanesimo tecnologico

tt

di Luca Severini

 

Prefazione


Società dell’Informazione

Alla fine degli anni ’80 negli Stati Uniti, Internet veniva aperta anche alle imprese. Di lì a poco il Word Wide Web, metafora di un nuovo mondo da conquistare, avrebbe dato forma ad un territorio immateriale in cui le idee e l’economia si sarebbero potute espandere all’infinito.

I-way

All’inizio degli anni ’90 perciò, il vicepresidente degli Stati Uniti Al Gore illustrò il progetto della amministrazione Clinton per lo sviluppo della "Information Superhighway" (superautostrada dell'informazione), un progetto che, su quei presupposti, rimetteva in moto il grande sogno americano delle opportunità individuali e della crescita economica.

Libro Bianco

In Europa intanto, proprio all’interno di un documento dell’Unione Europea, il Libro bianco su crescita, competitività e occupazione (il cosiddetto “rapporto Delors” del 1993), si suggeriva di sostituire il concetto di “autostrade dell’Informazione”, in uso negli Stati Uniti, con quello di “Società dell’Informazione”, più orientato a rispecchiare le trasformazioni sociali ed economiche in corso a livello mondiale, determinate anche dalla diffusione delle Tecnologie per l’Informazione e la Comunicazione (ICT), in contrapposizione al mero “determinismo tecnologico” contenuto nella visione statunitense.
Intorno a quel nuovo modello di pensiero, nasceva così il paradigma della distribuzione universale di informazioni attraverso le reti di telecomunicazioni (e Internet in particolare), che mirava alla crescita delle conoscenze degli individui, cittadini ed imprese, al fine di determinare il progresso sociale ed economico dei paesi dell’Unione Europea.
Tale modello, sostenuto dalla crescita spontanea di un nuovo tipo di economia digitale basata sui modelli di Internet, contribuiva a diffondere in quel periodo la convinzione che grazie alla Società dell’Informazione si sarebbe finalmente implementata una nuova forma di economia già precedentemente teorizzata: l’Economia della Conoscenza.

Economia della Conoscenza

Essa teorizza che al centro dei problemi delle società vi è sempre più la persona: sempre meno il latifondo, la terra, le attrezzature produttive, il capitale finanziario o i materiali preziosi; sempre più la dotazione di conoscenze e di competenze di cui è fornito l’uomo.
La conoscenza diventa, per la persona e quindi per la società, una ricchezza che va ben al di là delle ricchezze accumulate per storia o censo, ed apre nuove frontiere ad un’idea di capitale che diventa umano, nel senso del riconoscimento del valore dell’individuo.

Strategia di Lisbona

L’Economia della Conoscenza teorizza quindi che l’elemento pervasivo di crescita delle potenzialità umane e produttive sia determinato dalla capacità dell’uomo di acquisire in modo semplice e rapido conoscenze. Ovvero, in una Società dell’Informazione compiuta, l’uomo può acquisire in modo semplice e rapido la conoscenza necessaria attraverso l’uso delle applicazioni ICT, tra cui i sistemi di Information Retrival come i grandi motori di ricerca resi disponibili sul (Google, Yahoo, ecc.).
Così, nel marzo del 2000 si tenne a Lisbona una sessione straordinaria del Consiglio europeo dedicata ai temi economici e sociali dell'Unione Europea in cui i Capi di Stato e di governo dell'Unione decisero che entro il 2010 l'Europa avrebbe dovuto possedere "l'economia basata sulla conoscenza più competitiva e dinamica del mondo, in grado di realizzare una crescita economica sostenibile con nuovi e migliori posti di lavoro e una maggiore coesione sociale …”.

2010 d.C.

Siamo ormai nel 2010. Tutti avvertiamo la crisi, una crisi senza precedenti in cui l’economia mondiale è piombata da qualche anno.
La perdita di posti di lavoro (anche di personale competente), il mancato ingresso nel lavoro dei giovani (anche di brillanti laureati), il flop della “new economy” prima, e adesso le ripercussioni negative della “finanza creativa”, ci segnalano che i buoni propositi di Lisbona 2000 non sono stati raggiunti.
Il successo di Internet, come metafora della Società dell’Informazione, è comunque evidente. E l’economia digitale assume di giorno in giorno un ruolo che la vedrà ben presto sorpassare quella tradizionale. Nonostante ciò l’Economia della Conoscenza stenta a manifestare i propri benefici.
La crisi economica che avvertiamo è forse conseguenza di questo mancato passaggio ad una concreta Economia della Conoscenza? Perché non siamo riusciti ad entrare in questo nuovo stato? Di chi è la responsabilità?
Nel tentativo di dare risposta a tali quesiti, saranno offerti al lettore alcuni spunti di riflessione, fornendo una visione originale dei motivi che hanno contribuito all’insuccesso della Strategia di Lisbona.
Si procederà secondo una prospettiva esclusivamente “tecnologica”, ovvero dall’unico punto di vista in questa sede perseguibile, per arrivare a dimostrare che stiamo entrando in un’era in cui saranno giovani filosofi ad apportare quel valore necessario ad innescare un nuovo “umanesimo tecnologico” su cui si fonderà la nuova Società della Conoscenza, dando vita a un “rinascimento economico” che ci porterà verso una compiuta Economia della Conoscenza.


1. Declino della Società dell’Informazione

Tecnologie abilitanti

Riflettendoci bene, l’umanità si trova in una “Società dell’Informazione” sin dai tempi di Johann Gutenberg , l’inventore della stampa a caratteri mobili.
Fu proprio questa tecnologia a mutare radicalmente il rapporto tra uomo e informazione.  Una rivoluzione tecnologica che diede impulso ad una diffusione globale, senza precedenti, delle conoscenze umane. Un fenomeno che noi chiamiamo “Umanesimo” il quale avrebbe di lì a poco prodotto quel “Rinascimento” culturale ed economico che lasciò definitivamente alle spalle i residui dell’era antica e proiettò il mondo occidentale verso le conquiste sociali e la crescita della ricchezza dei secoli successivi.
Oggi, al posto di quella semplice tecnologia (che comunque veniva impiegata diffusamente fino a pochi anni fa), l’umanità dispone di ben altro.
Calcolatori elettronici; reti di telecomunicazioni; tecnologie per la rappresentazione digitale di testo, immagini, filmati e suoni; sistemi per la videocomunicazione; stampanti digitali; ecc.; e sistemi per la gestione automatizzata delle informazioni, hanno cambiato radicalmente il paradigma di trasferimento delle informazioni.
 Insomma, questo complesso di tecnologie “digitali” che chiamiamo comunemente Information Technologies (IT), ha esteso di gran lunga le possibilità di accesso alle conoscenze umane rispetto a quanto sia stato possibile grazie alla geniale invenzione del tipografo di Magonza. Tuttavia, questo fenomeno ha subito un’accelerazione sorprendente ed inaspettata che si è manifestata solo negli ultimi 15 anni, grazie alla diffusione della “rete delle reti”: Internet.

Internet e il Web

Su Internet e sulla sua applicazione più famosa, il World Wide Web, si è scritto talmente tanto, e se ne discute così tanto, che non vale la pena spendere altre parole per descriverne le funzioni e i benefici apportati all’umanità.
Tuttavia va sottolineato che proprio l’avvento di Internet ha mutato drammaticamente i modelli di interazione tra umani e in particolare il Web ha amplificato all’inverosimile la possibilità di trasferimento delle informazioni. Per questo Internet e il Web sono divenuti ormai la metafora più adatta a rappresentare la “moderna” Società dell’Informazione.
Il Web è divenuto così il luogo immateriale contenente la più straordinaria quantità di conoscenze umane che siano mai state accumulate e rese disponibili dai tempi della Biblioteca di Alessandria. Ma, a differenza di quello che è avvenuto da allora fino a poco più di 15 anni fa, tutta questa enorme mole di informazioni può essere fruita dagli uomini e trasformata in conoscenze individuali stando comodamente seduti sulla propria poltrona di casa.
Tali innumerevoli informazioni risiedono, come sappiamo, nei siti Web; in banche dati; nelle collezioni di documenti, immagini, filmati; in applicazioni transazionali; ecc. Esse sono fruibili attraverso sistemi informatici dotati di servizi per l’accesso all’informazione che, una volta collegati alla Internet, divengono le cosiddette “risorse”.  Il loro numero è oggi impressionante e rappresentabile ormai da un sestetto di numeri che vanno da 0 a 255 (pari a 2566)! E ogni “numero” può contenere a sua volta una quantità indefinita di risorse!
Insomma, in uno scenario come questo, è ovvio che la più grande difficoltà per l’uomo moderno, ansioso di conoscere, sta proprio nel trovare l’Uniform Resource Locator (URL), cioè l’indirizzo internet della fonte informativa contenente proprio l’informazione desiderata.

In altre parole, se non si conosce l’indirizzo non si trova ciò che si sta cercando.

Questo è stato il dilemma dei primordi di Internet in cui grandi sforzi sono stati effettuati per creare indirizzari, le cosiddette “directory”, adatti a risolvere il problema contenuto nella sentenza precedente.
Il problema fu, ed è tutt’ora, quello dell’arbitrarietà della classificazione e della forte dipendenza dalle lingue nel descrivere la risorsa. Ma il problema maggiore stava nel fatto che tali indirizzari dovevano essere creati e mantenuti costantemente aggiornati da umani, i quali acquisivano la conoscenza sull’esistenza di una certa risorsa, la descrivevano e ne pubblicavano l’indirizzo sulla directory. Questi dovevano farsi carico anche dell’aggiornamento poiché, in caso di cambiamento della URL da parte dell’editore, era necessario modificare la directory: pena, nuovamente, la non rintracciabilità della fonte informativa.
Per fortuna a qualcuno venne un’idea geniale.
L’idea era semplice, come al solito, e consisteva nell’utilizzare alcune tecnologie che già venivano impiegate nei sistemi informatici per il trattamento documentale, per creare dei meta indici che si alimentassero da soli, ovvero senza bisogno dell’intervento umano.
La tecnologia disponibile era il “text retrival”, cioè la possibilità di scandagliare un testo, trasformarlo e comprimerlo secondo un certo algoritmo per creare un indice,  aggiungere all’indice una parte del testo (per esempio il titolo o le prime righe) e includere nell’indice anche l’indirizzo assoluto del documento all’interno del calcolatore. A questo punto, dato l’algoritmo, era possibile generare un processo inverso per cui, data in input una stringa di caratteri, era possibile rintracciare in tempi rapidissimi tutti i documenti che la contenevano. Il calcolatore restituiva quindi l’elenco dei documenti contenenti le occorrenze della stringa, evidenziando il titolo e l’indirizzo assoluto del documento. Esso poteva essere quindi rintracciato immediatamente.

Et voilà, l’informazione è servita…

L’applicazione di questa tecnologia, con poche e semplici modifiche (URL invece che indirizzo assoluto e un agente capace di scandagliare la rete in modo automatico, indirizzo dopo indirizzo, per creare ed aggiornare l’indice), avrebbe dato l’avvio all’era dei “motori di ricerca”.
Nasce quindi il concetto di “Information Retrieval”, cioè la capacità di rintracciare la fonte informativa in modo semplice e rapido, senza dover conoscere a priori la sua URL. E nascono i primi motori di ricerca per il Web come Altavista, Yahoo, e infine Google.
Grazie all’uso di questi potenti servizi, per la prima volta nella storia, l’uomo si è trovato ad aver nelle proprie possibilità la capacità di rintracciare una quantità colossale di informazioni, senza precedenti, senza paragoni.
Tutto è ormai “a portata di click”: entrare in un motore di ricerca, digitare una o più parole chiave (keywords), premere “invio” e…  et voilà, l’informazione è servita!
Una semplicità e un’efficacia disarmanti che hanno mutato le abitudini degli uomini di tutto il pianeta anche nelle più semplici attività quotidiane. Ormai è assolutamente consueto, per esempio, consultare il Web per recuperare una ricetta di cucina tailandese o per programmare un viaggio di piacere, per recuperare informazioni giornalistiche su un determinato tema o approfondire la propria conoscenza su un determinato argomento professionale.
Insomma, non ci si stupisce certo all’idea che il concetto di Società dell’Informazione si sia modellato dietro l’impatto sociale dell’applicazione su scala globale di queste tecnologie abilitanti.

L’Era di Google

Questo stadio evoluto della Società dell’Informazione è quindi caratterizzato da una forte identità con il concetto di “risultato dei motori di ricerca”.
Mi piace definire perciò questo stadio come “l’Era di Google”.
Uso questo termine e non altri (anche se esistono servizi pari, se non superiori, a questo), poiché mi piace tributare ai due giovani inventori di Google la genialità di un modello di business vincente, fondato su un bisogno sociale inconscio ma emergente (dare visibilità all’invisibile, al trascurato, all’effimero) e non solamente sul perfezionamento (a suon di capitale) di un bisogno umano cosciente e consolidato.
Insomma, ci siamo un po’ tutti “googlezzati” e non sapremmo più fare a meno di uno strumento così utile, e pertanto pervasivo. Rimane talmente difficile pensare ad una umanità  privata di un simile paradigma che la domanda, a pochi anni dal suo avvento, è “ma come facevamo prima”?
Avevamo una visione molto provinciale, autoreferenziale della realtà. Per usare una metafora, era un po’ come quando 30 anni fa un giovane di provincia il sabato sera si domandava: “cosa danno stasera al cinematografo?”. Oggi invece la domanda è: “cosa vado a vedere stasera?”. Insomma è questa una prospettiva molto diversa, in cui le risorse del nostro pianeta ci sembrano, e sono ormai a “portata di mano”.
E’ possibile considerare tutto ciò una vera conquista dell’umanità.
Fantastico sì, ma ogni conquista umana, si sa, ha un costo. E quindi, qual è il prezzo che l’umanità deve pagare per questo cambiamento di prospettiva?

Tecnologie al limite

Ognuno di noi utilizza ormai Internet per gli scopi più disparati, da quelli più sani a quelli meno virtuosi. E le cronache quotidiane sono piene di fatti che riguardano l’uso e l’abuso di Internet e delle sue risorse.
Il Cyber-crime ormai è un termine molto diffuso e, chi più chi meno, ognuno di noi ne ha fatto almeno una volta l’esperienza. Si pensi solo al fenomeno odioso dello “spamming”. Ma intrusioni, violazioni, danneggiamenti, frodi, sottrazione d’identità, ecc. sono solo alcune delle minacce che gli utilizzatori incauti di Internet subiscono.
Questo è il prezzo che l’umanità deve pagare come contropartita all’impiego di questa conquista.
Tuttavia c’è un ulteriore prezzo, più nascosto e maggiormente pericoloso. Esso implica il depotenziamento degli strumenti stessi e il rischio di effetti sul futuro che ancora non siamo in grado di calcolare. 

Cyber-entropy

Il “prezzo nascosto” è in realtà un fenomeno di deriva sociale causato dai limiti stessi delle tecnologie che abilitano la Società dell’Informazione.
Per denominare questo fenomeno ho impiegato, per analogia al termine che identifica la criminalità informatica, il termine “cibernetica” (contratto in cyber-) e il termine “entropia” (entropy).
Esso vuole indicare quella tendenza che, all’aumentare degli strumenti tecnologici in loro possesso, porta gli uomini a spendere più tempo nella gestione degli strumenti stessi, piuttosto che nel loro utilizzo ai fini deputati. Quindi, poiché il lavoro umano è soggetto alle leggi fisiche naturali (non relativistiche), per cui il tempo perduto non si può più recuperare, se viene sottratto tempo per effettuare operazioni non utili, il bilancio complessivo del lavoro umano presenterà inesorabilmente una componente entropica. 
Ecco alcuni esempi.

Web e rumore

Quante volte ci è capitato di effettuare una ricerca senza riuscire a trovare documenti che trattano l’argomento che ci interessa? Spesso.
Procediamo quindi per tentativi. Modifichiamo le keywords e scorriamo i sommari. Quando ci sembra di essere incappati in un documento interessante, allora lo apriamo e lo leggiamo. Leggiamo per comprendere se il documento contiene l’informazione desiderata.
Reiterato il processo, abbiamo collezionato un po’ di documenti. Leggiamo per approfondire se il contenuto presenta le informazioni che non possediamo ancora. Alla fine, se tutto va bene, troviamo proprio il documento che contiene quello che stavamo cercando. Solo allora può iniziare la fase di studio del contenuto vero e proprio.
Insomma, un bel lavoro prima di poterci concentrare sull’obiettivo: l’acquisizione di nuove conoscenze. Ma da cosa dipende?
Purtroppo i motori di ricerca presenti sul Web producono molto “rumore”. La fase di discriminazione dei “falsi positivi” è in capo al lettore e questa attività sottrae tempo utile allo studio vero e proprio del documento. Tempo che non sarà mai più restituito.
La responsabilità risiede proprio in un limite “logico” delle tecnologie di Information Retrieval per cui, all’aumentare del numero di documenti da trattare e in presenza di domini di conoscenza molteplici, esse producono risultati sempre meno precisi. E trattare miliardi e miliardi di contenuti presenti oggi su Internet, pubblicati da milioni e milioni di “editori” in centinaia di lingue e forme diverse, non è certo facile, neanche per un “mostro” come Google! 
Ma c’è un altro esempio di Cyber-entropy ancora più preoccupante.

Web 2.0 e spreco

Da qualche anno a questa parte si manifesta sul Web una forte tendenza alla creazione di servizi per l’interazione tra persone. Essi vengono erogati da specifiche applicazioni basate su tecnologie che permettono un livello di interazione uomo-macchina molto più elevato rispetto al passato. Il complesso di applicazioni on-line che implementano questi nuovi metodi d’interazione sono comunemente indicate con il termine “Web 2.0”.
Tra queste applicazioni troviamo blog, forum, chat, wiki, ecc., e sistemi complessi, come i social network, che implementano contemporaneamente più applicazioni del Web 2.0.
Intorno a questi sistemi si sviluppano comunità che partecipano attivamente alle iniziative proposte in forma spontanea dagli stessi utenti. All’interno di questi “sottomondi virtuali” si stabiliscono così nuovi meccanismi di interazione tra esseri umani, mediati dalle funzioni di comunicazione messe a disposizione dalle applicazioni software. Questa mediazione offerta dalle “macchine” soddisfa il bisogno naturale delle persone di comunicare, farsi conoscere, esprimere le proprie opinioni, senza dover necessariamente esporsi ed assumersi le proprie responsabilità, così come avverrebbe nel mondo reale.
Questa “libertà espressiva” a mio giudizio è la principale causa di successo del Web 2.0. Si pensi solo agli oltre 250 milioni di iscritti a Facebook, o al successo di Twitter e Linkedin!
E’ certo che questo fenomeno sia socialmente rilevante e come tale abbia un’importanza che va oltre gli obiettivi per cui sono stati costruiti i singoli sistemi del Web 2.0, tuttavia dietro questo fenomeno sociale si nasconde una sorgente di Cyber-entropy molto preoccupante.
Tutti questi sistemi mirano a soddisfare principalmente”bisogni psicologici” degli individui e non bisogni “sociali”. Ciò implica che all’interno di questi ambienti sia molto raro che vengano presi in considerazione meccanismi che facilitano la vita professionale delle persone. Anche le imprese o le organizzazioni in genere tendono solamente ad interagire con le singole persone con lo scopo prevalente di farsi riconoscere (brand).
Inoltre, poiché questi sistemi sono molto efficaci, tendenzialmente ogni singolo individuo è utente di un certo numero (anche grande) di sistemi Web 2.0. Il fatto di essere contemporaneamente attivi su più piattaforme, amplifica la possibilità di generare “contatti utili”. Insomma, grazie a questa possibilità, si possono creare reti logiche di interconnessione personale pazzesche che offrono una probabilità statisticamente accertabile di essere sempre in contatto con altri individui.
Quindi, poiché la probabilità di interazione con altri individui è sbalorditiva, verosimilmente la gran parte degli utenti è costantemente impegnata in attività di comunicazione: rispondere alle chat, aggiornare i propri spazi web, rispondere alle richieste, pubblicare sui blog, partecipare ai forum, ricercare informazioni su altre persone, ecc.
Dunque, poiché i sistemi del Web 2.0 sono impiegati prevalentemente per la comunicazione tra individui, con finalità ludiche e non di studio e lavoro, le attività svolte dagli utenti all’interno dei “sottomondi virtuali” non possono essere ricomprese a pieno titolo tra quelle che generano valore per la società. Quindi, poiché gli individui spendono per queste attività una considerevole quantità di tempo, si può dedurre che una grande quantità di valore venga irrimediabilmente perduta e non si possa trasformare più in ricchezza!
Insomma uno spreco di energie e risorse sorprendente per seguire un modello di comunicazione che genera implicitamente entropia.

Società dell’Iper-informazione

Come affermato precedentemente, il Web ha permesso all’uomo, per la prima volta nella sua storia, di poter ottenere una quantità sbalorditiva di informazioni, e con estrema facilità rispetto al passato. Una quantità anche sovrabbondante rispetto alle necessità e alle capacità umane di assimilazione.
Grazie all’avvento dei motori di ricerca, l’uomo si trova per la prima volta nella sua storia anche a doversi districare tra un numero impressionante di “falsi positivi” per riuscire ad identificare l’informazione utile.
Ma ben peggio, il Web 2.0 costringe adesso l’uomo a doversi difendere da una quantità enorme di comunicazioni, ponendolo forzatamente in un perenne stato di “lavoro vacuo” finalizzato al riconoscimento delle informazioni utili.
Se Internet e il Web hanno dato forma al concetto di Società dell’Informazione, il Web 2.0 ne rappresenta probabilmente l’evoluzione.
Appare chiaro che il Web 2.0 e le sue tecnologie abbiano però condotto la Società dell’Informazione verso uno stadio decadente, che chiamerei la Società dell’Iper-informazione ovvero quella prodotta dall’esagerata quantità d’informazione a cui l’uomo è ormai soggetto, in cui l’uomo ha ormai troppo poco tempo a disposizione per leggere, apprendere, riflettere e progredire.
Insomma, tutto ciò appare proprio il contrario dei presupposti teorici su cui si sarebbe dovuto fondare il nuovo modello virtuoso di Società, cioè quella dell’Informazione.
La Società dell’Informazione sembra così trovarsi in uno stato regressivo provocato paradossalmente proprio dalle tecnologie considerate abilitanti! Uno stato che, per usare una metafora “tecnologica”, la fa assomigliare al protocollo Ethernet: all’aumentare dei nodi sulla rete, le prestazioni decrementano in modo geometrico a causa del tempo perduto nelle operazioni  di handshake.

Uscire dal caos informativo

Ma esiste un modo per uscire da questo caos informativo?
Purtroppo i calcolatori faticano moltissimo a discriminare l’informazione utile dai falsi positivi. Molto spesso considerano false anche le informazioni utili.
Scienziati, ricercatori e tecnici, si sono cimentati e si cimentano tutt’ora nel cercare soluzioni in grado di risolvere i principali problemi che le tecnologie per il trattamento del testo manifestano.
In un precedente articolo (L. Severini, “Il Knowledge Retrieval per uscire dal caos informativo”, CaosManagement.it - Settembre 2009) questo tema è stato trattato giungendo alla conclusione che esistono tecniche e tecnologie in grado di aiutare l’uomo, ma queste non possono essere considerate risolutive.

Sintassi e statistica

Le applicazioni basate sulle tecnologie per il trattamento del testo considerano come “dato” il contenuto di una cella di memoria, ovvero la stringa dei caratteri che formano un termine. Questi dati sono organizzati all’interno del calcolatore secondo una specifica sintassi, tale che il calcolatore possa trattarli. Le tecnologie che vengono impiegate per il trattamento del testo sono quindi “tecnologie sintattiche”.
Queste tecnologie, trattando sequenze di caratteri, possono solamente verificare velocemente la condizione di uguaglianza tra due stringhe, presenti anche in grandi quantità di documenti. In altre parole, possono solamente constatare che, se le due sequenze sono identiche, allora si è in presenza della stessa parola.
Queste tecnologie non possono far altro, ovvero non possono effettuare nessun altro tipo di ragionamento!
Poiché le tecnologie per trattare il testo non comprendono altro che questa condizione di uguaglianza, è semplice dedurre che questa azione di verifica dell’uguaglianza sia estremamente “fallace”. Basta pensare a come questo processo sia logicamente dipendente dagli alfabeti, dall’irregolarità dei linguaggi naturali, dall’idioma, ecc.
Tutti i sistemi basati su queste tecnologie producono perciò un risultato statistico. Anche i più sofisticati.
Per mitigare gli “effetti statistici” che tali tecnologie producono, ai sistemi che trattano il testo vengono aggiunte anche tecnologie per il trattamento del linguaggio naturale (NLP).
L’NLP può essere considerato una branca dell’intelligenza artificiale (AI) finalizzata alla disambiguazione del linguaggio umano. Attraverso molteplici tecniche, le applicazioni di queste tecnologie cercano di procedere per via d’induzione dal particolare al generale al fine di riscontrare in una grande collezione di testi le somiglianze espressive e i significati assimilabili. Questo processo tuttavia è reso particolarmente difficile e complesso a causa delle caratteristiche intrinseche di ambiguità del linguaggio umano.
Purtroppo, benché impiegando sofisticate tecnologie NLP possano essere migliorate le prestazioni dei sistemi per il trattamento del testo, i risultati ottenibili sono da ritenersi veri solo se in accordo con la statistica.
Per fare un esempio, tutti i sistemi basati su tecnologie sintattiche e metodi induttivi producono risultati statistici tali per cui se in un testo si evidenzia una occorrenza del tipo “un uomo mangia un panino”, il calcolatore non potrà darcene mai la certezza assoluta. Il dubbio sarà sempre che “un uomo abbia mangiato un tramezzino piuttosto che un toast” ovvero che “un uomo abbia desiderato mangiare un panino”.

C’è chi parla di semantica

In pratica, all’aumentare della quantità di informazioni da trattare, all’ampliamento delle lingue, degli alfabeti e del lessico umano (per esprimere appropriatamente domini di conoscenze specifici), i sistemi informatici tendono ad essere sempre meno precisi.
Ma c’è chi afferma di possedere dei “motori semantici” che risolvono qualsiasi caso di ambiguità. Sarà vero?
Innanzi tutto c’è da interrogarsi sul fatto che questi sistemi informatici vengano comunemente indicati con l’aggettivo “semantici”.
Abbiamo visto che le tecnologie impiegate sono di tipo sintattico e “induttivo”, quindi non si fa riferimento a queste.
Tutti i sistemi per il trattamento del testo perseguono generalmente la finalità di capire in quali documenti “si parli” dello stesso argomento, o per effettuare dei riassunti del contenuto di una collezione documentale, o per mettere a confronto documenti al fine di coglierne le differenze.
Si tratta quindi sempre e comunque di farci aiutare dal calcolatore ad estrarre in modo automatico il significato del testo, ovvero quello che l’autore ha voluto esprimere con il suo scritto.
Per gli umani il termine “semantica” vuol dire “significato dei segni”, ovvero dei segni linguistici (parole), accezione che nulla ha a che vedere con il significato del contenuto del documento.
Per questo “bisticcio semantico” proprio sul termine “semantica”, si sono molto spesso generati spiacevoli equivoci. Ritengo quindi che questo tipo di applicazioni per il trattamento del testo debbano essere più propriamente appellate come “meaning engine”, che però in italiano suonerebbe un po’ male (motori significanti), piuttosto che “motori semantici”!

Uomini in soccorso dei calcolatori

La caratteristica comune a tutti i sistemi basati su queste tecnologie è quella di commettere errori. L’unica maniera per consentire al calcolatore di mostrare agli utilizzatori un comportamento “intelligente”, è quella di preparare ad arte la collezione documentale da trattare. In altre parole, l’unico modo è quello di aiutare i calcolatori ad aiutarci.
Data una collezione documentale (nella sua forma e nei suoi contenuti) è sempre possibile pre-processare i testi al fine di mettere nelle condizioni di funzionare al meglio gli algoritmi per il trattamento automatico del testo.
Ciò viene comunque effettuato da umani, i quali pazientemente leggono i testi, li analizzano, li comprendono, e attraverso apposite attività di tagging, formattazione del testo, ecc., sistemano la collezione documentale al fine di “sbalordire” gli utilizzatori finali.
Per rendersi conto di quanto sia importante questa attività di pre-trattamento, basterebbe includere un numero significativo di nuovi documenti non pre-trattati nella vecchia collezione documentale e provare ad impiegare i “motori semantici”. Il risultato sarebbe sorprendentemente analogo a quello che offrono già i semplici motori di ricerca basati sulle tecnologie di Information Retrieval.
Non a caso molte organizzazioni che si occupano di questi sistemi, offrono ai propri clienti i servizi in modalità out-sourcing, al fine di avere tempi e modi per effettuare in tutta tranquillità questa fase di pre-trattamento manuale.
Insomma, per farci aiutare dalle tecnologie per il trattamento del testo, l’uomo deve aiutare il calcolatore, e non il viceversa! Un paradosso molto significativo. 

Cyber-entropy in aumento

La mia personale convinzione è che non sia utile concentrare gli sforzi ed effettuare investimenti ingenti per “aiutare i calcolatori”.
Piuttosto che sprecare risorse per migliorare queste tecnologie, i cui risultati saranno in ogni caso di tipo statistico, forse sarebbe meglio limitarsi ad utilizzare semplici sistemi basati sulle tecnologie di Information Retrieval: tecnologie che implementano magari il paradigma dell’Enterprise Search, adatto a costruire sistemi di Knowledge Retrieval semplici, poco costosi, e che offrono comunque prestazioni eccellenti senza avere necessità di grandi attività ripetitive di pre-processamento manuale delle collezioni documentali.
Appare chiaro che l’impiego esasperato di questi “motori semantici” non fa altro che aumentare la velocità con cui l’entropia si propaga. Troppo lavoro per pochi risultati in più (peraltro falsati).
Come si cercherà di dimostrare di seguito, il ricorso esasperato alle tecnologie che abilitano la Società dell’Informazione quali strumenti su cui si sarebbe dovuta fondare l’Economia della Conoscenza è stato un grave e imperdonabile errore di valutazione.

Paradigmi tradizionali

Ho scritto che l’uomo vive nella Società dell’Informazione sin dai tempi di Gutenberg, che l’era in cui sono stati introdotti i calcolatori per trattare informazioni era solo una evoluzione della società d’allora e ancora che l’era in cui viviamo è uno stato “regressivo” di quella precedente. Tutto questo è avvenuto a causa della Cyber-entropy, ovvero della quantità enorme di informazioni utili, meno utili e dannose a cui siamo tutti sottoposti.

Si formalizzano conoscenze umane in linguaggio naturale

Così come ai tempi dell’invenzione della stampa, anche con l’avvento dei calcolatori il processo di trasferimento di conoscenze umane verso altri uomini avviene sempre allo stesso modo. L’uomo che vuole trasferire le proprio conoscenze, scrive un testo che contiene l’informazione. Un altro uomo lo legge, lo assimila e ne trae nuove conoscenze.

Anche se ora i documenti sono in un formato elettronico, adatto ad essere contenuto e trattato dal calcolatore, il modo con cui le conoscenze vengono formalizzate è rimasto lo stesso: la conoscenza umana viene “formalizzata” mediante linguaggio naturale.
In questo modello, il calcolatore e le sue tecnologie non sono altro che un medium.

Si estrae conoscenza  leggendo

Non è cambiato nemmeno il modello di estrazione delle conoscenze poiché colui che desidera imparare deve comunque leggere il testo che contiene le informazioni, comprenderle ed assimilarle, al fine di innescare il processo mentale che produce in lui l’acquisizione di nuove conoscenze. Tutto il processo è quindi basato sul ragionamento “naturale”.
Come esposto in precedenza, l’avvento dei sistemi per il trattamento automatico del testo ha costituito il primo vero passo in avanti rispetto a quando Gutenberg inventò la stampa a caratteri mobili.

Si cerca solo quello che si conosce

Con l’invenzione dei “motori di ricerca”, l’uomo ha per la prima volta avuto modo di rintracciare i documenti che contenevano l’informazione desiderata, secondo un meccanismo basato sulla ricerca delle parole chiave. Una rivoluzione che ha ampliato di molto le possibilità di ricerca, anche in presenza di collezioni documentali gigantesche.  
Si è detto, però, che queste tecniche non sono estremamente precise. Tuttavia, l’aspetto più significativo, che ci fa riflettere sul fatto che queste tecnologie non abbiano modificato sostanzialmente il modello di fruizione delle conoscenze da parte degli uomini, è un altro.
Dalla consuetudine sappiamo che le ricerche avvengono grazie all’inserimento di parole chiave le quali, in una determinata lingua, rappresentano dei termini “significativi” impiegati per rappresentare i concetti di ciò che si vuole cercare. In pratica, le parole chiave fanno parte di quel lessico specialistico che viene impiegato per rappresentare in un determinato linguaggio naturale uno specifico dominio di conoscenza.
Ciò implica che se io non possiedo conoscenze in un determinato campo, non posso disporre nemmeno del lessico che lo rappresenta.
La conseguenza è la seguente. Così come è accaduto per millenni a coloro che si sono recati in una biblioteca per recuperare un testo relativo ad una certo argomento, per cercare un libro o un documento in formato elettronico tramite un motore di ricerca è necessario comunque conoscere l’argomento della ricerca e quindi il lessico relativo. In pratica “si cerca solo quello che si conosce”.
Dall’epoca di Gutenberg quindi, i paradigmi con cui gli uomini trasferiscono conoscenze sono sempre gli stessi.

E’ solamente dematerializzazione

Da allora la differenza sostanziale è che abbiamo imparato a dematerializzare i supporti che contengono la nostra conoscenza, e poco altro in più.
Siamo passati ai documenti in formato elettronico al posto di quelli cartacei e agli archivi magnetici al posto di scaffali. Abbiamo inoltre le tecnologie dell’informazione. Sono quindi calcolatori e tecnologie dell’informazione che ci aiutano più di allora a trattare testi che contengono le conoscenze che ci interessano. E rimane difficile pensare che, in un’epoca in cui le specializzazioni sono esasperate e la competenza necessaria per governare tale molteplicità è sempre maggiore, si possa fare a meno del loro aiuto.
A causa della complessità della società, delle tecnologie e delle idee che l’uomo ha saputo costruire negli ultimi secoli, gli individui si vedono costretti a mantenere costantemente aggiornato il proprio sapere per scongiurare il pericolo di ritrovarsi in breve tempo obsoleti e socialmente inutili.

Sapere è difficile

Tuttavia, è stato scritto, l’impiego delle tecnologie dell’informazione ha introdotto complessità su complessità, a tal punto che ormai l’uomo è costretto a bruciare tempo inutile per discriminate ciò che serve da ciò che è inutile.
La velocità con cui gli uomini devono “necessariamente” accrescere i propri saperi per poter essere competitivi, è divenuta pazzesca. In generale essa si rivela ben maggiore rispetto alle possibilità umane di apprendimento. E le tecnologie dell’informazione non possono essere, come mostrato, di grande utilità.
A questo punto, appare inevitabile domandarsi se proprio questo possa costituire il motivo per cui la Società dell’Informazione non abbia manifestato una Economia della Conoscenza così come immaginato, ovvero non abbia espresso quella forma virtuosa di economia basata sulla crescita delle conoscenze individuali ottenute grazie allo sfruttamento delle tecnologie dell’informazione.
Come cercherò di motivare in seguito, a mio giudizio sono proprio le tecnologie dell’informazione a non possedere quelle caratteristiche necessarie ad abilitare l’Economia della Conoscenza.

 

Capitolo II – Economia della Conoscenza mai nata (prossimamente)

Capitolo III – Dalla Società dell’Iper-informazione a quella della Conoscenza (prossimamente)

 

Immagini presenti nell'articolo:

1. COMPUTER ARTS | TITLE: TECHNOLOGICAL HUMANISM | AUTHOR: FEDERICO ROMANAZZO | ALL RIGHTS RESERVED

2. COMPUTER ARTS | TITLE: INFORMATION SOCIETY | AUTHOR: FEDERICO ROMANAZZO |
ALL RIGHTS RESERVED

3. COMPUTER ARTS | TITLE: NATURAL REASONING | AUTHOR: FEDERICO ROMANAZZO |
ALL RIGHTS RESERVED

 

 

 

Luca Severini, è la persona che ha coniato il termine “epistematica”. Nel dizionario italiano esiste il termine “epistematico” [deduttivo] impiegato come aggettivo maschile. Il sostantivo femminile “epistematica” è una nuova voce composta dai termini "epistème" [conoscenza] e "informatica" [trattamento automatico dell'informazione], che assume per analogia il significato di "trattamento automatico della conoscenza". L'Epistematica studia, crea e applica tecnologie che permettono ai calcolatori elettronici di simulare comportamenti intelligenti mediante processi inferenziali effettuati su apposite basi dati arricchite semanticamente, dette basi di conoscenza. Vedi anche http://it.wikipedia.org/wiki/Epistematico Luca Severini è il fondatore della società che prende come denominazione il termine da lui coniato. Epistematica Srl è l’impresa che per prima in Italia si è specializzata nell’applicazione delle tecnologie semantiche per la formalizzazione e il trattamento automatico di conoscenze. l.severini@epistematica.com