In molte sedi e con sempre maggiore frequenza si parla degli aspetti etici correlati alla tecnologia dell’Intelligenza Artificiale, 328 miliardi di dollari di investimenti.
Di recente al convegno “Vite digitali”, Luiss, maggio 2022, il prof. Schnapp dell’Università di Harvard ha dichiarato “La responsabilità dovrebbe essere alla base della tecnologia” e la prof.ssa Severino della Luiss ha ribadito come sia fondamentale la tutela della privacy. L’UE sembra averli ascoltati perché con il Digital Service Act ha di fatto imposto alle aziende tecnologiche responsabilità sul controllo dei contenuti on line.
Il punto focale sta nel fatto che le questioni etiche vengono poste a posteriori, cioè successivamente alla creazione di tecnologie, mentre dovrebbero essere parte integrante del processo creativo. Il digital services act é un pacchetto di norme che prevede obblighi per le aziende tech che operano nel settore. Tra queste la principale è la maggiore trasparenza sull’IA.
Cosa cambierà per gli utenti? Potranno scegliere di disattivare gli algoritmi di IA nei loro feed personali e vietare il consenso alla profilazione. Da qualcuno si obbietta che l’etica è un freno allo sviluppo tecnologico: non è così, è di fatto una opportunità in più che porta ad uno sviluppo più consapevole delle nuove tecnologie e ad una riduzione dei problemi legati all’innovazione In attesa dell’auspicata autoregolamentazione aziendale è bene che ci siano strati di controlli e studi mirati sugli impatti di queste nuove tecnologie. In molti libri e film è stata profetizzata la ribellione delle macchine all’uomo.
Da Europei la proiezione di questa profezia che più dovrebbe preoccuparci è nel rapporto fra il nostro Continente da una parte ed USA ed EST che corrono molto più di noi dall’altra e finiranno, senza un’inversione di tendenza, per impoverire la nostra economia che non vuole rinunciare a certe soluzioni, che però non è in grado di governare, anche gravata da pesi burocratici molto più pesanti di quelli attivi presso i nostri concorrenti.
Si sta creando una nuova dipendenza, oltre quella dal gas russo. La soluzione passa per una risposta interdisciplinare in cui le preoccupazioni etiche e sociali e quelle della ricerca è produttive possano confrontarsi. Si deve lavorare insieme per armonizzare le leggi e divenire più competitivi.
L’ integrazione delle IA con il cervello umano, una sorta di transumanesimo, non deve spaventare come dimostrano i sistemi di interfaccia già allo studio tra neuroni biologici e sistemi artificiali. A vedere la problematica con occhio positivo ed ottimista potrebbero essere anche le applicazioni che dell’IA vengono ancora presentate.
Al Maker Faire di Roma sono molti i progetti che, combinando IA e sensori, cercano di venire incontro alle disabilità consentendo a chi le porta di superare, almeno in parte, i limiti.
Esempi significativi sono il controller che permette alle persone senza arti inferiori di azionare con i pollici acceleratore e freni di un suto; o ancora un sistema di guida per il trattamenti delle balbuzie; o ancora il controllo cognitivo mediante sistemi in automatico dell’avanzamento di patologie gravi come la sclerosi multipla; o ancora un sistema a vibrazioni intelligenti per consentire ai non vedenti il superamento di ostacoli nel cammino; o ancora il supporto intelligente con giochi agli esercizi di riabilitazione dei più piccoli.
Come si vede gli aspetti etici meritano un’attenta considerazione ma sarebbe sbagliato considerarli un limite invalicabile che. non farebbe altro che aumentare il gap tecnologico fra Europa e Resto del mondo tecnologicamente avanzato.
Fai crescere le giovani ricercatrici e i giovani ricercatori
con il 5 per mille alla Sapienza
Scrivi il codice fiscale dell’Università 80209930587
Cinque per mille