Etica
ChatGPT: tra entusiasmi e preoccupazioni
La questione dell’intelligenza artificiale da tempo sul tappeto ha assunto oggi connotazioni nuove, un vero e proprio salto qualitativo, con il varo della chatGPT (acronimo di Genertive Pretrained Transformer), che ha scosso l’opinione pubblica sollevando grandi entusiasmi e gravi preoccupazioni. La novità consiste in uno strumento di OpenAI, il quale mira a migliorare notevolmente il modo con cui interagiamo con le macchine in una vasta gamma di applicazioni, contribuendo a rendere l’intelligenza artificiale non solo più naturale e intuitiva, ma soprattutto creativa, fino a fornire programmi che consentono alle macchine di rispondere agli input del linguaggio naturale in modo pertinente e sempre più personalizzato, nonché di generare, in pochi secondi testi di articoli, e-mail e poesie simili a quelli umani.
Una vera rivoluzione antropologica?
L’effetto più sconvolgente, destinato a suscitare più apprensione e più paura è la capacità di appropriarsi e di imitare il linguaggio umano, che costituisce l’elemento di specificità dell’uomo in quanto lo distingue da tutti gli altri animali, raggiungendo livelli assai alti di somiglianza con l’intelligenza umana e potendosi sostituire in tal modo all’uomo nella scrittura di codici e di algoritmi, divenendo in pratica auto-sussistente, un Super-Uomo capace di schiacciare il genere umano. L’allarme per questo rischio è stato di recente lanciato sulle pagine del settimanale The Economist, da Yuval Noah Harari, storico e filosofo, oltre che futurologo, autore di due best-seller tradotti in numerose lingue dai titoli Homo Deus e Ventun lezioni per il XIX secolo, il quale non esita ad accusare Gpt, con parole dure dal tono apocalittico, di costituire un forte attentato alla nostra civiltà. Egli denuncia anzitutto il ritmo incalzante con il quale sta verificandosi la corsa sfrenata tra le aziende (senza ogni minimo controllo) allo sviluppo di un sistema che potrebbe creare segni e codici in numero maggiore rispetto a quelli generati dagli uomini, stravolgendo in tal modo con un linguaggio nuovo e criptico, il tradizionale impianto valoriale ed etico e impedendoci di conseguenza di distinguere il vero dal falso.
Harari intravede in tutto questo la tendenza a gettare il mondo in un caos primordiale da cui a rimanere vive sarebbero soltanto le macchine guidate da AI. Questo scenario catastrofico si realizzerebbe poi con una rapidità sconcertante, un processo fulmineo che impedisce di fare previsioni anche sull’immediato e di esercitare qualsiasi controllo. Ciò che, secondo Harari, sta dunque verificandosi è un fenomeno con potenzialità terrificanti sul piano economico-commerciale e politico e con conseguenze peraltro già sperimentate di forte condizionamento delle decisioni personali, anche per l’uso facile di facke news, che alterano del tutto la verità; si tratterebbe in definitiva, sempre secondo Harari, di una sorta di oracolo a cui chiedere sempre più passivamente suggerimenti, consigli e aiuto; un oracolo che potrebbe determinare la fine della storia dominata dagli uomini. Si possono considerare esagerate queste provocatorie prese di posizione, ma non si può negare che contengano un aspetto di verità. La conferma viene anche dal fatto che si è manifestato un travaglio di coscienza, che ha condotto a una vera e propria obiezione anche persone che hanno direttamente collaborato alla realizzazione di Gpt, costringendo alcune di esse a rassegnare le dimissioni da Google, la società da cui Open AI dipende.
Questioni etiche e giuridiche
Non è mancato certo chi ha messo in evidenza le enormi potenzialità di questo strumento, soprattutto in campo medico ed ha sottolineato comunque, anche in questo caso, la superiorità dell’intelligenza umana, osservando che si tratta di un modello linguistico addestrato, con una conoscenza limitata a quanto viene a lui fornito attraverso l’addestramento; un modello non esente peraltro da errori, con la possibilità che dia talora risposte plausibili ma errate, soprattutto quando si tratta di calcoli. Ma anche chi ridimensiona la portata del nuovo strumento riconosce la superficialità e la banalità di molti interventi già messi in atto grazie al suo utilizzo – interventi spesso ostentati e formulati in modo oppressivo – i quali suscitano aspettative, che si rivelano a distanza false illusioni. Molti sono allora gli interrogativi che affiorano, a livello etico. Oltre alle già ricordate possibilità di falsificazione della verità, e dunque di distorcimento dell’informazione – la gestione di tale processo è nelle mani di poteri forti, quello economico in primo luogo, che coltivano i propri interessi utilizzando anche meccanismi psicologici che condizionano le persone al fine di ottenere effetti persuasivi – vi è il dilatarsi del fenomeno già attivato attraverso l’uso di altri social, di output con scambi di ingiurie, di calunnie offensive, usando spesso linguaggi assolutamente indisponenti e volgari, che concorrono a creare un costume del tutto deteriore. Ma a preoccupare è soprattutto, da un lato, il venir meno della privacy con la mancanza di protezione dei dati personali e con la difficoltà a dar vita a un’informativa sul trattamento dei dati dell’utente interessato e di fornire una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di «addestrare» gli algoritmi; e, dall’altro, l’assenza di un sistema volto a controllare l’età di chi utilizza il servizio, esponendo i minori a ricevere risposte assolutamente inidonee rispetto al loro grado di sviluppo e di autoconsapevolezza, provocando perciò stati di incertezza o di falsa sicurezza con ricadute negative sulla crescita della personalità. Sono queste le ragioni che hanno spinto in Italia il Garante a imporre il blocco di Gpt, iniziativa che ha sollevato aspre critiche, con accuse che non hanno risparmiato ingiurie gratuite e pesanti insulti. Dopo un mese di animate discussioni, il blocco si è sciolto e la possibilità di uso del Gpt è stato dalla stessa Autorità garantita, dopo aver ottenuto da OpenAI l’assicurazione di ottemperare alle richieste avanzate, mettendo a disposizione informazioni perché utenti e non utenti possano esercitare i loro diritti. Si può dubitare della possibilità di far valere le regole emanate per la debolezza della politica, ma anche (e soprattutto) perché i processi in corso vanno ben oltre le frontiere dei singoli Stati-nazione.
L’esigenza di andare oltre
D’altra parte, anche ammesso che i dispositivi prudenziali assunti possano dare buoni risultati, rimane il fatto che la rivoluzione prodotta dall’ultimo strumento immesso sul mercato dalla società digitale, non può venire affrontata agendo soltanto sul terreno della normatività giuridica, per quanto importante. Occorre dare vita, nel contempo, a un’azione educativa, che coltivi l’esigenza di riappropriarsi di se stessi, vincendo la pigrizia intellettuale e la rinuncia alla riflessione. Questo può avvenire soltanto se si procede alla creazione di un sistema che – come ci ha ricordato di recente Paolo Giordano – faccia spazio a una cultura scientifica a sfondo umanistico. Una cultura che sappia dare un senso al mondo, mentre tutto cambia.