Non è sbagliato preoccuparsi degli effetti legati all’evoluzione dell’Intelligenza artificiale, ma la soluzione non può essere una moratoria allo sviluppo tecnologico e alla ricerca. Intanto il Garante della Privacy prosegue le indagini su ChatGPT, che è stato bloccato nel nostro Paese per possibili rischi per gli utenti nella gestione dei dati. A spiegare la questione è Giuseppe De Pietro, direttore dell’Istituto di calcolo e reti ad alte prestazioni del Cnr
Il mondo dell’Intelligenza Artificiale (IA) è sotto i riflettori. Elon Musk, uno dei fondatori di OpenAI, e molti altri imprenditori tecnologici e scienziati, hanno parlato più volte dei pericoli di queste tecnologie, affermando che il loro uso e sviluppo illimitato rappresentano un rischio significativo per l’umanità. Tale preoccupazione si è inoltre palesata attraverso una lettera aperta, firmata da numerosi scienziati e imprenditori, che chiede di sospendere per almeno sei mesi lo sviluppo e la sperimentazione di tali sistemi conversazionali evoluti.
L’Italia, con un provvedimento del Garante per la privacy, è diventata il primo Paese occidentale a bloccare ChatGPT, il chatbot (programma informatico capace di interagire vocalmente con l’utente) sviluppato da OpenAI. Lo scorso 8 aprile il Garante per la protezione dei dati personali si è riunito in seduta straordinaria per un primo esame dei documenti fatti pervenire da OpenAI su ChatGPT. Ma la super intelligenza artificiale potrebbe riaccendersi presto, a patto che OpenAI, si adegui alle prescrizioni inviatele il 12 aprile dal Garante: assicurare trasparenza sull’utilizzo dei dati personali, permettere alle persone di escludere le proprie informazioni sensibili dall’addestramento degli algoritmi, correggere o cancellare le risposte inesatte sul loro conto, verificare l’età degli utenti. Il termine per queste correzioni è fissato al 30 aprile, ma il divieto di utilizzare i dati degli italiani potrebbe cadere anche prima, se OpenAI facesse in fretta.
ChatGPT è alimentato da una grande IA generativa pre-addestrata, in grado di rispondere alle domande utilizzando un linguaggio naturale, simile a quello umano, e può anche imitare altri stili di scrittura. Tale sistema non solo sta sconvolgendo il mondo dei motori di ricerca, ma è anche in grado di creare nuovi contenuti in pochi minuti, di generare bozze di sceneggiature, di scrivere programmi informatici, risolvere problemi di codifica, compiti di matematica, di preparare lettere, testi, canzoni, poesie e qualsiasi altra cosa possa chiedere l’utente. ChatGPT viene utilizzato giornalmente da milioni di utenti da quando è stato rilasciato in forma gratuita da OpenAI, nel novembre del 2022. Tale sistema non è stato però rilasciato in forma Open Source, e dev’essere utilizzato tramite un sistema remoto che raccoglie e utilizza i dati e le conversazioni degli utenti per migliorare le prestazioni e l’efficacia del sistema stesso.
Come altri sistemi simili, ChatGPT analizza i dati degli utenti e i pattern di conversazione per identificare gli errori comuni e le aree in cui le risposte attuali potrebbero essere errate o incomplete e così migliorare il servizio clienti o le strategie di marketing. Questa modalità è stata attenzionata dal Garante che ha deciso di aprire un’istruttoria sulla raccolta potenzialmente ritenuta illecita dei dati degli utenti, in quanto ritiene che non esista una base giuridica che giustifichi tale raccolta e archiviazione di massa. L’Ente di controllo indagherà anche sulla sua conformità al Regolamento generale sulla protezione dei dati (Gdpr).
Ciò che viene contestato non è soltanto relativo alle modalità di gestione dei dati utenti, ma anche di come gli utenti e, soprattutto i minori, vengano protetti dall’utilizzo inconsapevole del sistema e delle risposte fornite. L’Autorità contesta che, non essendoci modo di verificare l’età degli utenti, ChatGPT espone i minori a risposte assolutamente inadatte rispetto al loro grado di sviluppo e consapevolezza. A causa delle stesse preoccupazioni, sistemi simili come Bard, il chatbot rivale di Google, sono invece disponibili solo per utenti di età superiore ai 18 anni.
Non è la prima volta che nascono iniziative contro ChatGPT (e su sistemi similari), poiché le risposte fornite dal chatbot non sono controllate né validate, possono contenere pregiudizi razziali o di genere, e c’è una crescente preoccupazione su come il sistema possa ingannare e manipolare le persone, alimentare fake news, generare contenuti pericolosi e offensivi, o violare diritti d’autore. Tale problematica è piuttosto rilevante dato che ChatGPT e i suoi concorrenti sviluppano soluzioni sempre più avanzate e sofisticate, con addestramenti su immense moli di dati. Già ora in diversi ambiti sono stati segnalati usi fraudolenti di questi strumenti, e potrebbe diventare difficile distinguere contenuti veri da quelli generati da una IA.
Dal punto di vista operativo, ChatGPT e altri sistemi simili si interfacciano mediante un linguaggio molto simile a quello naturale, e questo li fa sembrare “più intelligenti” di quanto in realtà non siano. Il ciclo di sviluppo di ChatGPT non è molto diverso da ciò che accade nello sviluppo dei bambini, che aumentano la propria consapevolezza e capacità di interazione cogliendo le informazioni e i comportamenti degli individui che li circondano.
Come spesso accade quando vengono introdotte nuove tecnologie, vi è una corrente di pensiero che asserisce che ChatGPT e altri strumenti simili porteranno a un grande decremento occupazionale in alcuni settori (es. creazione o correzione di contenuti ingegneri, programmatori). Tuttavia, come altre volte in passato, più che a un decremento dei livelli occupazionali assisteremo a una trasformazione del mercato del lavoro che necessiterà di nuove figure professionali e quindi produrrà anche opportunità di lavoro.
I problemi legati a un uso non regolamentato e indiscriminato delle tecnologie di IA non vanno, ovviamente, sottovalutati. Ma la soluzione a queste preoccupazioni non può essere una moratoria allo sviluppo tecnologico e alla ricerca. L’azione del Garante della Privacy ha avuto il merito di sollevare un problema che indubbiamente esiste; tuttavia la strada maestra è quella di introdurre regolamentazioni precise e applicabili, in grado di favorire i processi di crescita delle tecnologie, garantendo nel contempo il rispetto dell’etica, della privacy ed un uso responsabile dell’Intelligenza Artificiale.