AGI – Stop a ChatGPT in Italia, lo annuncia il ceo di OpenAI, Sam Altman. “Ovviamente – scrive su Twitter – ci rimettiamo al governo italiano e abbiamo smesso di offrire ChatGPT in Italia”. Altman rivendica comunque che “pensiamo di seguire tutte le leggi sulla privacy“. “L’Italia è uno dei miei Paesi preferiti e non vedo l’ora di tornarci presto“, conclude.
La decisione arriva dopo la presa di posizione del Garante per la protezione dei dati personali che “finché non rispetterà la disciplina privacy” ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.
ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.
Nel provvedimento, il Garante privacy rileva “la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di ‘addestrare’ gli algoritmi sottesi al funzionamento della piattaforma“.
Come testimoniato dalle verifiche effettuate, spiega il Garante, “le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto“. Non solo: “nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni”, l’Autorità evidenzia come “l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.
Le ragioni del garante
“L’intelligenza artificiale è una tecnologia tanto preziosa quanto, potenzialmente, pericolosa. Io sono preoccupato solo dall’anomia, cioè dallo sviluppo in assenza di regole”. Lo ha detto il Garante per la Privacy Pasquale Stanzione in un’intervista su La Repubblica.
Il machine learning di ChatGPT può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che fornisce
“Per fortuna come dimostra questo caso – ha proseguito il Garante – un presidio cruciale risiede proprio nella disciplina di protezione dei dati e, quando sarà pronto, interverrà il Regolamento europeo sull’intelligenza artificiale, la cui emanazione è quanto mai urgente”.
Il Garante della Privacy, entrando nel merito del provvedimento, ha spiegato che “la raccolta realizzata per noi illecitamente riguarda, oltre a una quantità enorme di informazioni acquisite dal web, i dati personali degli utenti. Probabilmente anche quelli dei minorenni, visto che ChatGPT non ha un sistema di filtri per la verifica dell’età. Avverte che il servizio è riservato a chi ha più di 13 anni, ma poi non controlla chi vi accede”.
“Il machine learning di ChatGPT – ha sottolineato il Garante – oltretutto, non è legittimato da presupposti giuridici e può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che l’algoritmo fornisce”.