ChatGPT, il robot di intelligenza artificiale sviluppato dalla startup incentrata sull’intelligenza artificiale OpenAI e che ha riscosso successo negli ultimi mesi, è stato bandito dalle autorità italiane.
In un comunicato del Garante per la protezione dei dati personali si afferma che l’app non rispetta i dati degli utenti e non può verificare l’età degli utenti.
Nel comunicato si fa notare che con la decisione “che avrà effetto immediato”, il trattamento dei dati degli utenti italiani da parte di OpenAI sarà temporaneamente limitato.
L’istituzione ha anche annunciato di aver avviato un processo per indagare sulla richiesta.
Tuttavia, l’istituto ha informato che il 20 marzo l’app ha subito una violazione dei dati che coinvolgeva le conversazioni degli utenti e le informazioni di pagamento.
“La raccolta e l’archiviazione dei dati è illegale”
D’altro canto, la giustizia italiana ha ritenuto illegale raccogliere e archiviare dati personali in blocco con l’obiettivo di “addestrare” gli algoritmi che stanno alla base del funzionamento della piattaforma.
È stato inoltre sottolineato che, non avendo modo di verificare l’età degli utenti, l’app “ha esposto i minori a risposte assolutamente inadeguate al loro livello di sviluppo e consapevolezza”.
In caso di violazione verrà inflitta una sanzione di 20 milioni di euro.
La società sarà multata di 20 milioni di euro o del 4% del suo fatturato annuo per aver violato la decisione in questione.
Il blocco di ChatGPT in Italia arriva dopo che l’agenzia di polizia europea Europol ha avvertito che i criminali avrebbero utilizzato l’app per frodi e altri crimini informatici, dal phishing al malware.
Creato dalla startup statunitense OpenAI e alimentato da Microsoft, ChatGPT può rispondere chiaramente a domande difficili, scrivere codice, canzoni o saggi e persino superare esami difficili per gli studenti.
“Tipico nerd dei social media. Giocatore. Appassionato guru di Internet. Generale piantagrane. Studioso del web.”