Di recente, spesso ci ritroviamo a parlare di intelligenza artificiale qui su Melablog, un argomento fortemente discusso e – volendo usare una terminologia social – di tendenza. Più che di Microsoft Bing e Google Bard, l’attenzione è su ChatGPT. Per chi non lo conoscesse, è un modello di chatbot di proprietà di OpenAI basato sull’intelligenza artificiale e sull’apprendimento automatico. Si possono avanzare richieste (anche abbastanza complesse) e dialogare liberamente, su qualsiasi argomento, come se dall’altro lato ci fosse un essere umano.
Ma perché proprio oggi torniamo a parlare di ChatGPT? Perché proprio nel nostro paese è successo qualcosa di assolutamente rilevante: il Garante per la Privacy ha bloccato la creatura di OpenAI.
Il Garante per la Privacy blocca ChatGPT: i motivi
Come un fulmine a cielo sereno, è arrivato l’annuncio ufficiale – via comunicato – del Garante per la Protezione dei Dati Personali italiano: stop immediato a ChatGPT.
Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI.
Si tratta del primo caso al mondo. Ma la domanda che un po’ tutti si stanno ponendo (e non solo in Italia) è la seguente: perché si è arrivati a questo? Ebbene, secondo l’autorità amministrativa, il chatbot raccoglierebbe illecitamente i dati personali degli utenti. Inoltre, lo stesso sarebbe privo di sistemi per verificare l’età dei minori.
ChatGPT […] lo scorso 20 marzo aveva subito una perdita di dati riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
Nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
Affinché ci si possa lasciare alle spalle questo stop, OpenAI – chiede il Garante per la Privacy – deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richieste del Garante. Se questo non dovesse succedere, l’azienda statunitense (che non ha una sede nell’UE ma ha designato un rappresentante nello Spazio economico europeo) dovrà pagare una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.