Attualità

ChatGPT saluta l’Italia dopo lo stop del Garante della privacy

OpenAi ha sospeso l’accesso al servizio ChatGpt in Italia, dopo lo stop del Garante della privacy al software d’intelligenza artificiale sviluppato dall’organizzazione di ricerca con sede negli Stati Uniti.

Il sito internet dell’applicazione risulta al momento irraggiungibile dal nostro Paese. Un avviso sulla pagina web chat.openai.com. afferma che “il proprietario del sito potrebbe aver impostato restrizioni che impediscono agli utenti di accedere”. “Lavoriamo attivamente per ridurre i dati personali nella formazione dei nostri sistemi di intelligenza artificiale come ChatGpt, perché vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non i privati”, spiega OpenAi. “Riteniamo inoltre che la regolamentazione dell’Ai sia necessaria. Speriamo quindi di poter lavorare al più presto stretto contatto con il Garante per spiegare come i nostri sistemi siano costruiti e utilizzati”, aggiunge l’organizzazione di ricerca sull’intelligenza artificiale

ChatGPT, stop dall’Italia

Nel provvedimento, il Garante privacy rileva “la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di ‘addestrare’ gli algoritmi sottesi al funzionamento della piattaforma“.

Come testimoniato dalle verifiche effettuate, spiega il Garante, “le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto“. Non solo: “nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni”, l’Autorità evidenzia come “l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.

“L’intelligenza artificiale è una tecnologia tanto preziosa quanto, potenzialmente, pericolosa. Io sono preoccupato solo dall’anomia, cioè dallo sviluppo in assenza di regole”. Lo ha detto il Garante per la Privacy Pasquale Stanzione in un’intervista su La Repubblica.

Il machine learning di ChatGPT può generare bias cognitivi perché il database è di due anni fa e quindi si riscontrano inesattezze nelle risposte che fornisce

“Per fortuna come dimostra questo caso – ha proseguito il Garante – un presidio cruciale risiede proprio nella disciplina di protezione dei dati e, quando sarà pronto, interverrà il Regolamento europeo sull’intelligenza artificiale, la cui emanazione è quanto mai urgente”.

Adv
Pulsante per tornare all'inizio