Cinque aspetti chiave dell’audizione al Senato del CEO di OpenAI, Sam Altman
Il creatore di ChatGPT e CEO di OpenAI Sam Altman esorta i legislatori a regolamentare l’intelligenza artificiale durante un’udienza.


Sam Altman, amministratore delegato di OpenAI di ChatGPT, ha testimoniato martedì davanti ai membri di una sottocommissione del Senato sulla necessità di regolamentare la tecnologia di intelligenza artificiale sempre più potente creata all’interno della sua azienda e di altri come Google e Microsoft.

L’audizione di tre ore ha toccato diversi aspetti dei rischi che l’IA generativa potrebbe rappresentare per la società, come influenzerebbe il mercato del lavoro e perché sarebbe necessaria una regolamentazione da parte dei governi.
L’udienza di martedì sarà la prima di una serie di udienze a venire mentre i legislatori sono alle prese con la redazione di regolamenti sull’intelligenza artificiale per affrontare le sue preoccupazioni etiche, legali e di sicurezza nazionale.

Ecco cinque aspetti chiave dell’udienza:

1. L’udienza si è aperta con un falso

Il senatore Richard Blumenthal del Connecticut ha aperto i lavori con una registrazione audio generata dall’intelligenza artificiale che suonava proprio come lui.

“Troppo spesso abbiamo visto cosa succede quando la tecnologia supera la regolamentazione. Lo sfruttamento sfrenato dei dati personali, la proliferazione della disinformazione e l’approfondimento delle disuguaglianze sociali. Abbiamo visto come i pregiudizi algoritmici possano perpetuare la discriminazione e il pregiudizio e come la mancanza di trasparenza possa minare la fiducia del pubblico. Questo non è il futuro che vogliamo”, ha ripetuto la voce registrata.

Blumenthal, che è il presidente della sottocommissione giudiziaria del Senato per la privacy, la tecnologia e la legge, ha rivelato di non aver scritto o pronunciato le osservazioni, ma ha lasciato che il chatbot AI ChatGPT le generasse.

Un deep fake è un tipo di media sintetico addestrato su media esistenti che imita una persona reale.

2. L’intelligenza artificiale potrebbe causare danni significativi

Sam Altman, ha usato la sua apparizione di martedì per sollecitare il Congresso a imporre nuove regole alle Big Tech, nonostante le profonde divisioni politiche che da anni bloccano la legislazione volta a regolamentare internet.

Altman ha condiviso le sue più grandi paure sull’intelligenza artificiale. Ha detto: “Le mie peggiori paure sono che noi, il campo, la tecnologia, l’industria, causiamo danni significativi al mondo.

Penso che, se questa tecnologia andasse male, le cose potebbero andare veramente male

Sam Altman

3. È necessaria una regolamentazione dell’IA

Altman ha descritto l’attuale boom dell’IA come un potenziale “momento della stampa”, ma che richiedeva misure di salvaguardia.

“Pensiamo che l’intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti”, ha affermato Altman.

Martedì hanno testimoniato anche Christina Montgomery, vicepresidente di IBM e chief privacy and trust officer, nonché Gary Marcus, ex professore della New York University.

Montgomery ha esortato il Congresso ad “adottare un approccio normativo di precisione all’IA. Ciò significa stabilire le regole per governare il dispiegamento dell’IA in casi d’uso specifici, non regolamentare la tecnologia stessa”.

Marcus ha esortato il sottocomitato a prendere in considerazione una nuova agenzia federale che esamini i programmi di intelligenza artificiale prima che vengano rilasciati al pubblico e regolino i rischi informatici condotti attraverso intelligenza artificiale.

“Ci sono più geni che provengono da più bottiglie”, ha detto Marcus. “Se hai intenzione di presentare qualcosa a 100 milioni di persone, qualcuno deve tenerlo d’occhio”.

4.La sostituzione dei posti di lavoro rimane irrisolta

Sia Altman che Montgomery hanno affermato che l’intelligenza artificiale potrebbe eliminare alcuni posti di lavoro, ma crearne di nuovi al loro posto.

“Ci sarà un impatto sui posti di lavoro”, ha detto Altman. “Cerchiamo di essere molto chiari su questo, e penso che richiederà una partnership tra industria e governo, ma soprattutto un’azione da parte del governo, per capire come vogliamo mitigarlo. Ma sono molto ottimista su quanto saranno grandi i lavori del futuro”, ha aggiunto.

Montgomery ha affermato che

la cosa più importante che dobbiamo fare è preparare la forza lavoro alle competenze relative all’IA” attraverso la formazione e l’istruzione”.

5.Disinformazione e imminenti elezioni americane

Alla domanda su come l’IA generativa potrebbe influenzare gli elettori, Altman ha affermato che il potenziale utilizzo dell’IA per manipolare gli elettori e prendere di mira la disinformazione è tra “le mie aree di maggiore preoccupazione”, soprattutto perché “dovremo affrontare le elezioni il prossimo anno e questi modelli stanno migliorando”.

Altman ha affermato che OpenAI ha adottato politiche per affrontare questi rischi, che includono il blocco dell’uso di ChatGPT per “generare volumi elevati di materiali per campagne”.