Un gruppo di ex e attuali dipendenti di OpenAI ha recentemente pubblicato una lettera aperta in cui si evidenziano preoccupazioni crescenti riguardo ai problemi di sicurezza associati alla tecnologia dell’intelligenza artificiale (IA). Secondo questi dipendenti, l’azienda starebbe sottovalutando i rischi e avanzando imprudentemente verso lo sviluppo dell’intelligenza artificiale generale (IAG). Uno dei firmatari della lettera ha stimato una probabilità del 70% che l’IA possa causare danni catastrofici all’umanità a causa delle carenze nelle misure di sicurezza adottate.
Man mano che la tecnologia evolve a un ritmo vertiginoso, l’IA è diventata il fulcro di dibattiti incessanti sui potenziali rischi per la società. Sebbene promossa come in grado di eguagliare o persino superare molte competenze umane, diversi esperti temono che possa rappresentare un pericolo per l’umanità in numerosi modi. Tra i rischi principali si annoverano la perdita massiva di posti di lavoro, la perdita di controllo sui sistemi autonomi di IA, la manipolazione delle informazioni e la diffusione di disinformazione. Anche le stesse aziende sviluppatrici di IA e i pionieri della tecnologia, oltre ad altri esperti, hanno riconosciuto questi pericoli.
Nonostante i numerosi avvertimenti, OpenAI sembra aver instaurato una cultura preoccupante di imprudenza nello sviluppo dei suoi strumenti. Un gruppo di nove ex e attuali dipendenti dell’azienda ha co-firmato una lettera aperta denunciando pratiche di sicurezza discutibili. Tra i firmatari vi sono anche un ex e un attuale dipendente di Google DeepMind, nonché tre pionieri dell’IA: Geoffrey Hinton, Yoshua Bengio e Stuart Russell.
Il gruppo ha affermato che, sebbene alcune norme di sicurezza siano in vigore, esse risultano insufficienti rispetto alla portata dei potenziali impatti. È stata inoltre denunciata la priorità data dall’azienda ai profitti e alla crescita rispetto alla sicurezza, e l’imposizione di una politica restrittiva nei confronti di chi desidera sollevare problemi di sicurezza.
Daniel Kokotajlo, uno dei firmatari e ex ricercatore di OpenAI, ha dichiarato al New York Times che OpenAI sembra ossessionata dalla creazione dell’IAG e si precipita imprudentemente per essere la prima a realizzarla. Kokotajlo ha lasciato l’azienda ad aprile di quest’anno, affermando di aver perso fiducia nell’impegno di OpenAI a comportarsi responsabilmente con la tecnologia.
Assunto da OpenAI nel 2022, Kokotajlo era incaricato di prevedere i progressi dell’IA e i suoi potenziali impatti. Inizialmente stimava che l’IAG sarebbe stata disponibile entro il 2050, ma osservando la rapidità dei progressi, ora crede che vi siano il 50% di probabilità che sia disponibile entro il 2027. Inoltre, stima che ci sia il 70% di probabilità che l’IAG causi danni catastrofici all’umanità (una statistica soprannominata “p(doom)”), date le carenze in materia di sicurezza.
Nonostante l’azienda abbia implementato un protocollo di sicurezza, questo risulta essere insufficiente o non applicato correttamente. Nel 2022, Microsoft ha testato discretamente in India una nuova versione del suo motore di ricerca Bing, alimentata da una versione non ancora approvata di GPT-4. Questo test è stato effettuato senza l’approvazione del comitato di sicurezza, come confermato da Microsoft.
Dopo aver espresso le sue preoccupazioni al CEO di OpenAI, Sam Altman, Kokotajlo non ha visto progressi significativi in materia di sicurezza e trasparenza. Nella lettera aperta, il gruppo afferma che le società di IA possiedono importanti informazioni non pubbliche sulle capacità e i limiti dei loro sistemi, sull’adeguatezza delle misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno poche obbligazioni di condividere queste informazioni con i governi, e nessuna con la società civile.
L’azienda fa inoltre firmare agli ex dipendenti un accordo di non denigrazione, pena la perdita dei capitali acquisiti. Questo accordo implica il divieto di divulgare informazioni negative sull’azienda. Kokotajlo ha lasciato l’azienda rischiando di perdere circa 1,7 milioni di dollari accumulati. Nella lettera aperta, il gruppo scrive che accordi di riservatezza impediscono di esprimere le loro preoccupazioni, tranne che alle stesse aziende che non riescono a risolvere questi problemi.
Tuttavia, OpenAI ha smentito queste affermazioni, dichiarando di non aver mai recuperato i capitali di ex dipendenti e di non aver intenzione di farlo, e ha affermato che rimuoverà le clausole di non denigrazione.
Nella lettera, il gruppo di dipendenti ed ex dipendenti chiede una politica più aperta da parte dell’azienda e un maggiore impegno per la sicurezza e la responsabilità tecnologica. Dopo la pubblicazione della lettera, OpenAI ha rilasciato un aggiornamento affermando di concordare sul fatto che un dibattito rigoroso sia cruciale data l’importanza di questa tecnologia e di voler continuare a collaborare con i governi, la società civile e altre comunità in tutto il mondo.
Share