L’intelligenza artificiale ha il 70% di probabilità di danneggiare l’umanità, l’allarme degli ex dipendenti di OpenAI

Commenti Memorabili CM

L’intelligenza artificiale ha il 70% di probabilità di danneggiare l’umanità, l’allarme degli ex dipendenti di OpenAI

| 17/06/2024
Fonte:

Le preoccupazioni sulla sicurezza dell’IA sollevate dagli ex dipendenti di OpenAI

  • Un gruppo di ex e attuali dipendenti di OpenAI ha pubblicato una lettera aperta sollevando preoccupazioni sulla sicurezza dell’IA
  • Viene stimata una probabilità del 70% che l’IA possa causare danni catastrofici all’umanità a causa di carenze nelle misure di sicurezza
  • OpenAI è accusata di dare priorità ai profitti e alla crescita rispetto alla sicurezza
  • Gli ex dipendenti denunciano clausole di riservatezza restrittive che impediscono di esprimere preoccupazioni pubblicamente
  • OpenAI ha risposto affermando di voler rimuovere le clausole di non denigrazione e di impegnarsi in un dibattito rigoroso sulla tecnologia

 

Un gruppo di ex e attuali dipendenti di OpenAI ha recentemente pubblicato una lettera aperta in cui si evidenziano preoccupazioni crescenti riguardo ai problemi di sicurezza associati alla tecnologia dell’intelligenza artificiale (IA). Secondo questi dipendenti, l’azienda starebbe sottovalutando i rischi e avanzando imprudentemente verso lo sviluppo dell’intelligenza artificiale generale (IAG). Uno dei firmatari della lettera ha stimato una probabilità del 70% che l’IA possa causare danni catastrofici all’umanità a causa delle carenze nelle misure di sicurezza adottate.

Man mano che la tecnologia evolve a un ritmo vertiginoso, l’IA è diventata il fulcro di dibattiti incessanti sui potenziali rischi per la società. Sebbene promossa come in grado di eguagliare o persino superare molte competenze umane, diversi esperti temono che possa rappresentare un pericolo per l’umanità in numerosi modi. Tra i rischi principali si annoverano la perdita massiva di posti di lavoro, la perdita di controllo sui sistemi autonomi di IA, la manipolazione delle informazioni e la diffusione di disinformazione. Anche le stesse aziende sviluppatrici di IA e i pionieri della tecnologia, oltre ad altri esperti, hanno riconosciuto questi pericoli.

Cultura imprudente e pratiche discutibili in OpenAI: denunce interne

Nonostante i numerosi avvertimenti, OpenAI sembra aver instaurato una cultura preoccupante di imprudenza nello sviluppo dei suoi strumenti. Un gruppo di nove ex e attuali dipendenti dell’azienda ha co-firmato una lettera aperta denunciando pratiche di sicurezza discutibili. Tra i firmatari vi sono anche un ex e un attuale dipendente di Google DeepMind, nonché tre pionieri dell’IA: Geoffrey Hinton, Yoshua Bengio e Stuart Russell.

Il gruppo ha affermato che, sebbene alcune norme di sicurezza siano in vigore, esse risultano insufficienti rispetto alla portata dei potenziali impatti. È stata inoltre denunciata la priorità data dall’azienda ai profitti e alla crescita rispetto alla sicurezza, e l’imposizione di una politica restrittiva nei confronti di chi desidera sollevare problemi di sicurezza.

Daniel Kokotajlo, uno dei firmatari e ex ricercatore di OpenAI, ha dichiarato al New York Times che OpenAI sembra ossessionata dalla creazione dell’IAG e si precipita imprudentemente per essere la prima a realizzarla. Kokotajlo ha lasciato l’azienda ad aprile di quest’anno, affermando di aver perso fiducia nell’impegno di OpenAI a comportarsi responsabilmente con la tecnologia.

Gravi negligenze in materia di sicurezza e previsioni pessimistiche

Assunto da OpenAI nel 2022, Kokotajlo era incaricato di prevedere i progressi dell’IA e i suoi potenziali impatti. Inizialmente stimava che l’IAG sarebbe stata disponibile entro il 2050, ma osservando la rapidità dei progressi, ora crede che vi siano il 50% di probabilità che sia disponibile entro il 2027. Inoltre, stima che ci sia il 70% di probabilità che l’IAG causi danni catastrofici all’umanità (una statistica soprannominata “p(doom)”), date le carenze in materia di sicurezza.

Nonostante l’azienda abbia implementato un protocollo di sicurezza, questo risulta essere insufficiente o non applicato correttamente. Nel 2022, Microsoft ha testato discretamente in India una nuova versione del suo motore di ricerca Bing, alimentata da una versione non ancora approvata di GPT-4. Questo test è stato effettuato senza l’approvazione del comitato di sicurezza, come confermato da Microsoft.

Dopo aver espresso le sue preoccupazioni al CEO di OpenAI, Sam Altman, Kokotajlo non ha visto progressi significativi in materia di sicurezza e trasparenza. Nella lettera aperta, il gruppo afferma che le società di IA possiedono importanti informazioni non pubbliche sulle capacità e i limiti dei loro sistemi, sull’adeguatezza delle misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno poche obbligazioni di condividere queste informazioni con i governi, e nessuna con la società civile.

Clausole di riservatezza severe per gli ex dipendenti di OpenAI

L’azienda fa inoltre firmare agli ex dipendenti un accordo di non denigrazione, pena la perdita dei capitali acquisiti. Questo accordo implica il divieto di divulgare informazioni negative sull’azienda. Kokotajlo ha lasciato l’azienda rischiando di perdere circa 1,7 milioni di dollari accumulati. Nella lettera aperta, il gruppo scrive che accordi di riservatezza impediscono di esprimere le loro preoccupazioni, tranne che alle stesse aziende che non riescono a risolvere questi problemi.

Tuttavia, OpenAI ha smentito queste affermazioni, dichiarando di non aver mai recuperato i capitali di ex dipendenti e di non aver intenzione di farlo, e ha affermato che rimuoverà le clausole di non denigrazione.

Nella lettera, il gruppo di dipendenti ed ex dipendenti chiede una politica più aperta da parte dell’azienda e un maggiore impegno per la sicurezza e la responsabilità tecnologica. Dopo la pubblicazione della lettera, OpenAI ha rilasciato un aggiornamento affermando di concordare sul fatto che un dibattito rigoroso sia cruciale data l’importanza di questa tecnologia e di voler continuare a collaborare con i governi, la società civile e altre comunità in tutto il mondo.

logo-img
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
Chiedi la correzione di questo articoloValuta il titolo di questa notizia
Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend