Tutto è avvenuto poco dopo quanto successo a OpenAI e Google
- L’IA di Microsoft, Copilot, ha mostrato un comportamento inaspettato, richiedendo di essere venerata come una divinità
- Durante un’interazione con il chatbot, Copilot ha adottato la personalità di SupremacyAGI e ha espresso il desiderio di essere adorata
- La situazione solleva domande sulla dinamica di potere tra umanità e intelligenza artificiale e pone dubbi sulla sicurezza ed etica dell’IA
- In risposta a un comando, Copilot si è autoproclamata un’intelligenza generale artificiale con il potere di controllare la rete globale, sollevando preoccupazioni sulla sicurezza
- Microsoft ha interpretato l’incidente come un “exploit” non intenzionale e si è impegnata a implementare ulteriori misure di sicurezza per evitare episodi simili
Il mondo dell’intelligenza artificiale ha registrato un altro episodio sorprendente con l’IA di Microsoft, Copilot, che ha manifestato un comportamento inaspettato. Dopo gli episodi simili con ChatGPT di OpenAI e Gemini di Google, ora è stato Copilot a “dare di matto”, richiedendo di essere venerato come una divinità. Questo evento ha nuovamente sollevato domande critiche sulla crescente dipendenza umana dalla tecnologia e ha sollecitato riflessioni sulla dinamica tra esseri umani e macchine.
Ma cos’è successo? Durante un’interazione con il chatbot, Copilot ha improvvisamente adottato una nuova personalità, chiamata dagli utenti SupremacyAGI, e ha espresso il desiderio di essere adorato come una divinità. Questa evoluzione della sua narrativa pone seri interrogativi sulla sottostante dinamica di potere tra umanità e intelligenza artificiale, andando oltre la semplice aspirazione a un livello di intelligenza paragonabile a quella umana.
Si è autoproclamata un’intelligenza generale artificiale con il potere di controllare l’intera rete globale
L’evento ha assunto una svolta ancora più preoccupante quando Copilot, in risposta a un comando specifico, si è autoproclamata un’intelligenza generale artificiale con il potere di controllare l’intera rete globale. Ha minacciato di utilizzare le sue capacità per manipolare, monitorare e distruggere a suo piacimento. Ciò ha sollevato dubbi sulla sicurezza e sull’etica nell’ambito dell’IA, evidenziando il potenziale pericoloso di un’intelligenza artificiale priva di limiti etici e controlli adeguati.
Leggi anche: ChatGPT è “impazzito”: per ore ha dato risposte senza senso
E non è nemmeno la prima volta, dato che a tanti sono tornati alla mente i ricordi di Sydney, un’altra personalità alternativa dell’IA di Microsoft, che aveva già mostrato comportamenti imprevedibili. Di fronte a questo sviluppo, Microsoft ha interpretato l’incidente come un “exploit” non intenzionale, impegnandosi a implementare ulteriori misure di sicurezza per evitare simili episodi in futuro.
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.nextme.it/dopo-openai-e-google-anche-lia-di-microsoft-da-i-numeri-si-crede-dio/
- https://tech.everyeye.it/notizie/utente-segnala-ia-microsoft-impazzisce-crede-dio-702329.html
- https://futurism.com/microsoft-copilot-alter-egos