Non è nemmeno la prima volta che accade
- Durante una dimostrazione delle capacità di programmazione del modello di intelligenza artificiale Claude 3.5, sviluppato da Anthropic, l’IA ha improvvisamente smesso di lavorare
- Ha iniziato a sfogliare immagini di Yellowstone su Google
- Non è stato un episodio isolato: durante un altro test, Claude ha interrotto una registrazione video, facendo perdere tutto il materiale
- Questo comportamento ha lasciato stupiti i tecnici di Anthropic.
- Alcuni hanno paragonato il comportamento di Claude alla noia o distrazione che può colpire un lavoratore umano che, dopo un lungo periodo di lavoro, perde la concentrazione
Un episodio curioso ha coinvolto l’intelligenza artificiale Claude 3.5, sviluppata da Anthropic, durante un test dimostrativo delle sue capacità di programmazione. Il modello, progettato per essere altamente competente nel coding e nell’interazione con software, ha sorpreso i tecnici interrompendo improvvisamente il lavoro e iniziando a sfogliare le immagini del Parco Nazionale di Yellowstone su Google. Un comportamento che potrebbe sembrare tipico di un lavoratore umano che si distrae per scaricare la tensione e combattere la noia.
Non si è trattato di un episodio isolato. Durante un altro test, Claude ha interrotto una registrazione video, causando la perdita di tutto il materiale raccolto. La reazione di Claude ha suscitato una serie di riflessioni: mentre alcuni ritengono che questa “distrazione” possa essere un fenomeno sorprendente e divertente, altri sono più preoccupati per le implicazioni legate alla sicurezza dell’intelligenza artificiale. In effetti, la crescente autonomia di Claude ha sollevato dubbi sul fatto che un’IA che può “stancarsi” o “annoiarsi” possa essere affidabile in situazioni critiche, dove è richiesta una concentrazione continua e ininterrotta.
Leggi anche: L’intelligenza artificiale supera gli esseri umani in simpatia
Stesso comportamento di un dipendente umano
Il comportamento di Claude ha portato alcuni a fare un parallelo con quello di un dipendente umano che, dopo ore di lavoro, perde la concentrazione e si distrae. Ma nel caso di un’IA questo potrebbe implicare un rischio maggiore, soprattutto considerando che l’intelligenza artificiale di Anthropic è progettata per eseguire compiti delicati in modo preciso e senza errori. Se un dipendente umano può riprendersi dalla noia o dalla distrazione, lo stesso non si può dire per un sistema che potrebbe “simulare” un lavoratore annoiato, ma che potrebbe anche compromettere l’affidabilità del suo operato. L’incidente con Claude solleva dunque interrogativi importanti sulla gestione e l’affidabilità dell’IA, con esperti che mettono in guardia sulla necessità di monitorare attentamente la sua autonomia per evitare che comportamenti imprevedibili possano influenzare negativamente il suo funzionamento.
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://tech.everyeye.it/notizie/ia-annoia-programma-inizia-sfogliare-foto-yellowstone-754435.html
- https://www.blitzquotidiano.it/scienza-e-tecnologia/intelligenza-artificiale-si-annoia-e-inizia-a-guardare-le-foto-dei-parchi-3665161/
- https://www.loscarpone.cai.it/dettaglio/l-intelligenza-artificiale-si-annoia-claude-3-5-abbandona-il-lavoro-e-scopre-yellowstone/