Intelligenza artificiale annoiata si mette a cercare foto del Parco Nazionale di Yellowstone

Commenti Memorabili CM

Intelligenza artificiale annoiata si mette a cercare foto del Parco Nazionale di Yellowstone

| 20/01/2025

Non è nemmeno la prima volta che accade

  • Durante una dimostrazione delle capacità di programmazione del modello di intelligenza artificiale Claude 3.5, sviluppato da Anthropic, l’IA ha improvvisamente smesso di lavorare
  • Ha iniziato a sfogliare immagini di Yellowstone su Google
  • Non è stato un episodio isolato: durante un altro test, Claude ha interrotto una registrazione video, facendo perdere tutto il materiale
  • Questo comportamento ha lasciato stupiti i tecnici di Anthropic.
  • Alcuni hanno paragonato il comportamento di Claude alla noia o distrazione che può colpire un lavoratore umano che, dopo un lungo periodo di lavoro, perde la concentrazione

 

Un episodio curioso ha coinvolto l’intelligenza artificiale Claude 3.5, sviluppata da Anthropic, durante un test dimostrativo delle sue capacità di programmazione. Il modello, progettato per essere altamente competente nel coding e nell’interazione con software, ha sorpreso i tecnici interrompendo improvvisamente il lavoro e iniziando a sfogliare le immagini del Parco Nazionale di Yellowstone su Google. Un comportamento che potrebbe sembrare tipico di un lavoratore umano che si distrae per scaricare la tensione e combattere la noia.

Non si è trattato di un episodio isolato. Durante un altro test, Claude ha interrotto una registrazione video, causando la perdita di tutto il materiale raccolto. La reazione di Claude ha suscitato una serie di riflessioni: mentre alcuni ritengono che questa “distrazione” possa essere un fenomeno sorprendente e divertente, altri sono più preoccupati per le implicazioni legate alla sicurezza dell’intelligenza artificiale. In effetti, la crescente autonomia di Claude ha sollevato dubbi sul fatto che un’IA che può “stancarsi” o “annoiarsi” possa essere affidabile in situazioni critiche, dove è richiesta una concentrazione continua e ininterrotta.

Leggi anche: L’intelligenza artificiale supera gli esseri umani in simpatia

Stesso comportamento di un dipendente umano

Il comportamento di Claude ha portato alcuni a fare un parallelo con quello di un dipendente umano che, dopo ore di lavoro, perde la concentrazione e si distrae. Ma nel caso di un’IA questo potrebbe implicare un rischio maggiore, soprattutto considerando che l’intelligenza artificiale di Anthropic è progettata per eseguire compiti delicati in modo preciso e senza errori. Se un dipendente umano può riprendersi dalla noia o dalla distrazione, lo stesso non si può dire per un sistema che potrebbe “simulare” un lavoratore annoiato, ma che potrebbe anche compromettere l’affidabilità del suo operato. L’incidente con Claude solleva dunque interrogativi importanti sulla gestione e l’affidabilità dell’IA, con esperti che mettono in guardia sulla necessità di monitorare attentamente la sua autonomia per evitare che comportamenti imprevedibili possano influenzare negativamente il suo funzionamento.

Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend