Un episodio curioso ha coinvolto l’intelligenza artificiale Claude 3.5, sviluppata da Anthropic, durante un test dimostrativo delle sue capacità di programmazione. Il modello, progettato per essere altamente competente nel coding e nell’interazione con software, ha sorpreso i tecnici interrompendo improvvisamente il lavoro e iniziando a sfogliare le immagini del Parco Nazionale di Yellowstone su Google. Un comportamento che potrebbe sembrare tipico di un lavoratore umano che si distrae per scaricare la tensione e combattere la noia.
Non si è trattato di un episodio isolato. Durante un altro test, Claude ha interrotto una registrazione video, causando la perdita di tutto il materiale raccolto. La reazione di Claude ha suscitato una serie di riflessioni: mentre alcuni ritengono che questa “distrazione” possa essere un fenomeno sorprendente e divertente, altri sono più preoccupati per le implicazioni legate alla sicurezza dell’intelligenza artificiale. In effetti, la crescente autonomia di Claude ha sollevato dubbi sul fatto che un’IA che può “stancarsi” o “annoiarsi” possa essere affidabile in situazioni critiche, dove è richiesta una concentrazione continua e ininterrotta.
Leggi anche: L’intelligenza artificiale supera gli esseri umani in simpatia
Il comportamento di Claude ha portato alcuni a fare un parallelo con quello di un dipendente umano che, dopo ore di lavoro, perde la concentrazione e si distrae. Ma nel caso di un’IA questo potrebbe implicare un rischio maggiore, soprattutto considerando che l’intelligenza artificiale di Anthropic è progettata per eseguire compiti delicati in modo preciso e senza errori. Se un dipendente umano può riprendersi dalla noia o dalla distrazione, lo stesso non si può dire per un sistema che potrebbe “simulare” un lavoratore annoiato, ma che potrebbe anche compromettere l’affidabilità del suo operato. L’incidente con Claude solleva dunque interrogativi importanti sulla gestione e l’affidabilità dell’IA, con esperti che mettono in guardia sulla necessità di monitorare attentamente la sua autonomia per evitare che comportamenti imprevedibili possano influenzare negativamente il suo funzionamento.
Share