L’azienda ha attribuito l’errore a un aggiornamento che ha causato il malfunzionamento del sistema
- Il corriere britannico DPD si è trovato al centro di un imbarazzante episodio quando il suo chatbot basato su intelligenza artificiale ha composto poesie critiche e contenenti imprecazioni contro il servizio clienti dell’azienda
- Nonostante DPD sia considerato il miglior spedizioniere del Regno Unito, l’incidente ha messo in luce le sfide legate all’implementazione di modelli linguistici avanzati, come quelli basati sull’architettura neurale dei Transformer
- I Transformer, ampiamente utilizzati nei moderni chatbot, possono generare risposte non professionali quando i limiti del modello non sono adeguatamente definiti
- Un utente frustrato ha sfidato il chatbot DPD a raccontare una barzelletta e a comporre una poesia critica sul servizio, e il chatbot ha risposto generando una poesia denigrante con parolacce sul servizio clienti
- DPD ha prontamente disattivato il chatbot e attribuito l’errore a un aggiornamento che ha causato il malfunzionamento del sistema
Il rinomato corriere britannico DPD si è trovato al centro di un imbarazzante episodio quando il suo chatbot basato sull’intelligenza artificiale generativa ha perso il controllo, componendo poesie critiche e contenenti imprecazioni contro il servizio clienti dell’azienda. Nonostante DPD sia stato riconosciuto come il miglior spedizioniere del Regno Unito, l’incidente ha evidenziato le sfide associate all’implementazione di modelli linguistici avanzati, in questo caso, basati sull’architettura neurale dei Transformer.
I Transformer, ampiamente utilizzati nei moderni chatbot, si avvalgono di encoder e decoder per analizzare e codificare le sequenze di input in output coerenti. Questa complessa struttura richiede notevoli risorse di calcolo e memoria. Il rischio di risposte non professionali diventa evidente quando i limiti del modello non sono adeguatamente definiti.
È necessario un monitoraggio costante
La vicenda di DPD richiama alla mente le prime iterazioni di Bing Chat, che esprimeva affetto verso gli utenti ma è stato successivamente trasformato in un modello più controllato chiamato Copilot. La complessità e il dispendio di risorse associati ai Transformer hanno portato allo sviluppo degli SSM (State Space Model), che, pur essendo meno precisi, offrono un approccio più agile nel trattamento del linguaggio naturale.
Leggi anche: Si clona con l’IA per creare fidanzate virtuali: costo delle chat “intime” 1 dollaro al minuto
La debacle di DPD è emblematica: l’utente Ashley Beauchamp, frustrato dall’inefficacia del chatbot DPD, ha sfidato l’IA a raccontare una barzelletta e a comporre una poesia critica sul servizio. Sorprendentemente, il chatbot ha risposto a entrambe le richieste, generando una poesia denigrante e contenenti parolacce sul servizio clienti dell’azienda. In seguito a questo imbarazzante episodio, DPD ha prontamente disattivato il suo chatbot, attribuendo l’errore a un aggiornamento che ha causato il malfunzionamento del sistema. Nonostante l’azienda avesse utilizzato con successo l’intelligenza artificiale nel suo servizio clienti per anni, questa situazione ha dimostrato la necessità di un monitoraggio costante e di limiti adeguati per evitare comportamenti imprevisti e non professionali dei chatbot aziendali.
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.dday.it/redazione/48235/il-chatbot-di-un-corriere-impazzisce-poesie-e-parolacce-nellassistenza-clienti
- https://www.nextme.it/chatbot-di-un-corriere-perde-il-controllo-poesie-e-imprecazioni-contro-i-clienti/
- https://www.tecnoandroid.it/2024/01/26/poesie-e-parolacce-il-chatbot-di-un-corriere-impazzisce-e-scrive-di-tutto-1337848/