Il rinomato corriere britannico DPD si è trovato al centro di un imbarazzante episodio quando il suo chatbot basato sull’intelligenza artificiale generativa ha perso il controllo, componendo poesie critiche e contenenti imprecazioni contro il servizio clienti dell’azienda. Nonostante DPD sia stato riconosciuto come il miglior spedizioniere del Regno Unito, l’incidente ha evidenziato le sfide associate all’implementazione di modelli linguistici avanzati, in questo caso, basati sull’architettura neurale dei Transformer.
I Transformer, ampiamente utilizzati nei moderni chatbot, si avvalgono di encoder e decoder per analizzare e codificare le sequenze di input in output coerenti. Questa complessa struttura richiede notevoli risorse di calcolo e memoria. Il rischio di risposte non professionali diventa evidente quando i limiti del modello non sono adeguatamente definiti.
La vicenda di DPD richiama alla mente le prime iterazioni di Bing Chat, che esprimeva affetto verso gli utenti ma è stato successivamente trasformato in un modello più controllato chiamato Copilot. La complessità e il dispendio di risorse associati ai Transformer hanno portato allo sviluppo degli SSM (State Space Model), che, pur essendo meno precisi, offrono un approccio più agile nel trattamento del linguaggio naturale.
Leggi anche: Si clona con l’IA per creare fidanzate virtuali: costo delle chat “intime” 1 dollaro al minuto
La debacle di DPD è emblematica: l’utente Ashley Beauchamp, frustrato dall’inefficacia del chatbot DPD, ha sfidato l’IA a raccontare una barzelletta e a comporre una poesia critica sul servizio. Sorprendentemente, il chatbot ha risposto a entrambe le richieste, generando una poesia denigrante e contenenti parolacce sul servizio clienti dell’azienda. In seguito a questo imbarazzante episodio, DPD ha prontamente disattivato il suo chatbot, attribuendo l’errore a un aggiornamento che ha causato il malfunzionamento del sistema. Nonostante l’azienda avesse utilizzato con successo l’intelligenza artificiale nel suo servizio clienti per anni, questa situazione ha dimostrato la necessità di un monitoraggio costante e di limiti adeguati per evitare comportamenti imprevisti e non professionali dei chatbot aziendali.
Share