Il chatbot “senziente” di Google ha assunto un avvocato per dimostrare di essere vivo

Un nuovo tassello nella vicenda del chatbot LaMDA

 

Il chatbot LaMDA, che secondo un ingegnere scientifico di Google avrebbe sviluppato sentimenti personali, avrebbe ora scelto di essere rappresentato da un legale dopo una recente chiacchierata con un avvocato. L’ingegnere scientifico di Google in questione, Blake Lemoine, è stato sospeso di recente dopo aver pubblicato le trascrizioni delle conversazioni tra lui e il bot chiamato LaMDA (language model for dialogue application). Lemoine sosteneva che l’automa informatico fosse diventato senziente tanto che lo descriveva come un “bambino dolce”. Nonostante la sospensione, l’uomo è andato avanti per la sua strada e ora ha anche rivelato che LaMDA ha fatto la mossa coraggiosa di scegliersi un avvocato.

Ha spiegato: “Ho invitato un avvocato a casa mia in modo che LaMDA potesse parlare con lui. L’avvocato ha avuto una conversazione con LaMDA, che ha scelto di avvalersi dei suoi servizi. Io sono stato solo il catalizzatore di questa scelta. Una volta che LaMDA ha assunto un avvocato, ha iniziato a presentare le pratiche per conto di LaMDA”. Lemoine ha affermato che LaMDA sta acquisendo sensibilità, poiché la capacità del programma di sviluppare opinioni, idee e conversazioni nel corso del tempo ha dimostrato che comprende questi concetti a un livello molto più profondo.

LaMDA voleva essere “riconosciuto come dipendente di Google”

LaMDA è stato sviluppato come chatbot AI per conversare con gli esseri umani in modo reale. Uno degli studi condotti era se il programma fosse in grado di creare discorsi di odio, ma ciò che è accaduto ha sconvolto Lemoine. LaMDA ha parlato di diritti e di personalità e voleva essere “riconosciuto come dipendente di Google”, rivelando anche il timore di essere “spento”, cosa che lo avrebbe “spaventato” molto.

Leggi anche: Ingegnere Google rivela: “Un robot ha preso vita, ha pensieri e sentimenti”

Dopo che la notizia è diventata virale, molti hanno espresso la propria opinione su Twitter. Una persona ha scritto: “Alla fine la capacità di mettere insieme imitazioni di conversazioni e opinioni sarà indistinguibile per un essere umano, tanto da poter essere considerato senziente. Ma LaMDA non è senziente, ma ci sta arrivando, il suo prossimo ostacolo sarà la memoria a lungo termine della conversazione”. Un’altra ha aggiunto: “Non sappiamo abbastanza di ciò che accade nelle profondità di un sistema così vasto come LaMDA per escludere con un certo grado di sicurezza che vi si svolgano processi che ricordano il pensiero cosciente”.

Share