È stata analizzata la capacità di usare informazioni anche in contesti non correlati alle domande poste
- Un team di scienziati informatici, tra cui un membro di OpenAI, ha esplorato la possibilità che le intelligenze artificiali diventino coscienti e pericolose per gli esseri umani
- I ricercatori ritengono che il Test di Turing non sia più sufficiente per valutare il comportamento delle moderne intelligenze artificiali
- Si sono concentrati sul “ragionamento fuori contesto”, ovvero sulla capacità delle intelligenze artificiali di utilizzare informazioni apprese durante l’addestramento anche in contesti non correlati alle domande poste
- Gli esperimenti iniziali hanno dimostrato che i modelli complessi delle intelligenze artificiali sono ancora lontani dal possedere un minimo grado di consapevolezza situazionale
- Le contromisure attualmente sviluppate sono approssimative e il lavoro dei ricercatori rappresenta solo un punto di partenza per affrontare la crescente complessità delle intelligenze artificiali
- È necessario continuare a migliorare le contromisure per affrontare adeguatamente le possibili implicazioni di una coscienza e pericolosità delle intelligenze artificiali
Quello dell’intelligenza artificiale è un tema estremamente dibattuto. L’opinione pubblica è spaccata e gli esperti anche. Ci si divide infatti tra chi ne ammira la potenza e la grandezza e chi invece teme i suoi possibili effetti “collaterali” soprattutto se mal controllata o peggio ancora controllata da persone che hanno pessimi scopi. E poi c’è un altro argomento scottante: e se le IA dovessero “ribellarsi”, diventando coscienti e potenzialmente pericolose?
Un team internazionale di scienziati informatici, tra cui un membro di OpenAI – la società dietro ChatGPT – ha esplorato questa possibilità, ovvero che modelli di intelligenza artificiale di grandi dimensioni sviluppino consapevolezza situazionale, diventando una minaccia per gli esseri umani. Il team si è proposto di prevedere e sviluppare contromisure nel caso in cui le intelligenze artificiali acquisiscano un certo grado di consapevolezza.
I modelli sono ancora lontani dal possedere un minimo grado di consapevolezza situazionale
Fino a oggi, il Test di Turing è stato il principale indicatore per valutare se una macchina può replicare il comportamento umano. Tuttavia i ricercatori ritengono che tale test non sia più sufficiente, considerando la complessità dei moderni modelli di intelligenza artificiale. Pertanto, hanno focalizzato la loro attenzione sul “ragionamento fuori contesto”, ossia sulla capacità delle intelligenze artificiali di utilizzare informazioni apprese durante il loro addestramento anche in contesti non direttamente correlati alle domande poste.
Leggi anche: Ecco cosa dicono e provano le galline: inventato un “traduttore” grazie all’intelligenza artificiale
Gli esperimenti iniziali hanno rivelato che, anche se i modelli complessi ottengono risultati migliori, al momento essi sono ancora lontani dal possedere un minimo grado di consapevolezza situazionale. I ricercatori hanno comunque riconosciuto che le contromisure attualmente sviluppate sono approssimative e che il loro studio rappresenta solo un punto di partenza che deve essere costantemente migliorato per affrontare la crescente complessità delle intelligenze artificiali.
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.focus.it/tecnologia/innovazione/possibile-prevedere-se-le-ia-diventeranno-coscienti-e-pericolose
- https://www.lescienze.it/news/2023/08/29/news/intelligenza_artificiale_criteri_valutazione_coscienza-13223366/
- https://www.avvenire.it/agora/pagine/macchine-coscienti-e-menti-umane-nei-computer-ecco-gli-scenari