Quello dell’intelligenza artificiale è un tema estremamente dibattuto. L’opinione pubblica è spaccata e gli esperti anche. Ci si divide infatti tra chi ne ammira la potenza e la grandezza e chi invece teme i suoi possibili effetti “collaterali” soprattutto se mal controllata o peggio ancora controllata da persone che hanno pessimi scopi. E poi c’è un altro argomento scottante: e se le IA dovessero “ribellarsi”, diventando coscienti e potenzialmente pericolose?
Un team internazionale di scienziati informatici, tra cui un membro di OpenAI – la società dietro ChatGPT – ha esplorato questa possibilità, ovvero che modelli di intelligenza artificiale di grandi dimensioni sviluppino consapevolezza situazionale, diventando una minaccia per gli esseri umani. Il team si è proposto di prevedere e sviluppare contromisure nel caso in cui le intelligenze artificiali acquisiscano un certo grado di consapevolezza.
Fino a oggi, il Test di Turing è stato il principale indicatore per valutare se una macchina può replicare il comportamento umano. Tuttavia i ricercatori ritengono che tale test non sia più sufficiente, considerando la complessità dei moderni modelli di intelligenza artificiale. Pertanto, hanno focalizzato la loro attenzione sul “ragionamento fuori contesto”, ossia sulla capacità delle intelligenze artificiali di utilizzare informazioni apprese durante il loro addestramento anche in contesti non direttamente correlati alle domande poste.
Leggi anche: Ecco cosa dicono e provano le galline: inventato un “traduttore” grazie all’intelligenza artificiale
Gli esperimenti iniziali hanno rivelato che, anche se i modelli complessi ottengono risultati migliori, al momento essi sono ancora lontani dal possedere un minimo grado di consapevolezza situazionale. I ricercatori hanno comunque riconosciuto che le contromisure attualmente sviluppate sono approssimative e che il loro studio rappresenta solo un punto di partenza che deve essere costantemente migliorato per affrontare la crescente complessità delle intelligenze artificiali.
Share