Disinformazione e Intelligenza Artificiale sarebbero strettamente collegate: sempre più fake news infatti vengono date per buone e fornirebbero dunque il “la” per una diffusione di notizie pericolose.
Ma in che modo l’Intelligenza Artificiale sarebbe la causa di questa disinformazione globale? Sicuramente il grande, smodato uso che gli utenti fanno dell’IA, e di app come ChatGPT e simili, incrementa la diffusione di notizie che non hanno grosso fondamento, e che vengono pescate in rete dalle cosiddette Intelligenze Artificiali generative e poi rielaborate come se avessero una solida base reale.
Certo però che non si può dare tutta la responsabilità all’Intelligenza Artificiale, che è pur sempre un prodotto dell’intelligenza umana che mette molto di sé nella tecnologia alla base di sistemi informativi sicuramente molto all’avanguardia ma, a quanto pare, limitati in alcune loro sfaccettature.
C’è infatti una componente molto umana nella diffusione della disinformazione e delle fake news: la tendenza dell’essere umano a credere pedissequamente a quanto detto da un’intelligenza artificiale, crea questa sorta di reazione a catena per cui se una risposta a qualunque domanda viene fornita da un’IA, quale che essa sia, viene data per buona e diffusa così come viene percepita. Come porre rimedio?
Secondo uno studio condotto da una gruppo di ricercatori dell’Università di Berkeley, in California, il grosso problema delle Intelligenze Artificiali cosiddette generative nasce dal fatto che, oltre a pescare in rete qualsivoglia tipo di notizia, danno delle risposte molto nette e decise alle domande degli utenti che si rivolgono loro.
Questa “sicurezza” nel dare risposte secche e poco aperte a interpretazioni rende l’utente talmente sicuro della veridicità della risposta ottenuta che automaticamente si dà per buono quanto viene comunicato, ed a catena si crea un circolo vizioso di disinformazione che è poi difficile da interrompere.
A livello psicologico infatti, sempre secondo questo studio, è molto difficile anche cambiare idea rispetto a un’informazione fornita da un’Intelligenza Artificiale e data per buona, il che corrobora la convinzione che quanto detto dall’Intelligenza Artificiale sia praticamente oro colato, anche se in realtà spesso viene dedotto grazie a notizie pescate in rete e soprattutto con presupposti sbagliati.
La soluzione, secondo il gruppo di ricercatori di Berkeley, sarebbe quella di fornire alle Intelligenze Artificiali una sorta di componente psicologica aggiuntiva, che possa tenere conto di eventuali dubbi o incertezze sia rispetto a quanto pescato sul web, sia rispetto alla percezione della risposta da parte dell’utente. Risposte meno rigide dunque, che lascino più possibilità di interpretazione da parte dell’utente.
Conoscere il numero di conto corrente è importante per gestire tutte le operazioni in entrata…
Novità sulla manovra: nel 2024 cambierà l’assetto e l’assegnazione dei bonus, più spazio alla famiglia…
Chi stabilisce quando un lavoratore può andare in ferie? Tutto quello che c'è da sapere…
Il congedo parentale funzionerà diversamente nel 2024: ecco cosa cambierà l'anno prossimo rispetto alla legge…
È allarme per milioni di italiani a rischio della truffa Postepay. Nessuno deve aprire il…
Negli episodi de La Promessa dal 6 al 10 novembre si svelerà un segreto sconvolgente:…