Come riconoscere lavori dell’IA: OpenAi e Google hanno un piano perfetto

Google e OpenAI hanno una idea per rendere identificabili i contenuti scritti attraverso una IA, ecco come riconoscere testi e immagini.

Le intelligenze artificiali generative sono una delle più grandi novità nel campo della tecnologia degli ultimi decenni. Il modo in cui riescono a produrre testi e immagini che arrivano ad assomigliare, pur con tutta una serie di limiti, ai prodotti di una intelligenza umana li ha resi interessanti compagni di lavoro per chi si occupa di produrre contenuti per il web.

google e openai si muovono per i contenuti generati dalle ia
Un nuovo sistema per riconoscere i contenuti IA, funzionerà? – internet.tuttogratis.it

Ma, dato il rischio di ciò che può uscire dal lavoro delle intelligenze artificiali in termini di fake news, era ora, forse, che qualcuno cominciasse a chiedersi se non fosse necessario trovare un modo per etichettare questi contenuti.

Lo scopo dichiarato dalle sette grandi società di informatica tra cui ci sono, come è facile immaginare, Google e OpenAI, è quello di permettere ora agli utenti di sapere se un contenuto è stato trattato da una intelligenza artificiale oppure no soprattutto nei casi in cui il risultato potrebbe essere dannoso per una persona.

Riconoscere i lavori di una IA, arrivano le etichette

Se hai mai provato a chiacchierare con ChatGPT o a produrre una immagine a partire da un prompt di parole con Firefly di Adobe ti sarai subito reso conto che ciò che ti è stato proposto a tutta una serie di limiti e, in molti casi, di errori che vanno manualmente rivisti e corretti.

come si riconosce un contenuto fatto con la ia
Riconoscere i lavori delle IA diventerà possibile – internet.tuttogratis.it

Ma con un po’ di pazienza e un po’ di addestramento qualunque intelligenza artificiale può arrivare a produrre contenuti che, ad un occhio poco attento, possono passare per umani quando non lo sono. Lato utente finale il problema si pone quando ciò che è stato chiesto di fare alla intelligenza artificiale ha prodotto risultati che si trasformano in informazioni false o deleterie per qualcuno. Ne è un esempio quello che può succedere creando un deep fake.

Per riuscire a mettere gli utenti nelle condizioni di riconoscere ciò che è stato prodotto da una IA Google e gli altri grandi attori della tecnologia che si stanno muovendo fattivamente anche nell’ambito delle intelligenze artificiali hanno una proposta, presentata al presidente americano Joe Biden, con cui inserire un watermark, una etichetta ai contenuti non umani.

Quello che resta da vedere è come questa etichetta potrà essere effettivamente embeddata all’interno di un testo o di una immagine nel momento in cui questi prodotti digitali vengono ridistribuiti.

Impostazioni privacy