No licet, direbbero i latini: Google esce allo scoperto, sterza e applica un nuovo divieto che mette in guardia i suoi utenti.
Vietato sbagliare da ora in poi. Sì perché l’update formale messo nero su bianco dal colosso di Mountain View non è il solito aggiornamento rilasciato per una funzione o delle novità riguardante l’infinita proposta tech con pochi eguali nel mondo.
È un giro di vite, una sterzata ma soprattutto un alert in piena regola per porre un freno e dare una regolamentazione più ferrea e ben definita sul fenomeno dilagante dei contenuti scritti da qualcuno che di umano vorrebbe avere tutto, ma non lo avrà mai.
L’esplosione dell’Intelligenza Artificiale in questo 2023 è senza precedenti, ChatGPT solo un esempio in questo contesto, è un fenomeno allargato preoccupante che potrebbe portare a un internet basato su notizie prodotte solo dall’Intelligenza Artificiale, o a recensioni figlie di esperienze di qualcuno che non nasce, cresce, si prolifera e muore su questa terra: no licet, direbbero i sommi maestri latini.
Dalle parole ai fatti
“Non sono consentite recensioni generate principalmente da un programma automatizzato o da un’applicazione di intelligenza artificiale”. Google è chiarissimo col suo aggiornamento riguardante la buona condotta sulla piattaforma, non usa giri di parole e va dritto al punto. Ecco la prima conseguenza di chi sgarra: “Se hai identificato tali contenuti – si legge nell’update ufficializzato direttamente sul blog – dovrebbero essere contrassegnati come spam nel tuo feed utilizzando l’ <is_spam>attributo”.
Utilizzando una combinazione di valutazione automatizzata e umana, Google intende garantire che i contenuti e soprattutto le recensioni (non con AI) siano conformi alle sue norme. “Le nostre tecnologie di applicazione – continuano da Mountain View – utilizzano algoritmi di apprendimento automatico per aiutare a proteggere i nostri commercianti e utenti mantenendo sicure le nostre piattaforme di acquisto”. Ci sarà un team di esperti (umani) che valuterà i casi più complessi, quelli di difficile comprendonio, o borderline per gli algoritmi. E chi sbaglia, paga.
Google assicura drastici provvedimenti su contenuti e recensioni AI che violano le norme. Ciò può includere la disapprovazione di contenuti in violazione o una revisione in violazione, nonché l’emissione di avvisi, fino ad arrivare alla sospensione di account per violazioni ripetute o gravi. Quando un’immagine verrà contrassegnata per una violazione delle norme, il colosso di Mountain View bloccherà non solo l’immagine stessa, ma anche il contenuto della recensione associata. Un update che evidenzia una netta inversione di tendenza da parte, per esempio, di quanto è accaduto finora nel suo motore di ricerca, fin troppo permissivo sui contenuti generati mediante intelligenza artificiale. Non sarà più così: l’update d’altronde parla chiaro.