CODICE CONTRO LA DISINFORMAZIONE NELL’AGENDA DIGITALE DELLA MACROREGIONE MEDITERRANEA PER ELIMINARE UN PERICOLO CONCRETO ANCHE PER LA DEMOCRAZIA

da | Feb 21, 2024 | Digitalization and communication

Pericolo concreto anche per la democrazia è la diffusione colpevole delle fake news, parte di un processo involutivo della società  dell’informazione che porta alla  sua destabilizzazione e al riacutizzarsi delle polarizzazioni. Il Quarto Pilastro dell’Agenda è la bussola di orientamento per impedire che anche le recenti innovazioni tecnologiche, prima tra tutte l’Intelligenza Artificiale generativa, possano innescare processi degenerativi nelle dinamiche sociali e accentuare le diseguaglianze anche nell’accesso al digitale.

In presenza di un persistente divario digitale e tenuto conto delle eterogenee condizioni di crescita, le recenti innovazioni prodotte dalle nuove tecnologie emergenti potrebbero innescare, esasperate dalla circolazione di fake news, un processo di accentuata disparità nella distribuzione delle risorse,.

È necessario, dunque, focalizzare le implicazioni negative che l’inquinamento informativo prodotto dal flusso comunicativo di fake news potrebbe generare nel breve-medio-lungo termine, e correre ai ripari, così come prospetta l’Agenda digitale della Macroregione Mediterranea.

LA CLASSIFICAZIONE DELLE FAKE NEWS E LE STRATEGIE DI PERSUASIONE

Le fake news possono essere classificate in tre categorie:

–       Misinformazione: informazioni involontariamente errate o false.

–       Disinformazione: uso deliberato di informazioni manipolative o ingannevoli.

–       Malinformazione: notizie fuorvianti o una versione esagerata della verità.

Se tutto ciò viene  veicolato con gli strumenti di IA generativa, diventa contenuto apparentemente realistico, ingannando e fuorviando.

La pratica di tali strategie ingannatorie  porta ad una serie di conseguenze:

–       manipolazione emotiva: particolari modelli di Intelligenza artificiale sfruttano i fattori emotivi ed i pregiudizi per plasmare opinioni e punti di vista;

–       camere dell’eco e pregiudizi di conferma: i “chatbot” possono rafforzare le convinzioni esistenti creando camere d’eco che convalidano i personali pregiudizi. Se l’utente ha già un determinato punto di vista, l’IA può rafforzarlo presentando informazioni che si allineano alle sue idee preconcette;

–       Prova sociale ed effetto bandwagon: l’IA è in grado di manipolare il sentimento pubblico generando una “prova sociale”.

–       personalizzazione mirata: i “chatbot” hanno accesso a grandi quantità di dati che possono essere raccolti per creare profili personalizzati. Ciò consente di personalizzare i contenuti in base alle preferenze dell’utente. Grazie alla personalizzazione mirata, l’intelligenza artificiale può persuadere gli individui o consolidare ulteriormente le loro opinioni esistenti.

 

“DIGITAL SERVICES ACT” CONTRO LA DISINFORMAZIONE

L’obiettivo, secondo il Quarto Pilastro dell’Agenda digitale della Macroregione Mediterranea, è la co-regolamentazione contro il fenomeno della disinformazione sulla base di un codice di condotta che impegna tutte le principali parti in causa.

Un ‘’Digital Services Act” (1) che permetta una sorta di sorveglianza sulle piattaforme al fine di proteggere gli utenti da disinformazione e, in generale, da ogni  contenuto ingannevole.

Ecco gli strumenti regolamentari e di facile applicazione: la “filigrana”, ovvero la possibilità di rendere rilevabili i contenuti prodotti o modificati dall’IA generativa; “l’etichettatura”, ovvero la possibilità che, in particolare, i media e i social media facciano opera di trasparenza sui contenuti generati dall’Intelligenza artificiale; la “crittografia”, ovvero la possibilità di porre la firma sui contenuti in modo da non consentire la loro conservazione quando vengono alterati senza autorizzazione. In questo modo gli utenti attribuiscono la paternità del prodotto al suo effettivo creatore e viene loro consentito di valutare l’affidabilità delle informazioni.

Le pratiche per “filigranare”  ed “etichettare” i contenuti  generati dall’Intelligenza Artificiale vanno  accompagnate da altre “azioni”:

–       analizzare il modo in cui l’etichettatura del materiale generato dall’IA influisca sulla comprensione dell’informazione;

–       assicurarsi che i “chatbot” IA indirizzino gli utenti verso informazioni autorevoli provenienti da fonti ufficiali, in particolare, quando si tratta di eventi oggettivamente rilevabili; monitorare l’uso di “chatbot” per i “microtargeting” ed i contenuti fuorvianti destinati a scoraggiarne la partecipazione;

–        mantenere alta l’attenzione sui “deepfake” e sull’ambiente informatico;

–        disincentivare la disinformazione e la manipolazione, evitando di dare copertura aggiuntiva a vicende il cui unico interesse è legato all’uso di contenuti generati dall’IA;

–       evitare la centralizzazione e concentrazione delle piattaforme generative di contenuti ed incoraggiare una varietà di strumenti di IA generativa coinvolgendo gli utenti e gli stakeholder nella definizione di barriere sui contenuti.

Si tratta di una serie di indicazioni che si inserisce nell’analisi sull’uso e consumo della comunicazione e dell’informazione digitali del Quarto Pilastro nell’ambito della più vasta strategia della Macroregione Mediterranea.

Domenico Campana

1)https://ec.europa.eu/commission/presscorner/detail/it/ip_23_2413

Translate »