(di Michele Cassano)
La disinformazione crea un effetto in
qualche modo paradossale: invece di far diminuire la fiducia nei
confronti dei mezzi che la veicolano, produce un senso di
disaffezione nei confronti dei media tradizionali. È inoltre
diffusa l'idea di essere informati sull'intelligenza
artificiale, nonostante la complessità della materia, ma
soprattutto è largamente sufficiente il giudizio
sull'attendibilità dei contenuti generati dall'IA, che viene
considerata un'opportunità anche perché ritenuta imparziale.
Sono i risultati di una ricerca dell'Ipsos, commissionata dal
Dipartimento per l'Informazione e l'Editoria della presidenza
del Consiglio, sulla base della quale la commissione sull'IA
nell'informazione ha avviato la propria analisi.
I dati sono stati resi noti dal sottosegretario all'Editoria
Alberto Barachini nel corso del panel 'L'algoritmo al servizio
dell'uomo. Comunicare nell'epoca dell'intelligenza artificiale',
organizzato in Vaticano. Dal sondaggio emerge che le azioni
attivate in conseguenza di disinformazione sono molteplici, ma
il principale effetto è per la maggioranza quello di fidarsi
meno dei media. Così ha risposto il 24% del campione. Il 22%
sostiene invece di finire con l'usare i social media meno spesso
e il 16% con il fidarsi meno del governo. La percezione
prevalente è di essere abbastanza informati sull'intelligenza
artificiale, in modo più marcato tra gli under 45. 'Questo è
abbastanza paradossale - ha commentato Barachini - perché forse
solo i tecnici lo sono'.
Il giudizio sull'attendibilità dei contenuti informativi
generati dall'IA si attesta sulla sufficienza e il 20% del
campione li ritiene molto affidabili. Non diverso il giudizio
sull'attendibilità dell'informazione in generale, premiata un
po' di più dai 18-24enni. Prevale, ma non domina, il giudizio
che le news generate dall'IA debbano essere verificate da un
umano: per il 52% è necessario che lo siano sempre, mentre per
il 43% dipende dal tipo di contenuti: se ricorrenti (ad esempio
quotazioni di Borsa o risultati sportivi) non è sempre
necessario.
Il giudizio sull'IA si divide tra percezione di opportunità
(24%) e di minaccia (31%), con una leggera prevalenza di chi
ritiene che ci siano entrambe (36%). Colpisce, in particolare,
che l'IA sia vista come opportunità per affidabilità e
imparzialità. I principali vantaggi sono ritenuti infatti:
qualità, precisione, affidabilità (19%); imparzialità 17%;
potenza informativa (14%), velocità (13%).
Barachini ha sottolineato che l'analisi di questi dati genera
preoccupazione, perché emerge la poca consapevolezza del
funzionamento degli algoritmi che sono alla base della creazione
dei contenuti da parte dell'IA. Quindi ha spiegato che il lavoro
della commissione punta a "trasparenza, pluralismo e attenzione
al diritto d'autore", auspicando che sul disegno di legge in
materia, ora all'attenzione del Senato, "ci sia una discussione
condivisa e rapida". Secondo il sottosegretario, "il tema è
garantire una frontiera di libertà e non la schiavitù dagli
algoritmi, ma questa libertà non può che passare da alcune
regole. La differenza è costruirle insieme".
La relazione prodotta dalla commissione, ha sottolineato
Barachini, "è sottoposta a filigranatura e posta su una
blockchain, in modo da garantire la sua unicità e autenticità.
Mi auguro che i sistemi seguano questa visione e lo stanno
facendo. Il Sole 24 Ore ha appena varato un codice di
autodisciplina che segue i contenuti della relazione. L'ANSA sta
lavorando sullo stesso orizzonte. Anche altre agenzie di stampa,
come l'Adnkronos, stanno lavorando sulla marcatura temporale del
contenuto. Sono strategie per arrivare a un processo armonico
per la tutela della nostra libertà di espressione".
Riproduzione riservata © Copyright ANSA