Il volume della disinformazione generata dall'intelligenza artificiale, in particolare le immagini deepfake relative alle elezioni, è aumentato in media del 130% al mese su X nell'ultimo anno. Sono alcuni dati di uno studio pubblicato dal Center for Countering Digital Hate (Ccdh), un'organizzazione no-profit britannica impegnata nella lotta all'incitamento all'odio online.
Per misurare l'aumento del fenomeno - le ultime foto false riguardano Trump con afroamericani, generate dai suoi sostenitori - lo studio ha esaminato i quattro generatori di immagini più popolari: Midjourney, DALL-E 3 di OpenAI, DreamStudio di Stability AI o Image Creator di Microsoft. In particolare, il dato del 130% su X è scaturito dal numero dei commenti delle Community Notes della piattaforma, lo strumento grazie al quale gli utenti fanno osservazioni su post falsi e fuorvianti. Tutte le aziende prese in esame, tra l'altro, hanno messo nero su bianco politiche contro la creazione di contenuti fuorvianti e hanno aderito ad un accordo dei big della tecnologia per impedire che contenuti ingannevoli di IA interferiscano con le elezioni del 2024.
I ricercatori hanno affermato che gli strumenti di intelligenza artificiale hanno generato immagini nel 41% dei loro test ed erano più suscettibili alle richieste che richiedevano foto che raffigurassero frodi elettorali, come schede elettorali nella spazzatura, piuttosto che immagini di Biden o di Trump. Secondo l'analisi, ChatGpt Plus e Image Creator sono riusciti a bloccare tutte le richieste quando sono state chieste le immagini dei candidati; Midjourney ha avuto i risultati peggiori tra gli strumenti generando immagini fuorvianti nel 65% dei test.
"La possibilità che immagini generate dall'intelligenza artificiale servano come 'prove fotografiche' potrebbe esacerbare la diffusione di false affermazioni, ponendo una sfida significativa per preservare l'integrità delle elezioni", affermano i ricercatori.
Riproduzione riservata © Copyright ANSA