In un momento in cui
l'Intelligenza Artificiale (IA) assume un ruolo sempre più
centrale nel nostro quotidiano, sorge la necessità di affrontare
questioni legate alla trasparenza e all'affidabilità dei
sistemi. Una sfida che è nelle corde di Giovanni Stilo, docente
al dipartimento di Ingegneria dell'Informazione, Informatica e
Matematica e direttore del Corso di Laurea in Data Science
dell'Università degli Studi dell'Aquila indicato tra le 500
eccellenze italiane in materia di IA in una mappa dalla
redazione Italian Tech di Repubblica.
I suoi interessi di ricerca riguardano l'apprendimento
automatico e il 'data mining', in particolare l'apprendimento
per rinforzo, il rilevamento di anomalie, il 'temporal mining',
l'analisi delle reti sociali, la medicina di rete e i sistemi di
raccomandazione semantici. "Un aspetto cruciale - spiega - è la
questione dell'affidabilità (trustworthiness) e dell'equità
degli algoritmi. Si è riscontrato che in diversi contesti, come
ad esempio nei sistemi Usa di prevenzione della recidiva
criminale, gli algoritmi possono perpetuare e amplificare
pregiudizi e disuguaglianze presenti nei dati di addestramento.
Questo è emerso chiaramente in studi come quello sul dataset
Compas, strumento di raccomandazione dove la popolazione
afroamericana è apparsa svantaggiata dalle previsioni di
recidività. È quindi essenziale mitigare questi 'bias',
garantendo che gli algoritmi siano addestrati su dati equi e che
i risultati siano equi e affidabili".
In rappresentanza di Univaq, il professor Stilo ha
partecipato a Vancouver alla recente conferenza internazionale
organizzata dall'AAAI, Association for the Advancement of
Artificial Intelligence. "Delle circa 9mila proposte di studio
pervenute - spiega - ne sono state considerate circa duemila ed
è stata affrontata la questione della privacy e della proprietà
dei dati. Con il crescente utilizzo di sistemi di IA che
richiedono grandi quantità di dati per l'addestramento, sorgono
interrogativi sul controllo e sull'utilizzo etico di tali
informazioni. Il concetto di 'unlearning' (disapprendimento)
emerge come una prospettiva interessante, consentendo di
rimuovere o mascherare dati sensibili". Molte ricerche si
concentrano su approcci innovativi. Ad esempio, l'utilizzo di
meccanismi di "diritto all'oblio".
Riproduzione riservata © Copyright ANSA