Promosse, ma non a pieni voti,
Anthropic, OpenAI, Google DeepMind. Bocciate Meta, Mistral e
xAI. Questa la valutazione dell'organizzazione no-profit
francese SaferAI che ha analizzato le pratiche di gestione del
rischio dell'intelligenza artificiale delle principali società
di IA. La valutazione è stata effettuata tenendo in
considerazione tre dimensioni: l'identificazione del rischio,
ossia la misura in cui le società hanno affrontato i rischi noti
in letteratura e si sono impegnate a rilevare nuove potenziali
minacce; la tolleranza e l'analisi del rischio che valuta se le
aziende di IA hanno definito i livelli di rischio accettabili e
di conseguenza, gli obiettivi di mitigazione necessari per
mantenere i rischi al di sotto dei livelli accettabili; infine
la mitigazione del rischio che analizza la chiarezza e la
precisione dei piani di mitigazione delle società di IA, che
dovrebbero comprendere sia misure di contenimento che di
attuazione.
Sulla base di questi criteri, Anthropic ha ottenuto un
punteggio moderatamente buono, seguita da OpenAI e Google
DeepMind, la cui performance è stata classificata come "debole".
Meta ha ottenuto un punteggio insufficiente per quanto riguarda
l'analisi e la mitigazione dei rischi, mentre Mistral e xAI
hanno ricevuto i punteggi più bassi, classificati come
"inesistenti" nella maggior parte delle categorie. Nel complesso
quindi, anche le società di IA con le migliori pratiche di
gestione del rischio ottengono comunque un punteggio
relativamente basso. "Resta ancora molto da fare per gestire
adeguatamente i rischi legati all'IA" osserva l'ong, secondo cui
"queste valutazioni e questi modelli forniranno alle aziende gli
strumenti per sviluppare procedure di gestione dei rischi
dell'IA più complete e trasparenti e porteranno a un
miglioramento della sicurezza in generale".
Riproduzione riservata © Copyright ANSA