Studio di SaferAI: "Inadeguata la gestione del rischio delle grandi società dell'intelligenza artificiale"

Bene Anthropic. Fanalino di coda Mistral e xAI

BRUXELLES - Promosse, ma non a pieni voti, Anthropic, OpenAI, Google DeepMind. Bocciate Meta, Mistral e xAI. Questa la valutazione dell'organizzazione no-profit francese SaferAI che ha analizzato le pratiche di gestione del rischio dell'intelligenza artificiale delle principali società di IA. La valutazione è stata effettuata tenendo in considerazione tre dimensioni: l'identificazione del rischio, ossia la misura in cui le società hanno affrontato i rischi noti in letteratura e si sono impegnate a rilevare nuove potenziali minacce; la tolleranza e l'analisi del rischio che valuta se le aziende di Ia hanno definito i livelli di rischio accettabili e di conseguenza, gli obiettivi di mitigazione necessari per mantenere i rischi al di sotto dei livelli accettabili; infine la mitigazione del rischio che analizza la chiarezza e la precisione dei piani di mitigazione delle società di IA, che dovrebbero comprendere sia misure di contenimento che di attuazione.

Sulla base di questi criteri, Anthropic ha ottenuto un punteggio moderatamente buono, seguita da OpenAI e Google DeepMind, la cui performance è stata classificata come "debole". Meta ha ottenuto un punteggio insufficiente per quanto riguarda l'analisi e la mitigazione dei rischi, mentre Mistral e xAI hanno ricevuto i punteggi più bassi, classificati come "inesistenti" nella maggior parte delle categorie. Nel complesso quindi, anche le società di Ia con le migliori pratiche di gestione del rischio ottengono comunque un punteggio relativamente basso.

"Resta ancora molto da fare per gestire adeguatamente i rischi legati all'Ia" osserva l'ong, secondo cui "queste valutazioni e questi modelli forniranno alle aziende gli strumenti per sviluppare procedure di gestione dei rischi dell'Ia più complete e trasparenti e porteranno a un miglioramento della sicurezza in generale". 

© RIPRODUZIONE RISERVATA