DisinfoLab, insufficienti sforzi Big Tech per mitigare i rischi dell'IA

Le misure annunciate dalle piattaforme digitali per affrontare i rischi potenziali derivanti dall'uso dell'intelligenza artificiale per generare disinformazione nella maggior parte dei casi "non aprono un vero e proprio capitolo nella gestione dei contenuti creati dall'IA". È quanto emerge da un rapporto curato da Eu Disinfo Lab, organizzazione indipendente no-profit che si occupa di contrastare la disinformazione a livello europeo. Nel rapporto, che analizza in particolare le politiche di Meta, YouTube, X e TikTok, si sottolinea come le piattaforme abbiano focalizzato la propria attenzione sull'etichettatura dei contenuti IA come soluzione. Emblematico il caso di Meta, che ha "rafforzato il suo approccio all'etichettatura", mostrando "una maggiore riluttanza a rimuovere i contenuti generati dall'IA". Da luglio in poi, Meta non rimuoverà i contenuti generati o manipolati dall'IA esclusivamente sulla base della sua politica sui video manipolati, a meno che non violi altre politiche, come l'interferenza con gli elettori, il bullismo, le molestie, ecc.

Secondo gli esperti, si tratta di un "passo indietro" rispetto alle sfide poste dalla moderazione dei contenuti generati dall'IA. Molti dei problemi già evidenziati persisteranno anche nel 2024, osservano gli esperti, secondo cui l'etichettatura non affronta tutti i rischi posti dalle tecnologie AI. Si compiono pochi sforzi per l'auto-rilevazione, il che può lasciare una scappatoia per i contenuti che l'industria tech o gli utenti non identificano. Inoltre, le piattaforme continuano a trascurare i testi creati con l'IA nelle loro policy, che si riferiscono solo a immagini e video, e più recentemente all'audio. "Ignorare i rischi posti dai testi generati dall'IA - scrivono gli esperti - può essere una negligenza, soprattutto quando aziende di IA come OpenAI hanno recentemente rivelato come i loro strumenti vengono usati per generare dei testi impiegati in alcune operazioni di influenza coperte". 

© RIPRODUZIONE RISERVATA