«L’AI migliora l’efficienza del lavoro. Ma è sempre necessaria una verifica»

L’innovazione Matteo Colombo è l’amministratore delegato della società Labor Project: «Il controllo umano è obbligatorio su qualsiasi tipo di analisi e processo produttivo»

Tre aziende su dieci utilizzano almeno una soluzione di Intelligenza artificiale a supporto dei processi che riguardano le risorse umane.

Secondo l’Osservatorio Hr Innovation practice del Politecnico di Milano, nella maggior parte dei casi si tratta di chatbot o assistenti virtuali a supporto di attività amministrative, navigazione degli applicativi aziendali o nel processo di inserimento di nuovo personale, oppure di sistemi di elaborazione del linguaggio naturale per lo screening dei cv e sistemi di recommendation, per suggerire i contenuti/percorsi formativi più adatti in base alle esigenze della singola persona.

Il 54% delle aziende cerca profili nel campo dell’AI (+25% rispetto al 2023) e il 62% ha iniziato a sperimentare soluzioni di Ia generativa a supporto delle attività lavorative, anche se solo il 12% con una guida diretta da parte dell’organizzazione e linee guida sull’utilizzo.

«Abbiamo già regolato per i nostri uffici l’utilizzo dell’Ia generativa – spiega Matteo Colombo amministratore delegato Labor Project che fornisce servizi di consulenza in diversi ambiti alle imprese e alle pubbliche amministrazioni – Se il nostro ufficio hr vuole dare in pasto cv all’AI, ha delle regole da seguire, come l’anonimizzazione del dato. La seconda regola è che se utilizziamo fornitori, come le società di selezione del personale, che usano già questi strumenti, gli stessi vanno validati, ovvero vanno capite le logiche che vengono utilizzate per la selezione del personale. Le società che scegliamo devono seguire la normativa non solo sull’Ia, ma anche quella sulla privacy».

Il tema è non permettere che l’Ia escluda candidati per un errore di analisi. Per la trasparenza, tutti i prodotti dell’AI devono sempre essere resi noti e comunicati. L’AI viene utilizzata anche per scrivere gli annunci di ricerca personale che adatta ai diversi canali: «Per noi la revisione umana è obbligatoria su qualsiasi analisi, prodotto o testo. L’Ia aiuta molto nel pre screening, come diceva un collega “l’Ia è come uno stagista che ti aiuta all’interno dell’organizzazione, tra due anni sarà probabilmente un collega maturo”». La supervisione umana è richiesta anche dall’AI Act. Si tratta di sistemi e applicazioni che consentono di essere più veloci e di non perdere dati importanti. Labor project utilizza l’Ia nelle ricerche normative o giurisprudenziali «per esempio per capire se ci sono sentenze contro determinate aziende. Cerchiamo sempre di farlo scegliendo fornitori qualificati che ci diano una sorta di analisi di conformità rispetto a quelle che oggi sono linee guida e che da luglio saranno inserite nell’AI Act».

Esistono poi delle politiche di utilizzo, se per esempio si inseriscono dati all’interno di ChatGpt devono essere privi di dati personali che potrebbero alimentare altri database, e bisogna stare attenti a non inserire dati aziendali sensibili: «Una multinazionale ha perso un brevetto perché un ufficio commerciale ha utilizzato ChatGpt per redigere una presentazione». Una volta inseriti, i dati diventano patrimonio comune.

Per le direzioni Hr, il principale impatto di soluzioni Ia nei prossimi cinque anni sarà l’evoluzione dei ruoli e delle competenze, più che la riduzione dell’organico, secondo il 62% l’ascesa dell’AI generativa porterà a un arricchimento di competenze e per il 34% una riqualificazione di ruoli in declino.

© RIPRODUZIONE RISERVATA