Indeed – il sito di ricerca lavoro – ha analizzato l’emergere dei riferimenti all’etica e alla responsabilità nelle descrizioni delle posizioni lavorative legate all’intelligenza artificiale a livello mondiale. I dati, elaborati dall’Indeed Hiring Lab, ne hanno evidenziato un aumento costante, indice di una crescente attenzione all’integrazione etica dell’IA nella società e nel lavoro.

UN TREND GLOBALE A DIVERSE VELOCITÀ

La crescente presenza di menzioni di un paniere di parole chiave, tra cui “IA responsabile” e “IA etica”, nelle offerte di lavoro evidenzia come i riferimenti all’IA responsabile stiano rapidamente guadagnando terreno. Da un dato prossimo allo zero nel 2019, le menzioni nell’ambito delle posizioni legate all’IA hanno raggiunto lo 0,9% nel 2025 (considerando la media di 22 paesi), con un’accelerazione notevole a partire dal 2024. Ciò indica una crescente integrazione delle considerazioni etiche e di governance nelle competenze richieste per l’utilizzo degli strumenti di intelligenza artificiale.

A livello globale, i Paesi Bassi si distinguono con la quota più alta di menzioni (1,7%), seguiti dal Regno Unito (1,2%) e dal Canada (1,16%). Negli Stati Uniti, la crescita degli annunci di lavoro relativi all’IA responsabile è stata particolarmente rapida, raggiungendo l’1,0% a marzo 2025, un dato leggermente superiore rispetto alla media globale. L’Italia, invece, mostra una quota relativamente bassa di riferimenti.

Indeed_HiringLab_Mentions of Responsible AI have accelerated in advanced economies since 2024

La figura illustra l’evoluzione della quota di IA responsabile all’interno degli annunci di lavoro correlati all’IA in otto mercati selezionati (Paesi Bassi, Regno Unito, Canada, Stati Uniti, Australia, Francia, Italia e Germania). L’asse y rappresenta la percentuale di annunci di lavoro sull’IA che menzionano l’IA responsabile, basata su una media mobile a 12 mesi. L’asse x copre il periodo da gennaio 2019 a marzo 2025.

FOCUS NEI SETTORI A FORTE COMPONENTE UMANA

Alcune occupazioni caratterizzate da una marcata componente umana enfatizzano i riferimenti all’IA responsabile più delle occupazioni tecnologiche.

Un’analisi specifica delle posizioni lavorative legate all’IA nel Regno Unito, tra aprile 2024 e marzo 2025, rivela che le occupazioni con le quote più elevate di menzioni legate all’IA responsabile includono il settore legale (6,5%), la matematica (3,3%), la ricerca e sviluppo (3,2%), le scienze sociali (3,1%), l’istruzione e formazione (1,9%) e le assicurazioni (1,7%).

L’adozione di un approccio responsabile all’IA può risultare difatti di cruciale importanza in tali contesti per minimizzare il potenziale di danno e garantire la piena conformità alle normative vigenti. Ad esempio, mentre l’IA può supportare un avvocato nella sintesi e produzione di documenti complessi o altamente tecnici, tale attività deve necessariamente aderire a specifiche linee guida legali ed etiche. Nelle scienze sociali, i ruoli di consulenza politica sfruttano l’IA responsabile per assicurare decisioni etiche, una formulazione trasparente delle politiche e risultati imparziali. Analogamente, le funzioni assicurative si affidano sempre più all’IA per compiti quali la valutazione del rischio, la sottoscrizione e la gestione dei sinistri, processi che richiedono equità, trasparenza e responsabilità.

IA RESPONSABILE: OLTRE LA REGOLAMENTAZIONE

Indeed_Responsible AI isn't correlated with AI regulation alone

La figura illustra la quota percentuale di IA Responsabile/IA (asse y) in relazione a un indicatore composito della forza della legislazione sull’IA (asse x), per paese. L’asse y riflette una media mobile a 12 mesi della quota di IA Responsabile a marzo 2025.

Non esiste una correlazione significativa tra la rigidità della regolamentazione sull’IA in un paese e la frequenza con cui l’IA responsabile viene menzionata negli annunci di lavoro. Paesi con una regolamentazione relativamente limitata sull’IA (come Paesi Bassi, Svizzera, Svezia) mostrano alte menzioni, mentre altri con normative più severe (come il Regno Unito) registrano riferimenti nella media.

Questa discrepanza suggerisce che altri fattori, oltre alla sola regolamentazione, influenzano l’adozione dell’IA responsabile. Tra questi, si evidenziano le differenze transnazionali nelle istituzioni politiche, che possono portare a un maggior numero di leggi indipendentemente dal settore specifico. Inoltre, le dinamiche a livello aziendale giocano un ruolo cruciale: l’adesione alle pratiche di IA responsabile può far parte di una più ampia strategia di brand o reputazionale. Non da ultimo, l’approccio “taglia unica” delle multinazionali, che pubblicano annunci simili a livello globale, può uniformare le richieste indipendentemente dalle specifiche normative locali.

In sintesi, l’adozione dell’IA Responsabile sembra essere maggiormente guidata da incentivi di mercato, responsabilità sociale d’impresa e interessi reputazionali, piuttosto che da meri obblighi normativi.

“L’emergere dell’IA Responsabile nel mercato del lavoro globale, passata da quasi nulla nel 2019 allo 0,9% delle posizioni IA nel 2025, è un segnale chiaro di come le aziende stiano internalizzando la necessità di gestire i rischi legati all’intelligenza artificiale” spiega Pawel Adrjan, Director Economic Research Hiring Lab at Indeed. “I nostri dati mostrano che questa crescita non è solo una risposta a nuove normative, ma è sempre più guidata da fattori come la reputazione aziendale e le strategie di brand. È particolarmente interessante notare come settori a forte impatto umano, come il legale o le scienze sociali, siano in prima linea in questa adozione, evidenziando la centralità di organizzarsi per garantire la minimizzazione dei rischi e la conformità etica. Questo suggerisce che, al di là della pura tecnologia, il futuro dell’IA è intrinsecamente legato alla sua capacità di essere etica e responsabile”.

Per ulteriori approfondimenti si invita a consultare il portale di Indeed hiringlab.org