Sappiamo che l’utilizzo dell’intelligenza artificiale nella gestione del personale può portare benefici e comportare allo stesso tempo rischi psicosociali. Un report dell’EU-OSHA investiga come il coinvolgimento delle rappresentanze e dei lavoratori stessi può mitigare questi rischi, riportando alcuni casi studio.

Cosa tratta

Le tecnologie di gestione del personale basate sull’intelligenza artificiale (AIWM) rappresentano un insieme di sistemi che raccolgono dati, spesso in tempo reale, sul luogo di lavoro, l’attività dei lavoratori e gli strumenti digitali utilizzati.

Questi sistemi hanno indubbiamente numerosi vantaggi, sia in termini di incremento dell’efficienza dei processi sia in termini di sicurezza, ad esempio fornendo un supporto decisionale ai leader aziendali e permettendo un’analisi predittiva degli eventi incidentali.

Allo stesso tempo, abbiamo visto come le AIWM possano influire negativamente sul benessere dei lavoratori sul posto di lavoro, che li percepiscono come sistemi controllanti, valutanti su basi non giuste e che lasciano poco spazio al potere decisionale del personale.

Il documento indaga alcune azioni che le organizzazioni possono mettere in atto per implementare con successo queste tecnologie, limitando gli effetti negativi, in particolare coinvolgendo i lavoratori e le loro rappresentanze.

Il ruolo delle rappresentanze

Il documento, oltre a rianalizzare i dati sui rischi psicosociali legati all’utilizzo di tecnologie basate sull’IA, cerca di evidenziare il ruolo positivo che possono avere le rappresentanze dei lavoratori nel mitigare tutte le tipologie di rischi presenti. Il loro coinvolgimento permette ai manager di conoscere rischi a cui sono esposti i lavoratori, che potrebbero essere complessi da identificare, e migliora il processo di individuazione di soluzioni innovative di prevenzione.

Tuttavia, l’impiego di AIWM può rendere più difficile il lavoro e il coinvolgimento delle rappresentanze:

  • le AIWM sono nuove tecnologie di cui ancora i rischi sono noti per lo più a livello alto e la loro integrazione con i sistemi già presenti nelle organizzazioni non rende automatica la presa di coscienza dei rischi che apportano, in pratica non sono evidenti come possono essere i rischi di un nuovo macchinario introdotto;
  • il funzionamento delle AIWM non è spesso trasparente, risultano come delle scatole nere, e, anche conoscendo gli algoritmi che ci stanno dietro, questi non sono di facile comprensione da chi non ha specifiche competenze tecniche;
  • se le AIWM vengono adottate da organizzazioni dove il potere fra datore di lavoro e lavoratori è molto sbilanciato, è molto più complesso, così come in strutture molto frammentate, dove i contatti fra lavoratori e vertici sono praticamente inesistenti.

Come affrontare le nuove sfide

Il report analizza come vengono affrontate queste problematiche dai governi UE e da alcune organizzazioni in Europa.

Partendo dalle normative, che in UE sono principalmente improntate alla protezione dei dati e dei diritti dei singoli e delle collettività, come il regolamento GDPR e l’AI Act, la legge sull’intelligenza artificiale approvata dal Parlamento Europeo, che mette in evidenza che tecnologie che più minacciano i diritti dei cittadini.

Alcuni casi studio presentati mostrano gli sforzi e i risultati ottenuti nell’affrontare i rischi legati alle AIWM con il dialogo con i lavoratori e la contrattazione collettiva. Questi evidenziano soprattutto come quest’ultima può essere uno strumento importante, che permette di concentrare risorse e definire soluzioni per interi settori che affrontano le stesse problematiche.

Conclusioni

Partendo dall’analisi dei dati disponibili in letteratura alle evidenze di diversi casi studio, il report fornisce un quadro dei rischi connessi all’utilizzo dei sistemi di gestione del personale tramite IA e dei possibili strumenti per affrontarli e ridurne l’impatto, portando l’attenzione sul ruolo che possono avere le rappresentanze dei lavoratori.

Il documento presenta esempi su come altre organizzazioni, che si stanno avvicinando a queste tecnologie, potrebbero affrontare la problematica, prevendo i rischi psicosociali.

Per approfondire: