UGL Puglia: “Il Governo apra un confronto vero con il sindacato. L’intelligenza artificiale non può essere scaricata sulle spalle dei lavoratori”

Bari, 22 luglio 2025 – L’avvio di una regolamentazione nazionale sull’intelligenza artificiale nel lavoro rappresenta un passo atteso, ma i contenuti delle prime Linee guida pubblicate dal Ministero del Lavoro segnalano una direzione ancora incerta, frammentaria e troppo distante dalle istanze delle lavoratrici e dei lavoratori.

UGL Puglia esprime forte preoccupazione per l’assenza di un coinvolgimento strutturato delle parti sociali. Se l’adozione dell’IA nei luoghi di lavoro è ormai inevitabile, è altrettanto chiaro che non si può procedere senza garantire diritti, sicurezza, contrattazione e partecipazione attiva di chi ogni giorno vive e costruisce il lavoro.

Innovazione senza tutele? No grazie

L’intelligenza artificiale modifica processi produttivi, sistemi di valutazione, ritmi e modalità di lavoro. Non è neutra. Dietro ogni algoritmo c’è una scelta che incide su occupazione, dignità e qualità del lavoro. Eppure le Linee guida trattano l’IA come un fenomeno esclusivamente tecnico, ignorando completamente il ruolo delle organizzazioni sindacali.

Per UGL Puglia è necessario garantire trasparenza, controllo sindacale, accesso ai dati e piena tracciabilità dei processi automatizzati, attraverso norme vincolanti e contratti collettivi aggiornati.

Sicurezza e salute: l’IA non può diventare un fattore di rischio

È grave che manchi un collegamento esplicito tra le Linee guida e la normativa vigente su salute e sicurezza nei luoghi di lavoro (Dlgs 81/2008). L’automazione introduce nuovi rischi fisici e psicosociali: stress da sorveglianza, isolamento professionale, carico cognitivo crescente.

UGL Puglia chiede che l’AI Act europeo venga integrato immediatamente con il quadro nazionale in materia di prevenzione e tutela. Le imprese non devono solo innovare: devono farlo nel rispetto della persona e della salute del lavoratore, come previsto dall’articolo 2087 del Codice Civile.

Serve trasparenza nelle imprese, non solo raccomandazioni

Le Linee guida ignorano del tutto il ruolo dei cosiddetti “deployer” – i datori di lavoro che adottano IA ad alto rischio – e non fanno alcun riferimento alla norma ISO/IEC 42001:2023, già riconosciuta a livello internazionale per garantire standard etici, trasparenza e sicurezza nei sistemi di IA.

Per UGL Puglia è essenziale che questi strumenti vengano resi obbligatori, non lasciati alla discrezionalità delle imprese. Chi utilizza l’IA per gestire personale, turni, premi o licenziamenti, deve rispondere a criteri chiari e verificabili.

La formazione non basta: servono risorse, tempo e diritti

L’unico elemento che raccoglie consenso è l’apertura sulla formazione e alfabetizzazione digitale. Ma non può restare un’indicazione generica. UGL Puglia chiede il riconoscimento di un diritto soggettivo alla formazione digitale retribuita, tutelato dalla contrattazione collettiva e finanziato attraverso fondi dedicati.

Formare i lavoratori è l’unico antidoto possibile contro il rischio di marginalizzazione e automatizzazione cieca. Ma servono strumenti concreti, tempi garantiti e una visione inclusiva.

UGL Puglia: l’IA non può diventare un pretesto per ridurre diritti

L’intelligenza artificiale non può essere un nuovo alibi per comprimere salari, eludere contratti o scaricare il rischio imprenditoriale sui lavoratori. UGL Puglia ribadisce con forza che nessuna transizione può essere sostenibile senza giustizia sociale.

Serve un cambio di rotta: il Governo convochi immediatamente un tavolo nazionale permanente con le organizzazioni sindacali per discutere la governance dell’IA nel lavoro. Ogni scelta fatta oggi avrà un impatto strutturale sul domani.

Innovazione sì, ma con più diritti, più sicurezza, più contrattazione. L’IA non può sostituire il lavoro: deve rispettarlo.