Per il paper “Terziarization & Sustainability: New Challenges for Management in the Digital Era” (2025) nella sfida posta dall’IA il manager non è più solo gestore di risorse, ma mediatore tra tecnologia, sostenibilità e umanità: deve orientare ecosistemi complessi, dove il valore nasce dall’interazione tra conoscenza, persone e algoritmi.
Così l’etica digitale diventa una componente strutturale della sostenibilità sociale, organizzativa e ambientale. Secondo Luciano Floridi, l’etica digitale è la filosofia della responsabilità nell’infosfera: uno spazio in cui uomini e tecnologie co-decidono.
La coabitazione con l’IA impone di chiederci non soltanto “possiamo farlo?”, ma “dobbiamo farlo, e in che modo?”. Il Codice europeo dell’intelligenza artificiale (AI Act – Regolamento UE, 2024/1689), ripreso dalla Legge 132/25, traduce i principi dell’etica digitale in obblighi concreti di governance, classifica i sistemi di IA in base al rischio (inaccettabile, alto, limitato o minimo) e stabilisce doveri di trasparenza, tracciabilità, controllo umano e documentazione.
Questo significa dover integrare processi di valutazione etica e legale nelle aziende, al fine di dotarsi di strumenti che migliorino la qualità dei servizi e dei processi, salvaguardando i diritti fondamentali degli utenti e dei cittadini.
Per introdurre concretamente l’etica digitale nell’organizzazione, tre sono i possibili ambiti di intervento: sul piano Governance e responsabilità, è bene istituire un Digital Ethical Officer con competenze interdisciplinari; definire una Digital Ethics Policy integrata nel sistema di gestione aziendale (per la PA nel PIAO); prevedere la valutazione etica d’impatto (Ethical Impact Assessment) per progetti che prevedano l’utilizzo estensivo di tecnologie basate su IA, Big Data, Automazione basata su decisioni algoritmiche.
Per la Formazione si tratta di attivare moduli di etica e cultura digitale; promuovere laboratori di riflessione etica per sviluppare competenze di pensiero critico e “design responsabile”, che prevedano anche l’apporto delle scienze umane. Infine, occorre prevedere audit etico-digitali periodici per verificare l’impatto delle tecnologie sui diritti e sull’equità in base ad indicatori di Ethical Compliance (trasparenza, inclusività, sostenibilità, supervisione umana, responsabilità decisionale).
La compliance ai principi etici digitali può seguire un modello incentrato su: mappatura, valutazione, mitigazione e rendicontazione.
La mappatura consiste nell’identificare i processi decisionali con potenziali impatti etici come nelle politiche di welfare aziendale o nei servizi digitali al cittadino: qui occorre individuare le aree in cui vengono raccolti o elaborati dati sensibili, comportamentali o geolocalizzati.
La valutazione dei rischi etici richiede l’uso di strumenti di Ethical Risk Assessment, basati su criteri europei: trasparenza, equità, sicurezza, accountability, inclusione. La mitigazione, poi, consiste nel definire misure organizzative e tecniche per ridurre i rischi emersi nella valutazione con meccanismi di supervisione nelle decisioni automatizzate, per riesaminare, in caso, ogni scelta algoritmica, o creare una sezione etica nei capitolati di gara per l’acquisizione di sistemi digitali.
Infine, nella fase di rendicontazione si trasforma l’etica digitale in un processo misurabile e trasparente, integrato nei meccanismi di performance e nel bilancio di sostenibilità.




