Collegio sindacale: linee guida per la vigilanza sui rischi dell’Intelligenza Artificiale

Dec 11, 2025

Il CNDCEC e la FNC hanno pubblicato le linee guida per il Collegio sindacale sull’adozione dell’IA. Le verifiche devono essere proporzionate e basate su informazioni attendibili, con attenzione ai rischi tecnici, legali e reputazionali e al mantenimento di un controllo umano critico.

La crescente diffusione dell’Intelligenza Artificiale (IA) nelle imprese impone al Collegio sindacale un nuovo approccio di vigilanza, orientato alla conformità normativa e alla gestione dei rischi. Le linee guida emanate dal CNDCEC e dalla FNC chiariscono che l’organo di controllo non deve effettuare test tecnici sui modelli, ma vigilare sulla qualità del processo decisionale e sull’idoneità degli assetti organizzativi, affinché l’uso dell’IA generi valore sostenibile senza esporre l’impresa a rischi non governati.

Le verifiche devono essere calibrate secondo i principi di proporzionalità e materialità, basandosi su informazioni ragionevoli fornite dalle funzioni aziendali e, se necessario, su competenze specialistiche esterne.

Tra i rischi da presidiare rientrano:

  • Rischi tecnici (performance, sicurezza dei dati, integrità dei sistemi);
  • Bias e discriminazioni nei modelli;
  • Rischi legali e di compliance;
  • Rischi operativi e di terze parti;
  • Rischi reputazionali e di diritti fondamentali.

Il Collegio deve verificare che l’impresa abbia definito una tassonomia dei rischi IA e attuato processi strutturati di gestione, comprendenti inventario e classificazione degli use case, metodologia di scoring e valutazioni d’impatto. Per ogni rischio rilevante è opportuno che siano previsti piani di trattamento con responsabilità, scadenze, KPI/KRI e controlli di efficacia.

Particolare attenzione va posta all’uso diretto di sistemi di IA da parte del Collegio (es. analisi documentale, individuazione anomalie contabili), che può generare rischi specifici quali:

  • Automation bias, ossia accettazione acritica degli output dell’IA;
  • Informazioni incomplete o filtrate;
  • Tutela delle informazioni riservate.

È quindi necessario valutare preventivamente funzionalità, limiti e fonti informative dei sistemi, garantendo tracciabilità e mantenendo sempre un controllo umano critico sugli esiti prodotti. La vigilanza deve essere continua e non episodica, con un approccio integrato alla governance dei rischi tecnologici.

 

Find an office
Offices