Il 2024 è indiscutibilmente l’anno in cui le organizzazioni stanno esplorando le reali opportunità dell’intelligenza artificiale o, nei casi più maturi, stanno studiando i modelli di business delle sperimentazioni di successo condotte nel recente passato.
L’adozione di intelligenze artificiali in azienda sarà, con ogni probabilità, sempre più pervasiva e le intelligenze artificiali saranno parte integrante del modello di business di ogni azienda, quantomeno come abilitatore di efficienze.
Tutte le organizzazioni sono però concordi sul fatto che l’integrazione di intelligenze artificiali nel modello di business aziendale vada attentamente valutata, sia in termini di opportunità per il business sia in termini di impatti sulla responsabilità sociale dell’impresa.
Proprio per valutare attentamente gli impatti delle intelligenze artificiali sulla responsabilità sociale dell’impresa nascono, in seno alle organizzazioni, i comitati etici per l’intelligenza artificiale.
Un comitato etico per l’intelligenza artificiale dovrebbe, secondo Reid Blackman (Harvard Business Review Press, 2022) “identificare sistematicamente ed esaurientemente i rischi etici di prodotto basati sull'IA che vengono sviluppati all'interno o acquistati da soggetti terzi, e contribuire ad attenuarli. Quando il team di prodotto e il team degli acquisti gli sottopongono la proposta di una soluzione IA, il comitato deve confermare che la soluzione non pone seri rischi di carattere etico, suggerire delle modifiche e riesaminarla dopo la loro adozione, o sconsigliarne del tutto lo sviluppo o l'acquisto".
E, questo, vale per tutte le organizzazioni, siano esse produttrici di prodotti basati sull’intelligenza artificiale o solo acquirenti e utilizzatrici di prodotti realizzati da altri.
Ma come è possibile identificare sistematicamente ed esaurientemente i rischi etici di prodotto basati sull'intelligenza artificiale che vengono sviluppati all'interno o acquistati da soggetti terzi, e contribuire ad attenuarli? E come è possibile dare evidenza alla catena del valore aziendale che l’azienda adottata questo approccio virtuoso?
Una possibile risposta la offre la normazione tecnica, intesa non come strumento di imposizione e burocratizzazione delle attività aziendali, ma nella sua accezione virtuosa di “attività svolta per stabilire, relativamente a problemi effettivi o potenziali, disposizioni per utilizzi comuni e ripetuti, miranti ad ottenere il miglior ordine in un determinato contesto”, come definito nella UNI CEI EN 45020:2007 “Normazione e attività connesse - Vocabolario generale”.
La normazione tecnica ha infatti prodotto, nel dicembre 2023, la norma ISO/IEC 42001:2023 “Information technology - Artificial intelligence Management system”.
ISO/IEC 42001 è uno standard internazionale che specifica i requisiti per stabilire, implementare, mantenere e migliorare un sistema di gestione dell’intelligenza artificiale, pensato per organizzazioni che producono o utilizzano prodotti e servizi basati su intelligenza artificiale, al fine di assicurare uno sviluppo e un uso responsabile di sistemi basati su IA.
Come si stabilisce, implementa, mantiene e migliora, in accordo alla ISO/IEC 42001, un sistema di gestione dell’intelligenza artificiale?
Innanzitutto, da una analisi di contesto interno ed esterno finalizzata a definire il perimetro di applicabilità di un sistema per la gestione sistematica dei rischi e delle opportunità connesse all’intelligenza artificiale.
E, dall’analisi di contesto, deve inoltre emergere chi sono le parti, interne ed esterne, interessate dal sistema di gestione.
Successivamente, è necessario che l’alta direzione definisca e comunichi chiaramente la politica aziendale per l’intelligenza artificiale e istituisca formalmente ruoli, responsabilità e autorità di governo dell’intelligenza artificiale in azienda.
Il tutto funzionale a governare un’attività sistematica di valutazione di rischi e opportunità legate all’intelligenza artificiale in azienda, il loro potenziale impatto sulle attività aziendali e su tutte le parti interessate, al fine di definire obiettivi e piani di azione per il loro raggiungimento.
Questo paradigma di lavoro aziendale deve essere indubbiamente documentato e deve essere supportato da:
Le prestazioni del modello di governo definito devono, in ultimo, essere monitorate attraverso audit interni sulle parti rilevanti e momenti di riesame in cui è coinvolta l’alta direzione.
Lo Standard è, come detto, uno standard di requisiti del sistema di gestione, quindi certificabile.
Gli Enti di Certificazione hanno riscontrato, fin dai primi giorni dalla pubblicazione della norma, grande interesse verso questo standard e si sono mossi con celerità nella definizione degli schemi di certificazione da accreditare presso Accredia per avviare le attività certificative.
Al momento della redazione del presente articolo i numeri delle aziende che stanno adottando questo paradigma non sono ancora noti in quanto il processo di definizione, da parte degli Enti, degli schemi di certificazione e il loro successivo accreditamento sono ancora in corso.
Pur in assenza di numeri che delineino il fenomeno, la sensazione del mercato è che questo strumento della normazione stia riscontrando l’attenzione attesa e che i benefici per i quali è nato siano percepiti tali dal mercato.
La nostra società è in prima linea nel supportare le organizzazioni nel disegno e nell’implementazione di sistemi di governo dell’intelligenza artificiale, con alcuni casi pioneristici all’attivo.
In particolare, nell’intervenire capitalizziamo le pratiche manageriali già presenti in azienda al fine di conferire, alla gestione del rischio specifico per l’intelligenza artificiale, sistematicità e piena integrazione nella governance aziendale.