La legge sull’intelligenza artificiale afferma che il controllo umano è fondamentale per i sistemi di intelligenza artificiale ad alto rischio al fine di garantire un uso responsabile, sicuro ed etico dei computer. Impone responsabilità specifiche ai fornitori e promuove la trasparenza e la responsabilità. Esploriamo cosa significa “sorveglianza umana” dal punto di vista tecnologico e cosa impone il Regolamento UE. La centralità dell’essere umano è uno dei principi fondamentali delle decisioni comunitarie nel campo dell’intelligenza artificiale.
Questa scelta promuove il concetto di un’intelligenza artificiale centrata sull’uomo: suggerisce cioè che i sistemi di intelligenza artificiale ad alto rischio dovrebbero essere progettati per essere uno strumento al servizio delle persone, dovrebbero rispettare la dignità degli esseri umani e avere un controllo minimo su di essi. In definitiva, l’uomo deve sempre essere posizionato in una posizione che gli permetta di partecipare alla macchina o di comprenderne i risultati.
Il principio del controllo umano è una delle sette linee guida etiche per un’IA affidabile sviluppate dal gruppo indipendente di esperti di alto livello sull’intelligenza artificiale (HLEG) a seguito della nomina della Commissione europea nel 2019. La supervisione umana è l’implementazione di meccanismi che sono stati progettati (e specificatamente menzionati nelle istruzioni per l’uso che devono accompagnare ogni sistema di IA) per mantenere l’equilibrio tra il concetto di “controllo” e quello di “autonomia” nell’interazione tra uomo e ambiente. Attraverso la supervisione, l’essere umano coinvolto nel funzionamento del sistema può garantire che il sistema funzionerà in modo autonomo e corretto entro i parametri definiti e con lo scopo previsto, consentendo comunque l’intervento umano nei momenti cruciali. I meccanismi di supervisione vengono poi suddivisi in due grandi famiglie: quelli che operano durante lo sviluppo (Development) e quelli che operano durante le operazioni (Deployment o operazioni).