
Le recenti linee guida emanate dal Comitato Europeo per la Protezione dei Dati (EDPB), il “Garante dei Garanti” europei, rappresentano un monito fondamentale per tutte le organizzazioni – quali aziende private, enti locali o amministrazioni pubbliche – che si apprestano ad acquisire e implementare sistemi di Intelligenza Artificiale.
Queste direttive, che puoi trovare qui, sebbene formalmente non vincolanti ma semplicemente “fortemente consigliate”, dovrebbero a mio avviso essere considerate un obbligo imprescindibile.
I principi generali che le sostengono sono universalmente condivisibili, ma la loro applicazione pratica è tutt’altro che semplice, soprattutto quando gli algoritmi di IA agiscono come una vera e propria “scatola nera” (black box).
Parte dal presupposto che l’uso da parte dell’IA di dati personali comporta rischi significativi per i diritti e le libertà fondamentali delle persone (come la privacy).
Per questo, le organizzazioni hanno l’obbligo di “rendere conto” (secondo il Principio di Accountability) delle modalità attraverso cui identificano e mitigano tali rischi.
Il documento fornisce un quadro analitico per identificare e trattare i rischi, concentrandosi sulle misure tecniche (i “controlli”) per gestirli.
Capire La “Black Box” – Interpretability (Interpretabilità)
Per rispettare la legge, l’organizzazione (l’acquirente o sviluppatore) deve avere le capacità di comprendere il sistema di IA che utilizza.
In particolare si parla di Interpretability (Interpretabilità) ovvero la capacità di capire come un modello di IA prende le sue decisioni, e di Explainability (Spiegabilità) ossia la capacità di fornire spiegazioni chiare e coerenti sul perché è stata presa una specifica decisione. Interpretability e Explainability sono strumenti cruciali per le organizzazioni, ma sono solo la base per poi adempiere all’obbligo di Trasparenza verso gli interessati.
Queste linee guida analizzano i rischi di non conformità raggruppandoli in base ai principi fondamentali della protezione dei dati (GDPR).
Il principio di Correttezza (Fairness)
Ponendo come esempio il Principio di Correttezza (Fairness) è importante rendere noto il rischio scaturito dai “bias” (pregiudizi insiti all’algoritmo) sulla base dei quali le decisioni dell’ΙA vengono prese. Se per esempio questa viene addestrata con dati che riflettono iniquità storiche, per esempio con dati principalmente su uomini bianchi, le sue decisioni saranno ingiuste (biased) per le donne o le minoranze.
Il principio di accuratezza (Accuracy)
Un altro dei principi su cui si può riflettere riguarda l’Accuratezza: vengono chiamate ‘allucinazioni’ i dati di output inesatti che, insieme ai Data drift (deterioramento della qualità dei dati nel tempo, che rende il modello obsoleto), sono tra i maggiori rischi da controllare.
Proprio in virtù delle problematiche legate all’accuratezza e alla potenziale responsabilità dei sistemi di Intelligenza Artificiale, OpenAI (la società creatrice di ChatGPT) ha da tempo stabilito e recentemente rafforzato la propria politica di sicurezza e le relative misure di protezione.
Tale politica vieta al software di fornire diagnosi mediche dirette o consigli medici personalizzati. Questa misura è un controllo essenziale per la gestione del rischio inerente alla salute, per evitare di incombere in situazioni ad alto rischio tramite l’erogazione di diagnosi mediche senza il giudizio di un professionista qualificato, la quale violerebbe direttamente il principio di accuratezza del GDPR e le normative del Regolamento AI (AI Act), mettendo a rischio la sicurezza del fruitore.
Questa restrizione evidenzia la necessità per i developer di imporre limitazioni chiare per i casi d’uso che hanno un impatto diretto sulla vita e sulla salute delle persone.
Uno dei rischi più critici che i sistemi di intelligenza artificiale presentano sotto il profilo del trattamento dei dati personali è la potenziale violazione del Principio di Minimizzazione dei Dati.
Questo principio, fondamentale per il GDPR, stabilisce che i dati personali trattati da qualsiasi sistema debbano essere limitati a quanto strettamente necessario per la finalità dichiarata
I sistemi di IA hanno fame di dati
Nel mondo dell’IA, questo principio può essere facilmente messo in crisi. I modelli di apprendimento automatico possiedono una “fame di dati” che provoca una raccolta e archiviazione indiscriminata di dati personali che ne può compromettere la riservatezza.
Questo fattore può giocare anche il ruolo di moltiplicatore di rischio per quanto riguarda i data breach. Se un’organizzazione archivia una quantità esorbitante di dati non necessari, l’eventuale fallimento dei controlli di sicurezza o un attacco informatico non porterà solo alla compromissione del sistema, ma causerà la divulgazione di un volume di dati personali di gran lunga superiore al dovuto.
Limitazione dei dati
Per questo motivo, la Guida dell’EDPS sottolinea come il Titolare del trattamento debba imporre politiche di conservazione rigorose e fare un uso massiccio di tecniche di anonimizzazione e pseudonimizzazione (pseudonymisation) il prima possibile dopo l’acquisizione di un certo dato, per garantire che l’esposizione ad eventuali attacchi sia quantomeno limitata.
Controlli Essenziali prima degli acquisti
Le linee guida sottolineano che il processo di Acquisto (Procurement) è cruciale. È fondamentale che controlli vengano fatti prima di impegnare il budget, per evitare rischi indesiderati.
Perciò Le organizzazioni devono in primo luogo Valutare il Rischio, eseguendo un’analisi approfondita (DPIA – Valutazione d’Impatto sulla Protezione dei Dati) per ogni sistema di IA che si intende utilizzare. Questa analisi deve essere svolta congiuntamente dal personale coinvolto (DPO, IT, Acquisti).
In secondo luogo bisogna anche che scelgano e implementino misure tecniche per mitigare i rischi, come l’utilizzo di tecniche di anonimizzazione e pseudonimizzazione, l’implementazione di sistemi di filtraggio dell’output per rilevare e bloccare la divulgazione di informazioni personali (soprattutto per l’AI generativa), l’implementazione di metodi di rilevamento del Data Drift e sistemi di monitoraggio della qualità dei dati in entrata, o l’intervento umano per mantenere alta l’accuratezza.
Potremo attuare questi principi mediante l’adozione di concrete misure tecniche e organizzative?
Pronti ad affrontare l’obbligo di Accountability e a implementare le misure tecniche (anonimizzazione, pseudonimizzazione, DPIA) necessarie per l’IA? La conformità al GDPR inizia ora.
Contattateci per discutere i dettagli di una collaborazione mirata alla sicurezza e alla legalità dei vostri sistemi.
