Usiamo i cookie per migliorare la tua esperienza di fruizione

Cliccando su qualsiasi link in questa pagina fornisci il tuo consenso all'uso dei cookie

Italian Chinese (Simplified) English French German Japanese Spanish
Mercoledì, 18 Settembre 2024
Intelligenza artificiale ed imprese: focus sulla tutela dei dati personali - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

Intelligenza artificiale ed imprese: focus sulla tutela dei dati personali - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

APRILE 2024

Secondo il rapporto 2023 dell’Osservatorio sulla Trasformazione Digitale dell’Italia, pubblicato da The European House – Ambrosetti, l’utilizzo dell’intelligenza artificiale (IA) nei settori produttivi sarà sempre più capillare, assumendo un valore strategico a livello di sistema-Paese. Le previsioni, incluse nel rapporto, stimano un valore aggiunto annuo potenziale di 312 miliardi di euro, il quale rappresenterebbe il 18,2% del PIL, e liberebbe 5,7 miliardi ore annue lavorate. Nonostante le grandi potenzialità, sussistono importanti sfide e criticità per l’implementazione dell’IA nel tessuto economico, tra queste, emergono quelle legate all’utilizzo dei dati personali sia nella fase di addestramento dei modelli algoritmici su informazioni per cui è difficoltoso disporre della proprietà intellettuale o del consenso informato, sia rispetto all’output, frequentemente inficiato dalla poca trasparenza del processo di elaborazione. Al fine di affrontare e superare tali problematiche, lo studio evidenzia come l’incremento delle competenze digitali, la promozione della gestione del rischio e la digitalizzazione dei vari processi aziendali siano gli strumenti d’elezione.
Appare però evidente che una corretta gestione della complessa interconnessione tra salvaguardia della privacy e Intelligenza Artificiale necessiti di un approccio integrato che consideri tanto gli elementi tecnici quanto quelli di aderenza alle normative vigenti, integrando riflessioni etiche e considerazioni di natura strategica. L'intento principale dovrebbe essere quello di valorizzare le capacità dell'IA per il miglioramento tecnologico, assicurando, al contempo, la tutela dei diritti essenziali legati alla privacy e alla sicurezza dei dati personali. Nella dinamica e variegata connessione tra protezione della privacy e avanzamento tecnologico, l'impiego degli algoritmi di intelligenza artificiale rappresenta una delle aree più delicate e di rilievo sia per le aziende che per gli organismi di regolamentazione; il punto focale di questa relazione consiste nel trovare un equilibrio tra lo sviluppo tecnologico e la difesa dei diritti basilari degli individui, specialmente il diritto alla privacy. L'intelligenza artificiale, con la sua abilità nell'elaborare e analizzare ampi volumi di dati, ha aperto nuove possibilità nel trattamento e nella generazione di informazioni, apportando significativi vantaggi in termini di efficienza e personalizzazione dei servizi offerti dalle aziende. Questo processo, tuttavia, si fonda sull'uso di estese raccolte di dati che permettono la formazione degli algoritmi e ne affinano l'impiego, per adattarli alle specifiche necessità degli utilizzatori. Si verifica quindi un’interdipendenza strutturale tra IA e dati, inclusi quelli personali, poiché, in ultima analisi, gli algoritmi dell'intelligenza artificiale rappresentano un metodo innovativo e dalle vaste potenzialità per processare e custodire dati. Sullo sfondo del veloce progresso tecnologico dell'IA, le imprese che vogliano integrare le potenzialità della nuova tecnologia ai propri processi, stanno formulando strategie basate su un utilizzo consapevole dei dati personali e incentrate sulla sicurezza dei procedimenti e dei dataset impiegati nella formazione degli algoritmi, sull'elaborazione di meccanismi di privacy dinamici adattati alle scelte degli utenti, sulla trasparenza delle interazioni con IA. Tra gli esempi all’avanguardia in queto campo, l’azienda multinazionale Microsoft sta estendendo l'applicazione dell'IA a diversi suoi prodotti: Bing, Copilot, Edge e il sistema operativo Windows, inserendosi in un dialogo costante con gli enti regolatori. Questo permette un rapido adattamento alle recenti disposizioni legislative e fornisce una base di sperimentazione che mostri l'evoluzione della tecnologia IA e fornisca un banco di prova per eventuali problematiche emergenti. La cooperazione tra imprese e autorità regolative appare infatti fondamentale per aggiornare e migliorare la normativa vigente, fronteggiando un fenomeno in rapida evoluzione come l'intelligenza artificiale. Ad oggi, né gli Stati Uniti né l'Unione Europea hanno un quadro legislativo definitivo per regolare questo campo: negli USA, un ordine esecutivo del Presidente Biden del 30 ottobre 2023 ha fornito una guida per l'intervento nei vari ambiti di applicazione di questa tecnologia. In Europa, è stato raggiunto un accordo sul nuovo regolamento, denominato Artificial Intelligence Act (AI Act), che sarà pienamente vincolante entro due anni.
Nell’attuale contesto normativo europeo, l'impiego dell'IA nel trattamento dei dati personali è guidato dalle disposizioni del Regolamento Generale sulla Protezione dei Dati (GDPR) che rappresenta un compromesso ritenuto ideale dal legislatore, poiché capace di mediare tra le esigenze spesso contrastanti dell'innovazione tecnologica, del mercato e del rispetto dei diritti personali.
Ad oggi, le imprese che decidano d’integrare l'IA per offrire servizi avanzati ai propri clienti, vedono nell'aderenza al GDPR la guida per indirizzare le loro pratiche aziendali in materia di privacy. Il GDPR stabilisce infatti criteri stringenti e all’avanguardia per il trattamento dei dati personali, particolarmente rilevanti nel contesto dell'IA, dove l'uso dei dati è spesso automatizzato e può impattare significativamente sui diritti e libertà degli individui. Un elemento cruciale del GDPR è la necessità di una Valutazione di Impatto sulla Protezione dei Dati (DPIA) per i trattamenti che presentino un alto rischio per i diritti e le libertà delle persone. Nel caso dell'IA, una DPIA dettagliata aiuta a individuare e mitigare i rischi specifici legati a decisioni automatizzate, come nel caso di discriminazioni non intenzionali o dell'uso inappropriato di dati sensibili ricavati della profilazione. La trasparenza verso gli utenti rappresenta un altro caposaldo del GDPR applicato alla nuova tecnologia: le aziende devono fornire informazioni chiare e comprensibili su come i dati vengono raccolti e trattati dall'IA, iniziando dall'acquisizione esplicita del consenso. Ciò implica la necessità d’informare gli utenti in modo trasparente e dettagliato sulle informazioni raccolte e sulle modalità di utilizzo da parte degli algoritmi, includendo il tipo di logica usata per la categorizzazione, l'ampiezza e le conseguenze del trattamento automatizzato. Il consenso deve essere ottenuto secondo criteri di libera espressione, specificità e chiarezza. Il modello legislativo richiede anche che, nel processo di sviluppo e affinamento del sistema IA, l'azienda integri il concetto di privacy by design, garantendo che la protezione dei dati personali sia un elemento fondamentale e prioritario sin dalla progettazione del dataset e della definizione delle funzioni dell'algoritmo. Questo richiede l'adozione di tecniche di pseudonimizzazione e la limitazione dell'uso dei dati esclusivamente per le necessità del servizio offerto, in modo da incrementare la sicurezza del sistema e prevenire il trasferimento delle informazioni a dataset per l'addestramento o l'uso di IA differenti da quelli originariamente autorizzati. L'azienda deve anche assicurare un alto livello di trasparenza nel trattamento dei dati personali, consentendo agli utenti e ai gestori di accedere alle informazioni raccolte e di comprendere come il sistema IA elabori e utilizzi tali dati per le raccomandazioni personalizzate e i suggerimenti. Gli utenti devono inoltre essere in grado di gestire le richieste di rettifica o cancellazione dei dati in modo semplice e tempestivo, attraverso procedure facilmente identificabili.
Queste disposizioni si configurano come una mappa, certo non ancora definitiva né completa in ogni suo aspetto, ma capace fin da ora d’orientare l’azione di quelle aziende che vogliano porsi all’avanguardia nell’utilizzo della rivoluzionaria tecnologia dell’intelligenza artificiale, iniziando a costruire un ambiente digitale sicuro per la propria operatività e un vantaggio competitivo rispetto a coloro i quali intendano aspettare la creazione di standard affermati e di una legislazione totalmente coerente.

Andrea Agostino Fumagalli

(Newletter AIIC n. 01 (2024))