loader image

CONSULENZA LEGALE PER SISTEMI IA: un approccio privacy by design

Diritto Digitale

Diventa sempre più importante per le software house e le start-up innovative che progettano sistemi di intelligenza artificiale conformarsi alle prescrizioni della normativa privacy (c.d. GDPR), adottando un approccio by design.

Non sorprende quindi la notizia di ieri che vede Apple impegnata ad introdurre una sorta di etichetta privacy per tutte le applicazioni che avranno accesso al suo app store.

In sostanza, gli sviluppatori di app dovranno previamente comunicare quali dati personali sono trattati tramite l’applicazione da loro progettata, oltre alle finalità del trattamento. In questo modo, l’utente riceverà indicazioni di massima sulle tipologie di trattamento, prima di effettuare l’eventuale download.

È un altro segnale che va verso una direzione chiara: la privacy sta diventando un elemento concorrenziale fra imprese innovative, e il tema assume un ruolo ancora più centrale per quelle organizzazioni che sviluppano sistemi di IA in grado di generare decisioni automatizzate mediante l’utilizzo di dati personali (come ad esempio, gli ormai noti sistemi di riconoscimento facciale oppure le applicazioni di credit scoring per valutare l’affidabilità creditizia di una persona).
Come tali, detti sistemi pongono rischi elevati sul fronte dei diritti e delle libertà fondamentali degli utenti, poichè si “nutrono” di una enorme mole di dati che necessitano di continui controlli (dalla fase di raccolta fino a quella di training).

Il rischio, altrimenti, è quelli di utilizzare dati “fallaci” (di scarsa qualità o non realmente rappresentativi di scenari statistici) o addirittura affetti da “bias”, vale a dire pregiudizi o elementi discriminatori che incidono sul risultato finale delle decisioni automatizzate.

Per queste e altre ragioni connesse al grado di raffinatezza tecnologica e ingegneristica raggiunto dalla gran parte dei sistemi IA, oggi non è più rinviabile una attività di auditing legale che sia in grado di esaminare gli algoritimi alla base di tali sistemi, e prima di tutto i set di dati che li alimentano.

Lo Studio Legale Baldrati & Strinati ha da tempo avviato una consulenza legale sul punto, affiancando start-up e altre realtà innovative nella implementazione di un effettivo processo di “privacy by design”, in grado di guidare il cliente nella creazione di sistemi IA conformi ai principi di trasparenza e informazione richiesti dal GDPR.

L’attività di auditing legale volta ad esaminare l’algoritmo e il modello decisionale implementato dai sistemi IA, si fonda su alcuni pilastri:

  • ARCHITETTURA DELL’ALGORITMO: si valuta, tra le altre, la complessità dell’algoritmo, possibili usi secondari, i set di dati che lo alimentano, l’implementazione o meno di logiche di machine learning;
  • OPERATION: si valuta, tra le altre, i dati necessari per le decisioni automatizzate, le possibili attività di profilazione, l’eventuale condivisione dell’output a terze parti;
  • OUTPUT: si valuta, tra le altre, il tipo di output fornito dall’algoritmo, se l’output è prodotto in forma comprensibile e accessibile all’utente e se viene fornito un meccanismo di feedback per l’utente;
  • IMPLEMENTATION: si valuta, tra le altre, gli scopi del processo decisionale automatizzato e la possibilità o meno dell’intervento umano nel corso dell’intero processo.

Da ultimo si offrono una serie di soluzioni condivise con il Cliente, al fine di conformarsi all’art. 22 GDPR, che richiede una serie di requisiti in caso di trattamenti di dati personali interamente automatizzati: dal diritto di ottenere l’intervento umano da parte del titolare del trattamento, al diritto di esprimere la propria opinione e di contestare la decisione automatizzata.

La piena conformità al GDPR rappresenta un elemento di competitività sul mercato per qualsiasi organizzazione che voglia fare dell’innovazione il suo core business. Il grado di sensibilizzazione raggiunto dagli utenti sul tema privacy e i nuovi scenari imposti dalle grandi corporation (come Apple), impongono un cambio di passo sul grado di maturità dei sistemi IA, che devono essere rispettosi dei principi (privacy by design) previsti dal Regolamento Europeo


Articoli recenti

Sistema di Vendita Piramidale: Starlife multata da AGCM

Sistema di Vendita Piramidale: Starlife multata da AGCM

Il caso Starlife: sistema di Vendita Piramidale al bando e multa di 850.000 Euro  Ancora una volta, l’AGCM (l’Autorità Garante della Concorrenza e del Mercato) ha affrontato un caso di Sistema di Vendita Piramidale (LINK PROVVEDIMENTO), la cui diffusione non sembra...

leggi tutto

Scopri anche

Il nostro magazine di approfondimento che racconta i nuovi scenari del diritto applicato al mondo digitale ed alle nuove tecnologie.

Vorresti una consulenza legale?

Programma la tua Videocall

Vorresti approfondire ?

Contattaci 

Tipologia