loader image
MASTER SU INTELLIGENZA ARTIFICIALE: Andrea Baldrati tra i docenti

MASTER SU INTELLIGENZA ARTIFICIALE: Andrea Baldrati tra i docenti

L’intelligenza artificiale è l’ultima frontiera della data protection e il futuro campo da gioco dei nostri diritti fondamentali.

Privacy Network, l’associazione no-profit che ha l’obiettivo di divulgare il tema della protezione dei dati personali e dell’esercizio dei relativi diritti da parte dei cittadini, ha da poco pubblicato un Master online di 4 week-end (20 h.) dal titolo “PRIVACY 4.0: INTELLIGENZA ARTIFICIALE & AUDITING” nel corso del quale parteciperà l’Avv. Andrea Baldrati in qualità di docente.

Il Corso si terrà nei weekend 9-10, 16-17, 23-24, 30-31 Ottobre 2020, il Venerdì dalle ore 14.30 alle ore 17.30, mentre il sabato dalle ore 11.00 fino alle ore 13.00.

1. PRESENTAZIONE DEL CORSO

Il corso affronta in modo trasversale il tema della data protection nel campo dell’intelligenza artificiale, per accrescere le competenze professionali dei partecipanti e fornire gli strumenti necessari ad affrontare i rischi derivanti dall’uso di sistemi di intelligenza artificiale.

Partendo da una descrizione di intelligenza artificiale e delle principali tipologie presenti sul mercato, durante il corso verrà esaminata la strategia europea e italiana per l’intelligenza artificiale.

Sarà poi introdotto e approfondito il tema dei processi decisionali automatizzati alla luce del GDPR, con esame dei rischi per le persone fisiche e i limiti attuali del GDPR.

Ai partecipanti sarà infine presentato un framework per l’audit dei sistemi di intelligenza artificiale, per assicurarne la compliance alla normativa per la protezione dei dati.

2. A CHI È RIVOLTO IL CORSO?

Il corso non richiede particolari competenze pregresse per potervi accedere, in quanto il primo weekend sarà dedicato ad una introduzione all’intelligenza artificiale, partendo però da ciò che non è, al fine di sfatare i numerosi falsi miti che aleggiano intorno a questo tema.
Dunque, il corso si rivolge a:

  • Professionisti della data protection (consulenti, DPO, giuristi specializzati, ecc.);
  • Privacy manager impegnati nella gestione dei processi privacy in azienda;
  • Sviluppatori impegnati nel design di algoritmi di intelligenza artificiale;
  • Chiunque voglia approfondire il tema della data protection nel campo dell’intelligenza artificiale.

3. PREZZO E MODULO DI ISCRIZIONE

Il Prezzo dell’intero corso è di € 273,00 + IVA riservato ai soci di Privacy Network, mentre di € 390,00 + IVA per chi non risulta iscritto all’associazione.
È possibile inoltre acquistare un singolo modulo del corso ad € 70,00 (per i soci) e € 100,00 (per i non soci).

A questo riguardo, vi ricordiamo che l’iscrizione all’associazione per il 2020 è fissata in € 10.00. Per chi fosse interessato, trova tutte le informazioni a questo link.

L’iscrizione del corso, invece, può essere effettuata tramite il modulo che trovate in calce alla brochure allegata di seguito, in cui sono indicate tutte le procedure necessarie per perfezionare la propria iscrizione.


INTELLIGENZA ARTIFICIALE: i 7 principi di una Auditing Legale

INTELLIGENZA ARTIFICIALE: i 7 principi di una Auditing Legale

La progettazione e lo sviluppo di sistemi di intelligenza artificiale (IA) deve seguire canoni legali ed etici, dalla fase di training dei dati – per “allenare” l’algoritmo o il modello implementato – fino alla fase di output, che si sostanzia in una decisione automatizzata il cui esito può avere un forte impatto sui diritti e le libertà di chi è interessato a quella decisione.
Si pensi alla decisione automatizzata relativa alla concessione o meno di un mutuo da parte di una banca, sulla base di un algoritmo IA di credit-scoring che valuta l’affidabilità di un cliente.

Diventa pertanto decisivo dotarsi di risorse e professionalità anche legali che sappiano accompagnare l’impresa o l’ente impegnato nella realizzazione di sistemi IA, nella valutazione di tutti i rischi connessi, oltre alla implementazione di un reale processo di privacy by design (di cui abbiamo già parlato QUI in una recente news).

A tal rigurado, il Gruppo di esperti ad alto livello sull’intelligenza artificiale (AI HLEG), istituito dalla Commissione europea, ha di recente pubblicato linee guide utili al fine di raggiungere tale scopo, suddividendo la fase di auditing in sette diversi principi.

Lo Studio Legale Baldrati & Strinati, nel seguire i propri clienti, si avvale delle più recenti letterature in ambito IA, per modellare la propria consulenza legali agli standard europei, promossi dalla Commissione UE e dagli altri organi comunitari.

In questo senso, vediamo quali sono i 7 principi elencati all’interno delle linee guide, e quali potrebbe essere l’oggetto della relativa consulenza.

1. HUMAN AGENCY & OVERSIGHT (azione umana e controllo)

OGGETTO DELLA CONSULENZA: si studiano tutti gli effetti connessi al rapporto tra l’uomo-utente e il sistema di intelligenza artificiale.

OBIETTIVO #1: implementare una serie di misure by design, per rendere assolutamente trasparente questo rapporto. In particolare, l’utente deve sempre essere messo nelle condizioni di sapere quando un certo “output” o decisione è il risultato di una decisione algoritmica. Inoltre, il sistema IA non deve mai generare confusione, tale per cui l’utente non è in grado di capire se sta interagendo con una “macchina” o con un uomo.

OBIETTIVO #2: Un altro rischio da mitigare è quello connesso ad una dipendenza dell’utente nei confronti dei sistemi IA. Occorre individuare procedure che non inducano l’utente ad affidarsi ciecamente dei sistemi IA (un esempio, in futuro, sarà la guida autonoma).

OBIETTIVO #3: infine si dovrà assicurare che il sistema AI non influenzi la decisione dell’utente, affinchè questa decisione resti autonoma e libera.

OBIETTIVO #4: individuare quale tipo di controllo e di intervento è concesso all’utente nel corso della relazione con il sistema IA, scegliendo fra 4 diverse tipologie indicate dal Gruppo di Esperti

2. TECHNICAL ROBUSTNESS AND SAFETY (solidità tecnica e sicurezza)

OGGETTO DELLA CONSULENZA: valutare se il sistema AI raggiunge un grado di affidabilità accettabile, fornendo servizi che soni che sono giustificabili ex post e che sono resilienti, cioè in grado di gestire cambiamenti inaspettati o contraddittori derivanti dall’interazione umana o ambientale circostante.

OBIETTIVO #1: analizzare i rischi inerenti all’uso del sistema IA, implementando misure e procedure che rispondano ad alti standard di sicurezza informatica – per evitare alterazioni o manipolazioni di dati e garantire in merito alla esattezza e precisione dei dati e delle decisioni.

3. PRIVACY AND DATA GOVERNANCE

OGGETTO DELLA CONSULENZA: analizzare la conformità legale ai principi di protezione dei dati personali (normativa GDPR) e studiare soluzioni di adeguamento del sistema IA

OBIETTIVO #1: effettuare una valutazione dei rischi privacy (Data Protection Impact Assessment), e stabilire le misure necessarie per mitigare i rischi individuati

OBIETTIVO #2: implementare un sistema di Data Governance, che preveda l’esatta conoscenza dei dati acquisiti e trattati (anche tramite un apposito registro), oltre ad una serie di meccanismi che aumentino il livello di sicurezza del trattamento (es. cifratura, pseudonimizzazione)

OBIETTIVO #3: minimizzare i dati trattati allo stretto necessario. Meno dati significa meno responsabilità per chi li tratta.

4. TRANSPARENCY (trasparenza)

OGGETTO DELLA CONSULENZA: analizzare se i dati e i processi che portano alle decisioni del sistema di intelligenza artificiale sono adeguatamente documentati per consentire la tracciabilità delle stesse decisioni. Solo così sarà possibile monitorare sia la qualità dei dati e dei modelli immessi all’interno dell’algoritmo (input), sia la qualità del risultato (output).

OBIETTIVO #1: implementare procedure di log per registrare le decisioni e i processi che hanno portato ad una decisione.

OBIETTIVO #2: documentare ogni fase di decisione, per rendere quella decisione “giustificabile” all’utente se vuole comprenderne la ragione e/o logica.

OBIETTIVO #3: predisporre strumenti per comunicare all’utente quali sono i criteri e le finalità delle decisioni effettuate dall’algoritmo e quali gli eventuali rischi e i possibili margini di errore.

5. DIVERSITY, NON DISCRIMINATION AND FAIRNESS (pluralità, non discriminazione e correttezza)

OGGETTO DELLA CONSULENZA: monitorare i set di dati utilizzati nella fase di progettazione e sviluppo per garantire una composizione plurale e rappresentativa dei dati, evitando o limitando possibili pregiudizi.

OBIETTIVO #1: eliminare o limitare possibili BIAS (effetti discriminatori o parziali) connessi alle decisioni automatizzate dei sistemi IA

OBIETTIVO #2: identificare gli utenti maggiormente esposti a BIAS e informarli adeguatamente

6. SOCIETAL AND ENVIRONMENTAL WELL-BEING (benessere sociale e ambientale)

OGGETTO DELLA CONSULENZA: analizzare gli impatti potenziali del sistema IA sul contesto ambientale e sociale (ad esempio forza lavoro)

OBIETTIVO #1: garantire una efficacia comunicazione agli utenti interessati qualora il sistema IA abbia un impatto sul sistema lavoro

7. ACCOUNTABILITY (responsabilizzazione)

OGGETTO DELLA CONSULENZA: garantire che ogni misura tecnica, organizzative e di sicurezza implementata sia efficacemente documentata, al fine di dimostrare la conformità a normative e buone prassi di settore.

OBIETTIVO: predisporre documentazione e procedure comprensibili agli utenti, ma anche a favore di organi di controllo per dimostrare in maniera efficace la propria conformità alle normative rilevanti

Consulenza Legale per Sistemi IA: un approccio Privacy by Design

Consulenza Legale per Sistemi IA: un approccio Privacy by Design

Cosa significa Privacy by Design?

Di Privacy By Design se ne parla da anni, ma è un termine difficile da ridurre in una semplice definizione perché più che un concetto rappresenta un approccio. Significa infatti considerare i rischi e i problemi di privacy e protezione dei dati fin dalla fase di progettazione di un qualsiasi servizio, prodotto o processo.

 

Un esempio di Privacy by Design?

Se vogliamo restare all’attualità più recente, la Privacy By Design viene sempre più associata all’Intelligenza Artificiale e a quei sistemi che, con l’aiuto di algoritmi di Machine Learning o Deep Learning elaborano i dati degli utenti, per produrre decisioni automatizzate.

Oggi, infatti, il mercato richiede una particolare attenzione su questi temi, e per dare vita a prodotti che siano in linea con gli alti standard di protezione del GDPR (la Normativa Privacy Europea), ingegneri, designer, sviluppatori, esperti di sicurezza informatica e legali sono chiamati a collaborare fin dalle prime fasi di sviluppo.

Si dovrà ad esempio ragionare su quali dati personali effettivamente raccogliere ed elaborare, creando una vera e propria tassonomia dei dati, suddividendoli fra quelli che l’utente salva sul proprio dispositivo (ad esempio: identificatori del device) e quelli che, invece, sono condivisi e salvati sul database del fornitore (ad esempio: credenziali di accesso), fino a quelli che sono inviati anche a terze parti (molto spesso i dati comportamentali dell’utente da cui trarre gusti e preferenze).

Ognuno di questi dati personali pone quesiti diversi in termini di minacce e rischi privacy e di cyber sicurezza, che devono essere monitorati singolarmente.

Questo è solo un piccolo esempio di come applicare il concetto di Privacy By Design ad uno scenario reale, ma se ne potrebbero elencare centinaia, ognuno diverso per ogni fase del progetto. Il punto centrale è che deve essere adottato un approccio proattivo, abbandonando quello reattivo che si focalizza sulle lacune del progetto (ad esempio: mancanza di un’informativa o di un termine di cancellazione dei dati) senza però avere uno sguardo di insieme.

 

Qual è la differenza tra Privacy by Design e Privacy by Default?

La Privacy By Default è – se vogliamo – una componente della Privacy By Design. Rappresenta il livello di protezione dei dati di cui l’utente beneficia di default – appunto – cioè senza dover modificare alcuna impostazione del prodotto o servizio. Si pensi all’installazione di una App sul proprio smartphone e al suo primo utilizzo. È in quel momento che si può misurare la Privacy By Default dell’applicazione.

Quanti e quali dati vengono trattati? Quali misure di sicurezza ha implementato il fornitore? Si lega chiaramente al concetto di minimizzazione dei dati e di limitazione delle finalità, ovvero l’Applicazione dovrebbe trattare solo i dati necessari per le finalità previste.

Se l’utente viene tracciato con l’attivazione di cookie o altri sistemi di tracciamento attivati di default senza il consenso dell’utente è evidente che il principio non verrà rispettato. Ma torniamo al tema principale della Privacy By Design, collegandolo al nuovo campo di applicazione dell’Intelligenza Artificiale.

privacy by design e sistemi ia

 

Privacy by Design: l’esempio di Apple

Diventa sempre più importante per le software house e le start-up innovative che progettano Sistemi di Intelligenza Artificiale (IA) conformarsi alle prescrizioni della Normativa Privacy (cosiddetto GDPR), adottando un approccio di Privacy by Design.

Non sorprende quindi la notizia che vede Apple impegnata ad introdurre una sorta di etichetta privacy per tutte le applicazioni che avranno accesso al suo app store.

In sostanza, gli sviluppatori di app dovranno previamente comunicare quali dati personali sono trattati tramite l’applicazione da loro progettata, oltre alle finalità del trattamento. In questo modo, l’utente riceverà indicazioni di massima sulle tipologie di trattamento privacy, prima di effettuare l’eventuale download.

 

Privacy by Design e Sistemi di Intelligenza Artificiale (IA)

L’esempio di Apple è un altro segnale che va verso una direzione chiara: la privacy sta diventando un elemento concorrenziale tra le imprese innovative, e il tema assume un ruolo ancora più centrale per quelle organizzazioni che sviluppano Sistemi di Intelligenza Artificiale (IA) in grado di generare decisioni automatizzate mediante l’utilizzo di dati personali (come ad esempio, gli ormai noti sistemi di riconoscimento facciale oppure le applicazioni di credit scoring per valutare l’affidabilità creditizia di una persona).

Come tali, detti Sistemi di Intelligenza Artificiale (IA) pongono rischi elevati sul fronte dei diritti e delle libertà fondamentali degli utenti, poiché si “nutrono” di una enorme mole di dati che necessitano di continui controlli (dalla fase di raccolta fino a quella di training).

Il rischio, altrimenti, è quelli di utilizzare dati “fallaci” (di scarsa qualità o non realmente rappresentativi di scenari statistici) o addirittura affetti da “bias”, vale a dire pregiudizi o elementi discriminatori che incidono sul risultato finale delle decisioni automatizzate (per approfondire il tema ne abbiamo parlato in questo articolo).

Per queste e altre ragioni connesse al grado di raffinatezza tecnologica e ingegneristica raggiunto dalla gran parte dei Sistemi di Intelligenza Artificiale (IA), oggi non è più rinviabile una attività di auditing legale che sia in grado di esaminare gli algoritmi alla base di tali sistemi, e prima di tutto i set di dati personali che li alimentano.

 

Privacy by Design per imprese innovative e start up

Lo Studio Legale Baldrati & Strinati ha da tempo avviato una consulenza legale sul punto, affiancando start up e altre realtà innovative nella implementazione di un effettivo processo di Privacy by Design, in grado di guidare il cliente nella creazione di Sistemi di Intelligenza Artificiale (IA) conformi ai principi di trasparenza e informazione richiesti dal GDPR.

L’attività di auditing legale volta ad esaminare l’algoritmo e il modello decisionale implementato dai Sistemi IA, si fonda su alcuni pilastri:

  • Architettura dell’Algoritmo: si valuta, tra le altre, la complessità dell’algoritmo, possibili usi secondari, i set di dati che lo alimentano, l’implementazione o meno di logiche di machine learning.
  • Operation: si valuta, tra le altre, i dati necessari per le decisioni automatizzate, le possibili attività di profilazione, l’eventuale condivisione dell’output a terze parti.
  • Output: si valuta, tra le altre, il tipo di output fornito dall’algoritmo, se l’output è prodotto in forma comprensibile e accessibile all’utente e se viene fornito un meccanismo di feedback per l’utente.
  • Implementation: si valuta, tra le altre, gli scopi del processo decisionale automatizzato e la possibilità o meno dell’intervento umano nel corso dell’intero processo.

Da ultimo si offrono una serie di soluzioni condivise con il Cliente, al fine di conformarsi all’Art. 22 del GDPR, che richiede una serie di requisiti in caso di trattamento dei dati personali interamente automatizzati: dal diritto di ottenere l’intervento umano da parte del titolare del trattamento, al diritto di esprimere la propria opinione e di contestare la decisione automatizzata.

La piena conformità al GDPR rappresenta un elemento di competitività sul mercato per qualsiasi organizzazione che voglia fare dell’innovazione il suo core business. Il grado di sensibilizzazione raggiunto dagli utenti sul tema Privacy e i nuovi scenari imposti dalle grandi corporation (come Apple), impongono un cambio di passo sul grado di maturità dei Sistemi di Intelligenza Artificiale (IA), che devono essere rispettosi dei principi (Privacy by Design) previsti dal Regolamento Europeo.

INTELLIGENZA ARTIFICIALE: in arrivo il nuovo Regolamento Europeo

INTELLIGENZA ARTIFICIALE: in arrivo il nuovo Regolamento Europeo

Negli ultimi giorni la Commissione Europea ha pubblicato un White Paper sulla intelligenza artificiale, annunciando di voler investire 100 miliardi nei prossimi 10 anni per l’innovazione del settore, insieme all’emanazione di un Regolamento ad hoc.

Sulle orme del GDPR (la normativa europea sulla protezione dei dati personali), il futuro Regolamento avrà lo stesso approccio basato sul rischio per i diritti e le libertà fondamentali delle persone fisiche sottoposte a decisioni o scelte di sistemi IA.

La normativa, inoltre, prevederà una serie di principi generali per valutare caso per caso il rischio di un’applicazione IA, sulla base della natura dei dati trattati e delle modalità con cui gli algoritmi elaborano tali dati.

Il Regolamento infatti, secondo le intenzioni della Commissione UE, si applicherà soltanto a quelle applicazioni ad alto rischio, che necessitano di una disciplina ad hoc per mitigare il loro impatto, mentre per le restanti resteranno in vigore le attuali normative.


L’UE dimostra quindi di avere una visione chiara su un tema, quello dell’intelligenza artificiale, che nei prossimi anni inciderà profondamente sulla democrazia europea.

Per ulteriori approfondimenti vi invitiamo a leggere l’analisi dell’Avv. Andrea Baldrati sul blog Juris-Tech, che analizza nel dettaglio le novità presentate con il White Paper della Commissione UE.