loader image
MASTER SU INTELLIGENZA ARTIFICIALE: Andrea Baldrati tra i docenti

MASTER SU INTELLIGENZA ARTIFICIALE: Andrea Baldrati tra i docenti

L’intelligenza artificiale è l’ultima frontiera della data protection e il futuro campo da gioco dei nostri diritti fondamentali.

Privacy Network, l’associazione no-profit che ha l’obiettivo di divulgare il tema della protezione dei dati personali e dell’esercizio dei relativi diritti da parte dei cittadini, ha da poco pubblicato un Master online di 4 week-end (20 h.) dal titolo “PRIVACY 4.0: INTELLIGENZA ARTIFICIALE & AUDITING” nel corso del quale parteciperà l’Avv. Andrea Baldrati in qualità di docente.

Il Corso si terrà nei weekend 9-10, 16-17, 23-24, 30-31 Ottobre 2020, il Venerdì dalle ore 14.30 alle ore 17.30, mentre il sabato dalle ore 11.00 fino alle ore 13.00.

1. PRESENTAZIONE DEL CORSO

Il corso affronta in modo trasversale il tema della data protection nel campo dell’intelligenza artificiale, per accrescere le competenze professionali dei partecipanti e fornire gli strumenti necessari ad affrontare i rischi derivanti dall’uso di sistemi di intelligenza artificiale.

Partendo da una descrizione di intelligenza artificiale e delle principali tipologie presenti sul mercato, durante il corso verrà esaminata la strategia europea e italiana per l’intelligenza artificiale.

Sarà poi introdotto e approfondito il tema dei processi decisionali automatizzati alla luce del GDPR, con esame dei rischi per le persone fisiche e i limiti attuali del GDPR.

Ai partecipanti sarà infine presentato un framework per l’audit dei sistemi di intelligenza artificiale, per assicurarne la compliance alla normativa per la protezione dei dati.

2. A CHI È RIVOLTO IL CORSO?

Il corso non richiede particolari competenze pregresse per potervi accedere, in quanto il primo weekend sarà dedicato ad una introduzione all’intelligenza artificiale, partendo però da ciò che non è, al fine di sfatare i numerosi falsi miti che aleggiano intorno a questo tema.
Dunque, il corso si rivolge a:

  • Professionisti della data protection (consulenti, DPO, giuristi specializzati, ecc.);
  • Privacy manager impegnati nella gestione dei processi privacy in azienda;
  • Sviluppatori impegnati nel design di algoritmi di intelligenza artificiale;
  • Chiunque voglia approfondire il tema della data protection nel campo dell’intelligenza artificiale.

3. PREZZO E MODULO DI ISCRIZIONE

Il Prezzo dell’intero corso è di € 273,00 + IVA riservato ai soci di Privacy Network, mentre di € 390,00 + IVA per chi non risulta iscritto all’associazione.
È possibile inoltre acquistare un singolo modulo del corso ad € 70,00 (per i soci) e € 100,00 (per i non soci).

A questo riguardo, vi ricordiamo che l’iscrizione all’associazione per il 2020 è fissata in € 10.00. Per chi fosse interessato, trova tutte le informazioni a questo link.

L’iscrizione del corso, invece, può essere effettuata tramite il modulo che trovate in calce alla brochure allegata di seguito, in cui sono indicate tutte le procedure necessarie per perfezionare la propria iscrizione.


INTELLIGENZA ARTIFICIALE: i 7 principi di una Auditing Legale

INTELLIGENZA ARTIFICIALE: i 7 principi di una Auditing Legale

La progettazione e lo sviluppo di sistemi di intelligenza artificiale (IA) deve seguire canoni legali ed etici, dalla fase di training dei dati – per “allenare” l’algoritmo o il modello implementato – fino alla fase di output, che si sostanzia in una decisione automatizzata il cui esito può avere un forte impatto sui diritti e le libertà di chi è interessato a quella decisione.
Si pensi alla decisione automatizzata relativa alla concessione o meno di un mutuo da parte di una banca, sulla base di un algoritmo IA di credit-scoring che valuta l’affidabilità di un cliente.

Diventa pertanto decisivo dotarsi di risorse e professionalità anche legali che sappiano accompagnare l’impresa o l’ente impegnato nella realizzazione di sistemi IA, nella valutazione di tutti i rischi connessi, oltre alla implementazione di un reale processo di privacy by design (di cui abbiamo già parlato QUI in una recente news).

A tal rigurado, il Gruppo di esperti ad alto livello sull’intelligenza artificiale (AI HLEG), istituito dalla Commissione europea, ha di recente pubblicato linee guide utili al fine di raggiungere tale scopo, suddividendo la fase di auditing in sette diversi principi.

Lo Studio Legale Baldrati & Strinati, nel seguire i propri clienti, si avvale delle più recenti letterature in ambito IA, per modellare la propria consulenza legali agli standard europei, promossi dalla Commissione UE e dagli altri organi comunitari.

In questo senso, vediamo quali sono i 7 principi elencati all’interno delle linee guide, e quali potrebbe essere l’oggetto della relativa consulenza.

1. HUMAN AGENCY & OVERSIGHT (azione umana e controllo)

OGGETTO DELLA CONSULENZA: si studiano tutti gli effetti connessi al rapporto tra l’uomo-utente e il sistema di intelligenza artificiale.

OBIETTIVO #1: implementare una serie di misure by design, per rendere assolutamente trasparente questo rapporto. In particolare, l’utente deve sempre essere messo nelle condizioni di sapere quando un certo “output” o decisione è il risultato di una decisione algoritmica. Inoltre, il sistema IA non deve mai generare confusione, tale per cui l’utente non è in grado di capire se sta interagendo con una “macchina” o con un uomo.

OBIETTIVO #2: Un altro rischio da mitigare è quello connesso ad una dipendenza dell’utente nei confronti dei sistemi IA. Occorre individuare procedure che non inducano l’utente ad affidarsi ciecamente dei sistemi IA (un esempio, in futuro, sarà la guida autonoma).

OBIETTIVO #3: infine si dovrà assicurare che il sistema AI non influenzi la decisione dell’utente, affinchè questa decisione resti autonoma e libera.

OBIETTIVO #4: individuare quale tipo di controllo e di intervento è concesso all’utente nel corso della relazione con il sistema IA, scegliendo fra 4 diverse tipologie indicate dal Gruppo di Esperti

2. TECHNICAL ROBUSTNESS AND SAFETY (solidità tecnica e sicurezza)

OGGETTO DELLA CONSULENZA: valutare se il sistema AI raggiunge un grado di affidabilità accettabile, fornendo servizi che soni che sono giustificabili ex post e che sono resilienti, cioè in grado di gestire cambiamenti inaspettati o contraddittori derivanti dall’interazione umana o ambientale circostante.

OBIETTIVO #1: analizzare i rischi inerenti all’uso del sistema IA, implementando misure e procedure che rispondano ad alti standard di sicurezza informatica – per evitare alterazioni o manipolazioni di dati e garantire in merito alla esattezza e precisione dei dati e delle decisioni.

3. PRIVACY AND DATA GOVERNANCE

OGGETTO DELLA CONSULENZA: analizzare la conformità legale ai principi di protezione dei dati personali (normativa GDPR) e studiare soluzioni di adeguamento del sistema IA

OBIETTIVO #1: effettuare una valutazione dei rischi privacy (Data Protection Impact Assessment), e stabilire le misure necessarie per mitigare i rischi individuati

OBIETTIVO #2: implementare un sistema di Data Governance, che preveda l’esatta conoscenza dei dati acquisiti e trattati (anche tramite un apposito registro), oltre ad una serie di meccanismi che aumentino il livello di sicurezza del trattamento (es. cifratura, pseudonimizzazione)

OBIETTIVO #3: minimizzare i dati trattati allo stretto necessario. Meno dati significa meno responsabilità per chi li tratta.

4. TRANSPARENCY (trasparenza)

OGGETTO DELLA CONSULENZA: analizzare se i dati e i processi che portano alle decisioni del sistema di intelligenza artificiale sono adeguatamente documentati per consentire la tracciabilità delle stesse decisioni. Solo così sarà possibile monitorare sia la qualità dei dati e dei modelli immessi all’interno dell’algoritmo (input), sia la qualità del risultato (output).

OBIETTIVO #1: implementare procedure di log per registrare le decisioni e i processi che hanno portato ad una decisione.

OBIETTIVO #2: documentare ogni fase di decisione, per rendere quella decisione “giustificabile” all’utente se vuole comprenderne la ragione e/o logica.

OBIETTIVO #3: predisporre strumenti per comunicare all’utente quali sono i criteri e le finalità delle decisioni effettuate dall’algoritmo e quali gli eventuali rischi e i possibili margini di errore.

5. DIVERSITY, NON DISCRIMINATION AND FAIRNESS (pluralità, non discriminazione e correttezza)

OGGETTO DELLA CONSULENZA: monitorare i set di dati utilizzati nella fase di progettazione e sviluppo per garantire una composizione plurale e rappresentativa dei dati, evitando o limitando possibili pregiudizi.

OBIETTIVO #1: eliminare o limitare possibili BIAS (effetti discriminatori o parziali) connessi alle decisioni automatizzate dei sistemi IA

OBIETTIVO #2: identificare gli utenti maggiormente esposti a BIAS e informarli adeguatamente

6. SOCIETAL AND ENVIRONMENTAL WELL-BEING (benessere sociale e ambientale)

OGGETTO DELLA CONSULENZA: analizzare gli impatti potenziali del sistema IA sul contesto ambientale e sociale (ad esempio forza lavoro)

OBIETTIVO #1: garantire una efficacia comunicazione agli utenti interessati qualora il sistema IA abbia un impatto sul sistema lavoro

7. ACCOUNTABILITY (responsabilizzazione)

OGGETTO DELLA CONSULENZA: garantire che ogni misura tecnica, organizzative e di sicurezza implementata sia efficacemente documentata, al fine di dimostrare la conformità a normative e buone prassi di settore.

OBIETTIVO: predisporre documentazione e procedure comprensibili agli utenti, ma anche a favore di organi di controllo per dimostrare in maniera efficace la propria conformità alle normative rilevanti

CONSULENZA LEGALE PER SISTEMI IA: un approccio privacy by design

CONSULENZA LEGALE PER SISTEMI IA: un approccio privacy by design

Diventa sempre più importante per le software house e le start-up innovative che progettano sistemi di intelligenza artificiale conformarsi alle prescrizioni della normativa privacy (c.d. GDPR), adottando un approccio by design.

Non sorprende quindi la notizia di ieri che vede Apple impegnata ad introdurre una sorta di etichetta privacy per tutte le applicazioni che avranno accesso al suo app store.

In sostanza, gli sviluppatori di app dovranno previamente comunicare quali dati personali sono trattati tramite l’applicazione da loro progettata, oltre alle finalità del trattamento. In questo modo, l’utente riceverà indicazioni di massima sulle tipologie di trattamento, prima di effettuare l’eventuale download.

È un altro segnale che va verso una direzione chiara: la privacy sta diventando un elemento concorrenziale fra imprese innovative, e il tema assume un ruolo ancora più centrale per quelle organizzazioni che sviluppano sistemi di IA in grado di generare decisioni automatizzate mediante l’utilizzo di dati personali (come ad esempio, gli ormai noti sistemi di riconoscimento facciale oppure le applicazioni di credit scoring per valutare l’affidabilità creditizia di una persona).
Come tali, detti sistemi pongono rischi elevati sul fronte dei diritti e delle libertà fondamentali degli utenti, poichè si “nutrono” di una enorme mole di dati che necessitano di continui controlli (dalla fase di raccolta fino a quella di training).

Il rischio, altrimenti, è quelli di utilizzare dati “fallaci” (di scarsa qualità o non realmente rappresentativi di scenari statistici) o addirittura affetti da “bias”, vale a dire pregiudizi o elementi discriminatori che incidono sul risultato finale delle decisioni automatizzate.

Per queste e altre ragioni connesse al grado di raffinatezza tecnologica e ingegneristica raggiunto dalla gran parte dei sistemi IA, oggi non è più rinviabile una attività di auditing legale che sia in grado di esaminare gli algoritimi alla base di tali sistemi, e prima di tutto i set di dati che li alimentano.

Lo Studio Legale Baldrati & Strinati ha da tempo avviato una consulenza legale sul punto, affiancando start-up e altre realtà innovative nella implementazione di un effettivo processo di “privacy by design”, in grado di guidare il cliente nella creazione di sistemi IA conformi ai principi di trasparenza e informazione richiesti dal GDPR.

L’attività di auditing legale volta ad esaminare l’algoritmo e il modello decisionale implementato dai sistemi IA, si fonda su alcuni pilastri:

  • ARCHITETTURA DELL’ALGORITMO: si valuta, tra le altre, la complessità dell’algoritmo, possibili usi secondari, i set di dati che lo alimentano, l’implementazione o meno di logiche di machine learning;
  • OPERATION: si valuta, tra le altre, i dati necessari per le decisioni automatizzate, le possibili attività di profilazione, l’eventuale condivisione dell’output a terze parti;
  • OUTPUT: si valuta, tra le altre, il tipo di output fornito dall’algoritmo, se l’output è prodotto in forma comprensibile e accessibile all’utente e se viene fornito un meccanismo di feedback per l’utente;
  • IMPLEMENTATION: si valuta, tra le altre, gli scopi del processo decisionale automatizzato e la possibilità o meno dell’intervento umano nel corso dell’intero processo.

Da ultimo si offrono una serie di soluzioni condivise con il Cliente, al fine di conformarsi all’art. 22 GDPR, che richiede una serie di requisiti in caso di trattamenti di dati personali interamente automatizzati: dal diritto di ottenere l’intervento umano da parte del titolare del trattamento, al diritto di esprimere la propria opinione e di contestare la decisione automatizzata.

La piena conformità al GDPR rappresenta un elemento di competitività sul mercato per qualsiasi organizzazione che voglia fare dell’innovazione il suo core business. Il grado di sensibilizzazione raggiunto dagli utenti sul tema privacy e i nuovi scenari imposti dalle grandi corporation (come Apple), impongono un cambio di passo sul grado di maturità dei sistemi IA, che devono essere rispettosi dei principi (privacy by design) previsti dal Regolamento Europeo


INTELLIGENZA ARTIFICIALE: in arrivo il nuovo Regolamento Europeo

INTELLIGENZA ARTIFICIALE: in arrivo il nuovo Regolamento Europeo

Negli ultimi giorni la Commissione Europea ha pubblicato un White Paper sulla intelligenza artificiale, annunciando di voler investire 100 miliardi nei prossimi 10 anni per l’innovazione del settore, insieme all’emanazione di un Regolamento ad hoc.

Sulle orme del GDPR (la normativa europea sulla protezione dei dati personali), il futuro Regolamento avrà lo stesso approccio basato sul rischio per i diritti e le libertà fondamentali delle persone fisiche sottoposte a decisioni o scelte di sistemi IA.

La normativa, inoltre, prevederà una serie di principi generali per valutare caso per caso il rischio di un’applicazione IA, sulla base della natura dei dati trattati e delle modalità con cui gli algoritmi elaborano tali dati.

Il Regolamento infatti, secondo le intenzioni della Commissione UE, si applicherà soltanto a quelle applicazioni ad alto rischio, che necessitano di una disciplina ad hoc per mitigare il loro impatto, mentre per le restanti resteranno in vigore le attuali normative.


L’UE dimostra quindi di avere una visione chiara su un tema, quello dell’intelligenza artificiale, che nei prossimi anni inciderà profondamente sulla democrazia europea.

Per ulteriori approfondimenti vi invitiamo a leggere l’analisi dell’Avv. Andrea Baldrati sul blog Juris-Tech, che analizza nel dettaglio le novità presentate con il White Paper della Commissione UE.