Rischi e opportunità dell’IA per migliorare equità e accessibilità
Percorso di co-creazione delle Raccomandazioni IA
1° incontro - Raccolta, preparazione e validazione dei dati che servono ad alimentare e addestrare il sistema IA
Università di Sassari / FORMEZ / AICA
Lean In Network Italy Rome
Università “La Sapienza”
SIpEIA – Societa’ Italiana per l’Etica dell’Intelligenza Artificiale
Comune di Bologna, Settore Statistica
Cittadina, interessata alle tematiche dell’IA
libero professionista
AGID
Comune di Milano
Universitas Mercatorum
PCM Dipartimento Pari Opportunità
Università degli Studi dell’Aquila - Associazione Italiana della Comunicazione Pubblica e istituzionale
ANAC
Regione Emilia Romagna
Federmanager
PA Social
Anorc
Ministero della Salute
LEAN IN network
Period Think Tank
Rete Diritti Umani Digitali
Cittadinanza Attiva
Politecnico di Milano
Compubblica
Facilitatori:
Regione Puglia
Capitolo Italiano International Association of Facilitators
Formez
IAF
Kiez Agency
Il primo incontro è dedicato al tema della raccolta, preparazione e validazione dei dati che servono ad alimentare e addestrare il sistema IA. La qualità dei dati determina la qualità delle decisioni prese dall’algoritmo. Eventuali bias, pregiudizi o discriminazioni presenti nei dati iniziali influenzeranno inevitabilmente l’intero sistema IA.
Guida alla discussione
Introduzione
La sessione di lavoro di gruppo si svolge online, su piattaforma Zoom in 5 stanze virtuali parallele, a seconda del numero dei/delle partecipanti presenti.
I/Le partecipanti sono affiancati/e da un/a facilitatrice per la gestione del confronto e un componente del team dell’Impegno B5 che contribuisce per la conoscenza del contesto. Dopo una breve presentazione del tema (5-10 minuti), i/le partecipanti sono invitati a contribuire con il proprio punto di vista alla discussione, a partire dalla domanda illustrata di seguito.
Lo staff presente ha il compito di raccogliere le opinioni espresse dai/dalle partecipanti in un confronto esplorativo che non ha come obiettivo la condivisione su una sola proposta ma l’arricchimento della riflessione intorno alla domanda. Al termine dell’incontro saranno prodotti i report delle singole sessioni e, successivamente, sarà prodotto un documento di restituzione che rende conto delle diverse sensibilità, percezioni e proposte emerse dal confronto.
Gli esiti di ciascun incontro sono utilizzati per la definizione dei contenuti del testo delle Raccomandazioni.
Di che cosa discutiamo
La prima fase di confronto partecipativo ha come oggetto i Dati che alimentano l’IA. Il fuoco delle discussioni riguarda la raccolta, preparazione e validazione dei dati che servono ad alimentare e addestrare il sistema IA (valutazione di conformità).
Un tale approccio è necessario dato che la qualità dei dati determina la qualità delle decisioni prese dall’algoritmo e eventuali “bias” o discriminazioni presenti nei dati iniziali influenzeranno inevitabilmente l’intero sistema IA. Si discute pertanto della valutazione di conformità, della necessità di armonizzare le metodologie per tutelare i diritti fondamentali e di tenere conto non solo dei principi fondamentali della Carta etica europea sull'utilizzo dell'intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, ma anche quelli impliciti nella Costituzione italiana. Inoltre si discute della sandbox nazionale, un ambiente controllato per sviluppare sistemi di IA sotto supervisione del regolamento, normate dall’art.57 dell’AI Act. e del procurement, ovvero l’acquisizione sul mercato di servizi di gestione dell’IA da parte delle pubbliche amministrazioni.
Nella discussione chiediamo di rispondere alla domanda: Come possiamo assicurare equità nei dati raccolti, in una fase antecedente allo sviluppo dell’algoritmo, per ridurre discriminazioni e stereotipi? focalizzando in particolare alcuni aspetti, quali ad esempio:
- proposte per mitigare i rischi principali legati alla mancata attenzione rispetto a qualità e rappresentatività dei dati;
- la possibilità di introdurre un obbligo di monitoraggio periodico con persone di diverse competenze per abbattere potenziali bias sull’utilizzo dei dati per sviluppare gli algoritmi;
- buone pratiche, nazionali o internazionali, per perseguire l’equità nella raccolta dei dati;
- suggerimenti sul ruolo che dovrebbe avere la PA e sugli strumenti di cui dovrebbe disporre per governare questa fase iniziale in modo equo ed etico;
- la consapevolezza sulle barriere culturali, organizzative, tecnologiche che possano ostacolare una condotta ottimale su questo tema.
Resoconto
I partecipanti sono stati suddivisi in 5 gruppi di lavoro.
In allegato è possibile consultare il report della discussione di ogni gruppo.
Segnala un problema
Questo contenuto è inappropriato?
0 commenti
Sto caricando i commenti ...
Aggiungi il tuo commento
Accedi o Registrati per aggiungere il tuo commento.
Sto caricando i commenti ...