Rischi e opportunità dell’IA per migliorare equità e accessibilità
Percorso di co-creazione delle Raccomandazioni IA
Changes at "2° incontro- L’apertura del processo di progettazione, sviluppo e adozione degli algoritmi"
Description (Italiano)
-
-
Il secondo incontro affronta il tema dell’apertura del processo di progettazione, sviluppo e adozione degli algoritmi, includendo scelte tecnologiche, modalità di funzionamento e trasparenza delle logiche decisionali adottate.
In particolare, l’attenzione sarà rivolta all’adozione di soluzioni tecnologiche sul mercato e a discutere come le PA possono esercitare una funzione di committenza vigile e critica verso la scelta dei fornitori, indicando i requisiti rispetto al procurement per garantire il rispetto dei diritti fondamentali all’interno del loro “conformity assessment” (valutazione di conformità).
-
+
Il secondo incontro affronta il tema dell’apertura del processo di progettazione, sviluppo e adozione degli algoritmi, includendo scelte tecnologiche, modalità di funzionamento e trasparenza delle logiche decisionali adottate.
In particolare, l’attenzione sarà rivolta all’adozione di soluzioni tecnologiche sul mercato e a discutere come le PA possono esercitare una funzione di committenza vigile e critica verso la scelta dei fornitori, indicando i requisiti rispetto al procurement per garantire il rispetto dei diritti fondamentali all’interno del loro “conformity assessment” (valutazione di conformità).
Guida alla discussione
Introduzione
La sessione di lavoro di gruppo si svolge online, su piattaforma Zoom in stanze virtuali parallele, composte a partire dal numero dei/delle partecipanti presenti.
I/Le partecipanti sono affiancati/e da un/a facilitatrice per la gestione del confronto e un/a componente del team dell’Impegno B5 che contribuisce alla conoscenza del contesto. Dopo una breve presentazione del tema (5-10 minuti), i/le partecipanti sono invitati/e a contribuire con il proprio punto di vista alla discussione, a partire dalla domanda illustrata di seguito.
Lo staff presente ha il compito di raccogliere le opinioni espresse dai/dalle partecipanti in un confronto esplorativo che non ha come obiettivo la condivisione su una sola proposta ma l’arricchimento della riflessione intorno alla domanda. Al termine dell’incontro sarà prodotto un documento di restituzione che rende conto delle diverse sensibilità, percezioni e proposte emerse dal confronto.
Gli esiti di ciascun incontro saranno utilizzati per la definizione dei contenuti del testo delle Raccomandazioni sull’equità dei dati e degli algoritmi dell’IA.
Di che cosa discutiamo
In questa seconda fase di confronto partecipativo ci concentreremo sul tema dello sviluppo e/o dell'adozione degli algoritmi, con particolare attenzione al grado di apertura dei processi di progettazione
e realizzazione. Verranno quindi affrontati aspetti quali le scelte tecnologiche, le modalità di funzionamento e la trasparenza delle logiche decisionali adottate.
La discussione verterà in particolare sulla valutazione della trasparenza, ma anche e soprattutto sull’apertura e sulla possibilità per la società civile e altri stakeholder di partecipare a questo processo. Al tema dello sviluppo si affianca quello dell’adozione di soluzioni già presenti sul mercato. Un esempio rilevante riguarda il ruolo delle pubbliche amministrazioni: in che modo possono definire e indicare requisiti chiari ed esercitare una funzione di committenza più consapevole e rafforzata, al momento di contrattualizzare i fornitori e di verificare il rispetto dei diritti fondamentali nei processi di valutazione della conformità?
L’AI Act stabilisce una serie chiara di norme basate sul rischio per gli sviluppatori e i deployer di IA per quanto riguarda gli usi specifici dell'IA. I livelli di rischio sono definiti secondo una piramide di rischio:
- Rischio inaccettabile → sistemi vietati (es. social scoring da parte dei governi, manipolazioni subliminali).
- Alto rischio → sistemi soggetti a requisiti stringenti (es. IA per sanità, giustizia, occupazione, servizi pubblici essenziali).
- Rischio limitato → obblighi di trasparenza (es. chatbot che devono dichiarare di non essere umani, trasparenza sulla base di informazioni di riferimento).
- Rischio minimo → libertà d’uso senza vincoli (es. ottimizzazione di flussi informativi e classificazione documenti attraverso l'IA).
La domanda di fondo che vi proponiamo è:
Come possiamo assicurare equità nelle fasi di sviluppo e/o adozione degli algoritmi, al fine di ridurre discriminazioni e stereotipi?
A partire da questa domanda, vi chiediamo di discutere in particolare:
- Quanto è diffusa la consapevolezza sull’importanza della trasparenza e della spiegabilità degli algoritmi?
- Come possiamo coinvolgere la società civile e altri stakeholder in test preventivi sull’equità degli algoritmi?
- Quali strumenti o pratiche (ad esempio comitati etici, revisioni pubbliche del codice, piattaforme di consultazione) possono aumentare la trasparenza e la fiducia nello sviluppo?
- Quali opportunità offre il riuso e la pubblicazione sulla piattaforma developers.italia.it, in termini di appropriatezza tecnologica?
- Come possiamo affermare e garantire la necessità di un monitoraggio costante?
- Come possiamo differenziare le raccomandazioni in base al livello di rischio dei sistemi di IA (inaccettabile, alto, limitato, minimo)?
- Quali casi d’uso ad “alto rischio” sono più rilevanti per le PA italiane e richiedono maggiore attenzione?
Per sviluppare la discussione sulle competenze e l’alfabetizzazione, qui ulteriori spunti:
- Quali competenze dovrebbero avere cittadini, operatori ed amministratori di PA e stakeholder per comprendere i rischi e le opportunità dell’IA?
- Che tipo di competenze, di percorsi formativi o kit informativi servono per aumentare la consapevolezza collettiva?