Intelligenza artificiale responsabile: necessità e linee guida

Posted by danieleperugini on Friday, July 14, 2023

Intelligenza artificiale responsabile: necessità e linee guida

Da quando l’intelligenza artificiale ha fatto la sua prima apparizione negli anni ‘50 (nel 1956, durante un seminario estivo tenuto al Dartmouth College di Hanover nel New Hampshire), è diventata una parte fondamentale della nostra vita quotidiana, influenzando settori come la sanità, l’istruzione, la finanza e molto altro.

L’intelligenza artificiale, o IA, è un campo della scienza e della tecnologia che si concentra sulla creazione di macchine capaci di “pensare” e apprendere come gli esseri umani. Tuttavia, non è del tutto corretto dire che l’intelligenza artificiale sia capace di pensare, almeno nel modo in cui noi lo intendiamo.

Per quanto riguarda i grandi modelli linguistici ad esempio, sarebbe più corretto dire che sono in grado di capire cosa l’utente stia chiedendo e fornire il risultato che da un punto di vista statistico si avvicina il più possibile a quello che l’utente vuole.

L’IA è sempre più pervasiva nel quotidiano

Ma digressione a parte, il punto è che l’IA in tutte le sue forme sta diventando pervasiva nelle nostre attività quotidiane. Pervasiva al punto che spesso ci affidiamo all’intelligenza artificiale senza porci il dubbio di quanto sia valido il risultato di quanto chiesto. Ci fidiamo, in cambio di un risultato immediato e che crediamo essere corretto.

Volutamente, molto spesso, ci fidiamo dalle scelte che le macchine fanno per noi. Ma è sempre la cosa corretta? In fin dei conti è sempre l’individuo il responsabile delle proprie azioni.

Motivo per cui l’altro giorno il navigatore mi ha consigliato di usare una via alternativa per evitare il traffico. L’ho seguito e… mi sono trovato imbottigliato nuovamente nel traffico. Nelle campagne empolesi. Nel nulla. Perché tutti gli altri automobilisti avevano seguito le stesse indicazioni dello stesso navigatore. Lasciando una strada a grande comunicazione per una strada di campagna dove non si passava contemporaneamente in due sensi di marcia. Ho perso più di due ore per fare 55 Km.

Questo piccolo esempio per dire che ci affidiamo alle macchine, e questo ha sempre effetti sulla quotidianità. Spesso vantaggiosi. A volte meno.

Nasce l’esigenza di un’etica applicata alle macchine: l’intelligenza artificiale responsabile

Ma se questo è valido per un navigatore, che dire per i sistemi di IA che promettono di avere effetti più profondi ed estesi nella nostra quotidianità?

Ecco il motivo per cui da tempo si sta parlando di “intelligenza artificiale responsabile” (o “IA responsabile”). Chiaro no?

Quando parliamo di “intelligenza artificiale responsabile”, ci riferiamo all’approccio etico e consapevole alla creazione e all’uso dell’intelligenza artificiale. L’intelligenza artificiale responsabile è importante perché ha l’obbiettivo di garantire che le tecnologie IA siano utilizzate in modo che benefici tutti, senza causare danni o discriminazioni.

Per questo le grandi aziende tech si sono dotate di linee guida per rendere l’IA “responsabile”. In altre parole, per tentare di dare un’etica (anche da un punto di vista legale) all’ IA. Sempre per una questione di “fiducia”. Come avevo scritto in questo articolo, ad esempio, Microsoft sta integrando sempre più funzionalità a garanzia di un uso responsabile all’interno della sua offerta di OpenAI.

Addirittura, sono nati consorzi con l’obiettivo di certificare i prodotti di IA sotto un profilo “responsabile” come responsible.ai.

Che la questione sia seria lo dimostra il fatto che anche il World Economic Forum si sia pronunciato tramite un articolo dal tema “Why we need to care about responsible AI in the age of the algorithm”. Nell’articolo si mette in evidenza che l’IA è ormai necessaria per rimanere competitivi.

Ad esempio, nel settore sanitario, gli algoritmi di IA sono utilizzati per aiutare i medici a diagnosticare le malattie in modo più preciso e tempestivo. Nel settore finanziario, l’IA è utilizzata per rilevare le frodi e proteggere i consumatori.

Tuttavia l’utilizzo dell’IA rappresenta anche dei rischi dal forte impatto sia “tecnico” (vedi la storia dei casi giudiziari inventati da GPT ed utilizzati da un avvocato), che sociale. Ad esempio, sono emersi episodi di discriminazioni di genere nei processi automatizzati d’assunzione, o discriminazioni razziali negli algoritmi di polizia predittiva.

Principi alla base dell’intelligenza artificiale responsabile

In generale si può dire che i princìpi guida per una IA responsabile si possano riassumere in quanto estratto da questo articolo di Microsoft per quanto riguarda l’approccio aziendale verso i prodotti di IA (tuttavia altri articoli di aziende diverse espongono più o meno i soliti concetti):

  • Equità: L’IA dovrebbe essere progettata per trattare tutti in modo equo, evitando pregiudizi e discriminazioni. Ad esempio, un algoritmo di IA utilizzato per le assunzioni dovrebbe valutare i candidati in base alle loro competenze, non alla loro età, genere o razza.

  • Affidabilità e Sicurezza: I sistemi di IA dovrebbero funzionare in modo affidabile e sicuro. Questo significa che dovrebbero essere progettati per resistere agli attacchi informatici e per funzionare correttamente in tutte le situazioni.

  • Privacy e Sicurezza: I sistemi di IA dovrebbero rispettare la privacy degli utenti e proteggere i loro dati. Questo significa che dovrebbero essere progettati con forti misure di sicurezza e dovrebbero essere trasparenti su come vengono utilizzati i dati degli utenti.

  • Inclusività: L’IA dovrebbe essere progettata per potenziare e coinvolgere tutte le persone, indipendentemente dalla loro età, genere, abilità o background culturale. Questo significa che le interfacce utente dovrebbero essere accessibili e facili da usare per tutti.

  • Trasparenza: I sistemi di IA dovrebbero essere comprensibili per gli utenti. Questo significa che gli utenti dovrebbero essere in grado di capire come un sistema di IA prende le sue decisioni.

  • Responsabilità: Le persone dovrebbero essere responsabili dei sistemi di IA. Questo significa che dovrebbero essere in grado di controllare e correggere le decisioni prese da un sistema di IA.

Come si può immaginare non è affatto semplice perché i modelli come GPT vengono addestrati (in genere) utilizzando le informazioni presenti su internet.

Spesso post e articoli sono pieni di discriminazioni che quindi generano dei “bias” (pregiudizi) all’interno dei sistemi. Infine i contenuti vengono etichettati e filtrati da persone che spesso lavorano in condizioni pessime (vedi lo scandalo di OpenAI in Africa).

Framework per le interazioni Human-AI

A questo scopo, nel cercare cioè di dare delle linee guida più specifiche per rendere i prodotti di IA più responsabili, ho trovato interessante un toolkit utilizzato da Microsoft chiamato HAX.

Queste sono un insieme di 18 pratiche per progettare le interazioni tra esseri umani e prodotti o funzionalità basate sull’IA. Rappresentano l’implementazione di una ricerca interna del 2019 che vinse “best paper honorable mention award”.

Vengono suddivise in quattro gruppi, in base a quando sono più rilevanti per l’interazione con un sistema AI: all’inizio dell’interazione, durante l’interazione, quando il sistema AI commette inevitabilmente un errore, e nel tempo.

Le linee guida sono pensate per essere utilizzate durante tutto il processo di sviluppo di un prodotto o funzionalità basato sull’IA. Esse influenzano tutti gli aspetti di un sistema AI, compreso quali dati raccogliere e come dovrebbero essere addestrati i modelli AI. Le linee guida non sono una checklist e potrebbero non applicarsi in ogni scenario. Alcuni scenari potrebbero richiedere una guida specializzata aggiuntiva.

Giusto per fare un esempio, la prima linea guida è rendere chiaro ciò che il sistema può fare, aiutando l’utente a capire ciò di cui il sistema AI è capace. L’ultima linea guida è di notificare agli utenti i cambiamenti, informando l’utente quando il sistema AI aggiunge o aggiorna le sue capacità.

le 18 card di HAX toolkit per una intelligenza artificiale responsabile

My two cents

E’ innegabile che gli strumenti di IA avanzati avranno un ruolo sempre più fondamentale nella vita di ogni giorno. Anche volendo isolare la questione al solo ambiente lavorativo, per rimanere competitivi tutti faremo o facciamo già adesso uso di questi strumenti.

La questione è: essere in grado di garantire lo sviluppo / utilizzo di questi sistemi in modo responsabile ed etico.

Mentre attendiamo di vedere se si riusciranno ad ottenere sistemi davvero responsabili, siamo in grado di utilizzare il pensiero critico per valutare di volta in volta i risultati forniti dall’intelligenza artificiale?

Ricordiamoci che siamo davvero bravi a fare “copia-incolla”.


IL MIO LIBRO: WHY YOUR DATA MATTER

Il libro dedicato ai manager e CIO che hanno a cuore i dati della propria azienda e vogliono avere sonni tranquilli (anticipando problematiche poco piacevoli legate al recupero, alla gestione o alla sicurezza dei dati)

Leggi il libro

REGISTRATI ALLA NEWSLETTER

Una piccola newsletter su data, azure e AI.

Dicono di me

Ricordo ancora bene cosa mi spinse a coinvolgerlo per la prima volta. Oltre che a trasmettermi competenza ed affidabilità, Daniele mi è sembrato fin da subito propenso a mettersi in gioco e a fare squadra con Fapim. Ho percepito in maniera marcata che questa persona avrebbe fatto suo il problema e avrebbe cercato di risolverlo concretamente.

(Leggi la testimonianza completa)

Fapim S.p.a.Ombretta Pacini, responsabile comunicazione e immagine aziendale
È orbitando nell’area Microsoft che abbiamo conosciuto Daniele. Abbiamo iniziato a collaborarci nel 2016 in un momento nel quale, dopo aver introdotto in azienda la metodologia di Agile grazie ad un lungo periodo di formazione interna su questo argomento, iniziavamo a metterla in pratica su nuovi progetti e necessitavamo di Project Manager e Team Leader con esperienza.

(Leggi la testimonianza completa)

Vivido S.r.l.Claudio Menzani, Paolo Ciccioni
Ho conosciuto Daniele grazie ad una sua ex collega che mi ha parlato molto bene di lui e dei suoi servizi di consulenza e collaborazione nel campo della consulenza. Mi ha spinta a rivolgermi a Daniele la sua preparazione, professionalità e disponibilità.

(Leggi la testimonianza completa)