L’intelligenza Artificiale e la gestione del rischio

L’intelligenza Artificiale e la gestione del rischio

In questi giorni ho avuto modo di riflettere su quanto vasto sia l’impatto dei servizi di Intelligenza Artificiale e a come si stia affrontando la gestione del rischio e il testing.

Se pensiamo ad una macchina a guida autonoma gestita tramite dei servizi di Intelligenza Artificiale e ad un servizio di IA che aiuta un giudice a prendere una decisione in un procedimento penale, i fattori di rischio da gestire e le conseguenze di una decisione errata son bene diversi.

Si tratta sempre di servizi di Intelligenza Artificiale ma applicati a segmenti diversi.

Vi sono di sicuro degli elementi in comune in tutti i servizi di IA come lo sono i dati, gli algoritmi più o meno sofisticati e potenti macchine di calcolo.

Questi elementi espongono a rischi che devono essere affrontati e che ad oggi non siamo ancora in grado di gestire adeguatamente con le normative esistenti, i sistemi di testing e le linee guida relative all’etica (In fondo chi è in grado di definire che cosa è il giusto\buono per tutti?).

Se pensiamo alle automobili, ai frigoriferi, ai televisori e ad altri oggetti che vengono regolarmente immessi sul mercato, tutti questi devono rispettare determinate normative, spesso legate alle specifiche hardware\funzionali. In realtà già alcuni di questi oggetti hanno degli elementi di intelligenza che non sono regolamentati. Ad esempio, posso interagire con il mio TV (è solo un esempio perché vivo senza TV da parecchi anni 😊) parlandogli e ricevendo risposte, ma nessuno controlla se le risposte che il mio TV mi dà mi sta spingendo a commettere un crimine. Non esiste una normativa che tutela l’utente. Stessa cosa si applica per altri oggetti che integrano servizi di Intelligenza Artificiale e che non sono ancora regolamentati a dovere.

Normativa Europea per l'Intelligenza Artificiale - CE

Sappiamo che il dato è alla base dei servizi di IA. Con esso però vi sono anche alcuni rischi associati:

  • Bias
    • Se il mio dataset non rappresenta un segmento aderente alla realtà e bilanciato, rischio di generare situazioni dove il mio servizio fornisce degli output che penalizzano una fascia della popolazione (vedi il caso della corte di giustizia americana che utilizzava l’IA per predire i casi di recidività e che incriminava con maggior frequenza gli Afro Americani o ancora il problema del Riconoscimento Vocale di Google che non era in grado di capire le donne con la stessa efficienza con cui capiva gli uomini)
    • Se il trainingset (set di dati utilizzati per educare l’algoritmo) utilizzato non è stato giudicato correttamente (tagging), esiste il rischio che anche l’output sia “fuorviato” (Ad esempio se chiedo ad un suddito di Kim Jong Un di indicarmi in un dataset chi è buono e chi è cattivo in base alla nazionalità avrò probabilmente un giudizio diverso da quello dato da un fedele di Trump…)
    • Il Machine Learning (l’apprendimento della macchina) prevede un continuo utilizzo dei nuovi dati per generare algoritmi sempre migliori. Alcuni servizi di Intelligenza Artificiale altamente personalizzati, potrebbero però cadere in un loop che distorce la realtà. Ne è un esempio il feed di Facebook che offre sempre più notizie con le quali si è interagito maggiormente o che sono rilevanti con il proprio network. A volte funziona bene mentre altre non proprio…In pratica se visualizzo e condivido alcuni video dei cinque stelle ed ho amici che fanno lo stesso oltre ad essere a loro volta amici di altri personaggi pro-movimento, rischio di trovarmi nel feed di Facebook notizie e commenti di un certo genere diventando parzialmente cieco verso quella che potrebbe essere la realtà
    • Un bias può anche essere introdotto nell’algoritmo tramite dei dati farlocchi o un attacco di malintenzionati. Ne è un esempio quanto successo in passato con il Googlebombing dove un gruppo di persone ha creato dei link che partivano dai loro siti e puntavano alla biografia di Bush con il titolo “Miserable Failure”. Il risultato era che chi andava su Google e digitava la query “Miserable Failure”, si ritrovava fra i primi risultati la biografia di Bush.

Questi sono solo alcuni degli esempi di quanto l’Intelligenza Artificiale è ad oggi ancora troppo poco regolamentata e parzialmente “fragile”.

Sarebbe bene che si iniziassero a creare:

  • Regolamentazioni adeguate e distinte per le varie categorie che impiegano ed impiegheranno servizi di IA (Trasporto, Elettrodomestici, Domotica, Applicazioni Aziendali…)
  • Best Practise di Etica legate a che cosa è giusto insegnare alle macchine e come valutare correttamente un trainingset
  • Un pool di esperti in ogni azienda che crea e fornisce servizi di Intelligenza Artificiale che sia responsabile di garantire determinate scelte etiche
  • Le giuste competenze fra giuristi e legislatori per comprendere il funzionamento dei servizi di Intelligenza Artificiale e creare normative adeguate oltre che essere in grado di giudicare eventuali reati e responsabilità

Molto c’è ancora da fare, e come dicevo all’inizio dell’articolo, il campo è molto ampio. Da qualche parte bisognerà però pur iniziare 😊

Condividi: