Algoritmic legitimacy: la cieca fiducia nei dati prodotti da un algoritmo di A.I.

Per intelligenza artificiale A.I., si intende un tipo particolare di automazione di compiti complessi realizzata attraverso algoritmi messi a punto da esseri umani. Secondo alcuni si tratta di un termine aspirazionale di realizzazione di compiti che apparentemente richiedono intelligenza. Il termine Machine learning, ovvero di apprendimento automatico da parte di una macchina, è in realtà una metafora.

La messa a punto di un algoritmo per compiere un determinato lavoro è soggetta a bias, ossia a una possibile distorsione cognitiva da parte di chi lo elabora nel giudicare il mondo, gli altri e tutto il contorno. Il bias può essere del tutto involontario e di solito lo è. Un sistema basato su un bias dà origine a un machine bias, che può essere poi molto difficile da indentificare una volta che è messo a regime e in funzionamento.

Quando un algoritmo è stato messo a punto in presenza di bias potrà dare origine a errori. Se l’essere umano ha un’eccessiva fiducia nell’output prodotto e rinuncia a un’attenta analisi di tutte le informazioni disponibili, provenienti da qualsiasi fonte, le decisioni che prenderà potranno non essere le migliori o essere sbagliate.

Un fenomeno già identificato e preoccupante è quello della Algorithmic Legitimacy, ossia la cieca fiducia nei dati prodotti da un sistema di intelligenza artificiale. Gli individui che lo utilizzano arrivano ad avere una totale fiducia nel risultato prodotto dalla macchina, considerata affidabile e infallibile, al punto da non essere più in grado di rilevare errori anche grossolani che la macchina possa generare.

Federico Cabitza, professore di Human-Computer Interaction & Data Visualization presso l’Università di Milano-Bicocca e docente del Master MaCSIS, fornisce via Twitter questa definizione della Algorithmic legitimacy: “convinzione nel fatto che l’input fornito all’algoritmo sia una rappresentazione valida e globale della realtà d’interesse, e che la sua logica sia il modo più corretto possibile di ragionare. Quindi l’output è affidabile e semplicemente vero”. Sarebbe bello se così fosse, ma così sempre non è.

Il professor Cabitza ha raccontato a noi studenti del MaCSIS un significativo aneddoto che risale al film di Stanley Kubrick ‘2001 Odissea nello spazio’, del lontano 1968. Il geniale regista era riuscito a immaginare un gioco di scacchi computer-uomo tramite un monitor a colori e un’interazione parlante che erano ben lungi dall’essere prossimi o prevedibili. Nel suo lampo visionario nascose nel film un esempio di eccessiva fiducia nell’intelligenza artificiale e di cecità di fronte a un output non vero. Il computer HAL 9000 infatti compie una mossa del gioco che non lo porta alla vittoria della partita, ma a voce annuncia di avere vinto. L’avversario umano non riesce ad accorgersene e commenta ringraziando per la bella partita.

Una eccessiva dipendenza (over-reliance) dagli output prodotti da un’intelligenza artificiale, non dimentichiamo sempre messa a punto e programmata dall’uomo, può portare a una serie di problemi.

Da un lato l’utente si abitua a pensare che la macchina non sbaglierà mai e che non potrà mai far nulla di dannoso (fiducia eccessiva, over-confidence).

Dall’altro possono verificarsi fenomeni di utilizzo oltre le reali necessità, di perdita di autonomia dell’uomo, di incapacità di pensare ad alternative valide in caso di necessità (dipendenza eccessiva, over-dependence) e di perdita delle capacità di analisi e di giudizio già acquisite (deskilling). Per esempio, un medico che lascia analizzare un’immagine diagnostica a un algoritmo e si fida ciecamente del risultato fornito come diagnosi potrebbe nel tempo perdere la capacità di leggere le immagini in modo autonomo. È stato dimostrato che in effetti è così. Uno studio del 2017 [1] analizza proprio i rischi di deskilling e di graduale desensibilizzazione al contesto clinico a cui possono andare incontro i medici come conseguenza inattesa dell’uso di sistemi di intelligenza artificiale oracolari in medicina.

In quest’ottica l’avvento sempre più massiccio di intelligenze artificiali in ogni settore della nostra vita potrebbe essere apparentemente comodo ma togliere molto alle nostre capacità umane di attenzione, ragionamento, confronto, deduzione, ricerca di fonti molteplici, fiducia in sé stessi e nelle proprie doti. In una parola compromettere la nostra intelligenza umana.

In un mondo in cui è sotto gli occhi di tutti l’avanzare incessante di sistemi basati su algoritmi c’è di che meditare e, probabilmente, preoccuparsi un po’.

 

[1] Cabitza, Federico et Al, “Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina”, Recenti Prog Med 2017; 108: 397-401

 

Tags: , , , , ,

Ancora nessun commento.

Lascia una risposta