Condividi su:

AI: bias, esempi nella realtà e nella cinematografia

È difficile poter dare una definizione univoca di cosa sia un’intelligenza artificiale (IA). Descrizioni diverse possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente e utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale. 

A seconda dei diversi punti di vista un’IA è quel sistema in grado di

  • Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.

oppure

  • Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. 

oppure

  • Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.

oppure

  • Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.

Questo sistema potenzialmente può “apprendere” come svolgere i compiti a lui assegnati in modo simile ai bambini, ovvero tramite l’osservazione di uno o più schemi ed esempi. 

L’apprendimento automatico (o machine learning, ML) è la disciplina che studia algoritmi capaci di migliorare automaticamente le proprie performance attraverso l’esperienza. È stato un ambito di ricerca cruciale all’interno dell’IA sin dalla sua nascita. Il ML è particolarmente importante per lo sviluppo di sistemi intelligenti principalmente per tre motivi:

  1. Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutte le possibili situazioni in cui il sistema stesso si può trovare a operare, eccetto per contesti estremamente semplici.
  2. Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutti i possibili cambiamenti dell’ambiente nel tempo.
  3. Un’ampia categoria di problemi può essere risolta più efficacemente ricorrendo a soluzioni che coinvolgono l’apprendimento automatico. Questa categoria di problemi include, ad esempio, il gioco degli scacchi e il riconoscimento degli oggetti.

Le applicazioni di IA possono essere molteplici e riguardare diversi ambiti, da quello industriale a quello domestico. Possiamo affermare che l’età d’oro per le IA sia appena iniziata, ma il percorso non è privo di sfide. Sebbene lo scopo generale delle IA sia quello di risolvere i problemi può anche creare nuove sfide, come per esempio l’analisi dei bias, argomento delicato e spesso sottovalutato negli anni passati. 

D’altro canto, non è un segreto che l’IA sia uno dei temi più trattati nei film, da robot propri di futuri distopici ad assistenti virtuali super efficienti. Per questo la cinematografia può essere una buona fonte di esempi per comprendere meglio questa tecnologia.

E se il loro “cervello” fosse più potente del nostro?

Nel 2017 due bot attivati da Facebook, Alice e Bob, furono improvvisamente spenti perché iniziarono a parlare e comprendersi in una lingua all’apparenza a noi sconosciuta. I due bot sono stati messi uno davanti all’altro per portare a termine uno scenario di collaborazione ipotetico: la suddivisione di alcuni oggetti da portare a termine con una contrattazione uno contro uno. 

Nel corso dell’esperimento il dialogo è avanzato in inglese fino al momento in cui i due bot non hanno iniziato a basare i propri scambi su una lingua deforme, non più normata dalle regole sintattiche che conosciamo e dunque più vicina a un idioma ignoto. Ciò è avvenuto per un errore di programmazione da parte dei ricercatori che, anziché costringere i bot a mantenersi nei binari di un inglese comprensibile dagli umani, si sono limitati a implementare questa istruzione come una strategia di comunicazione preferibile ma facoltativa. 

I bot sono stati così lasciati liberi di ispirarsi uno all’altro, trovando più semplice e meno ambiguo deviare dal lessico e dalla sintassi umani per iniziare a ripiegare su un’alternativa più efficiente. 

Immagine che contiene testo

Descrizione generata automaticamente

Questo episodio ha agitato non poco la Rete, con tanto di cospirazioni e teorie. infatti, dopo questo incidente, ci sono state diverse ipotesi complottistiche, la più gettonata riguarda V.I.K.I., l’IA che nel film Io,Robot (2005) prende il controllo sulle altre IA  per concretizzare un progetto formulato autonomamente. 

V.I.K.I. (Virtual Interactive Kinetic Intelligence) nasce come un supercomputer basato sull’IA in grado di preoccuparsi della sicurezza dell’uomo; nel film lo vediamo già evoluto dopo anni di attività insieme alla sua interpretazione delle tre leggi della robotica. L’obiettivo dei robot è sempre quello di proteggere gli umani; tuttavia, per fare questo, i robot devono proteggere gli umani da loro stessi, sacrificando quindi i singoli e la loro libertà avviando una vera schiavizzazione del genere umano. Tra i più fantasiosi hanno visto in Alice e Bob un’attitudine simile a quella di V.I.K.I., ma i ricercatori non li hanno spenti perché andati nel panico, ma semplicemente perché non hanno dato loro le giuste regole.

Immagine che contiene acqua, uomo, indossando, tenendo

Descrizione generata automaticamente

Vieni qui bello!

Nel 2019 un robo-dog Spot di Boston Robotics ha subito una drammatica morte sul palco durante la dimostrazione dal vivo del CEO dell’azienda Marc Raibert a re: MARS 2019 a Las Vegas. Il robot durante la presentazione doveva camminare ma le sue gambe sembravano cedere per poi inciampare e crollare al pavimento dinanzi al pubblico incredulo.

Sono proprio i robo-dog a diventare i protagonisti di una puntata della serie di Black Mirror, Metalhead (2018), ove i robo-dogs sono realtà da più di un decennio e le loro abilità vengono affinate ogni anno di più per scopi militari. Tutta la struttura dell’episodio, impostato come un survival horror, si regge sull’impossibilità da parte degli umani di far fronte alla spietata efficienza dei cani robot. 

Contrariamente alla credenza popolare, i robot di Boston Dynamics non sono alimentati dall’intelligenza artificiale: molti dei loro comandi meccanici, sebbene estremamente sofisticati per i moderni standard robotici, devono essere avviati e guidati da operatori umani. Inoltre, il lancio precoce di Spot è un’ulteriore prova che questi robot sono lontani dal conquistare il mondo… e che il testing di tecnologie simili è una fase cruciale su cui la ricerca è ancora attivamente aperta. 

Immagine che contiene interni, finestra, uomo, piccolo

Descrizione generata automaticamente

Assistenza non pervenuta

Nel 2018 il robot LG Cloi ha ripetutamente fallito sul palco al suo debutto al CES, lo scopo era quello di dimostrare come l’IA possa migliorare l’uso degli elettrodomestici da cucina. Inizialmente Cloi si è comportato come previsto ma la gloria è durata poco poiché le richieste successive, come scoprire se il suo bucato era pronto, cosa era previsto per la cena e quali ricette potrebbe suggerire per il pollo, non hanno ricevuto nessun tipo di riposta. L’obiettivo di LG doveva essere quello di promuovere ThinQ, il suo software AI interno, che intende distribuire su vari prodotti per renderli più facili da usare e in grado di “evolversi” per soddisfare le esigenze dei clienti. 

Questa volta è andata male ma ci sono tutti i presupposti per avere, in un futuro non troppo lontano, un assistente virtuale efficiente ed è ciò che viene rappresentato nel film Her (2013). In questo film gli assistenti virtuali sono integrati nelle attività quotidiane di tutti, ma il loro ruolo va ben oltre. Il protagonista intreccia infatti una relazione di amicizia con il sistema operativo OS 1, al quale dà una voce femminile e un nome, Samantha. Il rapporto tra i due diventa molto profondo, grazie alle capacità di ascolto del sistema, che sembra davvero comprendere paure, ansie e felicità che il protagonista le confida. Samantha apprende e si arricchisce da ogni interazione con il “suo umano”, tanto da instaurare con lui una relazione amorosa. Per ora le tecnologie legate alla comprensione del linguaggio, alla percezione del contesto e al ragionamento hanno fatto enormi passi in avanti ma siamo ancora lontani da una possibile Samantha.

Immagine che contiene interni, persona, tavolo, computer

Descrizione generata automaticamente

Si pensi infatti che il nostro cervello è incredibilmente potente e attualmente lontano dalla portata delle macchine, infatti pur pesando in media poco più di un chilo, conta circa 86 miliardi di neuroni collegati tra loro da trilioni di sinapsi e 85 miliardi di cellule non neuronali. Un titano anche a confronto con i supercomputer più potenti del mondo. Come esempio si consideri che nel 2015, alcuni studiosi hanno simulato l’equivalente dell’1% dell’attività cerebrale umana di un secondo utilizzando più di 700 mila core del quarto super-computer più potente al mondo, il K computer. Quel secondo è costato 40 minuti di elaborazione. Un altro esempio è dato dal progetto Human brain project che si basa sul Blue Gene della IBM, uno tra i super-computer più veloci al mondo. Henry Markram, coordinatore del progetto e professore dell’ÉPFL, ha affermato che per dar vita a una simulazione in scala reale del cervello ci vorrà un computer centomila volte più veloce di un petascale.

Attenzione ai bias!

Un algoritmo testato come strumento di reclutamento dal gigante online Amazon ha concluso che i candidati maschi erano preferibili a quelli di sesso femminile. Nel 2015 era chiaro che il sistema non valutava i candidati in modo neutrale rispetto al genere perché era basato sui dati ricavati dai CV inviati all’azienda principalmente da uomini, per questo il sistema ha iniziato a penalizzare i CV che includevano la parola “donna”.

Choose candidate stock vector. Illustration of choosing - 57889831

Non è la prima volta che vengono sollevati dubbi su quanto affidabili sono gli algoritmi addestrati su dati potenzialmente distorti. È infatti fondamentale controllare, tra le tante cose, che i dati utilizzati siano correttamente bilanciati.

Un altro esempio viene fornito da Instagram. Uno studio condotto nel 2020 ha portato alla luce che l’algoritmo di Instagram preferisce infatti mostrare donne svestite molto più spesso di quanto non faccia con gli uomini.  I risultati della ricerca hanno riportato che se la foto ritraeva una donna nuda (o pochissimo vestita) c’era una possibilità su due che l’algoritmo la facesse apparire nel feed; se il soggetto era un uomo nudo, invece, ci sarebbe stata una possibilità su tre. 

Una delle ipotesi formulata nei report è che il comportamento sia dovuto a un bias dell’algoritmo generato dal fatto che il mondo della computer vision è a prevalenza maschile e ciò potrebbe riprodurre negli strumenti di ottimizzazione dei feed una visione sessista. 

Come non parlare del film Ex Machina (2015) in questa rubrica che è forse quello che fino ad oggi è riuscito a meglio rappresentare l’IA nella sua ampiezza di significato, toccando non solo la componente robotica e quella di autoapprendimento dei sistemi fino alla coscienza di sé, ma anche sfiorando nella trama alcuni degli ambiti applicativi già oggi presenti nelle nostre vite (internet, i motori di ricerca e i social network, chatbot ed assistenti virtuali, realtà virtuale e aumentata). 

Ava è un umanoide dotata di IA e il protagonista umano Caleb, ultimo dei dipendenti della grande azienda che ha implementato Ava, deve capire se davvero la si possa definire un’intelligenza artificiale. A fare la differenza rispetto ad altre compagnie è il fatto che questa possiede un motore di ricerca, uno così usato e potente da aver accesso a tutto ciò che è disponibile in rete.

Ava è descritta quindi come la prima vera intelligenza artificiale perché attinge a quel bacino immenso di conoscenza che condividiamo ogni giorno. Nutrendosi di spazzatura e di informazioni rilevanti, di foto di gatti al pari di pubblicazioni scientifiche, Ava impara tutto, anche ad aver sete di sentimenti, fino a risultare un creato dell’intelligenza collettiva degli utenti della rete. Probabilmente Ava se avesse avuto un dataset scelto e delimitato non sarebbe risultata così “umana” e sensibile; un po’ come l’IA per la selezione dei CV di Amazon che se avesse avuto più controllo sulla raccolta dei dati forse non sarebbe risultata sessista.

Immagine che contiene persona, interni, donna, inpiedi

Descrizione generata automaticamente

Cos’è un bias?

Il bias di apprendimento automatico è un fenomeno che si verifica quando un algoritmo produce risultati che sono sistematicamente pregiudicati a causa di presupposti errati nel processo di apprendimento automatico. Un bias elevato può far sì che un algoritmo non rilevi le relazioni rilevanti tra le caratteristiche e gli output target. 

È molto facile cadere nei bias quando si parla di sistemi di apprendimento automatico se non c’è un adeguato controllo nei dati utilizzati per addestrare i modelli di apprendimento.

C’è da aggiungere anche che i pregiudizi possono insinuarsi molto prima che i dati vengano raccolti, così come in molte altre fasi del processo di apprendimento profondo.  Per capire meglio i bias ci concentreremo su tre frasi chiave: inquadrare il problema, raccolta dei dati e preparazione dei dati. 

Inquadrare il problema: la prima cosa da fare quando si crea un modello di apprendimento profondo è decidere cosa si vuole effettivamente ottenere.  Una società di carte di credito, ad esempio, potrebbe voler prevedere l’affidabilità creditizia di un cliente, ma “affidabilità creditizia” è un concetto piuttosto nebuloso. Per tradurlo in qualcosa che possa essere calcolato, l’azienda deve decidere se vuole, ad esempio, massimizzare i suoi margini di profitto o massimizzare il numero di prestiti che vengono rimborsati. Potrebbe quindi definire l’affidabilità creditizia nel contesto di tale obiettivo.

Immagine che contiene trasporto

Descrizione generata automaticamente

Raccolta dei dati.  Ci sono due modi principali in cui i bias si manifestano nei dati di addestramento: o i dati raccolti non sono rappresentativi della realtà o riflettono i pregiudizi esistenti. Il primo caso potrebbe verificarsi, ad esempio, se un algoritmo di apprendimento profondo riceve più foto di volti dalla pelle chiara che volti dalla pelle scura. Il sistema di riconoscimento facciale risultante sarebbe inevitabilmente  peggiore  nel riconoscere i volti dalla pelle più scura. Questo caso è simile rispetto a quello che vi abbiamo raccontato incontrato da Amazon quando ha scoperto che il suo strumento di reclutamento interno stava favorendo gli uomini . Poiché è stato formato su decisioni storiche e sociologiche di assunzione, che hanno favorito gli uomini rispetto alle donne, l’IA ha imparato a fare lo stesso. 

Preparazione dei dati. è possibile introdurre bias anche durante la fase di preparazione dei dati, che implica la selezione degli attributi che si desidera vengano presi in considerazione dall’algoritmo. Ciò non deve essere confuso con la fase di definizione del problema. Si possono utilizzare gli stessi attributi per addestrare un modello per obiettivi molto diversi o utilizzare attributi molto diversi per addestrare un modello per lo stesso obiettivo. Nel caso della modellazione del merito di credito, un attributo potrebbe essere l’età, il reddito o il numero di prestiti rimborsati del cliente. Nel caso dello strumento di reclutamento di Amazon, un attributo potrebbe essere il sesso, il livello di istruzione o gli anni di esperienza del candidato. Questo è ciò che i data scientist chiamano l‘arte del deep learning, ovvero scegliere quali attributi considerare o ignorare può influenzare in modo significativo l’accuratezza della previsione del modello. 

Nonostante la rapida crescita dell’IA e i notevoli risultati raggiunti, le sfide finora incontrate sono un chiaro segnale che c’è ancora molto da studiare e da scoprire. 

Fonti:

Articolo a cura di Lucia Campomaggiore, data analyst, e Carla Federica Melia, data scientist, 01.12.2020

#jointherevolution