Latent bias

L’AI riconosce qualcosa perchè è stata “addestrata” attraverso il machine learning.
Durante questo processo trasmettiamo, volontariamente e non, bias di differente tipo alla tecnologia che progettiamo, creando un sistema tutt’altro che neutrale.

C’è ancora molta complessità irrisolta negli algoritmi e un’enorme mancanza di dati, di cui una macchina ha bisogno:
i dati sono spesso incompleti e di differenti qualità. Poiché il machine learning dell’AI si basa su un’enorme quantità ed una buona qualità dei dati, potremmo dire che l’intelligenza artificiale è valida tanto quanto lo sono i dati che utilizza per il suo apprendimento.

Face detection

Il riconoscimento facciale, alla stregua dell’impronta digitale, permette di tracciare una persona in modo unico. Attraverso questo sistema possiamo essere riconosciuti ed etichettati per associazione, da un’intelligenza artificiale, che mette a confronto i dati assimilati durante il machine learning.

Questi dati, proprio perché incompleti e/o storici, spesso riportano nel loro contenuto discriminazione di genere, razza e classe sociale che si riflette automaticamente nelle applicazioni in cui viene utilizzata.

No legacy

Ciò che permette a questi bias di dilagare in modo esponenziale è una concezione di fiducia nell’equità della tecnologia, perchè non umana, e una mancanza di controllo e “controindicazioni” degli algoritmi che vengono creati.

Attualmente il quadro giuridico non prevede regole in base alle quali l’intelligenza artificiale, nei robot, debba essere ritenuta responsabile per “atti” od omissioni, che causano danni a terzi.

Le poche leggi sul settore, in così forte sviluppo, consentono ad oggi di attuare discriminazioni sociali e/o razziali senza che esse siano attribuite ad un effettivo responsabile.

Abstract

L’idea che l’intelligenza artificiale sia addestrata da un sistema di dati non sempre etico, lascia pensare che la disparità sociale possa continuare a ripetersi in un loop senza fine.

Il riconoscimento facciale traccia le persone etichettandole e riconoscendole secondo quanto inserito attraveso il machine learnig. Se questi dataset sono contaminati da misoginia e razzismo, restituiranno inevitabilmente un pregiudizio intrinseco.

Il poster

Per vedere il poster in AR puoi scaricare l’app Artivive ed inquadrarlo.