READING

L’evoluzione delle macchine e la libertà dell’indi...

L’evoluzione delle macchine e la libertà dell’individuo: un contrasto senza fine

All’Osservatorio di Fondazione Prada, in Galleria Vittorio Emanuele a Milano, è possibile visitare, fino al prossimo 24 Febbraio 2020, “Training Humans”: mostra ideata dalla professoressa di intelligenza artificiale Kate Crawford e dall’artista e ricercatore Trevor Paglen con l’obiettivo di esplorare la repentina evoluzione delle immagini di training dagli anni ’60 a oggi. Fotografie su fotografie, dall’impatto sorprendente, con cui gli scienziati insegnano ai sistemi di intelligenza artificiale e al settore della computer vision come vedere e classificare il mondo.

Al quinto piano dell’osservatorio, il set di immagini esposte è stato impiegato, nei laboratori scientifici e in ambito militare, per classificare le caratteristiche umane. Inizialmente, lo spettatore si trova di fronte alla gigantografia di un impronta digitale, “Sdumla-Hmt” (2011), elaborata dall’Università cinese di Shadong ed utilizzata in campo biometrico. L’impronta digitale, traccia lasciata dai dermatoglifi della falange umana, viene oggi utilizzata da qualsiasi possessore di uno smartphone per sbloccarlo con una maggiore velocità. Così come l’evoluzione della tecnologia sta portando alla nascita dei primi cellulari in cui il solo sguardo permette tale azione. Si utilizza, in questo caso, un sistema di riconoscimento dell’iride, la cui immagine appare ingigantita dall’altra parte della sezione circolare appesa. Oltre all’iride e all’impronta, questo set di dati, raccolto dall’Università di Shadong, include anche il riconoscimento facciale. Il viso, quale collettore di informazioni, ricorre frequentemente nel corso dell’esposizione. Per esempio, il “Multiple Encounter Dataset” (2011) consiste in un set di dati, utilizzati per lo studio del riconoscimento facciale, che studia l’evoluzione di alcuni individui arrestati ripetutamente. E’ evidente qui il processo di invecchiamento e deterioramento.

Ma oltre a classificare parti del corpo nella loro staticità, l’intelligenza artificiale è in grado di cogliere informazioni anche e soprattutto nella loro dinamicità. E’ il caso di “Casia Gait and Cumulative Foot Pressure” (2001), un dataset creato dal centro per la biometrica e la ricerca sulla sicurezza dell’Accademia delle Scienze cinese che studia l’andatura delle persone. Un sistema, dunque, che è in grado di superare ogni limite e di spingersi oltre l’immaginabile.

E’ il caso del processo di gerarchizzazione e schematizzazione che riguarda le emozioni. Tale codificazione è sicuramente tra le più discusse in campo filosofico. Per esempio, “The Japanese female facial expression (Jaffe) Database” (1997) consiste in un set di 213 fotografie raffiguranti delle modelle giapponesi in posa. Le loro espressioni facciali sono state utilizzate per elaborare dati sulle emozioni; come se fosse possibile ridurle a delle categorie pure.
Questa tendenza alla classificazione dell’individuo dovrebbe allarmare lo spettatore e sicuramente la disposizione delle immagini in
“Yale Extendend Faces Dataset B” sollecita questo tipo di sensazione. Infatti, appena salite le scale e raggiunto il sesto piano dell’Osservatorio, l’impatto delle migliaia di fotografie distribuite lungo un’intera parete è evidente. Ma è soprattutto il “Selfie Dataset” che dovrebbe far riflettere lo spettatore, rendendolo più consapevole nel proprio atto di scattare e pubblicare selfie su Instagram, social network impiegato da giovani e non solo. Lo studio raccoglie più di 40000 fotografie che vengono suddivide in base a età, sesso, razza, forma del volto, espressioni facciali, colore e taglio di capelli, accessori e luce. Questo permette di comprendere come uno scatto, all’apparenza innocuo, entri in possesso di scienziati e studiosi per svolgere esperimenti, analisi e categorizzazioni.

Per lo spettatore più riluttante, che non si sente colpito in prima persona da questo accumulo visivo di dati, l’ultima parte dell’esposizione può essere determinante. Infatti, in “Age, Gender, and Emotions in the Wild” e in “Image-Net Roulette” (2019) viene data allo spettatore la possibilità di partecipare attivamente al processo di classificazione che, in questo caso, riguarda le sue stesse caratteristiche. Nel primo caso, i modelli utilizzati sono stati sviluppati da ricercatori di Facebook e Amazon per stimare età, sesso e condizione emotiva dei visitatori. Spesso, tuttavia, ci si rende conto come la categoria assegnata sia discutibile. Per esempio, se una donna si colloca di fronte allo schermo con i capelli legati verrà molto probabilmente classificata come appartenente al genere maschile e non femminile. Una schematizzazione, dunque, molto precaria, la cui rigidità non ha nulla a che vedere con la duttilità che l’epoca contemporanea sta acquistando. L’evoluzione, ormai senza sosta, delle macchine entra, dunque, presto in contrasto con la libertà acquisita dall’individuo. La libertà viene messa sempre più in discussione e il suo processo di regressione è ormai dietro all’angolo.

Info:

Training Humans
a cura di Kate Crawford e Trevor Paglen
12 Set 2019 – 24 Feb 2020
Osservatorio Fondazione Prada

Training HumansZhifei Zhang, Yang Song, Hairong Qi, Utk Face, 2017 
and Mahdi M Kalayeh, Misrak Seifu, Wesna LaLanne, Mubarak Shah,
 Selfie Dataset 
, 2015 
Foto Marco Cappelletti

Multiple Encounter Dataset - II (Meds-II) 
 National Institute of Standards, 2011 
 Foto Marco CappellettiNational Institute of Standards, Multiple Encounter Dataset – II (Meds-II), 2011 
 Foto Marco Cappelletti

Sdumla-Hmt 
 Yilong Yin, Lili Liu, Xiwei Sun, 2011
 Foto Marco CappellettiYilong Yin, Lili Liu, Xiwei Sun, Sdumla-Hmt, 2011
 Foto Marco Cappelletti

Trevor Paglen Studio, Age, Gender, and Emotions in the Wild
 (Modelli di Gil Levi and Tal Hassner)
, 2019
sulla destra: 
 Trevor Paglen Studio, Image-Net Roulette, 2019 
Foto Marco Cappelletti


RELATED POST

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

By using this form you agree with the storage and handling of your data by this website.