WUD 2020 Torino

WUD 2020 Torino

Nella “settimana italiana” WUD 2020, oggi il testimone passa a Torino, dopo Perugia e Milano e prima della conclusione, venerdì, con l’evento di Bologna.

Parte da Torino e dalla SIE Piemonte, presieduta da Silvia Gilotta che ha curato la regia degli eventi, l’iniziativa di queste quattro giornate italiane del World Usability Day 2020. WUD 2020 Torino rappresenta la settima edizione dell’evento sotto l’egida di quella che è l’associazione professionale che promuove l’ergonomia dal 1962 in Italia. Ricerca, pratica e professione si concentrano sull’interazione tra persone, oggetti e ambienti digitali e non nel costante sforzo di renderla fluida alla luce delle singole individualità e degli specifici contesti.

Il tema dellAI trova, non solo negli studi ergonomici, ma anche nella città di Torino un luogo ideale per il dibattito il confronto, visto che quest’ultima è stata di recente nominata Capitale dell’Intelligenza Artificiale.

Sul canale Youtube di SIE Piemonte trovate il video di tutti gli eventi, sketchnoting a cura di Alessandro Bonaccorsi di Disegno Brutto (che ha già fatto un Ergowebinar sul tema durante il lock-down). Di seguito, invece, i miei personali marginalia sull’evento. Enjoy! 🙂

WUD 2020 Torino: gli speakers

AI4TO: cosa l’AI può fare a Torino, Marco Pironti (Assessore all’innovazione, Torino)

Il primo relatore sul palco – virtuale – del WUD 2020 Torino è Marco Pironti, nella doppia veste di accademico e di amministratore pubblico. Le amministrazioni locali sono spesso a latere e carenti di risorse, ma, tuttavia, possono fare la differenza ovvero sviluppare una visione più orientata a un bene comune. La dimensione di capitale della AI – parte dell’eredità storica della città, insieme a quella industriale – permette di cambiare pelle riconvertendo, per esempio, il settore dall’automobile verso diversi modelli di mobilità in cui l’intelligenza da artificiale diventa intangibile.

La macchina per l’uomo e non l’uomo per la macchina: per una intelligenza artificiale amica, Don Luca Peyron

Impegnato nel servizio dell’apostolato digitale, soprattutto in ambito universitario, don Luca Peyron parte dalla dicotomia che la AI introduce tra umano e artificiale.

Analisi di dati e strumento di percezione: le macchine guardano e inseriscono modelli in ciò che vedono, facendo statistiche con conseguenze sulla nostra vita. La macchina impara e capisce cosa fare, agisce nella realtà, in questo il machine learning è uno degli aspetti più distopici. La macchina, infatti, è anamorfica, ovvero rispetta la topologia, ma ne deforma le proporzioni e ne perde i dati, come quelli nuovi. È apofenica cioè consolida illusoriamente sistemi di correlazione causale non esistenti nella realtà, come quando  mostra connessioni tra le morti per soffocamento da lenzuola con il  consumo di mozzarella di bufala! 🙂 Lo scopo della AI, dunque, è aiutarci a stare nella complessità informativa, non costringere noi, ad essere performanti come le macchine. A nostra volta, dovremmo imparare che il valore ha un prezzo e non affidarci agli automatismi, come nel caso di Google che, ormai dal 2014, ci propone no quello che cerchiamo, bensì che ritiene sia bene che noi vediamo.

Il digitale ci offre una visione che macro, cioè, è uno strumento che ci permette di decidere al di là del nostro campo visivo, solo se la AI riesce a mantenere nel nostro cono ottico la diversità, anziché cancellarla. I processi di datificazione, infatti, comportano regolarmente lo scarto di qualcosa o di qualcuno. Un esempio portato da P. è la app sviluppata dalla municipalità di Boston per rilevare i buchi nelle strade – tramite gli spostamenti dei cittadini e sfruttando la capacità dei device di intercettare il movimento “verticale” –  e poi intervenire con la manutenzione. I dati, raccolti in forma anonima mostrano, però, che il problema è presente solo nei quartieri ricchi. Nei quartieri poveri, semplicemente, la gente è impegnata a sopravvivere e magari non sa nemmeno di questa opportunità o non ha uno smartphone. Di fatto, i poveri – come tutti quelli che non hanno accesso al digitalenon hanno voce, in quanto esclusi dal processo di datificazione. Lo spazio reale e concreto diventa residuale o statistico.

L’essere umano, dunque, deve rimanere tale, non espropriato o cancellato nella propria umanità. Dal suo osservatorio privilegiato sui giovani P. sottolinea come, un 20enne di oggi usi di più la parola ansia, che amore. Una deriva intollerabile che richiama gli adulti alle loro responsabilità al dovere di restituire un mondo di emozioni e sentimenti umani, di amore, di pianti, di risa.

Certamente le macchine sono parte della nostra vita. La rivoluzione tecnologica è partita in maniera alluvionale e ci ha investiti: la governance è stata gestita secondo logiche tecniche e commerciali, ma è arrivato il tempo di formulare un pensiero che guidi e orienti le scelte presenti e future1. Teologicamente le macchine sono cristiformi cioè tengono insieme due elementi impossibili: questa doppia polarità richiede, invece, di essere messa  in collaborazione, capace di nutrire l’essere umano – come un dio – ma che lascia al contempo liberi, anche capace di sbagliare.

L’approccio europeo: un’intelligenza artificiale affidabile per la società e per l’uomo, Emanuela Girardi

Emanuela Girardi presenta e mette criticamente a confronto i diversi modelli che, a livello internazionale, di adozione e gestione dell’AI considerata il nuovo driver dello sviluppo e la leadership mondiali. Molti stati hanno già definito a partire dal 2016 le loro agende rispetto allo sviluppo della AI. Da un lato il modello cinese accentrato con un forte controllo pubblico (raccolta e uso dei dati per il controllo dei comportamenti dei cittadini, come il riconoscimento facciale) gestito da 3  società presenti sul mercato cinese, le cosiddette BAT. Dall’altro l’approccio americano decentrato e, fondamentalmente, in mano a GAFAM, le 6 società private e piattaforme che controllano, di fatto, il mercato globale.

L’Europa, che si à mossa in ritardo su questo tema (dal 2018), ha invitato gli stati a collaborare nella ricerca di una strategia comune partendo dal documento e dalle linee guida sviluppato da un gruppo di 56 esperti che ha posto due principi fondativi, ovvero che le tecnologie di AI devono essere affidabili e antropocentriche.

Intelligenza Artificiale (AI) indica sistemi che analizzando il proprio ambiente e compiendo delle azioni con un certo grado di autonomia, raggiungono dei determinati obiettivi, mostrando un comportamento che se fosse svolto da un essere umano definiremmo intelligente

—Definizione europea di AI

Il concetto di affidabilità della tecnologia implica che essa sia robusta dal punto di vista tecnico e che rispetto quattro principi fondamentali:

  1. non nuocere all’uomo
  2. l’autonomia dell’uomo (human in the loop)
  3. la correttezza (fair)
  4. la spiegabilità delle decisioni prese in automatico

Rispetto al concetto di antropocentrica, la strategia Italiana, basata su quella europea, è andata oltre. Gli obiettivi che sono posti rispecchiano quelli di sviluppo e implementazione dello sviluppo sostenibili dell’Agenda 2030, come ridurre fame e povertà, disuguaglianze, energia pulita, educazione.

Tra gli esempi di applicazione che vanno in questa direzione, l’emergenza COVID-19 ha permesso di utilizzare AI nell’analisi dei dati epidemiologici e nell creazione di modelli previsionali, di analisi della mobilità, di lettura dei dati infodemici emergenti nei social media o di inferenza sui dati medici per sviluppare diagnosi e cura (es. dati molecolari) o per ridurre l’uso di farmaci esistenti e nello sviluppo di nuovi vaccini. L’adozione si è estesa fino alla robotica e ai sistemi embedded dove gli algoritmi guidano le macchine nella sanificazione degli ambienti.

Tuttavia, queste tecnolgie duali comportano anche rischi: conoscenza e consapevolezza sono i modi per usare “in sicurezza”.

Per esempio bolle di filtraggio dei social media – gli algoritmi di raccomandazione ci profilano in base ai post, i like e ai contenuti che vediamo e condividiamo – ci offrono solo “cose che ci piacciono”. Il pluralismo e la complessità di posizioni e opinioni ne risultano fortemente limitati con il rischio di influenzare il comportamento fino a mettere in dubbio le normali dinamiche democratiche, come abbiamo visto nelle recenti elezioni americane. Il continuo confronto con idee simili rafforza le opinioni, rendendole sempre più polarizzate: o sei pro o sei contro!

Il GDPR e la regolamentazione europea sono un buon sistema di protezione dei dati, ma il sistema necessita ulteriori strumenti, attualmente in discussione, in termini di protezione dai rischi. D’altro canto, la partita si gioca nelle prossime generazioni e nella loro educazione per coltivare la consapevolezza, anche in ambito scolastico. È fondamentale far conoscere e comprendere sia le potenzialità sia i rischi dell’uso delle tecnologie, per esempio, nella condivisione dei dati, aumentando la percezione del loro valore anche in termini di gratuità e profitto. Le competenze digitali sono e saranno sempre più uno dei fattori di impiegabilità delle persone in futuro.

Intelligenza artificiale: l’impatto sulle nostre vite, Alessandro Longo

Dall’intervento di Alessandro Longo – autore con Guido Scorza del volume Intelligenza Artificiale. L’impatto sulle nostre vite, diritti e libertà – emergono soprattutto spunti rispetto ai macro-temi del lavoro e della sorveglianza rispetto all’impatto che le tecnologie e l’AI hanno  sulle nostre vite, sulla nostra struttura sociale ed il suo futuro.

Da un lato, assistiamo alla diffusione dell’automazione e della robotica che trasformano i luoghi di lavoro, l’impiegabilità delle persone e la necessità di recuperare il mercato del lavoro umano (in termini di posti, ma anche di ore, come la Gig Economy già ci sta mostrando). Dall’altro l’uso del riconoscimento di dati biometrici utilizzati per sorvegliare la popolazione, apre questioni critiche, come lo specifico orientamento discriminatorio e di controllo di minoranze etniche, che ci fa già parlare di fenomeni di biosorveglianza.

L’altro polo del dibattito è rappresentato dalla legislazione e dalla consapevolezza dei cittadini. Le leggi infatti non bastano per comprendere potenzialità e rischi dell’AI rispetto alla società civile e all’esercizio della democrazia. La situazione è nuova: non si è mai ancora visto un gap così profondo tra la trasformazione tecnologica – estremamente complessa e velocee la percezione e consapevolezza che le persone ne hanno. Le conoscenze basilari di questi meccanismi diventano fondamentali, specialmente all’interno di quei corsi di studi a vocazione tecnica – ingegneria, informatica e così via – per responsabilizzare gli agenti della trasformazione. Questioni etiche e privacy dovrebbero essere considerati nell’ideazione e sviluppo di qualsiasi prodotto, oggetto o servizio affinché le logiche coinvolte non siano solo quelle di business o di nicchie di potere con interessi specifici e limitati, ma che riguardino anche la politica e la società civile.

[intermezzo: consiglio a tutti di guardare e giocare con Alessandro Bonaccorsi dal minuto 1:58 del video sul ragionare disegnando dello Sketchnoting Cafè]

Perchè l’intelligenza artificiale ha bisogno di Valori Umani, Gianluca Mauro

Autore di Zero to AI e fondatore della AI Academy, Gianluca Mauro inizia raccontando una della possibili applicazioni della AI, calata in scenari quotidiani – dalla guida, alla selezione del personale, fino ai contesti ospedalieri – in cui è la macchina a decidere in autonomia, al di là del nostro istinto. Qual è la reazione all’idea che sia un algoritmo ad avere preso queste decisioni, soprattutto se questa hanno delle conseguenze sulle nostre vite? È il caso delle macchine a guida autonoma di Ueno (Google): non sono scenari futuri, sono il passato. Con tutti le conseguenze, come nel caso dell’algoritmo di selezione del personale di Amazon che selezionava, di fatto, solo uomini in base ai dati, o l’articolo su Nature rispetto al razzismo dei sistemi intelligenti di diagnostica.

La colpa è della tecnologia? È sessista e razzista? Ma chi produce i dati da cui impara e si nutre? Il problema sta a monte: le donne impiegate nelle STEM sono il 17,2% del totale il 15,5% in Italia. Il bias è umano: è il manager di Amazon che ha assunto sempre e solo uomini, o il sistema sanitario americano che è fortemente legato al reddito. È uno specchio dei valori della nostra società. La piattaforma Moral Machine2 aiuta a capire questi dilemmi etici chiedendoti di fare scelte scomode ed è stata pensata proprio per avere dati umani con cui alimentare gli algoritmi. Il sistema registra anche la distribuzione spaziale di chi vota e valuta. Guardando la mappa salta all’occhio che chi sta definendo le regole della AI è concentrato in luoghi specifici, per esempio le due coste degli Stati Uniti, che l’Africa è assente dal dibattito e che probabilmente una buona parte dell’umanità, su cui queste scelte incideranno, non sta partecipando a questa costruzione collettiva.

Humanazing AI: approcci e strumenti pratici per sistemi di intelligenza artificiale umani, equi e responsabili, Debora Bottà

Debora Bottà chiude il panel del WUD 2020 Torino portando il punto di vista dello ux design che è human-centered per definizione. Il progetto pone le persone al centro e ne considera bisogni, desideri e aspettative, ma di fatto prendiamo decisioni sulla vita di altre persone e sui loro comportamenti, con tutto ciò che questo atto comporta. Chi decide che cosa è bene o cosa è male?

Design is applied ethics. Every act of design is a statement about the future.

—Cennydd Bowles, Future Ethics

Parlare di Human-centered AI significa vedere la tecnologia come un abilitatore, i dati da soli non bastano, se non servono a crescere e nutrire. Il valore, infatti, è dato dall’esperienza che sono in grado di generare. Per ragionare del tema in termini progettuali, B. ci propone una selezione di linee guida e kit per cercare di individuare una sintesi di diversi approcci a partire da Ethics for designer:

  1. Moral value map: strumento per costruire una mappa di valori, che siano universali, ma anche calati nel contesto specifico in cui stiamo operando
  2. Carte valori di Figma: funzione del software collaborativo di design e prototipazione per costruire una mappa degli attori, diretti e indiretti, così come di chi viene, altrimenti, escluso.
  3. Everyday ethics for AI di IBM: una mappa per conoscere i bias cognitivi, includendo anche i propri.
  4. Canvas dell’Open Data Institute: prendiamoci cura dei dati domandandosi le ragioni per cui li usiamo.
  5. Speculative/future design: immaginiamo scenari distopici, pensando al peggio che può accadere, per definire le azioni affinché non diventino realtà.
  6. Design Ethically tool kit: una dichotomy map per analizzare ogni singola funzionalità, scendendo nel particolare e mappando gli aspetti positivi o negativi.
  7. Human design Guide dello Center for Humane Technology: programmare delle valutazioni periodiche, come nel caso di Spotify che effettua le Ethical Assessment considerando l’impatto della tecnologia sia dal punto sociale, sia emozionale, ma anche fisico.

La domanda, con cui Debora conclude il proprio intervento, ma anche, idealmente, la giornata è se l’approccio human-centered all’AI sia sufficiente?


Per saperne di più:

Note:

  1. suggerisco sul tema il recente libro di Massimiano Bucchi sul tema: Io & Tech
  2. qui alcuni approfondimenti

Leave a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *