WUD 2020 Milano

Seconda giornata della maratona italiana WUD 2020: tappa a Milano con Avanade, l’Università di Milano-Bicocca e SIE Lombardia e Liguria.


Anche in questo caso, come per il WUD 2020 Perugia, i miei marginalia sono appunti sparsi della giornata. Per chi volesse rivederli, tutti gli interventi sono disponibili sul canale Youtube di SIE Piemonte:

Follow the cyber rabbit, Luca Mascaro (Sketchin)

Ospite “fisso” dei WUD milanesi Luca Mascaro  quest’anno propone una lettura della dualità del rapporto artificiale e umano ripercorrendo la storia del metodo scientifico inaugurata da Galileo con il Dialogo sopra i due massimi sistemi del mondo pubblcato nel 1632. Padre della scienza moderna, G. demanda a due personaggi archetipici ed a un “mediatore” il discorso che contrappone opposte visioni del mondo. Simplicio, il “tradizionalista“, Salviati, colui che impersona e difende la scienza moderna il principio razionale e sperimentale e Sagredo con il suo punto di vista in equilibiro in una prospettiva, che potremmo definire, tecnica, sociale ed economica.

Quando parliamo di AI e progettiamo l’interazione con sistemi esperti, questi due contributi sono entrambi importanti: da un lato l’approccio raziononale-dimostrativo e freddo, dall’altro quello emozionale del pensiero e dell’esperienza umana. La vera questione è trovare un punto di mediazione che ne valorizzi la complementarietà.

Il nostro approccio al mondo – in termini di conoscenza –  è deduttivo-nomologico ovvero basato su esperienza, tradizione e cultura. La rappresentazione che ci facciamo della realtà, ovviamente deduce quest’ultima dalla percezione che abbiamo delle cose. Il nostro approccio ci offre una grande capacità di inferenza che ci permette di interpretare eventi inattesi e sconosciuti o formulare nuove idee. L’effetto avverso è, viceversa, il  lomito dovuto al nostro carico mentale e quindi all’impossibilità di contemplare la massa dei dati nella loro completezza. Bias, pregiudizi, istinti emozioni influenzano, infatti, le nostre decisioni. Le “macchine”, al contrario, si basano su di un modello induttivo-statistio, pur cercando di emulare l’intelligenza umana. E logico: l’AI risponde con un’inferenza oggettiva – se la domanda è posta in modo corretto – e “completa” rispetto al set di dati, ma per contro non ha capacità rispetto all’inatteso.

Partendo da un’esperienza professionale, M. evidenzia proprio l’emergere di problemi quando le due componenti non sono messe in condizione di collaborare. Passata con successo la prima fase di sperimentazione, l’applicazione finanziaria progettata e testata con early adopter – ovvero utenti aperti, curiosi e entusiasti rispetto alle innovazioni – si arena quando passa ad un pubblico più ampio. Chi non si fida, infatti, ne abbandona presto l’uso individuando nella rigidità del modello input/output, anziché dialogico-colaborativo il maggior limite. Il mancato atto di empatia della AI è il paradosso su cui il progetto si arena.

Un modello efficace a cui guardare, forse è il GPS che, pur suggerendo un percorso in base a dati e parametri oggettivi, rimame aperto alle variabili introdotte dall’utente quando decide un detour o un percorso alternativo. Alla sfida umana il sistema risponde con un “atto di fiducia” e una riconfigurazione dinamica e dialogica. 1

Sei sono i punti per creare una relazione equilibrata tra i due opposti, l’umano e l’artificiale:

  1. la completezza dell’informazione le deve fornire una visione completa per quanto “semplificata”
  2. il diritto di scegliere liberamente da parte dell’esseer umano
  3. costruire un rapporto di fiducia tramite la sperimentazione
  4. mantenere una dialettica aperta e collaborativa tra uomo e AI
  5. la IA deve sempre quantificare il valore in termini di beneficio per le persone
  6. la protezione della privacy

Predicting the future of Human-Centered AI, Fabio Moioli (Microsoft)

Dell’intervento di Fabio Moioli, mi ha colpito soprattutto il rapporto di parità che negli anni e sempre più rapidamente, le “macchine” hanno raggiunto con l’umano, talvolta, ormai, superandolo. Come nel caso dell’intelligenza articiale Xiaoice – sviluppata dalla divisione cinese di Microsoft – che, tra le altre cose, scrive poesie.

Quello che impressiona e affascina è sicuramente la rapidità di questa evoluzione. Era il 1997 quando Deep Blue della IBM, batteva Garry Kasparov a scacchi, ma già nel 2017 l’AI aveva raggiunto la parità con l’essere umano nel riconoscimento vocale della dettatura, come fosse una segretaria qualsiasi! 🙂 Ed è del 2019 la parità nella traduzione in simultanea tra inglese e e cinese.

L’AI ed il suo avvento, sono fenomeni analoghi all’adozione dell’elettricità come energia che sostituiva il motore a vapore, aprendo poi possibilità e scenari nuovi e inediti. In questo senso i bot conversazionali hanno già ribaltato il paradigma di interazione: adesso è la macchina che apprende e comprende il nostro linguaggio e non viceversa.

L’interazione uomo-robot: dalla robotica alle neuroscienze cognitive per lo svilppo di robot sociali, Francesca Ciardo e Claudia Latella (IIT)

Intervento a due voci quello di Fancesca Ciardo e Claudia Latella che convergono, da punti divista diversi, verso la sperimentazione nel mondo della robotica e nel suo rapporto con le persone.

Da un lato il mondo hard dell’automazione, dall’altro quello della ricerca neuroscientifica che esplorano la relazione fisico-prossemica uomo-robot e quella emotivo-sociale.

Due differenti studi. Il primo sulla sensorizzazione delle persone affinché le macchine – in questo caso robot da catena di montaggio – siano in grado di capirne posizione, forza e movimento ed adattarsi di conseguenza. L’algoritmo alla base del comportamento automatizzato, infatti, legge i dati provenienti dai sensori indossati dalla persona con cui coopera e si adatta di conseguenza, grazie all’inferenza probabilistica. Due i parametri fondamentali di questa interazione: il movimento nello spazio della persona (cinematica) e lo sforzo muscolare (dinamica) rilevati tramite sensori capacitivi.

Il secondo, in ambito neuroscienze, esplora nuove prassi per esplorare il comportamento delle persone. Oltre a domande esplicite e a dati quantificati, per esempoi, tramite scale Lickert, poter vedere i meccanismi e le rispote neurali apre a ulteriori possibilità. Tra quest, il capire se nella interazione con un robot la risposta è analoga a quella con un altro umano o differente. Usando strumenti come caschi EEG (che intercettano i segnali elettrici del cervello) o eye-tracking, gli esperimenti mettono a confronto persone e robot umanoidi, per vedere l’effetto che fa. Il focus è comprendere se meccanismi alla base del nostro comportamento sociale, come l’attenzione congiunta – che si sviluppa molto presto nei bambini e che ci porta a spostare spontanemante a spostare il nostro sgurado su di un altro punto/oggetto condiviso, quando l’interlocutore lo distoglie da noi – è analoga quando ci relaizoniamo con agenti non umani. Alla base di tutto, lo sguardo – nel caso di un robot gli occhi sono due telecamere e mancano della naturale intenzionalità – e l’instaurarsi o l’evitare un contatto visivo. Nel primo caso, la relazione si gioca di un piano umano, se invece manca l’ingaggio visivo, la persona è distratta e meno condivisiva.

Altro principio esplorato: l’azione condivisa. Se invitati a suonare con un sistema automatizzato in caso di errore falliamo nel predirlo e recuperarlo in modo corretto. Viceversa se c’è un robot che ci somiglia è più facile il recupero e la interazione. Nell’esperimento se gli errori commessi nel suonare una melodia sono di tipo meccanico (interruzione) vs. di memoria (una inversione nella sequenz) osseriviamo effetti diversi. Un minor recupero, rispetto al primo, mentre nella second ipotesi gli errori si riducono significativamente se c’è un robot in presenza. La “fisicalizazzione” del sistema permette, dunque, una migliore performance.

Infine, è stato testato il principio di diffusione della responsabilità per cui percepiamo come meno negative le conseguenze delle nostre azioni/errori se siamo in un contesto sociale (siamo piu indulgenti verso noi stessi!). I risultati cambiamo se siamo in presenza di un agente sociale che è a) un robot non-umanoide, b) un oggetto meccanico o c) un’altra persona. Quello che ha meno impatto in assoluto risulta essere l’agente puramente meccanico, come emerge dalle registrazione dei correlati neurali che rileva la necessità di interagire con un agente agente sociale ovvero intenzionale.

Gli asperimenti descritti sono condotti nell’ambiente  altamente controllati, ma ci sono già applicazioni nell’ambito della riabilitazoine delle abilita sociali come nel caso del deficit dello spettro autistico e l’orientamento è quello di provare a capire i meccanismi neurocognitivi con ricerche in to the wild come ospedali o ambienti domestici.


Per saperne di più:

  1. qui, personalmente, suggefrirei di andare a rileggersi il testo della Laurel 😉

Sostieni il Progetto Amnesia:
aiutami a far crescere la biblioteca
regalami un libro!