• Je t’aime moi non plus: AI e le relazioni interpersonali

    Sicuramente ricordate le parole d’amore della famosissima canzone  ‘Je t’aime moi non plus’ di Serge Gainsbourg e Jane Birkin. Ma se al posto di uno dei due amanti ci fosse un chatbot? 

    L’Intelligenza artificiale sta diventando sempre più parte integrante della nostra realtà quotidiana, dagli assistenti personali come Alexa, Google Home al riconoscimento facciale ormai utilizzato dalle aziende del beauty. Se da un lato l’IA facilita la nostra vita dall’altro guida e condiziona molti aspetti delle nostre esperienze. Alcune ricerche stanno indagando l’impatto dell’IA sulle relazioni interpersonali e amorose. In questa realtà distopica poniamoci una domanda:  può un robot provare empatia ed emozioni?

    L’impatto dell’AI sulle relazioni interpersonali

    Come potrà l’IA cambiare lo storytelling e i nostri mondi narrativi? Nella scrittura può già sostituirsi agli umani, partendo semplicemente da codici come nell’opera ‘1 The road’, creata da Ross Goodwin il primo libro scritto da una AI writing machine su una Cadillac in viaggio da New York a New Orleans o creare storie da immagini come realizzato da Ryan Kiros della University of Toronto.

    Le macchine potranno forse sostituire noi storyteller umani, ma non potranno esprimere sentimenti come l’amore. Nel mio studio dedicato alle nuove forme di narrazione nell’epoca post digitale ho letto dell’opera, ‘Lady Chatterley’s Tinderbot‘ , basata sull’utilizzo di Tinder, la famosa app d’incontri e ho deciso d’intervistare l’artista, Libby Heaney.

    Chi è Libby Heaney

    Artista e docente britannica al Royal College of Art dal 2014 con un background in quantum compting, Libby Heaney studia l’impatto delle tecnologie future. Il suo lavoro è stato presentato a Londra (Tate Modern, Victoria and Albert Museum e Christie’s), New York, Peru, e in Europa.

    Nel 2016 ha programmato Lady Chatterley’s Tinderbot, un touchscreen interattivo dove ha avviato una conversazione con ca. 800 utilizzatori anonimi di Tinder, inviando loro estratti tratti dal romanzo, “Lady Chatterley’s Lover” (David Herbert Lawrence – 1928). Un esperimento sull’AI e le relazioni interpersonali che è risultato davvero sorprendente ed è stato presentato in touchscreen in uno spettacolo dal vivo e raccolto in un libro.

    Lady Chatterley's Tinderbot

    Intervista sull’opera ‘Lady Chatterley’s Tinderbot’

    When and why did you decide to use a bot to study the human interaction about love and sex?

    In general I’m interested in how technology effects humans and how we see the world and vice versa. I wanted to make a piece that focused on technology and love and since I’ve used Tinder myself before, I decided to think about how Tinder has changed the way we find love and sex and intimacy. I was reading Lee MacKinnon’s Tinderbot Bildungsroman and Love Machines in e-flux journal, which inspired me to use a bot to explore human interaction with love and sex. After more research, I found out that Tinderbots were often gendered and used to in the aid of capitalism (‘hot women’ guiding people to porn sites and even a Tesco survey).

    How long did the study last? How many users were involved?

    I had three Tinderbots running on Tinder over the course of about a year 2016-2017. They spoke to just over 800 people mostly around the London area where I live, but also around Oxford & Berlin when I traveled there.

    Can human and machine come together to live a new form of love?

    My work was about how romantic codes are shifted due to various technologies disseminating the codes. I how love and sex function in a pre-digital technology – the literary novel – and the same with a post-digital technology – Tinder. I created three Tinderbots based on characters from Lady Chatterley’s Lover, Lady Chatterley, Mellors (the game keeper who LC has an affair with) and Clifford (Lady Chatterley’s husband who she cheats on). These agents spoke to people on Tinder using only dialogue from the novel. The human’s on Tinder were either surprised, played along or ignored this unusual style of messaging. I wasn’t really looking for a new form of love in the work, but rather wanted to point out the resonances and dissonances between old and new romantic codes that are propagated through technology.

    What’s the funniest answer you received?

    There’s lots of funny answers. You can see the pdf of some responses on my website. The point is that while the work is funny in part, it can also shows humanity as being lonely, sad and vulnerable.

    What do you think about the future of love and sex? Will we meet just online? 

    I think there as with most actions in life now, there will be a hybrid online/offline approach. It might be that we all have a bot based on our data from other websites (like FAcebook) that sits on dating apps and initiates contact with other people’s bots on our behalves. Perhaps when our bot finds someone who we might really like or fancy, it will alert us and then the humans will step in.

    L’AI potrà cambiare la nostra narrazione e le relazioni interpersonali? Sicuramente sta avendo un impatto importante in settori innovativi e tradizionali: dal customer service al recruiting e tutto il settore delle risorse umane. Quanto impatterà sull’amore? Difficile dirlo al momento.

    Nota: Articolo originariamente pubblicato in ‘Narrability Journal’ Semestrale di divulgazione scientifica sulle Scienze della Narrazione dell’Osservatorio di Storytelling.

    Fonti:

    sito http://libbyheaney.co.uk/

    Link utili

  • Il codice umano e l’AI

    L‘intelligenza artificiale (AI) può avere un impatto significativo sulle attività sociali come la musica oppure sulla scrittura e sull’arte, da sempre considerate esclusive dell’uomo, definito ‘codice umano’ da Marcus Du Sautoy ?

    Ho iniziato ad interessarmi alle applicazioni dell’AI fin dal 2016, quando, dopo aver ascoltato allo IAB lo speech del professor Giuseppe Riva, Direttore di interazione comunicativa e nuove tecnologie dell’Università Cattolica di Milano dedicato all’AI dal titolo “Intelligenza artificiale: l’intelligenza nella realtà”, avevo approfondito casi studio inerenti la musica. Avevo scritto un articolo e citato, ad esempio, MusicNet, un software realizzato da ricercatori dell’Università di Washington e gli esperimenti condotti all’interno del progetto ‘Google Brain’ creato da Google.

    Nel tempo sono stati fatti molti progressi e, come ci dice il matematico Marcus Du Sautoy nel suo libro ‘Il codice della creatività’ (ed. Rizzoli), oggi viviamo a stretto contatto con le macchine.

    Le nostre vite sono completamente dominate dagli algoritmi. Ogni volta che cerchiamo qualcosa su Internet, pianifichiamo un viaggio con il GPS, scegliamo un film raccomandato da Netflix o prendiamo un appuntamento online, siamo diretti da un algoritmo. Gli algoritmi sono la nostra guida nell’era digitale, ma pochi sanno che esistono da migliaia di anni prima dell’avvento dei computer e che stanno al cuore dell’essenza stessa della matematica. ‘ (p.698)

    L’AI non ha sostituito l’uomo, timore che spesso emerge nei convegni e negli articoli che vengono pubblicati nell’ultimo anno, ma lo ha supportato sempre più in attività complesse.

    Giornalismo

    Secondo Du Sautoy ‘l’ambito dove gli algoritmi di scrittura danno il meglio di sé è la trasformzaione di dati grezzi in articoli di giornale.

    L’intelligenza artificiale non prenderà il posto del giornalista o dello scrittore, ma svolge già oggi quei compiti nei quali l’uomo è meno efficiente, come analizzare fonti e verificarle proprio per la sua capacità di processare un numero infinito di dati e scrivere una grande quantità di articoli in tempi molto contenuti.

    Molte redazioni stanno usando gli algoritmi, come leggiamo in ‘Journalism AI – new powers, new responsibilities‘, il rapporto di Polis, think tank della LSE ( London School of Economics and political sciences) e Google News Initiative nel 2019. Si parla di giornalismo automatizzato o robotico. Di che cosa si tratta esattamente? In un articolo di Matteo Monti, ricercatore della Scuola Superiore Sant’Anna, pubblicato a marzo 2019 dall’agendadigitale.eu ho letto una definizione molto semplice ed esaustiva che condivido con voi:

    Questo nuovo metodo di produzione di news è basato sulla tecnologia NLG (natural language generation), che permette, in generale, la creazione di giornalismo testuale a partire da un insieme di dati strutturati digitalmente. Una tecnologia, questa, che prevede che un algoritmo raccolga e analizzi i dati in modo indipendente e poi scriva un articolo dagli e sugli stessi. (1)

    Il giornalismo automatizzato opera sia scrivendo e pubblicando autonomamente articoli di cronaca senza l’intervento di un giornalista, sia “collaborando” con un giornalista che può essere incaricato di supervisionare il processo o fornire input per migliorare l’articolo. (2)

    Tornando al rapportoJournalism AI’ di Polis che è stato condotto in 71 agenzie stampa in 37 nazioni emerge che:

    ‘artificial intelligence (AI) is a significant part of journalism already but it is unevenly distributed. AI is giving journalists more power, but with that comes editorial and ethical responsibilities.

    Quali sono i task nei quali l’AI può supportare il giornalismo in futuro? Nel report sono stati evidenziati questi dieci punti:

    Abbiamo parlato di giornalismo, ma quanto l’AI può influenzare anche la musica o l’arte e la scrittura?

    Musica

    Nel campo musicale mi ha incuriosita l’esperimento condotto da Damien Riehl , un legale specializzato in copywright e Noah Rubin, un programmatore. Hanno creato un algoritmo che compone melodie:

    ‘by brute force all mathematically possible melodies and write them to MIDI files. We provided the application with various parameters to mathematically exhaust every popular melody that has ever been — and are mathematically possible. When those MIDI files were written to disk, they were copyrighted automatically. We have also designated all newly created files (to which we have legal rights) to the Creative Commons CC0.

    Il loro obiettivo è quello di proteggere i musicisti ‘from being sued for copying songs they don’t remember hearing.’

    Su Wikipedia leggiamo che MIDI è l’acronimo per:

    Musical Instrument Digital Interface e si indica il protocollo standard per l’interazione degli strumenti musicali elettronici, anche tramite un computer.

    Se desiderate potete vedere il video dello speech che Damien Rieh ha tenuto al TEDx di Minneapolis alla fine dello scorso gennaio e consultare il sito.

    Manga

    Proprio in questi giorni ho letto un articolo su Leganerd.con in cui si parla di Paidon, manga scritto e disegnato da un’intelligenza artificiale. Makoto Tezuka figlio del famoso mangaka Osamu Tezuka, scomparso nel 1989, ha fatto studiare all’AI sessantaquattro opere del padre per creare una storia totalmente ispirata al suo mondo. Ha poi completato il lavoro, i dialoghi e le illustrazioni personalmente.

    Poesia

    E se le poesie fossero scritte dall’intelligenza artificiale? Ho provato un interessante esperimento dell’artista e scenografa londinese, Es Devlin che ha realizzato e messo online nel 2019 PoemPortraits, progetto che combina poesia, intelligenza artificiale e design, creato in collaborazione con Google Arts e Culture e il programmatore Ross Goodwin. Leggiamo sul sito:

    An experiment at the boundaries of AI and human collaboration. Donate a word to become part of an ever evolving collective poem and create your own POEMPORTRAIT.

    Mi sono divertita a giocare con l’algoritmo e ho scelto la parola ‘love’, digitandola nel campo indicato. L’AI ha elaborato ‘on over 20 million words of 19th century poetry is generating your unique POEMPORTRAIT.

    Nello step successivo l’applicazione mi ha chiesto se desidero attivare la fotocamera per realizzare un selfie oppure proseguire con solo testo.

    Foto 1

    Avendo optato per solo testo questa è la poesia creata per me dall’algoritmo. Il verso può essere salvato in .png (foto 2) e scaricato oppure entrare a far parte di un poema collettivo (vedi foto 3)

    Foto 2
    Foto 3

    Ho provato anche a scegliere l’altra opzione ossia a scattare una foto. I versi sono apparsi sul mio ritratto in stile video mapping 3D e lo sfondo poteva essere nei toni del rosso o del blu in modo random.

    Siete curiosi e desiderate provarlo? Ecco il link al sito e di seguito il video su YouTube in cui viene descritto il progetto.

    PoemPortrait era stato presentato già nel 2018 come installazione al Summer Party delle Serpentine Galleries di Londra e aveva riscosso molto successo tanto che, come abbiamo visto, nel 2019 era stato deciso di renderlo disponibile sul web. Potete trovare maggiori informazioni nella video-intervista su YouTube.

    Fonte: https://youtu.be/e-NUHIqmgUI

    Sempre nel 2018 la collaborazione tra il programmatore Ross Goodwin e l’artista Es Devlin aveva dato vita ad un’altra installazione molto particolare come ‘Please Feed The Lions’. Era una scultura interattiva posta in Trafalgar Square a Londra commissionata dal London Design Festival, Google Arts & Culture e The Space. Il leone, realizzato in un rosso fluorescente, ruggiva e, grazie a un algoritmo di deep learning sviluppato da Ross Goodwin, componeva una poesia collettiva generata dalle parole digitate su un tablet dai passanti.

    Perché un leone proprio a Trafalgar Square? Nel 1867 quattro leoni sono stati posti alla base della colonna di Nelson come icone britanniche e Trafalgar Square è stata da sempre considerata un luogo simbolo per meeting politici e raduni. La prima manifestazione importante si tenne nel 1848, con il raduno dei cartisti che chiedevano il suffragio universale.

    Fonte: by karyne.barwick – Instagram

    Come funzionava l’installazione? I passanti erano invitati a dar in pasto al leone una parola a loro scelta digitata su un tablet. Immediatamente il leone ruggiva con la voce ‘imprestata’ dalla vocalist Jade Pybus, mentre sullo schermo posto all’interno delle fauci appariva una strofa generata dalla parola stessa. Come leggiamo nella pagina del sito Google Arts and culture:

    The poetry is generated by an artificial neural network model that has learnt to write by reading millions of words of 19th century poetry. The specific algorithm is known as a long short-term memory (LSTM) recurrent neural network (RNN), and it works by learning to predict the next text character (letter, space, or punctuation) over and over again…’

    Durante il giorno la strofa appariva su uno schermo posto all’interno della bocca del leone e alla sera il poema collettivo veniva proiettato sul leone stesso e sulla colonna di Nelson grazie al video mapping.

    Quale sarà il futuro dell’AI e della scrittura? Riprendiamo ancora il pensiero del matematico Marcus Du Sautoy:

    Il Grande scrittore automatico resta ancora una fantasia umana. […]Ci sono talmente tante storie da raccontare che scegliere quelle degne di essere ascoltate è ancora una sfida; solo un creatore umano comprenderà per quali ragioni un’altra mente umana potrebbe volerlo seguire nel suo viaggio creativo. Senza dubbio, i computer ci assisteranno nel nostro viaggio, ma saranno i nostri telescopi e le nostre macchine da scrivere, non i narratori. ‘ (pag. 4504)

    Nel frattempo le sperimentazioni continuano e sempre più artisti, scrittori e designer realizzano e studiano nuove opere co-create con l’AI o realizzate dall’algoritmo in autonomia. Non resta che stare a guardare come conviverà il codice umano con l’AI e dare un senso al futuro.

    Negli ultimi mesi ho continuato ad approfondire temi legati alla scrittura e all’intelligenza artificiale. Nei prossimi convegni esamineremo insieme altre case studies internazionali che mi hanno interessato e che desidero portare alla vostra attenzione.

    Fonti:

    (1) (2) https://www.agendadigitale.eu/cultura-digitale/giornalismo-automatizzato-usi-e-rischi-dellintelligenza-artificiale-nelle-news/

    https://leganerd.com/2020/02/27/paidon-il-manga-scritto-e-disegnato-dallintelligenza-artificiale/

    https://thenextweb.com/neural/2020/02/26/ai-penned-manga-paidon-to-be-published-this-week/

    https://drive.google.com/file/d/1utmAMCmd4rfJHrUfLLfSJ-clpFTjyef1/view

    https://artsexperiments.withgoogle.com/poemportraits?_ga=2.33161846.992826029.1556786810-799000725.1554196893

  • Esperienze aumentate a Londra

    S e mi seguite sui social sapete che sono appassionata di esperienze immersive che coniugano narrazione e tecnologia. Cerco di sperimentare anche durante il tempo libero in occasione, ad esempio, di visite ai musei o di eventi per capire, valutare e consigliare i miei clienti.

    Quest’estate ho trascorso alcuni giorni di vacanza a Londra e ho pianificato una visita al Tate Britain Museum. Avevo letto un articolo in cui si annunciava l’accordo tra Facebook e il Tate per rendere più coinvolgente la visita con l’Instagram camera’s AR effect.

    Ho scaricato sullo smartphone l’app del Tate disponibile su Instagram e ho iniziato una ‘caccia al tesoro’ tra le sale permanenti.

    Solo otto opere sono state ‘aumentate’ grazie all’AR e vicino al quadro era posizionato un cartello che invitata il visitatore a scaricare l’app e a vivere l’esperienza.

    Devo dire che non era semplicissimo identificare le opere, in quanto il cartoncino non era ben visibile e l’esperienza in AR non era ben spiegata. Una volta individuati i quadri mi sono posizionata con lo smartphone e ho suscitato la curiosità di altri visitatori che non avevano colto l’opportunità.

    Un’iniziativa interessante, ma che avrebbe potuto essere gestita in modo più coinvolgente e soddisfacente per il fruitore. L’app non si caricava molto velocemente e a volte si perdeva il collegamento. Trattandosi di una prima esperienza frutto dell’accordo recentissimo tra Tate e Facebook , sarà sicuramente migliorata ed ampliata.

    Non ci resta che attendere nuove esperienze aumentate!

    Ecco i quadri che è possibile vedere in realtà aumentata:

    • Fishing upon the Blythe-Sand, Tide Setting In di Joseph Mallord William Turner
    • Amateurs of Tye-Wig Music (‘Musicians of the Old School’‘ di Edward Francis Burney
    • A Youth Relating Tales to Ladies di Simeon Solomon
    • The Cholmondeley Ladies di autore sconosciuto, Britain
    • Self-Portrait di Gwen John
    • Farm at Watendlath di Dora Carrington
    • Carnation, Lily, Lily, Rose di John Singer Sargent
    • Head of a Man (Ira Frederick Aldridge) di John Simpson

    Nel momento in cui si inquadra l’opera si attiva anche un’audioguida con testo scritto visibile sullo smartphone che fornisce informazioni sull’autore e sul quadro. Si unisce quindi l’esperienza immersiva una guida più classica.

    The Cholmondeley Ladies di autore sconosciuto, Britain.

    Tra i quadri più significativi come effetto immersivo:

    The Cholmondeley Ladies di autore sconosciuto, Britain. Il quadro ritrae due giovani donne che erano nate nella stessa data, si erano sposate e avevano partorito lo stesso giorno. Le ladies appaiono e ricompaiono quasi in una danza.

    Carnation, Lily, Lily, Rose di John Singer Sargent. L’esperienza in AR sottolinea il passaggio del tempo sugli oggetti e sulla scena: le lanterne si illuminano nella notte, i fiori appassiscono e scende il buio della sera. Improvvisamente il quadro diventa tutto scuro per indicare la notte e poi riappare la luce del tramonto. Molto coinvolgente.

    Head of a Man (Ira Frederick Aldridge) di John Simpson
    L’opera ritrae l’attore Ira Frederick Aldridge che, dopo aver lasciato gli Stati Uniti per Londra nel 1865, diventò il primo attore di colore a recitare le opere di Shakespeare in Inghilterra. Muovendo l’Instagram camera, lo sguardo si anima e ci segue e passa da drammatico a depresso.

    Self-Portrait di Gwen John. Un autoritratto della pittrice gallese che fece molta fatica ad affermarsi in un panorama artistico prettamente maschile. Nell’esperienza aumentata alcuni elementi della natura entrano ed escono dal quadro (un uccelino in particolare) e nell’opera appare la pittrice e in secondo piano il suo quadro.

    Ecco il link al video postato da Tate Britain sulla pagina Facebook e il video su Instagram.

    Ho approfittato della permanenza a Londra per visitare anche Kensington Gardens e Hyde Park e provare l’esperienza The Deep Listener. Creata dall’artista danese Jakob Kudsk Steensen che ha collaborato con il sound designer Matt McCorkle ci guida alla scoperta di cinque piante presenti nel parco rappresentate attraverso il suono.

    Sul sito si trova una mappa precisa e, dopo aver scaricato l’applicazione sullo smartphone, inizia l’esperienza visiva e uditiva. Le piante prendono vita e si trasformano in opere d’arte.

    Come leggiamo sul sito:

    The Deep Listener invites you to be guided on a journey to both see and hear the sights and sounds of five of London’s species: London plane trees, bats, parakeets, azure blue damselflies and reedbeds, that are part of the park ecosystem that might otherwise be ignored, intangible or simply invisible. […] Through these interactions, your own body becomes the mechanism to alter the environment around you and the technology becomes an active form of communication between the human and non-human actors in the park.
    Through The Deep Listener, Kudsk Steensen builds an experience for users to explore the sublime and vexing power of our ecosystem. The park becomes, as it has throughout history, the architectural backdrop to access the natural world that exists within the city
    .”

    Mappa delle piante aumentate con l’app The Deep Listener

    Ecco il link al video di presentazione su YouTube: https://youtu.be/_b_3NhudgO8

    Vi consiglio di provare queste due esperienze se vivete a Londra o avete l’opportunità di visitarla a breve. Sarebbe interessante anche avere uno scambio d’impressioni. Buona visita!

    Fonti:

    https://augmentedarchitecture.org/

    https://www.adweek.com/digital/facebook-creative-shop-and-the-mill-brought-ar-to-art-at-londons-tate-britain-museum/

  • L’arte prende vita in AR: il museo MAUA a Torino


    La mia passione per la realtà virtuale e aumentata applicata alla cultura visuale e storytelling urbano è cresciuta negli anni. Ricordate sicuramente quando nel 2015 il New York Times magazine introdusse una nuova forma di comunicazione narrativa in VR, testata dal NYT stesso e regalò ai lettori i cardboard per poterne fruire. Nello stesso periodo avevo partecipato al convegno, ‘Urban Augmented Reality fra Arte, Gaming, Storytelling‘, organizzato dal professor Lughi dell’Università di Torino al Castello del Valentino, evento durante il quale vennero presentate alcune esperienze italiane e internazionali in realtà aumentata, racconti che avevano coinvolto il pubblico in un’esperienza indimenticabile. Potete approfondire su Pulse al link.

    A settembre 2018, mentre stavo preparando il Google Day dedicato alla realtà mediata (VR e AR) con Work Wide Women, ho ricevuto su LinkedIn un messaggio e una richiesta di contatto. Era Joris Jaccarino, regista, curatore e manager culturale di Bepart che aveva letto informazioni sul workshop e desiderava presentarmi MAUA, il museo di Arte Urbana Aumentata, realizzato a Milano nel 2017. Il nostro incontro è avvenuto alla GAM di Torino e in quell’occasione ho scoperto un progetto di grande fascino che unisce arte e realtà aumentata, in particolare street art resa viva dall’AR. Le opere escono dai muri e prendono vita davanti a noi. Una magia.

    MAUA – è una galleria a cielo aperto, fuori dal centro di Milano, che consta di oltre 50 opere di street art animate con altrettanti contenuti virtuali fruibili attraverso la realtà aumentata.

    Joris era a Torino ad organizzare il secondo MAUA italiano che stava nascendo proprio in quei giorni. I numeri del museo di Torino sono davvero interessanti. La città è stata mappata in 4 aree:

    • Lungo la Dora “Alla ricerca dell’ACQUA: le fondamenta della città
    • Verso Sud “Alla ricerca del FUOCO: le stanze della fabbrica
    • Verso le montagne “Alla ricerca dell’ARIA: le pareti delle montagne
    • Verso Nord “Alla ricerca della TERRA: i muri interiori

    Sono state fotografate 300 opere, svolte 82 ore di workshop e coinvolti 123 ragazzi/e sul territorio, 57 digital artist e 39 street artist con la creazione di 46 murales in realtà aumentata.

    Dopo mesi di intenso lavoro il MAUA TORINO verrà inaugurato il prossimo 6 e 7 aprile al Parco Aurelio Peccei di Piazza Ghirlandaio.
    È stato realizzato grazie a una rete di partenariato composta da Bepart, come capofila, insieme ad altre sei realtà: BASE Milano, Avanzi – Sostenibilità per Azioni, Terre di Mezzo, PUSH., Camera – Centro Italiano per la fotografia, Iur –Innovazione sostenibile e l’associazione SAT – Street Art Torino.

    46 opere di street art animate in realtà aumentata diventano l’occasione per esplorare zone meno conosciute della città. Si parte scegliendo il proprio percorso. Poi, arrivati sul posto, l’esperienza prosegue in forma digitale: ogni opera, inquadrata con lo smartphone, ne genera una nuova e si trasforma in un lavoro di digital art, appositamente creato per il museo grazie a tecnologie di realtà aumentata.

    Vi chiederete che cosa mi abbia affascinato di questo progetto. Oltre alla tecnologia che amo, sicuramente lo scopo sociale di inclusione e di formazione. Un’opera partecipata e co-creata con il coinvolgimento di street artist, ragazzi, programmatori e i cittadini che possono fruire delle opere, partecipando ai tour organizzati o pianificando il proprio percorso. Un’opera educativa che mira a formare i più giovani alle nuove tecnologie e che promuove la riqualificazione delle aree meno conosciute delle città.

    Queste finalità sono state ampiamente illustrate da Giovanni Franchina, fondatore ed amministratore di Bepart, al convegno Narrability, che avevamo organizzato come Osservatorio di Storytelling lo scorso dicembre a Base Milano.

    In occasione della prossima inaugurazione del museo di Torino ho voluto fare una chiacchierata con Joris Jaccarino ed ecco l’intervista che desidero condividere con voi. Buona lettura!

    Ciao Joris ci racconti com’è nata l’idea di coinvolgere i giovani nel progetto MAUA?

    Mi è sempre piaciuta l’idea di creare arte in maniera partecipata. Per me il processo di creazione artistica deve essere democratico, condiviso, inclusivo. Ho cominciato durante gli anni dell’università, organizzai un laboratorio di cortometraggi per i ragazzi del mio quartiere, il Giambellino. Ogni fase era discussa e realizzata in gruppo, dalla sceneggiatura, alle riprese ed infine al montaggio. E’ un’esperienza che si è declinata in varie forme, dal laboratorio di Sociologia Visiva che ho tenuto alla Statale di Milano fino a MAUA.

    A valle delle due esperienze a Milano e a Torino, quali sono le maggiori difficoltà incontrate dai ragazzi durante lo svolgimento del progetto?

    Al di là delle problematiche strettamente tecniche, direi che la parte più difficile è quella di creare un’opera su una già esistente. L’artista digitale si trova a dover interpretare l’opera di un altro artista, con tutte le incertezze del caso. Proprio per questo motivo, a Torino abbiamo voluto fortemente coinvolgere più street artist possibili, facendoli interagire con i digital artist durante il workshop. Il confronto tra di loro ha dato vita a interessanti scambi di idee e narrazioni inaspettate. E’ stata un’esperienza arricchente per tutti.

    Una domanda tecnica: quali piattaforme utilizzate?

    Bepart è un cocktail di tecnologie che abbiamo assemblato, con lo scopo di fornire la migliore esperienza possibile della AR per l’utente. L’app permette di fruire contenuti in AR semplicemente inquadrando l’opera con la fotocamera del device. Si possono vedere questi contenuti anche non in presenza, ovvero inquadrando una foto come quelle del catalogo o delle cartoline. Inoltre è dotata di una mappa delle opere, cliccando sul pin si vede un’anteprima del contenuto digitale, i credit e una breve descrizione.  

    Quali caratteristiche devono avere i murales per entrare nel MAUA? Esiste una regola o solo la narrazione e la creatività guidano la scelta?

    Uno dei concetti alla base del progetto MAUA è quello della curatela partecipata. Per questo coinvolgiamo associazioni di quartiere attraverso cui dare vita a laboratori con gli studenti. Sono questi ultimi a mappare le opere di street art e a scegliere quelle che trovano più interessanti, basandosi non solo sul loro valore artistico intrinseco, ma anche sul valore esperienziale ed affettivo.

    Come funzionano i workshop attraverso cui prende forma MAUA?

    I workshop prendono l’avvio da una open call nazionale, un vero e proprio invito a prendere parte al progetto. Sono rivolti ai giovani dai 13 ai 35 anni. Vogliamo che MAUA non abbia valore solo come prodotto finale, ovvero il museo aumentato, ma anche come processo tramite cui i giovani possono acquisire competenze professionali specifiche e spendibili sul mercato del lavoro.


    Quali sono i momenti che ricordi con maggior intensità?

    Amo i momenti di esplorazione della città per cercare e mappare le opere. È come tornare bambini e giocare alla caccia al tesoro, scoprendo la città con occhi diversi. Magari sei in un posto abbandonato, ricoperto di cemento, senza nessuna attrattiva, giri l’angolo e ti trovi davanti a un bellissimo murales, colorato, vivo. C’è tutta la magia dell’infanzia e della scoperta.

    Quali sono i vostri progetti futuri e la prossima città di MAUA?

    Stiamo creando un progetto turistico per valorizzare e raccontare l’Oltrepo mantovano attraverso l’archeologia. Realizzeremo delle installazioni in AR lungo percorsi slow, ecosostenibili per favorire un turismo più consapevole.

    Per quanto riguarda MAUA, ci piacerebbe esportare il progetto ad altre città fuori dall’Italia, magari in America Latina. Buenos Aires, Rio? Vedremo.

  • Interpretare e raccontare l’arte

    Comprendiamo davvero il significato dell’arte e delle installazioni? Spesso ci soffermiamo appena e facciamo scorrere lo sguardo senza vedere realmente. La fruizione dell’arte si intreccia con la narrazione.

    In queste ore è in pieno svolgimento Artissima a Torino, la fiera d’arte contemporanea che vede coinvolte più di 200 gallerie a livello internazionale e artisti emergenti. Moltissimi visitatori percorreranno gli spazi espositivi, ma quanti davvero riusciranno a comprendere appieno il senso dell’arte?

    Un momento di approfondimento mi è stato offerto il 18 ottobre scorso quando ho avuto l’occasione di partecipare ad una open lecture dell’artista Paolo Inverni all’interno del corso di Interactive Storytelling del professor Giulio Lughi dell’Università di Torino.

    Di seguito qualche frase che ho ritrovato nei miei appunti su cui vorrei riflettere con voi.

    Il confine artista e autore non esiste più, costruisce mondi.

    La gestione dell’informazione è nelle mani dell’autore. L’autore sa ciò che lo spettatore non sa in partenza e decide quali informazioni offrire. Deve gestire l’informazione, dandola riorganizzata.

    Se l’autore genera mondi, la narratività è uno spaccato di mondi e il suo ruolo è quindi legato all’etica e alla morale. Seleziona le informazioni, decidendo i tempi e l’ordine oltre a quanto e come. Quante informazioni al mq è giusto offrire al lettore/fruitore, si chiede il relatore? Testo fitto o meno denso?

    L’artista ha portato l’esempio di un quotidiano degli anni ’50 a confronto con uno attuale per far comprendere quanto la percezione del lettore cambi a seconda dei tempi e della tecnologia. Quello che sembrava normale negli anni ’50 attualmente risulta troppo denso per una lettura efficace e senza gerarchia. Oggi si pubblicano testi meno fitti e densi. Dobbiamo tenere presenti due fattori fondamentali degli anni passati:

    • gli alti costi di stampa
    • la lettura era destinata ad un pubblico di nicchia.

    Nei quotidiani si è sentita influenza dell’hypertext, per cui si prediligono non testi interi, ma titolo, inserto e rimando a pagina interna. Neanche l’editoriale è più intero sulla prima pagina, ma leggiamo solo blocchi informativi che fanno riferimento alla pagina interna.

    Anche la convergenza tra immagini e informazioni testuali era differente, perché le tecniche di stampa erano diverse: le riproduzioni erano sempre in B/N e non sulla stessa pagina e spesso cambiava la carta (patinata per un’efficacia visiva maggiore). Oggi la convergenza è completa e un esempio perfetto è offerto dalle infografiche che sono spesso parte integrante, anzi sostituiscono in alcuni casi l’articolo. Una modalità narrativa che ha una grande efficacia ed impatto sul lettore.

    Da autore a progettista –> deve conoscere i limiti dei media e dei linguaggi per sapere come verrà applicato e realizzato. Deve controllare il risultato finale.

    Nell’arte contemporanea si possono applicare figure retoriche nello spazio e secondariamente nel tempo. Esiste un controllo totale dello spazio (luce, accessi, distanza dello spettatore, etc) utile per le installazioni.

    Il relatore si sofferma sulla Site-specific art dove l’opera d’arte non risolve il suo significato all’interno di una cornice, ma nello spazio.

    Se leggiamo su Wikipedia scopriamo che

    Site is a current location, which comprises a unique combination of physical elements: depth, length, weight, height, shape, walls, temperature.

    Ci porta anche l’esempio di una sua installazione, Fremito e ci fornisce gli elementi narrativi per comprenderla. Storytelling spaziale –> sviluppo narrativo nello spazio.

    Obiettivo dell’opera: mettere in discussione la staticità. Un lampadario, normalmente statico se non in presenza di fenomeni naturali quali un terremoto è stato dotato di un motorino interno che provoca una vibrazione delle gocce. L’artista ha studiato le vie di accesso: a 30 metri il visitatore vede un movimento quasi impercettibile e può pensare di avere la vista stanca, ma non appena si avvicina si rende conto che le gocce vibrano davvero. In sottofondo sente una musica di elicotteri che suscita una certa ambivalenza da una parte sicurezza (vegli su di me) dall’altra (pericolo e ansia).

    Sentimenti ed emozioni vengono vissuti in modo differente dagli spettatori.

    Nell’arte contemporanea il timing di fruizione non è imposto.

    A differenza del cinema ognuno può prendersi i propri tempi per la fruizione. Tornare e rivedere l’installazione e viverla in modo soggettivo.