• Je t’aime moi non plus: AI e le relazioni interpersonali

    Sicuramente ricordate le parole d’amore della famosissima canzone  ‘Je t’aime moi non plus’ di Serge Gainsbourg e Jane Birkin. Ma se al posto di uno dei due amanti ci fosse un chatbot? 

    L’Intelligenza artificiale sta diventando sempre più parte integrante della nostra realtà quotidiana, dagli assistenti personali come Alexa, Google Home al riconoscimento facciale ormai utilizzato dalle aziende del beauty. Se da un lato l’IA facilita la nostra vita dall’altro guida e condiziona molti aspetti delle nostre esperienze. Alcune ricerche stanno indagando l’impatto dell’IA sulle relazioni interpersonali e amorose. In questa realtà distopica poniamoci una domanda:  può un robot provare empatia ed emozioni?

    L’impatto dell’AI sulle relazioni interpersonali

    Come potrà l’IA cambiare lo storytelling e i nostri mondi narrativi? Nella scrittura può già sostituirsi agli umani, partendo semplicemente da codici come nell’opera ‘1 The road’, creata da Ross Goodwin il primo libro scritto da una AI writing machine su una Cadillac in viaggio da New York a New Orleans o creare storie da immagini come realizzato da Ryan Kiros della University of Toronto.

    Le macchine potranno forse sostituire noi storyteller umani, ma non potranno esprimere sentimenti come l’amore. Nel mio studio dedicato alle nuove forme di narrazione nell’epoca post digitale ho letto dell’opera, ‘Lady Chatterley’s Tinderbot‘ , basata sull’utilizzo di Tinder, la famosa app d’incontri e ho deciso d’intervistare l’artista, Libby Heaney.

    Chi è Libby Heaney

    Artista e docente britannica al Royal College of Art dal 2014 con un background in quantum compting, Libby Heaney studia l’impatto delle tecnologie future. Il suo lavoro è stato presentato a Londra (Tate Modern, Victoria and Albert Museum e Christie’s), New York, Peru, e in Europa.

    Nel 2016 ha programmato Lady Chatterley’s Tinderbot, un touchscreen interattivo dove ha avviato una conversazione con ca. 800 utilizzatori anonimi di Tinder, inviando loro estratti tratti dal romanzo, “Lady Chatterley’s Lover” (David Herbert Lawrence – 1928). Un esperimento sull’AI e le relazioni interpersonali che è risultato davvero sorprendente ed è stato presentato in touchscreen in uno spettacolo dal vivo e raccolto in un libro.

    Lady Chatterley's Tinderbot

    Intervista sull’opera ‘Lady Chatterley’s Tinderbot’

    When and why did you decide to use a bot to study the human interaction about love and sex?

    In general I’m interested in how technology effects humans and how we see the world and vice versa. I wanted to make a piece that focused on technology and love and since I’ve used Tinder myself before, I decided to think about how Tinder has changed the way we find love and sex and intimacy. I was reading Lee MacKinnon’s Tinderbot Bildungsroman and Love Machines in e-flux journal, which inspired me to use a bot to explore human interaction with love and sex. After more research, I found out that Tinderbots were often gendered and used to in the aid of capitalism (‘hot women’ guiding people to porn sites and even a Tesco survey).

    How long did the study last? How many users were involved?

    I had three Tinderbots running on Tinder over the course of about a year 2016-2017. They spoke to just over 800 people mostly around the London area where I live, but also around Oxford & Berlin when I traveled there.

    Can human and machine come together to live a new form of love?

    My work was about how romantic codes are shifted due to various technologies disseminating the codes. I how love and sex function in a pre-digital technology – the literary novel – and the same with a post-digital technology – Tinder. I created three Tinderbots based on characters from Lady Chatterley’s Lover, Lady Chatterley, Mellors (the game keeper who LC has an affair with) and Clifford (Lady Chatterley’s husband who she cheats on). These agents spoke to people on Tinder using only dialogue from the novel. The human’s on Tinder were either surprised, played along or ignored this unusual style of messaging. I wasn’t really looking for a new form of love in the work, but rather wanted to point out the resonances and dissonances between old and new romantic codes that are propagated through technology.

    What’s the funniest answer you received?

    There’s lots of funny answers. You can see the pdf of some responses on my website. The point is that while the work is funny in part, it can also shows humanity as being lonely, sad and vulnerable.

    What do you think about the future of love and sex? Will we meet just online? 

    I think there as with most actions in life now, there will be a hybrid online/offline approach. It might be that we all have a bot based on our data from other websites (like FAcebook) that sits on dating apps and initiates contact with other people’s bots on our behalves. Perhaps when our bot finds someone who we might really like or fancy, it will alert us and then the humans will step in.

    L’AI potrà cambiare la nostra narrazione e le relazioni interpersonali? Sicuramente sta avendo un impatto importante in settori innovativi e tradizionali: dal customer service al recruiting e tutto il settore delle risorse umane. Quanto impatterà sull’amore? Difficile dirlo al momento.

    Nota: Articolo originariamente pubblicato in ‘Narrability Journal’ Semestrale di divulgazione scientifica sulle Scienze della Narrazione dell’Osservatorio di Storytelling.

    Fonti:

    sito http://libbyheaney.co.uk/

    Link utili

  • Eventi e formazione in social VR

    Mi sono appassionata alle piattaforme di social VR da tempo e ho iniziato a studiarle e frequentarle, partecipando a eventi e a momenti di formazione. Volevo immergermi in questa realtà parallela per capire se potesse rispondere alle mie esigenze. Il lockdown improvviso ha fermato tutto intorno a noi, quasi cristallizzato l’attimo. Distanziamento fisico e mascherine non ci hanno permesso più di condividere gli spazi, gli abbracci, di vivere insieme le emozioni se non nello stretto nucleo familiare e sui balconi con quelle esternazioni di dolore e di voglia di vita. Nello stesso tempo internet ci ha unito e permesso di colmare questo vuoto.

    Proprio durante la pandemia ho avuto tempo di vagare nei mondi virtuali, di approfondire e frequentare un gruppo appena costituito su Facebook e in Altspace dove ho conosciuto docenti, fan di Second Life, ‘esploratori’ di altre dimensioni.

    Li definisco ‘esploratori’ nella più classica accezione degli archetipi Junghiani così cari a noi storyteller. Chi erano gli esploratori? Facciamo un passo indietro, ricordando il significato di archetipi. Leggiamo in Wikipedia:

    La parola archetipo deriva dal greco antico ὰρχέτυπος col significato di «immagine», composto da arché + typos, ed è stata utilizzata per la prima volta da Filone di Alessandria e, successivamente, da Dionigi di Alicarnasso e Luciano di Samosata.’

    Gli archetipi sono presenti in ogni cultura, prendendo voce nei miti, nelle favole, nelle leggende che racchiudono in sé i principali temi dell’uomo dall’origine dei tempi.

    Con la curiosità e la passione dell’esploratrice ho iniziato a sperimentare con il mio Oculus Quest e ho selezionato alcune piattaforme che ho testato. Il mio approccio alla tecnologia è diretto e basato sulla sperimentazione. Non mi accontento di leggere o apprendere le funzionalità dei device o delle piattaforme, devo ‘sporcarmi le mani’ e con tenacia provare e riprovare per capire.

    Vediamo insieme che cosa sono le piattaforme di Social VR e perché possono essere utili a noi formatori per aule virtuali, per incontri con clienti ed eventi decisamente innovativi.

    Piattaforme di Social VR

    Ricordate sicuramente Second Life, un mondo virtuale elettronico digitale lanciato il 23 giugno 2003 dalla società americana Linden Lab a seguito di un’idea del fondatore, Philip Rosedale. Ha avuto un grande successo tanto che era stata coniata una moneta virtuale. Grandi aziende organizzavano eventi e società di formazione avevano iniziato a tenere corsi in quella realtà digitale. Non è stato abbandonato e può contare ancora su diversi appassionati che continuano a ritrovarsi e vivere insieme esperienze. Tuttavia negli anni sono nati altri mondi digitali più personalizzati ed evoluti.

    Leggiamo su Wikipedia:

    virtual world is a computer-simulated environment which may be populated by many users who can create a personal avatar, and simultaneously and independently explore the virtual world, participate in its activities and communicate with others. These avatars can be textual, two or graphical representations, or live video avatars with auditory and touch sensations. 

    Le piattaforme di Social VR permettono di condividere un luogo virtuale con altre persone, seguire corsi come quelli in lingua inglese con l’attivissimo Educators in VR ed alcune consentono di creare anche ambienti privati e molto personalizzati dove poter invitare i propri contatti o clienti e organizzare eventi.

    Quali sono i plus? Vediamoli brevemente:

    • presenza
    • interazione
    • coinvolgimento
    • attenzione.

    In poche parole immersività, perché in un luogo virtuale sei totalmente coinvolto e con l’uso di visori ti puoi muovere agilmente come in vera e propria presenza. Si interagisce, si può scrivere su una lavagna o mostrare le slide durante i convegni, si partecipa ad eventi, si condividono le stesse emozioni. Non c’è l’affaticamento o il desiderio di evadere che spesso si verifica durante le classiche riunioni in Zoom o GotoMeeting, perché si è in co-presenza.

    Il livello di attenzione è superiore alla norma e si possono co-creare esperienze con i partecipanti in campo educativo e di formazione. Indossando un visore come Oculus Quest dopo un po’ di ore si è affaticati, ma mai annoiati.

    Esperienze in VR

    Come ho anticipato ho sperimentato diverse piattaforme, ma ho frequentato soprattutto Altaspace VR. Per trasmettervi le mie impressioni partirò dalle esperienze dirette, avendo partecipato a diversi eventi internazionali e italiani. Di seguito vi segnalo quelli che mi hanno interessato maggiormente in ambito italiano.

    A marzo ho preso parte ad uno dei primi incontri del gruppo Italiani su Altspace (il mio avatar è il primo a sinistra con il giubbino arancione). Un momento didattico informativo sulla piattaforma condotto dal founder Simone Bennati (aka Bennaker).

    Ad aprile si è tenuto un incontro con Pyramid Cafè e Edu3D su ‘VR Low Cost‘ organizzato da Francesco Spadafina (aka Magicflute).

    A maggio ho partecipato ad un evento più ‘mondano’, la Virtual Gallery organizzata da Fabrizio di Lelio (aka Fb DL su Facebook e samo976 nei mondi virtuali). Ecco il link al video pubblicato su YouTube. Potete vederlo anche in calce all’articolo.

    Un’esperienza davvero interessante sia dal punto di vista immersivo sia tecnico, perché Samo976 è davvero bravissimo nella realizzazione di ambienti in Altspace. Abbiamo sperimentato anche una visita virtuale ricca di esperienze e in più ambienti dalla sala allestita con mostra fotografica all’esposizione esterna con poesie all’evento live.

    Durante il mese di giugno Francesco Spadafina ha organizzato due momenti molto coinvolgenti:

    • l’incontro con la docente Cristiana Pivetta su ‘I mondi virtuali e l’apprendimento‘ (vedi video su YouTube in calce);
    • Vernissage con Carmen Auletta dal titolo ‘Le poesie dipinte
    Incontro con Cristiana Pivetta in Altspace VR
    Vernissage di Carmen Auletta
    Mostra in Altspace dedicata a Carmen Auletta

    Due eventi molto diversi, in quanto nel primo abbiamo potuto ascoltare le esperienze dirette di Cristiana Pivetti che da molti anni ha fatto con gli studenti esperienze in ambienti virtuali, provando varie piattaforme e creando una didattica all’avanguardia.

    Nel secondo evento siamo stati accolti nel mondo di Sharing TV con il direttore Domenico Di Conza per la performance canora di Ivana D’Alessandro per poi passare con il teleport nella Gallery ad ascoltare le poesie in napoletano declamate personalmente da Carmen Auletta durante la visita alle sue opere.

    Lezioni universitarie e convegni

    In questi ultimi mesi abbiamo assistito ad esperimenti interessanti di alcune università che, causa del lockdown, hanno dovuto rivedere l’offerta formativa ed erogare i corsi, testando anche le piattaforme di social VR.

    Ad aprile l’Università degli Studi di Napoli ‘Parthenope’ ha organizzato la prima lezione universitaria in Altspace VR, tenuta dal professor Gianluca Arnesano.

    Lo scorso maggio il VR@Polito ha organizzato un incontro in cui docenti e studenti si sono potuti muovere come avatar all’interno del modello 3D in Bim del caso di studio che dovevano approfondire, condividendo in gruppo lo spazio virtuale. 

    Tra gli eventi internazionali e nazionali vi segnalo alcuni che si sono svolti in questi giorni o a cui parteciperò.

    Dal 21 al 25 giugno è stata organizzata la iLRN2020 Open Virtual Conference sulla piattaforma VirBELA sul tema ‘Vision 20/20: Hindsight, Insight, and Foresight in XR and Immersive Learning

    Il 29 maggio AltaspaceVR ha ospitato il 1° Tech Talk “virtuale” di Hewlett-Packard con Spike Huang di HP e Alex Kipman di Microsoft.

    Il 7 luglio prossimo parteciperò all’evento di SingularityU Milan dal titolo ‘Lavoro e tecnologie immersive’, accedendo alla meeting room sulla piattaforma VirBELA.

    Piattaforme sperimentate

    Anche se utilizzo normalmente il visore mi sono concentrata su alcune piattaforme WebXR che possono essere utilizzate anche su brower e possibilmente gratuite. Per coinvolgere un pubblico più ampio è infatti necessario non prevedere solo l’uso del visore che in Italia non è ancora così diffuso. Ho quindi studiato e preparato dei tutorial per i neofiti e per avvicinare i pubblici meno digitalizzati, esplorando le varie versioni.

    Mozilla Hubs

    Un’applicazione open source rilasciata nel 2018. Si può fuire di un ambiente già disponibile oppure completamente creato ad hoc e personalizzato con l’editor 3D Spoke. Piattaforma gratuita e di facile fruizione. Si possono proiettare le slide direttamente dal desktop.

    Link: https://hubs.mozilla.com/#/

    Avatar in Mozilla Hubs

    AltspaceVR

    Piattaforma di Microsoft viene fondata nel 2013 e lanciata nel 2015. Può essere fruita con visori standalone tra cui Oculus Go e Oculus Quest, ma è accessibile da brower scaricandola da Microsoft Store oppure da Steam. Nel caso in cui si disponga di iOS è necessario installare Parallels e così accedere a Windows. Si tratta di una piattaforma gratuita molto frequentata dove potete trovare dalle chiese virtuali ai corsi di yoga, di minfulness, di lingue come russo, cinese e inglese agli spettacoli con artisti internazionali.

    Link: https://altvr.com/

    Engage VR

    Rilasciata nel 2016 è una ‘education and training platform’ di Immersive VR Education. Gratuita per prova è fruibile dalle aziende su preventivo.

    Link: https://engagevr.io/

    Selezione di location in Engage VR

    Spatial

    Fu fondata dal CEO e Co-Founder, Anand Agarawala e Jinha Lee, Chief Product Officer (CPO) che si erano conosciuti a una TED conference nel 2013. Rilasciata nel 2016 è gratuita per tempo limitato, le aziende devono contattare la compagnia per ricevere un preventivo.

    Link: https://spatial.io/

    Avatar in Spatial

    VrBELA

    Fondata nel 2012 propone un open campus e spazi virtuali che possono essere affittati. Garantisce un’elevata personalizzare dell’avatar. Dispone di suono spaziale e un’ambientazione molto realistica. La piattaforma è gratuita nell’open campus, mentre le aziende devono richiedere un listino prezzi per gestire una propria aula o area.

    Link: https://www.virbela.com/

    Avatar nella sala convegni in VirBELA

    La scelta è molto vasta ed è quindi necessario testare le varie soluzioni, tenendo presente i seguenti elementi:

    • prezzi
    • livello di personalizzazione degli avatar
    • possibilità di personalizzare o creare gli spazi
    • possibilità di condividere il desktop o mostrare le slide durante gli eventi/corsi
    • facilità d’accesso da parte degli utenti
    • l’audio che se spaziale può consentire di lavorare in più gruppi anche all’interno dello stesso ambiente.
    • accessori e feature disponibili sia per personalizzare o creare gli ambienti sia per interagire con i partecipanti

    Sono convinta che, anche con la riapertura degli eventi in presenza, le piattaforme di Social VR possano essere una soluzione innovativa che cattura l’attenzione dei pubblici che gradiscono provare un’esperienza immersiva e coinvolgente.

    Se desiderate avere una visione completa delle piattaforme disponibili sul mercato vi consiglio di leggere il testo ‘Remote collaboration the future of work virtual conferences‘ scritto da Charlie Fink con Mark Billinghurst e Joel Kotkin. Il manuale è stato presentato in anteprima durante l’ultimo convegno The VR/AR Global Summit Online che si è tenuto in streaming dal 1 al 3 giugno scorso.

    Copertina del libro di Charlie Fink

    Come dice Charlie Fink nel suo libro:

    The thing everyone wants is not a technology, it’s engagement.

    Ecco i video dei due eventi citati.

  • Il codice umano e l’AI

    L‘intelligenza artificiale (AI) può avere un impatto significativo sulle attività sociali come la musica oppure sulla scrittura e sull’arte, da sempre considerate esclusive dell’uomo, definito ‘codice umano’ da Marcus Du Sautoy ?

    Ho iniziato ad interessarmi alle applicazioni dell’AI fin dal 2016, quando, dopo aver ascoltato allo IAB lo speech del professor Giuseppe Riva, Direttore di interazione comunicativa e nuove tecnologie dell’Università Cattolica di Milano dedicato all’AI dal titolo “Intelligenza artificiale: l’intelligenza nella realtà”, avevo approfondito casi studio inerenti la musica. Avevo scritto un articolo e citato, ad esempio, MusicNet, un software realizzato da ricercatori dell’Università di Washington e gli esperimenti condotti all’interno del progetto ‘Google Brain’ creato da Google.

    Nel tempo sono stati fatti molti progressi e, come ci dice il matematico Marcus Du Sautoy nel suo libro ‘Il codice della creatività’ (ed. Rizzoli), oggi viviamo a stretto contatto con le macchine.

    Le nostre vite sono completamente dominate dagli algoritmi. Ogni volta che cerchiamo qualcosa su Internet, pianifichiamo un viaggio con il GPS, scegliamo un film raccomandato da Netflix o prendiamo un appuntamento online, siamo diretti da un algoritmo. Gli algoritmi sono la nostra guida nell’era digitale, ma pochi sanno che esistono da migliaia di anni prima dell’avvento dei computer e che stanno al cuore dell’essenza stessa della matematica. ‘ (p.698)

    L’AI non ha sostituito l’uomo, timore che spesso emerge nei convegni e negli articoli che vengono pubblicati nell’ultimo anno, ma lo ha supportato sempre più in attività complesse.

    Giornalismo

    Secondo Du Sautoy ‘l’ambito dove gli algoritmi di scrittura danno il meglio di sé è la trasformzaione di dati grezzi in articoli di giornale.

    L’intelligenza artificiale non prenderà il posto del giornalista o dello scrittore, ma svolge già oggi quei compiti nei quali l’uomo è meno efficiente, come analizzare fonti e verificarle proprio per la sua capacità di processare un numero infinito di dati e scrivere una grande quantità di articoli in tempi molto contenuti.

    Molte redazioni stanno usando gli algoritmi, come leggiamo in ‘Journalism AI – new powers, new responsibilities‘, il rapporto di Polis, think tank della LSE ( London School of Economics and political sciences) e Google News Initiative nel 2019. Si parla di giornalismo automatizzato o robotico. Di che cosa si tratta esattamente? In un articolo di Matteo Monti, ricercatore della Scuola Superiore Sant’Anna, pubblicato a marzo 2019 dall’agendadigitale.eu ho letto una definizione molto semplice ed esaustiva che condivido con voi:

    Questo nuovo metodo di produzione di news è basato sulla tecnologia NLG (natural language generation), che permette, in generale, la creazione di giornalismo testuale a partire da un insieme di dati strutturati digitalmente. Una tecnologia, questa, che prevede che un algoritmo raccolga e analizzi i dati in modo indipendente e poi scriva un articolo dagli e sugli stessi. (1)

    Il giornalismo automatizzato opera sia scrivendo e pubblicando autonomamente articoli di cronaca senza l’intervento di un giornalista, sia “collaborando” con un giornalista che può essere incaricato di supervisionare il processo o fornire input per migliorare l’articolo. (2)

    Tornando al rapportoJournalism AI’ di Polis che è stato condotto in 71 agenzie stampa in 37 nazioni emerge che:

    ‘artificial intelligence (AI) is a significant part of journalism already but it is unevenly distributed. AI is giving journalists more power, but with that comes editorial and ethical responsibilities.

    Quali sono i task nei quali l’AI può supportare il giornalismo in futuro? Nel report sono stati evidenziati questi dieci punti:

    Abbiamo parlato di giornalismo, ma quanto l’AI può influenzare anche la musica o l’arte e la scrittura?

    Musica

    Nel campo musicale mi ha incuriosita l’esperimento condotto da Damien Riehl , un legale specializzato in copywright e Noah Rubin, un programmatore. Hanno creato un algoritmo che compone melodie:

    ‘by brute force all mathematically possible melodies and write them to MIDI files. We provided the application with various parameters to mathematically exhaust every popular melody that has ever been — and are mathematically possible. When those MIDI files were written to disk, they were copyrighted automatically. We have also designated all newly created files (to which we have legal rights) to the Creative Commons CC0.

    Il loro obiettivo è quello di proteggere i musicisti ‘from being sued for copying songs they don’t remember hearing.’

    Su Wikipedia leggiamo che MIDI è l’acronimo per:

    Musical Instrument Digital Interface e si indica il protocollo standard per l’interazione degli strumenti musicali elettronici, anche tramite un computer.

    Se desiderate potete vedere il video dello speech che Damien Rieh ha tenuto al TEDx di Minneapolis alla fine dello scorso gennaio e consultare il sito.

    Manga

    Proprio in questi giorni ho letto un articolo su Leganerd.con in cui si parla di Paidon, manga scritto e disegnato da un’intelligenza artificiale. Makoto Tezuka figlio del famoso mangaka Osamu Tezuka, scomparso nel 1989, ha fatto studiare all’AI sessantaquattro opere del padre per creare una storia totalmente ispirata al suo mondo. Ha poi completato il lavoro, i dialoghi e le illustrazioni personalmente.

    Poesia

    E se le poesie fossero scritte dall’intelligenza artificiale? Ho provato un interessante esperimento dell’artista e scenografa londinese, Es Devlin che ha realizzato e messo online nel 2019 PoemPortraits, progetto che combina poesia, intelligenza artificiale e design, creato in collaborazione con Google Arts e Culture e il programmatore Ross Goodwin. Leggiamo sul sito:

    An experiment at the boundaries of AI and human collaboration. Donate a word to become part of an ever evolving collective poem and create your own POEMPORTRAIT.

    Mi sono divertita a giocare con l’algoritmo e ho scelto la parola ‘love’, digitandola nel campo indicato. L’AI ha elaborato ‘on over 20 million words of 19th century poetry is generating your unique POEMPORTRAIT.

    Nello step successivo l’applicazione mi ha chiesto se desidero attivare la fotocamera per realizzare un selfie oppure proseguire con solo testo.

    Foto 1

    Avendo optato per solo testo questa è la poesia creata per me dall’algoritmo. Il verso può essere salvato in .png (foto 2) e scaricato oppure entrare a far parte di un poema collettivo (vedi foto 3)

    Foto 2
    Foto 3

    Ho provato anche a scegliere l’altra opzione ossia a scattare una foto. I versi sono apparsi sul mio ritratto in stile video mapping 3D e lo sfondo poteva essere nei toni del rosso o del blu in modo random.

    Siete curiosi e desiderate provarlo? Ecco il link al sito e di seguito il video su YouTube in cui viene descritto il progetto.

    PoemPortrait era stato presentato già nel 2018 come installazione al Summer Party delle Serpentine Galleries di Londra e aveva riscosso molto successo tanto che, come abbiamo visto, nel 2019 era stato deciso di renderlo disponibile sul web. Potete trovare maggiori informazioni nella video-intervista su YouTube.

    Fonte: https://youtu.be/e-NUHIqmgUI

    Sempre nel 2018 la collaborazione tra il programmatore Ross Goodwin e l’artista Es Devlin aveva dato vita ad un’altra installazione molto particolare come ‘Please Feed The Lions’. Era una scultura interattiva posta in Trafalgar Square a Londra commissionata dal London Design Festival, Google Arts & Culture e The Space. Il leone, realizzato in un rosso fluorescente, ruggiva e, grazie a un algoritmo di deep learning sviluppato da Ross Goodwin, componeva una poesia collettiva generata dalle parole digitate su un tablet dai passanti.

    Perché un leone proprio a Trafalgar Square? Nel 1867 quattro leoni sono stati posti alla base della colonna di Nelson come icone britanniche e Trafalgar Square è stata da sempre considerata un luogo simbolo per meeting politici e raduni. La prima manifestazione importante si tenne nel 1848, con il raduno dei cartisti che chiedevano il suffragio universale.

    Fonte: by karyne.barwick – Instagram

    Come funzionava l’installazione? I passanti erano invitati a dar in pasto al leone una parola a loro scelta digitata su un tablet. Immediatamente il leone ruggiva con la voce ‘imprestata’ dalla vocalist Jade Pybus, mentre sullo schermo posto all’interno delle fauci appariva una strofa generata dalla parola stessa. Come leggiamo nella pagina del sito Google Arts and culture:

    The poetry is generated by an artificial neural network model that has learnt to write by reading millions of words of 19th century poetry. The specific algorithm is known as a long short-term memory (LSTM) recurrent neural network (RNN), and it works by learning to predict the next text character (letter, space, or punctuation) over and over again…’

    Durante il giorno la strofa appariva su uno schermo posto all’interno della bocca del leone e alla sera il poema collettivo veniva proiettato sul leone stesso e sulla colonna di Nelson grazie al video mapping.

    Quale sarà il futuro dell’AI e della scrittura? Riprendiamo ancora il pensiero del matematico Marcus Du Sautoy:

    Il Grande scrittore automatico resta ancora una fantasia umana. […]Ci sono talmente tante storie da raccontare che scegliere quelle degne di essere ascoltate è ancora una sfida; solo un creatore umano comprenderà per quali ragioni un’altra mente umana potrebbe volerlo seguire nel suo viaggio creativo. Senza dubbio, i computer ci assisteranno nel nostro viaggio, ma saranno i nostri telescopi e le nostre macchine da scrivere, non i narratori. ‘ (pag. 4504)

    Nel frattempo le sperimentazioni continuano e sempre più artisti, scrittori e designer realizzano e studiano nuove opere co-create con l’AI o realizzate dall’algoritmo in autonomia. Non resta che stare a guardare come conviverà il codice umano con l’AI e dare un senso al futuro.

    Negli ultimi mesi ho continuato ad approfondire temi legati alla scrittura e all’intelligenza artificiale. Nei prossimi convegni esamineremo insieme altre case studies internazionali che mi hanno interessato e che desidero portare alla vostra attenzione.

    Fonti:

    (1) (2) https://www.agendadigitale.eu/cultura-digitale/giornalismo-automatizzato-usi-e-rischi-dellintelligenza-artificiale-nelle-news/

    https://leganerd.com/2020/02/27/paidon-il-manga-scritto-e-disegnato-dallintelligenza-artificiale/

    https://thenextweb.com/neural/2020/02/26/ai-penned-manga-paidon-to-be-published-this-week/

    https://drive.google.com/file/d/1utmAMCmd4rfJHrUfLLfSJ-clpFTjyef1/view

    https://artsexperiments.withgoogle.com/poemportraits?_ga=2.33161846.992826029.1556786810-799000725.1554196893

  • Tour immersivi al Museo Archeologico di Cagliari

    Da appassionata di arte e di realtà immersiva seguo con interesse le iniziative dei musei sul mio social preferito, Twitter. Alla fine di settembre ho scoperto un appuntamento imperdibile del Museo Archeologico di Cagliari per chi vive nella città o è in vacanza in Sardegna: i mercoledì dell’archeologia virtuale. Grazie al mio commento e condivisione e alla gentile risposta da parte del museo mi sono messa in contatto per proporre un’intervista d’approfondimento.

    Ringrazio per questa chiacchierata la dottoressa Manuela Puddu, Funzionaria archeologa e Responsabile Museo archeologico nazionale di Cagliari e Area archeologica Su Nuraxi di Barumini e la dottoressa Lara Sarritzu, Responsabile servizi educativi.

    Quando è nata l’idea dei mercoledì dell’archeologia virtuale e a quale pubblico è rivolta?

    L’idea è nata quando abbiamo adottato i visori VR con una decina di siti archeologici tra i principali della Sardegna. Abbiamo proposto al pubblico i tour guidati virtuali in alcune serate di apertura straordinaria e abbiamo visto che era particolarmente gradita la formula dell’esplorazione dei panorami immersivi con una voce esterna di una guida in carne e ossa che spiega i monumenti che si “visitano” e con la quale naturalmente si ha il vantaggio di poter interagire.

    Avete già sperimentato in passato esperienze di realtà virtuale nel Museo archeologico nazionale di Cagliari e in caso affermativo con quali risultati?

    Al Museo di Cagliari sono presenti due tavoli touch in cui è possibile “giocare” con i panorami 360°, i modelli 3D dei Monumenti e quelli delle statue di Mont’e Prama. Di solito sono molto utilizzati, dagli utenti di tutte le età e provenienze.

    Sul sito ho letto che il tour virtuale tocca ‘importanti siti archeologici della Sardegna e ricostruzioni virtuali della Nora romana mi piacerebbe avere qualche informazione aggiuntiva sul video. La realizzazione è stata curata dal vostro museo? Con quali visori può essere fruito il tour e qual è la durata?

    Il Museo di Cagliari collabora da tempo con la società Teravista che ha eseguito le riprese a 360° dei siti e con il Dipartimento dei Beni Culturali dell’Università di Padova che ha curato le ricostruzioni 3D della città di Nora, dove da anni porta avanti attività di studio e di scavo.Il tour virtuale viene fruito con l’uso di visori Samsung Gear VR abbinati a smartphone Samsung S6.Le nostre guide conducono i visitatori in una “passeggiata virtuale” di una decina minuti che tocca alcuni dei siti disponibili, generalmente 3 o 4 per tour.

    Le postazioni sono dislocate in più aree del museo o è stata predisposta una sala ad hoc?

    Le postazioni dei visori sono “mobili”, nel senso che si potrebbero utilizzare ovunque, ma di norma è destinata ai Mercoledì dell’archeologia virtuale la sala didattica del Museo.

    L’iniziativa era fruibile nel mese di ottobre. Avete altri progetti in realtà immersive per il futuro?

    Continueremo con i mercoledì nel mese di novembre e stiamo raccogliendo i feedback che ci danno gli stessi utenti per pensare a nuove proposte. Una di queste sarà verosimilmente destinata a permettere la fruizione di questi contenuti nel fine settimana.

    Vi consiglio di seguire le innumerevoli iniziative del Museo Archeologico di Cagliari e tenervi aggiornati sui social dove è molto attivo. Buona visita!

  • Esperienze aumentate a Londra

    S e mi seguite sui social sapete che sono appassionata di esperienze immersive che coniugano narrazione e tecnologia. Cerco di sperimentare anche durante il tempo libero in occasione, ad esempio, di visite ai musei o di eventi per capire, valutare e consigliare i miei clienti.

    Quest’estate ho trascorso alcuni giorni di vacanza a Londra e ho pianificato una visita al Tate Britain Museum. Avevo letto un articolo in cui si annunciava l’accordo tra Facebook e il Tate per rendere più coinvolgente la visita con l’Instagram camera’s AR effect.

    Ho scaricato sullo smartphone l’app del Tate disponibile su Instagram e ho iniziato una ‘caccia al tesoro’ tra le sale permanenti.

    Solo otto opere sono state ‘aumentate’ grazie all’AR e vicino al quadro era posizionato un cartello che invitata il visitatore a scaricare l’app e a vivere l’esperienza.

    Devo dire che non era semplicissimo identificare le opere, in quanto il cartoncino non era ben visibile e l’esperienza in AR non era ben spiegata. Una volta individuati i quadri mi sono posizionata con lo smartphone e ho suscitato la curiosità di altri visitatori che non avevano colto l’opportunità.

    Un’iniziativa interessante, ma che avrebbe potuto essere gestita in modo più coinvolgente e soddisfacente per il fruitore. L’app non si caricava molto velocemente e a volte si perdeva il collegamento. Trattandosi di una prima esperienza frutto dell’accordo recentissimo tra Tate e Facebook , sarà sicuramente migliorata ed ampliata.

    Non ci resta che attendere nuove esperienze aumentate!

    Ecco i quadri che è possibile vedere in realtà aumentata:

    • Fishing upon the Blythe-Sand, Tide Setting In di Joseph Mallord William Turner
    • Amateurs of Tye-Wig Music (‘Musicians of the Old School’‘ di Edward Francis Burney
    • A Youth Relating Tales to Ladies di Simeon Solomon
    • The Cholmondeley Ladies di autore sconosciuto, Britain
    • Self-Portrait di Gwen John
    • Farm at Watendlath di Dora Carrington
    • Carnation, Lily, Lily, Rose di John Singer Sargent
    • Head of a Man (Ira Frederick Aldridge) di John Simpson

    Nel momento in cui si inquadra l’opera si attiva anche un’audioguida con testo scritto visibile sullo smartphone che fornisce informazioni sull’autore e sul quadro. Si unisce quindi l’esperienza immersiva una guida più classica.

    The Cholmondeley Ladies di autore sconosciuto, Britain.

    Tra i quadri più significativi come effetto immersivo:

    The Cholmondeley Ladies di autore sconosciuto, Britain. Il quadro ritrae due giovani donne che erano nate nella stessa data, si erano sposate e avevano partorito lo stesso giorno. Le ladies appaiono e ricompaiono quasi in una danza.

    Carnation, Lily, Lily, Rose di John Singer Sargent. L’esperienza in AR sottolinea il passaggio del tempo sugli oggetti e sulla scena: le lanterne si illuminano nella notte, i fiori appassiscono e scende il buio della sera. Improvvisamente il quadro diventa tutto scuro per indicare la notte e poi riappare la luce del tramonto. Molto coinvolgente.

    Head of a Man (Ira Frederick Aldridge) di John Simpson
    L’opera ritrae l’attore Ira Frederick Aldridge che, dopo aver lasciato gli Stati Uniti per Londra nel 1865, diventò il primo attore di colore a recitare le opere di Shakespeare in Inghilterra. Muovendo l’Instagram camera, lo sguardo si anima e ci segue e passa da drammatico a depresso.

    Self-Portrait di Gwen John. Un autoritratto della pittrice gallese che fece molta fatica ad affermarsi in un panorama artistico prettamente maschile. Nell’esperienza aumentata alcuni elementi della natura entrano ed escono dal quadro (un uccelino in particolare) e nell’opera appare la pittrice e in secondo piano il suo quadro.

    Ecco il link al video postato da Tate Britain sulla pagina Facebook e il video su Instagram.

    Ho approfittato della permanenza a Londra per visitare anche Kensington Gardens e Hyde Park e provare l’esperienza The Deep Listener. Creata dall’artista danese Jakob Kudsk Steensen che ha collaborato con il sound designer Matt McCorkle ci guida alla scoperta di cinque piante presenti nel parco rappresentate attraverso il suono.

    Sul sito si trova una mappa precisa e, dopo aver scaricato l’applicazione sullo smartphone, inizia l’esperienza visiva e uditiva. Le piante prendono vita e si trasformano in opere d’arte.

    Come leggiamo sul sito:

    The Deep Listener invites you to be guided on a journey to both see and hear the sights and sounds of five of London’s species: London plane trees, bats, parakeets, azure blue damselflies and reedbeds, that are part of the park ecosystem that might otherwise be ignored, intangible or simply invisible. […] Through these interactions, your own body becomes the mechanism to alter the environment around you and the technology becomes an active form of communication between the human and non-human actors in the park.
    Through The Deep Listener, Kudsk Steensen builds an experience for users to explore the sublime and vexing power of our ecosystem. The park becomes, as it has throughout history, the architectural backdrop to access the natural world that exists within the city
    .”

    Mappa delle piante aumentate con l’app The Deep Listener

    Ecco il link al video di presentazione su YouTube: https://youtu.be/_b_3NhudgO8

    Vi consiglio di provare queste due esperienze se vivete a Londra o avete l’opportunità di visitarla a breve. Sarebbe interessante anche avere uno scambio d’impressioni. Buona visita!

    Fonti:

    https://augmentedarchitecture.org/

    https://www.adweek.com/digital/facebook-creative-shop-and-the-mill-brought-ar-to-art-at-londons-tate-britain-museum/

  • Beni culturali e realtà immersiva: intervista a Roberto Carraro di Carraro Lab


    Nel mese di marzo ho partecipato ad un evento organizzato dall’Accademia di Brera all’interno della Milano Digital Week 2019 dal titolo ‘Cultura immersiva. Realtà virtuale e realtà aumentata nella trasformazione delle arti e nella cura dei beni culturali.‘ I temi discussi durante la giornata sono stati molteplici dalle neuroscienze e cultura con il prof. Gallese al museo M9 di Mestre, dall’anteprima italiana del visore in mixed reality, Magimask alla sperimentazione ‘Portatori di storie’ di StudioAzzurro, solo per citarne alcuni.

    Tra i relatori era presente anche Livio Karrer, curatore del Museo M9 di Mestre, il museo multimediale più interattivo d’Europa che ha presentato il progetto e ha illustrato le sezioni tematiche che esaltano la visitor experience, grazie alle nuove tecnologie immersive (VR, AR).

    Ho voluto approfondire il tema musei e tecnologie immersive con il moderatore dell’evento, il professor Roberto Carraro della Carraro Lab, docente di Didattica Multimediale all’Accademia di Brera, che per M9 ha curato la sezione dedicata alla trasformazione dei paesaggi urbani e agrari del ‘900 con 15 installazioni interattive immersive nei territori, ricostruzioni 3D, compositing e morphing interattivi, come, ad esempio, l’ascensore spazio temporale.

    Vi invito a leggere l’intervista nella quale abbiamo affrontato argomenti molto attuali dal 5G alla realtà immersiva per i musei storici, al rischio di obsolescenza dei device e molto altro. Enjoy!

    In occasione dell’evento ‘Cultura immersiva’ da voi organizzato all’Accademia di Brera è stato presentato M9 di Mestre, nel quale Carraro Lab ha curato un’importante sezione interattiva e immersiva. Il museo, inaugurato il 1 dicembre 2018, ha unito perfettamente cultura – tecnologia – didattica in un progetto globale. Come si può integrare la tecnologia VR e AR in poli museali storici?

    Certamente Realtà Virtuale ed Aumentata possono dare un fondamentale contributo per ampliare il target e intensificare l’esperienza di visita nei musei storici. I musei, tradizionalmente collezioni di reperti, oltre a preservare i beni culturali hanno da tempo il compito di fare ricerca e diffondere conoscenza.
    Le tecnologie immersive hanno come primo obiettivo il recupero del rapporto tra reperto e contesto originario, perduto con la musealizzazione.
    Grazie ad AR e VR i reperti di un museo possono inoltre essere analizzati, sezionati, comparati tra loro, ricondotti alle tecniche e alle fasi di lavorazione;  autori ed eventi storici possono presentificarsi nel museo.  Oggi i musei sono diventati anche luoghi identitari fondamentali per la valorizzazione di un territorio. Con la trasformazione digitale i musei possono sviluppare intense esperienze immersive e interattive, senza perdere la centralità delle loro collezioni. 

    Nel rapporto Federculture 2018 vengono riportati i dati dell’ultimo Censimento ISTAT  nel quale emerge che: ‘ è possibile constatare come appena il 30% dei quasi cinquemila musei presenti in Italia offra almeno un servizio digitale in loco (comprendendo tra questi app, QR code, wifi, ma anche le più tradizionali audioguide) e almeno uno online (sito web, account social, biglietteria online). La percentuale si riduce all’11% se consideriamo i musei che ne offrono almeno due.’ Secondo lei quanto potrà incidere l’avvento del 5G nello sviluppo della digitalizzazione dei distretti culturali e dei musei? 

    La diffusione della rete 5G renderà possibili nuove soluzioni per musei, città d’arte, siti archeologici. La grande capacità e la riduzione della latenza nella trasmissione dei dati renderà disponibili al visitatore contenuti di grande efficacia.
    È necessario peró pensare nuove tipologie di contenuti, pensati per la fruizione in mobilità e contestuali . Anche in questo caso AR e VR, ovviamente nelle loro versioni online, sono tecnologie centrali, insieme alle soluzioni IoT (Internet Of Things).

    Il rilascio di nuovi visori e piattaforme è sempre più veloce. L’anno scorso è stato lanciato Oculus Go e stiamo aspettando entro il mese corrente Oculus Quest, mentre durante l’evento a Brera è stato presentato Magimask, il nuovo visore in mixed reality. Può esserci il rischio di una rapida obsolescenza degli strumenti tecnologici per un polo museale? E come contrastare questo eventuale rischio? 

    L’obsolescenza tecnologica è un problema da considerare quando si progetta un museo. È consigliabile relativizzare i device tecnologici e concentrarsi sui contenuti, che devono essere di alta qualità,  aderire a standard condivisi, e sviluppare metafore interattive capaci di creare valore autonomamente dalla specifica tecnologia adottata.

    Durante la conferenza della scorsa settimana Google I/O è stata presentata la novità della AR nei risultati della Search. Ritiene possa avere un impatto positivo sull’utilizzo dell’AR da parte del grande pubblico? Potrà favorire l’adozione delle nuove tecnologie anche da parte dei musei più resistenti alla Digital Transformation? 

    Il consolidamento della Realtà Aumentata nel web, e quindi nei motori di ricerca, è la strada maestra per la sua affermazione, oggi limitata da piattaforme proprietarie chiuse e incompatibili.
    WebAR e webVR sono due componenti chiave del nascente Web 3.0, contraddistinto dall’immersivitá.
    In questi scenari i musei potrebbero dare vita ai futuri palazzi virtuali della memoria, siti web tridimensionali  consultabili sia nel museo che a distanza, che diventeranno centrali nella diffusione della cultura nell’era digitale.

  • Apprendimento ed extended reality


    S i può migliorare l’apprendimento grazie alle nuove tecnologie e all’extended reality? Un tema di grande attualità che è stato oggetto di discussione e di workshop lo scorso aprile a Genova durante “Futura”, l’evento itinerante organizzato dal Ministero dell’Istruzione, dell’Università e della Ricerca per raccontare, promuovere e sperimentare sui territori la scuola digitale. Le classi virtuali e l’apprendimento in extended reality si stanno diffondendo nella scuola 2.0, accanto a coding e robotica e coinvolgono i docenti più sensibili all’innovazione. Gli insegnanti si confrontano sui temi della formazione, utilizzano nuovi tools e avviano, con il supporto di dirigenti scolastici illuminati, nuovi metodi e percorsi. Negli ultimi anni si sono diffuse anche piattaforme gratuite o a costo contenuto che favoriscono la co-creazione con gli studenti, come le open source Scratch, Blender per modellazione 3D ed eTwinning per scambi con istituti stranieri.

    Personalmente già da qualche anno cerco di studiare nuove modalità d’apprendimento rivolte a pubblici più o meno giovani e seguo con interesse esperimenti in realtà mediata adottati in scuole italiane e straniere.

    Durante il convegno Riconnessioni Festival  che si è tenuto a  Torino lo scorso marzo ho ascoltato con grande interesse testimonianze di scuole che hanno unito innovazione ed inclusione e che hanno visto nel digitale una grande opportunità. Vi consiglio di approfondire all’articolo ‘L’alunno al centro della scuola del XXI secolo’ pubblicato su Medium.

    Apprendimento delle lingue straniere in extended reality

    Il processo d’innovazione della scuola è seguito con attenzione anche dalle università che partecipano a sperimentazioni di nuovi approcci educativi in concerto con i colleghi delle scuole primarie e secondarie. Un esempio è stato fornito qualche settimana fa dalla prof.ssa Claudia Repetto dell’Università Cattolica del Sacro Cuore di Brescia durante un seminario organizzato da Cultura e Sviluppo sul tema ‘Luci ed ombre nell’uso dei social network e delle nuove tecnolgie della comunicazione‘ con l’intervento del prof. Giuseppe Riva dell’Università Cattolica del Sacro Cuore di Milano.

    La prof.ssa Repetto ha parlato dell’apprendimento della lingua inglese con l’utilizzo della realtà virtuale e ha illustrato l’esperienza condotta in due ITIS, istituti superiori rispettivamente di Alessandria e di Milano. Il test è durato un mese e consisteva in visualizzazioni libere fuori dal contesto scolastico di 10 video a 360 gradi fruibili con cardboard. I video erano stati arricchiti da una madrelingua inglese, voce narrante che guidava l’attenzione dello studente verso gli elementi rilevanti.

    Quali sono state le motivazioni che hanno convinto all’adozione della realtà virtuale? Vi riporto quanto proposto in slide dalla professoressa:

    • imparare una lingua straniera può essere noioso e frustrante
    • l’apprendimento è più efficace con l’esposizione diretta
    • la realtà virtuale permette di creare ambienti ad hoc ed offre esperienze arricchite in cui insieme allo stimolo linguistico (la parola) viene presentato anche una stimolazione sensomotoria (ciò che vedo e sento, la sensazione di movimento)

    L’arricchimento dello stimolo promuove l’apprendimento

    Le esperienze in lingua sono immersive e fondamentali per favorire l’aspetto ludico-formativo, coinvolgono i pubblici più giovani e vengono interiorizzate più facilmente.

    Classi virtuali: AR sonora

    Sempre sul tema delle classi virtuali vi suggerisco di approfondire l’esperimento condotto in un istituto superiore del Belgio ‘Élèves en Liberté, una sperimentazione che ha creato engagement e immersione grazie alla realtà aumentata sonora. Non più un visore, ma cuffie dotate di giroscopio e sensori che inviano le informazioni ad un telefono ‘intelligente’ da portare appeso al collo ti fanno entrare in un universo sonoro.

    Un casque audio qui vous localise dans une large pièce et crée un univers sonore en fonction de vos déplacements et de vos interaction

    Secondo François Fripiat, fondatore dello studio Demute

    Le son nourrit un rapport émotionnel plus fort que l’image. L’oeil est un instrument plus absolu que l’oreille. Par contre, le son permet d’accéder plus rapidement aux émotions, et de tromper plus facilement le cerveau que l’image.

    Parte delle informazioni sono condivise dall’intera classe, altre sono fruibili dal solo utilizzatore quando si avvicina o sfiora un oggetto.

    Quali piattaforme sono utili all’apprendimento?

    Nel settore delle piattaforme ha fatto scuola Google Expeditions che consente di ampliare i limiti della conoscenza fuori dalle aule scolastiche, integrando VR e AR. Leggiamo sul sito:

    With VR and AR, teachers are no longer limited by the space of the classroom. VR lets you explore the world virtually while AR brings abstract concepts to life—allowing teachers to guide students through collections of 360° scenes and 3D objects, pointing out interesting sites and artifacts along the way.

    A maggio 2018 Google ha lanciato anche la piattaforma Google Tour Creator che permette a costo zero di caricare le proprie fotografie a 360 gradi o utilizzare immagini da Google Steet View e renderle interattive, aggiungendo testo e immagini. Si possono realizzare dei tour virtuali personalizzati da fruire anche attraverso un cardboard. Al momento tuttavia non è possibile passare da un ambiente all’altro semplicemente visualizzandolo da cardboard. Seguiròi prossimi sviluppi e vi terrò aggiornati.

    Altra piattaforma molto completa e diffusa nel mondo della scuola a livello internazionale è ThingLink che, nata nel 2010, permette di creare tour virtuali sia per la didattica sia per il settore business con abbonamenti differenziati. L’utilizzo è user-friendly, anche se richiede strategia nella scelta delle foto, creazione del percorso o i percorsi nei quali guidare l’utente e narrare una location, un sito storico.

    Nella sezione didattica si possono coinvolgere gli studenti nella creazione del tour. La formazione è quindi interattiva con un livello di partecipazione inimmaginabile fino a pochi anni fa, utile per sviluppare la creatività e il pensiero critico.

    Qual è il vantaggio offerto dalla piattaforma? A parte l’integrazione con numerosi contenuti multimediali (note, tag, video in mp4, link a YouTube e Vimeo, Google Map, ecc.), a mio parere, la presenza di una community molto attiva di docenti a livello internazionale che può contribuire alla diffusione e all’apprendimento di colleghi meno esperti.

    Per approfondire vi invito a leggere l’articolo pubblicato da Ulla-Maaria Koivula, founder e CEO di ThingLink education and media technology company, su Medium in cui parla di ‘a narrated VR tour with sequential hotspot‘ come una ‘asynchronous shared VR experience’ ed evidenzia tre importanti vantaggi formativi:

    • accessibilità
    • flessibilità
    • risparmio

    La docente resta al centro dell’attività didattica, anche se l’esperienza coinvolge gli studenti anche fuori dall’ambito scolastico. Un’introduzione registrata può essere fruita in ogni momento, in ogni luogo e su ogni device, lasciando totale libertà e possibilità d’interagire all’interno dei gruppi. Le scuole non devono necessariamente affrontare importanti investimenti per l’acquisto di visori, perché i tour possono essere fruiti in piccoli gruppi o individualmente.

    L’incontro tra tecnologia e mondo classico

    Di piattaforme e di incontro tra nuove tecnologie e cultura umanistica in ambito didattico abbiamo parlato in occasione di Narrability, il convegno organizzato dall’Osservatorio di Storytelling a dicembre 2018. Al panel intitolato ‘Il racconto della cultura. L’incontro tra tecnologia e mondo classico.’ ho invitato Licia Landi, esperta di cultura classica, ricercatrice didattica e docente che da oltre 20 anni conduce attività di formazione e di ricerca all’Università di Verona.

    Grazie alla tecnologia i ragazzi diventano ricercatori e lavorando insieme possono essere produttori. Abbandoniamo la visione nozionistica e verticistica, lo studio diventa una partecipazione e i ragazzi assumono delle responsabilità. […] La tecnologia non ha un uso strumentale, ma diventa un vero ambiente di lavoro, di co-creazione e di riflessione.

    La dottoressa Landi ci ha parlato anche delle piattaforme che ha utilizzato da pioniera nell’ottica di ‘elaborare degli spazi nuovi e riprendere materiali che sono stati prodotti anche da altri. […] Ad esempio la foto 360 gradi diventa l’ambiente su cui costruire delle storie. ‘

    Se desiderate ascoltare lo speech potete trovare il video tra gli Atti del Convegno e su Youtube al minuto 22:11.

    Tendenze future

    Quale potrà essere il futuro, tenendo conto che, secondo AR Insider, alla fine del 2020, si prevedono 1.5 miliardi di smartphone e device compatibili con augmented reality e 3.4 miliardi nel 2023?

    A mio parere la diffusione della tecnologia sarà legata non tanto agli investimenti in device da parte delle scuole, ma soprattutto alle esigenze di formazione dei docenti che dovranno sempre più ampliare le conoscenze in ottica blended learning.

    Interessante sul tema apprendimento ed extended reality è l’intervista pubblicata da Kathryn Minnick su Medium a Moon Park, un Program Manager di Google ARCore. Secondo Park ci sono ancora dei problemi tecnici di fattibilità per l’adozione diffusa della tecnologia in particolar modo a tutti gli istituti scolastici, ma è solo questione di tempo.

    Presto vedremo anche gli studenti italiani integrare le lezioni frontali del docente di chimica con esperienze immersive in extended reality? Ecco un esempio di esperienza in VR per la didattica di Mel Science proposto su Twitter dall’imprenditore Rimah Harb.

    Fonti:

    http://www.benhoguet.com/eleves-en-liberte-un-cas-decole-de-realite-augmentee-sonore/

    https://medium.com/age-of-awareness/the-classroom-of-tomorrow-99f90c569033

    https://arvrjourney.com/how-to-increase-your-virtual-instruction-time-without-putting-in-more-hours-b5cb1bceeb42

    https://edu.google.com/products/vr-ar/expeditions/?modal_active=nonF

  • L’arte prende vita in AR: il museo MAUA a Torino


    La mia passione per la realtà virtuale e aumentata applicata alla cultura visuale e storytelling urbano è cresciuta negli anni. Ricordate sicuramente quando nel 2015 il New York Times magazine introdusse una nuova forma di comunicazione narrativa in VR, testata dal NYT stesso e regalò ai lettori i cardboard per poterne fruire. Nello stesso periodo avevo partecipato al convegno, ‘Urban Augmented Reality fra Arte, Gaming, Storytelling‘, organizzato dal professor Lughi dell’Università di Torino al Castello del Valentino, evento durante il quale vennero presentate alcune esperienze italiane e internazionali in realtà aumentata, racconti che avevano coinvolto il pubblico in un’esperienza indimenticabile. Potete approfondire su Pulse al link.

    A settembre 2018, mentre stavo preparando il Google Day dedicato alla realtà mediata (VR e AR) con Work Wide Women, ho ricevuto su LinkedIn un messaggio e una richiesta di contatto. Era Joris Jaccarino, regista, curatore e manager culturale di Bepart che aveva letto informazioni sul workshop e desiderava presentarmi MAUA, il museo di Arte Urbana Aumentata, realizzato a Milano nel 2017. Il nostro incontro è avvenuto alla GAM di Torino e in quell’occasione ho scoperto un progetto di grande fascino che unisce arte e realtà aumentata, in particolare street art resa viva dall’AR. Le opere escono dai muri e prendono vita davanti a noi. Una magia.

    MAUA – è una galleria a cielo aperto, fuori dal centro di Milano, che consta di oltre 50 opere di street art animate con altrettanti contenuti virtuali fruibili attraverso la realtà aumentata.

    Joris era a Torino ad organizzare il secondo MAUA italiano che stava nascendo proprio in quei giorni. I numeri del museo di Torino sono davvero interessanti. La città è stata mappata in 4 aree:

    • Lungo la Dora “Alla ricerca dell’ACQUA: le fondamenta della città
    • Verso Sud “Alla ricerca del FUOCO: le stanze della fabbrica
    • Verso le montagne “Alla ricerca dell’ARIA: le pareti delle montagne
    • Verso Nord “Alla ricerca della TERRA: i muri interiori

    Sono state fotografate 300 opere, svolte 82 ore di workshop e coinvolti 123 ragazzi/e sul territorio, 57 digital artist e 39 street artist con la creazione di 46 murales in realtà aumentata.

    Dopo mesi di intenso lavoro il MAUA TORINO verrà inaugurato il prossimo 6 e 7 aprile al Parco Aurelio Peccei di Piazza Ghirlandaio.
    È stato realizzato grazie a una rete di partenariato composta da Bepart, come capofila, insieme ad altre sei realtà: BASE Milano, Avanzi – Sostenibilità per Azioni, Terre di Mezzo, PUSH., Camera – Centro Italiano per la fotografia, Iur –Innovazione sostenibile e l’associazione SAT – Street Art Torino.

    46 opere di street art animate in realtà aumentata diventano l’occasione per esplorare zone meno conosciute della città. Si parte scegliendo il proprio percorso. Poi, arrivati sul posto, l’esperienza prosegue in forma digitale: ogni opera, inquadrata con lo smartphone, ne genera una nuova e si trasforma in un lavoro di digital art, appositamente creato per il museo grazie a tecnologie di realtà aumentata.

    Vi chiederete che cosa mi abbia affascinato di questo progetto. Oltre alla tecnologia che amo, sicuramente lo scopo sociale di inclusione e di formazione. Un’opera partecipata e co-creata con il coinvolgimento di street artist, ragazzi, programmatori e i cittadini che possono fruire delle opere, partecipando ai tour organizzati o pianificando il proprio percorso. Un’opera educativa che mira a formare i più giovani alle nuove tecnologie e che promuove la riqualificazione delle aree meno conosciute delle città.

    Queste finalità sono state ampiamente illustrate da Giovanni Franchina, fondatore ed amministratore di Bepart, al convegno Narrability, che avevamo organizzato come Osservatorio di Storytelling lo scorso dicembre a Base Milano.

    In occasione della prossima inaugurazione del museo di Torino ho voluto fare una chiacchierata con Joris Jaccarino ed ecco l’intervista che desidero condividere con voi. Buona lettura!

    Ciao Joris ci racconti com’è nata l’idea di coinvolgere i giovani nel progetto MAUA?

    Mi è sempre piaciuta l’idea di creare arte in maniera partecipata. Per me il processo di creazione artistica deve essere democratico, condiviso, inclusivo. Ho cominciato durante gli anni dell’università, organizzai un laboratorio di cortometraggi per i ragazzi del mio quartiere, il Giambellino. Ogni fase era discussa e realizzata in gruppo, dalla sceneggiatura, alle riprese ed infine al montaggio. E’ un’esperienza che si è declinata in varie forme, dal laboratorio di Sociologia Visiva che ho tenuto alla Statale di Milano fino a MAUA.

    A valle delle due esperienze a Milano e a Torino, quali sono le maggiori difficoltà incontrate dai ragazzi durante lo svolgimento del progetto?

    Al di là delle problematiche strettamente tecniche, direi che la parte più difficile è quella di creare un’opera su una già esistente. L’artista digitale si trova a dover interpretare l’opera di un altro artista, con tutte le incertezze del caso. Proprio per questo motivo, a Torino abbiamo voluto fortemente coinvolgere più street artist possibili, facendoli interagire con i digital artist durante il workshop. Il confronto tra di loro ha dato vita a interessanti scambi di idee e narrazioni inaspettate. E’ stata un’esperienza arricchente per tutti.

    Una domanda tecnica: quali piattaforme utilizzate?

    Bepart è un cocktail di tecnologie che abbiamo assemblato, con lo scopo di fornire la migliore esperienza possibile della AR per l’utente. L’app permette di fruire contenuti in AR semplicemente inquadrando l’opera con la fotocamera del device. Si possono vedere questi contenuti anche non in presenza, ovvero inquadrando una foto come quelle del catalogo o delle cartoline. Inoltre è dotata di una mappa delle opere, cliccando sul pin si vede un’anteprima del contenuto digitale, i credit e una breve descrizione.  

    Quali caratteristiche devono avere i murales per entrare nel MAUA? Esiste una regola o solo la narrazione e la creatività guidano la scelta?

    Uno dei concetti alla base del progetto MAUA è quello della curatela partecipata. Per questo coinvolgiamo associazioni di quartiere attraverso cui dare vita a laboratori con gli studenti. Sono questi ultimi a mappare le opere di street art e a scegliere quelle che trovano più interessanti, basandosi non solo sul loro valore artistico intrinseco, ma anche sul valore esperienziale ed affettivo.

    Come funzionano i workshop attraverso cui prende forma MAUA?

    I workshop prendono l’avvio da una open call nazionale, un vero e proprio invito a prendere parte al progetto. Sono rivolti ai giovani dai 13 ai 35 anni. Vogliamo che MAUA non abbia valore solo come prodotto finale, ovvero il museo aumentato, ma anche come processo tramite cui i giovani possono acquisire competenze professionali specifiche e spendibili sul mercato del lavoro.


    Quali sono i momenti che ricordi con maggior intensità?

    Amo i momenti di esplorazione della città per cercare e mappare le opere. È come tornare bambini e giocare alla caccia al tesoro, scoprendo la città con occhi diversi. Magari sei in un posto abbandonato, ricoperto di cemento, senza nessuna attrattiva, giri l’angolo e ti trovi davanti a un bellissimo murales, colorato, vivo. C’è tutta la magia dell’infanzia e della scoperta.

    Quali sono i vostri progetti futuri e la prossima città di MAUA?

    Stiamo creando un progetto turistico per valorizzare e raccontare l’Oltrepo mantovano attraverso l’archeologia. Realizzeremo delle installazioni in AR lungo percorsi slow, ecosostenibili per favorire un turismo più consapevole.

    Per quanto riguarda MAUA, ci piacerebbe esportare il progetto ad altre città fuori dall’Italia, magari in America Latina. Buenos Aires, Rio? Vedremo.

  • Realtà mediata: rock your content

    Seguendo il Golden Circle di Simon Sinek partiamo dal perché. Perché ho iniziato a occuparmi di realtà mediata? Non sono una programmatrice, bensì una storyteller. Così inizia il mio speech alla Social Media Week di Milano dello scorso 14 giugno. Nella prima slide la fotografia di alcuni partecipanti a un corso di storytelling di qualche anno fa che indossavano un cardboard. Correva l’anno 2015 e mi occupavo da tempo di narrazione in particolar modo digitale e storytools. Nell’anno 2015 il New York Times aveva introdotto le storie immersive, dando vita al VR journalism. Era nata una vera passione che mi ha portato

    Credits: Roberto Morelli

    negli anni a studiare e a cercare nuove forme di comunicazione. Qual era la novità? Per la prima volta una testata giornalistica invece di portare le notizie ai lettori, li metteva al centro della storia e faceva vivere loro un’esperienza grazie al video 360. Da allora molti giornali tra cui Wall Street Journal, AlJazeera, NBC fino al Corriere 360 hanno seguito la via ormai aperta di un racconto immersivo.

    Nel 2016 un’altra novità interessava il mondo del giornalismo e il grande pubblico: veniva introdotta la realtà aumentata. Il magazine Focus proponeva ai lettori alcuni contenuti e approfondimenti fruibili solo con lo smartphone. Nello stesso anno esplodeva la passione per Pokémon Go e tutti vagavamo per le città a caccia di Pokémon e di Pokéstop che erano presenti anche in attività commerciali di grande traffico. Ora che il gioco ha perso un po’ di smalto e solo i più fanatici continuano a seguire gli aggiornamenti possiamo comunque riconoscere a Pokémon Go di aver avuto il grande merito di far conoscere la AR al grande pubblico. Dal 2016 è nato un grande interesse anche presso gli sviluppatori verso  ArKit e ArCore, le due piattaforme rispettivamente Apple e Google di realtà aumentata e verso gli utilizzi giocosi in Snapchat.

    Il Content Marketing ha dovuto prendere atto dei nuovi contenuti che si sono diffusi negli ultimi anni in un mondo ‘always on every where on‘, come ha sottolineato al Netcomm Forum di maggio il presidente NetComm, Roberto Liscia. In questa ‘tempesta tecnologica cambia lo scenario competitivo’ con soluzioni personalizzate, UX e VR anche nei punti vendita. La virtualità è uno dei temi centrali, perché aumenta l’interazione con il cliente. Ma come sta cambiando il consumatore?

    Roberto Liscia, presidente NetComm

    Fornisce alcune evidenze Maresca di Google. Il consumatore, oltre a essere omnichannel e sempre più mobile, è:

    • curioso
    • cerca l’eccellenza su Google
    • impaziente.

    Le tecnologie vanno incontro a queste esigenze con la realtà aumentata che consente di acquisire informazioni in mobilità e di procedere dalla visione al processo d’acquisto, inquadrando un oggetto, ad esempio, con Google Lenses.

    Possiamo dire di essere costantemente immersi nella realtà mediata quasi senza accorgercene? Sicuramente sì!

    Applicazione SketchAR

    Si moltiplicano le applicazioni di realtà aumentata che ci consentono di misurare lo spazio intorno a noi, usando lo smartphone, di vedere oggetti ambientati prima dell’acquisto,  come Ikea Place o Amazon AR View , di configurare grazie al VR la nostra crociera personalizzata su uno schermo olografico come con MSC Crociere, di imparare a disegnare con SketchAR oppure di visitare un appartamento che intendiamo affittare o acquistare senza recarci sul luogo, ma vedendolo in video 360.

    La realtà virtuale trova utili applicazioni in campo scientifico e tecnico. Se da un lato i dipendenti della NASA o di importanti compagnie automobilistiche quali ad esempio del gruppo Volkswagen seguono corsi di addestramento con la VR nei reparti di produzione e di logistica , dall’altro i medici studiano gli organi del corpo umano nella cosiddetta “cyberanatomia”, la simulazione di un intervento chirurgico che prepara il medico ad operazioni complesse.

    Gli studenti possono apprendere la storia, la geografia e addirittura il latino senza spostarsi dalla loro aula, ma viaggiando con i visori grazie a Google Expeditions oppure a Thinglink, piattaforma interattiva che permette a publisher, marketer, brand, blogger e formatori di creare contenuto ad alto engagement in foto e video 360 o in realtà virtuale. Nei musei italiani e stranieri si stanno diffondendo sia i visori per vivere esperienze immersive (vedi ad esempio al Mudec di Milano era possibile visitare virtualmente lo studio del pittore Mirò) sia applicazioni in AR che consentono, inquadrando l’opera  con lo smartphone, di acquisire maggiori informazioni sull’autore e sul periodo artistico.

    Tanti settori tante soluzioni tecnologiche che vengono in nostro soccorso per semplificarci la vita, allontanandoci dal mondo reale (VR) in ‘presence‘ oppure arricchendolo di informazioni e d’interattività (AR). Secondo Chris Milk, founder di  VRSE and VRSE.Works la realtà virtuale può essere definita: ‘the ultimate empathy machine‘.

    VR is difficult to explain because it’s a very experiential medium. You feel your way inside of it. It’s a machine, but inside of it, it feels like real life, it feels like truth. And you feel present in the world that you’re inside and you feel present with the people that you’re inside of it with.

     

    La ricerca di Google del 2017 sul gradimento delle esperienze VR e di questa nuova forma di comunicazione (adv) ci dice che:

    VR enables viewers to better see, hear, feel and identify with what others are experiencing.

    Passiamo quindi da ‘Story telling a ‘Story living’, ossia a  ‘experiencing stories and brand messages through VR‘.

    Stiamo assistendo da un lato alla diffusione di esperienze legate al Web VR che consente di vivere la realtà virtuale nel brower a prescindere dal tipo di visore di cui si dispone, dall’altro ad una riduzione di prezzo dei visori che si stanno orientando verso la soluzione standalone. Grande apertura al mercato e attenzione ha riscosso il lancio di Oculus Go da parte di Facebook durante incontro annuale F8 con i programmatori, così come i post in 3D lanciati ad aprile.

    Oltre ad aggiornarci sugli ultimi upgrade presentati in occasione delle riunioni con gli sviluppatori da Facebook, Google, Microsoft dobbiamo valutare quali applicazioni possiamo utilizzare per rendere innovativi e coinvolgenti i nostri contenuti.

    Nell’ultimo anno ho raccolto molti esempi in eventi ed esposizioni alla costante ricerca di suggerimenti e di nuove idee per le aziende di medie dimensioni. Per le grandi aziende esistono molte soluzioni dalla formazione elearning ad hoc alle app create per fidelizzare i pubblici più giovani e tecnologici.

    Pensiamo solo al settore beauty dove da anni Sephora, Rimmel e L’Oréal sperimentano applicazione in AR che permettono, grazie al riconoscimento facciale, d’indossare nuovi rossetti o provare nuovi fard o fondotinta. Altri esempi nel settore retail sono offerti dai fashion e luxury brand Lacoste  o da Burberry con l’app realizzata in ARKit (Apple).

     

    Di seguito alcune applicazioni che mi hanno interessato e che ho potuto vedere realizzate in diversi eventi ed esposizioni da Futurland a Talent Garden Calabiana, alla Maker Faire di Roma, dal Fuori Salone di Milano al  Technology Hub a Milano e infine al Salone del libro di Torino:

    • la business card in AR che consente di vedere tutti i link social
    • l’arte e grafica in AR
    • i santini e i manifesti di propaganda elettorale in AR
    • le favole imbustate e animate grazie all’AR nel progetto  ‘L’imbustastorie’ al Salone del libro di Torino

     

    Che cosa succederà nel prossimo futuro? Secondo Matt Coleman, the head of innovation for the Magnify World AR and VR expo:

    We really believe that AR and VR is the next computer platform that everyone will be using in the future and it should be as big as the Internet in the coming years

    Non ci resta che seguire con grande attenzione gli sviluppi e introdurre nei nostri piani di marketing le applicazioni più vicine al nostro business per essere tra i primi a cogliere queste nuove opportunità.

    L’appuntamento è il 5 ottobre prossimo per un workshop dedicato al VR e AR nel Google Day organizzato da Work Wide Women presso la sede milanese di Google. Sarà un momento teorico-pratico in cui proveremo i visori e ci metteremo in gioco in un laboratorio: utilizzeremo la fotocamera per immagini Ricoh Theta e creeremo tour VR grazie a piattaforme online.

     

     

    Fonti:

    -www.viar360.com

    -https://www.youtube.com/watch?v=JcMOyMudH88

    -https://www.bloomberg.com/news/articles/2017-09-27/burberry-turns-to-apple-for-augmented-reality-fashion-app

  • Passioni sonore: audio e voice per incontrare nuovi pubblici

    Una nuova moda o una passione duratura? Audio e voice stanno riscuotendo sempre più successo; sui social media si diffondono i live di influencer che ci intrattengono con consigli e informazioni e sempre più spesso nelle nostre città incrociamo persone assorte ad ascoltare in cuffia podcast e audiolibri.

    Un popolo di ‘auditivi’ che desidera acquisire informazioni attraverso l’ascolto e che oggi, grazie al mobile e al web, può fruirne ‘always and everywhere‘. Che cosa si intende per auditivi? Fin dal 1920 psicologi e pedagoghi avevano sviluppato il modello VAK, acronimo di visivo, auditivo e cinestetico, utile per comprendere lo stile di apprendimento umano e il canale di comunicazione preferito. La PNL definisce 3 sistemi rappresentazionali quali modalità sensoriali secondo cui le persone codificano, organizzano e attribuiscono un significato alle esperienze e al mondo attorno a loro:

    • visivo – immagini
    • auditivo – suoni, parole e rumori
    • cinestetico – sensazioni, gusto, olfatto e tatto.

    Ognuno di noi ha un sistema rappresentazionale preferenziale, ossia utilizza sempre lo stesso sistema sensoriale al momento di filtrare uno stimolo che proviene dall’esterno. Di fronte ad uno spettacolo teatrale, ad esempio, i visivi ricorderanno e saranno colpiti dalla scenografia, gli auditivi dalla musica e dalla recitazione e i cinestetici dall’atmosfera dell’opera.

    Da visiva ammetto di sentirmi sempre in difficoltà con il canale auditivo, anche se, tornando indietro negli anni mi rivedo alla sera mentre da ragazzina ascoltavo racconti alla radio. Ero immersa in libri di avventura e lasciavo spazio libero alla fantasia; un giorno ero un corsaro o un militare e il giorno seguente un’eroina che viveva mille avventure. Voci piene di colore avvolgono i miei ricordi. Aggiungo che non ho mai avuto un rapporto molto felice con la mia voce tanto che qualche anno fa, spinta anche dall’esigenza di parlare in pubblico, ho intrapreso un percorso di studio proprio sull’utilizzo della voce.

    L’occasione era nata in azienda quando avevo conosciuto Ciro Imparato, grande professionista della voce che aveva inventato il metodo Four Voice Colours. Da formatrice ero rapita da quella voce profonda che passava da un colore all’altro, riuscendo ad esprimere dalla rabbia alla calma e all’autorevolezza. Mi aveva colpita a tal punto da acquistare il libro e seguir passo passo gli esercizi proposti e iscrivermi anche ad un corso privato di dizione per attenuare quei ‘piemontesismi’ che fanno parte del mio bagaglio personale. Ricordi Sabrina? Tanti esercizi di respirazione, tante risate per improvvisarsi attrice di teatro. <Spostati in fondo alla stanza e bisbiglia ad alta voce> mi dicevi e io, con la voce sempre un po’ roca sperimentavo e seguivo i consigli di un’esperta che aveva lavorato in RAI.

    Se i corsi di dizione e di gestione della voce restano prerogativa di una nicchia, le letture, i podcast, gli audiolibri trovano sempre più adepti. Quali sono i settori  in cui l’audio e il voice si sta affermando? Ho cercato d’indagare facendo anche qualche riflessione personale sulle tendenze in atto.

    Letture ad alta voce

    Nello scorso autunno mi sono avvicinata alle letture ad alta voce e ho frequentato presentazioni di libri e incontri di lettura. Da qualche anno infatti librerie e circoli culturali sono diventati luoghi di aggregazione per appassionati. Troverete sicuramente molte iniziative anche nelle vostre città.

    A Torino vi posso segnalare il Circolo dei lettori che nel corso dell’anno offre un’ampia scelta di letture ad alta voce, oltre a classici incontri con scrittori. Nel mese di aprile si è svolto anche ‘Torino che legge‘, un progetto della Città di Torino e del Forum del Libro, in collaborazione con il MIUR e il Centro UNESCO, promosso in occasione della Giornata Mondiale del Libro e del Diritto d’Autore, istituita dall’UNESCO il 23 aprile. Una settimana dedicata alla lettura nelle biblioteche o viaggiando sul tram storico 3104 che percorre le vie del centro cittadino dove si sono tenute letture tratte dall’Antologia Lingua Madre e su Torino, a cura della Scuola ODS-Operatori Doppiaggio e Spettacolo.

    Per l’estate 2018 la Scuola Holden  ha organizzato un trekking serale, dal titolo Accendere un fuoco, che conduce su un sentiero nel bosco fino alla Basilica di Superga. Ascoltando la lettura di Jack London, i partecipanti seguono ‘il filo che ci unisce alla natura e agli animali, e  in ascolto della parte più selvaggia dell’anima.

    Audiolibri

    Dopo un periodo di disaffezione, l’audiolibro sta vivendo una nuova giovinezza: è aumentata l’offerta di titoli e il pubblico li sta riscoprendo. La giornalista Ilaria Amato in un articolo pubblicato a gennaio sul magazine ‘Donna moderna’ fornisce alcuni dati sul consumo degli audiolibri in Italia. ‘13.400 sono i titoli disponibili sulla piattaforma Audible nel 2017. Nel 2016 erano 12.000. 41% la percentuale di chi compra audiolibri li ascolta sullo smartphone; il 31% lo fa sul pc e il 29% sul tablet (dati tratti da rapporto dell’Associazione italiana editori, Aie)‘.

    Ascoltare è il nuovo leggere.

    Sempre dall’analisi fornita dall’Ufficio studi dell’Associazione Italiana Editori si evince che nel 2017 il mercato e-book e audiolibri ha ottenuto quota 64milioni di euro con un +3,2% sul 2016 e l’11%  legge audiolibri contro il 62% carta e il 27% ebook. 

     

    Podcast

    Nel 2017 ho seguito un Google Day organizzato da Work Wide Women dedicato al podcast e ho scoperto, grazie a Tonia Maffeo di Spreaker, un mondo in grande fermento e sviluppo. Molto utilizzati all’estero i podcast hanno avuto una diffusione significativa negli ultimi anni in Italia a carattere sia di business sia d’intrattenimento. Quali sono i pubblici e qual è l’utilizzo?

    Qualche dato del mercato USA: 112 mio hanno ascoltato almeno 1 volta nella loro vita e 67 mio lo ascoltano almeno 1 volta al mese. Interessante anche il dato relativo a dove avviene l’ascolto:

    • 52%  da casa
    • 18% in auto 
    • 12% al lavoro.

    Vi riporto una frase di Tiziano Bonini, ricercatore in media studies all’Università Iulm di Milano, che ho letto recentemente su http://www.linkideeperlatv.it/ e che mi è piaciuta molto:

    I podcast sono diventati la nuova frontiera dell’hipster a caccia di un nuovo bene di consumo che gli permetta di distinguersi dalla marmaglia del consumo generalista.

    Sempre secondo Bonini i generi di podcast più scaricati al mondo appartengono a 3 macrocategorie:

    • storytelling (es. Radiolab e 99% Invisible)
    • fiction (serie finzionali, tipo “sceneggiati”- es. in Italia Ad alta voce e in UK The Archers, che va in onda sulla Bbc dal 1951)
    • giornalismo di approfondimento o investigativo.

    Ma qual è la fascia d’età del pubblico dei podcast? Secondo Podtrac – società che rileva degli ascolti del settore i fruitori più appassionati in USA appartengono alla fascia 25 -45 e oltre. Non un pubblico giovanissimo, da quanto sembra.

    Podtrac Audience Surveys, 2016; * Edison Research, 2016 Fonte: http://analytics.podtrac.com

     

    Tra le varie piattaforme che sono ora disponibili sul mercato si sta affacciando anche Google Podcasts, una nuova applicazione sviluppata e distribuita su Play Store. Notizia di qualche giorno fa parla del lancio ormai imminente. Quali caratteristiche innovative avrà?

    Da un articolo pubblicato nel sito Webnews pare che un dipendente di Google abbia rilevato a Product Hunt:

    l’ interazione con l’intelligenza artificiale dell’Assistente Google e l’utilizzo della sincronizzazione tra più dispositivi come gli smart speaker della linea Home sfruttando l’account dell’utente. Le feature principali offerte saranno legate alla ricerca, al download, alla riproduzione e alla gestione dei podcast, partendo da un catalogo in cui verranno indicizzate oltre due milioni di fonti provenienti da tutto il mondo, accuratamente suddivise per genere e categoria.’

    Suoni per raccontare

    Non solo voci, ma anche suoni. Il pubblico italiano è più concentrato sull’ascolto. Circa un anno fa è nato il progetto “I suoni della vostra vita” promosso da Repubblica e i quotidiani locali del Gruppo Espresso e  pubblicato su profilo Soundcloud.

    L’idea è creare ‘una colonna sonora collettiva, un racconto in musica con tutti quei piccoli rumori che accompagnano i nostri percorsi quotidiani.‘  I lettori sono stati invitati a registrare ed inviare in redazione i suoni dei quartieri, del mare, delle città, suoni che rappresentino momenti di vita.

    Un progetto molto simile viene realizzato da Alessandro, un mio amico che da anni registra i suoni della sua giornata, creando un diario sonoro della propria vita.

    Audiobranding

    La scorsa settimana ho partecipato al convegno CXNow – retail and beyond organizzato da Innovability presso La Casa dell’Energia e dell’Ambiente di Milano sul tema del retail e della customer experience.  Vi evidenzio due slide di Pietro Tonussi di Axis Communication nello speech ‘La Customer Experience, oggi’  sulla riscoperta del valore dell’audio nel customer journey.

     


    Secondo l’Audio Branding Academy la diffusione di tecnologia dagli smartphone ai cosiddetti streaming media e podcast può offrire grandi opportunità per questa forma di comunicazione multisensoriale :

     Audio Branding can aid in optimizing brand communication and in designing a better sounding environment.

    Che cosa intendiamo con audio branding? Una definizione viene proprio offerta dall’Academy:

    ‘Audio Branding describes the process of brand development and brand management by use of audible elements within the framework of brand communication. […] Audio Branding aims at building solidly a brand sound that represents the identity and values of a brand in a distinctive manner. The audio logo, branded functional sounds, brand music or the brand voice are characteristic elements of Audio Branding.’

    Ricordiamo tutti il suono che accompagna il logo di Ricola, la caramella alle erbe svizzera oppure della casa cinematografica Twentieth Century Fox? Per effettuare la ricerca vi segnalo Audio Logo Database, un tool che, come leggiamo sul sito, permette di:

    ‘research and investigate the acoustic marketplace especially for audio logos. It contains audio logos from all branches including the registered sound marks of the trademark offices. ‘

    Potete ascoltare il suono di Ricola al link e quello di Twentieth Century Fox al link e trovare molte informazioni sullo studio e creazione degli audio loghi che conosciamo.

    Se siete interessati al tema dell’audio branding seguitemi, perché a breve pubblicherò un’intervista molto interessante su LinkedIn Pulse.

    Quali saranno le tendenze future? Visual o audio?

    Il video continuerà ad essere predominante anche nei prossimi anni con una fruizione sempre più mobile e man mano sostituirà la TV tradizionale, tendenza confermata anche dal lancio di qualche giorno fa della nuovissima app di Instagram,  IGTV. Secondo il report “Global Digital Video Viewers”  di eMarketer presentato da IAB:

    ‘in tutto il mondo, la visualizzazione di video è un’attività core tra gli utenti di Internet ed è stato stimato che il 65,1% di essi continuerà a farlo regolarmente nel 2018.[…] Per il 2018 si stima che 1,87 miliardi di individui in tutto il mondo useranno un telefono cellulare per guardare video digitali, con un incremento dell’11,9% rispetto al 2017.[…] Il pubblico di YouTube si sta avvicinando alla saturazione in molti mercati. Quest’anno, il numero di utenti di YouTube in tutto il mondo aumenterà del 7,5%, in testa rispetto alla crescita complessiva dei video viewers digitali (7,2%). Questa tendenza continuerà per tutto il periodo di previsione, con una crescita degli utenti di YouTube che proviene principalmente dai primi spettatori di video digitali.’

    L’approccio del pubblico, tuttavia, come abbiamo visto dalle iniziative che si stanno diffondendo e dal successo dei podcast, non è solo più visivo, ma si sta spostando anche sul senso dell’udito, arricchendo l’esperienza di nuove sensazioni ed emozioni. Spetterà al singolo decidere quale canale preferire e seguire secondo le proprie propensioni personali. E  voi siete più auditivi o visivi?

     

     

    Fonti:

    -https://www.iab.it/iab-news/global-digital-video-viewer-report/

    – http://audio-logo-database.com/

    – https://audio-branding-academy.org/

    – http://analytics.podtrac.com/podcast-demographics/

    – https://soundcloud.com/suonidellavita

    – http://media.giornaledellalibreria.it/presentazione/allegati/2017_01_26_Mercato-2017-DA%20CARICARE.pdf

    – http://www.donnamoderna.com/news/cultura-e-spettacolo/audiolibri-gratis-inglese-dove-si-comprano

    – http://www.torinochelegge.it/

    – https://www.webnews.it/2018/06/19/google-podcastsa-app-android/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Webnews