• Esperienze nel mondo del vino

    Quali esperienze ho trovato più interessanti e coinvolgenti nel mondo del vino? Da anni studio e sperimento XR e metaverso in vari settori e raccolgo le iniziative che mi hanno maggiormente sorpreso ed ispirato. Facciamo oggi un viaggio in un settore d’eccellenza del nostro paese, quello vinicolo. Vi porto con me a testare e conoscere alcune esperienze: dall’AR agli NFT, dagli AI avatar ai mondi immersivi dedicati al nettare degli dei.

    Spesso le aziende sono un po’ dubbiose e restie a provare nuove tecnologie per far conoscere le loro produzioni e preferiscono continuare nella comunicazione più classica: sito e presenza sui social.

    Le iniziative italiane e straniere più innovative e tecnologiche fanno, tuttavia, comprendere che possiamo superare il famoso ‘abbiamo sempre fatto così’. Sperimentare è diventato ormai un must per distinguersi e farsi ricordare dal pubblico nel momento in cui si procede all’acquisto.

    Esperienze vino e AI

    Andiamo allora a conoscere l’esperienza AR di Chronic Cellars che si avvale dell’intelligenza artificiale per ‘aumentare’ le proprie etichette.

    L’agenzia Rock Paper Reality (RPR) ha collaborato con 8th Wall, specializzata in personaggi AI NPC Inworld AI e Chronic Cellars per creare un sommelier AI in Realtà Aumentata (AR). Guardiamo insieme il video promo su YouTube.

    Il sommelier AI trasforma il personaggio presente sulle etichette- uno scheletro carismatico chiamato Purple Paradise – in un punto di contatto interattivo che permette di diffondere conoscenze approfondite e personalizzate. L’NPC può conversare con gli utenti, rispondere a domande e condividere informazioni sui vini del marchio.

    Con l’introduzione del sommelier AI in AR, l’azienda può offrire ai propri clienti un modo interattivo per conoscere i propri prodotti e servizi. Non solo migliora l’esperienza del cliente, ma arricchisce la narrazione, rendendo le offerte del marchio più riconoscibili e memorabili.

    Di seguito trovate la mia esperienza diretta.

    Esperienze vino e NFT

    Negli ultimi anni le etichette sono diventate arte per NFT. Era l’anno 2021 quando il produttore di spumanti nel Valdobbiadene 900wine, è stata la prima cantina italiana a trasformare la propria etichetta in un Nft, certificato che attesta l’autenticità e la proprietà di oggetti digitali unici. Qui il link al sito dedicato alla campagna.


    La campagna era ospitata sulla piattaforma Opensea dove con l’acquisto di una bottiglia di Grand Cuvée Premium, il cliente riceveva un qr code per riscattare il suo Nft 900wine, un’opera d’arte digitale in 3D. La collezione era costituita da 900 pezzi unici in edizione limitata, con autenticità certificata attraverso blockchain.

    Nel 2022 l’azienda veronese Maia Wine aveva promosso i suoi spumanti con una collezione di avatar unici e certificati, con le sembianze della ninfa greco-romana MAIA, grazie alla collaborazione con l’agenzia di comunicazione UNited STudio.

    Gli NFT potevano essere acquistati su Opensea e offrivano l’accesso a benefit, come inviti esclusivi ad eventi per la community, partecipazioni ad experience internazionali, creazioni esclusive del brand, accesso a premi e limited edition.

    Maia NFT

    Esperienze vino e AR

    Le etichette narrative non sono sicuramente una novità, in quanto già nel 2017 un’etichetta aumentata ha riscosso un successo mondiale. All’epoca non si parlava ancora di AI generativa.

    Avevo letto di quest’esperienza e durante l’ultimo soggiorno a Londra ho acquistato una bottiglia 19 Crimes della Treasury Wine Estates (TWE), un’azienda australiana globale di produzione e distribuzione di vino con sede a Melbourne.

    L’idea era innovativa anche per il soggetto che era stato utilizzato, perché i 19 Crimes narrano la storia di uomini e donne rei di uno dei 19 crimini per i quali era prevista la condanna a vivere in Australia, anziché una sentenza di morte.

    In partnership con gli esperti di esperienze immersive di Tactic Studio e l’agenzia creativa Wunderman Thompson, TWE ha immaginato un’applicazione di realtà aumentata che facesse rivivere la storia di questi criminali.

    Ogni bottiglia ha l’immagine ‘invecchiata’ di un criminale, immagine che prende vita quando viene inquadrata con lo smartphone. Il personaggio narra la sua vita e viene coinvolto in un dialogo all’interno della cella.

    Qui potete vedere la registrazione della mia esperienza.

    Dai dati pubblicati nell’articolo “19 Crimes utilizza la realtà aumentata per differenziare il proprio marchio attraverso l’innovazione” di ptc.com risulta che:

    I consumatori hanno adorato l’esperienza e hanno effettuato milioni di download dell’applicazione Living Wine Labels. L’applicazione Living Wine Labels ha registrato un totale di 5,5 milioni di download da quando è stata rilasciata a luglio 2017 e l’esperienza è stata utilizzata 22.168.625 volte. E non è tutto. Dal 2017 al 2019, il volume di cassette di vino vendute è aumentato di circa il 40%.

    Esperienze vino e metaverso

    Nel 2023 abbiamo avuto l’opportunità di visitare nella piattaforma Spatial The WineHunter e il Merano Wine Festival, un mondo immersivo creato da Connected Reality Italy.

    Nel mondo possiamo conoscere la storia del Presidente e fondatore del Merano WineFestival, Helmuth Köcher e vedere un video relativo al Merano WineFestival, festival che si svolge fin dal 1992. Nella Hall of Excellence sono esposti i loghi dei produttori e sono disponibili i link ai siti dove trovare maggiori informazioni sulle cantine e sulla loro storia. Se volete approfondire potete consultare il mio articolo dedicato in Medium.

    Altro mondo immersivo dedicato al vino è Vinophila 3D Wine Expo che è stato sviluppato solo in applicazione mobile. Ricordiamo che la piattaforma Spatial è invece accessibile da browser, mobile e visori. Trovate qui il link al sito.

    Vinophila

    Nel mondo troviamo stand di espositori dove possiamo trovare i link a brochure, sito, video e indirizzo mail e sala convegno dove si svolgono vari eventi e conferenze dedicate al mondo del vino.

    Tecnologie e nuovi pubblici

    Le tecnologie che abbiamo a disposizione possono attirare nuovi pubblici, in particolare della gen Z, che sono abituati a frequentare gaming online o usare app ed AI.

    Di intelligenza artificiale parla Roberta Garibaldi nella sua newsletter “Wine – Food – Tourism” dell’11 giugno scorso che è sempre utilissima per conoscere gli orientamenti del turismo enogastronomico:

    C’è un grande potenziale inesplorato per tutto ciò che riguarda la customer relations – specialmente comunicazione digitale multilingua ed assistenza clienti. Questo vale per le esperienze prenotabili, per la personalizzazione, per la prenotazione di degustazioni ed esperienze. La prospettiva è quella di arrivare all’impiego di chatbot, avatar, sommelier virtuali o robot camerieri, con alcuni casi già applicati nelle aziende del food & beverage. In ambito B2B, l’AI andrà a potenziare gli strumenti di marketing intelligence, dando la possibilità di interrogare i dati in modo dialogato e gestire i differenti strumenti di comunicazione e vendita in modo più efficace.’

    Volete un esempio veramente basico di come poter utilizzare l’AI per questo articolo? L’immagine della cover è stata realizzata con Canva generatore immagini AI e questo è stato il prompt.

    sono una storyteller e sto scrivendo un articolo su vino e tecnologia immersiva. Crea un’immagine con in primo piano una bottiglia di vino e un mondo immersivo sullo sfondo. Deve essere un’immagine reale, ma ispirazionale per far comprendere che la tecnologia può essere utile a comunicare meglio il settore vinicolo.

    L’intelligenza artificiale, tuttavia, può aiutarvi in analisi della clientela, in analisi predittive, nel settore comunicazione e vendite. Le tecnologie aprono mondi inesplorati. A voi sperimentare…

    Volete approfondire i temi relativi a XR, chatbot, sommelier virtuali e metaverso? Teniamoci in contatto via mail a simonettapz@gmail.com oppure compilate il form contatti sul sito. Esamineremo insieme la soluzione più adatta alla vostra attività. 🙂

    Fonti:

    https://rockpaperreality.com/insights/ar-use-cases/rock-paper-reality-partners-with-chronic-cellars-to-bring-first-of-its-kind-personalized-ar-sommelier-to-life/

    https://www.ilsole24ore.com/art/gli-nft-conquistano-anche-etichette-vino-e-cene-stellate-AE7uEyFB

    https://www.agrifood.tech/blockchain/la-prima-collezione-di-avatar-nft-nel-mondo-del-vino-e-di-maia-wine/

    https://www.repubblica.it/economia/rapporti/osserva-italia/osservabeverage/2021/09/06/news/valdobbiadene_900wine_porta_i_non_fungible_token_nel_mondo_del_vino_italiano-316745978/

  • Je t’aime moi non plus: AI e le relazioni interpersonali

    Sicuramente ricordate le parole d’amore della famosissima canzone  ‘Je t’aime moi non plus’ di Serge Gainsbourg e Jane Birkin. Ma se al posto di uno dei due amanti ci fosse un chatbot? 

    L’Intelligenza artificiale sta diventando sempre più parte integrante della nostra realtà quotidiana, dagli assistenti personali come Alexa, Google Home al riconoscimento facciale ormai utilizzato dalle aziende del beauty. Se da un lato l’IA facilita la nostra vita dall’altro guida e condiziona molti aspetti delle nostre esperienze. Alcune ricerche stanno indagando l’impatto dell’IA sulle relazioni interpersonali e amorose. In questa realtà distopica poniamoci una domanda:  può un robot provare empatia ed emozioni?

    L’impatto dell’AI sulle relazioni interpersonali

    Come potrà l’IA cambiare lo storytelling e i nostri mondi narrativi? Nella scrittura può già sostituirsi agli umani, partendo semplicemente da codici come nell’opera ‘1 The road’, creata da Ross Goodwin il primo libro scritto da una AI writing machine su una Cadillac in viaggio da New York a New Orleans o creare storie da immagini come realizzato da Ryan Kiros della University of Toronto.

    Le macchine potranno forse sostituire noi storyteller umani, ma non potranno esprimere sentimenti come l’amore. Nel mio studio dedicato alle nuove forme di narrazione nell’epoca post digitale ho letto dell’opera, ‘Lady Chatterley’s Tinderbot‘ , basata sull’utilizzo di Tinder, la famosa app d’incontri e ho deciso d’intervistare l’artista, Libby Heaney.

    Chi è Libby Heaney

    Artista e docente britannica al Royal College of Art dal 2014 con un background in quantum compting, Libby Heaney studia l’impatto delle tecnologie future. Il suo lavoro è stato presentato a Londra (Tate Modern, Victoria and Albert Museum e Christie’s), New York, Peru, e in Europa.

    Nel 2016 ha programmato Lady Chatterley’s Tinderbot, un touchscreen interattivo dove ha avviato una conversazione con ca. 800 utilizzatori anonimi di Tinder, inviando loro estratti tratti dal romanzo, “Lady Chatterley’s Lover” (David Herbert Lawrence – 1928). Un esperimento sull’AI e le relazioni interpersonali che è risultato davvero sorprendente ed è stato presentato in touchscreen in uno spettacolo dal vivo e raccolto in un libro.

    Lady Chatterley's Tinderbot

    Intervista sull’opera ‘Lady Chatterley’s Tinderbot’

    When and why did you decide to use a bot to study the human interaction about love and sex?

    In general I’m interested in how technology effects humans and how we see the world and vice versa. I wanted to make a piece that focused on technology and love and since I’ve used Tinder myself before, I decided to think about how Tinder has changed the way we find love and sex and intimacy. I was reading Lee MacKinnon’s Tinderbot Bildungsroman and Love Machines in e-flux journal, which inspired me to use a bot to explore human interaction with love and sex. After more research, I found out that Tinderbots were often gendered and used to in the aid of capitalism (‘hot women’ guiding people to porn sites and even a Tesco survey).

    How long did the study last? How many users were involved?

    I had three Tinderbots running on Tinder over the course of about a year 2016-2017. They spoke to just over 800 people mostly around the London area where I live, but also around Oxford & Berlin when I traveled there.

    Can human and machine come together to live a new form of love?

    My work was about how romantic codes are shifted due to various technologies disseminating the codes. I how love and sex function in a pre-digital technology – the literary novel – and the same with a post-digital technology – Tinder. I created three Tinderbots based on characters from Lady Chatterley’s Lover, Lady Chatterley, Mellors (the game keeper who LC has an affair with) and Clifford (Lady Chatterley’s husband who she cheats on). These agents spoke to people on Tinder using only dialogue from the novel. The human’s on Tinder were either surprised, played along or ignored this unusual style of messaging. I wasn’t really looking for a new form of love in the work, but rather wanted to point out the resonances and dissonances between old and new romantic codes that are propagated through technology.

    What’s the funniest answer you received?

    There’s lots of funny answers. You can see the pdf of some responses on my website. The point is that while the work is funny in part, it can also shows humanity as being lonely, sad and vulnerable.

    What do you think about the future of love and sex? Will we meet just online? 

    I think there as with most actions in life now, there will be a hybrid online/offline approach. It might be that we all have a bot based on our data from other websites (like FAcebook) that sits on dating apps and initiates contact with other people’s bots on our behalves. Perhaps when our bot finds someone who we might really like or fancy, it will alert us and then the humans will step in.

    L’AI potrà cambiare la nostra narrazione e le relazioni interpersonali? Sicuramente sta avendo un impatto importante in settori innovativi e tradizionali: dal customer service al recruiting e tutto il settore delle risorse umane. Quanto impatterà sull’amore? Difficile dirlo al momento.

    Nota: Articolo originariamente pubblicato in ‘Narrability Journal’ Semestrale di divulgazione scientifica sulle Scienze della Narrazione dell’Osservatorio di Storytelling.

    Fonti:

    sito http://libbyheaney.co.uk/

    Link utili

  • Il codice umano e l’AI

    L‘intelligenza artificiale (AI) può avere un impatto significativo sulle attività sociali come la musica oppure sulla scrittura e sull’arte, da sempre considerate esclusive dell’uomo, definito ‘codice umano’ da Marcus Du Sautoy ?

    Ho iniziato ad interessarmi alle applicazioni dell’AI fin dal 2016, quando, dopo aver ascoltato allo IAB lo speech del professor Giuseppe Riva, Direttore di interazione comunicativa e nuove tecnologie dell’Università Cattolica di Milano dedicato all’AI dal titolo “Intelligenza artificiale: l’intelligenza nella realtà”, avevo approfondito casi studio inerenti la musica. Avevo scritto un articolo e citato, ad esempio, MusicNet, un software realizzato da ricercatori dell’Università di Washington e gli esperimenti condotti all’interno del progetto ‘Google Brain’ creato da Google.

    Nel tempo sono stati fatti molti progressi e, come ci dice il matematico Marcus Du Sautoy nel suo libro ‘Il codice della creatività’ (ed. Rizzoli), oggi viviamo a stretto contatto con le macchine.

    Le nostre vite sono completamente dominate dagli algoritmi. Ogni volta che cerchiamo qualcosa su Internet, pianifichiamo un viaggio con il GPS, scegliamo un film raccomandato da Netflix o prendiamo un appuntamento online, siamo diretti da un algoritmo. Gli algoritmi sono la nostra guida nell’era digitale, ma pochi sanno che esistono da migliaia di anni prima dell’avvento dei computer e che stanno al cuore dell’essenza stessa della matematica. ‘ (p.698)

    L’AI non ha sostituito l’uomo, timore che spesso emerge nei convegni e negli articoli che vengono pubblicati nell’ultimo anno, ma lo ha supportato sempre più in attività complesse.

    Giornalismo

    Secondo Du Sautoy ‘l’ambito dove gli algoritmi di scrittura danno il meglio di sé è la trasformzaione di dati grezzi in articoli di giornale.

    L’intelligenza artificiale non prenderà il posto del giornalista o dello scrittore, ma svolge già oggi quei compiti nei quali l’uomo è meno efficiente, come analizzare fonti e verificarle proprio per la sua capacità di processare un numero infinito di dati e scrivere una grande quantità di articoli in tempi molto contenuti.

    Molte redazioni stanno usando gli algoritmi, come leggiamo in ‘Journalism AI – new powers, new responsibilities‘, il rapporto di Polis, think tank della LSE ( London School of Economics and political sciences) e Google News Initiative nel 2019. Si parla di giornalismo automatizzato o robotico. Di che cosa si tratta esattamente? In un articolo di Matteo Monti, ricercatore della Scuola Superiore Sant’Anna, pubblicato a marzo 2019 dall’agendadigitale.eu ho letto una definizione molto semplice ed esaustiva che condivido con voi:

    Questo nuovo metodo di produzione di news è basato sulla tecnologia NLG (natural language generation), che permette, in generale, la creazione di giornalismo testuale a partire da un insieme di dati strutturati digitalmente. Una tecnologia, questa, che prevede che un algoritmo raccolga e analizzi i dati in modo indipendente e poi scriva un articolo dagli e sugli stessi. (1)

    Il giornalismo automatizzato opera sia scrivendo e pubblicando autonomamente articoli di cronaca senza l’intervento di un giornalista, sia “collaborando” con un giornalista che può essere incaricato di supervisionare il processo o fornire input per migliorare l’articolo. (2)

    Tornando al rapportoJournalism AI’ di Polis che è stato condotto in 71 agenzie stampa in 37 nazioni emerge che:

    ‘artificial intelligence (AI) is a significant part of journalism already but it is unevenly distributed. AI is giving journalists more power, but with that comes editorial and ethical responsibilities.

    Quali sono i task nei quali l’AI può supportare il giornalismo in futuro? Nel report sono stati evidenziati questi dieci punti:

    Abbiamo parlato di giornalismo, ma quanto l’AI può influenzare anche la musica o l’arte e la scrittura?

    Musica

    Nel campo musicale mi ha incuriosita l’esperimento condotto da Damien Riehl , un legale specializzato in copywright e Noah Rubin, un programmatore. Hanno creato un algoritmo che compone melodie:

    ‘by brute force all mathematically possible melodies and write them to MIDI files. We provided the application with various parameters to mathematically exhaust every popular melody that has ever been — and are mathematically possible. When those MIDI files were written to disk, they were copyrighted automatically. We have also designated all newly created files (to which we have legal rights) to the Creative Commons CC0.

    Il loro obiettivo è quello di proteggere i musicisti ‘from being sued for copying songs they don’t remember hearing.’

    Su Wikipedia leggiamo che MIDI è l’acronimo per:

    Musical Instrument Digital Interface e si indica il protocollo standard per l’interazione degli strumenti musicali elettronici, anche tramite un computer.

    Se desiderate potete vedere il video dello speech che Damien Rieh ha tenuto al TEDx di Minneapolis alla fine dello scorso gennaio e consultare il sito.

    Manga

    Proprio in questi giorni ho letto un articolo su Leganerd.con in cui si parla di Paidon, manga scritto e disegnato da un’intelligenza artificiale. Makoto Tezuka figlio del famoso mangaka Osamu Tezuka, scomparso nel 1989, ha fatto studiare all’AI sessantaquattro opere del padre per creare una storia totalmente ispirata al suo mondo. Ha poi completato il lavoro, i dialoghi e le illustrazioni personalmente.

    Poesia

    E se le poesie fossero scritte dall’intelligenza artificiale? Ho provato un interessante esperimento dell’artista e scenografa londinese, Es Devlin che ha realizzato e messo online nel 2019 PoemPortraits, progetto che combina poesia, intelligenza artificiale e design, creato in collaborazione con Google Arts e Culture e il programmatore Ross Goodwin. Leggiamo sul sito:

    An experiment at the boundaries of AI and human collaboration. Donate a word to become part of an ever evolving collective poem and create your own POEMPORTRAIT.

    Mi sono divertita a giocare con l’algoritmo e ho scelto la parola ‘love’, digitandola nel campo indicato. L’AI ha elaborato ‘on over 20 million words of 19th century poetry is generating your unique POEMPORTRAIT.

    Nello step successivo l’applicazione mi ha chiesto se desidero attivare la fotocamera per realizzare un selfie oppure proseguire con solo testo.

    Foto 1

    Avendo optato per solo testo questa è la poesia creata per me dall’algoritmo. Il verso può essere salvato in .png (foto 2) e scaricato oppure entrare a far parte di un poema collettivo (vedi foto 3)

    Foto 2
    Foto 3

    Ho provato anche a scegliere l’altra opzione ossia a scattare una foto. I versi sono apparsi sul mio ritratto in stile video mapping 3D e lo sfondo poteva essere nei toni del rosso o del blu in modo random.

    Siete curiosi e desiderate provarlo? Ecco il link al sito e di seguito il video su YouTube in cui viene descritto il progetto.

    PoemPortrait era stato presentato già nel 2018 come installazione al Summer Party delle Serpentine Galleries di Londra e aveva riscosso molto successo tanto che, come abbiamo visto, nel 2019 era stato deciso di renderlo disponibile sul web. Potete trovare maggiori informazioni nella video-intervista su YouTube.

    Fonte: https://youtu.be/e-NUHIqmgUI

    Sempre nel 2018 la collaborazione tra il programmatore Ross Goodwin e l’artista Es Devlin aveva dato vita ad un’altra installazione molto particolare come ‘Please Feed The Lions’. Era una scultura interattiva posta in Trafalgar Square a Londra commissionata dal London Design Festival, Google Arts & Culture e The Space. Il leone, realizzato in un rosso fluorescente, ruggiva e, grazie a un algoritmo di deep learning sviluppato da Ross Goodwin, componeva una poesia collettiva generata dalle parole digitate su un tablet dai passanti.

    Perché un leone proprio a Trafalgar Square? Nel 1867 quattro leoni sono stati posti alla base della colonna di Nelson come icone britanniche e Trafalgar Square è stata da sempre considerata un luogo simbolo per meeting politici e raduni. La prima manifestazione importante si tenne nel 1848, con il raduno dei cartisti che chiedevano il suffragio universale.

    Fonte: by karyne.barwick – Instagram

    Come funzionava l’installazione? I passanti erano invitati a dar in pasto al leone una parola a loro scelta digitata su un tablet. Immediatamente il leone ruggiva con la voce ‘imprestata’ dalla vocalist Jade Pybus, mentre sullo schermo posto all’interno delle fauci appariva una strofa generata dalla parola stessa. Come leggiamo nella pagina del sito Google Arts and culture:

    The poetry is generated by an artificial neural network model that has learnt to write by reading millions of words of 19th century poetry. The specific algorithm is known as a long short-term memory (LSTM) recurrent neural network (RNN), and it works by learning to predict the next text character (letter, space, or punctuation) over and over again…’

    Durante il giorno la strofa appariva su uno schermo posto all’interno della bocca del leone e alla sera il poema collettivo veniva proiettato sul leone stesso e sulla colonna di Nelson grazie al video mapping.

    Quale sarà il futuro dell’AI e della scrittura? Riprendiamo ancora il pensiero del matematico Marcus Du Sautoy:

    Il Grande scrittore automatico resta ancora una fantasia umana. […]Ci sono talmente tante storie da raccontare che scegliere quelle degne di essere ascoltate è ancora una sfida; solo un creatore umano comprenderà per quali ragioni un’altra mente umana potrebbe volerlo seguire nel suo viaggio creativo. Senza dubbio, i computer ci assisteranno nel nostro viaggio, ma saranno i nostri telescopi e le nostre macchine da scrivere, non i narratori. ‘ (pag. 4504)

    Nel frattempo le sperimentazioni continuano e sempre più artisti, scrittori e designer realizzano e studiano nuove opere co-create con l’AI o realizzate dall’algoritmo in autonomia. Non resta che stare a guardare come conviverà il codice umano con l’AI e dare un senso al futuro.

    Negli ultimi mesi ho continuato ad approfondire temi legati alla scrittura e all’intelligenza artificiale. Nei prossimi convegni esamineremo insieme altre case studies internazionali che mi hanno interessato e che desidero portare alla vostra attenzione.

    Fonti:

    (1) (2) https://www.agendadigitale.eu/cultura-digitale/giornalismo-automatizzato-usi-e-rischi-dellintelligenza-artificiale-nelle-news/

    https://leganerd.com/2020/02/27/paidon-il-manga-scritto-e-disegnato-dallintelligenza-artificiale/

    https://thenextweb.com/neural/2020/02/26/ai-penned-manga-paidon-to-be-published-this-week/

    https://drive.google.com/file/d/1utmAMCmd4rfJHrUfLLfSJ-clpFTjyef1/view

    https://artsexperiments.withgoogle.com/poemportraits?_ga=2.33161846.992826029.1556786810-799000725.1554196893

  • La tecnologia sta cambiando la nostra vita quotidiana: AI, VR e AR.

    Durante l’ultimo IAB a Milano è stato fornito a tutti i partecipanti un cardboard sponsorizzato da SKY Sport HD, iniziativa che ha incuriosito la platea e che è stata un segnale forte dell’interesse rivolto al mondo della tecnologia VR. Marco Montemagno ha spiegato l’utilizzo e ha invitato i presenti a provare il dispositivo seguendo le istruzioni fornite.

    Nella mattinata si è tenuto anche uno speech dedicato all’AI dal titolo “Intelligenza artificiale: l’intelligenza nella realtà”, tenuto da Giuseppe Riva, Direttore di interazione comunicativa e nuove tecnologie dell’Università Cattolica di Milano. E’ stato più volte sottolineato che l’intelligenza artificiale farà presto parte del nostro quotidiano.

    Riva ha anche parlato di Marketing delle Intenzioni 2.0 e ha sottolineato il valore degli investimenti fatti nel settore VR e AI da parte di Facebook e di altri players.  L’attenzione è posta sul mondo dei chatbot e dei robot sociali.

    Tutti i grandi players stanno investendo sull’intelligenza artificiale intesa non solo come robots, ma come machine learning, chatbot, computing cognitivo, servizi di traduzione simultanea come Skype translator. Sul tema chatbot ho scritto recentemente un post che potete leggere a questo link. Le applicazioni sono le più svariate e non sono prerogativa solo più di tecnici e nerd, ma impattano sulla nostra vita in quasi tutti i settori dalla medicina, all’industria fino alla musica.

    Proprio sul tema musica ho recentemente ho letto un post interessante in Ansa.it su MusicNet, un software realizzato da ricercatori dell’Università di Washington, dedicato alla musica che non solo ‘comprende la struttura di base della musica ma può anticipare le note di una registrazione’.

    AI per la musica

    AI per la musica

    L’obiettivo è comprendere anche i gusti del fruitore e suggerire quindi la musica più adatta ai suoi interessi. Qui il link per vedere un esempio, ma potete anche iscrivervi al canale di Youtube dell’Università e andare sul sito.

    Proprio sul sito leggiamo gli obiettivi che i ricercatori si erano dati:

    • Identify the notes performed at specific times in a recording.
    • Classify the instruments that perform in a recording.
    • Classify the composer of a recording.
    • Identify precise onset times of the notes in a recording.
    • Predict the next note in a recording, conditioned on history.

    Esperimenti sulla musica sono in corso anche presso un nuovo dipartimento, chiamato Magenta, interno al progetto ‘Google Brain’ creato da Google e presentato a giugno scorso al Moogfest di Durham. L’obiettivo è:

     design algorithms that learn how to generate art and music

    quindi creare una macchina ‘dotata di creatività’, applicando l’intelligenza artificiale ai più svariati rami dell’arte dalla pittura alla musica, etc.  E’ stata composta una musica che potete ascoltare a questo link.  Si tratta di un brano semplice che, tuttavia, dà l’idea di quale possa essere lo sviluppo futuro. Andando ad approfondire sul sito di Magenta ho letto che  ha anche la finalità di costruire una community di artisti, coders e ricercatori di machine learning e  ‘biggest challenge: combining generation, attention and surprise to tell a compelling story.’ in ottica di storytelling.

    Sempre a proposito d0621-vemily-01-technology-music-computers-emily_full_600i Musical Intelligence potete ascoltare gli esperimenti realizzati da David Cope che è Dickerson Emeriti Professor at the University of California a Santa Cruz.Potete ascoltare alcuni esempi nel sito di Cope, sito nel quale trovate un racconto molto interessante sui suoi Experiments.

    Ecco un esempio pubblicato sempre sul sito:

    ftp://arts.ucsc.edu/pub/cope/visions1.mp3

    ‘I began Experiments in Musical Intelligence in 1981 as the result of a composer’s block. My initial idea involved creating a computer program which would have a sense of my overall musical style and the ability to track the ideas of a current work such that at any given point I could request a next note, next measure, next ten measures, and so on. My hope was that this new music would not just be interesting but relevant to my style and to my current work. Having very little information about my style, however, I began creating computer programs which composed complete works in the styles of various classical composers, about which I felt I knew something more concrete.’

    Tra i trend in crescita nel 2017 sono da osservare con grande attenzione anche Virtual Reality, Augmented Reality e Mixed Reality. Vediamo in cosa differiscono in modo molto semplice facendo riferimento a Wikipedia.

    • Virtual reality: è il termine utilizzato per indicare una realtà simulata.[…] attualmente il termine è applicato solitamente a qualsiasi tipo di simulazione virtuale creata attraverso l’uso del computer, dai videogiochi che vengono visualizzati su un normale schermo, alle applicazioni che richiedono l’uso degli appositi guanti muniti di sensori (wired gloves) e infine al World Wide Web.
    • Augmented reality: intende mescolare la percezione della realtà circostante con immagini generate al computer, in grado di fornire informazioni aggiuntive all’utente senza impedirgli di muoversi ed interagire con l’ambiente nativo. […] Il cruscotto dell’automobile, l’esplorazione della città puntando lo smartphone o la chirurgia robotica a distanza sono tutti esempi di realtà aumentata. […] Gli elementi che “aumentano” la realtà possono essere aggiunti attraverso un dispositivo mobile, come uno smartphone, con l’uso di un PC dotato di webcam o altri sensori, con dispositivi di visione (per es. occhiali a proiezione sulla retina), di ascolto (auricolari) e di manipolazione (guanti) che aggiungono informazioni multimediali alla realtà già normalmente percepita.
    • La realtà aumentata mista è una forma particolare di realtà aumentata in cui sullo schermo sono visualizzate sia le immagini reali che le immagini virtuali. Non si tratta soltanto di informazioni aggiuntive, in questo caso sono presenti sullo schermo anche degli ologrammi.

    Riassumendo la VR mira a “sostituire” il mondo reale, mentre la AR mira ad arricchire la realtà di informazioni utili per l’espletamento di compiti complessi.

    Secondo Mark Rosner, CRO di AppLovin la realtà virtuale può risultare un’esperienza molto coinvolgente ed emozionante, ma esiste un problema legato alla scarsità di contenuti. Al contrario la AR dominerà le nostre vite a brevissimo. Leggete l’articolo pubblicato su Venturebeat.com per comprendere meglio le ragioni.

    There’s a good chance that one day AR, broadly speaking, will be the dominant medium in our lives. […] People might be distracted by the possibilities of VR, but the truth is AR is already ahead of VR, and it’s early days. We’re going to see more applications of AR that can be monetized well’.  

    Quali saranno gli sviluppi futuri? Che cosa ci possiamo aspettare dal nuovo anno che è alle porte? 

    aug

    Dall’infografica pubblicata da Goldman Sachs sull’ecosistema VR e AR possiamo notare quanto siano numerose le aziende che operano nella ricerca e nelle applicazioni. Come afferma Heath Terry,  Internet Research, Goldman Sachs Research

    We’re going from a world where people give machines rules to a world where people give machines problems and the machines learn how to solve them on their own.

    Vi consiglio di vedere il video pubblicato sul sito, nel quale Terry afferma che, guardando all’impatto dell’intelligenza artificiale e machine learning possiamo ipotizzare già solo nel prossimo decennio ‘hundred of billions of dollars in cost savings and revenue opportunities‘.

    Questa accelerazione è dovuta, secondo Terry, a tre fattori: proliferation of  DATA, growth in speed in compute power, open source algorithms.

    L’intelligenza artificiale è già presente nella nostra vista quotidiana quando guidiamo la nostra automobile o aggiungiamo tag alle foto degli amici, ma ha un peso determinante in tutti i settori dell’industria, quali ad esempio healthcare e retail.

     

    Un esempio dell’impatto sulla nostra vita quotidiana è offerto dalla nuovissima tecnologia di Amazon Go, presentata in questi giorni. Il punto vendita hi-tech è stato aperto a Seattle, il primo di una lunga serie. Pare infatti che Amazon parli di 2.000 nuovi negozi. Leggiamo sul sito di Amazon:

    amazongo

    ‘We created the world’s most advanced shopping technology so you never have to wait in line. With our Just Walk Out Shopping experience, simply use the Amazon Go app to enter the store, take the products you want, and go! No lines, no checkout.’ 

    Potete vedere le funzionalità in un video su YouTube. Una tecnologia che rivoluzionerà il mondo della vendita al dettaglio, in quanto consentirà di raccogliere una quantità immensa di data sui consumatori oltre che facilitare la gestione del negozio.

    Dove andrà a finire però la relazione umana? Già i grandi supermercati e le casse automatiche hanno ridotto moltissimo l’interazione, togliendo quel momento di socializzazione che era il plus del piccolo esercizio. E il personale che normalmente lavora nei centri commerciali si ritroverà a cambiare presto lavoro?  Tanti quesiti che al momento non hanno una risposta, anche perché il fenomeno è solo all’inizio. Tuttavia è una tendenza che era già apparsa durante l’ultimo Expò a Milano. Ricordate l’esperienza del supermercato del futuro proposta da Coop dove era stato possibile utilizzare le etichette interattive che fornivano informazioni sui prodotti?  A settembre in occasione della presentazione del Rapporto Coop 2016 il presidente della Gdo, Marco Pedroni ha annunciato la riapertura del supermercato all’interno del Bicocca Village (vedi Ansa.it del 9 settembre).

    Vediamo quindi le previsioni contenute nella ricerca Ericsson ConsumerLab su ‘Hot consumer trends 2017′. Secondo la ricerca il video online è in continua crescita anno dopo anno ed in particolar modo i video VR accanto ai live broadcast e le video calls. Le immagini avranno un peso sempre maggiore, in quanto impieghiamo solo 13 millesimi di secondo per identificare un’immagine secondo uno studio del MIT .

    That is about 10 times faster than we are able to move our eyes.

    La tecnologia VR e AR sarà fondamentale per l’update di Microsoft Windows 10 nel primo quarter del 2017, tanto che più del 40% degli internet users evoluti vorrebbe un computer con VR/AR come interfaccia principale.

    Come possiamo notare dall’infografica pubblicata nel sito di Ericsson,  l’intelligenza artificiale  è posta al centro perché non è più considerata come pure fantascienza, ma è ormai ovunque. Anche se il 50% degli intervistati sono convinti che i robots possano presto comportare la perdita di posti di lavoro, non possiamo più farne a meno, in quanto consentono di semplificare la nostra esistenza.

    trend_infographic_1_1500x1500_900x900_90

    Fonte: Ericsson ConsumerLab

     

    La metà degli intervistati desidera utilizzare la tecnologia VR e AR per le attività quotidiane e non solo per il gaming e vuole interagire con oggetti virtuali (vedi trend n.4).

    Soffermatevi sul trend n.8: Augmented Personal Reality.  Come precisa la ricerca agli inizi del 2016 pochi consumatori avevano sperimentato la realtà aumentata, ma, grazie anche alla diffusione del gioco Pokémon GO, nel corso dell’anno la AR è diventata una buzzword. I consumatori desiderano usare la tecnologia per vivere esperienze sempre più immersive e customizzate.  Curiose le risposte degli intervistati sugli usi degli occhiali AR: un 41% vorrebbe cambiare l’ambiente circostante aggiungendo fiori, uccellini o un 34% vorrebbe eliminare elementi di disturbo quali graffiti, spazzatura.

    trend_8_graph_1500x844_900x507_90

    L’evoluzione sta avvenendo sotto i nostri occhi e comporterà una capacità di adattamento non facile per le generazioni meno digitalizzate. Sono già evidenti i timori nei confronti nelle nuove tecnologie, anche se il cambiamento è ormai inarrestabile.