• Storie in XR: Artematiko

    Le storie in XR e social VR proseguono con un artista, Settimo Marrone, aka Artematiko, che ho conosciuto agli incontri di Pyramid Cafè in AltspaceVR. Vi ho già parlato del founder, Francesco Spadafina e degli eventi MagicFlute Show. Un giorno Francesco mi contatta in chat, dicendo di essere stato invitato da Artematiko come speaker a un evento della Cappella Orsini di Roma e di volermi coinvolgere. Spesso si pensa che i mondi di social VR siano legati solo al gaming, a mondi effimeri e poco concreti. In realtà posso dimostrarvi che mettono in contatto artisti, professionisti, sviluppatori, ecc., creando connessioni e legami reali e di grande interesse.

    Telefonate, chat e due speech in modalità phygital si sono susseguiti. In quei giorni alla Cappella Orsini di Roma si svolgeva una doppia mostra – virtuale e reale- con la partecipazione delle opere in realtà aumentata di Artematiko dal titolo: ‘Dalle Maschere Rituali a quelle Virtuali‘. 

    Il 10 febbraio abbiamo tenuto in forma ibrida il primo speech dal titolo ‘Comunicazione virtuale e stili di vita‘. Ecco una schermata dell’evento a cui ho avuto il piacere di partecipare.

    Evento alla Cappella Orsini dal titolo ‘Comunicazione virtuale e stili di vita’

    La collaborazione nel mondo reale è continuata con un secondo speech, sempre alla Cappella Orsini, dal titoloCosa c’è oltre Zoom. Modalità efficaci per la comunicazione online‘. Colgo quest’occasione per ringraziare Artematiko e il dr. Roberto Lucifero, antropologo e direttore artistico della Cappella Orsini.

    Dopo questa premessa, nella quale vi ho narrato com’è entrato nella mia vita professionale Settimo, veniamo alla storia che desidero condividere con voi.

    Chi è Settimo Marrone aka ARTEMATIKO

    Settimo ama presentarsi nella sua biografia come: un artigiano dello spettacolo, che produce spettacolari contenuti visuali, video e audio.Potrei definirlo uno sperimentatore o se preferite, facendo riferimento agli archetipi junghiani, un ‘esploratore’.

    La storia di Artematiko

    Scopriamo insieme com’è nata la passione di Artematiko per la realtà aumentata e perché ha scelto questo nickname. Una storia che risale al lontano 2009, ma non vi anticipo nulla di più, perché vi lascio all’intervista. Troverete spunti davvero interessanti, perché dietro gli avatar e le opere in extended reality (XR) si celano artisti e professionisti di grande spessore.

    L’intervista

    Artematiko raccontaci quando ti sei avvicinato per la prima volta alla realtà aumentata.

    Grazie per quest’occasione di raccontare un tipo di arte così effimera eppure così pervasiva ed emozionante.
    Ho cominciato ad approcciarmi alla Realtà Aumentata intorno al 2009. In quel periodo di traslochi continui, accedere a internet era problematico. Usavo il cellulare con i 3 Giga mensili o meglio una pennetta wifi collegata ad un cavo usb di un paio di metri, per posizionarla dove potessi captare i rari segnali wifi liberi intorno a me. A volte ho anche costruito piccole parabole in cartone e fogli di alluminio, per poter meglio ricevere i segnali.

    Il bisogno aguzza l’ingegno.

    La rete mi offriva letteratura varia sulla realtà virtuale e comprenderla per impiegarla in ambito artistico e poetico era prioritario. Dopo la tesi di qualche anno prima, sul piccolo museo degli automi, realizzata con la tecnologia vrml (Virtual Reality Modeling Language) volevo saperne di più. Nella tesi ho sostenuto che con la vrml chiunque potesse costruire il proprio spazio tridimensionale online, il proprio personaggio e socializzare con altri.

    Qualche tempo dopo, in effetti, nel 2003 in America viene lanciato il primo social network sviluppato in un mondo tridimensionale online, Second Life, e sappiamo il successo di questa piattaforma che divenne un fenomeno pop.

    Nelle mie ricerche mi imbattevo in articoli piuttosto generici, che descrivevano come alcune aziende o sfruttassero le animazioni tridimensionali “appiccicandole” su dei marcatori bidimensionali (ARtags) in bianco e nero e sfruttandole per dimostrazioni pubblicitarie.
    Quella che mi colpì di più fu un’animazione della General Electric Company (GE). Bastava andare sul loro sito, inquadrare con la webcam un particolar marcatore nero su un foglio bianco (non avendo la stampante ho dovuto disegnarlo a mano su un A4), e dal disegno usciva letteralmente fuori una mini centrale elettrica solare o eolica, come un popup.
    Questa cosa la trovai magica e divertente e, visto che questa è sempre stata la linea dei miei progetti e delle mie ricerche, mi conquistò totalmente.

    animazione della General Electric Company
    animazione della GE

    Con il tempo ho fruito di applicazioni sempre più complesse, giochi come quelle prodotti per la psp della Sony: Eyepet era sicuramente la più divertente perché era possibile interagire nell’ambiente reale, con un cucciolo simile ad una piccola scimmia da accudire.

    gioco della Sony: Eyepet
    gioco della Sony: Eyepet

    Ho entrambi i dischi di Invizimals, un altro gioco per psp in cui bisogna scovare e addomesticare creature particolari, ma dopo la fase di ricerca, mi sono stufato presto: non ho mai amato addomesticare e far combattere fra di loro qualunque tipo di creatura. Sì anche quelle virtuali.

    Invizimals, gioco per psp

    Nel 2012 la Nokia diede uno scossone nel campo delle applicazioni in Realtà Aumentata utilizzando il gps del cellulare per riconoscere l’ambiente reale. Quando usci l’app chiamata semplicemente City Lens, ne fui strabiliato. Con il Lumia 920, puntando la fotocamera intorno a me, potevo riconoscere i punti d’interesse, con recensioni, distanza, altezza del piano ecc. Quindi, ristoranti, negozi, musei e quant’altro.

    City Lens- Nokia

    Solo grazie alla compagnia Autonomy della HP, sono riuscito a fare i miei primi esperimenti come creatore di contenuti in AR. La compagnia aveva creato un App nel 2011 per device mobili chiamata Aurasma (In seguito chiamata Hp Reveal), e uno studio raggiungibile da browser del computer Aurasma Studio appunto, per applicare video, immagini o animazioni ad una qualunque immagine (visual trigger) da visualizzare poi con l’app di cui sopra. Ho cominciato ad usarla seriamente solo nel 2019, insieme ad altre piattaforme per creare contenuti in AR. Purtroppo il progetto HP Reveal ha chiuso i battenti nel 2020, anche se usato come strumento educativo in alcune scuole italiane.

    Sempre nel 2019 mi sono orientato su altre due piattaforme per creare contenuti in AR, Arize e Artivive, preferendo quest’ultima con la quale collaboro ormai ancora oggi.

    Artivive è particolarmente orientata ad artisti, illustratori, eventi museali e per poter fruire del servizio di creazione di contenuti, durante l’iscrizione, bisogna presentare un portfolio con le proprie opere. Una volta iscritti, l’azienda offre la possibilità di creare tre progetti gratuiti e poi di acquistare altri. Non ricordo il costo di ogni “progetto” perché collaborai con loro per la creazione di un video tutorial in italiano e l’azienda mi offri la possibilità di realizzare ben quindici progetti.
    Ovviamente l’app per smartphone e tablet è scaricabile gratuitamente: serve solo a riconoscere le illustrazioni (i visual triggers) su cui sono applicate animazioni in AR.

    Che cosa significa per te ‘aumentare la realtà’?

    Prendo spunto dal significato ufficiale di AR, una tecnologia con la quale è possibile rappresentare una realtà alterata e non percepibile grazie ai nostri sensi, ma solo grazie a device elettronici come speciali visori. Nel mio caso basta uno smartphone o un tablet.

    Personalmente l’uso che ne faccio è quello di creare un’anima di un’opera che racconti una storia silenziosa, nascosta, che non è percepibile con i sensi, ma per scoprirla è necessario un medium, uno strumento elettronico.

    La ricerca artistica che porto avanti da tanti anni è sempre poggiata su quattro pilastri, il gioco, la poesia, l’arte e la tecnologia. Poter creare dei dipinti che, grazie alla Realtà Aumentata, riescano a mostrare la propria anima musicale in movimento, è un processo che mi ha entusiasmato e commosso.

    Volevi diventare un artista fin da bambino? In che misura ti ha influenzato la famiglia o un mentore, se ne hai avuto uno?

    Mi considero più un artigiano e da bambino dicevo di voler diventare scienziato. Da quanto ricordo, la creatività e la curiosità mi hanno sempre contraddistinto. Mi è sempre stata riconosciuta una forte propensione alla pratica dell’arte sia dai miei che da chi mi è stato intorno, con i pro e i contro.

    Ero comunque quello strano del paese. L’artista bravo, ma che comunque progettava cose inutili. Inutili come l’arte, la poesia, la letteratura, il cinema,il teatro, la musica. Insomma quelle cose inutili che poi diventano necessarie e assolute durante una pandemia mondiale o per sostenere una nazione come l’Italia che siccome “non è che la gente la cultura se la mangia” (cit.), trascura tutto il suo patrimonio artistico e culturale, riconosciuto inestimabile, ricercato e conteso da tutto il mondo (ancora per poco se continua così – vedi la trascurata Roma).

    Imparare tecniche, imparare a progettare e a esprimermi è stato un processo che non è mai finito. Non sono più bravo di altri. Ho solo una visione differente e cerco di esprimerla attraverso gli strumenti artistici che scopro o che ho adattato alla pratica dell’arte. Volta per volta acquisisco esperienze professionali in ambiti tra i più disparati, dall’artigianato al mondo del web, dalla pittura all’illustrazione digitale, dal video making alla costruzione di manufatti.

    Non ho avuto mentori che mi abbiano seguito, ma sono certo di aver avuto stima e provato entusiasmo per tantissime figure artistiche viventi o meno. Con il tempo le figure di riferimento si sono moltiplicate e gli ambiti in cui tento di esprimermi sono tanti e spesso si compenetrano: arte, musica, gioco, poesia.

    Per esempio: essendo anche scenografo ed affascinato dal virtuale, mi sarebbe sempre piaciuto collaborare alle scenografie di un video game d’avventura. Forse anche per questo nel 2000 circa ho progettato il piccolo museo virtuale d’automi e co.

    Ingresso museo degli automi
    Ingresso museo degli automi

    Probabilmente sarò un artista e anche se ci vuole molto coraggio riuscire a condividere arte con la collettività in un posto come l’Italia, non potrei fare altrimenti.

    Qual è stata la tua prima opera in realtà aumentata?

    A marzo del 2019 fui invitato a partecipare ad una collettiva, da Roberto Lucifero il direttore artistico della Cappella Orsini, una galleria d’arte di Roma. La mostra avrebbe avuto come tema Roma e i suoi Inganni a Dicembre dello stesso anno. Così ho cominciato ad elaborare il mio piano per ingannare il pubblico.

    Fu un lavoro molto intenso e ci misi tantissimo ad elaborare un idea che mi soddisfacesse. Ricordo che ad Agosto stavo ancora progettando quella che poi avrei chiamato La Cupola.

    La cupola- opera in AR
    La cupola – opera in realtà aumentata

    L’idea è stata quella di creare una sintesi illustrata della cupola di San Pietro a Roma e animarla a tempo di musica, come un meccanismo ad orologeria.

    In effetti finora, nelle opere che ho progettato, la musica fa da regia. Suggerisce e determina la maggior parte delle cose che vengono raccontate dalle Anime delle opere e mantengono il ritmo della storia.

    Una volta terminata l’illustrazione con Illustrator e Photoshop, è stata scomposta in singoli elementi e poi animati in un Vegas pro, un editor audio video. Con la cupola, scelsi anche di farne una versione a bassorilevo e trovai un artigiano che a settembre, riuscì a tagliarmi tutti pezzi con il laser, ma ho dovuto ridisegnarli per poterli poi adattare. Il risultato fu incredibilmente d’effetto. Unico problema è che il tipo di tecnologia che usa Artivive è basato sul riconoscimento di immagini complesse. Il bassorilievo crea ombre differenti a seconda dell’ambiente e proprio queste ultime vengono riconosciute come parte integrante dell’immagine. Ecco perché tutte le volte che riposiziono questa versione dell’opera devo “rimarcarla”.

    Com’è nata l’idea dell’opera ‘Sampietrini’?

    Le opere che progettato finora sono tutte degli elogi della bellezza e della meraviglia, suggeriti per la maggior parte da luoghi di Roma che mi hanno colpito ed emozionato. Tra questi posti, ci sono anche i sampietrini che creano texture incredibili.
    Fino a prima di Sampietrini, le anime musicali si sono sviluppate sempre in parallelo ai dipinti. Volevo quindi che una di loro avesse una forte connotazione verticale, spirituale, effimera come l’attimo in cui si assiste a qualcosa di bello. Quindi un illustrazione da esporre in orizzontale, magari al livello del terreno.

    Nell’opera vediamo alcuni sampietrini bagnati da luci gialle e blu e in un interstizio, un piccolo punto rosso: un seme.

    Ora ti racconto.

    Contavo di terminare le opere per marzo 2020, quando le avrei esposto per la prima volta. Ormai avevo velocizzato i processi di realizzazione, ma dopo il blocco di febbraio ho compreso che questa cosa non sarebbe successa.

    Mi sono quindi messo a curare i dettagli di ogni opera e in particolare a curare l’intera realizzazione di Sampetrini che però è durata circa 4 mesi. Questo perché l’intero processo di crescita dello stelo della pianta è disegnato fotogramma per fotogramma, è un cartone animato. Solo per realizzare la pioggia che cade a tempo di musica, ci ho impiegato un mese.

    Durante la realizzazione di quest’opera è diventato palese che Sampietrini sarebbe diventato il manifesto dei miei processi artistici: il seme cresce e si sviluppa in un ambiente particolarmente difficile e non dà importanza a quello che succederà, il suo unico scopo è diventare fiore, condividere energia e bellezza fino al momento di sparire nel nulla.

    È l’idea che sta alla base in particolare di questa operazione in AR. Belle ed effimere, basterebbe un piccolo problema elettrico per far sparire per sempre le anime di queste illustrazioni.

    Il pubblico è stato fin ora eterogeneo, ma ha dimostrato di comprendere benissimo l’intera operazione, l’idea che c’è alla base di Sampietrini, delle mostre. Si è divertito ed emozionato.

    Il brano che fa parte dell’opera è di Charlie May, un dj produttore che stimo tantissimo a cui ho mostrato la mia prima opera. Mesi prima lo avevo contattato chiedendogli il permesso di usare due suoi pezzi, ma senza sapere bene come li avrei usati. Il secondo fa parte dell’opera che omaggia il teatro.

    Ho letto che per la realizzazione delle tue opere hai sempre una fase di studio e progettazione molto lunga. Ci spieghi il motivo?

    È vero! Sono di quelli che pensa che imparare richieda tempo ed esercizio, come imparare ad amare.

    Quello che comunemente si pensa su chi pratica arte, è che abbia il talento innato, una sorta di magia con la quale basta pensare una cosa e automaticamente si avvera. La realtà è che per ottenere un risultato il più possibile vicino al tuo pensiero, c’è bisogno di tanto studio, documentazione, esercizio, lavoro.

    Ho sempre ritenuto che chiunque possa imparare a disegnare e lo dimostra il fatto che esistono persone molto più brave e accurate di me nel disegno, ma che usano un piede o la bocca. Possiamo raccontarci la favola del talento anche per loro, ma la verità che ogni qualità e azione umana va esercitata e studiata costantemente. Alcune persone hanno delle agevolazioni fisiche e/o intellettuali rispetto ad altri, ma tutto qui.

    Se, come nel mio caso, le mie ricerche sono autofinanziate, il tempo cresce, perché per sostenere quello che dovrebbe essere il mio lavoro, devo fare altri lavori.

    Chi sceglie di fare ricerca scientifica in Italia, sa che avrà pochissimi sostegni. Non parliamo di chi come me voglia fare ricerca artistica e condividerne i risultati.

    Prima di presentare qualcosa che per me abbia valore, che possa chiamare opera d’arte, devo essere sicuro che per primo io sia meravigliato di ciò che ho prodotto. Esercitare la meraviglia, su di sé e sugli altri, per quanto mi riguarda, necessita di approfondimenti su tecniche e modalità espressive.

    Comprendere come utilizzare uno strumento e come utilizzarlo ai fini di emozionare e meravigliare, necessita di tempo, ed essendo uno spirito eclettico, spesso gli strumenti non sono convenzionali.

    Devi sapere che ho cominciato ad esporre tardissimo, la mia prima mostra è avvenuta alla fine del 2018 e ho esposto per la prima volta un’opera che avevo iniziato circa vent’anni prima. Era un lavoro su diapositive sviluppate, ma non impressionate, quindi nere. Tramite processi di micro incisioni con un sottile ago e colorazioni ottenute, esponendo le pellicole a piccole quantità di acidi, ho realizzato delle micro illustrazioni.
    I mini quadri di luce esposti sono più di 50, ma realizzati effettivamente sono molto di più. Mi piacerebbe mostrarteli dal vivo, purtroppo in foto non rendono.

    Solo pochissime persone avevano visto i risultati meravigliosi, ma solo nel 2018 dopo varie prove negli anni, sono riuscito a realizzare come esporle. Sono retro illuminate e osservabili grazie ad una lente posta sul davanti che ne esalta colori e crea un effetto tridimensionale. Queste opere sono poi state esposte sia al primo Bright Festival di Firenze che al Macro di Roma con il nome M.A.E.

    Quali sono i criteri per cui scegli le opere da ‘aumentare’?

    Per ora l’idea è stata quella di creare opere che fossero degli omaggi. Per esempio alla bellezza, al teatro, alla musica, alla danza, partendo da illustrazioni di luoghi romani, ma non ho idea se continuerò con questa linea. Magari progetterò delle opere completamente slegate da luoghi o tributi. Credo che continuerò comunque a voler raccontare mini storie silenziose.

    Descriviti con 3 parole chiave

    Ne basta una: Artematiko, è il nome che mi sono scelto che unisce Arte e Matematica (quindi tecnica e tecnologia).

    Perché, a tuo parere, la AR esalta l’arte e come si potrebbe fare cultura?

    Augmented Reality potrebbe esaltare l’arte, animando, per esempio, dipinti di altri o Murales preesistenti.

    Io non la uso così. La considero uno strumento e in quanto tale può essere impiegato per creare opere completamente nuove, tridimensionali e fruibili come percorsi meravigliosi, grazie all’uso del gps. La realtà aumentata è paragonabile ad un pennello, ai colori: il risultato sta nelle mani di chi la usa e delle sue competenze.

    Ti faccio un esempio che mi sarebbe piaciuto realizzare. Non vinco mai concorsi, ma per uno di questi mi è stato chiesto di progettare un’opera da posizionare in un ambiente urbano. Rimovibile e poco impattante per un borgo medievale vicino Roma. Quale modo migliore di sfruttare la Realtà Aumentata?

    L’idea che ho proposto è stata una vera e propria installazione scenografica con cambi scena, animazioni, suoni e musica. Chiunque avrebbe potuto visualizzarla, senza alcuna difficoltà, scaricando un’app gratuita semplicissima da usare: si scarica e si inquadra. Nessun materiale fisico avrebbe sfiorato i muri del borgo. Una scenografia animata visibile solo tramite telefono o tablet.

    Un arco cieco in pietra e muratura si sarebbe trasformato in un vero e proprio portale, attraverso cui il tempo e lo spazio avrebbero danzato a tempo di musica, offrendo al pubblico la visione di un paesaggio fantastico e suggestivo. Magari raccontando senza parole eventi avvenuti in quel luogo.

    Come ho detto, la Realtà Aumentata è uno strumento molto potente, che può esaltare la cultura di un borgo medievale, raccontarla, renderla immersiva e comprensibile, meravigliosa.

    Ora immagina di essere in un parco di una città. Passeggi su quel sentiero che ti piace tanto e in cui vedi correre puntualmente alcuni runner che vogliono tenersi in forma. Accendi il telefono, avvii un’app e inquadri il paesaggio intorno. Magari indossi anche le tue cuffie preferite.

    Sullo schermo del telefono di colpo ti ritrovi a camminare tra i corridoi fantastici di un luogo meraviglioso, ricco suoni incredibili, di animazioni tridimensionali e opere d’arte. Corridoi in cui il parco viene raccontato, la città ti viene illustrata, artisti stanno esponendo le loro opere o band musicali virtuali si stanno esibendo per farti ascoltare il loro ultimo brano.

    Tutto questo grazie alla realtà aumentata che sfrutta il gps del telefono.

    Quali sono i tuoi progetti futuri?

    Prendendo spunto dall’idea del borgo medievale, sto pensando di usare le facciate dei palazzi per creare Street Arte in AR, senza dipingere nulla sulle facciate, ma usando le peculiarità dei palazzi per creare opere in Realtà Aumentata.

    Ovviamente è un’operazione che richiede come al solito, tempo, documentazione, test, lavoro. Quindi non ho idea di quando potrò mai realizzare la prima.

    Sai che mi occupo anche di ambiti che non riguardano il virtuale. Alcuni progetti riguardano la produzione audio immersiva, in particolare di podcast. La produzione audio la trovo incredibilmente affascinante e poter lavorare sui suoni per produrre scenografie sonore lo trovo esaltante quanto costruire scenografie teatrali.

    In ogni caso sui vari social di Artematiko pubblico aggiornamenti e scoperte.

    Chi desidera sostenere il mio lavoro e miei progetti può farlo attraverso la pagina Tipeee di Artematiko.

    Grazie Simo, un abbraccio e spero di vederti presto.

  • Je t’aime moi non plus: AI e le relazioni interpersonali

    Sicuramente ricordate le parole d’amore della famosissima canzone  ‘Je t’aime moi non plus’ di Serge Gainsbourg e Jane Birkin. Ma se al posto di uno dei due amanti ci fosse un chatbot? 

    L’Intelligenza artificiale sta diventando sempre più parte integrante della nostra realtà quotidiana, dagli assistenti personali come Alexa, Google Home al riconoscimento facciale ormai utilizzato dalle aziende del beauty. Se da un lato l’IA facilita la nostra vita dall’altro guida e condiziona molti aspetti delle nostre esperienze. Alcune ricerche stanno indagando l’impatto dell’IA sulle relazioni interpersonali e amorose. In questa realtà distopica poniamoci una domanda:  può un robot provare empatia ed emozioni?

    L’impatto dell’AI sulle relazioni interpersonali

    Come potrà l’IA cambiare lo storytelling e i nostri mondi narrativi? Nella scrittura può già sostituirsi agli umani, partendo semplicemente da codici come nell’opera ‘1 The road’, creata da Ross Goodwin il primo libro scritto da una AI writing machine su una Cadillac in viaggio da New York a New Orleans o creare storie da immagini come realizzato da Ryan Kiros della University of Toronto.

    Le macchine potranno forse sostituire noi storyteller umani, ma non potranno esprimere sentimenti come l’amore. Nel mio studio dedicato alle nuove forme di narrazione nell’epoca post digitale ho letto dell’opera, ‘Lady Chatterley’s Tinderbot‘ , basata sull’utilizzo di Tinder, la famosa app d’incontri e ho deciso d’intervistare l’artista, Libby Heaney.

    Chi è Libby Heaney

    Artista e docente britannica al Royal College of Art dal 2014 con un background in quantum compting, Libby Heaney studia l’impatto delle tecnologie future. Il suo lavoro è stato presentato a Londra (Tate Modern, Victoria and Albert Museum e Christie’s), New York, Peru, e in Europa.

    Nel 2016 ha programmato Lady Chatterley’s Tinderbot, un touchscreen interattivo dove ha avviato una conversazione con ca. 800 utilizzatori anonimi di Tinder, inviando loro estratti tratti dal romanzo, “Lady Chatterley’s Lover” (David Herbert Lawrence – 1928). Un esperimento sull’AI e le relazioni interpersonali che è risultato davvero sorprendente ed è stato presentato in touchscreen in uno spettacolo dal vivo e raccolto in un libro.

    Lady Chatterley's Tinderbot

    Intervista sull’opera ‘Lady Chatterley’s Tinderbot’

    When and why did you decide to use a bot to study the human interaction about love and sex?

    In general I’m interested in how technology effects humans and how we see the world and vice versa. I wanted to make a piece that focused on technology and love and since I’ve used Tinder myself before, I decided to think about how Tinder has changed the way we find love and sex and intimacy. I was reading Lee MacKinnon’s Tinderbot Bildungsroman and Love Machines in e-flux journal, which inspired me to use a bot to explore human interaction with love and sex. After more research, I found out that Tinderbots were often gendered and used to in the aid of capitalism (‘hot women’ guiding people to porn sites and even a Tesco survey).

    How long did the study last? How many users were involved?

    I had three Tinderbots running on Tinder over the course of about a year 2016-2017. They spoke to just over 800 people mostly around the London area where I live, but also around Oxford & Berlin when I traveled there.

    Can human and machine come together to live a new form of love?

    My work was about how romantic codes are shifted due to various technologies disseminating the codes. I how love and sex function in a pre-digital technology – the literary novel – and the same with a post-digital technology – Tinder. I created three Tinderbots based on characters from Lady Chatterley’s Lover, Lady Chatterley, Mellors (the game keeper who LC has an affair with) and Clifford (Lady Chatterley’s husband who she cheats on). These agents spoke to people on Tinder using only dialogue from the novel. The human’s on Tinder were either surprised, played along or ignored this unusual style of messaging. I wasn’t really looking for a new form of love in the work, but rather wanted to point out the resonances and dissonances between old and new romantic codes that are propagated through technology.

    What’s the funniest answer you received?

    There’s lots of funny answers. You can see the pdf of some responses on my website. The point is that while the work is funny in part, it can also shows humanity as being lonely, sad and vulnerable.

    What do you think about the future of love and sex? Will we meet just online? 

    I think there as with most actions in life now, there will be a hybrid online/offline approach. It might be that we all have a bot based on our data from other websites (like FAcebook) that sits on dating apps and initiates contact with other people’s bots on our behalves. Perhaps when our bot finds someone who we might really like or fancy, it will alert us and then the humans will step in.

    L’AI potrà cambiare la nostra narrazione e le relazioni interpersonali? Sicuramente sta avendo un impatto importante in settori innovativi e tradizionali: dal customer service al recruiting e tutto il settore delle risorse umane. Quanto impatterà sull’amore? Difficile dirlo al momento.

    Nota: Articolo originariamente pubblicato in ‘Narrability Journal’ Semestrale di divulgazione scientifica sulle Scienze della Narrazione dell’Osservatorio di Storytelling.

    Fonti:

    sito http://libbyheaney.co.uk/

    Link utili

  • Il codice umano e l’AI

    L‘intelligenza artificiale (AI) può avere un impatto significativo sulle attività sociali come la musica oppure sulla scrittura e sull’arte, da sempre considerate esclusive dell’uomo, definito ‘codice umano’ da Marcus Du Sautoy ?

    Ho iniziato ad interessarmi alle applicazioni dell’AI fin dal 2016, quando, dopo aver ascoltato allo IAB lo speech del professor Giuseppe Riva, Direttore di interazione comunicativa e nuove tecnologie dell’Università Cattolica di Milano dedicato all’AI dal titolo “Intelligenza artificiale: l’intelligenza nella realtà”, avevo approfondito casi studio inerenti la musica. Avevo scritto un articolo e citato, ad esempio, MusicNet, un software realizzato da ricercatori dell’Università di Washington e gli esperimenti condotti all’interno del progetto ‘Google Brain’ creato da Google.

    Nel tempo sono stati fatti molti progressi e, come ci dice il matematico Marcus Du Sautoy nel suo libro ‘Il codice della creatività’ (ed. Rizzoli), oggi viviamo a stretto contatto con le macchine.

    Le nostre vite sono completamente dominate dagli algoritmi. Ogni volta che cerchiamo qualcosa su Internet, pianifichiamo un viaggio con il GPS, scegliamo un film raccomandato da Netflix o prendiamo un appuntamento online, siamo diretti da un algoritmo. Gli algoritmi sono la nostra guida nell’era digitale, ma pochi sanno che esistono da migliaia di anni prima dell’avvento dei computer e che stanno al cuore dell’essenza stessa della matematica. ‘ (p.698)

    L’AI non ha sostituito l’uomo, timore che spesso emerge nei convegni e negli articoli che vengono pubblicati nell’ultimo anno, ma lo ha supportato sempre più in attività complesse.

    Giornalismo

    Secondo Du Sautoy ‘l’ambito dove gli algoritmi di scrittura danno il meglio di sé è la trasformzaione di dati grezzi in articoli di giornale.

    L’intelligenza artificiale non prenderà il posto del giornalista o dello scrittore, ma svolge già oggi quei compiti nei quali l’uomo è meno efficiente, come analizzare fonti e verificarle proprio per la sua capacità di processare un numero infinito di dati e scrivere una grande quantità di articoli in tempi molto contenuti.

    Molte redazioni stanno usando gli algoritmi, come leggiamo in ‘Journalism AI – new powers, new responsibilities‘, il rapporto di Polis, think tank della LSE ( London School of Economics and political sciences) e Google News Initiative nel 2019. Si parla di giornalismo automatizzato o robotico. Di che cosa si tratta esattamente? In un articolo di Matteo Monti, ricercatore della Scuola Superiore Sant’Anna, pubblicato a marzo 2019 dall’agendadigitale.eu ho letto una definizione molto semplice ed esaustiva che condivido con voi:

    Questo nuovo metodo di produzione di news è basato sulla tecnologia NLG (natural language generation), che permette, in generale, la creazione di giornalismo testuale a partire da un insieme di dati strutturati digitalmente. Una tecnologia, questa, che prevede che un algoritmo raccolga e analizzi i dati in modo indipendente e poi scriva un articolo dagli e sugli stessi. (1)

    Il giornalismo automatizzato opera sia scrivendo e pubblicando autonomamente articoli di cronaca senza l’intervento di un giornalista, sia “collaborando” con un giornalista che può essere incaricato di supervisionare il processo o fornire input per migliorare l’articolo. (2)

    Tornando al rapportoJournalism AI’ di Polis che è stato condotto in 71 agenzie stampa in 37 nazioni emerge che:

    ‘artificial intelligence (AI) is a significant part of journalism already but it is unevenly distributed. AI is giving journalists more power, but with that comes editorial and ethical responsibilities.

    Quali sono i task nei quali l’AI può supportare il giornalismo in futuro? Nel report sono stati evidenziati questi dieci punti:

    Abbiamo parlato di giornalismo, ma quanto l’AI può influenzare anche la musica o l’arte e la scrittura?

    Musica

    Nel campo musicale mi ha incuriosita l’esperimento condotto da Damien Riehl , un legale specializzato in copywright e Noah Rubin, un programmatore. Hanno creato un algoritmo che compone melodie:

    ‘by brute force all mathematically possible melodies and write them to MIDI files. We provided the application with various parameters to mathematically exhaust every popular melody that has ever been — and are mathematically possible. When those MIDI files were written to disk, they were copyrighted automatically. We have also designated all newly created files (to which we have legal rights) to the Creative Commons CC0.

    Il loro obiettivo è quello di proteggere i musicisti ‘from being sued for copying songs they don’t remember hearing.’

    Su Wikipedia leggiamo che MIDI è l’acronimo per:

    Musical Instrument Digital Interface e si indica il protocollo standard per l’interazione degli strumenti musicali elettronici, anche tramite un computer.

    Se desiderate potete vedere il video dello speech che Damien Rieh ha tenuto al TEDx di Minneapolis alla fine dello scorso gennaio e consultare il sito.

    Manga

    Proprio in questi giorni ho letto un articolo su Leganerd.con in cui si parla di Paidon, manga scritto e disegnato da un’intelligenza artificiale. Makoto Tezuka figlio del famoso mangaka Osamu Tezuka, scomparso nel 1989, ha fatto studiare all’AI sessantaquattro opere del padre per creare una storia totalmente ispirata al suo mondo. Ha poi completato il lavoro, i dialoghi e le illustrazioni personalmente.

    Poesia

    E se le poesie fossero scritte dall’intelligenza artificiale? Ho provato un interessante esperimento dell’artista e scenografa londinese, Es Devlin che ha realizzato e messo online nel 2019 PoemPortraits, progetto che combina poesia, intelligenza artificiale e design, creato in collaborazione con Google Arts e Culture e il programmatore Ross Goodwin. Leggiamo sul sito:

    An experiment at the boundaries of AI and human collaboration. Donate a word to become part of an ever evolving collective poem and create your own POEMPORTRAIT.

    Mi sono divertita a giocare con l’algoritmo e ho scelto la parola ‘love’, digitandola nel campo indicato. L’AI ha elaborato ‘on over 20 million words of 19th century poetry is generating your unique POEMPORTRAIT.

    Nello step successivo l’applicazione mi ha chiesto se desidero attivare la fotocamera per realizzare un selfie oppure proseguire con solo testo.

    Foto 1

    Avendo optato per solo testo questa è la poesia creata per me dall’algoritmo. Il verso può essere salvato in .png (foto 2) e scaricato oppure entrare a far parte di un poema collettivo (vedi foto 3)

    Foto 2
    Foto 3

    Ho provato anche a scegliere l’altra opzione ossia a scattare una foto. I versi sono apparsi sul mio ritratto in stile video mapping 3D e lo sfondo poteva essere nei toni del rosso o del blu in modo random.

    Siete curiosi e desiderate provarlo? Ecco il link al sito e di seguito il video su YouTube in cui viene descritto il progetto.

    PoemPortrait era stato presentato già nel 2018 come installazione al Summer Party delle Serpentine Galleries di Londra e aveva riscosso molto successo tanto che, come abbiamo visto, nel 2019 era stato deciso di renderlo disponibile sul web. Potete trovare maggiori informazioni nella video-intervista su YouTube.

    Fonte: https://youtu.be/e-NUHIqmgUI

    Sempre nel 2018 la collaborazione tra il programmatore Ross Goodwin e l’artista Es Devlin aveva dato vita ad un’altra installazione molto particolare come ‘Please Feed The Lions’. Era una scultura interattiva posta in Trafalgar Square a Londra commissionata dal London Design Festival, Google Arts & Culture e The Space. Il leone, realizzato in un rosso fluorescente, ruggiva e, grazie a un algoritmo di deep learning sviluppato da Ross Goodwin, componeva una poesia collettiva generata dalle parole digitate su un tablet dai passanti.

    Perché un leone proprio a Trafalgar Square? Nel 1867 quattro leoni sono stati posti alla base della colonna di Nelson come icone britanniche e Trafalgar Square è stata da sempre considerata un luogo simbolo per meeting politici e raduni. La prima manifestazione importante si tenne nel 1848, con il raduno dei cartisti che chiedevano il suffragio universale.

    Fonte: by karyne.barwick – Instagram

    Come funzionava l’installazione? I passanti erano invitati a dar in pasto al leone una parola a loro scelta digitata su un tablet. Immediatamente il leone ruggiva con la voce ‘imprestata’ dalla vocalist Jade Pybus, mentre sullo schermo posto all’interno delle fauci appariva una strofa generata dalla parola stessa. Come leggiamo nella pagina del sito Google Arts and culture:

    The poetry is generated by an artificial neural network model that has learnt to write by reading millions of words of 19th century poetry. The specific algorithm is known as a long short-term memory (LSTM) recurrent neural network (RNN), and it works by learning to predict the next text character (letter, space, or punctuation) over and over again…’

    Durante il giorno la strofa appariva su uno schermo posto all’interno della bocca del leone e alla sera il poema collettivo veniva proiettato sul leone stesso e sulla colonna di Nelson grazie al video mapping.

    Quale sarà il futuro dell’AI e della scrittura? Riprendiamo ancora il pensiero del matematico Marcus Du Sautoy:

    Il Grande scrittore automatico resta ancora una fantasia umana. […]Ci sono talmente tante storie da raccontare che scegliere quelle degne di essere ascoltate è ancora una sfida; solo un creatore umano comprenderà per quali ragioni un’altra mente umana potrebbe volerlo seguire nel suo viaggio creativo. Senza dubbio, i computer ci assisteranno nel nostro viaggio, ma saranno i nostri telescopi e le nostre macchine da scrivere, non i narratori. ‘ (pag. 4504)

    Nel frattempo le sperimentazioni continuano e sempre più artisti, scrittori e designer realizzano e studiano nuove opere co-create con l’AI o realizzate dall’algoritmo in autonomia. Non resta che stare a guardare come conviverà il codice umano con l’AI e dare un senso al futuro.

    Negli ultimi mesi ho continuato ad approfondire temi legati alla scrittura e all’intelligenza artificiale. Nei prossimi convegni esamineremo insieme altre case studies internazionali che mi hanno interessato e che desidero portare alla vostra attenzione.

    Fonti:

    (1) (2) https://www.agendadigitale.eu/cultura-digitale/giornalismo-automatizzato-usi-e-rischi-dellintelligenza-artificiale-nelle-news/

    https://leganerd.com/2020/02/27/paidon-il-manga-scritto-e-disegnato-dallintelligenza-artificiale/

    https://thenextweb.com/neural/2020/02/26/ai-penned-manga-paidon-to-be-published-this-week/

    https://drive.google.com/file/d/1utmAMCmd4rfJHrUfLLfSJ-clpFTjyef1/view

    https://artsexperiments.withgoogle.com/poemportraits?_ga=2.33161846.992826029.1556786810-799000725.1554196893

  • Esperienze aumentate a Londra

    S e mi seguite sui social sapete che sono appassionata di esperienze immersive che coniugano narrazione e tecnologia. Cerco di sperimentare anche durante il tempo libero in occasione, ad esempio, di visite ai musei o di eventi per capire, valutare e consigliare i miei clienti.

    Quest’estate ho trascorso alcuni giorni di vacanza a Londra e ho pianificato una visita al Tate Britain Museum. Avevo letto un articolo in cui si annunciava l’accordo tra Facebook e il Tate per rendere più coinvolgente la visita con l’Instagram camera’s AR effect.

    Ho scaricato sullo smartphone l’app del Tate disponibile su Instagram e ho iniziato una ‘caccia al tesoro’ tra le sale permanenti.

    Solo otto opere sono state ‘aumentate’ grazie all’AR e vicino al quadro era posizionato un cartello che invitata il visitatore a scaricare l’app e a vivere l’esperienza.

    Devo dire che non era semplicissimo identificare le opere, in quanto il cartoncino non era ben visibile e l’esperienza in AR non era ben spiegata. Una volta individuati i quadri mi sono posizionata con lo smartphone e ho suscitato la curiosità di altri visitatori che non avevano colto l’opportunità.

    Un’iniziativa interessante, ma che avrebbe potuto essere gestita in modo più coinvolgente e soddisfacente per il fruitore. L’app non si caricava molto velocemente e a volte si perdeva il collegamento. Trattandosi di una prima esperienza frutto dell’accordo recentissimo tra Tate e Facebook , sarà sicuramente migliorata ed ampliata.

    Non ci resta che attendere nuove esperienze aumentate!

    Ecco i quadri che è possibile vedere in realtà aumentata:

    • Fishing upon the Blythe-Sand, Tide Setting In di Joseph Mallord William Turner
    • Amateurs of Tye-Wig Music (‘Musicians of the Old School’‘ di Edward Francis Burney
    • A Youth Relating Tales to Ladies di Simeon Solomon
    • The Cholmondeley Ladies di autore sconosciuto, Britain
    • Self-Portrait di Gwen John
    • Farm at Watendlath di Dora Carrington
    • Carnation, Lily, Lily, Rose di John Singer Sargent
    • Head of a Man (Ira Frederick Aldridge) di John Simpson

    Nel momento in cui si inquadra l’opera si attiva anche un’audioguida con testo scritto visibile sullo smartphone che fornisce informazioni sull’autore e sul quadro. Si unisce quindi l’esperienza immersiva una guida più classica.

    The Cholmondeley Ladies di autore sconosciuto, Britain.

    Tra i quadri più significativi come effetto immersivo:

    The Cholmondeley Ladies di autore sconosciuto, Britain. Il quadro ritrae due giovani donne che erano nate nella stessa data, si erano sposate e avevano partorito lo stesso giorno. Le ladies appaiono e ricompaiono quasi in una danza.

    Carnation, Lily, Lily, Rose di John Singer Sargent. L’esperienza in AR sottolinea il passaggio del tempo sugli oggetti e sulla scena: le lanterne si illuminano nella notte, i fiori appassiscono e scende il buio della sera. Improvvisamente il quadro diventa tutto scuro per indicare la notte e poi riappare la luce del tramonto. Molto coinvolgente.

    Head of a Man (Ira Frederick Aldridge) di John Simpson
    L’opera ritrae l’attore Ira Frederick Aldridge che, dopo aver lasciato gli Stati Uniti per Londra nel 1865, diventò il primo attore di colore a recitare le opere di Shakespeare in Inghilterra. Muovendo l’Instagram camera, lo sguardo si anima e ci segue e passa da drammatico a depresso.

    Self-Portrait di Gwen John. Un autoritratto della pittrice gallese che fece molta fatica ad affermarsi in un panorama artistico prettamente maschile. Nell’esperienza aumentata alcuni elementi della natura entrano ed escono dal quadro (un uccelino in particolare) e nell’opera appare la pittrice e in secondo piano il suo quadro.

    Ecco il link al video postato da Tate Britain sulla pagina Facebook e il video su Instagram.

    Ho approfittato della permanenza a Londra per visitare anche Kensington Gardens e Hyde Park e provare l’esperienza The Deep Listener. Creata dall’artista danese Jakob Kudsk Steensen che ha collaborato con il sound designer Matt McCorkle ci guida alla scoperta di cinque piante presenti nel parco rappresentate attraverso il suono.

    Sul sito si trova una mappa precisa e, dopo aver scaricato l’applicazione sullo smartphone, inizia l’esperienza visiva e uditiva. Le piante prendono vita e si trasformano in opere d’arte.

    Come leggiamo sul sito:

    The Deep Listener invites you to be guided on a journey to both see and hear the sights and sounds of five of London’s species: London plane trees, bats, parakeets, azure blue damselflies and reedbeds, that are part of the park ecosystem that might otherwise be ignored, intangible or simply invisible. […] Through these interactions, your own body becomes the mechanism to alter the environment around you and the technology becomes an active form of communication between the human and non-human actors in the park.
    Through The Deep Listener, Kudsk Steensen builds an experience for users to explore the sublime and vexing power of our ecosystem. The park becomes, as it has throughout history, the architectural backdrop to access the natural world that exists within the city
    .”

    Mappa delle piante aumentate con l’app The Deep Listener

    Ecco il link al video di presentazione su YouTube: https://youtu.be/_b_3NhudgO8

    Vi consiglio di provare queste due esperienze se vivete a Londra o avete l’opportunità di visitarla a breve. Sarebbe interessante anche avere uno scambio d’impressioni. Buona visita!

    Fonti:

    https://augmentedarchitecture.org/

    https://www.adweek.com/digital/facebook-creative-shop-and-the-mill-brought-ar-to-art-at-londons-tate-britain-museum/

  • L’arte prende vita in AR: il museo MAUA a Torino


    La mia passione per la realtà virtuale e aumentata applicata alla cultura visuale e storytelling urbano è cresciuta negli anni. Ricordate sicuramente quando nel 2015 il New York Times magazine introdusse una nuova forma di comunicazione narrativa in VR, testata dal NYT stesso e regalò ai lettori i cardboard per poterne fruire. Nello stesso periodo avevo partecipato al convegno, ‘Urban Augmented Reality fra Arte, Gaming, Storytelling‘, organizzato dal professor Lughi dell’Università di Torino al Castello del Valentino, evento durante il quale vennero presentate alcune esperienze italiane e internazionali in realtà aumentata, racconti che avevano coinvolto il pubblico in un’esperienza indimenticabile. Potete approfondire su Pulse al link.

    A settembre 2018, mentre stavo preparando il Google Day dedicato alla realtà mediata (VR e AR) con Work Wide Women, ho ricevuto su LinkedIn un messaggio e una richiesta di contatto. Era Joris Jaccarino, regista, curatore e manager culturale di Bepart che aveva letto informazioni sul workshop e desiderava presentarmi MAUA, il museo di Arte Urbana Aumentata, realizzato a Milano nel 2017. Il nostro incontro è avvenuto alla GAM di Torino e in quell’occasione ho scoperto un progetto di grande fascino che unisce arte e realtà aumentata, in particolare street art resa viva dall’AR. Le opere escono dai muri e prendono vita davanti a noi. Una magia.

    MAUA – è una galleria a cielo aperto, fuori dal centro di Milano, che consta di oltre 50 opere di street art animate con altrettanti contenuti virtuali fruibili attraverso la realtà aumentata.

    Joris era a Torino ad organizzare il secondo MAUA italiano che stava nascendo proprio in quei giorni. I numeri del museo di Torino sono davvero interessanti. La città è stata mappata in 4 aree:

    • Lungo la Dora “Alla ricerca dell’ACQUA: le fondamenta della città
    • Verso Sud “Alla ricerca del FUOCO: le stanze della fabbrica
    • Verso le montagne “Alla ricerca dell’ARIA: le pareti delle montagne
    • Verso Nord “Alla ricerca della TERRA: i muri interiori

    Sono state fotografate 300 opere, svolte 82 ore di workshop e coinvolti 123 ragazzi/e sul territorio, 57 digital artist e 39 street artist con la creazione di 46 murales in realtà aumentata.

    Dopo mesi di intenso lavoro il MAUA TORINO verrà inaugurato il prossimo 6 e 7 aprile al Parco Aurelio Peccei di Piazza Ghirlandaio.
    È stato realizzato grazie a una rete di partenariato composta da Bepart, come capofila, insieme ad altre sei realtà: BASE Milano, Avanzi – Sostenibilità per Azioni, Terre di Mezzo, PUSH., Camera – Centro Italiano per la fotografia, Iur –Innovazione sostenibile e l’associazione SAT – Street Art Torino.

    46 opere di street art animate in realtà aumentata diventano l’occasione per esplorare zone meno conosciute della città. Si parte scegliendo il proprio percorso. Poi, arrivati sul posto, l’esperienza prosegue in forma digitale: ogni opera, inquadrata con lo smartphone, ne genera una nuova e si trasforma in un lavoro di digital art, appositamente creato per il museo grazie a tecnologie di realtà aumentata.

    Vi chiederete che cosa mi abbia affascinato di questo progetto. Oltre alla tecnologia che amo, sicuramente lo scopo sociale di inclusione e di formazione. Un’opera partecipata e co-creata con il coinvolgimento di street artist, ragazzi, programmatori e i cittadini che possono fruire delle opere, partecipando ai tour organizzati o pianificando il proprio percorso. Un’opera educativa che mira a formare i più giovani alle nuove tecnologie e che promuove la riqualificazione delle aree meno conosciute delle città.

    Queste finalità sono state ampiamente illustrate da Giovanni Franchina, fondatore ed amministratore di Bepart, al convegno Narrability, che avevamo organizzato come Osservatorio di Storytelling lo scorso dicembre a Base Milano.

    In occasione della prossima inaugurazione del museo di Torino ho voluto fare una chiacchierata con Joris Jaccarino ed ecco l’intervista che desidero condividere con voi. Buona lettura!

    Ciao Joris ci racconti com’è nata l’idea di coinvolgere i giovani nel progetto MAUA?

    Mi è sempre piaciuta l’idea di creare arte in maniera partecipata. Per me il processo di creazione artistica deve essere democratico, condiviso, inclusivo. Ho cominciato durante gli anni dell’università, organizzai un laboratorio di cortometraggi per i ragazzi del mio quartiere, il Giambellino. Ogni fase era discussa e realizzata in gruppo, dalla sceneggiatura, alle riprese ed infine al montaggio. E’ un’esperienza che si è declinata in varie forme, dal laboratorio di Sociologia Visiva che ho tenuto alla Statale di Milano fino a MAUA.

    A valle delle due esperienze a Milano e a Torino, quali sono le maggiori difficoltà incontrate dai ragazzi durante lo svolgimento del progetto?

    Al di là delle problematiche strettamente tecniche, direi che la parte più difficile è quella di creare un’opera su una già esistente. L’artista digitale si trova a dover interpretare l’opera di un altro artista, con tutte le incertezze del caso. Proprio per questo motivo, a Torino abbiamo voluto fortemente coinvolgere più street artist possibili, facendoli interagire con i digital artist durante il workshop. Il confronto tra di loro ha dato vita a interessanti scambi di idee e narrazioni inaspettate. E’ stata un’esperienza arricchente per tutti.

    Una domanda tecnica: quali piattaforme utilizzate?

    Bepart è un cocktail di tecnologie che abbiamo assemblato, con lo scopo di fornire la migliore esperienza possibile della AR per l’utente. L’app permette di fruire contenuti in AR semplicemente inquadrando l’opera con la fotocamera del device. Si possono vedere questi contenuti anche non in presenza, ovvero inquadrando una foto come quelle del catalogo o delle cartoline. Inoltre è dotata di una mappa delle opere, cliccando sul pin si vede un’anteprima del contenuto digitale, i credit e una breve descrizione.  

    Quali caratteristiche devono avere i murales per entrare nel MAUA? Esiste una regola o solo la narrazione e la creatività guidano la scelta?

    Uno dei concetti alla base del progetto MAUA è quello della curatela partecipata. Per questo coinvolgiamo associazioni di quartiere attraverso cui dare vita a laboratori con gli studenti. Sono questi ultimi a mappare le opere di street art e a scegliere quelle che trovano più interessanti, basandosi non solo sul loro valore artistico intrinseco, ma anche sul valore esperienziale ed affettivo.

    Come funzionano i workshop attraverso cui prende forma MAUA?

    I workshop prendono l’avvio da una open call nazionale, un vero e proprio invito a prendere parte al progetto. Sono rivolti ai giovani dai 13 ai 35 anni. Vogliamo che MAUA non abbia valore solo come prodotto finale, ovvero il museo aumentato, ma anche come processo tramite cui i giovani possono acquisire competenze professionali specifiche e spendibili sul mercato del lavoro.


    Quali sono i momenti che ricordi con maggior intensità?

    Amo i momenti di esplorazione della città per cercare e mappare le opere. È come tornare bambini e giocare alla caccia al tesoro, scoprendo la città con occhi diversi. Magari sei in un posto abbandonato, ricoperto di cemento, senza nessuna attrattiva, giri l’angolo e ti trovi davanti a un bellissimo murales, colorato, vivo. C’è tutta la magia dell’infanzia e della scoperta.

    Quali sono i vostri progetti futuri e la prossima città di MAUA?

    Stiamo creando un progetto turistico per valorizzare e raccontare l’Oltrepo mantovano attraverso l’archeologia. Realizzeremo delle installazioni in AR lungo percorsi slow, ecosostenibili per favorire un turismo più consapevole.

    Per quanto riguarda MAUA, ci piacerebbe esportare il progetto ad altre città fuori dall’Italia, magari in America Latina. Buenos Aires, Rio? Vedremo.

  • Interpretare e raccontare l’arte

    Comprendiamo davvero il significato dell’arte e delle installazioni? Spesso ci soffermiamo appena e facciamo scorrere lo sguardo senza vedere realmente. La fruizione dell’arte si intreccia con la narrazione.

    In queste ore è in pieno svolgimento Artissima a Torino, la fiera d’arte contemporanea che vede coinvolte più di 200 gallerie a livello internazionale e artisti emergenti. Moltissimi visitatori percorreranno gli spazi espositivi, ma quanti davvero riusciranno a comprendere appieno il senso dell’arte?

    Un momento di approfondimento mi è stato offerto il 18 ottobre scorso quando ho avuto l’occasione di partecipare ad una open lecture dell’artista Paolo Inverni all’interno del corso di Interactive Storytelling del professor Giulio Lughi dell’Università di Torino.

    Di seguito qualche frase che ho ritrovato nei miei appunti su cui vorrei riflettere con voi.

    Il confine artista e autore non esiste più, costruisce mondi.

    La gestione dell’informazione è nelle mani dell’autore. L’autore sa ciò che lo spettatore non sa in partenza e decide quali informazioni offrire. Deve gestire l’informazione, dandola riorganizzata.

    Se l’autore genera mondi, la narratività è uno spaccato di mondi e il suo ruolo è quindi legato all’etica e alla morale. Seleziona le informazioni, decidendo i tempi e l’ordine oltre a quanto e come. Quante informazioni al mq è giusto offrire al lettore/fruitore, si chiede il relatore? Testo fitto o meno denso?

    L’artista ha portato l’esempio di un quotidiano degli anni ’50 a confronto con uno attuale per far comprendere quanto la percezione del lettore cambi a seconda dei tempi e della tecnologia. Quello che sembrava normale negli anni ’50 attualmente risulta troppo denso per una lettura efficace e senza gerarchia. Oggi si pubblicano testi meno fitti e densi. Dobbiamo tenere presenti due fattori fondamentali degli anni passati:

    • gli alti costi di stampa
    • la lettura era destinata ad un pubblico di nicchia.

    Nei quotidiani si è sentita influenza dell’hypertext, per cui si prediligono non testi interi, ma titolo, inserto e rimando a pagina interna. Neanche l’editoriale è più intero sulla prima pagina, ma leggiamo solo blocchi informativi che fanno riferimento alla pagina interna.

    Anche la convergenza tra immagini e informazioni testuali era differente, perché le tecniche di stampa erano diverse: le riproduzioni erano sempre in B/N e non sulla stessa pagina e spesso cambiava la carta (patinata per un’efficacia visiva maggiore). Oggi la convergenza è completa e un esempio perfetto è offerto dalle infografiche che sono spesso parte integrante, anzi sostituiscono in alcuni casi l’articolo. Una modalità narrativa che ha una grande efficacia ed impatto sul lettore.

    Da autore a progettista –> deve conoscere i limiti dei media e dei linguaggi per sapere come verrà applicato e realizzato. Deve controllare il risultato finale.

    Nell’arte contemporanea si possono applicare figure retoriche nello spazio e secondariamente nel tempo. Esiste un controllo totale dello spazio (luce, accessi, distanza dello spettatore, etc) utile per le installazioni.

    Il relatore si sofferma sulla Site-specific art dove l’opera d’arte non risolve il suo significato all’interno di una cornice, ma nello spazio.

    Se leggiamo su Wikipedia scopriamo che

    Site is a current location, which comprises a unique combination of physical elements: depth, length, weight, height, shape, walls, temperature.

    Ci porta anche l’esempio di una sua installazione, Fremito e ci fornisce gli elementi narrativi per comprenderla. Storytelling spaziale –> sviluppo narrativo nello spazio.

    Obiettivo dell’opera: mettere in discussione la staticità. Un lampadario, normalmente statico se non in presenza di fenomeni naturali quali un terremoto è stato dotato di un motorino interno che provoca una vibrazione delle gocce. L’artista ha studiato le vie di accesso: a 30 metri il visitatore vede un movimento quasi impercettibile e può pensare di avere la vista stanca, ma non appena si avvicina si rende conto che le gocce vibrano davvero. In sottofondo sente una musica di elicotteri che suscita una certa ambivalenza da una parte sicurezza (vegli su di me) dall’altra (pericolo e ansia).

    Sentimenti ed emozioni vengono vissuti in modo differente dagli spettatori.

    Nell’arte contemporanea il timing di fruizione non è imposto.

    A differenza del cinema ognuno può prendersi i propri tempi per la fruizione. Tornare e rivedere l’installazione e viverla in modo soggettivo.