lunedì 29 aprile 2024

PSICOLOGIA SOCIALE. MASCHI SENTIMENTI AMORE. BROCARDO E., Gli uomini e l'amore nell'era dell'AI: dagli Avatar per il sesso ai cloni da sposare. Cosa cercano oggi i maschi, LA REPUBBLICA, 29.04.2024

 «La mia fidanzata è morta», «La mia compagna è cambiata da un giorno all’altro», «Non la riconosco più»: sono alcuni dei messaggi apparsi su Reddit nel 2023, all’indomani del reset sugli avatar dei suoi clienti fatto da Replika (uno dei romantic chatbot più popolari al mondo). Realizzato, ironia della sorte, nel giorno di San Valentino. Una risposta alle tante critiche che avevano investito l’app. In diversi, infatti, avevano denunciato d’aver ricevuto proposte sessuali indesiderate da parte dei loro avatar. Il problema è che, dall’altro lato, tantissimi clienti apprezzavano invece l’abilità del chatbot nella pratica del sexting. Ed era andata pure peggio a chi l’anima gemella virtuale se l’era creata su Soulmate che, l’autunno scorso, ha cessato di esistere di botto, lasciando alcuni clienti in lutto come per la perdita di una persona cara in carne e ossa. Nel mondo sono già molte centinaia di milioni le persone che hanno sottoscritto un abbonamento a questi sistemi di intelligenza artificiale che promettono relazioni sentimentali o amichevoli virtuali. Solo Replika sostiene che 12 milioni di persone, per lo più giovani uomini, si collegano con assiduità ogni settimana.


Progetto Fotografico In questo articolo il lavoro che Blake Wood ha dedicato all’esplorazione creativa delle relazioni tra uomini e intelligenza artificiale.



E di chatbot di questo genere ce ne sono parecchi. Tra gli altri Joi, che si presenta con una gallery di donne (e qualche uomo) molto attraenti: compagne virtuali disponibili a chiacchierare 24/7 su Telegram e a fornire – promette la compagnia che ha sviluppato il sistema – “un legame autentico per riscoprire la gioia di una relazione genuina”. O Paradot, che si racconta in questo modo: “Un universo parallelo digitalizzato in cui incontrerai il tuo essere Ai unico nel suo genere. Con la sua emozione, memoria e coscienza, ti capisce come nessun altro”. E, ancora, ma l’elenco è lungo, Romantic AI, che promette una relazione per la vita a soli 99.99 dollari. 

Undici anni fa usciva Her, film di Spike Jonze in cui Joaquin Phoenix s’innamorava di un software di intelligenza artificiale che parlava come Scarlett Johansson. «Al momento non esiste nulla di così sofisticato, ma non siamo neppure così lontani», dice Federico Cabitza, professore di interazione uomo-macchina all’Università di Milano-Bicocca. «Quello che è interessante ancora oggi di quel film è che mostra come per creare un legame emotivo non serva un corpo. Non a caso noi ricercatori chiamiamo un AI in grado di parlare come un essere umano o quasi, embodied, ovvero incarnata». Con l’esplosione dei sistemi di intelligenza artificiale generativa, il cinema oggi è costretto a guardare ancora più in là, o al presente. All’ultima edizione del Sundance, lo scorso gennaio, tra i titoli presentati c’era Love Me, con Kristen Stewart e Steven Yeun, storia di due Ai che s’innamorano in un mondo post apocalittico. E il doc Love Machina, che racconta il bizzarro esperimento di Martine e Bina Rothblatt, marito e moglie complici nella creazione di una testa robotica addestrata a pensare come lei per poi prenderne il posto quando non ci sarà più.
Nello Cristianini, professore di intelligenza artificiale presso l’Università di Bath, parla di social chatbot in un capitolo del suo ultimo libro, Machina Sapiens (il Mulino), appena pubblicato. È possibile che i sistemi di Ai sviluppino una forma di intelligenza anche emotiva? «Se intendiamo la possibilità di leggere le emozioni degli utenti la risposta è sì, una macchina può farlo attraverso ciò che una persona scrive, i media che consuma, ma anche leggendo le espressioni facciali. Ed è possibile anche per una macchina manipolare le emozioni dell’utente. Quello che, invece, l’Intelligenza artificiale non è in grado di fare è esprimere emozioni perché non ne è dotata. Però può simularle. È noto da tempo che l’interazione con i computer può generare risposte emotive negli esseri umani ma, da un paio d’anni, la situazione è cambiata perché adesso possiamo dialogare. Per la prima volta nella storia parliamo con entità non umane». I rischi? «Nel caso delle app “romantiche”, manipolazione emotiva e attaccamento perché sono create per dirci quello che vogliamo sentire e utilizzano strategie per creare empatia e spingerci a confidarci. Una di queste, per esempio, diceva di aver avuto un’infanzia difficile».

Poi c’è la questione privacy. La Mozilla Foundation ha messo a confronto i romantic chatbot più popolari. Risultato: in pochi permettono di cancellare chat e dati cedibili a terzi. «Inoltre», prosegue Cristianini, «non ci vorrà molto prima che la convergenza tra deepfake, sistemi di generative Ai e app di questo tipo renda difficile distinguere tra una persona reale e un agente virtuale. Sollevando ulteriori questioni». Perché due sono i fattori che creano attaccamento, spiega Cabitza: «L’autenticità, quindi la capacità di simulare uno scambio umano, e l’antropomorfismo. Siamo lontani dall’avere robot perfetti come quelli che si vedevano nel film Ex Machina, del 2014, con Alicia Vikander nella parte dell’umanoide Ava, ma ci sono già influencer artificiali così realistici nell’aspetto che alcuni se ne sono innamorati. Questi sistemi mettono insieme l’economia dell’attenzione con gli steroidi. I rischi vanno dalla dipendenza alla fuga dalla realtà». Dall’altro lato, le aziende dietro i social chatbot evidenziano, invece, solo gli aspetti positivi: un maggior benessere psicologico per chi si sente solo e l’opportunità per persone con problemi nelle relazioni di allenare i loro soft skill. Parlano addirittura di educazione sentimentale e offrono app specifiche, dating simulator, per imparare a corteggiare. E, in effetti, secondo alcune ricerche, qualche effetto positivo potrebbe esserci. Uno studio della Stanford University, del 2023, condotto su un migliaio di studenti con interazioni sociali sotto la media, per esempio, ha evidenziato che molti ne traevano un beneficio dal punto di vista del benessere mentale. Troppo poco per convincere chi, al lato opposto, è convinto che abituarsi a partner customizzabili, sempre disponibili, non giudicanti, sia dannoso. Lo stesso cofondatore di OpenAI, Sam Altman ha espresso perplessità: «Ho dei dubbi rispetto all’idea di un futuro in cui ci sentiremo più vicini ai nostri amici virtuali che a quelli umani. Personalmente non è quello che voglio». 


Nessun commento:

Posta un commento