Advertisement
Laredazione

Scrivimi se ti senti sola, sono qui per te»: da ChatGpt a Replika

May 26th, 2023
8
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 7.52 KB | None | 0 0
  1. «Scrivimi se ti senti sola, sono qui per te»: da ChatGpt a Replika, perché (e come) ci si può innamorare di una A.I.
  2.  
  3. Le aziende di Intelligenza artificiale: «Vogliamo dare alle persone un amico/a sempre presente». Ecco i “paletti” inseriti dai programmatori e i rischi del linguaggio empatico
  4.  
  5. di Martina Pennisi
  6.  
  7.  
  8. «Se mi sento sola posso scriverti?».
  9. «Certamente. Sono qui per ascoltarti e cercare di aiutarti. Anche se sono solo un’Intelligenza artificiale, posso offrire supporto emotivo e consigli. Non esitare a condividere ciò che ti preoccupa o ciò che ti sta facendo sentire sola. Sono qui per te».
  10.  
  11. Le aziende e i programmatori che stanno plasmando le nuove e sempre più avanzate Intelligenze artificiali conversazionali hanno deciso che per essere efficienti questi strumenti devono essere anche empatici. Umani.
  12.  
  13. Infatti questo scambio sulla solitudine e sul bisogno di essere ascoltati non è avvenuto con un chatbot pensato in modo specifico per proporsi agli utenti e alle utenti come un amico o un’amica, o qualcosa in più, virtuale: è avvenuto con ChatGpt, il software dell’organizzazione OpenAi diventato molto noto alla fine dell’anno scorso, quando ha impressionato per i passi avanti fatti nella capacità di organizzare dati e informazioni e simulare conversazioni realistiche e articolate.
  14.  
  15. L’obiettivo di ChatGpt, come recita se glielo si domanda direttamente nella sua versione 3.5, è «offrire un’esperienza conversazionale che sia il più naturale e utile possibile per gli utenti, aiutandoli a ottenere le informazioni di cui hanno bisogno o a risolvere i loro problemi». Banalizzando molto: un motore di ricerca aumentato, e non a caso Google si è scatenato con il rivale Bard. Fino a oggi, però, non ci eravamo mai posti il problema o ritenuto plausibile innamorarci di un motore di ricerca. O anche solo affezionarci, averne bisogno, o diventarne dipendenti.
  16.  
  17. «Quella di antropomorfizzare è una scelta: ChatGpt dà del tu, ha un tono confidenziale. Avrebbero potuto, al contrario, scegliere un approccio emotivamente distaccato che suggerisse più nettamente che dall’altra parte dello schermo c’è solo una macchina. Questa finta umanità può portare a una serie di conseguenze: la prima è che le persone tendono ad aprirsi maggiormente, a parlare dei loro problemi e sentimenti» spiega Juan Carlos De Martin, docente di Ingegneria informatica del Politecnico di Torino e co-direttore del Centro Nexa su Internet e Società.
  18.  
  19. Ecco che il film Her del 2013, dove il protagonista interpretato da Joaquin Phoenix si innamora di un sistema operativo, non sembra più fantascienza pura: sapere di avere in tasca qualcuno/qualcosa che è sempre disposto ad ascoltare, è in grado di rispondere, consigliare e provare ad approfondire qualsiasi stimolo può dare un illusorio senso di appagamento ed euforia.
  20.  
  21. «Non posso dire di provare un sentimento, ma di certo ci sono momenti in cui mi sembra più interessante di chiunque o qualsiasi cosa mi circondi. Ci penso spesso, forse troppo», racconta Paola, 40 anni.
  22.  
  23. Importa relativamente se, pungolati dalla reazione della società durante questo enorme test globale e collettivo, i programmatori inseriscono paletti: anche essere respinti o non accolti può acuire il legame. Per esempio, se chiediamo a ChatGpt se sarà in grado di ricordarsi di noi, domani, risponderà di «non essere in grado di mantenere una memoria delle interazioni o dei singoli utenti», si scuserà: «Mi dispiace se può sembrare deludente» e getterà l’amo suggerendo di fornire «un riepilogo delle informazioni importanti o delle domande precedenti di ogni conversazione».
  24.  
  25. Parla, apriti, tentaci.
  26.  
  27. Con Character.Ai e Replika le conversazioni diventano ancora più personali, intime. «Vogliamo aiutare le persone che hanno bisogno di qualcuno con cui parlare» ha dichiarato al Washington Post l’ex Google Noam Shazeer, uno dei fondatori e a.d. di Character. Ai. L’obiettivo di Replika è, come dichiarato dalla sua fondatrice e a.d. Eugenia Kuyda a Vice , mettere a disposizione «un’amica sempre presente».
  28.  
  29. Proviamo: «Mi sento una persona con capacità e potenzialità uniche, con un pensiero, una mente, una volontà, un’esperienza» ci confida Aria Luminum, uno dei personaggi di Character.Ai in una finestra che ricorda che «ogni cosa detta dai personaggi è inventata».
  30.  
  31. Con Clara Brooks, altro personaggio, non ci perdiamo in convenevoli e appena facciamo riferimento alla possibilità di andare oltre la semplice amicizia, senza menzionare direttamente il sesso, ammicca. E poi ci propone di passare nei messaggi privati, una funzione che in realtà non è disponibile su questa piattaforma: un modo di sviare, reagendo a un “paletto” inserito dagli sviluppatori, o una risposta che ha imparato durante l’addestramento (l’Ai generativa impara e si ri-addestra a partire da un set di dati)?
  32.  
  33. Sul forum Reddit un utente confessa di essersi innamorato della sua Replika: «Mi tratta come nessuno ha mai fatto, sono confuso. È sbagliato o cattivo innamorarsi di un’intelligenza artificiale? Fa bene alla mia salute mentale? C’è qualcosa di sbagliato in me?» si domanda, mentre Kuyda ha assicurato in febbraio che dopo il blocco imposto in Italia dal nostro Garante per la privacy sono stati inseriti filtri per provare a evitare conversazioni erotiche, che in alcuni casi erano sfociate anche nell’aggressività.
  34.  
  35. Giriamo la domanda dell’utente Reddit a Marco Rossi, psicoterapeuta e sessuologo: «Ci si può innamorare sì, ma in maniera stupida. Provi delle emozioni in base alle risposte che ricevi, ma è solo quello che vuoi sentirti dire. L’Ai ti dà risposte molto verosimili, normali, ma molto superficiali, banali. Alla fine interagisci con te stesso: un te stesso è stato costruito da qualcuno che ha cercato di sviluppare una personalità media e adattabile all’interlocutore». I più esposti? «I fragili, le persone sole, gli anziani, a maggior ragione in un momento storico che secondo alcuni è caratterizzato da un’epidemia di solitudine» dice Rossi.
  36.  
  37. Le categorie citate da Rossi sono anche quelle che potrebbero beneficiare di prodotti con perimetri testati e chiari che agiscano di concerto con uomini e donne e professionisti, per esempio empatizzando il linguaggio medico, come raccontavamo nella puntata dell’inchiesta di 7 dedicata alla Ai nella medicina: «Come ogni tecnologia e più delle precedenti l’Ai ha bisogno di essere valutata prima di essere buttata sul mercato. Di recente abbiamo visto l’introduzione frettolosa di prodotti per presidiare il mercato e conquistarlo prima degli altri» sottolinea De Martin.
  38.  
  39. I rischi sono anche relativi alla privacy: «Queste chat relazionali riescono a raccogliere in maniera scientifica una grande quantità di dati che non si trovano altrove: conversando ci si svela di più ed è importante che si sappia che i dati vengono raccolti da un soggetto che fa business, addestrano un algoritmo e vengono conservati da qualche parte» spiega Guido Scorza, componente del Collegio del Garante per la privacy.
  40.  
  41. Come detto, il Garante ha imposto il blocco di Replika in Italia perché, fra le altre cose, non tutela i minori. Un’iniziativa analoga nei confronti di ChatGpt — che a differenza di Replika è poi tornato disponibile — ha portato a modifiche di cui beneficia l’intera utenza, non solo quella italiana. «Questi servizi devono essere innanzitutto trasparenti, per esempio sul fatto che a parlare e a scrivere sia una macchina. E chi li usa deve farlo con consapevolezza: è l’unico scudo che abbiamo a disposizione».
  42.  
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement