Le armi di delusione di massa allontanano i bambini dalla realtà – Guest post di Emily Tavoulareas
(Emily Tavoulareas è una delle persone del team che ha fondato il US Digital Service (poi divenuto “DOGE” con l’avvento di elmo) ed è stata Senior Policy Advisor del U.S. Chief Technology Officer alla casa bianca). Sottolineature e grassetti sono mie.
—-
La rivelazione sensazionale della scorsa settimana sulle linee guida interne di Meta relative ai chatbot ha portato a un’ondata di attenzione sui chatbot e sui bambini. Le linee guida dimostrano ciò che molti esperti sostengono non solo da anni, ma da decenni: questi prodotti sono ottimizzati, prima di ogni altra cosa, per aumentare il coinvolgimento. Meta non è l’unica. L’intero settore sta sviluppando tecnologie progettate non per connetterci alla realtà, ma per aiutarci a evitarla vivendo le nostre vite attraverso i loro prodotti.
Sebbene i social media presentino vantaggi ben documentati, soprattutto tra i giovani emarginati, gran parte del dibattito sui danni inevitabili si concentra sui contatti e sui contenuti: con chi interagiscono i giovani e cosa consumano. Ciò fonda la discussione e l’azione su danni acuti e tangibili: contenuti inappropriati, predatori online, tempo eccessivo trascorso davanti allo schermo, ecc.
Ma accanto alle minacce reali e percepite c’è un fenomeno più sottile e forse più nefasto: una distorsione del modo in cui i bambini vedono se stessi e di come vivono e comprendono ogni tipo di relazione umana. Su tutte le piattaforme ci sono filtri letterali e figurativi che trasformano i nostri volti, le nostre relazioni, le nostre amicizie e la nostra intimità in fantasie, una perversione di alcune delle esperienze umane più basilari. I social media, la realtà aumentata e il mondo in rapida crescita dei chatbot basati sull’intelligenza artificiale stanno rendendo possibile l’allontanamento su larga scala dalla realtà. È ora di iniziare a pensarla in questi termini.
Ora stanno facendo la loro comparsa sulla scena i chatbot con intelligenza artificiale che creano (come li definisce Harari) “esseri umani contraffatti” che pretendono di essere l’amico o il partner perfetto, su misura per le esigenze, i desideri e le opinioni di ogni persona. Essenzialmente consentono alle persone di creare una persona immaginaria che le spinge sempre più in una camera di risonanza sicura e accogliente, completamente scollegata dalla realtà. Non si tratta di un futuro apocalittico immaginario, è già qui. I prodotti che già utilizziamo non solo consentono, ma incoraggiano attivamente i bambini a barattare relazioni reali con un’illusione o, forse più appropriatamente, con una delusione.
Quali sono quindi queste illusioni? Ne vedo due categorie principali: (1) la delusione della perfezione fisica e (2) la delusione della connessione. Cominciamo con ciò che possiamo vedere: i filtri per l’aspetto fisico e l’illusione della perfezione fisica.
**La delusione della perfezione fisica**
Gli standard di bellezza irrealistici non sono una novità; l’industria della bellezza li ha cavalcati a lungo attraverso campagne pubblicitarie, grazie a strumenti come Photoshop e l’aerografia che modificano le immagini secondo standard irraggiungibili. Gli effetti di questo fenomeno non sono più in discussione; sono stati studiati per decenni. Ma come per tutto ciò che riguarda i social media, questo stesso fenomeno ha subito un’accelerazione esponenziale online. La realtà aumentata ha portato questa accelerazione a velocità warp.
I filtri per l’aspetto (o filtri per il viso/la bellezza) sono uno degli usi più comuni della realtà aumentata. Si tratta essenzialmente di strumenti automatizzati di fotoritocco e sono una funzione molto popolare sulle app di social media come Instagram, Snapchat e TikTok. I filtri consentono letteralmente agli utenti di ritoccare la loro pelle con il tono e la consistenza che preferiscono e persino di modificare la forma del viso e dei lineamenti. I cambiamenti sono in qualche modo contemporaneamente stridenti e realistici.
Le aziende di social media sembrano riluttanti a fornire dati specifici sui filtri di aspetto o bellezza. I dati disponibili sono invece una selezione trasversale dei tipi di filtro, il che rende più difficile discernere l’età degli utenti e la frequenza di utilizzo. Tuttavia, anche per gli adulti, i filtri hanno influenzato ciò che le persone ritengono realizzabile con la chirurgia. Nel 2018, i chirurghi estetici hanno coniato un nuovo termine, “dismorfia da Snapchat”, per descrivere il fenomeno dei pazienti che portano ai loro chirurghi selfie filtrati per dimostrare ciò che desiderano ottenere con l’intervento.
I ricercatori dovrebbero assolutamente continuare a studiare il rapporto tra i bambini e i social media, ma per i genitori e i responsabili delle decisioni nel governo e nell’industria che non possono attendere lunghi studi, abbiamo davvero bisogno di prove statisticamente significative che la normalizzazione della distorsione quotidiana dell’immagine dei preadolescenti e degli adolescenti avrà un esito negativo? Sebbene ci sia ancora molto da capire su questi prodotti, sappiamo già molto su come si sviluppano i bambini.
Ad esempio, sappiamo che l’identità è un bisogno umano fondamentale e che l’autostima, la fiducia in se stessi e la nostra capacità di relazionarci con gli altri derivano tutte da un’identità solida e da un forte senso di sé. Sappiamo che l’assenza di un forte senso di sé porta a innumerevoli sfide che possono essere acute nell’adolescenza e persistere fino all’età adulta. Sappiamo anche che la lotta con l’identità definisce in gran parte la preadolescenza e l’adolescenza. Possiamo già fare alcuni calcoli. I genitori non hanno il lusso di aspettare ulteriori studi sottoposti a _peer review_ : devono affrontare la questione adesso.
Ora approfondiamo ciò che è meno visibile: le relazioni, l’intimità e la delusione della connessione.
**La delusione della connessione**
Gran parte del dibattito politico si concentra sulla moderazione dei contenuti e sui comportamenti abusivi, ma abbiamo più difficoltà con l’impatto intangibile, soprattutto perché è più difficile da misurare e studiare nel tempo. Ma che dire di queste caratteristiche invisibili che stanno deformando alcune delle parti più critiche dell’infanzia: l’amicizia, l’intimità e la creazione della propria immagine di sé?
Snapchat ha oltre 450 milioni di utenti attivi al giorno in tutto il mondo. Una delle caratteristiche principali della piattaforma è la lista degli amici. Chi è nella tua lista degli amici è determinato da una combinazione di frequenza, _recency_ e quantità di foto e durata dei video scambiati tra due persone. Queste amicizie vengono poi classificate e contrassegnate con emoji ed etichette come “Migliori amici per sempre” (BFF) e “Super BFF”.
Cosa pensano dell’amicizia i bambini le cui relazioni sono mediate da tali applicazioni? Come si fa a sapere o a sentire che “siamo amici”? Come fa un bambino a dimostrare a un amico che ci tiene a lui? E ora abbiamo i “compagni chatbot” che stanno entrando in scena. Secondo un reecnte studio di Common Sense Media, oltre la metà degli adolescenti americani ha utilizzato compagni AI “alcune volte o più” e quasi un terzo “trova le conversazioni AI soddisfacenti o più soddisfacenti delle conversazioni umane”.
Questi “bot compagni”, alcuni dei quali sono commercializzati per bambini di appena 12 anni, possono essere personalizzati in base alle vostre esigenze, desideri e opinioni specifiche. Consentono agli utenti di creare una persona che non esiste nella vita reale e che probabilmente non esisterà mai, per poi renderla la loro confidente più intima, rafforzando tutte le loro convinzioni e spingendo le persone sempre più in una camera di risonanza di sicurezza, comfort e consenso completamente scollegata dalla realtà. È la _filter bubble_ sotto steroidi. E grazie a un reportage di Reuters, ora sappiamo che Meta ha permesso al suo chatbot di “impegnarsi in giochi di ruolo romantici con i bambini” con l’approvazione dei suoi avvocati e del suo capo etico.
L’anno scorso, il giornalista del New York Times Kevin Roose ha scritto un articolo straziante su un ragazzo di 14 anni che si è tolto la vita dopo aver sviluppato un attaccamento malsano a un chatbot su Character.AI. La madre del ragazzo ha dichiarato: “Mi sembra che sia un grande esperimento e che mio figlio sia stato solo un danno collaterale”. È difficile non essere d’accordo, soprattutto se si considera che i fondatori, che hanno lasciato Google perché “nelle grandi aziende il rischio per il marchio è troppo alto per lanciare qualcosa di divertente”, lo descrivono come “un primo caso d’uso interessante per l’AGI”. Da allora, secondo Wired, l’azienda sembra aver rinunciato all’AGI per concentrarsi principalmente sull’“intrattenimento”. Ma ci sono innumerevoli altre aziende come Character.AI e chatbot simili che vengono integrati in prodotti che i bambini già utilizzano.
**Soffermiamoci un attimo a immaginare un bambino piccolo la cui prima relazione intima è con un chatbot AI fatto su misura per ogni suo desiderio: fisicamente, in termini di personalità, opinioni, comportamento, tutto. Ciò significa che la persona con cui instaura il suo primo legame intimo al di fuori della famiglia è qualcuno che e progettato su base individuale per essere tutto ciò che desidera. Non ha bisogno di scendere a compromessi, né di pensare a ciò che dice, né tantomeno a come lo dice. Non ha bisogno di autoconsapevolezza o empatia. Non ha bisogno di capire come affrontare una situazione scomoda, né di imparare a gestire i conflitti, né tantomeno di adattarsi a un ambiente che potrebbe non piacergli. Non ha bisogno di confrontarsi con verità difficili su se stesso e non è mai costretto a confrontarsi con abitudini fastidiose, comportamenti malsani o opinioni non informate. Ottiene esattamente ciò che desidera senza dare o cambiare nulla di sé stesso. Ottiene l’illusione dell’intimità, senza alcuno sforzo, complessità o disagio.**
Ora pensate a cosa succede quando quel bambino crescerà e cercherà di avere una relazione con un essere umano, una persona con le proprie opinioni, una persona con dei difetti, una persona con un background familiare, opinioni, abitudini domestiche e aspettative potenzialmente diverse. Pensate a come si comporterà questa persona da lavoratore che improvvisamente si ritrova in un ambiente con persone che hanno le proprie opinioni, che la criticano per le sue scarse prestazioni o che osano avere delle aspettative.
Il punto fondamentale è questo: i bambini utilizzano prodotti che sono simulazioni di relazioni, simulazioni di intimità. E anche se qualcuno potrebbe dire che “non ci sono prove che gli effetti saranno dannosi”, quante prove ci servono per essere sicuri che ciò che già sappiamo essere vero offline sia vero anche online?
La comunità e la socializzazione con i coetanei e le persone al di fuori del proprio nucleo familiare sono fondamentali per lo sviluppo infantile. Non abbiamo bisogno di un altro studio _peer-reviewed_ e statisticamente significativo per dimostrarlo. Sappiamo già che è vero.
Sappiamo già che le amicizie sono complicate ma fondamentali per l’infanzia e che ciò che si vive durante l’infanzia ha conseguenze a lungo termine. Sappiamo che le amicizie infantili non solo rendono i bambini più felici, ma sviluppano anche le competenze sociali ed emotive necessarie per prosperare nella vita. Sappiamo che forti legami sociali migliorano sia la salute mentale che quella fisica. Gli studi sono innumerevoli.
Melanie Dirks, professore di psicologia alla McGill University che studia le relazioni tra bambini, negli adolescenti e nei giovani adulti, afferma che “le amicizie sono le prime relazioni nella vita che possiamo scegliere liberamente” e che “per questo motivo, rappresentano un’opportunità davvero importante per imparare a gestire situazioni interpersonali difficili prima di entrare in relazioni da adulti”.
I robot di compagnia potrebbero essere utili in ambito clinico in alcune situazioni e persino rappresentare uno strumento divertente di evasione per gli adulti, ma perché dovrebbero essere ampiamente utilizzati dai bambini che stanno imparando a interagire con il mondo? Qual è esattamente il vantaggio e per chi?
Nella rivista MIT Technology Review, Tate Ryan-Mosely ha descritto gli utenti delle tecnologie di realtà aumentata come “[…] soggetti di un esperimento che mostrerà come la tecnologia cambia il modo in cui formiamo la nostra identità, rappresentiamo noi stessi e ci relazioniamo con gli altri”.
**Esattamente. Gli utenti di questi prodotti fanno parte di un esperimento e (come dimostra il caso Character.AI) sono vittime collaterali.**
Lo studio di Common Sense Media, che ha rilevato che oltre la metà degli adolescenti ha utilizzato compagni di intelligenza artificiale “alcune volte o più”, sottolinea che:…
> il pericolo supera il potenziale dei compagni di intelligenza artificiale, almeno nella loro forma attuale. I nostri risultati confermano la nostra precedente raccomandazione secondo cui nessuno al di sotto dei 18 anni dovrebbe utilizzare queste piattaforme.
Le aziende continueranno a nascondersi dietro la bandiera dell’innovazione e una campagna di paura secondo cui gli Stati Uniti perderanno la corsa all’IA se le aziende non avranno carta bianca per creare tecnologie che potrebbero avvicinarci all’AGI. Ma le aziende hanno davvero bisogno di sperimentare sui nostri figli per far progredire le nuove tecnologie?
Meta non è l’unica: le sue linee guida sono solo quelle che abbiamo avuto modo di vedere. L’esistenza di prodotti come questo (e la tolleranza di linee guida come quelle di Meta) non è inevitabile, ma è una scelta. Una scelta delle aziende, una scelta degli investitori, una scelta dei consumatori e una scelta dei governi. È anche una scelta da parte loro quella di rivolgersi attivamente ai bambini. Possiamo fare scelte diverse. Invece, abbiamo politiche federali che consentono la proliferazione di armi di illusione di massa.
Si tratta di una questione della massima urgenza. Una volta che avremo educato una generazione a preferire la comoda menzogna alla scomoda verità, a scegliere la convalida algoritmica e a rifugiarsi in spazi dove si sentono sempre a proprio agio e non vengono mai messi in discussione, non avremo solo fallito nei loro confronti. Avremo fondamentalmente danneggiato noi stessi come società, per le generazioni a venire.
If you like this post, please consider sharing it.