Non avrai altro Dio al di fuori del tech: l’intervista ad Andrea Daniele Signorelli
L’intervista ad Andrea Daniele Signorelli a cura di Valerio Bassan su Quants.
Andrea, non sei un simulacro, sei reale, giusto?
Ti giuro che sono reale.
Puoi dimostrarmelo?
L’unico modo per saperlo è sottopormi al test di Turing.
Sarebbe bello, ma non abbiamo tutto questo tempo. Per stavolta facciamo che l’hai superato: garantisco io, e cominciamo.
Dai, ok.
45 miliardi: è quanto ha investito Meta per il metaverso fino a questo momento. Elon Musk ne ha spesi 4 per acquistare Twitter. Chi ha fatto l’affare migliore, col senno di poi?
Be’, Musk. All’inizio sembrò una follia, ricordo le polemiche sulla perdita di utenti e di inserzionisti. A un certo punto la valutazione era crollata a circa 8 miliardi. Alla fine però X si è dimostrato uno strumento efficacissimo di influenza politica, ha giocato un ruolo enorme nella seconda elezione di Trump. E oggi è tornato a valere quasi quanto i soldi investiti.
Non possiamo dire la stessa cosa del metaverso. Che fine ha fatto?
Meta non lo nomina neanche più. Credo che non ci siano grandi novità in sviluppo. Horizon Worlds è praticamente scomparso dalla narrazione dei media. Tutte le aziende che avevano annunciato grandi piani per “sbarcare nel metaverso” si sono ritirate, e questo dimostra come quello di Zuckerberg sia stato veramente un buco nell’acqua.
In qualche modo, l’implosione del metaverso è proprio uno dei punti di partenza da cui sei partito nel tuo libro per ragionare sul concetto dei simulacri digitali.
Esatto, perché il metaverso è letteralmente un simulacro della realtà, non solo per come è stato costruito, ma anche per come è stato raccontato. Per lungo tempo la sua unica forza è stata quella del marketing: storytelling sul nulla. Usando il suo potere economico e mediatico, Zuckerberg ha provato a venderci un mondo parallelo a quello fisico, in cui avremmo dovuto trasferire una parte della nostra quotidianità. Il suo obiettivo era creare una profezia che si autoavvera: investirci così tanto, parlarne così tanto, sperando che prima o poi questa cosa prendesse davvero piede.
Che cosa ha sbagliato Meta?
Primo: pensare che non saremmo mai tornati indietro dall’accelerazione digitale causata dalla pandemia. Invece le persone non avevano voglia di mettersi un caschetto in testa e rinchiudersi nella realtà virtuale per sempre; appena possibile sono uscite di casa e hanno incontrato altri esseri umani. Secondo: l’idea di creare un mondo parallelo. La tecnologia oggi vuole avvicinare le due sfere di esperienza, quella virtuale e quella fisica, non separarle. Alla gente non interessa “trasferirsi” altrove.
Forse il fallimento del metaverso è la dimostrazione del fatto che noi contiamo ancora qualcosa.
Sì, e che se un prodotto ci fa schifo lo rifiutiamo. Non bastano la narrazione e il marketing per convincerci.
La parola simulacro contiene anche l’idea di una rappresentazione del divino. Forse il metaverso è stato “ucciso” dal fascino di un altro dio, ovvero quello rappresentato dall’intelligenza artificiale generativa?
Da un punto di vista mediatico sicuramente. L’ascesa delle IA ha soffocato l’attenzione dedicata al metaverso. E quando ci siamo accorti che l’IA generativa non era soltanto storytelling, ma una tecnologia realmente potente, il metaverso ha avuto una débâcle rapidissima.
Anche quella attorno all’intelligen- za artificiale è una narrazione religiosa, simile al racconto dell’arrivo di un messia.
Sì, ed è ovviamente una narrazione decisa a tavolino. I colossi del tech hanno un interesse a veicolare il racconto in questo modo. Dipingere questa tecnologia come qualcosa di estremamente potente, misterioso, capace di sfuggire al nostro controllo e di prendere coscienza gli è utile.
Perché?
Perché così sembra che loro siano gli unici ad averne il controllo. E quindi a poterc dire come va utilizzata, impiegata, sviluppata e normata. Più la tecnologia è percepita come pericolosa, più chi la sviluppa dà l’impressione di sapere cosa sia giusto farne meglio di chiunque altro.
Le élite tecnologiche hanno un interesse a trasformare i loro prodotti in scatole oscure. Sanno che il potere “religioso” può diventare anche potere reale.
Lo abbiamo visto con Musk e con tutta quella parte di Silicon Valley che abbraccia i valori del lungotermismo, filosofia che usa il «rischio esistenziale» per giustificare azioni straordinarie, spostando il focus della sopravvivenza umana da centinaia a milioni di anni. Anche l’IA è stata usata in questo modo: all’inizio ci poneva di fronte a una catastrofe inevitabile, sembrava che dovessimo dirottare tutte le nostre risorse per evitarla. Questa narrazione si è insinuata in tantissime istituzioni internazionali, dall’ONU all’OMS, ed è servita a scopi precisi. Ora il rischio esistenziale sembra invece quasi svanito, ed è stato sostituito da un approccio di accelerazionismo efficace secondo cui lo sviluppo tecnologico deve proseguire a tutti i costi. Niente regole, niente cautela, avanti a tutta velocità.
Il solito concetto dei tecnosoluzionisti: non esiste un problema causato dalla tecnologia che non possa essere risolto con la tecnologia.
La verità è che non ci sono scuole di pensiero totalmente disinteressate, se non in posizioni minoritarie. C’è anche la complicità di un certo tipo di giornalismo che tende alla tecnoesaltazione, senza porsi o porre le domande giuste, e che finisce per fare il gioco dei potenti. Esattamente il contrario di quello che il giornalismo dovrebbe fare.
Mentre noi siamo qui a usare l’IA per creare immagini stile Ghibli e action figure di noi stessi, i messia del tech costruiscono bunker privati su isole nel Pacifico o città militarizzate per salvarsi nel caso in cui tutto vada storto. Quando arriverà una smitizzazione, almeno parziale, di alcune grandi celebrità del tech e dei loro reali fini?
Io credo che qualcosa stia già cambiando nella percezione delle persone. Lo stesso Musk, che fino a qualche anno fa era un Iron Man, un imprenditore visionario che cambia il mondo, adesso è il pazzo furioso che mette a rischio l’umanità intera. Nessuna delle due immagini corrisponde alla realtà. Quando i grandi imprenditori della Silicon Valley si genuflettono al nuovo re durante l’inauguration day di Trump, dopo averci raccontato per almeno due decenni di essere i campioni del progressismo statunitense, qualcosa si incrina. Questo cambio di immagine così drastico e improvviso sicuramente li ritrae per quello che sono, ovvero persone che per opportunità politica fanno delle giravolte a 180 gradi, e che quindi non sono più credibili. Probabilmente la versione delle Big Tech che stiamo vedendo adesso è più sincera di quella a cui tutti, per un certo periodo, abbiamo finito per credere.
Il ritorno economico ha sempre guidato tutte le loro scelte, dunque. Cosa ci aspetta?
Si sta delineando un futuro simile a quello immaginato da Nick Land, tra anarco-capitalismo e ultra-liberismo. Uno scenario in cui i ricchi hanno sempre più potere e i poveri sempre meno, in cui c’è uno scollamento sociale sempre maggiore, in cui il ruolo delle istituzioni pubbliche viene smantellato, in cui l’egoismo e l’individualismo regnano. I sovrani digitali probabilmente non dovranno mai fare i conti con le conseguenze delle loro azioni. Ma potrei anche sbagliarmi, la situazione è fluida e in costante cambiamento. Chissà, magari tra due anni ci sarà una rivoluzione dal basso. Lo spero.
Nel tuo libro parli anche di diverse teorie strampalate, tra cui quella secondo cui la rete sia già “morta” da anni. Ci spieghi cos’è la Dead Inter- net Theory?
Secondo questa teoria complottista Internet sarebbe morta attorno al 2016, sostituita da contenuti e profili generati dai bot. Un grande progetto paragovernativo volto a controllare le nostre menti, che ci porta a interagire tutti i giorni con persone false e contenuti falsi, in una sorta di brainwashing collettivo. Non è davvero così, ovviamente, ma anche questa esagerazione contiene un piccolo granello di verità: è infatti dimostrato che i contenuti generati artificialmente stiano gradualmente inondando Internet, erodendo la parte genuina della rete. Noi utenti “reali” non abbiamo modo di creare contenuti originali alla stessa velocità dei bot, il che porta a un altro problema: quando i contenuti automatizzati diventano la materia prima di addestramento per le intelligenze artificiali si genera un cortocircuito. È un po’ come quando tu fai una foto di una foto di una foto di una foto, finché al decimo passaggio ti ritrovi davanti a un quadrato nero in cui della foto originale non c’è più traccia. Quel “quadrato nero” ora non ha più alcun significato, si è perso ogni riferimento al contenuto primordiale e le allucinazioni si sono stratificate fino a cancellarne le fattezze reali.
Quali potrebbero essere le conseguenze di questo cortocircuito su di noi? Qualcuno se ne sta preoccupando?
Tendo a essere ottimista: vedo che le persone sono sempre più stufe. Nel momento in cui non riusciremo più a fare una ricerca su Google senza essere bombardati da contenuti generati dall’intelligenza artificiale potremmo venire colti da una repulsione totale e inizieremo seriamente a cercare delle alternative. Non sto dicendo che torneremo alla carta stampata, ma si insinuerà in noi un bisogno diverso; magari saremo disposti a pagare per avere risultati di qualità per sottrarci all’enshittification di Internet. Io mi auguro che faremo qualcosa per costruirci un web alternativo dove poter sperimentare con qualcosa di significativo e davvero utile. Il Fediverso è già un tentativo in questo senso, Mastodon e tutti gli altri sistemi aperti decentralizzati sono un segnale, nonostante tutti i loro problemi di adozione e scalabilità. Gli ostacoli oggi ci sembrano insormontabili, ma non possiamo escludere che prima o poi non diventino strumenti di massa: è esattamente quello che è già successo con la rete in passato.
Con la diffusione dei bot che usano linguaggio naturale, anche le nostre relazioni stanno diventando dei simulacri di relazione?
Sicuramente l’avanzamento della tecnologia che emula il linguaggio naturale ci spingerà verso un cambiamento antropologico. Tuttavia, confido che passata la fase di shock iniziale riusciremo a trovare un equilibrio tra essere umano e macchina, e mi auguro che saremo in grado di utilizzare questi assistenti digitali senza minimamente scambiarli per dei veri esseri umani. Dobbiamo però porre particolare attenzione alle fasce più marginalizzate della società. Penso, per esempio, alle persone che soffrono di disturbi mentali importanti o che sono sottoposte a forme gravi di solitudine. Si è parlato molto di Replika, un’app costituita da chatbot basato sull’intelligenza artificiale che crea un compagno digitale in grado di offrirci una specie di supporto emotivo costante, una specie di amico che si dedica al nostro benessere mentale. Ma servizi di questo tipo avranno conseguenze potenziali gravi se finiscono per sostituire il supporto psicologico ordinario. Come dice l’accademica Kathleen Richardson, che si occupa di etica robotica, la solitudine non si può sconfiggere con dei simulacri; questi sono un inganno, una distrazione. Per risolvere i problemi sociali abbiamo bisogno di soluzioni sociali, e queste ultime devono essere guidate dalle persone. La tecnologia può essere un pratico ausilio, ma non un surrogato.
Altrimenti rischiamo che la tecnologia diventi un farmaco che assumiamo senza prescrizione, senza un bugiardino che ne spieghi gli effetti, e senza indicazioni mediche sul suo dosaggio corretto. Gli effetti sarebbero dirompenti.
Quando Joseph Weizenbaum negli anni Sessanta creò ELIZA, un chatterbot in grado di simulare una conversazione in diverse lingue, le persone che lo utilizzarono ne rimasero stregate. E non bastò che lui scrivesse un saggio ex-post per “spiegare” il funzionamento della macchina a far loro cambiare idea. Oggi, con l’avanzamento tecnologico, la simulazione del reale diventa più reale del reale: non è come con la magia, in cui basta spiegare il trucco affinché l’illusione smetta di essere efficace. Per questo dobbiamo agire prima, inserendo paletti etici e fornendo educazione alle persone, affinché l’utilizzo di questi strumenti che imitano e replicano la realtà venga effettuato con coscienza e conoscenza.
Qui l’intervista completa.
Qui il libro: https://addeditore.it/catalogo/andrea-daniele-signorelli-simulacri-digitali/