Liebe Besucherinnen und Besucher,
heute ab 15 Uhr feiern wir unser Sommerfest und sind daher nicht erreichbar. Ab morgen sind wir wieder wie gewohnt für Sie da. Wir bitten um Ihr Verständnis – Ihr Team von Sack Fachmedien
E-Book, Italienisch, 200 Seiten
Signorelli Simulacri digitali
1. Auflage 2025
ISBN: 978-88-6783-537-9
Verlag: ADD Editore
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Le allucinazioni e gli inganni delle nuove tecnologie
E-Book, Italienisch, 200 Seiten
ISBN: 978-88-6783-537-9
Verlag: ADD Editore
Format: EPUB
Kopierschutz: 6 - ePub Watermark
ANDREA DANIELE SIGNORELLI, giornalista freelance, si occupa del rapporto tra nuove tecnologie, politica e societa?. Scrive per «Domani», «Wired», «La Repubblica», «Il Tascabile» e altri. E? autore del podcast Crash - La chiave per il digitale.
Autoren/Hrsg.
Weitere Infos & Material
UN SIMULACRO DI WEB
La Dead Internet Theory
Nel gennaio 2021 inizia a farsi largo una bizzarra teoria del complotto. Sorta inizialmente in un oscuro forum sconosciuto ai più, questa teoria sostiene che il web per come lo conosciamo – popolato da contenuti creati da esseri umani – sia morto tra il 2016 e il 2017.1
Non che sia morto sul colpo, ma i contenuti generati dagli utenti sarebbero stati poco per volta spodestati da una valanga di materiale fasullo. Non è un caso che la teoria – diventata popolare attraverso Reddit e YouTube – individui la «morte di Internet» attorno al 2016: è infatti in quel periodo che il grande pubblico ha iniziato ad avere dimestichezza con le cosiddette «fabbriche di troll» (che cercavano di influenzare l’opinione pubblica anche attraverso il massiccio ricorso ai bot),2 con l’impatto potenziale delle fake news e anche con i video manipolati tramite la tecnologia dei deepfake.3
La Morte di Internet (Dead Internet Theory com’è nota in lingua inglese) si spinge però molto più in là, sostenendo che un esercito di intelligenze artificiali progettate proprio a questo scopo sia ormai l’unico responsabile dei contenuti presenti online. Il tutto sarebbe parte di un enorme piano di propaganda governativa, volto – come già le scie chimiche, il 5g ecc. – ad annebbiare il cervello della popolazione rendendola così più controllabile.
Quali sono le prove addotte da chi denuncia un simile complotto? Prima di tutto, i sostenitori di questa teoria fanno notare una particolare sequenza di eventi: nel 2004, pochi mesi prima che nascesse Facebook, l’agenzia della Difesa statunitense per la ricerca avanzata (darpa, la stessa che ha creato la prima versione di Internet) ha cancellato il suo progetto di social network, battezzato LifeLog. La conclusione dei complottisti è che Facebook sarebbe in realtà un progetto militare camuffato e destinato al controllo sociale. Ed è solo l’inizio. Le prove più evidenti del complotto sarebbero infatti recenti e rappresentate dai contenuti identici che sempre più spesso popolano le grandi piattaforme online, confermando come a crearle non siano esseri umani. Un esempio risalente al 2021 rimanda ai tantissimi post in lingua inglese, diffusi soprattutto sull’allora Twitter da account con nomi e foto profili da adolescenti, che iniziano tutti con «I hate texting» (Odio messaggiare). Migliaia di messaggi con variazioni minime: da «Odio messaggiare, voglio abbracciarti» a «Odio messaggiare, vorrei essere con te».
A prima vista, niente di strano: adolescenti innamorati stufi di comunicare via smartphone e desiderosi di passare fisicamente del tempo insieme. Ma com’è possibile che questi messaggi – e altri dalla forma simile – abbiano iniziato a diffondersi in tale quantità e tutti nello stesso momento? La spiegazione più semplice – cioè che si tratti di un trend virale, scaturito magari in seguito ai lunghi lockdown – non convince i teorici del complotto, che in questo ripetitivo pattern vedono una dimostrazione della colonizzazione di Twitter e degli altri social network da parte dei bot, che per loro natura (se così si può dire) tendono a moltiplicare all’infinito gli stessi tipi di contenuti.
Indizi simili li potremmo individuare anche in Italia: perché all’improvviso tutti, su Facebook e altrove, sembrano postare usando la formula «Dimmi che sei di… senza dirmi che sei di…»? Perché tutti sembrano commentare gli stessi eventi? Perché i politici di alcuni partiti disseminano all’unisono post perfettamente uguali? Il motivo, sospettano i complottisti, sarebbe soltanto uno: siamo circondati da bot, e le persone con cui interagiamo online potrebbero non essere umane.
In realtà, la ragione per cui su Instagram o su Facebook si ripetono in continuazione gli stessi identici contenuti non è da ricercarsi in un complotto governativo, ma nella spinta all’omogeneizzazione provocata dai social stessi, che incoraggiano gli iscritti a fare sempre le medesime conversazioni e a dare vita alle stesse reazioni, per replicare e massimizzare gli argomenti del momento, quelli in grado di generare più commenti, like e condivisioni. Insomma, sui social media non ci sono solo bot, siamo noi a comportarci come tali, subendo passivamente le logiche algoritmiche che in parte sembrano eterodirigersi.
È vero però che su Internet i contenuti falsi si stanno moltiplicando. I video deepfake sono diventati ormai quasi indistinguibili da quelli reali, rendendo sempre più complesso capire cosa sia vero e cosa no. La propaganda politica sui social sfrutta ormai i bot per diffondere a macchia d’olio i messaggi elettorali; gli aspiranti influencer acquistano falsi follower e falsi like nella speranza di attirare le aziende; ed è impossibile non notare come alcuni degli influencer più famosi su scala planetaria siano finte celebrità in computer grafica che promuovono grandi marchi di moda a milioni di follower veri.
E quindi, la teoria sulla morte di Internet è l’ennesima assurdità partorita sul web oppure, andando oltre la bizzarra superficie cospirazionista, possiamo riconoscere un’interpretazione (errata) di un fenomeno che si sta davvero verificando? Per certi versi la Dead Internet Theory si sta rivelando sempre più simile a una profezia.
Se ci allontaniamo dal mondo dei social network e osserviamo il web nel suo complesso, scopriamo come le modalità con cui tutto ciò si verifica – cioè come la rete venga inondata di contenuti sintetici, contraffatti o tra loro identici – siano molto più varie di quelle finora menzionate e quanto il loro impatto sia assai più vasto. Per esempio, la possibilità di impiegare sistemi in stile Chatgpt per produrre in tempi rapidissimi una marea di testi fa la fortuna economica delle cosiddette ai content farms, vere e proprie fabbriche di contenuti generati tramite intelligenza artificiale, in grado di pubblicare enormi quantità di articoli rielaborando testi e notizie già presenti online.
È il caso di siti come Worldtimestoday.com o Watchdog-Wire (oggi non più attivi), in cui un singolo «autore» arrivava a pubblicare anche centinaia di articoli al giorno. Secondo una ricerca condotta da NewsGuard, questi siti spazzatura non stanno solo inondando il web, ma si rivelano delle macchine da soldi: «Sembra che la pubblicità organica sia la principale fonte d’introiti di questi siti web creati con l’intelligenza artificiale», ha spiegato l’analista Lorenzo Arvanitis. «Abbiamo identificato centinaia di brand molto noti che fanno pubblicità su questi siti, supportandoli inconsapevolmente.»4
Che si tratti di realtà professionali si capisce anche analizzandone l’attività. Un gruppo editoriale chiamato Gamurs Group e specializzato in videogiochi vanta per esempio 17 pubblicazioni e 66 milioni di lettori al mese. Nel giugno 2023 ha pubblicato un annuncio di lavoro su LinkedIn per un ai editor che avrebbe dovuto scrivere «tra i 200 e i 250 articoli a settimana». Ovvero circa 30, 40 al giorno, festivi compresi. Una missione tutt’altro che impossibile, visto che per questi pseudo-articoli è sufficiente copiare un contenuto originale e darlo in pasto a Chatgpt (o sistemi simili), chiedendogli di tirarne fuori una versione leggermente differente e poi, magari dopo una rapidissima revisione, pubblicarla sulla propria testata.
La quantità crescente di contenuti generati in modo automatico potrebbe però essere più ampia del previsto. Secondo uno studio condotto dal ricercatore dell’Università della California Mehak Preet Dhaliwal, il 57,1% dei testi presenti sul world wide web sono traduzioni5 e una larga parte di queste sarebbe costituita da traduzioni multilingue (quindi traduzione di una traduzione di una traduzione…) fatte utilizzando sistemi di traduzione automatica, allo scopo di popolare la rete anche con contenuti scritti nelle lingue meno presenti sul web.
Messa così potrebbe sembrare un’intenzione nobile, se non fosse che, come spiega Dhaliwal, «maggiore è il numero di lingue in cui una frase è stata tradotta, minore è la qualità della traduzione». E questo non solo perché le traduzioni automatiche nelle lingue meno diffuse sono notoriamente poco efficaci, ma anche perché, di traduzione in traduzione, il risultato non può che peggiorare.
Non è tutto: «Gran parte di queste traduzioni proviene da articoli che definiamo di bassa qualità e che richiedono poca o nessuna competenza per essere creati», prosegue Dhaliwal. Si tratta insomma dei classici articoli clickbait (Sei trucchi per essere felici, Come farsi apprezzare dal capo e simili), tradotti in modo automatico in un’enorme quantità di lingue per popolare siti che hanno il solo scopo di generare traffico e quindi guadagnare con la pubblicità.
Il fatto che la maggioranza dei testi in lingue poco presenti sul web sia creato tramite traduzioni automatiche provoca però un circolo vizioso. Per addestrare i large language model (llm)6 si utilizzano i testi presenti online nella lingua che si vuole venga appresa dal sistema. Di conseguenza, se volessimo creare un llm in...