Metal Gear Solid 2 e la "Selezione per la Sanità Sociale"
Come viviamo immersi in un problema individuato da un videogioco di 20 anni fa
Seguono spoiler sull’intera trama del gioco, non proseguire se non si è completato il titolo e si intende recuperarlo.
Metal Gear Solid 2: Sons of Liberty è un titolo il cui ruolo è stato dirompente nella storia del medium. Memorabile è l’iniziale freddezza con la quale fu accolto a causa della sua apparente natura di “scimmiottamento” del primo capitolo, freddezza che sembrava dichiarare la triste fine di una saga appena nata ma che si è poi sciolta quando i primi osservatori critici hanno fatto notare il sottotesto titanico dell’opera. Il prodotto non sembrava essere un videogioco come inteso fino a quel momento quanto piuttosto una tesi, il confezionamento videoludico di un impegnativo spunto di riflessione. Tra frecciate caustiche al videogiocatore e sfondamenti della quarta parete, MGS2 proponeva una prospettiva non solo sul concetto di identità indipendente ma anche sul ruolo della tecnologia e dell’informatica nella società di oggi. Di oggi, sì, perché MGS2 è del 2001, ma solo vent’anni dopo suona l’allarme nei confronti delle problematiche sollevate allora.
Breve riepilogo della trama: l’agente segreto Raiden scopre che la sua missione contro il gruppo di terroristi Dead Cell è in realtà una copertura e che la piattaforma petrolifera sulla quale si trova è il sito in cui è nascosto l’Arsenal Gear, un gigantesco sottomarino-computer guidato dall’IA nota come “GW”, imponente sistema di controllo delle informazioni digitali. Mentre in origine la nave era pensata come arma dei Patriots, eminenze grigie che controllano l’America al di sopra del Presidente e del Pentagono, il leader dei terroristi, Solidus, intende prenderne il controllo e usarla contro di loro. Raiden, per sottrarre il controllo dell’arma a entrambe le fazioni, inserisce un virus informatico nel mainframe e manda in tilt l’IA. Scopre così che le persone che gli hanno dato supporto via CODEC per tutta la missione, il colonnello Campbell e Rosemary, la fidanzata presente in veste di analista, sono in realtà delle IA generate proprio da GW basate su ciò che lui si aspettava di avere “dall’altro capo della cornetta”. In altre parole, sono il frutto di una profilazione effettuata su di lui. Poco prima dello scontro finale con Solidus, Raiden viene contattato dall’IA malfunzionante e gli viene spiegato il senso dei Patriots e la loro visione del mondo: alcune parti dell’esistenza umana non vengono trasmesse nel DNA, in particolare i ricordi, e devono quindi essere salvate in altro modo. Il web può consentire di farlo più efficacemente di qualsiasi altro mezzo, ma sarebbe pieno di spazzatura se non ci fosse qualcuno a filtrarla e la sovrabbondanza di dati produrrebbe quella che è da loro definita una pericolosa assenza di verità assoluta.
“La società digitale sta incoraggiando i difetti dell’uomo e ricompensa selettivamente lo sviluppo di comode mezze verità”. - GW
Troppe informazioni disordinate, per sempre presenti in rete, causerebbero enormi problemi sociali e impedirebbero l’evoluzione in quanto fonte di confusione. I Patriots hanno il compito di essere il filtro, ciò che salva il mondo dall’annegamento in quella palude di dati indesiderati. Raiden affronta quindi Solidus e, non avendo modo di raggiungere i burattinai, accetta di iniziare a vivere da uomo libero - dai suoi superiori, ma anche dal controllo del giocatore, come evidenziato dal gettare via le targhette di riconoscimento con il nome che gli abbiamo dato a inizio gioco - decidendo da solo chi lui sia.
Sfido chiunque abbia giocato il titolo in quegli anni a non aver pensato, in tempi più recenti, che forse forse dei Patriots a filtrare la spazzatura ci farebbero davvero comodo. È una tentazione irresistibile. Istintivamente siamo tutti d’accordo nel volere quel filtro, ovviamente ciascuno a propria misura e a proprio giudizio, perché sono sempre gli altri, quelli che la pensano in modo diverso, a infastidirci (a torto o a ragione, non è attinente in questa sede).
Ma è finita qui? MGS2 ha “previsto” solo questioni morali e desideri?
The Cleaners (Quello che i social non dicono), documentario del 2018, porta alla luce una realtà che è ormai un pilastro, per quanto sommerso, dell’attuale sistema dei social. Il ruolo di moderazione di internet è infatti assegnato ad aziende private che stipendiano persone per lo specifico lavoro di pulitura: eliminano i contenuti cruenti, scabrosi, disturbanti e mantengono il web “a nostra misura”. Queste persone, pagate circa 4-5 Euro l’ora, si trovano sottoposte continuamente a materiale altamente stressante e spesso reggono pochi mesi prima di mollare e rimanere comunque profondamente turbate. La criticità di questo sistema, però, oltre alla salute di chi se ne occupa, è l’opacità del tutto: non si conoscono i nomi di queste aziende e i lavoratori addetti a questo ingrato servizio sono tenuti alla riservatezza, non potendo dire né di essere assunti per svolgerlo né per chi lavorano. Non solo: le aziende proprietarie delle piattaforme sono al lavoro per perfezionare le loro IA così da poter affidare interamente il lavoro alle macchine, risparmiando in retribuzioni ma anche avendo la certezza di un completo controllo sul filtro applicato. Queste IA sono forse così diverse da un’idea embrionale di “Patriots”? E c’è un’aggravante: qui non si parla di “Selezione per la Sanità Sociale”, non esiste neanche la parvenza di un bene comune e di un interesse collettivo: siamo strettamente nell’ambito degli interessi privati, siano essi economici o politici.
“When you read the newspaper or watch TV news each day, you have no idea what stories were left out and why certain stories were selected.”
“Quando si legge il giornale o si guardano le notizie in TV ogni giorno, non si ha idea di quali storie siano state omesse e perché siano state selezionate certe storie.”
– Nikki Usher-Layser, docente alla G.Washington University School of Media and Public Affairs, parlando di EdgeRank, l’algoritmo di Facebook
Questo ci pone di fronte a una problematica rilevante: una società libera, o almeno, la forma più libera di società che siamo riusciti a strutturare come specie umana, è quella in cui i detentori dei poteri si controllano a vicenda. Quando un soggetto è privato, invece, è sottoposto al controllo dei tre poteri istituzionali seguendone le leggi e subendone il giudizio. Cosa pensare però di quei casi in cui questi privati sfuggono a ogni tipo di supervisione e sono in grado di mettere in campo una comunicazione più efficace e pervasiva delle stesse istituzioni governative? Non conoscendo i dettagli del loro lavoro quanto basta per avere una trasparenza minima, chi garantisce che questi privati non selezionino attentamente i contenuti delle proprie piattaforme sulla base di esigenze specifiche, non solo pubblicità per le aziende ma vera e propria propaganda politico-sociale? Pensate a quanto, nella storia recente, è riuscito a sfuggire alle maglie dei regimi e dei gruppi militari grazie al fatto che sui social non esiste l’intermediazione dei media tradizionali, o semplicemente a come l’oscuramento dei social sia sistematicamente la prima mossa di ogni governo autoritario. Come possiamo sapere che i gestori dei servizi che usiamo non abbiano convenienza ad assecondare quegli stessi gruppi di potere che sarebbero in teoria danneggiati da quell’aggirare l’intermediazione?
Per avere la misura del potere nelle mani di chi gestisce i dati personali e le attività sui social basta pensare allo scandalo di Cambridge Analytica: tutto iniziò nel 2014, quando Aleksandr Kogan sviluppò la app “thisisyourdigitallife” che offriva agli utenti un profilo psicologico basato sulla loro attività su Facebook; il problema sorse quando Kogan, che aveva il consenso degli utenti di utilizzare quei dati per la sua app, decise di cederli alla società Cambridge Analytica che li usò sia per la campagna elettorale di Donald Trump sia per assistere il comitato a favore della BrExit1. Abbiamo strutture di controllo adatte a capire in tempi utili quando le aziende ai quali diamo il nostro consenso li usano per finalità del genere, evitare che gruppi privati definiscano di quali messaggi diventeremo destinatari e, quindi, quali opinioni matureremo e quali comportamenti terremo in società? La realtà dei “cleaners” sembra dirci di no.
Stando alle ricerche di Youyou e Stiller della University of Cambridge (2015), l’algoritmo già da anni prevede il nostro comportamento meglio della nostra cerchia ristretta di amici e dei nostri familiari. Potenzialmente, molte persone sono lette dall’algoritmo ancor meglio di quanto loro stesse - a livello di azioni e automatismi - riescano a leggersi. Collegando un sito web a una pagina Facebook, ad esempio, si può chiedere a Facebook di direzionare le nostre campagne pubblicitarie su persone quanto più simili possibile a quelle che, visitando il sito web, hanno compiuto certe azioni: è semplice e funziona molto bene. Se EdgeRank riesce a definire così precisamente come ci comporteremo, il potere di una futura e immaginata IA-cleaner è enorme in quanto sarà possibile determinare con buona approssimazione che cosa debba essere mostrato o eliminato al fine di ottenere un outcome finale specifico.
Non è così fantascientifico, ormai, immaginare intere “popolazioni social” pronte per essere mobilitate con messaggi su misura per ottenere da esse il risultato voluto. Se tutto ciò che conosciamo è filtrato e se quel filtraggio è rifinito al punto da prevedere ciò che faremo con quelle informazioni, dov’è la valutazione del singolo e quanto è davvero del singolo? Quanto abbiamo gli strumenti, a quel punto, per definire la nostra opinione su un qualsiasi tema rilevante?
Il problema di vedere solo ciò che è diretto a noi, inoltre, è costituito anche dalla facile deriva della cosa sul piano dei bias di conferma. Essendo bersagliati da input su misura, spesso idee che già condividiamo o che siamo pronti a condividere sulla base di ciò che ha definito un algoritmo, alla lunga ci si trova impossibilitati ad avere un reale confronto con il diverso, a essere privati dell’allargamento delle nostre prospettive e, quindi, suscettibili all’influenza esterna in quanto privi di quelle espressioni di pensiero contrario al nostro che, sì, infastidiscono, ma rappresentano un reality check a dir poco indispensabile, nel web delle cerchie e delle bolle.
Mark Zuckerberg è stato molto chiaro: la direzione nella quale i social andranno è quella di una totale profilazione. Tutto sarà personalizzato. Se un tempo questo sarebbe potuto sembrare invitante e comodo (e certamente Zuckerberg ha cercato di venderla sotto questa luce), oggi la criticità di questa visione ci appare - o ci dovrebbe apparire - lampante: sdoganata l’idea del mostrare “ciò che è di interesse”, a chi resta in mano il potere di decidere che cosa lo sia?
È curioso notare come l’esito finale del sistema immaginato da Zuckerberg e di questo “filtro supremo” tenda all’esatto contrario di quell’interconnessione che era il fulcro della “vision” iniziale dei social e di come conduca invece a una sorta di “morbido isolamento” dei singoli utenti, esposti ciascuno ai propri messaggi e ai propri input, contenuti attentamente disegnati per piacere specificamente a loro.
Viene da chiedersi se Metal Gear Solid 2 sarebbe stato percepito in modo diverso, uscendo qualche anno più tardi; certo è che, oggi, ripensiamo a un’opera di 20 anni fa come a un visionario scorcio su quella che è probabilmente la questione fondamentale del mondo “post-avvento dei social network” e il nodo del rapporto fra le istituzioni e i gestori di big data.
Mentre ce lo chiediamo, non sarebbe una pessima idea ricercare un ridimensionamento non tanto dei social network come mezzo (cosa che non accadrà, data la portata degli interessi in ballo) quanto del nostro approccio al mezzo quando lo utilizziamo e dell’importanza che riveste nelle nostre vite, onde evitare di veder invertirsi definitivamente il ruolo di agente e quello di strumento.
(Grazie a LuliZiv della SafeZone per aver innescato la scrittura di questo articolo con una sua live a tema)
Le informazioni in merito allo scandalo di Cambridge Analytica e alle ricerche in materia di psicologia sociale sono tratte dalla tesi di laura della dott.ssa Francesca Chirillo (2018), incentrata sul contagio emotivo tramite i social network e sull’influenza sociale.