cerca

I segreti di Internet

Disintossicazione 2.0

Fairplay digitale: come e perché Facebook sta cercando di rendere meno tossici i suoi gruppi

Facebook rotto

C’è stato un momento della storia di Facebook, a dire il vero piuttosto recente, in cui molti avrebbero scommesso che i gruppi sarebbero stati il futuro della piattaforma.

Per chi non lo sapesse i gruppi sono pagine dedicate a uno specifico argomento (che ogni utente può liberamente creare dando libero sfogo alla propria fantasia) alle quali possono via via aggiungersi altri utenti, fino a diventare delle vere e proprie community con decine, o centinaia, di migliaia, di partecipanti. A volte il gruppo è la personificazione digitale dell'aneddoto del sassolino che, rotolando giù dalla montagna, crea una vera e propria frana. Ci sono gruppi per ogni aspetto dello scibile umano, dal calcio alla politica, dalla cucina ai cuori solitari... niente e nessuno sembra essere stato risparmiato dalla furia divoratrice dei gruppi. Anche coloro ai quali dei gruppi non frega nulla, fino a poco tempo fa potevano essere liberamente inseriti (a loro insaputa o addirittura contro la loro volontà) nei più disparati gruppi, prima che Facebook (abbastanza saggiamente vien da dire), non ha introdotto un messaggio-alert di civiltà digitale, ovvero subordinare l'inserimento di un utente in un determinato gruppo (da parte di altri utenti) al di lui gradimento.

Nel 2019, lo scandalo Cambridge Analytica aveva da poco mostrato come i dati sensibili di milioni di utenti erano stati probabilmente usati nelle campagne a favore della Brexit e dell’elezione di Donald Trump nel 2016, e alla conferenza annuale dedicata ai programmatori Mark Zuckerberg, il patron di Facebook, aveva svelato quella che doveva essere la più grande svolta di sempre nel design della piattaforma, vale a dire una serie di cambiamenti che mettevano al centro proprio i gruppi. “Ci stiamo concentrando sulla costruzione dell’equivalente digitale del soggiorno, dove puoi interagire in tutti i modi che desideri in privato - aveva annunciato all’epoca lo stesso Zuckerberg - C’è una reale opportunità di connettere un più grande numero di persone attraverso i gruppi, che diventeranno un’infrastruttura sociale significativa nelle nostre vite. Se possiamo migliorare il servizio e connettere un miliardo di persone a delle comunità, potremmo rafforzare il nostro tessuto sociale”. A due anni di distanza, Zuckerberg non può dire di aver vinto la scommessa. Gli stessi gruppi che nelle sue speranze dovevano rafforzare il tessuto sociale sono stati, tra le altre cose, centrali nell’ascesa del movimento “Stop the steal” (che si è rifiutato per mesi di riconoscere la vittoria di Joe Biden alle elezioni del novembre 2020) nonché di Qanon (l'ennesima teoria complottista a 360° che ha contagiato l'America prima e l'Europa poi), e anche nel rafforzare la retorica antivaccinista a livello internazionale.

Il social network, riporta il sito Weird, era consapevole di ciò che stava succedendo: un’inchiesta del Wall Street Journal ha così rivelato: “I dirigenti di Facebook erano consapevoli da anni che gli strumenti che alimentavano la rapida crescita dei gruppi rappresentavano un ostacolo ai loro sforzi per costruire comunità online sane”. Ora Facebook sembra voler fare una rapida marcia indietro, inseguendo ancora una volta il sogno di coltivare e promuovere dei gruppi che siano degli spazi più sani e, soprattutto, “meno tossici” per i propri utenti. Unire senza polarizzare per evitare ogni forma di estremismo sembrerebbe quindi la nuova sfida del media, cercando nel contempo di evitare gli errori del recentissimo passato. Nel tentativo di rallentare le conversazioni e permettere agli utenti di riflettere qualche istante prima di esprimersi su temi ad alto impatto emotivo, ad esempio, il social network è pronto a introdurre a livello globale un nuovo strumento che permetterà ai moderatori di limitare i commenti ai post per un dato periodo di tempo o per specifici utenti – ad esempio quelli che si sono uniti a Facebook solo di recente o che hanno violato le regole della community in precedenza. Potranno inoltre limitare la frequenza dei commenti di specifici membri del gruppo. Il tutto sarà gestito attraverso un nuovo spazio, la “home degli amministratori”, dove questi ultimi potranno vedere quali interventi sono necessari nel gruppo rispetto a post, membri e segnalazioni, monitorando con attenzione il tutto. La piattaforma sta anche testando una funzione basata sull’intelligenza artificiale che permetterebbe di identificare automaticamente “conversazioni controverse o malsane” che si svolgono nei commenti ...anche se non ha spiegato ancora come tutto ciò funzionerebbe nello specifico.

“Anche se piccolo, questo particolare aggiornamento è un’ammissione del fatto che costruire una comunità online sana significa che a volte le persone non dovrebbero essere in grado di reagire e commentare immediatamente con qualsiasi pensiero salti loro in mente” ha commentato la reporter Sarah Perez su TechCrunch, criticando uno degli assunti chiave che è stato per anni alla base delle interazioni sui social. Come spiegava in tempi non sospetti il designer Nick Punt, il modo in cui sono attualmente concepiti gli spazi online, dai gruppi Facebook alla timeline di Twitter, fa sì che “la reputazione, le prospettive e la storia di ogni individuo siano difficili da accertare, e quindi le loro parole vadano prese alla lettera. Questo, insieme a una quasi totale mancanza di standard nella partecipazione alla comunità e a un alto grado di varianza nelle conoscenze dei partecipanti, fa sì che l’ambiente tenda naturalmente verso il conflitto e il tribalismo”. Rallentare lievemente il passo di una conversazione concitata e creare una nuova categoria di sorvegliati speciali digitali potrà permettere di disinnescare almeno una parte di questi conflitti? Sembra essere questa la nuova scommessa di Zuckerberg ...vedremo come andrà a finire.

Commenti

Condividi le tue opinioni su La Sesia

Caratteri rimanenti: 1500