Il social più usato dalla Generazione Z cambia le regole di servizio, diventando ancora più rigido, sicuro e inclusivo.
In occasione del Safer Internet Day, la Giornata mondiale per la sicurezza in Rete istituita dall’Unione Europea, TikTok ha lanciato una serie di novità per tutelare in particolare i minorenni sulla piattaforma.
Le nuove linee guida hanno chiarito quali contenuti porteranno a un ban: video che promuovono in qualsiasi modo un possibile sviluppo di disturbi alimentari, che promuovono ideologie che fomentano l’odio, la misoginia e fenomeni come ildeadnaming(l’atto di usare il nome e il genere di una persona transgender prima che del cambio di identità sessuale) e misgendering(appellare la persona trans con l’articolo la desinenza e/o il pronome che non le appartiene). Inoltre, non saranno tollerati contenuti a favore di pratiche come le terapie di conversione.
Non è la prima volta che il tema dei disturbi alimentari viene affrontato da TikTok. Già da tempo il social rimuove video che li promuovono, tuttavia le misure prese finora non erano sufficientemente efficaci. Spesso, infatti, il divieto veniva raggirato e ignorato ed era possibile incontrare post che incitavano all’allenamento eccessivo o regimi alimentari pericolosi o sbagliati.
È stata prestata poi particolare attenzione alle bufale e sfide pericolose. “Bufale su autolesionismo e suicidio vengono ora messe in evidenza con più dettagli in una categoria di policy separata, in modo che sia ancora più semplice per la nostra community familiarizzare con queste linee guida”, ha spiegato in una nota Cormac Keenan, Head of Trust and Safety di TikTok . “Per aiutare la community a comprendere le sfide e restare al sicuro mentre si diverte, abbiamo lanciato insieme ai creator dei video, che invitano a seguire quattro passaggi utili quando valutano i contenuti online: fermati, pensa, decidi e agisci”.
Per monitorare al meglio i contenuti, il colosso social cinese aprirà dei centri specializzati a Washington, Dublino e Singapore. Nel frattempo, ha reso noto che nel terzo trimestre del 2021 ha rimosso più di 91 milioni di video (l’1% di tutti i video caricati) ritenuti in violazione delle regole della piattaforma. Di questi, il 95% è stato rimosso prima ancora di venire segnalato da un utente, l’88% prima di ricevere alcuna visualizzazione e il 93% entro 24 ore dalla pubblicazione.