C'è chi su TikTok incita a darsi la morte. Quali sono i provvedimenti presi in Italia?
- Annamaria Niccoli, Giornalista
- 16 apr
- Tempo di lettura: 3 min
Aggiornamento: 12 mag

Articolo di Annamaria Niccoli
13 aprile 2025
Le accuse lanciate al social media TikTok di "incitamento al suicidio" hanno generato un vivace dibattito a livello mondiale sulle funzioni degli algoritmi di social media in relazione a contenuti letali, ed in particolare tra il gruppo giovanile.
L'algoritmo di TikTok è stato accusato di notare poco contenuti estremisti o rischiosi nel tentativo di massimizzare il coinvolgimento degli utenti. L'algoritmo può rafforzare contenuti spaventosi o carichi di emotività, generando vere e proprie "spirali pericolose" che normalizzano comportamenti a rischio. TikTok utilizza strumenti di intelligenza artificiale per identificare e rimuovere contenuti pericolosi, inclusi video che mostrano comportamenti autolesionistici. Anche i moderatori umani intervengono per verificare le segnalazioni.
Nonostante queste precauzioni, numerosi utenti riescono ad aggirarle. Numerosi utenti creano diversi account o utilizzano parole diverse (ad esempio, "unalive" al posto di "suicidio") per aggirare i filtri. Alcuni gruppi si scambiano tecniche per aggirare i divieti, alimentando un mondo sotterraneo in cui i contenuti pericolosi proliferano nascosti. Le famiglie delle vittime minorenni hanno fatto causa a TikTok, accusandola di negligenza nella moderazione.
Normative globali: il Digital Services Act (DSA) dell'UE impone alle grandi piattaforme di aumentare la moderazione, essere trasparenti sugli algoritmi e rimuovere tempestivamente i contenuti illegali. I critici chiedono di riprogettare gli algoritmi al fine di ridurre la visibilità dei contenuti dannosi. È necessaria la cooperazione tra aziende, governi e associazioni per la salute mentale.
La controversia mette in luce i due lati degli algoritmi dei social media, che possono sia danneggiare gli utenti che proteggerli, purtroppo la persistenza di contenuti dannosi indica problemi strutturali. Per risolvere questo problema, saranno necessarie innovazione tecnologica, norme più severe e una determinazione collettiva per garantire la sicurezza degli utenti. La questione in esame solleva interrogativi fondamentali: in che misura le piattaforme digitali possono essere ritenute responsabili dei contenuti creati dai loro utenti? E come si concilia la libertà di parola con la necessità di tutelare i soggetti più vulnerabili?
TikTok, come altre piattaforme di social media, ha adottato una serie di policy e strumenti per gestire i contenuti dannosi, inclusi quelli che contengono insulti, incitamento all'odio o istigazione al suicidio. Nonostante gli interventi adottati, ci sono casi in cui tali contenuti riescono a eludere sia i controlli automatici che le revisioni manuali, causando frustrazione tra gli utenti. Quali sono le ambiguità nella moderazione di TikTok? La moderazione automatica, sebbene faccia risparmiare sui costi, si rivela inefficace nel contrastare gli utenti che ricorrono a un linguaggio criptico.
Il Digital Services Act, richiede una maggiore trasparenza algoritmica e la rimozione tempestiva dei contenuti illegali; tuttavia, permane una tensione irrisolta tra sicurezza, privacy e libertà di espressione. Gli algoritmi, per quanto sofisticati, hanno una capacità limitata di decifrare contesti ambigui o strategie di elusione.

TikTok utilizza algoritmi di intelligenza artificiale per rilevare e rimuovere automaticamente i contenuti che violano le linee guida della community. I sistemi sono progettati per rilevare linguaggio offensivo, incitamenti alla violenza o al suicidio, nonché altre forme di contenuto inappropriato. In base alle normative di questo social, gli utenti possono segnalare contenuti o commenti che ritengono inappropriati. I moderatori umani esaminano queste segnalazioni e decidono se eliminare il contenuto o intraprendere ulteriori azioni contro l'autore. In determinate situazioni, quando viene rilevato un commento o un contenuto potenzialmente dannoso (ad esempio messaggi correlati al suicidio). Se un utente viene riconosciuto mentre condivide materia che viola sistematicamente le linee guida della comunità, TikTok può apportare sanzioni disciplinari, tra cui sospensione a tempo o disabilitazione permanente dell'account.
"Ma succede? Quasi mai! Sono lì, tutti presenti gli odiatori sociali a spargere veleno e cattiverie, anche con più profili per utente".
Periodicamente, si verifica che alcuni utenti lamentino la persistenza di commenti offensivi o dannosi, nonostante abbiano provveduto a segnalarli. Spesso succede anche che utenti segnalano contenuti discutibili, ma finiscono per essere presi di mira, probabilmente a causa di incomprensioni o abusi del meccanismo di segnalazione, anche dei moderatori umani. Questo può lasciare gli utenti con un senso di frustrazione e impotenza, e fuga dal social.
Per esperienza personale posso dire: di essere registrato sul social TikTok da qualche anno, ho visto cambiare poco, anzi niente a favore della pubblicazione di commenti offensivi di utenti "spregiudicati" nei confronti di altri utenti "vittime". Sembra esserci un sentimento di impunità su TikTok, e questo riflette un fallimento sistemico. Non si tratta solo di problemi tecnici, come algoritmi difettosi o moderazione tardiva, ma di un problema più profondo che sconfina nelle “priorità aziendali”, nella “cultura digitale” e nella “responsabilità sociale”. Anche nel caso in cui un commento venga eliminato, è comune che l'autore non riceva conseguenze significative. Tale situazione trasmette un messaggio inequivocabile: le ripercussioni per comportamenti inappropriati sono quasi inesistenti.
Correttore bozza: //www.humanizeai.pro/
Foto: post pubblici di TikTok
Immagine copertina: https://chat.qwen.ai/
Commenti