O Tribunal de Apelações dos Estados Unidos para o Terceiro Circuito decidiu que a mãe de Nylah Anderson, uma menina de 10 anos que morreu ao tentar o “blackout challenge” (desafio do apagão) no TikTok, pode processar a plataforma de mídia social. A decisão marca uma mudança significativa na forma como as empresas de tecnologia podem ser responsabilizadas pelos conteúdos promovidos em suas plataformas.
O “blackout challenge” é uma tendência que ganhou força no TikTok em 2021. O desafio consiste em crianças usarem objetos domésticos para se asfixiarem até perderem a consciência, compartilhando o feito na rede social. De acordo com a Bloomberg Businessweek, pelo menos 20 mortes de crianças, sendo 15 com 12 anos ou menos, foram associadas a esse desafio.
Nylah Anderson, de Chester, Pensilvânia, gostava de dançar ao som dos vídeos no TikTok. Em dezembro de 2021, ela tentou o “blackout challenge” após ver vídeos sobre o desafio em sua “For You Page” (Página Para Você), uma seção do TikTok que recomenda conteúdos aos usuários. Nylah pendurou a bolsa de sua mãe em um cabide no armário e colocou o pescoço na alça. Sua mãe a encontrou inconsciente, e Nylah faleceu cinco dias depois em um hospital infantil.
A mãe de Nylah, Tawainna Anderson, entrou com um processo contra o TikTok e sua empresa-mãe, ByteDance, em 2022, alegando que a plataforma permitiu que vídeos perigosos continuassem circulando, mesmo sabendo dos riscos. Além disso, o algoritmo do TikTok teria promovido o “blackout challenge” diretamente para Nylah, levando à sua morte.
Inicialmente, um juiz distrital rejeitou o processo, citando a Seção 230, uma lei federal que protege as plataformas de processos relacionados a conteúdos gerados por terceiros. No entanto, o Tribunal de Apelações discordou dessa decisão. A juíza Patty Shwartz, que proferiu a opinião do tribunal, argumentou que, embora o TikTok não possa ser processado por hospedar os vídeos do “blackout challenge”, a plataforma pode ser responsabilizada por seu algoritmo, que ativamente promoveu o conteúdo perigoso para Nylah.
“A TikTok fez escolhas editoriais ao recomendar conteúdos específicos para usuários individuais, o que configura um discurso próprio da empresa”, afirmou a juíza.
Especialistas jurídicos veem essa decisão como um marco que pode abrir precedentes para futuras ações contra empresas de mídia social. “Essa decisão é a mais abrangente até o momento, no que diz respeito à responsabilidade das plataformas pelos conteúdos promovidos por seus algoritmos”, comentou Amy Landers, diretora do programa de direito de propriedade intelectual da Universidade Drexel.
Com essa decisão, o caso agora retorna ao tribunal de primeira instância, onde a mãe de Nylah tentará provar que o algoritmo do TikTok teve um papel direto na morte de sua filha.
A tragédia de Nylah Anderson é um alerta para os perigos dos desafios virais nas redes sociais, especialmente para crianças e adolescentes. A decisão do tribunal pode forçar plataformas como o TikTok a reconsiderarem como seus algoritmos recomendam conteúdo, buscando maneiras de proteger os usuários mais jovens de conteúdos potencialmente letais.
fonte: The Philadelphia Inquirer