Divulgação: Canva

O Tribunal de Apelações dos Estados Unidos para o Terceiro Circuito decidiu que a mãe de Nylah Anderson, uma menina de 10 anos que morreu ao tentar o “blackout challenge” (desafio do apagão) no TikTok, pode processar a plataforma de mídia social. A decisão marca uma mudança significativa na forma como as empresas de tecnologia podem ser responsabilizadas pelos conteúdos promovidos em suas plataformas.

O que é o “blackout challenge”?

O “blackout challenge” é uma tendência que ganhou força no TikTok em 2021. O desafio consiste em crianças usarem objetos domésticos para se asfixiarem até perderem a consciência, compartilhando o feito na rede social. De acordo com a Bloomberg Businessweek, pelo menos 20 mortes de crianças, sendo 15 com 12 anos ou menos, foram associadas a esse desafio.

Detalhes do caso

Nylah Anderson, de Chester, Pensilvânia, gostava de dançar ao som dos vídeos no TikTok. Em dezembro de 2021, ela tentou o “blackout challenge” após ver vídeos sobre o desafio em sua “For You Page” (Página Para Você), uma seção do TikTok que recomenda conteúdos aos usuários. Nylah pendurou a bolsa de sua mãe em um cabide no armário e colocou o pescoço na alça. Sua mãe a encontrou inconsciente, e Nylah faleceu cinco dias depois em um hospital infantil.

A mãe de Nylah, Tawainna Anderson, entrou com um processo contra o TikTok e sua empresa-mãe, ByteDance, em 2022, alegando que a plataforma permitiu que vídeos perigosos continuassem circulando, mesmo sabendo dos riscos. Além disso, o algoritmo do TikTok teria promovido o “blackout challenge” diretamente para Nylah, levando à sua morte.

Decisão judicial

Inicialmente, um juiz distrital rejeitou o processo, citando a Seção 230, uma lei federal que protege as plataformas de processos relacionados a conteúdos gerados por terceiros. No entanto, o Tribunal de Apelações discordou dessa decisão. A juíza Patty Shwartz, que proferiu a opinião do tribunal, argumentou que, embora o TikTok não possa ser processado por hospedar os vídeos do “blackout challenge”, a plataforma pode ser responsabilizada por seu algoritmo, que ativamente promoveu o conteúdo perigoso para Nylah.

“A TikTok fez escolhas editoriais ao recomendar conteúdos específicos para usuários individuais, o que configura um discurso próprio da empresa”, afirmou a juíza.

Implicações futuras

Especialistas jurídicos veem essa decisão como um marco que pode abrir precedentes para futuras ações contra empresas de mídia social. “Essa decisão é a mais abrangente até o momento, no que diz respeito à responsabilidade das plataformas pelos conteúdos promovidos por seus algoritmos”, comentou Amy Landers, diretora do programa de direito de propriedade intelectual da Universidade Drexel.

Com essa decisão, o caso agora retorna ao tribunal de primeira instância, onde a mãe de Nylah tentará provar que o algoritmo do TikTok teve um papel direto na morte de sua filha.

A tragédia de Nylah Anderson é um alerta para os perigos dos desafios virais nas redes sociais, especialmente para crianças e adolescentes. A decisão do tribunal pode forçar plataformas como o TikTok a reconsiderarem como seus algoritmos recomendam conteúdo, buscando maneiras de proteger os usuários mais jovens de conteúdos potencialmente letais.


fonte: The Philadelphia Inquirer

Criado em 04/09/24
Nossos canais:
Quer falar diretamente com seu público-alvo?
anuncie aqui
® São Paulo para Crianças e Meu Passeio são marcas registradas. Todos os direitos reservados. - desenvolvido por Ideia74