Os pais das vítimas que faleceram em decorrência desse desafio estão responsabilizando o TikTok pela tragédia. Eles alegam que a rede social deveria ser responsabilizada por permitir a disseminação desse tipo de conteúdo malicioso em sua plataforma.
Tradicionalmente, as plataformas de tecnologia contam com a proteção da seção 230, que as isenta da responsabilidade pelo conteúdo postado por terceiros. No entanto, um tribunal superior reconsiderou o caso e decidiu que o discurso que circulava no TikTok poderia ser caracterizado como próprio da plataforma, levando o processo de volta à corte inferior para uma nova análise.
As acusações contra o TikTok incluem negligência em relação ao conteúdo compartilhado em sua plataforma. Esse caso em particular poderia representar uma brecha na proteção legal das plataformas digitais, que normalmente são imunes à responsabilização pelo conteúdo gerado por seus usuários.
Um dos casos mais emblemáticos envolve a morte de Nylah Anderson, que teria se enforcado acidentalmente após assistir aos vídeos do desafio do apagão. A corte responsável pelo julgamento considerou que o algoritmo do TikTok, responsável por recomendar o desafio a Anderson, estava dentro das atividades próprias da plataforma e, portanto, não se enquadrava na seção 230.
Essa decisão pode ter importantes repercussões para a forma como as plataformas digitais lidam com o conteúdo recomendado aos seus usuários, podendo mudar a interpretação da responsabilidade das empresas em relação ao material compartilhado em suas plataformas.