TikTok ha transformado cómo consumimos contenido desde su lanzamiento en 2016, con millones de usuarios compartiendo videos virales. En 2021, Nylah Anderson, de 10 años de nacionalidad americanada, murió tras intentar el peligroso «desafío del apagón», un reto viral en la plataforma. Su madre demandó a TikTok, argumentando que el algoritmo de la app recomendó el contenido a su hija. El Tribunal de Apelaciones en Filadelfia respaldó la demanda, y este caso ha abierto un debate sobre la responsabilidad de las plataformas en línea
La tragedia de Nylah no es un caso aislado; este reto ha sido vinculado a la muerte de otros niños. Su historia ha desencadenado un debate crucial sobre la responsabilidad de las plataformas en línea en este tipo de incidentes.
Esto plantea una pregunta clave: ¿puede TikTok ser considerado responsable por recomendar este tipo de contenido?
¿Qué es la sección 230?
La Sección 230 es parte de la Ley de Decencia en las Comunicaciones de 1996, creada en una época cuando Internet apenas estaba comenzando. Esta ley protege a las plataformas en línea, como TikTok o Facebook, de ser consideradas responsables por el contenido que, publican sus usuarios. Básicamente, dice que si alguien publica algo problemático, la culpa es del usuario, no de la plataforma.
Con la evolución de los algoritmos, como los de TikTok, algunos tribunales están cuestionando si estas plataformas deben ser responsables por recomendar contenido dañino. La muerte de Nylah podría ser un punto de inflexión en la regulación de los algoritmos en plataformas digitales.