La red social de videos cortos, TikTok, ha sido el foco de atención por parte de la organización Amnistía Internacional (AI) y múltiples estados en EE. UU., quienes alegan que su modelo de negocio prioriza la interacción y el tiempo de permanencia sobre la seguridad del usuario, especialmente la de los más jóvenes.
📉 Contenido Nocivo y Salud Mental
Investigaciones de Amnistía Internacional han expuesto cómo el algoritmo del feed "Para ti" puede dirigir rápidamente a niños y jóvenes a una "espiral de contenido nocivo" relacionado con problemas de salud mental, incluyendo videos que idealizan, normalizan o incluso alientan el suicidio, la depresión y la autolesión.
La preocupación central es que el diseño de TikTok, con su flujo interminable de videos cortos y rápidos, está diseñado para aprovechar el deseo de recompensa de los usuarios, fomentando un uso que la propia AI califica de adicción. En respuesta, activistas de AI han entregado una petición global con más de 170.000 firmas en la sede europea de la compañía en Dublín, exigiendo un cambio de un modelo "adictivo por diseño" a uno "seguro por diseño".
🏛️ Demandas Estatales
En Estados Unidos, varios estados han interpuesto demandas alegando que el diseño de la plataforma contribuye directamente a la adicción en menores, lo que genera problemas de baja autoestima, ansiedad y depresión. Los expertos señalan que el algoritmo impulsa la comparación constante y limita la comunicación en persona, aspectos perjudiciales para el desarrollo emocional de los adolescentes.
Roblox: Investigada en Florida por Ser un "Caldo de Cultivo"
Por otro lado, la plataforma de juegos y creación de mundos virtuales, Roblox (que cuenta con más del 40% de sus usuarios menores de 13 años), está lidiando con una investigación penal iniciada por el Fiscal General de Florida, Jameser, quien acusa a la empresa de ser un "criadero de depredadores sexuales" que pone en riesgo a millones de niños.
⚠️ Explotación y Acoso Sexual
Documentos judiciales y reportes de investigación describen a Roblox como una plataforma que expone a los niños al acoso cibernético, la pornografía y el contenido violento. La situación se ha agravado con la noticia de que un despacho de abogados en EE. UU. representa a más de 700 familias que alegan que sus hijos han sido víctimas de explotación sexual facilitada por la plataforma.
Los depredadores han utilizado la dinámica de los juegos y la posibilidad de ofrecer Robux (la moneda virtual de la plataforma, canjeable por dinero real) para manipular a menores y solicitar actos sexuales frente a la cámara. La investigación busca determinar la responsabilidad de Roblox, que hasta ahora se ha amparado en la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas del contenido generado por sus usuarios.
🗣️ Llamado a los Padres y Reguladores
Ante esta doble crisis, el llamado de expertos en ciberseguridad y salud mental es claro: es urgente que tanto los reguladores como los padres refuercen los controles parentales y supervisen activamente el uso de estas plataformas. La tendencia de estas tecnológicas a priorizar la interacción y el tiempo de pantalla sobre la protección infantil exige una revisión profunda de sus modelos de negocio para evitar mayores daños psicológicos y físicos a la población más vulnerable.