Aumenta la presión legal y legislativa para salvaguardar a los jóvenes

Los juicios con jurado no son la mejor manera de resolver cuestiones importantes de política pública, como la forma más adecuada de proteger a los niños de los posibles daños de las redes sociales. Tampoco los hechos presentados en una sola sala de tribunales, ni la opinión mayoritaria de un único panel de jurados, ofrecen necesariamente un gran poder predictivo sobre cómo podrían decidirse otros casos. Sin embargo, un veredicto emitido la semana pasada —que declaró a dos empresas tecnológicas responsables de los problemas de salud mental sufridos por una usuaria cuando era niña— debería servir, aun así, como un poderoso incentivo para que las redes sociales hagan más en materia de seguridad infantil.

La cuestión central del juicio, celebrado en un tribunal estatal de Los Ángeles, giraba en torno a si Instagram, propiedad de Meta, y YouTube, propiedad de Google, habían diseñado sus servicios para captar la atención de los niños, ignorando claras advertencias de que sus métodos podían causar daños psicológicos. Los jurados fallaron en contra de las empresas tras nueve días de deliberaciones y por una mayoría de 10 a 2. Si bien se resistieron a la insistencia de los abogados de la demandante de imponer una sanción cuantiosa —fijando la indemnización por daños y perjuicios en 6 millones de dólares—, lanzaron no obstante una clara señal de advertencia en el primer caso de este tipo que ha llegado a juicio.

Un punto importante que estableció el caso es que los derechos de libertad de expresión de los que gozan las empresas de redes sociales no las protegen frente a la responsabilidad derivada del diseño de productos defectuosos, aunque es probable que esta cuestión se aborde en la fase de apelación. En su defensa, Meta invocó la sección 230 de la Ley de Decencia en las Comunicaciones de 1996 —que exime a las plataformas tecnológicas de responsabilidad por las expresiones de sus usuarios—, así como sus derechos amparados por la Primera Enmienda para presentar la información según considere oportuno. Sin embargo, el jurado coincidió con el argumento de la demandante de que, al incorporar funciones aparentemente diseñadas, ante todo, para retener a los usuarios —tales como el infinite scroll, o desplazamiento infinito, y las recomendaciones algorítmicas—, las empresas habían perdido el derecho a invocar dichas protecciones.

Como era de esperar, los abogados de la demandante intentaron equiparar a las empresas de redes sociales con la industria tabacalera, la cual ocultó deliberadamente pruebas inequívocas sobre los riesgos para la salud que entrañaban sus productos. Los hechos que salieron a la luz durante el juicio pusieron de relieve una creciente correlación entre el uso de las redes sociales y el deterioro de la salud mental de los jóvenes, si bien no se trató del tipo de relación de causalidad probada que la gran industria tabacalera trató de suprimir.

Las acusaciones de que la búsqueda de beneficios había motivado a las empresas a volverse deliberadamente ciegas ante el bienestar de sus usuarios fueron refutadas con argumentos que sostenían que, de hecho, las compañías estaban priorizando a los usuarios. Al testificar, el director ejecutivo de Meta, Mark Zuckerberg, fue interrogado sobre el motivo por el cual Instagram había permitido el uso de «filtros de belleza» —diseñados para hacer que los usuarios se vieran más atractivos— a pesar de las advertencias de 18 expertos de que esto podría perjudicar el bienestar de algunos usuarios. Su justificación: una aversión al paternalismo y un firme deseo de permitir que los usuarios de Instagram se expresaran libremente. Otros jurados, ante pruebas similares en una serie de otros casos que aguardan ser juzgados, podrían llegar a conclusiones distintas a la alcanzada la semana pasada.

No obstante, las empresas necesitan, para empezar, demostrar que están haciendo cumplir sus propias normas de manera eficaz. Las pruebas presentadas durante el juicio señalaron la presencia de unos 4 millones de usuarios en Instagram que no alcanzaban la edad mínima estipulada de 13 años. Meta ha adoptado algunas medidas para reforzar la seguridad, como poner fin a la práctica de medir el éxito en función del tiempo que logran retener a un usuario en la plataforma.

Las empresas tecnológicas no deberían esperar a ver si se acumulan los veredictos en su contra antes de hacer más por proteger a los jóvenes. La inquietud de los padres va en aumento, y la presión legal se está sumando a los esfuerzos legislativos. Encabezados por Australia, una docena de países —además de la Unión Europea (UE) y más de 20 estados de EE. UU.— han propuesto o promulgado ya medidas para prohibir el acceso de los menores a las redes sociales. Para las grandes empresas tecnológicas, que se enfrentan a una creciente techlash, o reacción negativa, garantizar la seguridad de sus clientes no es solo lo correcto, sino también una parte fundamental de la protección de sus propios negocios.

(. Copyright The Financial Times Limited 2026. © 2026 The Financial Times Ltd. All rights reserved. Please do not copy and paste FT articles and redistribute by email or post to the web).

Financial Times

El Financial Times (FT) es reconocido globalmente como una de las organizaciones de noticias más importantes, destacada por su autoridad e integridad editorial. Fundado en 1888, ha evolucionado de ser un diario enfocado en Londres a convertirse en una corporación mediática global. El 93% de sus lectores son digitales.

Ver más