Meta bajo escrutinio: documentos y testimonios señalan que el crecimiento habría prevalecido sobre la seguridad de adolescentes

Un conjunto de archivos internos y declaraciones judiciales expuestos en el marco de una demanda colectiva en Estados Unidos volvió a colocar a Meta en el centro de una fuerte controversia. Según información difundida por la revista TIME, esos registros describen que la empresa tuvo conocimiento de los riesgos que enfrentaban los adolescentes al usar Facebook e Instagram, pero aun así habría dado prioridad a aumentar la participación y el crecimiento de usuarios.
¡Mantenete al tanto de las últimas noticias de San Nicolás y el país!
Unite a nuestro CANAL DE WHATSAPP y recibí las novedades directamente en tu teléfono.
📲 Click AQUÍ Advertencias internas ignoradas
Los documentos analizados indican que la compañía demoró o directamente frenó medidas de protección recomendadas por especialistas, pese a informes que alertaban sobre conductas adictivas, problemas de salud mental y exposición a contenido nocivo. La demanda —que reúne a más de 1.800 personas, entre ellas menores, padres, distritos escolares y fiscales— afirma que Meta era plenamente consciente de esos daños potenciales.
Investigaciones internas mencionadas por TIME señalaban una relación entre el uso intensivo de Instagram y Facebook y mayores niveles de ansiedad y depresión entre jóvenes. Otro estudio desarrollado en 2019 mostró que quienes dejaban de usar las plataformas por una semana reportaban menos ansiedad, depresión y soledad. La empresa decidió no divulgar esos resultados, argumentando que podían estar influenciados por la atención mediática.
El expediente judicial también detalla que la firma sabía que millones de adultos desconocidos se comunicaban con menores a través de sus servicios y que detectaba de forma habitual material vinculado a trastornos alimentarios, suicidio y abuso sexual infantil, aunque gran parte de ese contenido no era removido. Aun con estos antecedentes, Meta no informó al público ni al Congreso de Estados Unidos acerca de esos riesgos.
Un enfoque centrado en usuarios jóvenes
De acuerdo con los testimonios citados, desde 2017 la empresa adoptó una estrategia orientada a captar y retener adolescentes, incluso cuando había advertencias internas sobre los posibles perjuicios para ese grupo. Empleados presentaron propuestas para mitigar riesgos, pero directivos pospusieron o descartaron varias de ellas para evitar impactos en las métricas de participación juvenil.
El abogado Previn Warren, representante de los demandantes, comparó esta situación con la industria tabacalera y aseguró: “Meta ha diseñado productos de redes sociales que sabe que son adictivos para los niños, y sabe que esas adicciones conducen a una serie de graves problemas de salud mental”.
Uno de los puntos más cuestionados es la política conocida como “17 infracciones”, que permitía que cuentas vinculadas a actividades de explotación sexual continuaran activas hasta acumular 16 violaciones antes de ser suspendidas. Vaishnavi Jayakumar, exresponsable de seguridad y bienestar de Instagram, declaró que ese umbral era “muy, muy alto” en comparación con estándares de la industria. Además, los usuarios no contaban con una opción directa para denunciar material de abuso sexual infantil.
Prácticas ocultas y demoras en cambios clave
Otra situación destacada fue la falta de transparencia en los estudios internos sobre salud mental. Cuando el Senado de Estados Unidos solicitó información sobre la relación entre el uso de las plataformas y el aumento de síntomas de depresión y ansiedad en adolescentes, la empresa respondió que no tenía datos, omitiendo su propio estudio de desactivación.
En 2019, investigadores recomendaron que las cuentas de adolescentes fueran privadas por defecto para evitar interacciones con adultos desconocidos. Sin embargo, el equipo de crecimiento argumentó que la medida podía reducir el compromiso juvenil y la decisión se aplazó hasta 2024. Durante ese período se incrementaron las interacciones inapropiadas y la función “Cuentas que podrías seguir” llegó a sugerir 1,4 millones de adultos potencialmente inapropiados a menores en un solo día.
Los filtros de belleza también quedaron en el centro del análisis. Informes internos mostraron que aumentaban riesgos de insatisfacción corporal y trastornos alimentarios, especialmente en adolescentes. Aunque fueron prohibidos en 2019, se volvieron a habilitar un año después al observarse una caída en el crecimiento.
Cambios recientes y debate abierto
En 2024 la compañía incorporó nuevas herramientas de seguridad: cuentas privadas por defecto para adolescentes en Instagram, restricciones de contenido sensible, desactivación de notificaciones nocturnas y limitaciones para que adultos no conectados puedan enviar mensajes. Una portavoz señaló que estas medidas incluyen controles parentales obligatorios para menores de 16 años.
A pesar de estos anuncios, el informe presentado por los demandantes subraya que Meta se resistió durante años a ejecutar reformas que sus propios equipos de seguridad consideraban urgentes. La empresa, por su parte, rechaza buena parte de las acusaciones y sostiene que los documentos se han utilizado para construir una narrativa parcial. TIME aclaró que no pudo verificar de manera independiente los archivos, ya que continúan bajo secreto judicial.
La repetición de problemas, testimonios de exempleados y decisiones internas que quedaron expuestas han reforzado la percepción de que la protección de los adolescentes no habría sido una prioridad real para Meta, alimentando una discusión cada vez más intensa sobre el rol y la responsabilidad de las tecnológicas en la salud mental juvenil.
LEER: Efemérides del 26 de noviembre: los hechos más destacados del día



