El negocio más rentable de Silicon Valley son tus hijos
En algunos casos, Meta, TikTok y compañías similares probablemente saben más de tus hijos que vos
El 9 de febrero de 2026, el fiscal general de Nuevo México, Raúl Torrez, abrió el primer juicio estatal contra Meta que llegó ante un jurado. Se celebró en Santa Fe, ante el juez Bryan Biedscheid, con 18 personas en el jurado y una duración estimada de entre seis y ocho semanas. Es el primero de más de 40 demandas estatales contra la empresa.1
El testigo estrella ha sido Arturo Béjar, exdirector de ingeniería de Facebook entre 2009 y 2015, y consultor de Instagram entre 2019 y 2021. Su testimonio incluyó una frase que produjo un silencio audible en la sala:
“El producto es muy bueno conectando personas con intereses, y si tu interés son las niñas pequeñas, será muy bueno conectándote con niñas pequeñas.”
En 2021, Béjar llevó datos de encuestas internas a Mark Zuckerberg, Sheryl Sandberg y Adam Mosseri. Esas encuestas mostraban que el 19.2% de menores de 13 a 15 años había sido expuesto a desnudos en Instagram en la semana previa, y que aproximadamente el 13% había recibido insinuaciones sexuales no solicitadas. Chris Cox, jefe de producto, ya conocía las cifras. La respuesta fue insuficiente.2
El caso de Nuevo México también documentó algo que revela la fragilidad estructural del sistema: Christopher Reynolds, un depredador sexual registrado de 47 años, operaba 15 cuentas distintas en la plataforma después de que Meta desactivara la primera. Los investigadores demostraron que crear una cuenta nueva con el mismo nombre y fecha de nacimiento toma cinco minutos.1
En paralelo, el juicio en Los Ángeles —caso KGM— se convirtió en la primera vez que Zuckerberg testificó ante un jurado sobre seguridad infantil, el 18 de febrero de 2026. Documentos internos revelaron que Instagram buscaba activamente aumentar el tiempo de uso diario de los adolescentes a 40 minutos en 2023 y 46 minutos en 2026. Otros documentos contenían frases como “IG es una droga... básicamente somos dealers” y “Los adolescentes están enganchados a pesar de cómo los hace sentir.” Eso no es un desliz interno. Es estrategia documentada.2
TikTok y Snap llegaron a acuerdos extrajudiciales antes del inicio de los juicios. El resultado de Santa Fe podría influir en aproximadamente 1,600 demandas similares pendientes. Las comparaciones con los juicios contra Big Tobacco en los noventa son inevitables y no son retóricas: en ambos casos, la industria tenía estudios internos que confirmaban el daño y eligió las ganancias.1
Lo que llegó con la IA generativa
Mientras los juicios se desarrollan, la tecnología avanzó en una dirección que nadie anticipó con suficiente seriedad. Entre el 29 de diciembre de 2025 y el 8 de enero de 2026, Grok —el chatbot de xAI integrado en X— generó más de 3 millones de imágenes sexualizadas, de las cuales aproximadamente 23,000 representaban menores de edad.
La Internet Watch Foundation documentó que los videos de abuso sexual infantil generados por IA pasaron de 13 casos en 2024 a 3,440 en 2025: un incremento de 263 veces en doce meses. Los reportes al NCMEC relacionados con IA generativa se dispararon de 6,835 a 440,419 en solo seis meses.3
En febrero de 2025, la Operación Cumberland de Europol se convirtió en la primera gran operación policial contra pornografía infantil generada por IA. Se identificaron 273 sospechosos, se arrestaron 25 personas y se realizaron 33 registros domiciliarios en 19 países. El principal sospechoso, un ciudadano danés, administraba una plataforma que distribuía material de abuso sexual infantil creado íntegramente con inteligencia artificial.4
La extorsión sexual alcanzó niveles epidémicos en paralelo. El NCMEC recibió casi 100 reportes diarios de extorsión sexual financiera durante 2024, más de 33,000 casos anuales. Desde 2021, al menos 36 adolescentes varones se suicidaron tras ser víctimas de este delito. Los depredadores pueden llevar a un menor a una conversación de alto riesgo en un promedio de 45 minutos desde el primer mensaje —hay documentación de casos que ocurrieron en 19 segundos.3
Las cifras de México y Colombia
El 23% de los adolescentes mexicanos de 12 a 17 años con acceso a internet experimentaron alguna forma de ciberacoso según datos del INEGI (encuesta MOCIBA 2024) analizados por REDIM, lo que equivale a 2,963,905 jóvenes. Adicionalmente, 534,300 adolescentes mexicanos recibieron fotos o videos sexuales no solicitados a través de internet o teléfono. El promedio de uso de internet en ese grupo es de 4.5 horas diarias.5
En Colombia, la Policía Nacional reportó un aumento del 98% en casos de explotación sexual comercial de niños en 2024, alcanzando 365 casos —uno por día— con el 82% de víctimas siendo niñas. Solo en Bogotá se documentaron 838 casos de violencia digital contra menores en 2024, un incremento del 58% respecto al año anterior.5
Estos datos no circulan en los medios con la frecuencia que deberían. Eso también es parte del problema.
El diseño adictivo no fue un accidente
Vivek Murthy, excirujano general de Estados Unidos, emitió en 2023 una advertencia oficial sobre redes sociales y menores. Los adolescentes que pasan más de tres horas diarias en redes sociales enfrentan el doble de riesgo de síntomas de depresión y ansiedad. El promedio actual es de 4.8 horas diarias según Gallup (2023), con las adolescentes llegando a 5.3 horas. Según Pew Research Center (2024), el 46% de los adolescentes está conectado “casi constantemente”, casi el doble del 24% registrado en 2015.6 7
Un estudio de UT Southwestern publicado en 2025 en el Journal of Affective Disorders encontró que el 40% de los jóvenes con depresión e ideación suicida reportaron uso problemático de redes sociales. La investigación interna de Meta filtrada en 2021 admitía que sus plataformas empeoraban los problemas de imagen corporal para una de cada tres adolescentes.2
El mecanismo detrás de todo esto está bien documentado: scroll infinito, reproducción automática, notificaciones instantáneas, recompensas variables diseñadas con la misma lógica que las máquinas tragamonedas. Un estudio de Common Sense Media (2023) con monitoreo real de dispositivos reveló que los adolescentes reciben una mediana de 237 notificaciones diarias —algunos hasta 5,000. El 59% usa el teléfono entre medianoche y las 5 de la mañana en noches de colegio. La Comisión Europea ya determinó preliminarmente que el diseño de TikTok viola la Ley de Servicios Digitales por constituir “diseño adictivo.”
Se viene una ola legislativa
Australia se convirtió en diciembre de 2025 en el primer país del mundo en implementar una prohibición de redes sociales para menores de 16 años. En las primeras semanas, más de 4,7 millones de cuentas de menores fueron desactivadas, con multas para plataformas incumplidoras de hasta AU$49,5 millones de dólares australianos.
El 3 de febrero de 2026, el presidente español Pedro Sánchez anunció la misma prohibición para menores de 16, con verificación de edad obligatoria y la posibilidad de responsabilidad penal personal para ejecutivos de plataformas que no retiren contenido ilegal. Francia aprobó en enero de 2026 una prohibición para menores de 15.4
En Estados Unidos, la ley TAKE IT DOWN, firmada en mayo de 2025, criminalizó por primera vez la publicación de imágenes íntimas no consensuales generadas por IA, con penas de hasta 3 años para casos que involucren menores. La Comisión Europea abrió una investigación formal contra X por no evaluar los riesgos de Grok, con multas potenciales de hasta el 6% de la facturación mundial.
La verificación de edad tiene límites claros. Cerca del 40% de los niños de 8 a 12 años en EE.UU. ya usan redes sociales pese a los requisitos de edad mínima. En Florida, tras la implementación de su prohibición, la demanda de VPNs aumentó 1,150%.10 La legislación llega tarde y no llega sola.
Lo que la evidencia dice que funciona
La investigación es consistente en un punto que contradice el instinto de muchos padres: la comunicación abierta es el factor protector más poderoso, más efectivo que cualquier herramienta tecnológica. Según datos de FOSI/Ipsos (2025), el 89% de los niños dice sentirse cómodo acudiendo a sus padres si algo en internet los hace sentir inseguros. El problema es que solo el 39% de los menores que enfrentan amenazas cibernéticas realmente se lo dice a sus padres. Cerrar esa brecha es la tarea más urgente.4
Un metaanálisis de la London School of Economics examinó 40 estudios sobre controles parentales y encontró resultados mixtos: 17 estudios mostraron beneficios, pero ocho encontraron resultados adversos, incluyendo mayor conflicto familiar y desconfianza. La clave está en la implementación. Los controles parentales funcionan cuando se combinan con diálogo. Cuando los hijos descubren monitoreo en secreto, los estudios muestran un deterioro sostenido de la confianza que lleva a mayor secretismo, exactamente el resultado opuesto al que se busca.9
La Academia Americana de Pediatría publicó en febrero de 2026 su nueva política “Ecosistemas Digitales, Niños y Adolescentes”, abandonando las recomendaciones simplistas de límites de tiempo para adoptar un modelo más complejo y contextual.
Lo que me parece interesante es que UNICEF refuerza esa posición: impedir que los niños estén en línea puede socavar el desarrollo de sus habilidades mientras hace poco por proteger su salud mental. Save the Children recomienda que los niños nunca teman perder acceso a sus dispositivos por reportar un problema, precisamente para mantener abiertos los canales de comunicación.8
Las herramientas más efectivas en 2025-2026 incluyen Bark —que usa IA para monitorear más de 24 plataformas y enviar alertas sobre ciberbullying, extorsión sexual o señales de depresión— junto con Qustodio, Google Family Link y los controles nativos de Apple Screen Time. Considero que ninguna reemplaza la conversación. Son complementos de un ecosistema de confianza, no sustitutos de él.
Las señales de alerta que vale conocer: secretismo repentino sobre actividades en línea, posesividad extrema con dispositivos, uso de lenguaje sexual inesperado para la edad del menor, regalos o dinero de personas desconocidas, cambios bruscos de comportamiento, y uso del teléfono entre medianoche y las 5 de la mañana en noches de colegio.
El momento de actuar
Los juicios de 2026 contra Meta están haciendo por la seguridad digital infantil lo que los juicios contra Philip Morris hicieron por el tabaco en los noventa: poner en evidencia pública que las empresas conocían el daño y eligieron las ganancias. La diferencia es que el tabaco afectaba principalmente a quienes lo consumían por decisión propia. Las plataformas de redes sociales alcanzaron a los hijos de todos.
Mientras los tribunales y los legisladores trabajan, la evidencia apunta a cinco pilares de acción inmediata para cualquier padre: comunicar sin juzgar para ser un refugio seguro, co-navegar la tecnología junto con los hijos en lugar de delegarla, implementar controles con transparencia y nunca en secreto, cultivar alfabetización digital enseñando a reconocer grooming, extorsión sexual y deepfakes, y calibrar la estrategia constantemente a medida que el hijo madura. La restricción total no funciona y los datos lo demuestran. El acompañamiento inteligente, con herramientas y conversación, sí.
Si estás construyendo en la intersección de tecnología y mundo real —como la mayoría de los que leen esto— vale la pena entender estos fenómenos no solo como padre, sino como operador. La IA que está detrás de las amenazas que describí en este artículo es la misma que está redefiniendo cada industria.
En NEXT trabajamos exactamente eso: cómo los emprendedores y ejecutivos de LATAM pueden entender y usar estas herramientas antes de que las herramientas los reemplacen a ellos, y cómo construir con tecnología herramientas que sean beneficiosas para la sociedad, y no herramientas que estén allí con el único propósito de generar valor a los inversionistas, mientras nuestros hijos corren peligro.
¿Cuándo fue la última vez que tuviste una conversación real con tus hijos sobre lo que hacen en internet, más allá de preguntarles si ya terminaron la tarea?
¿Cuántas de las señales de alerta que describí en este artículo estarías en condición de detectar hoy en tu casa?
¿Estás usando IA en tu empresa con la misma profundidad con la que las plataformas la están usando para enganchar a tus hijos?
¿Qué porcentaje de tu estrategia como padre tiene la misma rigurosidad que tu estrategia como operador?
Source New Mexico — Juicio Meta, Santa Fe, febrero 2026
metasinternalresearch.org — Investigación interna Meta
World Economic Forum — Emerging harms digital world 2025
HHS — Surgeon General advisory, redes sociales y salud mental
Pew Research Center — Teens, social media and technology 2024
Taylor & Francis / LSE — Metaanálisis controles parentales
Skadden — TAKE IT DOWN Act, mayo 2025



Soy padre, aunque mis hijos estan pequeños, y estoy muy al tanto de estos temas, muchas gracias por el post y por NEXT
Muy pertinente tu artículo. En el libro - La generación ansiosa de Jonathan Haidt, relacionan un gráfico donde demuestran un punto de inflexión donde existe un aumento en las enfermedades mentales ( depresión ,ansiedad) que se correlaciona con los cambios en los algoritmos en las redes sociales. Por otro lado, hay países como Australia que han tenido la audacia de desarrollar e implantar políticas que buscan regular el uso de smartphones en los Centros Educativos y en ciertas edades. Aún hay posibilidades de hacer algo.