Un jurado en California acaba de cambiar internet para siempre
Lo de Meta sienta un precedente y, aunque se demore, la historia de internet y de las redes sociales va a cambiar por completo de ahora en adelante. Los papás celebramos
Esta semana, un jurado en Los Ángeles declaró a Meta y a YouTube culpables de haberle arruinado la salud mental a una mujer que hoy tiene 20 años y se identifica en los documentos judiciales como K.G.M1. Empezó a usar YouTube a los seis años, creó una cuenta de Instagram a los nueve, y para la adolescencia pasaba hasta 16 horas diarias en redes sociales.
Terminó con depresión severa, pensamientos de autolesión y dismorfia corporal que ella y su equipo legal atribuyen directamente a los filtros de belleza y al algoritmo de recomendaciones de Instagram. El jurado deliberó 44 horas durante nueve días, y cuando salió, le dio la razón: Meta y YouTube actuaron con negligencia, y lo hicieron con lo que la ley estadounidense llama “malicia, opresión o fraude”. US$6 millones en daños totales, US$4.2 millones para Meta y US$1.8 millones para YouTube2
Los US$6 millones no son lo importante. Esa es la caja menor de la caja menor de la caja menor de compañías con el tamaño de mercado de Meta y YouTube. Lo que va a cambiar la industria entera es la teoría legal que usaron para llegar ahí.
No demandaron por el contenido, demandaron por el diseño
Históricamente, demandar a una plataforma de redes sociales era prácticamente imposible. La Sección 230 de la Communications Decency Act protege a las plataformas de cualquier responsabilidad por lo que sus usuarios publican. Es la razón por la que Facebook no responde legalmente si alguien sube contenido de odio, y la razón por la que YouTube no va preso cuando un video promueve teorías conspirativas. La Sección 230 ha sido el escudo blindado de Silicon Valley durante décadas.
Los abogados de K.G.M. hicieron algo que nadie había logrado antes: le dieron la vuelta al escudo. En vez de demandar por el contenido que K.G.M. vio en las plataformas, demandaron por cómo las plataformas están diseñadas3 El scroll infinito que elimina cualquier punto natural de parada. La reproducción automática que te mete el siguiente video antes de que puedas decidir si querés seguir viendo. Las notificaciones calibradas para generarte ansiedad y obligarte a volver. El sistema de likes que crea un loop de dopamina idéntico al de una máquina tragamonedas. Los filtros de belleza que le hacen pensar a una niña de nueve años que su cara no es suficiente.
La jueza Carolyn Kuhl lo estableció en una decisión previa al juicio en noviembre de 2025 cuando creó una distinción que va a terminar en los libros de texto de derecho tecnológico: las funciones que tienen que ver con publicar contenido (protegidas por la Sección 230) son una cosa, y las funciones de diseño que determinan cómo te enganchan, cuánto tiempo te quedás y qué tan difícil es irse son otra completamente diferente. Esas funciones de diseño son un producto, y como cualquier producto, pueden ser defectuosas. Exactamente igual que unos frenos que fallan en un carro o un medicamento con efectos secundarios que el fabricante conocía y no reportó.
Meta sabía
Lo que el jurado vio durante siete semanas de juicio incluye documentos internos que Meta produjo. Sus investigadores encontraron que Instagram empeoraba los problemas de imagen corporal en una de cada tres adolescentes. Un 13.5% de las adolescentes en el Reino Unido reportaron pensamientos suicidas más frecuentes vinculados al uso de Instagram. Un 17% experimentó agravamiento de trastornos alimenticios. Hay un documento interno que dice, textualmente:
“Si queremos ganar en grande con los adolescentes, tenemos que traerlos como preadolescentes.”
Otro estudio interno mostró que los niños de 11 años tenían cuatro veces más probabilidad de seguir usando Instagram que aplicaciones de la competencia, a pesar de que la plataforma supuestamente requiere tener 13 para crear una cuenta.
Mark Zuckerberg testificó. Adam Mosseri, el jefe de Instagram, testificó. Cristos Goodrow, vicepresidente de ingeniería de YouTube, testificó. Mosseri dijo que cree que el uso de redes sociales puede ser “problemático” pero no “clínicamente adictivo”. El jurado, claramente, no estuvo de acuerdo.
La respuesta oficial de Meta después del veredicto fue que “la salud mental de los adolescentes es profundamente compleja y no se puede vincular a una sola aplicación”.¹¹ YouTube dijo que el caso “malinterpreta YouTube, que es una plataforma de streaming responsable, no una red social”. Ambos van a apelar. Van a perder tiempo y dinero apelando, porque lo que se viene es mucho más grande que un caso.
El momento Big Tobacco de la tecnología
Un día antes de este veredicto, un jurado en Nuevo México le ordenó a Meta pagar US$375 millones en un caso de seguridad infantil presentado por el fiscal general del estado, el máximo permitido por la ley estatal a US$5,000 por violación. La fase dos de ese juicio empieza el 4 de mayo, donde un juez va a determinar si Meta creó una “molestia pública” y debería financiar programas para reparar el daño.
Hay más de 10,000 demandas individuales por lesiones personales. Cerca de 800 distritos escolares en todo Estados Unidos han demandado. 42 fiscales generales estatales tienen casos abiertos contra Meta. En el litigio multidistrital federal (MDL 3047), administrado por la jueza Yvonne Gonzalez Rogers en San Francisco, hay 2,407 reclamaciones pendientes. Tribus nativas americanas se han sumado. Los juicios federales de los casos piloto empiezan en junio de este año.
“Este es el momento Big Tobacco de las redes sociales. El daño que estas compañías causan intencionalmente a los niños se ha probado en un tribunal.” - Sarah Gardner, directora ejecutiva de Heat Initiative
La comparación con el tabaco no es metáfora. Es la misma estructura: conocimiento interno del daño, selección deliberada de menores como público objetivo, negación pública sistemática, y gasto millonario en lobby para evitar regulación. La industria tabacalera terminó pagando US$206,000 millones en el Master Settlement Agreement de 1998. Jonathan Haidt, autor de The Anxious Generation, estima que si menos del 1% de los niños en Estados Unidos fueron impactados por estas plataformas, la responsabilidad total podría superar el billón de dólares (un millón de millones). Frances Haugen, la exempleada de Facebook que filtró decenas de miles de documentos internos en 2021, dijo que estos fallos podrían ser el punto de quiebre que finalmente obligue a las empresas a cambiar su comportamiento.
Ya hay países sentando precedentes
Australia fue el primer país en prohibir redes sociales para menores de 16 años en diciembre de 2025, con multas de hasta 50 millones de dólares australianos para las plataformas que no cumplan. Meta tuvo que bloquear más de 500,000 cuentas de menores de 16. Francia aprobó una prohibición para menores de 15 en enero de este año. Malasia prohibió el acceso a menores de 16 desde el 1 de enero. Brasil implementó verificación de edad y controles parentales para menores de 16 en marzo. Indonesia acaba de hacer lo mismo esta semana. Austria, Dinamarca, España, Alemania, Noruega, Eslovenia, Grecia y el Reino Unido están en diferentes etapas de legislación similar.
En Estados Unidos, donde la regulación federal avanza más lento porque el lobby tecnológico es descomunal, los estados están actuando por su cuenta. Nueva York y California prohibieron la entrega algorítmica de contenido a menores sin consentimiento parental. Virginia limita a una hora diaria el uso de redes sociales para menores de 16 sin autorización de los padres.
Los que trabajamos en tecnología sabemos hace rato que estas plataformas están diseñadas para crear adicción. Sabemos cómo funcionan las recompensas variables, el scroll infinito, la validación social cuantificada. Es la razón por la que en mi casa los niños menores de 16 años no van a tener celular. Es la razón por la que aplaudo cada vez que un país prohíbe redes sociales para menores y cada vez que un colegio las saca de sus aulas.
¿Y ahora?
¿Qué pasa cuando diseñar una aplicación para enganchar niños se vuelve legalmente equivalente a venderles cigarrillos? Va a cambiar el modelo de negocio, va a cambiar el producto, va a cambiar la regulación. Va a haber mucho más control sobre el diseño desde la fuente, no solo sobre el contenido.
Si tenés hijos, sobrinos, o simplemente sos un adulto que desbloquea el celular 150 veces al día sin saber por qué, esto te afecta directamente. Para que cambie se va a demorar, los procesos judiciales y legislativos toman años, pero este es uno de los fallos más importantes en la historia de la tecnología y una de las decisiones que más impacto va a tener sobre padres, familias, y sobre todos nosotros que llevamos en el bolsillo una máquina diseñada para que no la podamos soltar.



