Somos una Fundación que ejercemos el periodismo en abierto, sin muros de pago. Pero no podemos hacerlo solos, como explicamos en este editorial.
¡Clica aquí y ayúdanos!
Kate Winslet recibió un premio Bafta por su papel en I am Ruth, película en la que interpreta a una madre cuya hija está atrapada en las redes sociales. En el momento de recoger el premio, el 15 de mayo de 2023, lanzó un mensaje contundente contra el dominio de las grandes plataformas: “Queremos recuperar a nuestros hijos”.
La actriz se dirigió a quienes, según ella, tienen la capacidad de frenar los peligros del mundo de internet. “Suplico —dijo— que acaben con los contenidos dañinos. Padecemos por la salud mental de nuestros hijos. Y pido a cualquier joven que esté escuchando, que sienta que está atrapado en un mundo que no es sano, que, por favor, pida ayuda. No hay vergüenza ninguna en admitir que se necesita apoyo; está ahí, simplemente pedidlo”.
Esta no era la primera vez que Winslet hablaba sobre el impacto de las redes sociales. En diciembre de 2022, la actriz denunció en una entrevista en la BBC que “la manipulación en la autoestima de los jóvenes llega hasta que pierden completamente el sentido de quiénes son, y no saben cómo comunicarse con sus amigos, incluso con sus familias, y eso les hace deprimirse. Obviamente es un problema grave. No, no dejes que tus hijos tengan un teléfono si son demasiado pequeños como para saber qué hacer con él”.
Una denuncia premonitoria
La conciencia sobre el daño que causan las redes en la salud mental de los adolescentes era cada vez mayor. Coincidiendo con las primeras declaraciones de Kate Winslet, la asociación que agrupa a las escuelas públicas de Seattle presentó una demanda judicial contra TikTok, YouTube, Facebook, Snapchat, Instagram y sus empresas matrices.
La denuncia alegaba que “los gigantes de las redes sociales han explotado con éxito los cerebros vulnerables de los jóvenes para su propio beneficio, utilizando tácticas psicológicas que han llevado a una crisis de salud mental en las escuelas […]. Esta crisis de salud mental no es un accidente —continúa la demanda—. Es el resultado de las elecciones deliberadas y las acciones afirmativas de los demandados para diseñar y comercializar sus plataformas de redes sociales para atraer a los jóvenes”.
En más de noventa páginas, la demanda ofrece citas extensas en apoyo de sus afirmaciones, incluidas encuestas que muestran que, entre 2009 y 2019, se produjo un aumento del 30% en el número de estudiantes de las Escuelas Públicas de Seattle que confesaron sentirse «tristes y sin esperanza». La denuncia desató una oleada masiva de litigios similares en todos los Estados Unidos, iniciando una larga batalla legal que aún sigue abierta.
La toma de conciencia sobre los efectos perjudiciales de las redes sociales ha evolucionado en estos años. El clima de desencanto y saturación se ha traducido en crecientes investigaciones sobre el efecto perverso de las redes sociales, que las comparan con el tabaco y el alcohol; investigaciones periódicas del Senado de Estados Unidos a las empresas de Silicon Valley; multas millonarias a estas empresas por parte de la Unión Europea; y problemas reputacionales de magnates de las grandes plataformas.
El coraje de Frances Haugen
Las plataformas son cada vez más conscientes de la mirada crítica que reciben por parte de los ciudadanos. Y, también, por parte de sus propios empleados y, en especial, de sus antiguos trabajadores. Uno de los casos más notables lo protagonizó Frances Haugen, quien denunció que “Facebook antepone sus beneficios a la seguridad de sus usuarios y oculta que sus plataformas son nocivas para los menores, fomentan la división social y debilitan la democracia” ante el subcomité de Protección al Consumidor, Seguridad de Productos y de Datos del Senado de Estados Unidos, el 5 de octubre del 2021.
Haugen había comenzado a trabajar en Facebook como responsable de producto en 2019. Pero abandonó la compañía porque, según los documentos entregados a la comisión, “Facebook ha engañado al público de forma repetida sobre lo que su propia investigación revela acerca de la seguridad de los niños, la eficacia de su inteligencia artificial y su papel para expandir mensajes divisorios y extremistas”.
“Facebook sabe —explicó Haugen ante los senadores— que el contenido que provoca una reacción extrema tiene mayor probabilidad de lograr un clic, un comentario o que alguien lo comparta”. Esta estrategia —advirtió— hace que los menores “estén más expuestos a un contenido que promueve la anorexia, al igual que puede alimentar la violencia étnica”. En algunos casos, insistió, “esta conversación online peligrosa ha desembocado en violencia real que daña e incluso mata a gente”. Haugen se mostró “muy preocupada” por la seguridad nacional a la luz de cómo funciona Facebook, ya que, avisó, “no dota de personal suficiente a sus unidades dedicadas a prevenir los mensajes que instigan el terrorismo o el espionaje”.
Una demanda pionera contra Meta
El testimonio de Frances Haugen fue clave para que el malestar contra las plataformas alcanzara su cénit cuando, el 24 de octubre del 2023, los fiscales generales de 41 estados de Estados Unidos demandaron a Meta, empresa matriz de Facebook, Instagram, WhatsApp o Messenger, “por desarrollar productos diseñados conscientemente para enganchar a niños, pese a declarar la compañía que sus redes sociales son seguras para los menores”.
Este proceso se sumaba a una cascada de pleitos, dos centenares de ellos agrupados en una demanda colectiva, presentados por particulares e instituciones educativas del país contra varias redes sociales (Facebook e Instagram, de Meta, pero también Snapchat, TikTok y YouTube) por afectar a la salud mental de los jóvenes.
La acción coordinada de estos 41 estados, 33 de ellos agrupados en una sola demanda conjunta, acaba de entrar en la fase de juicio oral. Empiezan a celebrarse los primeros juicios en tribunales de California y otros estados, donde Meta, junto con TikTok y YouTube, se enfrenta a acusaciones de diseñar plataformas adictivas que dañan la salud mental de menores.
En el texto de la demanda, los fiscales generales explicitan que presentan la demanda “en defensa del interés público y para evitar e impedir efectos adversos de las prácticas de la empresa”. Estos son los puntos clave de la demanda:
El argumento central de la demanda se basa en el engaño al consumidor, el “desprecio por el bienestar” del mismo y de la “salud física y mental del usuario menor de edad”, así como en la “violación intencionada y a sabiendas de las leyes de protección al consumidor y de protección a la privacidad de los menores”. Meta, dice el texto de la demanda, “ha engañado al público sobre los peligros sustanciales de las redes sociales y ha decidido ignorar los daños que causan a la salud mental y física de la juventud”.
Meta ha creado un modelo de negocio para Facebook e Instagram pensado, dice la demanda, para maximizar el tiempo que los jóvenes invierten en estos servicios y la atención que dedican a las plataformas. “Ha diseñado y diseminado un producto con características dañinas y que manipulan psicológicamente a los menores con el fin de que su uso de las plataformas sea extendido en el tiempo y compulsivo, cuando, al mismo tiempo, han asegurado en público que dichas características (o prestaciones) son seguras y apropiadas para los menores”.
La demanda afirma que para potenciar su negocio, Meta implementa “el scroll infinito, el contenido efímero, la reproducción automática, la cuantificación y visualización de ‘Me gusta’ y las alertas perturbadoras, todas ellas utilizadas de forma injusta y/o desmedida para extraer tiempo y atención de usuarios jóvenes cuyos cerebros en desarrollo no están preparados para resistir estas tácticas manipuladoras (…) Meta explota de manera injusta y/o desmedida las vulnerabilidades psicológicas de los usuarios jóvenes y cultiva una sensación de ‘miedo a perderse algo’ con el fin de inducir a los usuarios jóvenes a pasar más tiempo en las redes del que de otro modo elegirían”.
La demanda especifica que Meta usa los algoritmos “de acuerdo con ‘programas de refuerzo variable’, manipulando así la liberación de dopamina en los usuarios jóvenes, induciéndolos de manera injusta o desleal a usar repetidamente sus productos, como un jugador en una máquina tragaperras”.
Otra de las claves del proceso tiene que ver con la privacidad. “Meta recopiló información personal de usuarios menores de 13 años de Instagram y Facebook sin obtener primero el consentimiento verificable de los padres, lo que violó la normativa estadounidense. Esa recolección se hizo de manera ilícita y sin que medie consentimiento de los padres”. Meta “se niega a limitar la recolección y uso de los datos personales a pesar de que la ley se lo prohíbe, y no ha hecho nada por obtener el consentimiento de los padres para recolectar y monetizar los datos personales de los menores”.
Los fiscales reprochan a Meta que se niegue a abandonar “las características de sus servicios que resultan dañinas” y persista “en su esfuerzo por falsear, ocultar y minimizar el impacto de sus productos en la salud mental y física de los jóvenes”. No solo eso, sino que pretende “expandir el uso de estas prácticas ilegales y dañinas a otros productos y plataformas (Whastapp, Menssenger y el metaverso)”.
Europa: “TikTok es adictivo”
De forma prácticamente paralela a la investigación sobre Meta, fiscales generales de cuarenta estados de EE.UU. también abrieron una investigación sobre TikTok, la red social de mayor progresión entre los jóvenes. El proceso también se encuentra a las puertas de la vista oral. Mientras, la Comisión Europea considera que “TikTok incumple la Ley de Servicios Digitales por su diseño adictivo. Esto incluye características como desplazamiento infinito, reproducción automática, notificaciones push y su sistema de recomendación altamente personalizado”.
La investigación preliminar de la Comisión indica que TikTok “no evaluó adecuadamente cómo estas características adictivas podrían dañar el bienestar físico y mental de sus usuarios, incluidos menores y adultos vulnerables”. Por ejemplo, cita la Comisión, al «recompensar» constantemente a los usuarios con nuevos contenidos. Ciertas características de diseño de TikTok alimentan la necesidad de seguir desplazándose y cambiar el cerebro de los usuarios al “modo piloto automático”. La investigación científica muestra que esto puede conducir a un comportamiento compulsivo y reducir el autocontrol de los usuarios, denuncia la Comisión.
El 25 de agosto de 2023 entró en vigor la primera legislación que intenta poner freno al poder absoluto de las grandes plataformas: la Ley de Servicios Digitales (DSA) de la Unión Europea, que afecta directamente a las diecinueve mayores plataformas digitales operativas en territorio europeo (entre ellas Facebook, Instagram, Telegram, TikTok o Twitter) y a los gigantes comerciales (como Amazon, Zalando o AliExpress). Esta ley tiene como prioridad luchar contra la propagación de la desinformación o el ciberacoso, y proteger mejor a los menores en las redes sociales.
La DSA conlleva, por lo tanto, que las plataformas deberán detectar y retirar inmediatamente contenidos nocivos que vulneren derechos esenciales. También deberán facilitar a las autoridades el acceso al funcionamiento de sus algoritmos. Las nuevas reglas prohíben la publicidad dirigida a niños, así como el uso de cualquier requisito que acredite su identidad. Por otro lado, la ley veta los datos confidenciales, como religión, género, raza y opiniones políticas, además de todos los métodos para conseguir, con engaños, datos personales de los usuarios de internet.
Es una paradoja que China, mientras expande TikTok en todo el mundo, considere que la adicción a las redes por parte de los menores ya es una “preocupación nacional”. El Gobierno ha implantado sistemas operativos, aplicaciones y apps con una nueva función denominada “modo para menores”, bajo la cual se crea un sistema de clasificación de contenidos basado en la edad y establece límites de tiempo de uso de los terminales inteligentes: limita el acceso a internet para menores de 18 años a un máximo de dos horas diarias y prohibe la conexión entre las diez de la noche y las seis de la mañana. Las medidas incluyen límites de tiempo según la edad y contenido educativo o de “valor socialista” (sic).
Contra la desinformación en YouTube
En el combate contra la mentira juegan un papel primordial entidades de verificación, nacidas de la sociedad civil y sin ánimo de lucro. Más de ochenta de ellas, de más de cuarenta países, publicaron el 12 de diciembre de 2021 una Carta abierta a la CEO de YouTube de los fact-checkers del mundo, pidiendo a la compañía propiedad de Google que se tomen medidas contra “el grave problema que supone la desinformación en su plataforma”. La carta denunciaba “el papel protagonista que ha tenido YouTube en la organización de redes coordinadas de difusión de desinformación […] que usaron la plataforma para mentir, tejer alianzas y recaudar dinero”.
Las entidades de verificación rechazaban los intentos de YouTube de enmarcar este debate como una falsa elección entre borrar o no borrar vídeos. Como alternativa, proponían que Google se comprometiera a “ejercer una transparencia significativa sobre cómo se mueve la desinformación en la plataforma”. Que actuara contra “los infractores reincidentes que producen contenidos constantemente marcados como desinformación e impedir que sus vídeos sean recomendados o promocionados por sus algoritmos”. Y ampliar estos esfuerzos “a las lenguas distintas del inglés y proporcionar datos específicos para los diferentes países e idiomas, así como servicios de transcripción eficaces”.
Los firmantes de la carta se ofrecían a ayudar a YouTube “a poner en práctica esas soluciones y hacer de la plataforma un lugar donde sea mucho más difícil que la desinformación y la información errónea se conviertan en armas contra sus usuarios”. Google respondió diciendo que ha tomado medidas contra la desinformación sobre vacunas, elecciones y teorías de la conspiración, eliminando canales y vídeos infractores. Las entidades de verificación insisten en que YouTube sigue siendo un campo de desinformación.


