A la Comisión le preocupa que Facebook e Instagram “puedan estimular adicciones” en los niños y que generen entre ellos “efectos de madriguera de conejo” que alteren su percepción de la realidad.
Por El País
La Comisión Europea ha abierto hoy un procedimiento formal para evaluar si Meta, empresa matriz de Facebook e Instagram, puede haber infringido la Ley de Servicios Digitales (DSA) al no proteger adecuadamente a los usuarios menores de edad. Más concretamente, Bruselas teme que los algoritmos de las redes sociales estrella de Meta “puedan estimular adicciones al comportamiento en los niños, así como los denominados efectos de madriguera de conejo”, es decir, que validen como reales los montajes y bulos que circulan por sus redes.
“No estamos seguros de que Meta haya hecho suficiente para cumplir con las obligaciones del DSA relativas a mitigar los efectos negativos en la salud física y mental de los jóvenes europeos”, ha dicho hoy en la red X el Comisario Europeo de Mercado Interior, Thierry Breton. La compañía ha respondido en un comunicado que su intención es que los jóvenes tengan experiencias en línea seguras y adecuadas a su edad. “Llevamos una década desarrollando más de 50 herramientas y políticas diseñadas para protegerlos. Se trata de un reto al que se enfrenta todo el sector, y estamos deseando compartir los detalles de nuestro trabajo con la Comisión Europea”.
La apertura del procedimiento se produce tras haberse concluido el análisis preliminar del informe de evaluación de riesgos enviado por Meta en septiembre de 2023, tal y como obliga la DSA, y de las respuestas aportadas por la compañía a propósito de las solicitudes formales de información de la Comisión sobre la protección de los menores y la metodología de la evaluación de riesgos.
Bruselas sospecha que el propio diseño de Facebook e Instagram podría “aprovechar las debilidades y la inexperiencia de los menores y provocar comportamientos adictivos”. La Comisión quiere también asegurarse de que Meta tiene herramientas apropiadas de verificación de edad. Sus primeras pesquisas establecen que podrían “no ser razonables, proporcionadas y eficaces”.
En tercer lugar, las autoridades europeas quieren verificar que las plataformas de Meta garanticen un alto nivel de privacidad, seguridad y protección de los menores.
Los posibles daños que causan las plataformas en la salud mental de los menores es el principal quebradero de cabeza al que se enfrentan los ejecutivos de la empresa que dirige Mark Zuckerberg. Lo que hasta 2021 era solo una sensación extendida entre padres de usuarios jóvenes ganó peso a raíz de las revelaciones de Frances Haugen, una exempleada de Facebook que filtró miles de documentos que probaban que los directivos de Instagram sabían de los efectos perjudiciales de la red social entre los y las menores.
Meta se enfrenta en EE UU a una cascada de demandas de familias afectadas y a la denuncia de los Fiscales Generales de 41 Estados al considerar que Facebook e Instagram se “aprovechan del dolor de los niños” para hacer negocio. El resultado de este tsunami de pleitos podría provocar un cambio radical en el aspecto y la dinámica de las redes sociales.
La Comisión investigará de forma exhaustiva el cumplimiento o no de estos preceptos de la DSA por parte de Meta. La compañía fue incluida en abril de 2023 entre las grandes plataformas que entran en la jurisdicción del DSA (las que tienen más de 45 millones de usuarios activos mensuales en la UE).
El procedimiento anunciado hoy se suma al abierto el pasado 30 de abril por falta de control en los contenidos políticos ante las elecciones europeas y “publicidad engañosa”. Bruselas lleva meses advirtiendo a las grandes plataformas de que extremen las precauciones para que los comicios de junio no sean un coladero de desinformación e injerencias extranjeras.
“La Comisión sospecha que Meta no cumple las obligaciones del reglamento relacionadas con la lucha contra la difusión de anuncios engañosos, campañas de desinformación y comportamientos no auténticos coordinados en la UE. La proliferación de tales contenidos puede suponer un riesgo para el discurso cívico, los procesos electorales y los derechos fundamentales, así como para la protección de los consumidores”, dijo entonces el Ejecutivo europeo en un comunicado oficial.