ofcom

Ofcom presiona a tecnológicas por seguridad infantil

Ofcom, el regulador británico, propone nuevas medidas para evitar la viralización de contenidos ilegales y proteger a menores en plataformas como TikTok, Meta o Twitch.

La Oficina de Comunicaciones del Reino Unido (Ofcom) ha lanzado una nueva consulta pública para reforzar la seguridad en línea, especialmente la de los menores. Entre las medidas propuestas, se incluye impedir que contenidos ilegales se vuelvan virales, limitar las interacciones en transmisiones de niños y aplicar nuevas herramientas para detectar riesgos de forma proactiva.

Estas propuestas afectarían tanto a grandes empresas como Meta (propietaria de Instagram, Facebook y Threads), TikTok y Twitch, como a plataformas más pequeñas. En particular, Ofcom quiere impedir que se compartan o vean contenidos que representen daño físico en tiempo real o abusen de imágenes íntimas.

Oliver Griffiths, director del grupo de seguridad online de Ofcom, señaló que el objetivo es ir más allá de las reglas existentes para adaptarse a los peligros digitales emergentes. “Estamos exigiendo responsabilidades y actuando rápido cuando detectamos problemas”, dijo Griffiths.

Protección infantil, contenido ilegal y detección temprana

La propuesta se enfoca en tres frentes clave:

  • Evitar la viralización de contenidos ilegales. Esto implicaría que las plataformas tomen medidas más activas para detener la difusión de este tipo de material antes de que se propague.
  • Atacar el daño desde su origen. Algunas plataformas podrían estar obligadas a permitir que los usuarios denuncien transmisiones en directo si estas muestran situaciones de daño físico inminente.
  • Refuerzo de la protección infantil. Las plataformas con mayores riesgos para menores podrían tener que usar tecnología para detectar de manera anticipada contenido peligroso, como mensajes relacionados con autolesiones o incitación al suicidio.

Ofcom subraya que las medidas variarán según el tipo y tamaño de la plataforma. Por ejemplo, solo las más grandes estarían obligadas a utilizar tecnología proactiva en la protección de niños.

Críticas al alcance de la regulación

Pese a las intenciones de Ofcom, algunas voces cuestionan la ambición del regulador. Ian Russell, presidente de la Molly Rose Foundation, organización creada tras el suicidio de su hija tras ver contenidos de autolesión en redes, calificó las propuestas como insuficientes.

Russell advirtió que estos cambios “no solucionan las debilidades sistémicas de la Ley de Seguridad en Línea”. Según él, mientras no haya una intervención firme del gobierno para exigir a las tecnológicas que corrijan los fallos de sus plataformas, la regulación seguirá siendo ineficaz frente al nivel de daño actual.

Consulta abierta hasta octubre

La consulta pública estará disponible hasta el 20 de octubre de 2025. Ofcom espera recibir aportes de plataformas digitales, fuerzas del orden, organizaciones civiles y el público general.

Algunas empresas ya han comenzado a ajustar sus políticas. TikTok, por ejemplo, elevó la edad mínima para hacer transmisiones en vivo de 16 a 18 años, tras investigaciones que evidenciaron prácticas cuestionables. YouTube, por su parte, subirá ese límite a 16 años a partir de julio de 2025.

Estas acciones muestran un cambio de rumbo en la industria, aunque para muchos, aún queda camino por recorrer para asegurar un entorno digital verdaderamente seguro.