Publicado el

Hoy enviamos al Ministerio TIC, junto a Dejusticia, la Fundación para la Libertad de Prensa (FLIP), El Veinte y el Centro de Internet y Sociedad de la Universidad del Rosario (ISUR), nuestros comentarios al proyecto de decreto que busca reglamentar la Ley 2489 de 2025 sobre entornos digitales sanos y seguros para niños, niñas y adolescentes. Compartimos el objetivo de proteger a esta población en Internet. Sin embargo, el texto propuesto deja abiertas serias preocupaciones desde una perspectiva de derechos humanos.

Como ha ocurrido con otras iniciativas similares, el riesgo es que, en nombre de la protección, se habiliten mecanismos de censura, vigilancia y recolección excesiva de datos que afectan la libertad de expresión, la privacidad y el acceso a información plural, incluso para los propios niños, niñas y adolescentes.

Un proceso de reglamentación sin participación efectiva

El proyecto de decreto se publicó para comentarios el 31 de diciembre, sin mesas de trabajo previas y con un proceso acelerado que limita la participación real de la sociedad civil. Esto resulta especialmente problemático tratándose de una regulación que impacta derechos fundamentales.

La participación no es un trámite: es una obligación constitucional. Reglamentar sin diálogo amplio debilita la legitimidad del decreto y reduce la calidad de la política pública.

De un enfoque de derechos a uno basado en “riesgos”

El decreto adopta un modelo de regulación basado en la gestión de riesgos y en la clasificación de contenidos. Trasladado sin ajustes al contexto colombiano, este enfoque puede generar más problemas de los que busca resolver.

La clasificación y el etiquetado de contenidos; con categorías amplias y ambiguas;  crean incentivos para la sobre-moderación. En la práctica, plataformas y servicios pueden terminar restringiendo contenidos legítimos para evitar sanciones, afectando expresiones artísticas, informativas, educativas o de protesta.

El etiquetado como forma de censura indirecta

Aunque el decreto contempla excepciones para contenidos educativos o informativos, no establece salvaguardas suficientes para evitar que el etiquetado derive en bloqueos, pérdida de visibilidad o eliminación automática.

Además, traslada la carga a las personas usuarias, quienes tendrían que demostrar que su contenido está protegido, en lugar de partir de la presunción de libertad de expresión. Esto fomenta la autocensura y afecta especialmente a periodistas, educadores y creadores de contenido.

Verificación de edad: más datos, más riesgos

El llamado “Modo Niña, Niño o Adolescente” presupone la determinación de la edad de las personas usuarias, pero el decreto no define qué mecanismos son aceptables ni prohíbe prácticas intrusivas.

La experiencia internacional muestra que no existen sistemas de verificación de edad que sean precisos, no invasivos y respetuosos de la privacidad. Sin límites claros, se incentiva el uso de documentos oficiales, biometría o inferencias algorítmicas, aumentando el riesgo de vigilancia y filtraciones de datos sensibles.

Diseño “seguro por defecto” y acceso a información

La limitación de sistemas de recomendación algorítmica para niños, niñas y adolescentes puede parecer protectora, pero aplicada de forma indiscriminada puede restringir el acceso a información diversa y relevante.

Reducir algoritmos no sustituye políticas de alfabetización digital. Sin transparencia ni gradualidad, estas medidas pueden crear entornos excesivamente controlados que no fortalecen la autonomía ni el pensamiento crítico.

Un sistema de monitoreo con riesgos de vigilancia

El Sistema Integral de Monitoreo y Evaluación propuesto genera dudas sobre su alcance y controles. El decreto no define con claridad qué datos se recolectan ni establece mecanismos de supervisión independiente.

Sin salvaguardas robustas, este sistema podría derivar en formas de monitoreo desproporcionado del comportamiento digital de niños, niñas y adolescentes.

El gran ausente: el diseño adictivo de las plataformas

Aunque el decreto menciona de manera marginal los riesgos de consumo, no aborda de forma estructural los diseños adictivos de plataformas digitales, como sistemas de recompensas, desplazamiento infinito y notificaciones persistentes.

Ignorar este problema deja intactas las dinámicas que más afectan el bienestar digital de niños y adolescentes, mientras la regulación se centra en el control del contenido y de las personas usuarias.

Un enfoque fragmentado que no protege

La experiencia internacional muestra que los enfoques centrados en la verificación de edad y en controles técnicos estrictos suelen ser fácilmente eludidos. En distintos países, estas medidas han incentivado el uso de VPN y la aparición de mercados informales de cuentas verificadas, exponiendo a niños, niñas y adolescentes a nuevos riesgos, como estafas, robo de datos y servicios inseguros. 

Lejos de fortalecer la protección, estos mecanismos pueden empujar a los usuarios más jóvenes a buscar atajos para acceder a contenidos o plataformas, debilitando los objetivos del decreto y generando efectos adversos sobre su seguridad y privacidad.

Conoce los comentarios completos en este documento:


Acompáñanos en @Karisma en X, Fundación Karisma en Facebook y YouTube, y @karismacol en Instagram y Tik Tok.

Si por algún motivo esta entrada no es accesible para tí, por favor escríbenos a comunicaciones@karisma.org.co y haremos los ajustes que estén a nuestro alcance para que puedas acceder al contenido.

Indícanos el título del contenido en el asunto del correo, por ejemplo: Proteger a niños, niñas y adolescentes sin sacrificar derechos: lo que preocupa del decreto que reglamenta la Ley 2489 de 2025.

Es fundamental poner el tema en la agenda y nutrir la conversación. ¿Trabajas en un medio de comunicación? Escríbenos a comunicaciones@karisma.org.co