En los últimos meses, Telegram, la popular aplicación de mensajería, ha estado bajo un intenso escrutinio tras el arresto de su fundador y CEO, Pavel Durov, en Francia. Durov enfrenta cargos de complicidad en actividades ilícitas, incluyendo tráfico de drogas, fraude y la difusión de material de abuso sexual infantil. Este evento ha encendido un debate sobre la moderación en la plataforma, o más bien, la aparente falta de ella.

Uno de los aspectos más preocupantes revelados por recientes investigaciones es la facilidad con la que usuarios pueden ser añadidos a canales que promueven actividades ilegales, sin su consentimiento ni conocimiento previo. Un investigador, durante su trabajo, fue añadido a múltiples canales de Telegram que ofrecían drogas, servicios de hackers y tarjetas de crédito robadas. Lo que comenzó como una coincidencia se convirtió en un experimento que reveló la magnitud del problema: en pocos meses, fue añadido a 82 grupos diferentes, todos con contenido ilegal.

Telegram, que alguna vez fue vista como un bastión de la libertad de expresión, ahora enfrenta críticas por ser una “vitrina para criminales”. Según expertos en ciberseguridad, la plataforma se ha convertido en un refugio para actividades que anteriormente estaban confinadas a la red oscura, un rincón de internet conocido por su anonimato y la dificultad para rastrear a los usuarios. Ahora, con Telegram, estos criminales tienen una herramienta al alcance de su mano, accesible y fácil de usar.

El caso del grupo de hackers Qilin, que recientemente atacó los sistemas del Servicio Nacional de Salud del Reino Unido, ilustra este punto. En lugar de vender los datos robados en la red oscura, como era común en el pasado, los hackers optaron por publicarlos directamente en Telegram. Este cambio de estrategia subraya cómo Telegram se ha posicionado como un canal preferido para actividades ilícitas, dada su falta de control efectivo.

Otro aspecto alarmante es el hallazgo de material de abuso sexual infantil en la plataforma. Aunque Telegram asegura que su moderación está “dentro de los estándares de la industria”, la realidad muestra lo contrario. La BBC confirmó recientemente que, mientras Telegram responde a ciertas solicitudes de retirada de contenido por parte de las autoridades, no participa activamente en programas que previenen la circulación de imágenes de abuso infantil. Esta omisión ha sido uno de los puntos centrales en las acusaciones contra Durov.

La actitud de Telegram hacia la cooperación con las fuerzas del orden es otro foco de preocupación. Mientras que otras aplicaciones de mensajería, como Signal y WhatsApp, son conocidas por su fuerte encriptación y su compromiso con la privacidad, Telegram no ha mostrado la misma disposición a colaborar con la policía. Las autoridades en Francia y Bélgica han señalado una “falta casi total de respuesta” por parte de la empresa a las solicitudes legales, lo que ha dificultado la lucha contra el crimen organizado en la plataforma.

A pesar de las crecientes críticas, algunos defensores de la libertad de expresión han expresado su preocupación por la detención de Durov. Organizaciones como Access Now advierten que este tipo de acciones podrían resultar en una censura excesiva y reducir aún más los espacios cívicos. Sin embargo, la gravedad de las actividades criminales que han encontrado refugio en Telegram no puede ser ignorada.

En última instancia, el caso de Telegram plantea una pregunta fundamental: ¿Hasta qué punto las plataformas digitales deben ser responsables de las actividades que facilitan? Mientras las investigaciones continúan y las acusaciones contra Durov se desarrollan, la respuesta a esta pregunta podría redefinir el futuro de la moderación en internet.

Shares: