Crimen y Tecnología

El Método Redirect: Transformando la Prevención de la Radicalización con Inteligencia Artificial

Pinterest LinkedIn Tumblr

El Método Redirect

Imagina que alguien comienza a buscar en internet información que simpatiza con grupos terroristas. En un mundo conectado como el nuestro, eliminar por completo este tipo de contenido es casi imposible. Si desaparece de un lugar, pronto reaparece en otro. Además, si intentamos borrar toda esta información de Google, el buscador más usado, las personas simplemente buscarían en otros sitios. Pero, ¿y si al buscar esta información en Google, en lugar de encontrar lo que buscan, se encuentran con una gran cantidad de datos e historias que cuentan la verdadera cara del terrorismo?

Este giro en la estrategia de búsqueda es lo que propone el Método Redirect, una técnica que combina la Inteligencia Artificial con lo que conocemos como contranarrativas. La idea es sencilla pero potente: al buscar contenido extremista, en lugar de encontrar ese material, encuentras información que desmiente, debate y ofrece una perspectiva realista sobre el terrorismo.

Este enfoque es crucial porque uno de los primeros pasos hacia la radicalización es justamente el acceso a información distorsionada. Si se logra cortar este paso no solo evitando el acceso sino también ofreciendo contenido auténtico que explique la realidad del extremismo, se daría un gran salto en la lucha contra la radicalización. La contranarrativa no solo busca cerrar la puerta al contenido dañino, sino que también invita hacia el entendimiento y la reflexión. No se trata solo de bloquear o eliminar, sino de educar y ofrecer alternativas.

Posiblemente penséis que este método ha surgido en los últimos 2 años con el auge de la Inteligencia Artificial, pero no es el caso: Aunque la idea parece novedosa, el Método Redirect fue creado en 2016 por Jigsaw, dentro de Alphabet (la compañía en donde se encuentra Google) enfocada en abordar problemas globales a través de la tecnología. Desde su creación, este método ha sido empleado para combatir la radicalización, dirigiendo a los usuarios hacia contenido que cuestiona y desmonta las narrativas extremistas.

Pues bien, este método Redirect es solo uno de los muchos métodos que utilizan la Inteligencia Artificial para la prevención de crímenes (hablé de algunos otros métodos en la revista de contranarrativa Al-Ghuraba de Comunidad de Inteligencia y Seguridad Global – CISEG, en el número 22).

A lo largo de los años, el Método Redirect ha evolucionado, mejorando en precisión y efectividad. Los avances en inteligencia artificial (o más bien el Aprendizaje Automático) han permitido afinar los algoritmos para identificar con mayor exactitud las búsquedas que podrían indicar un interés en contenido extremista.

En el caso del Método Redirect, podéis comprobar en la página de la Comisión Europea que ha sido implementado en más de 39 países y en más de 24 idiomas diferentes, alcanzando a personas que interactúan con una amplia gama de ideologías extremistas violentas. Esto demuestra la flexibilidad y la capacidad de adaptación del método para abordar diversos desafíos en el espacio digital global, ya que además de usarse como herramienta de contranarrativa terrorista también se utiliza para otros casos relativos a explotación y abuso sexual infantil, migración ilegal y tráfico de personas, crimen organizado grave y esclavitud moderna.

 

 

Sin embargo aun hay casos en los que el método Redirect y otros métodos similares podrían utilizarse y no se hace, tal y como explicó en un post Ángel J. Cabezos Domínguez en lo relativo a la relación entre Youtube y la pedofilia. Combinar el análisis de patrones mediante #BigData y el Aprendizaje Automático potenciaría la identificación de conductas desviadas en los comentarios de los usuarios. De esta forma, se podría bloquear de manera preventiva el acceso o, en situaciones más críticas, llevar a cabo un seguimiento (humano) de las actividades de dicho usuario. Cabe destacar que, en la mayoría de los casos, estos usuarios están asociados al menos a un número telefónico propio con su identificación correspondiente (al crear la cuenta de Gmail que habilita la participación en Youtube). Esto, sumado a las técnicas de Inteligencia de Fuentes Abiertas (OSINT) que facilitan el rastreo de información en la red a través de nicknames, publicaciones, etc., puede proporcionar datos valiosos sobre los individuos a investigar e incluso sobre otros grupos o redes donde se puedan encontrar más usuarios con intereses similares.

 

Y como siempre… Seguridad vs. Privacidad

Si bien técnicas como el Método Redirect protegen al limitar el acceso a contenido dañino, y estas restricciones buscan servir a un bien mayor, surge la pregunta crítica: ¿Cómo podemos asegurarnos de que estas herramientas no se utilicen en el futuro para censurar o promover ideologías específicas? Aunque confiamos en la ética y fiabilidad de iniciativas respaldadas por entidades como la Comisión Europea, es importante recordar que tanto empresas como individuos pueden desarrollar tecnologías similares con fines propios… ¿Cómo podemos establecer límites claros que impidan el uso de estas técnicas o herramientas de IA para propósitos que no estén alineados con la libertad de información y el bien común?

Este artículo fue publicado originalmente en el perfil de Linkedin de Javier Sanz.

Salir de la versión móvil