¿Puede la inteligencia artificial salvar a los menores del acoso sexual en las redes?

Vea También

Entre un 10 y un 20 % de los menores de edad en España ha sufrido 'grooming'. SB Arts Media/Shutterstock

Cada año, más de 300 millones de niños, niñas y adolescentes —aproximadamente uno de cada doce menores de todo el planeta— sufren explotación o abuso sexual en Internet. En el caso español los datos no son mejores. De hecho, las investigaciones científicas apuntan que este es un problema que afecta a entre un 10 y un 20 % de los menores de edad en España. El número de casos es alto y la policía no tiene herramientas suficientes para poder investigarlos todos.

La legislación actual permite a los investigadores rastrear las fuentes digitales abiertas, incluidas las redes sociales, para identificar indicios de delito relevantes). También admite incorporar en la investigación las pruebas obtenidas por particulares, como puede ser el registro de chats que posibles víctimas de grooming (acoso sexual a menores a través de las redes) puedan aportar.

La inteligencia artificial (IA) permite a la policía analizar grandes cantidades de datos en segundos, detectar patrones sospechosos y localizar posibles delincuentes con mayor rapidez. También facilita la revisión de miles de archivos en investigaciones complejas. Sin la IA, este trabajo sería casi imposible. No obstante, su uso plantea un dilema: ¿hasta qué punto estas herramientas pueden intervenir sin vulnerar derechos fundamentales como la privacidad?

El uso de la IA en España, de hecho, no es nuevo. La policía la utiliza, por ejemplo, para analizar el riesgo de reincidencia en casos de violencia de género.

Cuando la IA revisa conversaciones y busca imágenes

En algunos países, aunque no en España, se utilizan herramientas con IA para perseguir delitos sexuales contra menores en internet. Algunas revisan conversaciones y priorizan denuncias, y otras buscan imágenes ilegales en la web. En todos los casos, su objetivo es facilitar el trabajo de la policía.

La clave del debate es determinar si el uso de la IA en la investigación policial de delitos, especialmente en casos de grooming, se ajusta a la legalidad. Hasta hace poco, la normativa era fragmentaria y ofrecía pocas garantías sobre el uso de estas tecnologías.

En 2016 se aprobó una Directiva europea que prohibía basar las decisiones legales solo en el análisis automático de datos. Posteriormente, en 2021, el Parlamento Europeo permitió el uso de la IA, aunque con limitaciones. Entre ellas, que los algoritmos debían ser transparentes, comprensibles y verificables. Y, sobre todo, que las decisiones finales debían ser tomadas por personas, no por máquinas.

Recientemente, se ha aprobado el Reglamento Europeo sobre IA de 2024, que permite el uso de estas herramientas en la justicia penal. Sin embargo, el reglamento califica su uso de alto riesgo. Ello implica que, entre otras exigencias, estas herramientas deben ser seguras, transparentes y supervisadas por humanos. Por su parte, en España no existen normas específicas sobre el uso de la IA en la justicia penal, por lo que el marco normativo de referencia es el europeo.

Ante este panorama, el Estado español debe aprovechar el marco legal para desarrollar herramientas que faciliten la investigación de delitos sexuales contra menores en la red. Por ejemplo, para filtrar y priorizar el gran volumen de casos que llega a manos de la policía española. Más difícil sería admitir el uso de chatbots que se hiciesen pasar por menores de edad, a modo de potenciales víctimas, para “cazar” a agresores sexuales. Ello está expresamente prohibido por la legislación española.

Con todo, los expertos han alertado de los problemas que plantea el uso de la IA en el ámbito penal. Aunque esta es capaz de detectar patrones, no es infalible. Un algoritmo mal diseñado podría generar falsos positivos, señalando como sospechosos a usuarios que no han cometido ningún delito.

Análisis previo del fenómeno

Para evitar estos y otros problemas propios de las herramientas basadas en algoritmos o en IA, es muy importante realizar un análisis previo del fenómeno de la delincuencia sexual online. Además, los sistemas deben alimentarse con datos completos para garantizar que sus resultados superen los de un análisis humano.

Si se tiene en cuenta lo anterior, la implementación de IA puede ofrecer una oportunidad para identificar y corregir estos sesgos. De hecho, los prejuicios atribuidos a la IA provienen de los datos con que son alimentados por parte de los humanos.

Por eso, el Estado español debe acompañar la implementación de estas herramientas con un marco legal sólido que proteja los derechos fundamentales. También es clave entender que la IA debe complementar el trabajo humano, aportando análisis y datos para una toma de decisiones más informada y precisa.

En resumen, la IA puede transformar significativamente la gestión de los casos policiales de delitos de grooming. No obstante, debe usarse de manera complementaria, con una comprensión clara de sus limitaciones y riesgos para reforzar el papel de los agentes del sistema de justicia.

The Conversation

Marc Salat Paisal recibe fondos de del Ministerio de Ciencia, Innovacción y Universidades a través de los proyectos de investigación Derecho penal y comportamiento humano (MICINN-RTI2018-097838-B-100) y Ciberacoso sexual a menores: perfiles linguísticos para el desarrollo de herramientas digitales forenses para prevención, detección y priorización en España (PID2020-117964RB-I00).


Este artículo fue publicado originalmente en The Conversation. Lea el original.

Artículo Anterior Artículo Siguiente

Anuncio publicitario

Reciba actualizaciones por Telegram

¡Únete a nuestro canal de WhatsApp para recibir actualizaciones!