La placa de un agente fronterizo federal cerca de una instalación del Servicio de Inmigración y Control de Aduanas en Broadview, Illinois, el 3 de octubre de 2025. (AP Foto/Erin Hooley, Archivo)

En una breve nota al pie que forma parte de una extensa opinión judicial, una jueza federal señaló recientemente a los agentes de inmigración que utilizan inteligencia artificial para redactar informes sobre el uso de la fuerza, lo que genera preocupaciones de posibles inexactitudes y de una mayor desconfianza pública en la manera en que la policía ha manejado la estricta aplicación de las leyes migratorias en el área de Chicago y las protestas derivadas de la misma.

La jueza federal de distrito, Sara Ellis, escribió la nota al pie en una opinión de 223 páginas emitida la semana pasada, donde señala que la práctica de usar ChatGPT para redactar informes sobre el uso de la fuerza socava la credibilidad de los agentes y “puede explicar la inexactitud de estos informes”. Describió lo que vio en al menos un video de cámara corporal, escribiendo que un agente le pide a ChatGPT que compile una narrativa para un informe después de darle al programa una breve descripción y varias imágenes.

La jueza señaló discrepancias fácticas entre la narrativa oficial sobre esas respuestas de las fuerzas del orden y lo que mostraban las imágenes de la cámara corporal. Pero los expertos dicen que el uso de la IA para redactar un informe que depende de la perspectiva específica de un agente sin utilizar la experiencia real de éste es el peor uso posible de la tecnología y plantea serias preocupaciones sobre la precisión y la privacidad.

La perspectiva necesaria de un agente

Las agencias de aplicación de la ley de todo el país han lidiado con la manera de crear salvaguardias que permitan que los agentes usen la tecnología de IA, cada vez más disponible, mientras mantienen la precisión, la privacidad y el profesionalismo. Los expertos dijeron que el ejemplo relatado en la opinión no logró ese desafío.

“Lo que hizo este tipo es lo peor de todos los mundos. Darle una sola oración y algunas imágenes; si eso es cierto, si eso es lo que sucedió aquí, va en contra de todos los consejos que tenemos. Es un escenario de pesadilla”, dijo Ian Adams, profesor adjunto de criminología de la Universidad de Carolina del Sur que forma parte de un grupo de trabajo sobre inteligencia artificial del Consejo de Justicia Criminal, un grupo de expertos no partidista.

El Departamento de Seguridad Nacional no respondió a las solicitudes de comentarios, y no se sabe si la agencia tenía directrices o políticas sobre el uso de la IA por parte de los agentes. Las imágenes de la cámara corporal citadas en la orden aún no han sido publicadas.

Adams dijo que pocos departamentos han implementado políticas, pero aquellos que lo han hecho a menudo prohíben el uso de IA predictiva al redactar informes que justifican decisiones de aplicación de la ley, especialmente en relación con el uso de la fuerza. Los tribunales han establecido un estándar al que se refieren como razonabilidad objetiva al considerar si un uso de la fuerza fue justificado, confiando en gran medida en la perspectiva del agente.

“Necesitamos los hechos específicos articulados de ese evento y los pensamientos específicos de ese agente específico para saber si se trató de un uso justificado de la fuerza”, dijo Adams. “Ese es el peor escenario, aparte de decirle explícitamente que invente hechos, porque estás pidiéndole que invente hechos en esta situación de alto riesgo”.

Shares: