Hungría, Letonia y Grecia prueban un detector de mentiras con IA para filtrar a los visitantes

0a1a-4
0a1a-4

Se están realizando ensayos de un esquema financiado por la UE en el que se utilizarán sistemas de detección de mentiras de IA para escanear a los viajeros potencialmente peligrosos que vienen de fuera del bloque. ¿Demasiado orwelliano? ¿O simplemente el último paso hacia un viaje más fluido?

A partir del 1 de noviembre, el sistema iBorderCtrl estará en funcionamiento en cuatro pasos fronterizos en Hungría, Letonia y Grecia con países fuera de la UE. Su objetivo es facilitar los cruces fronterizos más rápidos para los viajeros al tiempo que elimina a los posibles delincuentes o cruces ilegales.

Desarrollado con 5 millones de euros en fondos de la UE de socios de toda Europa, el proyecto piloto será operado por agentes fronterizos en cada uno de los países de prueba y dirigido por la Policía Nacional de Hungría.

Quienes utilicen el sistema primero tendrán que cargar ciertos documentos como pasaportes, junto con un formulario de solicitud en línea, antes de ser evaluados por el agente fronterizo virtual de escaneo de retina.

El viajero simplemente mirará fijamente a una cámara y responderá las preguntas que uno esperaría que hiciera un agente fronterizo humano diligente, según New Scientist.

"¿Qué hay en tu maleta?" y "Si abre la maleta y me muestra lo que hay dentro, ¿confirmará que sus respuestas fueron ciertas?"

Pero a diferencia de un guardia fronterizo humano, el sistema de inteligencia artificial está analizando diminutos micro-gestos en la expresión facial del viajero, buscando cualquier señal de que pueda estar mintiendo.

Si está satisfecho con las intenciones honestas del que cruza, el iBorderCtrl lo recompensará con un código QR que le permitirá un paso seguro a la UE.

Sin embargo, insatisfecho y los viajeros tendrán que pasar por un examen biométrico adicional, como la toma de huellas dactilares, la coincidencia facial o la lectura de la vena de la palma. Luego, un agente humano realiza una evaluación final.

Como todas las tecnologías de IA en su infancia, el sistema todavía es altamente experimental y con una tasa de éxito actual del 76 por ciento, en realidad no impedirá que nadie cruce la frontera durante su prueba de seis meses. Pero los desarrolladores del sistema están "bastante seguros" de que la precisión se puede aumentar al 85 por ciento con los datos nuevos.

Sin embargo, una mayor preocupación proviene de los grupos de libertades civiles que han advertido previamente sobre las grandes inexactitudes encontradas en los sistemas basados ​​en el aprendizaje automático, especialmente los que utilizan software de reconocimiento facial.

En julio, el jefe de la Policía Metropolitana de Londres se mantuvo al margen de los ensayos de tecnología de reconocimiento facial automatizado (AFR) en partes de la ciudad, a pesar de los informes de que el sistema AFR tenía una tasa de falsos positivos del 98%, lo que resultó en solo dos coincidencias precisas.

El sistema había sido etiquetado como una "herramienta de vigilancia orwelliana" por el grupo de libertades civiles Big Brother Watch.

Acerca del autor.

Avatar del editor jefe de tareas

Editor jefe de asignaciones

El editor jefe de asignaciones es Oleg Siziakov

Compartir a...