Proyecto de Auto

Léanos | Escuchanos | Míranos | Unirse Eventos en Vivo | Desactivar anuncios | Live |

Haga clic en su idioma para traducir este artículo:

Afrikaans Afrikaans Albanian Albanian Amharic Amharic Arabic Arabic Armenian Armenian Azerbaijani Azerbaijani Basque Basque Belarusian Belarusian Bengali Bengali Bosnian Bosnian Bulgarian Bulgarian Catalan Catalan Cebuano Cebuano Chichewa Chichewa Chinese (Simplified) Chinese (Simplified) Chinese (Traditional) Chinese (Traditional) Corsican Corsican Croatian Croatian Czech Czech Danish Danish Dutch Dutch English English Esperanto Esperanto Estonian Estonian Filipino Filipino Finnish Finnish French French Frisian Frisian Galician Galician Georgian Georgian German German Greek Greek Gujarati Gujarati Haitian Creole Haitian Creole Hausa Hausa Hawaiian Hawaiian Hebrew Hebrew Hindi Hindi Hmong Hmong Hungarian Hungarian Icelandic Icelandic Igbo Igbo Indonesian Indonesian Irish Irish Italian Italian Japanese Japanese Javanese Javanese Kannada Kannada Kazakh Kazakh Khmer Khmer Korean Korean Kurdish (Kurmanji) Kurdish (Kurmanji) Kyrgyz Kyrgyz Lao Lao Latin Latin Latvian Latvian Lithuanian Lithuanian Luxembourgish Luxembourgish Macedonian Macedonian Malagasy Malagasy Malay Malay Malayalam Malayalam Maltese Maltese Maori Maori Marathi Marathi Mongolian Mongolian Myanmar (Burmese) Myanmar (Burmese) Nepali Nepali Norwegian Norwegian Pashto Pashto Persian Persian Polish Polish Portuguese Portuguese Punjabi Punjabi Romanian Romanian Russian Russian Samoan Samoan Scottish Gaelic Scottish Gaelic Serbian Serbian Sesotho Sesotho Shona Shona Sindhi Sindhi Sinhala Sinhala Slovak Slovak Slovenian Slovenian Somali Somali Spanish Spanish Sudanese Sudanese Swahili Swahili Swedish Swedish Tajik Tajik Tamil Tamil Telugu Telugu Thai Thai Turkish Turkish Ukrainian Ukrainian Urdu Urdu Uzbek Uzbek Vietnamese Vietnamese Welsh Welsh Xhosa Xhosa Yiddish Yiddish Yoruba Yoruba Zulu Zulu

Hungría, Letonia y Grecia prueban un detector de mentiras con IA para filtrar a los visitantes

0a1a-4
0a1a-4

Se están realizando ensayos de un esquema financiado por la UE en el que se utilizarán sistemas de detección de mentiras de IA para escanear a los viajeros potencialmente peligrosos que vienen de fuera del bloque. ¿Demasiado orwelliano? ¿O simplemente el último paso hacia un viaje más fluido?

A partir del 1 de noviembre, el sistema iBorderCtrl estará en funcionamiento en cuatro pasos fronterizos en Hungría, Letonia y Grecia con países fuera de la UE. Su objetivo es facilitar los cruces fronterizos más rápidos para los viajeros al tiempo que elimina a los posibles delincuentes o cruces ilegales.

Desarrollado con 5 millones de euros en fondos de la UE de socios de toda Europa, el proyecto piloto será operado por agentes fronterizos en cada uno de los países de prueba y dirigido por la Policía Nacional de Hungría.

Quienes utilicen el sistema primero tendrán que cargar ciertos documentos como pasaportes, junto con un formulario de solicitud en línea, antes de ser evaluados por el agente fronterizo virtual de escaneo de retina.

El viajero simplemente mirará fijamente a una cámara y responderá las preguntas que uno esperaría que hiciera un agente fronterizo humano diligente, según New Scientist.

"¿Qué hay en tu maleta?" y "Si abre la maleta y me muestra lo que hay dentro, ¿confirmará que sus respuestas fueron ciertas?"

Pero a diferencia de un guardia fronterizo humano, el sistema de inteligencia artificial está analizando diminutos micro-gestos en la expresión facial del viajero, buscando cualquier señal de que pueda estar mintiendo.

Si está satisfecho con las intenciones honestas del que cruza, el iBorderCtrl lo recompensará con un código QR que le permitirá un paso seguro a la UE.

Sin embargo, insatisfecho y los viajeros tendrán que pasar por un examen biométrico adicional, como la toma de huellas dactilares, la coincidencia facial o la lectura de la vena de la palma. Luego, un agente humano realiza una evaluación final.

Como todas las tecnologías de IA en su infancia, el sistema todavía es altamente experimental y con una tasa de éxito actual del 76 por ciento, en realidad no impedirá que nadie cruce la frontera durante su prueba de seis meses. Pero los desarrolladores del sistema están "bastante seguros" de que la precisión se puede aumentar al 85 por ciento con los datos nuevos.

Sin embargo, una mayor preocupación proviene de los grupos de libertades civiles que han advertido previamente sobre las grandes inexactitudes encontradas en los sistemas basados ​​en el aprendizaje automático, especialmente los que utilizan software de reconocimiento facial.

En julio, el jefe de la Policía Metropolitana de Londres se mantuvo al margen de los ensayos de tecnología de reconocimiento facial automatizado (AFR) en partes de la ciudad, a pesar de los informes de que el sistema AFR tenía una tasa de falsos positivos del 98%, lo que resultó en solo dos coincidencias precisas.

El sistema había sido etiquetado como una "herramienta de vigilancia orwelliana" por el grupo de libertades civiles Big Brother Watch.