Encabezados

Cuán segura y precisa es la tecnología de reconocimiento automático de rostros instalada en la entrada

La policía y las fuerzas de seguridad de todo el mundo están probando sistemas automatizados de reconocimiento facial para usarlos como una herramienta para identificar criminales y terroristas. Pero, ¿qué tan precisa es esta tecnología y qué tan fácil es y la inteligencia artificial (IA), sobre la base de la cual funciona, se convierten en herramientas de persecución y opresión?

Características del sistema

Imagine que un sospechoso de terrorismo es enviado en una misión suicida a un centro de la ciudad densamente poblado. Si arroja una bomba, cientos de personas pueden morir o sufrir heridas graves. El procedimiento para escanear rostros en una multitud usando video vigilancia le permite identificar a un atacante y compara automáticamente sus características con fotografías en una base de datos de terroristas famosos o "personas de interés" con los servicios de seguridad.

En caso de coincidencia, el sistema da la alarma y las fuerzas antiterroristas de reacción rápida son enviadas al lugar donde "neutralizan" al sospechoso antes de que pueda activar los explosivos. Cientos de vidas salvadas gracias a la tecnología moderna.

Posibles problemas en el trabajo.

Pero, ¿y si la tecnología de reconocimiento facial (FR) no funcionara correctamente? Y resultó no ser un terrorista, sino una persona común que simplemente tuvo mala suerte y resultó ser como un atacante. Una vida inocente simplemente habría sido destruida porque los expertos también creían en un sistema erróneo. Pero, ¿y si resulta ser una persona así?

Este es solo uno de los dilemas éticos que enfrenta el sistema de reconocimiento facial y la inteligencia artificial. Es realmente difícil entrenar máquinas para "ver", reconocer y distinguir objetos y caras. Utilizando la visión por computadora, como se le llama a veces, no hace mucho tiempo, los investigadores trataron de determinar la diferencia entre los bollos con pasas y un chihuahua, que se convirtió en una especie de prueba de fuego para determinar la efectividad de esta tecnología.

Dificultades de reconocimiento facial

Los científicos informáticos, Joy Buolamvini, en representación del laboratorio del Instituto de Tecnología de Massachusetts (y al mismo tiempo, fundador de la Liga de Justicia Algorítmica), y Timnit Gebru, codirector técnico del equipo de Google sobre cuestiones éticas relacionadas con la inteligencia artificial, mostraron que el sistema de reconocimiento facial es difícil. distingue entre hombres y mujeres si su piel es lo suficientemente oscura. El sistema a menudo confundió a las mujeres con piel oscura con los hombres.

"Alrededor de 130 millones de estadounidenses adultos ya están en bases de datos de reconocimiento facial", dijo el Dr. Gebru en mayo en la Cumbre AI for Good en Ginebra. "Pero los conjuntos de datos originales contienen principalmente representantes de la raza blanca, entre los cuales hay muchos más hombres". Por lo tanto, al reconocer a las personas con un tipo de piel más oscura, todavía hay un gran porcentaje de errores debido al tipo de piel y al género.

Uso de la tecnología

La ciudad de San Francisco en California recientemente prohibió el uso del reconocimiento facial por parte de las agencias de transporte y de aplicación de la ley en reconocimiento de sus imperfecciones y amenazas a las libertades civiles. Pero otras ciudades de los Estados Unidos y otros países del mundo continúan experimentando esta tecnología.

En el Reino Unido, por ejemplo, las fuerzas policiales en el sur de Gales, Londres, Manchester y Leicester están probando esta tecnología, que aterroriza a las organizaciones de libertades civiles como Liberty y Big Brother Watch, que están preocupadas por la cantidad de falsas coincidencias que ocurren cuando el sistema funciona.

Errores y miedos

En la práctica, esto significa que las personas inocentes son erróneamente llamadas delincuentes potenciales. Según el Dr. Gebru, tales problemas sin duda deberían preocupar a todos, el uso de tales medidas preventivas y predictivas implica altas tasas.

Dado que los estadounidenses negros representan el 37.5% de todos los reclusos en los Estados Unidos (según la Oficina Federal de Prisiones), a pesar del hecho de que representan solo el 13% de la población estadounidense, los algoritmos mal escritos que utilizan los conjuntos de datos disponibles actualmente pueden predecir que los negros tienen más probabilidades de cometer un delito. No es necesario ser un genio para comprender lo que esto puede significar para la policía y las políticas sociales.

Más recientemente, los científicos de la Universidad de Essex llegaron a la conclusión de que las coincidencias utilizadas en los juicios en la policía de Londres eran un 80% erróneas, lo que podría conducir a graves violaciones de la justicia y la violación del derecho a la privacidad de los ciudadanos.

Un británico, Ed Bridges, inició una demanda por el uso de la tecnología de reconocimiento facial por parte de la policía de Gales del Sur después de su fotografía fue tomada mientras estaba de compras, y la comisionada británica de Información Elizabeth Denham expresó su preocupación por la falta de un marco legal que rija el uso de la tecnología de reconocimiento.

Pero tales temores no impidieron que el gigante tecnológico Amazon vendiera su herramienta Rekognition FR a la fuerza policial de EE. UU., A pesar de los disturbios vacilantes de los accionistas que aún no condujeron a nada.

Perspectivas

Amazon dice que no es responsable de cómo los clientes usan su tecnología. Pero compare esta relación con Salesforce, una tecnología para la gestión de la relación con el cliente, que ha desarrollado su propia herramienta de reconocimiento de imágenes llamada Einstein Vision.

"La tecnología de reconocimiento facial puede ser apropiada en una prisión para rastrear prisioneros o prevenir la violencia de pandillas", dijo BBC Salesforce, un experto en inteligencia artificial ética de la BBC. Pero cuando la policía quería usarlo junto con cámaras para arrestar a las personas, la compañía consideró que esto era inapropiado. En este caso, uno debería preguntarse si es necesario usar IA en general en ciertos escenarios, y uno de los ejemplos es el reconocimiento facial.

Actualmente, esta tecnología también es utilizada por los militares, ya que los proveedores de tecnología afirman que su software no solo puede identificar enemigos potenciales, sino también reconocer comportamientos sospechosos.


Agrega un comentario
×
×
¿Estás seguro de que deseas eliminar el comentario?
Eliminar
×
Motivo de la queja

Negocios

Historias de éxito

Equipo