Info General

Los sistemas de reconocimiento facial preocupan a la ONU por sus efectos sobre los DDHH


La Alta Comisionada de la ONU para los Derechos Humanos, llamó a evaluar los riesgos de los sistemas de inteligencia artificial para la vida privada o la libertad de expresión

La ONU pidió este miércoles imponer una moratoria a la venta y el uso de algunos sistemas de inteligencia artificial (IA), como el reconocimiento facial, hasta que se activen garantías para proteger los derechos humanos.

«La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos», dijo la Alta Comisionada de la ONU para los Derechos Humanos, Michelle Bachelet, en un comunicado.

Bachelet llamó a evaluar los riesgos que presentan para la vida privada o la libertad de expresión los diferentes sistemas que se apoyan en la inteligencia artificial, indicó la agencia de noticias AFP.

«Dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo», añadió.

El informe destaca en particular el uso cada vez más frecuente de los sistemas basados en la IA por parte de las fuerzas del orden, que se utilizan para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos.

«No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos», insistió Bachelet, reconociendo que «la capacidad de la IA para servir a la población es innegable».

Además, los sistemas de inteligencia artificial se usan «para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet», señaló la Alta Comisionada.

Este informe, que había sido pedido por el Consejo de Derechos Humanos -la instancia más alta de la ONU en ese área-, analizó las formas en las que esas tecnologías se aplicaron a menudo sin que se haya evaluado de manera correcta su funcionamiento o impacto.

La IA hizo que muchas personas hayan sido injustamente tratadas, «ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial», indicó un comunicado.

«El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real», añadió Bachelet.

El informe describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos con información personal «compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos».