Aboga ACNUDH por moratoria al uso de sistemas de inteligencia artificial

La alta comisionada de las Naciones Unidas para los Derechos Humanos (Acnudh), Michelle Bachelet, llamó a los Gobiernos a abstenerse del uso de las tecnologías basadas en la inteligencia artificial (IA) hasta que sean eliminadas sus deficiencias que ponen en peligro los derechos humanos.

Ciudad de México (SPutnik) – «Los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo» para los derechos humanos, indicó Bachelet, citada en un comunicado de Acnudh.

Según la alta comisionada, a la par de los innegables beneficios que la inteligencia artificial aporta a la solución de los mayores retos de la actualidad, esa tecnología puede tener «efectos nocivos», mientras se presta poca atención a su capacidad de generar decisiones discriminatorias.
«Ha habido muchos casos de personas que han sido injustamente tratadas a causa de la IA, ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial», aclara la nota.
Asimismo aumenta el uso de la tecnología para identificar a determinadas personas a distancia y en tiempo real, lo que, según Acnudh, no excluye un seguimiento ilimitado de los individuos.
«No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos», dijo la alta comisionada, al llamar a tomar medidas urgentes para imponer límites a su uso «por el bien de todos».
ADN Iicon 06
Redacción ADN / Agencias

¿Quieres compartir información o enviar boletines de prensa?
Envíanos un correo.

- Publicidad - HP1

¿Tienes dudas? ¿Necesitas verificar alguna noticia?
No dudes en enviarnos un correo, con gusto la verificamos por tí.

Síguenos en nuestras redes sociales.