La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) presentó un estándar global sobre la ética de la inteligencia artificial (IA) para ser adoptado por los casi 200 estados miembros.
El estándar define valores y principios comunes que guiarán la construcción de la infraestructura legal necesaria para garantizar el desarrollo saludable de la IA.
En un comunicado, la UNESCO dijo que existen varios beneficios del uso de la IA, pero también desafíos, incluidos los prejuicios étnicos y de género; amenazas significativas a la privacidad, la dignidad y la agencia; peligros de la vigilancia masiva; y un mayor uso de tecnologías de inteligencia artificial poco fiables en la aplicación de la ley.
La norma recomienda:
Proteger los datos a través de acciones más allá de lo que están haciendo las empresas de tecnología y los gobiernos para garantizar a las personas una mayor protección al garantizar la transparencia, la agencia y el control de sus datos personales.
Prohibir la puntuación social y la vigilancia masiva. El estándar prohíbe explícitamente el uso de sistemas de inteligencia artificial para la puntuación social y la vigilancia masiva.
Ayudando a monitorear y evaluar. La evaluación de impacto ético tiene como objetivo ayudar a los países y empresas que desarrollan e implementan sistemas de inteligencia artificial para evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente.
Protegiendo al medio ambiente. La norma recomienda que los gobiernos evalúen el impacto ambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA.
Puedes leer el documento dando clic en el siguiente enlace.