Un influyente instituto del Vaticano y altos funcionarios de la Unión Europea, las Naciones Unidas, IBM y Microsoft se han unido para impulsar el desarrollo ético de la inteligencia artificial.
Los funcionarios han firmado un documento , llamado «Llamamiento de Roma para la ética de la IA», que se presentó al Papa Francisco el viernes.
«La tecnología basada en IA nunca debe usarse para explotar a las personas de ninguna manera, especialmente a las más vulnerables», dice el documento. «En cambio, debe usarse para ayudar a las personas a desarrollar sus habilidades y para apoyar al planeta».
El documento establece seis principios generales para el desarrollo ético de la IA. Fue creado bajo los auspicios de la Academia Pontificia para la Vida, un instituto del Vaticano encargado de conciliar las enseñanzas de la Iglesia Católica sobre la santidad de la vida humana con los problemas emergentes en ciencia y derecho.
En el pasado, las opiniones de la academia han dado forma a las posiciones a veces controvertidas de la Iglesia en campos emergentes como la investigación con células madre, la edición de genes y la clonación.
Vincenzo Paglia, presidente de la academia, dijo que los principios éticos contenidos en la carta «deben convertirse en patrimonio de todos y no solo de los expertos en inteligencia artificial».
Brad Smith, presidente de Microsoft, y John Kelly III, vicepresidente ejecutivo de IBM, dijeron que sus compañías estaban orgullosas de apoyar el Llamado de Roma. «Estamos agradecidos por el liderazgo del Vaticano en presionar para que la era de la IA se base en la ética», dijo Kelly en un discurso en la academia en Roma.
Además de Kelly, Smith y Paglia, David Sassoli, presidente del Parlamento Europeo, y Dongyu Qu, director general de la Organización de las Naciones Unidas para la Alimentación y la Agricultura, también firmaron el Llamado de Roma.
El nuevo documento de ética coloca a la Iglesia Católica a la vanguardia de las principales religiones mundiales en el trabajo hacia una posible doctrina sobre inteligencia artificial. Pero el Vaticano se está uniendo a una larga lista de gobiernos, empresas y grupos no gubernamentales que han articulado los principios de ética de la IA en los últimos tres años.
Algunos especialistas en ética de datos y activistas de derechos humanos y civiles tienen criticado Estos esfuerzos anteriores por ser demasiado vagos, eludiendo las prohibiciones explícitas sobre los usos de la IA, como el reconocimiento facial en los sistemas de vigilancia del gobierno, el uso de algoritmos en la justicia penal o la creación de armas autónomas. Mientras tanto, algunos científicos informáticos los han criticado por ser poco prácticos o potencialmente demasiado restrictivos, limitando los usos beneficiosos de la inteligencia artificial.
Microsoft e IBM son parte de una organización llamada Partnership on AI, que también ha articulado un conjunto de principios éticos para guiar la inteligencia artificial. desarrolladores, pero algunos críticos lo acusaron de usar su influencia para diluir la regulación gubernamental de la tecnología. Esa organización también incluye, entre otros, Facebook, Google y Amazon, tres grandes empresas de tecnología que han puesto a la IA en el centro de sus planes comerciales y que están notablemente ausentes de la convocatoria de Roma, aunque se les puede permitir firmar el documento en una fecha posterior.
Los seis principios del Llamado de Roma son transparencia, inclusión, responsabilidad, imparcialidad, confiabilidad, seguridad y privacidad. Y, al igual que con otras cartas éticas de IA, también puede ser criticado por mecanismos de aplicación vagos, poco prácticos y generalmente carentes.
Por ejemplo, bajo transparencia, el Llamado de Roma dice «en principio, los sistemas de IA deben ser explicables». Pero algunos de los algoritmos de aprendizaje automático más efectivos también son extremadamente difíciles de interpretar para los humanos. Algunos investigadores destacados de IA temen que el requisito de que tales algoritmos sean explicables limitará o retrasará muchos usos potencialmente beneficiosos de la tecnología en áreas como la medicina.
El documento tampoco especifica si un algoritmo debe ser explicable a todos los interesados (sus creadores, sus usuarios y aquellos afectados por su producción) o solo algunos de ellos.
Documento PDF aqui