Grupo privado crea pautas universales de Inteligencia Artificial
Grupo privado solicita al gobierno de Estados Unidos adopte pautas universales de Inteligencia Artificial
Luego de varios meses de trabajo, un grupo privado propuso una serie de pautas diseñadas para la protección de la humanidad frente a la variedad de amenazas latentes y potenciales de la Inteligencia Artificial (IA), el grupo tiene sede en Bruselas, Bélgica. La propuesta incluye 12 directrices relacionadas a la protección de la seguridad y libertades civiles, y solicita al gobierno de Estados Unidos que también las adopte.
El grupo privado es una coalición llamada The Public Voice establecida en 1996 por el Centro de Información de Privacidad Electrónica (EPIC, siglas en inglés) que promueve la participación pública en decisiones relativas al futuro de Internet, y abordó diversos temas, desde privacidad y libertad de expresión hasta protección al consumidor y gobernanza de Internet.
"Directrices universales para la Inteligencia Artificial" es el nombre del trabajo publicado en su portal el 23 de octubre de 2018. Cuya declaración aborda los desafíos de los sistemas de computación inteligentes y propone recomendaciones precisas con el fin de mejorar e informar su diseño. El trabajo se anunció en la Conferencia Internacional de Comisionados de Protección de Datos y Privacidad de 2018, llevada a cabo del 22 al 26 de octubre en Bruselas, en él intervinieron sociedades científicas, grupos de reflexión, ONG y organizaciones internacionales.
@thepublicvoice has written #UGAI to inform and improve the design and use of AI. Show support. Sign on HERE: https://t.co/TSxfgB8U54. #ThePublicVoice #ArtificialIntelligence #DebatingEthics #DigitalEthics #privacy #technology pic.twitter.com/Arshb3ygdL
— EPIC (@EPICprivacy) October 17, 2018
Si bien el concepto de Inteligencia Artificial es amplio e impreciso, considera aspectos de aprendizaje automático, toma de decisiones según reglas y otras técnicas de computación. El debate actual incluye la disputa sobre si la IA es posible. Considerando este contexto, las directrices deben incorporar estándares éticos, adaptarse a normativas nacionales, acuerdos internacionales e incorporar diseño de sistemas.
Directrices universales para la IA
1. Derecho a la transparencia. Toda persona tiene derecho a conocer la base de una decisión de IA que les concierne, incluye el acceso a los factores, la lógica y las técnicas que produjeron el resultado.
2. Derecho a la determinación humana. Toda persona tiene derecho a una determinación final hecha por una persona.
3. Obligación de identificación. La institución responsable de un sistema de IA debe darse a conocer al público.
4. Obligación de imparcialidad. Las instituciones deben garantizar que los sistemas de IA no reflejen un sesgo injusto ni tomen decisiones discriminatorias inadmisibles.
5. Evaluación y obligación de rendición de cuentas. Un sistema de IA debe implementarse solo después de una evaluación adecuada de su propósito y objetivos, sus beneficios y sus riesgos. Las instituciones deben ser responsables de las decisiones tomadas por un sistema de IA.
6. Exactitud, confiabilidad y obligaciones de validez. Las instituciones deben garantizar la exactitud, confiabilidad y validez de las decisiones.
7. Obligación de calidad de los datos. Las instituciones deben establecer la procedencia de los datos y garantizar la calidad y relevancia para la entrada de datos en los algoritmos.
8. Obligación de seguridad pública. Las instituciones deben evaluar los riesgos de seguridad pública que surgen del despliegue de sistemas de IA que dirigen o controlan dispositivos físicos, e implementan controles de seguridad.
9. Obligación de ciberseguridad. Las instituciones deben proteger los sistemas de IA contra las amenazas de ciberseguridad.
10. Prohibición de perfiles secretos. Ninguna institución establecerá o mantendrá un sistema secreto de perfiles.
11. Prohibición de puntuación unitaria. Ningún gobierno nacional establecerá o mantendrá una puntuación de propósito general en sus ciudadanos o residentes.
12. Obligación de terminación. Una institución que ha establecido un sistema de IA tiene una obligación afirmativa de terminar el sistema si ya no es posible el control humano del sistema.
Inteligencia ArtificialInternetTecnología