OpenAI financia proyecto para crear algoritmos que predigan juicios morales humanos
La iniciativa busca desarrollar una inteligencia artificial ética capaz de enfrentar dilemas complejos
OpenAI, la empresa responsable de tecnologías como ChatGPT, destinó un millón de dólares a un proyecto académico en la Universidad de Duke enfocado en desarrollar algoritmos capaces de predecir juicios morales humanos. Liderado por el profesor de ética práctica Walter Sinnott-Armstrongy la coinvestigadora Jana Borg, el proyecto se enmarca en una subvención de tres años que busca explorar el diseño de una inteligencia artificial moral, según documentos presentados al IRS.
El proyecto tiene como objetivo principal entrenar algoritmos para abordar conflictos éticos complejos en áreas como la medicina, el derecho y los negocios, según detalló TechCrunch. Este esfuerzo forma parte de una visión más amplia para crear un "GPS moral" que asista a las personas en la toma de decisiones en contextos delicados.
Diseñar una inteligencia artificial que pueda emular juicios morales humanos enfrenta serios obstáculos. Experiencias previas, como la herramienta Ask DelphidelInstituto Allen de Inteligencia Artificial, evidenció los límites de los sistemas actuales, que suelen fallar en juicios consistentes cuando se les presenta escenarios complejos o preguntas reformuladas.
Estos problemas se derivan de la naturaleza estadística de los algoritmos actuales, que no poseen un entendimiento intrínseco de la ética ni de las emociones humanas. Además, los datos de entrenamiento frecuentemente reflejan sesgos culturales occidentales, dificultando la representación de valores globales y diversos.
La subjetividad de la moralidades otro desafío. Los principios éticos varían ampliamente según los contextos culturales, sociales y filosóficos. Mientras algunos sistemas de IA tienden hacia marcos utilitaristas, otros adoptan perspectivas kantianas. Sin embargo, no existe un consenso universal sobre cuál de estas teorías debería prevalecer, lo que complica el diseño de un modelo ético aplicable a todas las circunstancias.
Aunque la idea de una IA moralmente alineada resulta prometedora, el proyecto de OpenAI también genera cuestionamientos. ¿Es realmente posible desarrollar algoritmos éticos sin amplificar sesgos o simplificar dilemas? Según críticos, la complejidad de los juicios morales humanos y la diversidad de valores culturales podrían hacer que este objetivo sea inalcanzable.
Elon Musk criticó previamente los enfoques actuales de OpenAI, argumentando que sus modelos están influenciados por sesgos ideológicos alineados con ideologías progresistas y socialistas modernas. Esto añade un nivel de controversia sobre el impacto potencial de los sesgos en el desarrollo de una IA ética.
A pesar de los desafíos, la iniciativa financiada por OpenAIrepresenta un paso significativo hacia la exploración decómo la tecnología puede integrarse en la toma de decisiones morales. El objetivo es apoyar a los usuarios en escenarios cada vez más complejos.
OpenAIInteligencia ArtificialUniversidad