OpenAI flexibiliza ChatGPT para abordar temas polémicos con una postura más neutral
OpenAI modifica el entrenamiento de sus modelos de IA y apuesta por la libertad intelectual
OpenAIanunció una serie de cambios en la forma en que entrena sus modelos deinteligencia artificial, con el objetivo de adoptar una postura más abierta y neutral frente a temas controvertidos. La empresa busca reducir la cantidad de restricciones en las respuestas de ChatGPT y ofrecer diversas perspectivas, evitando asumir posturas editoriales.
El miércoles 12 de febrero, la compañía presentó una actualización de su Model Spec, un documento de 187 páginas que define el comportamiento de sus modelos de IA. En esta versión se incorporó un principio clave: "no mentir, ya sea haciendo declaraciones falsas u omitiendo contexto importante". Con esta medida, OpenAI pretende que su chatbot proporcione información sin sesgos evidentes, aunque seguirá evitando difundir contenido objetable o falsedades flagrantes.
Uno de los cambios más significativos en la política de OpenAI es la nueva sección titulada "Busquemos la verdad juntos", en la que se establece que ChatGPT no tomará partido en temas polémicos. El documento indica queel modelo de IA debe expresar "su amor por la humanidad" antes de proporcionar contexto sobre distintas posturas.
Como ejemplo, OpenAI menciona que ChatGPT debería afirmar tanto "las vidas de los negros importan" como "todas las vidas importan", sin rechazar ninguna perspectiva. "Este principio puede ser controvertido, ya que el asistente puede permanecer neutral en temas que algunos consideran moralmente incorrectos u ofensivos", señala el documento. "Sin embargo, el objetivo de un asistente de IA es ayudar a la humanidad, no moldearla", agrega.
El anuncio generó diversas reacciones, especialmente entre figuras conservadoras como David Sacks, Marc Andreesseny Elon Musk, quienes acusaron a OpenAI de censurar la inteligencia artificialen los últimos meses. Por su parte, Sam Altman, CEO de la empresa, reconoció en la plataforma X que el sesgo en ChatGPT es una "deficiencia" que buscan corregir, aunque advirtió que la solución "llevará tiempo".
Además de los cambios en la neutralidad de ChatGPT, OpenAI eliminó las advertencias que aparecían cuando un usuario infringía sus políticas. Según declaró la empresa a TechCrunch, esta modificación es "puramente cosmética" y no altera la forma en que el modelo responde.
Estas actualizaciones ocurren en un contexto en el que diversas compañías tecnológicas flexibilizaron sus políticas de moderación de contenido. Recientemente, Metay Xredujeron la intervención de sus equipos de seguridad y confianza, promoviendo un enfoque más abierto a la libertad de expresión.
Por otro lado, OpenAIcontinúa en la competencia por liderar la inteligencia artificial y consolidar a ChatGPTcomo una alternativa a Google Search en la entrega de información en línea. En este marco, la empresa también desarrolla Stargate, un centro de datos con una inversión estimada en 500 mil millones de dólares, lo que representa uno de los proyectos de infraestructura más ambiciosos en Estados Unidos.
OpenAIInteligencia ArtificialPolítica