OpenAI retira las advertencias naranjas de ChatGPT para dar más libertad

OpenAI ha comenzado a modificar el sistema de moderación de ChatGPT y ha eliminado las advertencias naranjas que aparecían cuando el contenido introducido por los usuarios podía vulnerar las políticas de la compañía. Estos cambios buscan otorgar mayor libertad a los usuarios, siempre que sus peticiones se ajusten a la legalidad y no causen daño a terceros ni a sí mismos.
Nick Turley, responsable de Producto de ChatGPT, ha confirmado esta decisión en un comunicado publicado en la red social X, en el que explica que OpenAI ha optado por retirar “muchas advertencias innecesarias en la interfaz de usuario”. Según Turley, la empresa considera que los usuarios deberían “poder usar ChatGPT como crean conveniente, siempre que cumplan con la ley y no se hagan daño a sí mismos ni a los demás”.
La eliminación de la advertencia naranja, caracterizada por un recuadro negro con letras en este color, ha sido corroborada por Laurentia Romaniuk, integrante del equipo de comportamiento de modelo en OpenAI. Esta notificación era una de las más frecuentes en las interacciones con ChatGPT y advertía al usuario sobre el posible riesgo de que su solicitud vulnerase las normas de la plataforma.
ChatGPT seguirá mostrando otros tipos de avisos y bloqueos en caso de solicitudes que infrinjan las políticas. En particular, se mantienen los recuadros rojos y las respuestas que rechazan directamente ciertas peticiones con frases como “Lo siento, no lo haré”.
Este cambio se produce en un contexto en el que OpenAI busca explicar mejor cómo funcionan los modelos de lenguaje ante peticiones controvertidas. La compañía ha detallado recientemente que sus herramientas no deben generar contenidos prohibidos, como material sexual o relacionado con la pedofilia, ni contenidos restringidos, como datos personales confidenciales o información que pueda suponer riesgos para los usuarios.
Además, OpenAI establece límites en la generación de contenidos sensibles, como material erótico o violento, que solo se admite en contextos concretos, como el educativo, el médico o el histórico. La plataforma también prohíbe la difusión de mensajes de odio, acoso o deshumanización dirigidos a personas por motivos de raza, religión, género, orientación sexual o discapacidad, entre otros.
Otra de las líneas rojas de la empresa es impedir que ChatGPT facilite conductas ilícitas o promueva comportamientos que puedan ser perjudiciales. Estos principios se aplican tanto a los usuarios finales como a los desarrolladores que integran la tecnología de OpenAI en sus propios productos.
La compañía liderada por Sam Altman mantiene su política de perfeccionar progresivamente los sistemas de moderación, aunque reconoce que no es posible mitigar todos los casos. OpenAI se centra en evitar los más graves y busca lograr un equilibrio entre garantizar la seguridad y permitir a los usuarios sacar el máximo partido de la Inteligencia Artificial.
Escribir un comentario