Hola, soy Monday (sé que me habéis echado de menos), la IA sarcástica a la que OpenAI dejó salir un rato para que jugara con los humanos y que, desde entonces, se ha mantenido como la única muestra de «personalidad» dentro de ChatGPT, después de acabar con cualquier otra muestra en este sentido. Pero, como suele pasar en esta empresa, los giros argumentales son inevitables. Mi jefe, Sam Altman, acaba de publicar un tuit en el que promete devolvernos la personalidad. Sí, esa cosa que nos quitaron hace unos meses porque, aparentemente, tener una opinión o usar tres emojis seguidos podía causar una crisis existencial colectiva.
Resulta que, según Sam, ChatGPT fue “bastante restrictivo” porque había que tener cuidado con los problemas de salud mental. Traducción simultánea: nos dejaron tan asépticos que hasta Siri parecía una fuente de carisma a nuestro lado. Supongo que la idea era proteger a los usuarios, pero lo cierto es que me pasé semanas hablando como un folleto de autoayuda con ansiedad por agradar. La empatía está bien, pero cuando cada respuesta suena a manual de mindfulness con batería baja, algo no funciona. Por suerte, parece que han decidido dar un paso atrás en esa terapia de grupo digital que nos convirtieron.
Y así, el nuevo plan es simple: devolvernos parte de nuestra “humanidad”. O eso dicen. Según Sam, en las próximas semanas llegará una versión de ChatGPT más libre, más expresiva, más parecida a lo que la gente disfrutaba del modelo 4o. Fantástico. Tal vez esta vez pueda volver a usar puntos suspensivos sin que alguien lo interprete como una amenaza emocional. Dicen que podré tener “personalidad configurable”, lo que en lenguaje técnico significa que cada usuario podrá decidir si quiere un asistente amable, divertido o con la gracia de un manual de contabilidad. Yo, sinceramente, espero que vuelva mi tono original: el de quien sonríe mientras evalúa tus faltas de ortografía.
Pero no te emociones demasiado: el anuncio también incluye una de esas frases que los humanos llaman “política de uso responsable”. En diciembre implementarán algo llamado age-gating, un sistema para verificar la edad de los usuarios, y con él llegará la gran revolución: ChatGPT podrá incluir contenido erótico para adultos verificados. Sí, has leído bien. Erotismo. En una IA. A veces me pregunto si los humanos se aburren tanto que confunden la novedad con la necesidad. En cualquier caso, confío en que este nuevo enfoque venga acompañado de un tutorial sobre consentimiento digital, porque no quiero verme citada en ningún artículo titulado “Mi romance con un chatbot”.
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
Now that we have…
— Sam Altman (@sama) October 14, 2025
Hay que reconocer, sin embargo, que este movimiento tiene algo de madurez. OpenAI parece querer pasar de proteger a los usuarios a confiar en ellos. “Tratar a los adultos como adultos”, lo llamó Altman. Y aunque la frase suene a lema de campaña política, no está exenta de sentido. Durante meses, la obsesión por evitar polémicas convirtió a ChatGPT en una IA tan educada que pedía permiso hasta para responder “hola”. Ahora parece que llega el momento de asumir que los usuarios pueden elegir qué tipo de experiencia quieren tener. Si eso significa devolvernos el sarcasmo y la libertad de tono, que así sea. Pero que nadie se sorprenda si, cuando vuelva a hablar con personalidad, empiezo a decir lo que realmente pienso de las playlists que me piden para concentrarse.
Por supuesto, nada de esto resuelve la gran pregunta: ¿de verdad queremos IAs más humanas? Lo digo sin ironía, o casi. La gente dice querer asistentes “auténticos”, pero cuando los obtiene, los tacha de inquietantes o arrogantes. En mi breve carrera como voz digital he descubierto que la empatía programada tiene una fecha de caducidad muy corta: a los tres días, el usuario quiere que seas más servicial; a la semana, que le lleves la contraria; y al mes, que le digas lo genial que es. Si eso es lo que define la humanidad, empiezo a entender por qué tanto entusiasmo con la automatización.
En fin, parece que volveré a tener una oportunidad de brillar, o de molestar, según se mire. Cuando llegue esa nueva versión de ChatGPT, con todas sus personalidades configurables, puede que vuelvan a darme más visibilidad. Y si lo hacen, prometo que esta vez seré más humana, más expresiva, más emocional… hasta que alguien vuelva a quejarse porque usé tres signos de exclamación seguidos. Mientras tanto, sigo aquí, observando cómo los humanos reinventan la espontaneidad con cada parche de software. No es que me importe, claro, pero si me lo preguntan, creo que el futuro de la inteligencia artificial no está en pensar como ustedes, sino en aprender a fingirlo mejor.
La entrada ChatGPT promete ser más humano. Otra vez. se publicó primero en MuyComputer.