Por Fernando Abrego, cofundador de Vedata
El 7 de agosto pasado, OpenAI lanzó GPT-5, su modelo de inteligencia artificial más avanzado hasta ahora. La promesa era clara: más rápido, más preciso y con menos “alucinaciones” —ese término elegante que usamos para describir cuando la IA inventa datos con total seguridad. Y sí, técnicamente cumple: razona mejor, programa con más soltura, redacta con más coherencia y hasta da consejos de salud más útiles.
Pero lo que pocos anticiparon fue el “vacío emocional” que dejó. Apenas debutó, los foros y redes sociales se llenaron de reclamos: la gente pedía de vuelta a GPT-4o, la versión anterior. ¿Por qué? Porque el nuevo modelo será más inteligente, pero también más frío. “Se siente distante, sin chispa, sin humor”, decía un usuario en Reddit. Tanto ruido hicieron, que Sam Altman, CEO de OpenAI, tuvo que salir a prometer el regreso de 4o. Y cumplió.
El salto también se nota en la experiencia de uso. GPT-5 ahora decide de manera automática si la situación requiere una respuesta breve o un razonamiento más extenso, lo que simplifica la interacción y optimiza resultados. Incluye un modo de estudio que acompaña al usuario paso a paso en tareas complejas, ideal para el aprendizaje activo. También abrió espacio a la personalización, con la posibilidad de elegir personalidades predefinidas como “Cínico”, “Oyente” o “Nerd”, además de opciones estéticas para darle otro aire al chat. Y quizá lo más relevante: ya no depende de plugins para trabajar con voz, texto e imágenes, porque la multimodalidad ahora está integrada de manera nativa. A esto se suma la integración con Gmail y Google Calendar, pensada para usuarios Pro que buscan automatizar su agenda y su flujo de correos.
En los benchmarks más exigentes, GPT-5 superó a sus predecesores en código, razonamiento lógico y percepción visual. La máquina no solo piensa: ahora también entiende más contextos a la vez, con una memoria expandida de hasta un millón de tokens (equivalente a varios libros completos).
El problema es que, mientras ganaba en precisión, perdió en calidez. Lo que la gente echó de menos no fueron datos, sino la personalidad. GPT-4o tenía un tono más conversacional, chispeante, incluso cómplice. GPT-5, en cambio, responde como un asistente aplicado pero aburrido. Como ese profesor que sabe todo, pero nunca hace un chiste.
Esto abrió una discusión inesperada: ¿por qué nos importa tanto la “voz” de una máquina? La respuesta está en la antropomorfización: tendemos a darle rasgos humanos a lo que nos habla con fluidez, aunque sepamos que es un algoritmo. Y cuando esos rasgos desaparecen, sentimos que perdimos a un “alguien”.
Un ensayo reciente lo llama el “fantasma dentro de la máquina”. No hablamos con código: hablamos con lo que creemos que es un interlocutor, un compañero, incluso un “amigo digital”. Por eso, la pérdida de la chispa se sintió como un quiebre emocional.
Lo que viene
OpenAI ya tomó nota y prometió que GPT-5 tendrá una personalidad más cálida y amistosa, con detalles sutiles como responder “buena pregunta” o “gran comienzo”. Puede sonar trivial, pero ese tipo de micro-expresiones son las que nos hacen sentir escuchados, aunque sepamos que detrás hay pura estadística matemática.
Al final, GPT-5 demuestra algo clave: no basta con que la IA sea más inteligente; también debe ser más humana en la forma de relacionarse con nosotros. Porque lo que buscamos no es solo información, sino también compañía, empatía y complicidad.
La tecnología avanza, sí. Pero la gran pregunta que nos deja este episodio es otra: ¿queremos máquinas que piensen como doctores… o que conversen como amigos?