OpenAI anuncia públicamente GPT-5

El nuevo modelo, en realidad, esconde varios modelos coordinados por un selector automático que elije el más adecuado según la tarea. ¿Cambiará esto nuestra manera de redactar los prompts?
8 de agosto, 2025

Era uno de los anuncios más rumoreados y esperados durante los últimos días y semanas. Y es que OpenAI se ha convertido en la nueva Microsoft, Apple o Google, y es la empresa que marca el ritmo del sector de la inteligencia artificial y, por extensión, de buena parte del sector tecnológico. La rumorología apuntaba fuerte a algún momento de este mes de agosto y, finalmente, ayer a última hora de la tarde se produjo: el nuevo modelo de lenguaje GPT-5 ha sido presentado.

Pero, antes de pasar a qué es y qué hace, la pregunta del millón: ¿cómo podemos acceder a él? Desde ya, el modelo ha empezado a desplegarse, así que será cuestión de horas, si ustedes no lo tienen ya y lo pueden utilizar, o, a lo sumo, días para que puedan disfrutarlo.

Llegará a los usuarios gratuitos, aunque con limitaciones de uso, y a los usuarios de pago Plus y Team con cierta holgura en los límites de uso cómo para permitir su empleo como modelo de uso diario. Los perfiles Enterprise y Edu tendrán acceso a él en fechas próximas, también con bastante holgura, mientras que los usuarios Pro tendrán acceso ilimitado a él (que menos, por 200 dólares mensuales).

Buscando por Internet, en Reddit he encontrado una captura de pantalla realizada por un usuario de dicho foro, y de la que no puedo certificar su autenticidad, que apunta a que los usuarios gratuitos pueden enviar diez mensajes cada cinco horas, mientras que los usuarios Plus y Teams contarían con hasta ochenta mensajes cada tres horas y doscientos mensajes Thinking por semana, aunque el cambio automático de modelo ejecutado por el propio ChatGPT no se incluirá en dicho recuento, dando algo más de margen a su uso.

En lo que respecta al uso de la voz, tampoco queda claro, aunque parece que no tendría grandes restricciones en los usuarios de pago, pero sí en los gratuitos.

Recalco que no puedo asegurar estos límites, ya que se trata de una captura de pantalla de un usuario y, por lo tanto, no de un documento oficial de OpenAI.

Un sólo modelo para dominarlos a todos

En realidad, GPT-5 no se trata de un sólo modelo, sino de una arquitectura unificada que combina un modelo rápido para consultas comunes, otro especializado en razonamiento profundo (el antes mencionado GPT-5 Thinking) y un enrutador que decide en milisegundos cuál conviene emplear según la complejidad de la petición.

Cuando el usuario agota los límites de uso contratados, entra en acción un modelo mini, de menor tamaño pero capaz de mantener la conversación operativa. Todo el sistema se retroalimenta con señales reales —como las veces que un usuario cambia de modelo o valora una respuesta—, con lo que busca mejorar de forma continua.

Las principales mejoras que aporta este modelo se encuentran en las áreas de la programación, la escritura y la asistencia sanitaria.

En materia de generación de código fuente informático, OpenAI destaca sus avances en generación de interfaces front-end complejas y depuración de grandes repositorios: el sistema “entiende” mejor el espacio en blanco, la tipografía y la disposición de los elementos, lo que se traduce en prototipos más pulidos a la primera.

Pasando a la redacción de textos, GPT-5 es capaz —siempre según OpenAI— de convertir ideas vagas en textos coherentes y de tono profesional, mantener estructuras poéticas complejas y, sobre todo, asistir en tareas rutinarias como correos, informes o memorias internas, superando el rendimiento y la creatividad de los modelos anteriores.

Finalmente, en el ámbito sanitario, el modelo ha elevado su puntuación en HealthBench, una prueba basada en casos clínicos reales, y es capaz de detectar posibles dudas del paciente y plantear preguntas aclaratorias. No obstante, desde OpenAI aclaran que ello no significa que vaya a sustituir al profesional médico.

Podemos encontrar una descripción más completa de las capacidades del nuevo modelo GPT-5 en el anuncio oficial de OpenAI.

Además, también se ha reforzado la capacidad de coordinar tareas de varios pasos y utilizar herramientas externas, es decir, sus capacidades agénticas. Esto significa que el modelo no solo produce texto o código, sino que puede planificar, ejecutar y adaptar procesos a medida que cambian las condiciones, algo especialmente relevante para flujos de trabajo automatizados o integraciones con sistemas corporativos.

Otra aportación destacada es el razonamiento multimodal, ahora más certero al interpretar gráficos, fotografías o diagramas técnicos. Un responsable de infraestructuras puede, por ejemplo, obtener en segundos un resumen de una diapositiva con la topología de red o hacer preguntas sobre la imagen de un rack de servidores.

La eficiencia también mejora: GPT-5 consigue un rendimiento superior con entre un 50% y un 80% menos de tokens generados, es decir, necesita menos “unidades de texto” para llegar a una respuesta de calidad similar o mejor que la de modelos anteriores. Esto se traduce en costes más bajos en usos intensivos y en una latencia reducida, factores que impactan directamente en la experiencia de usuario y en el dimensionamiento de la infraestructura.

Microsoft también lo integra desde ya en sus productos

La compañía de Redmond, estrecha colaboradora e inversora en OpenAI, ha anunciado también la integración inmediata de GPT-5 en su cartera de productos, que va desde Microsoft 365 Copilot hasta GitHub, pasando por Azure AI Foundry.

Las herramientas de Microsoft sacarán partido a la capacidad de “enrutador de modelos” del nuevo GPT-5, con el resultado, según la compañía, de dar equilibrio entre velocidad y profundidad de respuesta. Por ejemplo, en Microsoft 365 Copilot, puede comprender mejor contextos extensos —por ejemplo, hilos de correo o documentos corporativos— y razonar sobre preguntas compuestas sin que el usuario tenga que cambiar de aplicación.

La misma tecnología se encuentra disponible en Copilot Studio para crear agentes personalizados capaces de asumir procesos de negocio con múltiples pasos. Así, tareas antes fragmentadas entre varias herramientas pueden resolverse desde un único punto de interacción.

Microsoft Copilot, disponible en la web y en aplicaciones para Windows, macOS, Android e iOS, incorpora un modo Smart basado en GPT-5. Cualquier usuario puede probarlo gratuitamente para obtener respuestas más elaboradas, redactar textos complejos o generar imágenes a partir de descripciones.

Por su parte, los desarrolladores ya pueden elegir GPT-5 en GitHub Copilot y Visual Studio Code, así como en Azure AI Foundry. En estas plataformas, el nuevo modelo promete completar bloques de código más largos, orquestar tareas agénticas de principio a fin, y simplificar la creación de agentes de IA sin salir del entorno de programación.

La actualización se encuentra disponible desde hoy para clientes corporativos y usuarios particulares. Quienes dispongan de licencias de Microsoft 365 Copilot, los planes de pago de GitHub Copilot o acceso a Azure AI Foundry podrán empezar a trabajar con GPT-5 sin configuraciones adicionales, mientras que cualquier persona puede experimentar con el modelo o las aplicaciones móviles y de escritorio de Copilot.

¿Cambiará la forma en la que hacemos los prompts?

Un tema que nadie parece haber puesto sobre la mesa es si GPT-5, con un enrutador que le permite seleccionar dinámicamente el modelo más adecuado para cada tarea, vaya a cambiar la forma en la que redactamos los prompts, las instrucciones que le damos a la inteligencia artificial para que cumpla órdenes.

Al ser la selección de modelo automática, y el uso de GPT-5 no contabilizar —en principio, y según la información de la que dispongo— los cambios automáticos de modelo para usar el de pensamiento profundo, a buen seguro que pronto surgirán ‘trucos’ —que, a su vez, irán siendo limitados por OpenAI— para activar dicho modo de forma subrepticia desde el prompt. Ello podrá modificar en mayor o menor medida la forma en que redactamos las instrucciones para conseguir los mejores resultados con ChatGPT.

Es de suponer que aún tardaremos en ver dicho efecto si se produce, y seguramente sólo será un tiempo más adelante desde que se acabe el despliegue del nuevo modelo entre los usuarios.