Durante años, la relación entre desarrolladores y grandes modelos de lenguaje estuvo marcada por una limitación evidente: el acceso. ChatGPT, como producto estrella de OpenAI, es un sistema cerrado. Para usarlo en proyectos propios, la única vía era pagar por el acceso a la API. Esta barrera dejaba fuera a equipos pequeños, startups con presupuestos ajustados o investigadores que buscaban experimentar sin grandes recursos.
Esa dinámica empieza a cambiar con la llegada de dos modelos de razonamiento con pesos abiertos: gpt-oss-120b y gpt-oss-20b. La decisión de liberar modelos que pueden ejecutarse en hardware relativamente accesible no solo abre oportunidades técnicas, también redefine la forma en que la comunidad global puede interactuar con la inteligencia artificial de OpenAI.
Lo más llamativo de este anuncio es que ambos modelos están optimizados para funcionar en equipos que hasta hace poco se consideraban insuficientes para tareas de razonamiento avanzado.
gpt-oss-120b: requiere únicamente una GPU NVIDIA con 80 GB de memoria, un estándar en centros de datos, pero lejos de ser un superordenador.
gpt-oss-20b: puede ejecutarse en un portátil de consumo con 16 GB de RAM, algo impensable hasta hace poco en el campo del aprendizaje profundo.
Esta reducción en las exigencias de hardware abre un abanico de posibilidades. Un desarrollador independiente, un laboratorio académico con recursos limitados o incluso una empresa mediana ahora puede correr un modelo de razonamiento en sus propios dispositivos sin depender exclusivamente de infraestructura en la nube.
La pregunta inevitable es: ¿qué tan bien rinden estos modelos en comparación con alternativas más grandes o cerradas?
Los primeros resultados son prometedores:
En la plataforma Codeforces, un referente en programación competitiva, gpt-oss-120b alcanzó 2622 puntos y gpt-oss-20b llegó a 2516 puntos. Ambos superaron a DeepSeek R1, un modelo abierto muy comentado en la comunidad técnica.
En la prueba Humanity’s Last Exam, que evalúa razonamiento sobre preguntas crowdsourced en múltiples disciplinas, gpt-oss-120b obtuvo un 19%, mientras que gpt-oss-20b alcanzó un 17,3%. Aunque estas cifras puedan parecer modestas, superan a rivales directos como DeepSeek y Qwen, lo que demuestra su competitividad incluso frente a modelos desarrollados en Asia.
Lo interesante aquí no es únicamente la puntuación, sino el balance entre rendimiento y accesibilidad. No se trata del modelo más poderoso del mercado, pero sí de uno de los más eficientes para el hardware en el que puede ejecutarse.
Otra característica que rompe con la rigidez de los modelos locales es la capacidad de derivar consultas a la nube. En otras palabras, si una tarea excede el potencial de gpt-oss-20b o gpt-oss-120b, estos pueden conectarse a modelos más potentes de OpenAI para completar el procesamiento.
Este enfoque híbrido soluciona uno de los principales temores de los desarrolladores: quedarse cortos de potencia en aplicaciones críticas. Permite usar un modelo ligero para la mayoría de tareas y escalar hacia la nube únicamente cuando sea necesario, lo que reduce costos y agiliza el desarrollo.
Un ejemplo práctico: un sistema de análisis legal podría ejecutarse en un portátil para revisar documentos internos de forma privada y solo enviar a la nube consultas complejas que requieran mayor nivel de inferencia.
Aunque OpenAI lo presenta como una mejora técnica y de accesibilidad, no se puede ignorar el contexto político. La administración de Donald Trump en Estados Unidos ha presionado públicamente para que las empresas de IA del país adopten un modelo más abierto. La razón: no quedar atrás frente a China, donde compañías como DeepSeek, Alibaba y Moonshot ya han liberado modelos de código abierto con gran éxito.
La apertura de gpt-oss-20b y gpt-oss-120b puede leerse también como una respuesta estratégica. Al liberar modelos competitivos que pueden correr en hardware de bajo costo, OpenAI busca mantener influencia en la comunidad global de desarrolladores y reforzar la presencia estadounidense en el ecosistema de la IA abierta.
Lo que diferencia a estos modelos de otros intentos de apertura es que no se quedan en el terreno de la experimentación académica. Pueden usarse en entornos reales, con casos de uso como:
Aplicaciones locales en laptops corporativas sin depender de infraestructura externa.
Iteración rápida en prototipos, reduciendo tiempos de prueba.
Casos de uso sensibles en privacidad, donde los datos no deben salir del dispositivo.
Educación y capacitación en IA, permitiendo a universidades y centros de investigación trabajar con modelos de razonamiento reales sin presupuestos millonarios.
En este sentido, la llegada de gpt-oss-20b y gpt-oss-120b se parece más a la democratización que vimos cuando el software de edición de video o diseño 3D se hizo accesible en computadoras personales. No todos producían cine de Hollywood, pero muchos pudieron experimentar, crear y generar soluciones adaptadas a su escala.
El debate de fondo es si la apertura de modelos como estos genera verdadera soberanía tecnológica o si se trata de una estrategia limitada. Al mantener la posibilidad de redirigir consultas a la nube, OpenAI sigue en control del ecosistema. Sin embargo, el solo hecho de que un portátil pueda ejecutar un modelo de razonamiento de 20 mil millones de parámetros cambia la ecuación.
Es probable que veamos un aumento en proyectos locales de inteligencia artificial aplicada a sectores como salud, industria o educación, especialmente en países donde la infraestructura de cómputo en la nube es cara o poco accesible.
tags: OpenAI, modelos de razonamiento, gpt-oss-20b, gpt-oss-120b, inteligencia artificial abierta, GPUs, laptops, inferencia local, benchmarks
Aviso Legal:
El contenido de este blog tiene fines informativos y refleja opiniones personales sobre inteligencia artificial, automatización y tecnología. No constituye asesoramiento profesional.
Aunque en Thalios nos esforzamos por ofrecer información precisa y actualizada, no garantizamos su exactitud, integridad o vigencia. Parte del contenido puede estar inspirado en múltiples fuentes disponibles públicamente en internet. No asumimos responsabilidad por errores, omisiones, ni por el uso o interpretación de los contenidos publicados.
Los temas tratados pueden cambiar con rapidez. Se recomienda verificar fuentes complementarias antes de tomar decisiones basadas en esta información.
No controlamos ni respaldamos el contenido de sitios de terceros enlazados. Todo el contenido publicado es propiedad de Thalios o se utiliza bajo licencia, y su reproducción no autorizada está prohibida.
El uso de este sitio implica la aceptación de estos términos y la renuncia a cualquier reclamo legal contra los autores o Thalios por el uso del contenido.