NVIDIA y OpenAI acaban de lanzar dos nuevos modelos de razonamiento de peso abierto, gpt-oss-120b y gpt-oss-20b. El modelo de 120b puede procesar 1.5 millones de tokens por segundo en un solo sistema NVIDIA GB200 NVL72. Esto es posible gracias a una combinación de la arquitectura Blackwell de NVIDIA y un nuevo formato de precisión de 4 bits llamado NVFP4. Ese formato ayuda a lograr un equilibrio entre precisión y eficiencia.
¿Qué impulsa los modelos?
Lo que ayuda a estos modelos a funcionar de manera tan eficiente es una combinación de nuevo hardware y software inteligente. Fueron entrenados en las potentes GPU H100 de NVIDIA y están diseñados para funcionar sin problemas en una amplia gama de dispositivos. Puedes usarlos desde grandes sistemas en la nube hasta PC de escritorio regulares con tarjetas NVIDIA RTX. Si ya usas CUDA, probablemente puedas ejecutar estos modelos sin mucho trabajo adicional.
Ambos modelos también están empaquetados como lo que NVIDIA llama “Microservicios de Inferencia.” Esto hace que los modelos sean comparativamente más rápidos y fáciles. No necesitas construir todo desde cero. Y si ya estás utilizando herramientas de IA populares como Hugging Face o Llama.cpp, estos modelos se integrarán perfectamente.
El hardware más reciente de Blackwell de NVIDIA también juega un papel importante aquí. Incluye una característica llamada NVFP4, que ayuda a que los modelos funcionen más rápido y de manera más eficiente al utilizar números de menor precisión sin perder exactitud. Eso puede sonar técnico, pero el resultado es bastante simple. Resultará en una IA más rápida que utiliza menos energía y memoria. Para las empresas, eso puede significar menores costos.
También hay una relación de larga data entre NVIDIA y OpenAI que ha ayudado a hacer esto posible. Esta relación se remonta a cuando Jensen Huang entregó literalmente la primera DGX-1 en persona. Lo que está sucediendo ahora con la serie gpt-oss se siente como el siguiente paso lógico en esa colaboración. Sin embargo, esas producciones requerirán órdenes de magnitud más de potencia computacional, pulido y preparación operativa. Su hardware, software y servicios están trabajando juntos, lo cual es raro ver a este nivel.
Abierto para que todos construyan
Una de las cosas más importantes sobre este lanzamiento es que los modelos son abiertos. Esto significa que cualquier persona de startups y universidades también puede trabajar en ellos. Pueden construir sobre ellos, personalizarlos y usarlos en sus sistemas. OpenAI ahora tiene más de 4 millones de desarrolladores a lo largo de su existencia construyendo en su plataforma. NVIDIA, por su parte, tiene más de 6.5 millones de desarrolladores utilizando sus herramientas de software. Han estado trabajando juntos durante casi una década, y el alcance es masivo. Hay cientos de millones de GPUs en todo el mundo que funcionan en la plataforma NVIDIA CUDA. Cuando una tecnología como esta se lanza en un ecosistema tan grande y experimentado, la adopción tiende a moverse rápidamente. Y ahí es donde esto comienza a sentirse menos como un lanzamiento y más como un punto de inflexión.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
NVIDIA y OpenAI lanzaron los modelos de razonamiento abierto más rápidos
NVIDIA y OpenAI acaban de lanzar dos nuevos modelos de razonamiento de peso abierto, gpt-oss-120b y gpt-oss-20b. El modelo de 120b puede procesar 1.5 millones de tokens por segundo en un solo sistema NVIDIA GB200 NVL72. Esto es posible gracias a una combinación de la arquitectura Blackwell de NVIDIA y un nuevo formato de precisión de 4 bits llamado NVFP4. Ese formato ayuda a lograr un equilibrio entre precisión y eficiencia.
¿Qué impulsa los modelos?
Lo que ayuda a estos modelos a funcionar de manera tan eficiente es una combinación de nuevo hardware y software inteligente. Fueron entrenados en las potentes GPU H100 de NVIDIA y están diseñados para funcionar sin problemas en una amplia gama de dispositivos. Puedes usarlos desde grandes sistemas en la nube hasta PC de escritorio regulares con tarjetas NVIDIA RTX. Si ya usas CUDA, probablemente puedas ejecutar estos modelos sin mucho trabajo adicional.
Ambos modelos también están empaquetados como lo que NVIDIA llama “Microservicios de Inferencia.” Esto hace que los modelos sean comparativamente más rápidos y fáciles. No necesitas construir todo desde cero. Y si ya estás utilizando herramientas de IA populares como Hugging Face o Llama.cpp, estos modelos se integrarán perfectamente.
El hardware más reciente de Blackwell de NVIDIA también juega un papel importante aquí. Incluye una característica llamada NVFP4, que ayuda a que los modelos funcionen más rápido y de manera más eficiente al utilizar números de menor precisión sin perder exactitud. Eso puede sonar técnico, pero el resultado es bastante simple. Resultará en una IA más rápida que utiliza menos energía y memoria. Para las empresas, eso puede significar menores costos.
También hay una relación de larga data entre NVIDIA y OpenAI que ha ayudado a hacer esto posible. Esta relación se remonta a cuando Jensen Huang entregó literalmente la primera DGX-1 en persona. Lo que está sucediendo ahora con la serie gpt-oss se siente como el siguiente paso lógico en esa colaboración. Sin embargo, esas producciones requerirán órdenes de magnitud más de potencia computacional, pulido y preparación operativa. Su hardware, software y servicios están trabajando juntos, lo cual es raro ver a este nivel.
Abierto para que todos construyan
Una de las cosas más importantes sobre este lanzamiento es que los modelos son abiertos. Esto significa que cualquier persona de startups y universidades también puede trabajar en ellos. Pueden construir sobre ellos, personalizarlos y usarlos en sus sistemas. OpenAI ahora tiene más de 4 millones de desarrolladores a lo largo de su existencia construyendo en su plataforma. NVIDIA, por su parte, tiene más de 6.5 millones de desarrolladores utilizando sus herramientas de software. Han estado trabajando juntos durante casi una década, y el alcance es masivo. Hay cientos de millones de GPUs en todo el mundo que funcionan en la plataforma NVIDIA CUDA. Cuando una tecnología como esta se lanza en un ecosistema tan grande y experimentado, la adopción tiende a moverse rápidamente. Y ahí es donde esto comienza a sentirse menos como un lanzamiento y más como un punto de inflexión.