NVIDIAとOpenAIは最速のオープン推論モデルを発表しました

robot
概要作成中

NVIDIAとOpenAIは、gpt-oss-120bとgpt-oss-20bの2つの新しいオープンウェイト推論モデルを発表しました。120bモデルは、単一のNVIDIA GB200 NVL72システムで毎秒150万トークンを処理できます。これは、NVIDIAのBlackwellアーキテクチャとNVFP4という新しい4ビット精度フォーマットの組み合わせによって可能になっています。このフォーマットは、精度と効率のバランスを取るのに役立ちます。

モデルを動かすもの

これらのモデルが効率的に動作するのを助けるのは、新しいハードウェアとスマートなソフトウェアの組み合わせです。彼らはNVIDIAの強力なH100 GPUでトレーニングされており、幅広いデバイスでスムーズに動作するように設計されています。これらは大規模なクラウドシステムからNVIDIA RTXカードを搭載した通常のデスクトップPCまで使用できます。既にCUDAを使用している場合、追加の作業なしでこれらのモデルを実行できるでしょう。

両方のモデルは、NVIDIAが「推論マイクロサービス」と呼ぶ形でもパッケージ化されています。これにより、モデルは比較的速く、簡単になります。すべてをゼロから構築する必要はありません。また、Hugging FaceやLlama.cppのような人気のAIツールをすでに使用している場合、これらのモデルはすぐに接続できます。

NVIDIAの新しいBlackwellハードウェアもここで大きな役割を果たしています。これは、NVFP4という機能を含んでおり、モデルが精度を失うことなく低精度の数値を使用することで、より速く、より効率的に動作するのを助けます。これが技術的に聞こえるかもしれませんが、結果は非常にシンプルです。それは、より少ない電力とメモリを使用するより速いAIを生み出します。企業にとって、それはコスト削減を意味することがあります。

NVIDIAとOpenAIの間には、これを可能にした長期的な関係もあります。この関係は、ジェンセン・ファンが初めてDGX-1を直接届けた時に遡ります。現在gpt-ossシリーズで起こっていることは、そのコラボレーションにおける次の論理的なステップのように感じられます。しかし、それらの製品は、桁違いのコンピューティングパワー、洗練、運用準備を必要とします。そのハードウェア、ソフトウェア、サービスはすべて連携して動作しており、このレベルで見るのは珍しいことです。

誰でも構築できるオープン

このリリースの最も重要な点の一つは、モデルがオープンであるということです。これは、スタートアップや大学の誰もがそれに取り組むことができることを意味します。彼らはそれを基に構築し、カスタマイズし、システムで使用することができます。OpenAIは現在、プラットフォーム上で構築している開発者が400万人を超えています。一方、NVIDIAはそのソフトウェアツールを使用している開発者が650万人以上います。彼らは約10年間協力してきており、その影響力は巨大です。NVIDIA CUDAプラットフォームで動作するGPUは世界中に数億台あります。このような技術がこれほど大規模で経験豊富なエコシステムに投入されると、採用は迅速に進む傾向があります。そして、ここからは、これが発表ではなく、むしろ転換点のように感じ始めます。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)