OpenAI Ra Mắt Gpt-oss-120b Và Gpt-oss-20b, Đem Đến Các Mô Hình Hiện Đại Đến Các Thiết Bị Địa Phương

Tóm tắt

OpenAI đã phát hành hai mô hình open-weight mạnh mẽ, gpt-oss-120b và gpt-oss-20b, cho phép hiệu suất AI địa phương nâng cao mà không cần truy cập internet, đánh dấu một bước tiến lớn trong khả năng tiếp cận của các nhà phát triển.

OpenAI Ra Mắt Gpt-oss-120b Và Gpt-oss-20b, Đem Đến Các Mô Hình Hiện Đại Đến Các Thiết Bị Địa Phương

Tổ chức nghiên cứu trí tuệ nhân tạo OpenAI đã công bố ra mắt hai mô hình ngôn ngữ mở trọng số tiên tiến mang tên gpt-oss-120b và gpt-oss-20b. Những mô hình này cung cấp hiệu suất mạnh mẽ trong các ứng dụng thực tiễn trong khi vẫn duy trì chi phí vận hành thấp. Được phát hành dưới giấy phép linh hoạt Apache 2.0, chúng vượt trội hơn các mô hình mở khác có kích thước tương tự trong các nhiệm vụ lý luận, thể hiện khả năng sử dụng công cụ mạnh mẽ, và được tối ưu hóa để hoạt động hiệu quả trên phần cứng tiêu dùng. Quy trình đào tạo đã sử dụng các kỹ thuật học tăng cường kết hợp với những hiểu biết thu được từ các mô hình nội bộ tiên tiến nhất của OpenAI, bao gồm o3 và các hệ thống tiên tiến khác.

Mô hình gpt-oss-120b hoạt động gần như tương đương với mô hình o4-mini của OpenAI trên các tiêu chuẩn đánh giá lý luận cơ bản và chạy hiệu quả trên một GPU 80 GB duy nhất. Trong khi đó, mô hình gpt-oss-20b đạt được kết quả tương đương với o3-mini của OpenAI trên các tiêu chuẩn phổ biến và có khả năng hoạt động trên các thiết bị biên chỉ với 16 GB bộ nhớ, làm cho nó phù hợp cho các ứng dụng trên thiết bị, suy diễn cục bộ, hoặc thử nghiệm nhanh mà không cần cơ sở hạ tầng đắt đỏ. Cả hai mô hình đều thể hiện khả năng mạnh mẽ trong việc sử dụng công cụ, gọi hàm few-shot, suy luận theo chuỗi (CoT) như được thể hiện trong đánh giá agentic Tau-Bench và HealthBench, đôi khi vượt trội hơn các mô hình sở hữu như OpenAI o1 và GPT-4o.

Các mô hình này tương thích với Responses API và được thiết kế để tích hợp trong các quy trình làm việc agentic, cung cấp khả năng theo dõi hướng dẫn nâng cao, sử dụng công cụ bao gồm tìm kiếm trên web và thực thi mã Python, cũng như khả năng lập luận. Điều này bao gồm nỗ lực lập luận có thể điều chỉnh để tối ưu hóa cho các nhiệm vụ không yêu cầu lập luận phức tạp hoặc ưu tiên độ trễ thấp trong các kết quả cuối cùng. Cả hai mô hình đều hoàn toàn tùy chỉnh, hỗ trợ lập luận chuỗi đầy đủ và phù hợp với các định dạng đầu ra có cấu trúc.

Các cân nhắc về an toàn là trung tâm của việc phát hành những mô hình này, đặc biệt là do tính chất mở của chúng. Bên cạnh việc đào tạo và đánh giá an toàn toàn diện, một lớp kiểm tra bổ sung đã được áp dụng thông qua một phiên bản tinh chỉnh đối kháng của gpt-oss-120b dưới Khung Chuẩn Bị của OpenAI. Các mô hình gpt-oss đạt được hiệu suất tiêu chuẩn an toàn so sánh với các mô hình độc quyền mới nhất của OpenAI, cung cấp cho các nhà phát triển các đảm bảo an toàn tương tự. Kết quả chi tiết và thông tin thêm có sẵn trong một tài liệu nghiên cứu và thẻ mô hình, với phương pháp được xem xét bởi các chuyên gia bên ngoài, đại diện cho tiến bộ trong việc thiết lập các tiêu chuẩn an toàn mới cho các mô hình trọng số mở.

OpenAI đã hợp tác với các đối tác đầu tiên như AI Sweden, Orange và Snowflake để khám phá các ứng dụng thực tế của các mô hình mở này, bao gồm cả việc lưu trữ tại chỗ để đảm bảo an toàn dữ liệu và tinh chỉnh trên các tập dữ liệu chuyên biệt. Việc cung cấp các mô hình mở này nhằm mục đích trao quyền cho một loạt người dùng - từ các nhà phát triển cá nhân đến các doanh nghiệp lớn và các cơ quan chính phủ - để chạy và tùy chỉnh AI trên cơ sở hạ tầng của riêng họ. Khi kết hợp với các mô hình khác có sẵn qua API của OpenAI, các nhà phát triển có thể chọn từ một loạt các tùy chọn cân bằng giữa hiệu suất, chi phí và độ trễ để hỗ trợ các quy trình làm việc AI đa dạng.

Gpt-oss-120b Và Gpt-oss-20b Hiện Đang Có Sẵn Miễn Phí Với Hỗ Trợ Nền Tảng Và Phần Cứng Rộng Rãi

Cả trọng số cho gpt-oss-120b và gpt-oss-20b đều có sẵn để tải xuống trên Hugging Face và được cung cấp với định dạng lượng tử hóa gốc trong định dạng MXFP4. Điều này cho phép mô hình gpt-oss-120b hoạt động trong dung lượng bộ nhớ 80GB, trong khi mô hình gpt-oss-20b chỉ yêu cầu 16GB. Cả hai mô hình đều đã trải qua quá trình huấn luyện sau bằng cách sử dụng định dạng prompt harmony, và một trình tạo harmony mã nguồn mở có sẵn trong Python và Rust để thuận tiện cho việc áp dụng. Ngoài ra, các triển khai tham khảo được cung cấp để thực hiện suy diễn sử dụng PyTorch và nền tảng Metal của Apple, cùng với một bộ công cụ ví dụ cho ứng dụng thực tế.

Các mô hình này được thiết kế để linh hoạt và dễ sử dụng, hỗ trợ triển khai tại chỗ, trên thiết bị hoặc thông qua các nhà cung cấp suy diễn bên thứ ba. Để nâng cao khả năng tiếp cận, các quan hệ đối tác đã được thiết lập trước khi ra mắt với các nền tảng triển khai lớn bao gồm Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare và OpenRouter. Sự hợp tác với các nhà sản xuất phần cứng như NVIDIA, AMD, Cerebras và Groq cũng đã được thực hiện để đảm bảo hiệu suất tối ưu trên nhiều hệ thống khác nhau.

Cùng với bản phát hành này, Microsoft đang cung cấp các phiên bản tối ưu hóa GPU của mô hình gpt-oss-20b cho các thiết bị Windows. Được hỗ trợ bởi ONNX Runtime, các phiên bản này hỗ trợ suy diễn cục bộ và có thể truy cập qua Foundry Local và AI Toolkit cho VS Code, đơn giản hóa quy trình tích hợp cho các nhà phát triển trên nền tảng Windows.

Đối với các nhà phát triển đang tìm kiếm các mô hình tùy chỉnh hoàn toàn có khả năng tinh chỉnh và triển khai trong môi trường của riêng họ, các mô hình gpt-oss cung cấp một giải pháp phù hợp. Ngược lại, đối với những người yêu cầu khả năng đa phương tiện, các công cụ tích hợp sẵn và sự tích hợp liền mạch với nền tảng, các mô hình được cung cấp thông qua nền tảng API vẫn là lựa chọn ưu tiên. Phản hồi từ các nhà phát triển tiếp tục được theo dõi, với khả năng xem xét hỗ trợ API trong tương lai cho các mô hình gpt-oss.

Việc ra mắt gpt-oss-120b và gpt-oss-20b đại diện cho một bước tiến đáng kể trong lĩnh vực các mô hình trọng số mở, mang lại những cải tiến đáng kể về khả năng lý luận và tính an toàn ở quy mô của chúng. Những mô hình mở này bổ sung cho các mô hình do bên thứ ba sở hữu bằng cách cung cấp cho các nhà phát triển một lựa chọn rộng rãi hơn về công cụ để tạo điều kiện cho nghiên cứu tiên tiến, kích thích đổi mới, và thúc đẩy sự phát triển AI an toàn hơn, minh bạch hơn trên nhiều ứng dụng khác nhau.

Hơn nữa, các mô hình mở này giúp giảm rào cản gia nhập cho các thị trường mới nổi, các lĩnh vực hạn chế tài nguyên và các tổ chức nhỏ hơn có thể gặp khó khăn trong việc áp dụng các giải pháp độc quyền. Bằng cách cung cấp các công cụ dễ tiếp cận và mạnh mẽ, người dùng trên toàn thế giới được trao quyền để phát triển, đổi mới và tạo ra các cơ hội mới. Sự sẵn có rộng rãi của các mô hình trọng số mở có khả năng này được sản xuất tại Hoa Kỳ góp phần vào việc mở rộng quyền truy cập AI công bằng.

Một hệ sinh thái đáng tin cậy của các mô hình mở là một thành phần thiết yếu trong việc thúc đẩy khả năng tiếp cận AI rộng rãi và bao trùm. Các nhà phát triển và nhà nghiên cứu được khuyến khích sử dụng những mô hình này cho việc thử nghiệm, hợp tác và mở rộng giới hạn của những gì có thể đạt được. Tiến trình tiếp tục trong lĩnh vực này đang được mong đợi với sự quan tâm.

GPT-4.13%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)