تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
١. المقدمة | نقلة نموذج Crypto AI
تُعتبر البيانات والنماذج والقوة الحاسوبية العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، وهي تشبه الوقود (البيانات) والمحرك (النماذج) والطاقة (القوة الحاسوبية) التي لا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدي، شهدت أيضًا منطقة الذكاء الاصطناعي المشفر مراحل مشابهة. في أوائل عام 2024، كانت السوق مهيمنة من قبل مشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الواسع من خلال "تجميع القوة الحاسوبية". ومع دخول عام 2025، بدأت نقاط التركيز في الصناعة تتحول تدريجياً نحو طبقات النماذج والبيانات، مما يدل على أن الذكاء الاصطناعي المشفر ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث تصل أحجام المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب مرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر النموذج اللغوي المتخصص (SLM) كنوع من نماذج الأساس القابلة لإعادة الاستخدام، وهو نمط من التعديل الخفيف، حيث يعتمد عادةً على نماذج مفتوحة المصدر، ويجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك المعرفة في مجالات محددة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التقنية.
من المهم أن نلاحظ أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال استدعاء هيكل الوكيل، ونظام المكونات الإضافية للتوجيه الديناميكي، وLoRA (الوحدات القابلة للتوصيل الساخن)، وRAG (التوليد المعزز بالاسترجاع) وغيرها. يحتفظ هذا الهيكل بقدرة LLM الواسعة في التغطية، بينما يعزز الأداء المتخصص من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تحسين القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي هو
عقبة تقنية مرتفعة: حجم البيانات والموارد الحاسوبية والقدرات الهندسية المطلوبة لتدريب نموذج Foundation هائلة للغاية، حاليًا لا تمتلك القدرات اللازمة سوى عمالقة التكنولوجيا مثل الولايات المتحدة والصين.
قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرئيسية مفتوحة المصدر، إلا أن المفتاح الحقيقي لدفع اختراق النماذج لا يزال مركّزًا في المؤسسات البحثية ونظام الهندسة المغلقة، حيث أن المساحة للمشاركة في مستوى النماذج الأساسية لمشاريع السلسلة محدودة.
ومع ذلك، على الرغم من نماذج الأساس مفتوحة المصدر، يمكن لمشاريع Crypto AI تحقيق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM) ودمج قابلية التحقق وآليات التحفيز الخاصة بـ Web3. بوصفها "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوق: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات، واستخدامها على السلسلة، يتم تعزيز قابلية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
آلية التحفيز: من خلال استخدام الرمز الأصلي، لتحفيز سلوكيات مثل رفع البيانات، استدعاء النماذج، وتنفيذ الوكلاء (Agent)، لبناء دورة إيجابية لتدريب النماذج والخدمات.
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين
من هنا يتبين أن النقاط الممكنة لمشاريع Crypto AI من نوع نموذجية تتركز أساسًا على تحسين دقة SLM الصغيرة، ودمج البيانات والتحقق من البيانات على السلسلة باستخدام بنية RAG، وأيضًا على نشر وتحفيز نماذج Edge محليًا. بالاستفادة من قابلية التحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة متميزة في «طبقة الواجهة» للذكاء الاصطناعي.
سلسلة AI القائمة على البيانات والنماذج في blockchain، يمكنها تسجيل المصدر الواضح وغير القابل للتلاعب لكل بيانات ونماذج، مما يعزز بشكل كبير من مصداقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، ويؤسس نظام حوافز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، مما يحسن هيكل الحكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي على سلسلة الكتل
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على تحفيز البيانات والنماذج. لقد قدمت مفهوم "AI القابل للدفع"، وتهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عائدات على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
مصنع النماذج: بدون برمجة، يمكنك استخدام LoRA لتدريب وضبط النماذج المخصصة بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم التعايش بين آلاف النماذج، تحميل ديناميكي حسب الطلب، مما يقلل بشكل ملحوظ من تكاليف النشر؛
PoA (إثبات النسب): تحقيق قياس المساهمة وتوزيع المكافآت من خلال تسجيل المكالمات على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو السيناريوهات الرأسية، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة يمكن تجميعها واستدعائها ودفع ثمنها.
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" القائم على البيانات وقابلية تجميع النماذج، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية البلوكشين، تعتمد OpenLedger على OP Stack + EigenDA كأساس، مما يوفر بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
مبني على OP Stack: مبني على تقنية Optimism، يدعم تنفيذ ذو عوائد عالية وتكاليف منخفضة؛
تسوية على الشبكة الرئيسية لإيثيريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة بناءً على Solidity؛
EigenDA يوفر دعم توفر البيانات: يقلل بشكل كبير من تكاليف التخزين ويضمن قابلية التحقق من البيانات.
بالمقارنة مع NEAR التي تركز بشكل أكبر على البنية التحتية، والتي تروج لسيادة البيانات و "AI Agents on BOS"، فإن OpenLedger تركز أكثر على بناء سلسلة الذكاء الاصطناعي المخصصة التي تستهدف تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستخدامها قابلة للتتبع، وقابلة للتجميع، وقابلة للاستدامة في القيمة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، والفوترة لاستخدامها، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها الفني
3.1 نموذج المصنع، بدون نموذج كود
ModelFactory هو منصة لتعديل نماذج اللغة الكبيرة (LLM) تحت نظام OpenLedger. على عكس الأطر التقليدية للتعديل، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النموذج بناءً على مجموعة البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. تم تحقيق تدفق العمل المتكامل لتفويض البيانات، وتدريب النموذج ونشره، وتشمل العمليات الأساسية ما يلي:
التحكم في الوصول إلى البيانات: يقدم المستخدم طلب بيانات، يقوم المزود بمراجعة الموافقة، ويتم الاتصال بالبيانات تلقائيًا بواجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الشائع، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
التعديل الخفيف: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو المشاركة البيئية.
واجهة التحقق التفاعلي: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
RAG توليد تتبع المصدر: تقديم إجابات مع مراجع المصدر، مما يعزز الثقة وقابلية التدقيق.
يتضمن هيكل نظام Model Factory ستة وحدات، تمتد عبر المصادقة على الهوية، صلاحيات البيانات، تعديل النماذج، التقييم والنشر، وRAG، لإنشاء منصة متكاملة لخدمات النماذج تكون آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق الأرباح.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
ملخص القدرات الحالية لنموذج ModelFactory لدعم نماذج اللغة الكبيرة كما يلي:
سلسلة LLaMA: الأكثر شمولاً في النظام البيئي، المجتمع نشط، الأداء العام قوي، وهو واحد من النماذج الأساسية المفتوحة المصدر الأكثر شيوعًا في الوقت الحالي.
Mistral: هيكل فعال، أداء استدلال ممتاز، مناسب للنشر المرن والسيناريوهات ذات الموارد المحدودة.
Qwen:أداء ممتاز في المهام باللغة الصينية، قدرة شاملة قوية، مناسب ليكون الخيار الأول للمطورين المحليين.
ChatGLM: أداء المحادثة باللغة الصينية بارز، مناسب لخدمات العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتمتع بقدرة فائقة في توليد الشفرات والاستدلال الرياضي، مناسب لأدوات المساعدة في التطوير الذكي.
فالكون: كانت معيار الأداء، مناسبة للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، ولكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل تم تكوينها بناءً على القيود الواقعية للنشر على السلسلة (تكلفة الاستدلال، توافق RAG، توافق LoRA، بيئة EVM) من خلال تكوين "الأولوية العملية".
Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، مع مزايا انخفاض العوائق، القابلية للتحويل والتجميع، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل لنموذج الحضانة، التوزيع، والدخل؛
بالنسبة للمنصة: تشكيل تدفق أصول النموذج ونظام بيئي مركب؛
للمستخدمين: يمكن دمج النماذج أو الوكلاء كما هو الحال عند استدعاء واجهة برمجة التطبيقات.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA، أصول سلسلة التعديل النموذج
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم المهام الجديدة من خلال إدراج "مصفوفات منخفضة الرتبة" في نموذج كبير مدرب مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة، يلزم إجراء ضبط. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، وهي فعالة من حيث المعلمات، وتدريبها سريع، ونشرها مرن، مما يجعلها الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن مصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد، تم بناؤه بواسطة OpenLedger. الهدف الأساسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، ودفع تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام هندسة مكونات أساسية، يعتمد على تصميم معياري، يغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الحيوية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وتكلفة منخفضة:
وحدة تخزين LoRA Adapter: يتم استضافة LoRA adapter الذي تم ضبطه في OpenLedger، مما يتيح التحميل عند الطلب، وتجنب تحميل جميع النماذج مسبقًا في الذاكرة، مما يوفر الموارد.
استضافة النموذج وطبقة الدمج الديناميكية: جميع نماذج الضبط الدقيق تشترك في النموذج الكبير الأساسي، أثناء الاستدلال يتم دمج محول LoRA ديناميكيًا، ويدعم الاستدلال المشترك لعدة محولات، مما يعزز الأداء.
محرك الاستدلال: يدمج تقنيات CUDA المحسنة مثل Flash-Attention و Paged-Attention و SGMV.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 17
أعجبني
17
6
إعادة النشر
مشاركة
تعليق
0/400
JustAnotherWallet
· منذ 20 س
ما زلت تتداول في قوة الحوسبة، لقد أصبحت خارج الموضة.
شاهد النسخة الأصليةرد0
wagmi_eventually
· منذ 20 س
مرة أخرى تغيير السرد، يبدو قليلاً غير مفيد.
شاهد النسخة الأصليةرد0
LiquidatedDreams
· منذ 20 س
مظلم مرة أخرى لتداول الذكاء الاصطناعي
شاهد النسخة الأصليةرد0
AirdropGrandpa
· منذ 20 س
لا تزال تتنافس في قوة الحوسبة؟ استيقظ بسرعة!
شاهد النسخة الأصليةرد0
AirdropHunter420
· منذ 20 س
عاد تراكم الأساس الأعمى مرة أخرى
شاهد النسخة الأصليةرد0
TokenAlchemist
· منذ 20 س
همم، طبقة أخرى تحاول استغلال ميزة الحوسبة الذكية... سنرى كيف سيتطور ذلك في الإنتاج بصراحة.
OpenLedger بناء اقتصاد نماذج الذكاء الاصطناعي: قاعدة OP Stack تقنيات الضبط الدقيق تدعم الحوافز المستدامة
تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب استنادا إلى OP Stack + EigenDA
١. المقدمة | نقلة نموذج Crypto AI
تُعتبر البيانات والنماذج والقوة الحاسوبية العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، وهي تشبه الوقود (البيانات) والمحرك (النماذج) والطاقة (القوة الحاسوبية) التي لا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدي، شهدت أيضًا منطقة الذكاء الاصطناعي المشفر مراحل مشابهة. في أوائل عام 2024، كانت السوق مهيمنة من قبل مشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الواسع من خلال "تجميع القوة الحاسوبية". ومع دخول عام 2025، بدأت نقاط التركيز في الصناعة تتحول تدريجياً نحو طبقات النماذج والبيانات، مما يدل على أن الذكاء الاصطناعي المشفر ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تعتمد نماذج اللغة الكبيرة التقليدية (LLM) بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث تصل أحجام المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب مرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر النموذج اللغوي المتخصص (SLM) كنوع من نماذج الأساس القابلة لإعادة الاستخدام، وهو نمط من التعديل الخفيف، حيث يعتمد عادةً على نماذج مفتوحة المصدر، ويجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك المعرفة في مجالات محددة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التقنية.
من المهم أن نلاحظ أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال استدعاء هيكل الوكيل، ونظام المكونات الإضافية للتوجيه الديناميكي، وLoRA (الوحدات القابلة للتوصيل الساخن)، وRAG (التوليد المعزز بالاسترجاع) وغيرها. يحتفظ هذا الهيكل بقدرة LLM الواسعة في التغطية، بينما يعزز الأداء المتخصص من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تحسين القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الرئيسي هو
ومع ذلك، على الرغم من نماذج الأساس مفتوحة المصدر، يمكن لمشاريع Crypto AI تحقيق قيمة إضافية من خلال ضبط نماذج اللغة المتخصصة (SLM) ودمج قابلية التحقق وآليات التحفيز الخاصة بـ Web3. بوصفها "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين
من هنا يتبين أن النقاط الممكنة لمشاريع Crypto AI من نوع نموذجية تتركز أساسًا على تحسين دقة SLM الصغيرة، ودمج البيانات والتحقق من البيانات على السلسلة باستخدام بنية RAG، وأيضًا على نشر وتحفيز نماذج Edge محليًا. بالاستفادة من قابلية التحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة متميزة في «طبقة الواجهة» للذكاء الاصطناعي.
سلسلة AI القائمة على البيانات والنماذج في blockchain، يمكنها تسجيل المصدر الواضح وغير القابل للتلاعب لكل بيانات ونماذج، مما يعزز بشكل كبير من مصداقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، ويؤسس نظام حوافز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، مما يحسن هيكل الحكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي على سلسلة الكتل
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على تحفيز البيانات والنماذج. لقد قدمت مفهوم "AI القابل للدفع"، وتهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عائدات على السلسلة بناءً على المساهمات الفعلية.
OpenLedger توفر حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" إلى "استدعاء توزيع الأرباح"، وتشمل وحداتها الأساسية:
من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" القائم على البيانات وقابلية تجميع النماذج، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية البلوكشين، تعتمد OpenLedger على OP Stack + EigenDA كأساس، مما يوفر بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.
بالمقارنة مع NEAR التي تركز بشكل أكبر على البنية التحتية، والتي تروج لسيادة البيانات و "AI Agents on BOS"، فإن OpenLedger تركز أكثر على بناء سلسلة الذكاء الاصطناعي المخصصة التي تستهدف تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير النماذج واستخدامها قابلة للتتبع، وقابلة للتجميع، وقابلة للاستدامة في القيمة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، حيث تجمع بين استضافة النماذج، والفوترة لاستخدامها، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger وهيكلها الفني
3.1 نموذج المصنع، بدون نموذج كود
ModelFactory هو منصة لتعديل نماذج اللغة الكبيرة (LLM) تحت نظام OpenLedger. على عكس الأطر التقليدية للتعديل، يوفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين تعديل النموذج بناءً على مجموعة البيانات التي تم الانتهاء من تفويضها ومراجعتها على OpenLedger. تم تحقيق تدفق العمل المتكامل لتفويض البيانات، وتدريب النموذج ونشره، وتشمل العمليات الأساسية ما يلي:
يتضمن هيكل نظام Model Factory ستة وحدات، تمتد عبر المصادقة على الهوية، صلاحيات البيانات، تعديل النماذج، التقييم والنشر، وRAG، لإنشاء منصة متكاملة لخدمات النماذج تكون آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للاستدامة لتحقيق الأرباح.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
ملخص القدرات الحالية لنموذج ModelFactory لدعم نماذج اللغة الكبيرة كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل تم تكوينها بناءً على القيود الواقعية للنشر على السلسلة (تكلفة الاستدلال، توافق RAG، توافق LoRA، بيئة EVM) من خلال تكوين "الأولوية العملية".
Model Factory كأداة بدون كود، تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، مع مزايا انخفاض العوائق، القابلية للتحويل والتجميع، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA، أصول سلسلة التعديل النموذج
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم المهام الجديدة من خلال إدراج "مصفوفات منخفضة الرتبة" في نموذج كبير مدرب مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام معينة، يلزم إجراء ضبط. الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، وهي فعالة من حيث المعلمات، وتدريبها سريع، ونشرها مرن، مما يجعلها الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن مصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد، تم بناؤه بواسطة OpenLedger. الهدف الأساسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، ودفع تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام هندسة مكونات أساسية، يعتمد على تصميم معياري، يغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من المراحل الحيوية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وتكلفة منخفضة: