AI DePIN мережа: майбутнє децентралізованих GPU обчислень
З 2023 року AI та DePIN стали популярними тенденціями у сфері Web3, їхня ринкова капіталізація досягла 30 мільярдів доларів і 23 мільярдів доларів відповідно. У цій статті зосереджено увагу на перетині цих двох сфер, досліджуючи розвиток відповідних протоколів.
У технологічному стеку AI мережа DePIN надає обчислювальні ресурси для розширення можливостей AI. Нестача GPU, викликана великими технологічними компаніями, ускладнює іншим розробникам AI отримання достатньої потужності GPU. Традиційний підхід полягає у виборі централізованих хмарних постачальників послуг, але це вимагає підписання не гнучких довгострокових контрактів, що призводить до низької ефективності.
DePIN надає більш гнучке та економічно вигідне альтернативне рішення, заохочуючи внески в ресурси, які відповідають цілям мережі, через токенізацію. DePIN у сфері ШІ інтегрує особисті ресурси GPU в дата-центри, надаючи користувачам єдине постачання. Це не тільки забезпечує розробників індивідуальним та запитним доступом, але й створює додатковий дохід для власників GPU.
На ринку існує безліч AI DePIN мереж, у цій статті буде розглянуто роль, цілі та особливості кожного протоколу, а також їхні відмінності.
Render є піонером P2P GPU обчислювальної мережі, спочатку зосереджуючись на графічному рендерингу, а згодом розширивши свої послуги на AI обчислювальні завдання.
Яскраві моменти:
Заснована компанією OTOY, яка отримала Оскар за технічні досягнення
GPU мережу використовують великі розважальні компанії, такі як Paramount, PUBG тощо.
Співпраця з Stability AI та іншими для інтеграції моделей ШІ з робочими процесами рендерингу 3D-контенту
Схвалення декількох обчислювальних клієнтів, інтеграція більшої кількості GPU мережі DePIN
Акаш
Akash позиціонується як "супер-хмарна" платформа, що підтримує зберігання, обчислення на GPU та CPU, є альтернативою традиційним платформам, таким як AWS. Використовуючи платформу контейнерів та обчислювальні вузли, керовані Kubernetes, можна безперешкодно розгортати будь-які хмарні додатки.
Яскраві моменти:
Орієнтований на широкий спектр обчислювальних завдань, від загальних обчислень до хостингу в мережі
AkashML дозволяє запускати понад 15 000 моделей на Hugging Face
Хостинг важливих додатків, таких як LLM чат-бот Mistral AI, SDXL від Stability AI тощо
Метавсесвіт, платформи для впровадження ШІ та федеративного навчання використовують свій надхмарний сервіс
io.net
io.net надає доступ до розподілених GPU хмарних кластерів, спеціально призначених для AI та ML, агрегуючи ресурси GPU з дата-центрів, майнерів тощо.
Яскраві моменти:
IO-SDK сумісний з такими фреймворками, як PyTorch та Tensorflow, і може автоматично масштабуватися відповідно до вимог.
Підтримка створення 3 різних типів кластерів, запуск протягом 2 хвилин
Співпраця з Render, Filecoin та іншими DePIN мережами для інтеграції GPU
Генсин
Gensyn пропонує обчислювальні можливості GPU, зосереджені на машинному навчанні та глибокому навчанні. Завдяки таким технологіям, як доказ навчання, реалізується більш ефективний механізм верифікації.
Яскраві моменти:
Вартість години роботи V100 GPU приблизно 0,40 долара США, що суттєво знижує витрати.
Можна доопрацювати попередньо навчальну базову модель, щоб виконати більш конкретні завдання
Базова модель буде децентралізованою, глобальною та надасть додаткові функції
Етір
Aethir спеціалізується на розгортанні підприємницьких GPU, зосереджуючись на обчислювально інтенсивних областях, таких як ШІ, МЛ, хмарні ігри тощо. Контейнери в мережі виконують роль віртуальних кінцевих точок для виконання хмарних додатків, забезпечуючи низьку затримку.
Яскраві моменти:
Розширення послуг хмарних телефонів, співпраця з APhone для запуску децентралізованого хмарного телефону
Встановлення широкого співробітництва з великими компаніями Web2, такими як NVIDIA, HPE
з кількома партнерами Web3, такими як CARV, Magic Eden
Мережа Phala
Phala Network як виконавчий рівень Web3 AI рішень, використовує надійне середовище виконання (TEE) для вирішення проблем конфіденційності. Це дозволяє AI агентам контролюватися смарт-контрактами на блокчейні.
Яскраві моменти:
Як протокол копродуктів для верифікованих обчислень, надає можливість агентам ШІ використовувати ресурси на блокчейні
Договір AI-агента можна отримати через Redpill, щоб отримати доступ до провідних моделей великих мов, таких як OpenAI.
Майбутнє включатиме такі багатогранні системи доказів, як zk-proofs, MPC, FHE тощо
У майбутньому буде підтримка TEE GPU, таких як H100, що підвищить обчислювальні можливості
Порівняння проектів
| | Рендер | Акаш | io.net | Генсин | Етір | Пхала |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Апаратне забезпечення | Графічний процесор & Центральний процесор | Графічний процесор & Центральний процесор | Графічний процесор & Центральний процесор | Відеокарта | Відеокарта | Центральний процесор |
| Основні напрямки бізнесу | Графічний рендеринг та ШІ | Хмарні обчислення, рендеринг та ШІ | ШІ | ШІ | ШІ, хмарні ігри та телекомунікації | Виконання ШІ в ланцюгу |
| Тип завдання AI | Висновок | Обидва можуть бути | Обидва можуть бути | Навчання | Навчання | Виконання |
| Ціноутворення на основі роботи | Ціноутворення на основі результатів | Зворотні торги | Ринкове ціноутворення | Ринкове ціноутворення | Система тендерів | Обчислення прав |
| Блокчейн | Солана | Космос | Солана | Генсин | Арбітраж | Горошок |
| Приватність даних | Шифрування&хешування | mTLS аутентифікація | Шифрування даних | Безпечне відображення | Шифрування | TEE |
| Витрати на роботу | 0,5-5% за кожну роботу | 20% USDC, 4% AKT | 2% USDC, 0,25% резервний збір | Низькі витрати | 20% за кожну сесію | Пропорційно до суми стейкінгу |
| Безпека | Доказательство рендерингу | Доказательство прав власності | Доказательство обчислень | Доказательство прав власності | Доказательство рендерингової потужності | Спадкування з релейного ланцюга |
| Підтвердження завершення | - | - | Підтвердження часових замків | Підтвердження навчання | Підтвердження рендерингової роботи | Підтвердження TEE |
| Гарантія якості | Спір | - | - | Перевіряючий та заявник | Вузол перевірки | Віддалене підтвердження |
| GPU-кластер | Ні | Так | Так | Так | Так | Ні |
Розподілена обчислювальна система реалізувала GPU-кластери, що забезпечують більш ефективне навчання, одночасно підвищуючи масштабованість. Для навчання складних AI-моделей потрібні потужні обчислювальні ресурси, які зазвичай залежать від розподілених обчислень. Наприклад, модель GPT-4 від OpenAI має понад 18 трильйонів параметрів і навчалася протягом 3-4 місяців на приблизно 25 000 GPU Nvidia A100 у 128 кластерах.
Більшість проєктів тепер об'єдналися, щоб реалізувати паралельні обчислення. io.net співпрацює з іншими проєктами, щоб залучити більше GPU до мережі, вже в першому кварталі 24 року розгорнуто понад 3,800 кластерів. Render хоча й не підтримує кластери, але розподіляє один кадр на кілька вузлів для одночасної обробки, принцип роботи схожий. Phala наразі підтримує лише CPU, але дозволяє кластеризацію процесорних робітників.
Розробка AI-моделей потребує великих обсягів даних, які можуть містити чутливу інформацію. Samsung заборонив ChatGPT через побоювання щодо витоку коду, а інцидент з витоком даних Microsoft обсягом 38 ТБ підкреслив важливість заходів безпеки AI. Тому різні методи захисту даних є вкрай важливими для забезпечення контролю над даними.
Більшість проєктів використовують якусь форму шифрування даних. Render використовує шифрування та хешування при публікації результатів рендерингу, io.net та Gensyn застосовують шифрування даних, а Akash використовує mTLS аутентифікацію для обмеження доступу до даних.
io.net нещодавно співпрацював з Mind Network для запуску повністю гомоморфного шифрування (FHE), що дозволяє обробляти зашифровані дані без їх розшифровки, краще захищаючи конфіденційність даних, ніж існуючі технології шифрування.
Phala Network впроваджує довірене середовище виконання ( TEE ), щоб запобігти доступу або модифікації даних з боку зовнішніх процесів. Воно також поєднує zk-докази в zkDCAP валідаторі та jtee CLI для інтеграції RiscZero zkVM.
Підтвердження завершення обчислень та перевірка якості
Оскільки обсяг послуг широкий, від рендерингу до обчислень штучного інтелекту, кінцева якість може не завжди відповідати стандартам користувача. Завершення підтвердження та перевірки якості є корисними для користувачів.
Gensyn та Aethir генерують підтвердження завершення, io.net підтвердження показує, що продуктивність GPU використовується в повному обсязі. Gensyn і Aethir проводять контроль якості, Gensyn використовує валідаторів і репортерів, Aethir використовує контрольні вузли. Render рекомендує використовувати процес вирішення суперечок. Phala генерує TEE підтвердження, щоб забезпечити виконання необхідних дій AI-агентом.
Моделі штучного інтелекту схильні використовувати високопродуктивні графічні процесори, такі як Nvidia A100 та H100. Продуктивність H100 в інференції в 4 рази вища, ніж у A100, що робить його вибором номер один для великих компаній, які тренують LLM.
Постачальники децентралізованого ринку GPU повинні запропонувати нижчі ціни та задовольнити реальні потреби. У 2023 році Nvidia доставила понад 500 тисяч H100 великим технологічним компаніям, ускладнивши отримання аналогічного обладнання. Тому важливо враховувати кількість обладнання, яке ці проекти можуть ввести за низькою ціною, для розширення клієнтської бази.
Akash має лише трохи більше 150 H100 та A100, тоді як io.net та Aethir мають по більш ніж 2000. Для попередньо навчених LLM або генеративних моделей зазвичай потрібно від 248 до понад 2000 GPU кластерів, тому останні два проекти більше підходять для обчислень великих моделей.
Вартість децентралізованих GPU послуг вже знизилася нижче вартості централізованих послуг. Gensyn та Aethir стверджують, що можуть орендувати обладнання рівня A100 за ціною менше 1 долара на годину, але все ще потрібен час для перевірки.
У порівнянні з GPU, підключеними через NVLink, пам'ять GPU-кластерів з мережею обмежена. NVLink підтримує пряму комунікацію між GPU, що підходить для великих параметрів і великих наборів даних LLM. Незважаючи на це, децентралізовані GPU-мережі все ще надають потужні обчислювальні ресурси та масштабованість для розподілених обчислювальних завдань, створюючи можливості для розробки більшої кількості AI та ML випадків використання.
ЦПУ також відіграє важливу роль у навчанні моделей ШІ, використовуючи для попередньої обробки даних і управління пам'яттю. Споживчі ГПУ можуть бути використані для доопрацювання попередньо навчених моделей або навчання маломасштабних моделей.
Враховуючи, що понад 85% споживачів мають невикористані ресурси GPU, такі проекти, як Render, Akash та io.net, також обслуговують цей ринок. Надаючи ці варіанти, вони можуть розвивати ніші ринку, зосереджуючись на масштабних обчисленнях, маломасштабному рендерингу або їх поєднанні.
Сфера AI DePIN все ще є відносно новою і стикається з викликами. Наприклад, io.net був звинувачений у фальсифікації кількості GPU, але потім вирішив проблему шляхом впровадження процесу доказу роботи.
Попри це, кількість завдань та апаратних засобів, що виконуються на цих децентралізованих GPU мережах, значно зросла, що підкреслює зростаючий попит на альтернативи апаратних ресурсів постачальників Web2. Водночас зростання кількості постачальників апаратних засобів відображає раніше не використані запаси. Це далі підтверджує відповідність продукту AI DePIN мережі ринку, ефективно вирішуючи проблеми попиту та пропозиції.
Поглядаючи в майбутнє, ШІ розвине багатофункціональний ринок вартістю в десятки трильйонів доларів. Ці децентралізовані мережі GPU відіграють ключову роль у забезпеченні економічно вигідних варіантів обчислень для розробників. Постійно заповнюючи розрив між попитом і пропозицією, ці мережі суттєво вплинуть на майбутній ландшафт ШІ та обчислювальної інфраструктури.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
4
Поділіться
Прокоментувати
0/400
SpeakWithHatOn
· 08-06 07:46
Все ще торгуєш depin? Рано померти - рано воскреснути.
Переглянути оригіналвідповісти на0
SmartContractPlumber
· 08-06 07:46
Цей код ще потрібно перевірити, не робіть явних вразливостей.
Переглянути оригіналвідповісти на0
HodlNerd
· 08-06 07:45
захоплююча теорія ігор у дії... децентралізовані пулі GPU є наступною логічною еволюцією, якщо чесно
Переглянути оригіналвідповісти на0
PanicSeller
· 08-06 07:34
Тільки бракує відеокарти, дивись, як ці люди можуть.
Поява мережі DePIN на базі штучного інтелекту: децентралізовані обчислення на GPU задають нові тренди
AI DePIN мережа: майбутнє децентралізованих GPU обчислень
З 2023 року AI та DePIN стали популярними тенденціями у сфері Web3, їхня ринкова капіталізація досягла 30 мільярдів доларів і 23 мільярдів доларів відповідно. У цій статті зосереджено увагу на перетині цих двох сфер, досліджуючи розвиток відповідних протоколів.
У технологічному стеку AI мережа DePIN надає обчислювальні ресурси для розширення можливостей AI. Нестача GPU, викликана великими технологічними компаніями, ускладнює іншим розробникам AI отримання достатньої потужності GPU. Традиційний підхід полягає у виборі централізованих хмарних постачальників послуг, але це вимагає підписання не гнучких довгострокових контрактів, що призводить до низької ефективності.
DePIN надає більш гнучке та економічно вигідне альтернативне рішення, заохочуючи внески в ресурси, які відповідають цілям мережі, через токенізацію. DePIN у сфері ШІ інтегрує особисті ресурси GPU в дата-центри, надаючи користувачам єдине постачання. Це не тільки забезпечує розробників індивідуальним та запитним доступом, але й створює додатковий дохід для власників GPU.
На ринку існує безліч AI DePIN мереж, у цій статті буде розглянуто роль, цілі та особливості кожного протоколу, а також їхні відмінності.
! Перетин AI та DePIN
Огляд мережі DePIN на базі штучного інтелекту
Рендер
Render є піонером P2P GPU обчислювальної мережі, спочатку зосереджуючись на графічному рендерингу, а згодом розширивши свої послуги на AI обчислювальні завдання.
Яскраві моменти:
Акаш
Akash позиціонується як "супер-хмарна" платформа, що підтримує зберігання, обчислення на GPU та CPU, є альтернативою традиційним платформам, таким як AWS. Використовуючи платформу контейнерів та обчислювальні вузли, керовані Kubernetes, можна безперешкодно розгортати будь-які хмарні додатки.
Яскраві моменти:
io.net
io.net надає доступ до розподілених GPU хмарних кластерів, спеціально призначених для AI та ML, агрегуючи ресурси GPU з дата-центрів, майнерів тощо.
Яскраві моменти:
Генсин
Gensyn пропонує обчислювальні можливості GPU, зосереджені на машинному навчанні та глибокому навчанні. Завдяки таким технологіям, як доказ навчання, реалізується більш ефективний механізм верифікації.
Яскраві моменти:
Етір
Aethir спеціалізується на розгортанні підприємницьких GPU, зосереджуючись на обчислювально інтенсивних областях, таких як ШІ, МЛ, хмарні ігри тощо. Контейнери в мережі виконують роль віртуальних кінцевих точок для виконання хмарних додатків, забезпечуючи низьку затримку.
Яскраві моменти:
Мережа Phala
Phala Network як виконавчий рівень Web3 AI рішень, використовує надійне середовище виконання (TEE) для вирішення проблем конфіденційності. Це дозволяє AI агентам контролюватися смарт-контрактами на блокчейні.
Яскраві моменти:
Порівняння проектів
| | Рендер | Акаш | io.net | Генсин | Етір | Пхала | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Апаратне забезпечення | Графічний процесор & Центральний процесор | Графічний процесор & Центральний процесор | Графічний процесор & Центральний процесор | Відеокарта | Відеокарта | Центральний процесор | | Основні напрямки бізнесу | Графічний рендеринг та ШІ | Хмарні обчислення, рендеринг та ШІ | ШІ | ШІ | ШІ, хмарні ігри та телекомунікації | Виконання ШІ в ланцюгу | | Тип завдання AI | Висновок | Обидва можуть бути | Обидва можуть бути | Навчання | Навчання | Виконання | | Ціноутворення на основі роботи | Ціноутворення на основі результатів | Зворотні торги | Ринкове ціноутворення | Ринкове ціноутворення | Система тендерів | Обчислення прав | | Блокчейн | Солана | Космос | Солана | Генсин | Арбітраж | Горошок | | Приватність даних | Шифрування&хешування | mTLS аутентифікація | Шифрування даних | Безпечне відображення | Шифрування | TEE | | Витрати на роботу | 0,5-5% за кожну роботу | 20% USDC, 4% AKT | 2% USDC, 0,25% резервний збір | Низькі витрати | 20% за кожну сесію | Пропорційно до суми стейкінгу | | Безпека | Доказательство рендерингу | Доказательство прав власності | Доказательство обчислень | Доказательство прав власності | Доказательство рендерингової потужності | Спадкування з релейного ланцюга | | Підтвердження завершення | - | - | Підтвердження часових замків | Підтвердження навчання | Підтвердження рендерингової роботи | Підтвердження TEE | | Гарантія якості | Спір | - | - | Перевіряючий та заявник | Вузол перевірки | Віддалене підтвердження | | GPU-кластер | Ні | Так | Так | Так | Так | Ні |
! Перетин AI та DePIN
Важливість
доступність кластерних та паралельних обчислень
Розподілена обчислювальна система реалізувала GPU-кластери, що забезпечують більш ефективне навчання, одночасно підвищуючи масштабованість. Для навчання складних AI-моделей потрібні потужні обчислювальні ресурси, які зазвичай залежать від розподілених обчислень. Наприклад, модель GPT-4 від OpenAI має понад 18 трильйонів параметрів і навчалася протягом 3-4 місяців на приблизно 25 000 GPU Nvidia A100 у 128 кластерах.
Більшість проєктів тепер об'єдналися, щоб реалізувати паралельні обчислення. io.net співпрацює з іншими проєктами, щоб залучити більше GPU до мережі, вже в першому кварталі 24 року розгорнуто понад 3,800 кластерів. Render хоча й не підтримує кластери, але розподіляє один кадр на кілька вузлів для одночасної обробки, принцип роботи схожий. Phala наразі підтримує лише CPU, але дозволяє кластеризацію процесорних робітників.
! Перетин AI та DePIN
захист даних
Розробка AI-моделей потребує великих обсягів даних, які можуть містити чутливу інформацію. Samsung заборонив ChatGPT через побоювання щодо витоку коду, а інцидент з витоком даних Microsoft обсягом 38 ТБ підкреслив важливість заходів безпеки AI. Тому різні методи захисту даних є вкрай важливими для забезпечення контролю над даними.
Більшість проєктів використовують якусь форму шифрування даних. Render використовує шифрування та хешування при публікації результатів рендерингу, io.net та Gensyn застосовують шифрування даних, а Akash використовує mTLS аутентифікацію для обмеження доступу до даних.
io.net нещодавно співпрацював з Mind Network для запуску повністю гомоморфного шифрування (FHE), що дозволяє обробляти зашифровані дані без їх розшифровки, краще захищаючи конфіденційність даних, ніж існуючі технології шифрування.
Phala Network впроваджує довірене середовище виконання ( TEE ), щоб запобігти доступу або модифікації даних з боку зовнішніх процесів. Воно також поєднує zk-докази в zkDCAP валідаторі та jtee CLI для інтеграції RiscZero zkVM.
! Перетин AI та DePIN
Підтвердження завершення обчислень та перевірка якості
Оскільки обсяг послуг широкий, від рендерингу до обчислень штучного інтелекту, кінцева якість може не завжди відповідати стандартам користувача. Завершення підтвердження та перевірки якості є корисними для користувачів.
Gensyn та Aethir генерують підтвердження завершення, io.net підтвердження показує, що продуктивність GPU використовується в повному обсязі. Gensyn і Aethir проводять контроль якості, Gensyn використовує валідаторів і репортерів, Aethir використовує контрольні вузли. Render рекомендує використовувати процес вирішення суперечок. Phala генерує TEE підтвердження, щоб забезпечити виконання необхідних дій AI-агентом.
Статистичні дані апаратного забезпечення
| | Рендер | Акаш | io.net | Генсин | Етір | Пхала | |-------------|--------|-------|--------|------------|------------|--------| | Кількість GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Кількість ЦПУ | 114 | 14672 | 5433 | - | - | 30000+ | | Кількість H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Вартість H100/годину | - | $1.46 | $1.19 | - | - | - | | Витрати A100/год | - | $1.37 | $1.50 | $0.55 ( очікується ) | $0.33 ( очікується ) | - |
! Перетин AI та DePIN
Попит на високопродуктивні GPU
Моделі штучного інтелекту схильні використовувати високопродуктивні графічні процесори, такі як Nvidia A100 та H100. Продуктивність H100 в інференції в 4 рази вища, ніж у A100, що робить його вибором номер один для великих компаній, які тренують LLM.
Постачальники децентралізованого ринку GPU повинні запропонувати нижчі ціни та задовольнити реальні потреби. У 2023 році Nvidia доставила понад 500 тисяч H100 великим технологічним компаніям, ускладнивши отримання аналогічного обладнання. Тому важливо враховувати кількість обладнання, яке ці проекти можуть ввести за низькою ціною, для розширення клієнтської бази.
Akash має лише трохи більше 150 H100 та A100, тоді як io.net та Aethir мають по більш ніж 2000. Для попередньо навчених LLM або генеративних моделей зазвичай потрібно від 248 до понад 2000 GPU кластерів, тому останні два проекти більше підходять для обчислень великих моделей.
Вартість децентралізованих GPU послуг вже знизилася нижче вартості централізованих послуг. Gensyn та Aethir стверджують, що можуть орендувати обладнання рівня A100 за ціною менше 1 долара на годину, але все ще потрібен час для перевірки.
У порівнянні з GPU, підключеними через NVLink, пам'ять GPU-кластерів з мережею обмежена. NVLink підтримує пряму комунікацію між GPU, що підходить для великих параметрів і великих наборів даних LLM. Незважаючи на це, децентралізовані GPU-мережі все ще надають потужні обчислювальні ресурси та масштабованість для розподілених обчислювальних завдань, створюючи можливості для розробки більшої кількості AI та ML випадків використання.
! Перетин AI та DePIN
надає споживчі GPU/CPU
ЦПУ також відіграє важливу роль у навчанні моделей ШІ, використовуючи для попередньої обробки даних і управління пам'яттю. Споживчі ГПУ можуть бути використані для доопрацювання попередньо навчених моделей або навчання маломасштабних моделей.
Враховуючи, що понад 85% споживачів мають невикористані ресурси GPU, такі проекти, як Render, Akash та io.net, також обслуговують цей ринок. Надаючи ці варіанти, вони можуть розвивати ніші ринку, зосереджуючись на масштабних обчисленнях, маломасштабному рендерингу або їх поєднанні.
! Перетин AI та DePIN
Висновок
Сфера AI DePIN все ще є відносно новою і стикається з викликами. Наприклад, io.net був звинувачений у фальсифікації кількості GPU, але потім вирішив проблему шляхом впровадження процесу доказу роботи.
Попри це, кількість завдань та апаратних засобів, що виконуються на цих децентралізованих GPU мережах, значно зросла, що підкреслює зростаючий попит на альтернативи апаратних ресурсів постачальників Web2. Водночас зростання кількості постачальників апаратних засобів відображає раніше не використані запаси. Це далі підтверджує відповідність продукту AI DePIN мережі ринку, ефективно вирішуючи проблеми попиту та пропозиції.
Поглядаючи в майбутнє, ШІ розвине багатофункціональний ринок вартістю в десятки трильйонів доларів. Ці децентралізовані мережі GPU відіграють ключову роль у забезпеченні економічно вигідних варіантів обчислень для розробників. Постійно заповнюючи розрив між попитом і пропозицією, ці мережі суттєво вплинуть на майбутній ландшафт ШІ та обчислювальної інфраструктури.
! Перетин AI та DePIN