📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
AI大模型百花齊放 技術門檻降低引發全球競爭
AI領域羣雄並起,"百模大戰"時代來臨
上個月,AI界爆發了一場"動物之爭"。一邊是Meta推出的Llama,憑藉開源特性深受開發者青睞。另一邊是名爲Falcon的大模型,今年5月問世後力壓Llama登頂開源LLM排行榜。
有趣的是,Falcon的開發者是阿聯酋首都阿布扎比的科技創新研究所。阿聯酋人工智能部長隨後入選《時代周刊》評選的"AI領域最具影響力的100人"。
如今,AI領域已進入百家爭鳴階段。有一定財力的國家和企業都在打造本土版ChatGPT。僅在海灣地區,沙特阿拉伯剛剛爲國內大學購買3000多塊H100芯片用於LLM訓練。
這種局面讓人不禁疑惑:說好的高難度硬科技,怎麼就變成"一國一模"了?
Transformer改變了遊戲規則
2017年,谷歌8位計算機科學家在論文《Attention Is All You Need》中公開了Transformer算法,成爲此輪AI熱潮的催化劑。如今所有大模型,包括GPT系列,都建立在Transformer基礎之上。
Transformer的變革主要有兩點:一是用位置編碼取代了循環設計,實現並行計算,大幅提升訓練效率;二是進一步加強了上下文理解能力。
這使得大模型從理論研究變成了工程問題。數據、算力規模、模型架構等工程要素,成爲AI競賽的關鍵。只要有一定技術能力的公司,都能開發出大模型。
開源與閉源之爭
目前,"百模大戰"已成現實。截至7月,中國大模型數量達130個,超過美國的114個。其他國家如日本、印度、韓國等也都有了自己的大模型。
不過,入場容易成功難。以Falcon爲例,雖然在排名上超過Llama,但難言對Meta造成實質衝擊。對開源大模型而言,活躍的開發者社群才是核心競爭力。Meta早有開源傳統,在社群運營上更勝一籌。
當然,提高性能也是一條路。但目前大多數LLM與GPT-4仍有明顯差距。在最新的AgentBench測試中,GPT-4以4.41分遙遙領先,第二名Claude僅2.77分,其他開源模型多在1分左右。
造成這種差距的,是OpenAI優秀的科學家團隊和長期積累的經驗。大模型的核心在於生態建設(開源)或純粹的推理能力(閉源)。
成本與收入失衡
目前,大模型行業普遍存在成本與收入嚴重失衡的問題。據紅杉資本估算,全球科技公司每年在大模型基礎設施上的支出可達2000億美元,而大模型年收入最多750億美元,存在至少1250億美元的缺口。
即便是微軟、Adobe這樣的軟件巨頭,在AI產品上也面臨虧損。多數大模型公司在巨額投入後,仍未找到清晰的盈利模式。
隨着同質化競爭加劇和開源模型增多,單純的大模型供應商可能面臨更大壓力。未來,AI的價值或將更多體現在具體應用場景中,而非模型本身。