📢 Gate广场专属 #WXTM创作大赛# 正式开启!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),总奖池 70,000 枚 WXTM 等你赢!
🎯 关于 MinoTari (WXTM)
Tari 是一个以数字资产为核心的区块链协议,由 Rust 构建,致力于为创作者提供设计全新数字体验的平台。
通过 Tari,数字稀缺资产(如收藏品、游戏资产等)将成为创作者拓展商业价值的新方式。
🎨 活动时间:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 参与方式:
在 Gate广场发布与 WXTM 或相关活动(充值 / 交易 / CandyDrop)相关的原创内容
内容不少于 100 字,形式不限(观点分析、教程分享、图文创意等)
添加标签: #WXTM创作大赛# 和 #WXTM#
附本人活动截图(如充值记录、交易页面或 CandyDrop 报名图)
🏆 奖励设置(共计 70,000 枚 WXTM):
一等奖(1名):20,000 枚 WXTM
二等奖(3名):10,000 枚 WXTM
三等奖(10名):2,000 枚 WXTM
📋 评选标准:
内容质量(主题相关、逻辑清晰、有深度)
用户互动热度(点赞、评论)
附带参与截图者优先
📄 活动说明:
内容必须原创,禁止抄袭和小号刷量行为
获奖用户需完成 Gate广场实名
AI大模型百花齐放 技术门槛降低引发全球竞争
AI领域群雄并起,"百模大战"时代来临
上个月,AI界爆发了一场"动物之争"。一边是Meta推出的Llama,凭借开源特性深受开发者青睐。另一边是名为Falcon的大模型,今年5月问世后力压Llama登顶开源LLM排行榜。
有趣的是,Falcon的开发者是阿联酋首都阿布扎比的科技创新研究所。阿联酋人工智能部长随后入选《时代周刊》评选的"AI领域最具影响力的100人"。
如今,AI领域已进入百家争鸣阶段。有一定财力的国家和企业都在打造本土版ChatGPT。仅在海湾地区,沙特阿拉伯刚刚为国内大学购买3000多块H100芯片用于LLM训练。
这种局面让人不禁疑惑:说好的高难度硬科技,怎么就变成"一国一模"了?
Transformer改变了游戏规则
2017年,谷歌8位计算机科学家在论文《Attention Is All You Need》中公开了Transformer算法,成为此轮AI热潮的催化剂。如今所有大模型,包括GPT系列,都建立在Transformer基础之上。
Transformer的变革主要有两点:一是用位置编码取代了循环设计,实现并行计算,大幅提升训练效率;二是进一步加强了上下文理解能力。
这使得大模型从理论研究变成了工程问题。数据、算力规模、模型架构等工程要素,成为AI竞赛的关键。只要有一定技术能力的公司,都能开发出大模型。
开源与闭源之争
目前,"百模大战"已成现实。截至7月,中国大模型数量达130个,超过美国的114个。其他国家如日本、印度、韩国等也都有了自己的大模型。
不过,入场容易成功难。以Falcon为例,虽然在排名上超过Llama,但难言对Meta造成实质冲击。对开源大模型而言,活跃的开发者社群才是核心竞争力。Meta早有开源传统,在社群运营上更胜一筹。
当然,提高性能也是一条路。但目前大多数LLM与GPT-4仍有明显差距。在最新的AgentBench测试中,GPT-4以4.41分遥遥领先,第二名Claude仅2.77分,其他开源模型多在1分左右。
造成这种差距的,是OpenAI优秀的科学家团队和长期积累的经验。大模型的核心在于生态建设(开源)或纯粹的推理能力(闭源)。
成本与收入失衡
目前,大模型行业普遍存在成本与收入严重失衡的问题。据红杉资本估算,全球科技公司每年在大模型基础设施上的支出可达2000亿美元,而大模型年收入最多750亿美元,存在至少1250亿美元的缺口。
即便是微软、Adobe这样的软件巨头,在AI产品上也面临亏损。多数大模型公司在巨额投入后,仍未找到清晰的盈利模式。
随着同质化竞争加剧和开源模型增多,单纯的大模型供应商可能面临更大压力。未来,AI的价值或将更多体现在具体应用场景中,而非模型本身。