473 人工智能大模型。
473 人工智能大模型。 (第2/2页)苏阳打开电脑,开始梳理当前全球AI大模型的市场格局。
当前,全球大模型行业正处于“百模大战”的白热化阶段。海外市场,OpenAI的GPT系列依然占据领先地位,凭借先发优势和微软的算力支持,牢牢把持着企业级和开发者市场的头部份额。谷歌的Gemini凭借其多模态能力和生态系统紧随其后,AnthrOpiC的ClaUde以长上下文和安全性见长,在特定领域拥有一席之地。Meta的Llama系列则凭借开源策略,成为了全球开发者构建应用的首选基座模型。
国内市场则更加拥挤。百度的文心一言、阿里的通义千问、字节跳动的豆包、科大讯飞的星火、腾讯的混元、智谱的ChatGLM……十多家厂商的产品同台竞技,每家都投入了数十亿甚至上百亿的资金,但真正拉开代差的几乎没有。性能上你追我赶,价格战却已经打得血流成河——API调用的单价在过去一年里下跌了超过百分之九十,从千tOkenS几分钱跌到了几分钱、甚至零点几分钱。
行业的核心痛点有三个。
第一,算力成本居高不下。训练一个千亿参数的大模型需要数千张甚至上万张GPU,电费、硬件折旧、集群维护加起来,单次训练的成本就要数千万美元。这还不算后续的迭代优化、推理部署。即使是头部大厂,也在为高昂的算力成本头疼。
第二,推理速度和成本难以兼顾。模型越大,推理越慢、越贵。为了控制成本,很多厂商不得不牺牲模型精度,采用量化、蒸馏等技术缩小模型体积,但这样做又会损失能力。用户想要一个既聪明又快速还便宜的模型,但目前的技术做不到。
第三,长上下文和多模态能力仍是瓶颈。虽然各家都在宣传百万级上下文,但实际应用中,长文本处理的效果远不如宣传的理想。多模态的融合也大多停留在“看图说话”的初级阶段,真正的视频理解、音视频协同生成还远远不够成熟。
更关键的是,大模型尚未出现真正“杀手级”的应用。聊天、写作、翻译、代码辅助——这些场景虽然有用,但不足以支撑起一个万亿级的市场。行业共识是,大模型需要与硬件结合、与物理世界结合,才能真正释放价值。
苏阳翻完最后一份报告,靠在椅背上,嘴角浮起一丝笑意。
算力成本高?盘古大模型的训练成本只有行业平均的二十分之一。推理慢?推理速度快十倍。能力不够?两万亿参数、百万上下文、多模态,每一项指标都碾压现有产品。商业模式?价格只要三分之一,中小企业也能用得起。