字節跳動扔出一顆石子,在大模型行業炸出了一片水花。
15日,字節跳動推出豆包大模型,僅需0.8厘就能處理1500多個漢字。阿里、騰訊、百度緊跟而上掀起了一場大模型價格戰。一夜之間,大模型從以美元計價變成了以厘計價。
歷史總是出奇相似。經歷“百團大戰”“打車大戰”后,大模型的價格戰能否走出“跑馬圈地”的怪圈?
到底有多便宜
這一場價格戰從5月初開始。
DeepSeek在6日宣布,旗下大模型DeepSeek-V2降價至每百萬Tokens(處理文本最小單位)輸入價格為1元、輸出價格為2元,開發者還將獲得500萬Tokens的免費額度。
這個價格有多低?用OpenAI的主力大模型GPT-4 Turbo作比對就很明顯——每百萬Tokens的輸入和輸出價格分別為72元和217元。
但是兩者近百倍的價差,并未引發市場太大的反響,直至字節跳動的加入。
5月15日,字節跳動發布豆包大模型,宣布主力大模型pro-32k定價為0.8元/百萬Tokens,號稱比行業便宜99.3%,比DeepSeek-V2還低不少。
火山引擎總裁譚待公布豆包大模型定價。
21日,阿里云宣布通義千問主力模型Qwen-Long,API(編程接口)輸入價格從20元/百萬Tokens降至0.5元/百萬tokens,直降97%。這意味著,1元錢可以買200萬Tokens,相當于5本《新華字典》的文字量。
緊接著,百度隨即宣布文心大模型的兩款主力模型 ENIRE Speed、ENIRE Lite全面免費。這兩款大模型均支持客戶向大模型進行8K—128K內容量的提問和回答。
騰訊云旗下混元大模型跟著降價,其中混元—lite模型免費,混元—standard—256k輸入價格下調87.5%至15元/百萬Tokens。
需要提醒的是,各個平臺大模型的參數不一樣,最終價格也不盡相同,但價格降幅均在50%以上,是實打實的“打骨折”。相比之下,國內外廠商Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每百萬Tokens輸入價格分別為25元、22元及120元。
國產大模型的價格戰到底有多卷?火山引擎總裁譚待算了一筆賬:以主力模型32k(約3.2萬個參數)為例,看看1元錢能買到多少Token?此前,1元錢可以從GPT買到2400個Tokens,國內大模型能得到8000多個Tokens,如果用開源Llama搭建自己的大模型,1元錢可獲得3萬個Tokens。
在字節跳動的“鯰魚效應”下,如今只要花一元錢,就能獲得百萬級別Tokens,相當于“讀”完5本《新華字典》或3本《三國演義》。
為何要打價格戰
AI大模型是出了名的燒錢行業,在全球競爭的當下,算力、研發、運維等成本幾乎都用美元計算,錢還沒賺到,為何先打起了價格戰?
目前看來,互聯網“賠本賺吆喝”的邏輯依然貫穿始終。
一位大模型研發技術人員告訴記者,動輒百萬級別Tokens的計費模式雖然沒錯,但更多的是營銷噱頭而非實際能力,以大模型應用落地來看,《新華字典》級別的文本量不如對多模態的深度理解。“按照幾毛幾分的收費,大模型可能是虧錢的,但好在能夠吸引更多開發者和客戶,用短線虧損換取用戶基數,長期來看也算是一種商業策略。”他說道。
阿里云宣布通義千問大模型降價。
降價能否帶來用戶增長?阿里云在上半年的實踐證明是有效的。
3月1日開始,阿里云開啟新一輪的降價政策,核心產品平均降幅20%,最高幅度達55%。通過此次大規模降價,阿里云表示希望更多企業和開發者用上公共云服務,加速云計算在中國各行各業的普及和發展。
最近阿里財報顯示,阿里云季度營收同比增長3%至255.95億元,核心公共云產品收入實現兩位數增長,AI相關收入實現三位數增長。
不過,公共云的成功能否復制在大模型上,阿里、字節、騰訊等巨頭“大廠”決定放手一搏,但大模型的“中小廠”卻有不同的看法。
比如李開復創立的零一萬物最新發布的Yi—Large模型每百萬Tokens定價20元,與國外主流大模型類似。雖然他認可大模型的推理成本在未來將不斷降低,但并不打算現在跟風價格戰,“ofo式瘋狂降價”是一種雙輸的策略。在“做一單賠一單”的市場環境下,李開復坦言將服務國外市場的B端客戶。
百川智能CEO王小川也有類似觀點,他也建議創業公司不要摻和價格戰,大模型創業并不適合網約車和百團大戰時期“燒錢補貼”的策略,低價不應該成為大模型的唯一競爭力。
今后如何收費
從卷長文本到卷多模態再到卷價格,短短一年內,大模型在國內火速“進化”,從基礎技術到落地應用,國內大模型迎來了商業化的序幕。
《中國大模型中標項目監測報告》顯示,今年前四個月,大模型相關中標金額已超過去年全年7成以上,涉及政務、金融、能源等多行業,由此可見,傳統行業正加速擁抱大模型。科技巨頭的數據也能印證這一點:百度文心大模型每天處理文本量達到2500億Tokens,而字節跳動每天處理1200億Tokens。
目前,大模型在B端的商業化落地主要有API調用和私有化部署兩種渠道,千億級的數據處理能力,顯然不是每個公司都能承受的,公有云+API成了越來越多企業的選擇。
“去年很多客戶說買一兩百臺GPU服務器,自行搭建計算網絡集群研發大模型,而今年不少公司已經放棄這一計劃。”阿里云公共云事業部總裁劉偉光解釋說,構建一個大規模集群需要GPU顯卡采購、軟件部署、網絡費用、電費、人力成本以及不斷投入的試錯成本。但是在公共云上的調用價格也遠遠低于私有化部署。
他以使用Qwen-72B開源模型、每月1億Tokens用量為例,在公有云上直接調用API每月僅需600元,而私有化部署的成本平均每月超1萬元,“大模型的規模越大,云上的優勢就越明顯”。
C端商業化又是另一條路徑。
“B端降價,C端收費,國內大模型以后可能要走上OpenAI的老路。”上述研發人員告訴記者,大模型在B端低價吸引開發者,當技術生態逐步完善后,C端應用也就到了“收割”期。以OpenAI為例,面向C端用戶推出ChatGPT Plus,會員需要支付每月20美元訂閱費,面對B端開發者提供API調用服務。去年OpenAI的年度經常性收入據報道已達到16億美元。
今年推出的GPT-4o與早期GPT3.5類似,免費的限次數使用,付費的無限制使用。百度的文心一言大模型亦是如此:文心3.5版本可免費使用,但是升級成文心4.0版本則需要開通每月至少49.9元的會員。
文心4.0版本需要開通每月至少49.9元的會員。
國內的Kimi近期推出的打賞功能,也是C端收費的探索之一。Kimi在高峰算力不足時,可提供打賞獲得優先權,價格分別為5.2元、9.99元、28.8元、49.9元、99元和399元,打賞后分別可獲得4天、8天、23天、40天、93天和365天的高峰期優先使用權。