OpenAI推出付費訂閱計劃“ChatGPT Plus”,首次將AI大模型的C端用戶使用價定在每月20美元。2023年3月,百度發布文心一言并宣布免費試用,當年11月,文心一言上線專業版并在國內首先開啟付費模式;2023年9月,騰訊混元大模型對外開放,其收費標準為每1000個token(模型輸入和輸出的基本單位)收費0.14元……此時,大模型的使用還是“按分計價”。
直到2024年5月,國內AI企業深度求索旗下的DeepSeek-V2模型將大模型的價格降至GPT-4的1%后,阿里、騰訊、字節跳動等多家企業迅速跟進,AI大模型“按厘計價”時代正式開啟,并激起一波模型“降價潮”。DeepSeek-R1的出現,則將這一進程直接推向“零成本”的臨界點。深度求索發布開源AI大模型——DeepSeek-R1,其API服務定價遠低于OpenAI的o1模型。1月底,OpenAI免費開放推理模型o3-mini。而后,便是此次百度和OpenAI同天宣布“免費”,大模型價格戰再升級。
從“按分計價”到“按厘計價”,再到如今“零元購”,上述轉變的發生,與相關技術的進步和規模效應有關。他提到,隨著算法和硬件技術的不斷進步,以及更多企業和個人參與到大模型的研發中,大模型的訓練成本正逐漸降低。“DeepSeek-R1就是一個例子。”
據了解,DeepSeek-R1通過優化算法采用MoE(混合專家模型)架構、MLA(多頭潛在注意力機制)等技術,使得GPU集群使用效率遠超行業平均水平,模型訓練的算力需求顯著降低。公開文件(文件行業分析報告)數據顯示,DeepSeek-R1的模型訓練成本僅為560萬美元左右,相比OpenAI的GPT-4模型高昂的訓練費用,大模型應用的成本可以說降到了‘白菜價’。
過去百年,創新的本質就是成本下降和生產力提升,在AI、IT乃至更多領域,大多數創新都與降低成本有關。”在日前舉行的2025年世界政府峰會上,百度創始人李彥宏透露,如今,大模型推理成本已經實現了每年降低90%以上。以文心大模型為例,2024年,其日均調用量達15億次,顯著的規模效應降低了單位成本;同時,文心一言的深度搜索功能還支持調用外部工具來處理復雜任務,也能有效降低成本。