咨詢(xún)熱線(xiàn):400-6688-804
行業(yè)資訊

OpenAI不能用了!國產(chǎn)大模型廠(chǎng)商集體回應!

作者:證券時(shí)報 來(lái)源:證券時(shí)報 時(shí)間:2024-06-28 14:12:17 瀏覽次數:

OpenAI停止對中國提供服務(wù)以后,國內大模型廠(chǎng)商成為最大贏(yíng)家。

OpenAI停止對中國提供服務(wù)以后,國內大模型廠(chǎng)商成為最大贏(yíng)家。

6月25日,OpenAI向中國用戶(hù)發(fā)布郵件稱(chēng),自7月9日起阻止來(lái)自非支持國家和地區的API流量。受影響組織若希望繼續使用OpenAI的服務(wù),必須在其支持的國家或地區內訪(fǎng)問(wèn)。目前,OpenAI的API向161個(gè)國家和地區開(kāi)放,由于中國未在其中,這意味著(zhù)OpenAI將終止對中國提供API服務(wù)。

目前,由于國內有不少接入OpenAIAPI接口的開(kāi)發(fā)者和企業(yè)。業(yè)內人士分析稱(chēng),OpenAI終止對中國提供API服務(wù),將倒逼中國的大模型公司加速自主研發(fā),并促使更多的創(chuàng )業(yè)公司選擇國產(chǎn)大模型部署自身的產(chǎn)品和服務(wù),以規避日后可能的風(fēng)險。

國產(chǎn)大模型廠(chǎng)商方面,記者注意到已有百度、阿里巴巴、智譜AI等多家公司針對此則消息,發(fā)布了相關(guān)“搬家”計劃,助力受此影響的用戶(hù)切換至國產(chǎn)大模型。

其中,百度推出了“故鄉的云·國產(chǎn)大模型普惠計劃”。據百度有關(guān)負責人介紹,即日起為新注冊企業(yè)用戶(hù)提供零成本切換服務(wù)(0元調用、0元訓練、0元遷移、0元服務(wù))。其中在0元調用方面,文心旗艦模型首次免費,贈送ERNIE3.5旗艦模型5000萬(wàn)Tokens包,主力模型ERNIE Speed/ERNIE Lite和輕量模型ERNIE Tiny持續免費。另外,針對OpenAI遷移用戶(hù)還將額外贈送與OpenAI使用規模對等的ERNIE3.5旗艦模型Tokens包。

阿里方面,阿里通義千問(wèn)今日公布OpenAI用戶(hù)遷移方案,阿里云百煉將為OpenAI API用戶(hù)提供最具性?xún)r(jià)比的中國大模型替代方案,并為中國開(kāi)發(fā)者提供2200萬(wàn)免費tokens和專(zhuān)屬遷移服務(wù)。阿里巴巴有關(guān)負責人向證券時(shí)報記者表示,根據斯坦福最新公布的大模型測評榜單HELMMMLU,Qwen2-72B得分為0.824,與GPT—4并列全球第四。通義千問(wèn)GPT4級主力模型Qwen-plus在阿里云百煉上的調用價(jià)格為0.004元/千tokens,僅為GPT—4的50分之一。

除了百度、阿里等大廠(chǎng),大模型創(chuàng )業(yè)公司智譜AI也推出相關(guān)的遷移方案。據了解,智譜AI為OpenAIAPI用戶(hù)提供特別搬家計劃,幫助用戶(hù)輕松切換至國產(chǎn)大模型。具體而言,開(kāi)發(fā)者可以獲得1.5億Token(5000萬(wàn)GLM-4+1億GLM-4-Air),以及從OpenAI到智譜AI旗下的GLM大模型的系列遷移培訓。對于高質(zhì)量客戶(hù),智譜AI還將提供與OpenAI使用規模對等的Token贈送計劃(不設上限)、與OpenAI對等的并發(fā)規模、匹配高等級會(huì )員政策、專(zhuān)屬搬家顧問(wèn)及5人天技術(shù)專(zhuān)家支持、備案培訓和輔助。

不難發(fā)現,國內基礎大模型公司目前已經(jīng)進(jìn)入到搶占市場(chǎng)的關(guān)鍵時(shí)期。無(wú)論是百度、阿里還是智譜AI,都參與了此前轟轟烈烈的價(jià)格戰,通過(guò)大幅降價(jià)的方式,吸引更多用戶(hù)。此次受到影響而面臨“搬家”困境的客戶(hù),必然也是幾家公司爭取的對象。

業(yè)界認為,OpenAI終止對中國提供API服務(wù),雖然對部分基于OpenAI部署和優(yōu)化模型的公司而言構成了較大的挑戰,但對于中國基礎大模型服務(wù)商來(lái)說(shuō),這將是一次較好的證明自身實(shí)力的機會(huì )。誰(shuí)能夠為被OpenAI“拋棄”的開(kāi)發(fā)者提供更優(yōu)質(zhì)的服務(wù),誰(shuí)就更有可能獲得更大的市場(chǎng)機遇,在大模型的競爭中脫穎而出。

編輯:袁海霞