在消費者對ChatGPT等消費級AI應用進行嘗鮮和玩票之后,企業(yè)也迎來了AI發(fā)展的轉折點。相比2023年企業(yè)紛紛訓練自己的大模型,2024年企業(yè)對大模型的關注轉向推理,以實現(xiàn)差異化和變現(xiàn)。一方面,企業(yè)部署大模型對計算架構帶來了新的挑戰(zhàn);另一方面,企業(yè)對推理的重視,也使其對算力架構的選擇走向多元。
“隨著越來越多的通用大模型被訓練出來,今年企業(yè)的關注點轉向了推理。”英特爾公司市場營銷集團副總裁、中國區(qū)數(shù)據(jù)中心銷售總經(jīng)理莊秉翰向《中國電子報》表示,“我們看到一些客戶愿意嘗試用CPU做大模型推理,還有一些互聯(lián)網(wǎng)公司,之前更多提供的是基于GPU的大模型服務,現(xiàn)在也提供基于CPU的大模型,尤其是在推理上。”
企業(yè)迎來大模型部署浪潮 數(shù)據(jù)與模型結合成最大挑戰(zhàn)
企業(yè)級場景,正在成為AI大模型的藍海市場。市調機構數(shù)據(jù)顯示,預計2026年80%的企業(yè)會使用生成式人工智能,至少50%的企業(yè)會在邊緣計算部署機器學習或者深度學習,從而提升企業(yè)競爭力。在企業(yè)支出方面,預計企業(yè)在生成式人工智能的投資將在今年達到400億美元規(guī)模,到2027年達到1510億美元規(guī)模。
莊秉翰指出,企業(yè)AI的發(fā)展可以分為三個階段。一是AI輔助階段,AI作為企業(yè)的輔助工具,提供會議紀要總結、大綱提煉、文生圖等輔助功能。二是AI助手階段,AI賦能各領域的工作流程自動化,提供行程管理等助手型功能,以及面向客戶的智能客服功能。三是全功能AI階段,AI提供全方位、更精準的自動化服務,為企業(yè)經(jīng)營帶來更大價值。
無論是AI助手階段還是全功能AI階段,最大的挑戰(zhàn)都在于企業(yè)數(shù)據(jù)與通用模型的結合。
“企業(yè)對自己的數(shù)據(jù),比如傳統(tǒng)的數(shù)據(jù)如何保存使用,哪些數(shù)據(jù)應該在公有云或者私有云使用,有很明確的規(guī)定。但是,現(xiàn)有AI模型大多是通用模型,一旦企業(yè)把數(shù)據(jù)上傳到這些AI模型再做提煉升華,就存在數(shù)據(jù)泄漏的風險,也會對企業(yè)的競爭力帶來影響。所以我們提出企業(yè)AI的概念,其核心在于以更加開放、更具規(guī)模性、更加可靠的方式,幫助企業(yè)釋放AI潛力。”莊秉翰向記者表示。
按照技術架構,企業(yè)AI能力的構建可以分為四個層次。一是兼具可獲取性和隱私性的底層算力。二是具備可擴展性和標準化的基礎設施。比如企業(yè)在私有云部署AI,可能采用單節(jié)點、多節(jié)點或者平均式的部署,或者根據(jù)企業(yè)的發(fā)展規(guī)劃從單節(jié)點小集群逐步走向更大的集群,這就需要算力基礎設施具備可擴展性和標準化。三是安全可靠的軟件生態(tài)。四是便捷開放的應用生態(tài)。
面向企業(yè)AI的部署需求,英特爾搭建了算力、基礎設施、軟件、應用四層生態(tài)的開放生態(tài)堆棧。其中算力生態(tài)包含基于酷睿處理器、vPRO商用PC芯片平臺的AI PC,基于至強處理器、Gaudi AI加速芯片、ARC顯卡的邊緣AI與數(shù)據(jù)中心AI?;A設施生態(tài)包含OEM、ODM、CSP(云端服務供應商)、OSV(操作系統(tǒng)集成商)等。
比如在英特爾與金山云的合作中,金山云在云服務器 X7 中引入了第四代至強可擴展處理器,并基于英特爾AMX原生加速能力發(fā)布了StableDiffusion、LLaMa2、ChatGLM2三款針對X7服務器調優(yōu)的大模型鏡像。相較優(yōu)化之前的模型,基于AMX優(yōu)化的文生圖大模型 Stable Diffusion推理性能提升了4.96倍,Llama2 和 ChatGLM2優(yōu)化后的推理性能也分別提升了2.62倍和2.52倍。
英特爾公司市場營銷集團副總裁、中國區(qū)云與行業(yè)解決方案部總經(jīng)理梁雅莉表示,英特爾與金山云合作的云服務器對客戶的吸引力來自三個方面。一是便捷的部署,即用戶無需部署專用的AI推理服務器,而是可以在通用云服務器的基礎上,通過調優(yōu)的大模型鏡像,快速、靈活地實現(xiàn)模型推理;二是成本優(yōu)化;三是除了大模型推理之外,用戶還可以調度金山云云服務器運行其它工作負載,實現(xiàn)敏捷切換。
“企業(yè)在面對不同選擇之時,會考慮幾點。第一是‘可及’,即該算力是能夠購買、能夠獲取,且是通用的;二是對性能的追求;三是在易部署的情況下,能夠擁有可靠的保障?!绷貉爬蛘f。
從注重訓練走向注重推理 CPU成為AI推理選項
2023年,AI大模型迎來“百模大戰(zhàn)”的盛況。但在大模型走向落地期的過程中,企業(yè)越來越注重大模型的投入產(chǎn)出比和后續(xù)的盈利能力,這一點也反應在企業(yè)對底層算力架構的選擇上。
莊秉翰在接受《中國電子報》專訪時表示,2023年,企業(yè)對大模型的關注聚焦在訓練,更注重性能,對成本和功耗沒有那么重視。由于企業(yè)都希望訓練自己的通用大模型,也出現(xiàn)了“百模大戰(zhàn)”的現(xiàn)象。
隨著越來越多的通用大模型被訓練出來,今年企業(yè)的關注點轉向了推理。對于企業(yè)來說,大模型是需要變現(xiàn)且能夠盈利的,但目前市場上的大模型大多基于開源,用做訓練的數(shù)據(jù)也差不多,很難通過差異化來盈利。而企業(yè)AI能夠讓企業(yè)將自身數(shù)據(jù)融合在大模型的訓練過程中,使大模型真正幫助企業(yè)解決業(yè)務上的問題,增強產(chǎn)品競爭力。
而企業(yè)對于大模型盈利能力的重視,也體現(xiàn)在對底層算力架構的選擇上。莊秉翰表示,推理基于大規(guī)模的算力部署,需要對智算中心的成本、功耗以及整體的運營運維進行考量。在這種趨勢下,一些企業(yè)正在嘗試用CPU做大模型推理。從許多案例可以看到,CPU可以支持130億參數(shù)規(guī)模以下大模型的推理。
“對一些企業(yè)來說,大模型部署處在初始階段。如果立即部署一個很大的GPU集群,對于運維和開發(fā)來說都是很大的挑戰(zhàn)。如果采用逐步部署生成式人工智能的節(jié)奏,就可以通過CPU先來做一些大模型的應用部署。當不需要生成式大模型時,還可以轉換到通用的應用,這也是一種可以實現(xiàn)盈利的方式。我們看到一些客戶愿意嘗試用CPU做大模型推理,還有一些互聯(lián)網(wǎng)公司,之前更多提供的是基于GPU的大模型服務,現(xiàn)在也提供基于CPU的大模型,尤其是在推理上?!鼻f秉翰向《中國電子報》記者表示。
而算力架構的選擇,也與企業(yè)類型和所處階段息息相關。梁雅莉表示,企業(yè)要因地制宜,選擇最適合企業(yè)的人工智能策略,并基于該策略選擇最適合的基礎設施和架構。
“對于頭部互聯(lián)網(wǎng)和大模型公司來講,今年面臨的挑戰(zhàn)是大模型的落地和變現(xiàn)。對于其他企業(yè)來說,如何挑選合適的大模型融入生產(chǎn)或業(yè)務流程以創(chuàng)造價值,是更重要的命題?!绷貉爬蛳颉吨袊娮訄蟆酚浾弑硎荆爱敶竽P秃蜕墒饺斯ぶ悄軣岫韧嗜?,需要變現(xiàn)并產(chǎn)生價值的時候,就需要思考落地的經(jīng)濟適用性和最適合的方案。”
- QQ:61149512