用戶(hù)名: 密碼: 驗(yàn)證碼:

Sora添柴加薪 再不AI就晚啦

摘要:自2022年末的ChatGPT掀起AI大模型浪潮,到2024年初的Sora再次引爆科技圈,AI正以前所未有的速度重塑世界??萍嫉娘L(fēng)口誰(shuí)都想搶占,沒(méi)有人希望被時(shí)代的洪流拋下,此時(shí)人們最關(guān)心的莫過(guò)于,生成式AI究竟與哪些行業(yè)相關(guān),又將如何滲透進(jìn)各產(chǎn)業(yè)鏈,受益哪些終端?

  ICC俗話(huà)說(shuō)得好,愛(ài)到不能愛(ài),聚到終須散。都2024年了,再不AI就晚啦。時(shí)值中國(guó)農(nóng)歷龍年新春,世界的科技大門(mén)由 “文生視頻”模型 Sora推開(kāi),嶄新的時(shí)代來(lái)臨,人們對(duì)未來(lái)充滿(mǎn)了無(wú)限遐想。

  2024年2月16日凌晨, OpenAI推出了首款文本轉(zhuǎn)視頻模型——Sora,立即在全球范圍內(nèi)引發(fā)了軒然大波。據(jù)OpenAI官方介紹,Sora可以生成長(zhǎng)達(dá)60秒的視頻,而且每一幀都充滿(mǎn)了細(xì)節(jié),甚至能看清人臉上的法令紋。無(wú)論是復(fù)雜的攝像機(jī)運(yùn)動(dòng),還是多角色的情感表達(dá),Sora都能游刃有余地處理。更難能可貴的是,它還能根據(jù)用戶(hù)提供的簡(jiǎn)單提示詞,生成極具創(chuàng)意和真實(shí)感的視頻內(nèi)容。

  自2022年末的ChatGPT掀起AI大模型浪潮,到2024年初的Sora再次引爆科技圈,AI正以前所未有的速度重塑世界??萍嫉娘L(fēng)口誰(shuí)都想搶占,沒(méi)有人希望被時(shí)代的洪流拋下,此時(shí)人們最關(guān)心的莫過(guò)于,生成式AI究竟與哪些行業(yè)相關(guān),又將如何滲透進(jìn)各產(chǎn)業(yè)鏈,受益哪些終端?

  毫無(wú)疑問(wèn),光通信產(chǎn)業(yè)是受益AI的幸運(yùn)兒。農(nóng)歷龍年A股開(kāi)市第一天(2024年2月19日),光通信股受益Sora概念熱潮,全線(xiàn)飄紅,數(shù)只漲停。

  那光通信產(chǎn)業(yè)鏈的各個(gè)環(huán)節(jié)與AI都有哪些深度或間接關(guān)聯(lián)呢?

  光通信——搶占AI供應(yīng)鏈高地

  2023年以來(lái),科技圈最熱門(mén)的話(huà)題除了AI大模型以外,還有AI終端設(shè)備。大家都關(guān)心的一個(gè)問(wèn)題是,AI時(shí)代順利開(kāi)啟后,最適合搭載AI應(yīng)用的軟硬件是什么?

  軟件上自然無(wú)需光通信出手了,那硬件有光通信可以努力的方向嗎?

  答案是肯定的。

  AI通常需要進(jìn)行大量的計(jì)算和數(shù)據(jù)處理,因此需要使用一些專(zhuān)門(mén)針對(duì)人工智能應(yīng)用進(jìn)行優(yōu)化的硬件設(shè)備,主要包括中央處理器(CPU)、圖形處理器(GPU)、專(zhuān)用芯片(ASIC)、神經(jīng)網(wǎng)絡(luò)處理器(NPU)、加速卡(TPU)、內(nèi)存(RAM)、存儲(chǔ)設(shè)備、網(wǎng)絡(luò)接口卡(NIC)、機(jī)箱、背板、主板、散熱系統(tǒng)和電源等,具體配置則可能會(huì)根據(jù)不同的應(yīng)用場(chǎng)景和需求有所變化。

  除了以上硬件設(shè)備,還有一些專(zhuān)門(mén)為AI應(yīng)用優(yōu)化的服務(wù)器、存儲(chǔ)設(shè)備和網(wǎng)絡(luò)設(shè)備,如AI芯片服務(wù)器和NVMe SSD等。AI芯片服務(wù)器是專(zhuān)為AI應(yīng)用設(shè)計(jì)的服務(wù)器,通常配備多個(gè)GPU、TPU或NPU芯片,支持高性能的并行計(jì)算和分布式訓(xùn)練。AI芯片服務(wù)器還支持各種深度學(xué)習(xí)框架和算法,并提供友好的開(kāi)發(fā)環(huán)境和工具。

  其中,GPU是由大量核心組成的大規(guī)模并行計(jì)算架構(gòu),擁有較多運(yùn)算單元(ALU)和較少緩存(cache),是一款專(zhuān)為同時(shí)處理多重任務(wù)而設(shè)計(jì)的芯片,具備良好的矩陣計(jì)算能力和并行計(jì)算優(yōu)勢(shì),能滿(mǎn)足深度學(xué)習(xí)等AI算法的處理需求,因此成為主流云端AI芯片。

  不難看出,與光通信強(qiáng)關(guān)聯(lián)的就是GPU(Graphics Processing Unit),一種通用并行處理器,最初用于圖形處理,但現(xiàn)在由于其高并行計(jì)算能力也被廣泛應(yīng)用于深度學(xué)習(xí)等人工智能領(lǐng)域。與傳統(tǒng)的CPU相比,GPU具有更多的計(jì)算核心和高速的內(nèi)存帶寬,可以顯著加速矩陣運(yùn)算等計(jì)算密集型任務(wù)。在深度學(xué)習(xí)等大規(guī)模數(shù)據(jù)處理中,GPU能夠加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理過(guò)程,比CPU更適合處理大規(guī)模的矩陣運(yùn)算。

  具體是如何相關(guān)的,不妨先看看GPU的硬件組成及運(yùn)行原理(懂的跳過(guò))。

  一塊GPU對(duì)應(yīng)需要多少光模塊?

  光模塊在 GPU 中扮演著傳輸數(shù)據(jù)的關(guān)鍵角色,它能夠?qū)崿F(xiàn)高速、低延遲的數(shù)據(jù)傳輸,從而提高GPU性能。GPU通常需要處理大量的圖形或計(jì)算任務(wù),這些任務(wù)需要快速地從存儲(chǔ)器中讀取數(shù)據(jù),然后將計(jì)算結(jié)果寫(xiě)回存儲(chǔ)器。光模塊可以通過(guò)高速的光信號(hào)傳輸加快GPU與其他設(shè)備之間的數(shù)據(jù)交換速度,提高數(shù)據(jù)傳輸效率。

  而光模塊在GPU中的工作則是光發(fā)射器負(fù)責(zé)將電信號(hào)轉(zhuǎn)換為光信號(hào),并通過(guò)光纖或光導(dǎo)波器將信號(hào)傳輸出去光接收器則接收從其他設(shè)備發(fā)送過(guò)來(lái)的光信號(hào),并將其轉(zhuǎn)換為電信號(hào),然后傳遞給GPU進(jìn)行處理。

  已知GPU 的硬件組成包括:

  ·處理器單元(Processing Units,PU):又稱(chēng)為流處理器(Stream Processor),是 GPU 的核心計(jì)算單元,用于執(zhí)行計(jì)算操作。GPU 可以擁有幾十到數(shù)千個(gè)處理器單元,每個(gè)處理器單元都可以同時(shí)執(zhí)行多個(gè)線(xiàn)程,從而實(shí)現(xiàn)高并發(fā)的計(jì)算。

  ·顯存(Graphics Memory):用于存儲(chǔ)圖形數(shù)據(jù)、紋理等圖形相關(guān)的數(shù)據(jù),以及 GPU 計(jì)算過(guò)程中所需要的中間結(jié)果等數(shù)據(jù)。顯存的容量通常比 CPU 的內(nèi)存小,但它的讀寫(xiě)速度更快,可以滿(mǎn)足高速的數(shù)據(jù)交換和計(jì)算要求。

  ·內(nèi)存控制器(Memory Controller):用于控制顯存的讀寫(xiě)操作,以及與CPU的內(nèi)存之間的數(shù)據(jù)交換。

  ·命令/控制器(Command/Control Processor):用于控制GPU內(nèi)部的處理器單元,協(xié)調(diào)GPU和CPU之間的數(shù)據(jù)傳輸和通信。

  ·圖形輸出(Display Output):用于將GPU處理后的圖像數(shù)據(jù)輸出到顯示器上。

  市場(chǎng)上已經(jīng)有不同版本的光模塊與GPU數(shù)量比例的測(cè)算,因網(wǎng)卡型號(hào)、交換機(jī)型號(hào)和單元(Scalable unit SU)數(shù)量的不同,算出來(lái)GPU與200G光模塊、400G光模塊和800G光模塊的對(duì)應(yīng)比例就不同,有GPU:200G光模塊=1:6,也有GPU:200G光模塊=1:1,還有GPU:800G光模塊=1:1.5,GPU:400G光模塊=1:1

  有業(yè)內(nèi)人士測(cè)算結(jié)果顯示,如果以2024年0.85美元/GB的均價(jià)簡(jiǎn)單計(jì)算,AI預(yù)計(jì)為光模塊帶來(lái)13.8/49.7億美金的AI增量市場(chǎng)空間。

  需要與哪些GPU廠(chǎng)搞好關(guān)系?

  其實(shí)只有一家,就是英偉達(dá)(NVIDIA)。英偉達(dá)被稱(chēng)為AI領(lǐng)域“無(wú)可爭(zhēng)議的領(lǐng)導(dǎo)者”,人工智能芯片市場(chǎng)份額預(yù)計(jì)已達(dá)到90%,創(chuàng)下新紀(jì)錄。

  在人工智能加速芯片市場(chǎng)中,英偉達(dá)的A100/H100系列AI GPU成為了市場(chǎng)的首選產(chǎn)品。研究機(jī)構(gòu)預(yù)測(cè),英偉達(dá)計(jì)劃在2024年銷(xiāo)售約150萬(wàn)至200萬(wàn)個(gè)AI GPU,這將是其2023年銷(xiāo)量的三倍。

  當(dāng)然,英偉達(dá)的領(lǐng)先也并非一朝一夕就能實(shí)現(xiàn)的。英偉達(dá)大約在15年前就開(kāi)始與大學(xué)合作,尋找除了游戲和可視化市場(chǎng)之外,GPU還可以完成的新奇特事物。

  2023年英偉達(dá)高端GPU曾一度供不應(yīng)求,2023年底時(shí)的交期還有8-11個(gè)月,2024年初就已經(jīng)減少到了只有3-4個(gè)月。

  目前來(lái)看,在大A上市的頭部光通信企業(yè),大漲的就包括英偉達(dá)供應(yīng)商和代工廠(chǎng)??梢酝ㄋ椎刂v,但凡打入英偉達(dá)供應(yīng)鏈的,在過(guò)去的2023年都風(fēng)光無(wú)限。

  為了不在這場(chǎng)全球科技競(jìng)賽中掉隊(duì),除了押注英偉達(dá)以外,也可以看看同步抗衡的微軟、亞馬遜、谷歌和Meta等國(guó)際大佬,這些公司也紛紛在自研AI芯片,準(zhǔn)備在AI生成視頻領(lǐng)域大干一場(chǎng)。

  結(jié)語(yǔ)

  盡管AI技術(shù)在帶來(lái)巨大便利和效率提升的同時(shí)也引發(fā)了一系列討論和擔(dān)憂(yōu),但可以相信的是,這些擔(dān)憂(yōu)會(huì)隨著技術(shù)的發(fā)展完善而逐步解決磨合。

  唯一需要關(guān)注的是,每一次新的技術(shù)革命都會(huì)帶來(lái)新一輪的行業(yè)洗牌,我們不得不摩拳擦掌、分秒必爭(zhēng),要在這場(chǎng)競(jìng)賽中守住行業(yè)地位,或?qū)崿F(xiàn)逆襲,除了必備的眼光和智慧以外,實(shí)力和毅力也不可或缺。

  面向未來(lái)AI,我們準(zhǔn)備好了嗎?

內(nèi)容來(lái)自:訊石光通訊網(wǎng)
本文地址:http://getprofitprime.com//Site/CN/News/2024/02/26/20240226010811862625.htm 轉(zhuǎn)載請(qǐng)保留文章出處
關(guān)鍵字:
文章標(biāo)題:Sora添柴加薪 再不AI就晚啦
1、凡本網(wǎng)注明“來(lái)源:訊石光通訊網(wǎng)”及標(biāo)有原創(chuàng)的所有作品,版權(quán)均屬于訊石光通訊網(wǎng)。未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過(guò)授權(quán)可以轉(zhuǎn)載我方內(nèi)容的單位,也必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和本站來(lái)源。
2、免責(zé)聲明,凡本網(wǎng)注明“來(lái)源:XXX(非訊石光通訊網(wǎng))”的作品,均為轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。因可能存在第三方轉(zhuǎn)載無(wú)法確定原網(wǎng)地址,若作品內(nèi)容、版權(quán)爭(zhēng)議和其它問(wèn)題,請(qǐng)聯(lián)系本網(wǎng),將第一時(shí)間刪除。
聯(lián)系方式:訊石光通訊網(wǎng)新聞中心 電話(huà):0755-82960080-168   Right