用戶名: 密碼: 驗證碼:

小模型實現(xiàn)大收益!人工智能公司正尋求獲利“新思路”

摘要:全球諸多科技公司已經(jīng)砸下數(shù)百億美元來構(gòu)建各種大型語言模型,為生成式人工智能產(chǎn)品提供動力,而如今,這些公司開始寄望于一種推動收入增長的新方式——小型語言模型。小型語言模型的參數(shù)相較于大型語言模型少很多,但仍然具有強大的功能。

  ICC訊 全球諸多科技公司已經(jīng)砸下數(shù)百億美元來構(gòu)建各種大型語言模型,為生成式人工智能產(chǎn)品提供動力,而如今,這些公司開始寄望于一種推動收入增長的新方式——小型語言模型。

  小型語言模型的參數(shù)相較于大型語言模型少很多,但仍然具有強大的功能。微軟、Meta和谷歌近期都發(fā)布了新的人工智能小參數(shù)模型。

  通常來說,參數(shù)的數(shù)量越多,人工智能軟件的性能就越好,它所能執(zhí)行的任務(wù)就越復雜和巧妙。上周,OpenAI公司新宣布的最新模型GPT-4o和谷歌的Gemini 1.5 Pro估計擁有超過1萬億參數(shù),而Meta的開源Llama模型約有4000億參數(shù)。

  不過,運行大型語言模型所需的計算能力龐大,也就意味著成本高昂。除了難以說服一些企業(yè)客戶支付大筆運營費用外,數(shù)據(jù)和版權(quán)問題也成了人工智能產(chǎn)品使用的阻礙。

  替代方案

  一些科技公司目前正在將只有幾十億個參數(shù)的小型語言模型視為更便宜、更節(jié)能、可定制的替代方案進行宣傳。這些模型可以用更少的電力來訓練和運行,并且還可以保護敏感數(shù)據(jù)。

  谷歌、Meta、微軟和法國初創(chuàng)公司Mistral已陸續(xù)發(fā)布了各自的小型語言模型,這些模型顯示出先進的功能,并且可以更好地專注于特定的應(yīng)用功能。

  Meta全球事務(wù)總裁Nick Clegg直言,Llama 3最新的80億參數(shù)模型可與GPT-4媲美。他指出,“我認為,在你能想到的幾乎所有衡量標準中,你都看到了卓越的表現(xiàn)?!?

  微軟則表示,其擁有70億個參數(shù)的Phi -3小型模型的性能優(yōu)于OpenAI模型的早期版本GPT-3.5。

  微軟Azure人工智能平臺的副總裁Eric Boyd表示,“通過以更低的成本獲得如此高的質(zhì)量,你實際上為客戶提供了更多的應(yīng)用程序,讓他們可以做一些令人望而卻步的事情?!?

  Boyd還指出,“更小的型號將帶來有趣的應(yīng)用,并且能夠延伸到手機和筆記本電腦”。

  小型模型另外的一大優(yōu)勢就是可以在設(shè)備上“本地”處理任務(wù),而不是將信息發(fā)送到云端,這一點可能會吸引那些注重信息隱私的客戶。

  目前,谷歌最新的Pixel手機和三星最新的S24智能手機中已嵌入了谷歌的“Gemini Nano”模型;蘋果公司也暗示它也在開發(fā)AI模型,以運行iPhone上。上個月,蘋果發(fā)布了OpenELM模型,這是一個小型模型,旨在執(zhí)行基于文本的任務(wù)。

內(nèi)容來自:財聯(lián)社
本文地址:http://getprofitprime.com//Site/CN/News/2024/05/20/20240520084250150062.htm 轉(zhuǎn)載請保留文章出處
關(guān)鍵字:
文章標題:小模型實現(xiàn)大收益!人工智能公司正尋求獲利“新思路”
1、凡本網(wǎng)注明“來源:訊石光通訊網(wǎng)”及標有原創(chuàng)的所有作品,版權(quán)均屬于訊石光通訊網(wǎng)。未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載我方內(nèi)容的單位,也必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、免責聲明,凡本網(wǎng)注明“來源:XXX(非訊石光通訊網(wǎng))”的作品,均為轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。因可能存在第三方轉(zhuǎn)載無法確定原網(wǎng)地址,若作品內(nèi)容、版權(quán)爭議和其它問題,請聯(lián)系本網(wǎng),將第一時間刪除。
聯(lián)系方式:訊石光通訊網(wǎng)新聞中心 電話:0755-82960080-168   Right