速遞|a16z 華裔合伙人 Jennifer Li 最新洞察:小模型 + 邊緣 AI 將定義 2025

0 評論 1001 瀏覽 0 收藏 6 分鐘

在人工智能的快速發(fā)展中,a16z的華裔合伙人Jennifer Li帶來了她對生成式AI的最新洞察。她預測,小型模型結合邊緣AI將在2025年成為定義技術發(fā)展的關鍵趨勢。

a16z 合伙人 Jennifer Li 最近分享了她對生成式 AI 的最新見解,特別提到了設備端運行的小型模型在未來的重要性。

去年 4 月,Jennifer 升任為 a16z 第 27 位普通合伙人,并在 a16z 新成立的 12.5 億美元 AI 基礎設施基金扮演關鍵角色。

Jennifer 表示,生成圖像、語音和視頻的生成式模型將在基礎設施和設備計算能力方面變得更加普及,這為小型模型的崛起提供了絕佳條件,而在設備端運行的小型生成式 AI 模型將在 2025 年更加流行。

許多日常使用的應用程序,比如Uber、Instacart、Lyft或Airbnb,已經(jīng)在設備端運行了大量機器學習模型。然而,她特別想強調的是生成式模型,它們正在逐漸實現(xiàn)類似傳統(tǒng)機器學習模型的設備端運行。

Jennifer 表示,如今的智能手機計算能力相當于 10~20 年前的電腦,加上摩爾定律的作用,像 20 億或 80 億參數(shù)的小型模型,已經(jīng)足夠在設備端高效運行,并提供強大的功能,這一變化得益于設備計算能力的提升和模型優(yōu)化技術的進步 。

此外,她還提到蒸餾技術發(fā)展也是一大關鍵。這項技術可以將一個功能強大的大型模型壓縮成較小的模型,同時保留大部分能力,這種技術結合設備計算能力的提升,為小型模型的廣泛應用奠定了基礎。

相比云端運行,設備端運行生成式模型有許多顯著優(yōu)勢。首先是實時性。用戶希望與聊天機器人互動時能夠立即收到響應,或者在社交媒體中添加濾鏡時無需等待幾秒鐘加載。設備端運行能夠顯著減少延遲,為用戶提供更加流暢和直觀的體驗。

然后是隱私保護。如果數(shù)據(jù)處理可以完全在本地完成,比如會議記錄功能,大多數(shù)用戶會更加愿意使用這些應用,而不用擔心隱私數(shù)據(jù)被上傳到服務器進行處理。

經(jīng)濟性和效率也是重要因素。雖然云端推理的成本正在下降,但設備端運行可以進一步優(yōu)化開發(fā)者的效率,加快迭代速度,并降低一部分基礎設施的依賴。

某些計算密集型任務可能仍需要云端支持,但許多日常應用場景完全可以通過本地模型實現(xiàn),從而減少對網(wǎng)絡和服務器的依賴。

她還提到,設備端模型的潛力正在釋放,在未來我們可能會看到以下應用場景的廣泛普及:

  • 實時語音助手與對話 AI:這些助手能夠流暢地處理與用戶的互動,例如個性化的AI教練或客戶服務支持。
  • 增強現(xiàn)實(AR)體驗:通過攝像頭和生成式AI的結合,用戶可以實時重新設計空間,例如更改墻紙、家具擺放等。
  • 混合現(xiàn)實與創(chuàng)意表達:生成3D模型和視頻的新技術將改變我們與現(xiàn)實世界的互動方式,使得虛擬體驗更加生動有趣。
  • 可穿戴設備創(chuàng)新:智能手表和其他可穿戴設備將通過小型化生成模型解鎖更多個性化功能。

雖然設備端模型帶來了諸多可能性,但仍面臨一些挑戰(zhàn)。例如,設備端模型需要隨著硬件和應用的更新而同步迭代,開發(fā)和部署成本也可能有所增加。

另外,云端和設備端結合的經(jīng)濟模式需要重新設計,這將對整個供應鏈產(chǎn)生深遠影響。

Jennifer 認為生成式 AI 在設備端的普及正在重塑用戶體驗、隱私保護和開發(fā)生態(tài)。

隨著技術和基礎設施的進一步發(fā)展,混合現(xiàn)實和生成式 AI 的結合將為我們創(chuàng)造前所未有的沉浸式體驗,并開創(chuàng)全新的消費領域。

本文由人人都是產(chǎn)品經(jīng)理作者【江天 Tim】,微信公眾號:【有新Newin】,原創(chuàng)/授權 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉載。

題圖來自Jennifer Li 采訪截圖

更多精彩內容,請關注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!