女人被狂躁到高潮视频免费无遮挡,内射人妻骚骚骚,免费人成小说在线观看网站,九九影院午夜理论片少妇,免费av永久免费网址

當前位置:首頁 > 廠商動態(tài) > Arm
[導讀]隨著人工智能 (AI) 的演進,利用小語言模型 (SLM) 在嵌入式設備上執(zhí)行 AI 工作負載成為業(yè)界關注的焦點。Llama、Gemma 和 Phi3 等小語言模型,憑借其出色的成本效益、高效率以及在算力受限設備上的易部署性,贏得了廣泛認可。Arm 預計這類模型的數(shù)量將在 2025 年繼續(xù)增長。

隨著人工智能 (AI) 的演進,利用小語言模型 (SLM) 在嵌入式設備上執(zhí)行 AI 工作負載成為業(yè)界關注的焦點。Llama、Gemma 和 Phi3 等小語言模型,憑借其出色的成本效益、高效率以及在算力受限設備上的易部署性,贏得了廣泛認可。Arm 預計這類模型的數(shù)量將在 2025 年繼續(xù)增長。

Arm 技術以其高性能與低功耗的顯著優(yōu)勢,為小語言模型提供了理想的運行環(huán)境,能夠有效提升運行效率,并進一步優(yōu)化用戶體驗。為了直觀展示端點 AI 在物聯(lián)網(wǎng)和邊緣計算領域的巨大潛力,Arm技術團隊近期打造了一場技術演示。在演示中,當用戶輸入一個句子后,系統(tǒng)將基于該句擴展生成一個兒童故事。這項演示受到了微軟 “Tiny Stories” 論文和 Andrej Karpathy 的 TinyLlama2 項目的啟發(fā),TinyLlama2 項目使用了 2,100 萬個故事來訓練小語言模型生成文本。

該演示搭載了 Arm Ethos-U85 NPU,并在嵌入式硬件上運行小語言模型。盡管大語言模型 (LLM) 更加廣為人知,但由于小語言模型能夠以更少的資源和較低的成本提供出色的性能,而且訓練起來也更為簡易且成本更低,因此越來越受到關注。

在嵌入式硬件上實現(xiàn)基于 Transformer 的小語言模型

Arm 的演示展示了 Ethos-U85 作為一個小型低功耗平臺,具備運行生成式 AI 的能力,并凸顯了小語言模型在特定領域中的出色表現(xiàn)。TinyLlama2 模型相較 Meta 等公司的大模型更為簡化,很適合用于展示 Ethos-U85 的 AI 性能,可作為端點 AI 工作負載的理想之選。

為開發(fā)此演示,Arm 進行了大量建模工作,包括創(chuàng)建一個全整數(shù)的 INT8(和 INT8x16)TinyLlama2 模型,并將其轉換為適合 Ethos-U85 限制的固定形狀 TensorFlow Lite 格式。

Arm 的量化方法表明,全整數(shù)語言模型在取得高準確度和輸出質量之間實現(xiàn)了良好平衡。通過量化激活、歸一化函數(shù)和矩陣乘法,Arm 無需進行浮點運算。由于浮點運算在芯片面積和能耗方面成本較高,這對于資源受限的嵌入式設備來說是一個關鍵考量。

Ethos-U85 在 FPGA 平臺上以 32 MHz 的頻率運行語言模型,其文本生成速度可達到每秒 7.5 到 8 個詞元 (token),與人類的閱讀速度相當,同時僅消耗四分之一的計算資源。在實際應用的系統(tǒng)級芯片 (SoC) 上,該性能最多可提高十倍,從而顯著提升了邊緣側 AI 的處理速度和能效。

兒童故事生成特性采用了 Llama2 的開源版本,并結合了 Ethos NPU 后端,在 TFLite Micro 上運行演示。大部分推理邏輯以 C++ 語言在應用層編寫,并通過優(yōu)化上下文窗口內(nèi)容,提高了故事的連貫性,確保 AI 能夠流暢地講述故事。

由于硬件限制,團隊需要對 Llama2 模型進行適配,以確保其在 Ethos-U85 NPU 上高效運行,這要求對性能和準確性進行仔細考量。INT8 和 INT16 混合量化技術展示了全整數(shù)模型的潛力,這有利于 AI 社區(qū)更積極地針對邊緣側設備優(yōu)化生成式模型,并推動神經(jīng)網(wǎng)絡在如 Ethos-U85 等高能效平臺上的廣泛應用。

Arm Ethos-U85 彰顯卓越性能

Ethos-U85 的乘法累加 (MAC) 單元可以從 128 個擴展至 2,048 個,與前一代產(chǎn)品 Ethos-U65 相比,其能效提高了 20%。另外相較上一代產(chǎn)品,Ethos-U85 的一個顯著特點是能夠原生支持 Transformer 網(wǎng)絡。

Ethos-U85 支持使用前代 Ethos-U NPU 的合作伙伴能夠實現(xiàn)無縫遷移,并充分利用其在基于 Arm 架構的機器學習 (ML) 工具上的既有投資。憑借其卓越能效和出色性能,Ethos-U85 正愈發(fā)受到開發(fā)者青睞。

如果在芯片上采用 2,048 個 MAC 配置,Ethos-U85 可以實現(xiàn) 4 TOPS 的性能。在演示中,Arm 使用了較小的配置,即在 FPGA 平臺上采用 512 個 MAC,并以 32 MHz 的頻率運行具有 1,500 萬個參數(shù)的 TinyLlama2 小語言模型。

這一能力凸顯了將 AI 直接嵌入設備的可能性。盡管內(nèi)存有限(320 KB SRAM 用于緩存,32 MB 用于存儲),Ethos-U85 仍能高效處理此類工作負載,為小語言模型和其他 AI 應用在深度嵌入式系統(tǒng)中的廣泛應用奠定了基礎。

將生成式 AI 引入嵌入式設備

開發(fā)者需要更加先進的工具來應對邊緣側 AI 的復雜性。Arm 通過推出 Ethos-U85,并支持基于 Transformer 的模型,致力于滿足這一需求。隨著邊緣側 AI 在嵌入式應用中的重要性日益增加,Ethos-U85 正在推動從語言模型到高級視覺任務等各種新用例的實現(xiàn)。

Ethos-U85 NPU 提供了創(chuàng)新前沿解決方案所需的卓越性能和出色能效。Arm 的演示顯示了將生成式 AI 引入嵌入式設備的重要進展,并凸顯了在 Arm 平臺上部署小語言模型便捷可行。

Arm 正為邊緣側 AI 在廣泛應用領域帶來新機遇,Ethos-U85 也因此成為推動新一代智能、低功耗設備發(fā)展的關鍵動力。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

單核與雙核MCU結合Arm? Cortex?-M85和M33核心以及Arm Ethos-U55 NPU,實現(xiàn)高達256 GOPS的卓越AI性能

關鍵字: MCU AI NPU

上周,微軟宣布推出一款名為“Mu”的新型生成式人工智能(GenAI)系統(tǒng),它讓我們得以一窺未來我們使用各種設備(從個人電腦到烤面包機)的方式。

關鍵字: 微軟 小語言模型 Mu AI

目前已在超過 5 億臺設備中部署AI Virtual Smart Sensors?的全球人工智能軟件領導者依利浦實驗室(Elliptic Labs) (OSE: ELABS) 和幫助智能邊緣設備更可靠、更高效地連接、感知...

關鍵字: 邊緣設備 人工智能 NPU

近年來,美國通過《AI防擴散法案》等政策,對中國AI芯片和大模型的使用施加了嚴格限制,從最初的“禁止向中國出售AI產(chǎn)品”到后來的“不鼓勵使用中國AI芯片”,這些措施深刻影響了全球AI格局。

關鍵字: 英偉達 GPU AI芯片 NPU DeepSeek AI一體機

Nextchip獲得 NeuPro-M NPU 授權以提供強大的高效人工智能,為汽車安全系統(tǒng)提升性能和功能

關鍵字: 人工智能 ADAS NPU

助力生成式 AI 初創(chuàng)企業(yè)釋放潛能,加速全球化進程

關鍵字: 生成式 AI 大模型 加速器

【2025年3月17日, 德國慕尼黑訊】微控制器(MCU)是現(xiàn)代電子產(chǎn)品的核心器件,在邊緣設備上開發(fā)最新的人工智能模型和在MCU上部署模型的工作流程,對開發(fā)者來說是一項極大的挑戰(zhàn)。如果將帶有硬件神經(jīng)網(wǎng)絡加速器(NPU)的...

關鍵字: 人工智能 NPU MCU

“Arm 今天發(fā)布的全新平臺不僅僅是一次漸進式的升級,它代表了我們?yōu)槲磥磉吘売嬎愫?AI 處理提出的新范式。這是我們首次專為物聯(lián)網(wǎng)應用設計的 Armv9 架構處理器,它將超高能效與先進 AI 能力相結合,實現(xiàn)了前所未有的...

關鍵字: Armv9 ARM NPU A320

全球首個 Armv9 邊緣 AI 計算平臺以 Cortex-A320 CPU 和 Ethos-U85 NPU 為核心,專為物聯(lián)網(wǎng)應用優(yōu)化,支持運行超 10 億參數(shù)的端側 AI 模型,已獲得包括亞馬遜云科技 (AWS)、西...

關鍵字: 邊緣 AI 物聯(lián)網(wǎng) NPU

STM32可謂是IoT時代最具群眾基礎、市場影響力的MCU之一。或可將其比喻成一把瑞士軍刀、或者是一柄AK47——易用、好用,無所不能、無往不利。在物聯(lián)網(wǎng)飛速發(fā)展的近10年間,STM32出現(xiàn)在智能手環(huán)、共享單車、語音助手...

關鍵字: STM32N6 AI ML NPU
關閉