精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

邊緣AI的模型壓縮技術

深度學習在模型及其數據集方面正以驚人的速度增長。在應用方面,深度學習市場以圖像識別為主,其次是光學字符識別,以及面部和物體識別。根據 Allied Market Research 的數據,2020 年全球深度學習市場價值 68.5 億美元,預計到 2030 年將達到 1799.6 億美元,2021 年至 2030 年的復合年增長率為 39.2%。

曾經有人認為大型復雜模型性能更好,但現在這幾乎是一個神話。隨著邊緣人工智能的發展,越來越多的技術出現將大型復雜模型轉換為可以在邊緣運行的簡單模型,所有這些技術結合起來執行模型壓縮。

什么是模型壓縮?

模型壓縮是在計算能力和內存較低的邊緣設備上部署 SOTA(最先進的)深度學習模型的過程,同時不會影響模型在準確度、精確度、召回率等方面的性能。模型壓縮廣泛地減少了模型中的兩件事,即。大小和延遲。尺寸縮減側重于通過減少模型參數使模型更簡單,從而減少執行中的 RAM 需求和內存中的存儲需求。延遲減少是指減少模型進行預測或推斷結果所花費的時間。模型大小和延遲通常同時存在,大多數技術都會降低兩者。

流行的模型壓縮技術

修剪

剪枝是最流行的模型壓縮技術,它通過刪除冗余和無關緊要的參數來工作。神經網絡中的這些參數可以是連接器、神經元、通道,甚至是層。它很受歡迎,因為它同時減小了模型的大小并改善了延遲。

修剪

修剪可以在我們訓練模型甚至訓練后進行。有不同類型的剪枝技術,包括權重/連接剪枝、神經元剪枝、過濾器剪枝和層剪枝。

量化

當我們在剪枝中移除神經元、連接、過濾器、層等以減少加權參數的數量時,權重的大小在量化期間會減小。在此過程中,將大集合中的值映射到較小集合中的值。與輸入網絡相比,輸出網絡的取值范圍更窄,但保留了大部分信息。有關此方法的更多詳細信息,您可以在此處閱讀我們關于模型量化的深入文章。

知識蒸餾

在知識蒸餾過程中,我們在一個非常大的數據集上訓練一個復雜而大的模型。在對大型模型進行微調后,它可以很好地處理看不見的數據。一旦實現,這些知識就會轉移到更小的神經網絡或模型中。教師網絡(較大的模型)和學生網絡(較小的模型)都被使用。這里存在兩個方面,即知識蒸餾,我們不調整教師模型,而在遷移學習中,我們使用精確的模型和權重,在一定程度上改變模型,并針對相關任務進行調整。

圖表描述自動生成

知識蒸餾系統

知識、蒸餾算法和師生架構模型是典型知識蒸餾系統的三個主要部分,如上圖所示。

低矩陣分解

矩陣構成了大多數深度神經架構的主體。該技術旨在通過應用矩陣或張量分解并將它們變成更小的矩陣來識別冗余參數。當應用于密集DNN(深度神經網絡)時,這種技術降低了 CNN(卷積神經網絡)層的存儲要求和分解,并提高了推理時間。具有二維和秩 r 的權重矩陣 A 可以分解為更小的矩陣,如下所示。

低矩陣分解

模型的準確性和性能高度依賴于適當的分解和等級選擇。低秩分解過程的主要挑戰是更難實現并且計算量很大。總體而言,與全秩矩陣表示相比,密集層矩陣的因式分解導致模型更小,性能更快。

由于邊緣人工智能,模型壓縮策略變得非常重要。這些方法相互補充,可用于整個 AI 管道的各個階段。TensorFlow 和 Pytorch 等流行框架現在包括修剪和量化等技術。最終,該領域使用的技術數量將會增加。

猜你喜歡