女人被狂躁到高潮视频免费无遮挡,内射人妻骚骚骚,免费人成小说在线观看网站,九九影院午夜理论片少妇,免费av永久免费网址

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀]循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursive neural network)。對循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80-90年代,并在二十一世紀(jì)初發(fā)展為深度學(xué)習(xí)(deep learning)算法之一,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional RNN, Bi-RNN)和長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory networks,LSTM)是常見的循環(huán)神經(jīng)網(wǎng)絡(luò)。

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursive neural network)。對循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80-90年代,并在二十一世紀(jì)初發(fā)展為深度學(xué)習(xí)(deep learning)算法之一,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional RNN, Bi-RNN)和長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory networks,LSTM)是常見的循環(huán)神經(jīng)網(wǎng)絡(luò)。

1982年,美國加州理工學(xué)院物理學(xué)家John Hopfield發(fā)明了一種單層反饋神經(jīng)網(wǎng)絡(luò)Hopfield Network,用來解決組合優(yōu)化問題。這是最早的RNN的雛形。86年,另一位機(jī)器學(xué)習(xí)的泰斗Michael I.Jordan定義了Recurrent的概念,提出Jordan Network。1990年,美國認(rèn)知科學(xué)家Jeffrey L.Elman對Jordan Network進(jìn)行了簡化,并采用BP算法進(jìn)行訓(xùn)練,便有了如今最簡單的包含單個(gè)自連接節(jié)點(diǎn)的RNN模型。但此時(shí)RNN由于梯度消失(Gradient Vanishing)及梯度爆炸(Gradient Exploding)的問題,訓(xùn)練非常困難,應(yīng)用非常受限。直到1997年,瑞士人工智能研究所的主任Jurgen Schmidhuber提出長短期記憶(LSTM),LSTM使用門控單元及記憶機(jī)制大大緩解了早期RNN訓(xùn)練的問題。同樣在1997年,Mike Schuster提出雙向RNN模型(Bidirectional RNN)。這兩種模型大大改進(jìn)了早期RNN結(jié)構(gòu),拓寬了RNN的應(yīng)用范圍,為后續(xù)序列建模的發(fā)展奠定了基礎(chǔ)。此時(shí)RNN雖然在一些序列建模任務(wù)上取得了不錯(cuò)的效果,但由于計(jì)算資源消耗大,后續(xù)幾年一直沒有太大的進(jìn)展。

2010年,Tomas Mikolov對Bengio等人提出的feedforward Neural network language model(NNLM)進(jìn)行了改進(jìn),提出了基于RNN的語言模型(RNN LM),并將其用在語音識(shí)別任務(wù)中,大幅提升了識(shí)別精度。在此基礎(chǔ)上Tomas Mikolov于2013年提出了大名鼎鼎的word2vec。

與NNLM及RNNLM不同,word2vec的目標(biāo)不再專注于建模語言模型,而是專注于如何利用語言模型學(xué)習(xí)每個(gè)單詞的語義化向量(distributed representation),當(dāng)然distributed representation概念最早要來源于Hinton 1986年的工作。word2vec引發(fā)了深度學(xué)習(xí)在自然語言處理領(lǐng)域的浪潮,除此之外還啟發(fā)了knowledge representation,network representation等新的領(lǐng)域。

另一方面,2014年Bengio團(tuán)隊(duì)與Google幾乎同時(shí)提出了seq2seq架構(gòu),將RNN用于機(jī)器翻譯。沒過多久,Bengio團(tuán)隊(duì)又提出注意力Attention機(jī)制,對seq2seq架構(gòu)進(jìn)行改進(jìn)。自此機(jī)器翻譯全面進(jìn)入到神經(jīng)機(jī)器翻譯(NMT)的時(shí)代,NMT不僅過程簡單,而且效果要遠(yuǎn)超統(tǒng)計(jì)機(jī)器翻譯的效果。目前主流的機(jī)器翻譯系統(tǒng)幾乎都采用了神經(jīng)機(jī)器翻譯的技術(shù),除此之外,Attention機(jī)制也被廣泛用于基于深度學(xué)習(xí)的各種任務(wù)中。

近兩年,相關(guān)領(lǐng)域仍有一些突破性進(jìn)展,2017年,F(xiàn)acebook人工智能實(shí)驗(yàn)室提出基于卷積神經(jīng)網(wǎng)絡(luò)的seq2seq架構(gòu),將RNN替換為帶有門控單元的CNN,提升效果的同時(shí)大幅加快了模型訓(xùn)練速度。此后不久,Google提出Transformer架構(gòu),使用Self-Attention代替原有的RNN及CNN,更進(jìn)一步降低了模型復(fù)雜度。在詞表示學(xué)習(xí)方面,Allen人工智能研究所2018年提出上下文相關(guān)的表示學(xué)習(xí)方法ELMo,利用雙向LSTM語言模型對不同語境下的單詞,學(xué)習(xí)不同的向量表示,在6個(gè)NLP任務(wù)上取得了提升。OpenAI團(tuán)隊(duì)在此基礎(chǔ)上提出預(yù)訓(xùn)練模型GPT,把LSTM替換為Transformer來訓(xùn)練語言模型,在應(yīng)用到具體任務(wù)時(shí),與之前學(xué)習(xí)詞向量當(dāng)作特征的方式不同,GPT直接在預(yù)訓(xùn)練得到的語言模型最后一層接上Softmax作為任務(wù)輸出層,然后再對模型進(jìn)行微調(diào),在多項(xiàng)任務(wù)上GPT取得了更好的效果。

不久之后,Google提出BERT模型,將GPT中的單向語言模型拓展為雙向語言模型(Masked Language Model),并在預(yù)訓(xùn)練中引入了sentence prediction任務(wù)。BERT模型在11個(gè)任務(wù)中取得了最好的效果,是深度學(xué)習(xí)在NLP領(lǐng)域又一個(gè)里程碑式的工作。BERT自從在arXiv上發(fā)表以來獲得了研究界和工業(yè)界的極大關(guān)注,感覺像是打開了深度學(xué)習(xí)在NLP應(yīng)用的潘多拉魔盒。隨后涌現(xiàn)了一大批類似于“BERT”的預(yù)訓(xùn)練(pre-trained)模型,有引入BERT中雙向上下文信息的廣義自回歸模型XLNet,也有改進(jìn)BERT訓(xùn)練方式和目標(biāo)的RoBERTa和SpanBERT,還有結(jié)合多任務(wù)以及知識(shí)蒸餾(Knowledge Distillation)強(qiáng)化BERT的MT-DNN等。這些種種,還被大家稱為BERTology。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

液壓舵機(jī)殼體是航空液壓操縱系統(tǒng)的核心零件 , 內(nèi)部包含大量復(fù)雜流道 。傳統(tǒng)的流道路徑人工設(shè)計(jì)方法效率低下 , 結(jié)果一致性差 。針對該問題 , 提出了一種基于混合近端策略優(yōu)化(HPP0算法)的流道路徑規(guī)劃算法 。通過分析流...

關(guān)鍵字: 液壓流道規(guī)劃 機(jī)器學(xué)習(xí) HPP0算法 減材制造 液壓舵機(jī)殼體

深入探索這一個(gè)由 ML 驅(qū)動(dòng)的時(shí)域超級(jí)采樣的實(shí)用方法

關(guān)鍵字: 機(jī)器學(xué)習(xí) GPU 濾波器

傳統(tǒng)的網(wǎng)絡(luò)安全防護(hù)手段多依賴于預(yù)先設(shè)定的規(guī)則和特征庫,面對日益復(fù)雜多變、層出不窮的新型網(wǎng)絡(luò)威脅,往往力不從心,難以做到及時(shí)且精準(zhǔn)的識(shí)別。AI 技術(shù)的融入則徹底改變了這一局面。機(jī)器學(xué)習(xí)算法能夠?qū)A康木W(wǎng)絡(luò)數(shù)據(jù)進(jìn)行深度學(xué)習(xí),...

關(guān)鍵字: 網(wǎng)絡(luò)安全 機(jī)器學(xué)習(xí) 輔助決策

人工智能(AI)和機(jī)器學(xué)習(xí)(ML)是使系統(tǒng)能夠從數(shù)據(jù)中學(xué)習(xí)、進(jìn)行推理并隨著時(shí)間的推移提高性能的關(guān)鍵技術(shù)。這些技術(shù)通常用于大型數(shù)據(jù)中心和功能強(qiáng)大的GPU,但在微控制器(MCU)等資源受限的器件上部署這些技術(shù)的需求也在不斷增...

關(guān)鍵字: 嵌入式系統(tǒng) 人工智能 機(jī)器學(xué)習(xí)

北京——2025年7月30日 自 2018 年以來,AWS DeepRacer 已吸引全球超過 56 萬名開發(fā)者參與,充分印證了開發(fā)者可以通過競技實(shí)現(xiàn)能力成長的實(shí)踐路徑。如今,亞馬遜云科技將通過亞馬遜云科技AI聯(lián)賽,將這...

關(guān)鍵字: AI 機(jī)器學(xué)習(xí)

2025年7月28日 – 專注于引入新品的全球電子元器件和工業(yè)自動(dòng)化產(chǎn)品授權(quán)代理商貿(mào)澤電子 (Mouser Electronics) 持續(xù)擴(kuò)展其針對機(jī)器學(xué)習(xí) (ML) 工作優(yōu)化的專用解決方案產(chǎn)品組合。

關(guān)鍵字: 嵌入式 機(jī)器學(xué)習(xí) 人工智能

在這個(gè)高速發(fā)展的時(shí)代,無論是健身、競技、興趣活動(dòng),還是康復(fù)訓(xùn)練,對身體表現(xiàn)的感知與理解,正成為提升表現(xiàn)、實(shí)現(xiàn)突破的關(guān)鍵。如今,先進(jìn)技術(shù)正為我們架起一座橋梁,將每一次身體活動(dòng)轉(zhuǎn)化為有價(jià)值的洞察,幫助我們更聰明地訓(xùn)練、更高效...

關(guān)鍵字: 傳感器 機(jī)器學(xué)習(xí) IMU

在科技飛速發(fā)展的當(dāng)下,邊緣 AI 正經(jīng)歷著一場深刻的變革。從最初的 TinyML 微型機(jī)器學(xué)習(xí)探索低功耗 AI 推理,到邊緣推理框架的落地應(yīng)用,再到平臺(tái)級(jí) AI 部署工具的興起以及垂類模型的大熱,我們已經(jīng)成功實(shí)現(xiàn)了 “讓...

關(guān)鍵字: 機(jī)器學(xué)習(xí) 邊緣 AI 無人機(jī)

在AI算力需求指數(shù)級(jí)增長的背景下,NVIDIA BlueField-3 DPU憑借其512個(gè)NPU核心和400Gbps線速轉(zhuǎn)發(fā)能力,為機(jī)器學(xué)習(xí)推理提供了革命性的硬件卸載方案。通過將PyTorch模型量化至INT8精度...

關(guān)鍵字: PyTorch 機(jī)器學(xué)習(xí) DPU

中國,北京,2025年7月17日——隨著AI迅速向邊緣領(lǐng)域挺進(jìn),對智能邊緣器件的需求隨之激增。然而,要在小尺寸的微控制器上部署強(qiáng)大的模型,仍是困擾眾多開發(fā)者的難題。開發(fā)者需要兼顧數(shù)據(jù)預(yù)處理、模型選擇、超參數(shù)調(diào)整并針對特定...

關(guān)鍵字: 邊緣AI 嵌入式 機(jī)器學(xué)習(xí)
關(guān)閉