99精品久久这里只有精品,三上悠亚免费一区二区在线,91精品福利一区二区,爱a久久片,无国产精品白浆免费视,中文字幕欧美一区,爽妇网国产精品,国产一级做a爱免费观看,午夜一级在线,国产精品偷伦视频免费手机播放

    <del id="eyo20"><dfn id="eyo20"></dfn></del>
  • <small id="eyo20"><abbr id="eyo20"></abbr></small>
      <strike id="eyo20"><samp id="eyo20"></samp></strike>
    • 首頁 > 文章中心 > 對(duì)神經(jīng)網(wǎng)絡(luò)的理解

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解

      前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇對(duì)神經(jīng)網(wǎng)絡(luò)的理解范文,相信會(huì)為您的寫作帶來幫助,發(fā)現(xiàn)更多的寫作思路和靈感。

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解范文第1篇

      1.神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來越復(fù)雜。感知和翻譯等大多數(shù)神經(jīng)網(wǎng)絡(luò)的架構(gòu)正變得越來越復(fù)雜,遠(yuǎn)非此前簡(jiǎn)單的前饋神經(jīng)網(wǎng)絡(luò)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)所能比。特別需要注意的是,神經(jīng)網(wǎng)絡(luò)正與不同的技術(shù)(如LSTMs、自定義目標(biāo)函數(shù)等)相混合。

      神經(jīng)網(wǎng)絡(luò)是多數(shù)深度學(xué)習(xí)項(xiàng)目的根基。深度學(xué)習(xí)基于人腦結(jié)構(gòu),一層層互相連接的人工模擬神經(jīng)元模仿大腦的行為,處理視覺和語言等復(fù)雜問題。這些人工神經(jīng)網(wǎng)絡(luò)可以收集信息,也可以對(duì)其做出反應(yīng)。它們能對(duì)事物的外形和聲音做出解釋,還可以自行學(xué)習(xí)與工作。

      2.長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTMs)。當(dāng)你閱讀本文時(shí),你是在理解前面詞語的基礎(chǔ)上來理解每個(gè)詞語的。你的思想具有連續(xù)性,你不會(huì)丟棄已知信息而從頭開始思考。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的一大缺陷便無法做到這一點(diǎn),而遞歸神經(jīng)網(wǎng)絡(luò)能夠解決這一問題。

      RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))擁有循環(huán)結(jié)構(gòu),可以持續(xù)保存信息。過去幾年里,RNN在語音識(shí)別和翻譯等許多問題上取得了難以置信的成功,而成功的關(guān)鍵在于一種特殊的RNN――長(zhǎng)短期記憶網(wǎng)絡(luò)。

      3.“注意力模型”?!白⒁饬Α笔侵干窠?jīng)網(wǎng)絡(luò)在執(zhí)行任務(wù)時(shí)知道把焦點(diǎn)放在何處。我們可以讓神經(jīng)網(wǎng)絡(luò)在每一步都從更大的信息集中挑選信息作為輸入。例如,當(dāng)神經(jīng)網(wǎng)絡(luò)為一張圖片生成標(biāo)題時(shí),它可以挑選圖像的關(guān)鍵部分作為輸入。

      4.神經(jīng)圖靈機(jī)依然有趣,但還無法勝任實(shí)際工作。當(dāng)你翻譯一句話時(shí),并不會(huì)逐詞進(jìn)行,而會(huì)從句子的整體結(jié)構(gòu)出發(fā)。機(jī)器難以做到這一點(diǎn),這一挑戰(zhàn)就被稱為“強(qiáng)耦合輸出整體估計(jì)”。

      神經(jīng)圖靈機(jī)就是研究者們?cè)诠杵兄噩F(xiàn)人類大腦短期記憶的嘗試。它的背后是一種特殊類型的神經(jīng)網(wǎng)絡(luò),它們可以適應(yīng)與外部存儲(chǔ)器共同工作,這使得神經(jīng)網(wǎng)絡(luò)可以存儲(chǔ)記憶,還能在此后檢索記憶并執(zhí)行一些有邏輯性的任務(wù)。

      5.深度學(xué)習(xí)讓計(jì)算機(jī)視覺和自然語言處理不再是孤島。卷積神經(jīng)網(wǎng)絡(luò)最早出現(xiàn)在計(jì)算機(jī)視覺中,但現(xiàn)在許多自然語言處理(NLP)系統(tǒng)也會(huì)使用。LSTMs與遞歸神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)最早出現(xiàn)在NLP中,但現(xiàn)在也被納入計(jì)算機(jī)視覺神經(jīng)網(wǎng)絡(luò)。

      此外,計(jì)算機(jī)視覺與NLP的交匯仍然擁有無限前景。

      6.符號(hào)微分式越來越重要。隨著神經(jīng)網(wǎng)絡(luò)架構(gòu)及其目標(biāo)函數(shù)變得日益復(fù)雜,手動(dòng)推導(dǎo)出“反向傳播”的梯度也變得更加困難而且容易出錯(cuò)。谷歌的TensorFlow等最新的工具包已經(jīng)可以超負(fù)荷試驗(yàn)符號(hào)微分式,能夠自動(dòng)計(jì)算出正確的微分,以確保訓(xùn)練時(shí)誤差梯度可被反向傳播。

      7.神經(jīng)網(wǎng)絡(luò)模型壓縮的驚人成果。多個(gè)團(tuán)隊(duì)以不同方法大幅壓縮了訓(xùn)練一個(gè)良好模型所需的素材體量,這些方法包括二值化、固定浮點(diǎn)數(shù)、迭代修剪和精細(xì)調(diào)優(yōu)步驟等。

      這些技術(shù)潛在的應(yīng)用前景廣闊,可能將會(huì)適應(yīng)在移動(dòng)設(shè)備上進(jìn)行復(fù)雜模型的訓(xùn)練。例如,不需要延遲就可以得到語音識(shí)別結(jié)果。此外,如果運(yùn)算所需要的空間和時(shí)間極大降低,我們就可以極高幀率(如30 FPS)查詢一個(gè)模型,這樣,在移動(dòng)設(shè)備上也可以運(yùn)用復(fù)雜神經(jīng)網(wǎng)絡(luò)模型,近乎實(shí)時(shí)地完成計(jì)算機(jī)視覺任務(wù)。

      8.深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)繼續(xù)交匯。在“端對(duì)端”機(jī)器人等領(lǐng)域出現(xiàn)了令人激動(dòng)的進(jìn)展,現(xiàn)在機(jī)器人已經(jīng)可以一起運(yùn)用深度和強(qiáng)化學(xué)習(xí),從而將原始感官數(shù)據(jù)直接轉(zhuǎn)化為實(shí)際動(dòng)作驅(qū)動(dòng)。我們正在超越“分類”等簡(jiǎn)單工作,嘗試將“計(jì)劃”與“行動(dòng)”納入方程。

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解范文第2篇

      關(guān)鍵詞:深度學(xué)習(xí);機(jī)器學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò)

      1概述

      深度學(xué)習(xí)(Deep Learning)是人工智能、圖像建模、模式識(shí)別、神經(jīng)網(wǎng)絡(luò)、最優(yōu)化理論和信號(hào)處理等領(lǐng)域的交叉學(xué)科,主要構(gòu)建和模擬人腦進(jìn)行分析學(xué)習(xí),它屬于機(jī)器學(xué)習(xí)的新興領(lǐng)域。

      2大數(shù)據(jù)與深度學(xué)習(xí)

      目前,光學(xué)檢測(cè)、互聯(lián)網(wǎng)、用戶數(shù)據(jù)、互聯(lián)網(wǎng)、金融公司等許多領(lǐng)域都出現(xiàn)了海量數(shù)據(jù),采用BP算法對(duì)于訓(xùn)練神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度越來越稀疏、收斂到局部最小值只能用有標(biāo)簽的數(shù)據(jù)來訓(xùn)練等缺點(diǎn)。Hinton于2006年提出了深度學(xué)習(xí)的概念,Lecun等人提出了卷積神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)利用空間關(guān)系減少參數(shù)數(shù)目以提高訓(xùn)練性能。

      CPU和GPU計(jì)算能力大幅提升,為深度學(xué)習(xí)提供了硬件平臺(tái)和技術(shù)手段,在海量大數(shù)據(jù)處理技術(shù)上解決了早期神經(jīng)網(wǎng)絡(luò)訓(xùn)練不足出現(xiàn)的過擬合、泛化能力差等問題。

      大數(shù)據(jù)和深度學(xué)習(xí)必將互相支撐,推動(dòng)科技發(fā)展。

      3深度學(xué)習(xí)模型

      深度學(xué)習(xí)模型實(shí)際上是一個(gè)包含多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),目前主要有卷積神經(jīng)網(wǎng)絡(luò),深深度置信神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò)。

      1)卷積神經(jīng)網(wǎng)絡(luò)

      在機(jī)器學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)屬于前饋神經(jīng)網(wǎng)絡(luò)的一種,神經(jīng)元不再是全連接的模式,而是應(yīng)用了局部感受區(qū)域的策略。然而傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)使用神經(jīng)元間全連接的網(wǎng)絡(luò)結(jié)構(gòu)來處理圖像任務(wù),因此,出現(xiàn)了很多缺陷,導(dǎo)致模型⑹急劇增加,及其容易過擬合。

      在卷積神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)中的神經(jīng)元只與前一層的部分神經(jīng)元連接,利用圖像數(shù)據(jù)的空間結(jié)構(gòu),鄰近像素間具有更強(qiáng)的相關(guān)性,單個(gè)神經(jīng)元僅對(duì)局部信息進(jìn)行響應(yīng),相鄰神經(jīng)元感受區(qū)域存在重疊,因此,綜合所有神經(jīng)元可以得到全局信息的感知。

      另外,一個(gè)卷積層中的所有神經(jīng)元均由同一個(gè)卷積核對(duì)不同區(qū)域數(shù)據(jù)響應(yīng)而得到,即共享同一個(gè)卷積核,使得卷積層訓(xùn)練參數(shù)的數(shù)量急劇減少,提高了網(wǎng)絡(luò)的泛化能力。

      一般在卷積層后面會(huì)進(jìn)行降采樣操作,對(duì)卷積層提取的特征進(jìn)行聚合統(tǒng)計(jì)。降采樣區(qū)域一般不存在重疊現(xiàn)象。降采樣簡(jiǎn)化了卷積層的輸出信息,進(jìn)一步減少了訓(xùn)練參數(shù)的數(shù)量,增強(qiáng)了網(wǎng)絡(luò)的泛化能力。

      卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了局部特征的自動(dòng)提取,使得特征提取與模式分類同步進(jìn)行,適用于處理高分辨率的圖像數(shù)據(jù)。目前,卷積神經(jīng)網(wǎng)絡(luò)在圖像分類、自然語言處理等領(lǐng)域得到廣泛應(yīng)用。

      2)深度置信網(wǎng)絡(luò)

      深度置信網(wǎng)絡(luò)是一種生成模型,網(wǎng)絡(luò)中有若干隱藏層,同一隱藏層內(nèi)的神經(jīng)元沒有連接,隱藏層間的神經(jīng)元全連接。神經(jīng)網(wǎng)絡(luò)經(jīng)過“反向運(yùn)行”得到輸入數(shù)據(jù)。

      深度置信網(wǎng)絡(luò)可以用做生成模型,通過前期的逐層無監(jiān)督學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)可以較好的對(duì)輸入數(shù)據(jù)進(jìn)行描述,然后把訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)看作深度神經(jīng)網(wǎng)絡(luò),最后得到分類任務(wù)的深度神經(jīng)網(wǎng)絡(luò)。

      深度置信網(wǎng)絡(luò)可以用于圖像識(shí)別、圖像生成等領(lǐng)域,深度置信網(wǎng)絡(luò)可以進(jìn)行無監(jiān)督或半監(jiān)督的學(xué)習(xí),利用無標(biāo)記數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,提高神經(jīng)網(wǎng)絡(luò)性能。但近幾年由于卷積神經(jīng)網(wǎng)絡(luò)的飛速發(fā)展,深度置信網(wǎng)絡(luò)已經(jīng)很少被提及。

      3)循環(huán)神經(jīng)網(wǎng)絡(luò)

      循環(huán)神經(jīng)網(wǎng)絡(luò)是一種專門用于處理時(shí)序數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),它與典型的前饋型神經(jīng)網(wǎng)絡(luò)最大區(qū)別在于網(wǎng)絡(luò)中存在環(huán)形結(jié)構(gòu),隱藏層內(nèi)部的神經(jīng)元是互相連接的,可以存儲(chǔ)網(wǎng)絡(luò)的內(nèi)部狀態(tài),其中包含序列輸入的歷史信息,實(shí)現(xiàn)了對(duì)時(shí)序動(dòng)態(tài)行為的描述。這里的時(shí)序并非僅僅指代時(shí)間概念上的順序,也可以理解為序列化數(shù)據(jù)間的相對(duì)位置。如語音中的發(fā)音順序,某個(gè)英語單詞的拼寫順序等。序列化輸入的任務(wù)都可以用循環(huán)神經(jīng)網(wǎng)絡(luò)來處理。如語音、視頻、文本等。對(duì)于序列化數(shù)據(jù),每次處理時(shí)輸入為序列中的一個(gè)元素,比如單個(gè)字符、單詞、音節(jié),期望輸出為該輸入在序列數(shù)據(jù)中的后續(xù)元素。循環(huán)神經(jīng)網(wǎng)絡(luò)可以處理任意長(zhǎng)度的序列化數(shù)據(jù)。

      循環(huán)神經(jīng)網(wǎng)絡(luò)可以用于機(jī)器翻譯、連寫字識(shí)別、語音識(shí)別等。循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)結(jié)合,將卷積神經(jīng)網(wǎng)絡(luò)用于檢測(cè)并識(shí)別圖像中的物體,循環(huán)神經(jīng)網(wǎng)絡(luò)用于識(shí)別出物體的名稱為輸入,生成合理的語句,從而實(shí)現(xiàn)對(duì)圖像內(nèi)容的描述。

      4深度學(xué)習(xí)應(yīng)用

      1)語音識(shí)別

      語音識(shí)別技術(shù)主要包括特征提取技術(shù)、模式匹配準(zhǔn)則及模型訓(xùn)練技術(shù)三個(gè)方面。其應(yīng)用領(lǐng)域主要有語音輸入系統(tǒng)、語音控制系統(tǒng)和智能對(duì)話查詢系統(tǒng),語音識(shí)別極大地推動(dòng)了人工智能的快速發(fā)展。1952年Davis等人研究了世界上第一個(gè)能識(shí)別10個(gè)英文數(shù)字發(fā)音的實(shí)驗(yàn)系統(tǒng)。大規(guī)模的語音識(shí)別研究是在20世紀(jì)70年代以后,在小詞匯量、孤立詞的識(shí)別方面取得了實(shí)質(zhì)性的進(jìn)展。2012年,微軟研究院使用深度神經(jīng)網(wǎng)絡(luò)應(yīng)用在語音識(shí)別上將識(shí)別錯(cuò)誤率降低了20%,取得了突破性的進(jìn)展。2015年11月17日,浪潮集團(tuán)聯(lián)合全球可編程芯片巨頭Altera,以及中國(guó)最大的智能語音技術(shù)提供商科大訊飛,共同了一套DNN語音識(shí)別方案。

      2)圖像分析

      圖像是深度學(xué)習(xí)最早嘗試的應(yīng)用領(lǐng)域。1989年,LeCun和他的同事們就發(fā)表了卷積神經(jīng)網(wǎng)絡(luò)的工作。2012年10月,Hinton和他的兩個(gè)學(xué)生用更深的CNN在ImageNet挑戰(zhàn)上獲得了第一名,使圖像識(shí)別向前躍進(jìn)了一大步。

      自2012年以來,深度學(xué)習(xí)應(yīng)用于圖像識(shí)別使得準(zhǔn)確率大大上升,避免了消耗人工特征抽取的時(shí)間,極大地提升了效率,目前逐漸成為主流的圖像識(shí)別與檢測(cè)方法。

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解范文第3篇

      關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò) BP網(wǎng)絡(luò)

      中圖分類號(hào):TP3 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)01(c)-0240-02

      神經(jīng)網(wǎng)絡(luò)是一門發(fā)展十分迅速的交叉學(xué)科,它是由大量的處理單元組成非線性的大規(guī)模自適應(yīng)動(dòng)力系統(tǒng)。神經(jīng)網(wǎng)絡(luò)具有分布式存儲(chǔ)、并行處理、高容錯(cuò)能力以及良好的自學(xué)習(xí)、自適應(yīng)、聯(lián)想等特點(diǎn)。該模型對(duì)于擬合現(xiàn)實(shí)復(fù)雜世界有著重要的實(shí)用價(jià)值。

      1 神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

      人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN),亦稱神經(jīng)網(wǎng)絡(luò)(Neural Network,NN),是一種應(yīng)用類似于大腦神經(jīng)突觸連接結(jié)構(gòu)進(jìn)行信息處理的數(shù)學(xué)模型,它是在人類對(duì)自身大腦組織結(jié)合和思維機(jī)制的認(rèn)識(shí)理解基礎(chǔ)之上模擬出來的,它是根植于神經(jīng)科學(xué)、數(shù)學(xué)、統(tǒng)計(jì)學(xué)、物理學(xué)、計(jì)算機(jī)科學(xué)以及工程科學(xué)的一門技術(shù)。心理學(xué)家Mcculloch,數(shù)學(xué)家Pitts在20世紀(jì)40年代第一次提出了神經(jīng)網(wǎng)絡(luò)模型,從此開創(chuàng)了神經(jīng)科學(xué)理論的研究時(shí)代,此后半個(gè)世紀(jì)神經(jīng)網(wǎng)絡(luò)技術(shù)蓬勃發(fā)展。神經(jīng)網(wǎng)絡(luò)是一種計(jì)算模型,由大量的神經(jīng)元個(gè)體節(jié)點(diǎn)和其間相互連接的加權(quán)值共同組成,每個(gè)節(jié)點(diǎn)都代表一種運(yùn)算,稱為激勵(lì)函數(shù)(activation function)。每?jī)蓚€(gè)相互連接的節(jié)點(diǎn)間都代表一個(gè)通過該連接信號(hào)加權(quán)值,稱值為權(quán)重(weight),神經(jīng)網(wǎng)絡(luò)就是通過這種方式來模擬人類的記憶,網(wǎng)絡(luò)的輸出則取決于網(wǎng)絡(luò)的結(jié)構(gòu)、網(wǎng)絡(luò)的連接方式、權(quán)重和激勵(lì)函數(shù)。而網(wǎng)絡(luò)本身通常是對(duì)自然界或者人類社會(huì)某種算法或函數(shù)的逼近,也可能是一種邏輯策略的表達(dá)。神經(jīng)網(wǎng)絡(luò)的構(gòu)筑理念是受到生物的神經(jīng)網(wǎng)絡(luò)運(yùn)作啟發(fā)而產(chǎn)生的。人工神經(jīng)網(wǎng)絡(luò)則是把對(duì)生物神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)與數(shù)學(xué)統(tǒng)計(jì)模型向結(jié)合,借助數(shù)學(xué)統(tǒng)計(jì)工具來實(shí)現(xiàn)。另一方面在人工智能學(xué)的人工感知領(lǐng)域,我們通過數(shù)學(xué)統(tǒng)計(jì)學(xué)的方法,使神經(jīng)網(wǎng)絡(luò)能夠具備類似于人的決定能力和簡(jiǎn)單的判斷能力,這種方法是對(duì)傳統(tǒng)邏輯學(xué)演算的進(jìn)一步延伸。

      2 神經(jīng)網(wǎng)絡(luò)模型及訓(xùn)練

      2.1 生物神經(jīng)元模型

      人腦是自然界所造就的高級(jí)動(dòng)物,人的思維是由人腦來完成的,而思維則是人類智能的集中體現(xiàn)。人腦的皮層中包含100億個(gè)神經(jīng)元、60萬億個(gè)神經(jīng)突觸,以及他們的連接體。神經(jīng)系統(tǒng)的基本結(jié)構(gòu)和功能單位就是神經(jīng)細(xì)胞,即神經(jīng)元,它主要由細(xì)胞體、樹突、軸突和突觸組成。人類的神經(jīng)元具備以下幾個(gè)基本功能特性:時(shí)空整合功能;神經(jīng)元的動(dòng)態(tài)極化性;興奮與抑制狀態(tài);結(jié)構(gòu)的可塑性;脈沖與電位信號(hào)的轉(zhuǎn)換;突觸延期和不延期;學(xué)習(xí)、遺忘和疲勞;神經(jīng)網(wǎng)絡(luò)是由大量的神經(jīng)元單元相互連接而構(gòu)成的網(wǎng)絡(luò)系統(tǒng)。

      2.2 人工神經(jīng)網(wǎng)絡(luò)模型

      人工神經(jīng)網(wǎng)絡(luò),使通過模仿生物神經(jīng)網(wǎng)絡(luò)的行為特征,進(jìn)行分布式并行信息處理的數(shù)學(xué)模型。這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜度,通過調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,從而達(dá)到信息處理的目的。人工神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)和自適應(yīng)的能力,可以通過預(yù)先提供的一批相互對(duì)應(yīng)的輸入輸出數(shù)據(jù),分析兩者的內(nèi)在關(guān)系和規(guī)律,最終通過這些規(guī)律形成一個(gè)復(fù)雜的非線性系統(tǒng)函數(shù),這種學(xué)習(xí)分析過程被稱作“訓(xùn)練”。神經(jīng)元的每一個(gè)輸入連接都有突觸連接強(qiáng)度,用一個(gè)連接權(quán)值來表示,即將產(chǎn)生的信號(hào)通過連接強(qiáng)度放大,每一個(gè)輸入量都對(duì)應(yīng)有一個(gè)相關(guān)聯(lián)的權(quán)重。處理單元將經(jīng)過權(quán)重的輸入量化,然后相加求得加權(quán)值之和,計(jì)算出輸出量,這個(gè)輸出量是權(quán)重和的函數(shù),一般稱此函數(shù)為傳遞函數(shù)。

      2.3 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練

      當(dāng)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)確定以后,接下來的工作就是訓(xùn)練和學(xué)習(xí)。神經(jīng)網(wǎng)絡(luò)不是通過改變處理單元的本身來完成訓(xùn)練和學(xué)習(xí)過程的,而是依靠改變網(wǎng)絡(luò)中各神經(jīng)元節(jié)點(diǎn)的連接權(quán)重來完成的。因此若處理單元要學(xué)會(huì)正確的處理所給定的問題,唯一用以改變處理單元性能的元素就是連接權(quán)重。

      2.4 神經(jīng)網(wǎng)絡(luò)的分類

      神經(jīng)網(wǎng)絡(luò)按照不同的結(jié)構(gòu)、功能,以及學(xué)習(xí)算法,對(duì)網(wǎng)絡(luò)進(jìn)行分類,可以分為:(1)感知器神經(jīng)網(wǎng)絡(luò):最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)類型,只有單層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),采用硬限值作為網(wǎng)絡(luò)傳遞函數(shù),主要適用于簡(jiǎn)單的線性二類劃分問題,在此類問題中處理的效率較高。但不適合本論文的課題。(2)線性神經(jīng)網(wǎng)絡(luò):?jiǎn)螌咏Y(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),采用線性函數(shù)作為網(wǎng)絡(luò)的傳遞,主要也是用于解決線性逼近問題。

      3 BP神經(jīng)網(wǎng)絡(luò)

      目前應(yīng)用最為廣泛的網(wǎng)絡(luò),具有多層網(wǎng)絡(luò)結(jié)構(gòu),可以由一個(gè)或者多個(gè)隱含層。BP網(wǎng)絡(luò)采用Widrow―Hoff學(xué)習(xí)算法和非線性傳遞函數(shù),典型的BP網(wǎng)絡(luò)采用的是梯度下降算法,也就是Widrow―Hoff算法所規(guī)定的。BP,即Back Propagation,就是指為非線性多層網(wǎng)絡(luò)訓(xùn)練中梯度計(jì)算是采用信號(hào)正向傳播、誤差反向傳播的方式。通過采用非線性傳遞函數(shù),BP網(wǎng)絡(luò)能夠以仁義的精度逼近任何非線性函數(shù),由于采用隱含中間層的結(jié)構(gòu),BP網(wǎng)絡(luò)能夠提取出更高階的統(tǒng)計(jì)性質(zhì),尤其是當(dāng)輸入規(guī)模龐大時(shí),網(wǎng)絡(luò)能夠提取高階統(tǒng)計(jì)性質(zhì)的能力就顯得非常重要了,結(jié)合本文的課題,將采用BP神經(jīng)網(wǎng)絡(luò)及其改進(jìn)算法進(jìn)行組合集成實(shí)驗(yàn),用以解決財(cái)務(wù)預(yù)警的實(shí)際問題,在后面的章節(jié)會(huì)采用相關(guān)實(shí)驗(yàn)證明組合集成的BP神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)。

      4 徑向基神經(jīng)網(wǎng)絡(luò)

      徑向基神經(jīng)網(wǎng)絡(luò)又稱為RBF網(wǎng)絡(luò),它與BP網(wǎng)絡(luò)同為多層前向網(wǎng)絡(luò),也能夠以任意的精度逼近任何非線性函數(shù),只是它與BP網(wǎng)絡(luò)采用的傳遞函數(shù)不同,BP通常采用的是Sigmoid函數(shù)或線性函數(shù)作為傳遞函數(shù),而RBF網(wǎng)絡(luò)則采用徑向基函數(shù)作為傳遞函數(shù)。本文后面將采用徑向基函網(wǎng)絡(luò)與BP網(wǎng)絡(luò)進(jìn)行對(duì)比。

      5 競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)

      競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)的特點(diǎn)是它的各個(gè)神經(jīng)元之間是相互競(jìng)爭(zhēng)的關(guān)系,眾多神經(jīng)元之間相互競(jìng)爭(zhēng)以決定勝出者,或勝神經(jīng)元決定哪一種原模型最能代表輸入模式。

      6 反饋神經(jīng)網(wǎng)絡(luò)

      BP神經(jīng)網(wǎng)絡(luò)(Fredric M.Ham Ivica Kostanic Principles of Neurocomputing for Science―Engineering 2007)BP神經(jīng)網(wǎng)絡(luò)具有sigmoid隱含層以及線性輸出層,具有很強(qiáng)的映射能力,本節(jié)我們對(duì)BP網(wǎng)絡(luò)神經(jīng)元和網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行介紹。神經(jīng)網(wǎng)絡(luò)方法的具體步驟是:向網(wǎng)絡(luò)提供訓(xùn)練例子,即學(xué)習(xí)樣本,包括輸入和期望的輸出。確定網(wǎng)絡(luò)的實(shí)際輸出和期望輸出之間允許的誤差。改變網(wǎng)絡(luò)中所有連接權(quán)值,使網(wǎng)絡(luò)產(chǎn)生的輸出更接近于期望輸出,直到滿足確定的允許誤差。下圖給出了一個(gè)具有N個(gè)輸入的基本的BP神經(jīng)元模型結(jié)構(gòu)。途中每一個(gè)輸入都被賦予一定的權(quán)值,與偏差求和和后形成神經(jīng)元傳遞函數(shù)的輸入。

      我們來看看三層BP神經(jīng)網(wǎng)絡(luò)模型的數(shù)學(xué)表達(dá),首先我們來確定途中各個(gè)參數(shù)所代表的涵義:

      (1)輸入向量:X=(x1,x2,…,xi,…,xn)T;

      (2)隱層輸出向量:Y=(y1,y2,…,yj,…,ym)T;

      (3)輸出層輸出向量:O=(O1,O2,…,Ok,…,Ol)T;

      (4)期望輸出向量:d=(d1,d2,…,dk,…,dl)T;

      (5)輸入層到隱層之間的權(quán)值矩陣:V=(V1,V2,…,Vj,…,Vm);

      (6)隱層到輸出層之間的權(quán)值矩陣:W=(W1,W2,…,Wk,…,Wl)。

      BP神經(jīng)網(wǎng)絡(luò)就是通過構(gòu)建上述變量來完成網(wǎng)絡(luò)的描述。

      我們從上至下,從輸出層開始看BP網(wǎng)絡(luò)的工作原理,對(duì)于輸出層:

      k=1,2,…,l (1)

      k=1,2,…,l (2)

      對(duì)于隱層:j=1,2,…,m (3)

      j=1,2,…,m (4)

      其中的是傳遞函數(shù)我們可以采用單極性Sigmoid函數(shù): (5)

      (1)網(wǎng)絡(luò)誤差與權(quán)值調(diào)整

      輸出誤差E定義:

      (6)

      (7)

      在這一步的基礎(chǔ)上,進(jìn)一步展開至輸入層:

      (8)

      j=0,1,2,…,m;k=1,2,…,l (9)

      i=0,1,2,…,n;j=1,2,…,m (10)

      式中負(fù)號(hào)表示梯度下降,常數(shù)η∈(0,1)表示比例系數(shù)。在全部推導(dǎo)過程中,對(duì)輸出層有j=0,1,2,…,m;k=1,2,…,l,對(duì)隱層有i=0,1,2,…,n;j=1,2,…,m

      (2)BP算法推導(dǎo)

      對(duì)于輸出層,式(9)可寫為:

      (8)對(duì)隱層,式(9)可寫為:(10),對(duì)于隱層,利用式(7):

      可得: (11)

      將以上結(jié)果代入式(8),并應(yīng)用式(5):,得到:

      (12)

      (13)

      至此兩個(gè)誤差信號(hào)的推導(dǎo)已完成。將式(12)代回到式(8),得到三層前饋網(wǎng)的BP學(xué)習(xí)算法權(quán)值調(diào)整計(jì)算公式為:

      (14)

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解范文第4篇

      關(guān)鍵詞:成績(jī)采集;模式識(shí)別;神經(jīng)網(wǎng)絡(luò);特征提取

      中圖分類號(hào):G80 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2017)03-0069-01

      對(duì)于未實(shí)行高考口語人機(jī)對(duì)話的省市,高考口語還是采用打分模式。然后人工采集,為解決這一問題,通過識(shí)別手寫評(píng)分和OCR識(shí)別結(jié)果比對(duì)確保成績(jī)采集的準(zhǔn)確。而神經(jīng)網(wǎng)絡(luò)很適合用于解決字符識(shí)別問題。

      1 BP神經(jīng)網(wǎng)絡(luò)

      人工神經(jīng)網(wǎng)絡(luò)是在人類對(duì)其大腦神經(jīng)網(wǎng)絡(luò)認(rèn)識(shí)理解的基礎(chǔ)上人工構(gòu)造的能實(shí)現(xiàn)某種功能的神經(jīng)網(wǎng)絡(luò),是一種典型的前饋神經(jīng)網(wǎng)絡(luò),包含輸入層、隱層及輸出層。

      BP網(wǎng)絡(luò)是典型的多層網(wǎng)絡(luò),分輸入層、隱含層和輸出層,算法由數(shù)據(jù)流的前向計(jì)算和誤差信號(hào)的反向傳播兩個(gè)過程構(gòu)成。通過這兩個(gè)過程的交替進(jìn)行,在權(quán)向量空間執(zhí)行誤差函數(shù)梯度下降策略,動(dòng)態(tài)迭代搜索一組權(quán)向量,使網(wǎng)絡(luò)誤差函數(shù)達(dá)到最小值,從而完成信息提取和記憶過程[1]。

      2 基于神經(jīng)網(wǎng)絡(luò)的英語口語成績(jī)采集的實(shí)現(xiàn)

      為實(shí)現(xiàn)更好的采集,需要設(shè)計(jì)適應(yīng)識(shí)別的評(píng)分表,其中定位點(diǎn)、考生條碼用于定位到考生并采集成績(jī),等級(jí)手寫的分區(qū)需要通過神經(jīng)網(wǎng)絡(luò)識(shí)別等級(jí),OCR等級(jí)識(shí)別區(qū)用采集等級(jí)并通過神經(jīng)網(wǎng)絡(luò)采集的等級(jí)進(jìn)行比較。

      2.1 采集過程

      首先預(yù)處理圖像獲取樣本進(jìn)行訓(xùn)練,輸入神經(jīng)網(wǎng)絡(luò)訓(xùn)練后輸出看誤差并調(diào)整各階層的權(quán)值讓輸出同OCR值一致,正式識(shí)別兩種模式結(jié)果不一致需要人工干預(yù),有可能等級(jí)打錯(cuò)也有可能等級(jí)涂錯(cuò),然后修正結(jié)果,確保等級(jí)信息準(zhǔn)確無誤。

      2.2 圖像預(yù)處理

      原始評(píng)分表的輸入有可能產(chǎn)生污點(diǎn)等噪音。所以在識(shí)別之前必須對(duì)圖像進(jìn)行預(yù)處理。預(yù)處理一般包括圖像分割、灰度、二值化、平滑、去噪音、歸一化和細(xì)化等。不同識(shí)別方法對(duì)于處理要求不一樣預(yù)處理后離散和噪聲和歸一化和細(xì)化處理,將圖片形成一個(gè)40 ×40 像素點(diǎn)陣(圖1得分區(qū)圖像預(yù)處理后圖像)。

      2.3 神經(jīng)網(wǎng)絡(luò)的特征提取

      在手寫等級(jí)識(shí)別中,特征的選擇是非常關(guān)鍵問題。將經(jīng)過預(yù)處理后的等級(jí)數(shù)字圖像中提取最能體現(xiàn)這個(gè)字符特點(diǎn)的特征向量,然后提取出訓(xùn)練樣本中的特征向量代入BP網(wǎng)絡(luò)之中就可以對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,提取出待識(shí)別的等級(jí)樣本中的特征向量代入訓(xùn)練好的BP網(wǎng)絡(luò)中,就可以對(duì)等級(jí)得分字符進(jìn)行識(shí)別。

      2.3.1 英語口語成績(jī)采集中BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

      將A、B、C、D等級(jí)圖像的特征向量作為神經(jīng)網(wǎng)路的輸入,確定輸入神經(jīng)元。經(jīng)過預(yù)處理的為40×40的矩陣,共1600各輸入神經(jīng)元。輸出較為簡(jiǎn)單,只要識(shí)別A、B、C、D4個(gè)等級(jí),輸出節(jié)點(diǎn)數(shù)為4。為加快神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速度,3層BP網(wǎng)絡(luò)最為恰當(dāng)效率高。同時(shí)根據(jù)網(wǎng)絡(luò)收斂性能的好壞來確定隱含層神經(jīng)元個(gè)數(shù)。根據(jù)經(jīng)驗(yàn)公式:

      s=

      其中,n為輸入層神經(jīng)元個(gè)數(shù),m為輸出層神經(jīng)元個(gè)數(shù)[2]。計(jì)算可得隱含層神經(jīng)元個(gè)數(shù)為79。

      2.3.2 BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練

      手寫字符歸一化和細(xì)化后的圖像為40 ×40 的布爾矩陣,1600個(gè)元素組成一個(gè)手寫字符的列矩陣,即字符的特征向量。由A、B、C、D這4個(gè)字符的特征列向量組成一個(gè)1600×4的輸入矢量,訓(xùn)練次數(shù)達(dá)到最大值神經(jīng)網(wǎng)絡(luò)訓(xùn)練就結(jié)束。

      2.3.3 口語等級(jí)識(shí)別等分結(jié)果

      字符識(shí)別的正確率和拒識(shí)率與字符識(shí)別的判斷值有關(guān),判斷值越高,識(shí)別的正確率就高。為確保成績(jī)錄取100%正確,通過識(shí)別和OCR識(shí)別比較,不同再通過人工識(shí)別錄入確保準(zhǔn)確(圖2成績(jī)自動(dòng)識(shí)別等分)。

      神經(jīng)網(wǎng)絡(luò)在口語成績(jī)登分中的應(yīng)用過程中大大減輕勞動(dòng)強(qiáng)度,提高準(zhǔn)確率,通過多重比對(duì)確保成績(jī)錄入準(zhǔn)確,經(jīng)過實(shí)踐應(yīng)用和比對(duì)成績(jī)登分準(zhǔn)確率100%,完全可以滿足實(shí)際需要。

      參考文獻(xiàn)

      對(duì)神經(jīng)網(wǎng)絡(luò)的理解范文第5篇

      張雨濃:目前來說,人工神經(jīng)網(wǎng)絡(luò)、冗余度機(jī)器人學(xué)和科學(xué)計(jì)算與優(yōu)化是我們科研攻關(guān)的三個(gè)主要方向,最早當(dāng)始于導(dǎo)師毛宗源教授主持負(fù)責(zé)的“仿人腦信息處理與控制的人工系統(tǒng)的研究”,隨后開展了近年來承擔(dān)的國(guó)家自然科學(xué)基金委支持的課題“機(jī)器手臂的基于二次規(guī)劃的冗余度解析方案”“冗余機(jī)器人實(shí)時(shí)運(yùn)動(dòng)規(guī)劃的統(tǒng)一理論”等項(xiàng)目。就人工神經(jīng)網(wǎng)絡(luò)、人工智能等相關(guān)領(lǐng)域的研究情況而言,我國(guó)很多學(xué)術(shù)前輩、同事甚至是后學(xué)不同程度地做出了不少創(chuàng)新性的成果,有些甚至達(dá)到世界領(lǐng)先的水準(zhǔn),這一點(diǎn)還是值得我們欣喜的。

      以人工神經(jīng)網(wǎng)絡(luò)為例來說,其理論在國(guó)內(nèi)外都已經(jīng)取得了許多令人矚目的成果,國(guó)內(nèi)也有許多學(xué)者相繼提出了不同的人工神經(jīng)網(wǎng)絡(luò)模型,并取得了較為廣泛的應(yīng)用,且應(yīng)用范圍在不斷擴(kuò)展,滲透到了多個(gè)領(lǐng)域,如信號(hào)處理,智能控制、模式識(shí)別、機(jī)器視覺、非線性優(yōu)化、圖像處理等等。我團(tuán)隊(duì)近期拓展的神經(jīng)網(wǎng)絡(luò)模型的連接權(quán)值直接確定一項(xiàng)可避開傳統(tǒng)BP(誤差回傳)神經(jīng)網(wǎng)絡(luò)的內(nèi)在弱點(diǎn),如冗長(zhǎng)的權(quán)值迭代計(jì)算、局部極小點(diǎn)問題、網(wǎng)絡(luò)參數(shù)及隱神經(jīng)元數(shù)的選取困難等等,并將遞歸神經(jīng)網(wǎng)絡(luò)應(yīng)用于冗余度機(jī)械臂的運(yùn)動(dòng)規(guī)劃與控制中,展現(xiàn)出了良好的成果。

      筆者:早在2001年,您率先提出變矩陣/向量/優(yōu)化問題的神經(jīng)網(wǎng)絡(luò)新解法,能否借此機(jī)會(huì)有針對(duì)性地講述幾點(diǎn)其與傳統(tǒng)解析與架構(gòu)上的不同?

      張雨濃:其與傳統(tǒng)梯度方法的不同之處可歸納為如下數(shù)點(diǎn):首先,新型神經(jīng)網(wǎng)絡(luò)解法是基于矩陣/向量形式的誤差函數(shù)而設(shè)計(jì)的,令其每個(gè)誤差元素不斷遞減至零而成。與此相對(duì),基于梯度法的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)解法是基于非負(fù)或至少下有界的標(biāo)量形式的能量函數(shù)而設(shè)計(jì)的;值得指出的是,在基于梯度法的神經(jīng)網(wǎng)絡(luò)解法中涉及的參數(shù)矩陣等多是探討定常的情況。

      其次,新型神經(jīng)網(wǎng)絡(luò)在處理時(shí)變問題時(shí),系統(tǒng)地采用變矩陣,向量的時(shí)間導(dǎo)數(shù)信息,這也是新型神經(jīng)網(wǎng)絡(luò)能夠全局指數(shù)收斂到時(shí)變問題的準(zhǔn)確理論解的原因之一。與此相對(duì),基于梯度法的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)解法因沒有使用如此重要的時(shí)間導(dǎo)數(shù)信息而難以有效地求解時(shí)變矩陣/向量/優(yōu)化問題。

      另外,新型神經(jīng)網(wǎng)絡(luò)通常是用更為普適的隱動(dòng)力學(xué)方程描述的;而基于梯度法的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)則多是采用顯動(dòng)力學(xué)方程描述的。

      筆者:在您的科研范圍內(nèi),冗余機(jī)器人是您科學(xué)研究的主項(xiàng),它顯然代表著高端的科技發(fā)展方向,我們想請(qǐng)張教授談一下冗余機(jī)器人今天的發(fā)展?fàn)顩r及其特性、優(yōu)勢(shì),其在未來科技領(lǐng)域內(nèi)的應(yīng)用情況,給人類社會(huì)所帶來的利好。

      張雨濃:就冗余機(jī)器人而言,現(xiàn)主要研究的是冗余機(jī)械臂,其可廣泛地應(yīng)用于工業(yè)生產(chǎn)之中,包括焊接、油漆,組裝、繪圖、挖掘,送料和其他智能活動(dòng)等等。冗余機(jī)械臂是指末端執(zhí)行器在執(zhí)行給定的任務(wù)時(shí)有比其所必需自由度之上更多的自由度和靈活度的機(jī)械臂。在冗余機(jī)器人的運(yùn)動(dòng)學(xué)研究中,正運(yùn)動(dòng)學(xué)和逆運(yùn)動(dòng)學(xué)都是研究的核心部分。正運(yùn)動(dòng)學(xué)指給定關(guān)節(jié)變量,通過已知的手臂函數(shù)映射關(guān)系,能夠唯一地確定末端執(zhí)行器的位姿,而逆運(yùn)動(dòng)學(xué)是指給定末端執(zhí)行器的笛卡爾變量,如何來實(shí)時(shí)求解機(jī)械臂的關(guān)節(jié)變量。兩者剛好相對(duì),但逆運(yùn)動(dòng)學(xué)的求解卻不容易。后者直接關(guān)系到運(yùn)動(dòng)分析,離線編程、軌跡規(guī)劃等等,是將工作空間內(nèi)機(jī)器人末端的位姿轉(zhuǎn)化成關(guān)節(jié)量值的前提。由于機(jī)械臂逆運(yùn)動(dòng)學(xué)問題的復(fù)雜性,我們將機(jī)械臂逆運(yùn)動(dòng)學(xué)逆動(dòng)力學(xué)問題都統(tǒng)一地轉(zhuǎn)化為最優(yōu)化問題,具體為時(shí)變二次規(guī)劃問題,這種做法能減少大量矩陣求逆,矩陣相乘等運(yùn)算,減少計(jì)算時(shí)間,也更靈活、更加智能化。

      這些科研結(jié)果能為裝備制造,加工作業(yè)乃至空間機(jī)器人等領(lǐng)域的運(yùn)動(dòng)控制和新型機(jī)械臂的研發(fā),制造以及技術(shù)提升提供一個(gè)更為科學(xué)更加有力的理論與實(shí)踐基礎(chǔ)。該冗余度解析理論將會(huì)在重工制造裝備等方面展露,并帶來廣闊的應(yīng)用前景和較大的社會(huì)經(jīng)濟(jì)效益,如用以改造和提升噴漿機(jī)器人、焊接和繪圖機(jī)器人、車載機(jī)器臂系統(tǒng)等機(jī)械設(shè)備的運(yùn)動(dòng)解析與控制技術(shù)、操作模式及其安全性穩(wěn)定性等。

      筆者:2007年您所提出的BP神經(jīng)網(wǎng)絡(luò)權(quán)值直接確定理論研究,克服了傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)所固有的迭代時(shí)間長(zhǎng)、迭代次數(shù)多,易陷入局部極小點(diǎn)和學(xué)習(xí)精度不高等諸多缺陷。您一直站在科技前沿,在未來您的研究方向還將力求沖破哪些方面的障礙?

      張雨濃:我們的一個(gè)科研工作重心就是人工神經(jīng)網(wǎng)絡(luò)的權(quán)值直接確定法以及外延的新方法新理論,比如在權(quán)值直接確定基礎(chǔ)上的隱層神經(jīng)元數(shù)目自適應(yīng)確定研究等等。就未來在該方面繼續(xù)做工作而言,首先我們?nèi)詫⒗^續(xù)尋找,挖掘、探討和考察不同的激勵(lì)函數(shù)、網(wǎng)絡(luò)模型,以求從不同的角度更加豐富地證實(shí)權(quán)值直接確定法的可行性,有效性、普適性以及優(yōu)異的學(xué)習(xí)能力等等;其次,我們將(也已經(jīng)在)探討多輸入多輸出人工神經(jīng)網(wǎng)絡(luò)的權(quán)值直接確定法,并同時(shí)探研拓?fù)浣Y(jié)構(gòu)自適應(yīng)確定算法于其中;另外,也如同我們向中科院某所提交的一個(gè)開放課題申請(qǐng)書中所言,應(yīng)用神經(jīng)網(wǎng)絡(luò)權(quán)值與結(jié)構(gòu)直接確定理論處理海量數(shù)據(jù)同樣值得嘗試與探討,我們以往曾開發(fā)出基于Toeplitz矩陣的時(shí)間序列高斯過程回歸技術(shù)處理了六萬維矩陣求逆和兩萬四千維數(shù)據(jù),這一結(jié)果或可以借鑒用以開發(fā)神經(jīng)網(wǎng)絡(luò)超萬維數(shù)據(jù)處理技術(shù)。

      亚洲AV无码久久久一区二不卡| 无码日韩精品一区二区免费暖暖| 一本久久a久久精品vr综合| 无码人妻品一区二区三区精99| 九九99久久精品午夜剧场免费| 中文亚洲一区二区三区| 国产欧美在线观看不卡| 国产av无码专区亚洲av极速版| 亚洲AⅤ精品一区二区三区| 日本人妻系列一区二区| 国产自拍精品一区在线观看| 无码精品久久久久久人妻中字| 波多野结衣在线播放一区| 成人一区二区三区蜜桃| 蜜桃视频免费进入观看| 国产精品无码久久久久| 成人午夜免费无码视频在线观看| 午夜国产在线精彩自拍视频| 欧美又大粗又爽又黄大片视频| 乌克兰少妇xxxx做受野外| av无码精品一区二区乱子| 日本一道本加勒比东京热| 日韩久久无码免费毛片软件| 无码国产一区二区三区四区| 亚洲Av无码专区尤物| 桃色一区一区三区蜜桃视频| 亚洲图片日本视频免费| 亚洲欲色欲香天天综合网| 亚洲黄色官网在线观看| 一区二区三区美女免费视频| 久青草久青草视频在线观看| 无码av一区在线观看| 蜜臀av在线一区二区尤物| 国产午夜福利精品一区二区三区| 岛国av无码免费无禁网站下载| 熟女人妻一区二区在线观看| 亚洲成人中文字幕在线视频| 无码精品人妻一区二区三区人妻斩 | 国产精品毛片av毛片一区二区| 樱桃视频影院在线播放| 国产一国产一级新婚之夜|