浓毛老太交欧美老妇热爱乱,蜜臀性色av免费,妺妺窝人体色www看美女,久久久久久久久久久大尺度免费视频,麻豆人妻无码性色av专区

位置:51電子網(wǎng) » 技術(shù)資料 » 傳感與控制

CMAC網(wǎng)絡(luò)在機器人手眼系統(tǒng)位置控制中的應(yīng)用

發(fā)布時間:2007/4/23 0:00:00 訪問次數(shù):519

CMAC網(wǎng)絡(luò)在機器人手眼系統(tǒng)位置控制中的應(yīng)用 [日期:2004-12-8] 來源:電子技術(shù)應(yīng)用 作者:山東大學(xué)控制學(xué)院 曾 慧 [字體:控制器神經(jīng)網(wǎng)絡(luò)(Cerebellar Model Articulation Controller Neural Network,即CMAC神經(jīng)網(wǎng)絡(luò))是Albus根據(jù)小腦的生物模型提出的一種人工神經(jīng)網(wǎng)絡(luò)。它學(xué)習(xí)速度快,具有局域泛化能力,能夠克服BP網(wǎng)絡(luò)容易陷入局部最小點的問題,且硬件易于實現(xiàn)。目前,CMAC神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于機器人控制、非線性函數(shù)映射、模式識別以及自適應(yīng)控制等領(lǐng)域。

1.1 CMAC的基本結(jié)構(gòu)和原理

CMAC神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)原理圖如圖1所示。它本質(zhì)上可看作是一種用于表示復(fù)雜非線性函數(shù)的查表結(jié)構(gòu)。

圖1中,S為n維輸入矢量空間;A為聯(lián)想記憶空間;Y是輸出響應(yīng)矢量。輸入空間S中的每一矢量S(…,Si,…,Sj,…)被量化后送人存鍺區(qū)A,每個輸入變量Si激活存儲區(qū)A中C個連續(xù)存儲單元。網(wǎng)絡(luò)輸出yi為這C個對應(yīng)單元中值(即權(quán)wi)的累加結(jié)果,對某一輸入樣本,總可通過調(diào)整權(quán)值達到期望輸出值。由圖1可以看出,每一輸入樣本對應(yīng)于存儲區(qū)A中的C個單元,當各樣本分散存儲在A中時,在S中比較靠近的那些樣本就會在A中出現(xiàn)交疊現(xiàn)象,其輸出值也比較相近,即這C個單元遵循"輸入相鄰,輸出相近"的原則,這種現(xiàn)象被稱為CMAC神經(jīng)網(wǎng)絡(luò)的局部泛化特性,C為泛化參數(shù):C越大,對樣本的映射關(guān)系影響越大,泛化能力越好。

CMAC網(wǎng)絡(luò)的學(xué)習(xí)采用誤差糾正算法,計算量少斂速度快。其權(quán)值修正公式及輸出可表示如下:

式中,η為學(xué)習(xí)步長,yd為期望輸出,mi為輸入變量S激活存儲單元的首地址。修正方法可以采用每個樣本修正一次的增量學(xué)習(xí)方法,也可以采用所有樣本都輸入一輪后再修正的批量學(xué)習(xí)方法。

1.2 多維CMAC網(wǎng)絡(luò)的計算方法

由上述CMAC模型的算法可知,應(yīng)用傳統(tǒng)的多維CMAC概念映射算法會因輸入維數(shù)的增大而使存儲空間劇烈增大,從而使網(wǎng)絡(luò)計算量增大,收斂速度變慢。這里采用一種新的多維CMAC網(wǎng)絡(luò)的處理方法--疊加處理法。即把輸入空間為n維的多維CMAC網(wǎng)絡(luò)看作是由n個一維CMAC網(wǎng)絡(luò)疊加而成,其輸出為n個一維子網(wǎng)絡(luò)的輸出的疊加。\par

當輸入空間的維數(shù)n=1時,對于每一個輸入變量,都激活C個連續(xù)存儲單元,即有C個對應(yīng)單元的權(quán)值輸出非零。它的激勵情況如表l所示。

表1 激活單元地址分布
sia1a2a3a4a5a6a7a8a9a1001111000000101111000002001111000030001111000400001111005000001111060000001111

經(jīng)歸納,輸入變量Si激活存儲單元的首地址mi的計算方法如下:

mi=Si(C-Δ)+1 (4)

其中,Si為輸入量的量化值;C為泛化參數(shù);△為相鄰輸入激活存儲單元的重疊單元數(shù)大小。若輸入矢量有q個量化級,則存儲區(qū)A需要q(C-△)+C個存儲單元。.

當輸入空間的維數(shù)n>1時;設(shè)輸入空間為n維矢量Si=(Si1,Si2,…,Sin),對于每個分量Sij,都可以看作圖1所示結(jié)構(gòu)模型的一維輸入量。由式(3)可得其對應(yīng)的輸出為:

其中,mj為Sij所激活存儲單元的首地址。整個CMAC網(wǎng)絡(luò)可看作由n個如圖1所示的子網(wǎng)絡(luò)組成,S對應(yīng)的輸出yi可看作n個子網(wǎng)絡(luò)輸出yij(j=1,2,…,n)的疊加。

若每個輸入分量有q個量化級,每個子網(wǎng)絡(luò)中兩相鄰樣本有△個單元重疊,采用上述疊加方法共需存儲單元n×[q(C-△)+C]。而對于傳統(tǒng)的多維概念映射算法來說,n維輸入空間中可能的輸入狀態(tài)為qn個。對于一些實際系統(tǒng),qn往往遠遠大于n×[q(C-△)+C]。例如8維輸入,量化級為200個等級,泛化參數(shù)C取為40,相鄰輸入激活存儲單元的重疊單元數(shù)大小△為35,則用疊加處理法需要11200個存儲單元,而用傳統(tǒng)的概念映射算法需要2008個存儲單元。對于傳統(tǒng)的概念映射算法所帶來的要求存儲空間過大的問題,最常用的方法是把A當作一個虛擬存儲區(qū),通過散射編碼映射到一個小得多的物理空間單元Ap中,從而減少存儲空間。但是這種地址壓縮技術(shù)隨機性很強,會帶來沖撞問題且不可避免。然而,對多維CMAC網(wǎng)絡(luò)采用疊加處理法,不但可以大大減少占用的存儲單元數(shù),而且還可以避免地址壓縮帶來的沖撞現(xiàn)

CMAC網(wǎng)絡(luò)在機器人手眼系統(tǒng)位置控制中的應(yīng)用 [日期:2004-12-8] 來源:電子技術(shù)應(yīng)用 作者:山東大學(xué)控制學(xué)院 曾 慧 [字體:控制器神經(jīng)網(wǎng)絡(luò)(Cerebellar Model Articulation Controller Neural Network,即CMAC神經(jīng)網(wǎng)絡(luò))是Albus根據(jù)小腦的生物模型提出的一種人工神經(jīng)網(wǎng)絡(luò)。它學(xué)習(xí)速度快,具有局域泛化能力,能夠克服BP網(wǎng)絡(luò)容易陷入局部最小點的問題,且硬件易于實現(xiàn)。目前,CMAC神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于機器人控制、非線性函數(shù)映射、模式識別以及自適應(yīng)控制等領(lǐng)域。

1.1 CMAC的基本結(jié)構(gòu)和原理

CMAC神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)原理圖如圖1所示。它本質(zhì)上可看作是一種用于表示復(fù)雜非線性函數(shù)的查表結(jié)構(gòu)。

圖1中,S為n維輸入矢量空間;A為聯(lián)想記憶空間;Y是輸出響應(yīng)矢量。輸入空間S中的每一矢量S(…,Si,…,Sj,…)被量化后送人存鍺區(qū)A,每個輸入變量Si激活存儲區(qū)A中C個連續(xù)存儲單元。網(wǎng)絡(luò)輸出yi為這C個對應(yīng)單元中值(即權(quán)wi)的累加結(jié)果,對某一輸入樣本,總可通過調(diào)整權(quán)值達到期望輸出值。由圖1可以看出,每一輸入樣本對應(yīng)于存儲區(qū)A中的C個單元,當各樣本分散存儲在A中時,在S中比較靠近的那些樣本就會在A中出現(xiàn)交疊現(xiàn)象,其輸出值也比較相近,即這C個單元遵循"輸入相鄰,輸出相近"的原則,這種現(xiàn)象被稱為CMAC神經(jīng)網(wǎng)絡(luò)的局部泛化特性,C為泛化參數(shù):C越大,對樣本的映射關(guān)系影響越大,泛化能力越好。

CMAC網(wǎng)絡(luò)的學(xué)習(xí)采用誤差糾正算法,計算量少斂速度快。其權(quán)值修正公式及輸出可表示如下:

式中,η為學(xué)習(xí)步長,yd為期望輸出,mi為輸入變量S激活存儲單元的首地址。修正方法可以采用每個樣本修正一次的增量學(xué)習(xí)方法,也可以采用所有樣本都輸入一輪后再修正的批量學(xué)習(xí)方法。

1.2 多維CMAC網(wǎng)絡(luò)的計算方法

由上述CMAC模型的算法可知,應(yīng)用傳統(tǒng)的多維CMAC概念映射算法會因輸入維數(shù)的增大而使存儲空間劇烈增大,從而使網(wǎng)絡(luò)計算量增大,收斂速度變慢。這里采用一種新的多維CMAC網(wǎng)絡(luò)的處理方法--疊加處理法。即把輸入空間為n維的多維CMAC網(wǎng)絡(luò)看作是由n個一維CMAC網(wǎng)絡(luò)疊加而成,其輸出為n個一維子網(wǎng)絡(luò)的輸出的疊加。\par

當輸入空間的維數(shù)n=1時,對于每一個輸入變量,都激活C個連續(xù)存儲單元,即有C個對應(yīng)單元的權(quán)值輸出非零。它的激勵情況如表l所示。

表1 激活單元地址分布
sia1a2a3a4a5a6a7a8a9a1001111000000101111000002001111000030001111000400001111005000001111060000001111

經(jīng)歸納,輸入變量Si激活存儲單元的首地址mi的計算方法如下:

mi=Si(C-Δ)+1 (4)

其中,Si為輸入量的量化值;C為泛化參數(shù);△為相鄰輸入激活存儲單元的重疊單元數(shù)大小。若輸入矢量有q個量化級,則存儲區(qū)A需要q(C-△)+C個存儲單元。.

當輸入空間的維數(shù)n>1時;設(shè)輸入空間為n維矢量Si=(Si1,Si2,…,Sin),對于每個分量Sij,都可以看作圖1所示結(jié)構(gòu)模型的一維輸入量。由式(3)可得其對應(yīng)的輸出為:

其中,mj為Sij所激活存儲單元的首地址。整個CMAC網(wǎng)絡(luò)可看作由n個如圖1所示的子網(wǎng)絡(luò)組成,S對應(yīng)的輸出yi可看作n個子網(wǎng)絡(luò)輸出yij(j=1,2,…,n)的疊加。

若每個輸入分量有q個量化級,每個子網(wǎng)絡(luò)中兩相鄰樣本有△個單元重疊,采用上述疊加方法共需存儲單元n×[q(C-△)+C]。而對于傳統(tǒng)的多維概念映射算法來說,n維輸入空間中可能的輸入狀態(tài)為qn個。對于一些實際系統(tǒng),qn往往遠遠大于n×[q(C-△)+C]。例如8維輸入,量化級為200個等級,泛化參數(shù)C取為40,相鄰輸入激活存儲單元的重疊單元數(shù)大小△為35,則用疊加處理法需要11200個存儲單元,而用傳統(tǒng)的概念映射算法需要2008個存儲單元。對于傳統(tǒng)的概念映射算法所帶來的要求存儲空間過大的問題,最常用的方法是把A當作一個虛擬存儲區(qū),通過散射編碼映射到一個小得多的物理空間單元Ap中,從而減少存儲空間。但是這種地址壓縮技術(shù)隨機性很強,會帶來沖撞問題且不可避免。然而,對多維CMAC網(wǎng)絡(luò)采用疊加處理法,不但可以大大減少占用的存儲單元數(shù),而且還可以避免地址壓縮帶來的沖撞現(xiàn)

相關(guān)IC型號

熱門點擊

 

推薦技術(shù)資料

滑雪繞樁機器人
   本例是一款非常有趣,同時又有一定調(diào)試難度的玩法。EDE2116AB... [詳細]
版權(quán)所有:51dzw.COM
深圳服務(wù)熱線:13692101218  13751165337
粵ICP備09112631號-6(miitbeian.gov.cn)
公網(wǎng)安備44030402000607
深圳市碧威特網(wǎng)絡(luò)技術(shù)有限公司
付款方式


 復(fù)制成功!