黄大色黄大片女爽一次,丁香一区二区三区,精品一区日韩,www.国产网站,日韩欧美视频在线播放,性视频久久,欧美日日日日bbbbb视频

 首頁 > 技術(shù) > 技術(shù)文摘 > 基于DTW的編碼域說話人識別研究人民分析

基于DTW的編碼域說話人識別研究人民分析

2010-10-18 00:00:00   作者:   來源:   評論:0 點擊:



  說話人識別又被稱為話者識別,是指通過對說話人語音信號的分析處理,自動確認說話人是否在所記錄的話者集合中,以及進一步確認說話人的身份。說話人識別的基本原理如圖1所示。
'></center><br />
  隨著網(wǎng)絡技術(shù)的發(fā)展,通過Internet網(wǎng)絡傳遞語音的網(wǎng)絡電話VoIP(Voice over IP)技術(shù)發(fā)展迅速,已經(jīng)成為人們?nèi)粘=涣鞯闹匾侄,越來越多的用戶拋棄傳統(tǒng)的通信方式,通過計算機網(wǎng)絡等媒介進行語音交流。由于VoIP工作方式的特點,語音在傳輸中經(jīng)過了語音編譯碼處理,VoIP設備端口同時要處理多路、海量的壓縮話音數(shù)據(jù)。所以VoIP說話人識別技術(shù)主要研究的是如何高速、低復雜度地針對解碼參數(shù)和壓縮碼流進行說話人識別。<br />
  現(xiàn)有的針對編碼域說話人識別方法的研究主要集中在編碼域語音特征參數(shù)的提取上,香港理工大學研究從G.729和G.723編碼比特流以及殘差中提取信息,并采用了分數(shù)補償?shù)姆椒āV袊茖W技術(shù)大學主要研究了針對AMR語音編碼的說話人識別。西北工業(yè)大學在說話人確認中針對不同的語音編碼差異進行了補償算法研究,并且研究了直接在G.729編碼的比特流中提取參數(shù)的方法。說話人模型則主要采用在傳統(tǒng)說話人識別中應用最廣泛的GMM-UBM(Gaussian Mixture Model-Universal Background Model)。GMM-UBM的應用效果和混元數(shù)目密切相關(guān),在保證識別率的基礎上,其處理速度無法滿足VoIP環(huán)境下高速說話人識別的需求。<br />
  本文研究VoIP語音流中G.729編碼域的說話人實時識別,將DTW識別算法成功應用在G.729編碼域的文本相關(guān)的說話人實時識別。<br />
<b>1.G.729編碼比特流中的特征提取</b><br />
  <b>1.1 G.729編碼原理</b><br />
  ITU-T在1996年3月公布G.729編碼,其編碼速率為8 kb/s,采用了對結(jié)構(gòu)代數(shù)碼激勵線性預測技術(shù)(CS-ACELP),編碼結(jié)果可以在8 kb/s的碼率下得到合成音質(zhì)不低于32 kb/s ADPCM的水平。 G.729的算法延時為15 ms。由于G.729編解碼器具有很高的語音質(zhì)量和很低的延時,被廣泛地應用在數(shù)據(jù)通信的各個領域,如VoIP和H.323網(wǎng)上多媒體通信系統(tǒng)等。<br />
    G.729的編碼過程如下:輸入8 kHz采樣的數(shù)字語音信號先經(jīng)過高通濾波預處理,每10 ms幀作一次線性預測分析,計算10階線性預測濾波器系數(shù),然后把這些系數(shù)轉(zhuǎn)換為線譜對(LSP)參數(shù),采用兩級矢量量化技術(shù)進行量化。自適應碼本搜索時,以原始語音與合成語音的誤差知覺加權(quán)最小為測度進行搜索。固定碼本采用代數(shù)碼本機構(gòu)。激勵參數(shù)(自適應碼本和固定碼本參數(shù))每個子幀(5 ms,40個樣點)確定一次。<br />
  <b>1.2 特征參數(shù)提取</b><br />
    直接從G.729 編碼流中按照量化算法解量化可以得到LSP參數(shù)。由于后段的說話人識別系統(tǒng)還需要激勵參數(shù),而在激勵參數(shù)的計算過程中經(jīng)過了LSP的插值平滑,所以為了使特征矢量中聲道和激勵參數(shù)能準確地對應起來,要對解量化的LSP參數(shù)采用插值平滑。<br />
<center><img src=共 2 頁:1 2 

電子技術(shù)應用

相關(guān)閱讀:

分享到: 收藏

專題