2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩95頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、新型干法水泥生產技術已成為當代水泥工業發展的主流,預分解技術是其核心技術之一。分解爐是實現預分解技術的主要設備,它承擔著燃料燃燒、氣固兩相換熱和碳酸鹽分解的任務。分解爐的穩定運行對生料分解率、熟料質量和產量的穩定都起著重要的作用,分解爐溫度是分解爐穩定運行的主要指標。然而由于分解爐、回轉窯及預熱器直接相連,存在諸多的不確定性干擾,同時在分解爐內所進行的燃燒、傳熱等過程機理復雜,使分解爐溫度過程具有強非線性、純滯后、強耦合和不確定性等特點

2、,難以建立分解爐溫度過程的準確的動態機理模型和數據驅動模型,導致基于模型的控制和優化算法難以應用于實際過程,因此,研究分解爐溫度過程的建模方法,特別是建立具有較小仿真誤差的模型,對分解爐溫度過程的控制和仿真研究都具有很重要的意義。
  本文依托國家高技術研究發展計劃(863計劃)課題“大型回轉窯智能控制系統”,針對當前系統辨識方法很難建立出具有較小仿真誤差模型的問題,提出了三種能夠提高模型性能的建模方法,并在現場實際數據的基礎上,

3、建立了分解爐溫度過程的動態模型。本文的主要工作包括如下幾個方面:
  (1)針對非線性NARX(Nonlinear AutoRegressive with eXogenous Inputs)模型仿真誤差較大的問題,本文針對SVM(Support Vector Machine)模型提出了一種改進的模型選擇方法,該方法能夠通過選擇模型的結構參數來提高模型的性能,使其更加接近于實際對象。并在現場實際數據的基礎上,建立了分解爐溫度過程的S

4、VM NARX模型,仿真結果表明:該方法所建立的模型能夠一定程度上減小模型的仿真誤差,提高模型的泛化性。、
  (2)由于線性輸出誤差(Output Error,簡稱OE)模型具有較小的仿真誤差值,而非線性OE模型建模難度較大,本文提出了基于AdaBoost(Adaptive Boosting)算法的集成輸出誤差模型建模方法。將輸出誤差模型作為集成模型的弱學習機,使用AdaBoost算法對樣本權值進行更新來訓練出具有不同性能的弱學

5、習機模型,然后針對集成模型的模型復雜度高問題,提出了使用選擇性集成策略對集成模型進行修剪。并使用該方法建立了分解爐溫度過程的集成輸出誤差模型,其仿真結果表明:該方法所建立的模型能夠有效地減小模型的仿真誤差,具有較好的學習能力和泛化能力。
  (3)針對現有的Hammerstein模型非線性模塊參數過多,學習代價過高的問題,本文在Hammerstein模型結構基礎上,提出了一種基于極限學習機(Extreme LearningMach

6、ine,簡稱ELM)的Hammerstein輸出誤差模型方法,即將ELM模型作為Hammerstein模型的靜態非線性模塊,OE模型作為Hammerstein模型的動態線性模塊,并提出了兩階段迭代優化算法來估計模型參數。最后使用該算法建立了分解爐溫度過程的基于ELM的Hammerstein輸出誤差模型,仿真結果表明該模型的結構相對簡單,學習復雜性較低,且所建立的模型在減小模型的仿真誤差方面也具有一定的改進。
  (4)對上述三種方

7、法所建立的模型分別從建模的側重點及模型復雜度、建模時間、模型精度和泛化性能等方面進行了比較分析。結果表明:三種算法中,SVM NARX模型與另外兩種方法具有不同的側重點,其主要是一種模型選擇算法,而集成輸出誤差模型和基于ELM的Hammerstein輸出誤差模型是兩種能夠減小模型的仿真誤差值的模型結構;在模型復雜性、建模時間和模型精度與泛化性能方面,三種模型各自有優缺點,但是總體而言,SVM NARX模型的精度相對最低,另外兩種算法具有

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論