5. Results and discussion5.1. Orthogonal experiments and MEA-BPNNThe l的繁體中文翻譯

5. Results and discussion5.1. Ortho

5. Results and discussion5.1. Orthogonal experiments and MEA-BPNNThe levels of experimental factors are shown in Table 6. Commonlyused three-level orthogonal tables include L9(q4), L18(q7),and L27(q13). Based on the selection principle for orthogonal tables[38], L18(q7) is adopted in this paper. Each experiment in theorthogonal table is simulated by Fluent and the results correspondingto qV are given in Table 7.From the orthogonal experiment results, 15 randomly selecteddata points are used as training data set and 3 other data pointsare used as test data. The Levenberg-Marquardt algorithm is usedto train the network in the training function. The process of similartaxisand dissimilation is shown in Fig. 17. After several similartaxisoperation cycles, in Fig. 17(a) and (b), scores of the initialsuperior and temporary subgroups become constant. This meansthat each of these subgroups is mature. Comparing Fig. 17(a) and(b), it is found that the scores of initial temporary subgroups subgroup1, subgroup 2, and subgroup 3 are higher those of the initialsuperior subgroups subgroup 2, subgroup 4, and subgroup 5.Hence, the dissimilation operation is conducted thrice and 3 newsubgroups are added to the temporary subgroups. In Fig. 17(c), itcan be observed that the score of each subgroup remains constantin the similartaxis process, which means that these subgroups aremature. Comparing Fig. 17(c) and (d), it can be noted that thescores of temporary subgroups are lower than those of superiorsubgroups and therefore the dissimilar operation is no longer executed.In this instance, superior subgroups have already beenadded to the global billboard.Moreover, the generalised ability of neural networks isimproved after weight and threshold optimisation by MEA. Further,the prediction error of MEA-BPNN is 4.53  105, which islower than that of 1.1  103 of BPNN without optimisation.5.2. Optimisation resultsThe process of similartaxis and dissimilation for structuralparameter optimisation is given in Fig. 18. It can be found thatthe scores of subgroup 1, subgroup 2, and subgroup 4 in initialtemporary subgroups are higher than those of subgroup 1, subgroup3, and subgroup 5 in initial superior subgroups (Fig. 18(a)and (b)). Therefore, the dissimilation operation is conducted thriceand 3 new subgroups are added to the temporary subgroups. InFig. 18(c), it can be noticed that the score of each subgroup remainsconstant in the similartaxis process, which means that these subgroupsare mature. Comparing Fig. 18(c) and (d), it can be notedthat the scores of temporary subgroups are lower than those ofsuperior subgroups and hence dissimilation is not executed. Theoptimal structure parameters obtained after decoding are givenin Table 8.5.3. Separation efficiencyThe size distribution of COF particulate matter from Li et al.’sexperiments [39] fits the Rosin Rammler Equation [40]. The completesize range is divided into 10 intervals, each represented bya mean diameter for which trajectory calculations were performed.The density of particles is 960 kg/m3. The cumulative particle sizedistribution and parameters, such as the minimum, maximum,mean, and spread diameter (n) are shown in Table 9.
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
5.結果和討論<br>5.1。正交實驗和MEA-BPNN <br>的實驗因素的水平示於表6中。通常<br>使用的三電平正交表包括L9(Q4),L18(Q7),<br>和L27(Q13)。基於用於正交表的選擇原則<br>[38],L18(Q7)在本文中被採用。在每個實驗<br>正交表由流利模擬和對應的結果<br>到QV在表7中給出<br>從正交試驗結果,15隨機選擇的<br>數據點被用作訓練數據集和3其它數據點<br>被用作測試數據。列文伯格-馬夸特算法用於<br>訓練網絡訓練功能。趨同的過程<br>和異化示17.在圖經過趨同<br>操作週期,在圖17(a)和(b)中,初始的分數<br>優越和臨時子群成為恆定。這意味著<br>,每個這些亞組的是成熟的。比較圖17(a)和<br>(b)中,發現的初始臨時子組亞組的得分<br>1,子組2,和子組3是那些更高的初始<br>優越亞子組2,子群4,和子組5 <br>因此,異化的操作被進行三次和3個新的<br>子組被添加到臨時子組。在圖17(c)圖,它<br>可以觀察到,每個子組的評分保持不變<br>的趨同過程,這意味著,這些分組是<br>成熟。比較圖17(c)和(d)中,可以指出的是,<br>臨時子組的分數比優良的低<br>子組,因此不再執行異種操作。<br>在這種情況下,上級分組已經<br>加入到全球的廣告牌。<br>此外,神經網絡的廣義能力<br>通過MEA重量和閾值優化後好轉。此外,<br>MEA-BPNN的預測誤差是4.53?10?5,其是<br>比1.1低?10?3 BP神經網絡的無優化。<br>5.2。優化結果<br>趨同和異化用於結構的方法,<br>參數優化在圖中給出。18.可以發現<br>子組1,子組2,並在初始子組4的分數<br>臨時子組比子組1,子組的更高<br>3,和在初始優越亞組亞組5(圖18的(a)<br>和(b))。因此,異化的操作被進行三次<br>和3個新的子組被添加到臨時子組。在<br>圖18(c)所示,可以注意到,每個子組的分數保持<br>在趨同過程,這意味著,這些亞組常數<br>是成熟。比較圖18(c)和(d)中,可以注意到<br>的是臨時子組的分數比的下<br>優越的子組,並因此不執行異化。在<br>解碼之後獲得最佳結構參數給出<br>在表8 <br>5.3。分離效率<br>從Li等人的COF的顆粒物的粒徑分佈<br>實驗[39]適合羅辛拉姆勒方程[40]。完整的<br>尺寸範圍劃分成10個間隔,每個都由表示<br>用於對其執行軌跡計算的平均直徑。<br>顆粒的密度為960千克/立方米。累積粒度<br>分佈和參數,如最小值,最大值,<br>平均值,和鋪展直徑(n)被示於表9。
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
5. 結果和討論<br>5.1. 正交實驗和MEA-BPNN<br>實驗因數的水準在表6中。通常<br>使用的三級正交表包括L9(q4),L18(q7),<br>和 L27(q13)。基於正交表的選擇原則<br>[38],本文采用L18(q7)。每個實驗<br>正交表由Fluent類比,結果對應<br>到 qV 在表 7 中給出。<br>從正交實驗結果中,隨機播放15個<br>資料點用作訓練資料集和 3 個其他資料點<br>用作測試資料。使用列文伯格-馬誇特演算法<br>在培訓功能方面訓練網路。類似軸的過程<br>和異化如圖17所示。經過幾個類似的計畫<br>操作週期,如圖 17(a) 和 (b) 所示,初始<br>上級和臨時子組變得恒定。這意味著<br>這些子組中的每一個都成熟了。比較圖17(a)和<br>(b),發現初始臨時分組的分數<br>1、子組 2 和子組 3 高於初始組<br>上級子組 2、子組 4 和子組 5。<br>因此,異化操作進行了三次和3新<br>子組將添加到臨時子組中。在圖17(c)中,它<br>可以觀察到每個子組的分數保持不變<br>在類似的計程車過程中,這意味著這些子組<br>成熟。比較圖17(c)和(d),可以注意到,<br>臨時子組的分數低於上級<br>子組,因此不再執行不同的操作。<br>在這種情況下,上級子組已經<br>添加到全域看板。<br>此外,神經網路的一般能力是<br>經 MEA 對重量和閾值優化後有所改善。進一步<br>MEA-BPNN 的預測誤差為 4.53 105,即<br>低於 BPNN 的 1.1 103,無需優化。<br>5.2. 優化結果<br>結構上的相似和異化過程<br>參數優化如圖18所示。可以發現<br>子組 1、子組 2 和子組 4 的分數在初始<br>臨時子組高於子組 1,子組<br>3,和子組5在初始上級子組(圖18(a))<br>和 (b))。因此,異化操作進行了三次<br>並將 3 個新子組添加到臨時子組中。在<br>圖18(c),可以注意到每個子組的分數保持不變<br>在類似的taxis過程中恒定,這意味著這些子組<br>成熟。比較圖18(c)和(d),可以注意到<br>臨時子組的分數低於<br>上級子群,因此異化不執行。的<br>給出解碼後獲得的最佳結構參數<br>表8。<br>5.3. 分離效率<br>李等人的COF顆粒物的大小分佈<br>實驗[39]適合羅辛·拉姆勒方程[40]。完整<br>大小範圍分為 10 個間隔,每個間隔由<br>執行軌跡計算的平均直徑。<br>顆粒密度為960 kg/m3。累積粒子大小<br>分佈和參數,如最小值、最大值、<br>均值和點差直徑 (n) 如表 9 所示。
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
5個。結果和討論<br>5.1條。正交試驗與MEA-BPNN<br>實驗因素水准見錶6。一般<br>使用的三級正交表包括L9(q4)、L18(q7),<br>和L27(問題13)。基於正交表的選擇原則<br>[38],本文採用L18(q7)。每個實驗<br>用Fluent對正交表進行了模擬,得到了相應的結果<br>qV見錶7。<br>從正交試驗結果中,隨機選取15個<br>數據點用作訓練數据集和其他3個數據點<br>用作測試數據。使用了Levenberg-Marquardt算灋<br>訓練網絡的訓練功能。相似過程<br>异化如圖17所示。幾次相似之後<br>運行週期,在圖17(a)和(b)中,初始<br>上亞群和臨時亞群成為常數。這意味著<br>每個亞組都是成熟的。比較圖17(a)和<br>(b),發現初始臨時子群的得分<br>1,第2和第3子組高於初始值<br>上亞組第2亞組、第4亞組和第5亞組。<br>囙此,异化操作進行了三次,新的<br>子組將添加到臨時子組。在圖17(c)中<br>可以觀察到每個亞組的得分保持不變<br>在相似過程中,這意味著這些子群<br>成熟。比較圖17(c)和(d),可以注意到<br>臨時亞組得分低於優勢亞組<br>子組,囙此不再執行不同的操作。<br>在這種情況下,上級子群已經<br>添加到全球看板。<br>此外,神經網路的泛化能力是<br>通過MEA優化體重和閾值後得到改善。此外,<br>MEA-BPNN的預測誤差為4.53105,為<br>低於未經優化的BPNN的1.1103。<br>5.2條。優化結果<br>結構的相似與异化過程<br>參數優化如圖18所示。可以發現<br>第一、二、四組初始得分<br>臨時子群高於1子群<br>3和5亞組在初始上亞組中(圖18(a)<br>和(b)。囙此,异化操作進行了三次<br>並在臨時子組中添加3個新子組。在<br>圖18(c),可以注意到每個亞組的得分保持不變<br>相似過程中的常數,這意味著這些子群<br>是成熟的。比較圖18(c)和(d),可以注意到<br>臨時分組得分低於<br>上級子群,囙此不執行异化。這個<br>給出了解碼後的最優結構參數<br>在錶8中。<br>5.3條。分離效率<br>來自Li等人的COF顆粒物的尺寸分佈<br>實驗[39]符合松香夯實方程[40]。完整的<br>大小範圍分為10個間隔,每個間隔由<br>進行軌跡計算的平均直徑。<br>顆粒密度為960kg/m3。累積粒徑<br>分佈和參數,如最小值,最大值,<br>平均值和擴散直徑(n)如錶9所示。<br>
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2025 I Love Translation. All reserved.

E-mail: