卖逼视频免费看片|狼人就干网中文字慕|成人av影院导航|人妻少妇精品无码专区二区妖婧|亚洲丝袜视频玖玖|一区二区免费中文|日本高清无码一区|国产91无码小说|国产黄片子视频91sese日韩|免费高清无码成人网站入口

機器學習網(wǎng)格搜索簡單介紹 有限元分析時劃分網(wǎng)格的標準是什么?

有限元分析時劃分網(wǎng)格的標準是什么?1.導入模型的簡化:關注的部分要細化,影響力學性能的圓角不要丟棄,而其他部分(如強度肯定滿足要求、工作條件還不錯的部分)可以粗略繪制,即刪除所有帶圓角的特征。劃分網(wǎng)格

有限元分析時劃分網(wǎng)格的標準是什么?

1.導入模型的簡化:關注的部分要細化,影響力學性能的圓角不要丟棄,而其他部分(如強度肯定滿足要求、工作條件還不錯的部分)可以粗略繪制,即刪除所有帶圓角的特征。

劃分網(wǎng)格時原理是一樣的,四面體網(wǎng)格最好用帶中間節(jié)點的類型。最好用時間劃分六面體網(wǎng)格。

3關于結果:我還沒有 t計算模式,沒有經(jīng)驗。個人感覺如果結果收斂,應該是可信的;靜力當然沒問題,疲勞也不涉及。

如何更好地調(diào)試神經(jīng)網(wǎng)絡?

謝謝邀請我。以下是一些經(jīng)驗。深度學習在幾個方面很棘手。數(shù)學和理論不僅能快速引出梯度公式和更新方程的毛團,而且深度學習模型非常復雜。TensorFlow開發(fā)TensorBoard后,神經(jīng)網(wǎng)絡的在線可視化和控制訓練有了很大的進步,幫助開發(fā)者診斷無效的神經(jīng)網(wǎng)絡層。

從一小步開始,最先進的深度學習架構只會越做越大。作為一個試圖實現(xiàn)這些架構的程序員,如果你確切地知道你在做什么,這不是一個問題。如果你的知識不完善,那么事情就會出錯。無論是 it'他試圖模仿別人。;結果或超越已經(jīng)做的事情。特別是在你剛開始一個新的深度學習項目的時候,我發(fā)現(xiàn)了兩個特別有用的措施:用虛假數(shù)據(jù)來驗證你的數(shù)據(jù)模型,在構建架構的時候一步一步來做。

偽造你的數(shù)據(jù),得到你想要的結果。我的第一個建議主要出現(xiàn)在 "正如我所說,從最簡單的架構開始,并確定您的數(shù)據(jù)表示。對于問題的某些版本,實現(xiàn)一個小的全連接前饋網(wǎng)絡(即使只是邏輯回歸)。創(chuàng)建一個模擬數(shù)據(jù)流,其形狀和尺寸與您通過網(wǎng)絡推送的數(shù)據(jù)相同。嘗試輸入輸出關系確定且容易學習的數(shù)據(jù),和輸入輸出沒有關系的數(shù)據(jù),比較算法的性能:

這些示例如下所示。你覺得哪些關系比較容易學?

這種方法叫做單元測試。假數(shù)據(jù)可以檢驗你最終實現(xiàn)的算法的魯棒性。

當我們構建一個九層的RNN時,引用是在Torch中實現(xiàn)的。我和我的同事最初開始在Theano Keras復制這個架構,我們的努力被推遲了幾天甚至幾周。

以我自己為例,我終于意識到這是因為我同時更新了數(shù)據(jù)采集和分類器的代碼。Theano是一回事,但是說到底,Keras有相當簡單的模型規(guī)范習慣用法,所以理論上應該很難混淆。但當我到達第一個模型層時,我不自覺地引入了數(shù)據(jù)表示的微妙變化。無論好壞,當您輸入的大小與層的預期大小不同時。有了矩陣,許多架構將變得非?;靵y,導致以下有趣的錯誤消息:

因此,如果您的數(shù)據(jù)模型可能被損壞,請先回到單元測試并修復它。然后重新構建您正在實施的網(wǎng)絡。不管怎樣,數(shù)組的大小是多少...?

好好利用你的調(diào)試器。隨著你的神經(jīng)網(wǎng)絡逐漸變成亂糟糟的代碼,越來越多無聊的評論出現(xiàn)(#再試一次...),也許像TDB、TensorBoard這樣的工具,或者你自己定制的可視化系統(tǒng),在實際的深度學習調(diào)試中會越來越有用:檢查梯度,調(diào)整學習速率,解決 "這個輸出不是我想要或期望的。否則,訓練模型的參數(shù)調(diào)整階段是多么令人沮喪、痛苦和漫長。

當然,正確的選擇是永遠知道自己在做什么,永遠不要犯錯。這可能需要在紙上畫出你的網(wǎng)絡架構,并成為機器學習的大師,而不是參數(shù)調(diào)整工程師。。

我會把所有與科技相關的有趣文章都貼在這里。歡迎訂閱我的頭條號。偶爾回答有趣的問題。有問題可以隨時在評論區(qū)回復討論。

(碼字不易,如果文章對你有幫助,可以喜歡~)