簡體   English   中英

聲發射混凝土斷裂試樣的深度學習:回歸開始時間和故障類型分類

[英]Deep Learning for Acoustic Emission concrete fracture speciments: regression on-set time and classification of type of failure

如何將深度學習用於回歸和分類任務?

我面臨着混凝土試樣斷裂時的聲發射問題。 目的是自動找到起始時刻(聲發射開始的時間)和具有峰值的斜率,以確定裂縫的類型(模式 I 或模式 II 基於上角 RA)。 定義起病時間和抬高角度以對骨折進行分類

我已經嘗試使用區域 CNN 來處理使用 pytorch 的信號微調 Faster-RCNN 的圖像,但不幸的是,到目前為止結果並不出色。

使用 Faster-RCNN pytorch 進行對象檢測

我想根據一定的采樣頻率處理幅度數據的序列(時間序列),但它們的長度不同。 我該如何處理這個問題?

我可以制作一個 1D-CNN,它根據我可以在訓練示例上手動標記的監督點進行異常檢測嗎?

我有一定數量的錄音,我想利用這些錄音來訓練以 100Hz 采樣的 model。 在異常檢測的示例中,例如使用自動編碼器的時間序列異常檢測,他們使用相同的時間序列,並執行 window 滑動 1 個時間步長,以獲得大約 3700 來訓練他們的神經網絡。 相反,我有不同數量的錄音(時間序列),每個錄音都有一定的設定時間和不同的全局長度(以秒為單位)。 我該如何管理它?

我實際上需要信號開始的時刻和最大點來定義升角和分類裂縫類型。 我可以直接使用 CNN 進行分類,同時進行即時回歸任務嗎?

先感謝您!

我終於解決了,感謝@JonNordby 的基本建議,使用聲音事件檢測方法。 我們采用並改編了來自GitHub YashNita的代碼。

我根據下圖標記了數據: 在此處輸入圖像描述

然后,我采用了從計算輸入信號的頻譜圖中提取特征的方法: 在此處輸入圖像描述

最后我們能夠得到一個更精確的output對與Acoustic Emission Event檢測直接相關的Seismic Event Detection的識別,得到如下結果: 在此處輸入圖像描述

目前只完成了事件識別階段,但重新適應對破解模式I或模式II進行分類會很簡單。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM