加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

预测性维护:使用卷积神经网络(CNN)检测传感器故障

发布时间:2019-06-04 00:16:58 所属栏目:建站 来源:不靠谱的猫
导读:在呆板进修中,跟着时刻的推移,猜测维修的话题变得越来越风行。 在本文中,我们将看一个分类题目。我们将行使Keras建设一个卷积神经收集(CNN)模子,并实行对功效举办直观的表明。 数据集 我抉择从evergreen UCI repository(液压体系的状态监测)中获取
副问题[/!--empirenews.page--]

 

猜测性维护:行使卷积神经收集(CNN)检测传感器妨碍

在呆板进修中,跟着时刻的推移,猜测维修的话题变得越来越风行。

在本文中,我们将看一个分类题目。我们将行使Keras建设一个卷积神经收集(CNN)模子,并实行对功效举办直观的表明。

数据集

我抉择从evergreen UCI repository(液压体系的状态监测)中获取呆板进修数据集(https://archive.ics.uci.edu/ml/datasets/Condition+monitoring+of+hydraulic+systems#)。

该试验台由一次事变回路和二级冷却过滤回路构成,通过油箱毗连。体系轮回一再恒定负载轮回(一连时刻60秒)并丈量进程值,譬喻压力,体积流量和温度,同时定量地改变四个液压元件(冷却器、阀门、泵和蓄能器)的状态。

我们可以想象有一个液压管道体系,该体系周期性地吸取到因为管道内某种液体的转变而发生的脉冲。此征象一连60秒,回收差异Hz频率的传感器(传感器物理量单元采样率,PS1 Pressure bar, PS2 Pressure bar, PS3 Pressure bar, PS4 Pressure bar, PS5 Pressure bar, PS6 Pressure bar, EPS1电机功率, FS1体积流量, FS2体积流量, TS1温度, TS2温度, TS3温度, TS4温度, VS1振动, VS1振动、CE冷却服从、CP冷却功率、SE服从系数)举办丈量。

我们的目标是猜测构成管道的四个液压元件的状况。这些方针前提值以整数值的情势注释(易于编码),并汇报我们每个周期特定组件是否靠近失败。

读取数据

每个传感器丈量的值在特定的txt文件中可用,个中每一行以时刻序列的情势占用一个周期。

我抉择思量来自温度传感器(TS1、TS2、TS3、TS4)的数据,该传感器的丈量频率为1 Hz(每一个cicle举办60次调查)。

  1. label = pd.read_csv('profile.txt', sep='    ', header=None) 
  2. data = ['TS1.txt','TS2.txt','TS3.txt','TS4.txt'] 
  3. df = pd.DataFrame() 
  4. #read and concat data 
  5. for txt in data: 
  6.  read_df = pd.read_csv(txt, sep='   ', header=None) 
  7.  df = df.append(read_df) 
  8. #scale data 
  9. def scale(df): 
  10.  return (df - df.mean(axis=0))/df.std(axis=0) 
  11. df = df.apply(scale) 

猜测性维护:行使卷积神经收集(CNN)检测传感器妨碍

对付第一个周期,我们从温度传感器获得这些时刻序列:

猜测性维护:行使卷积神经收集(CNN)检测传感器妨碍

Temperature Series for cicle1 from TS1 TS2 TS3 TS4

呆板进修模子

为了捕获风趣的特性和不明明的相干性,我们抉择回收一维卷积神经收集(CNN)。这种呆板进修模子很是得当对传感器的时刻序罗列办说明,并逼迫在短的牢靠长度段中重塑数据。

我选择了Keras网站上描写的卷积神经收集(CNN),并更新了参数。该呆板进修模子的成立是为了对制冷元件的状态举办分类,仅对给出温度时刻序列的数组情势(t_period x n_sensor for each single cycle)作为输入。

  1. n_sensors, t_periods = 4, 60 
  2. model = Sequential() 
  3. model.add(Conv1D(100, 6, activation='relu', input_shape=(t_periods, n_sensors))) 
  4. model.add(Conv1D(100, 6, activation='relu')) 
  5. model.add(MaxPooling1D(3)) 
  6. model.add(Conv1D(160, 6, activation='relu')) 
  7. model.add(Conv1D(160, 6, activation='relu')) 
  8. model.add(GlobalAveragePooling1D()) 
  9. model.add(Dropout(0.5)) 
  10. model.add(Dense(3, activation='softmax')) 
  11. model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) 
  12. BATCH_SIZE, EPOCHS = 16, 10 
  13. history = model.fit(X_train, y_train, batch_size=BATCH_SIZE, 
  14.  epochs=EPOCHS, validation_split=0.2, verbose=1) 

猜测性维护:行使卷积神经收集(CNN)检测传感器妨碍

在这种环境下只有10个epochs,我们可以或许取得惊人的成就!

猜测性维护:行使卷积神经收集(CNN)检测传感器妨碍

对测试数据举办猜测,呆板进修模子到达0.9909的精确度

猜测性维护:行使卷积神经收集(CNN)检测传感器妨碍

由于通过这种方法,我们可以或许检测并防备体系中也许呈现的妨碍。

可视化功效

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读