百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

如何Keras自动编码器给极端罕见事件分类

liuian 2025-04-09 17:53 66 浏览

全文共7940字,预计学习时长30分钟或更长


来源:Pexels



本文将以一家造纸厂的生产为例,介绍如何使用自动编码器构建罕见事件分类器。

现实生活中罕见事件的数据集:



背景


1. 什么是极端罕见事件?

在罕见事件问题中,数据集是不平衡的。也就是说,正样本比负样本数量少。典型罕见事件问题的正样本数约占总数的5-10%。而在极端罕见的事件问题中,正样本数据只有不到1%。例如,本文使用的数据集里,这一比例只有约0.6%。

这种极端罕见的事件问题在现实世界中非常常见,例如,工厂中的机器故障或在网上点击购买时页面失踪。

对这些罕见事件进行分类非常有挑战性。近来,深度学习被广泛应用于分类中。然而正样本数太少不利于深度学习的应用。不论数据总量多大,深度学习的使用都会受制于阳性数据的数量。

2. 为什么要使用深度学习?

这个问题很合理。为什么不考虑使用其他机器学习方法呢?

答案很主观。我们总是可以采用某种机器学习方法来达到目的。为了使其成功,可以对负样本数据进行欠采样,以获得接近更平衡的数据集。由于只有0.6%的正样本数据,欠采样将会导致数据集大小约为原始数据集的1%。机器学习方法如SVM或Random Forest仍然适用于这种大小的数据集。然而,其准确性将受到限制。剩下约99%的数据中的信息将无法使用。

如果数据足够的话,深度学习或许更有效。它还能通过使用不同的体系结构实现模型改进的灵活性。因此,我们选择尝试使用深度学习的方法。

在本文中,我们将学习如何使用一个简单的全连接层自动编码器来构建罕见事件分类器。本文是为了演示如何使用自动编码器来实现极端罕见事件分类器的构建。用户可以自行探索自动编码器的不同架构和配置。


用自动编码器进行分类


用自动编码器分类类似于异常检测。在异常检测中,先学习正常过程的模式。任何不遵循此模式的都被归类为异常。对于罕见事件的二进制分类,可以采用类似的方法使用自动编码器。

1. 什么是自动编码器?

· 自动编码器由编码器和解码器两个模块组成。

· 编码器学习某一进程的隐含特性。这些特性通常在一个降低的维度中。

· 解码器可以根据这些隐含特性重新创建原始数据。


图1解释自动编码器[资料来源: iSystems Design实验室SeungchulLee教授]



2. 如何使用自动编码器构建罕见事件分类?

· 将数据分为正标记和负标记两部分。

· 负标记的数据视为正常状态——无事件。

· 忽略正标记的数据,用负标记数据训练自动编码器。

· 所以重构误差的概率就很小。

· 然而,如果试图从稀有事件中重构数据,自动编码器就很难工作。

· 这就会造成在罕见事件中发生重构误差的概率比较高。

· 如此高的重构误差,并将其标记为罕见事件预测。

· 此过程与异常检测方法类似。


实际应用


1. 数据和问题


这是来自一家造纸厂关于纸张破损的二进制标记数据。纸张破损在造纸业是个很严重的问题。一起纸张破损就会造成数千美元损失,而造纸厂每天都会有数几起破损。这导致每年数百万美元的损失和工作风险。

因为生产过程本身的性质,很难检测到纸张破损。破损概率降低5%都能给厂家带来巨大的利益。

我们的数据包含15天内收集的约18,000行数据。y列包含两类标签,1表示纸张破损。其余列是预测,正标记样本约124例(约0.6%)。


2. 编码

导入所需的库。

%matplotlib inline
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
import numpy as np
from pylab import rcParams
import tensorflow as tf
from keras.models import Model, load_model
from keras.layers import Input, Dense
from keras.callbacks import ModelCheckpoint, TensorBoard
from keras import regularizers
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import confusion_matrix, precision_recall_curve
from sklearn.metrics import recall_score, classification_report, auc, roc_curve
from sklearn.metrics import precision_recall_fscore_support, f1_score
from numpy.random import seed
seed(1)
from tensorflow import set_random_seed
set_random_seed(2)
SEED = 123 #used to help randomly select the data points
DATA_SPLIT_PCT = 0.2
rcParams['figure.figsize'] = 8, 6
LABELS = ["Normal","Break"]

注意,我们正在为可重现结果设置随机种子。

3. 数据处理

现在,读取并准备数据。

df = pd.read_csv("
data/processminer-rare-event-mts - data.csv")这个罕见事件问题的目标就是在纸张破损发生之前就及时做出预测。我们试着在破损发生前四分钟就要预测到。为了建立这个模型,把标签向上移动两行(相当于4分钟)。只要df.y=df.y.shift(-2)就行了。然而针对这个问题,需要做出如下改变:如果第n行是阳性的,

· 令行(n-2)和(n-1)等于1。这将帮助分类器学会提前最多4分钟预测。

· 删除第n行。因为分类器不需要学会在事件发生时做出预测。

为了这个复杂的变化需要用下面的UDF。

sign = lambda x: (1, -1)[x < 0 def curve_shiftdf shift_by: this function will shift the binary labels in a dataframe. the curve shift will be with respect to the 1s. for example if shift is -2 the following process will happen: if row n is labeled as 1 then - make row nshift_by:nshift_by-1='1.' - remove row n. i.e. the labels will be shifted up to 2 rows up. inputs: df a pandas dataframe with a binary labeled column. this labeled column should be named as y. shift_by an integer denoting the number of rows to shift. output df a dataframe with the binary labels shifted by shift. vector='df['y'].copy()' for s in rangeabsshift_by: tmp='vector.shift(sign(shift_by))' tmp='tmp.fillna(0)' vector labelcol='y' add vector to the df df.insertloc='0,' column='labelcol+'tmp',' value='vector)' remove the rows with labelcol='= 1.' df='df.drop(df[df[labelcol]' drop labelcol and rename the tmp col as labelcol df='df.drop(labelcol,' axis='1)' df='df.rename(columns={labelcol+'tmp':' labelcol make the labelcol binary df.locdflabelcol> 0, labelcol] = 1
return df


现在,将数据分为训练集、有效集和测试集。然后迅速使用只有0的数据子集来训练自动编码器。

df_train, df_test = train_test_split(df, test_size=DATA_SPLIT_PCT, random_state=SEED)
df_train, df_valid = train_test_split(df_train, 
test_size=DATA_SPLIT_PCT, random_state=SEED)
df_train_0 = df_train.loc[df['y'] == 0]
df_train_1 = df_train.loc[df['y'] == 1]
df_train_0_x = df_train_0.drop(['y'], axis=1)
df_train_1_x = df_train_1.drop(['y'], axis=1)


4. 标准化

自动编码器最好使用标准化数据(转换为Gaussian、均值0、方差1)。

scaler = StandardScaler().fit(df_train_0_x)
df_train_0_x_rescaled = scaler.transform(df_train_0_x)
df_valid_0_x_rescaled = scaler.transform(df_valid_0_x)
df_valid_x_rescaled = scaler.transform(df_valid.drop(['y'], axis = 1))
df_test_0_x_rescaled = scaler.transform(df_test_0_x)
df_test_x_rescaled = scaler.transform(df_test.drop(['y'], axis = 1))


由自动编码器构造的分类器

1. 初始化

首先,初始化自动编码器架构。先构建一个简单的自动编码器,稍后再探索更复杂的架构和配置。


nb_epoch = 100
batch_size = 128
input_dim = df_train_0_x_rescaled.shape[1] #num of predictor variables, 
encoding_dim = 32
hidden_dim = int(encoding_dim / 2)
learning_rate = 1e-3
input_layer = Input(shape=(input_dim, ))
encoder = Dense(encoding_dim, activation="tanh", 
activity_regularizer=regularizers.l1(learning_rate))(input_layer)
encoder = Dense(hidden_dim, activation="relu")(encoder)
decoder = Dense(hidden_dim, activation='tanh')(encoder)
decoder = Dense(input_dim, activation='relu')(decoder)
autoencoder = Model(inputs=input_layer, outputs=decoder)

2. 训练

训练模型并将其保存在文件中。保存训练过的模型会为将来的分析省很多时间。

autoencoder.compile(metrics=['accuracy'],
 loss='mean_squared_error',
 optimizer='adam')
cp = ModelCheckpoint(filepath="autoencoder_classifier.h5",
 save_best_only=True,
 verbose=0)
tb = TensorBoard(log_dir='./logs',
 histogram_freq=0,
 write_graph=True,
 write_images=True)
history=autoencoder.fit(df_train_0_x_rescaled,df_train_0_x_rescaled,
 epochs=nb_epoch,
 batch_size=batch_size,
 shuffle=True,
 validation_data=(df_valid_0_x_rescaled,
df_valid_0_x_rescaled),
 verbose=1,
 callbacks=[cp, tb]).history

图2:自动编码器的损失曲线

3. 分类

接下来将展示如何利用自动编码器重构误差来构造罕见事件分类器。

如前所述,如果重构误差较大,将其归类为纸张破损。需要确定这个阈值。

使用验证集来确定阈值。

valid_x_predictions = autoencoder.predict(df_valid_x_rescaled)
mse = np.mean(np.power(df_valid_x_rescaled - valid_x_predictions, 2), axis=1)
error_df = pd.DataFrame({'Reconstruction_error': mse, 'True_class': df_valid['y']})
precision_rt, recall_rt, threshold_rt = precision_recall_curve(error_df.True_class, 
error_df.Reconstruction_error)
plt.plot(threshold_rt, precision_rt[1:], label="Precision",linewidth=5)
plt.plot(threshold_rt, recall_rt[1:], label="Recall",linewidth=5)
plt.title('Precision and recall for different threshold values')
plt.xlabel('Threshold')
plt.ylabel('Precision/Recall')
plt.legend()
plt.show()

图3:阈值为0.85可以在精确度和召回率之间有合理权衡。

现在,对测试数据进行分类。

不要根据测试数据来估计分类阈值,这会导致过度拟合。

test_x_predictions = autoencoder.predict(df_test_x_rescaled)
mse = np.mean(np.power(df_test_x_rescaled - test_x_predictions, 2), axis=1)
error_df_test = pd.DataFrame({'Reconstruction_error': mse, 'True_class': df_test['y']})error_df_test = error_df_test.reset_index()
threshold_fixed = 0.85
groups = error_df_test.groupby('True_class')
fig, ax = plt.subplots()
for name, group in groups:
 ax.plot(group.index, group.Reconstruction_error, marker='o', ms=3.5, linestyle='',
 label= "Break" if name == 1 else "Normal")
ax.hlines(threshold_fixed, ax.get_xlim()[0], ax.get_xlim()[1], colors="r", zorder=100, label='Threshold')
ax.legend()
plt.title("Reconstruction error for different classes")
plt.ylabel("Reconstruction error")
plt.xlabel("Data point index")
plt.show();

图4:使用阈值= 0.85进行分类。阈值线上方的橙色和蓝色圆点分别表示真阳性和假阳性。

图4中,阈值线上方的橙色和蓝色圆点分别表示真阳性和假阳性。可以看到上面有很多假阳性的点。为了看得更清楚,可以看一个混淆矩阵。

pred_y = [1 if e > threshold_fixed else 0 for e in error_df.Reconstruction_error.values]
conf_matrix = confusion_matrix(error_df.True_class, pred_y)
plt.figure(figsize=(12, 12))
sns.heatmap(conf_matrix, xticklabels=LABELS, yticklabels=LABELS, annot=True, fmt="d");
plt.title("Confusion matrix")
plt.ylabel('True class')
plt.xlabel('Predicted class')
plt.show()

图5:测试预测的混淆矩阵

在32次的破损中,我们预测到了9次。注意,其中包括提前两或四分钟的预测。这一概率约为28%,对造纸业来说是一个不错的召回率。假阳性率约为6.3%。这对造纸厂来说不是最好的结果,但也不坏。

该模型还可以进一步改进,降低假阳性率以提高召回率。观察如下AUC值后探讨改进方法。

ROC曲线和AUC(Area Under Curve)

false_pos_rate, true_pos_rate, thresholds = roc_curve(error_df.True_class, error_df.Reconstruction_error)roc_auc = auc(false_pos_rate, true_pos_rate,)
plt.plot(false_pos_rate, true_pos_rate, linewidth=5, label='AUC = %0.3f'% roc_auc)plt.plot([0,1],[0,1], linewidth=5)
plt.xlim([-0.01, 1])
plt.ylim([0, 1.01])
plt.legend(loc='lower right')
plt.title('Receiver operating characteristic curve (ROC)')
plt.ylabel('True Positive Rate')
plt.xlabel('False Positive Rate')
plt.show()

AUC值为0.624。

值得注意的是,这是一个(多变量的)时间序列数据。我们并未考虑数据中的时间信息/模式。

留言 点赞 关注

我们一起分享AI学习与发展的干货

欢迎关注全平台AI垂类自媒体 “读芯术”

相关推荐

赶紧收藏!编程python基础知识,本文给你全部整理好了

想一起学习编程Python的同学,趁我粉丝少,可以留言、私信领编程资料~Python基础入门既然学习Python,那么至少得了解下这门编程语言,知道Python代码执行过程吧。Python的历...

创建绩效改进计划 (PIP) 的6个步骤

每个经理都必须与未能达到期望的员工抗衡,也许他们的表现下降了,他们被分配了新的任务并且无法处理它们,或者他们处理了自己的任务,但他们的行为对他人造成了破坏。许多公司转向警告系统,然后在这些情况下终止。...

PI3K/AKT信号通路全解析:核心分子、上游激活与下游效应分子

PI3K/AKT/mTOR(PAM)信号通路是真核细胞中高度保守的信号转导网络,作用于促进细胞存活、生长和细胞周期进程。PAM轴上生长因子向转录因子的信号传导受到与其他多条信号通路的多重交叉相互作用的...

互联网公司要求签PIP,裁员连N+1都没了?

2021年刚画上句号,令无数互联网公司从业者闻风丧胆的绩效公布时间就到了,脉脉上已然炸了锅。阿里3.25、腾讯二星、百度四挡、美团绩效C,虽然名称五花八门,实际上都代表了差绩效。拿到差绩效,非但不能晋...

Python自动化办公应用学习笔记3—— pip工具安装

3.1pip工具安装最常用且最高效的Python第三方库安装方式是采用pip工具安装。pip是Python包管理工具,提供了对Python包的查找、下载、安装、卸载的功能。pip是Python官方提...

单片机都是相通的_单片机是串行还是并行

作为一个七年的从业者,单片机对于我个人而言它是一种可编程的器件,现在长见到的电子产品中几乎都有单片机的身影,它们是以单片机为核心,根据不同的功能需求,搭建不同的电路,从8位的单片机到32位的单片机,甚...

STM32F0单片机快速入门八 聊聊 Coolie DMA

1.苦力DMA世上本没有路,走的人多了,便成了路。世上本没有DMA,需要搬运的数据多了,便有了DMA。大多数同学应该没有在项目中用过这个东西,因为一般情况下也真不需要这个东西。在早期的单片机中...

放弃51单片机,直接学习STM32开发可能会面临的问题

学习51单片机并非仅仅是为了学习51本身,而是通过它学习一种方法,即如何仅仅依靠Datasheet和例程来学习一种新的芯片。51单片机相对较简单,是这个过程中最容易上手的选择,而AVR单片机则更为复杂...

STM32串口通信基本原理_stm32串口原理图

通信接口背景知识设备之间通信的方式一般情况下,设备之间的通信方式可以分成并行通信和串行通信两种。并行与串行通信的区别如下表所示。串行通信的分类1、按照数据传送方向,分为:单工:数据传输只支持数据在一个...

单片机的程序有多大?_单片机的程序有多大内存

之前一直很奇怪一个问题,每次写好单片机程序之后,用烧录软件进行烧录时,能看到烧录文件也就是hex的文件大小:我用的单片机芯片是STM32F103C8T6,程序储存器(flash)只有64K。从...

解析STM32单片机定时器编码器模式及其应用场景

本文将对STM32单片机定时器编码器模式进行详细解析,包括介绍不同的编码器模式、各自的优缺点以及相同点和不同点的应用场景。通过阅读本文,读者将对STM32单片机定时器编码器模式有全面的了解。一、引言...

两STM32单片机串口通讯实验_两个32单片机间串口通信

一、实验思路连接两个STM32单片机的串口引脚,单片机A进行发送,单片机B进行接收。单片机B根据接收到单片机A的指令来点亮或熄灭板载LED灯,通过实验现象来验证是否通讯成功。二、实验器材两套STM32...

基于单片机的智能考勤机设计_基于51单片机的指纹考勤机

一、设计背景随着科技水平的不断发展,在这么一个信息化的时代,智能化信息处理已是提高效率、规范管理和客观审查的最有效途径。近几年来,国内很多公司都在加强对企业人员的管理,考勤作为企业的基础管理,是公司...

STM32单片机详细教学(二):STM32系列单片机的介绍

大家好,今天给大家介绍STM32系列单片机,文章末尾附有本毕业设计的论文和源码的获取方式,可进群免费领取。前言STM32系列芯片是为要求高性能、低成本、低功耗的嵌入式应用设计的ARMCortexM...

STM32单片机的 Hard-Fault 硬件错误问题追踪与分析

有过单片机开发经验的人应该都会遇到过硬件错误(Hard-Fault)的问题,对于这样的问题,有些问题比较容易查找,有些就查找起来很麻烦,甚至可能很久都找不到问题到底是出在哪里。特别是有时候出现一次,后...