百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

如何Keras自动编码器给极端罕见事件分类

liuian 2025-04-09 17:53 18 浏览

全文共7940字,预计学习时长30分钟或更长


来源:Pexels



本文将以一家造纸厂的生产为例,介绍如何使用自动编码器构建罕见事件分类器。

现实生活中罕见事件的数据集:



背景


1. 什么是极端罕见事件?

在罕见事件问题中,数据集是不平衡的。也就是说,正样本比负样本数量少。典型罕见事件问题的正样本数约占总数的5-10%。而在极端罕见的事件问题中,正样本数据只有不到1%。例如,本文使用的数据集里,这一比例只有约0.6%。

这种极端罕见的事件问题在现实世界中非常常见,例如,工厂中的机器故障或在网上点击购买时页面失踪。

对这些罕见事件进行分类非常有挑战性。近来,深度学习被广泛应用于分类中。然而正样本数太少不利于深度学习的应用。不论数据总量多大,深度学习的使用都会受制于阳性数据的数量。

2. 为什么要使用深度学习?

这个问题很合理。为什么不考虑使用其他机器学习方法呢?

答案很主观。我们总是可以采用某种机器学习方法来达到目的。为了使其成功,可以对负样本数据进行欠采样,以获得接近更平衡的数据集。由于只有0.6%的正样本数据,欠采样将会导致数据集大小约为原始数据集的1%。机器学习方法如SVM或Random Forest仍然适用于这种大小的数据集。然而,其准确性将受到限制。剩下约99%的数据中的信息将无法使用。

如果数据足够的话,深度学习或许更有效。它还能通过使用不同的体系结构实现模型改进的灵活性。因此,我们选择尝试使用深度学习的方法。

在本文中,我们将学习如何使用一个简单的全连接层自动编码器来构建罕见事件分类器。本文是为了演示如何使用自动编码器来实现极端罕见事件分类器的构建。用户可以自行探索自动编码器的不同架构和配置。


用自动编码器进行分类


用自动编码器分类类似于异常检测。在异常检测中,先学习正常过程的模式。任何不遵循此模式的都被归类为异常。对于罕见事件的二进制分类,可以采用类似的方法使用自动编码器。

1. 什么是自动编码器?

· 自动编码器由编码器和解码器两个模块组成。

· 编码器学习某一进程的隐含特性。这些特性通常在一个降低的维度中。

· 解码器可以根据这些隐含特性重新创建原始数据。


图1解释自动编码器[资料来源: iSystems Design实验室SeungchulLee教授]



2. 如何使用自动编码器构建罕见事件分类?

· 将数据分为正标记和负标记两部分。

· 负标记的数据视为正常状态——无事件。

· 忽略正标记的数据,用负标记数据训练自动编码器。

· 所以重构误差的概率就很小。

· 然而,如果试图从稀有事件中重构数据,自动编码器就很难工作。

· 这就会造成在罕见事件中发生重构误差的概率比较高。

· 如此高的重构误差,并将其标记为罕见事件预测。

· 此过程与异常检测方法类似。


实际应用


1. 数据和问题


这是来自一家造纸厂关于纸张破损的二进制标记数据。纸张破损在造纸业是个很严重的问题。一起纸张破损就会造成数千美元损失,而造纸厂每天都会有数几起破损。这导致每年数百万美元的损失和工作风险。

因为生产过程本身的性质,很难检测到纸张破损。破损概率降低5%都能给厂家带来巨大的利益。

我们的数据包含15天内收集的约18,000行数据。y列包含两类标签,1表示纸张破损。其余列是预测,正标记样本约124例(约0.6%)。


2. 编码

导入所需的库。

%matplotlib inline
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
import numpy as np
from pylab import rcParams
import tensorflow as tf
from keras.models import Model, load_model
from keras.layers import Input, Dense
from keras.callbacks import ModelCheckpoint, TensorBoard
from keras import regularizers
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import confusion_matrix, precision_recall_curve
from sklearn.metrics import recall_score, classification_report, auc, roc_curve
from sklearn.metrics import precision_recall_fscore_support, f1_score
from numpy.random import seed
seed(1)
from tensorflow import set_random_seed
set_random_seed(2)
SEED = 123 #used to help randomly select the data points
DATA_SPLIT_PCT = 0.2
rcParams['figure.figsize'] = 8, 6
LABELS = ["Normal","Break"]

注意,我们正在为可重现结果设置随机种子。

3. 数据处理

现在,读取并准备数据。

df = pd.read_csv("
data/processminer-rare-event-mts - data.csv")这个罕见事件问题的目标就是在纸张破损发生之前就及时做出预测。我们试着在破损发生前四分钟就要预测到。为了建立这个模型,把标签向上移动两行(相当于4分钟)。只要df.y=df.y.shift(-2)就行了。然而针对这个问题,需要做出如下改变:如果第n行是阳性的,

· 令行(n-2)和(n-1)等于1。这将帮助分类器学会提前最多4分钟预测。

· 删除第n行。因为分类器不需要学会在事件发生时做出预测。

为了这个复杂的变化需要用下面的UDF。

sign = lambda x: (1, -1)[x < 0 def curve_shiftdf shift_by: this function will shift the binary labels in a dataframe. the curve shift will be with respect to the 1s. for example if shift is -2 the following process will happen: if row n is labeled as 1 then - make row nshift_by:nshift_by-1='1.' - remove row n. i.e. the labels will be shifted up to 2 rows up. inputs: df a pandas dataframe with a binary labeled column. this labeled column should be named as y. shift_by an integer denoting the number of rows to shift. output df a dataframe with the binary labels shifted by shift. vector='df['y'].copy()' for s in rangeabsshift_by: tmp='vector.shift(sign(shift_by))' tmp='tmp.fillna(0)' vector labelcol='y' add vector to the df df.insertloc='0,' column='labelcol+'tmp',' value='vector)' remove the rows with labelcol='= 1.' df='df.drop(df[df[labelcol]' drop labelcol and rename the tmp col as labelcol df='df.drop(labelcol,' axis='1)' df='df.rename(columns={labelcol+'tmp':' labelcol make the labelcol binary df.locdflabelcol> 0, labelcol] = 1
return df


现在,将数据分为训练集、有效集和测试集。然后迅速使用只有0的数据子集来训练自动编码器。

df_train, df_test = train_test_split(df, test_size=DATA_SPLIT_PCT, random_state=SEED)
df_train, df_valid = train_test_split(df_train, 
test_size=DATA_SPLIT_PCT, random_state=SEED)
df_train_0 = df_train.loc[df['y'] == 0]
df_train_1 = df_train.loc[df['y'] == 1]
df_train_0_x = df_train_0.drop(['y'], axis=1)
df_train_1_x = df_train_1.drop(['y'], axis=1)


4. 标准化

自动编码器最好使用标准化数据(转换为Gaussian、均值0、方差1)。

scaler = StandardScaler().fit(df_train_0_x)
df_train_0_x_rescaled = scaler.transform(df_train_0_x)
df_valid_0_x_rescaled = scaler.transform(df_valid_0_x)
df_valid_x_rescaled = scaler.transform(df_valid.drop(['y'], axis = 1))
df_test_0_x_rescaled = scaler.transform(df_test_0_x)
df_test_x_rescaled = scaler.transform(df_test.drop(['y'], axis = 1))


由自动编码器构造的分类器

1. 初始化

首先,初始化自动编码器架构。先构建一个简单的自动编码器,稍后再探索更复杂的架构和配置。


nb_epoch = 100
batch_size = 128
input_dim = df_train_0_x_rescaled.shape[1] #num of predictor variables, 
encoding_dim = 32
hidden_dim = int(encoding_dim / 2)
learning_rate = 1e-3
input_layer = Input(shape=(input_dim, ))
encoder = Dense(encoding_dim, activation="tanh", 
activity_regularizer=regularizers.l1(learning_rate))(input_layer)
encoder = Dense(hidden_dim, activation="relu")(encoder)
decoder = Dense(hidden_dim, activation='tanh')(encoder)
decoder = Dense(input_dim, activation='relu')(decoder)
autoencoder = Model(inputs=input_layer, outputs=decoder)

2. 训练

训练模型并将其保存在文件中。保存训练过的模型会为将来的分析省很多时间。

autoencoder.compile(metrics=['accuracy'],
 loss='mean_squared_error',
 optimizer='adam')
cp = ModelCheckpoint(filepath="autoencoder_classifier.h5",
 save_best_only=True,
 verbose=0)
tb = TensorBoard(log_dir='./logs',
 histogram_freq=0,
 write_graph=True,
 write_images=True)
history=autoencoder.fit(df_train_0_x_rescaled,df_train_0_x_rescaled,
 epochs=nb_epoch,
 batch_size=batch_size,
 shuffle=True,
 validation_data=(df_valid_0_x_rescaled,
df_valid_0_x_rescaled),
 verbose=1,
 callbacks=[cp, tb]).history

图2:自动编码器的损失曲线

3. 分类

接下来将展示如何利用自动编码器重构误差来构造罕见事件分类器。

如前所述,如果重构误差较大,将其归类为纸张破损。需要确定这个阈值。

使用验证集来确定阈值。

valid_x_predictions = autoencoder.predict(df_valid_x_rescaled)
mse = np.mean(np.power(df_valid_x_rescaled - valid_x_predictions, 2), axis=1)
error_df = pd.DataFrame({'Reconstruction_error': mse, 'True_class': df_valid['y']})
precision_rt, recall_rt, threshold_rt = precision_recall_curve(error_df.True_class, 
error_df.Reconstruction_error)
plt.plot(threshold_rt, precision_rt[1:], label="Precision",linewidth=5)
plt.plot(threshold_rt, recall_rt[1:], label="Recall",linewidth=5)
plt.title('Precision and recall for different threshold values')
plt.xlabel('Threshold')
plt.ylabel('Precision/Recall')
plt.legend()
plt.show()

图3:阈值为0.85可以在精确度和召回率之间有合理权衡。

现在,对测试数据进行分类。

不要根据测试数据来估计分类阈值,这会导致过度拟合。

test_x_predictions = autoencoder.predict(df_test_x_rescaled)
mse = np.mean(np.power(df_test_x_rescaled - test_x_predictions, 2), axis=1)
error_df_test = pd.DataFrame({'Reconstruction_error': mse, 'True_class': df_test['y']})error_df_test = error_df_test.reset_index()
threshold_fixed = 0.85
groups = error_df_test.groupby('True_class')
fig, ax = plt.subplots()
for name, group in groups:
 ax.plot(group.index, group.Reconstruction_error, marker='o', ms=3.5, linestyle='',
 label= "Break" if name == 1 else "Normal")
ax.hlines(threshold_fixed, ax.get_xlim()[0], ax.get_xlim()[1], colors="r", zorder=100, label='Threshold')
ax.legend()
plt.title("Reconstruction error for different classes")
plt.ylabel("Reconstruction error")
plt.xlabel("Data point index")
plt.show();

图4:使用阈值= 0.85进行分类。阈值线上方的橙色和蓝色圆点分别表示真阳性和假阳性。

图4中,阈值线上方的橙色和蓝色圆点分别表示真阳性和假阳性。可以看到上面有很多假阳性的点。为了看得更清楚,可以看一个混淆矩阵。

pred_y = [1 if e > threshold_fixed else 0 for e in error_df.Reconstruction_error.values]
conf_matrix = confusion_matrix(error_df.True_class, pred_y)
plt.figure(figsize=(12, 12))
sns.heatmap(conf_matrix, xticklabels=LABELS, yticklabels=LABELS, annot=True, fmt="d");
plt.title("Confusion matrix")
plt.ylabel('True class')
plt.xlabel('Predicted class')
plt.show()

图5:测试预测的混淆矩阵

在32次的破损中,我们预测到了9次。注意,其中包括提前两或四分钟的预测。这一概率约为28%,对造纸业来说是一个不错的召回率。假阳性率约为6.3%。这对造纸厂来说不是最好的结果,但也不坏。

该模型还可以进一步改进,降低假阳性率以提高召回率。观察如下AUC值后探讨改进方法。

ROC曲线和AUC(Area Under Curve)

false_pos_rate, true_pos_rate, thresholds = roc_curve(error_df.True_class, error_df.Reconstruction_error)roc_auc = auc(false_pos_rate, true_pos_rate,)
plt.plot(false_pos_rate, true_pos_rate, linewidth=5, label='AUC = %0.3f'% roc_auc)plt.plot([0,1],[0,1], linewidth=5)
plt.xlim([-0.01, 1])
plt.ylim([0, 1.01])
plt.legend(loc='lower right')
plt.title('Receiver operating characteristic curve (ROC)')
plt.ylabel('True Positive Rate')
plt.xlabel('False Positive Rate')
plt.show()

AUC值为0.624。

值得注意的是,这是一个(多变量的)时间序列数据。我们并未考虑数据中的时间信息/模式。

留言 点赞 关注

我们一起分享AI学习与发展的干货

欢迎关注全平台AI垂类自媒体 “读芯术”

相关推荐

深入解析 MySQL 8.0 JSON 相关函数:解锁数据存储的无限可能

引言在现代应用程序中,数据的存储和处理变得愈发复杂多样。MySQL8.0引入了丰富的JSON相关函数,为我们提供了更灵活的数据存储和检索方式。本文将深入探讨MySQL8.0中的JSON...

MySQL的Json类型个人用法详解(mysql json类型对应java什么类型)

前言虽然MySQL很早就添加了Json类型,但是在业务开发过程中还是很少设计带这种类型的表。少不代表没有,当真正要对Json类型进行特定查询,修改,插入和优化等操作时,却感觉一下子想不起那些函数怎么使...

MySQL的json查询之json_array(mysql json_search)

json_array顾名思义就是创建一个数组,实际的用法,我目前没有想到很好的使用场景。使用官方的例子说明一下吧。例一selectjson_array(1,2,3,4);json_array虽然单独...

头条创作挑战赛#一、LSTM 原理 长短期记忆网络

#头条创作挑战赛#一、LSTM原理长短期记忆网络(LongShort-TermMemory,LSTM)是一种特殊类型的循环神经网络(RNN),旨在解决传统RNN在处理长序列数据时面临的梯度...

TensorBoard最全使用教程:看这篇就够了

机器学习通常涉及在训练期间可视化和度量模型的性能。有许多工具可用于此任务。在本文中,我们将重点介绍TensorFlow的开源工具套件,称为TensorBoard,虽然他是TensorFlow...

图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比

本文约4600字,建议阅读10分钟本文介绍了图神经网络版本的对比。KolmogorovArnoldNetworks(KAN)最近作为MLP的替代而流行起来,KANs使用Kolmogorov-Ar...

kornia,一个实用的 Python 库!(python kkb_tools)

大家好,今天为大家分享一个实用的Python库-kornia。Github地址:https://github.com/kornia/kornia/Kornia是一个基于PyTorch的开源计算...

图像分割掩码标注转YOLO多边形标注

Ultralytics团队付出了巨大的努力,使创建自定义YOLO模型变得非常容易。但是,处理大型数据集仍然很痛苦。训练yolo分割模型需要数据集具有其特定格式,这可能与你从大型数据集中获得的...

[python] 向量检索库Faiss使用指北

Faiss是一个由facebook开发以用于高效相似性搜索和密集向量聚类的库。它能够在任意大小的向量集中进行搜索。它还包含用于评估和参数调整的支持代码。Faiss是用C++编写的,带有Python的完...

如何把未量化的 70B 大模型加载到笔记本电脑上运行?

并行运行70B大模型我们已经看到,量化已经成为在低端GPU(比如Colab、Kaggle等)上加载大型语言模型(LLMs)的最常见方法了,但这会降低准确性并增加幻觉现象。那如果你和你的朋友们...

ncnn+PPYOLOv2首次结合!全网最详细代码解读来了

编辑:好困LRS【新智元导读】今天给大家安利一个宝藏仓库miemiedetection,该仓库集合了PPYOLO、PPYOLOv2、PPYOLOE三个算法pytorch实现三合一,其中的PPYOL...

人工智能——图像识别(人工智能图像识别流程)

概述图像识别(ImageRecognition)是计算机视觉的核心任务之一,旨在通过算法让计算机理解图像内容,包括分类(识别物体类别)、检测(定位并识别多个物体)、分割(像素级识别)等,常见的应用场...

PyTorch 深度学习实战(15):Twin Delayed DDPG (TD3) 算法

在上一篇文章中,我们介绍了DeepDeterministicPolicyGradient(DDPG)算法,并使用它解决了Pendulum问题。本文将深入探讨TwinDelayed...

大模型中常用的注意力机制GQA详解以及Pytorch代码实现

分组查询注意力(GroupedQueryAttention)是一种在大型语言模型中的多查询注意力(MQA)和多头注意力(MHA)之间进行插值的方法,它的目标是在保持MQA速度的同时...

pytorch如何快速创建具有特殊意思的tensor张量?

专栏推荐正文我们通过值可以看到torch.empty并没有进行初始化创建tensor并进行随机初始化操作,常用rand/rand_like,randint正态分布(0,1)指定正态分布的均值还有方差i...