Albertsr / Anomaly-Detection

UnSupervised and Semi-Supervise Anomaly Detection / IsolationForest / KernelPCA Detection / ADOA / etc.

Home Page:https://github.com/Albertsr/Anomaly-Detection

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Anomaly-Detection


第一部分:无监督异常检测 (Unsupervised Detection)

1. 算法

1.1 Isolation Forest

1.2 基于PCA的异常检测

1.3 马氏距离(Mahalabonas Distance)

  • 算法解析:

  • 算法实现:

  • 实证分析:

    • 结论: 马氏距离的平方等于马氏距离的变体

      • Conclusion: the square of Mahalanobis distance is equal to the variation of Mahalanobis distance
    • 推论: 马氏距离及其变体对样本的异常程度有一致的判定

      • Inference: Mahalanobis distance and its variants are consistent in determining the abnormal degree of the sample
    • 验证代码: verify_mahal_equivalence.py

    • 验证结果:

      verify results

1.4 局部异常因子(Local Outlier Factor)


2. 性能对比

2.1 对比方案

  • 步骤一: 生成一系列随机数据集,每个数据集的行数(row)、列数(col)、污染率(contamination)均从某区间内随机抽取
  • 步骤二: 各个无监督异常检测算法根据指定的contamination返回异常样本的索引(anomalies_indices)
  • 步骤三: 确定baseline
    • 如果数据集中异常样本的索引已知(记为observed_anomaly_indices),则以此作为baseline
    • 如果数据集中异常样本的索引未知,则以Isolation Forest返回的异常样本索引作为baseline
  • 步骤四: 确定性能评判标准
    • 若异常样本的索引已知(记为observed_anomaly_indices),则以F1-Score作为评判标准
    • 若异常样本的索引未知,则比较算法预测的异常样本索引与baseline的共同索引个数,个数越多则认为效果相对越好
  • 步骤五: 不同的数据集对异常检测算法的性能可能会有不同的评估,因此可生成多个数据集来判定各算法的性能

2.2 对比代码

2.3 对比结果

  • 根据算法在特定数据集上的异常检测性能降序排列,10个随机数据集的对比结果如下图所示:
    • F1 Score

      F1 Score contrast

    • Time Cost

      time cost

2.4 对比分析

1)RobustPCC

  • RobustPCC重点考察了样本在major/minor Principal Component上的偏差,论文作者认为异常样本在主成分空间内的投影主要集中在上述两类主成分上
  • RobustPCC在构建过程中,需要通过马氏距离(变体)检测并剔除数据集中一定比例(gamma)的潜在异常样本,以保证RobustPCC的有效性
  • RobustPCC需要根据指定的分位点参数(quantile)来设定样本异常与否的阈值,个人在实验中适度增大了gamma、quantile的取值,进一步降低FPR,提升鲁棒性
  • 实验结果表明,RobustPCC具有优良的异常检测性能

2)Recon_Error_PCA/KPCA (Reconstruction Error Based on PCA/KernelPCA)

  • Recon_Error_KPCA引入核函数(对比实验取Linear、RBF),无需显式定义映射函数,通过Kernel Trick计算样本在高维特征空间(希尔伯特空间)内的重构误差;
  • KernelPCA的核函数需要根据数据集进行调整,在核函数适宜的情况下,高维(或无穷维)主成分空间对样本具有更强的表出能力
    • 低维空间内线性不可分的异常样本在高维空间内的投影将显著区别于正常样本;
    • 相应地,异常样本在高维(或无穷维)主成分空间内的重构误差将明显区分于正常样本;

3)Isolation Forest

  • Isolation Forest(孤立森林)表现稳定,在验证数据的异常索引未知情况下,个人将其预测值作为baseline,用于衡量其它算法的性能

4)Mahalabonas Distance

  • Mahalabonas Distance(马氏距离)实际上考虑了样本在所有主成分上的偏离度,检测性能紧跟Recon_Error_KPCA之后

5)Local Outlier Factor

  • LOF考虑了局部相邻密度,它存在一定的局限性:对于相关性结构较特殊的异常样本(anomalies in terms of different correlation structures)的检测能力不足

备注

  • 上述实验结论受到实验数据集的样本构成、样本数量等多方面因素的影响,不一定具备普适性
  • 在实际运用中,需要根据数据集本身的特点予以灵活选择相应的异常检测算法

第二部分:半监督异常检测 (Semi-supervised Detection)

1. 算法

1.1 算法一:ADOA

1.2 算法二: 个人原创 KADOA (personal originality)

  • 思路简介

    • ADOA采用孤立森林与聚类相结合,KADOA运用KernelPCA重构误差替代孤立森林进行异常检测,其它思路与ADOA一致
  • KADOA代码

  • KADOA与ADOA的性能对比

    • 对比代码: compare_adoa_kadoa.py
    • 对比结果: 在数据集、参数设置完全一致的情况下,KADOA的性能显著优于ADOA,但此结论有待更多数据集予以验证

    adoa_kadoa_contrast

1.3 算法二:PU Learning

1) PU Learning三大处理方法:PU Learning三大处理方法详细解读

  • 方法一:Two step techniques

    • 第一步: 从U集中筛选可靠负样本RN(identifying reliable negative examples)
    • 第二步: 基于已知正样本P、可靠负样本RN训练分类器(learning based on the labeled positives and reliable negatives)

    Two step techniques

  • 方法二:Biased Learning

    • 将U集视为带有噪音(即正样本)的负样本集(treat the unlabeled examples as negatives examples with class label noise)

    • 将正样本P、负样本U分别赋予相对更高、更低的正则化参数,使得混杂在U的noise允许被误分,这些被误分的noise实际上是真实的正样本

    • 常见的算法是Biased SVM,其优化问题如下

      BiasedSVM

  • 方法三:Class Prior Incorporation

    • Class prior incorporation modifies standard learning methods by applying the mathematics from the SCAR(Selected Completely At Random) assumption directly, using the provided class prior. Additionally, methods for learning from relational PU data are discussed

      Class Prior Incorporation

2) 思路详解与代码实现


2. 性能对比

2.1 对比算法

  • 算法一:ADOA
  • 算法二:Biased SVM
  • 算法三:Weighted LR
  • 算法四:PU Learning + Cost-Sensitive Learning

2.2 模型评估指标

2.3 对比方案与代码

  • 对比代码: semi_detection_contrast.py

  • 对比思路:

    • 步骤一: 生成一系列随机数据集,其中包含已观察到的异常样本集(记为正样本集P)无标签样本集(记为U)

    • 步骤二: 各个半监督异常检测算法对U集进行预测并返回预测值y_pred

    • 步骤三: 生成U集时,其真实标签y_true是已知的,根据y_true、y_pred计算半监督异常检测算法的性能

    • 步骤四: 不同的模型评估指标、不同的数据集对算法的性能有不同的评估,因此根据多个随机数据返回多个模型评估指标对应的值,再进行比较

2.4 验证结果

  • 对比结果:

    • 备注:每一列表示以对应列名为模型评估指标时,在相应数据集上表现最优的算法
    • 示例:第1列以AUC作为评估指标,根据10个随机数据集的结果取众数,Biased_SVM的表现是最佳的

    semi_final

  • 解析

    • 对比实验证明:各半监督异常检测算法均有各自的优势,但PUL CostSensitive的Recall最高,表明FN的高代价起到了一定效果
  • 备注

    • 上述实验结论受到实验数据集的样本构成、样本数量等多方面因素的影响,不一定具备普适性
    • 在实际运用中,需要根据数据集本身的特点予以灵活选择相应的异常检测算法