pancerZH / PCA_with_mnist

使用PCA和2DPCA对mnist中的数据进行降维

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

There may be a potential mistake in my code. If you want to refer to it, be careful!

PCA项目说明

作者:1551719 张文喆

背景介绍

我在学习使用Google开发的深度学习框架Tensorflow时遇到了一个问题:入门教程中构建了一个卷积神经网络(CNN),训练并使用这个卷积神经网络识别手写数字(mnist数据库)。原版要求迭代20000次,并指出最终的预测准确度可以达到99.2%。但是我在实践中发现,对于我所使用的这台笔记本,很难达到这样高的迭代次数。最终,我将迭代次数降至1000次,并得到了96.1%的准确度,而且耗时将近4分钟。那么,我预计迭代20000次用时可能会超过1小时。
于是,在这样的前提下,我萌生了对mnist中的数据进行降维的想法。mnist中的手写数字图片为28x28的灰度图,一维展开后即一个大小为784的向量。我准备将这个向量的大小降至100(10x10)

使用的工具

sklearn模块中的PCA方法
2DPCA(手动实现)

算法介绍

卷积神经网络

卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,其人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有着出色的表现。这里我们将其运用在手写数字(mnist库)识别上。
卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。
其中,卷积层(Convolutional layer),卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。
而池化层(Pooling)是卷积神经网络中另一个重要的概念,它实际上是一种形式的向下采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效地原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。通常来说,CNN的卷积层之间都会周期性地插入池化层。池化层通常会分别作用于每个输入的特征并减小其大小。

PCA

PCA是最简单的以特征量分析多元统计分布的方法。其结果可以理解为对原数据中的方差做出解释:哪一个方向上的数据值对方差的影响最大?换而言之,PCA提供了一种降低数据维度的有效办法;如果分析者在原数据中除掉最小的特征值所对应的成分,那么所得的低维度数据必定是最优化的(也即,这样降低维度必定是失去讯息最少的方法)。
PCA是最简单的以特征量分析多元统计分布的方法。通常情况下,这种运算可以被看作是揭露数据的内部结构,从而更好的解释数据的变量的方法。如果一个多元数据集能够在一个高维数据空间坐标系中被显现出来,那么PCA就能够提供一幅比较低维度的图像,这幅图像即为在讯息最多的点上原对象的一个‘投影’。这样就可以利用少量的主成分使得数据的维度降低了。

2DPCA

2DPCA的原理与PCA相似,只不过它采用的是原始图像矩阵,直接构建协方差矩阵,不需要将图像矩阵展开为一维再进行计算,所以能够最大限度地保留图像内部的关系。

PCA实现方法

我在Google提供的数据载入的代码input_data.py中插入了降维的函数,并且在具体使用的过程中,通过使用者不同的命令,既可以返回降维后的数据,也可以提供原始的数据。

from sklearn.decomposition import PCA
pca = None
...
# Convert shape from [num examples, rows, columns, depth]
# to [num examples, rows*columns] (assuming depth == 1)
assert images.shape[3] == 1
images = images.reshape(images.shape[0], images.shape[1], images.shape[2])
global pca
if pca is None:  # 训练PCA模型
    pca = PCA(n_components=100)
    images = pca.fit_transform(images)
else:
    images = pca.transform(images)

在input_data.py中,训练数据和测试数据都被读入并放在两个DataSet类中,所以我将PCA的模型在类外进行声明,使用训练数据进行训练,并将训练数据转化为降维后的数据,之后再将测试数据用相同的PCA模型进行降维。使用同一个PCA模型非常重要,这里的梯度下降方法为小批量随机梯度下降,我之前错误地在每一次生成小批量数据时,都使用一个全新的PCA模型进行降维,并且最后的测试数据也使用了全新的PCA模型进行降维。在这种情况下,识别效果非常差,准确率不足30%。
最终,我了解到PCA作为一种处理方式,在处理时会尽量多地保留信息,所以在不同的数据(比如每一批mnist训练集的数据)都会采用不同的保留方式。换句话说,为了尽可能多地保留信息,这种做法破坏了每一批数据之间的关联性(或者说,公共特征),每次提取到的特征不同,自然无法形成高效的学习模型。

PCA存在的缺陷

进行降维时,由于不可避免地丢失了数据的一部分特征,所以在同等迭代次数的情况下,使用降维后的数据的识别准确率是远不如原始数据的。下面展示运行效果。图中第一行为在测试集上的识别准确率,第二行为消耗时间(单位:s)
image
(图1,未使用降维的数据,迭代1000次)
image
(图2,使用PCA降维后的数据,迭代1000次)
从上面两张图可以看到,降维后的运行速度虽然大大提升,但是识别准确率严重下滑。
image
(图3,使用PCA降维后的数据,迭代7000次)
可以看出,在使用时间几乎相等的情况,PCA降维后的识别准确率还是略有不如原始状态下的识别准确率。
最终迭代20000次的结果为
image
(图4, 使用PCA降维后的数据,迭代20000次)

最后,我还对不使用卷积神经网络的情况下的学习使用了PCA,即对softmax方法使用PCA。softmax是一种类似于逻辑回归的学习方法,只不过经过了许多优化。
image
(图5,softmax使用原始数据进行学习,迭代1000次)
image
(图6,softmax使用降维后的数据进行学习,迭代1000次)
有些令人惊讶的是,使用降维后的数据学习的识别准确率甚至略高于不使用的,但我认为这只是因为在随机初始化权值时的偶然造成的。事实上我运行了很多次两种方法,它们得到的结果(识别准确率)相差寥寥无几,并且不存在一种方法一直比另一种高的情况。这大概是因为softmax方法并没有发掘出原始数据里面一些深层次的信息,以至于即使这些信息随着降维丢失了,也对结果没有什么影响。

2DPCA实现方法

由于没有现成的Python包能够实现2DPCA,所以需要对其手动进行编程。一般而言,在成熟的包(如sklearn)中的方法都会进行大量的优化,比一般程序员亲手写出的程序效率略高,不过这个影响不会太大,这里就不纳入考虑了。

def PCA2D_2D(samples, row_top, col_top):
    '''samples are 2d matrices'''
    size = samples[0].shape
    # m*n matrix
    mean = np.zeros(size)

    for s in samples:
        mean = mean + s

    # get the mean of all samples
    mean /= float(len(samples))

    # n*n matrix
    cov_row = np.zeros((size[1],size[1]))
    for s in samples:
        diff = s - mean
        cov_row = cov_row + np.dot(diff.T, diff)
    cov_row /= float(len(samples))
    row_eval, row_evec = np.linalg.eig(cov_row)
    # select the top t evals
    sorted_index = np.argsort(row_eval)
    # using slice operation to reverse
    X = row_evec[:,sorted_index[:-row_top-1 : -1]]

    # m*m matrix
    cov_col = np.zeros((size[0], size[0]))
    for s in samples:
        diff = s - mean
        cov_col += np.dot(diff,diff.T)
    cov_col /= float(len(samples))
    col_eval, col_evec = np.linalg.eig(cov_col)
    sorted_index = np.argsort(col_eval)
    Z = col_evec[:,sorted_index[:-col_top-1 : -1]]

    return X, Z

代码来自网上,使用十分简单:函数的第一个参数是要进行2DPCA的数据,格式为[size, row, column];第二个参数是降维后的row的值,第三个参数是降维后的column的值。由于我们要降维的图形大小为28*28,所以这里指定row和column的值都为10就可以了。
最终,2DPCA的效果十分优秀,在相同迭代次数的前提下,识别准确率要比PCA高上许多。这是因为,在很大程度上,2DPCA保留了更多图片中深藏的内部联系。

2DPCA存在的缺陷

总的来说,对图片运用2DPCA,是比使用PCA更好的一种方法。最主要的一点是,在几乎相同的运行时间下,使用经过2DPCA处理的数据训练出来的模型,比使用原版数据训练出来的模型,识别准确率还要略高一些,当然这也有可能是正常的波动,但这足以说明2DPCA在处理图片降维时,效果比PCA优秀许多。
image
(图7,使用2DPCA降维后的数据,迭代1000次)
可以看出,在迭代次数较少的情况下,2DPCA的效果远优于PCA。
image
(图8,使用2DPCA降维后的数据,迭代7000次)
image
(图9, 使用2DPCA降维后的数据,迭代20000次)
可以看到,随着迭代次数的增加,PCA和2DPCA的识别准确率都在提升,并且差距在缩小,但是最终还是2DPCA更加准确。

最后,2DPCA应用在softmax模型上的结果:
image
经过多次试验,我发现2DPCA在softmax模型上的效果远不如PCA,不得不说这是一个很有趣的发现。具体原因我暂时还无法解释,但是大概可以说:2DPCA与softmax模型有些“相性不合”。

对比表格

为了更好地对比两种降维方法和原始数据的识别情况,这里总结了一个表格进行说明:

迭代次数\处理方式 原始数据 PCA 2DPCA
1000 %96.12/234s %87.21/34s %91.38/34s
7000 -/- %95.04/230s %96.90/225s
20000 %99.2*/约4680s** %96.86/651s %97.87/636s

* 根据网上提供数据所得
** 由迭代1000次的数据计算所得

改进方法

抛开PCA本身存在的导致特征丢失的缺点不谈,我认为还是有些方法能使使用降维后的数据识别准确率上升的。

  • 或许将训练集和测试集一起用于PCA模型的训练会提高准确率

    我认为PCA提取数据特征时应当考虑到整个数据集,也就是包括训练集和测试集的所有数据,因为这样才能提取到最准确的主特征。
  • 调整PCA的目标维度可能会有更好的结果

    一般而言,保留的原始信息越多,识别准确率越高。我在这里将784维的数据降低至100维,减少将近7/8,这完全是为了追求运行速度。事实上将纬度调整至225(15x15)或者400(20x20)可能会有更好的结果。最终我们还是要追求一种速度与准确率的平衡。

参考网址

TensorFlow官方中文社区

2DPCA实现

CNN

PCA

About

使用PCA和2DPCA对mnist中的数据进行降维


Languages

Language:Python 100.0%