CNN卷积神经网络应用:人脸识别


转载:@blog:http://blog.csdn.net/u012162613/article/details/43169019

参考:pickle — Python object serializationDeepLearning Getting started

一、python读取"***.pkl.gz"文件

用到Python里的gzip以及cPickle模块,简单的使用代码如下,如果想详细了解可以参考上面给出的链接。

#以读取mnist.pkl.gz为例  
import gzip,cPickle,  
f = gzip.open('mnist.pkl.gz', 'rb')  
train_set, valid_set, test_set = cPickle.load(f)  
f.close()  

其实就是分两步,先读取gz文件,再读取pkl文件。pkl文件的应用正是下文要讲的,我们用它来保存机器学习算法训练过程中的参数。

二、机器学习算法在训练过程中如何保存参数?

我们知道,机器学习算法的计算量特别大,跑起程序来少则几十分钟,多则几小时甚至几天,中间如果有什么状况(比如电脑过热重启、程序出现一些小bug...)程序就会中断,如果你没把参数定时保存下来,前面的训练就当白费了,所以很有必要在程序中加入定时保存参数的功能,这样下次训练就可以将参数初始化为上次保存下来的结果,而不是从头开始随机初始化。
那么如何保存模型参数?可以将参数深复制,或者调用python的数据永久存储cPickle模块,原理不多说,直接使用就行。(注:python里 有cPickle和pickle,cPickle基于c实现,比pickle快。)
直接用一个例子来说明如何使用:
import cPickle
a = [1, 2, 3]
b = {4:5, 6:7}

#保存,cPickle.dump函数。/ab是路径,ab是保存的文件的名字,如果本来就有ab这个文件,将被覆写,如果没有,则创建。
#'wb'表示以二进制可写的方式打开。dump中的-1表示使用highest protocol。  
write_file = open('ab', 'wb')
cPickle.dump(a, write_file, -1)
cPickle.dump(b, write_file, -1)
write_file.close()

#读取,cPickle.load函数。
read_file = open('ab', 'rb')
a_1 = cPickle.load(read_file)
b_1 = cPickle.load(read_file)
print a_1, b_1
read_file.close()
[1, 2, 3] {4: 5, 6: 7}

在deeplearning算法中,因为用到GPU,经常是将参数声明为shared变量,因此必须用上get_value()、set_value,例如有w、v、u三个shared变量,使用代码如下:

import cPickle  
#保存  
write_file = open('path', 'wb')    
cPickle.dump(w.get_value(borrow=True), write_file, -1)    
cPickle.dump(v.get_value(borrow=True), write_file, -1)    
cPickle.dump(u.get_value(borrow=True), write_file, -1)   
write_file.close()  
  
#读取  
read_file = open('path')  
w.set_value(cPickle.load(read_file), borrow=True)  
v.set_value(cPickle.load(read_file), borrow=True)  
u.set_value(cPickle.load(read_file), borrow=True)  
read_file.close()  

一个实例:

下面我以一个实际的例子来说明如何在程序中加入保存参数的功能。以 deeplearnig.net上的逻辑回归为例,它的代码地址: logistic_sgd.py。这个程序是将逻辑回归用于MNIST分类,程序运行过程并不会保存参数,甚至运行结束时也不保存参数。怎么做可以保存参数?
在logistic_sgd.py代码里最后面的sgd_optimization_mnist()函数里,有个while循环,里面有一句代码:
if this_validation_loss < best_validation_loss:  

这句代码的意思就是判断当前的验证损失是否小于最佳的验证损失,是的话,下面会更新best_validation_loss,也就是说当前参数下,模型比之前的有了优化,因此我们可以在这个if语句后面加入保存参数的代码:

save_params(classifier.W,classifier.b)  

save_params函数定义如下:

def save_params(param1,param2):  
    import cPickle  
    write_file = open('params', 'wb')   
    cPickle.dump(param1.get_value(borrow=True), write_file, -1)  
    cPickle.dump(param2.get_value(borrow=True), write_file, -1)  
    write_file.close()  

当然参数的个数根据需要去定义。在logistic_sgd.py中参数只有classifier.W,classifier.b,因此这里定义为save_params(param1,param2)。

在logistic_sgd.py里我加入了save_params(classifier.W,classifier.b),运行了3次epoch,中断掉程序,在代码所在的文件夹下,多出了一个params文件,我们来看看这个文件里是什么东西:

import cPickle  
f=open('params')  
w=cPickle.load(f)  
b=cPickle.load(f)  
  
#w大小是(n_in,n_out),b大小时(n_out,),b的值如下,因为MINST有10个类别,n_out=10,下面正是10个数  
array([-0.0888151 ,  0.16875755, -0.03238435, -0.06493175,  0.05245609,  
        0.1754718 , -0.0155049 ,  0.11216578, -0.26740651, -0.03980861])  
也就是说,params文件确实保存了我们训练过程中的参数。
 
那么如何用保存下来的参数来初始化我们的模型的参数呢?
在logistic_sgd.py中的class LogisticRegression(object)下,self.W和self.b本来是初始化为0的,我们可以在下面加上几行代码,这样就可以用我们保存下来的params文件来初始化参数了:
class LogisticRegression(object):  
    def __init__(self, input, n_in, n_out):  
        self.W = theano.shared(  
            value=numpy.zeros(  
                (n_in, n_out),  
                dtype=theano.config.floatX  
            ),  
            name='W',  
            borrow=True  
        )  
        self.b = theano.shared(  
            value=numpy.zeros(  
                (n_out,),  
                dtype=theano.config.floatX  
            ),  
            name='b',  
            borrow=True  
        )  
#!!!  
#加入的代码在这里,程序运行到这里将会判断当前路径下有没有params文件,有的话就拿来初始化W和b  
    if os.path.exists('params'):  
        f=open('params')  
        self.W.set_value(cPickle.load(f), borrow=True)  
        self.b.set_value(cPickle.load(f), borrow=True)  

转载:@blog:http://blog.csdn.net/u012162613/article/details/43226127

计算机视觉、机器学习任务中,经常跟图像打交道,在C++上有成熟的OpenCV可以使用,在Python中也有一个图像处理库PIL(Python Image Library),当然PIL没有OpenCV那么多功能(比如一些人脸检测的算法),不过在Python上,我们用PIL进行一些基本的图像读取与保存工作就行了,因为算法方面,Python有很多强大的算法库(机器学习库sklearn、深度学习库theano)。

本文以一个人脸图像数据库Olivetti Faces为例,展示如何使用PIL模块、cPickle模块将这个图像数据库读取并保存为pkl文件。

一、人脸图像库Olivetti Faces介绍

Olivetti Faces是纽约大学的一个比较小的人脸库,由40个人的400张图片构成,即每个人的人脸图片为10张。每张图片的灰度级为8位,每个像素的灰度大小位于0-255之间,每张图片大小为64×64。如下图,这个图片大小是1190*942,一共有20*20张人脸,故每张人脸大小是(1190/20)*(942/20)即57*47=2679:

二、利用Python PIL、cPickle读取和保存 Olivetti Faces

首先使用 PIL.Image打开获取这张图片,为了便于数值计算,将其转化为 numpy.array类型,然后每张图片摊成一个一维向量1*2679,因为有400张,所以得到了400*2679的numpy.array,接着使用 cPickle模块,将转化得到的numpy.array保存为 pkl文件。注意这是不带label的数据,我们可以人工地给它们类别0~39,每个类别有10个样本,故新建一个400*1的label,作为每张图片对应的类别。
代码如下:

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM