2. 中国科学院大学,北京 100049
2. University of Chinese Academy of Science, Beijing 100049, China
人脸图像检索是计算机视觉领域中的一个基本研究问题.最初,图像是用关键字和基于文本的检索系统进行人工注释的.但是,随着待检索对象数量的不断增加形成了海量人脸图像数据库,人工手动注释的检索系统变得不可行.因此,提高海量人脸图像数据库的检索速度和准确率是大型人脸图像数据库检索必须解决的问题.
Liu等提出建立图像库的层次索引结构[1-2],即建立合适的层次特征索引结构,将整个数据库分成多个类,检索时只在一个或少数几个类内进行,从而提高检索速度.刘小华等提出基于L-K均值层次聚类算法[3],把大型人脸图像数据库划分成一些子类数据集,只在一个或几个子类中进行检索,但是该算法会随着类内数据量和检索节点的增加导致检索时间显著增加.杨之光等提出基于聚类的家庭数码相册人脸图像检索算法[4],利用归一化分割在每个时间段内分别对人脸图像进行聚类,并采用连续AdaBoost算法得到人脸识别分类器度量人脸之间的相似度,该算法在小的家庭相册人脸检索准确率和时效方面得到了一定的提升,但不能用于海量人脸图像检索的实用性和可靠性.
近年来,深度卷积神经网络(Convolutional Neural Network, CNN)在图像分类[5-6]、人脸检测[7-8]以及人脸识别[9-10]等计算机视觉任务中实现了最优的性能.深度卷积神经网络经过大量数据训练后的用于学习特征表示的模型可泛化使用,Yandex等[11-14]采用了基于图像分类任务预先训练的CNN模型提取深度卷积特征进行图像检索的解决方案,实现了在流行的检索基准上达到最好的性能.此外,卷积层的特征对应于接收图像特定区域特征的自然解释,被认为是类比于图像浅的纹理特征如HOG[15]、LBP[16]等特征. HOG特征将图像分成小的连通区域,称作细胞单元,然后采集细胞单元中各像素点的梯度或边缘方向直方图,把这些直方图组合起来构成特征描述符.但是HOG特征很难处理遮挡、物体形变及方向改变等问题,由于梯度的性质,HOG特征对噪点相当敏感,而且由于描述子生成过程冗长导致速度慢,实时性差.与HOG特征相比,LBP是一个简单但非常有效的纹理运算符,它将各个像素与其附近的像素进行比较,并把结果保存为二进制数. LBP最重要的属性是对诸如光照变化等造成的灰度变化的鲁棒性,并且计算简单,对图像进行实时分析.但LBP对方向信息敏感,容易导致纹理信息丢失.
针对以上问题,提出一种基于深度特征聚类的海量人脸图像快速检索方法.该方法首先通过深度卷积神经网络提取人脸图像的深度卷积特征,构建人脸图像检索的特征向量集,并利用K-means聚类算法[17]对人脸特征向量集进行聚类,使得同一人的人脸图像能够正确聚为一类; 然后提取待检索人脸图像的深度特征构建特征向量,将构建的待检索人脸特征向量与距离类中心最近的类内人脸图像特征进行相似度度量匹配得到初始的检索结果列表; 在此基础上,采用特征融合的查询扩展方法进一步提高系统的检索性能.
1 人脸图像检索模型设计设计深度卷积神经网络并使用人脸图像数据集对网络模型进行人脸分类训练,使得网络能够有效地提取人脸图像的深度特征执行人脸图像检索任务,算法模型结构见图 1.主要分为两个部分,第一部分为用于提取人脸图像深度特征的深度卷积神经网络,含有13层卷积层和3层全连接层的深度卷积神经网络结构; 第二部分为将数据库中保存的人脸图像特征向量进行K-means聚类使得人脸图像划分为不同的类
考虑深度神经网络f识别N个不同人的人脸问题,将网络输出设置为N路分类问题.深度卷积神经网络通过包含N个线性预测器(每个标识一个类别)的全连接层(图 1中fc8层)将每个训练图像
$ L\left( f \right) = - \sum\nolimits_t {\left( {\log {e^{\left\langle {{c_t},{x_t}} \right\rangle }} - \log \left( {\sum\limits_{q = 1, \cdots ,N} {{e^{\left\langle {{c_q},{x_t}} \right\rangle }}} } \right)} \right)} . $ | (1) |
式中
网络模型训练学习之后,使用欧式距离比较分数向量
三元组损失微调网络模型学习能够在最终应用中表现良好的分数向量,即通过在欧式空间中比较人脸特征描述符进行身份验证.与许多度量学习方法相似,三元组损失用于学习具有独特性和紧凑性的投影,同时实现降维.
三元组损失微调方法与文献[9-10]相似,一个三元组(a, p, n)包含一个人脸图像的训练样本a以及一个与a相同类别的正样本p和一个与a不同类别的负样本n的三元组.预先训练的CNN的输出
$ {\mathit{\boldsymbol{x}}_t} = \mathit{\boldsymbol{W'}}\frac{{\mathit{\boldsymbol{f}}\left( {{I_t}} \right)}}{{{{\left\| {\mathit{\boldsymbol{f}}\left( {{I_t}} \right)} \right\|}_2}}},\mathit{\boldsymbol{W'}} \in {{\bf{R}}^{L \times D}}. $ | (2) |
将
$ L\left( {\mathit{\boldsymbol{W'}}} \right) = \sum\limits_{\left( {a,p,n} \right) \in T} {\max \left\{ {0,\alpha + \left\| {{\mathit{\boldsymbol{x}}_a} - {\mathit{\boldsymbol{x}}_p}} \right\|_2^2 - \left\| {{\mathit{\boldsymbol{x}}_a} - {\mathit{\boldsymbol{x}}_n}} \right\|_2^2} \right\}} , $ | (3) |
其中xi的定义如式(2),α≥0是表示学习边界的固定标量,T是训练三元组的集合.三元组损失的目的就是通过学习,让训练样本a和p特征表达之间的距离尽可能小,而a和n的特征表达之间的距离尽可能大,并且要让a和n之间的距离和a和p之间的距离之间有一个最小的间隔,即α,公式化的表示为
$ \alpha + \left\| {{\mathit{\boldsymbol{x}}_a} - {\mathit{\boldsymbol{x}}_p}} \right\|_2^2 < \left\| {{\mathit{\boldsymbol{x}}_a} - {\mathit{\boldsymbol{x}}_n}} \right\|_2^2. $ | (4) |
当a和n之间的距离小于a和p之间的距离加α时,就会产生损失; 当a和n之间的距离大于等于a和p之间的距离加α时,损失为零,如式(3).
2 人脸图像检索方法 2.1 人脸图像特征提取对于给定像素大小为
$ \mathit{\boldsymbol{h}}_{W,b}^{m\left( l \right)}\left( x \right) = f\left( {{b^{m\left( l \right)}} + \sum\limits_n {{W^{mn\left( l \right)}} * \mathit{\boldsymbol{h}}_{W,b}^{n\left( {l - 1} \right)}} } \right). $ | (5) |
式中:hm(l)和hn(l-1)分别为l层的第m个输出通道和l-1层的第n个输入通道,Wmn(l)和bm(l)为相应的卷积核滤波器和偏置项,*为卷积运算符.
由于从卷积层直接提取的图像特征存在特征数据量大、数据维度高导致结果容易出现过拟合及计算量大等问题,因此在相应的卷积层后采用最大特征值池化(max-pooling)方法对卷积层的不同位置进行特征聚合统计:
$ \mathit{\boldsymbol{h}}_{\left( {i,j} \right)}^{m\left( l \right)} = \mathop {\max }\limits_{\forall \left( {p,q} \right) \in {\mathit{\Omega }_{\left( {i,j} \right)}}} \left\{ {\mathit{\boldsymbol{h}}_{\left( {p,q} \right)}^{m\left( l \right)}} \right\}. $ | (6) |
式中:Ω(i, j)为索引为(i, j)特定区域,(p, q)为在Ω上具体位置的索引.
在网络的最后一层卷积层(Conv5_3)后同样执行最大特征值池化操作(pool5)得到尺寸大小为7×7×512维的人脸图像特征响应值
$ {\mathit{\boldsymbol{f}}_{{\rm{sum}}}}\left( I \right) = \left[ {{f_1},{f_2}, \cdots ,{f_i}, \cdots ,{f_{512}}} \right]. $ | (7) |
$ {f_i} = \sqrt {\sum {{\mathit{\boldsymbol{X}}_i}} } = \sqrt {\sum\limits_{y = 1}^{14} {\sum\limits_{x = 1}^{14} {{f_i}\left( {x,y} \right)} } } . $ | (8) |
式中
$ \mathit{\boldsymbol{f}}\left( I \right) = \frac{{{\mathit{\boldsymbol{f}}_{{\rm{sum}}}}\left( I \right)}}{{{{\left\| {{\mathit{\boldsymbol{f}}_{{\rm{sum}}}}\left( I \right)} \right\|}_2}}}. $ | (9) |
从网络的最后一层卷积层Con5_3层提取待检索人脸图像I′的深度卷积特征向量f (I′)和数据库中保存的人脸图像集
给定人脸图像数据集对应的深度特征向量,利用K-means聚类算法通过迭代寻找k个聚类的划分方案,针对聚类所得簇划分
$ E = \sum\limits_{i = 1}^k {\sum\limits_{f\left( I \right) \in {C_i}} {\left\| {\mathit{\boldsymbol{f}}\left( I \right) - {\mathit{\boldsymbol{\mu }}_i}} \right\|_2^2} } . $ | (10) |
式中
实验中采用Elbow Method[18]估计最优聚类数量k值.当k小于真实聚类数时,由于k的增大会大幅增加每个簇的聚合程度,故E的下降幅度会很大,而当k到达真实聚类数时,再增加k所得到的聚合程度回报会迅速变小,所以E的下降幅度会骤减,然后随着k值的继续增大而趋于平缓,也就是说E和k的关系图是一个手肘的形状,而这个肘部对应的k值就是数据的最佳聚类数.当最优聚类数量k值确定后具体聚类实现过程如下:
1) 随机选取k个深度特征向量作为初始聚类中心,分别为μ1, μ2, …, μk∈ R512
2) 计算每一个样本i的所属类别C(i)
$ {\mathit{\boldsymbol{C}}^{\left( i \right)}} = \mathop {\arg \min }\limits_j \left\| {\mathit{\boldsymbol{f}}\left( {{I_i}} \right) - {\mathit{\boldsymbol{\mu }}_j}} \right\|_2^2. $ | (11) |
即样本到类别中心欧式距离最小的类别;
3) 更新每一类的中心μj
$ {\mathit{\boldsymbol{\mu }}_j} = \frac{{\sum\nolimits_{i = 1}^m {f\left( {{I_i}} \right)\left| {_{{C^{\left( i \right)}} = j}} \right.} }}{{\sum\nolimits_{i = 1}^m {1\left| {_{{C^{\left( i \right)}} = j}} \right.} }}. $ | (12) |
4) 重复步骤2)、3)至式(10)所示误差E收敛.
通过上述方法将人脸图像集对应的特征向量划分为不同的簇
得到人脸图像集对应的特征向量簇划分
$ {\mathit{\boldsymbol{C}}^{\left( j \right)}} = \mathop {\arg \min }\limits_i \left\| {\mathit{\boldsymbol{f}}\left( {I'} \right) - {\mathit{\boldsymbol{\mu }}_i}} \right\|_2^2. $ | (13) |
得到距离最近的类C(j)后,计算待检索图像I′的深度特征向量f (I′)和类C(j)内所有的人脸图像
$ \begin{array}{l} d = {\rm{sim}}\left( {\mathit{\boldsymbol{f}}\left( {I'} \right),{\mathit{\boldsymbol{f}}^{\left( j \right)}}\left( {{I_k}} \right)} \right) = \\ \;\;\;\;\;\;\frac{{\sum {f\left( {I'} \right)} \times {\mathit{\boldsymbol{f}}^{\left( j \right)}}\left( {{I_k}} \right)}}{{\sqrt {\sum {{{\left( {\mathit{\boldsymbol{f}}\left( {I'} \right)} \right)}^2}} } \times \sqrt {\sum {{{\left( {{\mathit{\boldsymbol{f}}^{\left( j \right)}}\left( {{I_k}} \right)} \right)}^2}} } }} = \\ \;\;\;\;\;\;\frac{{\sum\limits_{i = 1}^{512} {\left( {{{x'}_i} \times {x_i}} \right)} }}{{\sqrt {\sum\limits_{i = 1}^{512} {{{\left( {{{x'}_i}} \right)}^2}} } \times \sqrt {\sum\limits_{i = 1}^{512} {{{\left( {{x_i}} \right)}^2}} } }}. \end{array} $ | (14) |
根据特征向量之间的相似度度量计算结果的大小进行排序便可得到人脸图像检索初始排序结果列表
通过上述方法得到人脸图像检索的初始排序结果列表
$ \mathit{\boldsymbol{f}}\left( {I'} \right) = \frac{1}{{q + 1}}\left( {\mathit{\boldsymbol{f}}\left( {I'} \right) + \sum\limits_{i = 1}^q {{\mathit{\boldsymbol{f}}^{\left( j \right)}}\left( {{{I'}_i}} \right)} } \right). $ | (15) |
通过人脸图像卷积特征向量的均值查询扩展方法将均值特征向量作为待检索人脸图像的特征向量f (I′)再次执行检索任务得到最终的有序排序结果列表
通过查询扩展方法对待检索人脸图像的卷积特征向量进行融合加强,能够进一步提高检索的结果.
3 实验及分析实验在以下平台实现:CPU为Intel(R) Core(TM) i5-6600 CPU @ 3.30 GHz,内存为16 G,GPU为Nvidia Titan X平台,操作系统为Ubuntu 14.04.4 LTS,程序是基于Caffe环境采用python语言实现.
3.1 实验数据集实验采用以下人脸图像数据集进行性能评估:
1) LabeledFaces in the Wild dataset (LFW)[19]:该数据集包含5 749个不同人的13 233张人脸图像,是人脸图像识别的标准验证基准.
2) 明星人脸数据集(Celebrities Face Set, CFS):在线收集了40位明星人脸图像数据集,每人300张左右的人脸图像共12 063张人脸图像.图像数据集收集过程如下:
a) 确定明星名单:为了确保能够收集到足够多的人脸图像建立数据库,首先选取能够在图像搜索引擎搜索到大量正面人脸图像的明星名单;
b) 人脸图像收集:使用百度图像搜索引擎收集每个明星300张左右的人脸图像;
c) 数据集提纯过滤:去除同一人错误和严重遮挡的人脸图像,将保留下的人脸图像统一裁剪为像素大小224×224的尺寸.最终收集的明星人脸图像数据集示例见图 3.
训练网络模型学习N路人脸分类器遵循文献[5-6]的步骤和修改,目标是找到最小化softmax层之后的平均预测对数损失的网络参数.网络的配置,通过随机梯度下降和0.9的动量系数优化,权重衰减系数为5×10-4,在fc6和fc7的两个全连接层之后以0.5的比率让节点输出置0,学习率初始设置为10-2,在验证集精度停止增加时减少到10-3,滤波器权重通过零均值和标准偏差为10-2的高斯分布随机采样初始化,网络偏置项初始化为零.
3.3 人脸图像特征可视化使用图 1中所示深度卷积神经网络提取人脸图像的深度卷积特征并进行可视化见图 4.图 4中第一列为原始人脸图像,后面五列依次为卷积层Conv1_2层、Conv2_2层、Conv3_3层、Conv4_3层和Conv5_3层提取的人脸图像特征.从图中可看出底层特征可明显分辨出人脸轮廓纹理等信息,而高层语义特征更加抽象稀疏,更具表征性.
为验证图 1所示CNN提取的人脸图像深度特征能够很好地表征人脸图像,图 5显示了7位明星的部分人脸图像分别利用LBP特征、HOG特征、CNN提取的Conv3_3层特征、Conv4_3层特征和Conv5_3层特征分别进行K-means聚类将对应的图像划分为7个簇后的聚类结果(图中只列出了每种特征聚类结果的其中4个簇的划分结果).图中边界框为绿色的图像表示聚类正确的图像,边界框为红色的图像表示错误聚类的图像.从图 5中可看出采用图像浅层纹理特征的LBP特征、HOG特征、CNN提取的Conv3_3层特征进行K-means聚类并不能将相应的图像正确的划分为一类.而采用CNN提取的图像高层语义特征Conv4_3层以及Conv5_3层特征进行K-means聚类能够将相应的图像正确的划分为一类,从图 5中(d)、(e)两组聚类结果可看出通过使用Conv5_3层的图像高层语义特征进行K-means聚类得到的图像聚类结果最理想,能够将同一个人的人脸图像正确划分为一类.经过实验验证,当聚类数目小于明星人数的时候聚类结果会更加可靠的将同一人的图像划分到同一个类中.
使用人脸分类训练和三元组损失微调后的CNN在CFS和LFW两个数据集上进行了人脸深度特征提取并进行K-means聚类,采用Elbow Method估计最优聚类数量k值,见图 6.图中横坐标为聚类数k,纵坐标为所有样本聚类误差平方和E.根据Elbow Method选取肘部对应的k值为最佳聚类数,图 6中肘部对应k值为2,因此最佳聚类数k应该选取2.
通过Elbow Method确定最佳的聚类数k后将图像划分为不同的类进行人脸检索性能验证,为验证通过采用Elbow Method确定最佳k值的有效性,实验中分别选取不同的k值进行聚类分析,见表 1.从表 1中实验结果数据可看出,在相同的条件下当图像集划分为2个簇或3个簇时,使得检索范围变小,能够在更小的数据集中快速检索正确的结果.在不使用查询扩展方法和使用查询扩展方法两种情况下都能够显著降低检索时间,可节省约一半的检索时间,同时平均检索准确率达到最高,检索结果最佳.从表中实验结果可以看出,当聚类数k值为2时,在不使用查询扩展方法时平均检索准确率达到95.12%,使用查询扩展方法后将平均检索准确率提高到95.75%.从实验结果得出,通过Elbow Method确定最佳的聚类数k值后,对深度特征进行K-means聚类将海量人脸图像划分为不同的簇后,然后在相应的最近簇内进行相似人脸图像检索具有一定的可靠性和可行性,能够显著降低检索时间.
图 7中列出部分人脸图像检索排序前10张的检索结果示例图,其中每行的第一列人脸图像包围边框为蓝色的表示待检索的人脸图像,第一列后的包围边框为绿色的人脸图像表示相对应的被正确检索的结果,包围边框为红色的人脸图像表示被错误检索的结果.从图中直观的看出排在最前面的人脸图像检索结果与待检索的人脸图像更为相似,包括人脸的朝向及面部表情.
将文中提出的人脸图像检索方法与文献中的检索方法进行比较,见表 2.
表 2中显示了算法在两个人脸图像数据集上执行检索结果的平均准确率和检索每张人脸图像所用平均时间的时效性对比.
从表 2中看出,刘小华等提出的用于人脸图像检索的L-K均值层次聚类方法[3]在类内数据量和检索节点增加时所得到的人脸检索结果平均准确率明显提高,在没有时间限制的情况下最好的检索准确率达到95.1%,但是该方法随着检索准确率的提升,时间消耗显著增加,是以时间开销为代价换取检索平均准确率.因此,该方法在现实应用场景中在保持一定准确率的检索结果时不能达到快速实时的检索速度.而本文提出的方法通过训练好的深度卷积神经网络用于人脸检索(Deep Convolutional Neural Network Face Retrieval, DCNNFR)模型平均提取和构建每张人脸图像的深度特征只需要0.02s的时间开销,从表中看出该方法在保证一定检索准确率的同时能够达到近实时的时效性,在人脸图像集聚类最好的情况下检索每张图像平均用时0.138s,检索过程简单快速无需人为参与设计特征的提取和检索过滤.
4 结论本文提出了一种基于深度特征聚类的海量人脸图像检索方法.通过使用人脸图像训练集对深度卷积神经网络模型进行人脸分类训练,在此基础上采用三元组损失方法对已训练好的人脸分类网络模型进行微调,使得网络能够更加有效地提取人脸图像深度特征,构建更具有表征的高层语义特征.采用K-means聚类算法对提取的深度特征进行聚类,使得对应的人脸图像集划分为不同的簇,然后在相应的簇中进行人脸图像特征相似度匹配执行检索任务.最后通过查询扩展方法对待检索人脸图像深度特征进行融合进一步提高检索性能.实验结果证明,该方法能够根据深度特征快速地实现人脸图像的簇划分,极大地缩小海量人脸图像检索范围,在保证一定准确率的同时有效地提高了人脸图像检索速度.
[1] |
LIU C. Gabor-based kernel PCA with fractional power polynomial models for face recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2004, 26(5): 572. DOI:10.1109/TPAMI.2004.1273927 |
[2] |
ZHENG X, CAI D, HE X, et al. Locality preserving clustering for image database[C]// ACM International Conference on Multimedia. New York: ACM, 2004: 885. DOI: 10.1145/1027527.1027731; http://dl.acm.org/citation.cfm?id=1027731
|
[3] |
刘小华, 周春光, 张利彪, 等. 海量人脸数据库的快速检索[J]. 吉林大学学报(工), 2010, 40(1): 183. LIU Xiaohua, ZHOU Chunguang, ZHANG Libiao, et al. Method of quick searching in a huge scale face database[J]. Journal of Jilin University (Engineering and Technology Edition), 2010, 40(1): 183. DOI:10.13229/j.cnki.jdxbgxb2010.01.036 |
[4] |
杨之光, 艾海舟. 基于聚类的人脸图像检索及相关反馈[J]. 自动化学报, 2008, 34(9): 1033. YANG Zhiguang, AI Haizhou. Cluster-based Face Image Retrieval and Its Relevance Feedback[J]. Acta Automatica Sinica, 2008, 34(9): 1033. DOI:10.3724/SP.J.1004.2008.01033 |
[5] |
KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[C] //Advances in neural information processing systems. Long Beach: Curran Associates Inc.2012: 1097. DOI: 10.1145/3065386; http://dl.acm.org/citation.cfm?id=2999257
|
[6] |
SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. ArXiv Preprint ArXiv: 1409.1556, 2014;
|
[7] |
ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks[J]. IEEE Signal Processing Letters, 2016, 23(10): 1499. DOI:10.1109/LSP.2016.2603342 |
[8] |
LI H, LIN Z, SHEN X, et al. A convolutional neural network cascade for face detection[C]// Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 5325. DOI: 10.1109/CVPR.2015.7299170;
|
[9] |
PARKHI O M, VEDALDI A, ZISSERMAN A. Deep Face Recognition[C]// British Machine Vision Conference. Newcastle: BMVC, 2015: 41.1. DOI: 10.5244/C.29.41;
|
[10] |
SCHROFF F, KALENICHENKO D, PHILBIN J. FaceNet: A unified embedding for face recognition and clustering[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Boston: IEEE, 2015: 815. DOI: 10.1109/CVPR.2015.7298682;
|
[11] |
RAZAYIAN A S, AZIZPOUR H, SULLIVAN J, et al. CNN Features Off-the-Shelf: An Astounding Baseline for Recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition Workshops. Columbus: IEEE Computer Society, 2014: 512. DOI: 10.1109/CVPRW.2014.131;
|
[12] |
YANDEX A B, LEMPITSKY V. Aggregating Local Deep Features for Image Retrieval[C]// IEEE International Confer-ence on Computer Vision. Santiago: IEEE, 2016: 1269. DOI: 10.1109/ICCV.2015.150;
|
[13] |
TOLIAS G, SICRE R, JEGOU H. Particular object retrieval with integral max-pooling of CNN activations[C]// Proc International Conference on Learning Representations (ICLR), Lille, France, 2016: 1. DOI: arXivID:1511.05879;
|
[14] |
KALANTIDIS Y, MELLINA C, OSINDERO S. Cross-Dimensional Weighting for Aggregated Deep Convolutional Features[C]// European Conference on Computer Vision. Switzerland: Springer, Cham, 2016: 685. DOI: https://doi.org/10.1007/978-3-319-46604-0_48;
|
[15] |
DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]// IEEE Computer Society Conference on Computer Vision & Pattern Recognition. San Diego: IEEE Computer Society, 2005: 886. DOI: 10.1109/CVPR.2005.177; http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=1467360
|
[16] |
OJALA T, Pietikäinen M, MÄENPÄENPÄÄ T. Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000, 24(7): 971. DOI:10.1109/TPAMI.2002.1017623 |
[17] |
孙吉贵, 刘杰, 赵连宇. 聚类算法研究[J]. 软件学报, 2008, 19(1): 48. SUN Jigui, LIU Jie, ZHAO Lianyu. Clustering algorithms research[J]. Journal of Software, 2008, 19(1): 48. DOI:10.3724/SP.J.1001.2008.00048 |
[18] |
ROBERT L. THORNDIKE (December 1953). "Who Belongs in the Family?". Psychometrika. 18 (4): 267. DOI: 10.1007/BF02289263;
|
[19] |
HUANG G B, MATTAR M, BERG T, et al. Labeled Faces in the Wild: A Database for Studying Face Recognition in Unconstrained Environments[J]. Technical Report 07-49, University of Massachusetts, Amherst, 2007. DOI: 10.1.1.122.8268
|