CN101739438A - 检测脸部表情的系统和方法 - Google Patents
检测脸部表情的系统和方法 Download PDFInfo
- Publication number
- CN101739438A CN101739438A CN200910166603A CN200910166603A CN101739438A CN 101739438 A CN101739438 A CN 101739438A CN 200910166603 A CN200910166603 A CN 200910166603A CN 200910166603 A CN200910166603 A CN 200910166603A CN 101739438 A CN101739438 A CN 101739438A
- Authority
- CN
- China
- Prior art keywords
- user
- countenance
- face
- detection
- data storehouse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Abstract
公开了一种检测脸部表情的方法和系统。所述检测脸部表情的方法包括:确定用于检测用户的脸部表情的基本数据库(DB);估计用户的头部姿势;通过使用个性化DB和普通DB中的至少一个来提取与估计的头部姿势相应的网格模型,并使用提取的网格模型检测脸部表情;将检测的脸部表情反映到虚拟对象。
Description
本申请要求于2008年11月4日在韩国知识产权局提交的第10-2008-0108747号韩国专利申请的利益,该申请完全公开于此以资参考。
技术领域
本发明的一个或多个示例性实施例涉及一种检测脸部表情(facialgesture)的方法和系统,更具体地讲,涉及这样一种技术,在所述技术中,可确定输入图像的姿势,并可对每个姿势使用个性化数据库(DB:data base),从而根据每个用户的特征来检测脸部表情。
背景技术
在处理用户的脸部图像中,用户可能期望仅使用图像装置而不需要任何单独装置来容易地对用户自己的脸部进行动画处理或将用户自己的脸部克隆到另一代理。
在计算机图形学中,上述对用户脸部的简单动画制作可能是重要的并且难的技术。对于该技术,可能要安装和使用激光扫描仪或单独的装置。然而,由于这些装置成本高并且尺寸大,所以这些装置可能不适合用作个人娱乐设备的接口。
因此,提出了一种基于图像对用户的脸部建模并估计建模中的变化的技术。一种可以查找特征点、确定姿势和拟合脸部网格模型从而估计脸部表情的变化的方法已经被使用。然而,根据用户的特征估计脸部表情的变化可能较难。
因此,需要一种根据用户姿势更准确地估计脸部表情、并检测与每个用户的特征相符的准确姿势的技术。
发明内容
根据示例性实施例,可提供一种检测脸部表情的方法。所述方法可包括:确定用于检测用户的脸部表情的基本数据库(DB);估计用户的头部姿势;通过使用个性化DB和普通DB中的至少一个来提取与估计的头部姿势相应的网格模型,并使用提取的网格模型检测脸部表情;将检测的脸部表情反映到虚拟对象。
在本实例中,确定基本DB的步骤可包括:识别用户的脸部,确定用户是否已注册,并依据用户是否已注册来确定基本DB。
另外,当用户已注册时,确定基本DB的步骤可确定预先存储的用户的个性化DB作为基本DB。
另外,确定基本DB的步骤可包括:当用户是未注册用户时,由用户选择是否构造个性化DB;将根据用户选择而构造的个性化DB或预定的普通DB确定为基本DB。
另外,所述估计步骤可包括:提取用户的脸部区域;关于用户的脸部区域提取脸部描述符;用预先存储的多个姿势分类符对提取的脸部描述符执行投影操作。
另外,检测脸部表情的步骤可包括:通过使用个性化DB和普通DB中的至少一个来确定与估计的头部姿势相应的网格模型;将确定的网格模型拟合到用户的脸部;执行关于拟合的网格模型的网格跟踪。
另外,所述反映步骤可包括:测量用户脸部的每个特征点的变化程度;将所述变化程度反映到虚拟对象的脸部的每个特征点的移动。
根据示例性实施例,还可提供一种检测脸部表情的系统,所述系统包括:初始化执行单元,确定用于检测用户的脸部表情的基本DB;姿势估计单元,估计用户的头部姿势;脸部表情检测单元,通过使用个性化DB和普通DB中的至少一个来提取与估计的头部姿势相应的网格模型,并通过使用提取的网格模型检测脸部表情;虚拟对象反映单元,将检测的脸部表情反映到虚拟对象。
在该实例中,初始化执行单元可包括:脸部识别单元,识别用户的脸部;个性化DB构造单元,依据用户是否已注册并依据用户的选择来构造个性化DB;DB,存储个性化DB和普通DB。
示例性实施例的其他方面、特征和/或优点将在下面的描述中被部分地阐述,部分地,从所述描述中是清楚的,或可通过实施本公开而获知。
附图说明
结合附图,示例性实施例的这些和/或其他方面、特征和优点从下面的描述中将变得清楚,并更容易理解,其中:
图1是示出根据示例性实施例的检测脸部表情的方法的示图;
图2是示出在图1的检测脸部表情的方法中确定基本数据库(DB)的操作的详细配置的示图;
图3是详细示出在图1的检测脸部表情的方法中估计用户的头部姿势的操作的示图;
图4是详细示出在图1的检测脸部表情的方法中使用网格模型检测脸部表情的操作的示图;
图5是详细示出在图1的检测脸部表情的方法中将检测的脸部表情反映到虚拟对象的操作的示图;和
图6是示出根据示例性实施例的检测脸部表情的系统的构造的示图。
具体实施方式
现在将详细阐述示例性实施例,其示例在附图中示出,其中,相同的标号始终表示相同的元件。以下通过参照附图描述示例性实施例,以解释本公开。
图1是示出根据示例性实施例的检测脸部表情的方法的示图。
参照图1,在操作S110,根据本实施例的方法可确定用于检测用户的脸部表情的基本数据库(DB)。在该实例中,所述方法可确定用户是否已注册,当用户已注册时,使用预定的个性化DB作为基本DB。否则,当用户是未注册用户时,所述方法可允许用户选择是否构造个性化DB。具体地讲,当用户未注册时,用户可选择构造个性化DB,并可使用与用户的特征相符的构造的个性化DB作为基本DB。当用户选择不选择构造个性化DB时,可改为使用普通DB作为基本DB。可在对每个姿势使用网格模型来提取脸部表情中使用基本DB。另外,可使用基本DB来更准确地将用户的脸部表情反映到虚拟对象(例如,化身(Avatar)等)。将参照图2更详细地描述根据实施例的操作S110的详细配置。
在操作S120,所述方法可估计用户的头部姿势。为了估计头部姿势,所述方法可提取用户的脸部区域,从脸部区域提取脸部描述符,并用预先存储的姿势分类符对提取的脸部描述符执行投影操作,从而估计头部姿势。将参照图3详细描述操作S120的详细配置的示例性实施例。
在操作S130,所述方法可通过使用个性化DB和普通DB中的至少一个来提取与估计的头部姿势相应的网格模型,并通过使用提取的网格模型来检测脸部表情。具体地讲,所述方法可通过使用个性化DB和普通DB中的至少一个来确定与估计的头部姿势相应的网格模型,并执行网格拟合(meshfitting)和网格跟踪(mesh tracking),从而检测脸部表情。将参照图4详细描述根据实施例的操作S130的详细构造。
在操作S140,所述方法可将检测的脸部表情反映到虚拟对象。具体地讲,所述方法可在执行网格跟踪之后分析特征点变化的模式,并通过使用个性化DB和普通DB中的至少一个将用户的脸部表情精确地反映到虚拟对象。将参照图5详细描述根据实施例的操作S140的详细配置。
如上所述,所述方法可分割并估计用户的头部姿势,通过使用用户的个性化DB根据每个用户的特征精确地提取脸部表情,并将提取的脸部表情更精确地反映到虚拟对象。
图2是示出在图1的检测脸部表情的方法中确定基本DB的操作的详细配置的示图。
参照图2,在操作S210,所述方法可从输入图像识别脸部。具体地讲,可从图像装置输入用户的图像,并可从用户的输入图像中识别脸部。
在操作S220,所述方法可确定用户是否已注册。具体地讲,由于可对注册的用户预先存储与用户的特征相符的个性化DB,所以可使用预先存储的个性化DB,从而不需要重复地重构个性化DB。
在操作S230,所述方法可依据用户是否已注册来确定基本DB。
在操作S231,当用户已注册时,用户可通过使用个性化DB利用与用户的特征相符的数据。具体地讲,个性化DB可对每个确定的姿势存储数据,并识别与每个确定的姿势相应的动作单元(action unit)代码,从而检测脸部表情。因此,当用户是注册用户时,可将个性化DB确定为基本DB。
在操作S232,当用户是未注册用户时,所述方法可允许用户选择是否构造个性化DB。个性化DB可被加密或被保护(例如,用密码保护)以保护用户的特征。在操作S233和S234,可将通过用户选择而构造的个性化DB或预定的普通DB确定为基本DB。这里,当构造个性化DB时,可从用户输入用于每个姿势的多个图像。具体地讲,可输入用于至少一个姿势的多个图像,以构造个性化DB。这里,可从相机捕获多个视点的图像,并且在用户的脸部保持无表情的同时,用户的头部姿势可根据指令不同地变化。例如,头部可径直地看相机的中心,头部可采取从最右边变化到最左边以及从上边变化到下边的各种姿势。
另外,当用户选择构造个性化DB时,可从用户中存储用户标识(ID)信息和用于网格拟合的网格模型参数中的至少一个,并且可构造个性化DB。另外,当用户没有选择构造个性化DB时,可使用普通DB。
如上所述,可根据每个用户的特征构造和使用个性化DB,由此可识别与用户的特征相符的用户的更精确的脸部表情。
图3是示出在图1的检测脸部表情的方法中估计用户的头部姿势的操作的详细配置的示图。
参照图3,在操作S310,所述方法可提取用户的脸部区域。
在操作S320,所述方法可从脸部区域提取脸部描述符以估计姿势。为了提取脸部描述符,用于有效提取脸部描述符所使用的滤波器和区域可以被定义,并可通过使用先前选择的位置和滤波器来提取脸部描述符。这里,脸部描述符可包括包含与脸部区域的特征有关的信息的向量。
在操作S330,所述方法可用至少一个先前产生的姿势分类符对脸部描述符执行投影操作,从而估计近似姿势。在该实例中,姿势分类符可通过使用从先前存储的DB的学习理论来产生能够估计近似头部姿势的分类符。这里,为了估计三种头部姿势,可能需要三个头部姿势分类符。
例如,当将三个头部姿势分类符表示为C1(左侧面)、C2(正面)和C3(右侧面),并将提取的脸部描述符表示为Df时,可用所述姿势分类符中的每一个来对提取的脸部描述符执行投影操作。这可被表现为<C1,Df>、<C2,Df>和<C3,Df>。这里,当通过执行投影操作获得的三个值中的最大值是<C1,Df>时,相应的姿势分类符(即,C1)用于左侧面,由此可将相应的头部姿势估计为左侧面。类似地,当最大值是<C2,Df>时,C2用于正面,由此可将相应的头部姿势估计为正面,当最大值是<C3,Df>时,C3用于右侧面,由此可将相应的头部姿势估计为右侧面。
因此,可通过用姿势分类符对脸部描述符进行投影操作来估计头部姿势,当想要获得更多分割的头部姿势时,可用更多的姿势分类符对脸部描述符执行投影操作。
图4是示出在图1的检测脸部表情的方法中使用网格模型检测脸部表情的操作的详细配置的示图。
参照图4,在操作S410,所述方法可通过使用个性化DB和普通DB中的至少一个确定与确定的头部姿势相应的网格模型。具体地讲,在用户使用个性化DB作为基本DB的情况下,可从个性化DB中读取与用户的特征相符的网格模型参数。另外,可将用于网格拟合的参数存储在个性化DB和普通DB中的每个DB中,并可将特征点的位置和用于查找特征点位置的滤波器存储在所述参数中。用于选择特征点的方法可使用脸部动作编码系统(FACS),即用于对人的情感表情分类的标准模型。具体地讲,可通过姿势的动作单元来确定特征点。
在操作S420,所述方法可将确定的网格模型拟合到用户的脸部上。具体地讲,确定的网格模型可存储关于中性(neutral)图像的信息,并可将网格模型拟合到用户的脸部,以与用户的各种脸部表情相符。
在操作S430,所述方法可执行关于网格模型的网格跟踪。
图5是示出在图1的检测脸部表情的方法中将检测的脸部表情反映到虚拟对象的操作的详细配置的示图。
参照图5,在操作S510,所述方法可测量用户脸部的每个特征点的变化程度。具体地讲,当执行网格跟踪时,可测量每个特征点的变化程度。在该实例中,可测量变化程度,并可分析测量的变化程度,以将注册用户的脸部表情转换为虚拟对象的脸部表情。
在操作S520,所述方法可将用户脸部的每个特征点的变化程度反映为虚拟对象的脸部的每个特征点的移动。在该实例中,为了在虚拟对象上表达用户的脸部表情,可使用个性化DB。这里,作为分析注册用户的脸部表情以转换为化身的脸部表情的方法的另一示例,一种识别由FACS表示的脸部的每个区域的动作单元并将识别的动作单元反映到化身的方法可以被给出。
如上所述,可将与包括每个用户的特征的个性化DB有关的信息反映到虚拟对象,或者通过虚拟对象反映所述信息,从而表达与用户的特征相符的用户的脸部表情的详细变化。然后,在表达用户的脸部表情的详细变化的同时,例如可在显示装置上输出或显示虚拟对象。
如上所述,可对至少一个头部姿势分类,并可对每个头部姿势识别输入图像的脸部表情,从而检测更详细的脸部表情。
另外,可构造个性化DB以与用户的特征相符,可基于个性化DB检测脸部表情,从而检测更详细的脸部表情。
图6是示出根据示例性实施例的检测脸部表情的系统的构造的示图。
参照图6,根据本示例性实施例的检测脸部表情的系统可包括初始化执行单元610、姿势估计单元620、脸部表情检测单元630和虚拟对象反映单元640。
初始化执行单元610可确定用于检测用户的脸部表情的基本DB。这里,初始化执行单元610可包括脸部识别单元611、个性化DB构造单元612和DB 613。
脸部识别单元611可识别用户的脸部。
个性化DB构造单元612可依据用户是否已注册并依据用户的选择来构造个性化DB。具体地讲,当用户是注册用户,可使用预定的个性化DB,即使当用户是未注册用户时,用户也可选择是否构造个性化DB。在该实例中,当用户选择构造个性化DB时,可存储用户ID、用于多个姿势中的每一个姿势的网格模型参数等以构造个性化DB。
DB 613可存储个性化DB和普通DB。具体地讲,DB 613可存储用于选择不构造个性化DB的用户的普通DB和单独由用户构造的个性化DB。
姿势估计单元620可估计用户的头部姿势。这里,姿势估计单元620可包括脸部区域提取单元621、脸部描述符提取单元622、姿势分类符存储单元623和分类符操作单元624。
脸部区域提取单元621可提取用户的脸部区域。
脸部描述符提取单元622可从脸部区域提取脸部描述符。这里,脸部描述符可包括包含与脸部区域的特征有关的信息的向量。
姿势分类符存储单元623可存储用于对多个姿势分类的姿势分类符。这里,姿势分类符存储单元623可存储与想要被分类的姿势的数量相同的多个姿势分类符。
分类符操作单元624可用姿势分类符对脸部描述符执行投影操作。具体地讲,可依据投影操作的结果来估计头部姿势。
脸部表情检测单元630可使用个性化DB和普通DB中的至少一个来提取与估计的头部姿势相应的网格模型,并通过使用提取的网格模型来检测脸部表情。这里,脸部表情检测单元630可包括网格模型确定单元631、网格拟合单元632和网格跟踪单元633。
网格模型确定单元631可通过使用个性化DB和普通DB中的至少一个来确定与估计的头部姿势相应的网格模型。
网格拟合单元632可将确定的网格模型拟合到用户的脸部上。
网格跟踪单元633可执行关于拟合的网格模型的网格跟踪。
虚拟对象反映单元640可将检测的脸部表情反映到虚拟对象。这里,虚拟对象反映单元640可包括特征点变化提取单元641和虚拟对象应用单元642。
特征点变化提取单元641可检测用户脸部的每个特征点的变化程度。
虚拟对象应用单元642可将变化程度应用于虚拟对象脸部的每个特征点的移动。在该实例中,可通过使用个性化DB和普通DB来将每个特征点的变化程度反映到虚拟对象,以与用户的特征相符。
如上所述,使用个性化DB检测脸部表情的方法可关于用户的输入图像将至少一个姿势分类,对每个分类的姿势构造用户DB,并执行与用户的特征相符的网格拟合。
另外,所述方法可关于用户的输入图像对至少一个姿势分类,并可对每个分类的姿势检测脸部表情,从而即使在姿势的快速变化期间也可稳定地检测脸部表情,并且可构造针对每个用户而言均不同的DB,并可利用检测的脸部表情,从而精确地检测与每个用户的特征相符的脸部表情。
可将根据以上描述的示例性实施例的检测脸部表情的方法记录在包括程序指令的计算机可读介质中,以实现通过计算机实施的各种操作。所述介质可单独包括程序指令、数据文件、数据结构等,或者程序指令、数据文件、数据结构等的组合。计算机可读介质的示例包括:磁性介质,例如,硬盘、软盘和磁带;光学介质,例如,CD ROM盘和DVD;磁光介质,例如光盘;和被具体构造为存储和执行程序指令的硬件装置,例如,只读存储器(ROM)、随机存取存储器(RAM)、闪存等。程序指令的示例包括机器代码(例如,编译器产生的代码)和包含高级代码的文件,其中,可由计算机使用解释器来执行所述高级代码。所述硬件装置可被构造为用作一个或多个软件模块,以执行以上描述的示例性实施例的操作,反之亦然。软件模块可在包括脸部表情检测系统或设备的任何处理器、通用计算机或专用计算机上被执行。
尽管已经显示和描述了几个示例性实施例,但本公开不限于描述的示例性实施例。相反,本领域的技术人员应该明白,在不脱离本公开的原理和精神的情况下,可对这些示例性实施例做出改变,由权利要求及其等同项来限定本公开的范围。
Claims (19)
1.一种检测脸部表情的方法,所述方法包括:
确定用于检测用户的脸部表情的基本数据库;
估计用户的头部姿势;
在计算机上通过使用个性化数据库和普通数据库中的至少一个来提取与估计的头部姿势相应的网格模型,并使用计算机利用提取的网格模型检测脸部表情;和
将检测的脸部表情反映到虚拟对象。
2.如权利要求1所述的检测脸部表情的方法,其中,确定基本数据库的步骤包括:
识别用户的脸部;
确定用户是否已注册;和
依据用户是否已注册来确定基本数据库。
3.如权利要求2所述的检测脸部表情的方法,其中,当用户已注册时,确定基本数据库的步骤确定预先存储的用户的个性化数据库作为基本数据库。
4.如权利要求2所述的检测脸部表情的方法,其中,确定基本数据库的步骤包括:
当用户是未注册用户时,由用户选择是否构造个性化数据库;和
将根据用户选择而构造的个性化数据库或预定的普通数据库确定为基本数据库。
5.如权利要求4所述的检测脸部表情的方法,其中,通过存储输入信息来执行个性化数据库的构造,所述信息包括用户ID信息和用于网格拟合的网格模型参数中的至少一个。
6.如权利要求1所述的检测脸部表情的方法,其中,估计步骤包括:
提取用户的脸部区域;
提取关于用户的脸部区域的脸部描述符;和
用预先存储的多个姿势分类符对提取的脸部描述符执行投影操作。
7.如权利要求6所述的检测脸部表情的方法,其中,脸部描述符包括包含与脸部区域的特征有关的信息的向量。
8.如权利要求6所述的检测脸部表情的方法,其中,所述多个姿势分类符的数量被确定为与分类的姿势的数量相同。
9.如权利要求1所述的检测脸部表情的方法,其中,检测脸部表情的步骤包括:
通过使用个性化数据库和普通数据库中的至少一个来确定与估计的头部姿势相应的网格模型;
将确定的网格模型拟合到用户的脸部;和
执行关于拟合的网格模型的网格跟踪。
10.如权利要求9所述的检测脸部表情的方法,其中,所述拟合步骤读取确定的网格模型的参数值,并调整所述参数值以与用户的脸部相符。
11.如权利要求1所述的检测脸部表情的方法,其中,所述反映步骤基于用户的个性化数据库中存储的信息将与动作单元代码相应的用户的脸部表情输出到虚拟对象上。
12.如权利要求1所述的检测脸部表情的方法,其中,所述反映步骤包括:
测量用户脸部的每个特征点的变化程度;和
将所述变化程度反映到虚拟对象的脸部的每个特征点的移动。
13.至少一种存储有计算机可读代码的计算机可读介质,所述计算机可读代码包括实现如权利要求1所述的方法的指令。
14.一种检测脸部表情的系统,所述系统包括:
初始化执行单元,确定用于检测用户的脸部表情的基本数据库;
姿势估计单元,估计用户的头部姿势;
脸部表情检测单元,通过使用个性化数据库和普通数据库中的至少一个来提取与估计的头部姿势相应的网格模型,并通过使用提取的网格模型检测脸部表情;和
虚拟对象反映单元,将检测的脸部表情反映到虚拟对象。
15.如权利要求14所述的检测脸部表情的系统,其中,初始化执行单元包括:
脸部识别单元,识别用户的脸部;
个性化数据库构造单元,依据用户是否已注册并依据用户的选择来构造个性化数据库;和
数据库,存储个性化数据库和普通数据库。
16.如权利要求15所述的检测脸部表情的系统,其中,个性化数据库构造单元包括:
存储单元,存储用户的ID和网格模型参数。
17.如权利要求14所述的检测脸部表情的系统,其中,姿势估计单元包括:
脸部区域提取单元,提取用户的脸部区域;
脸部描述符提取单元,从脸部区域提取脸部描述符;
姿势分类符存储单元,存储用于对多个姿势分类的姿势分类符;和
分类符操作单元,用姿势分类符对脸部描述符执行投影操作。
18.如权利要求14所述的检测脸部表情的系统,其中,脸部表情检测单元包括:
网格模型确定单元,通过使用个性化数据库和普通数据库中的至少一个来确定与估计的头部姿势相应的网格模型;
网格拟合单元,将确定的网格模型拟合到用户的脸部上;和
网格跟踪单元,执行关于拟合的网格模型的网格跟踪。
19.如权利要求18所述的检测脸部表情的系统,其中,虚拟对象反映单元包括:
特征点变化提取单元,测量用户脸部的每个特征点的变化程度;和
虚拟对象应用单元,将所述变化程度应用于虚拟对象的脸部的每个特征点的移动。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2008-0108747 | 2008-11-04 | ||
KR1020080108747A KR101527408B1 (ko) | 2008-11-04 | 2008-11-04 | 얼굴 표정 검출 방법 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101739438A true CN101739438A (zh) | 2010-06-16 |
CN101739438B CN101739438B (zh) | 2014-08-06 |
Family
ID=41664449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910166603.8A Active CN101739438B (zh) | 2008-11-04 | 2009-08-20 | 检测脸部表情的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10783351B2 (zh) |
EP (1) | EP2182469B1 (zh) |
KR (1) | KR101527408B1 (zh) |
CN (1) | CN101739438B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103168314A (zh) * | 2010-10-21 | 2013-06-19 | 三星电子株式会社 | 用于基于面部动作单元识别个体的情绪的方法和设备 |
CN105266194A (zh) * | 2015-11-24 | 2016-01-27 | 云南中烟工业有限责任公司 | 一种卷烟感官质量的脸谱识别法 |
CN107979754A (zh) * | 2016-10-25 | 2018-05-01 | 百度在线网络技术(北京)有限公司 | 一种基于摄像头应用的测试方法和装置 |
CN108021847A (zh) * | 2016-11-02 | 2018-05-11 | 佳能株式会社 | 用于识别脸部表情的装置和方法、图像处理装置和系统 |
CN108140105A (zh) * | 2015-09-29 | 2018-06-08 | 比纳里虚拟现实技术有限公司 | 具有脸部表情检测能力的头戴式显示器 |
CN108876877A (zh) * | 2017-05-16 | 2018-11-23 | 苹果公司 | 表情符号人偶化 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN109409273A (zh) * | 2018-10-17 | 2019-03-01 | 中联云动力(北京)科技有限公司 | 一种基于机器视觉的运动状态检测评估方法及系统 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101510798B1 (ko) * | 2008-12-10 | 2015-04-10 | 광주과학기술원 | 휴대용 얼굴 표정 연습 장치와 그 방법. |
JP5621421B2 (ja) * | 2010-09-06 | 2014-11-12 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP5829390B2 (ja) * | 2010-09-07 | 2015-12-09 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
KR20120059994A (ko) | 2010-12-01 | 2012-06-11 | 삼성전자주식회사 | 표정 제어점을 이용한 아바타 제어 장치 및 방법 |
KR101287840B1 (ko) * | 2011-04-12 | 2013-07-19 | 충남대학교산학협력단 | 얼굴온도를 이용한 감정인식 장치, 감정인식 방법 및 그 기록매체 |
JP6244643B2 (ja) * | 2013-04-15 | 2017-12-13 | オムロン株式会社 | 表情推定装置、制御方法、制御プログラム、および記録媒体 |
US9348989B2 (en) | 2014-03-06 | 2016-05-24 | International Business Machines Corporation | Contemporaneous gesture and keyboard entry authentication |
US9607573B2 (en) | 2014-09-17 | 2017-03-28 | International Business Machines Corporation | Avatar motion modification |
CN107251096B (zh) * | 2014-11-10 | 2022-02-11 | 英特尔公司 | 图像捕获装置和方法 |
KR101606323B1 (ko) | 2015-07-01 | 2016-03-24 | 송석찬 | 증발식 쿨링패드의 지지조립체 및 그 조립방법 |
US11783627B2 (en) * | 2020-02-10 | 2023-10-10 | Massachusetts Institute Of Technology | Methods and apparatus for detecting and classifying facial motions |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040201586A1 (en) * | 2000-08-30 | 2004-10-14 | Microsoft Corporation | Facial image processing methods and systems |
WO2005073896A1 (en) * | 2004-02-02 | 2005-08-11 | Koninklijke Philips Electronics, N.V. | Continous face recognition with online learning |
CN1687957A (zh) * | 2005-06-02 | 2005-10-26 | 上海交通大学 | 结合局部搜索和活动外观模型的人脸特征点定位方法 |
CN1866271A (zh) * | 2006-06-13 | 2006-11-22 | 北京中星微电子有限公司 | 基于aam的头部姿态实时估算方法及系统 |
CN1949246A (zh) * | 2006-11-08 | 2007-04-18 | 中山大学 | 基于活动形状模型的多表情整脸轮廓检测方法 |
US20070229498A1 (en) * | 2006-03-29 | 2007-10-04 | Wojciech Matusik | Statistical modeling for synthesis of detailed facial geometry |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6272231B1 (en) * | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
US20020136433A1 (en) * | 2001-03-26 | 2002-09-26 | Koninklijke Philips Electronics N.V. | Adaptive facial recognition system and method |
KR20040007000A (ko) | 2002-07-16 | 2004-01-24 | 삼성전자주식회사 | 얼굴 포즈 정보와 가중치 스키마를 이용한 얼굴 인식 방법 |
KR100596559B1 (ko) | 2003-11-01 | 2006-07-04 | 학교법인연세대학교 | 3차원 얼굴 인식을 위한 오류 보상 특이치 분해 기반 얼굴포즈 추정 방법 |
US20060055706A1 (en) * | 2004-09-15 | 2006-03-16 | Perlman Stephen G | Apparatus and method for capturing the motion of a performer |
US7755619B2 (en) * | 2005-10-13 | 2010-07-13 | Microsoft Corporation | Automatic 3D face-modeling from video |
US7535472B2 (en) * | 2006-04-05 | 2009-05-19 | Seoul National University Industry Foundation | Method for generating intuitive quasi-eigen faces |
EP2030171A1 (en) * | 2006-04-10 | 2009-03-04 | Avaworks Incorporated | Do-it-yourself photo realistic talking head creation system and method |
US20080136814A1 (en) * | 2006-09-17 | 2008-06-12 | Chang Woo Chu | System and method for generating 3-d facial model and animation using one video camera |
KR100866792B1 (ko) | 2007-01-10 | 2008-11-04 | 삼성전자주식회사 | 확장 국부 이진 패턴을 이용한 얼굴 기술자 생성 방법 및장치와 이를 이용한 얼굴 인식 방법 및 장치 |
GB0702150D0 (en) * | 2007-02-05 | 2007-03-14 | Amegoworld Ltd | A Communication Network and Devices |
WO2009128783A1 (en) * | 2008-04-14 | 2009-10-22 | Xid Technologies Pte Ltd | An image synthesis method |
-
2008
- 2008-11-04 KR KR1020080108747A patent/KR101527408B1/ko active IP Right Grant
-
2009
- 2009-07-02 US US12/458,211 patent/US10783351B2/en active Active
- 2009-08-20 CN CN200910166603.8A patent/CN101739438B/zh active Active
- 2009-08-25 EP EP09168564.4A patent/EP2182469B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040201586A1 (en) * | 2000-08-30 | 2004-10-14 | Microsoft Corporation | Facial image processing methods and systems |
WO2005073896A1 (en) * | 2004-02-02 | 2005-08-11 | Koninklijke Philips Electronics, N.V. | Continous face recognition with online learning |
CN1687957A (zh) * | 2005-06-02 | 2005-10-26 | 上海交通大学 | 结合局部搜索和活动外观模型的人脸特征点定位方法 |
US20070229498A1 (en) * | 2006-03-29 | 2007-10-04 | Wojciech Matusik | Statistical modeling for synthesis of detailed facial geometry |
CN1866271A (zh) * | 2006-06-13 | 2006-11-22 | 北京中星微电子有限公司 | 基于aam的头部姿态实时估算方法及系统 |
CN1949246A (zh) * | 2006-11-08 | 2007-04-18 | 中山大学 | 基于活动形状模型的多表情整脸轮廓检测方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103168314A (zh) * | 2010-10-21 | 2013-06-19 | 三星电子株式会社 | 用于基于面部动作单元识别个体的情绪的方法和设备 |
CN103168314B (zh) * | 2010-10-21 | 2016-03-16 | 三星电子株式会社 | 用于基于面部动作单元识别个体的情绪的方法和设备 |
CN108140105A (zh) * | 2015-09-29 | 2018-06-08 | 比纳里虚拟现实技术有限公司 | 具有脸部表情检测能力的头戴式显示器 |
CN105266194A (zh) * | 2015-11-24 | 2016-01-27 | 云南中烟工业有限责任公司 | 一种卷烟感官质量的脸谱识别法 |
CN107979754A (zh) * | 2016-10-25 | 2018-05-01 | 百度在线网络技术(北京)有限公司 | 一种基于摄像头应用的测试方法和装置 |
CN108021847A (zh) * | 2016-11-02 | 2018-05-11 | 佳能株式会社 | 用于识别脸部表情的装置和方法、图像处理装置和系统 |
CN108021847B (zh) * | 2016-11-02 | 2021-09-14 | 佳能株式会社 | 用于识别脸部表情的装置和方法、图像处理装置和系统 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN108876877A (zh) * | 2017-05-16 | 2018-11-23 | 苹果公司 | 表情符号人偶化 |
CN109409273A (zh) * | 2018-10-17 | 2019-03-01 | 中联云动力(北京)科技有限公司 | 一种基于机器视觉的运动状态检测评估方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20100049776A (ko) | 2010-05-13 |
US20100109998A1 (en) | 2010-05-06 |
EP2182469B1 (en) | 2019-02-13 |
EP2182469A2 (en) | 2010-05-05 |
CN101739438B (zh) | 2014-08-06 |
KR101527408B1 (ko) | 2015-06-17 |
US10783351B2 (en) | 2020-09-22 |
EP2182469A3 (en) | 2014-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101739438B (zh) | 检测脸部表情的系统和方法 | |
Zhang et al. | Egogesture: a new dataset and benchmark for egocentric hand gesture recognition | |
CN111415461B (zh) | 物品识别方法及系统、电子设备 | |
Han et al. | Enhanced computer vision with microsoft kinect sensor: A review | |
KR102189205B1 (ko) | 사람의 활동 개요 생성 시스템 및 방법 | |
EP2877254B1 (en) | Method and apparatus for controlling augmented reality | |
Shao et al. | Computer vision and machine learning with RGB-D sensors | |
KR101507662B1 (ko) | 비디오 내 객체들의 시맨틱 파싱 | |
CN107683165B (zh) | 用于生成计算机模型的技术以及利用它们的设备、系统和方法 | |
Zhang et al. | Toward new retail: A benchmark dataset for smart unmanned vending machines | |
Mahbub et al. | A template matching approach of one-shot-learning gesture recognition | |
Lu et al. | A Delaunay-based temporal coding model for micro-expression recognition | |
KR102362470B1 (ko) | 족부 정보 처리 방법 및 장치 | |
Nambiar et al. | Shape context for soft biometrics in person re-identification and database retrieval | |
KR20190018274A (ko) | 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법 | |
CN113129249A (zh) | 基于深度视频的空间平面检测方法及其系统和电子设备 | |
JP6975312B2 (ja) | 不正推定システム、不正推定方法、及びプログラム | |
CN107533637B (zh) | 对有歧义的图像数据进行分类 | |
KR101614798B1 (ko) | 컬러 이미지 분석을 이용한 비접촉 멀티 터치 인식 방법 및 시스템 | |
Egger et al. | Pose normalization for eye gaze estimation and facial attribute description from still images | |
CN114821630A (zh) | 静态手势识别方法及其系统和电子设备 | |
TW201248456A (en) | Identifying contacts and contact attributes in touch sensor data using spatial and temporal features | |
Zhao et al. | Octree segmentation based calling gesture recognition for elderly care robot | |
CN112711324B (zh) | 基于tof相机的手势交互方法及其系统 | |
Saadat et al. | Efficient Face Detection And Identification In Networked Video Surveillance Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |