CN103782251A - 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法 - Google Patents

利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法 Download PDF

Info

Publication number
CN103782251A
CN103782251A CN201180071788.XA CN201180071788A CN103782251A CN 103782251 A CN103782251 A CN 103782251A CN 201180071788 A CN201180071788 A CN 201180071788A CN 103782251 A CN103782251 A CN 103782251A
Authority
CN
China
Prior art keywords
eye movement
movement pattern
user
time period
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201180071788.XA
Other languages
English (en)
Inventor
宋文娟
宋建平
杜琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN103782251A publication Critical patent/CN103782251A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

本发明涉及一种用于利用用户的眼球运动操作计算机设备的方法。所述方法包括以下步骤:检测用户的眼球运动,分析用户的眼球运动以指定检测到的用户的眼球运动中的眼球运动模式以及用于完成所述眼球运动模式的时间段,确定与眼球运动模式和时间段的组合相关联的命令,以及根据所述命令操作所述设备。

Description

利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法
技术领域
本发明涉及一种利用用户的眼球运动可操作的计算机设备和利用用户的眼球运动操作所述计算机设备的方法。
背景技术
电子图书(也被称为电子书籍、电子书或数字图书)被认为是以数字形式在计算机或其它数字设备上生成、发行和可阅读的基于文本和图像的发行物。通常在被称为电子阅读器或电子书设备的专用硬件设备上阅读电子书。诸如智能电话的计算机设备也可以用于阅读电子书。
随着更多人开始使用计算机设备阅读电子书,期望用于操作所述计算机设备的更方便的操作。
眼球跟踪是研究热点之一。眼球跟踪是测量眼球注视的点和用户的眼球相对于头部的动作的过程。存在用于测量眼球运动的许多方法。最流行的变体使用从其中提取眼球位置的视频图像。在许多人机交互应用中使用眼球注视的检测。存在侵入式和非侵入式两种方式以估计眼球注视。对于侵入式技术,用户需要佩戴头饰相机以将眼球的位置与相机上的屏幕的视图固定,或者使用相机上的红外光以检测眼球。对于非侵入式方式,用户仅需要简单的相机用于对用户的眼球成像并不必要佩戴任何其他设备。当前,诸如智能电话和便携式电子游戏机的大多数计算机设备具备用于对用户成像的相机并且可以作为电子阅读器。
运动模式分析(MPA)是基于非语言行为的严谨分析的、用于评估决策过程中个人的核心动机的综合系统。
在US20080143674A1中示出识别用户的眼球运动模式的眼球跟踪装置。
本发明的目的是提供利用用户的眼球运动来操作计算机设备的更方便的操作。
发明内容
根据本发明的一方面,提供一种利用用户的眼球运动可操作的计算机设备。所述计算机设备包括用于检测用户的眼球运动的部件,用于分析用户的眼球运动以指定检测到的用户的眼球运动中的眼球运动模式以及用于完成所述眼球运动模式的时间段的部件,用于确定与眼球运动模式和时间段的组合相关联的命令的部件,以及用于根据所述命令操作所述设备的部件。
根据本发明的另一方面,提供一种用于利用用户的眼球运动操作计算机设备的方法。所述方法包括下列步骤:检测用户的眼球运动,分析用户的眼球运动以指定检测到的用户的眼球运动中的眼球运动模式以及用于完成所述眼球运动模式的时间段,确定与眼球运动模式和时间段的组合相关联的命令,以及根据所述命令操作所述设备。
附图说明
根据与附图有关的下列描述,本发明的这些和其他方面、特征以及优点将变得清楚,附图中:
图1是根据本发明的实施例的计算机设备的示例框图;
图2A图示根据本发明的实施例的计算机设备的基本使用环境;
图2B图示除了增加的光学线与图2A中示出的相同的基本环境;
图3(a)到(c)图示用于从文本行的左边向右边阅读在计算机设备的显示器上呈现的页面上的一文本行的基本阅读过程;
图4(a)到(c)图示用于从页面的顶部向底部阅读在计算机设备的显示器上呈现的页面的基本阅读过程;
图5示出作为图4(a)到(c)中示出的用于阅读在计算机设备的显示器上呈现的页面的阅读过程的结果检测到的眼球运动模式;
图6图示根据图5中示出的眼球运动模式,如何将在计算机设备的显示器上示出的页面滚动到下一页面;
图7(a)到(f)示出根据本发明的眼球运动模式和用于完成所述眼球运动模式的时间段的不同种类的组合,所述组合生成用于操作计算机设备的不同种类的命令;
图8(a)到(c)图示在显示器上的不同位置跟踪的眼球运动模式;以及
图9是示出根据本发明的实施例的用于利用用户的眼球运动操作计算机设备的方法的流程图。
具体实施方式
在下列描述中,将描述本发明的实施例的各种方面。为了解释,阐述具体配置和细节以提供彻底理解。然而,本领域技术人员也清楚在没有这里呈现的具体细节的情况下也可以实践本发明。
图1图示根据本发明的实施例的计算机设备110的示例框图。计算机设备110可以是平板电脑、智能电话和电子阅读器等等。计算机设备110包括CPU(中央处理单元)111、眼球运动检测器112、贮存器113、显示器114和用户输入模块115。如图1中所示,诸如RAM(随机存取存储器)的存储器116可以连接到CPU111。
眼球运动检测器112是用于检测设备110的用户的眼球并监视眼球的运动和眼球注视的元件。眼球运动检测器112还被配置为检测和采集显示器114上的眼球注视位置并测量每次眼球注视的时间。为了眼球注视跟踪,眼球运动检测器112可以采用许多不同类型的技术。例如,眼球运动检测器112可以采用三个步骤以实现眼球注视跟踪:在第一步骤中,基于类哈尔特征检测用户面部上的眼球,在第二步骤中,使用Lucas Kanade算法执行眼球的动作的跟踪,在第三步骤中,使用高斯过程检测眼球注视。本领域技术人员将认识到上面描述的技术不是用于眼球注视跟踪的唯一解决方案,并且许多其他技术可以用于眼球注视跟踪。
显示器114被配置为向设备110的用户可视地呈现文本、图像、视频和任何其他内容。显示器114可以是触摸屏,使得除了用户输入模块115之外,其可以向用户提供在显示器114上操作设备110的可能性。
用户输入模块115可以包括设备110上的键或按钮以输入字符或命令,并且还包括识别利用键或按钮输入的所述字符或命令的功能。如果显示器114是触摸屏并且设备110被配置为可以在显示器114上输入字符和命令,则用户输入模块115可以是可选的。
如下面将解释的,贮存器113被配置为存储用于CPU111的软件程序和数据以驱动和操作眼球运动检测器112、显示器114和用户输入模块115。
图2A图示根据本发明的实施例的计算机设备的基本使用环境。图2B图示除了增加的光学线与图2A中示出的相同的基本环境。图2A和2B中,利用参考标号“11”指示图1中示出的计算机设备110。
图2A和2B示出用户12正在阅读或浏览在设备11的显示器上呈现的内容。设备11具备相机10,用于对用户12的面部成像以检测用户12的眼球并监视眼球的动作和眼球注视。相机10负责捕捉用户12的面部并且检测用户12的眼球注视点16。相机10可以是图1中示出的眼球运动检测器112的元件。
图2B中,虚线14表示相机10的视场或范围。用户注意力的一般区域由两根虚线15大致示出。
图3(a)到(c)图示用于从文本行的左边向右边阅读在设备11的显示器上呈现的页面上的一文本行的基本阅读过程。用户的左右眼20在阅读过程期间移动。如图3(a)中所示,注视点21在阅读过程开始时位于文本行的前面。然后,如图3(b)中所示,注视点22移动到文本行的中间,并且最后,如图3(c)中所示,注视点23移动到文本行的结尾。由眼球运动检测器112(图1)检测这些眼球运动并且测量文本行上每次眼球注视的时间段。通过由图1中示出的CPU111对在文本行上每次眼球注视的时间段求和来大致计算阅读一文本行的总时间。
图4(a)到(c)图示用于从页面的顶部向底部阅读在设备11的显示器上呈现的整个页面的基本阅读过程。如图4(a)所示,起初,用户30从文本行31的左边向右边阅读页面上的第一文本行31。然后,用户30从文本行32的左边向右边阅读第二文本行32,并且对于其他文本行重复相同的阅读过程(图4(b))。最后,用户30从文本行33的左边向右边阅读最后的文本行33(图4(c))。以参考图3(a)到(c)描述的相同的方式,由眼球运动检测器112(图1)检测在用户30阅读页面上的文本行期间的眼球运动,并且测量在文本行上每次眼球注视的时间段。通过由CPU111(图1)对在文本行上每次眼球注视的时间段求和来大致计算阅读页面的总时间。
作为阅读在图4(a)到(c)中示出的设备的显示器上呈现的页面的阅读过程的结果,由所述设备检测到如图5中图示的眼球运动模式。图5中示出的每个黑点指示用户的眼球注视点。箭头意指用户的眼球注视点的移动方向。如从图5中可以看出,用户的眼球注视点以锯齿形从每文本行的左边向右边并且从顶部文本行向底部文本行移动。
在图4(a)到(c)中示出的该基本阅读过程中,例如,设备11(图2A和2B)被配置为当用户从开头向结尾阅读显示器上的页面时将在显示器上呈现的页面翻转到下一页面。
这里将参考图1、5和6解释用于翻转显示器上的页面的操作机制。在设备110的贮存器113中,存储包括眼球运动模式和命令的表。在表中,每个命令与相应的眼球运动模式相关联。当如图6中的模块55中图示的用户50从开头向结尾阅读页面51时,使用CPU111和眼球运动检测器112检测到图5中示出的锯齿形眼球运动模式。然后,CPU111将所检测到的眼球运动模式与在贮存器113中存储的表中的眼球运动模式相比较。如果在表中找到与所检测到的眼球运动模式相匹配的眼球运动模式,则CPU111执行与表中所匹配的眼球运动模式相关联的命令。如果命令是“翻转显示器上的页面”,则如图6中的模块56中图示的由CPU111将显示器上的页面51滚动到下一页面52。根据本发明的实施例,如上所述可以利用由包括相机10(图2A和2B)的眼球运动检测器112(图1)检测到的用户的眼球运动将在设备的显示器上呈现的页面51翻转,然后,如图6中的模块57中所图示,用户50可以开始从开头54阅读下一页面52。
图7(a)到(f)示出根据本发明的眼球运动模式和用于完成眼球运动模式的时间段的不同种类的组合,所述组合生成用于操作计算机设备的不同种类的命令。
图7(a)图示其中眼球注视点从左边向右边移动的眼球运动模式。“左”命令与该眼球运动模式和用于完成该眼球运动模式的阈值时间段T的组合相关联。如果检测到该眼球运动模式并且用于完成所述眼球运动模式的时间段t小于预定阈值时间段T,则执行“左”命令,使得诸如电子书的内容的前一页面从左侧进入并在显示器上示出。
图7(b)示出其中眼球注视点从顶部向底部移动的眼球运动模式。“下一”命令与该眼球运动模式和用于完成该眼球运动模式的阈值时间段T的组合相关联。如果检测到该眼球运动模式并且用于完成所述眼球运动模式的时间段t小于预定阈值时间段T,则执行“下一”命令以在显示器上示出内容的下一页面。
图7(c)到(f)进一步示出不同的眼球运动模式。与如图7(a)和(b)中示出的情况相似,命令与该眼球运动模式和用于完成该眼球运动模式的阈值时间段T的组合相关联,并且如果检测到图7(c)到(f)中示出的眼球运动模式并且用于完成所述眼球运动模式的时间段t小于预定阈值时间段T,则执行对应的命令。在这些示例中,图7(c)中的眼球运动模式可以与用于指示正在显示器上呈现的内容的版本的“版本”命令相关联,图7(d)中的眼球运动模式可以与用于跳到内容的最后页面的“结尾”命令相关联,图7(e)中的眼球运动模式可以与用于跳到内容的第一页面的“首页”命令相关联以及图7(f)中的眼球运动模式可以与用于将正在显示器上呈现的内容旋转的“旋转”命令相关联。这些命令以及眼球运动模式和阈值时间段的组合彼此相关联并且存储在贮存器113(图1)中。
在上面描述的示例中,如果时间段t等于或大于T,则将不执行命令。认识到当时间段t满足T≤t时,用户仅阅读或观看显示器上的内容。
应注意更多不同的阈值时间段可以与眼球运动模式相关联。参考图7(a)作为示例,除了上面描述的阈值时间段T之外,阈值时间段T/2可以与眼球运动模式相关联。在该示例中,如果用于完成所检测到的眼球运动模式的时间段t满足t<T/2,则可以执行“左”命令,使得两个或更多前一页面从左侧进入并在显示器上示出所述页面,而如果时间段t满足2/T≤t<T,则在显示器上示出从左侧进入的单个前一页面。如从这些示例中可以看出,通过将多个阈值时间段与单个眼球运动模式相关联,使用单个眼球运动模式可以生成多个命令。
此外,应注意,除了一个或多个阈值时间段之外,要跟踪的眼球运动模式在显示器上的不同位置可以与眼球运动模式相关联。
图8(a)到(c)图示在显示器上的不同位置处跟踪到眼球运动模式。示出在显示器的左侧上(图8(a))、在显示器的中间(图8(b))和在显示器的右侧上(图8(a))跟踪到眼球运动模式。
假设阈值时间段T与其中眼球注视点从顶部向底部移动的眼球运动模式相关联,例如,“字体大小”命令可以与眼球运动模式、用于完成该眼球运动模式的阈值时间段T以及在显示器上跟踪到的眼球运动模式的位置(如图8(a)中示出的左侧位置)的组合相关联,“下一”命令可以与眼球运动模式、用于完成该眼球运动模式的阈值时间段T以及在显示器上跟踪到的眼球运动模式的位置(如图8(b)中示出的中间位置)的组合相关联,以及“缩放”命令可以与眼球运动模式、用于完成该眼球运动模式的阈值时间段T以及在显示器上跟踪到的眼球运动模式的位置(如图8(c)中示出的右侧位置)的组合相关联。
在检测到如图8(a)到(c)中示出的眼球运动模式并且用于完成所述眼球运动模式的时间段t小于预定阈值时间段T的情况下;
1)如果如图8(a)中所示在显示器的左侧上跟踪到眼球运动模式,则执行“字体大小”命令以允许用户调整显示器上的字体大小;
2)如果如图8(b)中所示在显示器的中间跟踪到眼球运动模式,则执行“下一”命令以在显示器上示出内容的下一页面;以及
3)如果如图8(c)中所示在显示器的右侧上跟踪到眼球运动模式,则执行“缩放”命令以放大显示器上的内容。
当然,更多不同的阈值时间段可以与眼球运动模式的不同位置中的每一个相关联。与不同阈值时间段或眼球运动模式的不同位置与单个眼球运动模式相关联的情况相比较,通过将不同阈值时间段和显示器上眼球运动模式的不同位置与单个眼球运动模式相关联可以使用单个眼球运动模式生成更多命令。
眼球运动模式和阈值时间段的不同组合存储在贮存器113(图1)中。每种组合可以包括显示器上眼球运动模式的位置。此外,不同命令以所述不同命令与贮存器113中的相应的组合相关联的状态存储的贮存器113中。这些不同组合和与它们相关联的命令可以以表格式存储在贮存器中。
应注意,显示器上由用户形成的眼球运动模式可以不与图7和8中指示的眼球运动模式中的一种完全相同,并且在本发明的上述实施例中,即使与其基准眼球运动模式相比眼球运动模式在一定容限范围内变形,也可以检测到眼球运动模式。
此外,应注意,关于显示器的大小,图7和8中示出的每种眼球运动模式的相对大小不限于图7和8中图示的示例。只要设备可以检测到眼球运动模式,显示器上的眼球运动模式就可以是任何大小。
图9是示出根据本发明的实施例的用于利用用户的眼球运动操作计算机设备的方法的流程图。下面将参考图1和9描述用于操作计算机设备的方法。
在步骤S102,通过设备110的眼球运动检测器112检测到计算机设备110的用户的眼球运动。在该步骤中,由眼球运动寄检测器112检测到设备110的用户的眼球并监视眼球的动作和眼球注视。此外,由眼球运动检测器112检测到显示器114上的每个眼球注视位置并测量每次眼球注视的时间。
在步骤S104,由设备110的CPU111分析所检测到的用户的眼球运动。在该步骤中,由设备110的CPU111指定在所检测到的眼球运动中包括的眼球运动模式和用于完成所述眼球运动模式的时间段。CPU111通过将所检测到的眼球运动与存储在贮存器113中的眼球运动模式相比较而确定眼球运动模式。如果指定眼球运动模式,则CPU111通过计算用于所指定的眼球运动模式的总眼球注视时间而指定用于完成所指定的眼球运动模式的时间段。在该步骤中,还可以由CPU111指定显示器114上所指定的眼球运动模式的位置。
在步骤S106,由CPU111确定与眼球运动模式和用于眼球运动模式的阈值时间段的组合相关联的命令。在该步骤中,CPU111搜索贮存器113以找到与所指定的眼球运动模式相匹配的眼球运动模式。然后,CPU111确定用于完成所指定的眼球运动模式的所指定的时间段是否满足与所匹配的眼球运动模式相关联的预定阈值时间段。如果所指定的时间段满足预定阈值时间段,则由CPU111确定与所匹配的眼球运动模式和用于所匹配的眼球运动模式的预定阈值时间段的组合相关联的命令。
在步骤S106中,如果显示器上眼球运动模式的位置也与眼球运动模式和阈值时间段的组合相关联,并且由CPU111指定显示器114上所指定的眼球运动模式的位置,则由CPU111确定与包括所匹配的眼球运动模式、用于所匹配的眼球运动模式的阈值时间段以及显示器上所匹配的眼球运动模式的位置的三个要素的组合相关联的命令。
在步骤S108中,CPU111执行所确定的命令,并且然后根据所述命令操作计算机设备110。
相关领域普通技术人员基于这里的教导可以容易地确定本原理的这些和其他特征以及优点。应理解本原理的教导可以以硬件、软件、固件、专用处理器或其组合的各种形式实现。
更优选地,本原理的教导被实现为硬件和软件的组合。此外,软件可以实现为在程序贮存单元上有形地实施的应用程序。可以将应用程序上载到包括任何适当架构的机器,并由所述机器执行该应用程序。优选地,机器在具有诸如一个或多个中央处理单元(“CPU”)、随机存取存储器(“RAM”)和输入/输出(“I/O”)接口的硬件的计算机平台上实现。计算机平台还可以包括操作系统和微指令代码。这里描述的各种处理和功能可以是可以由CPU执行的微指令代码的部分或应用程序的部分或其任何组合。此外,各种其他外围单元可以连接到诸如附加的数据贮存单元的计算机平台。
应进一步理解,因为附图中描绘的组成系统组件和方法中的一些优选地在软件中实现,取决于对本原理进行编程的方式,系统组件或处理功能块之间的实际连接可能不同。鉴于这里的教导,相关领域普通技术人员将能够设想这些和相似实现方式或本原理的配置。
虽然这里已参考附图描述了图示的实施例,应理解本原理不限于那些精确的实施例,并且相关领域普通技术人员可以在不背离本原理的范围或精神的情况下,在其中实现各种改变和修改。如在所附权利要求中阐述的本原理的范围包括全部这种改变和修改。

Claims (13)

1.一种利用用户的眼球运动可操作的计算机设备(110),所述设备包括:
用于检测(112)所述用户的眼球运动的部件;
用于分析(111)所述用户的眼球运动以指定所检测到的用户的眼球运动中的眼球运动模式以及用于完成所述眼球运动模式的时间段的部件;
用于确定(111)与所述眼球运动模式和所述时间段的组合相关联的命令的部件;以及
用于根据所述命令操作(111)所述设备的部件。
2.如权利要求1所述的设备,其中所述设备(110)还包括用于存储(113)眼球运动模式和用于所述眼球运动模式的时间段的不同组合,以及与相应的组合相关联的不同命令的部件。
3.如权利要求2所述的设备,
其中所述检测部件(112)被配置为收集所述用户的眼球注视位置,
其中所述分析部件(111)被配置为:
确定所收集的用户的眼球注视位置是否与存储在所述贮存部件(113)中的不同组合中的任何眼球运动模式一致;以及
确定用于完成所述眼球运动模式的时间段。
4.如权利要求2所述的设备,其中所述设备(110)还包括显示器(114),其中所述分析部件(111)被配置为识别所检测到的显示器上眼球运动模式的位置,并且其中所述相应的组合还包括所述显示器上眼球运动模式的位置,
其中所述检测部件(112)被配置为收集所述用户的眼球注视位置,
其中所述分析部件(111)被配置为:
确定所收集的用户的眼球注视位置是否与存储在所述贮存器(113)中的不同组合中的任何眼球运动模式一致;以及
确定用于完成所述眼球运动模式的时间段;并且
其中所述确定部件(111)确定与所述眼球运动模式、所述时间段和所述显示器上眼球运动模式的位置的组合相关联的命令。
5.一种利用用户的眼球运动可操作的计算机设备(110),所述设备包括:
检测器(112),用于检测所述用户的眼球运动;以及
处理器(111),被配置为:
分析所述用户的眼球运动以指定所检测到的用户的眼球运动中的眼球运动模式和用于完成所述眼球运动模式的时间段;
确定与所述眼球运动模式和所述时间段的组合相关联的命令;以及
根据所述命令操作所述设备。
6.如权利要求5所述的设备,其中所述设备还包括贮存器(113),用于存储眼球运动模式和用于所述眼球运动模式的时间段的不同组合,以及与相应的组合相关联的不同命令。
7.如权利要求6所述的设备,其中所述检测器(112)被配置为收集所述用户的眼球注视位置,
其中所述处理器(111)被进一步配置为:
确定所收集的用户的眼球注视位置是否与存储在所述贮存器(113)中的不同组合中的任何眼球运动模式一致;以及
确定用于完成所述眼球运动模式的时间段。
8.如权利要求6所述的设备,其中所述设备还包括显示器(114),其中所述处理器(111)被配置为识别所检测到的显示器上眼球运动模式的位置,并且其中所述相应的组合还包括所述显示器上眼球运动模式的位置,
其中所述检测器(112)被配置为收集所述用户的眼球注视位置,
其中所述处理器(111)被进一步配置为:
确定所收集的用户的眼球注视位置是否与存储在所述贮存器(113)中的不同组合中的任何眼球运动模式一致;以及
确定用于完成所述眼球运动模式的时间段;以及
确定与所述眼球运动模式、所述时间段和所述显示器上眼球运动模式的位置的组合相关联的命令。
9.一种用于利用用户的眼球运动操作计算机设备的方法,所述方法包括下列步骤:
检测(S102)所述用户的眼球运动;
分析(S104)所述用户的眼球运动以指定所检测到的用户的眼球运动中的眼球运动模式以及用于完成所述眼球运动模式的时间段;
确定(S106)与所述眼球运动模式和所述时间段的组合相关联的命令;以及
根据所述命令操作(S108)所述设备。
10.如权利要求9所述的方法,其中所述设备包括贮存器,其中眼球运动模式和用于所述眼球运动模式的时间段的不同组合,以及与相应的组合相关联的不同命令存储在所述贮存器中。
11.如权利要求10所述的方法,其中所述检测步骤(S102)包括收集所述用户的眼球注视位置;
其中所述分析步骤(S104)包括:
确定所收集的用户的眼球注视位置是否与存储在所述贮存器中的不同组合中的任何眼球运动模式一致;以及
确定用于完成所述眼球运动模式的时间段。
12.如权利要求10所述的方法,其中所述设备包括显示器,其中所述分析步骤(S104)进一步识别所检测到的显示器上眼球运动模式的位置,并且其中所述相应的组合还包括所述显示器上眼球运动模式的位置,
其中所述检测步骤(S102)包括收集所述用户的眼球注视位置,
其中所述分析步骤(S104)包括:
确定所收集的用户的眼球注视位置是否与存储在所述贮存器中的不同组合中的任何眼球运动模式一致;以及
确定用于完成所述眼球运动模式的时间段;并且
其中所述确定步骤(S106)包括确定与所述眼球运动模式、所述时间段和所述显示器上眼球运动模式的位置的组合相关联的命令。
13.一种由计算机可读的贮存介质,所述贮存介质存储用于利用用户的眼球运动可操作的计算机设备(110)的程序,所述设备包括:
检测器(112),用于检测所述用户的眼球运动;以及
处理器(111),
所述程序使得所述处理器(111):
通过所述检测器检测(S102)所述用户的眼球运动;
分析(S104)所述用户的眼球运动以指定所检测到的用户的眼球运动中的眼球运动模式和用于完成所述眼球运动模式的时间段;
确定(S106)与所述眼球运动模式和所述时间段的组合相关联的命令;以及
根据所述命令操作(S108)所述设备。
CN201180071788.XA 2011-06-24 2011-06-24 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法 Pending CN103782251A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/076288 WO2012174743A1 (en) 2011-06-24 2011-06-24 Computer device operable with user's eye movement and method for operating the computer device

Publications (1)

Publication Number Publication Date
CN103782251A true CN103782251A (zh) 2014-05-07

Family

ID=47422002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180071788.XA Pending CN103782251A (zh) 2011-06-24 2011-06-24 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法

Country Status (6)

Country Link
US (1) US9411416B2 (zh)
EP (1) EP2724209B1 (zh)
JP (1) JP5885835B2 (zh)
KR (1) KR20140041570A (zh)
CN (1) CN103782251A (zh)
WO (1) WO2012174743A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317396A (zh) * 2014-10-10 2015-01-28 宇龙计算机通信科技(深圳)有限公司 一种屏幕自动形变的方法、装置及终端设备
CN104793732A (zh) * 2015-01-04 2015-07-22 北京君正集成电路股份有限公司 一种智能眼镜的操作方法及智能眼镜
CN106528689A (zh) * 2016-10-24 2017-03-22 北京小米移动软件有限公司 页面内容的展示方法及装置、电子设备

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140105479A (ko) * 2011-12-23 2014-09-01 톰슨 라이센싱 전력-소비 관리를 가진 컴퓨터 디바이스 및 컴퓨터 디바이스의 전력-소비 관리를 위한 방법
US10884577B2 (en) 2013-01-15 2021-01-05 Poow Innovation Ltd. Identification of dynamic icons based on eye movement
JP2015014938A (ja) * 2013-07-05 2015-01-22 由田新技股▲分▼有限公司 車内アイコントロール方法、およびその方法を実現する電子デバイス
JP6213027B2 (ja) * 2013-08-06 2017-10-18 富士通株式会社 精読判断装置、精読判断方法及び精読判断プログラム
US10310597B2 (en) 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
US9710058B2 (en) 2013-09-03 2017-07-18 Tobii Ab Portable eye tracking device
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US10026095B2 (en) * 2013-09-10 2018-07-17 Chian Chiu Li Systems and methods for obtaining and utilizing user reaction and feedback
JP6115418B2 (ja) * 2013-09-11 2017-04-19 富士通株式会社 情報処理装置、方法及びプログラム
TWI550438B (zh) * 2013-10-04 2016-09-21 由田新技股份有限公司 記錄閱讀行爲的方法及裝置
US10878446B2 (en) * 2014-08-18 2020-12-29 Chian Chiu Li Systems and methods for obtaining and utilizing user reaction and feedback
JP6038089B2 (ja) * 2014-09-22 2016-12-07 京セラドキュメントソリューションズ株式会社 文書閲覧装置、文書閲覧装置の制御方法
US9529432B2 (en) * 2014-12-22 2016-12-27 Rakuten Kobo, Inc. Progressive page transition feature for rendering e-books on computing devices
CN107430856B (zh) * 2015-03-23 2021-02-19 索尼公司 信息处理系统和信息处理方法
US11470365B2 (en) 2016-03-17 2022-10-11 Melanie Schulz Video reader with music word learning feature
US11544359B2 (en) * 2016-11-08 2023-01-03 Proprius Technolgies S.A.R.L Unique patterns extracted from involuntary eye motions to identify individuals
KR102518653B1 (ko) * 2017-12-13 2023-04-06 현대자동차주식회사 사용자 사용 언어 방향에 따라 디스플레이 환경을 구성하는 디스플레이 제어 장치 및 그 방법
US20220253136A1 (en) * 2021-02-11 2022-08-11 Apple Inc. Methods for presenting and sharing content in an environment
US11775060B2 (en) * 2021-02-16 2023-10-03 Athena Accessible Technology, Inc. Systems and methods for hands-free scrolling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101291364A (zh) * 2008-05-30 2008-10-22 深圳华为通信技术有限公司 一种移动通信终端的交互方法、装置及移动通信终端
CN101681201A (zh) * 2008-01-25 2010-03-24 松下电器产业株式会社 脑波接口系统、脑波接口装置、方法及计算机程序
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
WO1993014454A1 (en) * 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5517021A (en) * 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JP3359948B2 (ja) 1993-03-31 2002-12-24 株式会社東芝 資料呈示装置及び方法
US5835083A (en) * 1996-05-30 1998-11-10 Sun Microsystems, Inc. Eyetrack-driven illumination and information display
JP2000010722A (ja) 1998-06-18 2000-01-14 Mr System Kenkyusho:Kk 視線ユーザ・インタフェース装置、そのインタフェース方法、コンピュータ装置、その制御方法、およびプログラム記憶媒体
JP3567084B2 (ja) 1998-06-30 2004-09-15 シャープ株式会社 電子ブック装置
US6106119A (en) * 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
US6195640B1 (en) 1999-01-29 2001-02-27 International Business Machines Corporation Audio reader
US6873314B1 (en) * 2000-08-29 2005-03-29 International Business Machines Corporation Method and system for the recognition of reading skimming and scanning from eye-gaze patterns
JP2003162356A (ja) * 2001-11-28 2003-06-06 Nec Corp スクロール制御装置及びその方法並びにそれを用いた通信端末
US7365738B2 (en) 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
US20110077548A1 (en) * 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
JP2006107048A (ja) 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 視線対応制御装置および視線対応制御方法
WO2006100645A2 (en) 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
CN1293446C (zh) * 2005-06-02 2007-01-03 北京中星微电子有限公司 一种非接触式目控操作系统和方法
US7438414B2 (en) * 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
US9213404B2 (en) * 2006-02-01 2015-12-15 Tobii Technology Ab Generation of graphical feedback in a computer system
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
JP4685708B2 (ja) 2006-05-22 2011-05-18 富士通株式会社 携帯端末装置
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
CN101308400A (zh) 2007-05-18 2008-11-19 肖斌 基于眼动和头动检测的新型人机交互装置
US8122384B2 (en) * 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
JP2009075937A (ja) 2007-09-21 2009-04-09 Victor Co Of Japan Ltd 機器動作設定装置
KR20090127779A (ko) 2008-06-09 2009-12-14 김영규 동공 인식을 이용한 속독 기술
JP5289889B2 (ja) 2008-10-24 2013-09-11 シャープ株式会社 表示装置、表示装置の制御方法、表示装置を制御するためのプログラム
US9841811B2 (en) * 2008-11-03 2017-12-12 Bruce Reiner Visually directed human-computer interaction for medical applications
CN101441513B (zh) 2008-11-26 2010-08-11 北京科技大学 一种利用视觉进行非接触式人机交互的系统
US8255827B2 (en) * 2009-01-26 2012-08-28 Microsoft Corporation Dynamic feature presentation based on vision detection
US20120105486A1 (en) * 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
WO2012036324A1 (ko) * 2010-09-13 2012-03-22 엘지전자 주식회사 이동 단말기 및 그 동작 제어 방법
JP5558983B2 (ja) 2010-09-15 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 画面表示装置、画面表示制御方法及び画面表示制御プログラム並びに情報端末装置
US8655796B2 (en) * 2011-06-17 2014-02-18 Sanjay Udani Methods and systems for recording verifiable documentation
US8451246B1 (en) * 2012-05-11 2013-05-28 Google Inc. Swipe gesture classification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101681201A (zh) * 2008-01-25 2010-03-24 松下电器产业株式会社 脑波接口系统、脑波接口装置、方法及计算机程序
CN101291364A (zh) * 2008-05-30 2008-10-22 深圳华为通信技术有限公司 一种移动通信终端的交互方法、装置及移动通信终端
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MILEKIC, SLAVKO: "《The More You Look The More You Get: Intention-Based Interface Using Gaze-Tracking》", 《MUSEUMS AN THE WEB 2003》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317396A (zh) * 2014-10-10 2015-01-28 宇龙计算机通信科技(深圳)有限公司 一种屏幕自动形变的方法、装置及终端设备
CN104317396B (zh) * 2014-10-10 2017-11-17 宇龙计算机通信科技(深圳)有限公司 一种屏幕自动形变的方法、装置及终端设备
CN104793732A (zh) * 2015-01-04 2015-07-22 北京君正集成电路股份有限公司 一种智能眼镜的操作方法及智能眼镜
CN106528689A (zh) * 2016-10-24 2017-03-22 北京小米移动软件有限公司 页面内容的展示方法及装置、电子设备
CN106528689B (zh) * 2016-10-24 2019-11-01 北京小米移动软件有限公司 页面内容的展示方法及装置、电子设备

Also Published As

Publication number Publication date
KR20140041570A (ko) 2014-04-04
US9411416B2 (en) 2016-08-09
US20140125585A1 (en) 2014-05-08
JP2014517429A (ja) 2014-07-17
EP2724209A4 (en) 2014-11-26
WO2012174743A1 (en) 2012-12-27
JP5885835B2 (ja) 2016-03-16
EP2724209A1 (en) 2014-04-30
EP2724209B1 (en) 2019-07-31

Similar Documents

Publication Publication Date Title
CN103782251A (zh) 利用用户的眼球运动可操作的计算机设备和操作该计算机设备的方法
US9672421B2 (en) Method and apparatus for recording reading behavior
US20200249751A1 (en) User input processing with eye tracking
US20160062456A1 (en) Method and apparatus for live user recognition
Magdin et al. Real time facial expression recognition using webcam and SDK affectiva
KR20150096319A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
CN105631399A (zh) 用于体育视频识别的快速对象跟踪框架
CN110476141A (zh) 视线跟踪方法及用于执行该方法的用户终端
KR101455200B1 (ko) 학습 모니터링 장치 및 학습 모니터링 방법
CN104615991A (zh) 指纹感测装置、电子产品及其指纹感测方法
EP3699808B1 (en) Facial image detection method and terminal device
CN104463145A (zh) 一种电子设备及障碍提醒方法
CN103608761A (zh) 输入设备、输入方法以及记录介质
CN110476180A (zh) 用于提供基于文本阅读的奖励型广告服务的方法及用于实行该方法的用户终端
EP2779087A1 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
EP2926721A1 (en) Information processing technique for eye gaze movements
US20120229373A1 (en) Image display control apparatus including image shooting unit
US11335044B2 (en) Display system of a wearable terminal, display method of the wearable terminal, and program
CN104714736A (zh) 一种退出全屏锁定状态的控制方法及终端
CN114332990A (zh) 一种情绪识别方法、装置、设备及介质
KR102213865B1 (ko) 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체
JP2014071818A (ja) 二次元コード読取装置および二次元コード読取方法
JP4116858B2 (ja) 視線測定精度評価装置、視線測定精度評価方法、視線測定精度評価プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US11250242B2 (en) Eye tracking method and user terminal performing same
EP4239600A1 (en) Systems and methods for contactless estimation of ring size

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20180126