KR102213725B1 - Tracking head movement when wearing mobile device - Google Patents

Tracking head movement when wearing mobile device Download PDF

Info

Publication number
KR102213725B1
KR102213725B1 KR1020167002022A KR20167002022A KR102213725B1 KR 102213725 B1 KR102213725 B1 KR 102213725B1 KR 1020167002022 A KR1020167002022 A KR 1020167002022A KR 20167002022 A KR20167002022 A KR 20167002022A KR 102213725 B1 KR102213725 B1 KR 102213725B1
Authority
KR
South Korea
Prior art keywords
hmd
end user
head position
head
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020167002022A
Other languages
Korean (ko)
Other versions
KR20160022921A (en
Inventor
나단 애커먼
드류 스티들리
앤디 호지
알렉스 아벤-아타르 키프만
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20160022921A publication Critical patent/KR20160022921A/en
Application granted granted Critical
Publication of KR102213725B1 publication Critical patent/KR102213725B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

헤드 마운트형 디스플레이 디바이스(HMD)에 대한 HMD의 엔드 유저의 머리 위치를 추적하기 위한 방법이 설명된다. 몇몇 실시형태에서, HMD는 HMD에 대한 엔드 유저의 초기 머리 위치와 관련되는 초기 머리 추적용 벡터를 결정하고, HMD에 대한 엔드 유저의 하나 이상의 후속하는 머리 위치와 대응하는 하나 이상의 머리 추적용 벡터를 결정하고, 초기 머리 추적용 벡터 및 하나 이상의 머리 추적용 벡터에 기초하여 시간이 지남에 따른 엔드 유저의 머리 움직임을 추적하고, 그리고 머리 움직임에 기초하여 엔드 유저에게 디스플레이되는 가상 오브젝트의 위치를 조정할 수도 있다. 몇몇 실시형태에서, 생성되어 엔드 유저에게 디스플레이되는 가상 오브젝트의 해상도 및/또는 수는, HMD에 대한 엔드 유저의 머리 움직임의 정도에 기초하여 수정될 수도 있다.A method for tracking the head position of an end user of an HMD relative to a head mounted display device (HMD) is described. In some embodiments, the HMD determines an initial head tracking vector associated with the end user's initial head position relative to the HMD, and calculates one or more head tracking vectors corresponding to the end user's one or more subsequent head positions relative to the HMD. It is also possible to determine and track the end user's head movement over time based on the initial head tracking vector and one or more head tracking vectors, and adjust the position of the virtual object displayed to the end user based on the head movement. have. In some embodiments, the resolution and/or number of virtual objects created and displayed to the end user may be modified based on the degree of head movement of the end user relative to the HMD.

Figure 112016007604277-pct00016
Figure 112016007604277-pct00016

Description

모바일 디바이스 착용 시의 머리 움직임 추적{TRACKING HEAD MOVEMENT WHEN WEARING MOBILE DEVICE}Tracking head movement when wearing a mobile device {TRACKING HEAD MOVEMENT WHEN WEARING MOBILE DEVICE}

증강 현실(augmented reality; AR)은, 컴퓨터 생성 가상 데이터(computer-generated virtual data)를 이용하여 현실 세계 환경(real-world environment)(또는 현실 세계 환경을 나타내는 데이터)의 인식(perception)이 증강되거나 수정되는 증강된 현실 세계 환경을 제공하는 것에 관련이 있다. 예를 들면, 현실 세계 환경을 나타내는 데이터는, 카메라 또는 마이크와 같은 감각(sensory) 입력 디바이스를 사용하여 현실 세계 환경에서 캡쳐되고, 가상 이미지 및 가상 사운드를 포함하는 컴퓨터 생성 가상 데이터를 이용하여 증강될 수도 있다. 가상 데이터는 또한, 현실 세계 환경에 관련되는 정보 예컨대 현실 세계 환경에서의 현실 세계 오브젝트와 관련되는 텍스트 설명을 포함할 수도 있다. AR 환경 내에서의 오브젝트는 실제 오브젝트(즉, 특정한 현실 세계 환경 내에서 존재하는 오브젝트) 및 가상 오브젝트(즉, 특정한 현실 세계 환경 내에서 존재하지 않는 오브젝트)를 포함할 수도 있다.In augmented reality (AR), perception of a real-world environment (or data representing a real-world environment) is augmented by using computer-generated virtual data. It relates to providing a modified augmented real-world environment. For example, data representing the real-world environment may be captured in the real-world environment using a sensory input device such as a camera or microphone, and augmented using computer-generated virtual data including virtual images and virtual sounds. May be. The virtual data may also include information relating to the real world environment, such as textual descriptions relating to real world objects in the real world environment. Objects in the AR environment may include real objects (ie, objects that exist in a specific real-world environment) and virtual objects (ie, objects that do not exist in a specific real-world environment).

가상 오브젝트를 AR 환경에 현실적으로 통합하기 위해, AR 시스템은 매핑 및 로컬라이제이션(localization)을 포함하는 여러 작업을 통상적으로 수행한다. 매핑은 현실 세계 환경의 맵을 생성하는 프로세스에 관련이 있다. 로컬라이제이션은, 현실 세계 환경의 맵에 대한 특정한 견지(point of view) 또는 포즈(pose)를 위치 결정하는 프로세스에 관련이 있다. 몇몇 경우에서, 현실 세계 환경 내에서 모바일 디바이스가 이동할 때 증강될 필요가 있는 모바일 디바이스와 관련되는 특정 뷰를 결정하기 위해, AR 시스템은 현실 세계 환경 내에서 이동하고 있는 모바일 디바이스의 포즈를 실시간으로 로컬라이징할 수도 있다.In order to realistically integrate virtual objects into the AR environment, AR systems typically perform several tasks including mapping and localization. Mapping relates to the process of creating a map of the real world environment. Localization relates to the process of locating a specific point of view or pose on a map of the real world environment. In some cases, in order to determine a specific view associated with the mobile device that needs to be augmented as the mobile device moves within the real world environment, the AR system localizes the pose of the mobile device moving within the real world environment in real time. You may.

시간이 지남에 따라 헤드 마운트형 디스플레이 디바이스(head-mounted display device; HMD)에 대한 HMD의 엔드 유저의 머리 위치(position)를 추적하기 위한 기술이 설명된다. 몇몇 실시형태에서, HMD는 HMD에 대한 엔드 유저의 초기 머리 위치를 결정하고, HMD에 대한 엔드 유저의 하나 이상의 후속하는 머리 위치를 결정하고, 하나 이상의 후속하는 머리 위치에 기초하여 시간이 지남에 따라 엔드 유저의 머리 움직임을 추적하고, 그리고 엔드 유저의 머리 움직임에 기초하여 엔드 유저에게 디스플레이되는 가상 오브젝트의 로케이션(location)을 조정할 수도 있다. 몇몇 실시형태에서, 생성되어 엔드 유저에게 디스플레이되는 가상 오브젝트의 해상도 및/또는 수는, HMD에 대한 엔드 유저의 머리 움직임의 정도에 기초하여 수정될 수도 있다.A technique for tracking the end user's head position of an HMD relative to a head-mounted display device (HMD) over time is described. In some embodiments, the HMD determines an end user's initial head position relative to the HMD, determines one or more subsequent head positions of the end user relative to the HMD, and over time based on the one or more subsequent head positions. It is also possible to track the movement of the end user's head and adjust the location of the virtual object displayed to the end user based on the movement of the end user's head. In some embodiments, the resolution and/or number of virtual objects created and displayed to the end user may be modified based on the degree of head movement of the end user relative to the HMD.

이 개요는 하기 상세한 설명에서 더 설명되는 개념의 선택을 간소화된 형태로 소개하기 위해 제공된다. 이 개요는 청구된 주제의 주요한 특징 또는 본질적인 특징을 식별하도록 의도된 것도 아니고, 청구된 주제의 범위를 결정함에 있어서 보조로서 사용되도록 의도된 것도 아니다.This summary is provided to introduce in a simplified form a selection of concepts that are further described in the detailed description below. This summary is not intended to identify major or essential features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.

도 1은, 개시된 기술이 실시될 수 있는 네트워킹된 컴퓨팅 환경의 일 실시형태의 블록도이다.
도 2a는 제2 모바일 디바이스와 통신하는 모바일 디바이스의 일 실시형태를 묘사한다.
도 2b는 HMD의 일부의 일 실시형태를 묘사한다.
도 2c는, 먼(far) 동공간 거리(far inter-pupillary distance; IPD)를 정렬시키기 위한, 응시점(point of gaze)으로 연장하는 응시 벡터(gaze vector)가 사용되는 HMD의 일부의 일 실시형태를 묘사한다.
도 2d는, 가까운(near) 동공간 거리(IPD)를 정렬시키기 위한, 응시점으로 연장하는 응시 벡터가 사용되는 HMD의 일부의 일 실시형태를 묘사한다.
도 3a는 응시 검출 엘리먼트를 포함하는 이동가능한 디스플레이 광학 시스템을 구비하는 HMD의 일부의 일 실시형태를 묘사한다.
도 3b는 응시 검출 엘리먼트를 포함하는 이동가능한 디스플레이 광학 시스템을 구비하는 HMD의 일부의 대안적 실시형태를 묘사한다.
도 4a는 엔드 유저에 의해 착용된 HMD의 일 실시형태를 묘사한다.
도 4b는 HMD와 통합되는 내향 카메라(inward facing camera)를 사용하여 촬영된 이미지의 쌍을 묘사한다.
도 4c는 엔드 유저의 눈(eye)과 대응하는 특징점(feature point)의 식별을 묘사한다.
도 4d는 HMD에 관해 위치된 엔드 유저의 눈의 3D 모델을 묘사한다.
도 4e는 HMD와 통합되는 내향 카메라를 사용하여 촬영된 이미지의 제2 쌍을 묘사한다.
도 4f는 엔드 유저의 눈과 대응하는 특징점의 식별을 묘사한다.
도 4g는 HMD에 관해 위치된 엔드 유저의 눈의 업데이트된 3D 모델을 묘사한다.
도 4h는 시간이 지남에 따른 엔드 유저의 눈 위치에서의 변경의 표현의 일 실시형태를 묘사한다.
도 5는 HMD에 대한 HMD의 엔드 유저의 머리 위치를 추적하기 위한 그리고 HMD에 대한 머리 위치에 기초하여 가상 오브젝트의 위치를 조정하기 위한 방법의 일 실시형태를 설명하는 플로우차트이다.
도 6은 HMD에 대한 HMD의 엔드 유저의 머리 위치를 추적하기 위한 방법의 대안적 실시형태를 설명하는 플로우차트이다.
도 7은 모바일 디바이스의 일 실시형태의 블록도이다.
1 is a block diagram of an embodiment of a networked computing environment in which the disclosed techniques may be practiced.
2A depicts an embodiment of a mobile device in communication with a second mobile device.
2B depicts an embodiment of a portion of an HMD.
Figure 2c is an implementation of a portion of an HMD in which a gaze vector extending to a point of gaze is used to align the far inter-pupillary distance (IPD). Describe the form.
2D depicts an embodiment of a portion of an HMD in which a gaze vector extending to a gaze point is used to align near pupillary distance (IPD).
3A depicts one embodiment of a portion of an HMD with a movable display optical system including a gaze detection element.
3B depicts an alternative embodiment of a portion of an HMD with a movable display optical system including a gaze detection element.
4A depicts an embodiment of an HMD worn by an end user.
4B depicts a pair of images taken using an inward facing camera integrated with an HMD.
4C depicts the identification of an end user's eye and corresponding feature point.
4D depicts a 3D model of an end user's eye positioned relative to the HMD.
4E depicts a second pair of images taken using an introverted camera integrated with an HMD.
4F depicts an end user's eye and identification of corresponding feature points.
4G depicts an updated 3D model of an end user's eye positioned relative to the HMD.
4H depicts one embodiment of a representation of a change in an end user's eye position over time.
5 is a flowchart illustrating one embodiment of a method for tracking an end user's head position of the HMD relative to the HMD and for adjusting the position of a virtual object based on the head position relative to the HMD.
6 is a flow chart illustrating an alternative embodiment of a method for tracking the head position of an end user of an HMD relative to the HMD.
7 is a block diagram of one embodiment of a mobile device.

시간이 지남에 따라 헤드 마운트형 디스플레이 디바이스(HMD)에 대한 HMD의 엔드 유저의 머리 위치를 추적하기 위한 기술이 설명된다. 몇몇 실시형태에서, HMD는 HMD에 대한 엔드 유저의 초기 머리 위치와 관련되는 초기 머리 추적용 벡터(initial head tracking vector)를 결정하고, HMD에 대한 엔드 유저의 하나 이상의 후속하는 머리 위치와 대응하는 하나 이상의 머리 추적용 벡터를 결정하고, 초기 머리 추적용 벡터 및 하나 이상의 머리 추적용 벡터에 기초하여 시간이 지남에 따른 엔드 유저의 머리 움직임을 추적하고, 그리고 엔드 유저의 머리 움직임에 기초하여 엔드 유저에게 디스플레이되는 가상 오브젝트의 위치를 조정할 수도 있다. 이 경우, 엔드 유저의 머리 위치(또는 눈 위치)가 (예를 들면, 엔드 유저가 HMD를 착용하고 있을 때 엔드 유저가 울퉁불퉁한 도로 위를 달리고 있는 것에 기인하여 또는 실수로 HMD를 터치하는 것에 기인하여) HMD에 대한 초기 배치에 관해 이동하면, 가상 오브젝트가 증강 현실 환경 내에서 적절히 고정된 것처럼 보이도록 또는 다르게는 위치결정된 것처럼 보이도록, HMD는 엔드 유저에게 디스플레이되는 가상 오브젝트의 위치를 조정할 수도 있다. 몇몇 실시형태에서, 생성되어 엔드 유저에게 디스플레이되는 가상 오브젝트의 해상도 및/또는 수는, HMD에 대한 엔드 유저의 머리 움직임의 정도에 기초하여 수정될 수도 있다. 일 실시형태에서, 엔드 유저에게 디스플레이되는 가상 오브젝트의 해상도와 수 둘 다는, 머리 움직임의 정도가 문턱치를 초과하면(예를 들면, 엔드 유저의 머리 위치가 초기 머리 위치로부터 HMD에 관해 4 센티미터보다 더 많이 이동하면) 감소될 수도 있다. HMD는 또한, 머리 움직임의 정도가 문턱치를 초과하면 엔드 유저에게 통지(예를 들면, 디스플레이 통지 또는 오디오 통지)를 제공할 수도 있다.A technique for tracking the head position of an end user of an HMD with respect to a head mounted display device (HMD) over time is described. In some embodiments, the HMD determines an initial head tracking vector associated with the end user's initial head position relative to the HMD, and one corresponding to one or more subsequent head positions of the end user relative to the HMD. Determine more than one head tracking vector, track the end user's head movement over time based on the initial head tracking vector and one or more head tracking vectors, and tell the end user based on the end user's head movement. You can also adjust the position of the displayed virtual object. In this case, the end user's head position (or eye position) is (e.g., due to the end user running on a bumpy road when the end user is wearing the HMD, or by accidentally touching the HMD). Thus) the HMD may adjust the position of the virtual object displayed to the end-user so that when moving relative to the initial placement for the HMD, the virtual object appears to be properly fixed or otherwise positioned within the augmented reality environment. . In some embodiments, the resolution and/or number of virtual objects created and displayed to the end user may be modified based on the degree of head movement of the end user relative to the HMD. In one embodiment, both the resolution and the number of virtual objects displayed to the end user are determined if the degree of head movement exceeds a threshold (e.g., the end user's head position is more than 4 centimeters relative to the HMD from the initial head position. If you move a lot), it may decrease. The HMD may also provide a notification (eg, display notification or audio notification) to the end user when the degree of head movement exceeds a threshold.

몇몇 경우에서, HMD는, 엔드 유저가 HMD를 사용하여 증강 현실 환경을 보고 있는 동안, 엔드 유저의 눈 및/또는 눈을 둘러싸는 엔드 유저의 얼굴 영역의 이미지를 캡쳐할 수도 있다. 그 이미지는 HMD와 통합되는 하나 이상의 내향 카메라(예를 들면, 눈 추적용 카메라)를 사용하여 캡쳐될 수도 있다. 엔드 유저의 눈이 그들의 머리 위치에 관해 고정되기 때문에, 엔드 유저의 눈과 관련되는 고정된 특징점은 엔드 유저와 관련되는 머리 위치를 결정하도록 사용될 수도 있다. HMD는 안쪽 안각(inner canthus)(즉, 윗눈꺼풀 및 아랫눈꺼풀이 만나게 되는, 콧대(nasal bridge)에 가장 가까운 눈의 안쪽 코너 또는 부분) 및 바깥쪽 안각(outer canthus)(즉, 윗눈꺼풀 및 아랫눈꺼풀이 만나게 되는, 콧대로부터 가장 먼 눈의 바깥쪽 코너 또는 부분)과 같은 눈 특징을 검출하고 추적하기 위해, 캡쳐된 이미지에 대해 이미지 프로세싱 기술을 적용할 수도 있다. HMD에 대한 눈 위치를 결정하기 위해, 동공 및 홍채(iris)와 같은 다른 눈 특징부도 또한 식별되어 추적될 수도 있다. 엔드 유저의 눈 중 한 쪽 눈 또는 양쪽 눈과 관련되는 특징점이 식별되면, 특징점에 기초하여, 엔드 유저의 눈의 3D 모델과 관련되는 위치 및 방향(orientation) 정보가 업데이트될 수도 있고, 엔드 유저의 눈의 3D 모델에 기초하여 머리 위치 벡터(HMD에 대한 좌표 공간 내에서 2D 또는 3D 벡터로서 표현됨)가 결정될 수도 있다. HMD에 대한 엔드 유저의 머리(또는 눈)의 위치 및/또는 방향을 결정하기 위해, HMD는 또한, 엔드 유저의 콧대 부분과 같은 고정된 얼굴 특징부를 검출하여 추적할 수도 있다.In some cases, the HMD may capture an image of the end user's eyes and/or the end user's facial area surrounding the eyes while the end user is viewing the augmented reality environment using the HMD. The image may be captured using one or more introspective cameras (eg, eye tracking cameras) integrated with the HMD. Since the end user's eyes are fixed with respect to their head position, a fixed feature point associated with the end user's eye may be used to determine the head position relative to the end user. The HMD is characterized by the inner canthus (i.e. the inner corner or portion of the eye closest to the nasal bridge where the upper and lower eyelids meet) and the outer canthus (i.e., the upper and lower eyelids). Image processing techniques may be applied to the captured image to detect and track eye features, such as the outer corner or part of the eye furthest from the nose, where the eyelids meet. Other eye features such as the pupil and iris may also be identified and tracked to determine the eye position relative to the HMD. When a feature point related to one or both eyes of the end user's eyes is identified, position and orientation information related to the 3D model of the end user's eye may be updated based on the feature point, or the end user's A head position vector (represented as a 2D or 3D vector within the coordinate space for the HMD) may be determined based on the 3D model of the eye. To determine the position and/or orientation of the end user's head (or eyes) relative to the HMD, the HMD may also detect and track fixed facial features, such as the end user's nose.

일 실시형태에서, HMD가 존재하는 환경에 대한 엔드 유저의 머리 위치(absolute head position vector)를 나타내는 절대 머리 위치 벡터는, 그 환경 내에서의 HMD의 포즈와 관련되는 포즈 벡터를 결정하는 것에 의해 그 다음 HMD에 대한 엔드 유저의 머리 위치 벡터에 기초하는 벡터 오프셋을 가산하는 것에 의해, 결정될 수도 있다. 절대 머리 위치 벡터는 HMD에 의해 서버(예를 들면, 소매점과 관련됨)로 송신될 수도 있거나 또는 HMD 상에서 실행하고 있는 애플리케이션(예를 들면, 게임용 애플리케이션)에 의해 사용될 수도 있다. 몇몇 실시형태에서, HMD는, 외향 카메라(outward facing camera)로부터 캡쳐되는 환경의 이미지를, 환경의 3D 맵에 대한 그 이미지와 대응하는 6개의 자유도(six degree of freedom; 6DOF)의 포즈를 결정하기 위해, 사용할 수도 있다. 6DOF 포즈는, 환경 내에서의 HMD의 위치 및 방위와 관련되는 정보를 포함할 수도 있다. 6DOF 포즈는, 가상 오브젝트가 환경 내의 적절한 로케이션에 존재하는 것처럼 보이도록, HMD를 로컬라이징하기 위해 그리고 가상 오브젝트를 생성하기 위해 사용될 수도 있다. 6DOF 포즈를 결정하는 것에 관한 더 많은 정보는, 미국 특허 출원 제13/152,220호인 "Distributed Asynchronous Localization and Mapping for Augmented Reality"에서 발견될 수 있다. 모바일 디바이스에 관한 포즈 추정 및/또는 로컬라이제이션을 수행하는 것에 관한 더 많은 정보는, 미국 특허 출원 제13/017,474호인, "Mobile Camera Localization Using Depth Maps"에서 발견될 수 있다.In one embodiment, the absolute head position vector representing the end user's absolute head position vector with respect to the environment in which the HMD exists is determined by determining a pose vector related to the pose of the HMD within the environment. It may be determined by adding a vector offset based on the end user's head position vector for the next HMD. The absolute head position vector may be transmitted by the HMD to a server (eg, associated with a retail store) or may be used by an application running on the HMD (eg, a gaming application). In some embodiments, the HMD determines a pose of six degrees of freedom (6DOF) corresponding to the image of the environment captured from an outward facing camera, that image relative to the 3D map of the environment. To do, you can also use it. The 6DOF pose may include information related to the position and orientation of the HMD in the environment. The 6DOF pose may be used to localize the HMD and to create a virtual object, such that the virtual object appears to exist at an appropriate location in the environment. More information on determining the 6DOF pose can be found in US patent application Ser. No. 13/152,220, "Distributed Asynchronous Localization and Mapping for Augmented Reality." More information on performing pose estimation and/or localization for mobile devices can be found in US Patent Application Ser. No. 13/017,474, "Mobile Camera Localization Using Depth Maps."

도 1은, 개시된 기술이 실시될 수 있는 네트워킹된 컴퓨팅 환경(100)의 일 실시형태의 블록도이다. 네트워킹된 컴퓨팅 환경(100)은 하나 이상의 네트워크(180)를 통해 상호연결되는 복수의 컴퓨팅 디바이스를 포함한다. 하나 이상의 네트워크(180)는 특정 컴퓨팅 디바이스가 다른 컴퓨팅 디바이스와 연결하는 것 및 통신하는 것을 허용한다. 묘사된 컴퓨팅 디바이스는 모바일 디바이스(11), 모바일 디바이스(12), 모바일 디바이스(19), 및 서버(15)를 포함한다. 몇몇 실시형태에서, 복수의 컴퓨팅 디바이스는 도시되지 않은 다른 컴퓨팅 디바이스를 포함할 수도 있다. 몇몇 실시형태에서, 복수의 컴퓨팅 디바이스는 도 1에 도시되는 컴퓨팅 디바이스의 수보다 더 많이 또는 더 적게 포함할 수도 있다. 하나 이상의 네트워크(180)는 보안 네트워크 예컨대 기업 사설 네트워크(enterprise private network), 비보안 네트워크 예컨대 무선 개방 네트워크, 근거리 통신망(local area network; LAN), 원거리 통신망(wide area network; WAN), 및 인터넷을 포함할 수도 있다. 하나 이상의 네트워크(180)의 각각의 네트워크는, 허브, 브리지, 라우터, 스위치, 및 유선 송신 매체 예컨대 유선 네트워크 또는 직접 유선 연결(direct-wired connection)을 포함할 수도 있다.1 is a block diagram of one embodiment of a networked computing environment 100 in which the disclosed techniques may be practiced. Networked computing environment 100 includes a plurality of computing devices interconnected through one or more networks 180. One or more networks 180 allow certain computing devices to connect and communicate with other computing devices. The computing devices depicted include a mobile device 11, a mobile device 12, a mobile device 19, and a server 15. In some embodiments, the plurality of computing devices may include other computing devices not shown. In some embodiments, the plurality of computing devices may include more or less than the number of computing devices shown in FIG. 1. One or more networks 180 include secure networks such as enterprise private networks, non-secure networks such as wireless open networks, local area networks (LANs), wide area networks (WANs), and the Internet. You may. Each network of one or more networks 180 may include a hub, a bridge, a router, a switch, and a wired transmission medium such as a wired network or a direct-wired connection.

보충 정보 서버 또는 애플리케이션 서버를 포함할 수도 있는 서버(15)는, 클라이언트가 서버로부터 정보(예를 들면, 텍스트, 오디오, 이미지, 및 비디오 파일)를 다운로드하는 것 또는 서버 상에 저장된 특정 정보에 관련되는 검색 쿼리를 수행하는 것을 허용할 수도 있다. 일반적으로, "서버"는 클라이언트-서버 관계에서 호스트로서 작용하는 하드웨어 디바이스 또는 하나 이상의 클라이언트와 리소스를 공유하는 또는 하나 이상의 클라이언트에 대한 작업을 수행하는 소프트웨어 프로세스를 포함할 수도 있다. 클라이언트-서버 관계에서 컴퓨팅 디바이스 사이의 통신은, 특정 리소스에 대한 액세스 또는 수행될 특정 작업을 요청하는 요청을 클라이언트가 서버로 전송하는 것에 의해 개시될 수도 있다. 후속하여 서버는 요청된 액션을 수행할 수도 있고 응답을 다시 클라이언트로 전송할 수도 있다.Server 15, which may include a supplemental information server or application server, relates to the client downloading information (e.g., text, audio, image, and video files) from the server or to specific information stored on the server. You can also allow you to perform search queries that are In general, a "server" may include a hardware device acting as a host in a client-server relationship, or a software process that shares resources with one or more clients or performs tasks for one or more clients. Communication between computing devices in a client-server relationship may be initiated by a client sending a request to a server requesting access to a particular resource or a particular task to be performed. Subsequently, the server may perform the requested action or send a response back to the client.

서버(15)의 일 실시형태는, 네트워크 인터페이스(155), 프로세서(156), 메모리(157) 및 변환기(translator; 158)를 포함하는데, 이들 모두는 서로 통신한다. 네트워크 인터페이스(155)는 서버(15)가 하나 이상의 네트워크(180)에 연결하는 것을 허용한다. 네트워크 인터페이스(155)는 무선 네트워크 인터페이스, 모뎀, 및/또는 유선 네트워크 인터페이스를 포함할 수도 있다. 프로세서(156)는, 본원에서 논의되는 프로세스를 수행하기 위해, 메모리(157)에 저장된 컴퓨터 판독가능 명령어를 서버(15)가 실행하는 것을 허용한다. 변환기(158)는, 제1 파일 포맷의 제1 파일을 제2 파일 포맷의 대응하는 제2 파일(즉, 제2 파일은 제1 파일의 변환된 버전일 수도 있음)로 변환하기 위한 매핑 로직을 포함할 수도 있다. 변환기(158)는, 제1 파일 포맷의 파일(또는 그 일부)을 제2 파일 포맷의 대응하는 파일로 매핑하기 위한 명령어를 제공하는 파일 매핑 명령어를 사용하여 구성될 수도 있다.One embodiment of the server 15 includes a network interface 155, a processor 156, a memory 157, and a translator 158, all of which communicate with each other. Network interface 155 allows server 15 to connect to one or more networks 180. The network interface 155 may include a wireless network interface, a modem, and/or a wired network interface. Processor 156 allows server 15 to execute computer readable instructions stored in memory 157 to perform the processes discussed herein. The converter 158 performs mapping logic for converting the first file of the first file format to a corresponding second file of the second file format (ie, the second file may be a converted version of the first file). It can also be included. The converter 158 may be configured using a file mapping command that provides a command for mapping a file (or a part thereof) of the first file format to a corresponding file of the second file format.

모바일 디바이스(19)의 일 실시형태는 네트워크 인터페이스(145), 프로세서(146), 메모리(147), 카메라(148), 센서(149), 및 디스플레이(150)를 포함하는데, 이들 모두는 서로 통신한다. 네트워크 인터페이스(145)는 모바일 디바이스(19)가 하나 이상의 네트워크(180)에 연결하는 것을 허용한다. 네트워크 인터페이스(144)는 무선 네트워크 인터페이스, 모뎀, 및/또는 유선 네트워크 인터페이스를 포함할 수도 있다. 프로세서(146)는, 본원에서 논의되는 프로세스를 수행하기 위해, 메모리(147)에 저장된 컴퓨터 판독가능 명령어를 모바일 디바이스(19)가 실행하는 것을 허용한다. 카메라(148)는 환경의 컬러 이미지 및/또는 깊이 이미지(depth image)를 캡쳐할 수도 있다. 모바일 디바이스(19)는, 환경의 이미지를 캡쳐하는 외향 카메라 및 모바일 디바이스의 엔드 유저의 이미지를 캡쳐하는 내향 카메라를 포함할 수도 있다. 센서(149)는 모바일 디바이스(19)와 관련되는 모션 및/또는 방향 정보를 생성할 수도 있다. 몇몇 경우에서, 센서(149)는 관선 측정 유닛(inertial measurement unit; IMU)을 포함할 수도 있다. 디스플레이(150)는 디지털 이미지 및/또는 비디오를 디스플레이할 수도 있다. 디스플레이(150)는 씨-쓰루(see-through) 디스플레이를 포함할 수도 있다.One embodiment of mobile device 19 includes network interface 145, processor 146, memory 147, camera 148, sensor 149, and display 150, all of which communicate with each other. do. Network interface 145 allows mobile device 19 to connect to one or more networks 180. The network interface 144 may include a wireless network interface, a modem, and/or a wired network interface. Processor 146 allows mobile device 19 to execute computer readable instructions stored in memory 147 to perform the processes discussed herein. The camera 148 may capture a color image and/or a depth image of the environment. The mobile device 19 may include an outward camera for capturing an image of the environment and an inward camera for capturing an image of an end user of the mobile device. Sensor 149 may generate motion and/or direction information related to mobile device 19. In some cases, sensor 149 may include an inertial measurement unit (IMU). Display 150 may display digital images and/or video. Display 150 may also include a see-through display.

몇몇 실시형태에서, 네트워크 인터페이스(145), 프로세서(146), 메모리(147), 카메라(148) 및 센서(149)를 포함하는 모바일 디바이스(19)의 다양한 컴포넌트는 싱글 칩 기판 상에 통합될 수도 있다. 일 예에서, 네트워크 인터페이스(145), 프로세서(146), 메모리(147), 카메라(148), 및 센서(149)는 시스템온칩(a system on a chip; SOC)으로서 통합될 수도 있다. 다른 실시형태에서, 네트워크 인터페이스(145), 프로세서(146), 메모리(147), 카메라(148), 및 센서(149)는 단일의 패키지 내에 통합될 수도 있다.In some embodiments, various components of mobile device 19 including network interface 145, processor 146, memory 147, camera 148 and sensor 149 may be integrated on a single chip substrate. have. In one example, the network interface 145, processor 146, memory 147, camera 148, and sensor 149 may be integrated as a system on a chip (SOC). In other embodiments, the network interface 145, the processor 146, the memory 147, the camera 148, and the sensor 149 may be integrated into a single package.

몇몇 실시형태에서, 모바일 디바이스(19)는, 카메라(148), 센서(149), 및 프로세서(146) 상에서 실행하는 제스쳐 인식 소프트웨어를 활용하는 것에 의해 내추럴 유저 인터페이스(natural user interface; NUI)를 제공할 수도 있다. 내추럴 유저 인터페이스를 통해, 사람의 신체 부위 및 움직임은, 검출되고, 해석되고, 그리고 컴퓨팅 애플리케이션의 다양한 양태를 제어하도록 사용될 수도 있다. 일 예에서, 내추럴 유저 인터페이스를 활용하는 컴퓨팅 디바이스는, 컴퓨팅 디바이스와 상호작용하는 사람의 의도를(예를 들면, 컴퓨팅 디바이스를 제어하기 위해, 엔드 유저가 특정 제스쳐를 수행했다는 것을) 추론할 수도 있다.In some embodiments, mobile device 19 provides a natural user interface (NUI) by utilizing gesture recognition software running on camera 148, sensor 149, and processor 146. You may. Through the natural user interface, a person's body parts and movements may be detected, interpreted, and used to control various aspects of a computing application. In one example, a computing device that utilizes a natural user interface may infer the intention of a person interacting with the computing device (e.g., that the end user performed a specific gesture to control the computing device). .

네트워킹된 컴퓨팅 환경(100)은 하나 이상의 컴퓨팅 디바이스에 대해 클라우드 컴퓨팅 환경을 제공할 수도 있다. 클라우드 컴퓨팅은 인터넷 기반 컴퓨팅을 지칭하는데, 클라우드 컴퓨팅에서는, 공유된 리소스, 소프트웨어, 및/또는 정보가 요청에 따라(on-demand) 인터넷(또는 다른 글로벌 네트워크)을 통해 하나 이상의 컴퓨팅 디바이스로 제공된다. 용어 "클라우드"는, 인터넷이 나타내는 기저의 인프라의 추상 개념으로서 인터넷을 묘사하기 위해 컴퓨터 네트워킹 다이어그램에서 사용되는 구름(클라우드) 그림에 기초하여, 인터넷에 대한 은유로서 사용된다.Networked computing environment 100 may provide a cloud computing environment for one or more computing devices. Cloud computing refers to Internet-based computing, in which shared resources, software, and/or information are provided on-demand to one or more computing devices via the Internet (or other global network). The term "cloud" is used as a metaphor for the Internet, based on a cloud (cloud) picture used in computer networking diagrams to describe the Internet as an abstract concept of the underlying infrastructure it represents.

일 예에서, 모바일 디바이스(19)는, 헤드 마운트형 디스플레이 디바이스(HMD)의 엔드 유저에게 증강 현실 환경 또는 혼합 현실 환경을 제공하는 HMD를 포함한다. HMD는 비디오 씨-쓰루 및/또는 광학적 씨-쓰루 시스템을 포함할 수도 있다. 엔드 유저에 의해 착용되고 있는 광학적 씨-쓰루 HMD는 (예를 들면, 투명 렌즈를 통해) 현실 세계 환경의 실제의 직접적인 뷰잉(viewing)을 허용할 수도 있고, 동시에, 엔드 유저의 시야 안으로 가상 오브젝트의 이미지를 투사하여, 엔드 유저에 의해 인식되는 현실 세계 환경을 가상 오브젝트를 이용하여 증강시킬 수도 있다.In one example, the mobile device 19 includes an HMD that provides an augmented reality environment or a mixed reality environment to an end user of a head mounted display device (HMD). The HMD may include video see-through and/or optical see-through systems. The optical see-through HMD being worn by the end user may allow real, direct viewing of the real-world environment (eg, through a transparent lens), while at the same time allowing the virtual object's view into the end user's field of view. By projecting an image, the real world environment recognized by the end user may be augmented using a virtual object.

HMD를 활용하면, 엔드 유저는 HMD를 착용하여 현실 세계 환경(예를 들면, 거실)을 돌아다닐 수도 있고 가상 오브젝트의 이미지가 중첩된 현실 세계의 뷰를 볼 수도 있다. 가상 오브젝트는 현실 세계 환경과의 동질적인(coherent) 공간적 관계를 유지하는 것처럼 보일 수도 있다(즉, 엔드 유저가 현실 세계 환경 내에서 그들의 머리를 돌리거나 또는 움직일 때, 가상 오브젝트가 엔드 유저에 의해 인식되는 바와 같은 현실 세계 환경 내에 존재하는 것처럼 보이도록, 엔드 유저에게 디스플레이되는 이미지는 변할 것이다). 가상 오브젝트는 또한, 엔드 유저의 견지에 대해 고정되어 보일 수도 있다(예를 들면, 엔드 유저가 현실 세계 환경 내에서 그들의 머리를 어떻게 돌리거나 움직이는 지에 무관하게, 엔드 유저의 견지의 우상(top right) 코너에서 항상 보이는 가상 메뉴). 일 실시형태에서, 현실 세계 환경의 환경 매핑은 서버에 의해(즉, 서버측 상에서) 수행될 수도 있고 한편 카메라 로컬라이제이션은 모바일 디바이스(19) 상에서(즉, 클라이언트측 상에서) 수행될 수도 있다. 가상 오브젝트는 현실 세계 오브젝트와 관련되는 텍스트 설명을 포함할 수도 있다.Using the HMD, the end-user may wear the HMD to move around a real-world environment (eg, a living room) or see a view of the real world in which images of virtual objects are superimposed. Virtual objects may appear to maintain a coherent spatial relationship with the real-world environment (i.e., when the end-user turns or moves their head within the real-world environment, the virtual object is perceived by the end-user. The image displayed to the end user will change so that it appears to exist within the real-world environment as it is). Virtual objects may also appear fixed to the end user's perspective (e.g., the top right of the end user's point of view, regardless of how the end user turns or moves their heads within the real world environment). Virtual menu always visible in the corner). In one embodiment, environment mapping of the real world environment may be performed by the server (ie, on the server side) while camera localization may be performed on the mobile device 19 (ie, on the client side). Virtual objects may include textual descriptions associated with real world objects.

몇몇 실시형태에서, 모바일 디바이스, 예컨대 모바일 디바이스(19)는 클라우드의 서버, 예컨대 서버(15)와 통신할 수도 있고, 서버에게, 모바일 디바이스와 관련되는 로케이션 정보(예를 들면, GPS 좌표를 통한 모바일 디바이스의 로케이션) 및/또는 이미지 정보(예를 들면, 모바일 디바이스의 시야 내에서 검출되는 오브젝트에 관한 정보)를 제공할 수도 있다. 응답으로, 서버는, 서버에게 제공되는 로케이션 정보 및/또는 이미지 정보에 기초하여 하나 이상의 가상 오브젝트를 모바일 디바이스로 송신할 수도 있다. 일 실시형태에서, 모바일 디바이스(19)는 하나 이상의 가상 오브젝트를 수신하기 위한 특정 파일 포맷을 특정할 수도 있고 서버(15)는 특정 파일 포맷의 파일 내에서 구체화되는 하나 이상의 가상 오브젝트를 모바일 디바이스(19)로 송신할 수도 있다.In some embodiments, a mobile device, e.g., mobile device 19, may communicate with a server in the cloud, e.g., server 15, and tells the server location information associated with the mobile device (e.g., mobile device via GPS coordinates). The location of the device) and/or image information (eg, information about an object detected within the field of view of the mobile device) may be provided. In response, the server may transmit one or more virtual objects to the mobile device based on location information and/or image information provided to the server. In one embodiment, the mobile device 19 may specify a specific file format for receiving one or more virtual objects and the server 15 may specify one or more virtual objects embodied within a file of the specific file format. ).

몇몇 실시형태에서, HMD, 예컨대 모바일 디바이스(19)는 가상 오브젝트를 포함하는 증강 현실 환경을 HMD의 엔드 유저에게 제공할 수도 있다. 주기적으로(예를 들면, 0.5 ms마다), HMD는 HMD에 대한 엔드 유저의 머리 위치를 결정하고, HMD에 대한 엔드 유저의 머리 위치가 변경된 경우에도 증강 현실 환경 내에서 가상 오브젝트가 고정된 것처럼 보이도록, 엔드 유저에게 디스플레이되는 가상 오브젝트와 관련되는 이미지의 위치를 조정할 수도 있다. HMD에 대한 엔드 유저의 머리 위치에 기초하여 가상 오브젝트와 관련되는 이미지의 위치를 조정하는 능력은, (예를 들면, 엔드 유저가 HMD를 착용하고 있을 때 엔드 유저가 울퉁불퉁한 도로 위를 달리고 있는 것에 기인하여 또는 실수로 HMD를 터치하는 것에 기인하여) 엔드 유저의 눈 위치가 시간이 지남에 따라 HMD의 씨-쓰루 디스플레이에 관해 이동할 수도 있는 경우에도, HMD가 엔드 유저에게 일관된 증강 현실 환경을 제공하는 것을 허용한다.In some embodiments, the HMD, such as mobile device 19, may provide an augmented reality environment including virtual objects to end users of the HMD. Periodically (e.g., every 0.5 ms), the HMD determines the position of the end user's head relative to the HMD, and the virtual object appears to be stationary within the augmented reality environment even if the position of the end user's head relative to the HMD is changed. Thus, the position of the image associated with the virtual object displayed to the end user may be adjusted. The ability to adjust the position of the image relative to the virtual object based on the position of the end user's head relative to the HMD is (for example, the end user is running on a bumpy road when the end user is wearing the HMD. The HMD provides a consistent augmented reality experience to the end user, even if the end user's eye position may move relative to the HMD's see-through display over time (due to or due to accidentally touching the HMD). Allow that.

도 2a는 제2 모바일 디바이스(5)와 통신하는 모바일 디바이스(19)의 일 실시형태를 묘사한다. 모바일 디바이스(19)는 씨-쓰루 HMD를 포함할 수도 있다. 묘사된 바와 같이, 모바일 디바이스(19)는 유선 연결(6)을 통해 모바일 디바이스(5)와 통신한다. 그러나, 모바일 디바이스(19)는 또한, 무선 연결을 통해 모바일 디바이스(5)와 통신할 수도 있다. 모바일 디바이스(5)는, 계산 집약적인 프로세싱 작업(예를 들면, 가상 오브젝트의 렌더링)을 오프로드하기 위해 그리고 모바일 디바이스(19) 상에서 증강 현실 환경을 제공하기 위해 사용될 수도 있는 가상 오브젝트 정보 및 다른 데이터를 저장하기 위해, 모바일 디바이스(19)에 의해 사용될 수도 있다. 모바일 디바이스(5)는 또한, 모바일 디바이스(5)와 관련되는 모션 및/또는 방향 정보를 모바일 디바이스(19)로 제공할 수도 있다. 일 예에서, 모션 정보는 모바일 디바이스(5)와 관련되는 속도 및 가속도를 포함할 수도 있고 방향 정보는 오일러 각도(Euler angle)를 포함할 수도 있는데, 오일러 각도는 특정 좌표 시스템 또는 기준 프레임을 중심으로 하는 회전 정보를 제공한다. 몇몇 경우에서, 모바일 디바이스(5)는, 모바일 디바이스(5)와 관련되는 모션 및/또는 회전 정보를 획득하기 위해, 모션 및 방향 센서, 예컨대 관성 측정 유닛(IMU)을 포함할 수도 있다.2A depicts an embodiment of a mobile device 19 in communication with a second mobile device 5. Mobile device 19 may include a see-through HMD. As depicted, the mobile device 19 communicates with the mobile device 5 via a wired connection 6. However, the mobile device 19 may also communicate with the mobile device 5 via a wireless connection. Mobile device 5 provides virtual object information and other data that may be used to offload computationally intensive processing operations (e.g., rendering of virtual objects) and to provide an augmented reality environment on mobile device 19 It may be used by the mobile device 19 to store it. The mobile device 5 may also provide motion and/or direction information related to the mobile device 5 to the mobile device 19. In one example, the motion information may include a velocity and acceleration associated with the mobile device 5 and the direction information may include an Euler angle, wherein the Euler angle is centered on a specific coordinate system or frame of reference. Provides rotation information. In some cases, the mobile device 5 may comprise a motion and direction sensor, such as an inertial measurement unit (IMU), to obtain motion and/or rotation information associated with the mobile device 5.

도 2b는 도 1에서의 모바일 디바이스(19)와 같은 HMD의 일부의 일 실시형태를 묘사한다. HMD(200)의 우측만이 묘사된다. HMD(200)는 우측 안경다리(202), 코다리(nose bridge; 204), 안경알(216), 및 안경 프레임(214)을 포함한다. 우측 안경다리(202)는 프로세싱 유닛(236)과 통신하는 캡쳐 디바이스(213)(예를 들면, 전면 카메라 및/또는 마이크)를 포함한다. 캡쳐 디바이스(213)는 디지털 이미지 및/또는 비디오를 기록하기 위한 하나 이상의 카메라를 포함할 수도 있고 시각적 기록물을 프로세싱 유닛(236)으로 송신할 수도 있다. 하나 이상의 카메라는 컬러 정보, IR 정보, 및/또는 깊이 정보를 캡쳐할 수도 있다. 캡쳐 디바이스(213)는 사운드를 기록하기 위한 하나 이상의 마이크를 또한 포함할 수도 있고 오디오 기록물을 프로세싱 유닛(236)으로 송신할 수도 있다.2B depicts an embodiment of a portion of an HMD such as mobile device 19 in FIG. 1. Only the right side of the HMD 200 is depicted. The HMD 200 includes a right temple 202, a nose bridge 204, an eyeglass 216, and a frame 214. The right temple 202 includes a capture device 213 (eg, a front camera and/or microphone) in communication with the processing unit 236. The capture device 213 may include one or more cameras for recording digital images and/or video and may transmit visual recordings to the processing unit 236. One or more cameras may capture color information, IR information, and/or depth information. The capture device 213 may also include one or more microphones for recording sound and may transmit the audio recording to the processing unit 236.

우측 안경다리(202)는 또한, 생체 센서(220), 눈 추적용 시스템(221), 이어폰(230), 모션 및 방향 센서(238), GPS 수신기(232), 전원(239), 및 무선 인터페이스(237)를 포함하는데, 이들 모두는 프로세싱 유닛(236)과 통신한다. 생체 센서(220)는 HMD(200)의 엔드 유저와 관련되는 맥박 또는 심장 박동을 결정하기 위한 하나 이상의 전극 및 HMD(200)의 엔드 유저와 관련되는 신체 온도를 결정하기 위한 온도 센서를 포함할 수도 있다. 일 실시형태에서, 생체 센서(220)는, 엔드 유저의 관자놀이를 가압하는 맥박 측정용 센서를 포함한다. 모션 및 방향 센서(238)는 3축 자기력계, 3축 자이로, 및/또는 3축 가속도계를 포함할 수도 있다. 일 실시형태에서, 모션 및 방향 센서(238)는 관성 측정 유닛(IMU)을 포함할 수도 있다. GPS 수신기는 HMD(200)와 관련되는 GPS 로케이션을 결정할 수도 있다. 프로세싱 유닛(236)은 하나 이상의 프로세서 및 그 하나 이상의 프로세서 상에서 실행될 컴퓨터 판독가능 명령어를 저장하기 위한 메모리를 포함할 수도 있다. 메모리는 또한 하나 이상의 프로세서 상에서 실행될 다른 타입의 데이터를 저장할 수도 있다.The right temple 202 also includes a biometric sensor 220, an eye tracking system 221, an earphone 230, a motion and direction sensor 238, a GPS receiver 232, a power supply 239, and a wireless interface. 237, all of which communicate with the processing unit 236. The biometric sensor 220 may include one or more electrodes for determining a pulse or heart rate associated with the end user of the HMD 200 and a temperature sensor for determining a body temperature associated with the end user of the HMD 200 have. In one embodiment, the biometric sensor 220 includes a sensor for measuring a pulse that presses the temple of the end user. The motion and direction sensor 238 may include a three-axis magnetometer, a three-axis gyro, and/or a three-axis accelerometer. In one embodiment, the motion and direction sensor 238 may comprise an inertial measurement unit (IMU). The GPS receiver may determine a GPS location associated with the HMD 200. The processing unit 236 may include one or more processors and a memory for storing computer readable instructions to be executed on the one or more processors. The memory may also store other types of data to be executed on one or more processors.

일 실시형태에서, 눈 추적용 시스템(221)은 하나 이상의 내향 카메라를 포함할 수도 있다. 다른 실시형태에서, 눈 추적용 시스템(221)은 눈 추적용 조명원(eye tracking illumination source) 및 관련 눈 추적용 이미지 센서를 포함할 수도 있다. 일 실시형태에서, 눈 추적용 조명원은, 미리 결정된 IR 파장 또는 일정 범위의 파장을 중심을 방출하는 하나 이상의 적외선(infrared; IR) 에미터 예컨대 적외선 발광 다이오드(light emitting diode; LED) 또는 레이저(예를 들면, VCSEL)를 포함할 수도 있다. 몇몇 실시형태에서, 눈 추적용 센서(eye tracking sensor)는, 글린트 위치(glint position)를 추적하기 위한 IR 위치 감지 검출기(position sensitive detector; PSD) 또는 IR 카메라를 포함할 수도 있다. 눈 추적용 시스템에 관한 더 많은 정보는, 2008년 7월 22일자로 발행된 발명의 명칭이 "Head Mounted Eye Tracking and Display System"인 미국 특허 제7,401,920호, 및 2011년 9월 26일자로 출원된 발명의 명칭이 "Integrated Eye Tracking and Display System"인 미국 특허 출원 제13/245,700호에서 발견될 수 있다.In one embodiment, the system 221 for eye tracking may include one or more inward cameras. In other embodiments, the system 221 for eye tracking may include an eye tracking illumination source and an associated image sensor for eye tracking. In one embodiment, the illumination source for eye tracking is one or more infrared (IR) emitters, such as an infrared light emitting diode (LED) or laser, emitting a center of a predetermined IR wavelength or a range of wavelengths. For example, VCSEL) may be included. In some embodiments, the eye tracking sensor may include an IR position sensitive detector (PSD) or an IR camera to track the glint position. For more information on eye tracking systems, see US Pat. No. 7,401,920 entitled "Head Mounted Eye Tracking and Display System" issued July 22, 2008, and filed September 26, 2011. The invention may be found in US patent application Ser. No. 13/245,700 entitled “Integrated Eye Tracking and Display System”.

일 실시형태에서, 안경알(216)은 씨-쓰루 디스플레이를 포함할 수도 있는데, 이로써, 프로세싱 유닛(236)에 의해 생성되는 이미지는 씨-쓰루 디스플레이 상에 투사될 수도 있고/있거나 디스플레이될 수도 있다. 캡쳐 디바이스(213)는, 캡쳐 디바이스(213)에 의해 캡쳐되는 시야가 HMD(200)의 엔드 유저에 의해 보이는 시야와 대응하도록, 캘리브레이팅될 수도 있다. 이어폰(230)은 가상 오브젝트의 투사된 이미지와 관련되는 사운드를 출력하기 위해 사용될 수도 있다. 몇몇 실시형태에서, HMD(200)는, 전면 카메라에 의해 캡쳐되는 시야와 관련되는 입체 정보로부터 깊이를 획득하기 위해 두 개 이상의 전면 카메라(예를 들면, 각각의 안경다리에 하나씩)를 포함할 수도 있다. 두 개 이상의 전면 카메라는 또한 3D, IR, 및/또는 RGB 카메라를 포함할 수도 있다. 깊이 정보는 모션 기술로부터의 깊이를 활용하여 단일의 카메라로부터 또한 획득될 수도 있다. 예를 들면, 시간적으로 상이한 지점에서의 공간적으로 상이한 두 개의 지점과 관련되는 두 개의 이미지가 단일의 카메라로부터 획득될 수도 있다. 그 다음, 공간적으로 두 개의 상이한 지점에 대한 위치 정보가 주어지면, 시차(parallax) 계산이 수행될 수도 있다.In one embodiment, eyeglasses 216 may include a see-through display, whereby an image generated by processing unit 236 may be projected and/or displayed on the see-through display. The capture device 213 may be calibrated such that the field of view captured by the capture device 213 corresponds to the field of view seen by the end user of the HMD 200. The earphone 230 may be used to output sound related to the projected image of the virtual object. In some embodiments, HMD 200 may include two or more front cameras (e.g., one for each temple) to obtain depth from stereoscopic information related to the field of view captured by the front camera. have. Two or more front cameras may also include 3D, IR, and/or RGB cameras. Depth information may also be obtained from a single camera utilizing depth from motion technology. For example, two images related to two spatially different points at different points in time may be obtained from a single camera. Then, given the location information for two different points spatially, a parallax calculation may be performed.

몇몇 실시형태에서, HMD(200)는, 하나 이상의 사람 눈의 구성요소 예컨대 각막 중심, 안구 회전의 중심, 또는 동공 중심과 관련하여, 응시 검출 엘리먼트 및 3차원 좌표 시스템을 사용하여, 엔드 유저의 눈의 각각의 눈에 대한 응시 검출을 수행할 수도 있다. 응시 검출은, 엔드 유저가 시야 내에서 초점을 맞추고 있는 곳을 식별할 수도 있다. 응시 검출 엘리먼트의 예는, 글린트 생성용 조명기(glint generating illuminator) 및 반사된 글린트를 나타내는 데이터를 캡쳐하기 위한 센서를 포함할 수도 있다. 몇몇 경우에서, 각막의 중심은 평면 기하학(planar geometry)을 사용하여 두 개의 글린트에 기초하여 결정될 수도 있다. 각막의 중심은 동공 중심과 안구의 회전의 중심을 연결하고, 이것은 소정의 응시 또는 뷰잉 각도에서의 엔드 유저의 광학 축을 결정하기 위한 고정된 로케이션으로서 다루어질 수도 있다.In some embodiments, the HMD 200 uses a gaze detection element and a three-dimensional coordinate system with respect to one or more components of the human eye, such as a corneal center, a center of eye rotation, or a pupil center. It is also possible to perform gaze detection for each eye of. Gaze detection may identify where the end user is focusing within the field of view. Examples of the gaze detection element may include a glint generating illuminator and a sensor for capturing data indicative of the reflected glint. In some cases, the center of the cornea may be determined based on two glints using planar geometry. The center of the cornea connects the center of the pupil and the center of rotation of the eye, which may be treated as a fixed location to determine the optical axis of the end user at a given gaze or viewing angle.

도 2c는, 먼 동공간 거리(IPD)를 정렬시키기 위한, 응시점으로 연장하는 응시 벡터가 사용되는 HMD(2)의 일부의 일 실시형태를 묘사한다. HMD(2)는 도 1에서의 모바일 디바이스(19)와 같은 모바일 디바이스의 일 예이다. 묘사된 바와 같이, 응시 벡터(180l 및 180r)는, 엔드 유저로부터 멀리 떨어진 응시점에서 교차한다(즉, 응시 벡터(180l 및 180r)는 엔드 유저가 멀리 있는 오브젝트를 보고 있을 때 교차하지 않는다). 안구(160및 160r)에 대한 안구의 모델은 굴스트란드(Gullstrand) 방식의 눈 모델에 기초하여 각각의 눈에 대해 예시된다. 각각의 안구는 회전의 중심(166)을 갖는 구(sphere)로서 모델링되고 중심(164)을 갖는 구로서 모델링되는 각막(168)을 포함한다. 각막(168)은 안구와 함께 회전하고, 안구의 회전의 중심(166)은 고정점으로서 취급될 수도 있다. 각막(168)은, 동공(162)을 자신의 중심에 두는 홍채(170)를 덮는다. 글린트(174 및 176)는, 각각의 각막의 표면(172) 상에 있다.2C depicts an embodiment of a portion of the HMD 2 in which a gaze vector extending to the gaze point is used to align the distant pupillary distance (IPD). HMD 2 is an example of a mobile device such as mobile device 19 in FIG. 1. As depicted, the gaze vectors 180l and 180r intersect at a gaze point remote from the end user (i.e., the gaze vectors 180l and 180r do not intersect when the end user is looking at a distant object). A model of the eye for the eyes 160 and 160r is illustrated for each eye based on the Gullstrand method eye model. Each eye includes a cornea 168 that is modeled as a sphere with a center of rotation 166 and a sphere with a center 164. The cornea 168 rotates with the eyeball, and the center of rotation 166 of the eyeball may be treated as a fixed point. The cornea 168 covers the iris 170 with the pupil 162 at its center. The glints 174 and 176 are on the surface 172 of each cornea.

도 2c에 묘사된 바와 같이, 센서 검출 영역(139)(즉, 각각, 139l 및 139r)은 안경 프레임(115) 내의 각각의 디스플레이 광학 시스템(14)의 광학 축과 정렬된다. 일 예에서, 검출 영역과 관련되는 센서는, 프레임(115)의 좌측 상의 조명기(153a 및 153b)에 의해 각각 생성되는 글린트(174l 및 176l)를 나타내는 이미지 데이터 및 프레임(115)의 우측 상의 조명기(153c 및 153d)에 의해 각각 생성되는 글린트(174r 및 176r)를 나타내는 데이터를 캡쳐할 수 있는 하나 이상의 카메라를 포함할 수도 있다. 안경 프레임(115)의 디스플레이 광학 시스템(14l 및 14r)을 통해, 엔드 유저의 시야는 실제 오브젝트(190, 192) 및 가상 오브젝트(182 및 184) 둘 다를 포함한다.As depicted in FIG. 2C, the sensor detection regions 139 (ie, 139l and 139r, respectively) are aligned with the optical axis of each display optical system 14 in the spectacle frame 115. In one example, the sensor associated with the detection area is image data representing glints 174l and 176l generated by illuminators 153a and 153b on the left side of the frame 115, respectively, and an illuminator on the right side of the frame 115. It may also include one or more cameras capable of capturing data representing glints 174r and 176r generated by 153c and 153d, respectively. Through the display optical systems 14l and 14r of the eyeglass frame 115, the end user's field of view includes both real objects 190, 192 and virtual objects 182 and 184.

회전의 중심(166)으로부터 각막 중심(164)을 통해 동공(162)으로 형성되는 축(178)은 눈의 광학 축을 형성한다. 응시 벡터(180)는, 중심와(fovea)로부터 동공(162)의 중심을 통해 연장하는 시선(line of sight) 또는 시축(visual axis)으로도 또한 칭해질 수도 있다. 몇몇 실시형태에서, 광학 축이 결정되고 유저 캘리브레이션을 통해 작은 보정이 결정되어, 응시 벡터로서 선택되는 시축을 획득하게 된다. 각각의 엔드 유저에 대해, 가상 오브젝트는 상이한 수평 및 수직 위치에 있는 다수의 미리 결정된 위치에서 디스플레이 디바이스에 의해 가상 오브젝트가 디스플레이될 수도 있다. 광학 축은, 오브젝트의 디스플레이 동안 각각의 위치에서 각각의 눈에 대해 계산될 수도 있고, 그 위치로부터 유저의 눈으로 연장하는 것으로 광선(ray)이 모델링될 수도 있다. 수평 및 수직 성분을 갖는 응시 오프셋 각도는, 모델링된 광선과 정렬하기 위해 광학 축이 얼마나 이동되어야 하는지에 기초하여 결정될 수도 있다. 차이 위치로부터, 각각의 계산된 광학 축에 적용될 작은 보정치로서, 수평 또는 수직 성분을 갖는 평균 오프셋 각도가 선택될 수 있다. 몇몇 실시형태에서는, 응시 오프셋 각도 보정에 대해, 수평 성분만이 사용된다.The axis 178 formed from the center of rotation 166 to the pupil 162 through the corneal center 164 forms the optical axis of the eye. The gaze vector 180 may also be referred to as a line of sight or visual axis extending from the fovea through the center of the pupil 162. In some embodiments, the optical axis is determined and a small correction is determined through user calibration to obtain a visual axis selected as the gaze vector. For each end user, the virtual object may be displayed by the display device at a number of predetermined positions in different horizontal and vertical positions. The optical axis may be calculated for each eye at each location during display of the object, or a ray may be modeled as extending from that location to the user's eye. The gaze offset angle with horizontal and vertical components may be determined based on how much the optical axis must be shifted to align with the modeled ray. From the difference position, an average offset angle with a horizontal or vertical component can be selected as a small correction to be applied to each calculated optical axis. In some embodiments, for gaze offset angle correction, only the horizontal component is used.

도 2c에 묘사된 바와 같이, 응시 벡터(180l 및 180r)는, 벡터가 안구로부터 응시점의 시야로 연장할 때 벡터가 서로 더 가까워지기 때문에, 완전히 평행하지는 않다. 각각의 디스플레이 광학 시스템(14)에서, 응시 벡터(180)는, 센서 검출 영역(139)을 중심에 두는 광학 축과 교차하는 것처럼 보인다. 이 구성에서, 광학 축은 동공간 거리(IPD)와 정렬된다. 엔드 유저가 똑바로 바라 보고 있을 때, 측정된 IPD는 먼 IPD로 또한 칭해진다.As depicted in FIG. 2C, the gaze vectors 180l and 180r are not completely parallel as the vectors become closer to each other as the vectors extend from the eyeball to the field of view of the gaze point. In each display optical system 14, the gaze vector 180 appears to intersect the optical axis centering the sensor detection area 139. In this configuration, the optical axis is aligned with the pupillary distance (IPD). When the end user is looking straight ahead, the measured IPD is also referred to as the remote IPD.

도 2d는, 가까운 동공간 거리(IPD)를 정렬시키기 위한, 응시점으로 연장하는 응시 벡터가 사용되는 HMD(2)의 일부의 일 실시형태를 묘사한다. HMD(2)는 도 1에서의 모바일 디바이스(19)와 같은 모바일 디바이스의 일 예이다. 묘사된 바와 같이, 좌안(left eye)의 각막(168l)은 오른쪽으로 또는 엔드 유저의 코를 향해 회전되고, 우안(right eye)의 각막(168r)은 왼쪽으로 또는 엔드 유저의 코를 향해 회전된다. 양쪽 동공은 엔드 유저의 특정 거리 이내의 실제 오브젝트(194)를 응시하고 있다. 각각의 눈으로부터의 응시 벡터(180l 및 180r)는, 실제 오브젝트(194)가 위치되는 파늄의 융합 영역(Panum's fusional region; 195)으로 진입한다. 파늄의 융합 영역은, 사람의 시각의 시스템과 같은 양안의 뷰잉 시스템에서의 단일 시각(single vision)의 영역이다. 응시 벡터(180l 및 180r)의 교차는, 엔드 유저가 실제 오브젝트(194)를 보고 있다는 것을 나타낸다. 이러한 거리에서, 안구가 안쪽으로 회전되기 때문에, 안구의 동공 사이의 거리는 가까운 IPD로 감소한다. 가까운 IPD는 통상적으로 먼 IPD보다 약 4 mm 더 작다. 가까운 IPD 거리 기준(예를 들면, 엔드 유저로부터 4피트 미만에 있는 응시점)은, 디스플레이 광학 시스템(14)의 IPD의 정렬을 가까운 IPD의 것으로 전환하거나 조정하기 위해 사용될 수도 있다. 가까운 IPD의 경우, 각각의 디스플레이 광학 시스템(14)은 엔드 유저의 코를 향해 이동될 수도 있고, 따라서, 광학 축, 및 검출 영역(139)은 검출 영역(139ln 및 139rn)에 의해 나타내어진 바와 같이 수 밀리미터 코를 향해 이동한다.2D depicts an embodiment of a portion of the HMD 2 in which a gaze vector extending to the gaze point is used to align the near pupillary distance (IPD). HMD 2 is an example of a mobile device such as mobile device 19 in FIG. 1. As depicted, the cornea 168l of the left eye is rotated to the right or towards the end user's nose, and the cornea 168r of the right eye is rotated to the left or towards the end user's nose. . Both pupils are staring at the real object 194 within a certain distance of the end user. The gaze vectors 180l and 180r from each eye enter the Panum's fusional region 195 where the real object 194 is located. The fusion area of panium is the area of single vision in a binocular viewing system, such as a system of human vision. The intersection of the gaze vectors 180l and 180r indicates that the end user is looking at the real object 194. At this distance, since the eyeball is rotated inward, the distance between the pupils of the eyeball decreases to the nearest IPD. The near IPD is typically about 4 mm smaller than the far IPD. The near IPD distance criterion (eg, a gaze point less than 4 feet from the end user) may be used to convert or adjust the alignment of the IPD of the display optical system 14 to that of the near IPD. In the case of a near IPD, each display optical system 14 may be moved towards the end user's nose, and thus the optical axis, and detection area 139, as indicated by the detection areas 139ln and 139rn. Moves a few millimeters toward the nose.

HMD의 엔드 유저에 대한 IPD를 결정하고 그에 따라 디스플레이 광학 시스템을 조정하는 것에 관한 더 많은 정보는, 2011년 9월 30일자로 출원된 발명의 명칭이 "Personal Audio/Visual System"인 미국 특허 출원 제13/250,878호에서 발견될 수 있다.For more information on determining the IPD for the end user of the HMD and adjusting the display optical system accordingly, see a US patent application filed September 30, 2011 entitled "Personal Audio/Visual System". Can be found in 13/250,878.

도 3a는 응시 검출 엘리먼트를 포함하는 이동가능한 디스플레이 광학 시스템을 구비하는 HMD(2)의 일부의 일 실시형태를 묘사한다. 각각의 눈에 대해 렌즈로서 보이는 것은 각각의 눈에 대한 디스플레이 광학 시스템(14)(즉, 14l 및 14r)을 나타낸다. 디스플레이 광학 시스템은, HMD의 렌즈를 통해 보이는 실제의 직접적인 현실 세계 뷰와 가상 컨텐츠를 원활하게(seamlessly) 융합하기 위한 광학 엘리먼트(예를 들면, 미러, 필터) 및 씨-쓰루 렌즈를 포함한다. 디스플레이 광학 시스템(14)은, 왜곡없는 뷰를 제공하도록 광이 일반적으로 시준되는(collimated) 씨-쓰루 렌즈의 중심에 일반적으로 있는 광학 축을 구비한다. 예를 들면, 안과 전문의(eye care professional)가 일반적인 안경을 유저의 얼굴에 피팅할 때, 안경은 일반적으로, 각각의 동공이 각각의 렌즈의 중심 또는 광학 축과 정렬되어, 깨끗한 또는 왜곡 없는 뷰를 위한 일반적으로 시준된 광이 엔드 유저의 눈에 도달하게 되는 위치에서 안경이 엔드 유저의 코에 자리 잡도록, 피팅된다.3A depicts an embodiment of a portion of an HMD 2 with a movable display optical system including a gaze detection element. What appears as a lens for each eye represents the display optical system 14 (ie, 14l and 14r) for each eye. The display optical system includes optical elements (e.g., mirrors, filters) and a see-through lens for seamlessly fusing virtual content with a real, direct real-world view seen through the lens of the HMD. The display optical system 14 has an optical axis that is generally at the center of a see-through lens where light is generally collimated to provide a distortion-free view. For example, when an eye care professional fits ordinary glasses to the user's face, the glasses generally have a clear or distortion-free view with each pupil aligned with the center or optical axis of each lens. The glasses are fitted to the end user's nose at a position where the generally collimated light for the eye will reach the end user's eye.

도 3a에서 묘사된 바와 같이, 적어도 하나의 센서의 검출 영역(139r, 139l)은, 검출 영역(139r, 139l)의 중심이 광학 축을 따른 광을 캡쳐하도록, 그 각각의 디스플레이 광학 시스템(14r, 14l)의 광학 축과 정렬된다. 디스플레이 광학 시스템(14)이 엔드 유저의 동공과 정렬되면, 각각의 센서(134)의 각각의 검출 영역(139)은 엔드 유저의 동공과 정렬된다. 검출 영역(139)의 반사광은 하나 이상의 광학 엘리먼트를 통해 카메라의 실제 이미지 센서(134)로 전달되는데, 실제 이미지 센서(134)는, 묘사된 실시형태에서, 프레임(115) 내부에 있는 것으로 점선으로 예시된다. 몇몇 실시형태에서, 센서(134)는 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부의 이미지를 캡쳐하기 위한 이미지 센서 또는 RGB 카메라를 포함할 수도 있다. 엔드 유저와 관련되는 고정된 얼굴 특징부 예컨대 콧대를 캡쳐하기 위해, 다른 내향 이미지 센서가 프레임(115)과 또한 통합될 수도 있다.As depicted in Fig. 3A, the detection areas 139r, 139l of at least one sensor are each of their respective display optical systems 14r, 14l such that the centers of the detection areas 139r, 139l capture light along the optical axis. ) Is aligned with the optical axis of. When the display optical system 14 is aligned with the end user's pupil, each detection area 139 of each sensor 134 is aligned with the end user's pupil. The reflected light of the detection area 139 is transmitted through one or more optical elements to the actual image sensor 134 of the camera, which, in the depicted embodiment, is inside the frame 115 and is dotted with a dotted line. It is illustrated. In some embodiments, sensor 134 may include an image sensor or RGB camera for capturing an image of an end user's eye or facial features surrounding the eye. Other introverted image sensors may also be integrated with frame 115 to capture fixed facial features such as the nose bridge associated with the end user.

일 실시형태에서, 적어도 하나의 센서(134)는 가시광 카메라(예를 들면, RGB 또는 컬러 카메라)일 수도 있다. 일 예에서, 광학 엘리먼트 또는 광 검출용 엘리먼트는, 부분적으로 투과성이고 부분적으로 반사성인 가시광 반사용 미러(visible light reflecting mirror)를 포함한다. 가시광 카메라는 엔드 유저의 눈의 동공의 이미지 데이터를 제공하고, 한편 IR 광검출기(152)는, 스펙트럼의 IR 부분에서의 반사인 글린트를 캡쳐한다. 가시광 카메라가 사용되면, 가상 이미지의 반사는 카메라에 의해 캡쳐되는 눈 데이터에서 나타날 수도 있다. 필요에 따라, 가상 이미지 반사를 제거하기 위해 이미지 필터링 기술이 사용될 수도 있다. IR 카메라는 눈에서의 가상 이미지 반사를 감지하지 못할 수도 있다.In one embodiment, at least one sensor 134 may be a visible light camera (eg, an RGB or color camera). In one example, the optical element or element for light detection includes a partially transmissive and partially reflective visible light reflecting mirror. The visible light camera provides image data of the pupil of the eye of the end user, while the IR photodetector 152 captures glints, which are reflections in the IR portion of the spectrum. If a visible light camera is used, the reflection of the virtual image may appear in the eye data captured by the camera. If desired, image filtering techniques may be used to remove virtual image reflections. IR cameras may not be able to detect virtual image reflections from the eye.

다른 실시형태에서는, 적어도 하나의 센서(134)(즉, 134l 및 134r)는, IR 방사(radiation)가 지향될 수도 있는 IR 카메라 또는 위치 감지 검출기(PSD)이다. 눈으로부터 반사되는 IR 방사는 조명기(153), 다른 IR 조명기(도시되지 않음)의 입사 방사로부터 유래할 수도 있거나, 또는 눈에서 반사되는 주변 IR 방사로 유래할 수도 있다. 몇몇 경우에서, 센서(134)는 RGB 및 IR 카메라의 조합일 수도 있고, 광 유도용 엘리먼트(light directing element)는 가시광 반사용 또는 전환용 엘리먼트 및 IR 방사 반사용 또는 전환용 엘리먼트를 포함할 수도 있다. 몇몇 경우에서, 센서(134)는 시스템(14)의 렌즈 내에 임베딩될 수도 있다. 추가적으로, 카메라를 유저의 시야에 잘 어우러지게 하여 유저에 대한 어떠한 혼란도 경감하기 위해, 이미지 필터링 기술이 적용될 수도 있다.In another embodiment, at least one sensor 134 (ie, 134l and 134r) is an IR camera or position sensitive detector (PSD) to which IR radiation may be directed. The IR radiation reflected from the eye may come from incident radiation from the illuminator 153, another IR illuminator (not shown), or may come from ambient IR radiation reflected from the eye. In some cases, the sensor 134 may be a combination of RGB and IR cameras, and the light directing element may include an element for reflecting or converting visible light and an element for reflecting or converting IR radiation. . In some cases, sensor 134 may be embedded within the lens of system 14. Additionally, in order to reduce any confusion to the user by making the camera well matched to the user's field of view, an image filtering technique may be applied.

도 3a에서 묘사된 바와 같이, 광검출기(152)와 쌍을 이루며, 조명기(153)에 의해 생성되는 입사광과 광검출기(152)에서 수신되는 반사광 사이의 간섭을 방지하기 위해 배리어(154)에 의해 분리된 네 개의 세트의 조명기(153)가 존재한다. 도면에서의 불필요한 혼란을 방지하기 위해, 대표적인 쌍에 대해서 도면 부호가 도시된다. 각각의 조명기는, 미리 결정된 파장 근처에서 폭이 좁은 광의 빔을 생성하는 적외선(IR) 조명기일 수도 있다. 광검출기의 각각은 미리 결정된 파장 근처에서 광을 캡쳐하도록 선택될 수도 있다. 적외선은 근적외선을 또한 포함할 수도 있다. 조명기 또는 광검출기의 파장 드리프트가 존재할 수도 있거나 또는 어떤 파장 근처의 작은 범위가 허용될 수도 있기 때문에, 조명기 및 광검출기는 생성 및 검출을 위한 파장에 관해 허용오차 범위를 가질 수도 있다. 센서가 IR 카메라이거나 또는 IR 위치 감지 검출기(PSD)인 몇몇 실시형태에서, 광검출기는 추가적인 데이터 캡쳐 디바이스를 포함할 수도 있고 조명기의 동작, 예를 들면, 파장 드리프트, 빔 폭 변화 등등을 모니터링하기 위해 또한 사용될 수도 있다. 광검출기는 또한, 글린트 데이터를 센서(134)로서의 가시광 카메라에 제공할 수도 있다.As depicted in FIG. 3A, paired with a photodetector 152 is provided by a barrier 154 to prevent interference between the incident light generated by the illuminator 153 and the reflected light received by the photodetector 152. There are four separate sets of illuminators 153. In order to avoid unnecessary confusion in the drawings, reference numerals are shown for representative pairs. Each illuminator may be an infrared (IR) illuminator that generates a narrow beam of light near a predetermined wavelength. Each of the photodetectors may be selected to capture light near a predetermined wavelength. Infrared rays may also include near infrared rays. Because there may be a wavelength drift of the illuminator or photodetector, or a small range around a certain wavelength may be tolerated, the illuminator and photodetector may have a tolerance range with respect to the wavelength for generation and detection. In some embodiments where the sensor is an IR camera or an IR position sensing detector (PSD), the photodetector may include an additional data capture device to monitor the operation of the illuminator, e.g., wavelength drift, beam width change, etc. It can also be used. The photodetector may also provide glint data to the visible light camera as sensor 134.

도 3a에 묘사된 바와 같이, 각각의 디스플레이 광학 시스템(14) 및 각각의 눈과 대향하는 응시 검출 엘리먼트의 자신의 장치(예를 들면, 카메라(134)와 그 검출 영역(139), 조명기(153), 및 광검출기(152))는 이동가능한 내부 프레임 부분(117l, 117r) 상에 위치된다. 이 예에서, 디스플레이 조정 메커니즘은, 내부 프레임 부분(117)에 부착되는 샤프트(205)를 구비하는 하나 이상의 모터(203)을 포함하는데, 내부 프레임 부분(117)은 모터(203)에 의해 구동되는 샤프트(205)의 유도(guidance)와 동력 하에서 프레임(115) 내에서 좌에서 우로 또는 그 반대로 활주한다. 몇몇 실시형태에서, 하나의 모터(203)는 내부 프레임 둘 다를 구동할 수도 있다.As depicted in Fig. 3A, each display optical system 14 and its own device of the gaze detection element facing each eye (e.g., camera 134 and its detection area 139, illuminator 153 ), and the photodetector 152 are located on the movable inner frame portions 117l and 117r. In this example, the display adjustment mechanism includes one or more motors 203 having a shaft 205 attached to the inner frame portion 117, the inner frame portion 117 being driven by the motor 203. It slides from left to right within the frame 115 under the guidance and power of the shaft 205 or vice versa. In some embodiments, one motor 203 may drive both inner frames.

도 3b는 응시 검출 엘리먼트를 포함하는 이동가능한 디스플레이 광학 시스템을 구비하는 HMD(2)의 일부의 대안적 실시형태를 묘사한다. 묘사된 바와 같이, 각각의 디스플레이 광학 시스템(14)은 별개의 프레임 부분(115l, 115r)에 엔클로징된다. 프레임 부분의 각각은 모터(203)에 의해 개별적으로 이동될 수도 있다. 몇몇 실시형태에서, 적어도 하나의 센서(134)는 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부의 이미지를 캡쳐하기 위한 이미지 센서 또는 RGB 카메라를 포함할 수도 있다. 엔드 유저와 관련되는 고정된 얼굴 특징부 예컨대 콧대를 캡쳐하기 위해, 다른 내향 이미지 센서가 프레임(115)과 통합될 수도 있다.3B depicts an alternative embodiment of a portion of an HMD 2 with a movable display optical system including a gaze detection element. As depicted, each display optical system 14 is enclosed in a separate frame portion 115l, 115r. Each of the frame portions may be moved individually by a motor 203. In some embodiments, at least one sensor 134 may include an image sensor or RGB camera for capturing an image of an end user's eye or facial features surrounding the eye. Other introverted image sensors may be integrated with the frame 115 to capture fixed facial features such as the nose bridge associated with the end user.

도 4a는 엔드 유저에 의해 착용된 HMD(402)의 일 실시형태를 묘사한다. HMD(402)는, 도 1에서의 모바일 디바이스(19)와 같은 모바일 디바이스, 및 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부를 캡쳐하기 위한 하나 이상의 내향 카메라를 포함할 수도 있다. 도 4b는 HMD(402)와 통합되는 내향 카메라(inward facing camera)를 사용하여 촬영된 이미지의 쌍을 묘사한다. 이미지(406)는 엔드 유저의 눈(404)과 대응하는 정보를 포함한다. 한 쌍의 이미지가 묘사되지만, 엔드 유저와 관련되는 머리 위치 정보는 단일의 이미지(예를 들면, 이미지(406)) 또는 두 개보다 많은 이미지(예를 들면, 엔드 유저의 눈의 부분을 캡쳐하는 네 개의 이미지의 세트)를 사용하여 결정될 수도 있다. 몇몇 경우에서, 머리 위치 정보는 이미지(406-407)의 쌍의 각각과 대응하는 머리 위치 결정치를 평균내는 것에 의해 결정될 수도 있다. 이미지(406-407)의 쌍은 엔드 유저의 초기 머리 위치와 대응할 수도 있다.4A depicts one embodiment of an HMD 402 worn by an end user. The HMD 402 may include a mobile device, such as mobile device 19 in FIG. 1, and one or more introverted cameras for capturing the eye of an end user or facial features surrounding the eye. 4B depicts a pair of images taken using an inward facing camera integrated with HMD 402. Image 406 includes information corresponding to the eye 404 of the end user. A pair of images are depicted, but the head position information associated with the end user is a single image (e.g., image 406) or more than two images (e.g., capturing portions of the end user's eyes). May be determined using a set of four images). In some cases, the head position information may be determined by averaging each of the pairs of images 406-407 and corresponding head position determinations. The pair of images 406-407 may correspond to the end user's initial head position.

도 4c는 엔드 유저의 눈(404)과 대응하는 특징점(412, 414, 415, 및 416)을 포함하는 특징점의 식별을 묘사한다. 특징점(412)은 엔드 유저의 우안의 바깥쪽 안각과 대응할 수도 있고, 특징점(414)은 엔드 유저의 우안의 안쪽 안각과 대응할 수도 있고, 그리고 특징점(415)은 엔드 유저의 우안의 동공 중심과 대응할 수도 있다. 바깥쪽 안각 및 안쪽 안각은, 시간이 지남에 따라 엔드 유저가 그들의 눈을 가늘게 뜨더라도(또는 깜박이더라도), 식별될 수도 있다. 특징점(416)은 엔드 유저의 윗눈꺼풀의 변곡점(또는 최대 곡률점)과 대응할 수도 있다. 이미지(406)에 대해 이미지 프로세싱 기술을 적용하는 것에 의해, 엔드 유저의 아랫눈꺼풀의 변곡점(또는 최소 곡률점), 엔드 유저의 홍채, 엔드 유저의 콧대를 포함하는 다른 특징점도 또한 식별될 수도 있다.4C depicts the identification of a feature point including an end user's eye 404 and corresponding feature points 412, 414, 415, and 416. The feature point 412 may correspond to the outer canthal angle of the right eye of the end user, the feature point 414 may correspond to the inner canthal angle of the right eye of the end user, and the feature point 415 may correspond to the pupil center of the right eye of the end user. May be. The outer canthal and the inner canthal may be identified over time, even if the end-user squints (or blinks) their eyes. The feature point 416 may correspond to an inflection point (or maximum curvature point) of the upper eyelid of the end user. By applying image processing techniques to the image 406, other feature points may also be identified, including the inflection point (or minimum curvature point) of the lower eyelid of the end user, the iris of the end user, and the nose of the end user.

도 4d는 HMD(402)에 관해 위치된 엔드 유저의 눈의 3D 모델을 묘사한다. 엔드 유저의 눈의 각각은 HMD에 대한 3차원 좌표 공간 내에 위치되는 구(418-419) 또는 회전타원체(spheroid)로서 모델링될 수도 있다. 묘사된 바와 같이, 제1 구(418)는 엔드 유저의 우안과 대응할 수도 있고 제2 구(419)는 엔드 유저의 좌안과 대응할 수도 있다. 3차원 좌표 공간 내에서의 구(418-419)의 위치는 특징점(412, 414, 415, 및 416)에 기초하여 결정될 수도 있다. 또한, 엔드 유저의 눈 위치는 그들의 머리에 대해 고정되기 때문에, 두 구(418-419) 사이의 IPD는 초기화 프로시져(엔드 유저가 HMD를 처음으로 착용할 때) 동안 결정될 수도 있고 3차원 좌표 공간 내에서의 구(418-419)의 위치를 위치결정하기 위해 사용될 수도 있다.4D depicts a 3D model of an end user's eye positioned relative to the HMD 402. Each of the end user's eyes may be modeled as a sphere 418-419 or a spheroid positioned within the three-dimensional coordinate space for the HMD. As depicted, the first sphere 418 may correspond to the right eye of the end user and the second sphere 419 may correspond to the left eye of the end user. The positions of the spheres 418-419 within the three-dimensional coordinate space may be determined based on the feature points 412, 414, 415, and 416. Also, since the end-user's eye position is fixed relative to their head, the IPD between the two spheres (418-419) may be determined during the initialization procedure (the first time the end user wears the HMD) and within the three-dimensional coordinate space. It may also be used to position the spheres 418-419 at.

도 4e는 HMD(402)와 통합되는 내향 카메라를 사용하여 촬영된 이미지(408-409)의 제2 쌍을 묘사한다. 이미지(408)는 엔드 유저의 눈(404)과 대응하는 정보를 포함한다. 한 쌍의 이미지가 묘사되지만, 엔드 유저와 관련되는 머리 위치 정보는 단일의 이미지(예를 들면, 이미지(408)) 또는 두 개 이상의 이미지를 사용하여 결정될 수도 있다. 몇몇 경우에서, 머리 위치 정보는 이미지(408-409)의 쌍의 각각과 대응하는 머리 위치 결정치를 평균내는 것에 의해 결정될 수도 있다. 이미지(408-409)의 쌍은, 이미지(406-407)의 캡쳐에 후속하는 어떤 시간에 캡쳐되는 엔드 유저의 후속하는 머리 위치와 대응할 수도 있다. 일 예에서, 이미지(408-409)의 쌍은 이미지(406-407)의 쌍이 캡쳐되고 1 ms 이후에 캡쳐된다.4E depicts a second pair of images 408-409 captured using an introverted camera integrated with HMD 402. Image 408 includes information corresponding to the eye 404 of the end user. While a pair of images is depicted, head position information associated with the end user may be determined using a single image (eg, image 408) or two or more images. In some cases, the head position information may be determined by averaging each of the pairs of images 408-409 and corresponding head position determinations. The pair of images 408-409 may correspond to a subsequent head position of the end user being captured at some time following the capture of the images 406-407. In one example, the pair of images 408-409 is captured 1 ms after the pair of images 406-407 is captured.

도 4f는 엔드 유저의 눈(404)과 대응하는 특징점(422, 424, 425, 및 426)을 포함하는 특징점의 식별을 묘사한다. 특징점(422)은 엔드 유저의 우안의 바깥쪽 안각과 대응할 수도 있고, 특징점(424)은 엔드 유저의 우안의 안쪽 안각과 대응할 수도 있고, 그리고 특징점(425)은 엔드 유저의 우안의 동공 중심과 대응할 수도 있다. 바깥쪽 안각 및 안쪽 안각은, 시간이 지남에 따라 엔드 유저가 그들의 눈을 주기적으로 가늘게 뜨더라도, 식별될 수도 있다. 특징점(426)은 엔드 유저의 윗눈꺼풀의 변곡점(또는 최대 곡률점)과 대응할 수도 있다. 이미지(408)에 대해 이미지 프로세싱 기술을 적용하는 것에 의해, 엔드 유저의 아랫눈꺼풀의 변곡점(또는 최소 곡률점) 및 엔드 유저의 콧대를 포함하는 다른 특징점도 또한 식별될 수도 있다.4F depicts the identification of a feature point including an end user's eye 404 and corresponding feature points 422, 424, 425, and 426. The feature point 422 may correspond to the outer canthal angle of the right eye of the end user, the feature point 424 may correspond to the inner canal angle of the right eye of the end user, and the feature point 425 may correspond to the pupil center of the right eye of the end user. May be. The outer canthal and inner canthal may be identified, even though end users periodically squint their eyes over time. The feature point 426 may correspond to an inflection point (or maximum curvature point) of the upper eyelid of the end user. By applying image processing techniques to the image 408, other feature points may also be identified, including the inflection point (or minimum curvature point) of the lower eyelid of the end user and the nose bridge of the end user.

도 4g는 HMD(402)에 관해 위치된 엔드 유저의 눈의 업데이트된 3D 모델을 묘사한다. 엔드 유저의 눈의 각각은 HMD에 대한 3차원 좌표 공간 내에 위치되는 구(428-429) 또는 회전타원체로서 모델링될 수도 있다. 묘사된 바와 같이, 제1 구(428)는 엔드 유저의 우안과 대응할 수도 있고 제2 구(429)는 엔드 유저의 좌안과 대응할 수도 있다. 3차원 좌표 공간 내에서의 구(428-429)의 위치는 특징점(422, 424, 425, 및 426)에 기초하여 결정될 수도 있다. 일 실시형태에서, 업데이트된 3D 모델 내에서의 눈의 위치는, 엔드 유저의 초기 머리 위치와 관련되는 특징점(412, 414, 415, 및 416)과 매칭하는 특징점(422, 424, 425, 및 426)의 가장 잘 합치하는(fitting) 3D 회전 및 병진을 발견하기 위해 회전 및 병진 알고리즘을 사용하여 결정될 수도 있다.4G depicts an updated 3D model of an end user's eye positioned relative to the HMD 402. Each of the end user's eyes may be modeled as a spheroid or sphere 428-429 positioned within a three-dimensional coordinate space for the HMD. As depicted, the first sphere 428 may correspond to the right eye of the end user and the second sphere 429 may correspond to the left eye of the end user. The positions of the spheres 428-429 in the three-dimensional coordinate space may be determined based on the feature points 422, 424, 425, and 426. In one embodiment, the position of the eye within the updated 3D model is the feature points 422, 424, 425, and 426 that match the feature points 412, 414, 415, and 416 associated with the end user's initial head position. ) May be determined using a rotation and translation algorithm to find the best fitting 3D rotation and translation of.

도 4h는 시간이 지남에 따른 엔드 유저의 눈 위치에서의 변경의 표현의 일 실시형태를 묘사한다. 묘사된 바와 같이, 구(418)와 대응하는 제1 위치 및 방향(432)은 구(428)의 제2 위치 및 방향(434)으로 이동할 수도 있다. 엔드 유저의 우안에서의 움직임을 나타내는 구(418)의 중심에서의 변경은 벡터(436)를 사용하여 설명될 수도 있다. 마찬가지로, 구(419)와 대응하는 제1 위치 및 방향(442)은 구(429)의 제2 위치 및 방향(444)으로 이동할 수도 있다. 엔드 유저의 좌안에서의 움직임을 나타내는 구(419)의 중심에서의 변경은 벡터(446)를 사용하여 설명될 수도 있다.4H depicts one embodiment of a representation of a change in an end user's eye position over time. As depicted, a first position and direction 432 corresponding to sphere 418 may move to a second position and direction 434 of sphere 428. The change in the center of the sphere 418 representing motion in the right eye of the end user may be described using a vector 436. Likewise, the first position and direction 442 corresponding to the sphere 419 may move to the second position and direction 444 of the sphere 429. The change in the center of the sphere 419 representing the movement in the left eye of the end user may be described using a vector 446.

일 실시형태에서, 머리 위치 벡터는 구(428-429)의 중심을 연결하는 그리고 엔드 유저의 우안의 안쪽 안각과 엔드 유저의 좌안의 안쪽 안각을 연결하는 라인의 중간점과 교차하는 라인에 직교하는 벡터를 포함할 수도 있다. 머리 위치 벡터는 HMD에 대한 3차원 좌표 공간 내에서 3차원 벡터를 포함할 수도 있다.In one embodiment, the head position vector is orthogonal to a line that intersects the midpoint of the line connecting the center of the sphere 428-429 and connecting the inner canal of the end user's right eye and the inner canal of the end user's left eye. It can also contain vectors. The head position vector may include a 3D vector within a 3D coordinate space for the HMD.

몇몇 경우에서, HMD는, 엔드 유저가 HMD를 사용하여 증강 현실 환경을 보고 있는 동안, 엔드 유저의 눈 및/또는 눈을 둘러싸는 엔드 유저의 얼굴 영역의 복수의 이미지를 캡쳐할 수도 있다. 엔드 유저의 눈이 그들의 머리 위치에 관해 고정되기 때문에, 엔드 유저의 눈과 관련되는 고정된 특징점은 엔드 유저와 관련되는 머리 위치를 결정하도록 사용될 수도 있다. HMD는, 엔드 유저의 눈과 대응하는 특징점을 검출하고 추적하기 위해, 캡쳐된 이미지에 대해 이미지 프로세싱 기술을 적용할 수도 있다. 엔드 유저의 눈의 한 쪽 눈 또는 양쪽 눈과 관련되는 특징점이 식별되면, 엔드 유저의 눈의 3D 모델(예를 들면, 회전타원체의 쌍을 포함함)과 관련되는 위치 및 방향은 특징점에 기초하여 업데이트될 수도 있고, 머리 위치 벡터(예를 들면, 3D 벡터로 표현됨)는 3D 모델에 기초하여 결정될 수도 있다.In some cases, the HMD may capture multiple images of the end user's eyes and/or the end user's facial area surrounding the eyes while the end user is viewing the augmented reality environment using the HMD. Since the end user's eyes are fixed with respect to their head position, a fixed feature point associated with the end user's eye may be used to determine the head position relative to the end user. The HMD may apply image processing techniques to the captured image to detect and track feature points corresponding to the eyes of the end user. Once a feature point associated with one or both eyes of the end user's eye is identified, the position and orientation relative to the 3D model of the end user's eye (e.g., including a pair of spheroids) are determined based on the feature point. It may be updated, and the head position vector (for example, represented by a 3D vector) may be determined based on the 3D model.

도 5는 HMD에 대한 HMD의 엔드 유저의 머리 위치를 추적하기 위한 그리고 HMD에 대한 머리 위치에 기초하여 가상 오브젝트의 위치를 조정하기 위한 방법의 일 실시형태를 설명하는 플로우차트이다. 일 실시형태에서, 도 5의 프로세스는, 도 1에서의 모바일 디바이스(19)와 같은 모바일 디바이스에 의해 수행될 수도 있다.5 is a flowchart illustrating one embodiment of a method for tracking an end user's head position of the HMD relative to the HMD and for adjusting the position of a virtual object based on the head position relative to the HMD. In one embodiment, the process of FIG. 5 may be performed by a mobile device, such as mobile device 19 in FIG. 1.

단계 502에서, 엔드 유저가 착용하고 있는 HMD의 포지셔닝(positioning)이 검출된다. HMD의 포지셔닝은, HMD가 엔드 유저의 머리 상에 또는 머리 근처에 배치될 때 검출될 수도 있다. 단계 504에서, HMD를 엔드 유저에게 배치하기 위한 안내가 엔드 유저에게 제공된다. 엔드 유저에게 제공되는 안내는, 엔드 유저가 HMD를 그들의 머리에 적절히 정렬하거나 피팅하는 것을 허용하기 위해, 엔드 유저에 대한 정렬 마커의 표시를 포함할 수도 있다.In step 502, the positioning of the HMD worn by the end user is detected. The positioning of the HMD may be detected when the HMD is placed on or near the end user's head. In step 504, guidance for placing the HMD to the end user is provided to the end user. Guidance provided to the end user may include an indication of an alignment marker for the end user to allow the end user to properly align or fit the HMD to their head.

단계 506에서, HMD에 대한 엔드 유저의 초기 머리 위치가 제1 시점(first point in time)에 결정된다. 초기 머리 위치는, 엔드 유저가 HMD를 그들의 머리에 정확하게 위치시키는 것에 응답하여 결정될 수도 있다. 일 실시형태에서, 초기 머리 위치는, 하나 이상의 내향 카메라를 사용하여, 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부의 이미지를 캡쳐하는 것, 캡쳐된 이미지에 대해 이미지 프로세싱 기술을 적용하는 것에 의해 엔드 유저의 눈과 관련되는 특징점을 식별하는 것, 및 그 다음, 식별된 특징점을 사용하여 엔드 유저의 눈의 3D 모델과 관련되는 위치 및 방향을 결정하는 것에 의해, 결정될 수도 있다.In step 506, an initial head position of the end user with respect to the HMD is determined at a first point in time. The initial head position may be determined in response to the end-user accurately positioning the HMD on their head. In one embodiment, the initial head position is achieved by capturing an image of the end user's eye or facial features surrounding the eye, using one or more introspective cameras, by applying image processing techniques to the captured image. It may be determined by identifying a feature point associated with the user's eye, and then using the identified feature point to determine a position and orientation associated with the 3D model of the end user's eye.

단계 508에서, 엔드 유저의 제2 머리 위치는 제1 시점에 후속하는 제2 시점에 HMD에 관해 결정된다. 제2 머리 위치는 초기 머리 위치와는 상이할 수도 있다. 몇몇 경우에서, 후속하는 머리 위치는 주기적으로(예를 들면, 1-2 ms마다) 결정될 수도 있다. 일 실시형태에서, 제2 머리 위치는, 하나 이상의 내향 카메라를 사용하여, 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부의 추가 이미지를 캡쳐하는 것, 캡쳐된 이미지에 대해 이미지 프로세싱 기술을 적용하는 것에 의해 엔드 유저의 눈과 관련되는 특징점을 식별하는 것, 및 그 다음, 식별된 특징점을 사용하여 엔드 유저의 눈의 3D 모델과 관련되는 업데이트된 위치 및 방향을 결정하는 것에 의해, 결정될 수도 있다. 일 예에서, 업데이트된 3D 모델 내에서의 엔드 유저의 눈의 위치는, 엔드 유저의 초기 머리 위치와 관련되는 특징점과 매칭하는 제2 특징점과 관련되는 특징점의 가장 잘 합치하는 3D 회전 및 병진을 발견하기 위해 회전 및 병진 알고리즘을 사용하여 결정될 수도 있다.In step 508, a second head position of the end user is determined with respect to the HMD at a second time point subsequent to the first time point. The second head position may be different from the initial head position. In some cases, subsequent head position may be determined periodically (eg, every 1-2 ms). In one embodiment, the second head position includes capturing additional images of the eyes of the end user or facial features surrounding the eyes, using one or more introspective cameras, and applying image processing techniques to the captured images. By identifying a feature point associated with the eye of the end user, and then using the identified feature point to determine an updated position and orientation associated with the 3D model of the eye of the end user. In one example, the position of the end user's eye in the updated 3D model finds the 3D rotation and translation that best match the feature point associated with the second feature point that matches the feature point associated with the end user's initial head position. May also be determined using a rotation and translation algorithm.

단계 510에서, 하나 이상의 가상 오브젝트에 대한 하나 이상의 업데이트된 위치는 제2 머리 위치에 기초하여 결정된다. 몇몇 경우에서, 엔드 유저의 머리 위치(또는 눈 위치)가 (예를 들면, 엔드 유저가 HMD를 착용하고 있을 때 엔드 유저가 울퉁불퉁한 도로 위를 달리고 있는 것에 기인하여 또는 실수로 HMD를 터치하는 것에 기인하여) 초기 머리 위치에 관해 이동하면, 가상 오브젝트가 증강 현실 환경 내에서 적절히 고정된 것처럼 보이도록 또는 다르게는 위치결정된 것처럼 보이도록, HMD는 엔드 유저에게 디스플레이되는 가상 오브젝트의 위치를 조정할 수도 있다.In step 510, one or more updated positions for the one or more virtual objects are determined based on the second head position. In some cases, the end user's head position (or eye position) is due to (e.g., due to the end user running on a bumpy road when the end user is wearing the HMD or by accidentally touching the HMD). Due to), the HMD may adjust the position of the virtual object displayed to the end user so that, upon moving relative to the initial head position, the virtual object appears to be properly fixed or otherwise positioned within the augmented reality environment.

단계 512에서, HMD에 대한 머리 움직임의 정도는, 초기 머리 위치 및 제2 머리 위치에 기초하여 결정된다. 머리 움직임의 정도는, 초기 머리 위치로부터 제2 머리 위치로의 엔드 유저의 머리의 위치 및/또는 방향에서의 변경과 대응할 수도 있다. 몇몇 실시형태에서, 머리 움직임의 정도는 복수의 머리 추적용 벡터 중에서 최대 벡터 차이와 대응할 수도 있다. 예를 들면, 엔드 유저의 머리 위치가 밀리초마다 결정되고 추적되는 경우, 머리 움직임의 정도는, 1초의 기간 동안의 머리 위치에서의 최대 변경과 대응할 수도 있다(즉, 머리 움직임의 정도는 1초의 시간 기간 동안의 머리 위치의 각각과 관련되는 수천 개의 머리 추적용 벡터 중에서의 최대 벡터 차이와 대응할 수도 있다).In step 512, the degree of head movement for the HMD is determined based on the initial head position and the second head position. The degree of head movement may correspond to a change in the position and/or direction of the end user's head from the initial head position to the second head position. In some embodiments, the degree of head movement may correspond to a maximum vector difference among the plurality of head tracking vectors. For example, if the end user's head position is determined and tracked every millisecond, the degree of head movement may correspond to the maximum change in head position over a period of one second (i.e., the degree of head movement is one second. It may correspond to the maximum vector difference among thousands of head tracking vectors associated with each of the head positions over a period of time).

단계 514에서, HMD에 대한 머리 움직임의 정도가 문턱치를 초과한다는 것이 검출된다. 일 예에서, HMD에 대한 머리 움직임의 정도는, 머리 움직임의 정도가 5cm를 초과하면 초과될 수도 있다. 단계 516에서, 하나 이상의 가상 오브젝트의 해상도는, HMD에 대한 머리 움직임의 정도가 문턱치를 초과하는지의 여부에 기초하여 조정될 수도 있다. 몇몇 실시형태에서, 생성되어 엔드 유저에게 디스플레이되는 가상 오브젝트의 해상도 및/또는 수는, HMD에 대한 엔드 유저의 머리 움직임의 정도에 기초하여 수정될 수도 있다. 일 예에서, 엔드 유저에게 디스플레이되는 가상 오브젝트의 해상도와 수 둘 다는, 머리 움직임의 정도가 문턱치를 초과하면(예를 들면, 엔드 유저의 머리 위치가 초기 머리 위치로부터 HMD에 관해 4 센티미터보다 더 많이 이동하면) 감소될 수도 있다(예를 들면, 절반으로 될 수도 있다). HMD는 또한, 머리 움직임의 정도가 문턱치를 초과하면 엔드 유저에게 통지(예를 들면, 디스플레이 통지 또는 오디오 통지)를 제공하고 HMD를 엔드 유저의 머리에 재정렬하거나 재위치시키도록 엔드 유저에게 안내를 제공할 수도 있다.In step 514, it is detected that the degree of head movement for the HMD exceeds a threshold. In one example, the degree of head movement relative to the HMD may be exceeded when the degree of head movement exceeds 5 cm. In step 516, the resolution of the one or more virtual objects may be adjusted based on whether the degree of head movement for the HMD exceeds a threshold. In some embodiments, the resolution and/or number of virtual objects created and displayed to the end user may be modified based on the degree of head movement of the end user relative to the HMD. In one example, both the resolution and the number of virtual objects displayed to the end user are determined by the extent of head movement exceeding a threshold (e.g., the end user's head position is more than 4 centimeters relative to the HMD from the initial head position). It can be reduced (for example, it can be halved). The HMD also provides a notification (e.g., display notification or audio notification) to the end user when the degree of head movement exceeds a threshold and provides guidance to the end user to rearrange or reposition the HMD to the end user's head. You may.

단계 518에서, 하나 이상의 가상 오브젝트가 렌더링된다. 단계 520에서, 하나 이상의 가상 오브젝트가 HMD를 사용하여 디스플레이된다. 일 실시형태에서, 하나 이상의 가상 오브젝트와 대응하는 하나 이상의 이미지는, HMD의 엔드 유저에게 디스플레이되는 증강 현실 환경 내에 하나 이상의 가상 오브젝트가 존재하는 것으로 인식되도록, HMD 상에 렌더링되고 디스플레이된다.In step 518, one or more virtual objects are rendered. In step 520, one or more virtual objects are displayed using the HMD. In one embodiment, the one or more images corresponding to the one or more virtual objects are rendered and displayed on the HMD such that the one or more virtual objects are recognized as being present within the augmented reality environment displayed to the end user of the HMD.

도 6은 HMD에 대한 HMD의 엔드 유저의 머리 위치를 추적하기 위한 방법의 대안적 실시형태를 설명하는 플로우차트이다. 일 실시형태에서, 도 6의 프로세스는, 도 1에서의 모바일 디바이스(19)와 같은 모바일 디바이스에 의해 수행될 수도 있다.6 is a flowchart illustrating an alternative embodiment of a method for tracking an end user's head position of an HMD relative to the HMD. In one embodiment, the process of FIG. 6 may be performed by a mobile device, such as mobile device 19 in FIG. 1.

단계 602에서, 엔드 유저의 제1 세트의 이미지가 HMD를 사용하여 제1 시점에 캡쳐된다. 제1 세트의 이미지는 HMD와 통합되는 하나 이상의 내향 카메라를 사용하여 캡쳐될 수도 있다. 단계 604에서, HMD에 대한 엔드 유저의 초기 머리 위치가 제1 세트의 이미지에 기초하여 결정된다. 초기 머리 위치는, 엔드 유저가 HMD를 그들의 머리에 정확하게 위치시키는 것에 응답하여 결정될 수도 있다. 일 실시형태에서, 초기 머리 위치는, 하나 이상의 내향 카메라를 사용하여, 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부의 이미지를 캡쳐하는 것, 캡쳐된 이미지에 대해 이미지 프로세싱 기술을 적용하는 것에 의해 엔드 유저의 눈과 관련되는 특징점을 식별하는 것, 및 그 다음, 식별된 특징점을 사용하여 엔드 유저의 눈의 3D 모델과 관련되는 위치 및 방향을 결정하는 것에 의해, 결정될 수도 있다.In step 602, images of a first set of end users are captured at a first time point using the HMD. The first set of images may be captured using one or more inward cameras integrated with the HMD. In step 604, the end user's initial head position relative to the HMD is determined based on the first set of images. The initial head position may be determined in response to the end-user accurately positioning the HMD on their head. In one embodiment, the initial head position is achieved by capturing an image of the end user's eye or facial features surrounding the eye, using one or more introspective cameras, by applying image processing techniques to the captured image. It may be determined by identifying a feature point associated with the user's eye, and then using the identified feature point to determine a position and orientation associated with the 3D model of the end user's eye.

단계 606에서, 초기 머리 위치에 기초하여, 가상 오브젝트와 관련되는 제1 이미지가 렌더링되고 디스플레이된다. 제1 이미지는 HMD 상의 제1 위치에서 디스플레이될 수도 있다. 단계 608에서, 엔드 유저의 제2 세트의 이미지가 제1 시점에 후속하는 제2 시점에 캡쳐된다. 단계 610에서, 엔드 유저의 업데이트된 머리 위치는 제2 세트의 이미지에 기초하여 결정될 수도 있다. 업데이트된 머리 위치는 초기 머리 위치와는 상이할 수도 있다. 몇몇 경우에서, 후속하는 머리 위치는 주기적으로(예를 들면, 1-2 ms마다) 결정될 수도 있다. 일 실시형태에서, 업데이트된 머리 위치는, 하나 이상의 내향 카메라를 사용하여, 엔드 유저의 눈 또는 눈을 둘러싸는 얼굴 특징부의 추가 이미지를 캡쳐하는 것, 캡쳐된 이미지에 대해 이미지 프로세싱 기술을 적용하는 것에 의해 엔드 유저의 눈과 관련되는 특징점을 식별하는 것, 및 그 다음, 식별된 특징점을 사용하여 엔드 유저의 눈의 3D 모델과 관련되는 업데이트된 위치 및 방향을 결정하는 것에 의해, 결정될 수도 있다. 일 예에서, 업데이트된 3D 모델 내에서의 엔드 유저의 눈의 위치는, 엔드 유저의 초기 머리 위치와 관련되는 특징점과 매칭하는 업데이트된 머리 위치와 관련되는 특징점의 가장 잘 합치하는 3D 회전 및 병진을 발견하기 위해 회전 및 병진 알고리즘을 사용하여 결정될 수도 있다.In step 606, based on the initial head position, a first image associated with the virtual object is rendered and displayed. The first image may be displayed at a first location on the HMD. In step 608, a second set of images of the end user is captured at a second viewpoint following the first viewpoint. In step 610, the updated head position of the end user may be determined based on the second set of images. The updated head position may be different from the initial head position. In some cases, subsequent head position may be determined periodically (eg, every 1-2 ms). In one embodiment, the updated head position includes capturing additional images of the end user's eyes or facial features surrounding the eyes, using one or more introspective cameras, and applying image processing techniques to the captured images. By identifying a feature point associated with the eye of the end user, and then using the identified feature point to determine an updated position and orientation associated with the 3D model of the eye of the end user. In one example, the position of the end user's eyes within the updated 3D model is the 3D rotation and translation that best match the feature points associated with the updated head position that match the feature points associated with the end user's initial head position. It may also be determined using rotation and translation algorithms to find.

단계 612에서, 업데이트된 머리 위치에 기초하여, 가상 오브젝트와 관련되는 제2 이미지가 렌더링되고 디스플레이된다. 제2 이미지는, 제1 위치와는 상이한 HMD 상의 제2 위치에서 디스플레이될 수도 있다. 일 예에서, 엔드 유저의 머리 위치(또는 눈 위치)가 (예를 들면, 엔드 유저가 HMD를 착용하고 있을 때 엔드 유저가 울퉁불퉁한 도로 위를 달리고 있는 것에 기인하여 또는 실수로 HMD를 터치하는 것에 기인하여) HMD에 대한 초기 위치에 관해 이동하면, 가상 오브젝트가 증강 현실 환경 내에서 적절히 고정된 것처럼 보이도록 또는 다르게는 위치결정된 것처럼 보이도록, HMD는 엔드 유저에게 디스플레이되는 가상 오브젝트의 위치를 조정할 수도 있다.In step 612, based on the updated head position, a second image associated with the virtual object is rendered and displayed. The second image may be displayed at a second location on the HMD different from the first location. In one example, the end user's head position (or eye position) is (e.g., due to the end user running on a bumpy road when the end user is wearing the HMD or by accidentally touching the HMD). Due to), the HMD may adjust the position of the virtual object displayed to the end-user so that when moving relative to the initial position relative to the HMD, the virtual object appears to be properly fixed or otherwise positioned within the augmented reality environment. have.

단계 614에서, HMD에 대한 머리 움직임의 정도는, 초기 머리 위치 및 업데이트된 머리 위치에 기초하여 결정된다. 머리 움직임의 정도는, 초기 머리 위치로부터 업데이트된 머리 위치로의 엔드 유저의 머리의 위치 및/또는 방향에서의 변경과 대응할 수도 있다. 몇몇 실시형태에서, 머리 움직임의 정도는 복수의 머리 추적용 벡터 중에서 최대 벡터 차이와 대응할 수도 있다. 예를 들면, 엔드 유저의 머리 위치가 0.2 밀리초마다 결정되고 추적되는 경우, 머리 움직임의 정도는, 2초의 기간 동안의 머리 위치에서의 최대 변경과 대응할 수도 있다.In step 614, the degree of head movement for the HMD is determined based on the initial head position and the updated head position. The degree of head movement may correspond to a change in the position and/or direction of the end user's head from the initial head position to the updated head position. In some embodiments, the degree of head movement may correspond to a maximum vector difference among the plurality of head tracking vectors. For example, if the end user's head position is determined and tracked every 0.2 milliseconds, the degree of head movement may correspond to a maximum change in head position over a period of two seconds.

단계 616에서, HMD에 대한 머리 움직임의 정도가 문턱치를 초과한다는 것이 검출된다. 일 예에서, HMD에 대한 머리 움직임의 정도는, 머리 움직임의 정도가 2cm를 초과하면 초과될 수도 있다. 단계 618에서, HMD에 대한 머리 움직임의 정도가 문턱치를 초과하면 경고가 엔드 유저에게 디스플레이된다. 일 실시형태에서, 경고는 증강 현실 환경 내에서 나타나는 시각적 텍스트로서 유저에게 디스플레이될 수도 있다.In step 616, it is detected that the degree of head movement for the HMD exceeds a threshold. In one example, the degree of head movement relative to the HMD may be exceeded when the degree of head movement exceeds 2 cm. In step 618, a warning is displayed to the end user if the degree of head movement for the HMD exceeds the threshold. In one embodiment, the alert may be displayed to the user as visual text that appears within an augmented reality environment.

개시된 기술의 일 실시형태는 씨-쓰루 디스플레이와 통신하는 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는, 제1 시점에 전자 디바이스에 대한 전자 디바이스의 엔드 유저의 초기 머리 위치를 결정하고 제1 시점에 후속하는 제2 시점에 전자 디바이스에 대한 엔드 유저의 제2 머리 위치를 결정한다. 제2 머리 위치는 초기 머리 위치와는 상이할 수도 있다. 하나 이상의 프로세서는, 제2 머리 위치에 기초하여 가상 오브젝트와 관련되는 제2 이미지를 렌더링한다. 씨-쓰루 디스플레이는, 전자 디바이스의 엔드 유저에게 디스플레이되는 증강 현실 환경 내에 가상 오브젝트가 존재하는 것으로 인식되도록, 제2 이미지를 디스플레이한다.One embodiment of the disclosed technology includes one or more processors in communication with a see-through display. The one or more processors determine an initial head position of the end user of the electronic device with respect to the electronic device at a first time point and determine a second head position of the end user with respect to the electronic device at a second time point subsequent to the first time point. The second head position may be different from the initial head position. The one or more processors render a second image associated with the virtual object based on the second head position. The see-through display displays the second image so that the virtual object is recognized as being present in the augmented reality environment displayed to the end user of the electronic device.

개시된 기술의 일 실시형태는, 제1 시점에 HMD에 대한 엔드 유저의 초기 머리 위치를 결정하는 것 및 HMD에 대한 엔드 유저의 초기 머리 위치에 기초하여 가상 오브젝트와 관련되는 제1 이미지를 디스플레이하는 것을 포함한다. 제1 이미지는 HMD 상의 제1 위치에서 디스플레이된다. 그 방법은, 제1 시점에 후속하는 제2 시점에 HMD에 대한 엔드 유저의 제2 머리 위치를 결정하는 것을 더 포함한다. 제2 머리 위치는 초기 머리 위치와는 상이할 수도 있다. 그 방법은, HMD에 대한 엔드 유저의 제2 머리 위치에 기초하여, 가상 오브젝트와 관련되는 제2 이미지를 렌더링하고 디스플레이하는 것을 더 포함한다. 제2 이미지는, 제1 위치와는 상이한 HMD 상의 제2 위치에서 디스플레이될 수도 있다.One embodiment of the disclosed technology includes determining an end user's initial head position relative to the HMD at a first point in time and displaying a first image associated with the virtual object based on the end user's initial head position relative to the HMD. Include. The first image is displayed at a first location on the HMD. The method further includes determining a second head position of the end user relative to the HMD at a second time point subsequent to the first time point. The second head position may be different from the initial head position. The method further includes rendering and displaying a second image associated with the virtual object based on the end user's second head position relative to the HMD. The second image may be displayed at a second location on the HMD different from the first location.

개시된 기술의 일 실시형태는, 제1 시점에 엔드 유저의 제1 세트의 이미지를 캡쳐하는 것을 포함한다. 제1 세트의 이미지는 엔드 유저의 눈의 적어도 일부를 캡쳐한다. 그 방법은, 제1 세트의 이미지에 기초하여 HMD에 대한 엔드 유저의 초기 머리 위치를 결정하는 것, HMD에 대한 엔드 유저의 초기 머리 위치에 기초하여 가상 오브젝트와 관련되는 제1 이미지를 렌더링하고 디스플레이하는 것, 제1 시점에 후속하는 제2 시점에 엔드 유저의 제2 세트의 이미지를 캡쳐하는 것, 및 제2 세트의 이미지에 기초하여 HMD에 대한 엔드 유저의 제2 머리 위치를 결정하는 것을 더 포함한다. 제2 머리 위치는 초기 머리 위치와는 상이할 수도 있다. 그 방법은, HMD에 대한 엔드 유저의 제2 머리 위치에 기초하여, 가상 오브젝트와 관련되는 제2 이미지를 렌더링하고 디스플레이하는 것을 더 포함한다.One embodiment of the disclosed technique includes capturing images of a first set of end users at a first point in time. The first set of images captures at least a portion of the end user's eye. The method includes determining an end user's initial head position relative to the HMD based on a first set of images, rendering and displaying a first image associated with the virtual object based on the end user's initial head position relative to the HMD. And capturing a second set of images of the end user at a second time point subsequent to the first time point, and determining a second head position of the end user with respect to the HMD based on the second set of images. Include. The second head position may be different from the initial head position. The method further includes rendering and displaying a second image associated with the virtual object based on the end user's second head position relative to the HMD.

도 7은, 도 1에서의 모바일 디바이스(19)와 같은 모바일 디바이스(8300)의 일 실시형태의 블록도이다. 모바일 디바이스는, 무선 수신기/송신기 기술과 통합된 랩탑 컴퓨터, 포켓 컴퓨터, 모바일 폰, HMD, 개인 휴대용 정보 단말(personal digital assistant), 및 핸드헬드 미디어 디바이스를 포함할 수도 있다.7 is a block diagram of one embodiment of a mobile device 8300, such as mobile device 19 in FIG. 1. Mobile devices may include laptop computers, pocket computers, mobile phones, HMDs, personal digital assistants, and handheld media devices integrated with wireless receiver/transmitter technology.

모바일 디바이스(8300)는 하나 이상의 프로세스(8312) 및 메모리(8310)를 포함한다. 메모리(8310)는 애플리케이션(8330) 및 비휘발성 스토리지(8340)를 포함한다. 메모리(8310)는 임의의 다양한 메모리 저장 매체 타입일 수 있는데, 비휘발성 및 휘발성 메모리를 포함한다. 모바일 디바이스 오퍼레이팅 시스템은, 모바일 디바이스(8300)의 상이한 동작을 핸들링하고, 전화를 걸고 받는 것, 텍스트 메시징, 보이스메일 체킹 등등과 같은 동작에 대한 유저 인터페이스를 포함할 수도 있다. 애플리케이션(8330)은 임의의 구색(assortment)의 프로그램, 예컨대 사진 및/또는 비디오용의 카메라 애플리케이션, 주소록, 캘린더 애플리케이션, 미디어 플레이어, 인터넷 브라우저, 게임, 알람 애플리케이션, 및 다른 애플리케이션일 수 있다. 메모리(8310)에서의 비휘발성 스토리지 컴포넌트(8340)는 음악, 사진, 연락처 데이터(contact data), 스케줄링 데이터, 및 기타 파일과 같은 데이터를 포함할 수도 있다.Mobile device 8300 includes one or more processes 8312 and memory 8310. The memory 8310 includes an application 8330 and non-volatile storage 8340. The memory 8310 can be any of a variety of memory storage media types, including non-volatile and volatile memory. The mobile device operating system handles different operations of the mobile device 8300 and may include a user interface for operations such as making and receiving phone calls, text messaging, voicemail checking, and the like. Application 8330 can be any assortment of programs, such as camera applications for photos and/or videos, address book, calendar applications, media players, internet browsers, games, alarm applications, and other applications. Non-volatile storage component 8340 in memory 8310 may include data such as music, photos, contact data, scheduling data, and other files.

하나 이상의 프로세스(8312)는 씨-쓰루 디스플레이(8309)와 통신한다. 씨-쓰루 디스플레이(8309)는 현실 세계 환경과 관련되는 하나 이상의 가상 오브젝트를 디스플레이할 수도 있다. 하나 이상의 프로세서(8312)는 또한, 결국 안테나(8302)와 커플링되는 RF 송신기/수신기(8306)와, 적외선 송신기/수신기(8308)와, 글로벌 포지셔닝 서비스(global positioning service; GPS) 수신기(8365)와, 그리고 가속도계 및/또는 자기력계를 포함할 수도 있는 움직임/방향 센서(8314)와 통신한다. RF 송신기/수신기(8308)는, Bluetooth® 또는 IEEE 802.11 표준안과 같은 다양한 무선 기술 표준안을 통한 무선 통신에 대응할 수도 있다. 가속도계는, 유저가 제스쳐를 통해 커맨드를 입력하게 하는 지능형 유저 인터페이스 애플리케이션, 및 모바일 디바이스가 회전될 때 세로모드에서 가로모드로 디스플레이를 자동적으로 변경할 수 있는 방향 애플리케이션과 같은 애플리케이션을 가능하게 하기 위해, 모바일 디바이스에 통합된다. 가속도계는, 예를 들면, 반도체 칩 상에 구축된 (마이크로미터 크기의) 미세한 기계적 디바이스인 마이크로 전자기계 시스템(micro-electromechanical system; MEMS)에 의해 제공될 수 있다. 가속도 방향뿐만 아니라, 방위, 진동 및 충격이 감지될 수 있다. 하나 이상의 프로세스(8312)는 또한, 링어(ringer)/진동기(8316), 유저 인터페이스 키패드/스크린(8318), 스피커(8320), 마이크(8322), 카메라(8324), 광 센서(8326) 및 온도 센서(8328)와 통신한다. 유저 인터페이스 키패드/스크린은 터치 감지 스크린 디스플레이를 포함할 수도 있다.One or more processes 8312 communicate with the see-through display 8390. The see-through display 8309 may display one or more virtual objects related to the real-world environment. One or more processors 8312 may also include an RF transmitter/receiver 8306, an infrared transmitter/receiver 8308, and a global positioning service (GPS) receiver 8366 that are eventually coupled to the antenna 8302. And, and a motion/direction sensor 8314, which may include an accelerometer and/or magnetometer. The RF transmitter/receiver 8308 may cope with wireless communication through various wireless technology standards such as Bluetooth® or IEEE 802.11 standards. The accelerometer is designed to enable applications such as intelligent user interface applications that allow the user to enter commands through gestures, and orientation applications that can automatically change the display from portrait to landscape mode when the mobile device is rotated. It is integrated into the device. The accelerometer can be provided, for example, by a micro-electromechanical system (MEMS), which is a microscopic mechanical device (in the size of a micrometer) built on a semiconductor chip. As well as the direction of acceleration, orientation, vibration and impact can be detected. One or more processes 8312 may also include a ringer/vibrator 8316, user interface keypad/screen 8318, speaker 8320, microphone 8322, camera 8324, light sensor 8326 and temperature. It communicates with the sensor 8328. The user interface keypad/screen may include a touch sensitive screen display.

하나 이상의 프로세스(8312)는 무선 신호의 송신 및 수신을 제어한다. 송신 모드 동안, 하나 이상의 프로세스(8312)는 마이크(8322)로부터의 보이스 신호, 또는 다른 데이터 신호를 RF 송신기/수신기(8306)로 제공한다. 송신기/수신기(8306)는 신호를 안테나(8302)를 통해 송신한다. 링어/진동기(8316)는 유입 호출, 텍스트 메시지, 캘린더 리마인더, 알람 클록 리마인더, 또는 다른 통지를 유저에게 시그널링하기 위해 사용된다. 수신 모드 동안, RF 송신기/수신기(8306)는 안테나(8302)를 통해 원격 스테이션으로부터 보이스 신호 또는 데이터 신호를 수신한다. 수신된 보이스 신호는 스피커(8320)로 제공되고 한편 다른 수신된 데이터 신호는 적절히 프로세싱된다.One or more processes 8312 control the transmission and reception of radio signals. During transmit mode, one or more processes 8312 provide a voice signal, or other data signal from microphone 8322 to RF transmitter/receiver 8306. Transmitter/receiver 8306 transmits a signal via antenna 8302. Ringer/vibrator 8316 is used to signal incoming calls, text messages, calendar reminders, alarm clock reminders, or other notifications to the user. During receive mode, RF transmitter/receiver 8306 receives a voice signal or data signal from a remote station via antenna 8302. The received voice signal is provided to the speaker 8320 while the other received data signal is properly processed.

추가적으로, 모바일 디바이스(8300)를 외부 전원, 예컨대 AC 어댑터 또는 전력이 인가되는 도킹 스테이션에 연결하기 위해, 물리적 커넥터(8388)가 사용될 수도 있다. 물리적 커넥터(8388)는, 외부 컴퓨팅 디바이스에 대한 데이터 연결부로서 사용될 수 있다. 데이터 연결부는, 모바일 디바이스 데이터를 다른 디바이스 상의 컴퓨팅 데이터와 동기화시키는 것과 같은 동작을 허용한다.Additionally, a physical connector 8386 may be used to connect the mobile device 8300 to an external power source, such as an AC adapter or a powered docking station. The physical connector 8386 can be used as a data connection to an external computing device. The data connection allows operations such as synchronizing mobile device data with computing data on other devices.

개시된 기술은, 다양한 다른 범용의 또는 특수 목적의 컴퓨팅 시스템 환경 또는 구성과 함께 동작가능하다. 본 기술과 함께 사용하기에 적합할 수도 있는 널리 공지된 컴퓨팅 시스템, 환경, 및/또는 구성의 예는, 퍼스널 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 멀티프로세서 시스템, 마이크로프로세서 기반 시스템, 셋탑 박스, 프로그래머블 소비자 전자장치, 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 상기 시스템 또는 디바이스 중 임의의 것을 포함하는 분산형 컴퓨팅 환경 등등을 포하지만, 그러나 이들로 제한되지는 않는다.The disclosed technology is operable with a variety of other general purpose or special purpose computing system environments or configurations. Examples of well-known computing systems, environments, and/or configurations that may be suitable for use with the present technology include personal computers, server computers, handheld or laptop devices, multiprocessor systems, microprocessor based systems, set-top boxes. , Programmable consumer electronics, networked PCs, minicomputers, mainframe computers, distributed computing environments including any of the above systems or devices, and the like.

개시된 기술은, 컴퓨터에 의해 실행되고 있는 컴퓨터 실행가능 명령어, 예컨대 프로그램 모듈의 일반적인 맥락에서 설명될 수도 있다. 일반적으로, 본원에서 설명된 바와 같은 소프트웨어 및 프로그램 모듈은, 루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조, 및 특정 작업을 수행하거나 특정한 추상 데이터 타입을 구현하는 다른 타입의 구조를 포함한다. 하드웨어 또는 하드웨어와 소프트웨어의 조합은 본원에서 설명된 것과 같은 소프트웨어 모듈에 대해 대체될 수도 있다.The disclosed technology may be described in the general context of computer-executable instructions, such as program modules, being executed by a computer. In general, software and program modules as described herein include routines, programs, objects, components, data structures, and other types of structures that perform particular tasks or implement particular abstract data types. Hardware or a combination of hardware and software may be substituted for software modules such as those described herein.

개시된 기술은 또한, 통신 네트워크를 통해 링크되는 원격 프로세싱 디바이스에 의해 작업이 수행되는 분산형 컴퓨팅 환경에서 실시될 수도 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은, 메모리 스토리지 디바이스를 포함하는 로컬 및 원격 스토리지 매체 둘 다에 위치될 수도 있다.The disclosed techniques may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote storage media, including memory storage devices.

본 문서의 목적을 위해, 개시된 기술과 관련되는 각각의 프로세스는 연속적으로 그리고 하나 이상의 컴퓨팅 디바이스에 의해 수행될 수도 있다. 프로세스에서의 각각의 단계는, 다른 단계에서 사용되는 것과 동일한 또는 상이한 컴퓨팅 디바이스에 의해 수행될 수도 있고, 각각의 단계는 반드시 단일의 컴퓨팅 디바이스에 의해 수행될 필요는 없다.For the purposes of this document, each process associated with the disclosed technology may be performed continuously and by one or more computing devices. Each step in the process may be performed by the same or different computing device as used in the other steps, and each step need not necessarily be performed by a single computing device.

본 문서의 목적을 위해, 본 명세서에서의 "한 실시형태", "일 실시형태", "몇몇 실시형태", 또는 "다른 실시형태"에 대한 언급은, 상이한 실시형태를 설명하기 위해 사용될 수도 있으며, 반드시 동일한 실시형태를 지칭하지는 않는다.For the purposes of this document, references to "one embodiment", "one embodiment", "several embodiments", or "other embodiments" in this specification may be used to describe different embodiments, and , Do not necessarily refer to the same embodiment.

본 문서의 목적을 위해, 연결은 직접 연결이거나 또는 간접 연결(예를 들면, 다른 부품을 통함)일 수 있다.For the purposes of this document, the connection may be a direct connection or an indirect connection (eg, through another part).

본 문서의 목적을 위해, 용어 오브젝트의 "세트"는, 오브젝트 중 하나 이상의 것의 "세트"를 지칭한다.For the purposes of this document, the term "set" of objects refers to a "set" of one or more of the objects.

비록 본 주제가 구조적 특징 및/또는 방법론적 액트(act)에 고유한 언어로 설명되었지만, 첨부의 특허청구범위에서 정의되는 주제가 상기에서 설명되는 특정 특징 또는 액트로 반드시 제한되는 것은 아니다는 것이 이해되어야 한다. 오히려, 상기에서 설명된 특정 특징 및 액트는 특허청구범위를 구현하는 예시적인 형태로서 설명된다.Although the subject matter has been described in language specific to structural features and/or methodological acts, it should be understood that the subject matter defined in the appended claims is not necessarily limited to the specific features or acts described above. . Rather, the specific features and acts described above are described as exemplary forms of implementing the claims.

Claims (20)

증강 현실 환경(augmented reality environment)을 디스플레이하기 위한 전자 디바이스에 있어서,
하나 이상의 프로세서; 및
상기 하나 이상의 프로세서와 통신하는 씨-쓰루(see-through) 디스플레이를 포함하고,
상기 하나 이상의 프로세서는 제1 시점(point in time)에 상기 전자 디바이스에 대한 상기 전자 디바이스의 엔드 유저(end user)의 초기 머리 위치를 결정하며, 상기 하나 이상의 프로세서는 상기 초기 머리 위치에 기초하여 가상 오브젝트(virtual object)와 연관된 제1 이미지를 렌더링(rendering)하고, 상기 하나 이상의 프로세서는 상기 제1 시점에 후속하는 제2 시점에 상기 전자 디바이스에 대한 상기 엔드 유저의 제2 머리 위치를 결정하되, 상기 제2 머리 위치는 상기 초기 머리 위치와는 상이하고, 상기 하나 이상의 프로세서는 상기 초기 머리 위치 및 상기 제2 머리 위치에 기초하여 상기 전자 디바이스에 대한 머리 움직임(head movement relative to the electronic device)의 정도가 문턱치를 초과하였음을 검출하며, 상기 하나 이상의 프로세서는 상기 제2 머리 위치에 기초하여 상기 가상 오브젝트와 연관된 제2 이미지를 렌더링하고;
상기 씨-쓰루 디스플레이는 상기 가상 오브젝트에 대한 제1 해상도를 사용하여 상기 제1 이미지를 디스플레이하며, 상기 씨-쓰루 디스플레이는 상기 전자 디바이스에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 상기 제1 해상도보다 작은 상기 가상 오브젝트에 대한 제2 해상도를 사용하여 상기 제2 이미지를 디스플레이하는 것인, 전자 디바이스.
In an electronic device for displaying an augmented reality environment,
One or more processors; And
A see-through display in communication with the one or more processors,
The one or more processors determine an initial head position of an end user of the electronic device with respect to the electronic device at a first point in time, and the one or more processors determine a virtual head position based on the initial head position. Rendering a first image associated with an object (virtual object), wherein the at least one processor determines a second head position of the end user with respect to the electronic device at a second view subsequent to the first view, The second head position is different from the initial head position, and the one or more processors determine the head movement relative to the electronic device based on the initial head position and the second head position. Detecting that the degree has exceeded a threshold, the one or more processors rendering a second image associated with the virtual object based on the second head position;
The see-through display displays the first image using a first resolution for the virtual object, and the see-through display responds to detecting that the degree of head movement with respect to the electronic device exceeds a threshold. And displaying the second image using a second resolution for the virtual object that is smaller than the first resolution.
제1항에 있어서,
상기 전자 디바이스는 HMD를 포함하는 것인, 전자 디바이스.
The method of claim 1,
Wherein the electronic device comprises an HMD.
제2항에 있어서, 상기 하나 이상의 프로세서는, 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 상기 HMD 상에 디스플레이된 가상 오브젝트의 수를 감소시키는 것인, 전자 디바이스. The electronic device of claim 2, wherein the one or more processors reduce the number of virtual objects displayed on the HMD in response to detecting that the degree of head movement for the HMD has exceeded a threshold. 제3항에 있어서,
상기 제2 해상도는 상기 제1 해상도의 절반이고;
상기 HMD 상에 디스플레이된 가상 오브젝트의 수는, 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 반으로 줄여지는 것인, 전자 디바이스.
The method of claim 3,
The second resolution is half of the first resolution;
The electronic device, wherein the number of virtual objects displayed on the HMD is halved in response to detecting that the degree of head movement with respect to the HMD has exceeded a threshold.
제3항에 있어서,
상기 씨-쓰루 디스플레이는 상기 머리 움직임의 정도가 상기 문턱치를 초과하면 상기 엔드 유저에게 경고를 디스플레이하는 것인, 전자 디바이스.
The method of claim 3,
Wherein the see-through display displays a warning to the end user if the degree of head movement exceeds the threshold.
제3항에 있어서,
상기 하나 이상의 프로세서는, 복수의 머리 추적용 벡터(head tracking vector) 간의 최대 벡터 차이를 결정하는 것에 의해 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하며, 상기 복수의 머리 추적용 벡터 중 제1 머리 추적용 벡터는 상기 제2 머리 위치와 상기 초기 머리 위치 사이의 차이에 기초하는 것인, 전자 디바이스.
The method of claim 3,
The one or more processors detect that the degree of head movement for the HMD exceeds a threshold value by determining a maximum vector difference between a plurality of head tracking vectors, and the plurality of head tracking vectors Wherein the first head tracking vector is based on a difference between the second head position and the initial head position.
제2항에 있어서,
상기 하나 이상의 프로세서는 상기 HMD가 존재하는 환경에 대한 상기 엔드 유저의 머리 위치를 나타내는 절대 머리 위치 벡터를 결정하는 것인, 전자 디바이스.
The method of claim 2,
Wherein the one or more processors determine an absolute head position vector representing the end user's head position relative to the environment in which the HMD is present.
HMD에 대한 상기 HMD의 엔드 유저의 머리 위치를 추적하기 위한 방법에 있어서,
제1 시점에 상기 HMD에 대한 상기 엔드 유저의 초기 머리 위치를 결정하는 단계;
상기 HMD에 대한 상기 엔드 유저의 상기 초기 머리 위치에 기초하여, 가상 오브젝트와 연관된 제1 이미지를 렌더링하고 디스플레이하는 단계 ― 상기 제1 이미지는 상기 가상 오브젝트에 대한 제1 해상도를 사용하여 상기 HMD 상에 디스플레이됨 ― ;
상기 제1 시점에 후속하는 제2 시점에 상기 HMD에 대한 상기 엔드 유저의 제2 머리 위치 ― 상기 제2 머리 위치는 상기 초기 머리 위치와는 상이함 ― 를 결정하는 단계;
상기 초기 머리 위치 및 상기 제2 머리 위치에 기초하여 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 단계; 및
상기 HMD에 대한 상기 엔드 유저의 상기 제2 머리 위치에 기초하여, 상기 가상 오브젝트와 연관된 제2 이미지를 렌더링하고 디스플레이하는 단계 ― 상기 제2 이미지는, 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 상기 제1 해상도보다 작은 상기 가상 오브젝트에 대한 제2 해상도를 사용하여 상기 HMD 상에 디스플레이됨 ―
를 포함하는, 머리 위치를 추적하기 위한 방법.
In the method for tracking the head position of the end user of the HMD relative to the HMD,
Determining an initial head position of the end user with respect to the HMD at a first time point;
Based on the initial head position of the end user with respect to the HMD, rendering and displaying a first image associated with a virtual object, the first image on the HMD using a first resolution for the virtual object. Displayed-;
Determining a second head position of the end user with respect to the HMD at a second time point subsequent to the first time point, wherein the second head position is different from the initial head position;
Detecting that a degree of head movement with respect to the HMD exceeds a threshold based on the initial head position and the second head position; And
Rendering and displaying a second image associated with the virtual object, based on the position of the second head of the end user with respect to the HMD-the second image has a degree of head movement with respect to the HMD exceeding a threshold. Displayed on the HMD using a second resolution for the virtual object that is less than the first resolution in response to detecting that the
Including a method for tracking head position.
제8항에 있어서,
상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 상기 HMD 상에 디스플레이된 가상 오브젝트의 수를 감소시키는 단계
를 더 포함하는, 머리 위치를 추적하기 위한 방법.
The method of claim 8,
Reducing the number of virtual objects displayed on the HMD in response to detecting that the degree of head movement for the HMD exceeds a threshold value
A method for tracking the head position further comprising.
제9항에 있어서,
상기 제2 해상도는 상기 제1 해상도의 절반이고;
상기 HMD 상에 디스플레이된 가상 오브젝트의 수는, 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 반으로 줄여지는 것인, 머리 위치를 추적하기 위한 방법.
The method of claim 9,
The second resolution is half of the first resolution;
Wherein the number of virtual objects displayed on the HMD is halved in response to detecting that the degree of head movement for the HMD has exceeded a threshold value.
제9항에 있어서,
상기 머리 움직임의 정도가 상기 문턱치를 초과하면 상기 엔드 유저에게 경고를 디스플레이하는 단계
를 더 포함하는, 머리 위치를 추적하기 위한 방법.
The method of claim 9,
Displaying a warning to the end user when the degree of head movement exceeds the threshold.
A method for tracking the head position further comprising.
제9항에 있어서,
상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 단계는 복수의 머리 추적용 벡터 간의 최대 벡터 차이를 결정하는 단계를 포함하며, 상기 복수의 머리 추적용 벡터 중 제1 머리 추적용 벡터는 상기 제2 머리 위치와 상기 초기 머리 위치 사이의 차이에 기초하는 것인, 머리 위치를 추적하기 위한 방법.
The method of claim 9,
The step of detecting that the degree of head movement for the HMD exceeds a threshold value includes determining a maximum vector difference between a plurality of head tracking vectors, and a first head tracking vector among the plurality of head tracking vectors Is based on a difference between the second head position and the initial head position.
제8항에 있어서,
상기 초기 머리 위치를 결정하는 단계는, 상기 엔드 유저가 상기 HMD를 착용하고 있는 동안 상기 엔드 유저의 하나 이상의 이미지를 캡처하는 단계를 포함하며, 상기 하나 이상의 이미지는 상기 엔드 유저의 눈의 적어도 일부를 캡처하고, 상기 초기 머리 위치를 결정하는 단계는, 상기 하나 이상의 이미지에 이미지 프로세싱 기술을 적용함으로써 상기 엔드 유저의 눈과 연관된 하나 이상의 특징점(feature point)을 식별하는 단계 및 상기 하나 이상의 특징점을 식별하는 것에 기초하여 상기 엔드 유저의 눈의 3D 모델과 연관된 위치 및 배향을 결정하는 단계를 포함하는 것인, 머리 위치를 추적하기 위한 방법.
The method of claim 8,
The step of determining the initial head position includes capturing one or more images of the end-user while the end-user is wearing the HMD, wherein the one or more images cover at least a portion of the eye of the end-user. Capturing and determining the initial head position comprises: identifying one or more feature points associated with the eye of the end user by applying image processing techniques to the one or more images, and identifying the one or more feature points. And determining a position and orientation associated with the 3D model of the end user's eye based on that.
제13항에 있어서,
상기 하나 이상의 이미지를 캡처하는 단계는, 상기 HMD와 연관된 내향 카메라(inward facing camera)에 의해 수행되는 것인, 머리 위치를 추적하기 위한 방법.
The method of claim 13,
Wherein capturing the one or more images is performed by an inward facing camera associated with the HMD.
제8항에 있어서,
상기 HMD가 존재하는 환경에 대한 상기 엔드 유저의 머리 위치를 나타내는 절대 머리 위치 벡터를 결정하는 단계를 더 포함하는, 머리 위치를 추적하기 위한 방법.
The method of claim 8,
And determining an absolute head position vector representing the end-user's head position relative to the environment in which the HMD is present.
HMD에 대한 상기 HMD의 엔드 유저의 머리 위치를 추적하는 방법을 수행하도록 하나 이상의 프로세서를 프로그래밍하기 위한 프로세서 판독가능한 코드를 포함하는 하나 이상의 컴퓨터 판독가능한 메모리 디바이스에 있어서, 상기 방법은,
제1 시점에 상기 엔드 유저의 제1 이미지 세트를 캡처하는 단계 ― 상기 제1 이미지 세트는 상기 엔드 유저의 눈의 적어도 일부를 캡처함 ― ;
상기 제1 이미지 세트에 기초하여 상기 HMD에 대한 상기 엔드 유저의 초기 머리 위치를 결정하는 단계;
상기 HMD에 대한 상기 엔드 유저의 상기 초기 머리 위치에 기초하여, 가상 오브젝트와 연관된 제1 이미지를 렌더링하고 디스플레이하는 단계 ― 상기 제1 이미지는 상기 가상 오브젝트에 대한 제1 해상도를 사용하여 상기 HMD 상에 디스플레이됨 ― ;
상기 제1 시점에 후속하는 제2 시점에 상기 엔드 유저의 제2 이미지 세트를 캡처하는 단계;
상기 제2 이미지 세트에 기초하여 상기 HMD에 대한 상기 엔드 유저의 제2 머리 위치 ― 상기 제2 머리 위치는 상기 초기 머리 위치와 상이함 ― 를 결정하는 단계;
상기 초기 머리 위치 및 상기 제2 머리 위치에 기초하여 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 단계; 및
상기 HMD에 대한 상기 엔드 유저의 상기 제2 머리 위치에 기초하여, 상기 가상 오브젝트와 연관된 제2 이미지를 렌더링하고 디스플레이하는 단계 ― 상기 제2 이미지는, 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 상기 제1 해상도보다 작은 상기 가상 오브젝트에 대한 제2 해상도를 사용하여 상기 HMD 상에 디스플레이됨 ―
를 포함하는 것인, 하나 이상의 컴퓨터 판독가능한 메모리 디바이스.
One or more computer readable memory devices comprising processor readable code for programming one or more processors to perform a method of tracking the head position of an end user of the HMD relative to an HMD, the method comprising:
Capturing a first set of images of the end user at a first point in time, the first set of images capturing at least a portion of the eye of the end user;
Determining an initial head position of the end user with respect to the HMD based on the first set of images;
Based on the initial head position of the end user with respect to the HMD, rendering and displaying a first image associated with a virtual object, the first image on the HMD using a first resolution for the virtual object. Displayed-;
Capturing a second set of images of the end user at a second time point subsequent to the first time point;
Determining a second head position of the end user with respect to the HMD, wherein the second head position is different from the initial head position based on the second set of images;
Detecting that a degree of head movement with respect to the HMD exceeds a threshold based on the initial head position and the second head position; And
Rendering and displaying a second image associated with the virtual object, based on the position of the second head of the end user with respect to the HMD-the second image has a degree of head movement with respect to the HMD exceeding a threshold. Displayed on the HMD using a second resolution for the virtual object that is less than the first resolution in response to detecting that the
One or more computer readable memory devices comprising a.
제16항에 있어서,
상기 방법은,
상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 상기 HMD 상에 디스플레이된 가상 오브젝트의 수를 감소시키는 단계
를 더 포함하는, 하나 이상의 컴퓨터 판독가능한 메모리 디바이스.
The method of claim 16,
The above method,
Reducing the number of virtual objects displayed on the HMD in response to detecting that the degree of head movement for the HMD exceeds a threshold value
One or more computer-readable memory devices, further comprising.
제17항에 있어서,
상기 제2 해상도는 상기 제1 해상도의 절반이고;
상기 HMD 상에 디스플레이된 가상 오브젝트의 수는, 상기 HMD에 대한 머리 움직임의 정도가 문턱치를 초과하였음을 검출하는 것에 응답하여 반으로 줄여지는 것인, 하나 이상의 컴퓨터 판독가능한 메모리 디바이스.
The method of claim 17,
The second resolution is half of the first resolution;
The one or more computer-readable memory devices, wherein the number of virtual objects displayed on the HMD is halved in response to detecting that the degree of head movement for the HMD has exceeded a threshold.
제17항에 있어서,
상기 방법은,
상기 머리 움직임의 정도가 상기 문턱치를 초과하면 상기 엔드 유저에게 경고를 디스플레이하는 단계
를 더 포함하는, 하나 이상의 컴퓨터 판독가능한 메모리 디바이스.
The method of claim 17,
The above method,
Displaying a warning to the end user when the degree of head movement exceeds the threshold.
One or more computer-readable memory devices, further comprising.
제16항에 있어서,
상기 방법은,
상기 HMD가 존재하는 환경에 대한 상기 엔드 유저의 머리 위치를 나타내는 절대 머리 위치 벡터를 결정하는 단계; 및
상기 절대 머리 위치 벡터를 서버에 전송하는 단계
를 더 포함하는, 하나 이상의 컴퓨터 판독가능한 메모리 디바이스.
The method of claim 16,
The above method,
Determining an absolute head position vector representing the head position of the end user with respect to the environment in which the HMD exists; And
Transmitting the absolute head position vector to a server
One or more computer-readable memory devices, further comprising.
KR1020167002022A 2013-06-24 2014-06-18 Tracking head movement when wearing mobile device Active KR102213725B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/925,314 2013-06-24
US13/925,314 US9256987B2 (en) 2013-06-24 2013-06-24 Tracking head movement when wearing mobile device
PCT/US2014/042881 WO2014209709A1 (en) 2013-06-24 2014-06-18 Tracking head movement when wearing mobile device

Publications (2)

Publication Number Publication Date
KR20160022921A KR20160022921A (en) 2016-03-02
KR102213725B1 true KR102213725B1 (en) 2021-02-05

Family

ID=51210756

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167002022A Active KR102213725B1 (en) 2013-06-24 2014-06-18 Tracking head movement when wearing mobile device

Country Status (5)

Country Link
US (1) US9256987B2 (en)
EP (1) EP3014338B1 (en)
KR (1) KR102213725B1 (en)
CN (1) CN105431763B (en)
WO (1) WO2014209709A1 (en)

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9377852B1 (en) * 2013-08-29 2016-06-28 Rockwell Collins, Inc. Eye tracking as a method to improve the user interface
JP5993127B2 (en) * 2011-10-25 2016-09-14 オリンパス株式会社 Head-mounted display device, information terminal, program, information storage medium, image processing system, head-mounted display device control method, and information terminal control method
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN103353663B (en) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 Imaging adjusting apparatus and method
CN103353677B (en) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 Imaging device and method thereof
CN103353667B (en) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 Imaging adjustment Apparatus and method for
CN103431840B (en) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 Eye optical parameter detecting system and method
CN103424891B (en) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 Imaging device and method
CN103431980A (en) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 Eyesight protection imaging system and method
CN103439801B (en) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 Sight protectio imaging device and method
CN103500331B (en) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 Based reminding method and device
CN103605208B (en) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 content projection system and method
US10592064B2 (en) * 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
CN103558909B (en) * 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 Interaction projection display packing and interaction projection display system
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US12112089B2 (en) 2014-02-11 2024-10-08 Mentor Acquisition One, Llc Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US10572008B2 (en) 2014-02-21 2020-02-25 Tobii Ab Apparatus and method for robust eye/gaze tracking
GB2523356A (en) * 2014-02-21 2015-08-26 Tobii Technology Ab Apparatus and method for robust eye/gaze tracking
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9459454B1 (en) * 2014-05-23 2016-10-04 Google Inc. Interactive social games on head-mountable devices
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US9946361B2 (en) 2014-08-14 2018-04-17 Qualcomm Incorporated Management for wearable display
US20160048022A1 (en) * 2014-08-14 2016-02-18 Qualcomm Incorporated Management for wearable display
KR20160024168A (en) * 2014-08-25 2016-03-04 삼성전자주식회사 Method for controlling display in electronic device and the electronic device
JP2016045874A (en) * 2014-08-26 2016-04-04 ソニー株式会社 Information processor, method for information processing, and program
US9934573B2 (en) * 2014-09-17 2018-04-03 Intel Corporation Technologies for adjusting a perspective of a captured image for display
US9977495B2 (en) * 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
US10055892B2 (en) 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
JP6476781B2 (en) * 2014-11-17 2019-03-06 セイコーエプソン株式会社 INFORMATION PROCESSING APPARATUS, METHOD FOR CONTROLLING INFORMATION PROCESSING APPARATUS, AND COMPUTER PROGRAM
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
WO2016092698A1 (en) * 2014-12-12 2016-06-16 キヤノン株式会社 Image processing device, image processing method, and program
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) * 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10426379B2 (en) * 2015-03-30 2019-10-01 Natus Medical Incorporated Vestibular testing apparatus
US9779554B2 (en) 2015-04-10 2017-10-03 Sony Interactive Entertainment Inc. Filtering and parental control methods for restricting visual activity on a head mounted display
JP6699658B2 (en) * 2015-04-22 2020-05-27 ソニー株式会社 Information processing apparatus, information processing method, and program
CN108153424B (en) * 2015-06-03 2021-07-09 塔普翊海(上海)智能科技有限公司 Eye movement and head movement interaction method of head display equipment
JP2018533775A (en) * 2015-07-17 2018-11-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Device and method for determining the position of a mobile device with respect to a subject
CN106708249B (en) * 2015-07-31 2020-03-03 北京智谷睿拓技术服务有限公司 Interaction method, interaction device and user equipment
US10078218B2 (en) * 2016-01-01 2018-09-18 Oculus Vr, Llc Non-overlapped stereo imaging for virtual reality headset tracking
JP6845982B2 (en) * 2016-01-13 2021-03-24 フォーブ インコーポレーテッド Facial expression recognition system, facial expression recognition method and facial expression recognition program
US10565723B2 (en) * 2016-02-02 2020-02-18 Samsung Electronics Co., Ltd. Systems and methods for drift correction
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
EP3979106A1 (en) 2016-03-22 2022-04-06 Magic Leap, Inc. Head mounted display system configured to exchange biometric information
WO2017190293A1 (en) * 2016-05-04 2017-11-09 深圳动三帝虚拟现实互动科技有限公司 Virtual reality display method, device, and terminal
EP3260040B1 (en) * 2016-06-03 2021-09-08 Nidek Co., Ltd. Ophthalmic apparatus
US10140776B2 (en) * 2016-06-13 2018-11-27 Microsoft Technology Licensing, Llc Altering properties of rendered objects via control points
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
CN108427193A (en) * 2017-02-14 2018-08-21 深圳梦境视觉智能科技有限公司 Augmented reality display system
KR102746273B1 (en) 2016-09-08 2024-12-26 엘지전자 주식회사 Head mounted display and method for controlling the same
US9928660B1 (en) * 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
US20180082482A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Display system having world and user sensors
CN110023814B (en) 2016-09-28 2022-01-11 奇跃公司 Face model capture by wearable device
KR102269065B1 (en) * 2016-10-05 2021-06-24 매직 립, 인코포레이티드 Periocular Testing for Mixed Reality Correction
WO2017036429A2 (en) 2016-12-01 2017-03-09 Viewtrix Technology Co., Ltd. Zone-based display data processing and transmission
US10395111B2 (en) * 2016-12-01 2019-08-27 Varjo Technologies Oy Gaze-tracking system and method
US10055028B2 (en) 2016-12-05 2018-08-21 Google Llc End of session detection in an augmented and/or virtual reality environment
IL267052B2 (en) 2016-12-05 2024-09-01 Univ Case Western Reserve Systems, methods and media for presenting augmented reality interactive presentations
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US10354140B2 (en) 2017-01-31 2019-07-16 Microsoft Technology Licensing, Llc Video noise reduction for video augmented reality system
US10504397B2 (en) 2017-01-31 2019-12-10 Microsoft Technology Licensing, Llc Curved narrowband illuminant display for head mounted display
US10298840B2 (en) 2017-01-31 2019-05-21 Microsoft Technology Licensing, Llc Foveated camera for video augmented reality and head mounted display
US11187909B2 (en) 2017-01-31 2021-11-30 Microsoft Technology Licensing, Llc Text rendering by microshifting the display in a head mounted display
CN108446011A (en) * 2017-02-14 2018-08-24 深圳梦境视觉智能科技有限公司 A kind of medical householder method and equipment based on augmented reality
CN108696740A (en) * 2017-02-14 2018-10-23 深圳梦境视觉智能科技有限公司 A kind of live broadcasting method and equipment based on augmented reality
CN108428375A (en) * 2017-02-14 2018-08-21 深圳梦境视觉智能科技有限公司 A kind of teaching auxiliary and equipment based on augmented reality
CN106597673B (en) * 2017-02-28 2020-04-03 京东方科技集团股份有限公司 Virtual reality display device and driving method and driving module thereof
CN106970770B (en) * 2017-03-31 2020-08-25 联想(北京)有限公司 Display adjustment method, electronic equipment and device
US10467456B2 (en) 2017-04-17 2019-11-05 Htc Corporation Tracking system for tracking an object based on silhouette
TWI669657B (en) * 2017-05-17 2019-08-21 宏碁股份有限公司 Host,head-mounted display,portable device,virtual reality system having adaptive controlling function and controlling method thereof
CN107172514B (en) * 2017-05-18 2019-08-27 歌尔科技有限公司 Call processing method and device
US10747386B2 (en) 2017-06-01 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for window control in virtual reality environment
GB201709752D0 (en) * 2017-06-19 2017-08-02 Advanced Risc Mach Ltd Graphics processing systems
WO2019012522A1 (en) * 2017-07-11 2019-01-17 Elbit Systems Ltd. A system and method for correcting a rolling display effect
IL253432A0 (en) 2017-07-11 2017-09-28 Elbit Systems Ltd A system and method for correcting a rolling display effect
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10395418B2 (en) 2017-08-18 2019-08-27 Microsoft Technology Licensing, Llc Techniques for predictive prioritization of image portions in processing graphics
KR101947372B1 (en) * 2017-09-04 2019-05-08 주식회사 그루크리에이티브랩 Method of providing position corrected images to a head mount display and method of displaying position corrected images to a head mount display, and a head mount display for displaying the position corrected images
JP6953247B2 (en) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 Goggles type display device, line-of-sight detection method and line-of-sight detection system
US10742952B2 (en) * 2017-09-12 2020-08-11 Htc Corporation Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium thereof
US10469968B2 (en) * 2017-10-12 2019-11-05 Qualcomm Incorporated Rendering for computer-mediated reality systems
US10742966B2 (en) 2017-11-16 2020-08-11 Htc Corporation Method, system and recording medium for adaptive interleaved image warping
KR20240148955A (en) 2017-12-10 2024-10-11 매직 립, 인코포레이티드 Anti-reflective coatings on optical waveguides
US11187923B2 (en) 2017-12-20 2021-11-30 Magic Leap, Inc. Insert for augmented reality viewing device
IL275824B2 (en) 2018-01-17 2024-08-01 Magic Leap Inc Display systems and methods for determining registration between a display and a user's eyes
JP7390297B2 (en) 2018-01-17 2023-12-01 マジック リープ, インコーポレイテッド Eye rotation center determination, depth plane selection, and rendering camera positioning within the display system
US10818086B2 (en) * 2018-02-09 2020-10-27 Lenovo (Singapore) Pte. Ltd. Augmented reality content characteristic adjustment
CN119887926A (en) 2018-03-15 2025-04-25 奇跃公司 Image correction caused by deformation of viewing device components
US10695665B2 (en) * 2018-03-16 2020-06-30 Sony Interactive Entertainment America Llc Asynchronous virtual reality interactions
CN110488489B (en) * 2018-05-15 2022-10-11 苹果公司 Eye registration for a head-mounted housing
TWI694271B (en) * 2018-05-20 2020-05-21 宏達國際電子股份有限公司 Operating method, head mounted display, and tracking system
CN108762501B (en) * 2018-05-23 2021-02-26 歌尔光学科技有限公司 AR display method, smart terminal, AR device and system
CN112601975B (en) 2018-05-31 2024-09-06 奇跃公司 Radar head pose positioning
JP7369147B2 (en) 2018-06-05 2023-10-25 マジック リープ, インコーポレイテッド Homography Transformation Matrix-Based Temperature Calibration for Vision Systems
US10921595B2 (en) 2018-06-29 2021-02-16 International Business Machines Corporation Contextual adjustment to augmented reality glasses
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2020014324A1 (en) 2018-07-10 2020-01-16 Magic Leap, Inc. Thread weave for cross-instruction set architecture procedure calls
CN112689741B (en) 2018-07-24 2024-10-11 奇跃公司 Temperature-dependent calibration of mobile detection equipment
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
US11567336B2 (en) 2018-07-24 2023-01-31 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user
JP7401519B2 (en) 2018-08-02 2023-12-19 マジック リープ, インコーポレイテッド Visual recognition system with interpupillary distance compensation based on head motion
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
CN112955073B (en) 2018-08-22 2025-01-28 奇跃公司 Patient Observation System
US11726320B2 (en) * 2018-08-29 2023-08-15 Sony Corporation Information processing apparatus, information processing method, and program
CN109106567B (en) * 2018-08-29 2021-09-03 中国科学院长春光学精密机械与物理研究所 Multi-visual-distance display system for myopia treatment
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
WO2020085549A1 (en) 2018-10-26 2020-04-30 Samsung Electronics Co., Ltd. Method and device for adjusting resolution of hmd apparatus
WO2020102412A1 (en) 2018-11-16 2020-05-22 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
EP3899613A4 (en) 2018-12-21 2022-09-07 Magic Leap, Inc. AIR POCKET STRUCTURES TO SUPPORT TOTAL INTERNAL REFLECTION IN A WAVEGUIDE
JP2022523852A (en) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド Aligning local content between first and second augmented reality viewers
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
US11749018B1 (en) 2019-05-28 2023-09-05 Apple Inc. Eye enrollment for head-mounted enclosure
JP7591551B2 (en) * 2019-07-16 2024-11-28 マジック リープ, インコーポレイテッド Determining eye rotation center using one or more eye tracking cameras
CN114174895A (en) 2019-07-26 2022-03-11 奇跃公司 System and method for augmented reality
US11836410B2 (en) * 2019-08-06 2023-12-05 Universal City Studios Llc Interactive headgear
US11307659B2 (en) * 2019-09-18 2022-04-19 Apple Inc. Low-power eye tracking system
US11526212B1 (en) * 2019-09-25 2022-12-13 Amazon Technologies, Inc. System to determine don/doff of wearable device
EP4270159A3 (en) 2019-09-26 2024-01-03 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
CN113661691B (en) 2019-09-27 2023-08-08 苹果公司 Electronic device, storage medium and method for providing extended reality environment
EP4058936A4 (en) 2019-11-14 2023-05-03 Magic Leap, Inc. Systems and methods for virtual and augmented reality
CN114667538A (en) 2019-11-15 2022-06-24 奇跃公司 Viewing system for use in a surgical environment
KR102305409B1 (en) * 2019-12-10 2021-09-29 주식회사 피앤씨솔루션 Tactical training system optimized for multiple users to share a watch in augmented reality
CN111415421B (en) * 2020-04-02 2024-03-19 Oppo广东移动通信有限公司 Virtual object control method, device, storage medium and augmented reality device
US11828944B1 (en) * 2020-04-09 2023-11-28 Apple Inc. Head-mounted device with optical module illumination systems
WO2021262507A1 (en) 2020-06-22 2021-12-30 Sterling Labs Llc Displaying a virtual display
US11422619B2 (en) * 2020-09-01 2022-08-23 Htc Corporation Tracking method and tracking system
US11042028B1 (en) * 2021-01-12 2021-06-22 University Of Central Florida Research Foundation, Inc. Relative pose data augmentation of tracked devices in virtual environments
CN116711297A (en) 2021-01-14 2023-09-05 索尼集团公司 Image display apparatus and image display system
WO2023114517A1 (en) * 2021-12-17 2023-06-22 Memery Inc. Augmented reality alignment with a global positioning system and mobile device
US12184829B2 (en) * 2022-01-06 2024-12-31 Htc Corporation Head-mounted display device, tracking device, and data aligning method
US11796803B2 (en) * 2022-03-21 2023-10-24 Lenovo (Singapore) Pte. Ltd. Movement of graphical objects based on user moving between viewing display locations
US20230368403A1 (en) * 2022-05-16 2023-11-16 Microsoft Technology Licensing, Llc Systems and methods for facilitating display misalignment correction
US20240012473A1 (en) * 2022-07-11 2024-01-11 Meta Platforms Technologies, Llc Methods, Apparatuses And Computer Program Products For Providing Multi-Functional Optical Modules With Micro-Light Emitting Diodes As Eye Tracking Illumination Sources
WO2024129126A1 (en) * 2022-12-15 2024-06-20 Google Llc Determining a predicted comfort score for a head mounted device
US20240212535A1 (en) * 2022-12-22 2024-06-27 Microsoft Technology Licensing, Llc Systems and methods for facilitating display misalignment correction based on vergence angle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203128A (en) * 2011-03-24 2012-10-22 Seiko Epson Corp Head mounted display and method for controlling head mounted display
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
WO2012172719A1 (en) 2011-06-16 2012-12-20 パナソニック株式会社 Head-mounted display and misalignment correction method thereof
WO2013028813A1 (en) 2011-08-23 2013-02-28 Microsoft Corporation Implicit sharing and privacy control through physical behaviors using sensor-rich devices

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0575332B1 (en) 1990-11-30 2002-03-13 Sun Microsystems, Inc. Compact head position tracking device for low cost virtual reality system
US5267708A (en) 1992-09-28 1993-12-07 Rockwell International Corp. Head support apparatus
JP3724157B2 (en) * 1997-10-30 2005-12-07 コニカミノルタホールディングス株式会社 Video observation device
GB9917591D0 (en) 1999-07-28 1999-09-29 Marconi Electronic Syst Ltd Head tracker system
US7050078B2 (en) 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US7593026B2 (en) * 2005-05-11 2009-09-22 L-3 Communications Corporation Dynamic display optimization method and system with image motion
US7928926B2 (en) 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
JP2012138654A (en) * 2010-12-24 2012-07-19 Sony Corp Head-mounted display
JP2012141461A (en) * 2010-12-29 2012-07-26 Sony Corp Head mount display
US9217867B2 (en) 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
US8836771B2 (en) 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
KR101315303B1 (en) * 2011-07-11 2013-10-14 한국과학기술연구원 Head mounted display apparatus and contents display method
US8629815B2 (en) * 2011-08-09 2014-01-14 Google Inc. Laser alignment of binocular head mounted display
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US8223024B1 (en) * 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
CN103018903A (en) * 2011-09-23 2013-04-03 奇想创造事业股份有限公司 Head-mounted display with display orientation locking device and display method thereof
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US20140160170A1 (en) * 2012-12-06 2014-06-12 Nokia Corporation Provision of an Image Element on a Display Worn by a User

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203128A (en) * 2011-03-24 2012-10-22 Seiko Epson Corp Head mounted display and method for controlling head mounted display
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
WO2012172719A1 (en) 2011-06-16 2012-12-20 パナソニック株式会社 Head-mounted display and misalignment correction method thereof
WO2013028813A1 (en) 2011-08-23 2013-02-28 Microsoft Corporation Implicit sharing and privacy control through physical behaviors using sensor-rich devices

Also Published As

Publication number Publication date
KR20160022921A (en) 2016-03-02
EP3014338A1 (en) 2016-05-04
EP3014338B1 (en) 2018-07-25
WO2014209709A1 (en) 2014-12-31
CN105431763B (en) 2018-06-26
US9256987B2 (en) 2016-02-09
CN105431763A (en) 2016-03-23
US20140375680A1 (en) 2014-12-25

Similar Documents

Publication Publication Date Title
KR102213725B1 (en) Tracking head movement when wearing mobile device
CN107111370B (en) Virtual representation of real world objects
EP3097460B1 (en) Gaze swipe selection
US9552060B2 (en) Radial selection by vestibulo-ocular reflex fixation
KR102482217B1 (en) Management of content in a 3d holographic environment
US9311718B2 (en) Automated content scrolling
US9105210B2 (en) Multi-node poster location
US20140152558A1 (en) Direct hologram manipulation using imu
US20140002496A1 (en) Constraint based information inference

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20160122

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190514

Comment text: Request for Examination of Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200820

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201102

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210202

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210202

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240130

Start annual number: 4

End annual number: 4

OSZAR »