JP5146845B2 - Head mounted display - Google Patents

Head mounted display Download PDF

Info

Publication number
JP5146845B2
JP5146845B2 JP2009292163A JP2009292163A JP5146845B2 JP 5146845 B2 JP5146845 B2 JP 5146845B2 JP 2009292163 A JP2009292163 A JP 2009292163A JP 2009292163 A JP2009292163 A JP 2009292163A JP 5146845 B2 JP5146845 B2 JP 5146845B2
Authority
JP
Japan
Prior art keywords
character
coordinates
entry
user
entry operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009292163A
Other languages
Japanese (ja)
Other versions
JP2011134053A (en
Inventor
浩 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009292163A priority Critical patent/JP5146845B2/en
Priority to US12/967,595 priority patent/US20110157236A1/en
Publication of JP2011134053A publication Critical patent/JP2011134053A/en
Application granted granted Critical
Publication of JP5146845B2 publication Critical patent/JP5146845B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A head-mounted display includes an image display that is mounted on the head of a user and permits the user to visually recognize an image, input detector that is mounted on the body of the user to detect coordinates of input by a user in a detection area, an image generation unit that generates a trajectory image of the input based on the coordinates of input and output this generated trajectory image to the image display, a displacement determination unit that determines a relative displacement of the character written into the detection area from the coordinates of input, and a position correction unit that corrects the displacement of the character based on the displacement.

Description

本発明は、ユーザーの記入操作を表示することができるヘッドマウントディスプレイに関する。   The present invention relates to a head mounted display capable of displaying a user's entry operation.

従来から、特許文献1に示されるように、ユーザーの記入操作の軌跡を電子的に生成し、保存することができる電子ペンが提案されている。
一方で、特許文献2に示されるように、ヘッドマウントディスプレイが表示する虚像に対して、ユーザーがペンを用いて入力を行うことができるヘッドマウントディスプレイが提案されている。
Conventionally, as shown in Patent Document 1, there has been proposed an electronic pen capable of electronically generating and storing a trace of a user's entry operation.
On the other hand, as shown in Patent Document 2, a head mounted display that allows a user to input a virtual image displayed by the head mounted display using a pen has been proposed.

特開2006−92410号公報JP 2006-92410 A 特開2005−339267号公報JP 2005-339267 A

特許文献1に示される電子ペンは、2次元の入力面に記入するため、ハンズフリーとならず、モバイル性に優れないという問題がある。一方で、特許文献2に示されるヘッドマウントディスプレイでは、ユーザーが虚像に対してペンを用いて入力する構成であることから、ハンズフリーとなり、モバイル性に優れる。しかしながら、ユーザーが、虚像に対する距離感を把握し難いことから、ユーザーにとって虚像に対する入力が難しいという問題があった。
この問題の解決方法として、ユーザーの記入操作を検出する入力面をユーザーの腰等の身体に装着し、更に、ユーザーの記入操作をヘッドマウントディスプレイに表示するような構成にすることが考えられる。このような構成であれば、ユーザーは前記入力面を直接視認することができなくても、自己の記入操作をヘッドマウントディスプレイで確認することができ、なおかつ、電子ペンのモバイル性が損なわれることがない。
しかしながら、ユーザーが入力面に文字の記入を行う際に、ユーザーは体勢的に入力面を視認難しく、ユーザーの記入した文字が斜めにズレたり、前記文字が重なったりして、ユーザーの所望どおりに、文字の軌跡を電子的に生成することができないという問題が生じる。
本発明は、上記問題を解決し、ユーザーの所望する文字の軌跡を電子的に生成することができるヘッドマウントディスプレイを提供する。
The electronic pen disclosed in Patent Document 1 has a problem that it does not become hands-free and is not excellent in mobility because it fills in a two-dimensional input surface. On the other hand, the head-mounted display disclosed in Patent Document 2 is configured to allow a user to input a virtual image using a pen, and thus becomes hands-free and excellent in mobility. However, there is a problem that it is difficult for the user to input the virtual image because it is difficult for the user to grasp the sense of distance to the virtual image.
As a solution to this problem, it is conceivable that an input surface for detecting a user's entry operation is attached to the body such as the user's waist and the user's entry operation is displayed on a head-mounted display. With such a configuration, even if the user cannot directly see the input surface, the user can check his / her entry operation on the head mounted display, and the mobility of the electronic pen is impaired. There is no.
However, when the user enters characters on the input surface, it is difficult for the user to visually recognize the input surface, and the characters entered by the user are skewed or overlapped, and the characters overlap as desired. This causes a problem that the character trajectory cannot be generated electronically.
The present invention solves the above problems and provides a head mounted display that can electronically generate a trajectory of a character desired by a user.

上記課題を解決するためになされた請求項1に記載の発明は、
ユーザーの頭部に装着され、ユーザーに画像を視認させる画像生成部と、
ユーザーの身体に装着され、2次元である検出領域上に対するユーザーの記入操作の座標である記入操作座標を検出する記入操作検出手段と、
前記記入操作座標に基づいて、記入操作の軌跡画像を生成し、前記生成した軌跡画像を前記画像生成部に出力する記入操作画像生成手段と、
ユーザーの入力操作により、前記記入操作が文字入力であるか否かを選択する文字入力選択手段と、
前記文字入力選択手段により文字入力が選択された場合に、前記記入操作座標から前記検出領域上に記入された文字の、前記検出領域上の第1方向に対する位置ズレを決定する文字位置ズレ決定手段と、
前記文字位置ズレ決定手段により決定された前記位置ズレに基づいて、文字の前記位置ズレを補正する文字位置補正手段と、
を有することを特徴とする。
The invention according to claim 1, which has been made to solve the above problems,
An image generator mounted on the user's head and allowing the user to visually recognize the image;
An entry operation detection means for detecting entry operation coordinates, which are coordinates of the entry operation of the user on a detection area which is two-dimensional and is attached to the user's body;
Based on the entry operation coordinates, entry operation image generation means for generating a locus image of the entry operation and outputting the generated locus image to the image generation unit;
Character input selection means for selecting whether or not the entry operation is a character input by a user input operation;
When a character input is selected by the character input selection means, a character position deviation determining means for determining a position deviation of the character entered on the detection area from the entry operation coordinates with respect to the first direction on the detection area. When,
Character position correction means for correcting the position shift of a character based on the position shift determined by the character position shift determination means;
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の発明において、
記入操作画像生成手段は、前記文字位置補正手段により相対的な位置ズレが補正された複数の文字からなる文字列の文字列画像を、画像生成部に出力することを特徴とする。
これにより、ユーザーは、文字の位置ズレの補正状態を確認することが可能となる。
The invention according to claim 2 is the invention according to claim 1,
The entry operation image generation means outputs a character string image of a character string made up of a plurality of characters whose relative positional deviation has been corrected by the character position correction means to the image generation section.
As a result, the user can confirm the correction state of the character position deviation.

請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、
文字位置補正手段で補正する文字の位置ズレの補正方向が、
検出領域上の第1方向に対するズレを補正する第1モードか、
検出領域上の前記第1方向と直交する方向である第2方向に対するズレを補正する第2補正モードかを、ユーザーの入力操作により選択する補正方向選択手段を更に有することを特徴とする。
これにより、文字の位置ズレを補正する方向を任意に選択することが可能となる。
The invention according to claim 3 is the invention according to claim 1 or 2,
The correction direction of the character position deviation corrected by the character position correction means is
A first mode for correcting a shift in the first direction on the detection region, or
The apparatus further includes a correction direction selection unit that selects, by a user input operation, a second correction mode for correcting a shift with respect to a second direction that is a direction orthogonal to the first direction on the detection region.
As a result, it is possible to arbitrarily select a direction for correcting the positional deviation of characters.

請求項4に記載の発明は、請求項1〜請求項3に記載の発明において、
検出領域の傾きを検出する傾斜検出手段を更に有し、
文字位置補正手段は、前記傾斜検出手段により検出された検出領域の傾き情報に基づき、検出領域に記入された文字の傾きを補正することを特徴とする。
これにより、検出領域が傾き、検出領域上に記入された文字が傾いた場合であっても、前記文字の傾きを補正することが可能となる。
なお、文字の自動認識を行う場合には、各文字の傾きが補正されるので、文字の認識精度が向上する。
The invention according to claim 4 is the invention according to claims 1 to 3,
It further has an inclination detection means for detecting the inclination of the detection area,
The character position correction means corrects the inclination of the character entered in the detection area based on the inclination information of the detection area detected by the inclination detection means.
As a result, even when the detection area is inclined and the character written on the detection area is inclined, the inclination of the character can be corrected.
Note that, when performing automatic character recognition, the inclination of each character is corrected, so that the character recognition accuracy is improved.

請求項5に記載の発明は、請求項1〜請求項4に記載の発明において、
検出領域が受ける加速度を検出する加速度検出手段を更に有し、
文字位置補正手段は、前記加速度に基づいて、検出領域に記入された文字を移動させる補正を行うことを特徴とする。
これにより、検出領域の振動に起因して、検出領域上の文字の位置ズレが生じた場合であっても、前記位置ズレを補正することが可能となる。
The invention according to claim 5 is the invention according to claims 1 to 4,
It further has an acceleration detection means for detecting the acceleration received by the detection region,
The character position correcting means performs correction for moving the character written in the detection area based on the acceleration.
As a result, even when a character position shift occurs on the detection area due to the vibration of the detection area, the position shift can be corrected.

請求項6に記載の発明は、請求項1〜請求項5に記載の発明において、
文字位置補正手段は、文字位置ズレ決定手段が検出した検出領域上に記入された文字の相対的な位置ズレが所定以下である場合には、文字の位置ズレの補正を行わないことを特徴とする。
これにより、ユーザーが視認することができないような文字の位置ズレが生じた場合であっても、無駄に文字の位置ズレの補正を行われることが無い。
The invention according to claim 6 is the invention according to claims 1 to 5,
The character position correcting means does not correct the character position deviation when the relative position deviation of the character entered on the detection area detected by the character position deviation determining means is equal to or less than a predetermined value. To do.
As a result, even when a character misalignment that cannot be visually recognized by the user occurs, the character misalignment is not corrected unnecessarily.

請求項7に記載の発明は、請求項1〜請求項6に記載の発明において、
記入操作座標に基づき、隣接する文字が重なっているか否かを判断する文字重なり判断手段を更に有し、
前記文字重なり判断手段が、隣接する文字が重なっていると判断した場合には、
文字位置補正手段は、前記記入操作座標に基づき、隣接する文字が重ならない位置にまで文字を移動させることを特徴とする。
これにより、検出領域に記入された文字の重畳状態を解消することが可能となる。
The invention according to claim 7 is the invention according to claims 1 to 6,
Further comprising character overlap judging means for judging whether or not adjacent characters overlap based on the input operation coordinates,
When the character overlap determining means determines that adjacent characters overlap,
The character position correcting means moves the character to a position where adjacent characters do not overlap based on the entry operation coordinates.
As a result, it is possible to eliminate the superimposed state of characters entered in the detection area.

本発明によれば、文字位置ズレ決定手段が、前記検出領域上に記入された文字の相対的な位置ズレを決定し、文字位置補正手段が前記決定された位置ズレに基づいて、文字の位置ズレを補正するので、ユーザーの所望する文字の軌跡を、電子的に生成することができるヘッドマウントディスプレイを提供することが可能となる。   According to the present invention, the character position deviation determining means determines the relative position deviation of the characters entered on the detection area, and the character position correcting means is based on the determined position deviation. Since the misalignment is corrected, it is possible to provide a head mounted display that can electronically generate a trajectory of a character desired by a user.

本発明の実施の形態を示すヘッドマウントディスプレイの全体図である。1 is an overall view of a head mounted display showing an embodiment of the present invention. 本発明の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of this invention. ヘッドマウントディスプレイのブロック図である。It is a block diagram of a head mounted display. メイン処理のフロー図である。It is a flowchart of a main process. モード選択の説明図である。It is explanatory drawing of mode selection. 初期位置座標決定時の説明図である。It is explanatory drawing at the time of initial position coordinate determination. 記入開始状態の説明図である。It is explanatory drawing of an entry start state. 座標変換処理の説明図である。It is explanatory drawing of a coordinate transformation process. ユーザーの記入操作が検知領域外に近接した状態の説明図である。It is explanatory drawing of the state which the user's entry operation approached outside the detection area. 警告報知状態の説明図である。It is explanatory drawing of a warning alerting | reporting state. 再び座標変換処理が行われている状態の説明図である。It is explanatory drawing of the state in which the coordinate transformation process is performed again. 第1の実施形態の補正処理のフロー図である。It is a flowchart of the correction process of 1st Embodiment. 文字重なり補正の説明図である。It is explanatory drawing of character overlap correction. 文字傾き補正の説明図である。It is explanatory drawing of character inclination correction | amendment. 加速度位置ズレ補正の説明図である。It is explanatory drawing of acceleration position shift correction. 第1の実施形態の文字列傾き補正処理の説明図である。It is explanatory drawing of the character string inclination correction process of 1st Embodiment. 第2の実施形態の補正処理のフロー図である。It is a flowchart of the correction process of 2nd Embodiment. 第2の実施形態の文字列傾き補正処理の説明図である。It is explanatory drawing of the character string inclination correction process of 2nd Embodiment.

(ヘッドマウントディスプレイの概要)
以下に図面を参照しつつ、本発明の好ましい実施の形態を示す。図1に示されるように、ヘッドマウントディスプレイ100は、ユーザーの頭部に装着されるヘッドマウントディスプレイ部50とユーザーの腰等の身体に装着される制御部30とから構成されている。ヘッドマウントディスプレイ部50は、頭部装着部51、画像生成部52とから構成されている。頭部装着部51は、図1に示される実施形態では、眼鏡のフレーム形状であるが、ヘルメット形状等であってもよく、ユーザーの頭部に装着される構造のものであれはすべて含まれる。
(Overview of head mounted display)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the head-mounted display 100 includes a head-mounted display unit 50 that is worn on the user's head and a control unit 30 that is worn on the body such as the user's waist. The head mounted display unit 50 includes a head mounting unit 51 and an image generation unit 52. In the embodiment shown in FIG. 1, the head mounting portion 51 is in the shape of a frame of glasses, but may be in the shape of a helmet or the like, and includes anything that is structured to be mounted on the user's head. .

画像生成部52は、頭部装着部51の側前部に取り付けられている。画像生成部52は、画像を生成し、当該画像をユーザーに視認させるものである。本実施形態では、画像生成部52は、レーザ光を直接ユーザーの眼球に走査することにより、ユーザーに画像を視認させる網膜走査型ディスプレイを用いて構成される。このように、網膜走査型ディスプレイを用いて画像生成部52を構成すると、ユーザーは画像生成部52が生成する画像を視認することができると同時に、外界もまた視認することができる。なお、画像生成部52は、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイなど、その他の装置を用いた構成であっても差し支えない。   The image generation unit 52 is attached to the front side of the head mounting unit 51. The image generation unit 52 generates an image and makes the user visually recognize the image. In the present embodiment, the image generation unit 52 is configured using a retinal scanning display that allows a user to visually recognize an image by scanning laser light directly on the user's eyeball. As described above, when the image generation unit 52 is configured using the retinal scanning display, the user can visually recognize the image generated by the image generation unit 52 and can also visually recognize the outside world. The image generation unit 52 may have a configuration using other devices such as a liquid crystal display and an organic EL (Organic Electroluminescence) display.

制御部30は、ユーザーの記入操作を検出するとともに、画像生成部52で表示する記入操作の軌跡画像を生成する装置である。制御部30は、画像生成部52と接続している。制御部30には、ヘッドマウントディスプレイ100を操作するための操作部35が設けられている。制御部30には、図2に示されるように記入操作検出部31が設けられている。記入操作検出部31は、2次元である検出領域31a上の、ユーザーの記入操作の座標を検出する装置である。本実施形態では、ユーザーが入力ペン60で検出領域31a上に記入操作を行うと、前記記入操作による検出領域31a上の座標が「記入操作座標」として、記入操作検出部31で検出されるようになっている。   The control unit 30 is a device that detects a user's entry operation and generates a trace image of the entry operation displayed by the image generation unit 52. The control unit 30 is connected to the image generation unit 52. The control unit 30 is provided with an operation unit 35 for operating the head mounted display 100. The control unit 30 is provided with an entry operation detection unit 31 as shown in FIG. The entry operation detection unit 31 is a device that detects the coordinates of the entry operation of the user on the two-dimensional detection area 31a. In this embodiment, when the user performs an entry operation on the detection area 31a with the input pen 60, the entry operation detection unit 31 detects the coordinates on the detection area 31a by the entry operation as “entry operation coordinates”. It has become.

検出領域31aの絶対座標(x、y)と、画像生成部52の表示領域90の絶対座標(X、Y)は一致している。ユーザーが入力ペン60で検出領域31a上に記入操作を行うと(図2の(B)に示す)、記入操作検出部31で前記入力ペン60による記入操作が検知され、図2の(A)に示されるように、画像生成部52の表示領域90に前記ユーザーによる記入操作の軌跡が表示される。制御部30がユーザーの腰に装着されている場合には、図2の(B)に示されるように、ユーザーは検出領域31aの上部から下部方向(x負方向からx正方向)に文字を記入する。ユーザーは、検出領域31aを視認することができないことから、図2の(C)に示されるように、検出領域31a上に記入された文字が重なったり、ズレたりしてしまう。また、図14に示されるように、制御部30が、水平線或いは垂直線から傾いていると、検出領域31a上に記入された文字が傾いてしまう。また、ユーザーが歩行中等に検出領域31aに記入操作を行うと、制御部30が上下に揺れることから、図15に示されるように、検出領域31aに記入された文字がズレてしまう。本発明では、前記したように検出領域31aに記入された重なった文字、ズレた文字、傾いた文字の位置を制御部30で補正することにより、図2の(A)に示されるように、前記検出領域31a上に記入された文字が整列されて画像生成部52で表示されるようになっている。以下、このような機能を実現するヘッドマウントディスプレイ100について詳細に説明する。   The absolute coordinates (x, y) of the detection area 31a coincide with the absolute coordinates (X, Y) of the display area 90 of the image generation unit 52. When the user performs an entry operation on the detection area 31a with the input pen 60 (shown in FIG. 2B), the entry operation detection unit 31 detects the entry operation with the input pen 60, and FIG. As shown in FIG. 6, the locus of the entry operation by the user is displayed in the display area 90 of the image generation unit 52. When the control unit 30 is worn on the user's waist, as shown in FIG. 2B, the user moves characters from the upper part to the lower part (from the x negative direction to the x positive direction) of the detection area 31a. Fill out. Since the user cannot visually recognize the detection area 31a, as shown in FIG. 2C, the characters entered on the detection area 31a overlap or shift. Further, as shown in FIG. 14, when the control unit 30 is inclined from the horizontal line or the vertical line, characters written on the detection area 31a are inclined. Further, when the user performs an entry operation in the detection area 31a during walking or the like, the control unit 30 is shaken up and down, so that the characters entered in the detection area 31a are shifted as shown in FIG. In the present invention, as described above, as shown in FIG. 2A, by correcting the position of the overlapped character, the shifted character, and the tilted character written in the detection area 31a by the control unit 30. Characters entered on the detection area 31a are arranged and displayed on the image generation unit 52. Hereinafter, the head mounted display 100 that realizes such a function will be described in detail.

(ヘッドマウントディスプレイのブロック図)
図3を用いて、ヘッドマウントディスプレイ100のブロック図を説明する。制御部30には、ヘッドマウントディスプレイ100の各種制御を行う制御基板20を有している。制御基板20は、CPU10、RAM11、ROM12、補助記憶装置13、画像生成コントローラ16、VRAM17、インターフェース19を有している。これらの構成は、相互にバス9で接続されている。画像生成コントローラ16とVRAM17は相互に接続している。
(Block diagram of head-mounted display)
A block diagram of the head mounted display 100 will be described with reference to FIG. The control unit 30 includes a control board 20 that performs various controls of the head mounted display 100. The control board 20 includes a CPU 10, a RAM 11, a ROM 12, an auxiliary storage device 13, an image generation controller 16, a VRAM 17, and an interface 19. These components are connected to each other by a bus 9. The image generation controller 16 and the VRAM 17 are connected to each other.

CPU(Central Processing Unitの略)10は、RAM(Random Access Memoryの略)11、ROM(Read Only Memoryの略)12と協動して、各種演算、処理を行うものである。   A CPU (abbreviation of central processing unit) 10 performs various calculations and processes in cooperation with a RAM (abbreviation of random access memory) 11 and a ROM (abbreviation of read only memory) 12.

RAM11は、CPU10で処理されるプログラムや、CPU10が処理するデータを、そのアドレス空間に一時的に記憶するものである。RAM11は、記入操作座標記憶領域11a、初期位置座標記憶領域11b、開始位置座標記憶領域11c、記入軌跡座標記憶領域11d、補正モード記憶領域11e、加速度データ記憶領域11f、傾斜角データ記憶領域11gを有している。
記入操作座標記憶領域11aには、バス9に入力された「記入操作座標」が記憶される。
初期位置座標記憶領域11bには、後述する初期位置座標決定プログラム12cが決定した画像生成部52の表示領域90上の「初期位置座標」が記憶される。
開始位置座標記憶領域11cには、ユーザーの入力ペン60による検出領域31aへの記入操作の開始位置の座標である「開始位置座標」が記憶される。
記入軌跡座標記憶領域11dには、座標変換プログラム12eにより生成された「記入軌跡座標」が記憶される。
補正モード記憶領域11eには、「垂直補正モード」、「水平補正モード」のいずれかのモードであることを示すフラグが記憶される。なお、「垂直補正モード」は、文字の位置ズレを補正する方向が垂直方向(第1方向)であるモードである。また、「水平補正モード」は、文字の位置ズレを補正する方向が水平方向(第2方向)であるモードである。なお、前記第1方向と第2方向とは直交している。
加速度データ記憶領域11fには、制御部30(検出領域31a)の「加速度データ」と、この「加速度データ」の「検出時間」が記憶される。
傾斜角データ記憶領域11gには、検出領域31aの「傾斜角データ」と、この「傾斜角データ」の「検出時間」が記憶される。
The RAM 11 temporarily stores programs processed by the CPU 10 and data processed by the CPU 10 in its address space. The RAM 11 includes an entry operation coordinate storage area 11a, an initial position coordinate storage area 11b, a start position coordinate storage area 11c, an entry locus coordinate storage area 11d, a correction mode storage area 11e, an acceleration data storage area 11f, and an inclination angle data storage area 11g. Have.
In the entry operation coordinate storage area 11a, “entry operation coordinates” input to the bus 9 are stored.
In the initial position coordinate storage area 11b, “initial position coordinates” on the display area 90 of the image generation unit 52 determined by an initial position coordinate determination program 12c described later are stored.
The start position coordinate storage area 11 c stores “start position coordinates” that are coordinates of the start position of the entry operation to the detection area 31 a by the user's input pen 60.
In the entry locus coordinate storage area 11d, “entry locus coordinates” generated by the coordinate conversion program 12e are stored.
In the correction mode storage area 11e, a flag indicating that one of the “vertical correction mode” and the “horizontal correction mode” is stored. The “vertical correction mode” is a mode in which the direction for correcting the positional deviation of characters is the vertical direction (first direction). The “horizontal correction mode” is a mode in which the direction for correcting the positional deviation of characters is the horizontal direction (second direction). The first direction and the second direction are orthogonal to each other.
The acceleration data storage area 11f stores “acceleration data” of the control unit 30 (detection area 31a) and “detection time” of the “acceleration data”.
In the inclination angle data storage area 11g, “inclination angle data” of the detection area 31a and “detection time” of this “inclination angle data” are stored.

ROM12には、ヘッドマウントディスプレイ100を制御する各種プログラムやパラメータが記憶されている。当該各種プログラムが、CPU10で処理されることにより、各種機能を実現している。ROM12には、モード選択画面表示プログラム12a、モード選択プログラム12b、初期位置座標決定プログラム12c、開始位置座標検出プログラム12d、座標変換プログラム12e、記入軌跡画像生成プログラム12f、記入操作エラー検出プログラム12g、警告報知プログラム12h、1文字記入完了判断プログラム12i、文字重なり判断プログラム12j、文字位置ズレ決定プログラム12k、文字位置補正プログラム12mが記憶されている。なお、補助記憶装置13に、これらプログラムやデータを記憶することにしても差し支えない。   The ROM 12 stores various programs and parameters for controlling the head mounted display 100. The various programs are processed by the CPU 10 to realize various functions. The ROM 12 includes a mode selection screen display program 12a, a mode selection program 12b, an initial position coordinate determination program 12c, a start position coordinate detection program 12d, a coordinate conversion program 12e, an entry locus image generation program 12f, an entry operation error detection program 12g, a warning. A notification program 12h, a character entry completion determination program 12i, a character overlap determination program 12j, a character position deviation determination program 12k, and a character position correction program 12m are stored. It should be noted that these programs and data may be stored in the auxiliary storage device 13.

モード選択画面表示プログラム12aは、「文字入力モード」であるか「描画入力モード」であるかを選択させる「入力モード選択画面」(図5の(A)に示す)や、「垂直補正モード」であるか「水平補正モード」であるか、或いは、「ズレ補正無し」のいずれかを選択させる「補正モード選択画面」(図5の(B)に示す)を、画像生成部52の表示領域90上に表示させる命令を、画像生成コントローラ16に出力するプログラムである。
モード選択プログラム12bは、ユーザーの選択操作により、「文字入力モード」又は「描画入力モード」のいずれかが選択されたかを判断するプログラムである。また、モード選択プログラム12bは、ユーザーの選択操作により、「垂直補正モード」であるか「水平補正モード」であるか、或いは、「ズレ補正無し」のいずれかをのモードが選択されたかを判断するプログラムである。
初期位置座標決定プログラム12cは、画像生成部52の表示領域90上の初期位置座標99(図7〜図11に示す)を決定するプログラムである。
開始位置座標検出プログラム12dは、「記入操作座標」から、ユーザーによる書き始め位置である開始位置座標91(図7〜図11に示す)を検出するプログラムである。
座標変換プログラム12eは、ユーザーによる記入操作の開始位置座標91を、画像生成部52の表示領域90上の初期位置座標99に変換し、初期位置座標99と、「記入操作座標」と開始位置座標91との位置関係を用いて、順次「記入軌跡座標」を算出するプログラムである。
記入軌跡画像生成プログラム12fは、前記算出された「記入軌跡座標」に基づいて、画像生成部52に出力する「記入軌跡画像」を生成するプログラムである。
記入操作エラー検出プログラム12gは、ユーザーの記入操作の検出領域31a外への近接又は離脱を検出するプログラムである。
警告報知プログラム12hは、ユーザーの記入操作の検出領域31a外への近接又は離脱を検出した場合に、画像生成部52に警告画像を表示させ、ユーザーに警告を報知するプログラムである。
1文字記入完了判断プログラム12iは、ユーザーの検出領域31aに対する記入操作が、1文字書き終わったか否かを判断するプログラムである。
文字重なり判断プログラム12jは、検出領域31aに記入された隣接する文字の重なりを検出するプログラムである。
文字位置ズレ決定プログラム12kは、各文字の検出領域31a上の座標位置から、検出領域31a上に記入された文字の相対的な位置ズレを決定するプログラムである。
文字位置補正プログラム12mは、文字の相対的な位置ズレに基づいて、隣接する文字の位置ズレを補正するプログラムである。
なお、モード選択画面表示プログラム12a、モード選択プログラム12b、初期位置座標決定プログラム12c、開始位置座標検出プログラム12d、座標変換プログラム12e、記入軌跡画像生成プログラム12f、記入操作エラー検出プログラム12g、警告報知プログラム12h、1文字記入完了判断プログラム12i、文字重なり判断プログラム12j、文字位置ズレ決定プログラム12k、文字位置補正プログラム12mを、ASIC(ApplicationSpecific Integrated Circuit)として構成することとしても差し支えない。
The mode selection screen display program 12a displays an “input mode selection screen” (shown in FIG. 5A) for selecting whether it is “character input mode” or “drawing input mode” or “vertical correction mode”. The “correction mode selection screen” (shown in FIG. 5B) for selecting either “horizontal correction mode” or “no deviation correction” is displayed in the display area of the image generation unit 52. 90 is a program for outputting an instruction to be displayed on the image generation controller 16 to the display.
The mode selection program 12b is a program that determines whether “character input mode” or “drawing input mode” is selected by a user's selection operation. Further, the mode selection program 12b determines whether a mode of “vertical correction mode”, “horizontal correction mode”, or “no deviation correction” is selected by the user's selection operation. It is a program to do.
The initial position coordinate determination program 12c is a program for determining initial position coordinates 99 (shown in FIGS. 7 to 11) on the display area 90 of the image generation unit 52.
The start position coordinate detection program 12d is a program for detecting a start position coordinate 91 (shown in FIGS. 7 to 11) that is a writing start position by the user from the “entry operation coordinates”.
The coordinate conversion program 12e converts the start position coordinates 91 of the entry operation by the user into the initial position coordinates 99 on the display area 90 of the image generation unit 52, and the initial position coordinates 99, the “entry operation coordinates”, and the start position coordinates. This is a program for calculating “entry trajectory coordinates” sequentially using the positional relationship with 91.
The entry trajectory image generation program 12f is a program that generates an “entry trajectory image” to be output to the image generation unit 52 based on the calculated “entry trajectory coordinates”.
The entry operation error detection program 12g is a program for detecting the proximity or separation of the entry operation of the user outside the detection area 31a.
The warning notification program 12h is a program for displaying a warning image on the image generation unit 52 and notifying the user of a warning when the proximity or departure from the detection area 31a of the user's entry operation is detected.
The one-character entry completion determination program 12i is a program for determining whether or not the user has completed the writing operation for the detection area 31a.
The character overlap determination program 12j is a program for detecting the overlap of adjacent characters entered in the detection area 31a.
The character position deviation determination program 12k is a program for determining the relative position deviation of the characters entered on the detection area 31a from the coordinate positions on the detection area 31a of each character.
The character position correction program 12m is a program that corrects the positional deviation of adjacent characters based on the relative positional deviation of the characters.
It should be noted that the mode selection screen display program 12a, the mode selection program 12b, the initial position coordinate determination program 12c, the start position coordinate detection program 12d, the coordinate conversion program 12e, the entry locus image generation program 12f, the entry operation error detection program 12g, and a warning notification program 12h, the character entry completion determination program 12i, the character overlap determination program 12j, the character position deviation determination program 12k, and the character position correction program 12m may be configured as an ASIC (Application Specific Integrated Circuit).

補助記憶装置13は、例えば、不揮発性メモリーやハードディスクである。補助記憶装置13には、記入軌跡座標保存領域13a、記入操作座標保存領域13bを有している。記入軌跡座標保存領域13aには、「文字入力モード」の場合に、ユーザーの検出領域31a上の記入操作により生成された「記入軌跡座標」が記憶される。記入操作座標保存領域13bには、「描画入力モード」の場合に、ユーザーの検出領域31a上の記入操作により生成された「記入操作座標」が記憶される。   The auxiliary storage device 13 is, for example, a nonvolatile memory or a hard disk. The auxiliary storage device 13 has an entry trajectory coordinate storage area 13a and an entry operation coordinate storage area 13b. The entry locus coordinate storage area 13 a stores “entry locus coordinates” generated by the entry operation on the detection area 31 a by the user in the “character input mode”. The entry operation coordinate storage area 13b stores “entry operation coordinates” generated by the entry operation on the detection area 31a by the user in the “drawing input mode”.

画像生成コントローラ16は、GPU(Graphics Processing Unit)を有している。画像生成コントローラ16は、記入軌跡画像生成プログラム12fからの描画命令により、「記入操作軌跡画像」を生成し、VRAM17に記憶させる。VRAM17に記憶された「記入操作軌跡画像」は、「画像信号」として画像生成部52に出力される。   The image generation controller 16 has a GPU (Graphics Processing Unit). The image generation controller 16 generates an “entry operation trajectory image” in accordance with a drawing command from the entry trajectory image generation program 12 f and stores it in the VRAM 17. The “entry operation locus image” stored in the VRAM 17 is output to the image generation unit 52 as an “image signal”.

インターフェース19は、信号の物理的、論理的な形式を変換するものである。インターフェース19には、記入操作検出部31、加速度センサー32、傾斜センサー33、操作部35が接続している。   The interface 19 converts the physical and logical form of the signal. The interface 19 is connected to an entry operation detection unit 31, an acceleration sensor 32, a tilt sensor 33, and an operation unit 35.

本実施形態では、入力ペン60の先端は交番磁界を発し、記入操作検出部31には前記交番磁界を検知する検知コイルがマトリックス状に配設されている。このような構成により、記入操作検出部31で、2次元である検出領域31a上の、ユーザーの記入操作の座標である「記入操作座標」が生成される。この「記入操作座標」は、所定時間(数ミリ秒)をおいて生成される。但し、ユーザーが入力ペン60を、記入操作検出部31の検出領域31aから離した場合には、「記入操作座標」は生成されない。生成された「記入操作座標」は、インターフェース19を介してバス9に出力される。バス9に入力された「記入操作座標」は、「記入操作座標」が生成された「検出時間」とともに、RAM11の記入操作座標記憶領域11aに記憶される。   In the present embodiment, the tip of the input pen 60 emits an alternating magnetic field, and the input operation detection unit 31 is provided with detection coils for detecting the alternating magnetic field in a matrix. With this configuration, the entry operation detection unit 31 generates “entry operation coordinates” that are coordinates of the entry operation of the user on the two-dimensional detection region 31a. The “entry operation coordinates” are generated after a predetermined time (several milliseconds). However, when the user moves the input pen 60 away from the detection area 31 a of the entry operation detection unit 31, “entry operation coordinates” are not generated. The generated “entry operation coordinates” are output to the bus 9 via the interface 19. The “entry operation coordinates” input to the bus 9 are stored in the entry operation coordinate storage area 11 a of the RAM 11 together with the “detection time” when the “entry operation coordinates” are generated.

加速度センサー32は、検出領域31aが受ける加速度を検出する装置である。本実施形態では、加速度センサー32は、検出領域31aの絶対座標のx軸方向及びy軸方向の加速度を検出する。加速度センサー32は、所定時間(数ミリ秒)をおいて、検出領域31aが受ける加速度を検出し、「加速度データ」を生成する。生成された「加速データ」は、インターフェース19を介してバス9に出力され、前記「加速度データ」の「検出時間」とともに、RAM11の加速度データ記憶領域11fに記憶される。   The acceleration sensor 32 is a device that detects the acceleration received by the detection region 31a. In the present embodiment, the acceleration sensor 32 detects acceleration in the x-axis direction and the y-axis direction of the absolute coordinates of the detection region 31a. The acceleration sensor 32 detects the acceleration received by the detection region 31a after a predetermined time (several milliseconds), and generates “acceleration data”. The generated “acceleration data” is output to the bus 9 via the interface 19, and is stored in the acceleration data storage area 11f of the RAM 11 together with the “detection time” of the “acceleration data”.

傾斜センサー33は、検出領域31aの水平線或いは垂直線からの傾斜を検出する装置である。なお、本明細書において、垂直線とは物体に重力が作用する方向の線であり、水平線とは前記垂直線に対して直交する方向の線である。傾斜センサー33で、所定時間(数ミリ秒)をおいて、検出領域31aの傾斜が検出され、「傾斜角データ」が生成される。生成された「傾斜角データ」は、インターフェース19を介してバス9に出力され、前記「傾斜角データ」の「検出時間」とともに、RAM11の傾斜角データ記憶領域11gに記憶される。   The tilt sensor 33 is a device that detects the tilt of the detection region 31a from the horizontal line or the vertical line. In this specification, a vertical line is a line in a direction in which gravity acts on an object, and a horizontal line is a line in a direction orthogonal to the vertical line. The tilt sensor 33 detects the tilt of the detection region 31a after a predetermined time (several milliseconds), and generates “tilt angle data”. The generated “tilt angle data” is output to the bus 9 via the interface 19 and is stored in the tilt angle data storage area 11 g of the RAM 11 together with the “detection time” of the “tilt angle data”.

操作部35は、ボタンやタッチパネルで構成されている。操作部35は、ユーザーの操作により、ヘッドマウントディスプレイ100をON状態(電源が投入された状態)やOFF状態(電源が遮断された状態)にし、ヘッドマウントディスプレイ100の各種操作を行うためのものである。   The operation unit 35 includes buttons and a touch panel. The operation unit 35 is used to perform various operations of the head mounted display 100 by turning the head mounted display 100 into an ON state (power-on state) or an OFF state (power-off state) by a user operation. It is.

(メイン処理の説明)
図4を用いて、メインフローについて説明する。ユーザーが操作部35を操作することにより、ヘッドマウントディスプレイ100に電源が投入されると、メイン処理が開始し、S8の処理に進む。
S8「起動処理」において、ヘッドマウントディスプレイ100の各種プログラムが起動する。S8の処理が終了すると、S9の処理に進む。
(Description of main processing)
The main flow will be described with reference to FIG. When the user operates the operation unit 35 to turn on the power of the head mounted display 100, the main process starts and the process proceeds to S8.
In S8 “activation process”, various programs of the head mounted display 100 are activated. When the process of S8 ends, the process proceeds to S9.

S9「入力モード選択画面を表示」の処理において、モード選択画面表示プログラム12aは、「文字入力モード」であるか「描画入力モード」であるかを選択させる「入力モード選択画面」を画像生成部52に表示させる命令を、画像生成コントローラ16に出力する。すると、図5の(A)に示されるように、「文字入力モード」及び「描画入力モード」のボタンからなる「入力モード選択画面」が画像生成部52に表示される。更に、モード選択プログラム12bは、画像生成部52の表示領域90上に、ポインター97を表示させる命令を、画像生成コントローラ16に出力する。すると、図5の(A)に示されるように、ポインター97が画像生成部52の表示領域90上に表示される。なお、ポインター97が、画像生成部52の表示領域90上に、表示されている状態で、ユーザーが入力ペン80の先端を、記入操作検出部31の検出領域31aに押し当てたまま所定の位置まで移動させる「ドラッグ操作」を行うと、ポインター97が前記「ドラッグ操作」に伴って移動する。S9の処理が終了すると、S10の判断処理に進む。   In the process of S9 “display input mode selection screen”, the mode selection screen display program 12a generates an “input mode selection screen” that allows the user to select “character input mode” or “drawing input mode”. A command to be displayed on 52 is output to the image generation controller 16. Then, as illustrated in FIG. 5A, an “input mode selection screen” including buttons of “character input mode” and “drawing input mode” is displayed on the image generation unit 52. Further, the mode selection program 12 b outputs a command for displaying the pointer 97 on the display area 90 of the image generation unit 52 to the image generation controller 16. Then, the pointer 97 is displayed on the display area 90 of the image generation unit 52 as shown in FIG. In addition, in a state where the pointer 97 is displayed on the display area 90 of the image generation unit 52, the user presses the tip of the input pen 80 against the detection area 31a of the entry operation detection unit 31 to a predetermined position. When the “drag operation” is performed, the pointer 97 moves with the “drag operation”. When the process of S9 ends, the process proceeds to the determination process of S10.

S10「文字入力モードか?」の判断処理において、モード選択プログラム12bは、ユーザーの入力ペン80の操作により、「文字入力モード」が選択されたか否かを判断する。ユーザーが、入力ペン80の操作することによりポインター97を「文字入力モード」のボタン上まで移動した後に、「選択操作」を行った場合には、モード選択プログラム12bは、「文字入力モード」が選択されたと判断し(S10の判断処理がYES)、S11の判断処理に進む。
一方で、ユーザーが、入力ペン80の操作することによりポインター97を「描画入力モード」のボタン上まで移動した後に、「選択操作」を行った場合には、モード選択プログラム12bは、「描画入力モード」が選択されたと判断し(S10の判断処理がNO)、S51の処理に進む。
なお、「選択操作」としては、例えばユーザーが選択ペン80の先端を検出領域31a上で離しては着ける動作を2回繰り返すダブルクリック操作などが含まれる。
In the determination process of S10 “character input mode?”, The mode selection program 12b determines whether “character input mode” is selected by the user's operation of the input pen 80. When the user performs the “selection operation” after moving the pointer 97 over the “character input mode” button by operating the input pen 80, the mode selection program 12b displays the “character input mode”. It is determined that it has been selected (YES in S10), and the process proceeds to S11.
On the other hand, when the user performs the “selection operation” after moving the pointer 97 over the “drawing input mode” button by operating the input pen 80, the mode selection program 12 b reads “drawing input”. It is determined that “mode” has been selected (NO in S10), and the process proceeds to S51.
The “selection operation” includes, for example, a double-click operation in which the user moves the tip of the selection pen 80 away from the detection area 31a and repeats it twice.

S11「補正モード選択画面表示」の処理において、モード選択画面表示プログラム12aは、「垂直補正モード」であるか「水平補正モード」であるか、或いは、「ズレ補正無し」のいずれかを選択させる「補正モード選択画面」を画像生成部52に表示させる命令を、画像生成コントローラ16に出力する。すると、図5の(B)に示されるように、「垂直補正モード」、「水平補正モード」及び「ズレ補正無し」のボタンからなる「補正モード選択画面」が画像生成部52に表示される。更に、モード選択プログラム12bは、画像生成部52の表示領域90上に、ポインター97を表示させる命令を、画像生成コントローラ16に出力する。すると、図5の(B)に示されるように、ポインター97が画像生成部52の表示領域90上に表示される。S11の処理が終了すると、S12の判断処理に進む。   In the process of S11 “correction mode selection screen display”, the mode selection screen display program 12a selects either “vertical correction mode”, “horizontal correction mode”, or “no deviation correction”. A command to display the “correction mode selection screen” on the image generation unit 52 is output to the image generation controller 16. Then, as shown in FIG. 5B, a “correction mode selection screen” including buttons of “vertical correction mode”, “horizontal correction mode”, and “no deviation correction” is displayed on the image generation unit 52. . Further, the mode selection program 12 b outputs a command for displaying the pointer 97 on the display area 90 of the image generation unit 52 to the image generation controller 16. Then, the pointer 97 is displayed on the display area 90 of the image generation unit 52 as shown in FIG. When the process of S11 ends, the process proceeds to the determination process of S12.

S12「選択完了?」の判断処理において、モード選択プログラム12bは、ユーザーの入力ペン80の操作により、「垂直補正モード」、「水平補正モード」及び「ズレ補正無し」のいずれかが選択されたか否かを判断する。ユーザーが、入力ペン80の操作することによりポインター97を「垂直補正モード」、「水平補正モード」及び「ズレ補正無し」のいずれかのボタン上まで移動した後に、「選択操作」を行った場合には、モード選択プログラム12bは、当該選択されたモードを補正モード記憶領域11eに記憶させて(S12の判断処理がYES)、S13の判断処理に進む。
一方で、「垂直補正モード」、「水平補正モード」及び「ズレ補正無し」のいずれもが選択されていない場合には(S12の判断処理がNO)、S13の選択処理に進まない。
In the determination process of S12 “selection complete?”, The mode selection program 12b has selected one of “vertical correction mode”, “horizontal correction mode”, and “no deviation correction” by the user's operation of the input pen 80. Judge whether or not. When the user performs a “selection operation” after moving the pointer 97 over any of the “vertical correction mode”, “horizontal correction mode”, and “no misalignment correction” buttons by operating the input pen 80 The mode selection program 12b stores the selected mode in the correction mode storage area 11e (YES in the determination process in S12), and proceeds to the determination process in S13.
On the other hand, if none of the “vertical correction mode”, “horizontal correction mode”, and “no deviation correction” is selected (NO in S12), the process does not proceed to S13.

S13「センサー起動」の処理において、CPU10は、加速度センサー32での検出領域31aの加速度の検出を開始させる。加速度センサー32で検出され、生成された「加速度データ」は、「検出時間」とともに、RAM11の加速度データ記憶領域11fに記憶される。
また、CPU10は、傾斜センサー33での検出領域31aの傾斜の検出を開始させる。傾斜センサー33で検出され、生成された「傾斜角データ」は、「検出時間」とともに、RAM11の傾斜角データ記憶領域11gに記憶される。
S13の処理が終了すると、S14の判断処理に進む。
In the process of S <b> 13 “sensor activation”, the CPU 10 starts detecting the acceleration of the detection area 31 a by the acceleration sensor 32. The “acceleration data” detected and generated by the acceleration sensor 32 is stored in the acceleration data storage area 11 f of the RAM 11 together with the “detection time”.
Further, the CPU 10 starts detecting the inclination of the detection area 31 a by the inclination sensor 33. The “tilt angle data” detected and generated by the tilt sensor 33 is stored in the tilt angle data storage area 11 g of the RAM 11 together with the “detection time”.
When the process of S13 ends, the process proceeds to the determination process of S14.

S14「初期位置入力あり?」の判断処理において、初期位置座標決定プログラム12cは、初期位置入力があったか否かを判断する。具体的には、ユーザーが入力ペン80の先端を、記入操作検出部31の検出領域31aに接触させると、初期位置座標決定プログラム12cは、初期位置入力があったと判断し(S14の判断処理がYES)、S15の処理に進む。一方で、初期位置座標決定プログラム12cが、初期位置入力があったと判断しない場合には(S14の判断処理がNO)、S15の処理に進まない。   In the determination process of S14 “Is there an initial position input?”, The initial position coordinate determination program 12c determines whether or not there is an initial position input. Specifically, when the user brings the tip of the input pen 80 into contact with the detection area 31a of the entry operation detection unit 31, the initial position coordinate determination program 12c determines that there is an initial position input (the determination process of S14 is performed). YES), the process proceeds to S15. On the other hand, if the initial position coordinate determination program 12c does not determine that there is an initial position input (NO in S14), the process does not proceed to S15.

S15「絶対座標で初期位置マークを表示」の処理において、初期位置座標決定プログラム12cは、S14の処理で検出された検出領域31a上の操作ペン80先端の絶対座標に対応する、表示領域90上の位置に初期位置マーク98を表示する描画命令を、画像生成コントローラ16に出力する。すると、図6に示されるように、画像生成部52の表示領域90上に初期位置マーク98が表示される。S15の処理が終了すると、S16の処理に進む。   In the process of S15 “display initial position mark with absolute coordinates”, the initial position coordinate determination program 12c is displayed on the display area 90 corresponding to the absolute coordinates of the tip of the operation pen 80 on the detection area 31a detected in the process of S14. A drawing command for displaying the initial position mark 98 at the position is output to the image generation controller 16. Then, as shown in FIG. 6, an initial position mark 98 is displayed on the display area 90 of the image generation unit 52. When the process of S15 ends, the process proceeds to S16.

S16「初期位置決定入力あり?」の判断処理において、初期位置座標決定プログラム12cは、初期位置決定入力があったか否かを判断する。具体的には、ユーザーが操作部35を操作することにより、初期位置座標決定プログラム12cが、初期位置決定入力があったと判断した場合には(S16の判断処理がYES)、初期位置座標決定プログラム12cは、画像生成部52の表示領域90の初期位置マーク98が表示されている座標を「初期位置座標」として、RAM11の初期位置座標記憶領域11bに記憶させて、S17の判断処理に進む。一方で、初期位置座標決定プログラム12cが、初期位置決定入力があったと判断しない場合には(S16の判断処理がNO)、S17の判断処理に進まない。このように、本発明では、ユーザーが「初期位置座標」として画像生成部52の表示領域90上の任意の位置を選択することができる。   In the determination process of S16 “Is there an initial position determination input?”, The initial position coordinate determination program 12c determines whether or not there is an initial position determination input. Specifically, when the user operates the operation unit 35 and the initial position coordinate determination program 12c determines that there is an initial position determination input (YES in S16), the initial position coordinate determination program 12c stores the coordinates at which the initial position mark 98 of the display area 90 of the image generation unit 52 is displayed as the “initial position coordinates” in the initial position coordinate storage area 11b of the RAM 11, and proceeds to the determination process of S17. On the other hand, if the initial position coordinate determination program 12c does not determine that there is an initial position determination input (NO in S16), the process does not proceed to S17. Thus, in the present invention, the user can select an arbitrary position on the display area 90 of the image generation unit 52 as the “initial position coordinates”.

S17「記入操作有り?」の判断処理において、CPU10は、ユーザーによる記入操作があったか否かを判断する。具体的には、ユーザーが入力ペン80で、記入操作検出部31の検出領域31a上に記入操作を行うことにより、「記入操作座標」がインターフェース19を介してバス9に入力されたと、CPU10が判断した場合には(S17の判断処理がYES)、S18の処理に進む。この際に、開始位置座標検出プログラム12dは、時系列的に最も古い「記入操作座標」を「開始位置座標」としてRAM11の開始位置座標記憶領域11cに記憶させる。一方で、CPU10が、「記入操作座標」がインターフェース19を介してバス9に入力されたと判断しない場合には(S17の判断処理がNO)、S18の処理に進まない。   In the determination process of S17 “Is there an entry operation?”, The CPU 10 determines whether or not there is an entry operation by the user. Specifically, when the user performs an input operation on the detection area 31 a of the input operation detection unit 31 with the input pen 80, and the “input operation coordinates” are input to the bus 9 via the interface 19, the CPU 10 If it is determined (YES in S17), the process proceeds to S18. At this time, the start position coordinate detection program 12d stores the oldest “entry operation coordinates” in time series in the start position coordinate storage area 11c of the RAM 11 as “start position coordinates”. On the other hand, when the CPU 10 does not determine that the “entry operation coordinates” has been input to the bus 9 via the interface 19 (NO in S17), the process does not proceed to S18.

S18「記入操作座標の記憶開始」の処理において、CPU10は、バスに入力された「記入操作座標」を、RAM11の記入操作座標記憶領域11aに記憶させる処理を開始させる。S18の処理が終了すると、S19の処理に進む。   In the process of S18 “start storage of entry operation coordinates”, the CPU 10 starts the process of storing the “entry operation coordinates” input to the bus in the entry operation coordinate storage area 11a of the RAM 11. When the process of S18 is completed, the process proceeds to S19.

S19「記入軌跡座標算出開始」の処理において、座標変換プログラム12eは、画像生成部52の表示領域90に表示される、ユーザー記入操作の軌跡座標である「記入軌跡座標」の算出を開始させる。座標変換プログラム12eが、「記入軌跡座標」を算出する処理について次に説明する。
座標変換プログラム12eは、RAM12の初期位置座標記憶領域11bと開始位置座標記憶領域11cを参照することにより、「初期位置座標」及び「開始位置座標」を認識する。そして、図7に示されるように、座標変換プログラム12eは、ユーザーによる記入操作の開始位置座標91を、画像生成部52の表示領域90上の初期位置座標99に変換する。
次に、座標変換プログラム12eは、RAM11の記入操作座標記憶領域11aを参照することにより、「記入操作座標」を認識する。そして、座標変換プログラム12eは、初期位置座標99と、「記入操作座標」と開始位置座標91との位置関係を用いて、順次「記入軌跡座標」を算出する。本実施形態では、座標変換プログラム12eは、初期位置座標99に、「記入操作座標」と開始位置座標91との差分値(図8に示されるX’、Y’)を加算することにより、順次「記入軌跡座標」を算出する。算出された「記入軌跡座標」は、RAM11の記入軌跡座標記憶領域11dに記憶される。
S19の処理が終了すると、S20の処理に進む。
In the process of S19 “start entry locus coordinate calculation”, the coordinate conversion program 12e starts to calculate “entry locus coordinates” that are locus coordinates of the user entry operation displayed in the display area 90 of the image generation unit 52. Next, a process in which the coordinate conversion program 12e calculates “entry locus coordinates” will be described.
The coordinate conversion program 12e recognizes “initial position coordinates” and “start position coordinates” by referring to the initial position coordinate storage area 11b and the start position coordinate storage area 11c of the RAM 12. Then, as shown in FIG. 7, the coordinate conversion program 12 e converts the start position coordinates 91 of the entry operation by the user into initial position coordinates 99 on the display area 90 of the image generation unit 52.
Next, the coordinate conversion program 12 e recognizes “entry operation coordinates” by referring to the entry operation coordinate storage area 11 a of the RAM 11. Then, the coordinate conversion program 12e sequentially calculates “entry trajectory coordinates” using the initial position coordinates 99 and the positional relationship between the “entry operation coordinates” and the start position coordinates 91. In the present embodiment, the coordinate conversion program 12e sequentially adds the difference values (X ′ and Y ′ shown in FIG. 8) between the “entry operation coordinates” and the start position coordinates 91 to the initial position coordinates 99. Calculate “entry trajectory coordinates”. The calculated “entry locus coordinates” is stored in the entry locus coordinate storage area 11 d of the RAM 11.
When the process of S19 ends, the process proceeds to S20.

S20「画像表示部への表示開始」の処理において、記入軌跡画像生成プログラム12fは、記入軌跡座標記憶領域11dに記憶されている「記入軌跡座標」に基づいて、「表示領域軌跡画像」を生成する。具体的には、記入軌跡画像生成プログラム12fは、時系列的に隣接する「記入軌跡座標」同士を結ぶ線を生成する描画命令を、画像生成コントローラ16に出力する。但し、時系列的に隣接する「記入軌跡座標」が所定距離以上離れている場合には、ユーザーが入力ペン80を、記入操作検出部31の検出領域31aから離しているので、時系列的に隣接する「記入軌跡座標」は結ばない。
時系列的に隣接する「記入軌跡座標」同士を結ぶ線を生成する描画命令が、画像生成コントローラ16に入力されると、図8に示されるように、画像生成部52の表示領域90上に文字列である「表示領域軌跡画像」が表示される。S20の処理が終了すると、S21の判断処理に進む。
In the process of S20 “Start display on image display unit”, the entry locus image generation program 12f generates a “display area locus image” based on the “entry locus coordinates” stored in the entry locus coordinate storage area 11d. To do. Specifically, the entry trajectory image generation program 12 f outputs a drawing command for generating a line connecting “entry trajectory coordinates” adjacent in time series to the image generation controller 16. However, when the “entry trajectory coordinates” adjacent in time series are separated by a predetermined distance or more, the user has moved the input pen 80 away from the detection area 31a of the entry operation detection unit 31. Adjacent “entry trajectory coordinates” are not connected.
When a drawing command for generating a line connecting adjacent “entry trajectory coordinates” in time series is input to the image generation controller 16, a display area 90 of the image generation unit 52 is displayed as shown in FIG. 8. A “display area trajectory image” that is a character string is displayed. When the process of S20 ends, the process proceeds to the determination process of S21.

S21「1文字記入完了?」の判断処理において、1文字記入完了判断プログラム12iは、ユーザーが1文字書き終わったか否かを判断する。具体的には、1文字記入完了判断プログラム12iは、記入操作座標記憶領域11aを参照することにより、時系列的に隣接する「記入軌跡座標」の「検出時間」が、所定時間(例えば数100ミリ秒)以上離れているか否かを判断し、前記「検出時間」が所定時間以上離れている場合には、ユーザーの検出領域31aに対する記入操作が、1文字書き終わったと判断する。1文字記入完了判断プログラム12iが、ユーザーが1文字書き終わったと判断した場合には(S21の判断処理がYES)、S22の処理に進む。一方で、1文字記入完了判断プログラム12iが、ユーザーが1文字書き終わっていないと判断した場合には(S21の判断処理がNO)、S25の判断処理に進む。   In the determination process of S21 “one character entry complete?”, The one character entry completion determination program 12i determines whether or not the user has written one character. Specifically, the one-character entry completion determination program 12i refers to the entry operation coordinate storage area 11a, so that the “detection time” of the “entry trajectory coordinates” adjacent in time series becomes a predetermined time (for example, several hundreds). It is determined whether or not the “detection time” is longer than a predetermined time, and it is determined that the user has finished writing one character in the detection area 31a. If the one-character entry completion determination program 12i determines that the user has written one character (YES in S21), the process proceeds to S22. On the other hand, if the one-character entry completion determination program 12i determines that the user has not finished writing one character (NO in S21), the process proceeds to S25.

S22「補正処理」において、記入領域31a上に記入された文字の位置ズレや、傾きや、重なりを補正する「補正処理」が実行される。詳しくは、図12又は図17に示すフローを用いて後で説明する。S22の処理が終了すると、S25の判断処理に進む。   In S22 “correction processing”, “correction processing” for correcting the positional deviation, inclination, and overlap of the characters entered in the entry area 31a is executed. Details will be described later using the flow shown in FIG. When the process of S22 ends, the process proceeds to the determination process of S25.

S25「検出領域外に近接?」の判断処理において、記入操作エラー検出プログラム12gは、ユーザーの記入操作(入力ペン80の先端)の、検出領域31a外へ近接又は離脱を検出したか否かを判断する。なお、図9に示されるように、記入操作検出部31は、検出領域31aの外縁から当該外縁からやや内側位置まで近接警告領域31bを有している。そして、ユーザーの記入操作が、近接警告領域31bに侵入した場合には、記入操作エラー検出プログラム12gは、ユーザーの記入操作が検出領域31a外へ近接したと判断する。また、ユーザーの記入操作が、近接警告領域31bに侵入した後に、検出領域31aからユーザーの記入操作が検出されなくなった場合には、記入操作エラー検出プログラム12gは、ユーザーの記入操作が検出領域31a外へ離脱したと判断する。
記入操作エラー検出プログラム12gが、ユーザーの記入操作の検出領域31a外へ近接又は離脱を検出した場合には(S25の判断処理YES)、S31の処理に進む。
一方で、記入操作エラー検出プログラム12gが、ユーザーの記入操作の検出領域31a外へ近接又は離脱を検出しない場合には(S25の判断処理NO)、S41の処理に進む
In the determination processing of S25 “proximity outside detection area?”, The entry operation error detection program 12g determines whether or not the user's entry operation (tip of the input pen 80) has detected proximity or separation outside the detection area 31a. to decide. As shown in FIG. 9, the entry operation detection unit 31 has a proximity warning area 31b from the outer edge of the detection area 31a to a slightly inner position from the outer edge. When the user's entry operation enters the proximity warning area 31b, the entry operation error detection program 12g determines that the user's entry operation has approached outside the detection area 31a. If the user entry operation is not detected from the detection area 31a after the user entry operation has entered the proximity warning area 31b, the entry operation error detection program 12g causes the user entry operation to be detected in the detection area 31a. Judge that he has left.
If the entry operation error detection program 12g detects approaching or leaving from the detection area 31a of the entry operation of the user (determination process YES in S25), the process proceeds to S31.
On the other hand, if the entry operation error detection program 12g does not detect proximity or separation outside the detection area 31a of the entry operation of the user (determination process of S25), the process proceeds to S41.

S31「警告を報知」の処理において、警告報知プログラム12hは、画像生成部52で警告を表示する描画命令を画像生成コントローラ16に出力する。すると、図10に示されるように、画像生成部52に警告が表示される。
或いは、ヘッドマウントディスプレイ100にスピーカを設け、当該スピーカで警告音を再生して、ユーザーに警告を報知する実施形態であっても差し支えない。
S31の処理が終了すると、S32の判断処理に進む。
In the processing of S31 “notify warning”, the warning notification program 12h outputs a drawing command for displaying a warning in the image generation unit 52 to the image generation controller 16. Then, a warning is displayed on the image generation unit 52 as shown in FIG.
Alternatively, an embodiment in which a speaker is provided in the head mounted display 100 and a warning sound is reproduced by the speaker to notify the user of the warning may be used.
When the process of S31 ends, the process proceeds to the determination process of S32.

S32「記入操作座標が所定以上変化?」の判断処理において、記入操作エラー検出プログラム12gは、RAM11の記入操作座標記憶領域11aを参照することにより、「記入操作座標」が所定以上変化したか否かを判断する。つまり、ユーザーがS31の処理で報知される警告を知覚することにより、入力ペン80を検出領域31aの内側に移動させた場合には、「記入操作座標」が所定以上変化する。記入操作エラー検出プログラム12gが、「記入操作座標」が所定以上変化したと判断した場合には(S32の判断処理がYES)、S33の処理に進む。一方で、記入操作エラー検出プログラム12gが、「記入操作座標」が所定以上変化したと判断しない場合には(S32の判断処理がNO)、S33の処理に進まない。   In the determination process of S32 “change in input operation coordinates by more than a predetermined value?”, The input operation error detection program 12g refers to the input operation coordinate storage area 11a of the RAM 11 to determine whether the “input operation coordinates” have changed more than a predetermined value. Determine whether. That is, when the user perceives the warning notified in the process of S31 and moves the input pen 80 to the inside of the detection area 31a, the “entry operation coordinates” change by a predetermined amount or more. If the entry operation error detection program 12g determines that the “entry operation coordinates” have changed by more than a predetermined value (YES in S32), the process proceeds to S33. On the other hand, if the entry operation error detection program 12g does not determine that the “entry operation coordinates” have changed more than a predetermined value (NO in S32), the process does not proceed to S33.

S33「記入軌跡座標再算出」の処理において、座標変換プログラム12eは、S25の判断処理において記入操作エラー検出プログラム12gがユーザーの記入操作の検出領域外への近接又は離脱を検出した時点の記入軌跡座標92(図10や図11に示す)と、記入操作検出部31が再び検出した後の、開始位置座標93と記入操作座標94(図11に示す)との位置関係を用いて記入軌跡座標95(図11に示す)を算出する。本実施形態では、座標変換プログラム12eは、前記記入軌跡座標92に、前記記入操作座標94と開始位置座標93との差分値(図11に示されるX’’、Y’’)を加算して、記入軌跡座標95を算出している。算出された「記入軌跡座標」は、RAM11の記入軌跡座標記憶領域11dに記憶される。更に、図11に示されるように、再算出された「記入軌跡座標」に基づいて、画像生成部52の表示領域90に「表示領域軌跡画像」が表示される。
このように、ユーザーが検出領域31aの外側に離脱しそうになった入力ペン80を、検出領域31aの内側に移動させた場合には、S33の処理において、「記入軌跡座標」が再算出されるので、途切れなく「記入軌跡座標」が算出され、画像生成部52の表示領域90に「表示領域軌跡画像」が表示される。S33の処理が終了すると、S41の判断処理に進む。
In the process of S33 “Recalculation of entry locus coordinates”, the coordinate conversion program 12e obtains the entry locus at the time when the entry operation error detection program 12g detects the proximity or departure of the entry operation of the user outside the detection area in the determination process of S25. Using the positional relationship between the coordinates 92 (shown in FIGS. 10 and 11) and the start position coordinates 93 and the entry operation coordinates 94 (shown in FIG. 11) after the entry operation detection unit 31 detects again, the entry locus coordinates 95 (shown in FIG. 11) is calculated. In the present embodiment, the coordinate conversion program 12e adds a difference value (X ″, Y ″ shown in FIG. 11) between the entry operation coordinates 94 and the start position coordinates 93 to the entry locus coordinates 92. The entry locus coordinates 95 are calculated. The calculated “entry locus coordinates” is stored in the entry locus coordinate storage area 11 d of the RAM 11. Furthermore, as shown in FIG. 11, a “display area trajectory image” is displayed in the display area 90 of the image generation unit 52 based on the recalculated “entry trajectory coordinates”.
In this way, when the input pen 80 that the user is likely to leave outside the detection area 31a is moved to the inside of the detection area 31a, the “entry trajectory coordinates” are recalculated in the process of S33. Therefore, the “entry trajectory coordinates” are calculated without interruption, and the “display area trajectory image” is displayed in the display area 90 of the image generation unit 52. When the process of S33 ends, the process proceeds to the determination process of S41.

S41「文字入力モード解除?」の判断処理において、CPU10は、ユーザーが操作部35を操作することにより、「文字入力モード」を解除する信号がバス9に入力されたか否かを判断する。CPU10が、「文字入力モード」を解除する信号がバス9に入力されたと判断した場合には(S41の判断処理がYES)、S44の処理に進む。一方で、CPU10が、「文字入力モード」を解除する信号がバス9に入力されていないと判断した場合には(S41の判断処理がNO)、S42の判断処理に進む。   In the determination process of S41 “character input mode cancel?”, The CPU 10 determines whether or not a signal for canceling the “character input mode” has been input to the bus 9 when the user operates the operation unit 35. If the CPU 10 determines that a signal for canceling the “character input mode” has been input to the bus 9 (YES in S41), the process proceeds to S44. On the other hand, if the CPU 10 determines that the signal for canceling the “character input mode” is not input to the bus 9 (NO in S41), the process proceeds to S42.

S42「所定時間記入操作無し?」の判断処理において、CPU10は、所定時間(例えば数分)以上、ユーザーによる記入操作検出部31の検出領域31aへの記入操作が無かったか否かを判断する。具体的には、CPU10が、所定時間以上、バス9に「記入操作座標」が入力されなかったと判断した場合には(S42の判断処理がYES)、S44の処理に進む。一方で、CPU10が、所定時間内に、バス9に「記入操作座標」が入力された判断した場合には(S42の判断処理がNO)、S46の処理に進む。   In the determination process of S42 “no entry operation for a predetermined time?”, The CPU 10 determines whether or not the user has performed an entry operation in the detection area 31a of the entry operation detection unit 31 for a predetermined time (for example, several minutes) or longer. Specifically, when the CPU 10 determines that “entry operation coordinates” have not been input to the bus 9 for a predetermined time or longer (YES in S42), the process proceeds to S44. On the other hand, if the CPU 10 determines that “entry operation coordinates” are input to the bus 9 within a predetermined time (NO in S42), the process proceeds to S46.

S44「記入軌跡座標を保存」の処理において、CPU10は、RAM11の記入軌跡座標記憶領域11dに記憶されている「記入軌跡座標」を、補助記憶装置13の記入軌跡座標保存領域13aに保存させる。このように、記入軌跡座標保存領域13aに「記入軌跡座標」を保存させることにより、事後的に、ユーザーの記入内容を利用することができる。S44の処理が終了すると、S9の処理に戻る。   In the process of S44 “Save entry locus coordinates”, the CPU 10 saves the “Entry locus coordinates” stored in the entry locus coordinate storage area 11 d of the RAM 11 in the entry locus coordinates storage area 13 a of the auxiliary storage device 13. In this way, by saving the “entry trajectory coordinates” in the entry trajectory coordinate storage area 13a, the contents entered by the user can be used later. When the process of S44 ends, the process returns to S9.

S46「終了?」の判断処理において、CPU10は、ユーザーが操作部35を操作することにより、「終了信号」がバス9に入力されたか否かを判断する。CPU10が、「終了信号」がバス9に入力されたと判断した場合には(S46の判断処理がYES)、S47の処理に進む。CPU10が、「終了信号」がバス9に入力されていないと判断した場合には(S46の判断処理がNO)、S25の判断処理に戻る。   In the determination process of S46 “End?”, The CPU 10 determines whether or not an “end signal” is input to the bus 9 by the user operating the operation unit 35. If the CPU 10 determines that the “end signal” has been input to the bus 9 (YES in S46), the process proceeds to S47. When the CPU 10 determines that the “end signal” has not been input to the bus 9 (NO in S46), the process returns to S25.

S47「記入軌跡座標を保存」の処理において、CPU10は、RAM11の記入軌跡座標記憶領域11dに記憶されている「記入軌跡座標」を、補助記憶装置13の記入軌跡座標保存領域13aに保存させる。S47の処理が終了すると、ヘッドマウントディスプレイ100がOFF状態となり、一連のフローが終了する。   In the process of S47 “Save entry locus coordinates”, the CPU 10 saves the “Entry locus coordinates” stored in the entry locus coordinates storage area 11 d of the RAM 11 in the entry locus coordinates storage area 13 a of the auxiliary storage device 13. When the process of S47 is completed, the head mounted display 100 is turned off, and the series of flows is completed.

S51「記入操作座標の記憶開始」の処理において、CPU10は、バスに入力された「記入操作座標」を、RAM11の記入操作座標記憶領域11aに記憶させる処理を開始させる。S51の処理が終了すると、S52の処理に進む。   In the process of S51 “start of entry operation coordinates”, the CPU 10 starts the process of storing the “entry operation coordinates” input to the bus in the entry operation coordinate storage area 11a of the RAM 11. When the process of S51 ends, the process proceeds to S52.

S52「記入操作軌跡の表示開始」の処理において、記入軌跡画像生成プログラム12fは、RAM11の記入操作座標記憶領域11aに記憶されている「記入操作座標」に基づいて、「表示領域軌跡画像」を生成する。具体的には、記入軌跡画像生成プログラム12fは、時系列的に隣接する「記入操作座標」同士を結ぶ線を生成する描画命令を、画像生成コントローラ16に出力する。但し、時系列的に隣接する「記入操作座標」が所定距離以上離れている場合には、ユーザーが入力ペン80を、記入操作検出部31の検出領域31aから離していると考えられるので、時系列的に隣接する「記入操作座標」は結ばない。時系列的に隣接する「記入操作座標」同士を結ぶ線を生成する描画命令が、画像生成コントローラ16に入力されると、画像生成部52の表示領域90上に「表示領域軌跡画像」が表示される。つまり、入力モードが「描画入力モード」である場合には、ユーザーが入力ペン80で検出領域31aに記入した内容がそのまま画像生成部52の表示領域90に表示される。S52の処理が終了すると、S53の判断処理に進む。   In the processing of S52 “start display of entry operation locus”, the entry locus image generation program 12f creates a “display area locus image” based on the “entry operation coordinates” stored in the entry operation coordinate storage area 11a of the RAM 11. Generate. Specifically, the entry trajectory image generation program 12 f outputs a drawing command for generating a line connecting “entry operation coordinates” adjacent in time series to the image generation controller 16. However, when the “entry operation coordinates” adjacent in time series are separated by a predetermined distance or more, it is considered that the user has moved the input pen 80 away from the detection area 31a of the entry operation detection unit 31. “Entry operation coordinates” adjacent in series are not connected. When a drawing command for generating a line connecting adjacent “entry operation coordinates” in time series is input to the image generation controller 16, a “display area trajectory image” is displayed on the display area 90 of the image generation unit 52. Is done. That is, when the input mode is the “drawing input mode”, the content entered by the user in the detection area 31 a with the input pen 80 is displayed as it is in the display area 90 of the image generation unit 52. When the process of S52 ends, the process proceeds to the determination process of S53.

S53「描画入力モード解除?」の判断処理において、CPU10は、ユーザーが操作部35を操作することにより、「描画入力モード」を解除する信号がバス9に入力されたか否かを判断する。CPU10が、「描画入力モード」を解除する信号がバス9に入力されたと判断した場合には(S53の判断処理がYES)、S55の処理に進む。一方で、CPU10が、「描画入力モード」を解除する信号がバス9に入力されていないと判断した場合には(S53の判断処理がNO)、S54の判断処理に進む。   In the determination process of S53 “drawing input mode?”, The CPU 10 determines whether or not a signal for releasing the “drawing input mode” has been input to the bus 9 by the user operating the operation unit 35. When the CPU 10 determines that a signal for canceling the “drawing input mode” has been input to the bus 9 (YES in S53), the process proceeds to S55. On the other hand, when the CPU 10 determines that the signal for canceling the “drawing input mode” is not input to the bus 9 (NO in S53), the process proceeds to S54.

S54「所定時間記入操作無し?」の判断処理において、CPU10は、所定時間(例えば数分)以上、ユーザーによる記入操作検出部31の検出領域31aへの記入操作が無かったか否かを判断する。具体的には、CPU10が、所定時間以上、バス9に「記入操作座標」が入力されなかったと判断した場合には(S54の判断処理がYES)、S55の処理に進む。一方で、CPU10が、所定時間内に、バス9に「記入操作座標」が入力された判断した場合には(S54の判断処理がNO)、S56の判断処理に進む。   In the determination process of S54 “no entry operation for a predetermined time?”, The CPU 10 determines whether or not the user has performed an entry operation in the detection area 31a of the entry operation detection unit 31 for a predetermined time (for example, several minutes) or longer. Specifically, if the CPU 10 determines that “entry operation coordinates” have not been input to the bus 9 for a predetermined time or longer (YES in S54), the process proceeds to S55. On the other hand, if the CPU 10 determines that “entry operation coordinates” are input to the bus 9 within a predetermined time (NO in S54), the process proceeds to S56.

S55「記入操作座標を保存」の処理において、CPU10は、RAM11の記入操作座標記憶領域11aに記憶されている「記入操作座標」を、補助記憶装置13の記入操作座標保存領域13bに保存させる。S55の処理が終了すると、S9の処理に戻る。   In the process of S55 “Save entry operation coordinates”, the CPU 10 saves “Entry operation coordinates” stored in the entry operation coordinate storage area 11 a of the RAM 11 in the entry operation coordinates storage area 13 b of the auxiliary storage device 13. When the process of S55 ends, the process returns to S9.

S56「終了?」の判断処理において、CPU10は、ユーザーが操作部35を操作することにより、「終了信号」がバス9に入力されたか否かを判断する。CPU10が、「終了信号」がバス9に入力されたと判断した場合には(S56の判断処理がYES)、S47の処理に進む。CPU10が、「終了信号」がバス9に入力されていないと判断した場合には(S56の判断処理がNO)、S53の判断処理に戻る。   In the determination process of S <b> 56 “end?”, The CPU 10 determines whether the “end signal” is input to the bus 9 by the user operating the operation unit 35. When the CPU 10 determines that the “end signal” is input to the bus 9 (YES in S56), the process proceeds to S47. When the CPU 10 determines that the “end signal” is not input to the bus 9 (NO in S56), the process returns to the determination process in S53.

S57「記入操作座標を保存」の処理において、CPU10は、RAM11の記入操作座標記憶領域11aに記憶されている「記入操作座標」を、補助記憶装置13の記入操作座標保存領域13bに保存させる。S57の処理が終了すると、ヘッドマウントディスプレイ100がOFF状態となり、一連のフローが終了する。
なお、以上説明した実施形態では、S20の処理において、検出領域31aに記入している途中の記入操作の軌跡を画像生成部52で表示させているが、S20の処理を飛ばして、1文字の記入が完了し、S22の処理が完了した時点で、記入操作の軌跡である文字を画像生成部52に表示させる実施形態であっても差し支えない。
In the process of S57 “Save entry operation coordinates”, the CPU 10 saves “Entry operation coordinates” stored in the entry operation coordinate storage area 11 a of the RAM 11 in the entry operation coordinates storage area 13 b of the auxiliary storage device 13. When the process of S57 is finished, the head mounted display 100 is turned off, and the series of flows is finished.
In the embodiment described above, in the process of S20, the locus of the entry operation in the middle of the entry in the detection area 31a is displayed on the image generation unit 52. However, the process of S20 is skipped and one character is displayed. There may be an embodiment in which the character that is the locus of the entry operation is displayed on the image generation unit 52 when the entry is completed and the process of S22 is completed.

(第1の実施形態の補正処理)
図12〜図16を用いて、第1の実施形態の「補正処理」について説明する。「補正処理」が開始すると、S111の処理に進む。
S111「文字が重なっているか?」の判断処理において、文字重なり判断プログラム12jは、図13の(A)や(B)に示されるように、新たに記入された文字72と前回記載された文字71とが重なっているか否かを判断する。具体的には、文字重なり判断プログラム12jは、RAM11の記入軌跡座標記憶領域11dを参照することにより、前回記入された文字71の「記入軌跡座標」を結んだ線(記入軌跡)と、今回記入された文字72の「記入軌跡座標」を結んだ線(記入軌跡)とが重なっているか否かを判断することにより、新たに記入された文字72と前回記載された文字71とが重なっているか否かを判断する。文字重なり判断プログラム12jが、新たに記入された文字72と前回記載された文字71とが重なっていると判断した場合には(図13の(B)の状態)(S111の判断処理がYES)、S112の処理に進む。一方で、文字重なり判断プログラム12jが、新たに記入された文字72と前回記載された文字71とが重なっていないと判断した場合には(図13の(A)の状態)(S111の判断処理がNO)、S113の判断処理に進む。
(Correction process of the first embodiment)
The “correction process” of the first embodiment will be described with reference to FIGS. When the “correction process” starts, the process proceeds to S111.
In the determination process of S111 “characters are overlapped?”, The character overlap determination program 12j, as shown in FIG. 13 (A) and (B), newly entered character 72 and the previously described character It is determined whether or not 71 overlaps. Specifically, the character overlap determination program 12j refers to the entry locus coordinate storage area 11d of the RAM 11, and this time, the line (entry locus) connecting the “entry locus coordinates” of the character 71 entered previously is entered. Whether the newly entered character 72 overlaps the previously described character 71 by determining whether or not the line (entry locus) connecting the “entry locus coordinates” of the entered character 72 overlaps. Judge whether or not. If the character overlap determination program 12j determines that the newly entered character 72 and the previously described character 71 overlap (state (B) of FIG. 13) (YES in S111) The process proceeds to S112. On the other hand, when the character overlap determination program 12j determines that the newly entered character 72 and the previously described character 71 do not overlap (state (A) in FIG. 13) (determination process in S111) Is NO), the process proceeds to S113.

S112「文字毎に間隔をあけて補正」の処理において、文字位置補正プログラム12mは、記入軌跡座標記憶領域11dを参照することにより「記入軌跡座標」を認識する。そして、文字位置ズレ決定プログラム12kは、認識した「記入軌跡座標」に基づき、隣接する前回記載された文字71と新たに記入された文字72が重ならない位置となる位置ズレ量を算出する。文字位置補正プログラム12mは、前記算出された位置ズレ量に基づき、隣接する前回記載された文字71と新たに記入された文字72が重ならない位置まで、新たに記入された文字72が移動するように(図13の(C)に示す)、「記入軌跡座標」を変更して、記入軌跡座標記憶領域11dに更新記憶させる。S112の処理が終了すると、S113の判断処理に進む。   In the process of S112 “correction at intervals for each character”, the character position correction program 12m recognizes “entry locus coordinates” by referring to the entry locus coordinate storage area 11d. Then, based on the recognized “entry trajectory coordinates”, the character position deviation determination program 12k calculates a position deviation amount that is a position where the adjacent previously written character 71 and the newly entered character 72 do not overlap. The character position correction program 12m causes the newly entered character 72 to move to a position where the adjacent previously written character 71 and the newly entered character 72 do not overlap based on the calculated positional deviation amount. (Shown in FIG. 13C), the “entry trajectory coordinates” are changed and updated and stored in the entered trajectory coordinate storage area 11d. When the process of S112 ends, the process proceeds to the determination process of S113.

S113「補正モードあり?」の判断処理において、CPU10は、RAM11の補正モード記憶領域11eを参照することにより、「垂直補正モード」又は「水平補正モード」のいずれかの補正モードが選択されているか否かを判断する。CPU10が、「垂直補正モード」又は「水平補正モード」のいずれかが選択されていると判断した場合には(S113の判断処理がYES)、S111の処理に進む。一方で、CPU10が、「ズレ補正無し」のモードが選択されていると判断した場合には(S113の判断処理がNO)、S22「補正処理」が終了し、S25の判断処理に進む。   In the determination process of S113 “Is there a correction mode?”, The CPU 10 refers to the correction mode storage area 11e of the RAM 11 to select one of the correction modes “vertical correction mode” or “horizontal correction mode”. Judge whether or not. If the CPU 10 determines that either “vertical correction mode” or “horizontal correction mode” has been selected (YES in S113), the process proceeds to S111. On the other hand, if the CPU 10 determines that the “no deviation correction” mode has been selected (NO in S113), the S22 “correction process” ends, and the process proceeds to S25.

S121「傾斜角データ認識」の処理において、文字位置ズレ決定プログラム12kは、RAM11の傾斜角データ記憶領域11gを参照することにより、水平線或いは垂直線からの検出領域31aの傾き角θを認識する。図14に示される実施形態では、文字位置ズレ決定プログラム12kは、垂直線(X’軸)からの検出領域31aの傾き角θを認識する。S121の処理が終了すると、S122の処理に進む。   In the process of S121 “inclination angle data recognition”, the character position deviation determination program 12k recognizes the inclination angle θ of the detection area 31a from the horizontal line or the vertical line by referring to the inclination angle data storage area 11g of the RAM 11. In the embodiment shown in FIG. 14, the character position deviation determination program 12k recognizes the inclination angle θ of the detection area 31a from the vertical line (X ′ axis). When the process of S121 ends, the process proceeds to S122.

S122「文字傾き補正」の処理において、文字位置補正プログラム12mは、「記入軌跡座標」の基準座標を、検出領域31aの絶対座標(x、y)から、前記絶対座標から前記傾き角θ分回転させた相対座標(x’、y’)に変換し、前記相対座標を基準座標とする「記入軌跡座標」を生成し、当該「記入軌跡座標」を記入座標記憶領域11dに更新記憶させる。この「文字傾き補正処理」において、検出領域31aの絶対座標(x、y)上に記入された文字の傾きが補正される。S122の処理が終了すると、S131の処理に進む。   In the process of S122 “character inclination correction”, the character position correction program 12m rotates the reference coordinates of “entry locus coordinates” from the absolute coordinates (x, y) of the detection area 31a by the inclination angle θ from the absolute coordinates. The input coordinates are converted into the relative coordinates (x ′, y ′), the “entry trajectory coordinates” with the relative coordinates as the reference coordinates are generated, and the “entry trajectory coordinates” are updated and stored in the entered coordinate storage area 11d. In this “character inclination correction process”, the inclination of the character written on the absolute coordinates (x, y) of the detection area 31a is corrected. When the process of S122 ends, the process proceeds to S131.

S131「加速度データ認識」の処理において、文字位置ズレ決定プログラム12kは、RAM11の加速度データ記憶領域11fを参照して、検出領域31aが受ける「加速度」及び、前記「加速度」の「検出時間」を認識する。S131の処理が終了すると、S132の処理に進む。   In the process of S131 “acceleration data recognition”, the character position deviation determination program 12k refers to the acceleration data storage area 11f of the RAM 11 and determines the “acceleration” received by the detection area 31a and the “detection time” of the “acceleration”. recognize. When the process of S131 is completed, the process proceeds to S132.

S132「加速度位置ズレ補正」の処理において、文字位置ズレ決定プログラム12kは、「加速度」の「検出時間」と、「記入軌跡座標」の「検出時間」とを照合し、前記両方の「検出時間」が一致する「加速度」に基づいて、前記「検出時間」に対応する「記入軌跡座標」の位置ズレを算出する。前記位置ズレは、「加速度」の大きさに応じて算出される。文字位置補正プログラム12mは、前記算出された「記入軌跡座標」の位置ズレに基づいて、「記入操作座標」を、これと対応する「加速度」の方向と反対側に移動させた「記入軌跡座標」を生成する。生成された「記入軌跡座標」は、記入軌跡座標記憶領域11dに更新記憶される。
例えば、図15に示されるように、ユーザーが歩行中にヘッドマウントディスプレイ100を使用し、前後・上下に移動する検出領域31aに記入操作を行い、検出領域31a上に記入された文字の位置ズレが発生したとしても、この「加速度位置ズレ補正」により、前記文字の位置ズレが補正される。
なお、図15に示される実施形態では、文字位置補正プログラム12mは「記入軌跡座標」のy軸方向の位置ズレのみを補正しているが、勿論、文字位置補正プログラム12mは「記入軌跡座標」のx軸方向の位置ズレも補正する。
S132の処理が終了すると、S141の処理に進む。
In the process of S132 “acceleration position deviation correction”, the character position deviation determination program 12k collates the “detection time” of “acceleration” with the “detection time” of “entry trajectory coordinates”, and the both “detection times”. Based on the “acceleration” that “” matches, the positional deviation of the “entry trajectory coordinates” corresponding to the “detection time” is calculated. The positional deviation is calculated according to the magnitude of “acceleration”. The character position correction program 12m moves the “entry operation coordinates” to the opposite side of the “acceleration” direction corresponding to the “entry trajectory coordinates” based on the calculated positional deviation of the “entry trajectory coordinates”. Is generated. The generated “entry locus coordinates” is updated and stored in the entry locus coordinate storage area 11d.
For example, as shown in FIG. 15, when the user uses the head mounted display 100 while walking, the user performs an entry operation on the detection area 31a that moves back and forth and up and down, and the positional deviation of the characters entered on the detection area 31a. Even if this occurs, the “acceleration position deviation correction” corrects the character position deviation.
In the embodiment shown in FIG. 15, the character position correction program 12m corrects only the positional deviation in the y-axis direction of the “entry trajectory coordinate”. Of course, the character position correction program 12m is the “entry trajectory coordinate”. The positional deviation in the x-axis direction is also corrected.
When the process of S132 ends, the process proceeds to S141.

S141「1文字目の始点座標を認識」の処理において、文字位置ズレ決定プログラム12kは、記入軌跡座標記憶領域11dを参照することにより、検出領域31aに記入された1文字目73の始点座標75を認識する。具体的には、文字位置ズレ決定プログラム12kは、時系列的に、「検出時間」が最も古い「記入軌跡座標」を1文字目73の始点座標75として認識する。S141の処理が終了すると、S142の処理に進む。   In the process of S141 “recognize the start point coordinates of the first character”, the character position deviation determination program 12k refers to the entry trajectory coordinate storage area 11d, thereby starting point coordinates 75 of the first character 73 entered in the detection area 31a. Recognize Specifically, the character position deviation determination program 12 k recognizes the “entry trajectory coordinate” having the oldest “detection time” as the start point coordinate 75 of the first character 73 in time series. When the process of S141 ends, the process proceeds to S142.

S142「書き終わった文字の終点座標を認識」の処理において、文字位置ズレ決定プログラム12kは、記入軌跡座標記憶領域11dを参照することにより、検出領域31aに記入された書き終わった文字74(今回記載された文字)の終点座標76を認識する。具体的には、文字位置ズレ決定プログラム12kは、時系列的に、「検出時間」が最も新しい「記入軌跡座標」を書き終わった文字74の終点座標76して認識する。S142の処理が終了すると、S143の処理に進む。   In the process of S142 “recognize the end point coordinates of a character that has been written”, the character position deviation determination program 12k refers to the entry trajectory coordinate storage area 11d to thereby complete the written character 74 (currently written in the detection area 31a). The end point coordinates 76 of the described characters) are recognized. Specifically, the character position deviation determination program 12k recognizes the end point coordinate 76 of the character 74 that has finished writing the “entry trajectory coordinate” with the latest “detection time” in time series. When the process of S142 ends, the process proceeds to S143.

S143「始点・終点から傾きを算出」の処理において、文字位置ズレ決定プログラム12kは、補正モード記憶領域11eを参照して、補正モードが「垂直補正モード」であるか「水平補正モード」のいずれかであるかを確認する。そして、文字位置ズレ決定プログラム12kは、S141及びS142の処理で認識した1文字目73の始点座標75及び書き終わった文字76の終点座標76を結ぶ直線77の検出領域31aの絶対座標(x、y)の基準線に対する傾きを算出する。補正モードが「垂直補正モード」である場合には、図16の(A)に示されるように、検出領域31aの絶対座標のx軸が基準線79となる。この場合には、文字位置ズレ決定プログラム12kは、前記基準線79であるx軸に対する直線77の傾斜角θ78を算出する。一方で、補正モードが「水平補正モード」である場合には、検出領域31aの絶対座標のy軸が基準線となる。この場合には、文字位置ズレ決定プログラム12kは、前記基準線であるy軸に対する直線77の傾斜角θを算出する。S143の処理が終了すると、S144の判断処理に進む。   In the process of S143 “calculate the inclination from the start point / end point”, the character position deviation determination program 12k refers to the correction mode storage area 11e and determines whether the correction mode is “vertical correction mode” or “horizontal correction mode”. Check if it is. Then, the character position deviation determination program 12k reads the absolute coordinates (x, x, x) of the straight line 77 connecting the start point coordinates 75 of the first character 73 recognized in the processing of S141 and S142 and the end point coordinates 76 of the written characters 76. The inclination of y) with respect to the reference line is calculated. When the correction mode is the “vertical correction mode”, the absolute coordinate x-axis of the detection region 31a becomes the reference line 79, as shown in FIG. In this case, the character position deviation determination program 12k calculates the inclination angle θ78 of the straight line 77 with respect to the x-axis that is the reference line 79. On the other hand, when the correction mode is the “horizontal correction mode”, the y-axis of the absolute coordinate of the detection area 31a becomes the reference line. In this case, the character position deviation determination program 12k calculates the inclination angle θ of the straight line 77 with respect to the y-axis that is the reference line. When the process of S143 ends, the process proceeds to the determination process of S144.

S144「傾きは所定値以上か?」の判断処理において、CPU10は、S143の処理で算出された直線77の検出領域31aの絶対座標(x、y)に対する傾き(傾斜角θ)が所定値以上であるか否かを判断する。CPU10が、基準線に対する傾きが所定値以上であると判断した場合には(S144の判断処理がYES)、S145の処理に進む。一方で、CPU10が、直線77の検出領域31aの絶対座標(x、y)に対する傾きが所定値よりも小さいと判断した場合には(S144の判断処理がNO)、「補正処理」が終了し、S25の判断処理に進む。   In the determination process of S144 “is the inclination greater than or equal to a predetermined value?”, The CPU 10 determines that the inclination (inclination angle θ) with respect to the absolute coordinates (x, y) of the detection area 31a of the straight line 77 calculated in the process of S143 is equal to or greater than the predetermined value. It is determined whether or not. When the CPU 10 determines that the inclination with respect to the reference line is equal to or greater than the predetermined value (YES in S144), the process proceeds to S145. On the other hand, when the CPU 10 determines that the inclination of the straight line 77 with respect to the absolute coordinates (x, y) of the detection area 31a is smaller than the predetermined value (NO in S144), the “correction process” ends. , The process proceeds to S25.

S145「文字列傾き補正」の処理において、文字位置補正プログラム12mは、S143の処理で算出された直線77の検出領域31aの絶対座標(x、y)に対する傾き(傾斜角θ78)に基づいて、図16の(B)に示されるように、1文字目73と書き終わった文字74との位置関係が、基準線79(図16の実施形態では、X軸が基準線)と平行となるように、「記入軌跡座標」を補正する。具体的には一文字目の始点座標75を起点として基準線79に平行な基準線79’が算出され、基準線79’と直線77との比較から、77を79’に補正すべき各文字のX座標に応じたY軸方向の移動距離を算出する。そして、各文字は前記Y軸方向の移動距離が加算され補正される。補正された「記入軌跡座標」は、記入軌跡座標記憶領域11dに更新記憶される。S145の処理が終了すると、「補正処理」が終了し、S25の判断処理に進む。   In the process of S145 “character string inclination correction”, the character position correction program 12m is based on the inclination (inclination angle θ78) with respect to the absolute coordinates (x, y) of the detection area 31a of the straight line 77 calculated in the process of S143. As shown in FIG. 16B, the positional relationship between the first character 73 and the written character 74 is parallel to the reference line 79 (in the embodiment of FIG. 16, the X axis is the reference line). Then, the “entry trajectory coordinates” are corrected. Specifically, a reference line 79 ′ parallel to the reference line 79 is calculated starting from the starting point coordinate 75 of the first character, and a comparison between the reference line 79 ′ and the straight line 77 indicates that each character to be corrected to 77 ′ is 77 ′. The movement distance in the Y-axis direction according to the X coordinate is calculated. Each character is corrected by adding the movement distance in the Y-axis direction. The corrected “entry locus coordinate” is updated and stored in the entry locus coordinate storage area 11d. When the process of S145 ends, the “correction process” ends, and the process proceeds to the determination process of S25.

文字によって書き始め位置と書き終わり位置は異なることから、隣接する文字が検出領域31aの絶対座標に対して傾いていなくても、直線77が検出領域31aの絶対座標の基準線に対して傾く場合がある。S144の判断処理において、直線77の基準線に対する傾きが所定値よりも小さい場合には、S145「文字列傾き補正」が行われないので、無意味に「記入軌跡座標」が補正されることが無い。
(第2の実施形態の補正処理)
図17及び図18を用いて、第2の実施形態の「補正処理」について説明する。第2の実施形態の「補正処理」の、S211、S212、S213、S221、S222、S231、S232の各処理は、第1の実施形態の「補正処理」の、S111、S112、S113、S121、S122、S131、S132の各処理と同一であるため、説明を省略する。
Since the writing start position and writing end position differ depending on the character, even if the adjacent character is not inclined with respect to the absolute coordinate of the detection region 31a, the straight line 77 is inclined with respect to the reference line of the absolute coordinate of the detection region 31a. There is. In the determination process of S144, when the inclination of the straight line 77 with respect to the reference line is smaller than a predetermined value, S145 “character string inclination correction” is not performed, and thus “entry trajectory coordinates” may be corrected meaninglessly. No.
(Correction process of the second embodiment)
The “correction process” of the second embodiment will be described with reference to FIGS. 17 and 18. Each process of S211, S212, S213, S221, S222, S231, and S232 of the “correction process” of the second embodiment is the same as S111, S112, S113, S121, of the “correction process” of the first embodiment. Since it is the same as each process of S122, S131, and S132, description is abbreviate | omitted.

S232の処理が終了すると、S241の処理に進む。
S241「1文字目の重心座標を算出」の処理において、文字位置ズレ決定プログラム12kは、検出領域31aに記載された1文字目81の検出領域31aの絶対座標(x、y)上の重心座標84を算出する。具体的には、文字位置ズレ決定プログラム12kは、前記1文字目81を囲む四角形83の重心座標を算出することにより、前記重心座標84を算出する。S241の処理が終了すると、S242の処理に進む。
When the process of S232 ends, the process proceeds to S241.
In the process of S241 “Calculate the centroid coordinates of the first character”, the character position deviation determination program 12k determines the centroid coordinates on the absolute coordinates (x, y) of the detection area 31a of the first character 81 described in the detection area 31a. 84 is calculated. Specifically, the character position deviation determination program 12k calculates the barycentric coordinate 84 by calculating the barycentric coordinate of the quadrangle 83 surrounding the first character 81. When the process of S241 ends, the process proceeds to S242.

S242「書き終わった文字の重心座標を算出」の処理において、文字位置ズレ決定プログラム12kは、検出領域31aに記載された書き終わった文字82の検出領域31aの絶対座標(x、y)上の重心座標86を算出する。具体的には、文字位置ズレ決定プログラム12kは、前記書き終わった文字82を囲む四角形85の重心座標を算出することにより、前記重心座標86を算出する。S242の処理が終了すると、S243の処理に進む。   In the process of S242 “Calculate the barycentric coordinates of the written character”, the character position deviation determination program 12k is on the absolute coordinates (x, y) of the detection area 31a of the written character 82 described in the detection area 31a. The barycentric coordinates 86 are calculated. Specifically, the character position deviation determination program 12k calculates the barycentric coordinates 86 by calculating the barycentric coordinates of the quadrangle 85 surrounding the written character 82. When the process of S242 ends, the process proceeds to S243.

S243「重心座標から傾きを算出」の処理において、文字位置ズレ決定プログラム12kは、補正モード記憶領域11eを参照して、補正モードが「垂直補正モード」であるか「水平補正モード」のいずれかであるかを確認する。そして、文字位置ズレ決定プログラム12kは、S241及びS242の処理で認識した1文字目81の重心座標84及び書き終わった文字82の重心座標86を結ぶ直線87の検出領域31aの絶対座標(x、y)の基準線に対する傾きを算出する。補正モードが「垂直補正モード」である場合には、図18の(A)に示されるように、検出領域31aの絶対座標のx軸が基準線89となる。この場合には、文字位置ズレ決定プログラム12kは、前記基準線で89あるx軸に対する直線87の傾斜角θ88を算出する。一方で、補正モードが「水平補正モード」である場合には、検出領域31aの絶対座標のy軸が基準線となる。この場合には、文字位置ズレ決定プログラム12kは、前記基準線であるy軸に対する直線87の傾斜角θを算出する。S243の処理が終了すると、S244の処理に進む。   In the process of S243 “calculate the inclination from the center of gravity coordinates”, the character position deviation determination program 12k refers to the correction mode storage area 11e and determines whether the correction mode is “vertical correction mode” or “horizontal correction mode”. Check if it is. Then, the character position deviation determination program 12k reads the absolute coordinates (x, x, x) of the detection area 31a of the straight line 87 connecting the barycentric coordinates 84 of the first character 81 and the barycentric coordinates 86 of the written character 82 recognized in the processes of S241 and S242. The inclination of y) with respect to the reference line is calculated. When the correction mode is the “vertical correction mode”, the absolute coordinate x-axis of the detection region 31a becomes the reference line 89, as shown in FIG. In this case, the character position deviation determination program 12k calculates the inclination angle θ88 of the straight line 87 with respect to the x axis which is 89 as the reference line. On the other hand, when the correction mode is the “horizontal correction mode”, the y-axis of the absolute coordinate of the detection area 31a becomes the reference line. In this case, the character position deviation determination program 12k calculates the inclination angle θ of the straight line 87 with respect to the y axis that is the reference line. When the process of S243 ends, the process proceeds to S244.

S244「文字列傾き補正」の処理において、文字位置補正プログラム12mは、S243の処理で算出された直線87の検出領域31aの絶対座標(x、y)に対する傾き(傾斜角θ78)に基づいて、図18の(B)に示されるように、1文字目81と書き終わった文字82との位置関係が、基準線89(図18の実施形態では、X軸が基準線89)と平行となるように、「記入軌跡座標」を補正する。具体的には一文字目の重心座標84を起点として基準線89に平行な基準線89’が算出され、基準線89’と直線87との比較から、87を89’に補正すべき各文字の重心のX座標に応じたY軸方向の移動距離が算出される。或いは、各文字の重心は計算されているので、各文字の重心の絶対位置からY軸方向の移動距離を算出しても差し支えない。或いは、各文字の重心を算出せずとも、87を89’に補正すべき各文字の重心のX座標に応じたY軸方向の移動距離を算出することで、各文字は前記Y軸方向の移動距離を算出しても差し支えない。そして、各文字は前記Y軸方向の移動距離が加算され補正される。補正された「記入軌跡座標」は、記入軌跡座標記憶領域11dに更新記憶される。S244の処理が終了すると、「補正処理」が終了し、S25の判断処理に進む。   In the process of S244 “character string inclination correction”, the character position correction program 12m is based on the inclination (inclination angle θ78) of the detection area 31a of the straight line 87 with respect to the absolute coordinates (x, y) calculated in the process of S243. As shown in FIG. 18B, the positional relationship between the first character 81 and the written character 82 is parallel to the reference line 89 (in the embodiment of FIG. 18, the X axis is the reference line 89). Thus, the “entry trajectory coordinates” are corrected. Specifically, a reference line 89 ′ parallel to the reference line 89 is calculated starting from the barycentric coordinate 84 of the first character, and a comparison between the reference line 89 ′ and the straight line 87 indicates that each character to be corrected to 87 ′ is 87 ′. A movement distance in the Y-axis direction corresponding to the X coordinate of the center of gravity is calculated. Alternatively, since the center of gravity of each character is calculated, the movement distance in the Y-axis direction may be calculated from the absolute position of the center of gravity of each character. Alternatively, without calculating the center of gravity of each character, by calculating the movement distance in the Y-axis direction according to the X-coordinate of the center of gravity of each character to be corrected to 87 ′ for 87, each character is moved in the Y-axis direction. You can calculate the distance traveled. Each character is corrected by adding the movement distance in the Y-axis direction. The corrected “entry locus coordinate” is updated and stored in the entry locus coordinate storage area 11d. When the process of S244 ends, the “correction process” ends, and the process proceeds to the determination process of S25.

入力ペン80を、赤外線や超音波を発生する構成とし、入力検出部31は前記赤外線や超音波を受信する構成とし、入力検出部31でユーザーの記入操作を検出することにしても差し支えない。
或いは、検出領域31aを撮像して、ユーザーの記入操作を検出する構成にしても差し支えない。
また、入力検出部31を感圧式や静電容量式のタッチパネルで構成しても差し支えない。
以上説明した実施形態では、ユーザーが入力ペン80を用いて、入力検出部31の検出領域31aに記入操作を行っているが、入力検出部31をタッチパネルで構成するか、もしくは、入力検出部31を撮像する構成とすることにより、ユーザーが指で検出領域31aに記入操作を行い、入力検出部31が前記記入操作を検出する実施形態であっても差し支えない。
The input pen 80 may be configured to generate infrared rays and ultrasonic waves, the input detection unit 31 may be configured to receive the infrared rays and ultrasonic waves, and the input detection unit 31 may detect a user's entry operation.
Alternatively, the detection area 31a may be imaged to detect a user entry operation.
Further, the input detection unit 31 may be configured with a pressure-sensitive or capacitive touch panel.
In the embodiment described above, the user performs an entry operation in the detection area 31a of the input detection unit 31 using the input pen 80. However, the input detection unit 31 is configured by a touch panel or the input detection unit 31 is used. In this embodiment, the user performs an entry operation on the detection area 31a with a finger, and the input detection unit 31 detects the entry operation.

以上説明した実施形態では、図4に示される「メイン処理」のS11の処理において、「垂直補正モード」であるか「水平補正モード」であるか、或いは、「ズレ補正無し」のいずれかをユーザーに選択させているが、図2に示されるように、入力ペン60に操作ボタン60aを設け、ユーザーが操作ボタン60aを操作することにより、各種モードを選択する実施形態であっても差しつかえない。或いは、S11の処理において、ユーザーが操作部35を操作することにより、各種モードを選択する実施形態であっても差し支えない。   In the embodiment described above, in the process of S <b> 11 of “main process” shown in FIG. 4, either “vertical correction mode”, “horizontal correction mode”, or “no shift correction” is set. As shown in FIG. 2, the user can select the operation mode 60 a on the input pen 60, and the user can select various modes by operating the operation button 60 a. Absent. Alternatively, in the processing of S11, there may be an embodiment in which the user selects various modes by operating the operation unit 35.

以上、現時点において、もっとも、実践的であり、かつ好ましいと思われる実施形態に関連して本発明を説明したが、本発明は、本願明細書中に開示された実施形態に限定されるものではなく、請求の範囲および明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うヘッドマウントディスプレイもまた技術的範囲に包含されるものとして理解されなければならない。   Although the present invention has been described above in connection with the most practical and preferred embodiments at the present time, the present invention is not limited to the embodiments disclosed herein. However, the present invention can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification, and a head-mounted display accompanying such a change should also be understood as being included in the technical scope. I must.

9 バス
10 CPU
11 RAM
11a 記入操作座標記憶領域
11b 初期位置座標記憶領域
11c 開始位置座標記憶領域
11d 記入軌跡座標記憶領域
11e 補正モード記憶領域
11f 加速度データ記憶領域
11g 傾斜角データ記憶領域
12 ROM
12a モード選択画面表示プログラム
12b モード選択プログラム
12c 初期位置座標決定プログラム
12d 開始位置座標検出プログラム
12e 座標変換プログラム
12f 記入軌跡画像生成プログラム
12g 記入操作エラー検出プログラム
12h 警告報知プログラム
12i 1文字記入完了判断プログラム
12j 文字重なり判断プログラム
12k 文字位置ズレ決定プログラム
12m 文字位置補正プログラム
13 補助記憶装置
13a 記入軌跡座標保存領域
13b 記入操作座標保存領域
16 画像生成コントローラ
17 VRAM
19 インターフェース
30 制御部
31 記入操作検出部
31a 検出領域
31b 近接警告領域
32 加速度センサー
33 傾斜センサー
35 操作部
50 ヘッドマウントディスプレイ部
51 頭部装着部
52 画像生成部
60 入力ペン
60a 操作部
71 前回記入された文字
72 新たに記入された文字
73 1文字目
74 書き終わった文字
75 1文字目の始点座標
76 書き終わった文字の終点座標
77 直線
78 傾斜角
79 基準線
81 1文字目
82 書き終わった文字
83 四角形
84 重心座標
85 四角形
86 重心座標
87 直線
88 傾斜角
89 基準線
90 表示領域
91 開始位置座標
92 記入軌跡座標
93 開始位置座標
94 記入操作座標
95 記入軌跡座標
96 警告
97 ポインター
98 初期位置マーク
99 初期位置座標
100 ヘッドマウントディスプレイ
9 Bus 10 CPU
11 RAM
11a Entry operation coordinate storage area 11b Initial position coordinate storage area 11c Start position coordinate storage area 11d Entry locus coordinate storage area 11e Correction mode storage area 11f Acceleration data storage area 11g Tilt angle data storage area 12 ROM
12a mode selection screen display program 12b mode selection program 12c initial position coordinate determination program 12d start position coordinate detection program 12e coordinate conversion program 12f entry locus image generation program 12g entry operation error detection program 12h warning notification program 12i 1 character entry completion judgment program 12j Character overlap determination program 12k Character position deviation determination program 12m Character position correction program 13 Auxiliary storage device 13a Entry trajectory coordinate storage area 13b Entry operation coordinate storage area 16 Image generation controller 17 VRAM
DESCRIPTION OF SYMBOLS 19 Interface 30 Control part 31 Entry operation detection part 31a Detection area 31b Proximity warning area 32 Acceleration sensor 33 Inclination sensor 35 Operation part 50 Head mounted display part 51 Head mounting part 52 Image generation part 60 Input pen 60a Operation part 71 It is written last time Characters 72 Newly entered characters 73 First character 74 Finished character 75 First point coordinate of first character 76 End point coordinate of written character 77 Straight line 78 Inclination angle 79 Reference line 81 First character 82 Characters finished writing 83 rectangle 84 centroid coordinates 85 rectangle 86 centroid coordinates 87 straight line 88 tilt angle 89 reference line 90 display area 91 start position coordinates 92 entry locus coordinates 93 entry position coordinates 94 entry operation coordinates 95 entry locus coordinates 96 warning 97 pointer 98 initial position mark 99 Initial position Coordinate 100 head-mounted display

Claims (7)

ユーザーの頭部に装着され、ユーザーに画像を視認させる画像生成部と、
ユーザーの身体に装着され、2次元である検出領域上に対するユーザーの記入操作の座標である記入操作座標を検出する記入操作検出手段と、
前記記入操作座標に基づいて、記入操作の軌跡画像を生成し、前記生成した軌跡画像を前記画像生成部に出力する記入操作画像生成手段と、
ユーザーの入力操作により、前記記入操作が文字入力であるか否かを選択する文字入力選択手段と、
前記文字入力選択手段により文字入力が選択された場合に、前記記入操作座標から前記検出領域上に記入された文字の、前記検出領域上の第1方向に対する位置ズレを決定する文字位置ズレ決定手段と、
前記文字位置ズレ決定手段により決定された前記位置ズレに基づいて、文字の前記位置ズレを補正する文字位置補正手段と、
を有することを特徴とするヘッドマウントディスプレイ。
An image generator mounted on the user's head and allowing the user to visually recognize the image;
An entry operation detection means for detecting entry operation coordinates, which are coordinates of the entry operation of the user on a detection area which is two-dimensional and is attached to the user's body;
Based on the entry operation coordinates, entry operation image generation means for generating a locus image of the entry operation and outputting the generated locus image to the image generation unit;
Character input selection means for selecting whether or not the entry operation is a character input by a user input operation;
When a character input is selected by the character input selection means, a character position deviation determining means for determining a position deviation of the character entered on the detection area from the entry operation coordinates with respect to the first direction on the detection area. When,
Character position correction means for correcting the position shift of a character based on the position shift determined by the character position shift determination means;
A head-mounted display comprising:
記入操作画像生成手段は、前記文字位置補正手段により相対的な位置ズレが補正された複数の文字からなる文字列の文字列画像を、画像生成部に出力することを特徴とする請求項1に記載のヘッドマウントディスプレイ。   The entry operation image generation means outputs a character string image of a character string composed of a plurality of characters whose relative positional deviation has been corrected by the character position correction means to the image generation section. The described head mounted display. 文字位置補正手段で補正する文字の位置ズレの補正方向が、
前記第1方向に対するズレを補正する第1モードか、
検出領域上の前記第1方向と直交する方向である第2方向に対するズレを補正する第2補正モードかを、ユーザーの入力操作により選択する補正方向選択手段を更に有することを特徴とする請求項1又は請求項2に記載のヘッドマウントディスプレイ。
The correction direction of the character position deviation corrected by the character position correction means is
A first mode for correcting a shift with respect to the first direction;
The apparatus further comprises a correction direction selection means for selecting by a user input operation whether the second correction mode is to correct a deviation with respect to a second direction which is a direction orthogonal to the first direction on the detection area. The head mounted display of Claim 1 or Claim 2.
検出領域の傾きを検出する傾斜検出手段を更に有し、
文字位置補正手段は、前記傾斜検出手段により検出された検出領域の傾き情報に基づき、検出領域に記入された文字の傾きを補正することを特徴とする請求項1〜請求項3のいずれかに記載のヘッドマウントディスプレイ。
It further has an inclination detection means for detecting the inclination of the detection area,
4. The character position correcting means corrects the inclination of the character entered in the detection area based on the inclination information of the detection area detected by the inclination detecting means. The described head mounted display.
検出領域が受ける加速度を検出する加速度検出手段を更に有し、
文字位置補正手段は、前記加速度に基づいて、検出領域に記入された文字を移動させる補正を行うことを特徴とする請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。
It further has an acceleration detection means for detecting the acceleration received by the detection region,
The head mounted display according to any one of claims 1 to 4, wherein the character position correcting means performs correction for moving the character written in the detection area based on the acceleration.
文字位置補正手段は、文字位置ズレ決定手段が検出した検出領域上に記入された文字の相対的な位置ズレが所定以下である場合には、文字の位置ズレの補正を行わないことを特徴とする請求項1〜請求項5のいずれかに記載のヘッドマウントディスプレイ。   The character position correcting means does not correct the character position deviation when the relative position deviation of the character entered on the detection area detected by the character position deviation determining means is equal to or less than a predetermined value. The head mounted display according to any one of claims 1 to 5. 記入操作座標に基づき、隣接する文字が重なっているか否かを判断する文字重なり判断手段を更に有し、
前記文字重なり判断手段が、隣接する文字が重なっていると判断した場合には、
文字位置補正手段は、前記記入操作座標に基づき、隣接する文字が重ならない位置にまで文字を移動させることを特徴とする請求項1〜請求項6のいずれかに記載のヘッドマウントディスプレイ。
Further comprising character overlap judging means for judging whether or not adjacent characters overlap based on the input operation coordinates,
When the character overlap determining means determines that adjacent characters overlap,
The head-mounted display according to any one of claims 1 to 6, wherein the character position correcting means moves the character to a position where adjacent characters do not overlap based on the entry operation coordinates.
JP2009292163A 2009-12-24 2009-12-24 Head mounted display Expired - Fee Related JP5146845B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009292163A JP5146845B2 (en) 2009-12-24 2009-12-24 Head mounted display
US12/967,595 US20110157236A1 (en) 2009-12-24 2010-12-14 Head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009292163A JP5146845B2 (en) 2009-12-24 2009-12-24 Head mounted display

Publications (2)

Publication Number Publication Date
JP2011134053A JP2011134053A (en) 2011-07-07
JP5146845B2 true JP5146845B2 (en) 2013-02-20

Family

ID=44186984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009292163A Expired - Fee Related JP5146845B2 (en) 2009-12-24 2009-12-24 Head mounted display

Country Status (2)

Country Link
US (1) US20110157236A1 (en)
JP (1) JP5146845B2 (en)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
KR102024588B1 (en) * 2012-07-30 2019-09-24 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP6076026B2 (en) * 2012-10-18 2017-02-08 シャープ株式会社 Display device, display method, and display program
JP5907136B2 (en) * 2013-09-30 2016-04-20 ブラザー工業株式会社 Head mounted display and control program
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
DE102014106839B4 (en) * 2014-05-15 2019-02-07 Stabilo International Gmbh Drift compensation for an electronic pen
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
CN106575151A (en) * 2014-06-17 2017-04-19 奥斯特豪特集团有限公司 External user interface for head worn computing
KR20160062566A (en) * 2014-11-25 2016-06-02 삼성전자주식회사 Device and method for amend hand-writing characters
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
JP2016162115A (en) * 2015-02-27 2016-09-05 ブラザー工業株式会社 Electronic writing apparatus and electronic writing processing program
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US11017258B2 (en) * 2018-06-05 2021-05-25 Microsoft Technology Licensing, Llc Alignment of user input on a screen
US11372518B2 (en) * 2020-06-03 2022-06-28 Capital One Services, Llc Systems and methods for augmented or mixed reality writing

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3282637B2 (en) * 1993-08-11 2002-05-20 ソニー株式会社 Handwritten input display device and method
JPH07306747A (en) * 1994-05-12 1995-11-21 Canon Inc Input coordinate transformation method and device therefor
JP3006545B2 (en) * 1997-06-09 2000-02-07 日本電気株式会社 Online character recognition device
JP2002082766A (en) * 2000-09-05 2002-03-22 Canon Inc Information processor with handwriting input function, hadwriting input method, and recording medium recorded with program for handwriting input
JP3958003B2 (en) * 2000-09-29 2007-08-15 独立行政法人科学技術振興機構 Character recognition method, character recognition program, computer-readable recording medium recording character recognition program, and character recognition apparatus
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
WO2005116939A1 (en) * 2004-05-27 2005-12-08 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
US20070220108A1 (en) * 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US8341556B2 (en) * 2007-04-30 2012-12-25 Hewlett-Packard Development Company, L.P. Method and system for attention-free user input on a computing device

Also Published As

Publication number Publication date
US20110157236A1 (en) 2011-06-30
JP2011134053A (en) 2011-07-07

Similar Documents

Publication Publication Date Title
JP5146845B2 (en) Head mounted display
JP5207145B2 (en) Head mounted display
US9829998B2 (en) Information processing apparatus, input apparatus, information processing system, information processing method, and program
JP2009129171A (en) Information processor loaded in mobile body
JP5052677B2 (en) Display input device
US20110234639A1 (en) Display input device
JP5124397B2 (en) Automotive Input/Output Devices
JP4626671B2 (en) Input device and control system
JP2016177151A (en) Display device, display control method, and program
JP2005321869A (en) Operation input device and operation input method
JP5876325B2 (en) Control device and program
JP2007190947A (en) On-vehicle information terminal
US20160162092A1 (en) Operation device
JP2010137009A (en) Calibration program and coordinate detection device
JP2018144582A (en) On-vehicle apparatus operation device
ES2745131T3 (en) Procedure and device for the indication of information on an indication surface
JP2011192231A (en) In-vehicle input device, and input program therefor
US20170010804A1 (en) Vehicle and control method for the vehicle
JP4244202B2 (en) Operation input device and operation input method
JP2008045914A (en) Navigation device
JP5557780B2 (en) Mobile terminal and screen display change method
JP4577586B2 (en) Vehicle control device
JP4786292B2 (en) Information processing apparatus, hierarchical information output method, and program
JP4711135B2 (en) Input system
JP7095525B2 (en) Mobile devices, exercise support methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121115

R150 Certificate of patent or registration of utility model

Ref document number: 5146845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees
OSZAR »