JP4683126B2 - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP4683126B2
JP4683126B2 JP2008332778A JP2008332778A JP4683126B2 JP 4683126 B2 JP4683126 B2 JP 4683126B2 JP 2008332778 A JP2008332778 A JP 2008332778A JP 2008332778 A JP2008332778 A JP 2008332778A JP 4683126 B2 JP4683126 B2 JP 4683126B2
Authority
JP
Japan
Prior art keywords
button
enlarged
displayed
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008332778A
Other languages
Japanese (ja)
Other versions
JP2010152827A (en
Inventor
政晶 脇阪
利成 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008332778A priority Critical patent/JP4683126B2/en
Priority to EP09252856A priority patent/EP2202626A3/en
Priority to US12/646,633 priority patent/US8271900B2/en
Priority to CN2009102626697A priority patent/CN101770335B/en
Publication of JP2010152827A publication Critical patent/JP2010152827A/en
Application granted granted Critical
Publication of JP4683126B2 publication Critical patent/JP4683126B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、入力装置に関するものである。   The present invention relates to an input device.

従来より、タッチパネル上のLCDに複数のボタン画像を表示し、その複数のボタン画像のうち、ユーザが指でタッチしたボタン画像をタッチパネルで検出し、その選択されたボタン画像に割り当てられている指示を入力する入力装置が知られている。   Conventionally, a plurality of button images are displayed on the LCD on the touch panel, and a button image touched by a user's finger among the plurality of button images is detected by the touch panel, and an instruction assigned to the selected button image An input device for inputting is known.

次の特許文献1には、利用者の指等が表示装置に表示されている入力ボタン群に接近すると、接近感知装置がこれを感知し、接近した座標周辺の入力ボタン群の画像を拡大表示する技術が記載されている。
特開平10−269022(図1等)
In the next patent document 1, when a user's finger or the like approaches an input button group displayed on a display device, the approach detection device detects this and displays an enlarged image of the input button group around the approached coordinates. The technology to do is described.
JP-A-10-269022 (FIG. 1 etc.)

しかしながら、上述した特許文献1では、利用者の指等が接近した座標周辺の入力ボタン群の画像を拡大表示するので、拡大表示された入力ボタン群の画像の中から、何れの入力ボタンが選択されるのかが判断し難く、誤操作を発生させる恐れがあった。   However, in Patent Document 1 described above, an image of the input button group around the coordinates close to the user's finger or the like is enlarged and displayed, so any input button is selected from the enlarged image of the input button group. It was difficult to determine whether it would be performed, and there was a risk of causing an erroneous operation.

本発明は、上述した問題点を解決するためになされたものであり、これから選択されるボタンを確認し易い入力装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an input device that allows easy confirmation of a button to be selected.

この目的を達成するために、請求項1記載の入力装置は、表示手段と、その表示手段上に対する入力媒体の接近および接触を示す接近値を検出する検出手段と、前記表示手段の同一画面上に複数のボタンを表示するボタン表示手段と、そのボタン表示手段によって表示されているボタンに対する接近値が第1閾値を超えたことが前記検出手段によって検出された場合に、そのボタンに割り当てられている所定の指示の入力を受付ける受付手段とを備えたものであって、前記検出手段によって前記ボタンに対する接近値が第1閾値よりも小さい第2閾値を超えたことが検出された場合に、そのボタンだけを拡大して前記表示手段に表示する拡大表示手段と、前記表示手段上における前記入力媒体の位置情報を記憶する記憶手段と、その記憶手段に記憶されている位置情報から前記ボタンの枠内における前記入力媒体の位置情報として、前記ボタンに対する前記入力媒体の進入位置を取得する取得手段と、を備え、前記拡大表示手段は、前記表示手段に表示されている前記ボタンの各々に対し、前記検出手段によって検出される接近値が前記第2閾値を超えているボタンの全てを抽出する抽出手段を備え、その抽出手段によって抽出されたボタンのうち、最も接近値が前記第1閾値に近いボタンを、前記取得手段によって取得した前記進入位置を原点として拡大表示し、前記取得手段によって取得した前記進入位置から所定間隔離れた位置までを避けた位置であって、拡大表示する前記ボタンの枠内に、そのボタンのボタン名を表示する
In order to achieve this object, the input device according to claim 1 includes a display means, a detection means for detecting an approach value indicating the approach and contact of the input medium on the display means , and the same screen of the display means. And a button display means for displaying a plurality of buttons, and when the detection means detects that an approach value for the button displayed by the button display means exceeds a first threshold value, the button is assigned to the button. Receiving means for receiving an input of a predetermined instruction, and when the detection means detects that the approach value for the button exceeds a second threshold value smaller than the first threshold value, and enlarged display means only the enlarged and displayed on the display means buttons, a storage means for storing position information of said input medium on the display unit, the storage means Acquisition means for acquiring an entry position of the input medium with respect to the button as position information of the input medium within the frame of the button from stored position information, and the enlarged display means is provided on the display means. For each button that is displayed, the button includes an extracting unit that extracts all buttons whose approach values detected by the detecting unit exceed the second threshold, and the buttons extracted by the extracting unit The position where the closest approach value is closer to the first threshold value is enlarged with the entry position acquired by the acquisition means as the origin, and a position away from the entry position acquired by the acquisition means up to a predetermined distance is avoided. The button name of the button is displayed in the frame of the button to be enlarged .

請求項2記載の入力装置は、請求項1記載の入力装置において、前記拡大表示手段は、前記ボタン名を表示する場合、前記進入位置に応じて前記ボタン名の向きを変更して前記ボタン名を表示する。
The input device according to claim 2, in the input device according to claim 1, when the enlarged display unit displays the button name, the button name is changed by changing the direction of the button name according to the entry position. Is displayed.

請求項3記載の入力装置は、請求項1又は2に記載の入力装置において、前記拡大表示手段は、前記ボタン名を表示する場合、拡大表示する前のボタン名の大きさよりも小さくして、又は、改行して前記ボタン名を表示する。
In the input device according to claim 3, in the input device according to claim 1 or 2, when the enlarged display unit displays the button name, it is smaller than the size of the button name before the enlarged display, Alternatively, the button name is displayed with a line feed.

請求項4記載の入力装置は、請求項1から3のいずれかに記載の入力装置において、前記拡大表示手段によって所定のボタンが拡大表示されている場合、その拡大表示されているボタン以外のボタンについて、前記受付手段によって受け付けられた所定の指示の入力を無効にする無効手段を備えている。
The input device according to claim 4 is the input device according to any one of claims 1 to 3 , wherein when a predetermined button is displayed in an enlarged manner by the enlarged display means, a button other than the enlarged button is displayed. Is provided with invalidating means for invalidating the input of a predetermined instruction received by the receiving means.

請求項1記載の入力装置によれば、これから選択されるボタンを確認し易くなるという効果がある。   According to the input device of the first aspect, there is an effect that it becomes easy to confirm a button to be selected.

また、ユーザが選択したいであろうボタンだけを拡大表示することができるという効果がある。
In addition, there is an effect that only the buttons that the user wants to select can be enlarged and displayed.

また、ボタン名が入力媒体に覆われて、ボタン名が確認できないという事態が発生するのを抑制することができるという効果がある。
In addition, there is an effect that it is possible to suppress a situation in which the button name is not confirmed because the button name is covered with the input medium.

また、ボタンが入力媒体に覆われるのを抑制することができるという効果がある。
In addition, there is an effect that the button can be prevented from being covered with the input medium.

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図1で多機能周辺装置の外観構成、図2で入力装置のハードウェア構成、図3で入力装置の操作の一例、図4で入力装置の表示更新処理を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 illustrates the external configuration of the multifunction peripheral device, FIG. 2 illustrates the hardware configuration of the input device, FIG. 3 illustrates an example of operation of the input device, and FIG. 4 illustrates the display update processing of the input device.

図1は、本発明の入力装置の一例である多機能周辺装置(以下、「MFP(Multi Function Peripheral)」と称す)1の外観構成を示した斜視図である。本実施形態のMFP1の正面上部には、操作キー15に加えて、LCD16およびタッチパネル17が配設されており、ユーザは、操作キー15による入力操作か、又はタッチパネル17による入力操作を行うことで、MFP1の各種設定や各種制御を行うことができる。   FIG. 1 is a perspective view showing an external configuration of a multi-function peripheral device (hereinafter referred to as “MFP (Multi Function Peripheral)”) 1 which is an example of the input device of the present invention. In addition to the operation keys 15, an LCD 16 and a touch panel 17 are disposed in the upper front portion of the MFP 1 of the present embodiment, and the user performs an input operation using the operation keys 15 or an input operation using the touch panel 17. Various settings and various controls of the MFP 1 can be performed.

このMFP1は、ユーザがタッチパネル17を操作して各種設定や各種制御を行う場合に、ユーザの指がLCD16に表示されている設定項目に所定距離接近したら、その設定項目を拡大表示するものである。これにより、ユーザ自身の指で設定項目が隠れ、意図していない領域を触れるなどの誤操作を防止できる。   When the user operates the touch panel 17 to perform various settings and various controls, the MFP 1 enlarges and displays the setting items when the user's finger approaches a setting item displayed on the LCD 16 by a predetermined distance. . Thereby, it is possible to prevent an erroneous operation such as the setting item being hidden by the user's own finger and touching an unintended area.

MFP1は、電話回線網100(図2参照)を介して接続される外部装置(非図示)とファクシミリ通信可能に構成されている。また、このMFP1は、プリンタ機能、スキャナ機能、及び、コピー機能などの各種機能も有している。   The MFP 1 is configured to be capable of facsimile communication with an external device (not shown) connected via a telephone line network 100 (see FIG. 2). The MFP 1 also has various functions such as a printer function, a scanner function, and a copy function.

MFP1には、正面上部に設けられる横長形状の操作パネル6が設けられている。この操作パネル6は、MFP1を操作するためのものであり、操作キー15と、LCD16と、タッチパネル17とが主に設けられている。ユーザは、操作キー15の各種ボタンを操作するか、又は、タッチパネル17を操作することで、各種機能の設定や動作を実行することができる。   The MFP 1 is provided with a horizontally long operation panel 6 provided at an upper front portion. The operation panel 6 is for operating the MFP 1 and mainly includes an operation key 15, an LCD 16, and a touch panel 17. The user can set various functions and perform operations by operating various buttons of the operation keys 15 or operating the touch panel 17.

LCD16には、メニューや操作手順や実行中の処理の状態などが表示される。このLCD16の表示面には、入力装置の一種であるタッチパネル17が配設されている。LCD16に表示されている画像(例えば、画像で形成されたキー(以後、「画像キー」と称する))が、ユーザによって指で触れられると、LCD16の表示面に配設されたタッチパネル17が指で触れられることになる。   The LCD 16 displays menus, operation procedures, the status of the process being executed, and the like. On the display surface of the LCD 16, a touch panel 17 which is a kind of input device is disposed. When an image displayed on the LCD 16 (for example, a key formed of an image (hereinafter referred to as “image key”) is touched by the user with a finger, the touch panel 17 disposed on the display surface of the LCD 16 is touched with the finger. It will be touched by.

タッチパネル17では、指の接触(又は接近)を示す接近値が検出されたら、その触れられた(接近された)位置が特定される。CPU11(図2参照)は、タッチパネル17により検出された指の位置に応じて、その指の位置に表示されている画像(例えば、画像キー)に対応する各処理を実行する。   On the touch panel 17, when an approach value indicating finger contact (or approach) is detected, the touched (approached) position is specified. The CPU 11 (see FIG. 2) executes each process corresponding to an image (for example, an image key) displayed at the finger position according to the finger position detected by the touch panel 17.

本実施形態では、各種方式(抵抗膜方式や、赤外線方式など)があるタッチパネルの中で、投影型静電容量方式のタッチパネル17を用いている。静電容量方式のタッチパネルとは、指先とタッチパネルとが接近(又は接触)した場合に、指とタッチパネルとが静電結合して、指とタッチパネルとの間の静電容量が変化することを利用したものである。静電容量方式のタッチパネルでは、この静電容量の変化を検出するので、指がタッチパネルに接触しているかに加えて、指がタッチパネルに接近していることも検出できる。   In the present embodiment, the projected capacitive touch panel 17 is used among touch panels having various types (such as a resistive film type and an infrared type). The capacitive touch panel uses the fact that when the fingertip and the touch panel approach (or touch), the finger and the touch panel are electrostatically coupled, and the capacitance between the finger and the touch panel changes. It is a thing. Since the capacitance-type touch panel detects this change in capacitance, it can be detected that the finger is approaching the touch panel in addition to whether the finger is in contact with the touch panel.

また、投影型とは、タッチパネル17内で静電容量の変化を複数箇所で同時に検出するために、指などの接触(又は接近)を検出する領域を、例えば碁盤の目のように細かく区分けし、各領域毎にセンサ(具体的には、電極パターン)を配設したものである。なお、区分けされた各領域のことをそれぞれ検出領域と称する。   In addition, the projection type is a method of finely dividing an area for detecting contact (or approach) of a finger or the like, for example, like a grid, in order to detect a change in capacitance simultaneously at a plurality of locations in the touch panel 17. A sensor (specifically, an electrode pattern) is provided for each region. Each divided area is referred to as a detection area.

なお、それぞれの検出領域のセンサからは、ユーザの指の接近距離(検出される静電容量)に応じた電圧値(接近値に相当)が出力される。具体的には、ユーザの指が接近するに従って、出力される電圧値が増加していき、例えば、指が接触する直前(指と検出領域との距離が2〜3mm程度)になると、閾値A(第2閾値)以上の電圧値が出力され、指が接触したら、閾値B(第1閾値)以上の電圧値が出力される。   A voltage value (corresponding to the approach value) corresponding to the approach distance (detected capacitance) of the user's finger is output from the sensor in each detection region. Specifically, as the user's finger approaches, the output voltage value increases. For example, when the finger is in contact (the distance between the finger and the detection region is about 2 to 3 mm), the threshold A When a voltage value equal to or greater than (second threshold) is output and the finger touches, a voltage value equal to or greater than threshold B (first threshold) is output.

一方、ユーザの指が離れるに従って、出力される電圧値が減少していき、例えば、指と検出領域との距離が20mm以上離れると、静電容量の変化を検出しなくなり、電圧値0が出力される。   On the other hand, the output voltage value decreases as the user's finger moves away. For example, when the distance between the finger and the detection region is 20 mm or more, the change in capacitance is not detected, and the voltage value 0 is output. Is done.

次に、図2を参照して、MFP1の電気的構成について説明する。MFP1は、CPU11、ROM12、RAM13、フラッシュメモリ14、操作キー15、LCD16、タッチパネル17、スキャナ20、プリンタ21、NCU23、モデム24とを主に有している。   Next, an electrical configuration of the MFP 1 will be described with reference to FIG. The MFP 1 mainly has a CPU 11, ROM 12, RAM 13, flash memory 14, operation keys 15, LCD 16, touch panel 17, scanner 20, printer 21, NCU 23, and modem 24.

CPU11、ROM12、RAM13、フラッシュメモリ14は、バスライン26を介して互いに接続されている。また、操作キー15、LCD16、タッチパネル17、スキャナ20、プリンタ21、NCU23、モデム24、バスライン26は、入出力ポート27を介して互いに接続されている。   The CPU 11, ROM 12, RAM 13, and flash memory 14 are connected to each other via a bus line 26. The operation key 15, LCD 16, touch panel 17, scanner 20, printer 21, NCU 23, modem 24, and bus line 26 are connected to each other via an input / output port 27.

CPU11は、ROM12やRAM13やフラッシュメモリ14に記憶される固定値やプログラム或いは、NCU23を介して送受信される各種信号に従って、MFP1が有している各機能の制御や、入出力ポート27と接続された各部を制御するものである。   The CPU 11 is connected to the control of each function of the MFP 1 and the input / output port 27 according to fixed values and programs stored in the ROM 12, RAM 13, and flash memory 14, or various signals transmitted / received via the NCU 23. Each part is controlled.

ROM12は、MFP1で実行される制御プログラムなどを格納した書換不能なメモリである。後述する図4のフローチャートに示す表示更新処理を実行するプログラムは、このROM12に格納されている。   The ROM 12 is a non-rewritable memory that stores a control program executed by the MFP 1. A program for executing display update processing shown in the flowchart of FIG. 4 to be described later is stored in the ROM 12.

RAM13は、書換可能な揮発性のメモリであり、MFP1の各操作の実行時に各種のデータを一時的に記憶するためのメモリである。RAM13には、拡大キーメモリ13aが設けられている。   The RAM 13 is a rewritable volatile memory, and is a memory for temporarily storing various data when each operation of the MFP 1 is executed. The RAM 13 is provided with an enlarged key memory 13a.

フラッシュメモリ14は書換可能な不揮発性のメモリであり、このフラッシュメモリ14に記憶されたデータは、MFP1の電源オフ後も保持される。   The flash memory 14 is a rewritable nonvolatile memory, and the data stored in the flash memory 14 is retained even after the MFP 1 is turned off.

次に、図3を参照して、LCD16に表示される画像キーの表示の一例について説明する。図3(a)は、タッチパネル17による入力操作が行われていない場合の画像キーの表示の一例を示すイメージ図である。図3(b),(c)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。   Next, an example of the display of the image key displayed on the LCD 16 will be described with reference to FIG. FIG. 3A is an image diagram showing an example of image key display when an input operation is not performed on the touch panel 17. FIGS. 3B and 3C are image diagrams showing an example of display of image keys when a user's finger approaches and is enlarged.

図3(a)に示すように、ユーザがタッチパネル17による入力操作を行っていない場合は、MFP1の各種設定や、MFP1の各種機能を実行するための各画像キーが、通常の大きさで、LCD16に表示される。   As shown in FIG. 3A, when the user has not performed an input operation using the touch panel 17, the various settings of the MFP 1 and the image keys for executing the various functions of the MFP 1 have normal sizes. It is displayed on the LCD 16.

なお、図3(a)に示す各画像キーの大きさを、通常の画像キーの大きさと称する。また、一の画像キーを形成する画像が表示されている領域全体のことを、その画像キーの表示領域と称する。ユーザは、LCD16に表示されている各画像キーの表示領域の一部に触れることで、その触れた画像キーに対応する処理を実行することができる。   The size of each image key shown in FIG. 3A is referred to as a normal image key size. The entire area in which an image forming one image key is displayed is referred to as a display area for the image key. The user can execute processing corresponding to the touched image key by touching a part of the display area of each image key displayed on the LCD 16.

図3(b)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。より具体的には、ユーザの指が接近した画像キーの表示領域の中で、ユーザの指が最初に接近した位置を原点とし、画像キー31が拡大表示される。   FIG. 3B is an image diagram illustrating an example of display of image keys when a user's finger approaches and is enlarged. More specifically, the image key 31 is enlarged and displayed with the position where the user's finger first approaches in the display area of the image key approached by the user's finger as the origin.

つまり、図3(b)に示すように、図3(a)に示すプリントキー31は、画像キーの表示領域の右下を原点とし、現在時刻に重なるように拡大表示される。そして、プリントキー32が拡大表示されると、その表示領域内に表示される項目名32a(ここでは「プリント」)も拡大表示される。よって、ユーザの指が画像キーに接近した場合に、ユーザ自身の指で画像キーや、その画像キーの項目名が隠れることを抑制できる。従って、ユーザが意図していない領域を触れるなどの誤操作を防止できる。   That is, as shown in FIG. 3B, the print key 31 shown in FIG. 3A is enlarged and displayed so as to overlap the current time with the origin at the lower right of the image key display area. When the print key 32 is enlarged and displayed, the item name 32a (in this case, “print”) displayed in the display area is also enlarged and displayed. Therefore, when the user's finger approaches the image key, it is possible to suppress the image key and the item name of the image key from being hidden by the user's own finger. Therefore, it is possible to prevent an erroneous operation such as touching an area not intended by the user.

一方、図3(a)に示す状態で、例えば、LCD16に表示されているプリントキー31の左上部分に、ユーザの指が接近したら(接触する前に)、図3(c)に示すように、プリントキー32が拡大表示される。   On the other hand, in the state shown in FIG. 3A, for example, when the user's finger approaches the upper left part of the print key 31 displayed on the LCD 16 (before contact), as shown in FIG. The print key 32 is enlarged and displayed.

図3(c)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。より具体的には、ユーザの指が接近した画像キーの表示領域の中で、ユーザの指が最初に接近した位置を原点とし、画像キーが拡大表示される。   FIG. 3C is an image diagram showing an example of image key display when the user's finger approaches and is enlarged. More specifically, in the image key display area where the user's finger approaches, the position where the user's finger first approaches is used as the origin, and the image key is enlarged and displayed.

つまり、図3(c)に示すように、図3(a)に示すプリントキー31は、画像キーの表示領域の左上を原点として、履歴キーの右半分に重なるように拡大表示される。そして、プリントキー32が拡大表示されると、その表示領域内に表示される項目名32a(ここでは「プリント」)も拡大表示される。よって、上述した通り、ユーザ自身の指で画像キーや、その画像キーの項目名が隠れることを抑制できるので、ユーザが意図していない領域を触れるなどの誤操作を防止できる。   That is, as shown in FIG. 3C, the print key 31 shown in FIG. 3A is enlarged and displayed so as to overlap the right half of the history key with the upper left of the display area of the image key as the origin. When the print key 32 is enlarged and displayed, the item name 32a (in this case, “print”) displayed in the display area is also enlarged and displayed. Therefore, as described above, since it is possible to suppress hiding the image key and the item name of the image key with the user's own finger, it is possible to prevent an erroneous operation such as touching an area not intended by the user.

次に、図4を参照して、MFP1のCPU11により実行される表示更新処理について説明する。この表示更新処理は、タッチパネル17による入力操作が行われた際に、ユーザの指が画像キーに接近したら(接触する前に)、その画像キーの表示領域を拡大表示するための処理であり、MFP1の主電源が投入されてから主電源が遮断されるまで繰り返し実行される処理である。   Next, display update processing executed by the CPU 11 of the MFP 1 will be described with reference to FIG. This display update process is a process for enlarging and displaying the display area of the image key when the user's finger approaches the image key (before touching) when an input operation is performed on the touch panel 17. This process is repeatedly executed after the main power of the MFP 1 is turned on until the main power is turned off.

この表示更新処理では、まず、RAM13の拡大キーメモリ13aをクリアする(S1)。次に、タッチパネル17を構成する各検出領域に配設されているセンサの出力値を全検出領域について取得する(S2)。   In this display update process, first, the enlarged key memory 13a of the RAM 13 is cleared (S1). Next, the output values of the sensors arranged in each detection area constituting the touch panel 17 are acquired for all detection areas (S2).

そして、出力値が閾値Aを超えているセンサがあるかを判定し(S3)、出力値が閾値Aを超えているセンサがある場合は(S3:Yes)、複数の画像キーの中で、出力値が閾値Aを超えているセンサが表示領域内に位置している画像キーを全て抽出する(S4)。これにより、ユーザの指が接近している画像キーが全て抽出される。   Then, it is determined whether there is a sensor whose output value exceeds the threshold A (S3). If there is a sensor whose output value exceeds the threshold A (S3: Yes), among a plurality of image keys, All image keys whose output values exceed the threshold A are located in the display area are extracted (S4). Thereby, all the image keys with which the user's finger is approaching are extracted.

一方、出力値が閾値Aを超えているセンサがない場合は(S3:No)、ユーザの指がタッチパネル17に接近していない場合であるので、S4〜S14の各処理をスキップして、S15の処理へ移行する。   On the other hand, when there is no sensor whose output value exceeds the threshold A (S3: No), since the user's finger is not approaching the touch panel 17, each process of S4 to S14 is skipped and S15 is performed. Move on to processing.

次に、S4の処理によって、複数の画像キーが抽出されたかを判定し(S5)、複数の画像キーが抽出された場合は(S5:Yes)、複数抽出された画像キーの中で、その表示領域内に位置しているセンサの出力値が最も大きい画像キーを1つ抽出する(S6)。つまり、複数抽出された画像キーの中で、ユーザの指が最も接近している画像キーが1つだけ抽出される。   Next, it is determined whether or not a plurality of image keys have been extracted by the process of S4 (S5). If a plurality of image keys have been extracted (S5: Yes), among the plurality of extracted image keys, One image key having the largest output value of the sensor located in the display area is extracted (S6). That is, only one image key that is closest to the user's finger is extracted from the plurality of extracted image keys.

一般的に、ユーザは選択しようとする画像キーに向けて指を移動させるので、仮に、複数の画像キーが抽出されたとしても、その中で、センサの出力値が最も大きい画像キーを1つ抽出することで、ユーザが選択しようとしている画像キーだけをピックアップすることができる。   In general, since the user moves his / her finger toward the image key to be selected, even if a plurality of image keys are extracted, one image key having the largest output value of the sensor is selected. By extracting, only the image key that the user is trying to select can be picked up.

一方、S4の処理によって、画像キーが1つだけ抽出された場合は(S5:No)、S6の処理をスキップして、S7の処理に移行する。次に、1つだけ抽出された画像キーが、RAM13の拡大キーメモリ13aに記憶されているキー情報が示す画像キーと同一かを判定し(S7)、1つだけ抽出された画像キーが、拡大キーメモリ13aに記憶されているキー情報が示す画像キーと同一である場合は(S7:Yes)、ユーザの指が最も接近している画像キーが、既に拡大されている場合であるので、S8〜S12の各処理をスキップして、S13の処理に移行する。   On the other hand, when only one image key is extracted by the process of S4 (S5: No), the process of S6 is skipped and the process proceeds to S7. Next, it is determined whether only one extracted image key is the same as the image key indicated by the key information stored in the expanded key memory 13a of the RAM 13 (S7). If the image key indicated by the key information stored in the enlargement key memory 13a is the same as the image key (S7: Yes), the image key that is closest to the user's finger is already enlarged, Each process of S8 to S12 is skipped, and the process proceeds to S13.

一方、1つだけ抽出された画像キーが、拡大キーメモリ13aに記憶されているキー情報が示す画像キーと異なる場合は(S7:No)、ユーザの指が接近している画像キーが、拡大表示されている画像キーから別の画像キーに変化した場合か、又は、画像キーが拡大表示されていない状態で、ユーザの指が画像キーに接近した場合である。   On the other hand, when the extracted image key is different from the image key indicated by the key information stored in the enlargement key memory 13a (S7: No), the image key approaching the user's finger is enlarged. This is a case where the displayed image key is changed to another image key, or a case where the user's finger approaches the image key in a state where the image key is not enlarged.

この場合は、既に、拡大表示されている画像キーが存在する可能性もあるので、その画像キーを通常の大きさに戻すために、一旦、全ての画像キーの大きさを通常の大きさ(図3(a)参照)で表示する(S8)。次に、抽出した画像キーのキー情報(例えば、キーの名称や、キー番号など)を、拡大キーメモリ13aに記憶する(S9)。   In this case, there is a possibility that an image key that has already been enlarged is present, so in order to return the image key to the normal size, the size of all the image keys is temporarily set to the normal size ( (See FIG. 3A) (S8). Next, key information (for example, key name, key number, etc.) of the extracted image key is stored in the enlarged key memory 13a (S9).

そして、抽出した画像キーの表示領域の中で、出力値の最も大きいセンサが位置している場所を拡大原点とする(S10)。例えば、ユーザの指が、画像キーの右下方向から接近して中心部へ向かう場合なら、画像キーの表示領域の中で、まず始めに表示領域の右下部分にユーザの指が最も接近する。つまり、画像キーが拡大表示される直前には、画像キーの表示領域の右下部分に位置するセンサの出力値が最も大きくなるので、このセンサ位置を拡大原点とする。   Then, the place where the sensor with the largest output value is located in the extracted display area of the image key is set as the enlargement origin (S10). For example, if the user's finger approaches from the lower right direction of the image key toward the center, the user's finger first approaches the lower right part of the display region in the image key display region. . That is, immediately before the image key is enlarged and displayed, the output value of the sensor located in the lower right part of the display area of the image key becomes the largest, so this sensor position is set as the enlargement origin.

次に、拡大原点を原点として、抽出した画像キーの表示領域を拡大表示する(S11)。そして、拡大表示した表示領域の中で、拡大原点から所定間隔(例えば、指1本)以上離れた位置に、画像キーの項目名(キーの名称)を拡大表示して(S12)、S13の処理に移行する。   Next, the display area of the extracted image key is enlarged and displayed with the enlargement origin as the origin (S11). In the enlarged display area, the item name (key name) of the image key is enlarged and displayed at a position separated from the enlargement origin by a predetermined interval (for example, one finger) or more (S12). Transition to processing.

S12の処理により、拡大原点から、例えば、指1本以上離れた場所に画像キーの項目名が表示されるので、画像キーが拡大表示されたその時に、ユーザ自身の指で、画像キーの項目名が隠れることを抑制できる。よって、ユーザが意図しない画像キーを触れることを抑制できるので、誤操作を防止できる。   By the processing of S12, the item name of the image key is displayed, for example, at a location one or more fingers away from the enlargement origin. When the image key is enlarged, the item of the image key is displayed with the user's own finger. The name can be prevented from being hidden. Therefore, it is possible to prevent the user from touching an unintended image key, and thus it is possible to prevent an erroneous operation.

S13の処理では、拡大キーメモリ13aに記憶されているキー情報が示す画像キー、即ち、拡大表示されている画像キーの表示領域内に、出力値が閾値Bを超えているセンサがあるかを判定する(S13)。   In the process of S13, whether there is a sensor whose output value exceeds the threshold value B in the display area of the image key indicated by the key information stored in the enlarged key memory 13a, that is, the enlarged image key. Determine (S13).

拡大表示されている画像キーの表示領域内に、出力値が閾値Bを超えているセンサがない場合は(S13:No)、画像キーは拡大表示されているが、ユーザの指がまだ画像キーに接触していない場合であるので、上述したS2〜S13の各処理を繰り返す。   When there is no sensor whose output value exceeds the threshold value B in the display area of the image key that is displayed in an enlarged manner (S13: No), the image key is displayed in an enlarged manner, but the user's finger is still in the image key. In this case, the processes in S2 to S13 described above are repeated.

一方、S13の処理において、拡大表示されている画像キーの表示領域内に、出力値が閾値Bを超えているセンサがある場合は(S13:Yes)、ユーザの指が拡大表示されている画像キーに接触した場合であるので、拡大キーメモリ13aに記憶されているキー情報が示す画像キーに対応する処理を実行する(S14)。例えば、画像キーメモリ13aに記憶されているキー情報がプリントキー32を示す場合なら、これからユーザにより指定される画像データをプリンタ21で印刷する。   On the other hand, in the process of S13, when there is a sensor whose output value exceeds the threshold B in the display area of the image key that is displayed in an enlarged manner (S13: Yes), the image in which the user's finger is displayed in an enlarged manner Since the key is touched, processing corresponding to the image key indicated by the key information stored in the enlarged key memory 13a is executed (S14). For example, if the key information stored in the image key memory 13a indicates the print key 32, the image data designated by the user is printed by the printer 21 from now on.

次に、拡大キーメモリ13aをクリアして(S15)、全ての画像キーの大きさを通常の大きさ(図3(a)参照)で表示する(S16)。なお、このS15およびS16の処理は、ユーザの指が画像キーに接触して、その画像キーに対応する処理が実行された場合と、ユーザの指がタッチパネル17から離れた場合(又は、接近していない場合)とに実行される。その結果、全ての画像キーの大きさが通常の大きさで表示される。   Next, the enlarged key memory 13a is cleared (S15), and the sizes of all image keys are displayed in the normal size (see FIG. 3A) (S16). The processes of S15 and S16 are performed when the user's finger touches the image key and the process corresponding to the image key is executed, and when the user's finger is separated from the touch panel 17 (or approaches). If not) and executed. As a result, the size of all image keys is displayed in a normal size.

以上の図4のフローチャートの表示更新処理により、タッチパネル17による入力操作が行われた際に、ユーザの指が画像キーに接近したら(接触する前に)、その画像キーの表示領域を拡大表示することができる。また、拡大表示した画像キーの表示領域内において、指を避けた位置(拡大原点から、例えば、指1本以上離れた場所)に項目名を拡大表示できる。   When the input operation by the touch panel 17 is performed by the display update processing of the flowchart of FIG. 4 described above, when the user's finger approaches the image key (before contact), the display area of the image key is enlarged and displayed. be able to. Further, the item name can be enlarged and displayed in a position where the finger is avoided (for example, at least one finger away from the enlargement origin) in the display area of the enlarged image key.

よって、ユーザがタッチパネル17を操作する場合に、ユーザ自身の指で画像キーや、その画像キーの項目名が隠れることを抑制できる。従って、ユーザが意図していない領域を触れるなどの誤操作を防止できる。   Therefore, when the user operates the touch panel 17, it is possible to suppress hiding the image key and the item name of the image key with the user's own finger. Therefore, it is possible to prevent an erroneous operation such as touching an area not intended by the user.

以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.

例えば、本実施形態では、投影型静電容量方式のタッチパネル40を用いているが、検出方式は何ら限定しない。例えば、指の接近を検出可能な方式のタッチパネルであればどのような方式でも良い。例えば、指の接近(又は接触)を赤外線や電界で検知する方式のタッチパネルを用いても良い。   For example, in the present embodiment, the projected capacitive touch panel 40 is used, but the detection method is not limited at all. For example, any method may be used as long as the touch panel can detect the approach of a finger. For example, a touch panel that detects the approach (or contact) of a finger with infrared rays or an electric field may be used.

ここで、図5を参照して、LCD16に表示する画像キーの拡大表示の変形例について説明する。図5(a)〜(d)は、それぞれ画像キーの拡大表示の変形例を示すイメージ図である。   Here, with reference to FIG. 5, a modified example of the enlarged display of the image key displayed on the LCD 16 will be described. FIGS. 5A to 5D are image diagrams showing modified examples of enlarged display of image keys.

上述した通り、本実施形態では、ユーザの指が最も接近した画像キーの表示領域を拡大表示し、その表示領域の中で、拡大原点から所定間隔(例えば、指1本)以上離れた位置に、画像キーの項目名(キーの名称)を拡大表示するように構成している。   As described above, in the present embodiment, the display area of the image key that the user's finger is closest to is enlarged and displayed, and the display area is located at a position separated from the enlargement origin by a predetermined interval (for example, one finger) or more. The item name (key name) of the image key is displayed in an enlarged manner.

これに加えて、拡大表示した画像キー32にユーザの指が接近している状態で、ユーザの指が、その画像キー32の表示領域内を移動している間、図5(a)に示すように、その画像キー32の項目名33aがユーザの指で隠れないように、項目名33aの表示位置をユーザの指から離れた位置に変更し続けるように構成しても良い。   In addition to this, as shown in FIG. 5A, while the user's finger is moving within the display area of the image key 32 with the user's finger approaching the enlarged image key 32. In this way, the display position of the item name 33a may be continuously changed to a position away from the user's finger so that the item name 33a of the image key 32 is not hidden by the user's finger.

なお、ユーザの指から離れた位置が画像キー32の表示領域外となるなど、表示領域内に項目名33aを表示できない場合には、例えば、項目名33aを小さく表示しても良いし、項目名33aを複数に分割して(例えば、項目名が「プリント」なら「プリ」と、「ント」とに分けて)表示しても良い。   If the item name 33a cannot be displayed in the display area, such as when the position away from the user's finger is outside the display area of the image key 32, the item name 33a may be displayed in a small size, for example. The name 33a may be displayed divided into a plurality of parts (for example, if the item name is “print”, it is divided into “pre” and “nt”).

また、例えば、タッチパネル17の全検出領域の各センサの出力値を、定期的(例えば、100ms毎)にRAM13に記憶するように構成しておき、拡大表示する直前の指の位置を避けた位置に項目名を表示するようにしても良し、ユーザの指の位置変化から、ユーザの指の移動方向を算出、推測し、そのユーザの指の指先に、項目名33aを表示するように構成しても良い。このように構成すれば、ユーザの指で項目名33aが隠れることがなく、また、項目名33aを視認し易いので、誤操作を防止できる。   Further, for example, the output value of each sensor in the entire detection area of the touch panel 17 is configured to be stored in the RAM 13 periodically (for example, every 100 ms), and the position avoiding the position of the finger immediately before the enlarged display is performed. The item name may be displayed on the screen, and the direction of movement of the user's finger may be calculated and estimated from the change in the position of the user's finger, and the item name 33a may be displayed at the fingertip of the user's finger. May be. With this configuration, the item name 33a is not hidden by the user's finger, and the item name 33a is easily visible, so that an erroneous operation can be prevented.

また、ユーザの指が最も接近した画像キー31の表示領域や項目名を拡大表示せずに、ユーザの指が最も接近した画像キー31の項目名を、例えば、図5(b)に示すように、ユーザの指が画像キー31の表示領域に進入してきた位置(拡大原点)を避けるように、画像キー31の周縁に吹き出し34を表示して、その吹き出し34の中に、ユーザの指が最も接近した画像キー31の項目名を表示する。このように構成すれば、ユーザ自身の指で画像キー31や、その画像キー31の項目名が隠れても、ユーザは、自身の指がどの画像キーに最も接近しているかを認識できる。よって、ユーザが意図していない領域を触れるなどの誤操作を防止できる。   Further, the display area and item name of the image key 31 closest to the user's finger are not enlarged and the item name of the image key 31 closest to the user's finger is shown in FIG. 5B, for example. In addition, a balloon 34 is displayed on the periphery of the image key 31 so as to avoid the position where the user's finger has entered the display area of the image key 31 (enlargement origin). The item name of the closest image key 31 is displayed. If comprised in this way, even if the image key 31 and the item name of the image key 31 are hidden by the user's own finger, the user can recognize which image key the user's finger is closest to. Therefore, it is possible to prevent an erroneous operation such as touching an area not intended by the user.

また、ユーザの指が最も接近した画像キー31の表示領域や項目名を拡大表示せずに、ユーザの指が最も接近した画像キー31と同一の画像を表示する表示領域35を予め設けておく。そして、ユーザの指が最も接近した画像キー31と同一の画像を、予め設けておいた表示領域35内に表示するように構成しても良い。このように構成すれば、ユーザ自身の指で画像キー31や、その画像キー31の項目名が隠れても、ユーザは、自身の指がどの画像キーに最も接近しているかを認識できる。よって、ユーザが意図していない領域を触れるなどの誤操作を防止できる。なお、表示領域35に表示されている画像キー31の画像に触れられた場合には、画像キー31に対応づけられている処理を実行するように構成しても良い。また、項目名だけを表示領域35に表示しても良い。   Further, a display area 35 for displaying the same image as the image key 31 closest to the user's finger without displaying the enlarged display area and item name of the image key 31 closest to the user's finger is provided in advance. . Then, the same image as the image key 31 closest to the user's finger may be displayed in the display area 35 provided in advance. If comprised in this way, even if the image key 31 and the item name of the image key 31 are hidden by the user's own finger, the user can recognize which image key the user's finger is closest to. Therefore, it is possible to prevent an erroneous operation such as touching an area not intended by the user. Note that when the image of the image key 31 displayed in the display area 35 is touched, the processing associated with the image key 31 may be executed. Further, only the item name may be displayed in the display area 35.

また、ユーザがMFP1の後面から前面に手を伸ばして(図1参照)、タッチパネル17を操作した場合には、LCD16に表示している各画像キーの項目名を180度回転させて表示するように構成しても良い。また、例えば、ユーザがMFP1の右面からタッチパネル17を操作した場合は、LCD16に表示している各画像キーの項目名を90度左回転させて表示するように構成しても良い。同様に、ユーザがMFP1の左面からタッチパネル17を操作した場合は、LCD16に表示している各画像キーの項目名を90度右回転させて表示するように構成しても良い。このようにすれば、ユーザがタッチパネル17を操作する場合に、LCD16に表示される項目名が、ユーザの正面(回転無く)に表示されるので、ユーザが項目名を容易に認識できる。よって、ユーザが意図していない領域を触れるなどの誤操作を防止できる。   In addition, when the user extends his / her hand from the rear surface of the MFP 1 to the front surface (see FIG. 1) and operates the touch panel 17, the item names of the image keys displayed on the LCD 16 are rotated 180 degrees and displayed. You may comprise. Further, for example, when the user operates the touch panel 17 from the right side of the MFP 1, the item name of each image key displayed on the LCD 16 may be rotated 90 degrees and displayed. Similarly, when the user operates the touch panel 17 from the left side of the MFP 1, the item name of each image key displayed on the LCD 16 may be rotated 90 degrees to the right and displayed. In this way, when the user operates the touch panel 17, the item name displayed on the LCD 16 is displayed in front of the user (without rotation), so that the user can easily recognize the item name. Therefore, it is possible to prevent an erroneous operation such as touching an area not intended by the user.

また、本実施形態では、ユーザの指が最も接近した画像キーの表示領域を拡大表示した場合に、その拡大表示された画像キーが、他の画像キーを部分的(又は全体)に覆い隠すように構成されているが、他の画像キーが部分的(又は全体)に覆い隠される場合には、拡大表示した画像キーと、他の画像キーとの表示位置をそれぞれずらし、他の画像キーが全く覆い隠さないように構成しても良い。   In the present embodiment, when the display area of the image key closest to the user's finger is enlarged, the enlarged image key partially covers (or entirely) the other image key. However, when other image keys are partially (or entirely) covered, the display positions of the enlarged image key and the other image key are shifted, and the other image keys are You may comprise so that it may not be covered at all.

また、他の画像キーが部分的に覆い隠されている場合は、残りの覆い隠されていない表示領域が指で触れられても、その入力が無効となるように構成しても良い。拡大表示された画像キーは、ユーザの指が最も接近している画像キーであるので、ユーザの意図する画像キーである可能性が最も高い。これに対して、拡大表示された画像キーに部分的に覆い隠されている画像キーは、ユーザの意図する画像キーである可能性が低い。そこで、拡大表示された画像キーに部分的に覆い隠されている画像キーに対する入力を無効とすることで、ユーザが意図していない領域を触れるなどの誤操作を防止できる。   Further, when other image keys are partially covered, the input may be invalidated even if the remaining uncovered display area is touched with a finger. Since the image key displayed in an enlarged manner is the image key with which the user's finger is closest, it is most likely that the image key is intended by the user. On the other hand, an image key partially covered by the enlarged image key is unlikely to be an image key intended by the user. Therefore, by invalidating the input to the image key partially covered by the enlarged image key, an erroneous operation such as touching an area not intended by the user can be prevented.

また、本実施形態では、ユーザの指が最も接近した画像キーの表示領域を拡大表示した場合に、現在日時が部分的(又は全体)に覆い隠されることがあるが、現在日時が部分的(又は全体)に覆い隠される場合には、現在日時の表示位置を移動させて、現在日時が常にLCD16上に表示されるように構成しても良い。これにより、ユーザは、常に現在日時を確認できるので、使い勝手が良い。   In the present embodiment, when the display area of the image key that the user's finger is closest to is enlarged and displayed, the current date and time may be partially (or entirely) covered, but the current date and time may be partially ( Alternatively, the display position of the current date and time may be moved so that the current date and time are always displayed on the LCD 16. Thus, the user can always check the current date and time, which is convenient.

本発明の入力装置の一例であるMFPの外観構成を示した斜視図である。1 is a perspective view showing an external configuration of an MFP that is an example of an input device of the present invention. FIG. MFPの電気的構成を示すブロック図である。2 is a block diagram illustrating an electrical configuration of the MFP. FIG. (a)は、タッチパネルによる入力操作が行われていない場合の画像キーの表示の一例を示すイメージ図であり、(b),(c)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。(A) is an image figure which shows an example of a display of the image key when the input operation by a touch panel is not performed, (b), (c) is a case where a user's finger | toe approaches and is enlarged and displayed. It is an image figure which shows an example of a display of an image key. MFPの表示更新処理を示すフローチャートである。6 is a flowchart showing display update processing of the MFP. (a)〜(d)は、それぞれ画像キーの拡大表示の変形例を示すイメージ図である。(A)-(d) is an image figure which shows the modification of the expansion display of an image key, respectively.

符号の説明Explanation of symbols

1 MFP(入力装置の一例)
16 LCD表示手段の一例
17 タッチパネル検出手段の一例
S2 記憶手段の一例
S4 抽出手段の一例
S10 取得手段の一例
S11 拡大表示手段の一例
S14 受付手段の一例
1 MFP (an example of an input device)
16 LCD ( an example of display means )
17 Touch panel ( an example of detection means )
S2 An example of storage means S4 An example of extraction means S10 An example of acquisition means S11 An example of enlarged display means S14 An example of reception means

Claims (4)

表示手段と、その表示手段上に対する入力媒体の接近および接触を示す接近値を検出する検出手段と、前記表示手段の同一画面上に複数のボタンを表示するボタン表示手段と、そのボタン表示手段によって表示されているボタンに対する接近値が第1閾値を超えたことが前記検出手段によって検出された場合に、そのボタンに割り当てられている所定の指示の入力を受付ける受付手段とを備えた入力装置において、
前記検出手段によって前記ボタンに対する接近値が第1閾値よりも小さい第2閾値を超えたことが検出された場合に、そのボタンだけを拡大して前記表示手段に表示する拡大表示手段と
前記表示手段上における前記入力媒体の位置情報を記憶する記憶手段と、
その記憶手段に記憶されている位置情報から前記ボタンの枠内における前記入力媒体の位置情報として、前記ボタンに対する前記入力媒体の進入位置を取得する取得手段と、を備え、
前記拡大表示手段は、
前記表示手段に表示されている前記ボタンの各々に対し、前記検出手段によって検出される接近値が前記第2閾値を超えているボタンの全てを抽出する抽出手段を備え、
その抽出手段によって抽出されたボタンのうち、最も接近値が前記第1閾値に近いボタンを、前記取得手段によって取得した前記進入位置を原点として拡大表示し、
前記取得手段によって取得した前記進入位置から所定間隔離れた位置までを避けた位置であって、拡大表示する前記ボタンの枠内に、そのボタンのボタン名を表示することを特徴とする入力装置。
Display means; detection means for detecting an approach value indicating approach and contact of the input medium on the display means; button display means for displaying a plurality of buttons on the same screen of the display means; and the button display means. In an input device comprising: a receiving unit that receives an input of a predetermined instruction assigned to a button when the detecting unit detects that an approach value for a displayed button exceeds a first threshold value ,
An enlargement display means for enlarging only the button and displaying it on the display means when it is detected by the detection means that the approach value for the button exceeds a second threshold value smaller than a first threshold value ;
Storage means for storing position information of the input medium on the display means;
Obtaining means for obtaining the entry position of the input medium with respect to the button as the position information of the input medium within the frame of the button from the position information stored in the storage means;
The enlarged display means includes
For each of the buttons displayed on the display means, an extraction means for extracting all the buttons whose approach values detected by the detection means exceed the second threshold value,
Of the buttons extracted by the extracting means, the button having the closest approach value close to the first threshold is enlarged and displayed with the approach position acquired by the acquiring means as the origin,
An input device , wherein a button name of the button is displayed in a frame of the button to be enlarged and displayed at a position avoiding a position separated from the entry position acquired by the acquisition means by a predetermined interval .
前記拡大表示手段は、前記ボタン名を表示する場合、前記進入位置に応じて前記ボタン名の向きを変更して前記ボタン名を表示することを特徴とする請求項1に記載の入力装置。The input device according to claim 1, wherein when displaying the button name, the enlarged display unit displays the button name by changing a direction of the button name according to the entry position. 前記拡大表示手段は、前記ボタン名を表示する場合、拡大表示する前のボタン名の大きさよりも小さくして、又は、改行して前記ボタン名を表示することを特徴とする請求項1又は2に記載の入力装置。3. The display device according to claim 1, wherein when displaying the button name, the enlarged display means displays the button name with a size smaller than the size of the button name before the enlarged display or with a line feed. The input device described in 1. 前記拡大表示手段によって所定のボタンが拡大表示されている場合、その拡大表示されているボタン以外のボタンについて、前記受付手段によって受け付けられた所定の指示の入力を無効にする無効手段を備えていることを特徴とする請求項1から3のいずれかに記載の入力装置。When a predetermined button is enlarged and displayed by the enlarged display means, an invalid means for invalidating the input of the predetermined instruction received by the receiving means for buttons other than the enlarged button is provided. The input device according to claim 1, wherein the input device is an input device.
JP2008332778A 2008-12-26 2008-12-26 Input device Expired - Fee Related JP4683126B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008332778A JP4683126B2 (en) 2008-12-26 2008-12-26 Input device
EP09252856A EP2202626A3 (en) 2008-12-26 2009-12-21 Inputting apparatus
US12/646,633 US8271900B2 (en) 2008-12-26 2009-12-23 Inputting apparatus
CN2009102626697A CN101770335B (en) 2008-12-26 2009-12-25 Inputting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008332778A JP4683126B2 (en) 2008-12-26 2008-12-26 Input device

Publications (2)

Publication Number Publication Date
JP2010152827A JP2010152827A (en) 2010-07-08
JP4683126B2 true JP4683126B2 (en) 2011-05-11

Family

ID=42101844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008332778A Expired - Fee Related JP4683126B2 (en) 2008-12-26 2008-12-26 Input device

Country Status (4)

Country Link
US (1) US8271900B2 (en)
EP (1) EP2202626A3 (en)
JP (1) JP4683126B2 (en)
CN (1) CN101770335B (en)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134273A (en) * 2009-12-25 2011-07-07 Sony Corp Information processor, information processing method, and program
US20120050007A1 (en) * 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
JP5569271B2 (en) * 2010-09-07 2014-08-13 ソニー株式会社 Information processing apparatus, information processing method, and program
CN101990036B (en) * 2010-10-15 2013-07-10 深圳桑菲消费通信有限公司 Navigation method used in mobile phone screen
CN102073454A (en) * 2011-01-13 2011-05-25 宇龙计算机通信科技(深圳)有限公司 Mobile terminal and input control method for touch panel
FR2971066B1 (en) * 2011-01-31 2013-08-23 Nanotec Solution THREE-DIMENSIONAL MAN-MACHINE INTERFACE.
CN102681748B (en) * 2011-03-09 2015-01-28 联想(北京)有限公司 Information processing equipment and information processing method
JP2012190183A (en) * 2011-03-09 2012-10-04 Sony Corp Image processing device, method, and program
JP5703873B2 (en) * 2011-03-17 2015-04-22 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2012203644A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic device
US9470922B2 (en) 2011-05-16 2016-10-18 Panasonic Intellectual Property Corporation Of America Display device, display control method and display control program, and input device, input assistance method and program
JP2014142676A (en) * 2011-05-16 2014-08-07 Panasonic Corp Input device, information terminal apparatus and input system
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JPWO2013047023A1 (en) * 2011-09-26 2015-03-26 Necカシオモバイルコミュニケーションズ株式会社 Display device, display method, and program
US20130104039A1 (en) * 2011-10-21 2013-04-25 Sony Ericsson Mobile Communications Ab System and Method for Operating a User Interface on an Electronic Device
JP5836105B2 (en) * 2011-12-20 2015-12-24 シャープ株式会社 Information processing apparatus, information processing apparatus control method, information processing apparatus control program, and computer-readable recording medium storing the program
JP6044631B2 (en) * 2012-02-20 2016-12-14 日本電気株式会社 Touch panel input device and control method thereof
JP5949010B2 (en) * 2012-03-16 2016-07-06 富士通株式会社 INPUT CONTROL DEVICE, INPUT CONTROL PROGRAM, AND INPUT CONTROL METHOD
US9377937B2 (en) 2012-04-06 2016-06-28 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9146655B2 (en) * 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
CN108052264B (en) 2012-05-09 2021-04-27 苹果公司 Device, method and graphical user interface for moving and placing user interface objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
CN105260049B (en) 2012-05-09 2018-10-23 苹果公司 For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6002836B2 (en) 2012-05-09 2016-10-05 アップル インコーポレイテッド Device, method, and graphical user interface for transitioning between display states in response to a gesture
EP3185116B1 (en) 2012-05-09 2019-09-11 Apple Inc. Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface
CN106201316B (en) 2012-05-09 2020-09-29 苹果公司 Apparatus, method and graphical user interface for selecting user interface objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169875A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169262A1 (en) * 2012-05-11 2013-11-14 Empire Technology Development Llc Input error remediation
WO2013183370A1 (en) * 2012-06-05 2013-12-12 ソニー株式会社 Information processing device, information processing method and recording medium upon which computer program has been recorded
KR101958517B1 (en) 2012-12-29 2019-03-14 애플 인크. Device, method, and graphical user interface for transitioning between touch input to display output relationships
AU2013368445B8 (en) 2012-12-29 2017-02-09 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select contents
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102301592B1 (en) 2012-12-29 2021-09-10 애플 인크. Device, method, and graphical user interface for navigating user interface hierachies
CN104903835B (en) 2012-12-29 2018-05-04 苹果公司 For abandoning equipment, method and the graphic user interface of generation tactile output for more contact gestures
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
DE102013000219A1 (en) * 2013-01-04 2014-07-10 Volkswagen Aktiengesellschaft Method for operating facility i.e. camera, of vehicle, involves detecting movement of affecting position on touch-sensitive surface, and changing parameter based on traveling direction and/or movement length of touch-sensitive surface
CN103092444B (en) * 2013-01-05 2015-07-01 北京京东方光电科技有限公司 Method and device for achieving self-adaptive touch detection of touch screen
CN104063119B (en) * 2013-03-22 2017-09-08 腾讯科技(深圳)有限公司 Method, device and the terminal of management software application
JP5865287B2 (en) 2013-03-29 2016-02-17 株式会社ジャパンディスプレイ Electronic device and control method of electronic device
KR102120651B1 (en) * 2013-05-30 2020-06-09 삼성전자 주식회사 Method and apparatus for displaying a seen in a device comprising a touch screen
JP5860838B2 (en) * 2013-05-30 2016-02-16 京セラドキュメントソリューションズ株式会社 Display device, electronic device, and image forming apparatus
EP3036613A1 (en) * 2013-08-22 2016-06-29 Sony Corporation Adaptive running mode
JP6311439B2 (en) * 2014-05-09 2018-04-18 株式会社デンソー Operating device
CN105677193A (en) * 2014-11-18 2016-06-15 夏普株式会社 Object operation method and electronic equipment
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9578193B2 (en) * 2015-03-31 2017-02-21 Kyocera Document Solutions Inc. Quick operation user interface for a multifunction printing device
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
JP6134775B2 (en) * 2015-12-22 2017-05-24 株式会社ジャパンディスプレイ Electronic device and control method of electronic device
US11112963B2 (en) 2016-05-18 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for messaging
CN113157176B (en) 2016-05-18 2025-02-14 苹果公司 Applying the Confirmation Option in the Graphical Messaging User Interface
JP6897010B2 (en) * 2016-05-26 2021-06-30 富士フイルムビジネスイノベーション株式会社 Return control device, image processing device and program
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
JP2018025916A (en) * 2016-08-09 2018-02-15 本田技研工業株式会社 On-vehicle operation device
CN106569635A (en) * 2016-10-31 2017-04-19 努比亚技术有限公司 Terminal suspension combination operation device and method thereof
CN107278368B (en) * 2017-04-24 2023-08-11 北京小米移动软件有限公司 Screen control method and device
TWI689846B (en) * 2018-02-14 2020-04-01 元太科技工業股份有限公司 Input device and symbols display method thereof
JP2018190469A (en) * 2018-08-22 2018-11-29 キヤノン株式会社 Image forming apparatus, computer program, and recording medium
CN110231908A (en) * 2018-10-30 2019-09-13 蔚来汽车有限公司 Interface control method and device, terminal, controller and medium
USD940170S1 (en) * 2019-03-29 2022-01-04 My Universe Llc Display screen or portions thereof with graphical user interface
CN111524211B (en) * 2020-04-17 2024-01-23 杭州海康威视数字技术股份有限公司 Handwriting erasing method, handwriting erasing device and handwriting erasing equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352924A (en) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp User interface device
JP2006103363A (en) * 2004-09-30 2006-04-20 Mazda Motor Corp Information display device for vehicle
JP2006236143A (en) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc Input processing program, portable terminal device and input processing method
JP2008197934A (en) * 2007-02-14 2008-08-28 Calsonic Kansei Corp Operator determining method

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5565888A (en) * 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
JPH10269022A (en) 1997-03-25 1998-10-09 Hitachi Ltd Portable information processing device with communication function
US6252596B1 (en) * 1998-03-31 2001-06-26 Canon Kabushiki Kaisha Command entry highlight editing for a menu selection system and method
US7434177B1 (en) * 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US6844887B2 (en) * 2001-07-05 2005-01-18 International Business Machine Corporation Alternate reduced size on-screen pointers for accessing selectable icons in high icon density regions of user interactive display interfaces
CN2503527Y (en) * 2001-08-03 2002-07-31 爱浪科技(中山)有限公司 Contact key device with interpretting function
JP2003143286A (en) 2001-10-31 2003-05-16 Nec Corp Portable telephone set
CA2387936A1 (en) * 2002-05-29 2003-11-29 Ibm Canada Limited-Ibm Canada Limitee Menu user interface with size differentiation between enabled and disabled menu items
US20050193351A1 (en) * 2002-08-16 2005-09-01 Myorigo, L.L.C. Varying-content menus for touch screens
US20040160419A1 (en) * 2003-02-11 2004-08-19 Terradigital Systems Llc. Method for entering alphanumeric characters into a graphical user interface
DE10310794B4 (en) 2003-03-12 2012-10-18 Hewlett-Packard Development Co., L.P. Operating device and communication device
EP1624392A1 (en) * 2004-07-02 2006-02-08 Canon Kabushiki Kaisha Method, apparatus, and program for retrieving data
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7818672B2 (en) * 2004-12-30 2010-10-19 Microsoft Corporation Floating action buttons
US7802202B2 (en) 2005-03-17 2010-09-21 Microsoft Corporation Computer interaction based upon a currently active input device
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US7603621B2 (en) * 2006-01-25 2009-10-13 Microsoft Corporation Computer interface for illiterate and near-illiterate users
US7966573B2 (en) * 2006-02-17 2011-06-21 Microsoft Corporation Method and system for improving interaction with a user interface
CN100571346C (en) * 2006-07-26 2009-12-16 深圳Tcl新技术有限公司 The amplification display method of television function icon
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP2008305174A (en) 2007-06-07 2008-12-18 Sony Corp Information processor, information processing method, and program
US20080309621A1 (en) 2007-06-15 2008-12-18 Aggarwal Akhil Proximity based stylus and display screen, and device incorporating same
DE102007039669A1 (en) 2007-08-22 2009-02-26 Navigon Ag Display device with image surface
KR101513023B1 (en) 2008-03-25 2015-04-22 엘지전자 주식회사 A terminal and its information display method
US9274681B2 (en) 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
US9325823B2 (en) * 2008-12-19 2016-04-26 Verizon Patent And Licensing Inc. Visual address book and dialer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352924A (en) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp User interface device
JP2006103363A (en) * 2004-09-30 2006-04-20 Mazda Motor Corp Information display device for vehicle
JP2006236143A (en) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc Input processing program, portable terminal device and input processing method
JP2008197934A (en) * 2007-02-14 2008-08-28 Calsonic Kansei Corp Operator determining method

Also Published As

Publication number Publication date
CN101770335A (en) 2010-07-07
EP2202626A2 (en) 2010-06-30
US20100169834A1 (en) 2010-07-01
CN101770335B (en) 2012-08-08
EP2202626A3 (en) 2011-01-05
JP2010152827A (en) 2010-07-08
US8271900B2 (en) 2012-09-18

Similar Documents

Publication Publication Date Title
JP4683126B2 (en) Input device
JP7615254B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD AND PROGRAM FOR IMAGE PROCESSING APPARATUS
US9900450B2 (en) Image forming apparatus, method of controlling the same, and recording medium
JP5556423B2 (en) Input device and input control program
JP5958233B2 (en) Image forming apparatus and program
US20060107235A1 (en) Image processing device including touch panel
US9088678B2 (en) Image processing device, non-transitory computer readable recording medium and operational event determining method
US20140320881A1 (en) Image forming apparatus, and storage medium storing program for image forming apparatus
JP6157080B2 (en) Data processing apparatus, data processing method, and program
US9886137B2 (en) Input device, control method of the input device and non-transitory computer-readable medium having computer program for controlling the input device
JP5945926B2 (en) Operation display device
JP4626685B2 (en) Input device and multifunction peripheral device
JP2008276277A (en) Operation display device and image forming apparatus
US10506116B2 (en) Image processing apparatus causing display to display images, method, and non-transitory computer-readable recording medium storing computer-readable instructions
JP5516128B2 (en) Input device and input control program
JP2015191241A (en) Electronic equipment and operation support program
JP2011180625A (en) Input apparatus and input control program
JP2011141852A (en) Input device and input control program
JP2008310521A (en) Touch panel control device and electric equipment
JP6222434B2 (en) Display device
US8542201B2 (en) Inputting apparatus
JP6447179B2 (en) Information input system and input device
JP6812639B2 (en) Electronic devices, control programs for electronic devices
JP6891439B2 (en) Image display device program, image display device, image display device control method
US9819817B2 (en) Display input device and method of controlling display input device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4683126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees
OSZAR »