JP4683126B2 - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP4683126B2 JP4683126B2 JP2008332778A JP2008332778A JP4683126B2 JP 4683126 B2 JP4683126 B2 JP 4683126B2 JP 2008332778 A JP2008332778 A JP 2008332778A JP 2008332778 A JP2008332778 A JP 2008332778A JP 4683126 B2 JP4683126 B2 JP 4683126B2
- Authority
- JP
- Japan
- Prior art keywords
- button
- enlarged
- displayed
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013459 approach Methods 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04895—Guidance during keyboard input operation, e.g. prompting
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、入力装置に関するものである。 The present invention relates to an input device.
従来より、タッチパネル上のLCDに複数のボタン画像を表示し、その複数のボタン画像のうち、ユーザが指でタッチしたボタン画像をタッチパネルで検出し、その選択されたボタン画像に割り当てられている指示を入力する入力装置が知られている。 Conventionally, a plurality of button images are displayed on the LCD on the touch panel, and a button image touched by a user's finger among the plurality of button images is detected by the touch panel, and an instruction assigned to the selected button image An input device for inputting is known.
次の特許文献1には、利用者の指等が表示装置に表示されている入力ボタン群に接近すると、接近感知装置がこれを感知し、接近した座標周辺の入力ボタン群の画像を拡大表示する技術が記載されている。
しかしながら、上述した特許文献1では、利用者の指等が接近した座標周辺の入力ボタン群の画像を拡大表示するので、拡大表示された入力ボタン群の画像の中から、何れの入力ボタンが選択されるのかが判断し難く、誤操作を発生させる恐れがあった。
However, in
本発明は、上述した問題点を解決するためになされたものであり、これから選択されるボタンを確認し易い入力装置を提供することを目的としている。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an input device that allows easy confirmation of a button to be selected.
この目的を達成するために、請求項1記載の入力装置は、表示手段と、その表示手段上に対する入力媒体の接近および接触を示す接近値を検出する検出手段と、前記表示手段の同一画面上に複数のボタンを表示するボタン表示手段と、そのボタン表示手段によって表示されているボタンに対する接近値が第1閾値を超えたことが前記検出手段によって検出された場合に、そのボタンに割り当てられている所定の指示の入力を受付ける受付手段とを備えたものであって、前記検出手段によって前記ボタンに対する接近値が第1閾値よりも小さい第2閾値を超えたことが検出された場合に、そのボタンだけを拡大して前記表示手段に表示する拡大表示手段と、前記表示手段上における前記入力媒体の位置情報を記憶する記憶手段と、その記憶手段に記憶されている位置情報から前記ボタンの枠内における前記入力媒体の位置情報として、前記ボタンに対する前記入力媒体の進入位置を取得する取得手段と、を備え、前記拡大表示手段は、前記表示手段に表示されている前記ボタンの各々に対し、前記検出手段によって検出される接近値が前記第2閾値を超えているボタンの全てを抽出する抽出手段を備え、その抽出手段によって抽出されたボタンのうち、最も接近値が前記第1閾値に近いボタンを、前記取得手段によって取得した前記進入位置を原点として拡大表示し、前記取得手段によって取得した前記進入位置から所定間隔離れた位置までを避けた位置であって、拡大表示する前記ボタンの枠内に、そのボタンのボタン名を表示する。
In order to achieve this object, the input device according to
請求項2記載の入力装置は、請求項1記載の入力装置において、前記拡大表示手段は、前記ボタン名を表示する場合、前記進入位置に応じて前記ボタン名の向きを変更して前記ボタン名を表示する。
The input device according to claim 2, in the input device according to
請求項3記載の入力装置は、請求項1又は2に記載の入力装置において、前記拡大表示手段は、前記ボタン名を表示する場合、拡大表示する前のボタン名の大きさよりも小さくして、又は、改行して前記ボタン名を表示する。
In the input device according to
請求項4記載の入力装置は、請求項1から3のいずれかに記載の入力装置において、前記拡大表示手段によって所定のボタンが拡大表示されている場合、その拡大表示されているボタン以外のボタンについて、前記受付手段によって受け付けられた所定の指示の入力を無効にする無効手段を備えている。
The input device according to
請求項1記載の入力装置によれば、これから選択されるボタンを確認し易くなるという効果がある。 According to the input device of the first aspect, there is an effect that it becomes easy to confirm a button to be selected.
また、ユーザが選択したいであろうボタンだけを拡大表示することができるという効果がある。
In addition, there is an effect that only the buttons that the user wants to select can be enlarged and displayed.
また、ボタン名が入力媒体に覆われて、ボタン名が確認できないという事態が発生するのを抑制することができるという効果がある。
In addition, there is an effect that it is possible to suppress a situation in which the button name is not confirmed because the button name is covered with the input medium.
また、ボタンが入力媒体に覆われるのを抑制することができるという効果がある。
In addition, there is an effect that the button can be prevented from being covered with the input medium.
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図1で多機能周辺装置の外観構成、図2で入力装置のハードウェア構成、図3で入力装置の操作の一例、図4で入力装置の表示更新処理を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 illustrates the external configuration of the multifunction peripheral device, FIG. 2 illustrates the hardware configuration of the input device, FIG. 3 illustrates an example of operation of the input device, and FIG. 4 illustrates the display update processing of the input device.
図1は、本発明の入力装置の一例である多機能周辺装置(以下、「MFP(Multi Function Peripheral)」と称す)1の外観構成を示した斜視図である。本実施形態のMFP1の正面上部には、操作キー15に加えて、LCD16およびタッチパネル17が配設されており、ユーザは、操作キー15による入力操作か、又はタッチパネル17による入力操作を行うことで、MFP1の各種設定や各種制御を行うことができる。
FIG. 1 is a perspective view showing an external configuration of a multi-function peripheral device (hereinafter referred to as “MFP (Multi Function Peripheral)”) 1 which is an example of the input device of the present invention. In addition to the
このMFP1は、ユーザがタッチパネル17を操作して各種設定や各種制御を行う場合に、ユーザの指がLCD16に表示されている設定項目に所定距離接近したら、その設定項目を拡大表示するものである。これにより、ユーザ自身の指で設定項目が隠れ、意図していない領域を触れるなどの誤操作を防止できる。
When the user operates the
MFP1は、電話回線網100(図2参照)を介して接続される外部装置(非図示)とファクシミリ通信可能に構成されている。また、このMFP1は、プリンタ機能、スキャナ機能、及び、コピー機能などの各種機能も有している。
The
MFP1には、正面上部に設けられる横長形状の操作パネル6が設けられている。この操作パネル6は、MFP1を操作するためのものであり、操作キー15と、LCD16と、タッチパネル17とが主に設けられている。ユーザは、操作キー15の各種ボタンを操作するか、又は、タッチパネル17を操作することで、各種機能の設定や動作を実行することができる。
The MFP 1 is provided with a horizontally long operation panel 6 provided at an upper front portion. The operation panel 6 is for operating the
LCD16には、メニューや操作手順や実行中の処理の状態などが表示される。このLCD16の表示面には、入力装置の一種であるタッチパネル17が配設されている。LCD16に表示されている画像(例えば、画像で形成されたキー(以後、「画像キー」と称する))が、ユーザによって指で触れられると、LCD16の表示面に配設されたタッチパネル17が指で触れられることになる。
The
タッチパネル17では、指の接触(又は接近)を示す接近値が検出されたら、その触れられた(接近された)位置が特定される。CPU11(図2参照)は、タッチパネル17により検出された指の位置に応じて、その指の位置に表示されている画像(例えば、画像キー)に対応する各処理を実行する。
On the
本実施形態では、各種方式(抵抗膜方式や、赤外線方式など)があるタッチパネルの中で、投影型静電容量方式のタッチパネル17を用いている。静電容量方式のタッチパネルとは、指先とタッチパネルとが接近(又は接触)した場合に、指とタッチパネルとが静電結合して、指とタッチパネルとの間の静電容量が変化することを利用したものである。静電容量方式のタッチパネルでは、この静電容量の変化を検出するので、指がタッチパネルに接触しているかに加えて、指がタッチパネルに接近していることも検出できる。
In the present embodiment, the projected
また、投影型とは、タッチパネル17内で静電容量の変化を複数箇所で同時に検出するために、指などの接触(又は接近)を検出する領域を、例えば碁盤の目のように細かく区分けし、各領域毎にセンサ(具体的には、電極パターン)を配設したものである。なお、区分けされた各領域のことをそれぞれ検出領域と称する。
In addition, the projection type is a method of finely dividing an area for detecting contact (or approach) of a finger or the like, for example, like a grid, in order to detect a change in capacitance simultaneously at a plurality of locations in the
なお、それぞれの検出領域のセンサからは、ユーザの指の接近距離(検出される静電容量)に応じた電圧値(接近値に相当)が出力される。具体的には、ユーザの指が接近するに従って、出力される電圧値が増加していき、例えば、指が接触する直前(指と検出領域との距離が2〜3mm程度)になると、閾値A(第2閾値)以上の電圧値が出力され、指が接触したら、閾値B(第1閾値)以上の電圧値が出力される。 A voltage value (corresponding to the approach value) corresponding to the approach distance (detected capacitance) of the user's finger is output from the sensor in each detection region. Specifically, as the user's finger approaches, the output voltage value increases. For example, when the finger is in contact (the distance between the finger and the detection region is about 2 to 3 mm), the threshold A When a voltage value equal to or greater than (second threshold) is output and the finger touches, a voltage value equal to or greater than threshold B (first threshold) is output.
一方、ユーザの指が離れるに従って、出力される電圧値が減少していき、例えば、指と検出領域との距離が20mm以上離れると、静電容量の変化を検出しなくなり、電圧値0が出力される。 On the other hand, the output voltage value decreases as the user's finger moves away. For example, when the distance between the finger and the detection region is 20 mm or more, the change in capacitance is not detected, and the voltage value 0 is output. Is done.
次に、図2を参照して、MFP1の電気的構成について説明する。MFP1は、CPU11、ROM12、RAM13、フラッシュメモリ14、操作キー15、LCD16、タッチパネル17、スキャナ20、プリンタ21、NCU23、モデム24とを主に有している。
Next, an electrical configuration of the
CPU11、ROM12、RAM13、フラッシュメモリ14は、バスライン26を介して互いに接続されている。また、操作キー15、LCD16、タッチパネル17、スキャナ20、プリンタ21、NCU23、モデム24、バスライン26は、入出力ポート27を介して互いに接続されている。
The CPU 11,
CPU11は、ROM12やRAM13やフラッシュメモリ14に記憶される固定値やプログラム或いは、NCU23を介して送受信される各種信号に従って、MFP1が有している各機能の制御や、入出力ポート27と接続された各部を制御するものである。
The CPU 11 is connected to the control of each function of the
ROM12は、MFP1で実行される制御プログラムなどを格納した書換不能なメモリである。後述する図4のフローチャートに示す表示更新処理を実行するプログラムは、このROM12に格納されている。
The
RAM13は、書換可能な揮発性のメモリであり、MFP1の各操作の実行時に各種のデータを一時的に記憶するためのメモリである。RAM13には、拡大キーメモリ13aが設けられている。
The
フラッシュメモリ14は書換可能な不揮発性のメモリであり、このフラッシュメモリ14に記憶されたデータは、MFP1の電源オフ後も保持される。
The flash memory 14 is a rewritable nonvolatile memory, and the data stored in the flash memory 14 is retained even after the
次に、図3を参照して、LCD16に表示される画像キーの表示の一例について説明する。図3(a)は、タッチパネル17による入力操作が行われていない場合の画像キーの表示の一例を示すイメージ図である。図3(b),(c)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。
Next, an example of the display of the image key displayed on the
図3(a)に示すように、ユーザがタッチパネル17による入力操作を行っていない場合は、MFP1の各種設定や、MFP1の各種機能を実行するための各画像キーが、通常の大きさで、LCD16に表示される。
As shown in FIG. 3A, when the user has not performed an input operation using the
なお、図3(a)に示す各画像キーの大きさを、通常の画像キーの大きさと称する。また、一の画像キーを形成する画像が表示されている領域全体のことを、その画像キーの表示領域と称する。ユーザは、LCD16に表示されている各画像キーの表示領域の一部に触れることで、その触れた画像キーに対応する処理を実行することができる。
The size of each image key shown in FIG. 3A is referred to as a normal image key size. The entire area in which an image forming one image key is displayed is referred to as a display area for the image key. The user can execute processing corresponding to the touched image key by touching a part of the display area of each image key displayed on the
図3(b)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。より具体的には、ユーザの指が接近した画像キーの表示領域の中で、ユーザの指が最初に接近した位置を原点とし、画像キー31が拡大表示される。
FIG. 3B is an image diagram illustrating an example of display of image keys when a user's finger approaches and is enlarged. More specifically, the
つまり、図3(b)に示すように、図3(a)に示すプリントキー31は、画像キーの表示領域の右下を原点とし、現在時刻に重なるように拡大表示される。そして、プリントキー32が拡大表示されると、その表示領域内に表示される項目名32a(ここでは「プリント」)も拡大表示される。よって、ユーザの指が画像キーに接近した場合に、ユーザ自身の指で画像キーや、その画像キーの項目名が隠れることを抑制できる。従って、ユーザが意図していない領域を触れるなどの誤操作を防止できる。
That is, as shown in FIG. 3B, the
一方、図3(a)に示す状態で、例えば、LCD16に表示されているプリントキー31の左上部分に、ユーザの指が接近したら(接触する前に)、図3(c)に示すように、プリントキー32が拡大表示される。
On the other hand, in the state shown in FIG. 3A, for example, when the user's finger approaches the upper left part of the
図3(c)は、ユーザの指が接近し、拡大表示された場合の画像キーの表示の一例を示すイメージ図である。より具体的には、ユーザの指が接近した画像キーの表示領域の中で、ユーザの指が最初に接近した位置を原点とし、画像キーが拡大表示される。 FIG. 3C is an image diagram showing an example of image key display when the user's finger approaches and is enlarged. More specifically, in the image key display area where the user's finger approaches, the position where the user's finger first approaches is used as the origin, and the image key is enlarged and displayed.
つまり、図3(c)に示すように、図3(a)に示すプリントキー31は、画像キーの表示領域の左上を原点として、履歴キーの右半分に重なるように拡大表示される。そして、プリントキー32が拡大表示されると、その表示領域内に表示される項目名32a(ここでは「プリント」)も拡大表示される。よって、上述した通り、ユーザ自身の指で画像キーや、その画像キーの項目名が隠れることを抑制できるので、ユーザが意図していない領域を触れるなどの誤操作を防止できる。
That is, as shown in FIG. 3C, the
次に、図4を参照して、MFP1のCPU11により実行される表示更新処理について説明する。この表示更新処理は、タッチパネル17による入力操作が行われた際に、ユーザの指が画像キーに接近したら(接触する前に)、その画像キーの表示領域を拡大表示するための処理であり、MFP1の主電源が投入されてから主電源が遮断されるまで繰り返し実行される処理である。
Next, display update processing executed by the CPU 11 of the
この表示更新処理では、まず、RAM13の拡大キーメモリ13aをクリアする(S1)。次に、タッチパネル17を構成する各検出領域に配設されているセンサの出力値を全検出領域について取得する(S2)。
In this display update process, first, the enlarged key memory 13a of the
そして、出力値が閾値Aを超えているセンサがあるかを判定し(S3)、出力値が閾値Aを超えているセンサがある場合は(S3:Yes)、複数の画像キーの中で、出力値が閾値Aを超えているセンサが表示領域内に位置している画像キーを全て抽出する(S4)。これにより、ユーザの指が接近している画像キーが全て抽出される。 Then, it is determined whether there is a sensor whose output value exceeds the threshold A (S3). If there is a sensor whose output value exceeds the threshold A (S3: Yes), among a plurality of image keys, All image keys whose output values exceed the threshold A are located in the display area are extracted (S4). Thereby, all the image keys with which the user's finger is approaching are extracted.
一方、出力値が閾値Aを超えているセンサがない場合は(S3:No)、ユーザの指がタッチパネル17に接近していない場合であるので、S4〜S14の各処理をスキップして、S15の処理へ移行する。
On the other hand, when there is no sensor whose output value exceeds the threshold A (S3: No), since the user's finger is not approaching the
次に、S4の処理によって、複数の画像キーが抽出されたかを判定し(S5)、複数の画像キーが抽出された場合は(S5:Yes)、複数抽出された画像キーの中で、その表示領域内に位置しているセンサの出力値が最も大きい画像キーを1つ抽出する(S6)。つまり、複数抽出された画像キーの中で、ユーザの指が最も接近している画像キーが1つだけ抽出される。 Next, it is determined whether or not a plurality of image keys have been extracted by the process of S4 (S5). If a plurality of image keys have been extracted (S5: Yes), among the plurality of extracted image keys, One image key having the largest output value of the sensor located in the display area is extracted (S6). That is, only one image key that is closest to the user's finger is extracted from the plurality of extracted image keys.
一般的に、ユーザは選択しようとする画像キーに向けて指を移動させるので、仮に、複数の画像キーが抽出されたとしても、その中で、センサの出力値が最も大きい画像キーを1つ抽出することで、ユーザが選択しようとしている画像キーだけをピックアップすることができる。 In general, since the user moves his / her finger toward the image key to be selected, even if a plurality of image keys are extracted, one image key having the largest output value of the sensor is selected. By extracting, only the image key that the user is trying to select can be picked up.
一方、S4の処理によって、画像キーが1つだけ抽出された場合は(S5:No)、S6の処理をスキップして、S7の処理に移行する。次に、1つだけ抽出された画像キーが、RAM13の拡大キーメモリ13aに記憶されているキー情報が示す画像キーと同一かを判定し(S7)、1つだけ抽出された画像キーが、拡大キーメモリ13aに記憶されているキー情報が示す画像キーと同一である場合は(S7:Yes)、ユーザの指が最も接近している画像キーが、既に拡大されている場合であるので、S8〜S12の各処理をスキップして、S13の処理に移行する。 On the other hand, when only one image key is extracted by the process of S4 (S5: No), the process of S6 is skipped and the process proceeds to S7. Next, it is determined whether only one extracted image key is the same as the image key indicated by the key information stored in the expanded key memory 13a of the RAM 13 (S7). If the image key indicated by the key information stored in the enlargement key memory 13a is the same as the image key (S7: Yes), the image key that is closest to the user's finger is already enlarged, Each process of S8 to S12 is skipped, and the process proceeds to S13.
一方、1つだけ抽出された画像キーが、拡大キーメモリ13aに記憶されているキー情報が示す画像キーと異なる場合は(S7:No)、ユーザの指が接近している画像キーが、拡大表示されている画像キーから別の画像キーに変化した場合か、又は、画像キーが拡大表示されていない状態で、ユーザの指が画像キーに接近した場合である。 On the other hand, when the extracted image key is different from the image key indicated by the key information stored in the enlargement key memory 13a (S7: No), the image key approaching the user's finger is enlarged. This is a case where the displayed image key is changed to another image key, or a case where the user's finger approaches the image key in a state where the image key is not enlarged.
この場合は、既に、拡大表示されている画像キーが存在する可能性もあるので、その画像キーを通常の大きさに戻すために、一旦、全ての画像キーの大きさを通常の大きさ(図3(a)参照)で表示する(S8)。次に、抽出した画像キーのキー情報(例えば、キーの名称や、キー番号など)を、拡大キーメモリ13aに記憶する(S9)。 In this case, there is a possibility that an image key that has already been enlarged is present, so in order to return the image key to the normal size, the size of all the image keys is temporarily set to the normal size ( (See FIG. 3A) (S8). Next, key information (for example, key name, key number, etc.) of the extracted image key is stored in the enlarged key memory 13a (S9).
そして、抽出した画像キーの表示領域の中で、出力値の最も大きいセンサが位置している場所を拡大原点とする(S10)。例えば、ユーザの指が、画像キーの右下方向から接近して中心部へ向かう場合なら、画像キーの表示領域の中で、まず始めに表示領域の右下部分にユーザの指が最も接近する。つまり、画像キーが拡大表示される直前には、画像キーの表示領域の右下部分に位置するセンサの出力値が最も大きくなるので、このセンサ位置を拡大原点とする。 Then, the place where the sensor with the largest output value is located in the extracted display area of the image key is set as the enlargement origin (S10). For example, if the user's finger approaches from the lower right direction of the image key toward the center, the user's finger first approaches the lower right part of the display region in the image key display region. . That is, immediately before the image key is enlarged and displayed, the output value of the sensor located in the lower right part of the display area of the image key becomes the largest, so this sensor position is set as the enlargement origin.
次に、拡大原点を原点として、抽出した画像キーの表示領域を拡大表示する(S11)。そして、拡大表示した表示領域の中で、拡大原点から所定間隔(例えば、指1本)以上離れた位置に、画像キーの項目名(キーの名称)を拡大表示して(S12)、S13の処理に移行する。 Next, the display area of the extracted image key is enlarged and displayed with the enlargement origin as the origin (S11). In the enlarged display area, the item name (key name) of the image key is enlarged and displayed at a position separated from the enlargement origin by a predetermined interval (for example, one finger) or more (S12). Transition to processing.
S12の処理により、拡大原点から、例えば、指1本以上離れた場所に画像キーの項目名が表示されるので、画像キーが拡大表示されたその時に、ユーザ自身の指で、画像キーの項目名が隠れることを抑制できる。よって、ユーザが意図しない画像キーを触れることを抑制できるので、誤操作を防止できる。 By the processing of S12, the item name of the image key is displayed, for example, at a location one or more fingers away from the enlargement origin. When the image key is enlarged, the item of the image key is displayed with the user's own finger. The name can be prevented from being hidden. Therefore, it is possible to prevent the user from touching an unintended image key, and thus it is possible to prevent an erroneous operation.
S13の処理では、拡大キーメモリ13aに記憶されているキー情報が示す画像キー、即ち、拡大表示されている画像キーの表示領域内に、出力値が閾値Bを超えているセンサがあるかを判定する(S13)。 In the process of S13, whether there is a sensor whose output value exceeds the threshold value B in the display area of the image key indicated by the key information stored in the enlarged key memory 13a, that is, the enlarged image key. Determine (S13).
拡大表示されている画像キーの表示領域内に、出力値が閾値Bを超えているセンサがない場合は(S13:No)、画像キーは拡大表示されているが、ユーザの指がまだ画像キーに接触していない場合であるので、上述したS2〜S13の各処理を繰り返す。 When there is no sensor whose output value exceeds the threshold value B in the display area of the image key that is displayed in an enlarged manner (S13: No), the image key is displayed in an enlarged manner, but the user's finger is still in the image key. In this case, the processes in S2 to S13 described above are repeated.
一方、S13の処理において、拡大表示されている画像キーの表示領域内に、出力値が閾値Bを超えているセンサがある場合は(S13:Yes)、ユーザの指が拡大表示されている画像キーに接触した場合であるので、拡大キーメモリ13aに記憶されているキー情報が示す画像キーに対応する処理を実行する(S14)。例えば、画像キーメモリ13aに記憶されているキー情報がプリントキー32を示す場合なら、これからユーザにより指定される画像データをプリンタ21で印刷する。
On the other hand, in the process of S13, when there is a sensor whose output value exceeds the threshold B in the display area of the image key that is displayed in an enlarged manner (S13: Yes), the image in which the user's finger is displayed in an enlarged manner Since the key is touched, processing corresponding to the image key indicated by the key information stored in the enlarged key memory 13a is executed (S14). For example, if the key information stored in the image key memory 13a indicates the
次に、拡大キーメモリ13aをクリアして(S15)、全ての画像キーの大きさを通常の大きさ(図3(a)参照)で表示する(S16)。なお、このS15およびS16の処理は、ユーザの指が画像キーに接触して、その画像キーに対応する処理が実行された場合と、ユーザの指がタッチパネル17から離れた場合(又は、接近していない場合)とに実行される。その結果、全ての画像キーの大きさが通常の大きさで表示される。 Next, the enlarged key memory 13a is cleared (S15), and the sizes of all image keys are displayed in the normal size (see FIG. 3A) (S16). The processes of S15 and S16 are performed when the user's finger touches the image key and the process corresponding to the image key is executed, and when the user's finger is separated from the touch panel 17 (or approaches). If not) and executed. As a result, the size of all image keys is displayed in a normal size.
以上の図4のフローチャートの表示更新処理により、タッチパネル17による入力操作が行われた際に、ユーザの指が画像キーに接近したら(接触する前に)、その画像キーの表示領域を拡大表示することができる。また、拡大表示した画像キーの表示領域内において、指を避けた位置(拡大原点から、例えば、指1本以上離れた場所)に項目名を拡大表示できる。
When the input operation by the
よって、ユーザがタッチパネル17を操作する場合に、ユーザ自身の指で画像キーや、その画像キーの項目名が隠れることを抑制できる。従って、ユーザが意図していない領域を触れるなどの誤操作を防止できる。
Therefore, when the user operates the
以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。 Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.
例えば、本実施形態では、投影型静電容量方式のタッチパネル40を用いているが、検出方式は何ら限定しない。例えば、指の接近を検出可能な方式のタッチパネルであればどのような方式でも良い。例えば、指の接近(又は接触)を赤外線や電界で検知する方式のタッチパネルを用いても良い。 For example, in the present embodiment, the projected capacitive touch panel 40 is used, but the detection method is not limited at all. For example, any method may be used as long as the touch panel can detect the approach of a finger. For example, a touch panel that detects the approach (or contact) of a finger with infrared rays or an electric field may be used.
ここで、図5を参照して、LCD16に表示する画像キーの拡大表示の変形例について説明する。図5(a)〜(d)は、それぞれ画像キーの拡大表示の変形例を示すイメージ図である。
Here, with reference to FIG. 5, a modified example of the enlarged display of the image key displayed on the
上述した通り、本実施形態では、ユーザの指が最も接近した画像キーの表示領域を拡大表示し、その表示領域の中で、拡大原点から所定間隔(例えば、指1本)以上離れた位置に、画像キーの項目名(キーの名称)を拡大表示するように構成している。 As described above, in the present embodiment, the display area of the image key that the user's finger is closest to is enlarged and displayed, and the display area is located at a position separated from the enlargement origin by a predetermined interval (for example, one finger) or more. The item name (key name) of the image key is displayed in an enlarged manner.
これに加えて、拡大表示した画像キー32にユーザの指が接近している状態で、ユーザの指が、その画像キー32の表示領域内を移動している間、図5(a)に示すように、その画像キー32の項目名33aがユーザの指で隠れないように、項目名33aの表示位置をユーザの指から離れた位置に変更し続けるように構成しても良い。
In addition to this, as shown in FIG. 5A, while the user's finger is moving within the display area of the image key 32 with the user's finger approaching the enlarged image key 32. In this way, the display position of the
なお、ユーザの指から離れた位置が画像キー32の表示領域外となるなど、表示領域内に項目名33aを表示できない場合には、例えば、項目名33aを小さく表示しても良いし、項目名33aを複数に分割して(例えば、項目名が「プリント」なら「プリ」と、「ント」とに分けて)表示しても良い。
If the
また、例えば、タッチパネル17の全検出領域の各センサの出力値を、定期的(例えば、100ms毎)にRAM13に記憶するように構成しておき、拡大表示する直前の指の位置を避けた位置に項目名を表示するようにしても良し、ユーザの指の位置変化から、ユーザの指の移動方向を算出、推測し、そのユーザの指の指先に、項目名33aを表示するように構成しても良い。このように構成すれば、ユーザの指で項目名33aが隠れることがなく、また、項目名33aを視認し易いので、誤操作を防止できる。
Further, for example, the output value of each sensor in the entire detection area of the
また、ユーザの指が最も接近した画像キー31の表示領域や項目名を拡大表示せずに、ユーザの指が最も接近した画像キー31の項目名を、例えば、図5(b)に示すように、ユーザの指が画像キー31の表示領域に進入してきた位置(拡大原点)を避けるように、画像キー31の周縁に吹き出し34を表示して、その吹き出し34の中に、ユーザの指が最も接近した画像キー31の項目名を表示する。このように構成すれば、ユーザ自身の指で画像キー31や、その画像キー31の項目名が隠れても、ユーザは、自身の指がどの画像キーに最も接近しているかを認識できる。よって、ユーザが意図していない領域を触れるなどの誤操作を防止できる。
Further, the display area and item name of the image key 31 closest to the user's finger are not enlarged and the item name of the image key 31 closest to the user's finger is shown in FIG. 5B, for example. In addition, a balloon 34 is displayed on the periphery of the image key 31 so as to avoid the position where the user's finger has entered the display area of the image key 31 (enlargement origin). The item name of the
また、ユーザの指が最も接近した画像キー31の表示領域や項目名を拡大表示せずに、ユーザの指が最も接近した画像キー31と同一の画像を表示する表示領域35を予め設けておく。そして、ユーザの指が最も接近した画像キー31と同一の画像を、予め設けておいた表示領域35内に表示するように構成しても良い。このように構成すれば、ユーザ自身の指で画像キー31や、その画像キー31の項目名が隠れても、ユーザは、自身の指がどの画像キーに最も接近しているかを認識できる。よって、ユーザが意図していない領域を触れるなどの誤操作を防止できる。なお、表示領域35に表示されている画像キー31の画像に触れられた場合には、画像キー31に対応づけられている処理を実行するように構成しても良い。また、項目名だけを表示領域35に表示しても良い。
Further, a
また、ユーザがMFP1の後面から前面に手を伸ばして(図1参照)、タッチパネル17を操作した場合には、LCD16に表示している各画像キーの項目名を180度回転させて表示するように構成しても良い。また、例えば、ユーザがMFP1の右面からタッチパネル17を操作した場合は、LCD16に表示している各画像キーの項目名を90度左回転させて表示するように構成しても良い。同様に、ユーザがMFP1の左面からタッチパネル17を操作した場合は、LCD16に表示している各画像キーの項目名を90度右回転させて表示するように構成しても良い。このようにすれば、ユーザがタッチパネル17を操作する場合に、LCD16に表示される項目名が、ユーザの正面(回転無く)に表示されるので、ユーザが項目名を容易に認識できる。よって、ユーザが意図していない領域を触れるなどの誤操作を防止できる。
In addition, when the user extends his / her hand from the rear surface of the
また、本実施形態では、ユーザの指が最も接近した画像キーの表示領域を拡大表示した場合に、その拡大表示された画像キーが、他の画像キーを部分的(又は全体)に覆い隠すように構成されているが、他の画像キーが部分的(又は全体)に覆い隠される場合には、拡大表示した画像キーと、他の画像キーとの表示位置をそれぞれずらし、他の画像キーが全く覆い隠さないように構成しても良い。 In the present embodiment, when the display area of the image key closest to the user's finger is enlarged, the enlarged image key partially covers (or entirely) the other image key. However, when other image keys are partially (or entirely) covered, the display positions of the enlarged image key and the other image key are shifted, and the other image keys are You may comprise so that it may not be covered at all.
また、他の画像キーが部分的に覆い隠されている場合は、残りの覆い隠されていない表示領域が指で触れられても、その入力が無効となるように構成しても良い。拡大表示された画像キーは、ユーザの指が最も接近している画像キーであるので、ユーザの意図する画像キーである可能性が最も高い。これに対して、拡大表示された画像キーに部分的に覆い隠されている画像キーは、ユーザの意図する画像キーである可能性が低い。そこで、拡大表示された画像キーに部分的に覆い隠されている画像キーに対する入力を無効とすることで、ユーザが意図していない領域を触れるなどの誤操作を防止できる。 Further, when other image keys are partially covered, the input may be invalidated even if the remaining uncovered display area is touched with a finger. Since the image key displayed in an enlarged manner is the image key with which the user's finger is closest, it is most likely that the image key is intended by the user. On the other hand, an image key partially covered by the enlarged image key is unlikely to be an image key intended by the user. Therefore, by invalidating the input to the image key partially covered by the enlarged image key, an erroneous operation such as touching an area not intended by the user can be prevented.
また、本実施形態では、ユーザの指が最も接近した画像キーの表示領域を拡大表示した場合に、現在日時が部分的(又は全体)に覆い隠されることがあるが、現在日時が部分的(又は全体)に覆い隠される場合には、現在日時の表示位置を移動させて、現在日時が常にLCD16上に表示されるように構成しても良い。これにより、ユーザは、常に現在日時を確認できるので、使い勝手が良い。
In the present embodiment, when the display area of the image key that the user's finger is closest to is enlarged and displayed, the current date and time may be partially (or entirely) covered, but the current date and time may be partially ( Alternatively, the display position of the current date and time may be moved so that the current date and time are always displayed on the
1 MFP(入力装置の一例)
16 LCD(表示手段の一例)
17 タッチパネル(検出手段の一例)
S2 記憶手段の一例
S4 抽出手段の一例
S10 取得手段の一例
S11 拡大表示手段の一例
S14 受付手段の一例
1 MFP (an example of an input device)
16 LCD ( an example of display means )
17 Touch panel ( an example of detection means )
S2 An example of storage means S4 An example of extraction means S10 An example of acquisition means S11 An example of enlarged display means S14 An example of reception means
Claims (4)
前記検出手段によって前記ボタンに対する接近値が第1閾値よりも小さい第2閾値を超えたことが検出された場合に、そのボタンだけを拡大して前記表示手段に表示する拡大表示手段と、
前記表示手段上における前記入力媒体の位置情報を記憶する記憶手段と、
その記憶手段に記憶されている位置情報から前記ボタンの枠内における前記入力媒体の位置情報として、前記ボタンに対する前記入力媒体の進入位置を取得する取得手段と、を備え、
前記拡大表示手段は、
前記表示手段に表示されている前記ボタンの各々に対し、前記検出手段によって検出される接近値が前記第2閾値を超えているボタンの全てを抽出する抽出手段を備え、
その抽出手段によって抽出されたボタンのうち、最も接近値が前記第1閾値に近いボタンを、前記取得手段によって取得した前記進入位置を原点として拡大表示し、
前記取得手段によって取得した前記進入位置から所定間隔離れた位置までを避けた位置であって、拡大表示する前記ボタンの枠内に、そのボタンのボタン名を表示することを特徴とする入力装置。 Display means; detection means for detecting an approach value indicating approach and contact of the input medium on the display means; button display means for displaying a plurality of buttons on the same screen of the display means; and the button display means. In an input device comprising: a receiving unit that receives an input of a predetermined instruction assigned to a button when the detecting unit detects that an approach value for a displayed button exceeds a first threshold value ,
An enlargement display means for enlarging only the button and displaying it on the display means when it is detected by the detection means that the approach value for the button exceeds a second threshold value smaller than a first threshold value ;
Storage means for storing position information of the input medium on the display means;
Obtaining means for obtaining the entry position of the input medium with respect to the button as the position information of the input medium within the frame of the button from the position information stored in the storage means;
The enlarged display means includes
For each of the buttons displayed on the display means, an extraction means for extracting all the buttons whose approach values detected by the detection means exceed the second threshold value,
Of the buttons extracted by the extracting means, the button having the closest approach value close to the first threshold is enlarged and displayed with the approach position acquired by the acquiring means as the origin,
An input device , wherein a button name of the button is displayed in a frame of the button to be enlarged and displayed at a position avoiding a position separated from the entry position acquired by the acquisition means by a predetermined interval .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008332778A JP4683126B2 (en) | 2008-12-26 | 2008-12-26 | Input device |
EP09252856A EP2202626A3 (en) | 2008-12-26 | 2009-12-21 | Inputting apparatus |
US12/646,633 US8271900B2 (en) | 2008-12-26 | 2009-12-23 | Inputting apparatus |
CN2009102626697A CN101770335B (en) | 2008-12-26 | 2009-12-25 | Inputting apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008332778A JP4683126B2 (en) | 2008-12-26 | 2008-12-26 | Input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010152827A JP2010152827A (en) | 2010-07-08 |
JP4683126B2 true JP4683126B2 (en) | 2011-05-11 |
Family
ID=42101844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008332778A Expired - Fee Related JP4683126B2 (en) | 2008-12-26 | 2008-12-26 | Input device |
Country Status (4)
Country | Link |
---|---|
US (1) | US8271900B2 (en) |
EP (1) | EP2202626A3 (en) |
JP (1) | JP4683126B2 (en) |
CN (1) | CN101770335B (en) |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011134273A (en) * | 2009-12-25 | 2011-07-07 | Sony Corp | Information processor, information processing method, and program |
US20120050007A1 (en) * | 2010-08-24 | 2012-03-01 | Babak Forutanpour | Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display |
JP5569271B2 (en) * | 2010-09-07 | 2014-08-13 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
CN101990036B (en) * | 2010-10-15 | 2013-07-10 | 深圳桑菲消费通信有限公司 | Navigation method used in mobile phone screen |
CN102073454A (en) * | 2011-01-13 | 2011-05-25 | 宇龙计算机通信科技(深圳)有限公司 | Mobile terminal and input control method for touch panel |
FR2971066B1 (en) * | 2011-01-31 | 2013-08-23 | Nanotec Solution | THREE-DIMENSIONAL MAN-MACHINE INTERFACE. |
CN102681748B (en) * | 2011-03-09 | 2015-01-28 | 联想(北京)有限公司 | Information processing equipment and information processing method |
JP2012190183A (en) * | 2011-03-09 | 2012-10-04 | Sony Corp | Image processing device, method, and program |
JP5703873B2 (en) * | 2011-03-17 | 2015-04-22 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2012203644A (en) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | Electronic device |
US9470922B2 (en) | 2011-05-16 | 2016-10-18 | Panasonic Intellectual Property Corporation Of America | Display device, display control method and display control program, and input device, input assistance method and program |
JP2014142676A (en) * | 2011-05-16 | 2014-08-07 | Panasonic Corp | Input device, information terminal apparatus and input system |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
JPWO2013047023A1 (en) * | 2011-09-26 | 2015-03-26 | Necカシオモバイルコミュニケーションズ株式会社 | Display device, display method, and program |
US20130104039A1 (en) * | 2011-10-21 | 2013-04-25 | Sony Ericsson Mobile Communications Ab | System and Method for Operating a User Interface on an Electronic Device |
JP5836105B2 (en) * | 2011-12-20 | 2015-12-24 | シャープ株式会社 | Information processing apparatus, information processing apparatus control method, information processing apparatus control program, and computer-readable recording medium storing the program |
JP6044631B2 (en) * | 2012-02-20 | 2016-12-14 | 日本電気株式会社 | Touch panel input device and control method thereof |
JP5949010B2 (en) * | 2012-03-16 | 2016-07-06 | 富士通株式会社 | INPUT CONTROL DEVICE, INPUT CONTROL PROGRAM, AND INPUT CONTROL METHOD |
US9377937B2 (en) | 2012-04-06 | 2016-06-28 | Samsung Electronics Co., Ltd. | Method and device for executing object on display |
US9146655B2 (en) * | 2012-04-06 | 2015-09-29 | Samsung Electronics Co., Ltd. | Method and device for executing object on display |
CN108052264B (en) | 2012-05-09 | 2021-04-27 | 苹果公司 | Device, method and graphical user interface for moving and placing user interface objects |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
CN105260049B (en) | 2012-05-09 | 2018-10-23 | 苹果公司 | For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
JP6002836B2 (en) | 2012-05-09 | 2016-10-05 | アップル インコーポレイテッド | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
EP3185116B1 (en) | 2012-05-09 | 2019-09-11 | Apple Inc. | Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface |
CN106201316B (en) | 2012-05-09 | 2020-09-29 | 苹果公司 | Apparatus, method and graphical user interface for selecting user interface objects |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
EP2847662B1 (en) | 2012-05-09 | 2020-02-19 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
WO2013169875A2 (en) * | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
WO2013169262A1 (en) * | 2012-05-11 | 2013-11-14 | Empire Technology Development Llc | Input error remediation |
WO2013183370A1 (en) * | 2012-06-05 | 2013-12-12 | ソニー株式会社 | Information processing device, information processing method and recording medium upon which computer program has been recorded |
KR101958517B1 (en) | 2012-12-29 | 2019-03-14 | 애플 인크. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
AU2013368445B8 (en) | 2012-12-29 | 2017-02-09 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select contents |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
KR102301592B1 (en) | 2012-12-29 | 2021-09-10 | 애플 인크. | Device, method, and graphical user interface for navigating user interface hierachies |
CN104903835B (en) | 2012-12-29 | 2018-05-04 | 苹果公司 | For abandoning equipment, method and the graphic user interface of generation tactile output for more contact gestures |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
DE102013000219A1 (en) * | 2013-01-04 | 2014-07-10 | Volkswagen Aktiengesellschaft | Method for operating facility i.e. camera, of vehicle, involves detecting movement of affecting position on touch-sensitive surface, and changing parameter based on traveling direction and/or movement length of touch-sensitive surface |
CN103092444B (en) * | 2013-01-05 | 2015-07-01 | 北京京东方光电科技有限公司 | Method and device for achieving self-adaptive touch detection of touch screen |
CN104063119B (en) * | 2013-03-22 | 2017-09-08 | 腾讯科技(深圳)有限公司 | Method, device and the terminal of management software application |
JP5865287B2 (en) | 2013-03-29 | 2016-02-17 | 株式会社ジャパンディスプレイ | Electronic device and control method of electronic device |
KR102120651B1 (en) * | 2013-05-30 | 2020-06-09 | 삼성전자 주식회사 | Method and apparatus for displaying a seen in a device comprising a touch screen |
JP5860838B2 (en) * | 2013-05-30 | 2016-02-16 | 京セラドキュメントソリューションズ株式会社 | Display device, electronic device, and image forming apparatus |
EP3036613A1 (en) * | 2013-08-22 | 2016-06-29 | Sony Corporation | Adaptive running mode |
JP6311439B2 (en) * | 2014-05-09 | 2018-04-18 | 株式会社デンソー | Operating device |
CN105677193A (en) * | 2014-11-18 | 2016-06-15 | 夏普株式会社 | Object operation method and electronic equipment |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US9578193B2 (en) * | 2015-03-31 | 2017-02-21 | Kyocera Document Solutions Inc. | Quick operation user interface for a multifunction printing device |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
JP6134775B2 (en) * | 2015-12-22 | 2017-05-24 | 株式会社ジャパンディスプレイ | Electronic device and control method of electronic device |
US11112963B2 (en) | 2016-05-18 | 2021-09-07 | Apple Inc. | Devices, methods, and graphical user interfaces for messaging |
CN113157176B (en) | 2016-05-18 | 2025-02-14 | 苹果公司 | Applying the Confirmation Option in the Graphical Messaging User Interface |
JP6897010B2 (en) * | 2016-05-26 | 2021-06-30 | 富士フイルムビジネスイノベーション株式会社 | Return control device, image processing device and program |
US10368208B2 (en) | 2016-06-12 | 2019-07-30 | Apple Inc. | Layers in messaging applications |
JP2018025916A (en) * | 2016-08-09 | 2018-02-15 | 本田技研工業株式会社 | On-vehicle operation device |
CN106569635A (en) * | 2016-10-31 | 2017-04-19 | 努比亚技术有限公司 | Terminal suspension combination operation device and method thereof |
CN107278368B (en) * | 2017-04-24 | 2023-08-11 | 北京小米移动软件有限公司 | Screen control method and device |
TWI689846B (en) * | 2018-02-14 | 2020-04-01 | 元太科技工業股份有限公司 | Input device and symbols display method thereof |
JP2018190469A (en) * | 2018-08-22 | 2018-11-29 | キヤノン株式会社 | Image forming apparatus, computer program, and recording medium |
CN110231908A (en) * | 2018-10-30 | 2019-09-13 | 蔚来汽车有限公司 | Interface control method and device, terminal, controller and medium |
USD940170S1 (en) * | 2019-03-29 | 2022-01-04 | My Universe Llc | Display screen or portions thereof with graphical user interface |
CN111524211B (en) * | 2020-04-17 | 2024-01-23 | 杭州海康威视数字技术股份有限公司 | Handwriting erasing method, handwriting erasing device and handwriting erasing equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352924A (en) * | 2004-06-11 | 2005-12-22 | Mitsubishi Electric Corp | User interface device |
JP2006103363A (en) * | 2004-09-30 | 2006-04-20 | Mazda Motor Corp | Information display device for vehicle |
JP2006236143A (en) * | 2005-02-25 | 2006-09-07 | Sony Ericsson Mobilecommunications Japan Inc | Input processing program, portable terminal device and input processing method |
JP2008197934A (en) * | 2007-02-14 | 2008-08-28 | Calsonic Kansei Corp | Operator determining method |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5347295A (en) * | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5565888A (en) * | 1995-02-17 | 1996-10-15 | International Business Machines Corporation | Method and apparatus for improving visibility and selectability of icons |
JPH10269022A (en) | 1997-03-25 | 1998-10-09 | Hitachi Ltd | Portable information processing device with communication function |
US6252596B1 (en) * | 1998-03-31 | 2001-06-26 | Canon Kabushiki Kaisha | Command entry highlight editing for a menu selection system and method |
US7434177B1 (en) * | 1999-12-20 | 2008-10-07 | Apple Inc. | User interface for providing consolidation and access |
US20050024341A1 (en) * | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
US6844887B2 (en) * | 2001-07-05 | 2005-01-18 | International Business Machine Corporation | Alternate reduced size on-screen pointers for accessing selectable icons in high icon density regions of user interactive display interfaces |
CN2503527Y (en) * | 2001-08-03 | 2002-07-31 | 爱浪科技(中山)有限公司 | Contact key device with interpretting function |
JP2003143286A (en) | 2001-10-31 | 2003-05-16 | Nec Corp | Portable telephone set |
CA2387936A1 (en) * | 2002-05-29 | 2003-11-29 | Ibm Canada Limited-Ibm Canada Limitee | Menu user interface with size differentiation between enabled and disabled menu items |
US20050193351A1 (en) * | 2002-08-16 | 2005-09-01 | Myorigo, L.L.C. | Varying-content menus for touch screens |
US20040160419A1 (en) * | 2003-02-11 | 2004-08-19 | Terradigital Systems Llc. | Method for entering alphanumeric characters into a graphical user interface |
DE10310794B4 (en) | 2003-03-12 | 2012-10-18 | Hewlett-Packard Development Co., L.P. | Operating device and communication device |
EP1624392A1 (en) * | 2004-07-02 | 2006-02-08 | Canon Kabushiki Kaisha | Method, apparatus, and program for retrieving data |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US7818672B2 (en) * | 2004-12-30 | 2010-10-19 | Microsoft Corporation | Floating action buttons |
US7802202B2 (en) | 2005-03-17 | 2010-09-21 | Microsoft Corporation | Computer interaction based upon a currently active input device |
US20080098331A1 (en) * | 2005-09-16 | 2008-04-24 | Gregory Novick | Portable Multifunction Device with Soft Keyboards |
US7603621B2 (en) * | 2006-01-25 | 2009-10-13 | Microsoft Corporation | Computer interface for illiterate and near-illiterate users |
US7966573B2 (en) * | 2006-02-17 | 2011-06-21 | Microsoft Corporation | Method and system for improving interaction with a user interface |
CN100571346C (en) * | 2006-07-26 | 2009-12-16 | 深圳Tcl新技术有限公司 | The amplification display method of television function icon |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
JP2008305174A (en) | 2007-06-07 | 2008-12-18 | Sony Corp | Information processor, information processing method, and program |
US20080309621A1 (en) | 2007-06-15 | 2008-12-18 | Aggarwal Akhil | Proximity based stylus and display screen, and device incorporating same |
DE102007039669A1 (en) | 2007-08-22 | 2009-02-26 | Navigon Ag | Display device with image surface |
KR101513023B1 (en) | 2008-03-25 | 2015-04-22 | 엘지전자 주식회사 | A terminal and its information display method |
US9274681B2 (en) | 2008-03-26 | 2016-03-01 | Lg Electronics Inc. | Terminal and method of controlling the same |
US9325823B2 (en) * | 2008-12-19 | 2016-04-26 | Verizon Patent And Licensing Inc. | Visual address book and dialer |
-
2008
- 2008-12-26 JP JP2008332778A patent/JP4683126B2/en not_active Expired - Fee Related
-
2009
- 2009-12-21 EP EP09252856A patent/EP2202626A3/en not_active Ceased
- 2009-12-23 US US12/646,633 patent/US8271900B2/en not_active Expired - Fee Related
- 2009-12-25 CN CN2009102626697A patent/CN101770335B/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352924A (en) * | 2004-06-11 | 2005-12-22 | Mitsubishi Electric Corp | User interface device |
JP2006103363A (en) * | 2004-09-30 | 2006-04-20 | Mazda Motor Corp | Information display device for vehicle |
JP2006236143A (en) * | 2005-02-25 | 2006-09-07 | Sony Ericsson Mobilecommunications Japan Inc | Input processing program, portable terminal device and input processing method |
JP2008197934A (en) * | 2007-02-14 | 2008-08-28 | Calsonic Kansei Corp | Operator determining method |
Also Published As
Publication number | Publication date |
---|---|
CN101770335A (en) | 2010-07-07 |
EP2202626A2 (en) | 2010-06-30 |
US20100169834A1 (en) | 2010-07-01 |
CN101770335B (en) | 2012-08-08 |
EP2202626A3 (en) | 2011-01-05 |
JP2010152827A (en) | 2010-07-08 |
US8271900B2 (en) | 2012-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4683126B2 (en) | Input device | |
JP7615254B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD AND PROGRAM FOR IMAGE PROCESSING APPARATUS | |
US9900450B2 (en) | Image forming apparatus, method of controlling the same, and recording medium | |
JP5556423B2 (en) | Input device and input control program | |
JP5958233B2 (en) | Image forming apparatus and program | |
US20060107235A1 (en) | Image processing device including touch panel | |
US9088678B2 (en) | Image processing device, non-transitory computer readable recording medium and operational event determining method | |
US20140320881A1 (en) | Image forming apparatus, and storage medium storing program for image forming apparatus | |
JP6157080B2 (en) | Data processing apparatus, data processing method, and program | |
US9886137B2 (en) | Input device, control method of the input device and non-transitory computer-readable medium having computer program for controlling the input device | |
JP5945926B2 (en) | Operation display device | |
JP4626685B2 (en) | Input device and multifunction peripheral device | |
JP2008276277A (en) | Operation display device and image forming apparatus | |
US10506116B2 (en) | Image processing apparatus causing display to display images, method, and non-transitory computer-readable recording medium storing computer-readable instructions | |
JP5516128B2 (en) | Input device and input control program | |
JP2015191241A (en) | Electronic equipment and operation support program | |
JP2011180625A (en) | Input apparatus and input control program | |
JP2011141852A (en) | Input device and input control program | |
JP2008310521A (en) | Touch panel control device and electric equipment | |
JP6222434B2 (en) | Display device | |
US8542201B2 (en) | Inputting apparatus | |
JP6447179B2 (en) | Information input system and input device | |
JP6812639B2 (en) | Electronic devices, control programs for electronic devices | |
JP6891439B2 (en) | Image display device program, image display device, image display device control method | |
US9819817B2 (en) | Display input device and method of controlling display input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4683126 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |