JPWO2012137946A1 - Electronic device, operation control method, and operation control program - Google Patents
Electronic device, operation control method, and operation control program Download PDFInfo
- Publication number
- JPWO2012137946A1 JPWO2012137946A1 JP2013508953A JP2013508953A JPWO2012137946A1 JP WO2012137946 A1 JPWO2012137946 A1 JP WO2012137946A1 JP 2013508953 A JP2013508953 A JP 2013508953A JP 2013508953 A JP2013508953 A JP 2013508953A JP WO2012137946 A1 JPWO2012137946 A1 JP WO2012137946A1
- Authority
- JP
- Japan
- Prior art keywords
- contact
- state
- unit
- display unit
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 230000008569 process Effects 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
携帯電話端末(電子機器)(1)は、表示部(2B)と、表示部(2B)に対する接触を検出する検出部(2A)(例えば、タッチセンサ)と、検出部(2A)を振動させる振動部(4)と、表示部(2B)に対する接触による操作に基づく所定の処理を行わない第1の状態と、表示部(2B)に対する接触による操作に基づく所定の処理を行う第2の状態とを切り替える制御部(10)とを備える。制御部(10)は、第1の状態において、表示部(2B)上の所定の位置に対する接触が検出部(2A)により検出された場合に、当該接触に基づいて振動部(4)により検出部(2A)を振動させる。The mobile phone terminal (electronic device) (1) vibrates the display unit (2B), the detection unit (2A) (for example, a touch sensor) that detects contact with the display unit (2B), and the detection unit (2A). A first state in which a predetermined process based on an operation by contact with the vibration unit (4) and the display unit (2B) is not performed, and a second state in which a predetermined process is performed based on an operation by contact with the display unit (2B) And a control unit (10) for switching between. When the contact with the predetermined position on the display unit (2B) is detected by the detection unit (2A) in the first state, the control unit (10) is detected by the vibration unit (4) based on the contact. The part (2A) is vibrated.
Description
本発明は、電子機器、操作制御方法および操作制御プログラムに関する。 The present invention relates to an electronic device, an operation control method, and an operation control program.
近年、タッチパネルを備える電子機器が広く利用されている。かかる電子機器は、タッチパネルへの接触操作を検出することによって入力を受け付けるが、表示を目で確認しない限り、利用者は、タッチパネルへの接触操作によって入力が受け付けられたか否かを認識し難い。 In recent years, electronic devices including a touch panel have been widely used. Such an electronic device accepts an input by detecting a touch operation on the touch panel. However, unless the display is visually confirmed, the user hardly recognizes whether or not an input has been accepted by the touch operation on the touch panel.
操作入力が受け付けられたことを利用者に認識させる技術としては、例えば、接触操作によって入力が受け付けられたことを、振動を発生させることによって利用者に通知する技術が知られている(例えば、特許文献1)。 As a technique for allowing a user to recognize that an operation input has been accepted, for example, a technique for notifying the user by generating a vibration that an input has been accepted by a contact operation is known (for example, Patent Document 1).
しかしながら、振動を発生させるだけでは、利用者は、タッチパネル上のどの位置に対して接触操作が行われたかを認識することができない。タッチパネルには、通常、アイコンやボタン等の各種のオブジェクトが表示され、電子機器は、どのオブジェクトの表示領域内で接触操作が検出されたかに応じて、実行する機能を変更する。このため、接触操作が行われた位置を認識することは利用者によって非常に重要である。 However, the user cannot recognize to which position on the touch panel the contact operation is performed only by generating the vibration. Various objects such as icons and buttons are usually displayed on the touch panel, and the electronic device changes a function to be executed depending on in which object display area the contact operation is detected. For this reason, it is very important for the user to recognize the position where the contact operation is performed.
このような理由から、利用者が容易に操作位置を認識することができる電子機器、操作制御方法および操作制御プログラムに対するニーズがある。 For these reasons, there is a need for an electronic device, an operation control method, and an operation control program that allow a user to easily recognize an operation position.
1つの態様において、電子機器は、表示部と、前記表示部に対する接触を検出する検出部と、前記検出部を振動させる振動部と、前記表示部に対する接触による操作に基づく所定の処理を行わない第1の状態と、前記表示部に対する接触による操作に基づく所定の処理を行う第2の状態とを切り替える制御部とを備え、前記制御部は、前記第1の状態において、前記表示部上の所定の位置に対する接触が前記検出部により検出された場合に、当該接触に基づいて前記振動部により前記検出部を振動させるとともに、前記第1の状態から前記第2の状態に切り替える。 In one aspect, the electronic device does not perform a predetermined process based on an operation by a display unit, a detection unit that detects contact with the display unit, a vibration unit that vibrates the detection unit, and the contact with the display unit. A control unit that switches between a first state and a second state in which a predetermined process based on an operation by contact with the display unit is performed, the control unit in the first state on the display unit When contact with a predetermined position is detected by the detection unit, the detection unit is vibrated by the vibration unit based on the contact and is switched from the first state to the second state.
他の態様において、操作制御方法は、表示部と、前記表示部に対する接触を検出する検出部と、前記検出部を振動させる振動部と、を備える電子機器によって実行される操作制御方法であって、前記表示部に対する接触による操作に基づく所定の処理を行わない第1の状態において、前記検出部が、前記表示部に対する接触を検出するステップと、前記検出部によって検出された接触に基づいて前記振動部が前記検出部を振動させるステップと、前記第1の状態において、前記検出部が前記表示部上の所定の位置に対する接触を検出した場合に、前記第1の状態から、前記表示部に対する接触による操作に基づく所定の処理を行う第2の状態へ切り替えるステップとを含む。 In another aspect, the operation control method is an operation control method executed by an electronic device including a display unit, a detection unit that detects contact with the display unit, and a vibration unit that vibrates the detection unit. In the first state in which a predetermined process based on an operation by contact with the display unit is not performed, the detection unit detects the contact with the display unit, and the detection unit detects the contact with the detection unit. In the first state, the vibration unit vibrates the detection unit, and when the detection unit detects contact with a predetermined position on the display unit, the first unit causes the display unit to Switching to a second state in which a predetermined process based on an operation by contact is performed.
他の態様において、操作制御プログラムは、表示部と、前記表示部に対する接触を検出する検出部と、前記検出部を振動させる振動部と、を備える電子機器に、前記表示部に対する接触による操作に基づく所定の処理を行わない第1の状態において、前記検出部が、前記表示部に対する接触を検出するステップと、前記検出部によって検出された接触に基づいて前記振動部が前記検出部を振動させるステップと、前記第1の状態において、前記検出部が前記表示部上の所定の位置に対する接触を検出した場合に、前記第1の状態から、前記表示部に対する接触による操作に基づく所定の処理を行う第2の状態へ切り替えるステップとを実行させる。 In another aspect, an operation control program is provided in an electronic device including a display unit, a detection unit that detects contact with the display unit, and a vibration unit that vibrates the detection unit. In a first state in which a predetermined process based on the above is not performed, the detection unit detects a contact with the display unit, and the vibration unit vibrates the detection unit based on the contact detected by the detection unit. And in the first state, when the detection unit detects a contact with a predetermined position on the display unit, a predetermined process based on an operation by the contact with the display unit is performed from the first state. And switching to the second state to be performed.
本発明に係る電子機器、操作制御方法および操作制御プログラムは、利用者が容易に操作位置を認識することができるという効果を奏する。 The electronic device, the operation control method, and the operation control program according to the present invention have an effect that the user can easily recognize the operation position.
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、タッチパネルを備える各種装置、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。 Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of an electronic device. However, the application target of the present invention is not limited to a mobile phone terminal, and various devices including a touch panel, for example, a PHS (Personal Handyphone System), a PDA The present invention can also be applied to portable navigation devices, personal computers, game machines, and the like.
(実施形態)
まず、図1を参照しながら、本発明に係る電子機器の一実施形態である携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す正面図である。図1に示すように、携帯電話端末1は、略六面体形状の筐体を有し、その筐体の表面にタッチパネル2と、入力部3と、スピーカ7と、マイク8とを備える。(Embodiment)
First, an external appearance of a
タッチパネル2は、面積が最も広い面の1つに設けられ、文字、図形、画像等を表示するとともに、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチパネル2に対して行われる各種操作を検出する。なお、タッチパネル2が各種操作を検出する方式は、静電容量式、抵抗膜式、感圧式等の任意の方式であってよい。入力部3は、所定の機能が割り当てられたボタン3A、ボタン3Bおよびボタン3C等の複数のボタンからなる。スピーカ7は、通話相手の音声や、各種プログラムによって再生される音楽や効果音等を出力する。マイク8は、通話時や音声による操作の受付時に音声を取得する。
The
次に、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように携帯電話端末1は、タッチパネル2と、入力部3と、振動部4と、電源部5と、通信部6と、スピーカ7と、マイク8と、記憶部9と、制御部10と、RAM(Random Access Memory)11とを有する。
Next, a functional configuration of the
タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ2A(検出部)とを有する。タッチセンサ2Aは、指を用いてタッチパネル2に対して行われた各種操作(表示部2Bに対する接触による操作)を、操作が行われた場所のタッチパネル2上での位置とともに検出し、制御部10に通知する。タッチセンサ2Aによって検出される操作には、タップ操作やスワイプ操作が含まれる。タップ操作とは、指をタッチパネル2に短時間接触させた後にタッチパネル2から離す操作である。スワイプ操作とは、指をタッチパネル2に接触させたままで移動させる操作である。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字や図形等を表示する。
The
入力部3は、物理的なボタン等を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を制御部10へ送信する。振動部4は、モータや圧電素子等を用いて振動を発生させることによって、少なくともタッチパネル2を直接的または間接的に振動させる。振動部4は、制御部10から入力される信号に応じて振動の強度を変更することができる。ここで、振動の強度を変更するということは、振動の周波数を変更することであってもよいし、振動の振幅を変更することであってもよいし、振動の周波数と振幅の両方を変更することであってもよい。
The
電源部5は、蓄電池または外部電源から得られる電力を、制御部10を含む携帯電話端末1の各機能部へ供給する。通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。スピーカ7は、制御部10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換して制御部10へ出力する。
The
記憶部9は、例えば、不揮発性メモリや磁気記憶装置等の記憶装置である。記憶部9は、制御部10での処理に利用されるプログラムやデータを保存する。記憶部9に記憶されるプログラムには、メールプログラム9Aと、ブラウザプログラム9Bと、操作制御プログラム9Cとが含まれる。また、記憶部9に記憶されるデータには、振動定義データ9Dが含まれる。記憶部9は、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムやアドレス帳データ等のその他のプログラムやデータも記憶する。
The
メールプログラム9Aは、電子メール機能を実現するための機能を提供する。ブラウザプログラム9Bは、WEBブラウジング機能を実現するための機能を提供する。操作制御プログラム9Cは、タッチパネル2によって検出された入力操作に応じて各種の機能を起動させる。また、操作制御プログラム9Cは、利用者に接触位置を認識させる機能を提供する。振動定義データ9Dは、操作制御プログラム9Cが提供する機能に応じて振動部4を振動させる強度とパターンについての定義を保持する。
The mail program 9A provides a function for realizing an electronic mail function. The
制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御して各種の機能を実現する。具体的には、制御部10は、記憶部9に記憶されているデータやRAM11に展開したデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムに含まれる命令を実行して、表示部2Bや、通信部6等を制御することによって各種機能を実現する。
The
なお、制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。また、制御部10が実行するプログラムや参照するデータは、携帯電話端末1が備える媒体読み取り装置(図示せず)が情報を読み出すことができる可搬の記憶媒体に記憶されていてもよい。
Note that the program executed by the
制御部10は、例えば、メールプログラム9Aを実行することによって、電子メール機能を実現する。また、制御部10は、ブラウザプログラム9Bを実行することによって、WEBブラウジング機能を実現する。また、制御部10は、操作制御プログラム9Cを実行することによって、利用者に接触位置を認識させる機能を含む各種機能を実現する。なお、制御部10は、オペレーティングシステムプログラムによって提供されるマルチタスク機能によって、複数のプログラムを並行して実行できるものとする。
For example, the
RAM11は、制御部10によって実行されるプログラムの命令、制御部10が参照するデータ、制御部10の演算結果等が一時的に記憶される記憶領域として利用される。
The
次に、図3を参照しながら、利用者に接触位置を認識させる機能について説明する。図3は、利用者に接触位置を認識させる機能を説明するための図である。 Next, a function for causing the user to recognize the contact position will be described with reference to FIG. FIG. 3 is a diagram for explaining a function for causing a user to recognize a contact position.
図3に示すように、稼働中の携帯電話端末1は、第1の状態または第2の状態のいずれかの状態をとる。第1の状態は、利用者に接触位置を認識させるための状態であり、第2の状態は、利用者の接触操作に応じて各種の処理(所定の処理)を実行するための状態である。
As shown in FIG. 3, the
図3のステップS11において、携帯電話端末1は、タッチパネル2に標準画面を表示したままで第1の状態をとっている。標準画面とは、通話機能、電子メール機能等の各種機能の機能を待ち受けている状態の画面である。換言すると、標準画面は、携帯電話端末1が提供する各種機能に応じた画面へ切り替わる前の画面である。なお、標準画面は、例えば、待受画面、初期画面、デスクトップ画面、ホーム画面、または、壁紙と呼ばれることもある。
In step S <b> 11 of FIG. 3, the
なお、第1の状態では、タッチパネル2の表示部2Bへの電力の供給を停止して表示部2Bを消灯させてもよい。ただし、表示部2Bへの電力の供給を停止する場合であっても、タッチセンサ2Aへの電力の供給は継続され、タッチセンサ2Aは、接触操作を検出可能なままに保たれる。
In the first state, the supply of power to the display unit 2B of the
携帯電話端末1は、標準画面上に複数のアイコンI1を表示させる。アイコンI1は、それぞれが特定の機能と対応づけられた画像オブジェクトであり、等間隔で配列される。携帯電話端末1が第2の状態にある場合、いずれかのアイコンI1の表示領域内での接触操作がタッチパネル2によって検出されると、携帯電話端末1は、接触操作が検出されたアイコンI1に対応する機能(所定の処理)を実行する。
The
一方、携帯電話端末1が第1の状態にある場合、アイコンI1は、利用者に接触位置を認識させる手がかりとして利用される。具体的には、携帯電話端末1が第1の状態にある場合、いずれかのアイコンI1の表示領域内での接触操作がタッチパネル2によって検出されると、携帯電話端末1は、振動部4にタッチパネル2を振動させる。振動の強度やパターンは、接触操作が検出されたアイコンI1に応じて変更される。このため、利用者は、接触操作に応じて発生した振動の強度やパターンに基づいて、自分がどのアイコンI1に対して接触操作を行ったかを認識することができる。なお、第1の状態では、接触による操作に基づく所定の処理を行わないため、アイコンI1への接触操作が検出されたとしても、振動を発生させるのみでアイコンI1に対応する機能は実行されない。
On the other hand, when the
また、携帯電話端末1が第1の状態にある場合、タッチパネル2上の所定の位置に基準位置B1が設定される。利用者は、基準位置B1がタッチパネル2上のどこにあるかを知っており(例えば、タッチパネル2上の中心部)、また、基準位置B1からみたアイコンI1等の各オブジェクトの相対位置を予め覚えている。携帯電話端末1は、基準位置B1が設定された位置、または、基準位置B1を含むアイコンI1の表示領域内での接触操作がタッチパネル2によって検出されると、第2の状態へ遷移する。
Further, when the
すなわち、利用者は、振動の強度やパターンに基づいて基準位置B1を探り当てた後は、既知の相対位置に基づいて任意のオブジェクトに対して接触操作を行い、そのオブジェクトに対応する機能を起動させることができる。 That is, after finding the reference position B1 based on the vibration intensity and pattern, the user performs a contact operation on an arbitrary object based on a known relative position, and activates a function corresponding to the object. be able to.
図3に示す例では、タッチパネル2の中央付近に基準位置B1が設けられている。中央付近は、タッチパネル2上のいずれの位置とも比較的近いため、タッチパネル2上の任意の位置に対して接触操作を行う手がかりを設定する位置として好適である。なお、基準位置B1を設定する位置は、利用者の指定や、第1の状態において表示される画面において入力を受け付けるボタンやアイコン等のオブジェクトの配置に応じて変更してもよい。
In the example shown in FIG. 3, the reference position B <b> 1 is provided near the center of the
図3に示すステップS12では、利用者が、タッチパネル2上の位置P1で接触操作を行っている。位置P1は、タッチパネル2の右上に表示されているアイコンI1の表示領域に含まれる。このため、携帯電話端末1は、位置P1での接触操作をタッチパネル2が検出すると、位置P1を含むアイコンI1に対応する強度およびパターンで振動部4を振動させる。アイコンI1等のオブジェクトと振動の強度およびパターンとの対応は、振動定義データ9Dにおいて定義されている。
In step S <b> 12 illustrated in FIG. 3, the user performs a contact operation at a position P <b> 1 on the
図4は、振動定義データ9Dの一例を示す図である。図4に示す振動定義データ9Dは、表示位置、強度、パターンという項目を有し、オブジェクトごとにデータが登録されている。表示位置は、オブジェクトが表示される位置である。強度は、オブジェクトに対応する振動の強度であり、数値が大きいほど強度が強いことを意味する。パターンは、オブジェクトに対応する振動のパターンであり、一定期間振動を発生させることを示す黒丸と一定期間振動の発生を抑制することを示す白丸との組み合わせが設定されている。
FIG. 4 is a diagram illustrating an example of the
図4に示す振動定義データ9Dでは、オブジェクトごとに強度またはパターンの少なくとも一方が異なっている。このように、振動定義データ9Dを設定することにより、利用者は、接触操作の対象となったオブジェクトを振動の強度およびパターンに基づいて識別することができる。なお、振動定義データ9Dは、予め設定されているものでも良いし、利用者が個々に設定するものでもよい。
In the
図5は、振動定義データ9Dの他の例を示す図である。図5に示す振動定義データ9Dは、基準位置からの距離、強度、パターンという項目を有し、基準位置からの距離ごとにデータが登録されている。基準位置からの距離は、基準位置B1からのオブジェクトの距離を示す値である。基準位置からの距離は、オブジェクトの表示領域内に基準位置B1が存在する場合に0となり、オブジェクトが基準位置B1から遠くなるほど大きな値となる。強度は、オブジェクトに対応する振動の強度である。パターンは、オブジェクトに対応する振動のパターンである。
FIG. 5 is a diagram illustrating another example of the
図5に示す振動定義データ9Dは、オブジェクトが基準位置B1から遠くなるほど、振動の強度が弱くなり、1パターン内での振動時間が短くなるように設定されている。このように基準位置B1からの距離に応じて振動の強度およびパターンを一定の法則に従って変化させることにより、利用者は、それぞれのオブジェクトに対応する振動の強度やパターンを覚えていなくても、基準位置B1を探り当てることができる。
The
ステップS13では、利用者が、タッチパネル2の振動の強度およびパターンに基づいて基準位置B1をおおまかに探り当て、基準位置B1の近傍の位置P2で接触操作を行っている。位置P2は、タッチパネル2の中央に表示されているアイコンI1の表示領域に含まれ、同じ表示領域内に基準位置B1が存在する。このように、基準位置B1と同一表示領域内での接触操作をタッチパネル2が検出すると、携帯電話端末1は、その領域に表示されているアイコンI1に対応する強度およびパターンで振動部4を振動させた後、ステップS14として、第2の状態へ遷移する。
In step S13, the user roughly searches the reference position B1 based on the vibration intensity and pattern of the
このとき、利用者は、自分が基準位置B1を含むアイコンI1に対して接触操作を行ったことと、それによって携帯電話端末1が第2の状態へ遷移したことを知ることができる。また、利用者は、基準位置B1と各アイコンI1との相対位置に関する知識と、感知した振動の強度およびパターンとから、それぞれのアイコンI1がどこに配置されているかを目で見て確認しなくてもほぼ正確に推測することができる。
At this time, the user can know that he / she performed the touch operation on the icon I1 including the reference position B1 and that the
なお、第1の状態から第2の状態に際しては、状態の遷移を利用者が確実に認識できるように、発生させる振動の強度およびパターンを他の場面と明確に異ならせることが好ましい。また、状態の遷移を利用者が確実に認識できるようにするために、スピーカ7からの通知音の出力等の他の通知手段を併用してもよい。
In addition, it is preferable to make the intensity | strength and pattern of the vibration to generate | occur | produce clearly differ from another scene so that a user can recognize a state transition reliably from the 1st state to the 2nd state. Further, in order to enable the user to reliably recognize the state transition, other notification means such as a notification sound output from the
図3に示すステップS15では、利用者が、タッチパネル2上の位置P3で接触操作を行っている。位置P3は、位置P1と同様に、タッチパネル2の右上に表示されているアイコンI1の表示領域に含まれる。携帯電話端末1は、第2の状態へ遷移しているため、位置P3での接触操作をタッチパネル2が検出すると、位置P3を含むアイコンI1に対応付けられている機能を実行する。このとき、携帯電話端末1は、機能が実行されたことを示すために、振動部4に振動を発生させる。このときの振動の強度およびパターンは、第1の状態において位置P3での接触操作が検出された場合と同一であってもよいし、異なっていてもよい。
In step S <b> 15 shown in FIG. 3, the user performs a contact operation at a position P <b> 3 on the
例えば、位置P3を含むアイコンI1に対応付けられている機能が受信メールの一覧を表示する機能であるものとする。この場合、携帯電話端末1は、ステップS16のように、位置P3での接触操作に応じて、受信メール一覧画面をタッチパネル2に表示させる。
For example, it is assumed that the function associated with the icon I1 including the position P3 is a function for displaying a list of received mails. In this case, the
このように、携帯電話端末1は、タッチパネル2上に表示されたオブジェクトに対する接触操作に応じてオブジェクトに対応づけられた機能を起動させる第2の状態以外に、第1の状態をとることで、利用者に接触操作の接触位置を認識させる。すなわち、携帯電話端末1は、利用者が、接触位置を認識して容易に所望の機能を起動させることができるように構成されている。
Thus, the
なお、基準位置B1を含むアイコンI1は、第1の状態においては、第1の状態から第2の状態への遷移のための特別な領域として扱われるが、第2の状態においては、他のアイコンI1と同様に扱われる。すなわち、第2の状態においては、基準位置B1を含むアイコンI1は、対応付けられた機能を起動させるための領域として利用される。また、携帯電話端末1は、タッチパネル上に表示されたアイコンI1のうち、基準位置B1を含むアイコンI1への接触操作に対してのみ振動を発生させ、それ以外のアイコンI1への接触操作に対して振動を発生させないようにしても良い。
Note that the icon I1 including the reference position B1 is treated as a special region for the transition from the first state to the second state in the first state, but in the second state, It is handled in the same manner as the icon I1. That is, in the second state, the icon I1 including the reference position B1 is used as an area for starting the associated function. Further, the
次に、図6および図7を参照しながら、上記の第1の状態と第2の状態とにおいて携帯電話端末1が実行する制御の処理手順について説明する。図6は、第1の状態における接触操作制御の処理手順を示すフローチャートである。図7は、第2の状態における接触操作制御の処理手順を示すフローチャートである。なお、図6および図7に示す処理手順は、制御部10が操作制御プログラム9Cを実行することによって実現される。
Next, a control processing procedure executed by the
図6に示すように、携帯電話端末1が第1の状態にある場合、制御部10は、ステップS101として、表示部2Bへの接触操作が検出されたかを判定する。接触操作が検出されない場合(ステップS101,No)、制御部10は、ステップS101の判定を再実行する。
As shown in FIG. 6, when the
接触操作が検出された場合(ステップS101,Yes)、制御部10は、ステップS102として、その接触操作の行われた位置がアイコン等のオブジェクトの表示領域内かを判定する。接触操作の行われた位置がオブジェクトの表示領域内でない場合(ステップS102,No)、制御部10は、ステップS101以降を再実行する。
When a contact operation is detected (step S101, Yes), the
接触操作の行われた位置がオブジェクトの表示領域内である場合(ステップS102,Yes)、制御部10は、ステップS103として、そのオブジェクトに対応する振動の強度およびパターンを振動定義データ9Dから取得する。そして、制御部10は、ステップS104として、振動部4に、取得した強度およびパターンでタッチセンサ2Aを振動させる。
When the position where the contact operation is performed is within the display area of the object (step S102, Yes), the
続いて、制御部10は、ステップS105として、接触操作の行われたオブジェクトの表示領域内に基準位置B1があるかを判定する。基準位置B1がない場合(ステップS105,No)、制御部10は、ステップS101以降を再実行する。一方、基準位置B1がある場合(ステップS105,Yes)、制御部10は、ステップS106として、携帯電話端末1を第2の状態へ切り替える。
Subsequently, in step S105, the
図7に示すように、携帯電話端末1が第2の状態にある場合、制御部10は、ステップS201として、表示部2Bへの接触操作が検出されたかを判定する。接触操作が検出された場合(ステップS201,Yes)、制御部10は、ステップS202として、その接触操作の行われた位置がアイコン等のオブジェクトの表示領域内かを判定する。接触操作の行われた位置がオブジェクトの表示領域内でない場合(ステップS202,No)、制御部10は、ステップS201以降を再実行する。
As shown in FIG. 7, when the
接触操作の行われた位置がオブジェクトの表示領域内である場合(ステップS202,Yes)、制御部10は、ステップS203として、そのオブジェクトに対応する振動の強度およびパターンを振動定義データ9Dから取得する。そして、制御部10は、ステップS204として、振動部4に、取得した強度およびパターンでタッチセンサ2Aを振動させる。また、制御部10は、ステップS205として、そのオブジェクトに対応づけられた機能を起動させる。そして、制御部10は、ステップS201以降を再実行する。
When the position where the contact operation is performed is within the display area of the object (step S202, Yes), the
ステップS201で接触操作が検出されない場合(ステップS201,No)、制御部10は、ステップS206として、第1の状態への状態移行を行うかを判定する。第1の状態への状態移行は、例えば、接触操作が所定期間以上検出されない場合や、入力部3で所定の操作が検出された場合に行われる。状態移行を行わない場合(ステップS206,No)、制御部10は、ステップS201以降を再実行する。一方、状態移行を行う場合(ステップS206,Yes)、制御部10は、ステップS207として、携帯電話端末1を第1の状態へ切り替える。
When the contact operation is not detected in step S201 (step S201, No), the
上述してきたように、本実施形態に係る携帯電話端末1は、第1の状態において接触操作を受け付けた場合に接触位置に応じた強度やパターンでタッチパネル2を振動させるように構成されているので、利用者に接触位置を認識させることができる。
As described above, the
なお、上記の実施形態で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施形態では、表示手段としてタッチパネル2を有する電子機器に本発明を適用する例について説明したが、本発明は、表示部2Bとタッチセンサ2Aとが重畳されていない電子機器にも適用することもできる。この場合、本発明は、タッチセンサ2A上のどの位置で接触操作を行っているかを利用者に認識させるために利用される。
In addition, the aspect of this invention shown by said embodiment can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, in the above embodiment, an example in which the present invention is applied to an electronic device having the
また、上記の実施形態では、制御部10は、第2の状態において、接触操作の行われた位置がオブジェクトの表示領域内である場合、そのオブジェクトに対応づけられた機能を起動させるが、本発明は、基準位置があるオブジェクトについては、第1の状態において、接触操作が行われた位置がそのオブジェクトの表示領域内である場合、そのオブジェクトに対応する振動の強度およびパターンでタッチパネル2を振動させるとともに、そのオブジェクトに対応付けられた機能を起動させてもよい。
In the above embodiment, the
また、本発明の基準位置は、タッチパネル2(タッチセンサ2A)の中心位置としてもよい。
The reference position of the present invention may be the center position of the touch panel 2 (
また、上記の実施形態では、第1の状態においてタッチパネル2に標準画面が表示されていることとしたが、第1の状態において表示される画面は標準画面に限定されない。第1の状態においてタッチパネル2に標準画面以外の画面が表示されている場合、何らかの機能が割り当てられているボタン等のオブジェクトに対する接触操作が検出された際にそのオブジェクトに応じて振動を発生させればよい。また、振動の強度やパターンは、画面ごとに設定してもよい。
In the above embodiment, the standard screen is displayed on the
例えば、第1の状態においてタッチパネル2に仮想キーボードが表示されている場合には、仮想キーボード上の各ボタンに対する接触操作が検出された際にそのボタンに応じて振動を発生させればよい。図10および図11を参照しながら、仮想キーボードが表示されている場合の例について説明する。
For example, when a virtual keyboard is displayed on the
図10は、QWERTY配列の仮想キーボード21がタッチパネル2に表示されている例を示す図である。このように、QWERTY配列の仮想キーボード21が表示されている場合、第1の状態においては、「A」、「B」等の文字に対応するボタンや「BS」等の機能キーに対応するボタンに対する接触操作が検出された際にそのボタンに応じて振動を発生させればよい。また、QWERTY配列の仮想キーボード21が表示されている場合、「F」に対応するボタンの表示領域内に基準位置B2を設け、「J」に対応するボタンの表示領域内に基準位置B3を設けるというように、人差し指のホームポジションに対応するボタンの表示領域内に基準位置を設けることが好ましい。人差し指のホームポジションに対応するボタンの表示領域内に基準位置を設けることにより、第2の状態に移行した後に他のボタンの位置を把握し易くなる。この場合、接触操作が、「F」に対応するボタンの表示領域内の位置と、「J」に対応するボタンの表示領域内の位置に同時に行われたと判定された場合、第2の状態に移行してもよい。
FIG. 10 is a diagram illustrating an example in which the
図11は、テンキー配列の仮想キーボード22がタッチパネル2に表示されている例を示す図である。このように、テンキー配列の仮想キーボード22が表示されている場合、第1の状態においては、「1」、「2」等の数字に対応するボタンや「BS」等の機能キーに対応するボタンに対する接触操作が検出された際にそのボタンに応じて振動を発生させればよい。また、テンキー配列の仮想キーボード22が表示されている場合、数字に対応するボタンの中で中央に配置されている「5」に対応するボタンの表示領域内に基準位置B4を設けることが好ましい。「5」に対応するボタンのように、中央に配置されているボタンの表示領域内に基準位置B4を設けることにより、第2の状態に移行した後に他のボタンの位置を把握し易くなる。なお、図10および図11では図示の都合上、基準位置B2、B3、B4がボタンの表示領域の中央に位置していないが、これらの基準位置は、ボタンの表示領域の中央に位置することが好ましい。
FIG. 11 is a diagram showing an example in which a
また、上記の実施形態では、第1の状態においてオブジェクトごとに振動の強度やパターンを変化させることとしたが、接触位置がどの領域に含まれるかに関わりなく、接触位置から基準位置までの距離や方向に応じて振動の強度やパターンを変化させてもよい。この場合、基準位置から所定の距離内で接触操作が検出された場合に、第2の状態へ遷移することとしてもよい。 In the above embodiment, the vibration intensity and pattern are changed for each object in the first state, but the distance from the contact position to the reference position regardless of which region the contact position is included in. The intensity and pattern of vibration may be changed according to the direction. In this case, when a contact operation is detected within a predetermined distance from the reference position, the state may be changed to the second state.
また、タッチパネル2に圧電素子や歪みゲージセンサ等を配設することにより、タッチパネル2に対する接触操作の押圧力(押圧)を検出することができる場合(タッチパネル2(検出部)が押圧力を検出することができる場合)は、第1の状態において接触操作が検出されても、接触操作の押圧力(押圧に基づく電圧値、抵抗値等のデータ値)が閾値よりも小さければ振動を発生させないこととしてもよい。図8を参照しながら、この場合の動作について説明する。図8は、第1の状態における接触操作制御の処理手順の変形例を示すフローチャートである。
Moreover, when the pressing force (pressing) of the contact operation with respect to the
図8に示すように、携帯電話端末1が第1の状態にある場合、制御部10は、ステップS301として、表示部2Bへの接触操作が検出されたかを判定する。接触操作が検出されない場合(ステップS301,No)、制御部10は、ステップS301の判定を再実行する。
As shown in FIG. 8, when the
接触操作が検出された場合(ステップS301,Yes)、制御部10は、ステップS302として、その接触操作の行われた位置がアイコン等のオブジェクトの表示領域内かを判定する。接触操作の行われた位置がオブジェクトの表示領域内でない場合(ステップS302,No)、制御部10は、ステップS301以降を再実行する。
When a contact operation is detected (step S301, Yes), the
接触操作の行われた位置がオブジェクトの表示領域内である場合(ステップS302,Yes)、制御部10は、ステップS303として、接触操作の押圧力が閾値以上であるかを判定する。接触操作の押圧力が閾値以上でない場合(ステップS303,No)、制御部10は、ステップS301以降を再実行する。
When the position where the contact operation is performed is within the display area of the object (step S302, Yes), the
接触操作の押圧力が閾値以上である場合(ステップS303,Yes)、制御部10は、ステップS304として、そのオブジェクトに対応する振動の強度およびパターンを振動定義データ9Dから取得する。そして、制御部10は、ステップS305として、振動部4に、取得した強度およびパターンでタッチセンサ2Aを振動させる。
When the pressing force of the contact operation is equal to or greater than the threshold (Yes at Step S303), the
続いて、制御部10は、ステップS306として、接触操作の行われたオブジェクトの表示領域内に基準位置B1があるかを判定する。基準位置B1がない場合(ステップS306,No)、制御部10は、ステップS301以降を再実行する。一方、基準位置B1がある場合(ステップS306,Yes)、制御部10は、ステップS307として、携帯電話端末1を第2の状態へ切り替える。
Subsequently, in step S306, the
このように接触操作の押圧力を条件に加えることにより、予期せぬ接触によって携帯電話端末1が第1の状態から第2の状態へ遷移することを抑止できる。
Thus, by applying the pressing force of the contact operation to the condition, the
また、第2の状態において、利用者が接触位置がどこであるかを確認した上で接触位置に応じた機能を起動させることができるようにしてもよい。図9を参照しながら、この場合の動作について説明する。図9は、第2の状態における接触操作制御の処理手順の変形例を示すフローチャートである。 Further, in the second state, the user may activate the function corresponding to the contact position after confirming where the contact position is. The operation in this case will be described with reference to FIG. FIG. 9 is a flowchart showing a modification of the processing procedure of the contact operation control in the second state.
図9に示すように、携帯電話端末1が第2の状態にある場合、制御部10は、ステップS401として、表示部2Bへの接触操作が検出されたかを判定する。接触操作が検出された場合(ステップS401,Yes)、制御部10は、ステップS402として、その接触操作の行われた位置がアイコン等のオブジェクトの表示領域内かを判定する。接触操作の行われた位置がオブジェクトの表示領域内でない場合(ステップS402,No)、制御部10は、ステップS401以降を再実行する。
As shown in FIG. 9, when the
接触操作の行われた位置がオブジェクトの表示領域内である場合(ステップS402,Yes)、制御部10は、ステップS403として、検出された接触操作が第1の操作であるかを判定する。ここで、第1の操作とは、接触位置を確認するために行われる操作である。第1の操作は、例えば、所定時間内にタップ操作を1度だけ行うシングルタップ操作である。
When the position where the contact operation is performed is within the display area of the object (step S402, Yes), the
検出された接触操作が第1の操作である場合(ステップS403,Yes)、制御部10は、ステップS404として、接触位置を含むオブジェクトに対応する振動の強度およびパターンを振動定義データ9Dから取得する。そして、制御部10は、ステップS405として、振動部4に、取得した強度およびパターンでタッチセンサ2Aを振動させる。そして、制御部10は、ステップS401以降を再実行する。
When the detected contact operation is the first operation (step S403, Yes), the
検出された接触操作が第1の操作でない場合(ステップS403,No)、制御部10は、ステップS406として、検出された接触操作が第2の操作であるかを判定する。ここで、第2の操作とは、接触位置に対応する機能を起動させるために行われる操作である。第2の操作は、例えば、所定時間内にタップ操作を2回行うダブルタップ操作である。
When the detected contact operation is not the first operation (No at Step S403), the
検出された接触操作が第2の操作である場合(ステップS406,Yes)、制御部10は、ステップS407として、接触位置を含むオブジェクトに対応づけられた機能を起動させる。そして、制御部10は、ステップS401以降を再実行する。検出された接触操作が第2の操作でない場合(ステップS406,No)、制御部10は、いずれの機能も起動させることなく、ステップS401以降を再実行する。
When the detected contact operation is the second operation (step S406, Yes), the
ステップS401で接触操作が検出されない場合(ステップS401,No)、制御部10は、ステップS408として、第1の状態への状態移行を行うかを判定する。状態移行を行わない場合(ステップS408,No)、制御部10は、ステップS401以降を再実行する。一方、状態移行を行う場合(ステップS408,Yes)、制御部10は、ステップS409として、携帯電話端末1を第1の状態へ切り替える。
When the contact operation is not detected in step S401 (step S401, No), the
このように第2の状態において振動を発生させる操作と機能を起動させる操作とを区別することにより、利用者は、機能を起動させる前に接触位置を確認することが可能になり、その結果、誤動作が発生しにくくなる。なお、上記の説明における第1の操作と第1の操作の組み合わせは例であり、例えば、第1の操作が指をタッチパネル2に一定時間以上接触させるロングタップ(長押下)操作であり、第2の操作がシングルタップ操作であってもよい。また、第1の操作が指をタッチパネル2に接触させる操作であり、第2の操作が所定の閾値以上の押圧力でタッチパネルを押圧させる操作であってもよい。
In this way, by distinguishing between the operation that generates vibration in the second state and the operation that activates the function, the user can confirm the contact position before activating the function. Malfunctions are less likely to occur. The combination of the first operation and the first operation in the above description is an example. For example, the first operation is a long tap (long press) operation in which a finger is brought into contact with the
1 携帯電話端末
2 タッチパネル
2A タッチセンサ(検出部)
2B 表示部
3 入力部
4 振動部
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C 操作制御プログラム
9D 振動定義データ
10 制御部
11 RAMDESCRIPTION OF
Claims (15)
前記表示部に対する接触を検出する検出部と、
前記検出部を振動させる振動部と、
前記表示部に対する接触による操作に基づく所定の処理を行わない第1の状態と、前記表示部に対する接触による操作に基づく所定の処理を行う第2の状態とを切り替える制御部と、を備え、
前記制御部は、前記第1の状態において、前記表示部上の所定の位置に対する接触が前記検出部により検出された場合に、当該接触に基づいて前記振動部により前記検出部を振動させるとともに、前記第1の状態から前記第2の状態に切り替える
ことを特徴とする電子機器。A display unit;
A detection unit for detecting contact with the display unit;
A vibrating section for vibrating the detecting section;
A control unit that switches between a first state in which a predetermined process based on an operation by contact with the display unit is not performed and a second state in which a predetermined process is performed based on an operation by contact with the display unit;
In the first state, when the detection unit detects contact with a predetermined position on the display unit, the control unit vibrates the detection unit with the vibration unit based on the contact, The electronic device is switched from the first state to the second state.
前記制御部は、前記第1の状態から前記第2の状態へ切り替えた後に、前記表示部に表示された前記複数のオブジェクトのうち一のオブジェクトに対する接触が前記検出部により検出された場合に、当該接触による操作に基づく所定の処理として前記一のオブジェクトに対応づけられた機能を実行することを特徴とする請求項1に記載の電子機器。The display unit displays a plurality of objects each associated with a function,
The control unit, when switching from the first state to the second state, when contact with one object among the plurality of objects displayed on the display unit is detected by the detection unit, The electronic apparatus according to claim 1, wherein a function associated with the one object is executed as a predetermined process based on an operation by the contact.
前記制御部は、前記検出部により前記表示部上の前記所定の位置に対する接触であって所定の閾値以上の押圧による接触が検出された場合に、当該接触に基づいて前記振動部により前記検出部を振動させるとともに、前記第1の状態から前記第2の状態に切り替えることを特徴とする請求項1から8のいずれか1項に記載の電子機器。The detection unit further detects a pressure generated in contact with the display unit,
When the detection unit detects that the detection unit is in contact with the predetermined position on the display unit and is pressed by a pressure greater than or equal to a predetermined threshold value, the control unit detects the detection unit based on the contact. The electronic apparatus according to claim 1, wherein the electronic device is switched from the first state to the second state.
前記表示部に対する接触を検出する検出部と、
前記検出部を振動させる振動部と、を備える電子機器によって実行される操作制御方法であって、
前記表示部に対する接触による操作に基づく所定の処理を行わない第1の状態において、前記検出部が、前記表示部に対する接触を検出するステップと、
前記検出部によって検出された接触に基づいて前記振動部が前記表示部を振動させるステップと、
前記第1の状態において、前記検出部が前記表示部上の所定の位置に対する接触を検出した場合に、前記第1の状態から、前記表示部に対する接触による操作に基づく所定の処理を行う第2の状態へ切り替えるステップと
を含むことを特徴とする操作制御方法。A display unit;
A detection unit for detecting contact with the display unit;
An operation control method executed by an electronic device including a vibration unit that vibrates the detection unit,
In a first state in which a predetermined process based on an operation by contact with the display unit is not performed, the detection unit detects contact with the display unit;
The step of causing the vibration unit to vibrate the display unit based on the contact detected by the detection unit;
In the first state, when the detection unit detects a contact with a predetermined position on the display unit, a second process is performed for performing a predetermined process based on an operation by the contact with the display unit from the first state. And a step of switching to the state.
前記表示部に対する接触を検出する検出部と、
前記検出部を振動させる振動部と、を備える電子機器に、
前記表示部に対する接触による操作に基づく所定の処理を行わない第1の状態において、前記検出部が、前記表示部に対する接触を検出するステップと、
前記検出部によって検出された接触に基づいて前記振動部が前記検出部を振動させるステップと、
前記第1の状態において、前記検出部が前記表示部上の所定の位置に対する接触を検出した場合に、前記第1の状態から、前記表示部に対する接触による操作に基づく所定の処理を行う第2の状態へ切り替えるステップと
を実行させることを特徴とする操作制御プログラム。A display unit;
A detection unit for detecting contact with the display unit;
In an electronic device comprising a vibration unit that vibrates the detection unit,
In a first state in which a predetermined process based on an operation by contact with the display unit is not performed, the detection unit detects contact with the display unit;
The step of causing the vibration unit to vibrate the detection unit based on the contact detected by the detection unit;
In the first state, when the detection unit detects a contact with a predetermined position on the display unit, a second process is performed for performing a predetermined process based on an operation by the contact with the display unit from the first state. And a step of switching to the state.
前記タッチセンサを振動させる振動部と、
前記タッチセンサに対する接触による操作に基づく所定の処理を行わない第1の状態と、前記タッチセンサに対する接触による操作に基づく所定の処理を行う第2の状態とを切り替える制御部と、を備え、
前記制御部は、前記第1の状態において、前記タッチセンサ上の所定の位置に対する接触が検出された場合に、当該接触に基づいて前記振動部により前記タッチセンサを振動させるとともに、前記第1の状態から前記第2の状態に切り替える
ことを特徴とする電子機器。A touch sensor;
A vibrating section for vibrating the touch sensor;
A control unit that switches between a first state in which a predetermined process based on an operation by contact with the touch sensor is not performed and a second state in which a predetermined process is performed based on an operation by contact with the touch sensor;
In the first state, when a contact with a predetermined position on the touch sensor is detected, the control unit vibrates the touch sensor with the vibration unit based on the contact, and An electronic device characterized by switching from a state to the second state.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084790 | 2011-04-06 | ||
JP2011084790 | 2011-04-06 | ||
PCT/JP2012/059583 WO2012137946A1 (en) | 2011-04-06 | 2012-04-06 | Electronic device, operation-control method, and operation-control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2012137946A1 true JPWO2012137946A1 (en) | 2014-07-28 |
Family
ID=46969334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013508953A Pending JPWO2012137946A1 (en) | 2011-04-06 | 2012-04-06 | Electronic device, operation control method, and operation control program |
Country Status (3)
Country | Link |
---|---|
US (1) | US9733708B2 (en) |
JP (1) | JPWO2012137946A1 (en) |
WO (1) | WO2012137946A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018142345A (en) * | 2012-12-29 | 2018-09-13 | アップル インコーポレイテッドApple Inc. | Device, method, and graphical user interface for foregoing generation of tactile output for multi-touch gestures |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6002836B2 (en) | 2012-05-09 | 2016-10-05 | アップル インコーポレイテッド | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
CN105260049B (en) | 2012-05-09 | 2018-10-23 | 苹果公司 | For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
CN108052264B (en) | 2012-05-09 | 2021-04-27 | 苹果公司 | Device, method and graphical user interface for moving and placing user interface objects |
CN106201316B (en) | 2012-05-09 | 2020-09-29 | 苹果公司 | Apparatus, method and graphical user interface for selecting user interface objects |
EP3185116B1 (en) | 2012-05-09 | 2019-09-11 | Apple Inc. | Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface |
EP2847662B1 (en) | 2012-05-09 | 2020-02-19 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
KR102301592B1 (en) | 2012-12-29 | 2021-09-10 | 애플 인크. | Device, method, and graphical user interface for navigating user interface hierachies |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
AU2013368445B8 (en) | 2012-12-29 | 2017-02-09 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select contents |
KR102475306B1 (en) | 2014-09-02 | 2022-12-08 | 애플 인크. | Semantic framework for variable haptic output |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
JP2016218564A (en) * | 2015-05-15 | 2016-12-22 | 株式会社東海理化電機製作所 | Tactile sense presentation device |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
JP6587941B2 (en) * | 2016-01-14 | 2019-10-09 | 株式会社デンソーテン | Input device, display device, and vibration detection method for input device |
DK201670737A1 (en) | 2016-06-12 | 2018-01-22 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback |
DK179823B1 (en) | 2016-06-12 | 2019-07-12 | Apple Inc. | Devices, methods, and graphical user interfaces for providing haptic feedback |
DK179278B1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, methods and graphical user interfaces for haptic mixing |
DK201670720A1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs |
DK201770372A1 (en) | 2017-05-16 | 2019-01-08 | Apple Inc. | Tactile feedback for locked device user interfaces |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137576A (en) * | 1998-10-30 | 2000-05-16 | Nec Corp | Touch panel type input device |
JP2000222129A (en) * | 1999-02-03 | 2000-08-11 | Harness Syst Tech Res Ltd | Touch panel switch |
JP2007115157A (en) * | 2005-10-24 | 2007-05-10 | Softbank Mobile Corp | Key operation feeling imparting method and portable information device |
JP2008191086A (en) * | 2007-02-07 | 2008-08-21 | Matsushita Electric Ind Co Ltd | Navigation system |
JP2009521753A (en) * | 2005-12-23 | 2009-06-04 | アップル インコーポレイテッド | Unlocking a device by making a gesture on the unlock image |
US20100099394A1 (en) * | 2008-10-17 | 2010-04-22 | Sony Ericsson Mobile Communications Ab | Method of unlocking a mobile electronic device |
JP2010224658A (en) * | 2009-03-19 | 2010-10-07 | Smk Corp | Operation input device |
JP2011028635A (en) * | 2009-07-28 | 2011-02-10 | Sony Corp | Display control apparatus, display control method and computer program |
WO2011024584A1 (en) * | 2009-08-27 | 2011-03-03 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2011024465A1 (en) * | 2009-08-27 | 2011-03-03 | 京セラ株式会社 | Input device |
JP2011048848A (en) * | 2010-10-27 | 2011-03-10 | Kyocera Corp | Input device and method for controlling the same |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3949912B2 (en) | 2000-08-08 | 2007-07-25 | 株式会社エヌ・ティ・ティ・ドコモ | Portable electronic device, electronic device, vibration generator, notification method by vibration and notification control method |
FI112415B (en) * | 2001-11-28 | 2003-11-28 | Nokia Oyj | Piezoelectric user interface |
JP3937982B2 (en) * | 2002-08-29 | 2007-06-27 | ソニー株式会社 | INPUT / OUTPUT DEVICE AND ELECTRONIC DEVICE HAVING INPUT / OUTPUT DEVICE |
JP4717461B2 (en) * | 2005-02-14 | 2011-07-06 | キヤノン株式会社 | Information input device, information input method, and information input program |
US8120584B2 (en) * | 2006-12-21 | 2012-02-21 | Cypress Semiconductor Corporation | Feedback mechanism for user detection of reference location on a sensing device |
JP2009009412A (en) | 2007-06-28 | 2009-01-15 | Canon Inc | Information presentation device and information presentation method |
JP2009134473A (en) * | 2007-11-29 | 2009-06-18 | Sony Corp | Pressing detection sensor, input device and electronic equipment |
KR101498623B1 (en) * | 2008-06-25 | 2015-03-04 | 엘지전자 주식회사 | A mobile terminal and a control method thereof |
JP4875050B2 (en) * | 2008-12-09 | 2012-02-15 | 京セラ株式会社 | Input device |
JP4633166B2 (en) * | 2008-12-22 | 2011-02-16 | 京セラ株式会社 | Input device and control method of input device |
US20100214239A1 (en) * | 2009-02-23 | 2010-08-26 | Compal Electronics, Inc. | Method and touch panel for providing tactile feedback |
JP5343871B2 (en) * | 2009-03-12 | 2013-11-13 | 株式会社リコー | Touch panel device, display device with touch panel including the same, and control method for touch panel device |
KR101628782B1 (en) * | 2009-03-20 | 2016-06-09 | 삼성전자주식회사 | Apparatus and method for providing haptic function using multi vibrator in portable terminal |
JP2010244253A (en) * | 2009-04-03 | 2010-10-28 | Sony Corp | Information processing apparatus, notification method, and program |
JP5554517B2 (en) * | 2009-04-22 | 2014-07-23 | 富士通コンポーネント株式会社 | Touch panel position detection method and touch panel device |
KR101598335B1 (en) * | 2009-06-11 | 2016-02-29 | 엘지전자 주식회사 | Operating a Mobile Termianl |
JP5267388B2 (en) * | 2009-08-31 | 2013-08-21 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US8780055B2 (en) * | 2009-10-02 | 2014-07-15 | Blackberry Limited | Low power wakeup detection circuit and a portable electronic device having a low power wakeup detection circuit |
KR101657963B1 (en) * | 2009-12-08 | 2016-10-04 | 삼성전자 주식회사 | Operation Method of Device based on a alteration ratio of touch area And Apparatus using the same |
US20110248930A1 (en) * | 2010-04-08 | 2011-10-13 | Research In Motion Limited | Portable electronic device and method of controlling same to provide tactile feedback |
US20110285517A1 (en) * | 2010-05-18 | 2011-11-24 | Tai-Seng Lam | Terminal apparatus and vibration notification method thereof |
JP5639489B2 (en) * | 2011-01-25 | 2014-12-10 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
US20120242584A1 (en) * | 2011-03-22 | 2012-09-27 | Nokia Corporation | Method and apparatus for providing sight independent activity reports responsive to a touch gesture |
-
2012
- 2012-04-06 JP JP2013508953A patent/JPWO2012137946A1/en active Pending
- 2012-04-06 US US14/009,655 patent/US9733708B2/en not_active Expired - Fee Related
- 2012-04-06 WO PCT/JP2012/059583 patent/WO2012137946A1/en active Application Filing
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137576A (en) * | 1998-10-30 | 2000-05-16 | Nec Corp | Touch panel type input device |
JP2000222129A (en) * | 1999-02-03 | 2000-08-11 | Harness Syst Tech Res Ltd | Touch panel switch |
JP2007115157A (en) * | 2005-10-24 | 2007-05-10 | Softbank Mobile Corp | Key operation feeling imparting method and portable information device |
JP2009521753A (en) * | 2005-12-23 | 2009-06-04 | アップル インコーポレイテッド | Unlocking a device by making a gesture on the unlock image |
JP2008191086A (en) * | 2007-02-07 | 2008-08-21 | Matsushita Electric Ind Co Ltd | Navigation system |
US20100099394A1 (en) * | 2008-10-17 | 2010-04-22 | Sony Ericsson Mobile Communications Ab | Method of unlocking a mobile electronic device |
JP2010224658A (en) * | 2009-03-19 | 2010-10-07 | Smk Corp | Operation input device |
JP2011028635A (en) * | 2009-07-28 | 2011-02-10 | Sony Corp | Display control apparatus, display control method and computer program |
WO2011024584A1 (en) * | 2009-08-27 | 2011-03-03 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2011024465A1 (en) * | 2009-08-27 | 2011-03-03 | 京セラ株式会社 | Input device |
JP2011048669A (en) * | 2009-08-27 | 2011-03-10 | Kyocera Corp | Input device |
JP2011048848A (en) * | 2010-10-27 | 2011-03-10 | Kyocera Corp | Input device and method for controlling the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018142345A (en) * | 2012-12-29 | 2018-09-13 | アップル インコーポレイテッドApple Inc. | Device, method, and graphical user interface for foregoing generation of tactile output for multi-touch gestures |
Also Published As
Publication number | Publication date |
---|---|
US20140024414A1 (en) | 2014-01-23 |
US9733708B2 (en) | 2017-08-15 |
WO2012137946A1 (en) | 2012-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012137946A1 (en) | Electronic device, operation-control method, and operation-control program | |
US8786562B2 (en) | Mobile electronic device, control method, and storage medium storing control program | |
CA2739225C (en) | Method of providing tactile feedback and electronic device | |
JP6049990B2 (en) | Portable electronic device, screen control method, and screen control program | |
KR101115467B1 (en) | Terminal and method for providing virtual keyboard | |
JP5753432B2 (en) | Portable electronic devices | |
US20100201652A1 (en) | Embedded piezoelectric elements in touch panels | |
US20110279380A1 (en) | Method of providing tactile feedback and electronic device | |
JP5679782B2 (en) | Portable electronic device, screen control method, and screen control program | |
JP5806822B2 (en) | Portable electronic device, contact operation control method, and contact operation control program | |
JP2013143129A (en) | Screen enlargement device and method in electronic apparatus having touch screen | |
KR101354820B1 (en) | Electronic device and mode controlling method the same and mobile communication terminal | |
EP3211510B1 (en) | Portable electronic device and method of providing haptic feedback | |
JP2012174247A (en) | Mobile electronic device, contact operation control method, and contact operation control program | |
CA2739126C (en) | Method of providing tactile feedback and electronic device | |
JP2012208614A (en) | Portable electronic equipment | |
JP2012174251A (en) | Electronic equipment, contact operation control program and contact operation control method | |
JP5732219B2 (en) | Electronics | |
JP5995405B2 (en) | Portable electronic device, display switching method, and display switching program | |
JP6133451B2 (en) | Portable electronic device, screen control method, and screen control program | |
KR101147730B1 (en) | Terminal and method for providing virtual keyboard | |
CA2719844A1 (en) | Portable electronic device and method of controlling same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151013 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151208 |