JP2011028345A - Condition change device, camera, mobile apparatus and program - Google Patents
Condition change device, camera, mobile apparatus and program Download PDFInfo
- Publication number
- JP2011028345A JP2011028345A JP2009170702A JP2009170702A JP2011028345A JP 2011028345 A JP2011028345 A JP 2011028345A JP 2009170702 A JP2009170702 A JP 2009170702A JP 2009170702 A JP2009170702 A JP 2009170702A JP 2011028345 A JP2011028345 A JP 2011028345A
- Authority
- JP
- Japan
- Prior art keywords
- condition
- change
- image
- unit
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims description 19
- 238000012937 correction Methods 0.000 description 56
- 238000003384 imaging method Methods 0.000 description 40
- 238000012545 processing Methods 0.000 description 33
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 230000006837 decompression Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
Abstract
Description
本発明は、条件変更装置、カメラ、携帯機器、およびプログラムに関し、詳しくは、表示部としてタッチパネルを有し、このタッチパネルの操作状態に応じて動作条件を入力可能な条件変更装置、カメラ、携帯機器、およびプログラムに関する。 The present invention relates to a condition changing device, a camera, a portable device, and a program, and more specifically, a condition changing device, a camera, and a portable device that have a touch panel as a display unit and can input operating conditions according to the operation state of the touch panel. And related to the program.
タッチパネルの精度や透過性が向上してきており、最近では、デジタルカメラ、音楽プレーヤー、あるいは携帯電話等、小型の携帯機器に、タッチパネルが用いられている。これらの携帯機器は多機能化が進んでおり、タッチパネルにおいて種々の条件設定が必要とされ、かつ携帯機器であることから操作性も要求されている。 The accuracy and transparency of touch panels have improved, and recently, touch panels have been used in small portable devices such as digital cameras, music players, and mobile phones. These mobile devices are becoming increasingly multifunctional, and various conditions need to be set on the touch panel, and operability is also required because they are mobile devices.
タッチパネルをデジタルカメラに利用した例として、例えば、特許文献1がある。この特許文献1には、カメラボディのグリップ部が把持されていない再生状態では、背面のタッチパネル付き表示部の全面に画像を表示し、グリップ部が把持された撮影状態では、画面の底部にキーアイコンを表示するデジタルカメラが提案されている。 As an example in which a touch panel is used in a digital camera, for example, there is Patent Document 1. In Patent Document 1, an image is displayed on the entire surface of a display unit with a touch panel on the back in a playback state where the grip portion of the camera body is not gripped, and a key is displayed on the bottom of the screen in a shooting state where the grip portion is gripped. Digital cameras that display icons have been proposed.
また、タッチパネルの操作態様は、画面の所定部分に各項目が表示され、希望する項目にタッチすると、その項目の条件が実行され、あるいはその項目に対応する新たな画面に切り換わるものが一般的である。しかし、最近では、タッチパネルの画面上での回転を検出し、ジョグダイヤル風の操作を可能とし、また、複数個所への同時タッチを検出できるタッチパネルも開発されている。 In general, the touch panel operation mode is such that each item is displayed in a predetermined part of the screen, and when the desired item is touched, the condition of the item is executed or the screen is switched to a new screen corresponding to the item. It is. However, recently, a touch panel has been developed that detects rotation of the touch panel on the screen, enables operation like a jog dial, and can detect simultaneous touches at a plurality of locations.
上述したように、最近では単なるタッチ操作だけではなく、複数動作タッチや回動等、多様な入力が可能となってきている。このような多様な入力操作を上手に活用することにより、幅広い入力操作が可能となる。しかし、複数の入力操作の態様を単に盛り込んだだけでは、初心者には煩雑な操作に戸惑ってしまい使いづらいものとなってしまうおそれがある。携帯機器は屋外で使用されることが多く、機器自体の使用される態様に、複数の入力操作をマッチさせる必要がある。 As described above, recently, various inputs such as a multi-operation touch and a rotation are possible as well as a simple touch operation. By making good use of such various input operations, a wide range of input operations can be performed. However, simply including a plurality of input operation modes may be confusing for beginners and may be difficult to use. Mobile devices are often used outdoors, and it is necessary to match a plurality of input operations to the mode in which the device itself is used.
本発明は、このような事情を鑑みてなされたものであり、タッチパネルからの入力で条件変更を行う場合、入力操作の態様を使い分けて条件変更を行う条件変更装置、カメラ、携帯機器、およびプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and in the case of changing a condition by an input from a touch panel, a condition changing device, a camera, a portable device, and a program for changing a condition by properly using an input operation mode The purpose is to provide.
上記目的を達成するため第1の発明に係わる条件変更装置は、機器の動作条件を変更させる条件変更装置において、画像が表示される表示部と、上記表示部に設けられたタッチパネルと、上記タッチパネルへの入力操作を検出する検出部と、上記入力操作の態様に基づき、変更される条件の種類を設定する変更条件設定部と、設定された上記変更条件の種類に応じて、当該変更条件の具体的なパラメータを設定するための操作補助画像を上記表示部の画面に表示させる操作画像表示部と、上記操作補助画像が表示される画面に対する入力操作に基づき、当該変更条件のパラメータを変更するパラメータ変更部と、を備える。 In order to achieve the above object, a condition changing apparatus according to a first aspect of the present invention is a condition changing apparatus for changing an operating condition of a device, wherein a display unit for displaying an image, a touch panel provided on the display unit, and the touch panel are provided. A detection unit that detects an input operation to the input device, a change condition setting unit that sets a type of a condition to be changed based on the mode of the input operation, and the change condition according to the set type of the change condition. An operation image display unit that displays an operation auxiliary image for setting specific parameters on the screen of the display unit and an input operation on the screen on which the operation auxiliary image is displayed are changed. A parameter changing unit.
第2の発明に係わる条件変更装置は、上記第1の発明において、上記変更条件設定部は、上記入力操作の態様として、上記タッチパネルに同時に入力される数が1箇所かあるいは複数個所に応じて、変更条件の種類を設定する。 In the condition changing apparatus according to the second invention, in the first invention, the change condition setting unit may be configured such that the number of simultaneous inputs to the touch panel is one or more as the input operation mode. Set the type of change condition.
第3の発明に係わる条件変更装置は、上記第1の発明において、上記変更条件設定部は、上記入力操作の態様として、上記タッチパネルに対する片手の指による操作と両手の指による同時操作の違いに応じて、上記変更条件の種類を切り換えて設定し、上記操作画像表示部は、片手の指による操作の場合には、上記画面で操作された指側に上記操作補助画像を表示させ、両手の指による操作の場合には、上記画面の両側に上記操作補助画像を表示させる。 In the condition changing apparatus according to a third aspect of the present invention, in the first aspect, the change condition setting unit is configured such that the input operation mode is a difference between an operation with one finger on the touch panel and a simultaneous operation with fingers of both hands. Accordingly, the type of the change condition is switched and set, and the operation image display unit displays the operation auxiliary image on the finger operated on the screen in the case of an operation with a finger of one hand, In the case of an operation with a finger, the operation auxiliary image is displayed on both sides of the screen.
第4の発明に係わる条件変更装置は、上記第1の発明において、上記変更条件設定部は、上記入力操作の態様として、上記タッチパネルに対する両手の指による同時操作が合った場合に、さらに当該両手の指により回動操作が開始されたか否かで上記動作条件の種類を切り換えて設定し、上記操作画像表示部は、当該両手の指による回動操作が開始された場合には、上記画面に周状のオブジェクトを上記操作補助画像として表示させる。 According to a fourth aspect of the present invention, there is provided the condition changing apparatus according to the first aspect, wherein the change condition setting unit further includes the two hands when the simultaneous operation with the fingers of both hands is performed on the touch panel. The operation image display unit switches and sets the type of the operation condition depending on whether or not the rotation operation is started by the finger of the user, and the operation image display unit displays the screen when the rotation operation by the fingers of both hands is started. A circumferential object is displayed as the operation assistance image.
第5の発明に係わる条件変更装置は、上記第1の発明において、上記変更条件設定部は、上記入力操作の態様が回動操作を含む場合に、当該回動操作の径の大小に応じて、上記動作条件の種類を切り換えて設定し、上記操作画像表示部は、当該回動操作の径の目安となるような2重の周状のオブジェクトを上記操作補助画像として表示させる。 The condition change device according to a fifth invention is the condition change device according to the first invention, wherein the change condition setting unit, according to the size of the diameter of the rotation operation, when the mode of the input operation includes the rotation operation. The operation image display unit displays a double circumferential object as a guide for the diameter of the rotation operation as the operation auxiliary image.
第6の発明に係わる条件変更装置は、上記第1の発明において、上記変更条件設定部は、上記入力操作の態様が回動操作を含む場合に、上記画面の当該回動操作の中心位置に応じて、上記動作条件の種類を切り換えて設定し、上記操作画像表示部は、当該回動操作に係わる指の位置に応じて上記操作補助画像を表示させる。
第7の発明に係わる条件変更装置は、上記第6の発明において、上記パラメータ変更部は、上記回動操作によってパラメータを変更し、上記画面での当該回動操作によって描かれる円の径に応じて、上記変更するパラメータの量を切り換える。
The condition change device according to a sixth invention is the condition change device according to the first invention, wherein the change condition setting unit is arranged at a center position of the rotation operation on the screen when the input operation includes a rotation operation. Accordingly, the type of the operation condition is switched and set, and the operation image display unit displays the operation auxiliary image according to the position of the finger related to the rotation operation.
According to a seventh aspect of the invention, in the sixth aspect of the invention, the parameter changing unit changes the parameter by the turning operation, and changes the parameter according to the diameter of the circle drawn by the turning operation on the screen. Switch the amount of the parameter to be changed.
第8の発明に係わるカメラは、上記第1乃至7に記載される条件変更装置が搭載され、上記タッチパネルが筺体の背面に設けられ、上記変更条件設定部は、上記変更条件として撮影条件を設定し、上記操作画像表示部は、上記操作補助画像をライブビュー画像に重畳して表示させる。 According to an eighth aspect of the present invention, there is provided a camera according to any one of the first to seventh aspects, wherein the touch panel is provided on a rear surface of the housing, and the change condition setting unit sets a photographing condition as the change condition. Then, the operation image display unit displays the operation auxiliary image superimposed on the live view image.
第9の発明に係わる携帯機器は、上記第1乃至7の発明のいずれかの条件変更装置が搭載されている。 A portable device according to a ninth aspect is equipped with the condition changing device according to any one of the first to seventh aspects.
第10の発明に係わるプログラムは、画像が表示される表示部と、上記表示部に設けられるタッチパネルを備える機器で、その動作条件を変更させる処理をコンピュータに実行させるプログラムにおいて、上記タッチパネルへの入力操作を検出するステップと、上記入力操作の態様に基づき、変更される条件の種類を設定するステップと、設定された上記変更条件の種類に応じて、当該変更条件の具体的なパラメータを設定するための操作補助画像を上記表示部の画面に表示させるステップと、上記操作補助画像が表示される画面に対する入力操作に基づき、当該変更条件のパラメータを変更するステップと、を備える。 A program according to a tenth aspect of the invention is a program that causes a computer to execute a process for changing an operating condition in a device including a display unit on which an image is displayed and a touch panel provided on the display unit. The step of detecting the operation, the step of setting the type of condition to be changed based on the mode of the input operation, and setting the specific parameters of the change condition according to the type of the change condition set For displaying an operation auxiliary image for display on the screen of the display unit, and changing a parameter of the change condition based on an input operation on the screen on which the operation auxiliary image is displayed.
本発明によれば、タッチパネルからの入力で条件変更を行う場合、入力操作の態様を使い分けて条件変更を行う条件変更装置、カメラ、携帯機器、およびプログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, when changing conditions by the input from a touch panel, the condition change apparatus, camera, portable apparatus, and program which change conditions by using the mode of input operation properly can be provided.
以下、図面に従って本発明を適用したデジタルカメラを用いて好ましい実施形態について説明する。本発明の好ましい実施形態に係わるデジタルカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にライブビュー表示する。撮影者はライブビュー表示を観察することにより、構図やシャッタチャンスを決定する。レリーズ時には、静止画の画像データを記録媒体にすることができる。また、ライブビュー表示の画面をタッチすることにより、露出補正、ズーミング、シャッタ速度、絞り値等の条件を設定することが可能である。 Hereinafter, preferred embodiments using a digital camera to which the present invention is applied will be described with reference to the drawings. A digital camera according to a preferred embodiment of the present invention has an imaging unit, and the imaging unit converts the subject image into image data, and the subject image is arranged on the back of the main body based on the converted image data. Live view is displayed on the display. The photographer determines the composition and the photo opportunity by observing the live view display. At the time of release, image data of a still image can be used as a recording medium. In addition, by touching the screen of the live view display, it is possible to set conditions such as exposure correction, zooming, shutter speed, aperture value, and the like.
図1は、本発明の第1実施形態に係わるデジタルカメラの構成を示すブロック図である。制御部(CPU:Central
Processing Unit)11は、プログラム/データ記憶部12に記憶された制御プログラムに従って動作し、デジタルカメラの全体制御を行う。制御部11内には、タッチ検出部11a、変更条件設定部11b、操作画像表示部11c、パラメータ変更部11d、パラメータ制御部11eが設けられている。
FIG. 1 is a block diagram showing the configuration of a digital camera according to the first embodiment of the present invention. Control unit (CPU: Central
The Processing Unit 11 operates according to a control program stored in the program / data storage unit 12 and performs overall control of the digital camera. In the control unit 11, a touch detection unit 11a, a change condition setting unit 11b, an operation image display unit 11c, a parameter change unit 11d, and a parameter control unit 11e are provided.
タッチ検出部11aは、タッチパネル13への入力操作を検出する。タッチ検出部11aは、タッチ操作の画面上の位置や時間から、入力操作の態様の種類として、片指タッチ、両指タッチ、および両指の回動等を検出可能であり、あわせてその位置や長さも検出可能である。なお、本実施形態においては、タッチとはタッチパネル13の画面上を指等で直接接触または画面上で近接し、また接触若しくは近接した状態で指等を回動やスライド等によって移動させることをいう。 The touch detection unit 11 a detects an input operation to the touch panel 13. The touch detection unit 11a can detect one-finger touch, two-finger touch, rotation of both fingers, and the like as types of input operation from the position and time on the screen of the touch operation. And the length can also be detected. In the present embodiment, the touch means that the screen of the touch panel 13 is directly contacted with or close to the screen with a finger or the like, and the finger or the like is moved by turning or sliding in the state of contact or proximity. .
変更条件設定部11bは、タッチ検出部11aによって検出された入力操作の態様に基づいて、変更される条件の種類を設定する。本実施形態に係わるデジタルカメラにおいては、露出補正、ズーミング、絞り値やシャッタ速度(SS)等について、タッチパネル13における入力操作の態様を変更することにより設定可能となっている。 The change condition setting unit 11b sets the type of condition to be changed based on the mode of the input operation detected by the touch detection unit 11a. In the digital camera according to the present embodiment, exposure correction, zooming, aperture value, shutter speed (SS), and the like can be set by changing the mode of input operation on the touch panel 13.
操作画像表示部11cは、変更条件設定部11bによって設定された変更条件の種類に応じて、当該変更条件の具体的なパラメータを設定するための操作補助画像を表示部16の画面に表示させる。前述したように、本実施形態においては、露出補正、ズーミング、絞り値やシャッタ速度のいずれかをタッチパネル13を操作することにより、具体的なパラメータ(例えば、露出補正量、ズームアップやズームダウン、また絞り値やシャッタ速度)を設定可能である。この場合、何ら指標となるものがないと、ユーザとしては、これらのパラメータの設定が困難である。そこで、本実施形態においては、ユーザがパラメータの設定を簡単に行えるように、操作補助画像を表示している。なお、操作画像表示部11cは、プログラム/データ記憶部12から変更条件に応じて所定の操作補助画像を読み出し、表示制御部15に出力し、表示制御部15によって表示制御を行わせることにより、操作補助画像の表示を行う。 The operation image display unit 11c displays on the screen of the display unit 16 an operation auxiliary image for setting specific parameters of the change condition according to the type of the change condition set by the change condition setting unit 11b. As described above, in the present embodiment, any one of exposure correction, zooming, aperture value, and shutter speed is operated by operating the touch panel 13, so that specific parameters (for example, exposure correction amount, zoom up and zoom down, Also, the aperture value and shutter speed can be set. In this case, it is difficult for the user to set these parameters if there is no index. Therefore, in this embodiment, an operation auxiliary image is displayed so that the user can easily set parameters. The operation image display unit 11c reads a predetermined operation auxiliary image from the program / data storage unit 12 according to the change condition, outputs the image to the display control unit 15, and causes the display control unit 15 to perform display control. Display the operation assistance image.
パラメータ変更部11dは、変更条件設定部11bからの出力を受け、変更条件設定部11bによって設定された条件の種類に応じて、個別のパラメータを用意する。設定された変更条件の下で、ユーザは表示部16の画面上の操作補助画像をタッチするので、タッチ検出部11aがこのときのユーザの入力操作の長さや回動角を検出する。パラメータ変更部11dは、この入力操作の状態をタッチ検出部11aから入力し、設定された変更条件に応じたパラメータを具体的に変更する。 The parameter change unit 11d receives an output from the change condition setting unit 11b, and prepares individual parameters according to the type of condition set by the change condition setting unit 11b. Since the user touches the operation assistance image on the screen of the display unit 16 under the set change condition, the touch detection unit 11a detects the length and rotation angle of the user's input operation at this time. The parameter change unit 11d inputs the state of this input operation from the touch detection unit 11a, and specifically changes the parameter according to the set change condition.
パラメータ制御部11eは、ユーザの指示に基づき、各種撮影条件あるいは再生条件のパラメータを制御する。ここで、ユーザの指示とは、メニュー画面(不図示)での設定、操作部14からの直接設定、およびタッチパネル13におけるタッチ入力を指す。タッチパネル13からのタッチ入力では、パラメータ制御部11eは、パラメータ変更部11dから通知されるパラメータ変更値を受け付け、撮像部20や画像処理部21の具体的条件を変更させる。例えば、撮像部20であれば、ピント位置、ズーム値、絞り径(絞り値)、シャッタ速度、露出補正等を設定変更するように制御する。また、画像処理部21であれば、コントラスト、ホワイトバランス、ISO感度等を設定変更するように制御する。なお、本明細書においては、ズーム値、絞り値、シャッタ速度、露出補正を変更する場合の詳細について後述するが、他のパラメータ変更値についても同様に制御することができる。 The parameter control unit 11e controls parameters of various shooting conditions or playback conditions based on a user instruction. Here, the user instruction indicates setting on a menu screen (not shown), direct setting from the operation unit 14, and touch input on the touch panel 13. In the touch input from the touch panel 13, the parameter control unit 11e receives the parameter change value notified from the parameter change unit 11d, and changes the specific conditions of the imaging unit 20 and the image processing unit 21. For example, in the case of the imaging unit 20, the focus position, zoom value, aperture diameter (aperture value), shutter speed, exposure correction, and the like are controlled to be changed. In the case of the image processing unit 21, control is performed so as to change the settings of contrast, white balance, ISO sensitivity, and the like. In this specification, details of changing the zoom value, aperture value, shutter speed, and exposure correction will be described later, but other parameter change values can be controlled in the same manner.
プログラム/データ記憶部12は、前述したように、制御部11を動作させるためのプログラム、および操作画像表示部11cによって選択された操作補助画像を表示させるための画像データを記憶している。これ以外にも、例えば、カメラ制御用のプログラムや画面に表示されるアイコンや、メニュー画面用の画像データ、さらには、撮像部20によって取得した画像データの一時記憶や、カメラ制御のための調整値等、種々のデータを記憶する。 As described above, the program / data storage unit 12 stores a program for operating the control unit 11 and image data for displaying an operation auxiliary image selected by the operation image display unit 11c. Other than this, for example, a camera control program, an icon displayed on the screen, image data for a menu screen, and further temporary storage of image data acquired by the imaging unit 20 and adjustment for camera control Various data such as values are stored.
表示制御部15は、撮影時にはライブビュー表示、再生時には再生画像、あるはメニュー画像を表示させる。また、指示に応じてアイコン等をライブビュー画像に重畳させる処理等を行う。また、表示制御部15は、操作画像表示部11cの指示によって、プログラム/データ記憶部12から読み出された操作補助画像を、ライブビュー画像に重畳処理を行う。表示部16は、本体の背面に配置された液晶モニタや有機EL等のディスプレイを有し、表示制御部15によって表示制御が行われる。 The display control unit 15 displays a live view display at the time of shooting, a playback image at the time of playback, or a menu image. Also, processing such as superimposing an icon or the like on the live view image is performed according to the instruction. Further, the display control unit 15 superimposes the operation auxiliary image read from the program / data storage unit 12 on the live view image according to an instruction from the operation image display unit 11c. The display unit 16 has a display such as a liquid crystal monitor and an organic EL disposed on the back of the main body, and display control is performed by the display control unit 15.
タッチパネル13は、表示部16と一体、または表示部16の前面に配置され、ユーザの指等が直接接触または接近したことを検出し、検出結果をタッチ検出部11aに出力する。タッチパネルとしては、抵抗膜方式、静電容量方式、光電センサ方式等、種々の方式のものがあり、いずれかの方式を採用すれば良い。なお、光電センサ方式を採用したタッチパネルについて、図5を用いて後述する。 The touch panel 13 is integrated with the display unit 16 or disposed on the front surface of the display unit 16, detects that a user's finger or the like is in direct contact with or approaches, and outputs a detection result to the touch detection unit 11a. There are various types of touch panels such as a resistive film method, a capacitance method, a photoelectric sensor method, and any one of them may be adopted. A touch panel employing a photoelectric sensor method will be described later with reference to FIG.
操作部14は、ボタン操作部、レリーズ釦、パワースイッチ、あるいはモード切替釦等の各種操作釦、操作ダイヤル、操作キー等であり、ユーザがモードやパラメータ等を設定するための操作部材である。 The operation unit 14 includes various operation buttons such as a button operation unit, a release button, a power switch, or a mode switching button, an operation dial, an operation key, and the like, and is an operation member for the user to set a mode, a parameter, and the like.
制御部11はバス26に接続されており、このバス26には、撮像部20、画像処理部21、圧縮伸張部22、記録再生部23、画像記憶部24、通信部25が接続されている。撮像部20は、被写体像を結像させるための撮影レンズ、被写体像を画像データに変換するための撮像素子、およびこれらの処理回路、撮影レンズの光路中に介挿された絞りおよびシャッタ等を含む。撮像部20によって生成された画像データはバス26に出力される。 The control unit 11 is connected to a bus 26, and an imaging unit 20, an image processing unit 21, a compression / decompression unit 22, a recording / playback unit 23, an image storage unit 24, and a communication unit 25 are connected to the bus 26. . The imaging unit 20 includes a photographing lens for forming a subject image, an imaging element for converting the subject image into image data, and a processing circuit thereof, a diaphragm and a shutter interposed in the optical path of the photographing lens, and the like. Including. Image data generated by the imaging unit 20 is output to the bus 26.
画像処理部21は、デジタル画像データのデジタル的増幅(デジタルゲイン調整処理)、色補正、ガンマ(γ)補正、コントラスト補正、ライブビュー表示用画像生成、動画画像生成等の各種の画像処理を行なう。また圧縮伸張部22はプログラム/データ記憶部12に一時記憶された静止画や動画の画像データをJPEGやTIFF等の圧縮方式により圧縮し、また表示等のために伸張するための回路である。なお、画像圧縮はJPEGやTIFFに限らず、他の圧縮方式も適用できる。 The image processing unit 21 performs various image processing such as digital amplification (digital gain adjustment processing) of digital image data, color correction, gamma (γ) correction, contrast correction, live view display image generation, and moving image generation. . The compression / decompression unit 22 is a circuit for compressing still image or moving image image data temporarily stored in the program / data storage unit 12 by a compression method such as JPEG or TIFF, and decompressing the data for display. Note that image compression is not limited to JPEG or TIFF, and other compression methods can be applied.
記録再生部23は、圧縮伸張部22において圧縮された画像データを画像記憶部24に記憶し、また、画像記憶部24に記憶された撮影画像の画像データを読み出し、圧縮伸張部22において伸張し、この伸張した画像データを再生表示する。画像記憶部24はデジタルカメラ本体に内蔵、または装填可能な画像データの記録媒体である。通信部25は、外部装置に画像データ等を送信、または受信する。 The recording / reproducing unit 23 stores the image data compressed in the compression / decompression unit 22 in the image storage unit 24, reads out the image data of the captured image stored in the image storage unit 24, and decompresses the image data in the compression / decompression unit 22. The expanded image data is reproduced and displayed. The image storage unit 24 is a recording medium for image data that can be built in or loaded into the digital camera body. The communication unit 25 transmits or receives image data or the like to an external device.
次に、図2を用いて、表示部16と一体化された光電センサタイプのタッチパネル13の構造について説明する。図2(a)はユーザの指がタッチパネル13に接近している場合の、また図2(b)はユーザの指がタッチパネル13に直接接触した場合の、タッチパネル13および表示部16の断面の模式図である。このタッチパネルは、図2(a)に示すように、液晶部100内に光センサ104が所定の間隔で2次元的に配列されており、液晶部100の背面にはバックライト102が設けられている。 Next, the structure of the photoelectric sensor type touch panel 13 integrated with the display unit 16 will be described with reference to FIG. 2A is a schematic diagram of a cross section of the touch panel 13 and the display unit 16 when the user's finger is close to the touch panel 13 and FIG. 2B is a case where the user's finger is in direct contact with the touch panel 13. FIG. In this touch panel, as shown in FIG. 2A, optical sensors 104 are two-dimensionally arranged in the liquid crystal unit 100 at a predetermined interval, and a backlight 102 is provided on the back surface of the liquid crystal unit 100. Yes.
バックライト102からの照射光106aは、ユーザの指90に反射されない場合には、図2(a)に示すように、そのまま外部に発散していく。また、ユーザの指90がタッチパネル13から少し離れ、近接している場合には、図2(a)に示すように、照射光106bは指90で反射され、その反射光の一部は光センサ104によって検出される。 When the irradiation light 106a from the backlight 102 is not reflected by the user's finger 90, as shown in FIG. Further, when the user's finger 90 is slightly away from and in proximity to the touch panel 13, the irradiation light 106b is reflected by the finger 90 as shown in FIG. 2A, and a part of the reflected light is an optical sensor. 104.
さらに、ユーザの指81がタッチパネル8bに近づくと、図2(b)に示すように、バックライト102からの照射光106bが、指90によって反射され、光センサ104によって検出される。光センサ104の検出結果は、タッチ検出部11aに送出され、いずれの光センサ104が指90からの反射光を検出したかによって、指のタッチ位置を検出し、またタッチ位置の時系列的変化に基づいて指の動きを検出することができる。 When the user's finger 81 approaches the touch panel 8b, the irradiation light 106b from the backlight 102 is reflected by the finger 90 and detected by the optical sensor 104 as shown in FIG. The detection result of the optical sensor 104 is sent to the touch detection unit 11a, and the touch position of the finger is detected depending on which optical sensor 104 detects the reflected light from the finger 90, and the time-series change of the touch position is detected. The movement of the finger can be detected based on the above.
次に、図3ないし図5を用いて、タッチパネル13への操作態様を変えることにより、露出補正やズーミング等、撮影条件を変更する方法について、説明する。本実施形態においては、画面50の右側を片手タッチすることにより露出補正の変更を、画面50の両側を両手タッチし、かつ回動操作を行うことにより焦点距離の変更(ズーミング)を、画面50の両側を両手タッチし、かつスライド操作を行うことにより、絞りまたはシャッタ速度の変更を行う。 Next, a method for changing shooting conditions such as exposure correction and zooming by changing the operation mode on the touch panel 13 will be described with reference to FIGS. 3 to 5. In the present embodiment, the exposure correction is changed by touching the right side of the screen 50 with one hand, and the focal length is changed (zooming) by touching both sides of the screen 50 and performing a rotation operation. The aperture or shutter speed is changed by touching both sides of the lens and performing a slide operation.
図3は、デジタルカメラを片手で構えたユーザが露出補正の補正量を変更する場合を示している。すなわち、カメラは撮影モードに設定されており、表示部16の画面50にはライブビュー画像が表示されている。このときのライブビュー画像は、室内の中央に人物52aが位置しており、背景には室外の風景52bが広がっている。この状態では、中央にいる人物52aは暗く、露出アンダーであるのに対して、背景52bは適正露光となっている。 FIG. 3 shows a case where the user holding the digital camera with one hand changes the exposure correction amount. That is, the camera is set to the shooting mode, and the live view image is displayed on the screen 50 of the display unit 16. In the live view image at this time, the person 52a is located in the center of the room, and the outdoor scenery 52b spreads in the background. In this state, the person 52a in the center is dark and underexposed, while the background 52b is properly exposed.
一般的には、中央に位置している人物52aに対して適正露光となるように露出補正を行う場合が多い。そこで、ユーザが画面50の右サイドを片手タッチすると、図3(a)に示すように、画面50の右サイドの位置に縦長の両矢印の形状で露出補正バー60が表示される。本実施形態においては、画面右サイドへのタッチ操作により、対応する変更条件として露出補正が設定されるように予め定められているものとしている。 In general, exposure correction is often performed so that the person 52a located at the center has proper exposure. Therefore, when the user touches the right side of the screen 50 with one hand, the exposure correction bar 60 is displayed in the shape of a vertically long double arrow at the position on the right side of the screen 50 as shown in FIG. In the present embodiment, the exposure correction is set in advance as a corresponding change condition by a touch operation on the right side of the screen.
タッチパネル13から検知信号を入力したタッチ検出部11cによって、右位置でタッチされたことを検出すると、変更条件設定部11bによる、変更条件の種類を「露出」に設定する。また、変更条件設定部11bによって「露出」を設定すると、操作画像表示部11cは、ユーザの露出補正操作を補助するための操作補助画像として、露出補正バー60の表示を指示し、プログラム/データ記憶部12から露出補正バー60の画像データを読み出す。この読み出された露出補正バー60の画像データは、表示制御部15に送られ、露出補正バー60が、ライブビュー画像に重畳表示される。また、パラメータ変更部11dでは、撮影条件項目の中の露出補正を変更条件として設定する。なお、本実施形態においては、露出補正バー60は、画面50上でタッチした位置に応じて表示しているが、これに限らず、例えば、タッチ位置に係わらず固定の位置としても良い。 When the touch detection unit 11c that has input the detection signal from the touch panel 13 detects that the touch is made at the right position, the change condition setting unit 11b sets the type of the change condition to “exposure”. When “exposure” is set by the change condition setting unit 11b, the operation image display unit 11c instructs the display of the exposure correction bar 60 as an operation auxiliary image for assisting the user's exposure correction operation, and the program / data Image data of the exposure correction bar 60 is read from the storage unit 12. The read image data of the exposure correction bar 60 is sent to the display control unit 15, and the exposure correction bar 60 is superimposed and displayed on the live view image. The parameter changing unit 11d sets exposure correction in the shooting condition item as a change condition. In the present embodiment, the exposure correction bar 60 is displayed according to the position touched on the screen 50, but is not limited thereto, and may be a fixed position regardless of the touch position, for example.
図3(a)に示すように、露出補正バー60をライブビュー画像に重畳表示すると、ユーザは露出補正を行いたい方向に露出補正バー60に沿って指をスライドさせればよい。タッチ検出部11aは、このスライド操作の方向を検知し、パラメータ変更部11dにこの検知結果を通知する。パラメータ変更部11dは、スライド操作の方向が上向きであった場合には露出補正値をプラス方向に変更し、スライド操作の方向が下向きであった場合には露出補正値をマイナス方向に変更する。なお、露出補正バー60には、露出補正の方向が分かり易く表示するために、「+」や「−」を併せて表示するようにしても良い。 As shown in FIG. 3A, when the exposure correction bar 60 is superimposed on the live view image, the user may slide his / her finger along the exposure correction bar 60 in the direction in which exposure correction is desired. The touch detection unit 11a detects the direction of the slide operation and notifies the parameter change unit 11d of the detection result. The parameter changing unit 11d changes the exposure correction value to the plus direction when the direction of the slide operation is upward, and changes the exposure correction value to the minus direction when the direction of the slide operation is downward. It should be noted that “+” or “−” may be displayed on the exposure correction bar 60 in order to display the direction of exposure correction in an easy-to-understand manner.
パラメータ変更部11dから変更の通知を受け、パラメータ制御部11eは撮像部20の輝度のゲインを補正する。その結果、図3(b)に示すように、ライブビュー画像において、画面中央の人物52aは明るくなり、鮮明に表示される。一方、画面周辺の背景52bは、露出オーバとなり、やや白とびの状態となる。なお、露出補正としては、撮像部20の絞り値やシャッタ速度を変化させるようにしても勿論かまわない。 Upon receiving the change notification from the parameter changing unit 11d, the parameter control unit 11e corrects the luminance gain of the imaging unit 20. As a result, as shown in FIG. 3B, in the live view image, the person 52a at the center of the screen is brightened and displayed clearly. On the other hand, the background 52b around the screen is overexposed and slightly overexposed. Of course, as the exposure correction, the aperture value and shutter speed of the imaging unit 20 may be changed.
なお、本実施形態においては、パラメータ制御部11eによって、撮像部20に関する条件が変更されていたが、設定される変更条件の種類によっては、画像処理部20の条件が変更されるようにしてもよい。また、露出補正量は、スライド回数あるいはスライドの位置で決めるようにする。スライド回数で決める場合には、例えば、上方向に1回、スライドした場合には、+0.5段とし、3回、スライドした場合には1.5段、明るくなるようにする。スライドの位置で決める場合には、例えば、一番上の位置を+2段とする。 In the present embodiment, the condition related to the imaging unit 20 is changed by the parameter control unit 11e. However, depending on the type of change condition to be set, the condition of the image processing unit 20 may be changed. Good. The exposure correction amount is determined by the number of slides or the slide position. When determining by the number of slides, for example, when the slide is performed once, it is +0.5 level when it is slid, and when it is slid three times, it is brightened by 1.5 levels. When determining by the position of the slide, for example, the top position is set to +2 steps.
次に、図4を用いて、デジタルカメラを両手で構えたユーザが焦点距離を変更する場合(ズーミング)を説明する。画面50の左右が両手タッチされており、かつ両指で回動操作が行われたことを、タッチ検出部11aが検出すると、変更条件設定部11bが変更条件の種類としてズーミングを設定する。次いで、操作画像表示部11cが、図4(a)に示すように、操作補助画像として画面50上に左右のタッチ位置を楕円の長円とするような楕円形上の図形、リング61を表示する。なお、画面50の左右がタッチされていても、左右いずれか片方の指だけが動かされた場合には、後述する絞り/SS設定と判定され、ズーミングの設定は行われない。つまり、両指が画面50上に置かれた状態では、続く指の動きによって2つの選択肢があることから操作補助画像は表示されない。 Next, a case where the user who holds the digital camera with both hands changes the focal length (zooming) will be described with reference to FIG. When the touch detection unit 11a detects that the left and right sides of the screen 50 are touched with both hands and the rotation operation is performed with both fingers, the change condition setting unit 11b sets zooming as the type of the change condition. Next, as shown in FIG. 4A, the operation image display unit 11c displays, on the screen 50, an ellipse figure, ring 61, which makes the left and right touch positions elliptical ellipses as an operation auxiliary image. To do. Even when the left and right sides of the screen 50 are touched, if only one of the left and right fingers is moved, it is determined that the aperture / SS setting will be described later, and the zooming setting is not performed. That is, in a state where both fingers are placed on the screen 50, the operation assisting image is not displayed because there are two options depending on the subsequent finger movement.
ユーザが操作補助画像としてのリング61に沿って両指をタッチで回動操作すると、タッチ検出部11aは回動操作の回動方向を検知し、検知された回動方向をパラメータ変更部11dに通知する。回動方向が時計方向であった場合には、パラメータ変更部11dはズームパラメータをアップする指示をパラメータ制御部11eに通知する。一方、回動方向が反時計方向であった場合には、ズームパラメータをダウンする指示をパラメータ制御部11eに通知する。 When the user rotates both fingers by touching the ring 61 as an operation auxiliary image, the touch detection unit 11a detects the rotation direction of the rotation operation, and the detected rotation direction is sent to the parameter change unit 11d. Notice. If the rotation direction is clockwise, the parameter changing unit 11d notifies the parameter control unit 11e of an instruction to increase the zoom parameter. On the other hand, when the rotation direction is counterclockwise, the parameter control unit 11e is notified of an instruction to decrease the zoom parameter.
パラメータ制御部11eはズームパラメータをアップする指示を受けると、撮像部20の光学系の焦点距離を長焦点側に変更し、ズームレンズがズームアップ(長焦点側)する方向に移動される。ズームアップとすると、図4(b)に示すように、被写体が拡大して表示される。一方、ズームパラメータをダウンする指示を受けると、撮像部20の光学系の焦点距離を短焦点側に変更し、ズームレンズがズームダウン(短焦点側)する方向に移動される。ここで、ズームアップまたはズームダウンの量は、タッチ検出部11aによって検出された回動角度に応じて設定される。例えば、+90度回動された場合には2倍、−90度回動された場合には1/2倍のように焦点距離を変更してもよい。なお、リング61の表示として、上述のような静止したままの表示だけでなく、指の位置に応じて楕円上に輝点を表示させ、この輝点を指の回動に合わせて楕円の軌道上を回動するような表示にしてもよい。この場合、ズームレンズの焦点距離が長焦点端または短焦点端まで達した状態では、輝点の運動を停止させることにより、指による回転が無効になったことを告知することもできる。 When the parameter control unit 11e receives an instruction to increase the zoom parameter, the focal length of the optical system of the imaging unit 20 is changed to the long focal side, and the zoom lens is moved in the direction of zooming up (long focal side). When zooming in, the subject is enlarged and displayed as shown in FIG. On the other hand, when an instruction to reduce the zoom parameter is received, the focal length of the optical system of the imaging unit 20 is changed to the short focus side, and the zoom lens is moved in the direction of zooming down (short focus side). Here, the amount of zoom-up or zoom-down is set according to the rotation angle detected by the touch detection unit 11a. For example, the focal length may be changed such that it is doubled when it is rotated +90 degrees and 1/2 times when it is rotated -90 degrees. The ring 61 is displayed not only in a stationary state as described above, but also by displaying a bright spot on the ellipse according to the position of the finger. You may make it the display which rotates up. In this case, when the focal length of the zoom lens reaches the long focal end or the short focal end, it is also possible to notify that the rotation by the finger has become invalid by stopping the movement of the bright spot.
また、ズーム処理の変形例として、パラメータ制御部11eの指示によって、画像処理部21内の電子ズーム処理部によって、全体画像から所定範囲の一部の画像をトリミング処理するようにしてもよい。つまり、撮影ズームの条件変更は、撮影レンズの焦点距離の変更または電子ズームのオン/オフ(倍率変更)のいずれか、またはその組み合わせのいずれでもよい。 As a modification of the zoom process, a part of an image within a predetermined range may be trimmed from the entire image by an electronic zoom processing unit in the image processing unit 21 in accordance with an instruction from the parameter control unit 11e. In other words, the photographing zoom condition can be changed by either changing the focal length of the photographing lens, turning on / off the electronic zoom (magnification changing), or a combination thereof.
本実施形態においては、ズーミング操作用の操作補助画像としてリング形状の画像を採用しているが、これは以下の理由による。一眼レフカメラでは、従来よりズーム操作は交換レンズのズーム環の回動操作によって実行されており、リングの操作補助画像からズームを連想しやすい。また、カメラでは、ズームとリングには関連性があるので、ズーム値変更用の操作補助画像にリング形状の画像を用いることにより識別性を向上させることができる。 In this embodiment, a ring-shaped image is adopted as an operation auxiliary image for zooming operation. This is due to the following reason. In a single-lens reflex camera, conventionally, the zoom operation is performed by rotating the zoom ring of the interchangeable lens, and it is easy to associate zoom with the auxiliary operation image of the ring. Further, since the zoom and the ring are related to each other in the camera, the discriminability can be improved by using a ring-shaped image as an operation auxiliary image for changing the zoom value.
次に、図5を用いて、デジタルカメラを両手で構えたユーザが絞り値またはシャッタ速度(SS)を変更する場合について説明する。画面50の左右が両手タッチされており、かつ左右のいずれか片方の指だけでスライド操作が行われたことを、タッチ検出部11aが検出すると、変更条件設定部11bが変更条件の種類として絞り/SS(シャッタ速度)を設定する。 Next, a case where the user holding the digital camera with both hands changes the aperture value or the shutter speed (SS) will be described with reference to FIG. When the touch detection unit 11a detects that the left and right sides of the screen 50 are touched with both hands and the slide operation is performed with only one of the left and right fingers, the change condition setting unit 11b determines the type of the change condition. / SS (shutter speed) is set.
絞り/SSの条件変更では、絞り値は撮像部20に内蔵されているメカ絞りの開口径が対応する絞りアクチュエータによって調整される。また、シャッタ速度は、撮像部20にメカシャッタが内蔵されている場合には、メカシャッタの駆動アクチュエータのタイミングで制御され、また撮像部20にメカシャッタが内蔵されていない場合には、撮像素子であるCCDやCMOSの素子シャッタのシャッタ速度として制御される。 In changing the aperture / SS condition, the aperture value is adjusted by the aperture actuator corresponding to the aperture diameter of the mechanical aperture incorporated in the imaging unit 20. The shutter speed is controlled by the timing of the mechanical shutter drive actuator when the image pickup unit 20 has a built-in mechanical shutter, and when the image pickup unit 20 does not have a built-in mechanical shutter, the image sensor 20 is a CCD. And the shutter speed of a CMOS element shutter.
変更条件設定部11bによって絞り/SSが設定されると、操作画像表示部11cは、図5(a)に示すように、画面50の左側の上方にTVアイコン62aを、またこの下方にAVアイコン62bを、操作補助画像として表示させる。TVと表示されるTVアイコン62aは、シャッタ速度の変更用のアイコンであり、AVと表示されるAVアイコン62bは絞り値の変更用のアイコンである。いずれかタッチされた方のアイコンが選択される。 When the aperture / SS is set by the change condition setting unit 11b, the operation image display unit 11c displays the TV icon 62a on the upper left side of the screen 50 and the AV icon on the lower side as shown in FIG. 62b is displayed as an operation auxiliary image. The TV icon 62a displayed as TV is an icon for changing the shutter speed, and the AV icon 62b displayed as AV is an icon for changing the aperture value. One of the touched icons is selected.
また、図5(a)に示すように、画面50の右側には、操作画像表示部11cによって、スライドバー62cが表示される。このスライドバー62cは上下に長い矢印形状であり、絞り/SSのいずれか選択されたパラメータを変更するための操作補助画像である。本実施形態においては、TVアイコン62a、AVアイコン62b、スライドバー62cは、タッチされた位置に表示する。但し、これに限らず、左右の決められた位置に表示させるようにしても勿論かまわない。 As shown in FIG. 5A, a slide bar 62c is displayed on the right side of the screen 50 by the operation image display unit 11c. The slide bar 62c has a shape of an arrow that is long in the vertical direction, and is an operation auxiliary image for changing a parameter selected from any one of the aperture / SS. In the present embodiment, the TV icon 62a, the AV icon 62b, and the slide bar 62c are displayed at the touched positions. However, the present invention is not limited to this, and it is of course possible to display it at the left and right determined positions.
図5(b)に示すように、ユーザが左手の指でTVアイコン62bをタッチしたことを、タッチ検出部11aが検出し、これをパラメータ変更部11dに通知すると、パラメータ変更部11dは、変更条件として絞り変更を設定する。次に、ユーザが右手の指でスライドバー62cに沿って上側にスライド操作したことをタッチ検出部11aが検出し、これをパラメータ変更部11dに通知すると、パラメータ変更部11dは、絞り値として、例えば、F2.8を設定する。この設定された絞り値は、画面50内の絞り/SS表示部62dに表示される。パラメータ変更部11dにおいて設定された絞り値は、パラメータ制御部11eに通知され、パラメータ制御部11eの指示によって、撮像部20の絞りが、F2.8に変更される。 As shown in FIG. 5B, when the touch detection unit 11a detects that the user touches the TV icon 62b with the finger of the left hand and notifies this to the parameter change unit 11d, the parameter change unit 11d Set aperture change as a condition. Next, when the touch detection unit 11a detects that the user has performed a sliding operation with the finger of the right hand along the slide bar 62c and notifies the parameter change unit 11d of this, the parameter change unit 11d For example, F2.8 is set. The set aperture value is displayed on the aperture / SS display section 62d in the screen 50. The aperture value set by the parameter changing unit 11d is notified to the parameter control unit 11e, and the aperture of the imaging unit 20 is changed to F2.8 by an instruction from the parameter control unit 11e.
このように、本実施形態においては、タッチパネル13への操作態様の相違によって、変更される条件の種類を変えることができる。このため、小さな画面のタッチパネルであっても、変更する条件種類の選択が容易になり、特に携帯機器のタッチパネルに有効である。従来のように、小さな表示部のメニュー画面において項目を選択する煩わしさを解消することができる。 As described above, in the present embodiment, the type of condition to be changed can be changed depending on the operation mode on the touch panel 13. For this reason, even if it is a touchscreen of a small screen, selection of the condition type to change becomes easy and it is effective especially for the touchscreen of a portable apparatus. As in the past, it is possible to eliminate the troublesomeness of selecting items on the menu screen of a small display unit.
次に、図6ないし図10に示すフローチャートを用いて第1実施形態に係わるデジタルカメラの動作を説明する。図6はカメラ制御のフローを示す。デジタルカメラに電源電池が装填されると、このカメラ制御のフローが開始し、まず、電源オンか否かの判定を行う(S11)。このステップでは操作部14中のパワースイッチの操作状態を検出し、このパワースイッチがオンか否かの判定を行う。 Next, the operation of the digital camera according to the first embodiment will be described using the flowcharts shown in FIGS. FIG. 6 shows a camera control flow. When a power supply battery is loaded in the digital camera, this camera control flow starts. First, it is determined whether the power is on (S11). In this step, the operation state of the power switch in the operation unit 14 is detected, and it is determined whether or not the power switch is on.
ステップS11における判定の結果、電源がオンでなかった場合、すなわち、電源オフの場合には、スタンバイ状態となる(S12)。このスタンバイ状態は、低消費電力モードであり、パワースイッチ等、特定の操作スイッチの状態のみを検知し、他の制御を停止した状態である。スタンバイ状態を脱すると、ステップS11に戻る。 If the result of determination in step S11 is that the power supply is not on, that is, if the power supply is off, a standby state is entered (S12). This standby state is a low power consumption mode, in which only the state of a specific operation switch such as a power switch is detected and other controls are stopped. When the standby state is exited, the process returns to step S11.
ステップS11における判定の結果、電源オンであった場合には、次に、撮影モードか否かの判定を行う(S13)。撮影モードは、被写体像を観察し、構図を決め、シャッタレリーズすることにより撮影画像を記録することのできるモードである。この判定の結果、撮影モードであった場合には、ライブビュー画像の表示を行う(S21)。ここでは、撮像部20によって取得された画像データに基づいて、被写体像を表示部16にライブビュー表示する。 If the result of determination in step S <b> 11 is that the power is on, it is next determined whether or not it is a shooting mode (S <b> 13). The shooting mode is a mode in which a shot image can be recorded by observing a subject image, determining a composition, and releasing a shutter. If the result of this determination is that the camera is in shooting mode, a live view image is displayed (S21). Here, the subject image is displayed in live view on the display unit 16 based on the image data acquired by the imaging unit 20.
ライブビュー画像の表示を行うと、次に、変更条件の設定を行う(S22)。このステップでは、図3ないし図5を用いて説明したように、ユーザが画面50をタッチし、またタッチで回動操作やスライド操作を行うことにより、露出補正やズーミング等、種々の撮影条件の変更の設定を行う。この変更条件設定の詳しいフローについては、図7を用いて後述する。 Once the live view image is displayed, the change condition is set (S22). In this step, as described with reference to FIGS. 3 to 5, when the user touches the screen 50 and performs a rotation operation or a slide operation by the touch, various shooting conditions such as exposure correction and zooming can be performed. Set the change. A detailed flow of this change condition setting will be described later with reference to FIG.
変更条件の設定を行うと、次に、撮影指示があったか否かの判定を行う(S23)。このステップでは、操作部14中のレリーズ釦が操作されたか否かを判定する。この判定の結果、撮影指示がなかった場合には、ステップS11に戻る。一方、撮影指示があった場合には、撮影および記録処理を行う(S24)。ここでは、撮像部20で取得した画像データを画像処理部21によって画像処理し、さらに圧縮伸張部22によって圧縮した後、記録再生部23によって画像記憶部24に記録を行う。 Once the change condition has been set, it is next determined whether or not there has been a shooting instruction (S23). In this step, it is determined whether or not the release button in the operation unit 14 has been operated. If the result of this determination is that there is no shooting instruction, processing returns to step S11. On the other hand, if there is a photographing instruction, photographing and recording processing is performed (S24). Here, the image data acquired by the imaging unit 20 is subjected to image processing by the image processing unit 21, further compressed by the compression / decompression unit 22, and then recorded in the image storage unit 24 by the recording / reproducing unit 23.
撮影および記録処理を行うと、次に、電源オフ操作か否かの判定を行う(S25)。ここでは、パワースイッチがオフ操作されたか否かを判定する。この判定の結果、オフ操作がされていなかった場合には、ステップS11に戻る。一方、電源オフ操作がされた場合には、パワーオフ処理を行い、エンド状態となる。 Once shooting and recording processing have been carried out, it is next determined whether or not the power is turned off (S25). Here, it is determined whether or not the power switch is turned off. If the result of this determination is that an off operation has not been performed, processing returns to step S11. On the other hand, when a power-off operation is performed, a power-off process is performed and an end state is entered.
ステップS13における判定の結果、撮影モードでなかった場合には、次に、再生か否かの判定を行う(S14)。ここでは、操作部14中の再生釦の操作状態に基づいて判定する。この判定の結果、再生であった場合には、次に、画像の再生を行う(S16)。画像再生は、画像記憶部24に記録されている撮影画像の画像データを読み出し、圧縮伸張部22において伸張した後、表示部16に表示する。 If the result of determination in step S13 is not shooting mode, it is next determined whether or not to play back (S14). Here, the determination is made based on the operation state of the playback button in the operation unit 14. If the result of this determination is reproduction, the image is then reproduced (S16). In the image reproduction, the image data of the photographed image recorded in the image storage unit 24 is read, decompressed by the compression / decompression unit 22, and then displayed on the display unit 16.
画像再生を行うと、次に、画像変更指示があるか否かの判定を行う(S17)。ユーザが鑑賞する画像の変更を望む場合には、操作部14の操作部材を用いて画像の変更を指示するので、このステップではこの操作部材が操作されたか否かを判定する。この判定の結果、画像変更指示がなければ、前述のステップS25に進む。一方、画像変更指示があれば、この指示に従って画像変更を行う(S18)。ここでは、指示された画像を表示部16に表示する。 Once image reproduction has been performed, it is next determined whether or not there is an image change instruction (S17). When the user desires to change the image to be viewed, the user is instructed to change the image using the operation member of the operation unit 14, so in this step it is determined whether or not this operation member has been operated. As a result of the determination, if there is no image change instruction, the process proceeds to step S25 described above. On the other hand, if there is an image change instruction, the image is changed according to this instruction (S18). Here, the instructed image is displayed on the display unit 16.
ステップS14における判定の結果、再生でなかった場合には、画像通信を行う(S15)。ここでは、画像記憶部24に記録されている撮影画像の画像データを、通信部25を介して、パーソナルコンピュータ等の外部機器に送信、または外部機器から画像データを受信する。画像通信が終わると、ステップS25に進む。 If the result of determination in step S14 is not playback, image communication is carried out (S15). Here, image data of a captured image recorded in the image storage unit 24 is transmitted to an external device such as a personal computer or received from the external device via the communication unit 25. When the image communication ends, the process proceeds to step S25.
次に、ステップS22における変更条件設定の動作について、図7に示すフローチャートを用いて説明する。変更条件設定の動作に入ると、まず、タッチは右1箇所か否かの判定を行う(S31)。ここでは、タッチ検出部11aによってタッチパネル13からの検知結果を入力し、表示部16の画面50の右1箇所がタッチされているか否かの判定を行う。左右それぞれ1箇所タッチされていた場合には、ここではNoと判定される。 Next, the change condition setting operation in step S22 will be described using the flowchart shown in FIG. When the change condition setting operation is started, first, it is determined whether or not the touch is at one place on the right (S31). Here, the detection result from the touch panel 13 is input by the touch detection unit 11a, and it is determined whether or not the right portion of the screen 50 of the display unit 16 is touched. If the left and right are touched at one place, it is determined as No here.
ステップS31における判定の結果、タッチが右1箇所であった場合には、次に、露出補正変更設定を行う(S32)。ここでは、図3を用いて説明したように、ユーザの入力操作に応じて、露出補正量の変更を設定する。この露出補正変更設定のサブルーチンについては、図8を用いて後述する。露出補正変更設定を実行すると、元のフローに戻る。 If the result of determination in step S31 is that there is one touch on the right, next, exposure correction change setting is performed (S32). Here, as described with reference to FIG. 3, a change in exposure correction amount is set in accordance with a user input operation. The exposure correction change setting subroutine will be described later with reference to FIG. When the exposure correction change setting is executed, the flow returns to the original flow.
ステップS31における判定の結果、タッチが右1箇所でなかった場合には、次に、タッチは左右1箇所づつか否かの判定を行う(S33)。ここでは、タッチ検出部11aによってタッチパネル13からの検知結果を入力し、表示部16の画面50の右1箇所および左1箇所が同時にタッチされているか否かの判定を行う。この判定の結果、左右1箇所づつタッチされていなかった場合には、元のフローに戻る。 If the result of determination in step S31 is that the touch is not at one place on the right, it is next determined whether or not the touch is at one place on the left and right (S33). Here, the detection result from the touch panel 13 is input by the touch detection unit 11a, and it is determined whether or not the right one place and the left one place on the screen 50 of the display unit 16 are touched simultaneously. If the result of this determination is that the left and right locations are not touched one by one, the flow returns to the original flow.
ステップS33における判定の結果、左右1箇所づつタッチされていた場合には、次に、左右で回動操作か否かの判定を行う(S34)。ステップS33における判定の結果、Yesの場合にはユーザがデジタルカメラを両手で構えている状態であり、このステップS34においてはさらに両手の指でそれぞれ回動操作するように画面50をタッチしたか否かを、タッチ検出部11aによって判定する。 If the result of determination in step S33 is that one touch has been made on the left and right, it is next determined whether or not there is a turning operation on the left and right (S34). If the result of determination in step S33 is Yes, the user is holding the digital camera with both hands. In this step S34, whether or not the screen 50 has been touched so as to be further rotated with the fingers of both hands. Is determined by the touch detection unit 11a.
ステップS34における判定の結果、左右で回動操作がなされた場合には、ズーム変更設定を行う(S35)。ここでは、図4を用いて説明したように、ユーザの回動操作状態に応じて、焦点距離の設定の変更、すなわち、ズーミングを行う。このズーム変更設定のサブルーチンについては、図9を用いて後述する。ズーム変更設定を実行すると、元のフローに戻る。 If the result of determination in step S34 is that left and right rotation operations have been made, zoom change settings are made (S35). Here, as described with reference to FIG. 4, the focal length setting is changed, that is, zooming is performed in accordance with the user's rotation operation state. The zoom change setting subroutine will be described later with reference to FIG. When the zoom change setting is executed, the flow returns to the original flow.
ステップS34における判定の結果、左右で回動操作を行っていなかった場合には、次に、左右のいずれかでスライド操作か否かの判定を行う(S36)。ステップS33における判定の結果、Yesの場合にはユーザがデジタルカメラを両手で構えている状態であり、ステップS34における判定の結果、両手の指でそれぞれ回動操作を行っていなかったことから、このステップでは、左右の指のいずれかで画面50をスライドするようにタッチしたか否かを、タッチ検出部11aによって判定する。 If the result of determination in step S34 is that left and right rotation operations have not been performed, it is next determined whether or not slide operation has been performed on either left or right (S36). If the result of determination in step S33 is Yes, the user is holding the digital camera with both hands, and the result of determination in step S34 is that the user has not performed a turning operation with the fingers of both hands. In the step, it is determined by the touch detection unit 11a whether or not the user touches the screen 50 with any of the left and right fingers.
ステップS36における判定の結果、左右のいずれかでスライド操作を行っていなかった場合には、元のフローに戻る。一方、判定の結果、左右のいずれかでスライド操作を行っていた場合には、次に、絞り/SS変更設定を行う(S37)。ここでは、図5を用いて説明したように、ユーザの左手の指によって選択された絞りまたはシャッタ速度について、右手の指によるスライド操作状態に応じて、絞り値またはシャッタ速度の設定の変更を行う。この絞り/SS変更設定のサブルーチンについては、図10を用いて後述する。絞り/SS変更設定を実行すると、元のフローに戻る。 If the result of determination in step S36 is that a slide operation has not been performed on either the left or right side, the flow returns to the original flow. On the other hand, if the result of determination is that a slide operation has been performed on either the left or right side, then aperture / SS change setting is performed (S37). Here, as described with reference to FIG. 5, with respect to the aperture or shutter speed selected by the user's left hand finger, the setting of the aperture value or shutter speed is changed according to the slide operation state with the right hand finger. . This aperture / SS change setting subroutine will be described later with reference to FIG. When the aperture / SS change setting is executed, the original flow is restored.
次に、ステップS32(図7参照)における露出補正変更設定のサブルーチンについて、図8に示すフローチャートを用いて説明する。露出補正変更設定のフローに入ると、まず、露出補正を変更条件に設定する(S41)。ここでは、変更条件設定部11bによって、変更条件として露出補正が設定される。 Next, the exposure correction change setting subroutine in step S32 (see FIG. 7) will be described with reference to the flowchart shown in FIG. If the exposure correction change setting flow is entered, first, exposure correction is set as a change condition (S41). Here, exposure correction is set as the change condition by the change condition setting unit 11b.
続いて、操作補助画像としてタッチ位置に露出補正バーを表示する(S42)。図3(a)に示したように、操作画像表示部11cは、画面50上であってユーザのタッチ位置に露出補正バー60を表示させる。続いて、バー近傍でスライド操作を検出したか否かの判定を行う(S43)。ここでは、タッチ検出部11aによって露出補正バー60の近傍で、ユーザの指が上下方向にタッチしているか否かを検出する。 Subsequently, an exposure correction bar is displayed at the touch position as an operation auxiliary image (S42). As shown in FIG. 3A, the operation image display unit 11c displays the exposure correction bar 60 on the screen 50 at the touch position of the user. Subsequently, it is determined whether or not a slide operation has been detected in the vicinity of the bar (S43). Here, the touch detection unit 11a detects whether or not the user's finger is touching in the vertical direction in the vicinity of the exposure correction bar 60.
ステップS43における判定の結果、スライド操作を検出しなかった場合には、ステップS41に戻る。一方、スライド操作を検出した場合には、次に、スライド量に応じて露出補正のパラメータを変更する(S44)。ここでは、タッチ検出部11aによって検出されたスライド量に応じて、パラメータ変更部11dによって露出補正量を変更する。 If the result of determination in step S43 is that no slide operation has been detected, processing returns to step S41. On the other hand, if a slide operation is detected, the exposure correction parameter is changed according to the slide amount (S44). Here, the exposure correction amount is changed by the parameter changing unit 11d in accordance with the slide amount detected by the touch detection unit 11a.
露出補正のパラメータを変更すると、次に、パラメータ制御部11eによって、撮像部20の輝度のゲインを変更する(S45)。露出補正量を変更すると、図3(a)に示す人物52aは、図3(b)に示すように明るくなり、鮮明に表示される。一方、画面周辺の背景52bは、露出オーバとなり、やや白とびの状態となる。なお、撮像部20のゲインを変更する以外にも、前述したように、撮像部20の絞り値やシャッタ速度を変化させるようにしても勿論かまわない。ゲインを変更すると、元のフローに戻る。 Once the exposure correction parameter is changed, the parameter control unit 11e then changes the luminance gain of the imaging unit 20 (S45). When the exposure correction amount is changed, the person 52a shown in FIG. 3A becomes brighter and clearly displayed as shown in FIG. 3B. On the other hand, the background 52b around the screen is overexposed and slightly overexposed. In addition to changing the gain of the imaging unit 20, it is of course possible to change the aperture value and shutter speed of the imaging unit 20 as described above. When the gain is changed, the original flow is restored.
次に、ステップS35(図7参照)におけるズーム変更設定のサブルーチンについて、図9に示すフローチャートを用いて説明する。ズーム補正変更設定のフローに入ると、まず、ズーム補正を変更条件に設定する(S51)。ここでは、変更条件設定部11bによって、変更条件としてズームが設定される。 Next, the zoom change setting subroutine in step S35 (see FIG. 7) will be described with reference to the flowchart shown in FIG. In the zoom correction change setting flow, first, zoom correction is set as a change condition (S51). Here, zoom is set as a change condition by the change condition setting unit 11b.
続いて、操作補助画像としてタッチ位置にリングを表示する(S52)。図4(a)に示したように、操作画像表示部11cは、画面50上であってユーザの両手の指による2つのタッチ位置を長円とするリング61を表示させる。続いて、回動は右回りか否かの判定を行う(S53)。ここでは、タッチ検出部11aによってリング61の楕円の周囲で、ユーザの指が楕円に沿って右回り(時計回り)にタッチしているか否かを検出する。 Subsequently, a ring is displayed at the touch position as an operation auxiliary image (S52). As shown in FIG. 4A, the operation image display unit 11c displays a ring 61 on the screen 50, in which two touch positions by the fingers of both hands of the user are ellipses. Subsequently, it is determined whether or not the rotation is clockwise (S53). Here, the touch detection unit 11a detects whether or not the user's finger is touching clockwise (clockwise) along the ellipse around the ellipse of the ring 61.
ステップS53における判定の結果、回動は右回りであった場合には、次に、パラメータ変更部11dがズームパラメータをアップする変更を行う(S54)。一方、回動が右回りでなかった場合、すなわち、左回りであった場合には、パラメータ変更部11dがズームパラメータをダウンする変更を行う(S55)。 If the result of determination in step S53 is that the rotation is clockwise, then the parameter changing unit 11d performs a change to increase the zoom parameter (S54). On the other hand, if the rotation is not clockwise, that is, if it is counterclockwise, the parameter changing unit 11d changes the zoom parameter (S55).
ステップS54またはS55においてズームパラメータの変更を行うと、次に、撮像部20の焦点距離を変更する(S56)。ここでは、パラメータ制御部11eによって、撮像部20の光学系の焦点距離をパラメータ変更部11dによって設定されたズームアップまたはズームダウンの方向に変更する。なお、このときのズームアップ量またはズームダウン量は、前述したように、タッチ検出部11aによって検出された回動角度に応じて設定される。撮像部の焦点距離を変更すると、元のフローに戻る。 If the zoom parameter is changed in step S54 or S55, the focal length of the imaging unit 20 is then changed (S56). Here, the focal length of the optical system of the imaging unit 20 is changed by the parameter control unit 11e in the zoom-up or zoom-down direction set by the parameter change unit 11d. Note that the zoom-up amount or zoom-down amount at this time is set according to the rotation angle detected by the touch detection unit 11a as described above. When the focal length of the imaging unit is changed, the original flow is restored.
次に、ステップS37(図7参照)における絞り/SS変更設定のサブルーチンについて、図10に示すフローチャートを用いて説明する。絞り/SS変更設定のフローに入ると、まず、絞り/SSを変更条件に設定する(S61)。ここでは、変更条件設定部11bによって、変更条件として絞りとシャッタ速度が設定される。 Next, the aperture / SS change setting subroutine in step S37 (see FIG. 7) will be described with reference to the flowchart shown in FIG. In the aperture / SS change setting flow, first, aperture / SS is set as a change condition (S61). Here, the aperture and shutter speed are set as the change conditions by the change condition setting unit 11b.
続いて、操作補助画像として左右の位置に表示する(S62)。図5(a)に示したように、操作画像表示部11cは、画面50上の左側のタッチ位置にTVアイコン62aとAVアイコン62bを表示し、右側のタッチ位置にスライドバー62cを表示させる。続いて、AV選択を行ったか否かの判定を行う(S63)。ここでは、タッチ検出部11aによってAVアイコン62bの近傍をタッチしたか否かを検出する。 Subsequently, the operation auxiliary image is displayed at the left and right positions (S62). As shown in FIG. 5A, the operation image display unit 11c displays the TV icon 62a and the AV icon 62b at the left touch position on the screen 50, and displays the slide bar 62c at the right touch position. Subsequently, it is determined whether AV selection has been performed (S63). Here, it is detected whether or not the vicinity of the AV icon 62b is touched by the touch detection unit 11a.
ステップS63における判定の結果、AV選択であった場合には、変更条件設定部11bは絞りを変更条件に設定する(S64)。一方、判定の結果、AV選択でなかった場合、すなわちTVアイコン62aが選択されていた場合には、変更条件設定部11bはSS(シャッタ速度)を変更条件に設定する(S65)。 If the result of determination in step S63 is AV selection, the change condition setting unit 11b sets the aperture as the change condition (S64). On the other hand, if the result of determination is that AV selection has not been made, that is, if the TV icon 62a has been selected, the change condition setting unit 11b sets SS (shutter speed) as the change condition (S65).
ステップS64またはS65において変更条件を設定すると、次に、右スライド移動を検出したか否かの判定を行う(S66)。ここでは、タッチ検出部11aによってスライドバー62に沿ってユーザの指が画面50をタッチしていないかを判定する。この判定の結果、右スライド移動を検出しなかった場合には、元のフローに戻る。 If the change condition is set in step S64 or S65, it is next determined whether or not a right slide movement is detected (S66). Here, it is determined by the touch detection unit 11 a whether the user's finger is not touching the screen 50 along the slide bar 62. If the result of this determination is that no right slide movement has been detected, processing returns to the original flow.
一方、ステップS66における判定の結果、右スライド移動を検出した場合には、次に、スライド量に応じてパラメータを変更する(S67)。ここでは、タッチ検出部11aによって検出されたスライド量に応じて、パラメータ変更部11dは絞り値またはシャッタ速度(SS)を変更する。続いて、変更されたパラメータを表示する(S68)。ここでは、前述したように、絞り/SS表示部62d(図5(b)参照)に表示するので、ユーザはその変更された絞り値やシャッタ速度を確認することができる。 On the other hand, if the result of determination in step S66 is that a right slide movement has been detected, then the parameter is changed according to the slide amount (S67). Here, the parameter changing unit 11d changes the aperture value or the shutter speed (SS) according to the slide amount detected by the touch detection unit 11a. Subsequently, the changed parameter is displayed (S68). Here, as described above, the information is displayed on the aperture / SS display unit 62d (see FIG. 5B), so that the user can check the changed aperture value and shutter speed.
次に、撮像部の所定のパラメータを変更する(S69)。ここでは、パラメータ制御部11eは、絞りまたはシャッタ速度のパラメータ(制御値)の変更を行う。続いて、撮像部20の条件を変更する(S70)。ここでは、撮像部20の絞り値またはシャッタ速度値を変更された値に置き換え、シャッタレリーズ時には、この変更値に従って制御する。撮像部の条件を変更すると、元のフローに戻る。 Next, predetermined parameters of the imaging unit are changed (S69). Here, the parameter control unit 11e changes the parameter (control value) of the aperture or shutter speed. Subsequently, the conditions of the imaging unit 20 are changed (S70). Here, the aperture value or shutter speed value of the imaging unit 20 is replaced with a changed value, and control is performed according to the changed value at the time of shutter release. When the conditions of the imaging unit are changed, the original flow is restored.
以上、説明したように本発明の第1実施形態においては、タッチパネル13へのタッチの状態に応じて、いずれの条件、例えば露出補正値、ズーム値等を変更するかを簡単に設定することができる。このため、小さな画面のタッチパネルであっても、画面が煩雑になることがない。 As described above, in the first embodiment of the present invention, it is possible to easily set which condition, for example, the exposure correction value, the zoom value, or the like is changed according to the touch state on the touch panel 13. it can. For this reason, even if it is a touchscreen of a small screen, a screen does not become complicated.
また、本実施形態においては、変更された条件に応じて、操作補助画像を表示している。このため、ユーザは操作補助画像に沿ってパラメータの設定を簡単に行うことができる。 Moreover, in this embodiment, the operation assistance image is displayed according to the changed conditions. Therefore, the user can easily set parameters along the operation assistance image.
なお、本実施形態においては、ズーム変更設定を行う際に、画面50の左右1箇所づつタッチしており、かつ左右で同時に回動操作を行っている場合に、この設定を行っていた。しかし、左右1箇所づつタッチしていれば、左右同時に回動操作を行っていなくても、いずれか一方で回動操作を行っている場合にズーム変更設定を行うようにしても勿論かまわない。この場合には、ステップ34(図7参照)は、「左右いずれかで回動操作か?」を判定すれば良い。 In the present embodiment, when the zoom change setting is performed, this setting is performed when the left and right portions of the screen 50 are touched one by one and the left and right are simultaneously rotated. However, if the left and right are touched one by one, of course, the zoom change setting may be performed when the rotation operation is performed on either one of the left and right at the same time. In this case, the step 34 (see FIG. 7) may determine “Is the left or right turning operation?”.
次に、本発明の第2実施形態について、図11を用いて説明する。第1実施形態においては、両手の各指を画面50上に置いても、次に操作するまでは、ズームなのか、絞り/SSなのかは、次の操作を行うまで決まっていなかった。しかし、第2実施形態においては、ズームと絞り/SSのいずれであるかは、タッチの最初の態様で区別することができる。第2実施形態における構成は、第1実施形態と同様であり、フローチャートも図7に示した変更条件設定のフローチャートを図11に示すフローチャートに変更する点以外は、第1実施形態と同様である。そこで、相違点を中心に説明する。 Next, a second embodiment of the present invention will be described with reference to FIG. In the first embodiment, even if the fingers of both hands are placed on the screen 50, until the next operation, whether the zoom or the aperture / SS is not determined until the next operation is performed. However, in the second embodiment, whether the zoom or the aperture / SS is selected can be distinguished by the first mode of touch. The configuration of the second embodiment is the same as that of the first embodiment, and the flowchart is the same as that of the first embodiment except that the change condition setting flowchart shown in FIG. 7 is changed to the flowchart shown in FIG. . Therefore, the difference will be mainly described.
図11に示す変更条件設定のフローに入ると、まず、タッチは右1箇所か否かの判定を行う(S71)。ここでは、タッチ検出部11aによって、ステップS31と同様、画面50の右1箇所がタッチされているか否かの判定を行う。この判定の結果、タッチは右1箇所であった場合には、S32と同様、露出補正変更設定を行う(S72)。この露出補正変更のフローは、図8に示した第1実施形態におけるフローと同じであるので説明は省略する。露出補正変更の設定を実行すると、元のフローに戻る。 If the change condition setting flow shown in FIG. 11 is entered, it is first determined whether or not the touch is at one place on the right (S71). Here, as in step S31, the touch detection unit 11a determines whether or not one place on the right side of the screen 50 is touched. If the result of this determination is that the touch is at one place on the right, exposure correction change settings are made as in S32 (S72). The flow of this exposure correction change is the same as the flow in the first embodiment shown in FIG. When the exposure correction change setting is executed, the original flow is restored.
ステップS71における判定の結果、タッチが右1箇所でなかった場合には、次に、タッチは左1箇所か否かの判定を行う(S73)。ここでは、タッチ検出部11aによって、画面50の左1箇所がタッチされているか否かの判定を行う。この判定の結果、左1箇所がタッチされていた場合には、次に、ステップS37と同様に、絞り/SS変更設定を行う(S74)。この絞り/SS変更のフローは、図10に示した第1実施形態におけるフローと同じであるので説明は省略する。絞り/SS変更の設定を実行すると、元のフローに戻る。 If the result of determination in step S71 is that the touch is not at one place on the right, it is next determined whether or not the touch is at one place on the left (S73). Here, it is determined by the touch detection unit 11a whether or not the left portion of the screen 50 is touched. If the result of this determination is that one place on the left has been touched, then aperture / SS change setting is performed as in step S37 (S74). The flow for changing the aperture / SS is the same as the flow in the first embodiment shown in FIG. When the aperture / SS change setting is executed, the flow returns to the original flow.
ステップS73における判定の結果、タッチが左1箇所でなかった場合には、次に、ステップS33と同様に、タッチは左右1箇所づつか否かの判定を行う(S75)。ここでは、タッチ検出部11aによって同時に左右1箇所づつタッチされているかを判定する。この判定の結果、左右1箇所づつタッチされていなかった場合には、元のフローに戻る。一方、判定の結果、左右1箇所づつタッチされていた場合には、ステップS35と同様に、ズーム変更設定を行う(S76)。このズーム変更のフローは、図9に示した第1実施形態におけるフローと同じであるので説明は省略する。ズーム変更の設定を実行すると、元のフローに戻る。 If the result of determination in step S73 is that the touch is not at one place on the left, next, as in step S33, it is determined whether or not the touch is left and right at one place (S75). Here, it is determined whether the touch detection unit 11a is touching the left and right one at a time. If the result of this determination is that the left and right locations are not touched one by one, the flow returns to the original flow. On the other hand, if the result of determination is that one touch has been made on the left and right, zoom change setting is performed as in step S35 (S76). The zoom change flow is the same as the flow in the first embodiment shown in FIG. When the zoom change setting is executed, the flow returns to the original flow.
以上、説明したように本発明の第2実施形態においては、ズームと絞り/SSの変更について、タッチの最初の態様で区別することができる。すなわち、ステップS73においてタッチが左1箇所であった場合には、直ちに、絞り/SS変更設定を実行し、また左1箇所でなかった場合には、左右1箇所づつ同時にタッチされていることを確認してからズーム変更設定を実行するようにしている。このため、次の操作に迅速に移行することができる。 As described above, in the second embodiment of the present invention, the change of the zoom and the aperture / SS can be distinguished by the first mode of touch. That is, if the touch is in one place on the left in step S73, the aperture / SS change setting is immediately executed. If the touch is not in one place on the left, it is confirmed that the left and right places are touched simultaneously. The zoom change setting is executed after confirmation. For this reason, it is possible to quickly move to the next operation.
次に、本発明の第3実施形態について、図12および図13を用いて説明する。第1実施形態においては、リング61は一重としズームを変更条件に設定していた。第3実施形態においては、異なる径のリングを操作補助画像として表示し、それぞれ異なる条件を変更できるようにしている。第3実施形態における構成は、第1実施形態と同様であり、フローチャートも図7に示した変更条件設定のフローチャートを図13に示すフローチャートに変更する点以外は、第1実施形態と同様である。そこで、相違点を中心に説明する。 Next, a third embodiment of the present invention will be described with reference to FIGS. In the first embodiment, the ring 61 is single and the zoom is set as the change condition. In the third embodiment, rings having different diameters are displayed as operation auxiliary images so that different conditions can be changed. The configuration of the third embodiment is the same as that of the first embodiment, and the flowchart is the same as that of the first embodiment, except that the change condition setting flowchart shown in FIG. 7 is changed to the flowchart shown in FIG. . Therefore, the difference will be mainly described.
図13に示すフローチャートの説明を行う前に、図12を用いて本実施形態におけるリング表示の例を用いて条件の変更の仕方について説明する。図12(a)は、画面50の左右の端の方に指が置かれ、操作画像表示部11cによって外周リング63aと内周リング63bが画面50に表示され、ユーザの両手の指がそれぞれ外周リング63aに沿って回動するようにタッチしている様子を示している。 Before explaining the flowchart shown in FIG. 13, how to change the conditions will be described with reference to FIG. 12 and an example of ring display in the present embodiment. In FIG. 12A, fingers are placed toward the left and right edges of the screen 50, and the outer ring 63a and the inner ring 63b are displayed on the screen 50 by the operation image display unit 11c. It shows a state of touching so as to rotate along the ring 63a.
このとき、画面50の左右に破線で示す指90aが置かれ、外周リング63a上に沿って、時計方向であるp方向に向けて動いた場合であって、言い換えると、実線で示す指90bへの位置に向けて移動した場合であって、かつ、左右の指が画面50の端部(左右ともX1の範囲内)にある場合には、変更条件設定部11bによって、変更条件はズームの変更に設定される。なお、上述のX1は、例えば、画面全幅の1/6程度の数値であれば良いが、画面のアスペクト比等に応じて適宜変更しても良い。 At this time, a finger 90a indicated by a broken line is placed on the left and right sides of the screen 50, and the finger 90a moves in the clockwise direction p along the outer ring 63a. In other words, to the finger 90b indicated by a solid line And when the left and right fingers are at the edge of the screen 50 (both left and right within the range of X1), the change condition is changed by the change condition setting unit 11b. Set to The above-described X1 may be a numerical value that is, for example, about 1/6 of the entire screen width, but may be appropriately changed according to the aspect ratio of the screen.
タッチ検出部11aは、このときの回動量を検出し、この回動操作の角度によって、パラメータ変更部11dによってズームパラメータがアップするように変更され、パラメータ制御部11eによって撮像部20の焦点距離が長焦点に移動するように制御される。また、指90aが、外周リング63aに沿って反時計方向に回動するように、タッチしながら移動すると、このときの回動操作の角度によってズームパラメータがダウンするように変更される。パラメータ制御部11eによって撮像部20の焦点距離が短焦点に移動するように制御される。 The touch detection unit 11a detects the amount of rotation at this time, and is changed so that the zoom parameter is increased by the parameter change unit 11d according to the angle of the rotation operation, and the focal length of the imaging unit 20 is changed by the parameter control unit 11e. Controlled to move to long focus. In addition, when the finger 90a moves while touching so as to rotate counterclockwise along the outer ring 63a, the zoom parameter is changed so as to decrease depending on the angle of the rotation operation at this time. The parameter control unit 11e controls the imaging unit 20 so that the focal length moves to a short focal point.
図12(b)は、画面50の内周リング63b上に両手の指が置かれ、それぞれ内周リング63bに沿って回動するようにタッチしている様子を示している。最初に左右の指が置かれた位置が、前述のX1よりもそれぞれ内側に位置で、回動操作が開始されたことが検出されると、変更条件設定部11bによって、変更条件はピント位置の変更操作と設定される。 FIG. 12B shows a state in which fingers of both hands are placed on the inner peripheral ring 63b of the screen 50 and are touched so as to rotate along the inner peripheral ring 63b. When it is detected that the positions where the left and right fingers are initially placed are inward of the aforementioned X1 and the rotation operation is started, the change condition is set by the change condition setting unit 11b. Set as change operation.
タッチ検出部11aは、このときの回動方向と回動量を検出し、この回動方向が時計方向(右回り、図中p方向)であった場合には、パラメータ変更部11dによって、ピントのパラメータが近距離に設定され、回動操作の角度によって、近距離値に変更される。また、回動方向が反時計方向(左回り、図中のp方向と反対の方向)の場合には、パラメータ変更部11dによってピントのパラメータが遠距離に設定され、回動操作の角度によって遠距離値に変更される。 The touch detection unit 11a detects the rotation direction and the rotation amount at this time, and when the rotation direction is clockwise (clockwise, p direction in the figure), the parameter changing unit 11d performs focusing. The parameter is set to a short distance, and is changed to a short distance value depending on the angle of the rotation operation. When the rotation direction is counterclockwise (counterclockwise, the direction opposite to the p direction in the figure), the parameter changing unit 11d sets the focus parameter to a long distance, and the distance varies depending on the angle of the rotation operation. Changed to distance value.
パラメータ制御部11eは、パラメータ変更部11dによって設定された近距離および近距離値に従って、または遠距離および遠距離値に従って撮像部20のピントレンズを近距離側または遠距離側に移動を行う。 The parameter control unit 11e moves the focus lens of the imaging unit 20 to the near distance side or the far distance side according to the short distance and the short distance value set by the parameter changing unit 11d or according to the long distance and the long distance value.
次に、図13に示すフローチャートを用いて、本実施形態における変更条件設定の動作を説明する。本実施形態における変更条件設定は、第1実施形態における図7に示した変更条件設定のフローにおいて、ステップS31〜S34、S36、S37は同一であることから、同一の処理を行うステップについては同一のステップ番号を付し、詳しい説明を省略する。 Next, the change condition setting operation in this embodiment will be described with reference to the flowchart shown in FIG. In the change condition setting in the present embodiment, steps S31 to S34, S36, and S37 are the same in the change condition setting flow shown in FIG. 7 in the first embodiment. Step numbers are given, and detailed explanations are omitted.
図13に示す変更条件設定のフローに入り、ステップS34において、左右で回動操作がなされたか否かを判定し、左右で回動操作がなされていた場合には、次に、ズーム/ピントを変更条件に設定する(S81)。すなわち、タッチ検出部11aによって画面50の左右を同時にタッチされていたことを検出すると、変更条件設定部11bによってズーム/ピントを変更条件に設定する。 In the change condition setting flow shown in FIG. 13, in step S34, it is determined whether or not the left / right rotation operation has been performed. If the left / right rotation operation has been performed, the zoom / focus is next adjusted. The change condition is set (S81). That is, when the touch detection unit 11a detects that the left and right sides of the screen 50 are touched simultaneously, the change condition setting unit 11b sets zoom / focus as a change condition.
続いて、操作補助画像として2重のリング表示を行う(S82)。ここでは、操作画像表示部11cによって、表示部16の画面50上に外周リング63aおよび内周リング63bを表示させる。次に、最初のタッチ位置は外周か否かの判定を行う(S83)。ここでは、タッチ検出部11aによって最初のタッチ位置を検出し、この位置がX1の範囲内か否か判定する。このX1の範囲内にあれば、外周にあると判定される。 Subsequently, a double ring display is performed as an operation auxiliary image (S82). Here, the outer ring 63a and the inner ring 63b are displayed on the screen 50 of the display unit 16 by the operation image display unit 11c. Next, it is determined whether or not the first touch position is the outer periphery (S83). Here, the first touch position is detected by the touch detection unit 11a, and it is determined whether or not this position is within the range of X1. If it is within the range of X1, it is determined that it is on the outer periphery.
ステップS83における判定の結果、最初のタッチ位置が外周にあった場合には、変更条件設定部11bにズームを変更条件に設定する(S84)。続いて、回動は右回りか否かを判定する(S85)。ここでは、タッチ検出部11aの検出結果に基づいて判定する。この判定の結果、右回りであった場合には、パラメータ変更部11dによって焦点距離を長くなるように変更する(S86)。一方、ステップS85における判定の結果、右回りでなかった場合、すなわち左回りであった場合には、パラメータ変更部11dによって焦点距離を短くなるように変更する(S87)。 If the result of determination in step S83 is that the first touch position is on the outer periphery, zoom is set as a change condition in the change condition setting section 11b (S84). Subsequently, it is determined whether the rotation is clockwise (S85). Here, it determines based on the detection result of the touch detection part 11a. If the result of this determination is clockwise, the parameter changing unit 11d changes the focal length to be longer (S86). On the other hand, if the result of determination in step S85 is not clockwise, that is, if it is counterclockwise, the parameter changing unit 11d changes the focal length to shorten (S87).
ステップS86またはS87において、焦点距離の変更を行うと、次に、撮像部20の焦点距離を変更する(S88)。ここでは、パラメータ制御部11eによって、撮像部20のズームレンズを、パラメータ変更部11dによる変更結果に従って、長焦点側または短焦点側に移動する。撮像部の焦点距離の変更を実行すると、元のフローに戻る。 If the focal length is changed in step S86 or S87, the focal length of the imaging unit 20 is then changed (S88). Here, the parameter control unit 11e moves the zoom lens of the imaging unit 20 to the long focus side or the short focus side according to the change result by the parameter change unit 11d. When the focal length of the imaging unit is changed, the original flow is restored.
ステップS83における判定の結果、最初のタッチ位置は外周でなかった場合、すなわち、内周であった場合には、次に、変更条件設定部11bにピントを変更条件に設定する(S91)。続いて、回動は右回りか否かを判定する(S92)。ここでは、タッチ検出部11aの検出結果に基づいて判定する。この判定の結果、右回りであった場合には、パラメータ変更部11dによってピントを近距離方向に変更する(S93)。一方、ステップS92における判定の結果、右回りでなかった場合、すなわち左回りであった場合には、パラメータ変更部11dによってピントを無限方向に変更する(S94)。 If the result of determination in step S83 is that the first touch position is not the outer periphery, that is, if it is the inner periphery, then the focus is set as the change condition in the change condition setting unit 11b (S91). Subsequently, it is determined whether or not the rotation is clockwise (S92). Here, it determines based on the detection result of the touch detection part 11a. If the result of this determination is clockwise, the parameter changing unit 11d changes the focus to the near distance direction (S93). On the other hand, if the result of determination in step S92 is not clockwise, that is, if it is counterclockwise, the parameter changing unit 11d changes the focus in an infinite direction (S94).
ステップS93またはS94において、ピント合わせの方向の変更を行うと、次に、撮像部20のピントを変更する(S95)。ここでは、パラメータ制御部11eによって、撮像部20のピントレンズを、パラメータ変更部11dによる変更結果に従って、近距離側または遠距離側に移動する。撮像部のピントの変更を実行すると、元のフローに戻る。 If the focus direction is changed in step S93 or S94, the focus of the imaging unit 20 is then changed (S95). Here, the parameter control unit 11e moves the focus lens of the imaging unit 20 to the short distance side or the long distance side according to the change result by the parameter change unit 11d. When the focus of the imaging unit is changed, the original flow is restored.
以上、説明したように本発明の第3実施形態においては、リングを2重にしたので、回動操作の径の違いで、2種類の条件を選択的に変更することができる。 As described above, in the third embodiment of the present invention, since the ring is doubled, two types of conditions can be selectively changed depending on the difference in the diameter of the rotation operation.
なお、本実施形態においては、画面50の中央寄りおよび端部のいずれに指を置いた場合であっても、外周リング63aおよび内周リング63bの2重のリングを常に表示するようにしているが、指の置かれた位置に応じて、片方のリングのみを表示するようにしても良い。 In the present embodiment, the double ring of the outer ring 63a and the inner ring 63b is always displayed regardless of whether the finger is placed near the center or the end of the screen 50. However, only one of the rings may be displayed according to the position where the finger is placed.
また、本実施形態においては、リングは2重であったが、これに限らず、3重またはそれ以上でも構わない。3重にした場合には、さらに多数の条件を選択的に変更することができる。 In the present embodiment, the ring is double. However, the ring is not limited to this, and may be triple or more. In the case of triple, a larger number of conditions can be selectively changed.
次に、本発明の第4実施形態について、図14ないし図16を用いて説明する。第3実施形態においては、操作補助画像としての複数のリングを同心円に表示していた。この第4実施形態においては、複数のリングの中心をずらしては位置するようにしている。第4実施形態における構成は、第1実施形態と同様であり、フローチャートも図7に示した変更条件設定のフローチャートを図16に示すフローチャートに変更する点以外は、第1実施形態と同様である。そこで、相違点を中心に説明する。 Next, a fourth embodiment of the present invention will be described with reference to FIGS. In the third embodiment, a plurality of rings as operation assistance images are displayed concentrically. In the fourth embodiment, the centers of the plurality of rings are shifted and positioned. The configuration of the fourth embodiment is the same as that of the first embodiment, and the flowchart is the same as that of the first embodiment except that the change condition setting flowchart shown in FIG. 7 is changed to the flowchart shown in FIG. . Therefore, the difference will be mainly described.
図16に示すフローチャートの説明を行う前に、図14を用いて本実施形態におけるリング表示の例を用いて条件の変更の仕方について説明する。図14(a)は、画面50の右上側で両手の両指でそれぞれ同時にタッチされた際に、変更条件としてズームが設定される様子を示す図である。すなわち、タッチ検出部11aによって、画面50の右上側(第1象限)において両指で同時にタッチされたことを検出すると、変更条件設定部11bによって変更条件の種類としてズームが設定される。 Before explaining the flowchart shown in FIG. 16, how to change the conditions will be described with reference to FIG. 14 and an example of ring display in the present embodiment. FIG. 14A is a diagram illustrating a state in which zoom is set as a change condition when both fingers are simultaneously touched on the upper right side of the screen 50. That is, when the touch detection unit 11a detects that both fingers are simultaneously touched on the upper right side (first quadrant) of the screen 50, the change condition setting unit 11b sets zoom as the type of change condition.
続いて、補助画像表示部11cにより、そのタッチ位置2点を通るような円64aを画面50上に表示させる。また、円64aの中心64acには、変更条件の名称として、「ズーム」を表示する。他の実施形態と同様に、円64aに沿ってユーザの両指がタッチしながら動くと、焦点距離が変更される。ここで、この回動操作方向が右回り(時計方向)の場合には、ズームアップとなり、逆に回動操作方向が左回り(反時計方向)の場合にはズームダウンとなる。 Subsequently, a circle 64a passing through the two touch positions is displayed on the screen 50 by the auxiliary image display unit 11c. In addition, “zoom” is displayed at the center 64ac of the circle 64a as the name of the change condition. As in the other embodiments, when the user's fingers move along the circle 64a while touching, the focal length is changed. Here, when the rotation operation direction is clockwise (clockwise), the zoom is increased. Conversely, when the rotation operation direction is counterclockwise (counterclockwise), the zoom is down.
図14(b)は、画面50の右下側で両手の両指でそれぞれ同時にタッチされた際に、変更条件としてピントが設定される様子を示す図である。すなわち、タッチ検出部11aによって、画面50の右下側(第4象限)において両指で同時にタッチされたことを検出すると、変更条件設定部11bによって変更条件の種類としてピントが設定される。 FIG. 14B is a diagram illustrating a state in which focus is set as a change condition when both fingers of both hands are simultaneously touched on the lower right side of the screen 50. That is, when the touch detection unit 11a detects that both fingers are simultaneously touched on the lower right side (fourth quadrant) of the screen 50, the change condition setting unit 11b sets the focus as the type of the change condition.
続いて、補助画像表示部11cにより、そのタッチ位置2点を通るような円64bを画面50上に表示させる。また、円64bの中心64bcには、変更条件の名称として、「ピント」を表示する。円64bに沿ってユーザの両指がタッチしながら動くと、ピントが変更される。ここで、この回動操作方向が右回り(時計方向)の場合には、近距離となり、逆に回動操作方向が左回り(反時計方向)の場合には遠距離となる。 Subsequently, the auxiliary image display unit 11c displays on the screen 50 a circle 64b that passes through the two touch positions. In addition, “focus” is displayed as the name of the change condition at the center 64bc of the circle 64b. When the user's fingers move along the circle 64b while touching, the focus is changed. Here, when the rotation operation direction is clockwise (clockwise), the distance is short, and conversely when the rotation operation direction is counterclockwise (counterclockwise), the distance is long.
図14(c)は、ズームの円64aとピントの円64bの両方を表示させた画面の例を示す。図14(a)においてズームの円64aを表示させた後、何もしないまま一定時間(例えば、1秒)以上経過すると、円64aは消去されるが、一定時間以内に両指の位置を下に移動させて、再度、回動操作を行うと、ズームの円64aに加えて、ピントの円64bが重ねて表示される。円同士が交差してもかまわない。 FIG. 14C shows an example of a screen on which both a zoom circle 64a and a focus circle 64b are displayed. After displaying the zoom circle 64a in FIG. 14 (a), if a certain time (for example, 1 second) elapses without any operation, the circle 64a is erased, but the positions of both fingers are lowered within the certain time. When the rotation operation is performed again, the focus circle 64b is displayed in addition to the zoom circle 64a. It does not matter if the circles intersect.
ズームとピントの選択の順番は、逆でも当然構わず、また、表示される円の数は3以上でも良い。例えば、画面50の全体を4つに分割し、右上(第1象限)、左上(第2象限)、左下(第3象限)、右下(第4象限)の4つの領域に、操作補助画像として、それぞれ独立した円を表示するようにしても良い。後述する図16に示すフローは、この4つの円を表示する例である。 The order of selecting zoom and focus may be reversed, and the number of circles displayed may be three or more. For example, the entire screen 50 is divided into four, and an operation auxiliary image is displayed in four areas of upper right (first quadrant), upper left (second quadrant), lower left (third quadrant), and lower right (fourth quadrant). Independent circles may be displayed. A flow shown in FIG. 16 described later is an example of displaying these four circles.
次に、図15を用いて、画面50にタッチした両指の位置から、表示させる円の径とセンタ位置を算出する方法について説明する。図14において、変更条件設定部11bは、タッチされた位置変更条件の種類を設定しているが、このときの円の設定方法である。 Next, a method for calculating the diameter and center position of a circle to be displayed from the positions of both fingers touching the screen 50 will be described with reference to FIG. In FIG. 14, the change condition setting unit 11b sets the type of the touched position change condition. This is a circle setting method at this time.
タッチ検出部11aによって検出される、右指がタッチされた位置91aの略センタの座標を(x1、y1)とし、左指がタッチされた位置91bの略センタの座標を(x2、y2)とする。このときタッチ検出部11aは、下記の(1)〜(3)式に基づいて、円の半径R、円のセンタ91cの座標(x3、y3)を算出する。
R=(((x1−x2)2+(y1−y2)2)0.5)/2 ・・・(1)
x3=(x1+x2)/2 ・・・(2)
y3=(y1+y2)/2 ・・・(3)
The coordinates of the approximate center of the position 91a touched by the right finger detected by the touch detection unit 11a is (x1, y1), and the coordinates of the approximate center of the position 91b touched by the left finger is (x2, y2). To do. At this time, the touch detection unit 11a calculates the radius R of the circle and the coordinates (x3, y3) of the center 91c of the circle based on the following equations (1) to (3).
R = (((x1-x2) 2 + (y1-y2) 2 ) 0.5 ) / 2 (1)
x3 = (x1 + x2) / 2 (2)
y3 = (y1 + y2) / 2 (3)
次に、図16に示すフローチャートを用いて、本実施形態における変更条件設定の動作を説明する。変更条件設定のフローに入ると、まず、両手タッチ位置にリング表示を行う(S101)。ここでは、タッチ検出部11aによって検出された両手の指がタッチした位置に基づいて、前述の(1)〜(3)式を用いて、円の径とセンタ位置を求め、リングを操作補助画像として表示する。 Next, the change condition setting operation in this embodiment will be described with reference to the flowchart shown in FIG. If the change condition setting flow is entered, first, a ring display is performed at the two-hand touch position (S101). Here, based on the position where the fingers of both hands touch detected by the touch detection unit 11a, the diameter and center position of the circle are obtained using the above-described equations (1) to (3), and the ring is operated as an auxiliary operation image. Display as.
続いて、センタが第1象限か否かの判定を行う(S102)。ここでは、ステップS101において算出した円のセンタ位置に基づいて、第1象限に含まれているか否かの判定を行う。この判定の結果、センタが第1象限であった場合には、次に、直径が画面幅の半分より大か否かの判定を行う(S103)。ここでは、ステップS101において算出した円の径に基づいて判定する。なお、本実施形態においては判定値として画面を4分割にすることから画面幅の半分としたが、これに限らず、設計値として適宜変更しても良い。 Subsequently, it is determined whether or not the center is in the first quadrant (S102). Here, based on the center position of the circle calculated in step S101, it is determined whether it is included in the first quadrant. If the result of this determination is that the center is in the first quadrant, it is next determined whether or not the diameter is greater than half the screen width (S103). Here, the determination is made based on the diameter of the circle calculated in step S101. In the present embodiment, since the screen is divided into four as the determination value, the screen width is half. However, the present invention is not limited to this, and the design value may be changed as appropriate.
ステップS103における判定の結果、直径が画面幅の半分より大であった場合には、次に、ズームの変更1ピッチを小さな値に設定する(S104)。一方、判定の結果、大でなかった場合には、次に、ズームの変更1ピッチを大きな値に設定する(S105)。ステップS104とS105における変更1ピッチは、相対的に、ステップS105の変更1ピッチを、ステップS104の変更1ピッチよりも大きく設定すれば良い。ここで、例えば、今、撮像部20の焦点距離が10mm〜100mmの10倍ズームとし、変更ピッチが小では10mm/90度回動、大では30mm/90度回動とすると、大きく変化させたい場合には変更ピッチを小とし、一方、細かく変化させたい場合には変更ピッチを大とすれば良い。 If the result of determination in step S103 is that the diameter is greater than half the screen width, then the zoom change 1 pitch is set to a small value (S104). On the other hand, if the result of determination is not great, then the zoom change 1 pitch is set to a large value (S105). The change 1 pitch in steps S104 and S105 may be set relatively larger than the change 1 pitch in step S105. Here, for example, if the focal length of the imaging unit 20 is 10 × zoom of 10 mm to 100 mm, and the change pitch is small, the rotation is 10 mm / 90 degrees, and the large change is 30 mm / 90 degrees. In this case, the change pitch is set to a small value. On the other hand, if it is desired to make a fine change, the change pitch may be set to a large value.
ステップS104またはS105においてズームの変更1ピッチを設定すると、次に、ズーム処理を行う(S106)。ここでは、ステップS104、S105において設定ズームの変更1ピッチを用いて、パラメータ制御部11eは、撮像部20のズームレンズの焦点距離を変更する。ズーム処理を行うと、元のフローに戻る。 If the zoom change 1 pitch is set in step S104 or S105, next, zoom processing is performed (S106). Here, the parameter control unit 11e changes the focal length of the zoom lens of the imaging unit 20 by using the set zoom change 1 pitch in steps S104 and S105. When zoom processing is performed, the original flow is restored.
ステップS102における判定の結果、センタが第1象限になかった場合には、センタが第2象限か否かの判定を行う(S107)。ここでは、ステップS101において算出した円のセンタ位置に基づいて、第2象限に含まれているか否かの判定を行う。この判定の結果、センタが第2象限であった場合には、次に、SS変更処理を行う(S108)。ここでは、シャッタ速度を変更するための処理を行う。表示したリングの回動操作の方向に従って、シャッタ速度を高速側に変更し、または低速側に変更する。SS変更処理を行うと、元のフローに戻る。 If the result of determination in step S102 is that the center is not in the first quadrant, it is determined whether or not the center is in the second quadrant (S107). Here, based on the center position of the circle calculated in step S101, it is determined whether or not it is included in the second quadrant. If the result of this determination is that the center is in the second quadrant, then SS change processing is performed (S108). Here, processing for changing the shutter speed is performed. The shutter speed is changed to the high speed side or changed to the low speed side according to the direction of the displayed rotation operation of the ring. If SS change processing is performed, it will return to the original flow.
ステップS107における判定の結果、センタが第2象限になかった場合には、センタが第3象限か否かの判定を行う(S109)。ここでは、ステップS101において算出した円のセンタ位置に基づいて、第3象限に含まれているか否かの判定を行う。この判定の結果、センタが第3象限であった場合には、次に、絞り変更処理を行う(S110)。ここでは、絞り値を変更するための処理を行う。表示したリングの回動操作の方向に従って、絞り値を開放側に変更し、または絞り込み側に変更する。絞り変更処理を行うと、元のフローに戻る。 If the result of determination in step S107 is that the center is not in the second quadrant, it is determined whether or not the center is in the third quadrant (S109). Here, based on the center position of the circle calculated in step S101, it is determined whether or not it is included in the third quadrant. If the result of this determination is that the center is in the third quadrant, then aperture change processing is performed (S110). Here, processing for changing the aperture value is performed. The aperture value is changed to the open side or changed to the aperture side according to the direction of the displayed ring rotation operation. When the aperture change process is performed, the original flow is restored.
ステップS109における判定の結果、センタが第3象限になかった場合には、この場合にはセンタが第4象限にあることから、次に、ピント変更処理を行う(S111)。ここでは、ピントを変更するための処理を行う。表示したリングの回動操作の方向に従って、ピントを近距離側に変更し、または遠距離側に変更する。ピント変更処理を行うと、元のフローに戻る。 If the result of determination in step S109 is that the center is not in the third quadrant, since the center is in the fourth quadrant in this case, focus change processing is next performed (S111). Here, processing for changing the focus is performed. The focus is changed to the short distance side or the long distance side according to the direction of the displayed rotation operation of the ring. When the focus change process is performed, the original flow is restored.
以上、説明したように本発明の第4実施形態においては、小さめの円を複数表示することができる。このため回動操作によって変更させたい条件の種類を多くすることができる。また、円の径に応じて、変更されるパラメータのステップ量をけるようにしたので、大きく変化させたい場合と細かく変化させたい場合のように変化量の切り替えが容易に選択することができる。 As described above, in the fourth embodiment of the present invention, a plurality of smaller circles can be displayed. For this reason, it is possible to increase the types of conditions that are desired to be changed by the turning operation. Further, since the step amount of the parameter to be changed is set according to the diameter of the circle, switching of the change amount can be easily selected as in the case where it is desired to make a large change or the case where it is desired to make a fine change.
以上説明したように、本発明の各実施形態においては、タッチパネルへの入力操作の態様に応じて、変更される条件の種類を変更できるようしている。このため、多種類の条件を整理された画面で簡単に入力することができる。また、各実施形態においては、変更された条件に応じて、操作補助画像を表示するようにしている。このため、ユーザは操作補助画像に従って簡単に入力することができる。 As described above, in each embodiment of the present invention, the type of condition to be changed can be changed according to the mode of input operation on the touch panel. For this reason, various types of conditions can be easily input on an organized screen. In each embodiment, an operation auxiliary image is displayed according to the changed condition. For this reason, the user can input easily according to the operation assistance image.
なお、制御部11がプログラムデータ記憶部12に格納された操作制御用のプログラムを読み出して実行されることによって、上述のインデックス画面の表示制御処理が実現されていることから、このようなソフトウエア処理に関する制御用プログラムも本発明の対象となる。また、このような制御用プログラムが記録された記録媒体も本発明の対象となる。なお、プログラムを格納する記録媒体としては、フラッシュメモリに限定されるものではなく、CD−ROM、DVD−ROM等の光学記録媒体、MD等の磁気記録媒体、テープ媒体、ICカード、USBメモリ等の半導体メモリであっても良い。 The control unit 11 reads out and executes the operation control program stored in the program data storage unit 12 to realize the above-described index screen display control process. A control program related to processing is also an object of the present invention. A recording medium on which such a control program is recorded is also an object of the present invention. The recording medium for storing the program is not limited to the flash memory, but an optical recording medium such as a CD-ROM or DVD-ROM, a magnetic recording medium such as an MD, a tape medium, an IC card, a USB memory, or the like. The semiconductor memory may be used.
また、本発明の各実施形態の説明に当たって、処理の実行をソフトエウエア処理とハードウエア処理の組み合わせで説明したが、これに限られるものではなく、その組み合わせは選択事項である。 In the description of each embodiment of the present invention, the execution of processing has been described by a combination of software processing and hardware processing. However, the present invention is not limited to this, and the combination is a matter of choice.
また、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラのような動画用のカメラでもよい。また、携帯機器としては、カメラに限られるものではなく、携帯電話、ムービーカメラ、携帯情報端末(PDA:Personal Digital Assist)、携帯ゲーム機器、あるいは音楽プレーヤー等に適用される。 In this embodiment, the digital camera is used as the photographing device. However, the camera may be a digital single lens reflex camera, a compact digital camera, or a video camera such as a video camera. . In addition, the portable device is not limited to a camera, and is applied to a mobile phone, a movie camera, a personal digital assistant (PDA), a portable game device, a music player, or the like.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
11・・・制御部(CPU)、11a・・・タッチ検出部、11b・・・変更条件設定部、11c・・・操作画像表示部、11d・・・パラメータ変更部、11e・・・パラメータ制御部、12・・・プログラム/データ記憶部、13・・・タッチパネル、14・・・操作部、15・・・表示制御部、16・・・表示部、20・・・撮像部、21・・・画像処理部、22・・・圧縮伸張部、23・・・記録再生部、24・・・画像記憶部、25・・・通信部、26・・・バス、50・・・画面、52a・・・人物、52b・・・風景、60・・・露出補正バー、61・・・リング、62a・・・シャッタ速度用アイコン、62b・・・絞り用アイコン、62c・・・スライドバー、62d・・・絞り/SS表示部、63a・・・外周リング、63b・・・内周リング、64・・・円、64a・・・円、64ac・・・中心、64b・・・円、64bc・・・中心、90・・・指、90a・・・指、90b・・・指、91a・・・位置、91b・・・位置、91c・・・センタ、100・・・液晶部、102・・・バックライト、104・・・光センサ、106a・・・照射光、106b・・・照射光 DESCRIPTION OF SYMBOLS 11 ... Control part (CPU), 11a ... Touch detection part, 11b ... Change condition setting part, 11c ... Operation image display part, 11d ... Parameter change part, 11e ... Parameter control , 12 ... program / data storage unit, 13 ... touch panel, 14 ... operation unit, 15 ... display control unit, 16 ... display unit, 20 ... imaging unit, 21 ... Image processing unit, 22 ... compression / decompression unit, 23 ... recording / reproducing unit, 24 ... image storage unit, 25 ... communication unit, 26 ... bus, 50 ... screen, 52a .. person, 52b ... landscape, 60 ... exposure correction bar, 61 ... ring, 62a ... shutter speed icon, 62b ... aperture icon, 62c ... slide bar, 62d ..Aperture / SS display section, 63a ... outer ring, 3b ... inner ring, 64 ... circle, 64a ... circle, 64ac ... center, 64b ... circle, 64bc ... center, 90 ... finger, 90a ... finger, 90b ... finger, 91a ... position, 91b ... position, 91c ... center, 100 ... liquid crystal unit, 102 ... backlight, 104 ... light sensor, 106a ... irradiation Light, 106b ... Irradiation light
Claims (10)
画像が表示される表示部と、
上記表示部に設けられたタッチパネルと、
上記タッチパネルへの入力操作を検出する検出部と、
上記入力操作の態様に基づき、変更される条件の種類を設定する変更条件設定部と、
設定された上記変更条件の種類に応じて、当該変更条件の具体的なパラメータを設定するための操作補助画像を上記表示部の画面に表示させる操作画像表示部と、
上記操作補助画像が表示される画面に対する入力操作に基づき、当該変更条件のパラメータを変更するパラメータ変更部と、
を備えることを特徴とする条件変更装置。 In a condition change device that changes the operating conditions of the device,
A display for displaying images;
A touch panel provided in the display unit;
A detection unit for detecting an input operation to the touch panel;
Based on the mode of the input operation, a change condition setting unit that sets the type of condition to be changed,
An operation image display unit that displays an operation auxiliary image for setting specific parameters of the change condition on the screen of the display unit according to the type of the change condition that is set,
A parameter changing unit that changes a parameter of the change condition based on an input operation on the screen on which the operation auxiliary image is displayed;
A condition changing device comprising:
上記操作画像表示部は、片手の指による操作の場合には、上記画面で操作された指側に上記操作補助画像を表示させ、両手の指による操作の場合には、上記画面の両側に上記操作補助画像を表示させる、
ことを特徴とする請求項1に記載の条件変更装置。 The change condition setting unit switches and sets the type of the change condition according to the difference between the operation with one finger on the touch panel and the simultaneous operation with the fingers of both hands as an aspect of the input operation,
The operation image display unit displays the operation auxiliary image on the finger operated on the screen in the case of operation with a finger of one hand, and displays the operation image on both sides of the screen in the case of operation with a finger of both hands. Display operation assistance images,
The condition changing device according to claim 1, wherein:
上記操作画像表示部は、当該両手の指による回動操作が開始された場合には、上記画面に周状のオブジェクトを上記操作補助画像として表示させる、
ことを特徴とする請求項1に記載の条件変更装置。 The change condition setting unit, as a mode of the input operation, determines the type of the operation condition depending on whether or not the rotation operation is further started by the fingers of both hands when the simultaneous operation with the fingers of both hands is performed on the touch panel. To set
The operation image display unit displays a circumferential object on the screen as the operation auxiliary image when the rotation operation with the fingers of both hands is started.
The condition changing device according to claim 1, wherein:
上記操作画像表示部は、当該回動操作の径の目安となるような2重の周状のオブジェクトを上記操作補助画像として表示させる、
ことを特徴とする請求項1に記載の条件変更装置。 The change condition setting unit, when the mode of the input operation includes a rotation operation, switches and sets the type of the operation condition according to the diameter of the rotation operation,
The operation image display unit displays a double circumferential object as a guide for the diameter of the rotation operation as the operation auxiliary image.
The condition changing device according to claim 1, wherein:
上記操作画像表示部は、当該回動操作に係わる指の位置に応じて上記操作補助画像を表示させる、
ことを特徴とする請求項1に記載の条件変更装置。 The change condition setting unit switches and sets the type of the operation condition according to the center position of the rotation operation on the screen when the mode of the input operation includes a rotation operation.
The operation image display unit displays the operation auxiliary image according to the position of the finger related to the rotation operation.
The condition changing device according to claim 1, wherein:
上記タッチパネルが筺体の背面に設けられ、
上記変更条件設定部は、上記変更条件として撮影条件を設定し、
上記操作画像表示部は、上記操作補助画像をライブビュー画像に重畳して表示させる、
ことを特徴とするカメラ。 The condition changing device according to claim 1 is mounted,
The touch panel is provided on the back of the housing,
The change condition setting unit sets a shooting condition as the change condition,
The operation image display unit displays the operation auxiliary image superimposed on a live view image.
A camera characterized by that.
上記タッチパネルへの入力操作を検出するステップと、
上記入力操作の態様に基づき、変更される条件の種類を設定するステップと、
設定された上記変更条件の種類に応じて、当該変更条件の具体的なパラメータを設定するための操作補助画像を上記表示部の画面に表示させるステップと、
上記操作補助画像が表示される画面に対する入力操作に基づき、当該変更条件のパラメータを変更するステップと、
を備えることを特徴とするプログラム。 In a program that causes a computer to execute a process of changing an operating condition in a device including a display unit on which an image is displayed and a touch panel provided in the display unit,
Detecting an input operation to the touch panel;
Setting a type of condition to be changed based on the mode of the input operation;
Displaying an operation auxiliary image for setting a specific parameter of the change condition on the screen of the display unit according to the type of the change condition set;
Changing the parameter of the change condition based on an input operation on the screen on which the operation auxiliary image is displayed;
A program comprising:
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009170702A JP2011028345A (en) | 2009-07-22 | 2009-07-22 | Condition change device, camera, mobile apparatus and program |
US12/838,276 US8466996B2 (en) | 2009-07-22 | 2010-07-16 | Condition changing device |
CN201310052992.8A CN103095991B (en) | 2009-07-22 | 2010-07-22 | Camera |
CN2010102360111A CN101963860B (en) | 2009-07-22 | 2010-07-22 | Condition changing device |
US13/833,186 US8767113B2 (en) | 2009-07-22 | 2013-03-15 | Condition changing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009170702A JP2011028345A (en) | 2009-07-22 | 2009-07-22 | Condition change device, camera, mobile apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011028345A true JP2011028345A (en) | 2011-02-10 |
JP2011028345A5 JP2011028345A5 (en) | 2012-08-30 |
Family
ID=43496992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009170702A Pending JP2011028345A (en) | 2009-07-22 | 2009-07-22 | Condition change device, camera, mobile apparatus and program |
Country Status (3)
Country | Link |
---|---|
US (2) | US8466996B2 (en) |
JP (1) | JP2011028345A (en) |
CN (2) | CN103095991B (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215539A (en) * | 2010-04-02 | 2011-10-27 | Rohm Co Ltd | Digital camera |
JP2012195883A (en) * | 2011-03-17 | 2012-10-11 | Yamaha Corp | Electronic music apparatus and signal process characteristic control program |
JP2013068671A (en) * | 2011-09-20 | 2013-04-18 | Canon Inc | Imaging apparatus, control method thereof, program, and storage medium |
WO2013089190A1 (en) * | 2011-12-16 | 2013-06-20 | オリンパスイメージング株式会社 | Imaging device and imaging method, and storage medium for storing tracking program processable by computer |
JP2013162419A (en) * | 2012-02-07 | 2013-08-19 | Olympus Imaging Corp | Photographing equipment |
JP2013218204A (en) * | 2012-04-11 | 2013-10-24 | Nikon Corp | Focus detection device and imaging device |
JP2014067164A (en) * | 2012-09-25 | 2014-04-17 | Nintendo Co Ltd | Information processing apparatus, information processing system, information processing method, and information processing program |
JP2014078855A (en) * | 2012-10-10 | 2014-05-01 | Olympus Imaging Corp | Electronic apparatus, driving method, and program |
JP2014130619A (en) * | 2014-02-18 | 2014-07-10 | Fuji Xerox Co Ltd | Device |
JP2014130450A (en) * | 2012-12-28 | 2014-07-10 | Canon Inc | Information processor and control method therefor |
US9171506B2 (en) | 2011-10-07 | 2015-10-27 | Panasonic Intellectual Property Corporation Of America | Image pickup device and image pickup method |
JP2015191467A (en) * | 2014-03-28 | 2015-11-02 | アズビル株式会社 | Input device |
JP2015197884A (en) * | 2014-04-03 | 2015-11-09 | 株式会社東芝 | Information terminal and equipment operation method |
US9239675B2 (en) | 2011-08-22 | 2016-01-19 | Fuji Xerox Co., Ltd. | Input display apparatus and method, image forming apparatus, imaging apparatus, and computer readable medium |
US9250800B2 (en) | 2010-02-18 | 2016-02-02 | Rohm Co., Ltd. | Touch-panel input device |
JP2016045813A (en) * | 2014-08-25 | 2016-04-04 | キヤノン株式会社 | Zoom control device and control method thereof |
JP2016530659A (en) * | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Simultaneous selection of range and value gestures |
JP2016533100A (en) * | 2014-07-18 | 2016-10-20 | 小米科技有限責任公司Xiaomi Inc. | Method, apparatus, program, and recording medium for adjusting shooting parameters |
JP2016213877A (en) * | 2016-07-27 | 2016-12-15 | オリンパス株式会社 | Electronic apparatus |
JP2017123201A (en) * | 2011-10-10 | 2017-07-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Function operation method and apparatus of touch device |
JP2017135735A (en) * | 2017-03-14 | 2017-08-03 | オリンパス株式会社 | Electronic device, driving method and program |
JP2018106764A (en) * | 2012-12-26 | 2018-07-05 | グリー株式会社 | Information processing apparatus control method, control program, and information processing apparatus |
JP2018156353A (en) * | 2017-03-17 | 2018-10-04 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018194284A (en) * | 2017-05-22 | 2018-12-06 | リンナイ株式会社 | Cooking cooker operation system |
JP2019220207A (en) * | 2013-03-08 | 2019-12-26 | トムソン ライセンシングThomson Licensing | Method and apparatus for using gestures for shot effects |
US11249631B2 (en) | 2013-11-07 | 2022-02-15 | Sony Corporation | Information processing apparatus and information processing method |
US12081896B2 (en) | 2018-10-29 | 2024-09-03 | Henry M. Pena | Real time video special effects system and method |
US12126930B2 (en) | 2018-10-29 | 2024-10-22 | Henry M. Pena | Real time video special effects system and method |
JP7574135B2 (en) | 2021-04-28 | 2024-10-28 | フォルシアクラリオン・エレクトロニクス株式会社 | Information processing device and program |
JP7597720B2 (en) | 2018-10-29 | 2024-12-10 | ヘンリー ペナ, | Real-time video special effects system and method and computer-readable storage medium |
JP7643923B2 (en) | 2021-04-28 | 2025-03-11 | フォルシアクラリオン・エレクトロニクス株式会社 | Information processing device and program |
Families Citing this family (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7544919B2 (en) | 2006-11-20 | 2009-06-09 | Red.Com, Inc. | Focus assist system and method |
US9690168B2 (en) | 2006-11-20 | 2017-06-27 | Red.Com, Inc. | Focus assist system and method |
US8723811B2 (en) * | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
US9836139B2 (en) * | 2009-12-07 | 2017-12-05 | Beijing Lenovo Software Ltd. | Method and terminal device for operation control of operation object |
JP5457217B2 (en) * | 2010-02-02 | 2014-04-02 | オリンパスイメージング株式会社 | camera |
TWI438715B (en) * | 2010-09-02 | 2014-05-21 | Htc Corp | Image processing methods and systems for handheld devices, and computer program products thereof |
JP2012114819A (en) * | 2010-11-26 | 2012-06-14 | Toshiba Corp | Electronic device and display method of seek bar |
US8717381B2 (en) * | 2011-01-11 | 2014-05-06 | Apple Inc. | Gesture mapping for image filter input parameters |
KR101836381B1 (en) * | 2011-01-28 | 2018-03-08 | 삼성전자주식회사 | Apparatus and method for controlling screen display in touch screen terminal |
JP6097280B2 (en) * | 2011-05-06 | 2017-03-15 | レッド.コム,インコーポレイテッド | Focusing support system and method |
JP5855862B2 (en) * | 2011-07-07 | 2016-02-09 | オリンパス株式会社 | Imaging apparatus, imaging method, and program |
EP2555097A1 (en) * | 2011-08-05 | 2013-02-06 | prisma - Gesellschaft für Projektmanagement & Informationssysteme mbH | Method and device for determining a section of an image and triggering imaging using a single touch-based gesture |
KR101834987B1 (en) | 2011-08-08 | 2018-03-06 | 삼성전자주식회사 | Apparatus and method for capturing screen in portable terminal |
JP5855395B2 (en) * | 2011-09-09 | 2016-02-09 | オリンパス株式会社 | Camera system and interchangeable lens |
JP6032879B2 (en) * | 2011-10-03 | 2016-11-30 | キヤノン株式会社 | Imaging information output device and lens device having the same |
JP5893359B2 (en) * | 2011-11-22 | 2016-03-23 | オリンパス株式会社 | Imaging device |
KR101838033B1 (en) * | 2011-11-25 | 2018-03-15 | 삼성전자 주식회사 | Method and apparatus for providing image photography of a user device |
JP5855454B2 (en) * | 2011-12-28 | 2016-02-09 | オリンパス株式会社 | Imaging device |
JP5563108B2 (en) * | 2012-03-27 | 2014-07-30 | 富士フイルム株式会社 | Imaging apparatus, imaging method, and program |
JP5657175B2 (en) * | 2012-03-29 | 2015-01-21 | 富士フイルム株式会社 | Correction device |
CN103365044B (en) * | 2012-03-30 | 2016-12-14 | 百度在线网络技术(北京)有限公司 | Use the method for camera shooting photo and the device of the shooting photo for camera |
KR20130112626A (en) * | 2012-04-04 | 2013-10-14 | 삼성전자주식회사 | Operation mode controlling method of media equipment, apparatus thereof, and medium storing program source thereof |
KR101901620B1 (en) * | 2012-04-17 | 2018-09-27 | 삼성전자주식회사 | Device and method for controlling focus |
US9465500B2 (en) * | 2012-04-21 | 2016-10-11 | Freescale Semicondcutor, Inc. | Two-touch gesture detection on a four-wire resistive touchscreen |
JP5968102B2 (en) * | 2012-06-15 | 2016-08-10 | キヤノン株式会社 | Image recording apparatus and image reproducing apparatus |
CN103843032B (en) | 2012-08-08 | 2016-04-20 | 杜比实验室特许公司 | For the image procossing of high dynamic range images |
JP5995607B2 (en) * | 2012-08-22 | 2016-09-21 | キヤノン株式会社 | Electronic device, program and recording medium |
US8907914B2 (en) * | 2012-08-31 | 2014-12-09 | General Electric Company | Methods and apparatus for documenting a procedure |
US20140071061A1 (en) * | 2012-09-12 | 2014-03-13 | Chih-Ping Lin | Method for controlling execution of camera related functions by referring to gesture pattern and related computer-readable medium |
CN103729128B (en) | 2012-10-10 | 2017-12-22 | 腾讯科技(深圳)有限公司 | A kind of method and device of picture pick-up device conversion focal length |
US8762895B2 (en) * | 2012-10-28 | 2014-06-24 | Google Inc. | Camera zoom indicator in mobile devices |
JP6108819B2 (en) * | 2012-12-25 | 2017-04-05 | オリンパス株式会社 | Imaging device |
KR20140085055A (en) * | 2012-12-27 | 2014-07-07 | 삼성전자주식회사 | Electronic apparatus and Method for controlling electronic apparatus thereof |
US9760267B2 (en) | 2013-02-05 | 2017-09-12 | Nokia Technologies Oy | Method and apparatus for a slider interface element |
US8849064B2 (en) * | 2013-02-14 | 2014-09-30 | Fotonation Limited | Method and apparatus for viewing images |
JP6244655B2 (en) * | 2013-05-16 | 2017-12-13 | ソニー株式会社 | Image processing apparatus and image processing method |
TW201503687A (en) * | 2013-07-15 | 2015-01-16 | Chi Mei Comm Systems Inc | System and method for controlling taking photos |
JP6195361B2 (en) * | 2013-08-21 | 2017-09-13 | キヤノン株式会社 | Image processing apparatus, control method, and program |
CN105684420B (en) * | 2013-08-30 | 2018-04-13 | 株式会社尼康 | Image processing apparatus and image processing program |
KR102150470B1 (en) * | 2014-01-15 | 2020-09-01 | 삼성전자주식회사 | Method for setting shooting condition and electronic device performing thereof |
US10855911B2 (en) * | 2014-01-15 | 2020-12-01 | Samsung Electronics Co., Ltd | Method for setting image capture conditions and electronic device performing the same |
GB2522670A (en) * | 2014-01-31 | 2015-08-05 | Sony Corp | Computing device |
US9658734B2 (en) * | 2014-02-17 | 2017-05-23 | Beijing Lenovo Software Ltd. | Information processing method and electronic device |
CN103905740B (en) * | 2014-04-17 | 2017-04-19 | 广东欧珀移动通信有限公司 | Method and device for improving automatic exposure effect realized through manual adjustment |
US10051161B2 (en) * | 2014-04-18 | 2018-08-14 | Samsung Electronics Co., Ltd. | Electronic device with zoom lens |
EP2942936B1 (en) | 2014-05-06 | 2017-12-20 | Nokia Technologies OY | Zoom input and camera selection |
US9313397B2 (en) * | 2014-05-30 | 2016-04-12 | Apple Inc. | Realtime capture exposure adjust gestures |
KR20170041188A (en) | 2014-08-12 | 2017-04-14 | 소니 주식회사 | Information-processing device, program, and information processing method |
TWI600322B (en) | 2014-09-02 | 2017-09-21 | 蘋果公司 | Method for operating an electronic device with an integratd camera and related electronic device and non-transitory computer readable storage medium |
CN108353126B (en) | 2015-04-23 | 2019-08-23 | 苹果公司 | Handle method, electronic equipment and the computer readable storage medium of the content of camera |
KR20160133781A (en) * | 2015-05-13 | 2016-11-23 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US20180150211A1 (en) * | 2015-05-29 | 2018-05-31 | Huawei Technologies Co., Ltd. | Method for adjusting photographing focal length of mobile terminal by using touchpad, and mobile terminal |
CN104954672B (en) * | 2015-06-10 | 2020-06-02 | 惠州Tcl移动通信有限公司 | Manual focusing method of mobile terminal and mobile terminal |
KR20170014356A (en) * | 2015-07-29 | 2017-02-08 | 엘지전자 주식회사 | Mobile terminal and method of controlling the same |
CN105306824B (en) * | 2015-11-17 | 2019-05-28 | 小米科技有限责任公司 | Acquisition parameters adjusting method and device |
JP6788518B2 (en) * | 2016-03-22 | 2020-11-25 | キヤノン株式会社 | Electronic devices and their control methods, as well as imaging devices |
US10061427B2 (en) | 2016-03-24 | 2018-08-28 | Microsoft Technology Licensing, Llc | Selecting first digital input behavior based on a second input |
CN105847704A (en) * | 2016-04-01 | 2016-08-10 | 广东欧珀移动通信有限公司 | Control method, control device and electronic device |
US9912860B2 (en) * | 2016-06-12 | 2018-03-06 | Apple Inc. | User interface for camera effects |
JP6484761B2 (en) * | 2016-06-27 | 2019-03-13 | 富士フイルム株式会社 | Camera and setting method thereof |
JP6748582B2 (en) * | 2017-01-10 | 2020-09-02 | キヤノン株式会社 | Imaging device, control method thereof, program, and recording medium |
JP6757268B2 (en) * | 2017-01-30 | 2020-09-16 | キヤノン株式会社 | Imaging device and its control method |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
JP7187190B2 (en) | 2018-06-29 | 2022-12-12 | キヤノン株式会社 | Electronic device, electronic device control method, program, storage medium |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | User interfaces for simulated depth effects |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US10674072B1 (en) | 2019-05-06 | 2020-06-02 | Apple Inc. | User interfaces for capturing and managing visual media |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
US11972561B2 (en) | 2020-08-06 | 2024-04-30 | Canon U.S.A., Inc. | Auto-pullback triggering method for intracoronary imaging apparatuses or systems using blood clearing |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US12112024B2 (en) | 2021-06-01 | 2024-10-08 | Apple Inc. | User interfaces for managing media styles |
JP2023095529A (en) * | 2021-12-24 | 2023-07-06 | 株式会社タムロン | lens system |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11164175A (en) * | 1997-11-27 | 1999-06-18 | Fuji Photo Film Co Ltd | Operation unit for equipment provided with screen display part |
JPH11212726A (en) * | 1998-01-29 | 1999-08-06 | Omron Corp | Input device |
JP2003173237A (en) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | Information input-output system, program and storage medium |
WO2006020305A2 (en) * | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Gestures for touch sensitive input devices |
JP2006119854A (en) * | 2004-10-20 | 2006-05-11 | Olympus Corp | Reproducing unit, camera, and method for selecting and reproducing content data |
WO2007079425A2 (en) * | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
JP2007300353A (en) * | 2006-04-28 | 2007-11-15 | Fujifilm Corp | Imaging device |
WO2007149357A2 (en) * | 2006-06-16 | 2007-12-27 | Cirque Corporation | A method of scrolling that is activated by touchdown in a predefined location on a touchpad that recognizes gestures for controlling scrolling functions |
JP2008011935A (en) * | 2006-07-03 | 2008-01-24 | Hitachi Medical Corp | Medical image display device |
JP2008017130A (en) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | Digital camera, program, and recording medium |
JP2008257427A (en) * | 2007-04-04 | 2008-10-23 | Nikon Corp | Electronic device and camera |
JP2008268726A (en) * | 2007-04-24 | 2008-11-06 | Canon Inc | Photographing device |
JP2009123004A (en) * | 2007-11-15 | 2009-06-04 | Panasonic Corp | Input device for portable electronic device, portable electronic device |
JP2009163345A (en) * | 2007-12-28 | 2009-07-23 | Panasonic Corp | Electronic device input device, input operation processing method, and input control program |
JP2010079868A (en) * | 2008-09-24 | 2010-04-08 | Renbao Computer Industry Co Ltd | Method of operating user interface |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
JP4178484B2 (en) * | 1998-04-06 | 2008-11-12 | 富士フイルム株式会社 | Camera with monitor |
JP4127982B2 (en) * | 2001-05-28 | 2008-07-30 | 富士フイルム株式会社 | Portable electronic devices |
JP4018368B2 (en) * | 2001-10-30 | 2007-12-05 | キヤノン株式会社 | IMAGING DEVICE AND OPERATION CONTROL SYSTEM FOR IMAGING DEVICE |
CN100504487C (en) * | 2003-09-29 | 2009-06-24 | 联想(北京)有限公司 | A Method for Selecting the Focus Area of a Digital Camera |
JP4095071B2 (en) * | 2004-03-19 | 2008-06-04 | 株式会社リコー | Electronic device with display, control method for electronic device with display, and program |
JP4337614B2 (en) * | 2004-04-26 | 2009-09-30 | カシオ計算機株式会社 | Electronic camera and program |
JP2006094145A (en) * | 2004-09-24 | 2006-04-06 | Casio Comput Co Ltd | Imaging apparatus and program thereof |
KR101058011B1 (en) * | 2004-10-01 | 2011-08-19 | 삼성전자주식회사 | How to Operate Digital Camera Using Touch Screen |
JP4411193B2 (en) * | 2004-12-09 | 2010-02-10 | 富士フイルム株式会社 | Imaging device with display and image display device |
US20070040810A1 (en) * | 2005-08-18 | 2007-02-22 | Eastman Kodak Company | Touch controlled display device |
JP2010521859A (en) | 2007-03-15 | 2010-06-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and apparatus for editing images |
EP2071443A3 (en) * | 2007-12-12 | 2012-05-30 | Advanced Digital Broadcast S.A. | Method for controlling value of parameter |
JP5219929B2 (en) * | 2008-07-31 | 2013-06-26 | ソニー株式会社 | Information processing apparatus and method, and program |
-
2009
- 2009-07-22 JP JP2009170702A patent/JP2011028345A/en active Pending
-
2010
- 2010-07-16 US US12/838,276 patent/US8466996B2/en active Active
- 2010-07-22 CN CN201310052992.8A patent/CN103095991B/en not_active Expired - Fee Related
- 2010-07-22 CN CN2010102360111A patent/CN101963860B/en not_active Expired - Fee Related
-
2013
- 2013-03-15 US US13/833,186 patent/US8767113B2/en not_active Expired - Fee Related
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11164175A (en) * | 1997-11-27 | 1999-06-18 | Fuji Photo Film Co Ltd | Operation unit for equipment provided with screen display part |
JPH11212726A (en) * | 1998-01-29 | 1999-08-06 | Omron Corp | Input device |
JP2003173237A (en) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | Information input-output system, program and storage medium |
WO2006020305A2 (en) * | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Gestures for touch sensitive input devices |
JP2006119854A (en) * | 2004-10-20 | 2006-05-11 | Olympus Corp | Reproducing unit, camera, and method for selecting and reproducing content data |
WO2007079425A2 (en) * | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
JP2007300353A (en) * | 2006-04-28 | 2007-11-15 | Fujifilm Corp | Imaging device |
WO2007149357A2 (en) * | 2006-06-16 | 2007-12-27 | Cirque Corporation | A method of scrolling that is activated by touchdown in a predefined location on a touchpad that recognizes gestures for controlling scrolling functions |
JP2008011935A (en) * | 2006-07-03 | 2008-01-24 | Hitachi Medical Corp | Medical image display device |
JP2008017130A (en) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | Digital camera, program, and recording medium |
JP2008257427A (en) * | 2007-04-04 | 2008-10-23 | Nikon Corp | Electronic device and camera |
JP2008268726A (en) * | 2007-04-24 | 2008-11-06 | Canon Inc | Photographing device |
JP2009123004A (en) * | 2007-11-15 | 2009-06-04 | Panasonic Corp | Input device for portable electronic device, portable electronic device |
JP2009163345A (en) * | 2007-12-28 | 2009-07-23 | Panasonic Corp | Electronic device input device, input operation processing method, and input control program |
JP2010079868A (en) * | 2008-09-24 | 2010-04-08 | Renbao Computer Industry Co Ltd | Method of operating user interface |
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9760280B2 (en) | 2010-02-18 | 2017-09-12 | Rohm Co., Ltd. | Touch-panel input device |
US9250800B2 (en) | 2010-02-18 | 2016-02-02 | Rohm Co., Ltd. | Touch-panel input device |
JP2011215539A (en) * | 2010-04-02 | 2011-10-27 | Rohm Co Ltd | Digital camera |
JP2012195883A (en) * | 2011-03-17 | 2012-10-11 | Yamaha Corp | Electronic music apparatus and signal process characteristic control program |
US9241083B2 (en) | 2011-08-22 | 2016-01-19 | Fuji Xerox Co., Ltd. | Apparatus, method, and computer readable medium for displaying gesture guidance information |
US9239675B2 (en) | 2011-08-22 | 2016-01-19 | Fuji Xerox Co., Ltd. | Input display apparatus and method, image forming apparatus, imaging apparatus, and computer readable medium |
JP2013068671A (en) * | 2011-09-20 | 2013-04-18 | Canon Inc | Imaging apparatus, control method thereof, program, and storage medium |
US9648228B2 (en) | 2011-10-07 | 2017-05-09 | Panasonic Corporation | Image pickup device and image pickup method |
US9800785B2 (en) | 2011-10-07 | 2017-10-24 | Panasonic Corporation | Image pickup device and image pickup method |
US10306144B2 (en) | 2011-10-07 | 2019-05-28 | Panasonic Corporation | Image pickup device and image pickup method |
US10531000B2 (en) | 2011-10-07 | 2020-01-07 | Panasonic Corporation | Image pickup device and image pickup method |
US9607554B2 (en) | 2011-10-07 | 2017-03-28 | Panasonic Corporation | Image pickup device and image pickup method |
US9171506B2 (en) | 2011-10-07 | 2015-10-27 | Panasonic Intellectual Property Corporation Of America | Image pickup device and image pickup method |
US9547434B2 (en) | 2011-10-07 | 2017-01-17 | Panasonic Corporation | Image pickup device and image pickup method |
JP2015195583A (en) * | 2011-10-07 | 2015-11-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Imaging device |
US9443476B2 (en) | 2011-10-07 | 2016-09-13 | Panasonic Intellectual Property Corporation Of America | Image pickup device and image pickup method |
JP2015212950A (en) * | 2011-10-07 | 2015-11-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Imaging apparatus |
JP2015228252A (en) * | 2011-10-07 | 2015-12-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Photographing device |
US11272104B2 (en) | 2011-10-07 | 2022-03-08 | Panasonic Corporation | Image pickup device and image pickup method |
US11678051B2 (en) | 2011-10-07 | 2023-06-13 | Panasonic Holdings Corporation | Image pickup device and image pickup method |
US10359925B2 (en) | 2011-10-10 | 2019-07-23 | Samsung Electronics Co., Ltd. | Method and apparatus for operating function in touch device |
US10754532B2 (en) | 2011-10-10 | 2020-08-25 | Samsung Electronics Co., Ltd. | Method and apparatus for operating function in touch device |
US11221747B2 (en) | 2011-10-10 | 2022-01-11 | Samsung Electronics Co., Ltd. | Method and apparatus for operating function in touch device |
JP2017123201A (en) * | 2011-10-10 | 2017-07-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Function operation method and apparatus of touch device |
WO2013089190A1 (en) * | 2011-12-16 | 2013-06-20 | オリンパスイメージング株式会社 | Imaging device and imaging method, and storage medium for storing tracking program processable by computer |
JP5373229B1 (en) * | 2011-12-16 | 2013-12-18 | オリンパスイメージング株式会社 | IMAGING DEVICE, IMAGING METHOD THEREOF, AND STORAGE MEDIUM FOR STORING TRACKING PROGRAM PROCESSABLE BY COMPUTER |
US9113073B2 (en) | 2011-12-16 | 2015-08-18 | Olympus Imaging Corp. | Imaging apparatus and imaging method of the same, and storage medium to store computer-processible tracking program |
US9363439B2 (en) | 2012-02-07 | 2016-06-07 | Olympus Corporation | Photographing apparatus and operation control method for the same |
JP2013162419A (en) * | 2012-02-07 | 2013-08-19 | Olympus Imaging Corp | Photographing equipment |
JP2013218204A (en) * | 2012-04-11 | 2013-10-24 | Nikon Corp | Focus detection device and imaging device |
JP2014067164A (en) * | 2012-09-25 | 2014-04-17 | Nintendo Co Ltd | Information processing apparatus, information processing system, information processing method, and information processing program |
JP2014078855A (en) * | 2012-10-10 | 2014-05-01 | Olympus Imaging Corp | Electronic apparatus, driving method, and program |
US11003351B2 (en) | 2012-12-26 | 2021-05-11 | Gree, Inc. | Display processing method and information device |
JP2018106764A (en) * | 2012-12-26 | 2018-07-05 | グリー株式会社 | Information processing apparatus control method, control program, and information processing apparatus |
JP2014130450A (en) * | 2012-12-28 | 2014-07-10 | Canon Inc | Information processor and control method therefor |
JP2019220207A (en) * | 2013-03-08 | 2019-12-26 | トムソン ライセンシングThomson Licensing | Method and apparatus for using gestures for shot effects |
JP2016530659A (en) * | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Simultaneous selection of range and value gestures |
US11249631B2 (en) | 2013-11-07 | 2022-02-15 | Sony Corporation | Information processing apparatus and information processing method |
US12079461B2 (en) | 2013-11-07 | 2024-09-03 | Sony Group Corporation | Information processing apparatus and information processing method |
US11687225B2 (en) | 2013-11-07 | 2023-06-27 | Sony Group Corporation | Information processing apparatus and information processing method |
JP2014130619A (en) * | 2014-02-18 | 2014-07-10 | Fuji Xerox Co Ltd | Device |
JP2015191467A (en) * | 2014-03-28 | 2015-11-02 | アズビル株式会社 | Input device |
JP2015197884A (en) * | 2014-04-03 | 2015-11-09 | 株式会社東芝 | Information terminal and equipment operation method |
JP2016533100A (en) * | 2014-07-18 | 2016-10-20 | 小米科技有限責任公司Xiaomi Inc. | Method, apparatus, program, and recording medium for adjusting shooting parameters |
US9819856B2 (en) | 2014-07-18 | 2017-11-14 | Xiaomi Inc. | Shooting parameter adjustment method and device |
JP2016045813A (en) * | 2014-08-25 | 2016-04-04 | キヤノン株式会社 | Zoom control device and control method thereof |
JP2016213877A (en) * | 2016-07-27 | 2016-12-15 | オリンパス株式会社 | Electronic apparatus |
JP2017135735A (en) * | 2017-03-14 | 2017-08-03 | オリンパス株式会社 | Electronic device, driving method and program |
JP2018156353A (en) * | 2017-03-17 | 2018-10-04 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018194284A (en) * | 2017-05-22 | 2018-12-06 | リンナイ株式会社 | Cooking cooker operation system |
US12081896B2 (en) | 2018-10-29 | 2024-09-03 | Henry M. Pena | Real time video special effects system and method |
US12126930B2 (en) | 2018-10-29 | 2024-10-22 | Henry M. Pena | Real time video special effects system and method |
JP7597720B2 (en) | 2018-10-29 | 2024-12-10 | ヘンリー ペナ, | Real-time video special effects system and method and computer-readable storage medium |
JP7574135B2 (en) | 2021-04-28 | 2024-10-28 | フォルシアクラリオン・エレクトロニクス株式会社 | Information processing device and program |
JP7643923B2 (en) | 2021-04-28 | 2025-03-11 | フォルシアクラリオン・エレクトロニクス株式会社 | Information processing device and program |
Also Published As
Publication number | Publication date |
---|---|
CN101963860A (en) | 2011-02-02 |
US8466996B2 (en) | 2013-06-18 |
US20110019058A1 (en) | 2011-01-27 |
US20130271401A1 (en) | 2013-10-17 |
CN103095991B (en) | 2016-05-11 |
CN103095991A (en) | 2013-05-08 |
CN101963860B (en) | 2013-03-20 |
US8767113B2 (en) | 2014-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011028345A (en) | Condition change device, camera, mobile apparatus and program | |
JP5970937B2 (en) | Display control apparatus and display control method | |
JP5457217B2 (en) | camera | |
US10423272B2 (en) | Electronic apparatus, control method thereof, and computer-readable storage medium | |
JP2013009189A (en) | Imaging device and imaging method | |
JP2011043991A (en) | User interface device, portable apparatus and program | |
JP2019164423A (en) | Electronic apparatus, control method of electronic apparatus, program and recording medium | |
JP6465239B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP2010183244A (en) | Imaging apparatus and method for controlling imaging apparatus | |
JP2020197976A (en) | Electronic apparatus, control method for electronic apparatus, program, and recording medium | |
JP2011154507A (en) | Input device and input method | |
JP2010147683A (en) | Operation controller, camera, operation control method and program for operation control | |
JP2017163586A (en) | Imaging apparatus, method of controlling the same, and program | |
JP6213622B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP2019054551A (en) | Information processing apparatus, information processing method, and information processing program | |
JP5820898B2 (en) | Input device and imaging device | |
JP2012199812A (en) | Imaging device | |
JP7596064B2 (en) | Electronics | |
WO2024257425A1 (en) | Imaging device, method for controlling imaging device, program, and storage medium | |
JP2006303714A (en) | Mobile image display apparatus and camera including image display apparatus | |
WO2024225009A1 (en) | Imaging device, display control method, and program | |
JP2006197119A (en) | Display controller | |
JP2021128242A (en) | Imaging control device | |
JP2019071148A (en) | Display processing apparatus and display processing method | |
JP2018180455A (en) | Imaging control device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120710 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131001 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140306 |