KR101768540B1 - Mobile device and method for providing UI - Google Patents

Mobile device and method for providing UI Download PDF

Info

Publication number
KR101768540B1
KR101768540B1 KR1020090104288A KR20090104288A KR101768540B1 KR 101768540 B1 KR101768540 B1 KR 101768540B1 KR 1020090104288 A KR1020090104288 A KR 1020090104288A KR 20090104288 A KR20090104288 A KR 20090104288A KR 101768540 B1 KR101768540 B1 KR 101768540B1
Authority
KR
South Korea
Prior art keywords
unit
pressure
pressure sensing
user
sensed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020090104288A
Other languages
Korean (ko)
Other versions
KR20110047595A (en
Inventor
김보민
박민규
박용국
김현진
강태영
정한철
양지선
차상옥
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090104288A priority Critical patent/KR101768540B1/en
Priority to US12/914,348 priority patent/US8952901B2/en
Priority to CN201510350333.1A priority patent/CN105045500B/en
Priority to CN201080048611.3A priority patent/CN102598519B/en
Priority to EP10827142.0A priority patent/EP2494697B1/en
Priority to PCT/KR2010/007555 priority patent/WO2011053058A2/en
Publication of KR20110047595A publication Critical patent/KR20110047595A/en
Priority to US14/587,542 priority patent/US9389723B2/en
Application granted granted Critical
Publication of KR101768540B1 publication Critical patent/KR101768540B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

모바일 기기 및 이에 적용되는 UI 제공방법이 제공된다. 본 모바일 기기는 압력 감지부에서 압력이 감지되면 조작부가 활성화된다. 이에 따라, 사용자는 압력과 이외의 다양한 조작 유닛을 이용하여, 다양한 형태의 UI를 이용할 수 있게 된다. A mobile device and a UI providing method applied thereto are provided. In this mobile device, when the pressure is detected in the pressure sensing part, the control part is activated. Accordingly, the user can use various types of UI by using various operation units other than the pressure.

압력, 근접, 터치, UI Pressure, proximity, touch, UI

Description

모바일 기기 및 이에 적용되는 UI 제공방법{Mobile device and method for providing UI}[0001] The present invention relates to a mobile device, and more particularly,

본 발명은 모바일 기기 및 이에 적용되는 UI 제공방법에 관한 것으로, 더욱 상세하게는 압력 감지를 이용한 UI를 제공하는 모바일 기기 및 이에 적용되는 UI 제공방법에 관한 것이다. The present invention relates to a mobile device and a UI providing method applied thereto, and more particularly, to a mobile device providing a UI using pressure sensing and a UI providing method applied thereto.

최근 모바일 기기에 관한 기술의 발달로, 모바일 기기는 매우 다양한 기능을 제공할 수 있게 되었다. 그리고, 이와 같은 다양한 기능을 이용하기 위해 사용자는 모바일 기기에서 제공되는 사용자 인터페이스를 통해 모바일 기기를 제어하게 된다. With the recent development of mobile device technology, mobile devices can provide a wide variety of functions. In order to utilize such various functions, the user controls the mobile device through a user interface provided in the mobile device.

사용자 인터페이스는 다양한 종류가 존재한다. 예를 들어, 사용자 인터페이스는 모바일 기기에 배치된 다양한 종류의 버튼, 터치 스크린 등이 있다. 사용자는 이와 같은 사용자 인터페이스를 통해 원하는 기능이 수행되도록 모바일 기기에 명령을 입력할 수 있게 된다. There are various kinds of user interfaces. For example, the user interface may include various types of buttons, touch screens, and the like disposed on a mobile device. The user can input a command to the mobile device to perform a desired function through the user interface.

하지만, 모바일 기기에서 제공되는 기능이 많아짐에 따라, 더욱 다양한 사용자 인터페이스가 요구되고 있다. 또한, 다양한 사용자 인터페이스를 사용자가 쉽게 사용하기 위한 방안이 활발하게 연구되고 있다. However, as the number of functions provided in mobile devices increases, more user interfaces are required. In addition, a method for easily using various user interfaces by users is actively researched.

사용자는 더욱 쉽고 편리하게 사용할 수 있는 사용자 인터페이스를 원한다. 이에 따라, 사용자가 작동 에러 없이 쉽게 사용할 수 있는 사용자 인터페이스를 제공하기 위한 방안의 모색이 요청된다. Users want a user interface that is easier and more convenient to use. Accordingly, there is a need to search for a way to provide a user interface that the user can easily use without error.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 압력 감지부에서 압력이 감지되면 조작부가 활성화되는 모바일 기기 및 이에 적용되는 UI 제공방법을 제공함에 있다. SUMMARY OF THE INVENTION The present invention has been conceived to solve the above problems, and it is an object of the present invention to provide a mobile device in which a manipulation part is activated when a pressure is sensed by a pressure sensing part, and a method of providing a UI applied thereto.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 모바일 기기는, 압력을 감지하는 압력 감지부; 사용자의 조작을 입력받는 조작부; 및 상기 압력 감지부에서 압력이 감지되면 상기 조작부가 활성화되도록 제어하는 제어부;를 포함한다. According to an aspect of the present invention, there is provided a mobile device including: a pressure sensor for sensing a pressure; An operation unit for receiving a user's operation; And a control unit for controlling the operation unit to be activated when a pressure is detected by the pressure sensing unit.

그리고, 상기 조작부는, 사용자의 근접 여부 및 근접 제스처를 검출하는 근접 센서부; 사용자의 터치 조작을 검출하는 터치 검출부; 및 사용자의 버튼 조작을 검출하는 버튼부;를 포함하고, 상기 제어부는, 상기 압력 감지부에서 압력이 감지되면 상기 근접 센서부, 터치 검출부, 및 버튼부 중 적어도 하나가 활성화되도록 제어할 수도 있다. The operation unit may include: a proximity sensor unit that detects proximity of a user and a proximity gesture; A touch detection unit for detecting a touch operation of a user; And a button unit for detecting a button operation of the user, wherein the controller may control at least one of the proximity sensor unit, the touch detection unit, and the button unit to be activated when the pressure is sensed by the pressure sensing unit.

또한, 상기 조작부는, 사용자의 근접 여부 및 근접 제스처를 검출하는 근접 센서부;를 포함하고, 상기 제어부는, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 상기 근접 센서부에서 상기 근접 제스처가 감지되면, 상기 특정 애플리케이션에 관련된 기능을 수행할 수도 있다. The controller may further include a proximity sensor that detects proximity of the user and proximity gesture of the user, wherein the controller is configured to detect a pressure in the pressure sensing unit while the specific application is being executed, If a proximity gesture is detected, it may perform a function associated with the particular application.

그리고, 상기 조작부는, 사용자의 터치 조작을 검출하는 터치 검출부;를 포함하고, 상기 제어부는, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 상기 터치 검출부에서 상기 터치조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행할 수도 있다.When a pressure is sensed by the pressure sensing unit and the touch operation is detected by the touch sensing unit while a specific application is being executed, the control unit may include a touch detection unit that detects a touch operation of the user , And may perform functions related to the specific application.

또한, 상기 조작부는, 사용자의 버튼 조작을 검출하는 버튼부;를 포함하고, 상기 제어부는, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 상기 버튼부에서 버튼 조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행할 수도 있다. When the pressure is sensed by the pressure sensing unit and a button operation is detected in the button unit while a specific application is being executed, the control unit may include: And may perform functions related to the specific application.

그리고, 상기 제어부는, 상기 압력 감지부에서 감지된 압력의 세기에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정할 수도 있다. The control unit may determine a function to be performed on the operation input through the operation unit according to the intensity of the pressure sensed by the pressure sensing unit.

또한, 상기 압력 감지부는, 적어도 하나의 압력 감지 영역을 포함하고, 상기 제어부는, 상기 적어도 하나의 압력 감지 영역 중 압력이 감지된 압력 감지 영역에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정할 수도 있다. Also, the pressure sensing unit may include at least one pressure sensing area, and the control unit may perform at least one of the at least one pressure sensing area and the at least one pressure sensing area, It is also possible to determine the function.

그리고, 상기 제어부는, 상기 압력 감지부에서 감지된 압력의 감지 횟수에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정할 수도 있다. The control unit may determine a function to be performed on the operation input through the operation unit according to the number of sensed pressures sensed by the pressure sensing unit.

한편, 본 발명의 일 실시예에 따른, UI 제공방법은, 압력 감지부에서 압력을 감지하는 단계; 및 상기 압력 감지부에서 압력이 감지되면, 사용자의 조작을 입력 받는 조작부를 활성화하는 단계;를 포함한다. According to another aspect of the present invention, there is provided a UI providing method including: sensing a pressure in a pressure sensing unit; And activating an operation unit that receives a user's operation when the pressure is sensed by the pressure sensing unit.

그리고, 상기 조작부는, 사용자의 근접 여부 및 근접 제스처를 검출하는 근접 센서부; 사용자의 터치 조작을 검출하는 터치 검출부; 및 사용자의 버튼 조작을 검출하는 버튼부;를 포함하고, 상기 활성화 단계는, 상기 압력 감지부에서 압력이 감지되면, 상기 근접 센서부, 터치 검출부, 및 버튼부 중 적어도 하나를 활성화할 수도 있다. The operation unit may include: a proximity sensor unit that detects proximity of a user and a proximity gesture; A touch detection unit for detecting a touch operation of a user; And a button unit for detecting a button operation of a user, wherein the activation step may activate at least one of the proximity sensor unit, the touch detection unit, and the button unit when the pressure is sensed by the pressure sensing unit.

또한, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 근접 센서부에서 근접 제스처가 감지되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 단계;를 더 포함할 수도 있다. The method may further include performing a function related to the specific application when a pressure is sensed by the pressure sensing unit and a proximity sensor is sensed by the proximity sensor during execution of a specific application.

그리고, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 터치 검출부에서 터치조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 단계;를 더 포함할 수도 있다. The method may further include performing a function related to the specific application when a pressure is sensed by the pressure sensing unit and a touch operation is detected by the touch detecting unit during execution of a specific application.

또한, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 버튼부에서 버튼 조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 단계;를 더 포함할 수도 있다. The method may further include performing a function related to the specific application when a pressure is detected in the pressure sensing part and a button operation is detected in a button part during execution of a specific application.

그리고, 상기 조작부를 통해 사용자의 조작을 입력받는 단계; 및 상기 압력 감지부에서 감지된 압력의 세기에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 단계;를 더 포함할 수도 있다. Receiving an operation of a user through the operation unit; And determining a function to be performed on the operation input through the operation unit according to the intensity of the pressure sensed by the pressure sensing unit.

또한, 상기 압력 감지 단계는, 적어도 하나의 압력 감지 영역 중 어느 한 압력 감지 영역에서 압력을 감지하고, 상기 조작부를 통해 사용자의 조작을 입력받는 단계; 및 상기 적어도 하나의 압력 감지 영역 중 압력이 감지된 압력 감지 영역에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 단계;를 더 포함할 수도 있다. The pressure sensing step may include sensing pressure in one of the at least one pressure sensing areas and receiving a user's operation through the control part; And determining a function to be performed on the operation input through the operation unit according to the pressure sensing area in which the pressure is sensed in the at least one pressure sensing area.

그리고, 상기 압력 감지 단계는, 적어도 1회 이상의 압력을 감지하고, 상기 조작부를 통해 사용자의 조작을 입력받는 단계; 및 상기 압력 감지부에서 감지된 압력의 감지 횟수에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 단계;를 더 포함할 수도 있다. The pressure sensing step may include sensing at least one pressure and receiving a user's operation through the operation unit; And determining a function to be performed on the operation input through the operation unit according to the number of sensed pressures sensed by the pressure sensing unit.

본 발명의 다양한 실시예들에 따르면, 압력 감지부에서 압력이 감지되면 조작부가 활성화되는 모바일 기기 및 이에 적용되는 UI 제공방법을 제공할 수 있게 되어, 사용자는 압력과 이외의 다양한 조작 기기를 이용하여, 다양한 형태의 UI를 이용할 수 있게 된다. According to various embodiments of the present invention, it is possible to provide a mobile device in which a control unit is activated when a pressure is sensed in a pressure sensing unit and a UI providing method applied thereto, , And various types of UIs are available.

특히, 압력 감지를 통해 사용자의 조작 입력 의도를 표시할 수 있게 되므로, 사용자는 예기치 못한 조작의 입력을 방지할 수 있게 된다. In particular, since the user can display the intention of the operation input through the pressure detection, the user can prevent the unexpected input of the operation.

이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른, 모바일 기기(100)의 상세한 구조를 도시한 블럭도이다.1 is a block diagram illustrating a detailed structure of a mobile device 100 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 모바일 기기(100)는 디스플레이부(110), 저장부(120), 압력 감지부(130), 조작부(140), 및 제어부(150)를 포함한다. 1, the mobile device 100 includes a display unit 110, a storage unit 120, a pressure sensing unit 130, an operation unit 140, and a control unit 150.

디스플레이부(110)는 모바일 기기(100)의 기능을 제공하기 위한 영상을 디스플레이한다. 또한, 디스플레이부(110)는 실행 중인 애플리케이션에 대한 영상을 화면에 디스플레이 한다. 그리고, 디스플레이부(110)는 사용자의 조작을 위한 GUI(Graphic User Interface)들을 화면에 디스플레이한다. The display unit 110 displays an image for providing a function of the mobile device 100. Also, the display unit 110 displays an image of a running application on the screen. The display unit 110 displays GUIs (Graphic User Interfaces) for user's operation on the screen.

저장부(120)는 모바일 기기(100)의 각종 기능을 수행하기 위한 프로그램들이 저장되어 있다. 또한, 저장부(120)는 애플리케이션 프로그램이 저장되어 있다. 이와 같은, 저장부(120)는 하드디스크, 비휘발성 메모리 등으로 구현될 수 있다.The storage unit 120 stores programs for performing various functions of the mobile device 100. In addition, the storage unit 120 stores an application program. The storage unit 120 may be a hard disk, a non-volatile memory, or the like.

압력 감지부(130)는 특정 영역에 가해지는 압력을 감지한다. 압럭 감지부(130)는 압력이 가해지는지 여부 및 압력의 크기를 감지한다. 압력 감지부(130)는 다양한 종류의 압력 감지 센서가 사용될 수 있으며, 압력 감지 센서로는 피에조 센서(Piezo Sensor)를 예로 들 수 있다. The pressure sensing unit 130 senses a pressure applied to a specific area. The pressure sensing unit 130 senses whether the pressure is applied and the magnitude of the pressure. Various types of pressure sensing sensors can be used as the pressure sensing unit 130. Examples of the pressure sensing sensor include a piezo sensor.

피에조 센서는 대기 상태에서 별도의 전원공급이 불필요하며, 압력이 가해졌을 때 전력을 발생시키고 발생된 전력의 전압에 따라 압력의 크기를 인식하게 된다. 따라서, 모바일 기기(100)가 대기상태일 때, 피에조 센서만을 활성화시켜놓으면 대기 전력을 최소화하여 전력소모를 줄일 수 있게 된다. The piezo sensor does not require a separate power source in the standby state, generates power when the pressure is applied, and recognizes the magnitude of the pressure according to the voltage of the generated power. Accordingly, when the mobile device 100 is in the standby state, if only the piezo sensor is activated, the standby power can be minimized and the power consumption can be reduced.

조작부(140)는 다양한 사용자의 조작을 입력받고, 입력된 사용자 조작 정보를 제어부(150)로 전송한다. 조작부(140)는 다양한 종류의 사용자 인터페이스 장치들을 포함한다. 구체적으로, 도 1에 도시된 바와 같이, 조작부(140)는 근접 센서부(142), 터치 검출부(144), 및 버튼부(146)를 포함한다. The operation unit 140 receives various user's operations and transmits the inputted user operation information to the control unit 150. [ The operation unit 140 includes various types of user interface devices. Specifically, as shown in Fig. 1, the operation unit 140 includes a proximity sensor unit 142, a touch detection unit 144, and a button unit 146. [

근접 센서부(142)는 사용자의 근접 여부 및 근접 제스처를 검출한다. 여기에 서 근접 제스처는 사용자의 손이나 이외의 신체 일부가 근접 센서부(142)에 근접한 상태에서 행해지는 제스처를 의미한다. 예를 들어, 근접 제스처는 근접 센서부(142)의 근처에서 사용자의 손이 움직이는 방향이 될 수 있다. The proximity sensor unit 142 detects the proximity of the user and the proximity gesture. Here, the proximity gesture refers to a gesture performed when the user's hand or a part of the body other than the user's hand is close to the proximity sensor unit 142. [ For example, the proximity gesture may be a direction in which the user's hand moves in the vicinity of the proximity sensor unit 142. [

근접 센서부(142)는 적어도 하나의 발광소자를 포함한다. 근접 센서부(142)는 하나의 발광소자가 포함된 경우 근접 여부만을 검출할 수 있으며, 둘 이상의 발광소자가 포함된 경우 근접 제스처 및 근접 좌표를 검출할 수 있게 된다. 또한, 근접 센서부(142)는 발광소자의 수가 많을수록 더욱 정밀하게 근접 제스처를 검출할 수 있게 된다. The proximity sensor section 142 includes at least one light emitting element. The proximity sensor unit 142 can detect proximity only when one light emitting device is included, and can detect a proximity gesture and proximity coordinates when two or more light emitting devices are included. Further, the proximity sensor unit 142 can more accurately detect the proximity gesture as the number of the light emitting elements increases.

터치 검출부(144)는 사용자의 터치 조작을 검출한다. 터치 검출부(144)는 터치 스크린 형태로 구현될 수 있다. The touch detection unit 144 detects the touch operation of the user. The touch detection unit 144 may be implemented as a touch screen.

버튼부(146)는 사용자의 버튼 조작을 검출한다. 버튼부(146)는 적어도 하나의 버튼을 포함한다. 예를 들어, 버튼부(146)는 번호 버튼, 방향 버튼 등을 포함한다. The button unit 146 detects the operation of the user's button. The button unit 146 includes at least one button. For example, the button unit 146 includes number buttons, direction buttons, and the like.

제어부(150)는 조작부(140)를 통해 입력된 사용자의 조작에 따라 모바일 기기(100)의 전반적인 동작을 제어한다. 제어부(150)는 압력 감지부(130)에서 압력이 감지되면 조작부(140)가 활성화되도록 제어한다. 구체적으로, 제어부(150)는 압력 감지부(130)에서 압력이 감지되면, 근접 센서부(142), 터치 검출부(144), 및 버튼부(146) 중 적어도 하나가 활성화되도록 제어한다. 여기에서, 활성화 상태는 근접 센서부(142)가 근접 여부 및 근접 제스처를 검출할 수 있는 상태, 터치 검출부(144)가 터치 조작을 검출할 수 있는 상태, 및 버튼부(146)가 버튼 조작을 검출 할 수 있는 상태를 의미한다. The control unit 150 controls the overall operation of the mobile device 100 according to the user's operation inputted through the operation unit 140. [ The control unit 150 controls the operation unit 140 to be activated when the pressure sensing unit 130 detects the pressure. The control unit 150 controls at least one of the proximity sensor unit 142, the touch detection unit 144, and the button unit 146 to be activated when the pressure is sensed by the pressure sensing unit 130. [ Here, the activation state is a state in which the proximity sensor unit 142 can detect proximity and proximity gesture, a state in which the touch detection unit 144 can detect the touch operation, and a state in which the button unit 146 performs a button operation It means a state that can be detected.

구체적으로, 제어부(150)는 특정 애플리케이션이 실행되는 도중에, 압력 감지부(130)에서 압력이 감지되고 근접 센서부(142)에서 근접 제스처가 감지되면, 특정 애플리케이션에 관련된 기능을 수행한다. 또한, 제어부(150)는 특정 애플리케이션이 실행되는 도중에, 압력 감지부(130)에서 압력이 감지되고 터치 검출부(144)에서 터치조작이 검출되면, 특정 애플리케이션에 관련된 기능을 수행한다. 그리고, 제어부(130)는 특정 애플리케이션이 실행되는 도중에, 압력 감지부(130)에서 압력이 감지되고 버튼부(146)에서 버튼 조작이 검출되면, 특정 애플리케이션에 관련된 기능을 수행한다. Specifically, when a pressure is detected by the pressure sensing unit 130 and a proximity gesture is sensed by the proximity sensor unit 142 during execution of a specific application, the controller 150 performs a function related to a specific application. When a pressure is detected by the pressure sensing unit 130 and a touch operation is detected by the touch detection unit 144 during execution of a specific application, the control unit 150 performs a function related to a specific application. When the pressure is detected in the pressure sensing unit 130 and the button operation is detected in the button unit 146 during the execution of the specific application, the control unit 130 performs a function related to the specific application.

또한, 제어부(150)는 압력 감지부(130)에서 감지된 압력의 세기에 따라, 조작부(140)를 통해 입력된 조작에 대해 수행되는 기능을 결정한다. The control unit 150 determines a function to be performed on the operation input through the operation unit 140 according to the intensity of the pressure sensed by the pressure sensing unit 130.

그리고, 압력 감지부(130)가 적어도 하나의 압력 감지 영역을 포함하는 경우, 제어부(150)는 적어도 하나의 압력 감지 영역 중 압력이 감지된 압력 감지 영역에 따라, 조작부(140)를 통해 입력된 조작에 대해 수행되는 기능을 결정할 수도 있다. If the pressure sensing unit 130 includes at least one pressure sensing area, the controller 150 may control the pressure sensing unit 130 based on the pressure sensing area of the at least one pressure sensing area, It may also determine the function to be performed on the operation.

또한, 제어부(150)는 압력 감지부(130)에서 감지된 압력의 감지 횟수에 따라, 조작부(140)를 통해 입력된 조작에 대해 수행되는 기능을 결정할 수도 있다. The control unit 150 may determine a function to be performed on the operation input through the operation unit 140 according to the number of times the pressure sensed by the pressure sensing unit 130 is sensed.

그리고, 제어부(150)는 이하에서 기술되는 도 2 내지 도 20c의 UI 제공방법 및 과정들이 제공되도록 제어한다. The control unit 150 controls the UI providing methods and processes of FIGS. 2 to 20C to be described below.

도 2는 본 발명의 일 실시예에 따른, 모바일 기기(100)의 외면에 배치된 압 력 감지부(130), 근접 센서부(142), 터치 검출부(144), 및 버튼부(146)를 도시한 도면이다. 2 is a block diagram of a mobile communication device according to an embodiment of the present invention that includes a pressure sensing unit 130, a proximity sensor unit 142, a touch detection unit 144, and a button unit 146 disposed on the outer surface of the mobile device 100 Fig.

도 2에 도시된 바와 같이, 모바일 기기(100)는 압력 감지부(130)가 양 옆면에 배치되어 있다. 그리고, 모바일 기기(100)는 디스플레이 화면에 터치 검출부(144)가 배치되어 터치스크린 기능을 제공한다. 또한, 모바일 기기(100)는 근접 센서부(142)와 버튼부(146)가 화면의 하단에 배치되어 있다.As shown in FIG. 2, the mobile device 100 is disposed on both side surfaces of the pressure sensing part 130. The mobile device 100 is provided with a touch detection unit 144 on a display screen to provide a touch screen function. In the mobile device 100, the proximity sensor unit 142 and the button unit 146 are disposed at the lower end of the screen.

한편, 도 2에 도시된 바와 같은 배치는 일 예에 불과하며, 모바일 기기(100)의 압력 감지부(130), 근접 센서부(142), 터치 검출부(144), 및 버튼부(146)는 이와 다른 형태로 배치될 수도 있음은 물론이다. 2 is merely an example. The pressure sensing unit 130, the proximity sensor unit 142, the touch detection unit 144, and the button unit 146 of the mobile device 100 But it is also possible to arrange them in different forms.

이하에서는, 도 3a 내지 도 3c를 참고하여, 모바일 기기(100)의 사용자의 조작 방식을 설명한다. Hereinafter, a method of operating the user of the mobile device 100 will be described with reference to FIGS. 3A to 3C. FIG.

도 3a는 본 발명의 일 실시예에 따른, 모바일 기기(100)의 압력 감지부(130)와 근접 센서부(142)를 이용한 사용자 조작 방식을 도시한 도면이다. 3A is a diagram illustrating a user operation mode using the pressure sensing unit 130 and the proximity sensor unit 142 of the mobile device 100 according to an embodiment of the present invention.

도 3a에 도시된 바와 같이, 사용자가 모바일 기기(100)의 양쪽 옆면을 잡음으로써, 모바일 기기(100)는 양쪽 면에 배치된 압력 감지부(130)에서 압력을 검출하게 된다. 그리고, 압력 감지부(130)에서 압력이 감지되면, 모바일 기기(100)는 근접센서부(142)를 활성화하게 되고, 근접센서부(142)는 사용자의 근접 여부 및 근접 제스처를 인식하게 된다. As shown in FIG. 3A, when the user grasps both sides of the mobile device 100, the mobile device 100 detects the pressure in the pressure sensing part 130 disposed on both sides. When the pressure is sensed by the pressure sensing unit 130, the mobile device 100 activates the proximity sensor unit 142, and the proximity sensor unit 142 recognizes the proximity of the user and the proximity gesture.

이와 같이, 압력 감지부(130)에서 압력이 감지되면 근접 센서부(142)를 활성화함으로써, 사용자의 의도되지 않은 동작이 근접 센서부(142)에서 감지되는 것을 방지할 수 있게 된다. 또한, 압력 감지부(130)에서 압력이 감지되지 않는 상태(즉, 대기 상태)에서 근접 센서부(142)가 비활성화되므로, 모바일 기기(100)는 대기 상태에서의 전력 소모를 최소화할 수 있게 된다. In this way, when the pressure is sensed by the pressure sensing unit 130, the proximity sensor unit 142 is activated, thereby preventing the user's unintended operation from being detected by the proximity sensor unit 142. [ In addition, since the proximity sensor unit 142 is deactivated in a state where no pressure is sensed by the pressure sensing unit 130 (i.e., standby state), the mobile device 100 can minimize power consumption in the standby state .

도 3b는 본 발명의 일 실시예에 따른, 모바일 기기(100)의 압력 감지부(130)와 터치 검출부(144)를 이용한 사용자 조작 방식을 도시한 도면이다. FIG. 3B is a diagram illustrating a user operation using the touch sensing unit 144 and the pressure sensing unit 130 of the mobile device 100, according to an embodiment of the present invention.

도 3a에 도시된 바와 같이, 사용자가 모바일 기기(100)의 양쪽 옆면을 잡음으로써, 모바일 기기(100)는 양쪽 면에 배치된 압력 감지부(130)에서 압력을 검출하게 된다. 그리고, 압력 감지부(130)에서 압력이 감지되면, 모바일 기기(100)는 터치 검출부(144)를 활성화하게 되고, 터치 검출부(144)는 디스플레이 화면상의 사용자의 터치 조작을 인식하게 된다. As shown in FIG. 3A, when the user grasps both sides of the mobile device 100, the mobile device 100 detects the pressure in the pressure sensing part 130 disposed on both sides. When the pressure is detected by the pressure sensing unit 130, the mobile device 100 activates the touch detection unit 144, and the touch detection unit 144 recognizes the touch operation of the user on the display screen.

이와 같이, 압력 감지부(130)에서 압력이 감지되면 터치 검출부(144)를 활성화함으로써, 사용자의 의도되지 않은 터치가 터치 검출부(144)에서 감지되는 것을 방지할 수 있게 된다. 또한, 압력 감지부(130)에서 압력이 감지되지 않는 상태(즉, 대기 상태)에서 터치 검출부(144)가 비활성화되므로, 모바일 기기(100)는 대기 상태에서의 전력 소모를 최소화할 수 있게 된다. As such, when the pressure is sensed by the pressure sensing unit 130, the touch detection unit 144 is activated to prevent the unintended touch of the user from being sensed by the touch sensing unit 144. [ In addition, since the touch detection unit 144 is deactivated in a state where no pressure is sensed by the pressure sensing unit 130 (i.e., in a standby state), the mobile device 100 can minimize power consumption in a standby state.

도 3c는 본 발명의 일 실시예에 따른, 모바일 기기(100)의 압력 감지부(130)와 버튼부(146)를 이용한 사용자 조작 방식을 도시한 도면이다. 3C is a diagram illustrating a user operation mode using the pressure sensing unit 130 and the button unit 146 of the mobile device 100 according to an embodiment of the present invention.

도 3c에 도시된 바와 같이, 사용자가 모바일 기기(100)의 양쪽 옆면을 잡음으로써, 모바일 기기(100)는 양쪽 면에 배치된 압력 감지부(130)에서 압력을 검출하게 된다. 그리고, 압력 감지부(130)에서 압력이 감지되면, 모바일 기기(100)는 버튼부(146)를 활성화하게 되고, 버튼부(146)는 사용자의 근접 여부 및 근접 제스처를 인식하게 된다. 3C, when the user grasps both side surfaces of the mobile device 100, the mobile device 100 detects the pressure in the pressure sensing part 130 disposed on both sides. When the pressure is detected by the pressure sensing unit 130, the mobile device 100 activates the button unit 146, and the button unit 146 recognizes the user's proximity and proximity gesture.

이와 같이, 압력 감지부(130)에서 압력이 감지되면 버튼부(146)를 활성화함으로써, 사용자의 의도되지 않은 동작이 버튼부(146)에서 감지되는 것을 방지할 수 있게 된다. 또한, 압력 감지부(130)에서 압력이 감지되지 않는 상태(즉, 대기 상태)에서 버튼부(146)가 비활성화되므로, 모바일 기기(100)는 대기 상태에서의 전력 소모를 최소화할 수 있게 된다. Thus, when the pressure is sensed by the pressure sensing unit 130, the button unit 146 is activated, thereby preventing the unintended operation of the user from being detected by the button unit 146. [ In addition, since the button unit 146 is deactivated in a state where no pressure is sensed by the pressure sensing unit 130 (i.e., in a standby state), the mobile device 100 can minimize power consumption in a standby state.

상술한 바와 같이, 모바일 기기(100)는 압력 감지부(130)에서 압력이 감지되기 전에는 근접 센서부(142), 터치 검출부(144), 및 버튼부(146)가 비활성화 상태에 있다가, 압력 감지부(130)에서 압력이 감지된 후에 근접 센서부(142), 터치 검출부(144), 및 버튼부(146) 중 적어도 하나를 활성화 상태로 변경한다. As described above, before the pressure is sensed by the pressure sensing unit 130, the proximity sensor unit 142, the touch sensing unit 144, and the button unit 146 are in the inactive state, At least one of the proximity sensor unit 142, the touch detection unit 144, and the button unit 146 is activated after the sensing unit 130 senses the pressure.

따라서, 모바일 기기(100)는 대기 상태에서의 전력소모를 최소화 할 수 있게 된다. 또한, 사용자는 원하는 조작을 입력하고자 하는 의도를 압력 감지부(130)를 통해 입력할 수 있으므로, 원하는 때에 원하는 조작을 에러없이 입력할 수 있게 된다. Accordingly, the mobile device 100 can minimize power consumption in the standby state. In addition, since the user can input an intention to input a desired operation through the pressure sensing unit 130, it is possible to input a desired operation without any error at a desired time.

도 4는 본 발명의 일 실시예에 따른, 모바일 기기(100)의 UI(User Interface) 제공방법을 설명하기 위해 제공되는 흐름도이다. FIG. 4 is a flowchart illustrating a UI (User Interface) providing method of the mobile device 100 according to an embodiment of the present invention.

일단, 모바일 기기(100)는 조작부(140)를 비활성화 상태로 둔다(S405). 그리고, 모바일 기기(100)는 압력 감지부(130)에서 압력이 감지되는지 여부를 확인한다(S410). 만약, 압력 감지부(130)에서 압력이 감지되면(S410-Y), 모바일 기 기(100)는 조작부(140)를 활성화하게 된다(S420). First, the mobile device 100 places the operation unit 140 in the inactive state (S405). Then, the mobile device 100 checks whether the pressure is sensed by the pressure sensing unit 130 (S410). If the pressure is sensed by the pressure sensing unit 130 (S410-Y), the mobile device 100 activates the operation unit 140 (S420).

그 후에, 모바일 기기(100)는 근접 센서부(142)에서 근접 제스처가 검출되는지 여부를 확인한다(S430). 만약, 근접 센서부(142)에서 근접 제스처가 검출되면(S430-Y), 모바일 기기(100)는 근접 센서부(142)에서 검출된 근접 제스처에 대응되는 기능을 수행하게 된다(S435). Thereafter, the mobile device 100 confirms whether a proximity gesture is detected in the proximity sensor 142 (S430). If the proximity sensor 142 detects a proximity gesture (S430-Y), the mobile device 100 performs a function corresponding to the proximity gesture detected by the proximity sensor 142 (S435).

또한, 모바일 기기(100)는 터치 검출부(144)에서 사용자의 터치 조작이 검출되는지 여부를 확인한다(S440). 만약, 터치 검출부(144)에서 사용자의 터치 조작이 검출되면(S440-Y), 모바일 기기(100)는 터치 검출부(144)에서 검출된 터치 조작에 대응되는 기능을 수행하게 된다(S445).In addition, the mobile device 100 determines whether the touch operation of the user is detected by the touch detection unit 144 (S440). If a touch operation of the user is detected by the touch detection unit 144 (S440-Y), the mobile device 100 performs a function corresponding to the touch operation detected by the touch detection unit 144 (S445).

그리고, 모바일 기기(100)는 버튼부(146)에서 사용자의 버튼 조작이 검출되는지 여부를 확인한다(S450). 만약, 버튼부(146)에서 사용자의 버튼 조작이 검출되면(S450-Y), 모바일 기기(100)는 버튼부(146)에서 검출된 버튼 조작에 대응되는 기능을 수행하게 된다(S455).Then, the mobile device 100 confirms whether the operation of the user's button is detected in the button unit 146 (S450). If the operation of the user's button is detected in the button unit 146 (S450-Y), the mobile device 100 performs a function corresponding to the button operation detected in the button unit 146 (S455).

이와 같은 과정을 통해, 모바일 기기(100)는 압력 감지부(130) 및 조작부(140)를 이용하여, 사용자 인터페이스를 제공할 수 있게 된다. 이와 같은 UI 제공방법에 따르면, 압력 감지부(130)에서 압력이 감지되면 버튼부(146)를 활성화함으로써, 사용자의 의도되지 않은 동작이 버튼부(146)에서 감지되는 것을 방지할 수 있게 된다. 또한, 압력 감지부(130)에서 압력이 감지되지 않는 상태(즉, 대기 상태)에서 버튼부(146)가 비활성화되므로, 모바일 기기(100)는 대기 상태에서의 전력 소모를 최소화할 수 있게 된다. Through the above process, the mobile device 100 can provide the user interface by using the pressure sensing unit 130 and the operation unit 140. According to the UI providing method, when the pressure is sensed by the pressure sensing unit 130, the button unit 146 is activated, thereby preventing the unintended operation of the user from being detected by the button unit 146. In addition, since the button unit 146 is deactivated in a state where no pressure is sensed by the pressure sensing unit 130 (i.e., in a standby state), the mobile device 100 can minimize power consumption in a standby state.

상술한 바와 같이, 모바일 기기(100)는 압력 감지부(130)에서 압력이 감지되기 전에는 근접 센서부(142), 터치 검출부(144), 및 버튼부(146)가 비활성화 상태에 있다가, 압력 감지부(130)에서 압력이 감지된 후에 근접 센서부(142), 터치 검출부(144), 및 버튼부(146) 중 적어도 하나를 활성화 상태로 변경한다. As described above, before the pressure is sensed by the pressure sensing unit 130, the proximity sensor unit 142, the touch sensing unit 144, and the button unit 146 are in the inactive state, At least one of the proximity sensor unit 142, the touch detection unit 144, and the button unit 146 is activated after the sensing unit 130 senses the pressure.

따라서, 모바일 기기(100)는 대기 상태에서의 전력소모를 최소화 할 수 있게 된다. 또한, 사용자는 원하는 조작을 입력하고자 하는 의도를 압력 감지부(130)를 통해 입력할 수 있으므로, 원하는 때에 원하는 조작을 에러없이 입력할 수 있게 된다. Accordingly, the mobile device 100 can minimize power consumption in the standby state. In addition, since the user can input an intention to input a desired operation through the pressure sensing unit 130, it is possible to input a desired operation without any error at a desired time.

이하에서는, 모바일 기기(100)의 조작에 관하여 도면들을 참고하여 설명한다. 도 5a 내지 도 5c는 본 발명의 일 실시예에 따른, 모바일 기기(100)를 잠금 상태(Hold on)에서 잠금 해제 상태(Hold off)로 변경하는 과정을 도시한 도면이다. Hereinafter, operation of the mobile device 100 will be described with reference to the drawings. 5A to 5C are views illustrating a process of changing the mobile device 100 from a hold state to a hold off state according to an embodiment of the present invention.

도 5a는 모바일 기기(100)의 화면에 잠금 화면(500)이 표시된 것을 도시하고 있다. 그리고, 압력 감지부(130)는 모바일 기기(100)의 양쪽 측면에 배치되고, 근접 센서부(142)는 화면의 하단에 배치된 것을 확인할 수 있다. 도 5a에 도시된 바와 같이, 사용자가 압력 감지부(130)를 손으로 쥐면, 근접센서부(142)는 비활성화 상태에서 활성화 상태가 된다. 5A shows a lock screen 500 displayed on the screen of the mobile device 100. [ The pressure sensing unit 130 is disposed on both sides of the mobile device 100 and the proximity sensor unit 142 is disposed on the bottom of the screen. As shown in FIG. 5A, when the user holds the pressure sensing unit 130 by hand, the proximity sensor unit 142 is activated from the inactive state.

도 5b는 사용자가 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하는 것을 도시하고 있다. 도 5b에 도시된 바와 같이, 사용자가 압력 감지부(130)를 쥐고있는 상태에서 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 잠금 해제를 수행하게 된다. 5B shows that the user inputs a proximity gesture to the proximity sensor portion 142 from right to left. 5B, when the user holds the pressure sensing unit 130 and inputs a proximity gesture to the proximity sensor unit 142 from the right to the left side, the mobile device 100 displays a function corresponding to the proximity sensor unit 142 Thereby performing unlocking.

따라서, 도 5c와 같이, 모바일 기기(100)는 잠금 해제 상태로 변경되고, 잠금 해제된 화면(510)을 화면에 표시하게 된다. 5C, the mobile device 100 is changed to the unlocked state, and the unlocked screen 510 is displayed on the screen.

이와 같이, 모바일 기기(100)는 압력 감지부(130)와 근접 센서부(142)에 입력되는 조작에 의해 잠금 해제 기능을 수행할 수도 있다. In this way, the mobile device 100 may perform an unlock function by an operation input to the pressure sensing unit 130 and the proximity sensor unit 142.

도 6a 내지 도 6c는 본 발명의 일 실시예에 따른, 모바일 기기(100)를 잠금 해제 상태(Hold off)에서 잠금 상태(Hold on)로 변경하는 과정을 도시한 도면이다. 6A to 6C are views illustrating a process of changing the mobile device 100 from a hold off state to a hold on state according to an embodiment of the present invention.

도 6a는 모바일 기기(100)의 화면에 잠금 해제된 화면(600)이 표시된 것을 도시하고 있다. 그리고, 압력 감지부(130)는 모바일 기기(100)의 양쪽 측면에 배치되고, 근접 센서부(142)는 화면의 하단에 배치된 것을 확인할 수 있다. 도 5a에 도시된 바와 같이, 사용자가 압력 감지부(130)를 손으로 연속 2회 압력을 가하면, 근접센서부(142)는 비활성화 상태에서 활성화 상태가 되고, 도 6b와 같이 잠금 설정 화면(610)이 표시되게 된다. 여기에서, 잠금 설정 화면(610)은 특정 조작이 입력되면 잠금 상태로 넘어가는 것을 화면에 표시해주는 잠금 해제 상태와 잠금 상태의 중간 과정에 대한 화면 해당된다. 6A shows a screen 600 of the mobile device 100 displayed on the unlocked screen. The pressure sensing unit 130 is disposed on both sides of the mobile device 100 and the proximity sensor unit 142 is disposed on the bottom of the screen. As shown in FIG. 5A, when the user presses the pressure sensing part 130 by hand two times in succession, the proximity sensor part 142 is activated from the inactive state, and the lock setting screen 610 ) Is displayed. In this case, the lock setting screen 610 corresponds to the screen for the intermediate process between the unlocked state and the locked state, which indicates that a certain operation is transferred to the locked state on the screen.

도 6b는 잠금 설정 화면(610)이 표시된 상태에서, 사용자가 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하는 것을 도시하고 있다. 도 6b에 도시된 바와 같이, 사용자가 압력 감지부(130)를 두번 쥔 상태에서 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 잠금 기능를 수행하게 된다. 6B shows that the user inputs a proximity gesture to the proximity sensor unit 142 from right to left in a state where the lock setting screen 610 is displayed. 6B, if the user inputs a proximity gesture to the proximity sensor unit 142 from right to left while holding the pressure sensing unit 130 twice, the mobile device 100 may perform a function corresponding thereto Lock function.

따라서, 도 6c와 같이, 모바일 기기(100)는 잠금 상태로 변경되고, 잠금 상태(620)를 화면에 표시하게 된다. Accordingly, as shown in FIG. 6C, the mobile device 100 is changed to the locked state, and the locked state 620 is displayed on the screen.

이와 같이, 모바일 기기(100)는 압력 감지부(130)와 근접 센서부(142)에 입력되는 조작에 의해 잠금 기능을 수행할 수도 있다. As described above, the mobile device 100 may perform a locking function by an operation input to the pressure sensing unit 130 and the proximity sensor unit 142. [

한편, 모바일 기기(100)는 압력 감지부(130)의 압력 감지 영역별로 같은 조작에 대해 서로 다른 기능을 수행할 수도 있다. 이에 대해, 도 7a 내지 도 8b를 참고하여 설명한다. Meanwhile, the mobile device 100 may perform different functions for the same operation for each pressure sensing area of the pressure sensing unit 130. [ This will be described with reference to Figs. 7A to 8B.

도 7a 및 도 7b는 본 발명의 일 실시예에 따른, 모바일 기기(100)가 압력 감지부(130)의 압력 감지 영역별로 다른 기능을 수행하는 것을 도시하고 있다. 7A and 7B show that the mobile device 100 performs different functions according to the pressure sensing area of the pressure sensing part 130 according to an embodiment of the present invention.

압력 감지부(130)는 제1 압력 감지영역(130a) 및 제2 압력 감지영역(130b)을 포함한다. 도 7a에 도시된 바와 같이, 제1 압력 감지영역(130a)는 모바일 기기(100)의 왼쪽 측면의 상부 영역이고, 제2 압력 감지영역(130b)는 모바일 기기(100)의 왼쪽 하부 영역이다. The pressure sensing part 130 includes a first pressure sensing area 130a and a second pressure sensing area 130b. 7A, the first pressure sensing area 130a is the upper area of the left side surface of the mobile device 100 and the second pressure sensing area 130b is the lower left area of the mobile device 100. As shown in FIG.

도 7a는 제1 압력 감지영역(130a)에 압력이 감지되는 상태에서, 사용자에 의한 우에서 좌 방향으로의 근접 제스처가 근접 센서부(142)에 입력되는 모바일 기기(100)를 도시하고 있다. 도 7a에 도시된 바와 같이, 사용자가 압력 감지부(130)의 제1 압력 감지영역(130a)에 압력을 가한 상태에서 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 애플리케이션 A를 실행하게 된다. 7A shows a mobile device 100 in which a proximity sensor 142 receives a right-to-left proximity gesture by a user in a state in which pressure is sensed in the first pressure sensing area 130a. 7A, when the user inputs a proximity gesture to the proximity sensor 142 in the right-to-left direction with the pressure applied to the first pressure sensing area 130a of the pressure sensing unit 130, The device 100 executes the application A with the function corresponding thereto.

반면, 도 7b는 제2 압력 감지영역(130b)에 압력이 감지되는 상태에서, 사용 자에 의한 우에서 좌 방향으로의 근접 제스처가 근접 센서부(142)에 입력되는 모바일 기기(100)를 도시하고 있다. 도 7b에 도시된 바와 같이, 사용자가 압력 감지부(130)의 제2 압력 감지영역(130b)에 압력을 가한 상태에서 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 애플리케이션 B를 실행하게 된다. On the other hand, FIG. 7B shows a state in which the proximity sensor 142 receives the right-side proximity gesture by the user in a state in which the pressure is sensed in the second pressure sensing area 130b, . 7B, when the user inputs a proximity gesture to the proximity sensor 142 from the right to the left in a state where the pressure is applied to the second pressure sensing area 130b of the pressure sensing unit 130, The device 100 executes the application B as a function corresponding thereto.

이와 같이, 압력 감지부(130)는 적어도 2개 이상의 압력 감지영역을 포함할 수도 있다. 그리고, 모바일 기기(100)는 동일한 근접 제스처 조작에 대해서도 압력이 감지된 영역별로 서로 다른 기능을 수행할 수도 있다. As such, the pressure sensing unit 130 may include at least two pressure sensing areas. In addition, the mobile device 100 may perform different functions for each of the sensed areas in the same proximity gesture operation.

도 8a 및 도 8b는 본 발명의 일 실시예에 따른, 모바일 기기(100)가 압력 감지부(130)의 압력 감지 영역별로 다른 기능을 수행하는 것을 도시하고 있다. 8A and 8B illustrate that the mobile device 100 performs different functions according to the pressure sensing area of the pressure sensing part 130 according to an embodiment of the present invention.

압력 감지부(130)는 제1 압력 감지영역(130a) 및 제2 압력 감지영역(130b)을 포함한다. 도 8a에 도시된 바와 같이, 제1 압력 감지영역(130a)는 모바일 기기(100)의 왼쪽 측면의 상부 영역이고, 제2 압력 감지영역(130b)는 모바일 기기(100)의 왼쪽 하부 영역이다. The pressure sensing part 130 includes a first pressure sensing area 130a and a second pressure sensing area 130b. 8A, the first pressure sensing area 130a is the upper area of the left side surface of the mobile device 100 and the second pressure sensing area 130b is the lower left area of the mobile device 100. As shown in FIG.

도 8a는 제1 압력 감지영역(130a)에 압력이 감지되는 상태에서, 사용자에 의한 특정 버튼(146a)의 조작이 입력되는 모바일 기기(100)를 도시하고 있다. 도 7a에 도시된 바와 같이, 사용자가 압력 감지부(130)의 제1 압력 감지영역(130a)에 압력을 가한 상태에서 특정 버튼(146)의 조작을 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 애플리케이션 A를 실행하게 된다. 8A illustrates a mobile device 100 to which an operation of a specific button 146a by a user is inputted in a state in which pressure is sensed in the first pressure sensing area 130a. 7A, when the user inputs the operation of the specific button 146 in a state where the pressure is applied to the first pressure sensing area 130a of the pressure sensing unit 130, the mobile device 100 responds thereto The application A is executed.

반면, 도 8b는 제2 압력 감지영역(130b)에 압력이 감지되는 상태에서, 사용 자에 의한 특정 버튼(146a)의 조작이 입력되는 모바일 기기(100)를 도시하고 있다. 도 8b에 도시된 바와 같이, 사용자가 압력 감지부(130)의 제2 압력 감지영역(130b)에 압력을 가한 상태에서 특정 버튼(146a)의 조작을 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 애플리케이션 B를 실행하게 된다. On the other hand, FIG. 8B shows the mobile device 100 to which the operation of the specific button 146a by the user is inputted in a state where the pressure is sensed in the second pressure sensing area 130b. 8B, when the user inputs the operation of the specific button 146a in a state where the pressure is applied to the second pressure sensing area 130b of the pressure sensing unit 130, the mobile device 100 responds thereto The application B is executed.

이와 같이, 압력 감지부(130)는 적어도 2개 이상의 압력 감지영역을 포함할 수도 있다. 그리고, 모바일 기기(100)는 동일한 버튼 조작에 대해서도 압력이 감지된 영역별로 서로 다른 기능을 수행할 수도 있다. As such, the pressure sensing unit 130 may include at least two pressure sensing areas. Also, the mobile device 100 may perform different functions for the same button operation, for each pressure sensed area.

또한, 모바일 기기(100)는 동일한 터치 조작에 대해서도 압력이 감지된 영역별로 서로 다른 기능을 수행할 수도 있음은 물론이다. In addition, it is needless to say that the mobile device 100 may perform different functions for the same touch operation by each sensed area.

한편, 모바일 기기(100)는 압력 감지부(130)에서 감지되는 압력의 세기에 따라 같은 조작에 대해 서로 다른 기능을 제공할 수도 있음은 물론이다. 이하에서는, 도 9 내지 도 11e를 참고하여, 압력 감지부(130)에서 감지되는 압력의 세기에 따라 같은 조작에 대해 서로 다른 기능을 제공하는 과정에 대해 설명한다. It should be noted that the mobile device 100 may provide different functions for the same operation according to the intensity of the pressure sensed by the pressure sensing unit 130. [ Hereinafter, a process of providing different functions for the same operation according to the intensity of the pressure sensed by the pressure sensing unit 130 will be described with reference to FIGS. 9 to 11E. FIG.

도 9는 본 발명의 일 실시예에 따른, 압력 감지부(130)에서 감지되는 압력의 세기와 근접 센서부(142)에서 감지되는 근접 제스처에 따른 UI의 기능을 정리한 표이다. 9 is a table summarizing the intensity of the pressure sensed by the pressure sensing unit 130 and the functions of the UI according to the proximity gesture sensed by the proximity sensor unit 142, according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 압력의 세기는 약함, 중간, 및 강함의 3단계로 구분될 수 있다. 그리고, 근접 제스처는 근접의 정도에 따라 근거리 근접 및 원거리 근접의 2가지로 구분될 수 있다. 여기에서, 근거리 근접은 사용자의 손이 근접 센서부(142)에 매우 가까이 근접한 조작을 의미하며, 원거리 근접은 근접 센서 부(142)에서 감지될 수 있는 범위 내에서 사용자의 손이 근접 센서부(142)로부터 멀리 떨어진 조작을 의미한다. As shown in FIG. 9, the intensity of the pressure can be divided into three levels of weak, medium, and strong. The proximity gesture can be classified into two types of proximity proximity and near proximity depending on the degree of proximity. Here, the close proximity means the operation in which the user's hand is very close to the proximity sensor unit 142, and the far proximity is the proximity sensor unit 142 in the range where the user's hand can be detected by the proximity sensor unit 142 142 < / RTI >

도 9에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능은 사진을 한장씩 천천히 넘기는 기능이 된다. 그리고, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 원거리 제스처인 경우, 대응되는 UI 기능은 사진을 여러 장씩 빠르게 넘기는 기능이 된다. 또한, 압력 감지부(130)에서 감지된 압력의 세기가 "중간"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능은 사진을 두 장 또는 세 장씩 한번에 넘기는 기능이 된다. 그리고, 압력 감지부(130)에서 감지된 압력의 세기가 "강함"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능은 사진을 여러 장씩 빠르게 넘기는 기능이 된다. 9, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture detected by the proximity sensor unit 142 is a near-field gesture, It functions slowly. If the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a distant gesture, the corresponding UI function is a function of quickly passing photographs several sheets at a time . If the intensity of the pressure sensed by the pressure sensing unit 130 is "medium" and the proximity gesture sensed by the proximity sensor unit 142 is a near-field gesture, the corresponding UI function is to transmit two or three photos at a time Function. If the intensity of the pressure sensed by the pressure sensing unit 130 is "strong" and the proximity gesture sensed by the proximity sensor unit 142 is a near-field gesture, the corresponding UI function is a function of quickly passing photographs several sheets at a time .

도 10a 내지 도 10c는 본 발명의 일 실시예에 따른, 화면에 다음 사진이 표시되도록 조작하는 과정을 도시한 도면이다. 도 10a는 압력 감지부(130)에서 압력이 감지되는 상태에서, 사용자에 의한 우에서 좌 방향으로의 근접 제스처가 근접 센서부(142)에 입력되는 모바일 기기(100)를 도시하고 있다. 도 10a에 도시된 바와 같이, 사용자가 압력 감지부(130)에 압력을 가한 상태에서 우에서 좌 방향으로 근접 센서부(142)에 근접 제스처를 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 사진을 넘기는 기능을 실행하게 된다. 10A to 10C are views illustrating a process of displaying a next picture on a screen according to an embodiment of the present invention. 10A shows a mobile device 100 in which a proximity sensor 142 receives a right-to-left proximity gesture by a user in a state in which a pressure is sensed by the pressure sensing unit 130. As shown in FIG. 10A, when the user inputs a proximity gesture to the proximity sensor unit 142 from the right to the left with the pressure applied to the pressure sensing unit 130, the mobile device 100 displays the function corresponding thereto And a function of turning the picture on the screen.

또한, 도 10b는 압력 감지부(130)에서 압력이 감지되는 상태에서, 사용자에 의한 우에서 좌 방향으로의 터치 조작이 터치 검출부(144)에 입력되는 모바일 기기(100)를 도시하고 있다. 도 10b에 도시된 바와 같이, 사용자가 압력 감지부(130)에 압력을 가한 상태에서 우에서 좌 방향으로 터치 검출부(144)에 터치 조작을 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 사진을 넘기는 기능을 실행하게 된다. 10B shows the mobile device 100 in which a touch operation from the right to the left direction by the user is input to the touch detection unit 144 while the pressure is sensed by the pressure sensing unit 130. [ 10B, when the user inputs a touch operation to the touch detection unit 144 from the right to the left in a state in which the pressure is applied to the pressure sensing unit 130, the mobile device 100 performs a function corresponding to the touch operation And executes a function of turning the photograph.

또한, 도 10c는 압력 감지부(130)에서 압력이 감지되는 상태에서, 사용자에 의한 버튼부(146)의 우방향 버튼 조작이 입력되는 모바일 기기(100)를 도시하고 있다. 도 10c에 도시된 바와 같이, 사용자가 압력 감지부(130)에 압력을 가한 상태에서 버튼부(146)의 우방향 버튼 조작을 입력하면, 모바일 기기(100)는 그에 대응되는 기능으로 사진을 넘기는 기능을 실행하게 된다. 10C shows the mobile device 100 to which the right button operation of the button unit 146 by the user is inputted in a state in which the pressure is sensed by the pressure sensing unit 130. FIG. 10C, when the user inputs a right button operation of the button unit 146 in a state in which the pressure is applied to the pressure sensing unit 130, the mobile device 100 transmits a photograph as a function corresponding thereto Function.

도 11a 내지 도 11e는 본 발명의 일 실시예에 따른, 압력 감지부(130)에서 감지되는 압력의 세기와 근접 센서부(142)에서 감지되는 근접 제스처에 따른 사진 넘기기 기능을 도시한 도면이다. FIGS. 11A to 11E are diagrams illustrating the intensity of the pressure sensed by the pressure sensing unit 130 and the function of photographing according to the proximity gesture sensed by the proximity sensor unit 142, according to an embodiment of the present invention.

도 11a 내지 도 11d에 도시된 바와 같이, 모바일 기기(100)에 저장된 사진들은 제1 사진(1110), 제2 사진(1120), 제3 사진(1130), 및 제4 사진(1140)을 포함하는 것을 확인할 수 있다. 11A to 11D, the pictures stored in the mobile device 100 include a first picture 1110, a second picture 1120, a third picture 1130, and a fourth picture 1140 .

도 11a는 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능인 사진을 한장씩 천천히 넘기는 기능이 수행되는 과정을 도시한 도면이다. 도 11a에 도 시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 우에서 좌방향의 근거리 제스처인 경우, 모바일 기기(100)는 제1 사진(1110)이 표시된 상태에서 제2 사진(1120)이 표시된 상태로 전환함으로써, 한장의 사진을 넘기는 기능을 수행하게 된다. 11A shows a case where the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a near-field gesture. Fig. 11A, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a right-to-left proximity gesture, 100 performs a function of passing a single picture by switching the state of the second picture 1120 displayed while the first picture 1110 is displayed.

도 11b는 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 원거리 제스처인 경우, 대응되는 UI 기능인 사진을 여러 장씩 빠르게 넘기는 기능이 수행되는 과정을 도시한 도면이다. 도 11b에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 원거리 제스처인 경우, 대응되는 UI 기능은 사진을 세 장씩 한번에 넘기는 기능이 된다. 도 11b에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 우에서 좌 방향의 원거리 제스처인 경우, 모바일 기기(100)는 제1 사진(1110)이 표시된 상태에서 제4 사진(1140)이 표시된 상태로 전환함으로써, 한장의 사진을 넘기는 기능을 수행하게 된다. FIG. 11B shows a function of quickly turning a photograph, which is a corresponding UI function, by several sheets when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a remote gesture FIG. 11B, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a remote gesture, It is a function to turn each chapter at a time. 11B, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a right-to-left distance gesture, 100 performs a function of passing a single picture by switching the state of the fourth picture 1140 displayed while the first picture 1110 is displayed.

도 11c는 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 원거리 제스처인 경우, 대응되는 UI 기능인 사진을 여러 장씩 빠르게 넘기는 기능이 화면이 작아지면서 수행되는 과정을 도시한 도면이다. 도 11c에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 원거리 제스처인 경우, 대응되는 UI 기능은 화면이 작아지면서 사진을 세 장씩 한번에 넘기는 기능이 된 다. 사진을 넘기는 과정에서 화면을 작게 함으로써, 사용자는 제1 사진(1110)과 제4 사진(1140)의 사이에 배치된 제2 사진(1120)과 제3 사진(1130)을 사진을 넘기는 과정에서 확인할 수 있게 된다. FIG. 11C shows a function of quickly flipping a plurality of pictures, which are UI functions corresponding to the UI function, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a remote gesture And FIG. 11C, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a remote gesture, the corresponding UI function has a small screen It is a function to transfer three pictures at a time. The user can confirm the second picture 1120 and the third picture 1130 disposed between the first picture 1110 and the fourth picture 1140 in the process of passing the picture .

도 11c에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "약함"이고 근접 센서부(142)에서 감지된 근접 제스처가 우에서 좌 방향의 원거리 제스처인 경우, 모바일 기기(100)는 제1 사진(1110)이 표시된 상태에서 제4 사진(1140)이 표시된 상태로 화면을 축소하여 전환함으로써, 3장의 사진을 넘기는 기능을 수행하게 된다. 11C, when the intensity of the pressure sensed by the pressure sensing unit 130 is "weak" and the proximity gesture sensed by the proximity sensor unit 142 is a right-to-left distance gesture, 100 performs a function of turning over three pictures by reducing the screen in a state in which the fourth picture 1140 is displayed while the first picture 1110 is displayed.

도 11d는 압력 감지부(130)에서 감지된 압력의 세기가 "중간"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능인 사진을 세 장씩 빠르게 넘기는 기능이 수행되는 과정을 도시한 도면이다. 도 11d에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "중간"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능은 사진을 세 장씩 한번에 넘기는 기능이 된다. 도 11d에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "중간"이고 근접 센서부(142)에서 감지된 근접 제스처가 우에서 좌 방향의 근거리 제스처인 경우, 모바일 기기(100)는 제1 사진(1110)이 표시된 상태에서 제4 사진(1140)이 표시된 상태로 전환함으로써, 세 장의 사진을 한번에 넘기는 기능을 수행하게 된다. FIG. 11D shows a function of rapidly rotating the photographs corresponding to the UI function by three when the intensity of the pressure sensed by the pressure sensing unit 130 is "medium" and the proximity gesture sensed by the proximity sensor unit 142 is a near-field gesture FIG. 11D, if the intensity of the pressure sensed by the pressure sensing unit 130 is "medium" and the proximity gesture detected by the proximity sensor unit 142 is a near-field gesture, It is a function to turn each chapter at a time. 11D, when the intensity of the pressure sensed by the pressure sensing unit 130 is "medium" and the proximity gesture sensed by the proximity sensor unit 142 is a right-to-left proximity gesture, 100 performs a function of passing three pictures at a time by switching the display state of the fourth picture 1140 in a state that the first picture 1110 is displayed.

도 11e에 도시된 바와 같이, 모바일 기기(100)에 저장된 사진들은 제1 사진(1110), 제2 사진(1120), 제3 사진(1130), 제4 사진(1140), 제5 사진(1150), 제6 사진(1160), 및 제7 사진(1170)을 포함하는 것을 확인할 수 있다. 11E, the pictures stored in the mobile device 100 may include a first picture 1110, a second picture 1120, a third picture 1130, a fourth picture 1140, a fifth picture 1150 ), The sixth photograph 1160, and the seventh photograph 1170. [

도 11e는 압력 감지부(130)에서 감지된 압력의 세기가 "강함"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능인 사진을 5장씩 빠르게 넘기는 기능이 수행되는 과정을 도시한 도면이다. 도 11d에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "강함"이고 근접 센서부(142)에서 감지된 근접 제스처가 근거리 제스처인 경우, 대응되는 UI 기능은 사진을 5장씩 한번에 넘기는 기능이 된다. 도 11e에 도시된 바와 같이, 압력 감지부(130)에서 감지된 압력의 세기가 "강함"이고 근접 센서부(142)에서 감지된 근접 제스처가 우에서 좌 방향의 근거리 제스처인 경우, 모바일 기기(100)는 제1 사진(1110)이 표시된 상태에서 제6 사진(1160)이 표시된 상태로 전환함으로써, 5장의 사진을 한번에 넘기는 기능을 수행하게 된다. FIG. 11E shows a function of quickly turning the photographs corresponding to the UI function five by five when the intensity of the pressure sensed by the pressure sensing unit 130 is "strong" and the proximity gesture sensed by the proximity sensor unit 142 is a near- FIG. 11D, if the intensity of the pressure sensed by the pressure sensing unit 130 is "strong" and the proximity gesture detected by the proximity sensor unit 142 is a near-field gesture, It is a function to turn each chapter at a time. 11E, when the intensity of the pressure sensed by the pressure sensing unit 130 is "strong" and the proximity gesture sensed by the proximity sensor unit 142 is a right-to-left proximity gesture, 100 performs a function of passing five pictures at a time by switching the state of the sixth picture 1160 in a state that the first picture 1110 is displayed.

도 12는 본 발명의 일 실시예에 따른, 위젯 화면의 이동 과정에 대해 도시한 도면이다. 도 12에 도시된 바와 같이, 위젯 전체화면(1200)은 모바일 기기(100)의 화면의 3배에 해당되는 영역으로 구성되어 있다. 따라서, 모바일 기기(100)는 위젯을 화면에 표시할 경우, 위젯 전체화면(1200)의 일부를 표시하게 된다. 12 is a diagram illustrating a process of moving a widget screen according to an embodiment of the present invention. As shown in FIG. 12, the widget full screen 1200 is composed of an area corresponding to three times the screen of the mobile device 100. Accordingly, when the widget is displayed on the screen, the mobile device 100 displays a part of the widget full screen 1200.

사용자가 우에서 좌방향으로 근접 제스처를 입력하거나 우에서 좌방향으로 터치 조작을 입력하면, 모바일 기기(100)는 우에서 좌방향으로 위젯 화면을 연속적으로 이동되게 표시한다. When the user inputs a proximity gesture from right to left or a touch operation from right to left, the mobile device 100 displays the widget screen to be continuously moved from right to left.

반면, 모바일 기기(100)는 제1 위젯화면(1210)이 표시된 상태에서, 압력 감지부(130)에 압력이 감지된 상태에서 우에서 좌 방향으로의 근접 제스처가 근접 센 서부(142)에서 입력되면, 제2 위젯화면(1220)을 바로 표시하게 된다. 또한, 모바일 기기(100)는 제2 위젯화면(1220)이 표시된 상태에서, 압력 감지부(130)에 압력이 감지된 상태에서 우에서 좌 방향으로의 근접 제스처가 근접 센서부(142)에서 입력되면, 제3 위젯화면(1230)을 바로 표시하게 된다. 이와 같이, 모바일 기기(100)는 압력 감지부(130)에 압력이 감지된 상태에서 근접 제스처가 근접 센서부(142)에 입력되면, 위젯 화면을 페이지 단위로 넘기게 된다. On the other hand, in the state where the first widget screen 1210 is displayed, when the pressure is sensed by the pressure sensing unit 130, the mobile device 100 receives the proximity gesture from right to left in the proximity sensor 142 The second widget screen 1220 is displayed immediately. When the second widget screen 1220 is displayed on the mobile device 100, the proximity sensor 142 receives the proximity gesture from right to left in a state where the pressure is sensed by the pressure sensing unit 130 The third widget screen 1230 is displayed immediately. In this way, when the proximity sensor 142 receives the proximity gesture in the state where the pressure is sensed by the pressure sensing unit 130, the mobile device 100 passes the widget screen on a page basis.

이하에서는, 도 13a 내지 도 13h를 참고하여, 압력 감지부(130)를 이용하여 줌인(Zoom in) 기능 및 줌 아웃(Zoom out) 기능을 실행하는 다양한 방식들을 설명한다. 도 13a 내지 도 13h은 본 발명의 일 실시예에 따른, 압력 감지부(130)를 이용하여 줌인(Zoom in) 기능 및 줌 아웃(Zoom out) 기능을 실행하는 다양한 방식을 도시한 도면이다. Hereinafter, various methods of performing the zoom in function and the zoom out function using the pressure sensing unit 130 will be described with reference to FIGS. 13A to 13H. FIG. 13A to 13H are diagrams illustrating various methods of performing a zoom in function and a zoom out function using the pressure sensing unit 130 according to an embodiment of the present invention.

도 13a는 사진이 표시된 상태에서 줌 인 기능을 수행하는 방법을 도시한 도면이다. 도 13a에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에 가까워지는 방향의 근접 제스처가 입력되면, 모바일 기기(100)는 표시된 사진을 줌인하는 기능을 수행하게 된다. 13A is a diagram illustrating a method of performing a zoom in function in a state that a photograph is displayed. 13A, when the photograph is displayed on the screen and the proximity gesture in the direction in which the pressure sensing unit 130 is sensed and the proximity sensor unit 142 is approached is input, the mobile device 100 Zoom in on the displayed picture.

도 13b는 사진이 표시된 상태에서 줌 아웃 기능을 수행하는 방법을 도시한 도면이다. 도 13b에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에서 멀어지는 방향의 근접 제스처가 입력되면, 모바일 기기(100)는 표시된 사진을 줌 아웃하는 기능을 수행하게 된다. 13B is a diagram illustrating a method of performing a zoom-out function in a state in which a photograph is displayed. 13B, when a photograph is displayed on the screen, if a pressure is detected by the pressure sensing unit 130 and a proximity gesture in the direction of moving away from the proximity sensor unit 142 is inputted, the mobile device 100 displays And performs a function of zooming out the photograph.

도 13c는 사진이 표시된 상태에서 줌 인 기능을 수행하는 방법을 도시한 도 면이다. 도 13c에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 2회 연속으로(즉, 2회 그립핑(gripping) 조작이) 감지되면, 모바일 기기(100)는 표시된 사진을 특정 배율로 줌인하는 기능을 수행하게 된다. 13C is a view showing a method of performing a zoom-in function in a state in which a photograph is displayed. 13C, when the pressure is detected twice in succession (that is, when a gripping operation is performed twice) while the photograph is displayed on the screen, Zooms in the displayed picture at a specific magnification.

도 13d는 사진이 표시된 상태에서 줌 아웃 기능을 수행하는 방법을 도시한 도면이다. 도 13d에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 일정시간 이상(즉, 롱 그립핑(long gripping) 조작이) 감지되면, 모바일 기기(100)는 압력이 가해지는 시간동안 표시된 사진을 줌 아웃하는 기능을 수행하게 된다. 13D is a diagram illustrating a method of performing a zoom-out function in a state in which a photograph is displayed. 13D, if the pressure is detected for a predetermined time or longer (i.e., a long gripping operation) in the state that the photograph is displayed on the screen, the mobile device 100 And performs a function of zooming out the displayed picture during the time when the pressure is applied.

도 13e는 사진이 표시된 상태에서 줌 인 기능을 수행하는 방법을 도시한 도면이다. 도 13e에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)로부터 일정한 거리를 유지하는 근접 제스처가 입력되면, 모바일 기기(100)는 일정한 거리를 유지하는 근접 제스처가 입력되는 동안 표시된 사진을 줌인하는 기능을 수행하게 된다. 13E is a diagram illustrating a method of performing a zoom-in function in a state in which a photograph is displayed. 13E, if a pressure is sensed by the pressure sensing unit 130 and a proximity gesture that maintains a predetermined distance from the proximity sensor unit 142 is input while the photograph is displayed on the screen, Zooms in on a displayed picture while a proximity gesture maintaining a constant distance is input.

도 13f는 사진이 표시된 상태에서 줌 아웃 기능을 수행하는 방법을 도시한 도면이다. 도 13f에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에 터치된 상태(즉, 거리가 0인)의 근접 제스처가 입력되면, 모바일 기기(100)는 근접 센서부(142)가 터치되는 동안 표시된 사진을 줌 아웃하는 기능을 수행하게 된다. 13F is a diagram illustrating a method of performing a zoom-out function in a state in which a photograph is displayed. 13F, when the photograph is displayed on the screen, the proximity gesture of the state where the pressure is sensed by the pressure sensing unit 130 and the proximity sensor unit 142 is touched (that is, the distance is 0) The mobile device 100 performs a function of zooming out the displayed picture while the proximity sensor unit 142 is touched.

도 13g 및 도 13h는 사진이 표시된 상태에서 특정 영역에 대한 줌 인 기능을 수행하는 방법을 도시한 도면이다. 도 13g에 도시된 바와 같이, 사진이 화면에 표 시된 상태에서, 압력 감지부(130)에 압력이 감지되고 터치 검출부(144)를 통해 특정 영역(1300)을 터치하는 터치 조작이 입력되면, 모바일 기기(100)는 터치된 특정 영역(1300)을 중심으로 사진을 줌 인하는 기능을 수행하게 된다. 13G and 13H are views showing a method of performing a zoom in function for a specific area in a state where a photograph is displayed. 13G, when a pressure is sensed by the pressure sensing unit 130 and a touch operation for touching a specific area 1300 is input through the touch detection unit 144 in a state that a photograph is displayed on the screen, The device 100 performs a function of zooming down a picture around the touched specific area 1300.

따라서, 도 13g에 도시된 바와 같이, 사진이 화면에 표시된 상태에서, 사용자가 압력 감지부(130)에 압력을 가하고 화면의 특정 영역(1300)을 터치하는 터치 조작을 입력하면, 도 13h에 도시된 바와 같이, 모바일 기기(100)는 터치된 영역을 중심으로 줌인된 확대사진(1310)이 화면에 표시하게 된다. Therefore, as shown in FIG. 13G, when a user presses the pressure sensing unit 130 and inputs a touch operation for touching a specific area 1300 of the screen while a photograph is displayed on the screen, As described above, the mobile device 100 displays an enlarged image 1310 zoomed in on the touched area on the screen.

그리고, 도 13g에 도시된 바와 같이 확대 사진(1310)이 표시된 상태에서 압력 감지부(130)에서 감지되는 압력이 사라지면, 모바일 기기(100)는 도 13g에 도시된 바와 같은 원본 사진을 다시 표시하게 된다. 13G, when the pressure sensed by the pressure sensing unit 130 disappears in a state that the enlarged picture 1310 is displayed, the mobile device 100 displays the original picture as shown in FIG. 13G again do.

이와 같이, 모바일 기기(100)는 압력 감지부(130)를 이용하여 줌인(Zoom in) 기능 및 줌 아웃(Zoom out) 기능을 다양한 방식으로 제공할 수 있게 된다. As described above, the mobile device 100 can provide a zoom in function and a zoom out function in various manners by using the pressure sensing unit 130.

이하에서는, 도 14 내지 도 16c를 참고하여, 압력 감지부(130) 및 근접 센서부(142)를 이용하여 포인터의 현재 위치 또는 현재 선택된 아이콘의 위치를 알려주는 알림 기능에 대해 설명한다. Hereinafter, a notification function for notifying the current position of the pointer or the position of the currently selected icon using the pressure sensing unit 130 and the proximity sensor unit 142 will be described with reference to FIGS. 14 to 16C. FIG.

도 14는 본 발명의 일 실시예에 따른, 알림기능을 실행하기 위한 압력 감지부(130) 및 근접 센서부(142)의 조작을 도시한 도면이다. 도 14에 도시된 바와 같이, 메인 메뉴가 화면에 표시된 상태에서, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에 가까워지는 방향의 근접 제스처가 입력되면, 모바일 기기(100)는 포인터의 현재 위치 또는 현재 선택된 아이콘의 위치를 알려주는 알림 기능을 수행 하게 된다. FIG. 14 is a diagram illustrating operations of the pressure sensing unit 130 and the proximity sensor unit 142 for executing a notification function according to an embodiment of the present invention. 14, when the main menu is displayed on the screen and the proximity gesture in the direction in which the pressure sensing unit 130 is detected and the proximity sensor unit 142 is approached is inputted, The notification function informs the current position of the pointer or the position of the currently selected icon.

도 15a 내지 도 15c는 본 발명의 일 실시예에 따른, 사용자의 손이 근접 센서부(142)에 가까워짐에 따라 메인 메뉴의 포인터(1500)가 점점 작아지는 것을 도시한 도면이다. 도 15a는 사용자의 손이 근접 센서부(142)에서 멀리 있을 때 포인터(1500)가 크게 표시된 것을 도시한 도면이다. 도 15b는 손이 근접 센서부(142)에서 중간 정도의 거리에 있을 때 포인터(1500)가 중간 크기로 표시된 것을 도시한 도면이다. 도 15c는 사용자의 손이 근접 센서부(142)에서 가까이 있을 때 포인터(1500)가 작게 표시된 것을 도시한 도면이다.15A to 15C are diagrams showing that the pointer 1500 of the main menu is gradually decreased as the user's hand approaches the proximity sensor unit 142, according to an embodiment of the present invention. 15A is a diagram showing a large pointer 1500 displayed when the user's hand is away from the proximity sensor unit 142. FIG. 15B is a diagram showing the pointer 1500 being displayed at a medium size when the hand is at a medium distance from the proximity sensor unit 142. Fig. 15C is a diagram showing that the pointer 1500 is displayed small when the user's hand is close to the proximity sensor unit 142. FIG.

이와 같이, 사용자의 손이 근접 센서부(142)에 가까워짐에 따라 메인 메뉴의 포인터(1500)가 점점 작아지도록 표시됨으로써, 사용자는 손이 멀리에서 가까이 갈수록 포인터가 화면의 멀리에서부터 가까이 이동해 오는 것과 같은 느낌을 느낄 수 있게 된다. As the user's hand approaches the proximity sensor unit 142, the pointer 1500 of the main menu is displayed so as to be gradually smaller. As a result, the user can see that the pointer moves closer to the screen from the farther You can feel the feeling.

도 16a 내지 도 16c는 본 발명의 일 실시예에 따른, 사용자의 손이 근접 센서부(142)에 가까워짐에 따라 메인 메뉴의 선택된 아이콘(1600)이 점점 커지는 것을 도시한 도면이다. 도 16a는 사용자의 손이 근접 센서부(142)에서 멀리 있을 때 선택된 아이콘(1600)이 원래 크기로 표시된 것을 도시한 도면이다. 도 16b는 손이 근접 센서부(142)에서 중간 정도의 거리에 있을 때 선택된 아이콘(1600)이 약간 크게 표시된 것을 도시한 도면이다. 도 16c는 사용자의 손이 근접 센서부(142)에서 가까이 있을 때 선택된 아이콘(1600)가 크게 표시된 것을 도시한 도면이다.16A to 16C are diagrams showing that the selected icon 1600 of the main menu gradually increases as the user's hand approaches the proximity sensor unit 142, according to an embodiment of the present invention. 16A is a diagram showing that the selected icon 1600 is displayed at the original size when the user's hand is far from the proximity sensor unit 142. FIG. 16B is a diagram showing a selected icon 1600 displayed slightly larger when the hand is at a medium distance from the proximity sensor unit 142. Fig. 16C is a diagram showing a large icon 1600 selected when the user's hand is close to the proximity sensor unit 142. FIG.

이와 같이, 사용자의 손이 근접 센서부(142)에 가까워짐에 따라 메인 메뉴의 선택된 아이콘(1600)이 점점 커지도록 표시됨으로써, 사용자는 손이 멀리에서 가까이 갈수록 선택된 아이콘(1600)이 사용자에게 가까이 오는 것과 같은 느낌을 느낄 수 있게 된다. As the user's hand approaches the proximity sensor unit 142, the selected icon 1600 of the main menu is displayed so as to be gradually increased, so that the user can see that the selected icon 1600 comes closer to the user It is possible to feel the same feeling.

이하에서는, 도 17a 내지 도 17e를 참고하여, 메인메뉴의 줌인 과정 및 서브메뉴 표시 과정을 설명한다. 도 17a 내지 도 17e는, 본 발명의 일 실시예에 따른, 메인메뉴의 줌인 과정 및 서브메뉴 표시 과정을 도시한 도면이다. Hereinafter, a zoom-in process and a sub-menu display process of the main menu will be described with reference to FIGS. 17A to 17E. 17A to 17E are diagrams illustrating a zoom-in process and a submenu display process of a main menu according to an embodiment of the present invention.

도 17a는 모바일 기기(100)의 메인 메뉴(1700)가 표시된 화면을 도시하고 있다. 이 상태에서, 도 17b에 도시된 바와 같이, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에 가까워지는 방향의 근접 제스처가 입력되면, 모바일 기기(100)는 메인 메뉴(1700)에 대한 줌인을 수행하게 된다. 17A shows a screen on which the main menu 1700 of the mobile device 100 is displayed. 17B, when a proximity gesture in a direction in which a pressure is sensed by the pressure sensing unit 130 and approaches the proximity sensor unit 142 is inputted, the mobile device 100 displays the main menu 1700 ) To zoom in.

따라서, 도 17c에 도시된 바와 같이, 줌인된 메인메뉴(1710)를 화면에 표시하게 된다. 이 상태에서, 사용자에 의해 특정 지점(1720)에 대한 패닝 터치조작이 입력되면 줌인된 메인메뉴(1710)의 화면이 이동된다. 패닝 터치조작은 화면을 터치한 상태에서 소정 방향으로 이동하는 터치 조작을 의미한다. Thus, as shown in FIG. 17C, the zoomed-in main menu 1710 is displayed on the screen. In this state, when the panning touch operation for the specific point 1720 is input by the user, the screen of the zoomed-in main menu 1710 is moved. The panning touch operation refers to a touch operation that moves in a predetermined direction with the screen being touched.

도 17d는 사용자의 패닝 터치조작에 의해 이동된 후의 줌인된 메인메뉴(1710)를 도시한 도면이다. 도 17d와 같이 화면의 특정 영역(1730)에 특정 아이콘(1740)이 표시된 상태가 일정시간 지속될 경우, 모바일 기기(100)는 특정 아이콘(1740)에 대한 서브메뉴(1750)를 화면에 표시하게 된다. 17D is a view showing the zoomed-in main menu 1710 after being moved by the panning touch operation of the user. 17D, when the specific icon 1740 is displayed in the specific area 1730 of the screen for a predetermined period of time, the mobile device 100 displays the submenu 1750 for the specific icon 1740 on the screen .

도 17e는 특정 아이콘(1740)에 대한 서브 메뉴(1750)가 화면에 표시된 상태를 도시하고 있다. 17E shows a state in which a submenu 1750 for a specific icon 1740 is displayed on the screen.

이와 같이, 사용자는 압력 감지부(130)와 근접 센서부(142)를 이용하여 메인 메뉴를 줌인하고 특정 아이콘에 대한 서브메뉴를 화면에 표시할 수 있게 된다. In this manner, the user can zoom in on the main menu using the pressure sensing unit 130 and the proximity sensor unit 142, and display the submenu for the specific icon on the screen.

이하에서는, 도 18a 내지 도 18c를 참고하여, 모바일 기기(100)가 압력 감지부(130)와 근접 센서부(142)를 이용하여 숨겨진 메뉴를 표시하는 과정을 설명한다. 도 18a 내지 도 18c는 본 발명의 일 실시예에 따른, 압력 감지부(130)와 근접 센서부(142)를 이용하여 숨겨진 메뉴를 표시하는 과정을 도시한 도면이다. Hereinafter, a process of displaying a hidden menu using the pressure sensing unit 130 and the proximity sensor unit 142 will be described with reference to FIGS. 18A to 18C. 18A to 18C are views illustrating a process of displaying a hidden menu using the pressure sensing unit 130 and the proximity sensor unit 142 according to an embodiment of the present invention.

도 18a는 모바일 기기(100)에 동영상이 재생되고 있는 화면을 도시한 도면이다. 도 18a에 도시된 바와 같이, 압력 감지부(130)에 압력이 감지되면 모바일 기기(100)는 근접 센서부(142)를 활성화하게 된다. 18A is a view showing a screen in which a moving picture is being played back in the mobile device 100. [ 18A, the mobile device 100 activates the proximity sensor unit 142 when a pressure is sensed by the pressure sensing unit 130. As shown in FIG.

그 후에, 도 18b에 도시된 바와 같이, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에 가까워지는 방향의 근접 제스처가 입력되면, 모바일 기기(100)는 숨겨진 메뉴(1800)를 화면에 반투명하게 표시하게 된다. 18B, when a pressure is detected in the pressure sensing unit 130 and a proximity gesture toward the proximity sensor unit 142 is input, the mobile device 100 displays the hidden menu 1800, Is displayed on the screen in a translucent manner.

그리고, 도 18c에 도시된 바와 같이, 사용자의 근접 제스처가 근접 센서부(142)에 더욱 가까워질수록, 모바일 기기(100)는 숨겨진 메뉴(1800)를 점점 진하게 표시하게 된다. And, as shown in FIG. 18C, as the proximity gesture of the user gets closer to the proximity sensor unit 142, the mobile device 100 gradually displays the hidden menu 1800 in a dark state.

이와 같이, 사용자는 모바일 기기(100)의 압력 감지부(130)와 근접 센서부(142)를 이용하여 숨겨진 메뉴를 화면에 표시할 수도 있다. In this way, the user can display the hidden menu on the screen by using the pressure sensing unit 130 of the mobile device 100 and the proximity sensor unit 142.

이하에서는, 도 19a 내지 도 19d를 참고하여 압력 감지부(130)와 근접 센서부(142)를 이용하여 실행중인 애플리케이션을 변경하는 과정을 설명한다. 도 19a 내지 도 19d는 본 발명의 일 실시예에 따른, 모바일 기기(100)가 압력 감지부(130) 와 근접 센서부(142)를 이용하여 실행중인 애플리케이션을 변경하는 과정을 도시한 도면이다. Hereinafter, a process of changing a running application using the pressure sensing unit 130 and the proximity sensor unit 142 will be described with reference to FIGS. 19A to 19D. 19A to 19D are diagrams illustrating a process in which the mobile device 100 changes an application being executed using the pressure sensing unit 130 and the proximity sensor unit 142 according to an embodiment of the present invention.

도 19a는 애플리케이션 A(1900)가 실행되는 화면을 도시한 도면이다. 도 19a에 도시된 바와 같이, 애플리케이션 A(1900)가 실행되는 상태에서 압력 감지부(130)에 압력이 감지되면, 도 19b에 도시된 바와 같이 애플리케이션 리스트가 화면에 표시된다. 19A is a diagram showing a screen on which the application A (1900) is executed. As shown in FIG. 19A, when a pressure is sensed by the pressure sensing unit 130 while the application A 1900 is being executed, an application list is displayed on the screen as shown in FIG. 19B.

이 상태에서, 도 19c에 도시된 바와 같이, 위에서 아래 방향으로의 근접 제스처가 근접 센서부(142)에서 검출되면, 애플리케이션 리스트는 아래 방향으로 스크롤된다. 따라서, 도 19c에 도시된 바와 같이, 애플리케이션 리스트에서 현재 선택된 애플리케이션은 애플리케이션 B(1910)가 된다. In this state, as shown in FIG. 19C, when the proximity sensor unit 142 detects the proximity gesture in the top-down direction, the application list is scrolled downward. Thus, as shown in FIG. 19C, the application currently selected in the application list becomes application B 1910.

그 후에, 압력 감지부(130)에서 압력의 감지가 종료되면, 모바일 기기(100)는 도 19d에 도시된 바와 같이 애플리케이션 B(1910)가 실행되는 화면을 표시하게 된다. Thereafter, when the pressure sensing unit 130 finishes sensing the pressure, the mobile device 100 displays a screen on which the application B 1910 is executed as shown in FIG. 19D.

이와 같이, 사용자는 압력 감지부(130)와 근접 센서부(142)를 이용하여 모바일 기기(100)에서 실행중인 애플리케이션을 변경할 수도 있다. In this way, the user may change the application being executed in the mobile device 100 using the pressure sensing part 130 and the proximity sensor part 142.

이하에서는 도 20a 내지 도 20c를 참고하여, 압력 감지부(130), 근접 센서부(142) 및 버튼부(146)를 이용하여 퀵 메뉴를 표시하는 과정을 설명한다. 도 20a 내지 도 20c는 본 발명의 일 실시예에 따른, 모바일 기기(100)가 압력 감지부(130), 근접 센서부(142) 및 버튼부(146)를 이용하여 퀵 메뉴를 표시하는 과정을 도시한 도면이다. Hereinafter, a process of displaying a quick menu using the pressure sensing unit 130, the proximity sensor unit 142, and the button unit 146 will be described with reference to FIGS. 20A to 20C. 20A to 20C illustrate a process in which the mobile device 100 displays a quick menu using the pressure sensing unit 130, the proximity sensor unit 142, and the button unit 146 according to an embodiment of the present invention. Fig.

도 20a는 사용자가 압력 감지부(130)에 압력을 가하면서 근접 센서부(142)에 가까워지는 방향의 근접 제스처를 입력하는 것을 도시하고 있다. 이와 같이, 압력 감지부(130)에 압력이 감지되고 근접 센서부(142)에 가까워지는 방향의 근접 제스처가 입력되면, 도 20c에 도시된 바와 같이, 모바일 기기(100)는 퀵 메뉴(2000)를 화면에 표시하게 된다. 여기에서, 퀵 메뉴는 사용자가 자주 사용하는 기능을 별도로 모아놓은 메뉴를 나타낸다. 퀵 메뉴의 항목은 사용자에 의해 설정될 수도 있고 모바일 기기(100)에 기설정되어 있을 수도 있다. 20A shows that a user inputs a proximity gesture in a direction of approaching the proximity sensor unit 142 while applying pressure to the pressure sensing unit 130. [ 20C, when the proximity sensor 142 detects a pressure in the pressure sensing unit 130, the mobile device 100 displays the proximity gesture in the quick menu 2000, On the screen. Here, the quick menu represents a menu in which functions frequently used by users are separately stored. The items of the quick menu may be set by the user or already set in the mobile device 100. [

또한, 도 20b는 사용자가 압력 감지부(130)에 압력을 가하면서 버튼부(146)의 특정 버튼 조작을 입력하는 것을 도시하고 있다. 이와 같이, 압력 감지부(130)에 압력이 감지되고 버튼부(146)의 특정 버튼에 대한 조작이 입력되면, 도 20c에 도시된 바와 같이, 모바일 기기(100)는 퀵 메뉴(2000)를 화면에 표시하게 된다. 20B shows that the user inputs a specific button operation of the button unit 146 while applying pressure to the pressure sensing unit 130. [ 20C, when the pressure is detected by the pressure sensing unit 130 and an operation for a specific button of the button unit 146 is input, the mobile device 100 displays the quick menu 2000 on the screen .

이와 같이, 사용자는 압력 감지부(130), 근접 센서부(142) 및 버튼부(146)를 이용하여 퀵 메뉴를 모바일 기기(100)의 화면에 표시할 수도 있다. In this way, the user may display the quick menu on the screen of the mobile device 100 using the pressure sensing part 130, the proximity sensor part 142 and the button part 146. [

한편, 본 실시예에서, 모바일 기기(100)는 압력을 감지할 수 있고 사용자의 조작을 입력받을 수 있는 기기라면 어느 것이라도 가능하다. 예를 들어, 모바일 기기(100)는 압력의 감지가 가능한 휴대폰, TV, MP3, PMP, PDA, 노트북, 컴퓨터 등이 될 수 있다. Meanwhile, in the present embodiment, the mobile device 100 can be any device capable of sensing pressure and receiving input of a user's operation. For example, the mobile device 100 may be a mobile phone, a TV, an MP3, a PMP, a PDA, a notebook computer, or the like capable of sensing a pressure.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

도 1은 본 발명의 일 실시예에 따른, 모바일 기기의 상세한 구조를 도시한 블럭도,1 is a block diagram showing a detailed structure of a mobile device according to an embodiment of the present invention;

도 2는 본 발명의 일 실시예에 따른, 모바일 기기의 외면에 배치된 압력 감지부, 근접 센서부, 터치 검출부, 및 버튼부를 도시한 도면,FIG. 2 illustrates a pressure sensing unit, a proximity sensor, a touch detector, and a button unit disposed on an outer surface of a mobile device according to an exemplary embodiment of the present invention.

도 3a는 본 발명의 일 실시예에 따른, 모바일 기기의 압력 감지부와 근접 센서부를 이용한 사용자 조작 방식을 도시한 도면,3A is a diagram illustrating a user operation using a pressure sensor and a proximity sensor of a mobile device according to an embodiment of the present invention;

도 3b는 본 발명의 일 실시예에 따른, 모바일 기기의 압력 감지부와 터치 검출부를 이용한 사용자 조작 방식을 도시한 도면,FIG. 3B is a diagram illustrating a user operation mode using a pressure detection unit and a touch detection unit of a mobile device according to an embodiment of the present invention;

도 3c는 본 발명의 일 실시예에 따른, 모바일 기기의 압력 감지부와 버튼부를 이용한 사용자 조작 방식을 도시한 도면,FIG. 3C is a diagram illustrating a user operation using a button unit and a pressure sensing unit of a mobile device according to an exemplary embodiment of the present invention; FIG.

도 4는 본 발명의 일 실시예에 따른, 모바일 기기의 UI(User Interface) 제공방법을 설명하기 위해 제공되는 흐름도,4 is a flowchart illustrating a UI (User Interface) providing method of a mobile device according to an embodiment of the present invention;

도 5a 내지 도 5c는 본 발명의 일 실시예에 따른, 모바일 기기를 잠금 상태(Hold on)에서 잠금 해제 상태(Hold off)로 변경하는 과정을 도시한 도면,5A to 5C are diagrams illustrating a process of changing a mobile device from a hold state to a hold off state according to an embodiment of the present invention;

도 6a 내지 도 6c는 본 발명의 일 실시예에 따른, 모바일 기기를 잠금 해제 상태(Hold off)에서 잠금 상태(Hold on)로 변경하는 과정을 도시한 도면,6A to 6C illustrate a process of changing a mobile device from a hold off state to a hold on state according to an embodiment of the present invention;

도 7a 및 도 7b는 본 발명의 일 실시예에 따른, 모바일 기기가 압력 감지부의 압력 감지 영역별로 다른 기능을 수행하는 것을 도시한 도면,7A and 7B illustrate that the mobile device performs different functions according to the pressure sensing areas of the pressure sensing part, according to an embodiment of the present invention;

도 8a 및 도 8b는 본 발명의 일 실시예에 따른, 모바일 기기가 압력 감지부 의 압력 감지 영역별로 다른 기능을 수행하는 것을 도시한 도면,8A and 8B illustrate that the mobile device performs different functions according to the pressure sensing areas of the pressure sensing unit according to an embodiment of the present invention;

도 9는 본 발명의 일 실시예에 따른, 압력 감지부에서 감지되는 압력의 세기와 근접 센서부에서 감지되는 근접 제스처에 따른 UI의 기능을 정리한 표,9 is a table summarizing the intensity of the pressure sensed by the pressure sensing unit and the function of the UI according to the proximity gesture sensed by the proximity sensor unit, according to an embodiment of the present invention;

도 10a 내지 도 10c는 본 발명의 일 실시예에 따른, 화면에 다음 사진이 표시되도록 조작하는 과정을 도시한 도면,FIGS. 10A through 10C illustrate a process of displaying a next picture on a screen according to an embodiment of the present invention; FIG.

도 11a 내지 도 11e는 본 발명의 일 실시예에 따른, 압력 감지부에서 감지되는 압력의 세기와 근접 센서부에서 감지되는 근접 제스처에 따른 사진 넘기기 기능을 도시한 도면,FIGS. 11A to 11E illustrate the intensity of the pressure sensed by the pressure sensing unit and the function of photographing according to the proximity gesture sensed by the proximity sensor unit, according to an embodiment of the present invention;

도 12는 본 발명의 일 실시예에 따른, 위젯 화면의 이동 과정에 대해 도시한 도면,12 is a diagram illustrating a process of moving a widget screen according to an embodiment of the present invention;

도 13a 내지 도 13h은 본 발명의 일 실시예에 따른, 압력 감지부를 이용하여 줌인(Zoom in) 기능 및 줌 아웃(Zoom out) 기능을 실행하는 다양한 방식을 도시한 도면,13A through 13H illustrate various methods of performing a zoom in function and a zoom out function using a pressure sensing unit according to an embodiment of the present invention.

도 14는 본 발명의 일 실시예에 따른, 알림기능을 실행하기 위한 압력 감지부 및 근접 센서부의 조작을 도시한 도면,FIG. 14 illustrates operations of a pressure sensor and a proximity sensor for executing a notification function according to an embodiment of the present invention; FIG.

도 15a 내지 도 15c는 본 발명의 일 실시예에 따른, 사용자의 손이 근접 센서부에 가까워짐에 따라 메인 메뉴의 포인터가 점점 작아지는 것을 도시한 도면,FIGS. 15A through 15C illustrate that the pointer of the main menu decreases as the user's hand approaches the proximity sensor, according to an embodiment of the present invention; FIGS.

도 16a 내지 도 16c는 본 발명의 일 실시예에 따른, 사용자의 손이 근접 센서부에 가까워짐에 따라 메인 메뉴의 선택된 아이콘이 점점 커지는 것을 도시한 도면,16A to 16C illustrate that the selected icon of the main menu gradually increases as the user's hand approaches the proximity sensor unit, according to an embodiment of the present invention;

도 17a 내지 도 17e는, 본 발명의 일 실시예에 따른, 메인메뉴의 줌인 과정 및 서브메뉴 표시 과정을 도시한 도면,FIGS. 17A through 17E illustrate a zoom-in process and a sub-menu display process of a main menu according to an embodiment of the present invention;

도 18a 내지 도 18c는 본 발명의 일 실시예에 따른, 압력 감지부와 근접 센서부를 이용하여 숨겨진 메뉴를 표시하는 과정을 도시한 도면,18A to 18C are diagrams illustrating a process of displaying a hidden menu using a pressure sensor and a proximity sensor according to an embodiment of the present invention;

도 19a 내지 도 19d는 본 발명의 일 실시예에 따른, 모바일 기기가 압력 감지부와 근접 센서부를 이용하여 실행중인 애플리케이션을 변경하는 과정을 도시한 도면,19A to 19D illustrate a process of changing a running application using a pressure sensor and a proximity sensor according to an embodiment of the present invention;

도 20a 내지 도 20c는 본 발명의 일 실시예에 따른, 모바일 기기가 압력 감지부, 근접 센서부 및 버튼부를 이용하여 퀵 메뉴를 표시하는 과정을 도시한 도면이다. 20A to 20C are views illustrating a process of displaying a quick menu using a pressure sensor, a proximity sensor, and a button unit according to an embodiment of the present invention.

Claims (16)

압력을 감지하는 압력 감지부;A pressure sensing part for sensing a pressure; 사용자의 조작을 입력받는 조작부; 및An operation unit for receiving a user's operation; And 상기 조작부가 비활성화된 상태에서 상기 압력 감지부에서 압력이 감지되면, 상기 비활성화 상태에 있는 상기 조작부가 활성화되도록 제어하는 제어부;를 포함하며,And a control unit for controlling the operation unit in the deactivated state to be activated when a pressure is detected in the pressure sensing unit in a state in which the operation unit is deactivated, 상기 조작부는,Wherein, 사용자의 근접 여부 및 근접 제스처를 검출하는 근접 센서부;A proximity sensor for detecting proximity of a user and proximity gesture; 사용자의 터치 조작을 검출하는 터치 검출부; 및A touch detection unit for detecting a touch operation of a user; And 사용자의 버튼 조작을 검출하는 버튼부; 중 적어도 하나를 포함하고, A button unit for detecting a button operation of the user; , ≪ / RTI > 상기 제어부는, Wherein, 상기 압력 감지부에서 압력이 감지되면 상기 근접 센서부, 터치 검출부, 및 버튼부 중 적어도 하나가 활성화되도록 제어하고,Wherein the control unit controls the at least one of the proximity sensor, the touch detection unit, and the button unit to be activated when the pressure is sensed by the pressure sensing unit, 상기 제어부는,Wherein, 상기 압력 감지부에서 감지된 압력의 세기에 따라, 상기 조작부를 통해 입력된 동일한 조작에 대해 서로 다른 기능을 수행하는 것을 특징으로 하는 모바일 기기.And performs a different function on the same operation input through the operation unit according to the intensity of the pressure sensed by the pressure sensing unit. 삭제delete 제1항에 있어서, The method according to claim 1, 상기 조작부는,Wherein, 사용자의 근접 여부 및 근접 제스처를 검출하는 근접 센서부;를 포함하고, And a proximity sensor section for detecting proximity of the user and proximity gesture, 상기 제어부는,Wherein, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 상기 근접 센서부에서 상기 근접 제스처가 감지되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 것을 특징으로 하는 모바일 기기.Wherein when a pressure is detected by the pressure sensing unit and the proximity sensor detects the proximity gesture during execution of a specific application, the mobile device performs a function related to the specific application. 제1항에 있어서, The method according to claim 1, 상기 조작부는,Wherein, 사용자의 터치 조작을 검출하는 터치 검출부;를 포함하고, And a touch detection unit for detecting a touch operation of the user, 상기 제어부는,Wherein, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 상기 터치 검출부에서 상기 터치조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 것을 특징으로 하는 모바일 기기.Wherein when a pressure is detected by the pressure sensing unit and the touch operation is detected by the touch detecting unit during execution of a specific application, the mobile device performs a function related to the specific application. 제1항에 있어서, The method according to claim 1, 상기 조작부는,Wherein, 사용자의 버튼 조작을 검출하는 버튼부;를 포함하고, And a button unit for detecting a button operation of the user, 상기 제어부는,Wherein, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 상기 버튼부에서 버튼 조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 것을 특징으로 하는 모바일 기기.Wherein when a pressure is detected in the pressure sensing part and a button operation is detected in the button part during execution of a specific application, the mobile device performs a function related to the specific application. 삭제delete 제1항에 있어서,The method according to claim 1, 상기 압력 감지부는,The pressure sensing unit may include: 적어도 하나의 압력 감지 영역을 포함하고, At least one pressure sensing area, 상기 제어부는,Wherein, 상기 적어도 하나의 압력 감지 영역 중 압력이 감지된 압력 감지 영역에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 것을 특징으로 하는 모바일 기기.Wherein the determining unit determines a function to be performed on the operation input through the operation unit according to the pressure sensing area in which the pressure is sensed in the at least one pressure sensing area. 제1항에 있어서,The method according to claim 1, 상기 제어부는,Wherein, 상기 압력 감지부에서 감지된 압력의 감지 횟수에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 것을 특징으로 하는 모바일 기기.Wherein the function determining unit determines a function to be performed on the operation input through the operation unit according to the number of sensed pressures sensed by the pressure sensing unit. 압력 감지부에서 압력을 감지하는 단계; Sensing a pressure in the pressure sensing unit; 사용자의 조작을 입력받기 위한 조작부가 비활성화된 상태에서 상기 압력 감지부에서 압력이 감지되면, 상기 조작부를 활성화하는 단계; 및Activating the operation unit when pressure is sensed by the pressure sensing unit in a state in which the operation unit for receiving a user's operation is inactivated; And 상기 조작부를 통해 입력된 사용자의 조작에 대응되는 기능을 수행하는 단계;를 포함하며,And performing a function corresponding to an operation of a user input through the operation unit, 상기 조작부는,Wherein, 사용자의 근접 여부 및 근접 제스처를 검출하는 근접 센서부;A proximity sensor for detecting proximity of a user and proximity gesture; 사용자의 터치 조작을 검출하는 터치 검출부; 및A touch detection unit for detecting a touch operation of a user; And 사용자의 버튼 조작을 검출하는 버튼부; 중 적어도 하나를 포함하고, A button unit for detecting a button operation of the user; , ≪ / RTI > 상기 활성화 단계는, Wherein, 상기 압력 감지부에서 압력이 감지되면, 상기 근접 센서부, 터치 검출부, 및 버튼부 중 적어도 하나를 활성화하고,Wherein when the pressure is sensed by the pressure sensing unit, at least one of the proximity sensor, the touch sensing unit, and the button unit is activated, 상기 수행하는 단계는,Wherein the performing comprises: 상기 압력 감지부에서 감지된 압력의 세기에 따라, 상기 조작부를 통해 입력된 동일한 조작에 대해 서로 다른 기능을 수행하는 것을 특징으로 하는 UI 제공방법.And performs a different function on the same operation input through the operation unit according to the intensity of the pressure sensed by the pressure sensing unit. 삭제delete 제9항에 있어서, 10. The method of claim 9, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 근접 센서부에서 근접 제스처가 감지되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.And performing a function related to the specific application when a pressure is sensed by the pressure sensing unit and a proximity gesture is sensed by the proximity sensor during execution of a specific application. 제9항에 있어서, 10. The method of claim 9, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 터치 검출부에서 터치조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.And performing a function related to the specific application when a pressure is detected by the pressure sensing unit and a touch operation is detected by the touch detecting unit during execution of a specific application. 제9항에 있어서, 10. The method of claim 9, 특정 애플리케이션이 실행되는 도중에, 상기 압력 감지부에서 압력이 감지되고 버튼부에서 버튼 조작이 검출되면, 상기 특정 애플리케이션에 관련된 기능을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.And performing a function related to the specific application when a pressure is detected in the pressure sensing part and a button operation is detected in a button part while a specific application is being executed. 삭제delete 제9항에 있어서,10. The method of claim 9, 상기 압력 감지 단계는,Wherein the pressure sensing step comprises: 적어도 하나의 압력 감지 영역 중 어느 한 압력 감지 영역에서 압력을 감지하고, Sensing a pressure in one of the at least one pressure sensing areas, 상기 조작부를 통해 사용자의 조작을 입력받는 단계; 및Receiving an operation of a user through the operation unit; And 상기 적어도 하나의 압력 감지 영역 중 압력이 감지된 압력 감지 영역에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.Determining a function to be performed on the operation input through the operation unit according to the pressure sensing area in which the pressure is sensed in the at least one pressure sensing area. 제9항에 있어서,10. The method of claim 9, 상기 압력 감지 단계는,Wherein the pressure sensing step comprises: 적어도 1회 이상의 압력을 감지하고, Sensing at least one pressure, 상기 조작부를 통해 사용자의 조작을 입력받는 단계; 및Receiving an operation of a user through the operation unit; And 상기 압력 감지부에서 감지된 압력의 감지 횟수에 따라, 상기 조작부를 통해 입력된 조작에 대해 수행되는 기능을 결정하는 단계;를 더 포함하는 것을 특징으로 하는 UI 제공방법.And determining a function to be performed on the operation input through the operation unit according to the number of sensed pressures sensed by the pressure sensing unit.
KR1020090104288A 2009-10-30 2009-10-30 Mobile device and method for providing UI Expired - Fee Related KR101768540B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020090104288A KR101768540B1 (en) 2009-10-30 2009-10-30 Mobile device and method for providing UI
US12/914,348 US8952901B2 (en) 2009-10-30 2010-10-28 Mobile device and method for providing user interface (UI) thereof
CN201080048611.3A CN102598519B (en) 2009-10-30 2010-10-29 Mobile device and method for providing user interface (UI) thereof
EP10827142.0A EP2494697B1 (en) 2009-10-30 2010-10-29 Mobile device and method for providing user interface (ui) thereof
CN201510350333.1A CN105045500B (en) 2009-10-30 2010-10-29 Mobile device and its for providing the method for user interface
PCT/KR2010/007555 WO2011053058A2 (en) 2009-10-30 2010-10-29 Mobile device and method for providing user interface (ui) thereof
US14/587,542 US9389723B2 (en) 2009-10-30 2014-12-31 Mobile device and method for providing user interface (UI) thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090104288A KR101768540B1 (en) 2009-10-30 2009-10-30 Mobile device and method for providing UI

Publications (2)

Publication Number Publication Date
KR20110047595A KR20110047595A (en) 2011-05-09
KR101768540B1 true KR101768540B1 (en) 2017-08-18

Family

ID=43922881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090104288A Expired - Fee Related KR101768540B1 (en) 2009-10-30 2009-10-30 Mobile device and method for providing UI

Country Status (5)

Country Link
US (2) US8952901B2 (en)
EP (1) EP2494697B1 (en)
KR (1) KR101768540B1 (en)
CN (2) CN105045500B (en)
WO (1) WO2011053058A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216177B2 (en) 2018-07-17 2022-01-04 Samsung Display Co., Ltd. Electronic device

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9182837B2 (en) * 2005-11-28 2015-11-10 Synaptics Incorporated Methods and systems for implementing modal changes in a device in response to proximity and force indications
US10585493B2 (en) 2008-12-12 2020-03-10 Apple Inc. Touch sensitive mechanical keyboard
KR101932688B1 (en) * 2010-11-29 2018-12-28 삼성전자주식회사 Portable Device and Method for Providing User Interface Mode thereof
TW201227393A (en) * 2010-12-31 2012-07-01 Acer Inc Method for unlocking screen and executing application program
WO2012108213A1 (en) * 2011-02-10 2012-08-16 京セラ株式会社 Input device
CN102739847A (en) * 2011-04-14 2012-10-17 富泰华工业(深圳)有限公司 Electronic equipment and unlocking method thereof
US9063704B2 (en) * 2011-05-05 2015-06-23 Net Power And Light, Inc. Identifying gestures using multiple sensors
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5633906B2 (en) 2011-09-08 2014-12-03 Kddi株式会社 Electronic book display device and program capable of turning pages by pressing on screen
US9785251B2 (en) 2011-09-14 2017-10-10 Apple Inc. Actuation lock for a touch sensitive mechanical keyboard
USD674811S1 (en) * 2011-10-18 2013-01-22 VIZIO Inc. Computer screen with graphical user interface
KR20130064257A (en) * 2011-12-08 2013-06-18 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR101515629B1 (en) 2012-01-07 2015-04-27 삼성전자주식회사 Method and apparatus for providing event of portable device having flexible display unit
US9372978B2 (en) * 2012-01-20 2016-06-21 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9710123B1 (en) * 2012-03-08 2017-07-18 Amazon Technologies, Inc. Time-based device interfaces
US9134901B2 (en) * 2012-03-26 2015-09-15 International Business Machines Corporation Data analysis using gestures
CN103376980B (en) * 2012-04-17 2016-12-14 百度在线网络技术(北京)有限公司 A kind of method releasing mobile terminal screen locking and mobile terminal
US20130307788A1 (en) * 2012-05-16 2013-11-21 Motorola Solutions, Inc. Device and method for automated use of force sensing touch panels
KR101885655B1 (en) * 2012-10-29 2018-09-10 엘지전자 주식회사 Mobile terminal
USD722035S1 (en) 2013-01-02 2015-02-03 Samsung Display Co., Ltd. Mobile phone
USD721671S1 (en) 2013-01-02 2015-01-27 Samsung Display Co., Ltd. Mobile phone
USD722036S1 (en) 2013-01-02 2015-02-03 Samsung Display Co., Ltd. Mobile phone
USD722037S1 (en) 2013-01-02 2015-02-03 Samsung Display Co., Ltd. Mobile phone
EP2976696B1 (en) * 2013-03-22 2019-12-04 Nokia Technologies Oy Selecting user interface view
CN104182165B (en) * 2013-05-27 2019-12-06 百度在线网络技术(北京)有限公司 Unlocking method and device of mobile terminal
KR101584590B1 (en) 2013-07-11 2016-01-13 삼성전자주식회사 user terminal device for displaying application and methods thereof
KR102140811B1 (en) * 2013-07-23 2020-08-03 삼성전자주식회사 User Interface Providing Method for Device and Device Thereof
USD788795S1 (en) * 2013-09-03 2017-06-06 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
KR101572331B1 (en) 2013-12-26 2015-11-30 (주)멜파스 Touch sensing system and method for providing proximity sensing function using touch screen panel
US9648237B2 (en) * 2014-06-09 2017-05-09 Htc Corporation Portable device and manipulation method for triggering different functions with a manipulation input
KR102264220B1 (en) * 2014-09-02 2021-06-14 삼성전자주식회사 Electronic apparatus and display method thereof
JP5963327B2 (en) * 2014-09-19 2016-08-03 Kddi株式会社 Electronic book display device capable of turning pages by pressing on the screen, page turning method and program
EP3202623B1 (en) * 2014-10-03 2023-06-28 Kyocera Corporation Vehicle and steering unit
CN106293438A (en) * 2015-06-04 2017-01-04 北京智谷睿拓技术服务有限公司 Method of mapping, device and subscriber equipment
CN105120054B (en) * 2015-06-25 2018-06-26 努比亚技术有限公司 Information processing method and mobile terminal
USD798331S1 (en) 2015-08-03 2017-09-26 Google Inc. Display screen with animated graphical user interface
USD781328S1 (en) * 2015-08-03 2017-03-14 Google Inc. Display screen with animated graphical user interface
USD798321S1 (en) * 2015-08-13 2017-09-26 Google Inc. Display panel portion with transitional graphical user interface
CN105303086A (en) * 2015-10-31 2016-02-03 深圳市金立通信设备有限公司 Application starting method and terminal
JP6160724B2 (en) * 2016-02-22 2017-07-12 カシオ計算機株式会社 Object processing apparatus, object processing method, and program
CN107306311A (en) * 2016-04-25 2017-10-31 中兴通讯股份有限公司 A kind of unlocking screen method, device and mobile terminal
CN106095290B (en) * 2016-05-31 2018-09-21 广东欧珀移动通信有限公司 The method for closing and device of sensor call function
KR20180006133A (en) * 2016-07-08 2018-01-17 삼성전자주식회사 Electronic device and operating method thereof
JP6804939B2 (en) * 2016-11-02 2020-12-23 ソニーモバイルコミュニケーションズ株式会社 Information processing device and information processing method
US20180188817A1 (en) * 2017-01-04 2018-07-05 Kyocera Corporation Electronic device, computer-readable non-transitory recording medium, and control method
USD868804S1 (en) * 2017-01-20 2019-12-03 Twitter, Inc. Display screen with a transitional graphical user interface
KR102316024B1 (en) * 2017-03-02 2021-10-26 삼성전자주식회사 Display apparatus and user interface displaying method thereof
KR102332483B1 (en) * 2017-03-06 2021-12-01 삼성전자주식회사 Method for displaying an icon and an electronic device thereof
USD897355S1 (en) * 2017-06-08 2020-09-29 Google Llc Computer display screen or portion thereof with a transitional graphical user interface
WO2020223172A1 (en) * 2019-04-28 2020-11-05 Apple Inc. Presenting user interfaces that update in response to detection of a hovering object
CN110351424A (en) * 2019-05-30 2019-10-18 华为技术有限公司 Gesture interaction method and terminal
US11960615B2 (en) 2021-06-06 2024-04-16 Apple Inc. Methods and user interfaces for voice-based user profile management

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1179533C (en) * 1997-12-29 2004-12-08 三星电子株式会社 Character recognition system and method for mobile radio communication terminal
KR100557153B1 (en) 1998-05-28 2006-07-27 삼성전자주식회사 Touch panel interface device and method of digital mobile communication terminal
JPH11239201A (en) 1998-02-20 1999-08-31 Toyo Commun Equip Co Ltd Portable telephone set
US6292674B1 (en) * 1998-08-05 2001-09-18 Ericsson, Inc. One-handed control for wireless telephone
US6593914B1 (en) 2000-10-31 2003-07-15 Nokia Mobile Phones Ltd. Keypads for electrical devices
JP2003140823A (en) 2001-11-08 2003-05-16 Sony Computer Entertainment Inc Information input device and information processing program
US20050035955A1 (en) * 2002-06-06 2005-02-17 Carter Dale J. Method of determining orientation and manner of holding a mobile telephone
GB2401701A (en) * 2003-05-16 2004-11-17 Inquam Mode selection for communications device keypad
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
KR101244300B1 (en) 2005-10-31 2013-03-18 삼성전자주식회사 Apparatus and method for send recognition handwriting data in mobile communication terminal
KR100800802B1 (en) 2006-09-26 2008-02-04 삼성전자주식회사 Method and device for preventing malfunction of key input unit in portable terminal capable of attaching and detaching external case
KR101395780B1 (en) * 2007-07-27 2014-05-16 삼성전자주식회사 Pressure sensor arrary apparatus and method for tactility
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8116831B2 (en) * 2007-11-29 2012-02-14 Motorola Mobility, Inc. Hand-held communication device with auxiliary input apparatus, and method
KR101387527B1 (en) * 2007-12-06 2014-04-23 엘지전자 주식회사 Terminal and method for displaying menu icon therefor
KR20090084636A (en) 2008-02-01 2009-08-05 엘지전자 주식회사 A mobile terminal equipped with a plurality of force sensor and the controlling method thereof
US8385885B2 (en) * 2008-10-17 2013-02-26 Sony Ericsson Mobile Communications Ab Method of unlocking a mobile electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216177B2 (en) 2018-07-17 2022-01-04 Samsung Display Co., Ltd. Electronic device

Also Published As

Publication number Publication date
CN105045500B (en) 2018-11-30
CN105045500A (en) 2015-11-11
EP2494697B1 (en) 2019-12-04
KR20110047595A (en) 2011-05-09
WO2011053058A2 (en) 2011-05-05
WO2011053058A3 (en) 2011-11-03
US9389723B2 (en) 2016-07-12
CN102598519B (en) 2015-07-22
US8952901B2 (en) 2015-02-10
US20110102345A1 (en) 2011-05-05
CN102598519A (en) 2012-07-18
US20150116269A1 (en) 2015-04-30
EP2494697A4 (en) 2016-06-08
EP2494697A2 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
KR101768540B1 (en) Mobile device and method for providing UI
US11740725B2 (en) Devices, methods, and user interfaces for processing touch events
EP2474896B1 (en) Information processing apparatus, information processing method, and computer program
US9377950B2 (en) Touch-based annotation system with temporary modes
JP2013117885A (en) Information processing program, information processing equipment, information processing system and information processing method
WO2012160829A1 (en) Touchscreen device, touch operation input method, and program
JP6123879B2 (en) Display device, display method, program thereof, and terminal device
JP5628991B2 (en) Display device, display method, and display program
KR101403079B1 (en) method for zooming in touchscreen and terminal using the same
JP2017142564A (en) Information processing apparatus, information processing method, and program
JP2014203202A (en) Information processing device, information processing device control method, and program
KR101371524B1 (en) Mouse Device For Controlling Remote Access
KR101136327B1 (en) A touch and cursor control method for portable terminal and portable terminal using the same

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20091030

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20141023

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20091030

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160203

Patent event code: PE09021S01D

AMND Amendment
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160830

Patent event code: PE09021S01D

AMND Amendment
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20170328

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20160830

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

Patent event date: 20160203

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

AMND Amendment
PX0901 Re-examination

Patent event code: PX09011S01I

Patent event date: 20170328

Comment text: Decision to Refuse Application

Patent event code: PX09012R01I

Patent event date: 20161028

Comment text: Amendment to Specification, etc.

Patent event code: PX09012R01I

Patent event date: 20160401

Comment text: Amendment to Specification, etc.

PX0701 Decision of registration after re-examination

Patent event date: 20170515

Comment text: Decision to Grant Registration

Patent event code: PX07013S01D

Patent event date: 20170428

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20170328

Comment text: Decision to Refuse Application

Patent event code: PX07011S01I

Patent event date: 20161028

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20160401

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

X701 Decision to grant (after re-examination)
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170809

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170810

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20200730

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210729

Start annual number: 5

End annual number: 5

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20230520

OSZAR »