KR100891099B1 - How to improve usability on touch screens and touch screens - Google Patents

How to improve usability on touch screens and touch screens Download PDF

Info

Publication number
KR100891099B1
KR100891099B1 KR1020070007972A KR20070007972A KR100891099B1 KR 100891099 B1 KR100891099 B1 KR 100891099B1 KR 1020070007972 A KR1020070007972 A KR 1020070007972A KR 20070007972 A KR20070007972 A KR 20070007972A KR 100891099 B1 KR100891099 B1 KR 100891099B1
Authority
KR
South Korea
Prior art keywords
touch
movement
pressure
pointer
contact position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020070007972A
Other languages
Korean (ko)
Other versions
KR20080070226A (en
Inventor
유병인
김성운
김연배
김남우
이권주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070007972A priority Critical patent/KR100891099B1/en
Priority to US11/979,929 priority patent/US8760410B2/en
Priority to EP08100613.2A priority patent/EP1950653B1/en
Priority to CN200810003567.9A priority patent/CN101231564B/en
Priority to JP2008014719A priority patent/JP5448346B2/en
Publication of KR20080070226A publication Critical patent/KR20080070226A/en
Application granted granted Critical
Publication of KR100891099B1 publication Critical patent/KR100891099B1/en
Priority to JP2013221022A priority patent/JP5881661B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법이 제공된다. 사용성을 향상시키는 터치 스크린은 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함한다.Provided are a touch screen for improving usability and a method for improving usability in a touch screen. A touch screen for improving usability may include a touch sensing unit configured to sense first touches and second touches, and to identify contact positions of the detected touches, a pointer setting unit which sets a pointer at the detected touch positions of the first touches; And a coordinate converter configured to convert the movement of the contact position according to the movement of the second touch into the movement of the pointer.

사용성(Usability), 인터페이스(Interface), 맵 브라우징(Map Browsing), 네비게이션(Navigation) Usability, Interface, Map Browsing, Navigation

Description

사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법{Touch screen and method for improvement of usability in touch screen}Touch screen and method for improvement of usability in touch screen}

도 1a 내지 도 1b는 종래의 위치 기반 서비스 기기에서 맵 브라우징 기능을 통해 지도가 디스플레이된 모습을 도시한 도면이다. 1A to 1B are views illustrating a map displayed through a map browsing function in a conventional location-based service device.

도 2a는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 도시한 블록도이다.2A is a block diagram illustrating a configuration of a touch screen for improving usability according to an embodiment of the present invention.

도 2b는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 실제 기기에 적용한 도면이다.2B is a diagram illustrating a configuration of a touch screen for improving usability according to an embodiment of the present invention to an actual device.

도 3a 내지 도 3b는 본 발명의 실시예에 따른 사용자의 제 1 터치 과정을 도시한 도면이다.3A to 3B are diagrams illustrating a first touch process of a user according to an embodiment of the present invention.

도 3c는 본 발명의 실시예에 따른 포인터 설정을 도시한 도면이다. 3C illustrates a pointer setting according to an embodiment of the present invention.

도 3d 내지 도 3e는 본 발명의 실시예에 따른 제 2 터치의 이동에 따른 접촉 위치의 이동을 도시한 도면이다.3D to 3E are views illustrating movement of a contact position according to movement of a second touch according to an exemplary embodiment of the present invention.

도 3f는 본 발명의 실시예에 따른 터치 감지부의 제 1 터치 및 제 2 터치의 구분 방법을 도시한 도면이다.3F is a diagram illustrating a method of distinguishing a first touch and a second touch from a touch sensing unit according to an exemplary embodiment of the present invention.

도 3g는 본 발명의 실시예에 따른 제 2 터치의 접촉 위치 이동이 포인터의 이동에 반영되는 모습을 도시한 도면이다.FIG. 3G illustrates a state in which a movement of a contact position of a second touch is reflected in movement of a pointer according to an embodiment of the present invention.

도 3h는 본 발명의 실시예에 따른 지도 회전 방법을 도시한 도면이다.3H is a diagram illustrating a map rotation method according to an embodiment of the present invention.

도 3i 내지 도 3j는 본 발명의 실시예에 따른 압력 감지부의 동작 지시를 도시한 도면이다.3I to 3J are diagrams illustrating an operation instruction of the pressure sensing unit according to the embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법을 도시한 흐름도이다.4 is a flowchart illustrating a method for improving usability in a touch screen according to an embodiment of the present invention.

<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>

201 : 터치 감지부201: touch detection unit

202 : 포인터 설정부202: pointer setting unit

203 : 좌표 변환부203: coordinate conversion unit

204 : 압력 감지부204: pressure sensing unit

205 : 디스플레이부205: display unit

본 발명은 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 관한 것으로서, 더욱 상세하게는 위치 기반 서비스(Location Based Service, LBS) 기기에서, 사용자가 보기 원하는 화면의 내용이 사용자의 손가락과 같은 신체 일부분이나 스타일러스 펜과 같은 도구에 일부 가리워지는 현상을 해소하고, 포인터의 동작을 세밀하게 조절하도록 하는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 관한 것이다.The present invention relates to a touch screen for improving usability and a method for improving usability in a touch screen, and more particularly, in a location based service (LBS) device, the content of a screen desired by the user is displayed on the user's finger. The present invention relates to a method for improving usability in a touch screen and a touch screen, which eliminates a part of the body and a part such as a stylus pen, and finely adjusts the operation of the pointer.

위치 기반 서비스란 휴대전화, 휴대용 정보 단말기(PDA) 등 이동 통신 단말기의 위치에 따라, 단말기 사용자에게 지리정보시스템(GIS), 인공위성 자동 위치 측정 시스템(GPS) 및 텔레매틱스를 포함한 위치 관련 정보를 제공하는 모든 서비스를 의미하는 것으로, 위치 기반 서비스는 3개의 기지국에서 동시에 위치를 알아내는 삼각 네트워크 방식과 GPS를 이용한 방식이 있으며, 최근에는 위치정보, 교통 항법뿐만 아니라, 모바일 광고, 모바일 쿠폰, 여행정보, 차량 진단지원, 긴급 출동 및 택시 콜 서비스 등의 개인부문 서비스가 활발히 진행되고 있다.Location-based services provide terminal users with location-related information, including geographic information systems (GIS), satellite automatic positioning systems (GPS), and telematics, depending on the location of mobile communications devices such as cell phones and portable information terminals (PDAs). By all services, the location-based service is a triangular network method and a GPS method that locates at the three base stations at the same time, and recently, as well as location information, traffic navigation, mobile advertising, mobile coupons, travel information, Private sector services such as vehicle diagnosis support, emergency dispatch, and taxi call service are actively in progress.

도 1a 내지 도 1b는 종래의 위치 기반 서비스 기기에서 맵 브라우징 기능을 통해 지도가 디스플레이된 모습을 도시한 도면이다.1A to 1B are views illustrating a map displayed through a map browsing function in a conventional location-based service device.

참고로, 도 1a 내지 도 1b에 도시된 위치 기반 서비스 기기(110)는 터치 스크린 방식으로, 사용자의 터치에 따라 지도의 이동, 검색 및 특정 위치에 대한 정보 조회가 가능하다고 가정하도록 한다.For reference, the location-based service device 110 illustrated in FIGS. 1A to 1B may be a touch screen method, and it is assumed that movement, search, and information search of a specific location may be performed according to a user's touch.

도 1a에 도시된 것처럼, 위치 기반 서비스 기기(110)의 화면(111)에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 특정 지점(111a)을 터치하여, 터치한 지점(111a)에 대한 위도, 경도, 지명 및 지번 정보를 볼 수 있다.As shown in FIG. 1A, a map is displayed on the screen 111 of the location-based service device 110, and the user touches a specific point 111a that he / she wants to see on the map, and thus the latitude of the touched point 111a. View longitude, place name, and branch number information.

이때, 도 1b에 도시된 것처럼, 해당 지점(111a)을 터치하는 사용자의 손가락(120)과 같은 신체의 일부분으로 인해 지도에서 보기 원하는 소정의 지점(111a) 뿐만 아니라 그 주위의 내용까지 사용자의 시야를 방해하는 문제가 발생한다.At this time, as shown in Figure 1b, due to the part of the body, such as the user's finger 120 to touch the point (111a), the user's field of view as well as the predetermined point (111a) that you want to see on the map as well as the surroundings A problem that interferes with this occurs.

또한, 상술한 것처럼 최근 위치 기반 서비스가 개인부문까지 활발하게 진행됨에 따라, 위치 기반 서비스 기기의 수요도 높아지고 있으며, 최근 디지털 기기들 이 점차 소형화 되어가는 추세임을 생각할 때, 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자의 손가락(120)과 같은 신체의 일부분을 이용하여 섬세하게 지도의 이동 및 검색을 조절하기에는 한계가 있다.In addition, as the above-described location-based services are actively progressing to the private sector, the demand for location-based service devices is also increasing, and considering that digital devices are gradually becoming smaller in recent years, location-based using a touch screen There is a limit in controlling the movement and search of the map in detail by using a part of the body such as the user's finger 120 in the service device.

이에 본 발명은, 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법을 통하여, 사용자의 손가락과 같은 신체의 일부가 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자의 시야를 방해하지 않도록 하는데 그 목적이 있다.Accordingly, the present invention provides a touch screen for improving usability and a method for improving usability in the touch screen such that a part of a body such as a user's finger does not obstruct the user's view in a location-based service device using the touch screen. The purpose is.

본 발명의 다른 목적은 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자에게 섬세한 지도의 이동 및 검색을 제공하는 것이다.Another object of the present invention is to provide a user with movement and retrieval of a delicate map in a location-based service device using a touch screen.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린은 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함한다.In order to achieve the above object, a touch screen for improving usability according to an embodiment of the present invention is a touch sensing unit for detecting a first touch and a second touch, and grasps the contact position of the detected touch, the identified agent And a pointer setting unit for setting a pointer at a touch position of one touch and a coordinate converting unit for converting a movement of the contact position according to the movement of the second touch into a position movement of the pointer.

상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법은 제 1 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 제 1 터치 감지 단계, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정 단계, 제 2 터치를 감지하고 상기 감지된 터치의 접촉 위치를 파악하는 제 2 터치 감지 단계 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환 단계를 포함한다.In order to achieve the above object, a method for improving usability in a touch screen according to an embodiment of the present invention, the first touch sensing step of detecting a first touch, the touch position of the detected touch, the identified agent A pointer setting step of setting a pointer at a touch position of a first touch, a second touch sensing step of detecting a second touch and grasping the touch position of the detected touch, and a movement of the touch position according to the movement of the second touch; And a coordinate transformation step of converting the positional movement of the pointer.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and the drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어있는 실시예들을 참조하면 명확해질 것이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예들에 의한 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법을 설명하기 위한 구성도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for a touch screen for improving usability and embodiments of a method for improving usability in a touch screen according to embodiments of the present invention.

이때, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. At this point, it will be appreciated that each configuration of the process flow diagrams and combinations of flow chart figures may be performed by computer program instructions.

이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기 타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment are described in the flow chart configuration (s). It will create a means to perform the functions.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 구성(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart configuration (s).

컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 구성(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Computer program instructions It is also possible to mount on a computer or other programmable data processing equipment, so a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-implemented process to perform the computer or other programmable data processing equipment. It is also possible for the instructions to provide steps for performing the functions described in the flowchart configuration (s).

또한, 각 구성은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. In addition, each arrangement may represent a module, segment, or portion of code that includes one or more executable instructions for executing a specified logical function (s).

또, 몇 가지 대체 실행예들에서는 구성들에서 언급된 기능들이 순서를 벗어 나서 발생하는 것도 가능함을 주목해야 한다. It should also be noted that in some alternative implementations, the functions noted in the configurations may occur out of order.

예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.For example, the two components shown in succession may in fact be performed substantially simultaneously or the components may sometimes be performed in the reverse order, depending on the function in question.

이하, 본 발명의 실시예에서는 터치 스크린을 사용하는 위치 기반 서비스 기기의 화면에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 지점을 선택한다고 가정하며, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하도록 한다.Hereinafter, in the embodiment of the present invention, it is assumed that the map is displayed on the screen of the location-based service device using the touch screen, and the user selects a desired point to view on the map, and with reference to the accompanying drawings, preferred embodiments of the present invention. An example will be described in detail.

도 2a는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 도시한 블록도이다.2A is a block diagram illustrating a configuration of a touch screen for improving usability according to an embodiment of the present invention.

본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린(200)은 제 1 터치 및 제 2 터치를 감지하고, 감지된 터치의 접촉 위치를 파악하는 터치 감지부(201), 터치 감지부(201)에서 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부(202), 제 2 터치의 이동에 따른 접촉 위치의 이동을 포인터의 위치 이동으로 변환하는 좌표 변환부(203), 터치 감지부(201)에서 파악한 접촉 위치의 압력을 감지하고 감지된 압력에 대응하는 동작을 지시하는 압력 감지부(204) 및 포인터의 위치 이동과 감지된 압력에 대응하는 동작을 디스플레이하는 디스플레이부(205)를 포함한다.The touch screen 200 that improves usability according to an embodiment of the present invention includes a touch sensing unit 201 and a touch sensing unit 201 that detect a first touch and a second touch, and determine a touch position of the detected touch. Pointer setting unit 202 for setting the pointer to the touch position of the first touch identified in the coordinates, coordinate transformation unit 203 for converting the movement of the touch position according to the movement of the second touch to the position movement of the pointer, the touch sensing unit A pressure sensing unit 204 for detecting a pressure at the contact position detected by the 201 and instructing an operation corresponding to the detected pressure, and a display unit 205 for displaying the movement corresponding to the positional movement of the pointer and the detected pressure; Include.

본 발명의 실시예에 따른 도 2a에 도시된 구성요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미하며, 소정의 역할들을 수행한다. 2A according to an embodiment of the present invention refers to software or a hardware component such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and performs predetermined roles.

그렇지만 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. However, the components are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.

따라서, 일 예로서 구성요소는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

구성요소들과 해당 구성요소들 안에서 제공되는 기능은 더 작은 수의 구성요소들로 결합되거나 추가적인 구성요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into a smaller number of components or further separated into additional components.

참고로, 도 2a에 도시된 장치(200)는 도 2b에 도시된 것처럼 위치 기반 서비스 기기에 사용될 수 있다.For reference, the apparatus 200 shown in FIG. 2A may be used for a location based service device as shown in FIG. 2B.

터치 감지부(201)는 사용자의 터치를 감지하기 위해 터치 센서를 포함하고 기기의 화면에 해당하는 디스플레이부(205)의 상면에 위치될 수 있으며, 압력 감지부(204)는 터치의 접촉 위치에서 압력을 감지하고 디스플레이부(205)의 하단면에 하나 이상 다수의 갯수로 존재할 수 있다.The touch sensing unit 201 may include a touch sensor to sense a user's touch and may be located on an upper surface of the display unit 205 corresponding to the screen of the device, and the pressure sensing unit 204 may be located at a touch position of the touch. The pressure may be sensed and present at one or more numbers on the bottom surface of the display unit 205.

먼저, 도 2a에 도시된 장치(200) 중 터치 감지부(201)는 제 1 터치 및 제 2 터치를 감지하고, 감지된 터치의 접촉 위치를 파악한다.First, the touch detector 201 of the apparatus 200 illustrated in FIG. 2A detects a first touch and a second touch and detects a contact position of the detected touch.

여기에서 제 1 터치는, 위치 기반 서비스 기기의 화면에서 사용자가 보기 원 하는 지점에 대한 물체의 접촉을 의미하며, 이때 물체란, 사용자의 손가락과 같은 신체의 일부분이나 스타일러스 펜과 같은 도구를 의미한다.Here, the first touch refers to the contact of an object with a point that the user wants to see on the screen of the location-based service device, wherein the object refers to a part of the body such as a user's finger or a tool such as a stylus pen. .

이하, 설명의 편의상 본 발명의 실시예에서는, 위치 기반 서비스 기기의 입력 수단으로 사용자의 손가락과 같은 신체의 일부분을 사용하는 경우를 설명하며, 제 2 터치 및 터치 감지부(201)에 대한 보다 상세한 설명은 도 2a에 도시된 다른 장치들(202~205)을 설명하면서 함께 상세히 설명하도록 한다.Hereinafter, for convenience of description, an embodiment of the present invention describes a case in which a part of a body such as a user's finger is used as an input means of a location-based service device, and the second touch and touch sensing unit 201 is more detailed. The description will be described in detail together with the other devices 202 to 205 illustrated in FIG. 2A.

도 3a 내지 도 3b는 본 발명의 실시예에 따른 사용자의 제 1 터치 과정을 도시한 도면이다.3A to 3B are diagrams illustrating a first touch process of a user according to an embodiment of the present invention.

도 3a는 위치 기반 서비스 기기(310)의 화면(320)에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 특정 지점(321)을 손가락(330)을 사용하여 터치하려고 하는 모습이 도시되어 있다.FIG. 3A illustrates a map displayed on the screen 320 of the location-based service device 310, and a user attempts to touch a specific point 321 to be viewed on the map using the finger 330.

도 3b는 도 3a에 도시된 특정 지점(321)을 사용자가 손가락(330)으로 터치한, 즉 제 1 터치의 접촉 위치(321)을 도시하고 있다.FIG. 3B illustrates a contact point 321 of the first touch when the user touches the specific point 321 shown in FIG. 3A with the finger 330.

이때, 터치 감지부(201)는 상술한 제 1 터치를 감지하고, 제 1 터치의 접촉 위치(321)를 파악한다.In this case, the touch detector 201 detects the above-described first touch and grasps the contact position 321 of the first touch.

도 3c는 본 발명의 실시예에 따른 포인터 설정을 도시한 도면이다.3C illustrates a pointer setting according to an embodiment of the present invention.

포인터 설정부(202)는 터치 감지부(201)에서 파악된 제 1 터치의 접촉 위치(321)에 포인터(322)를 설정한다.The pointer setting unit 202 sets the pointer 322 at the contact position 321 of the first touch detected by the touch sensing unit 201.

참고로, 도 3c에서 볼 수 있듯이 사용자의 손가락(330)은 제 1 터치의 접촉 위치(321)에서 분리되어 있음을 알 수 있다.For reference, as shown in FIG. 3C, the user's finger 330 may be separated from the contact position 321 of the first touch.

포인터 설정부(202)에서 포인터(322)를 설정하는, 즉 제 1 터치의 접촉 위치(321)에 포인터(322)를 위치시키는 시점은, 사용자가 제 1 터치 후 제 1 터치의 접촉 위치(321)에서 접촉을 해제하거나, 사용자가 제 1 터치 후 소정의 거리만큼 제 1 터치의 접촉 위치(321)를 이동 시킬 때, 포인터 설정부(202)는 제 1 터치의 처음 접촉 위치(321)에 포인터를 설정한다.When the pointer setting unit 202 sets the pointer 322, that is, when the pointer 322 is positioned at the contact position 321 of the first touch, the touch position 321 of the first touch after the first touch is set by the user. When the contact is released or the user moves the contact position 321 of the first touch by a predetermined distance after the first touch, the pointer setting unit 202 moves the pointer to the initial contact position 321 of the first touch. Set.

이는, 터치 감지부(201)에서 제 1 터치와 제 2 터치를 구분하는 것과 밀접한 관련이 있으며 도 3f를 참조하여 후술하도록 한다.This is closely related to distinguishing the first touch from the second touch in the touch sensing unit 201 and will be described later with reference to FIG. 3F.

도 3d 내지 도 3e는 본 발명의 실시예에 따른 제 2 터치의 이동에 따른 접촉 위치의 이동을 도시한 도면이다.3D to 3E are views illustrating movement of a contact position according to movement of a second touch according to an exemplary embodiment of the present invention.

제 2 터치에 앞서, 도 3a 내지 도 3c를 통해 설명한 것처럼, 터치 감지부(201)의 제 1 터치의 감지 및 해당 접촉 위치(321)의 파악, 그리고 포인터 설정부(202)에 의해서 제 1 터치의 접촉 위치(321)에 포인터(322) 설정이 이루어 졌다.Prior to the second touch, as described with reference to FIGS. 3A to 3C, the first touch of the touch sensing unit 201 is detected, the contact position 321 is detected, and the first touch is detected by the pointer setting unit 202. In the contact position 321 of the pointer 322 was made.

이후, 사용자는 도 3d에 도시된 것처럼, 위치 기반 서비스 기기(310)의 화면(320)에서 제 2 터치의 예정 위치(323)를 결정하고, 도 3e에 도시된 것처럼 해당 위치(323)를 터치하면, 터치 감지부(201)는 제 2 터치를 감지하고 제 2 터치의 접촉 위치(323)를 파악한다.Thereafter, the user determines the predetermined location 323 of the second touch on the screen 320 of the location-based service device 310 as shown in FIG. 3D, and touches the location 323 as shown in FIG. 3E. In response, the touch sensing unit 201 detects the second touch and grasps the contact position 323 of the second touch.

좌표 변환부(203)는 터치 감지부(201)로부터 제 1 터치 및 제 2 터치의 접촉 위치를 전달받아, 제 2 터치의 이동에 따른 접촉 위치(323)의 이동(도 3e에서 324위치)을 포인터(322)의 위치 이동으로 변환한다.The coordinate converting unit 203 receives the contact positions of the first touch and the second touch from the touch sensing unit 201 to adjust the movement (the 324 position in FIG. 3E) of the contact position 323 according to the movement of the second touch. It converts to the position movement of the pointer 322.

여기에서 제 2 터치는, 제 1 터치의 접촉 위치(321)에 설정된 포인터(322)의 이동을 조절하기 위한 사용자의 접촉을 의미하는 것으로, 도 3e에 도시된 것처럼, 제 2 터치의 위치(323)는 위치 기반 서비스 기기(310)의 화면(320)에서 제 1 터치의 접촉 위치(321)에 설정된 포인터(322)의 이동을 조절하기 편리한 영역으로 선택하는 것이 바람직하다..Here, the second touch refers to a user's contact for adjusting the movement of the pointer 322 set at the contact position 321 of the first touch, and as shown in FIG. 3E, the position 323 of the second touch. ) May be selected as a convenient area to control the movement of the pointer 322 set at the contact location 321 of the first touch on the screen 320 of the location-based service device 310.

참고로, 터치 감지부(201)는 제 1 터치 및 제 2 터치를 소정의 시간차로 구분한다.For reference, the touch detector 201 classifies the first touch and the second touch into a predetermined time difference.

예를 들어 도 3c에 도시된 것처럼, 사용자의 제 1 터치 후, 제 1 터치의 접촉이 해제되고, 제 1 터치의 접촉 위치(321)가 아닌 다른 위치에 사용자의 터치가 발생하면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.For example, as shown in FIG. 3C, after the first touch of the user, the touch of the first touch is released, and when the touch of the user occurs at a position other than the contact position 321 of the first touch, the touch sensing unit ( 201) recognizes this as a second touch.

도 3f는 본 발명의 실시예에 따른 터치 감지부의 제 1 터치 및 제 2 터치의 구분 방법을 도시한 도면이다.3F is a diagram illustrating a method of distinguishing a first touch and a second touch from a touch sensing unit according to an exemplary embodiment of the present invention.

터치 감지부(201)는 제 1 터치 및 제 2 터치를 소정의 거리차로 구분할 수도 있다.The touch detector 201 may classify the first touch and the second touch into a predetermined distance difference.

예를 들어, 사용자의 제 1 터치 후, 제 1 터치의 접촉이 유지된 상태에서 소정의 거리를 이동하면, 즉 제 1 터치의 접촉 위치(321)를 중심으로 소정의 경계(325)를 초과하여 이동하면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.For example, after a user's first touch, when the user moves a predetermined distance while the contact of the first touch is maintained, that is, exceeds the predetermined boundary 325 about the contact position 321 of the first touch. When moved, the touch sensing unit 201 recognizes this as a second touch.

또한, 터치 감지부(201)는 제 1 터치 및 제 2 터치를 압력의 입력 여부로 구분할 수도 있다.In addition, the touch sensing unit 201 may classify the first touch and the second touch based on whether pressure is input.

예를 들어, 사용자의 제 1 터치와 압력이 동시에 이루어지면 접촉 위치를 중 심으로 포인터를 설정하고 제 2 터치의 경우 압력 없이 터치만 이루어 지면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.For example, when the user's first touch and pressure are made at the same time, the pointer is set based on the contact position, and in the case of the second touch, when only the touch is made without pressure, the touch sensing unit 201 recognizes this as the second touch. will be.

한편, 좌표 변환부(203)는 제 1 터치 및 제 2 터치의 접촉 위치, 더 자세히 표현하면 접촉 위치에 대한 좌표를 알고 있으므로, 이후 사용자가 제 2 터치의 접촉 위치를 이동시킬 때마다 변화되는 제 2 터치의 접촉 위치에 대한 좌표를 제 1 터치, 즉 포인터의 위치 좌표에 반영한다.On the other hand, since the coordinate converter 203 knows the contact position of the first touch and the second touch, or more specifically, the coordinates of the contact position, the coordinate changer 203 is changed every time the user moves the contact position of the second touch. The coordinates of the touch positions of the two touches are reflected in the position coordinates of the first touch, that is, the pointer.

따라서 사용자의 제 2 터치 상태에 대한 접촉 위치의 이동이 포인터의 이동으로 변환되는 것이다.Therefore, the movement of the contact position with respect to the second touch state of the user is converted into the movement of the pointer.

도 3g는 본 발명의 실시예에 따른 제 2 터치의 접촉 위치 이동이 포인터의 이동에 반영되는 모습을 도시한 도면이다.FIG. 3G illustrates a state in which a movement of a contact position of a second touch is reflected in movement of a pointer according to an embodiment of the present invention.

제 2 터치의 처음 접촉 위치(323)에서 다른 접촉 위치(324)로 이동하면, 터치 감지부(201)는 이동하는 접촉 위치(324)의 좌표를 파악하고, 파악된 좌표를 제 1 터치의 접촉 위치에 설정된 포인터(322)에 실시간으로 반영하여 포인터를 이동시키며, 상술한 과정으로 좌표 변환부(203)를 통해 이동된 포인터(326)가 도 3g에 도시되어 있다.When the first touch position 323 of the second touch is moved to another touch position 324, the touch sensor 201 detects the coordinates of the moving touch position 324 and uses the detected coordinates to touch the first touch. The pointer 326 is moved to reflect the pointer 322 set at the position in real time and moved through the coordinate conversion unit 203 in the above-described process.

이때, 좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터의 위치 이동을 1 대 1로 변환할 수 있다.In this case, the coordinate conversion unit 203 may convert the positional movement of the pointer according to the movement of the touch position of the second touch into one-to-one.

예를 들어, 제 2 터치의 접촉 위치가 기기의 화면에서 3cm만큼 우측으로 이동했다면, 포인터의 위치 역시 현재 위치에서 3cm만큼 우측으로 이동하는 것이다.For example, if the contact position of the second touch is moved to the right by 3 cm on the screen of the device, the position of the pointer is also moved to the right by 3 cm from the current position.

또한 좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터의 위치 이동을 1 대 N으로 변환할 수도 있다In addition, the coordinate converter 203 may convert the positional movement of the pointer according to the movement of the contact position of the second touch into 1 to N.

예를 들어, 제 2 터치의 접촉 위치가 기기의 화면에서 3cm만큼 좌측으로 이동했다면, 포인터의 위치는 현재 위치에서 변환비율에 따라 1cm, 0.5cm 혹은 그 이하만큼 좌측으로 이동하는 것이다.For example, if the contact position of the second touch is moved to the left by 3 cm on the screen of the device, the position of the pointer moves to the left by 1 cm, 0.5 cm or less according to the conversion ratio at the current position.

이는, 위치 기반 서비스 기기의 화면에 디스플레이되는 지도의 축적이 높아, 세밀한 포인터 이동이 불가능한 경우에도 세밀한 포인터의 이동을 가능하게 하며, 위치 기반 서비스 기기의 화면뿐만 아니라 터치 스크린을 사용하는 대부분의 디지털 기기의 화면이 점차 소형화 되어가는 추세에서 본 발명에서 제공하는 포인터의 세밀한 이동은 해당 기기의 사용성을 향상시킬 수 있다.This increases the accumulation of maps displayed on the screen of the location-based service device, enabling the movement of the detailed pointer even when the detailed pointer movement is impossible, and most digital devices using the touch screen as well as the screen of the location-based service device. In the trend that the screen is gradually miniaturized, the fine movement of the pointer provided by the present invention can improve the usability of the device.

참고로, 본 발명의 실시예에 따른 장치는 제 1 터치와 제 2 터치를 이용하여 포인터를 이동시킬 뿐만 아니라, 버튼(미도시)이나 터치(미도시)와 같은 소정의 모드 전환 입력을 통해서 지도를 회전시킬 수도 있다.For reference, the device according to the embodiment of the present invention not only moves the pointer using the first touch and the second touch, but also maps through a predetermined mode switching input such as a button (not shown) or a touch (not shown). You can also rotate.

도 3h는 본 발명의 실시예에 따른 지도 회전 방법을 도시한 도면이다.3H is a diagram illustrating a map rotation method according to an embodiment of the present invention.

도 3e에 도시된 것처럼 터치 감지부(201)의 제 1 터치의 감지 및 해당 접촉 위치(321)의 파악, 포인터 설정부(202)에 의해서 제 1 터치의 접촉 위치(321)에 포인터(322) 설정, 그리고 제 2 터치의 접촉이 이루어졌다면, 사용자는 회전 전환 버튼(미도시)이나 회전 전환을 위한 터치(미도시)를 통해서 지도를 원하는 만큼 회전시킬 수 있다.As illustrated in FIG. 3E, the touch sensing unit 201 detects the first touch, grasps the corresponding contact position 321, and the pointer setting unit 202 controls the pointer 322 at the touch position 321 of the first touch. If the setting and the touch of the second touch are made, the user may rotate the map as desired through a rotation switch button (not shown) or a touch for rotation conversion (not shown).

이때, 도 3h에 도시된 것처럼 지도의 회전은 제 1 터치의 접촉 위치(321)를 중심으로 회전하게 되며, 사용자는 제 2 터치의 접촉 위치를 이동시킴으로써 회전 의 크기를 조절할 수 있다.In this case, as shown in FIG. 3H, the rotation of the map rotates around the contact position 321 of the first touch, and the user may adjust the size of the rotation by moving the contact position of the second touch.

좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터를 중심으로 한 회전을, 상술한 제 2 터치의 접촉 위치 이동과 포인터의 이동 변환 비율처럼, 1 대 1 또는 1 대 N으로 조절하여 섬세하게 지도의 회전을 조절할 수 있다.The coordinate transformation unit 203 adjusts the rotation around the pointer according to the movement of the touch position of the second touch to one-to-one or one-to-n, like the above-described contact position movement of the second touch and the movement transformation ratio of the pointer. You can finely control the rotation of the map.

한편, 압력 감지부(204)는 터치 감지부(201)에서 파악한 제 1 터치 및 제 2 터치의 접촉 위치에 대한 압력을 감지하고 감지된 압력에 대응하는 동작을 지시한다.On the other hand, the pressure detector 204 detects the pressure of the contact position of the first touch and the second touch detected by the touch detector 201 and instructs an operation corresponding to the detected pressure.

또한, 압력 감지부(204)는 제 1 터치 및 제 2 터치의 접촉 위치에 대해 감지된 압력의 지속 시간 과 압력 정도에 따라 감지된 압력에 대응하는 동작을 지시할 수 있다.In addition, the pressure sensing unit 204 may instruct an operation corresponding to the detected pressure according to the duration of the pressure and the degree of pressure detected with respect to the contact positions of the first touch and the second touch.

예를 들어 지도의 줌-인(Zoom In) 이나 줌-아웃(Zoom Out) 기능 동작 시 , 압력의 정도에 따라 줌-인이나 줌-아웃의 속도를 조절할 수 있다.       For example, when the map zooms in or zooms out, the speed of zoom-in or zoom-out can be adjusted according to the degree of pressure.

압력이 낮을 경우 줌-인이나 줌-아웃의 속도가 느리며, 압력이 높을 경우 줌-인이나 줌-아웃의 속도가 빨라지는 효과를 줄 수 있다.Low pressure can slow zoom-in or zoom-out speed, while high pressure can speed up zoom-in or zoom-out.

도 3i 내지 도 3j는 본 발명의 실시예에 따른 압력 감지부의 동작 지시를 도시한 도면이다.3I to 3J are diagrams illustrating an operation instruction of the pressure sensing unit according to the embodiment of the present invention.

예를 들어, 제 1 터치 후 접촉 위치의 이동 없이 소정의 시간 동안 압력을 유지하면, 압력 감지부(204)는 도 3i처럼 지도에서 해당 위치의 정보(327)를 디스플레이하도록 디스플레이부(205)에 요청한다.For example, if the pressure is maintained for a predetermined time without moving the contact position after the first touch, the pressure sensing unit 204 may display the information 327 of the corresponding position on the map as shown in FIG. 3I. request.

여기에서 해당 위치의 정보(327)는 지명, 건물명, 위도 및 경도와 같은 정보 가 포함될 수 있다.Here, the information 327 of the corresponding location may include information such as place name, building name, latitude and longitude.

또한, 제 2 터치 후 접촉 위치의 이동 없이 소정의 시간 동안 압력을 유지하면, 압력 감지부(204)는 마우스의 왼쪽 버튼 클릭과 오른쪽 버튼 클릭의 효과를 나타낼 수도 있다.In addition, if the pressure is maintained for a predetermined time without moving the contact position after the second touch, the pressure sensing unit 204 may exhibit the effect of the left button click and the right button click of the mouse.

예를 들어, 제 2 터치 후 접촉 위치의 이동 없이 바로 압력을 가하는 경우, 마우스의 왼쪽 버튼 클릭과 같은 효과를 나타낼 수 있고, 도 3j처럼 제 2 터치 후 접촉 위치의 이동 없이 소정의 시간(예를 들어, 2초) 동안 압력을 유지하면 마우스 오른쪽 버튼 클릭의 효과를 나타내어 속성 창(328)을 팝업 시킬 수 있다.For example, in the case of applying pressure immediately without moving the contact position after the second touch, the same effect as the left button click of the mouse can be obtained, and as shown in FIG. For example, holding the pressure for 2 seconds may cause the right-click effect to pop up the property window 328.

본 발명에서 제시하는 압력의 지속시간 및 압력의 강도는 실시예에 따라 얼마든지 다양하게 실행될 수 있으므로 본 발명의 실시예로 한정하지 않는다.The duration of the pressure and the intensity of the pressure presented in the present invention can be variously performed according to the embodiment, and thus are not limited to the embodiments of the present invention.

도 4는 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법을 도시한 흐름도이다.4 is a flowchart illustrating a method for improving usability in a touch screen according to an embodiment of the present invention.

참고로, 설명의 편의상 도 2에 도시된 장치를 참조하여 도 4의 흐름도를 설명하도록 한다.For reference, for convenience of description, the flowchart of FIG. 4 will be described with reference to the apparatus shown in FIG. 2.

터치 감지부(201)는 사용자의 제 1 터치를 감지하고, 제 1 터치의 접촉 위치를 파악한다(S401).The touch detector 201 detects a first touch of the user and detects a contact position of the first touch (S401).

S401 후, 터치 감지부(201)는 제 1 터치의 접촉이 해제되었는지 판단한다(S402).After S401, the touch sensing unit 201 determines whether contact of the first touch is released (S402).

판단 결과, 제 1 터치의 접촉이 해제되었다면 포인터 설정부(202)는 제 1 터치의 접촉 위치에 포인터를 설정한다(S403).As a result of the determination, if the contact of the first touch is released, the pointer setting unit 202 sets the pointer at the contact position of the first touch (S403).

S403 후, 터치 감지부(201)는 사용자의 제 2 터치를 감지하고, 제 2 터치의 접촉 위치를 파악한다(S404).After S403, the touch detector 201 detects a second touch of the user and grasps a contact position of the second touch (S404).

이때, 터치 감지부(201)는 제 1 터치의 접촉이 해제된 후 이루어진 접촉, 즉 소정의 시간차가 발생한 후 이루어진 접촉이므로 이를 제 2 터치로 구분한다.In this case, the touch sensing unit 201 classifies the touch into a second touch since the touch is made after the contact of the first touch is released, that is, the contact made after a predetermined time difference occurs.

S404 후, 압력 감지부(204)는 제 2 터치의 접촉 위치에서 압력 감지 여부를 판단한다(S405).After S404, the pressure detector 204 determines whether pressure is sensed at the contact position of the second touch (S405).

판단 결과, 압력이 감지되지 않은 경우, 터치 감지부(201)는 사용자의 제 2 터치 이동을 감지하고, 제 2 터치가 이동되는 접촉 위치를 파악한다(S406).As a result of the determination, when no pressure is detected, the touch sensing unit 201 detects a user's second touch movement and determines a contact position where the second touch is moved (S406).

만일 S405의 판단 결과, 제 2 터치의 접촉 위치에 압력이 감지되는 경우, 압력 감지부(204)에 의해 추후 설명하게 될 S412~S413의 과정으로 진행된다.If the pressure is detected at the contact position of the second touch as a result of the determination in S405, the process proceeds from S412 to S413 which will be described later by the pressure sensing unit 204.

S406 후, 좌표 변환부(203)는 S405에서 파악된 제 2 터치의 이동을 포인터의 이동으로 변환하여 반영한다(S407).After S406, the coordinate converting unit 203 converts the movement of the second touch detected in S405 into the movement of the pointer and reflects it (S407).

이때, 좌표 변환부(203)는 제 2 터치의 이동에 대한 포인터의 이동을 1 대 1 또는 1 대 N으로 반영하여, 제 2 터치로 포인터의 이동을 섬세하게 조절할 수 있다.In this case, the coordinate transformation unit 203 may reflect the movement of the pointer for the movement of the second touch in a one-to-one or one-to-n ratio, and may delicately adjust the movement of the pointer with the second touch.

S407 후, 디스플레이부(205)를 통해 포인터의 위치 이동이 디스플레이된다(S408).After S407, the positional movement of the pointer is displayed through the display unit 205 (S408).

만일 S402의 판단 결과, 제 1 터치의 접촉이 해제되지 않은 경우 터치 감지부(201)는 제 1 터치의 이동 여부를 판단한다(S409).If it is determined in S402 that the touch of the first touch is not released, the touch sensor 201 determines whether the first touch is moved (S409).

판단 결과, 제 1 터치의 이동이 소정의 거리를 벗어난 경우, 터치 감지 부(201)는 이를 제 2 터치로 판단하고 포인터 설정부(202)는 제 1 터치의 첫 접촉 위치에 포인터를 설정한다(S410).As a result of the determination, when the movement of the first touch is out of a predetermined distance, the touch sensing unit 201 determines this as the second touch and the pointer setting unit 202 sets the pointer at the first contact position of the first touch ( S410).

만일 S409의 판단 결과 제 1 터치의 이동이 소정의 거리를 벗어나지 못했다면, 터치 감지부(201)에서 지속적으로 제 1 터치의 감지 및 접촉 위치를 파악하게 된다 If it is determined in S409 that the movement of the first touch does not deviate from the predetermined distance, the touch sensing unit 201 continuously detects the first touch and detects the contact position.

만일 S409의 판단 결과, 제 1 터치의 접촉 위치가 이동되지 않았다면, 압력 감지부(204)는 제 1 터치의 접촉 위치에서 압력 감지 여부를 판단하고(S411), 판단 결과 압력이 감지되는 경우 압력의 지속시간이나 압력의 강도를 파악하여 해당 조건에 대응하는 동작을 지시한다(S412).If it is determined in S409 that the contact position of the first touch is not moved, the pressure sensing unit 204 determines whether pressure is detected at the contact position of the first touch (S411), and if the pressure is detected as a result of the determination of the pressure By grasping the duration or the intensity of the pressure and instructs the operation corresponding to the condition (S412).

S412 후, 디스플레이부(205)는 지시된 동작을 디스플레이한다(S413).After S412, the display unit 205 displays the indicated operation (S413).

이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. You will understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

상기한 바와 같은 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the method for improving usability in the touch screen and the touch screen to improve the usability according to the embodiment of the present invention as described above has one or more of the following effects.

사용자가 보기 원하는 화면의 내용이 사용자의 손가락과 같은 신체 일부분이나 스타일러스 펜과 같은 도구에 일부 가리워지는 현상을 해소하는 장점이 있다. This has the advantage of eliminating the phenomenon that the contents of the screen that the user wants to see are partially hidden by a body part such as a user's finger or a tool such as a stylus pen.

또한, 제 1 터치 및 제 2 터치로 포인터의 이동이나 포인터를 통한 동작을 세밀하게 조절할 수 있는 장점도 있다.In addition, there is an advantage in that the movement of the pointer or the operation through the pointer can be finely adjusted with the first touch and the second touch.

또한, 화면의 크기를 확대하지 않고도 포인터의 이동 및 포인터를 통한 동작을 세밀하게 조절함으로써 위치 기반 서비스 기기의 소형화에 기여하는 장점도 있다.In addition, there is an advantage in that the location-based service device can be miniaturized by finely adjusting the movement of the pointer and the operation through the pointer without increasing the size of the screen.

Claims (14)

제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부;A touch sensing unit configured to sense a first touch and a second touch and to determine a contact position of the detected touch; 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부; 및A pointer setting unit that sets a pointer at the detected touch position of the first touch; And 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함하는, 사용성을 향상시키는 터치 스크린.And a coordinate conversion unit for converting a movement of a contact position according to the movement of the second touch into a position movement of the pointer. 제 1 항에 있어서,The method of claim 1, 상기 감지된 제1 터치의 접촉 위치에 대한 제1 압력 및 상기 감지된 제2 터치의 접촉 위치에 대한 제2 압력을 감지하고, 감지된 상기 제1 압력 및 상기 제2 압력에 대응하는 동작을 지시하는 압력 감지부를 더 포함하는, 사용성을 향상시키는 터치 스크린. Detect a first pressure for a touched position of the first touch and a second pressure for a touched position of the detected second touch, and instruct an operation corresponding to the sensed first pressure and the second pressure A touch screen further comprising a pressure sensing unit to improve usability. 제 2 항에 있어서,The method of claim 2, 상기 압력 감지부는 감지된 상기 제1 압력 및 상기 제2 압력의 지속 시간 및 감지된 상기 제1 압력 및 상기 제2 압력의 강도 중 어느 하나에 따라 상기 동작을 지시하는, 사용성을 향상시키는 터치 스크린.And the pressure sensing unit instructs the operation according to one of a sensed duration of the first pressure and the second pressure and a sensed intensity of the first pressure and the second pressure. 제 1 항에 있어서,The method of claim 1, 상기 터치 감지부는 상기 제 1 터치 및 상기 제 2 터치를 소정의 시간차로 구분하는, 사용성을 향상시키는 터치 스크린.The touch sensing unit is configured to classify the first touch and the second touch by a predetermined time difference. 제 1 항에 있어서,The method of claim 1, 상기 터치 감지부는 상기 제 1 터치 및 상기 제 2 터치를 소정의 거리차로 구분하는, 사용성을 향상시키는 터치 스크린.The touch sensing unit may divide the first touch and the second touch by a predetermined distance difference, and improve usability. 제 1 항에 있어서,The method of claim 1, 상기 좌표 변환부는 상기 제 2 터치의 이동에 따른 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 1로 변환하는, 사용성을 향상시키는 터치 스크린.The coordinate conversion unit improves usability, which converts the movement of the contact position according to the movement of the second touch and the movement of the pointer into one-to-one. 제 1 항에 있어서,The method of claim 1, 상기 좌표 변환부는 상기 제 2 터치의 이동에 따른 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 N으로 변환하는, 사용성을 향상시키는 터치 스크린.The coordinate conversion unit improves usability, converting the movement of the contact position according to the movement of the second touch and the position movement of the pointer into one to N. 제 1 터치를 감지하고, 상기 감지된 제1 터치의 제1 접촉 위치를 파악하는 제 1 터치 감지 단계;A first touch sensing step of sensing a first touch and determining a first contact position of the detected first touch; 상기 파악된 제 1 터치의 제1 접촉 위치에 포인터를 설정하는 포인터 설정 단계;A pointer setting step of setting a pointer at a first contact position of the identified first touch; 제 2 터치를 감지하고, 상기 감지된 제2 터치의 제2 접촉 위치를 파악하는 제 2 터치 감지 단계; 및A second touch sensing step of sensing a second touch and determining a second contact position of the detected second touch; And 상기 제 2 터치의 이동에 따른 상기 제2 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환 단계를 포함하는 터치 스크린에서 사용성 향상을 위한 방법.And a coordinate conversion step of converting a movement of the second contact position according to the movement of the second touch into a position movement of the pointer. 제 8 항에 있어서,The method of claim 8, 상기 감지된 제1 터치의 제1 접촉 위치에 대한 제1 압력 및 상기 감지된 제2 터치의 제2 접촉 위치에 대한 제2 압력을 감지하고, 감지된 상기 제1 압력 및 상기 제2 압력에 대응하는 동작을 지시하는 압력 감지 단계를 더 포함하는, 터치 스크린에서 사용성 향상을 위한 방법.Detect a first pressure for a first contact position of the sensed first touch and a second pressure for a second contact position of the sensed second touch, and correspond to the sensed first pressure and the second pressure And further including a pressure sensing step of instructing an operation to perform. 제 9 항에 있어서,The method of claim 9, 상기 압력 감지 단계는 감지된 상기 제1 압력 및 상기 제2 압력의 지속 시간 및 감지된 상기 제1 압력 및 상기 제2 압력의 강도 중 어느 하나에 따라 상기 동작을 지시하는, 터치 스크린에서 사용성 향상을 위한 방법.The pressure sensing step instructs the operation according to any one of the sensed duration of the first pressure and the second pressure and the sensed intensity of the first pressure and the second pressure. Way. 제 8 항에 있어서,The method of claim 8, 상기 제 2 터치 감지 단계는 상기 제 1 터치 및 상기 제 2 터치를 소정의 시간차로 구분하는 터치 스크린에서 사용성 향상을 위한 방법.The method of claim 2, wherein the detecting of the second touch comprises dividing the first touch and the second touch by a predetermined time difference. 제 8 항에 있어서,The method of claim 8, 상기 제 2 터치 감지 단계는 상기 제 1 터치 및 상기 제 2 터치를 소정의 거리차로 구분하는 터치 스크린에서 사용성 향상을 위한 방법.The method of claim 2, wherein the detecting of the second touch comprises dividing the first touch and the second touch by a predetermined distance. 제 8 항에 있어서,The method of claim 8, 상기 좌표 변환 단계는 상기 제 2 터치의 이동에 따른 상기 제2 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 1로 변환하는 터치 스크린에서 사용성 향상을 위한 방법.The coordinate conversion step is a method for improving usability in the touch screen converts the movement of the second contact position and the movement of the pointer in a one-to-one according to the movement of the second touch. 제 8 항에 있어서,The method of claim 8, 상기 좌표 변환 단계는 상기 제 2 터치의 이동에 따른 상기 제2 접촉 위치의 이동과 상기 포인터의 위치 이동을 1 대 N으로 변환하는 터치 스크린에서 사용성 향상을 위한 방법.The coordinate conversion step is a method for improving usability in the touch screen converts the movement of the second contact position and the position of the pointer according to the movement of the second touch to 1 to N.
KR1020070007972A 2007-01-25 2007-01-25 How to improve usability on touch screens and touch screens Active KR100891099B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020070007972A KR100891099B1 (en) 2007-01-25 2007-01-25 How to improve usability on touch screens and touch screens
US11/979,929 US8760410B2 (en) 2007-01-25 2007-11-09 Apparatus and method for improvement of usability of touch screen
EP08100613.2A EP1950653B1 (en) 2007-01-25 2008-01-17 Apparatus and method for improvement of usability of touch screen
CN200810003567.9A CN101231564B (en) 2007-01-25 2008-01-25 Apparatus and method for improvement of usability of touch screen
JP2008014719A JP5448346B2 (en) 2007-01-25 2008-01-25 Apparatus and method for improving usability in a touch screen
JP2013221022A JP5881661B2 (en) 2007-01-25 2013-10-24 Apparatus and method for improving usability in a touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070007972A KR100891099B1 (en) 2007-01-25 2007-01-25 How to improve usability on touch screens and touch screens

Publications (2)

Publication Number Publication Date
KR20080070226A KR20080070226A (en) 2008-07-30
KR100891099B1 true KR100891099B1 (en) 2009-03-31

Family

ID=39415137

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070007972A Active KR100891099B1 (en) 2007-01-25 2007-01-25 How to improve usability on touch screens and touch screens

Country Status (5)

Country Link
US (1) US8760410B2 (en)
EP (1) EP1950653B1 (en)
JP (2) JP5448346B2 (en)
KR (1) KR100891099B1 (en)
CN (1) CN101231564B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013062240A1 (en) * 2011-10-26 2013-05-02 주식회사 한글과컴퓨터 Touchscreen device and method for adjusting the size of a touchscreen
KR101390164B1 (en) 2009-08-17 2014-04-29 노키아 코포레이션 Apparatus comprising an optically transparent sheet and related methods

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD601155S1 (en) * 2007-12-28 2009-09-29 Sony Corporation Personal digital assistant
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US8384687B2 (en) * 2008-08-21 2013-02-26 Denso Corporation Manipulation input apparatus
JP2010049460A (en) * 2008-08-21 2010-03-04 Denso Corp Operation input device
US20100060588A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Temporally separate touch input
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
KR101507840B1 (en) * 2008-10-23 2015-04-03 엘지전자 주식회사 Mobile communication terminal and touch screen control method
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
JP2010176330A (en) 2009-01-28 2010-08-12 Sony Corp Information processing apparatus and display control method
DE102009008041A1 (en) * 2009-02-09 2010-08-12 Volkswagen Ag Method for operating a motor vehicle with a touchscreen
KR101062594B1 (en) * 2009-03-19 2011-09-06 김연수 Touch screen with pointer display
US8884895B2 (en) 2009-04-24 2014-11-11 Kyocera Corporation Input apparatus
US20100283722A1 (en) * 2009-05-08 2010-11-11 Sony Ericsson Mobile Communications Ab Electronic apparatus including a coordinate input surface and method for controlling such an electronic apparatus
US8355007B2 (en) * 2009-05-11 2013-01-15 Adobe Systems Incorporated Methods for use with multi-touch displays for determining when a touch is processed as a mouse event
JP5173924B2 (en) * 2009-05-12 2013-04-03 京セラドキュメントソリューションズ株式会社 Image forming apparatus
FR2948808B1 (en) * 2009-07-30 2012-08-03 Dassault Aviat DIGITAL DISPLAY DEVICE, IN PARTICULAR FOR THE PREPARATION OF A PATH
IN2012DN01870A (en) * 2009-09-02 2015-08-21 Amazon Tech Inc
JP2011053974A (en) * 2009-09-02 2011-03-17 Sony Corp Device and method for controlling operation, and computer program
CN102033684B (en) * 2009-09-30 2013-01-02 万达光电科技股份有限公司 Gesture detection method for touch panel
TW201115419A (en) * 2009-10-29 2011-05-01 Sentelic Corp Touch-sensing method and electronic device
CN102103452A (en) * 2009-12-17 2011-06-22 深圳富泰宏精密工业有限公司 Flying spot control system and method
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20110224896A1 (en) * 2010-03-09 2011-09-15 Nokia Corporation Method and apparatus for providing touch based routing services
KR101572892B1 (en) 2010-05-06 2015-11-30 엘지전자 주식회사 Mobile terminal and Method for displying image thereof
KR101694157B1 (en) * 2010-05-11 2017-01-09 엘지전자 주식회사 Mobile terminal and operation control method thereof
US8640020B2 (en) * 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8643616B1 (en) 2011-07-29 2014-02-04 Adobe Systems Incorporated Cursor positioning on a touch-sensitive display screen
EP2562628A1 (en) * 2011-08-26 2013-02-27 Sony Ericsson Mobile Communications AB Image scale alteration arrangement and method
WO2013047182A1 (en) * 2011-09-27 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 Portable electronic device, touch operation processing method and program
JP2013080412A (en) * 2011-10-05 2013-05-02 Sony Corp Information processing device, information processing method, and program
KR101338825B1 (en) 2011-12-14 2013-12-06 현대자동차주식회사 A controlling method and apparatus for display particular in selected area by using dynamic touch interaction
US9460029B2 (en) 2012-03-02 2016-10-04 Microsoft Technology Licensing, Llc Pressure sensitive keys
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
KR101690261B1 (en) 2012-04-02 2016-12-27 삼성전자주식회사 Digital image processing apparatus and controlling method thereof
CN108052264B (en) * 2012-05-09 2021-04-27 苹果公司 Device, method and graphical user interface for moving and placing user interface objects
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
CN103425311A (en) * 2012-05-25 2013-12-04 捷达世软件(深圳)有限公司 Positioning method and positioning system for mobile object clicking selection
CN102750034B (en) * 2012-06-20 2017-07-28 中兴通讯股份有限公司 A kind of method and mobile terminal for reporting touch panel coordinates point
US9493342B2 (en) 2012-06-21 2016-11-15 Nextinput, Inc. Wafer level MEMS force dies
CN103513908B (en) * 2012-06-29 2017-03-29 国际商业机器公司 For controlling light target method and apparatus on the touchscreen
JP2014010777A (en) * 2012-07-02 2014-01-20 Fujitsu Ltd Display program, display method, and information processing device
WO2014008377A1 (en) 2012-07-05 2014-01-09 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
JP6015183B2 (en) * 2012-07-18 2016-10-26 富士ゼロックス株式会社 Information processing apparatus and program
JP2014044605A (en) * 2012-08-28 2014-03-13 Fujifilm Corp Input control device and method in touch-sensitive display, and program
KR101404505B1 (en) * 2012-09-24 2014-06-09 (주)이스트소프트 Method for manipulating scale and/or rotation of graphic in electronic device with display, and electronic device for implementing the same
US10139937B2 (en) 2012-10-12 2018-11-27 Microsoft Technology Licensing, Llc Multi-modal user expressions and user intensity as interactions with an application
JP6029453B2 (en) * 2012-12-21 2016-11-24 京セラ株式会社 Portable terminal, cursor display control program, cursor display control method, cursor generation control program, cursor generation control method, icon display program, and icon display method
JP5780438B2 (en) * 2013-05-21 2015-09-16 カシオ計算機株式会社 Electronic device, position designation method and program
CN103530052B (en) 2013-09-27 2017-09-29 华为技术有限公司 The display methods and user equipment of a kind of interface content
CN104679423A (en) * 2013-12-03 2015-06-03 方正国际软件(北京)有限公司 Method and system for accurately positioning geographic position of touch screen
US9902611B2 (en) 2014-01-13 2018-02-27 Nextinput, Inc. Miniaturized and ruggedized wafer level MEMs force sensors
US9965173B2 (en) * 2015-02-13 2018-05-08 Samsung Electronics Co., Ltd. Apparatus and method for precise multi-touch input
EP3307671B1 (en) 2015-06-10 2022-06-15 Nextinput, Inc. Ruggedized wafer level mems force sensor with a tolerance trench
CN107168565B (en) * 2016-03-07 2020-05-15 敦泰电子有限公司 Touch device, driving circuit and driving method thereof, and electronic equipment
CN107229362A (en) * 2016-03-25 2017-10-03 宇龙计算机通信科技(深圳)有限公司 A kind of touch-control pressure reminding method and device
CN107239202B (en) * 2016-03-29 2020-06-30 中兴通讯股份有限公司 Control instruction identification method and device
KR101835674B1 (en) * 2016-04-27 2018-03-07 연세대학교 산학협력단 Data input device and method on force touch interaction
JP6313395B1 (en) * 2016-10-17 2018-04-18 グリー株式会社 Drawing processing method, drawing processing program, and drawing processing apparatus
US20180121000A1 (en) * 2016-10-27 2018-05-03 Microsoft Technology Licensing, Llc Using pressure to direct user input
US11243125B2 (en) 2017-02-09 2022-02-08 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
US11255737B2 (en) 2017-02-09 2022-02-22 Nextinput, Inc. Integrated digital force sensors and related methods of manufacture
EP3655740A4 (en) 2017-07-19 2021-07-14 Nextinput, Inc. VOLTAGE TRANSFER STACKING IN A MEMS FORCE SENSOR
US11423686B2 (en) 2017-07-25 2022-08-23 Qorvo Us, Inc. Integrated fingerprint and force sensor
US11243126B2 (en) 2017-07-27 2022-02-08 Nextinput, Inc. Wafer bonded piezoresistive and piezoelectric force sensor and related methods of manufacture
US11579028B2 (en) 2017-10-17 2023-02-14 Nextinput, Inc. Temperature coefficient of offset compensation for force sensor and strain gauge
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
WO2019099821A1 (en) 2017-11-16 2019-05-23 Nextinput, Inc. Force attenuator for force sensor
JP6863918B2 (en) * 2018-03-19 2021-04-21 グリー株式会社 Control programs, control methods and information processing equipment
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
TW202202681A (en) 2020-06-15 2022-01-16 大陸商東麗纖維研究所(中國)有限公司 Knitted fabric and use thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651908A (en) * 1992-07-28 1994-02-25 Sony Corp Information processor provided with touch panel type input device
KR20040056892A (en) 2002-12-24 2004-07-01 엘지.필립스 엘시디 주식회사 Apparatus and Method of Driving Touch Panel

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1136749A (en) * 1909-02-13 1915-04-20 Union Special Machine Co Feeding mechanism for sewing-machines.
JP3103085B2 (en) * 1989-12-15 2000-10-23 株式会社東芝 Display input device
JPH07104914A (en) 1993-09-30 1995-04-21 Toshiba Corp Touch input device
US20010040587A1 (en) 1993-11-15 2001-11-15 E. J. Scheck Touch control of cursonr position
GB2286100A (en) * 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
JPH09251347A (en) 1996-03-15 1997-09-22 Matsushita Electric Ind Co Ltd Coordinate input device
US5854625A (en) * 1996-11-06 1998-12-29 Synaptics, Incorporated Force sensing touchpad
JPH11203044A (en) 1998-01-16 1999-07-30 Sony Corp Information processing system
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6252544B1 (en) * 1998-01-27 2001-06-26 Steven M. Hoffberg Mobile communication device
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
JPH11338628A (en) 1998-05-25 1999-12-10 Sharp Corp Pointing device
JP4044255B2 (en) * 1999-10-14 2008-02-06 富士通株式会社 Information processing apparatus and screen display method
EP1191430A1 (en) 2000-09-22 2002-03-27 Hewlett-Packard Company, A Delaware Corporation Graphical user interface for devices having small tactile displays
JP5109212B2 (en) * 2001-05-01 2012-12-26 ソニー株式会社 Navigation device, information display device, object generation method, and storage medium
FI115254B (en) 2001-12-20 2005-03-31 Nokia Corp Use of touch screen with a touch screen
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004110388A (en) 2002-09-18 2004-04-08 Sharp Corp Device having touch panel
KR20040081697A (en) 2003-03-12 2004-09-22 박경희 Mouse typed touch pad by implementing click and draw operation like as mouse operation
JP4215549B2 (en) * 2003-04-02 2009-01-28 富士通株式会社 Information processing device that operates in touch panel mode and pointing device mode
EP1658551A1 (en) * 2003-08-29 2006-05-24 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
US7454713B2 (en) * 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
KR20060010579A (en) 2004-07-28 2006-02-02 안준성 Mouse touchpad
JP2006126997A (en) 2004-10-27 2006-05-18 Pfu Ltd 3D touch panel
US7489306B2 (en) 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
JP4642497B2 (en) * 2005-02-10 2011-03-02 クラリオン株式会社 Navigation device
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
DE102005047648A1 (en) 2005-10-05 2007-04-12 Volkswagen Ag Input device for navigation system of e.g. land vehicle, has display to display variable information e.g. map, and controller to produce selection marking and to move marking corresponding to touching movement over touch screen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651908A (en) * 1992-07-28 1994-02-25 Sony Corp Information processor provided with touch panel type input device
KR20040056892A (en) 2002-12-24 2004-07-01 엘지.필립스 엘시디 주식회사 Apparatus and Method of Driving Touch Panel

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101390164B1 (en) 2009-08-17 2014-04-29 노키아 코포레이션 Apparatus comprising an optically transparent sheet and related methods
WO2013062240A1 (en) * 2011-10-26 2013-05-02 주식회사 한글과컴퓨터 Touchscreen device and method for adjusting the size of a touchscreen

Also Published As

Publication number Publication date
CN101231564A (en) 2008-07-30
JP2014056590A (en) 2014-03-27
US20080180402A1 (en) 2008-07-31
CN101231564B (en) 2014-06-25
JP5881661B2 (en) 2016-03-09
JP5448346B2 (en) 2014-03-19
KR20080070226A (en) 2008-07-30
EP1950653A3 (en) 2009-07-08
EP1950653A2 (en) 2008-07-30
JP2008181523A (en) 2008-08-07
EP1950653B1 (en) 2018-08-29
US8760410B2 (en) 2014-06-24

Similar Documents

Publication Publication Date Title
KR100891099B1 (en) How to improve usability on touch screens and touch screens
JP5174704B2 (en) Image processing apparatus and image processing method
CN103677556B (en) The method and apparatus of quick positioning application program
JP5379259B2 (en) Screen display device
US9013368B1 (en) Foldable mobile device and method of controlling the same
JP5129478B2 (en) Screen display device
KR101667715B1 (en) Method for providing route guide using augmented reality and mobile terminal using this method
US9207096B2 (en) Map magnifier
KR101467766B1 (en) Screen display method of mobile terminal and mobile terminal
US9772757B2 (en) Enlarging image based on proximity of a pointing object to a display screen
US20050268253A1 (en) Navigation of an N-dimensional hierarchical structure using a 2-dimensional controller
JP2010019643A (en) Information terminal, navigation apparatus, and option display method
KR20100069842A (en) Electronic apparatus implementing user interface and method thereof
CA2779590C (en) Map magnifier
CA2746064C (en) Navigating between a map dialog and button controls displayed outside the map
KR101430475B1 (en) Screen display method of mobile terminal and mobile terminal
JP6254803B2 (en) Map image display device
CN107231472A (en) A kind of display methods and mobile terminal
CN113296647A (en) Interface display method and device
CN106569682B (en) Touch screen display content selection apparatus and method
KR101455994B1 (en) Screen display method of mobile terminal and mobile terminal
JP2013093043A (en) Image processing apparatus, image processing method, and program
JP2018045139A (en) Electronic device
KR20070081193A (en) How to control the display pointer position of a portable information terminal

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20070125

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20080228

Patent event code: PE09021S01D

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20080825

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20090220

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20090324

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20090325

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20120116

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20130221

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20130221

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20140221

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20150212

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20150212

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20160219

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20160219

Start annual number: 8

End annual number: 8

FPAY Annual fee payment

Payment date: 20170221

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20170221

Start annual number: 9

End annual number: 9

FPAY Annual fee payment

Payment date: 20180220

Year of fee payment: 10

PR1001 Payment of annual fee

Payment date: 20180220

Start annual number: 10

End annual number: 10

FPAY Annual fee payment

Payment date: 20190221

Year of fee payment: 11

PR1001 Payment of annual fee

Payment date: 20190221

Start annual number: 11

End annual number: 11

FPAY Annual fee payment

Payment date: 20200225

Year of fee payment: 12

PR1001 Payment of annual fee

Payment date: 20200225

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20210222

Start annual number: 13

End annual number: 13

PR1001 Payment of annual fee

Payment date: 20220216

Start annual number: 14

End annual number: 14

PR1001 Payment of annual fee

Payment date: 20230214

Start annual number: 15

End annual number: 15

PR1001 Payment of annual fee

Payment date: 20240219

Start annual number: 16

End annual number: 16

OSZAR »