KR100891099B1 - How to improve usability on touch screens and touch screens - Google Patents
How to improve usability on touch screens and touch screens Download PDFInfo
- Publication number
- KR100891099B1 KR100891099B1 KR1020070007972A KR20070007972A KR100891099B1 KR 100891099 B1 KR100891099 B1 KR 100891099B1 KR 1020070007972 A KR1020070007972 A KR 1020070007972A KR 20070007972 A KR20070007972 A KR 20070007972A KR 100891099 B1 KR100891099 B1 KR 100891099B1
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- movement
- pressure
- pointer
- contact position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
- G06F3/04142—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
Abstract
사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법이 제공된다. 사용성을 향상시키는 터치 스크린은 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함한다.Provided are a touch screen for improving usability and a method for improving usability in a touch screen. A touch screen for improving usability may include a touch sensing unit configured to sense first touches and second touches, and to identify contact positions of the detected touches, a pointer setting unit which sets a pointer at the detected touch positions of the first touches; And a coordinate converter configured to convert the movement of the contact position according to the movement of the second touch into the movement of the pointer.
사용성(Usability), 인터페이스(Interface), 맵 브라우징(Map Browsing), 네비게이션(Navigation) Usability, Interface, Map Browsing, Navigation
Description
도 1a 내지 도 1b는 종래의 위치 기반 서비스 기기에서 맵 브라우징 기능을 통해 지도가 디스플레이된 모습을 도시한 도면이다. 1A to 1B are views illustrating a map displayed through a map browsing function in a conventional location-based service device.
도 2a는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 도시한 블록도이다.2A is a block diagram illustrating a configuration of a touch screen for improving usability according to an embodiment of the present invention.
도 2b는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 실제 기기에 적용한 도면이다.2B is a diagram illustrating a configuration of a touch screen for improving usability according to an embodiment of the present invention to an actual device.
도 3a 내지 도 3b는 본 발명의 실시예에 따른 사용자의 제 1 터치 과정을 도시한 도면이다.3A to 3B are diagrams illustrating a first touch process of a user according to an embodiment of the present invention.
도 3c는 본 발명의 실시예에 따른 포인터 설정을 도시한 도면이다. 3C illustrates a pointer setting according to an embodiment of the present invention.
도 3d 내지 도 3e는 본 발명의 실시예에 따른 제 2 터치의 이동에 따른 접촉 위치의 이동을 도시한 도면이다.3D to 3E are views illustrating movement of a contact position according to movement of a second touch according to an exemplary embodiment of the present invention.
도 3f는 본 발명의 실시예에 따른 터치 감지부의 제 1 터치 및 제 2 터치의 구분 방법을 도시한 도면이다.3F is a diagram illustrating a method of distinguishing a first touch and a second touch from a touch sensing unit according to an exemplary embodiment of the present invention.
도 3g는 본 발명의 실시예에 따른 제 2 터치의 접촉 위치 이동이 포인터의 이동에 반영되는 모습을 도시한 도면이다.FIG. 3G illustrates a state in which a movement of a contact position of a second touch is reflected in movement of a pointer according to an embodiment of the present invention.
도 3h는 본 발명의 실시예에 따른 지도 회전 방법을 도시한 도면이다.3H is a diagram illustrating a map rotation method according to an embodiment of the present invention.
도 3i 내지 도 3j는 본 발명의 실시예에 따른 압력 감지부의 동작 지시를 도시한 도면이다.3I to 3J are diagrams illustrating an operation instruction of the pressure sensing unit according to the embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법을 도시한 흐름도이다.4 is a flowchart illustrating a method for improving usability in a touch screen according to an embodiment of the present invention.
<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>
201 : 터치 감지부201: touch detection unit
202 : 포인터 설정부202: pointer setting unit
203 : 좌표 변환부203: coordinate conversion unit
204 : 압력 감지부204: pressure sensing unit
205 : 디스플레이부205: display unit
본 발명은 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 관한 것으로서, 더욱 상세하게는 위치 기반 서비스(Location Based Service, LBS) 기기에서, 사용자가 보기 원하는 화면의 내용이 사용자의 손가락과 같은 신체 일부분이나 스타일러스 펜과 같은 도구에 일부 가리워지는 현상을 해소하고, 포인터의 동작을 세밀하게 조절하도록 하는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 관한 것이다.The present invention relates to a touch screen for improving usability and a method for improving usability in a touch screen, and more particularly, in a location based service (LBS) device, the content of a screen desired by the user is displayed on the user's finger. The present invention relates to a method for improving usability in a touch screen and a touch screen, which eliminates a part of the body and a part such as a stylus pen, and finely adjusts the operation of the pointer.
위치 기반 서비스란 휴대전화, 휴대용 정보 단말기(PDA) 등 이동 통신 단말기의 위치에 따라, 단말기 사용자에게 지리정보시스템(GIS), 인공위성 자동 위치 측정 시스템(GPS) 및 텔레매틱스를 포함한 위치 관련 정보를 제공하는 모든 서비스를 의미하는 것으로, 위치 기반 서비스는 3개의 기지국에서 동시에 위치를 알아내는 삼각 네트워크 방식과 GPS를 이용한 방식이 있으며, 최근에는 위치정보, 교통 항법뿐만 아니라, 모바일 광고, 모바일 쿠폰, 여행정보, 차량 진단지원, 긴급 출동 및 택시 콜 서비스 등의 개인부문 서비스가 활발히 진행되고 있다.Location-based services provide terminal users with location-related information, including geographic information systems (GIS), satellite automatic positioning systems (GPS), and telematics, depending on the location of mobile communications devices such as cell phones and portable information terminals (PDAs). By all services, the location-based service is a triangular network method and a GPS method that locates at the three base stations at the same time, and recently, as well as location information, traffic navigation, mobile advertising, mobile coupons, travel information, Private sector services such as vehicle diagnosis support, emergency dispatch, and taxi call service are actively in progress.
도 1a 내지 도 1b는 종래의 위치 기반 서비스 기기에서 맵 브라우징 기능을 통해 지도가 디스플레이된 모습을 도시한 도면이다.1A to 1B are views illustrating a map displayed through a map browsing function in a conventional location-based service device.
참고로, 도 1a 내지 도 1b에 도시된 위치 기반 서비스 기기(110)는 터치 스크린 방식으로, 사용자의 터치에 따라 지도의 이동, 검색 및 특정 위치에 대한 정보 조회가 가능하다고 가정하도록 한다.For reference, the location-based
도 1a에 도시된 것처럼, 위치 기반 서비스 기기(110)의 화면(111)에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 특정 지점(111a)을 터치하여, 터치한 지점(111a)에 대한 위도, 경도, 지명 및 지번 정보를 볼 수 있다.As shown in FIG. 1A, a map is displayed on the
이때, 도 1b에 도시된 것처럼, 해당 지점(111a)을 터치하는 사용자의 손가락(120)과 같은 신체의 일부분으로 인해 지도에서 보기 원하는 소정의 지점(111a) 뿐만 아니라 그 주위의 내용까지 사용자의 시야를 방해하는 문제가 발생한다.At this time, as shown in Figure 1b, due to the part of the body, such as the user's
또한, 상술한 것처럼 최근 위치 기반 서비스가 개인부문까지 활발하게 진행됨에 따라, 위치 기반 서비스 기기의 수요도 높아지고 있으며, 최근 디지털 기기들 이 점차 소형화 되어가는 추세임을 생각할 때, 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자의 손가락(120)과 같은 신체의 일부분을 이용하여 섬세하게 지도의 이동 및 검색을 조절하기에는 한계가 있다.In addition, as the above-described location-based services are actively progressing to the private sector, the demand for location-based service devices is also increasing, and considering that digital devices are gradually becoming smaller in recent years, location-based using a touch screen There is a limit in controlling the movement and search of the map in detail by using a part of the body such as the user's
이에 본 발명은, 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법을 통하여, 사용자의 손가락과 같은 신체의 일부가 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자의 시야를 방해하지 않도록 하는데 그 목적이 있다.Accordingly, the present invention provides a touch screen for improving usability and a method for improving usability in the touch screen such that a part of a body such as a user's finger does not obstruct the user's view in a location-based service device using the touch screen. The purpose is.
본 발명의 다른 목적은 터치 스크린을 사용하는 위치 기반 서비스 기기에서 사용자에게 섬세한 지도의 이동 및 검색을 제공하는 것이다.Another object of the present invention is to provide a user with movement and retrieval of a delicate map in a location-based service device using a touch screen.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린은 제 1 터치 및 제 2 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 터치 감지부, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환부를 포함한다.In order to achieve the above object, a touch screen for improving usability according to an embodiment of the present invention is a touch sensing unit for detecting a first touch and a second touch, and grasps the contact position of the detected touch, the identified agent And a pointer setting unit for setting a pointer at a touch position of one touch and a coordinate converting unit for converting a movement of the contact position according to the movement of the second touch into a position movement of the pointer.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법은 제 1 터치를 감지하고, 상기 감지된 터치의 접촉 위치를 파악하는 제 1 터치 감지 단계, 상기 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정 단계, 제 2 터치를 감지하고 상기 감지된 터치의 접촉 위치를 파악하는 제 2 터치 감지 단계 및 상기 제 2 터치의 이동에 따른 접촉 위치의 이동을 상기 포인터의 위치 이동으로 변환하는 좌표 변환 단계를 포함한다.In order to achieve the above object, a method for improving usability in a touch screen according to an embodiment of the present invention, the first touch sensing step of detecting a first touch, the touch position of the detected touch, the identified agent A pointer setting step of setting a pointer at a touch position of a first touch, a second touch sensing step of detecting a second touch and grasping the touch position of the detected touch, and a movement of the touch position according to the movement of the second touch; And a coordinate transformation step of converting the positional movement of the pointer.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and the drawings.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어있는 실시예들을 참조하면 명확해질 것이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout.
이하, 본 발명의 실시예들에 의한 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법을 설명하기 위한 구성도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for a touch screen for improving usability and embodiments of a method for improving usability in a touch screen according to embodiments of the present invention.
이때, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. At this point, it will be appreciated that each configuration of the process flow diagrams and combinations of flow chart figures may be performed by computer program instructions.
이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기 타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment are described in the flow chart configuration (s). It will create a means to perform the functions.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 구성(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart configuration (s).
컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 구성(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Computer program instructions It is also possible to mount on a computer or other programmable data processing equipment, so a series of operating steps are performed on the computer or other programmable data processing equipment to create a computer-implemented process to perform the computer or other programmable data processing equipment. It is also possible for the instructions to provide steps for performing the functions described in the flowchart configuration (s).
또한, 각 구성은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. In addition, each arrangement may represent a module, segment, or portion of code that includes one or more executable instructions for executing a specified logical function (s).
또, 몇 가지 대체 실행예들에서는 구성들에서 언급된 기능들이 순서를 벗어 나서 발생하는 것도 가능함을 주목해야 한다. It should also be noted that in some alternative implementations, the functions noted in the configurations may occur out of order.
예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.For example, the two components shown in succession may in fact be performed substantially simultaneously or the components may sometimes be performed in the reverse order, depending on the function in question.
이하, 본 발명의 실시예에서는 터치 스크린을 사용하는 위치 기반 서비스 기기의 화면에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 지점을 선택한다고 가정하며, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하도록 한다.Hereinafter, in the embodiment of the present invention, it is assumed that the map is displayed on the screen of the location-based service device using the touch screen, and the user selects a desired point to view on the map, and with reference to the accompanying drawings, preferred embodiments of the present invention. An example will be described in detail.
도 2a는 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린의 구성을 도시한 블록도이다.2A is a block diagram illustrating a configuration of a touch screen for improving usability according to an embodiment of the present invention.
본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린(200)은 제 1 터치 및 제 2 터치를 감지하고, 감지된 터치의 접촉 위치를 파악하는 터치 감지부(201), 터치 감지부(201)에서 파악된 제 1 터치의 접촉 위치에 포인터를 설정하는 포인터 설정부(202), 제 2 터치의 이동에 따른 접촉 위치의 이동을 포인터의 위치 이동으로 변환하는 좌표 변환부(203), 터치 감지부(201)에서 파악한 접촉 위치의 압력을 감지하고 감지된 압력에 대응하는 동작을 지시하는 압력 감지부(204) 및 포인터의 위치 이동과 감지된 압력에 대응하는 동작을 디스플레이하는 디스플레이부(205)를 포함한다.The
본 발명의 실시예에 따른 도 2a에 도시된 구성요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미하며, 소정의 역할들을 수행한다. 2A according to an embodiment of the present invention refers to software or a hardware component such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and performs predetermined roles.
그렇지만 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. However, the components are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors.
따라서, 일 예로서 구성요소는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. Thus, as an example, a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
구성요소들과 해당 구성요소들 안에서 제공되는 기능은 더 작은 수의 구성요소들로 결합되거나 추가적인 구성요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into a smaller number of components or further separated into additional components.
참고로, 도 2a에 도시된 장치(200)는 도 2b에 도시된 것처럼 위치 기반 서비스 기기에 사용될 수 있다.For reference, the
터치 감지부(201)는 사용자의 터치를 감지하기 위해 터치 센서를 포함하고 기기의 화면에 해당하는 디스플레이부(205)의 상면에 위치될 수 있으며, 압력 감지부(204)는 터치의 접촉 위치에서 압력을 감지하고 디스플레이부(205)의 하단면에 하나 이상 다수의 갯수로 존재할 수 있다.The
먼저, 도 2a에 도시된 장치(200) 중 터치 감지부(201)는 제 1 터치 및 제 2 터치를 감지하고, 감지된 터치의 접촉 위치를 파악한다.First, the
여기에서 제 1 터치는, 위치 기반 서비스 기기의 화면에서 사용자가 보기 원 하는 지점에 대한 물체의 접촉을 의미하며, 이때 물체란, 사용자의 손가락과 같은 신체의 일부분이나 스타일러스 펜과 같은 도구를 의미한다.Here, the first touch refers to the contact of an object with a point that the user wants to see on the screen of the location-based service device, wherein the object refers to a part of the body such as a user's finger or a tool such as a stylus pen. .
이하, 설명의 편의상 본 발명의 실시예에서는, 위치 기반 서비스 기기의 입력 수단으로 사용자의 손가락과 같은 신체의 일부분을 사용하는 경우를 설명하며, 제 2 터치 및 터치 감지부(201)에 대한 보다 상세한 설명은 도 2a에 도시된 다른 장치들(202~205)을 설명하면서 함께 상세히 설명하도록 한다.Hereinafter, for convenience of description, an embodiment of the present invention describes a case in which a part of a body such as a user's finger is used as an input means of a location-based service device, and the second touch and
도 3a 내지 도 3b는 본 발명의 실시예에 따른 사용자의 제 1 터치 과정을 도시한 도면이다.3A to 3B are diagrams illustrating a first touch process of a user according to an embodiment of the present invention.
도 3a는 위치 기반 서비스 기기(310)의 화면(320)에 지도가 디스플레이되어 있고, 사용자는 지도에서 보기 원하는 특정 지점(321)을 손가락(330)을 사용하여 터치하려고 하는 모습이 도시되어 있다.FIG. 3A illustrates a map displayed on the
도 3b는 도 3a에 도시된 특정 지점(321)을 사용자가 손가락(330)으로 터치한, 즉 제 1 터치의 접촉 위치(321)을 도시하고 있다.FIG. 3B illustrates a
이때, 터치 감지부(201)는 상술한 제 1 터치를 감지하고, 제 1 터치의 접촉 위치(321)를 파악한다.In this case, the
도 3c는 본 발명의 실시예에 따른 포인터 설정을 도시한 도면이다.3C illustrates a pointer setting according to an embodiment of the present invention.
포인터 설정부(202)는 터치 감지부(201)에서 파악된 제 1 터치의 접촉 위치(321)에 포인터(322)를 설정한다.The
참고로, 도 3c에서 볼 수 있듯이 사용자의 손가락(330)은 제 1 터치의 접촉 위치(321)에서 분리되어 있음을 알 수 있다.For reference, as shown in FIG. 3C, the user's
포인터 설정부(202)에서 포인터(322)를 설정하는, 즉 제 1 터치의 접촉 위치(321)에 포인터(322)를 위치시키는 시점은, 사용자가 제 1 터치 후 제 1 터치의 접촉 위치(321)에서 접촉을 해제하거나, 사용자가 제 1 터치 후 소정의 거리만큼 제 1 터치의 접촉 위치(321)를 이동 시킬 때, 포인터 설정부(202)는 제 1 터치의 처음 접촉 위치(321)에 포인터를 설정한다.When the
이는, 터치 감지부(201)에서 제 1 터치와 제 2 터치를 구분하는 것과 밀접한 관련이 있으며 도 3f를 참조하여 후술하도록 한다.This is closely related to distinguishing the first touch from the second touch in the
도 3d 내지 도 3e는 본 발명의 실시예에 따른 제 2 터치의 이동에 따른 접촉 위치의 이동을 도시한 도면이다.3D to 3E are views illustrating movement of a contact position according to movement of a second touch according to an exemplary embodiment of the present invention.
제 2 터치에 앞서, 도 3a 내지 도 3c를 통해 설명한 것처럼, 터치 감지부(201)의 제 1 터치의 감지 및 해당 접촉 위치(321)의 파악, 그리고 포인터 설정부(202)에 의해서 제 1 터치의 접촉 위치(321)에 포인터(322) 설정이 이루어 졌다.Prior to the second touch, as described with reference to FIGS. 3A to 3C, the first touch of the
이후, 사용자는 도 3d에 도시된 것처럼, 위치 기반 서비스 기기(310)의 화면(320)에서 제 2 터치의 예정 위치(323)를 결정하고, 도 3e에 도시된 것처럼 해당 위치(323)를 터치하면, 터치 감지부(201)는 제 2 터치를 감지하고 제 2 터치의 접촉 위치(323)를 파악한다.Thereafter, the user determines the
좌표 변환부(203)는 터치 감지부(201)로부터 제 1 터치 및 제 2 터치의 접촉 위치를 전달받아, 제 2 터치의 이동에 따른 접촉 위치(323)의 이동(도 3e에서 324위치)을 포인터(322)의 위치 이동으로 변환한다.The coordinate converting
여기에서 제 2 터치는, 제 1 터치의 접촉 위치(321)에 설정된 포인터(322)의 이동을 조절하기 위한 사용자의 접촉을 의미하는 것으로, 도 3e에 도시된 것처럼, 제 2 터치의 위치(323)는 위치 기반 서비스 기기(310)의 화면(320)에서 제 1 터치의 접촉 위치(321)에 설정된 포인터(322)의 이동을 조절하기 편리한 영역으로 선택하는 것이 바람직하다..Here, the second touch refers to a user's contact for adjusting the movement of the
참고로, 터치 감지부(201)는 제 1 터치 및 제 2 터치를 소정의 시간차로 구분한다.For reference, the
예를 들어 도 3c에 도시된 것처럼, 사용자의 제 1 터치 후, 제 1 터치의 접촉이 해제되고, 제 1 터치의 접촉 위치(321)가 아닌 다른 위치에 사용자의 터치가 발생하면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.For example, as shown in FIG. 3C, after the first touch of the user, the touch of the first touch is released, and when the touch of the user occurs at a position other than the
도 3f는 본 발명의 실시예에 따른 터치 감지부의 제 1 터치 및 제 2 터치의 구분 방법을 도시한 도면이다.3F is a diagram illustrating a method of distinguishing a first touch and a second touch from a touch sensing unit according to an exemplary embodiment of the present invention.
터치 감지부(201)는 제 1 터치 및 제 2 터치를 소정의 거리차로 구분할 수도 있다.The
예를 들어, 사용자의 제 1 터치 후, 제 1 터치의 접촉이 유지된 상태에서 소정의 거리를 이동하면, 즉 제 1 터치의 접촉 위치(321)를 중심으로 소정의 경계(325)를 초과하여 이동하면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.For example, after a user's first touch, when the user moves a predetermined distance while the contact of the first touch is maintained, that is, exceeds the
또한, 터치 감지부(201)는 제 1 터치 및 제 2 터치를 압력의 입력 여부로 구분할 수도 있다.In addition, the
예를 들어, 사용자의 제 1 터치와 압력이 동시에 이루어지면 접촉 위치를 중 심으로 포인터를 설정하고 제 2 터치의 경우 압력 없이 터치만 이루어 지면 터치 감지부(201)는 이를 제 2 터치로 인식하는 것이다.For example, when the user's first touch and pressure are made at the same time, the pointer is set based on the contact position, and in the case of the second touch, when only the touch is made without pressure, the
한편, 좌표 변환부(203)는 제 1 터치 및 제 2 터치의 접촉 위치, 더 자세히 표현하면 접촉 위치에 대한 좌표를 알고 있으므로, 이후 사용자가 제 2 터치의 접촉 위치를 이동시킬 때마다 변화되는 제 2 터치의 접촉 위치에 대한 좌표를 제 1 터치, 즉 포인터의 위치 좌표에 반영한다.On the other hand, since the coordinate
따라서 사용자의 제 2 터치 상태에 대한 접촉 위치의 이동이 포인터의 이동으로 변환되는 것이다.Therefore, the movement of the contact position with respect to the second touch state of the user is converted into the movement of the pointer.
도 3g는 본 발명의 실시예에 따른 제 2 터치의 접촉 위치 이동이 포인터의 이동에 반영되는 모습을 도시한 도면이다.FIG. 3G illustrates a state in which a movement of a contact position of a second touch is reflected in movement of a pointer according to an embodiment of the present invention.
제 2 터치의 처음 접촉 위치(323)에서 다른 접촉 위치(324)로 이동하면, 터치 감지부(201)는 이동하는 접촉 위치(324)의 좌표를 파악하고, 파악된 좌표를 제 1 터치의 접촉 위치에 설정된 포인터(322)에 실시간으로 반영하여 포인터를 이동시키며, 상술한 과정으로 좌표 변환부(203)를 통해 이동된 포인터(326)가 도 3g에 도시되어 있다.When the
이때, 좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터의 위치 이동을 1 대 1로 변환할 수 있다.In this case, the coordinate
예를 들어, 제 2 터치의 접촉 위치가 기기의 화면에서 3cm만큼 우측으로 이동했다면, 포인터의 위치 역시 현재 위치에서 3cm만큼 우측으로 이동하는 것이다.For example, if the contact position of the second touch is moved to the right by 3 cm on the screen of the device, the position of the pointer is also moved to the right by 3 cm from the current position.
또한 좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터의 위치 이동을 1 대 N으로 변환할 수도 있다In addition, the coordinate
예를 들어, 제 2 터치의 접촉 위치가 기기의 화면에서 3cm만큼 좌측으로 이동했다면, 포인터의 위치는 현재 위치에서 변환비율에 따라 1cm, 0.5cm 혹은 그 이하만큼 좌측으로 이동하는 것이다.For example, if the contact position of the second touch is moved to the left by 3 cm on the screen of the device, the position of the pointer moves to the left by 1 cm, 0.5 cm or less according to the conversion ratio at the current position.
이는, 위치 기반 서비스 기기의 화면에 디스플레이되는 지도의 축적이 높아, 세밀한 포인터 이동이 불가능한 경우에도 세밀한 포인터의 이동을 가능하게 하며, 위치 기반 서비스 기기의 화면뿐만 아니라 터치 스크린을 사용하는 대부분의 디지털 기기의 화면이 점차 소형화 되어가는 추세에서 본 발명에서 제공하는 포인터의 세밀한 이동은 해당 기기의 사용성을 향상시킬 수 있다.This increases the accumulation of maps displayed on the screen of the location-based service device, enabling the movement of the detailed pointer even when the detailed pointer movement is impossible, and most digital devices using the touch screen as well as the screen of the location-based service device. In the trend that the screen is gradually miniaturized, the fine movement of the pointer provided by the present invention can improve the usability of the device.
참고로, 본 발명의 실시예에 따른 장치는 제 1 터치와 제 2 터치를 이용하여 포인터를 이동시킬 뿐만 아니라, 버튼(미도시)이나 터치(미도시)와 같은 소정의 모드 전환 입력을 통해서 지도를 회전시킬 수도 있다.For reference, the device according to the embodiment of the present invention not only moves the pointer using the first touch and the second touch, but also maps through a predetermined mode switching input such as a button (not shown) or a touch (not shown). You can also rotate.
도 3h는 본 발명의 실시예에 따른 지도 회전 방법을 도시한 도면이다.3H is a diagram illustrating a map rotation method according to an embodiment of the present invention.
도 3e에 도시된 것처럼 터치 감지부(201)의 제 1 터치의 감지 및 해당 접촉 위치(321)의 파악, 포인터 설정부(202)에 의해서 제 1 터치의 접촉 위치(321)에 포인터(322) 설정, 그리고 제 2 터치의 접촉이 이루어졌다면, 사용자는 회전 전환 버튼(미도시)이나 회전 전환을 위한 터치(미도시)를 통해서 지도를 원하는 만큼 회전시킬 수 있다.As illustrated in FIG. 3E, the
이때, 도 3h에 도시된 것처럼 지도의 회전은 제 1 터치의 접촉 위치(321)를 중심으로 회전하게 되며, 사용자는 제 2 터치의 접촉 위치를 이동시킴으로써 회전 의 크기를 조절할 수 있다.In this case, as shown in FIG. 3H, the rotation of the map rotates around the
좌표 변환부(203)는 제 2 터치의 접촉 위치 이동에 따른 포인터를 중심으로 한 회전을, 상술한 제 2 터치의 접촉 위치 이동과 포인터의 이동 변환 비율처럼, 1 대 1 또는 1 대 N으로 조절하여 섬세하게 지도의 회전을 조절할 수 있다.The coordinate
한편, 압력 감지부(204)는 터치 감지부(201)에서 파악한 제 1 터치 및 제 2 터치의 접촉 위치에 대한 압력을 감지하고 감지된 압력에 대응하는 동작을 지시한다.On the other hand, the
또한, 압력 감지부(204)는 제 1 터치 및 제 2 터치의 접촉 위치에 대해 감지된 압력의 지속 시간 과 압력 정도에 따라 감지된 압력에 대응하는 동작을 지시할 수 있다.In addition, the
예를 들어 지도의 줌-인(Zoom In) 이나 줌-아웃(Zoom Out) 기능 동작 시 , 압력의 정도에 따라 줌-인이나 줌-아웃의 속도를 조절할 수 있다. For example, when the map zooms in or zooms out, the speed of zoom-in or zoom-out can be adjusted according to the degree of pressure.
압력이 낮을 경우 줌-인이나 줌-아웃의 속도가 느리며, 압력이 높을 경우 줌-인이나 줌-아웃의 속도가 빨라지는 효과를 줄 수 있다.Low pressure can slow zoom-in or zoom-out speed, while high pressure can speed up zoom-in or zoom-out.
도 3i 내지 도 3j는 본 발명의 실시예에 따른 압력 감지부의 동작 지시를 도시한 도면이다.3I to 3J are diagrams illustrating an operation instruction of the pressure sensing unit according to the embodiment of the present invention.
예를 들어, 제 1 터치 후 접촉 위치의 이동 없이 소정의 시간 동안 압력을 유지하면, 압력 감지부(204)는 도 3i처럼 지도에서 해당 위치의 정보(327)를 디스플레이하도록 디스플레이부(205)에 요청한다.For example, if the pressure is maintained for a predetermined time without moving the contact position after the first touch, the
여기에서 해당 위치의 정보(327)는 지명, 건물명, 위도 및 경도와 같은 정보 가 포함될 수 있다.Here, the
또한, 제 2 터치 후 접촉 위치의 이동 없이 소정의 시간 동안 압력을 유지하면, 압력 감지부(204)는 마우스의 왼쪽 버튼 클릭과 오른쪽 버튼 클릭의 효과를 나타낼 수도 있다.In addition, if the pressure is maintained for a predetermined time without moving the contact position after the second touch, the
예를 들어, 제 2 터치 후 접촉 위치의 이동 없이 바로 압력을 가하는 경우, 마우스의 왼쪽 버튼 클릭과 같은 효과를 나타낼 수 있고, 도 3j처럼 제 2 터치 후 접촉 위치의 이동 없이 소정의 시간(예를 들어, 2초) 동안 압력을 유지하면 마우스 오른쪽 버튼 클릭의 효과를 나타내어 속성 창(328)을 팝업 시킬 수 있다.For example, in the case of applying pressure immediately without moving the contact position after the second touch, the same effect as the left button click of the mouse can be obtained, and as shown in FIG. For example, holding the pressure for 2 seconds may cause the right-click effect to pop up the
본 발명에서 제시하는 압력의 지속시간 및 압력의 강도는 실시예에 따라 얼마든지 다양하게 실행될 수 있으므로 본 발명의 실시예로 한정하지 않는다.The duration of the pressure and the intensity of the pressure presented in the present invention can be variously performed according to the embodiment, and thus are not limited to the embodiments of the present invention.
도 4는 본 발명의 실시예에 따른 터치 스크린에서 사용성 향상을 위한 방법을 도시한 흐름도이다.4 is a flowchart illustrating a method for improving usability in a touch screen according to an embodiment of the present invention.
참고로, 설명의 편의상 도 2에 도시된 장치를 참조하여 도 4의 흐름도를 설명하도록 한다.For reference, for convenience of description, the flowchart of FIG. 4 will be described with reference to the apparatus shown in FIG. 2.
터치 감지부(201)는 사용자의 제 1 터치를 감지하고, 제 1 터치의 접촉 위치를 파악한다(S401).The
S401 후, 터치 감지부(201)는 제 1 터치의 접촉이 해제되었는지 판단한다(S402).After S401, the
판단 결과, 제 1 터치의 접촉이 해제되었다면 포인터 설정부(202)는 제 1 터치의 접촉 위치에 포인터를 설정한다(S403).As a result of the determination, if the contact of the first touch is released, the
S403 후, 터치 감지부(201)는 사용자의 제 2 터치를 감지하고, 제 2 터치의 접촉 위치를 파악한다(S404).After S403, the
이때, 터치 감지부(201)는 제 1 터치의 접촉이 해제된 후 이루어진 접촉, 즉 소정의 시간차가 발생한 후 이루어진 접촉이므로 이를 제 2 터치로 구분한다.In this case, the
S404 후, 압력 감지부(204)는 제 2 터치의 접촉 위치에서 압력 감지 여부를 판단한다(S405).After S404, the
판단 결과, 압력이 감지되지 않은 경우, 터치 감지부(201)는 사용자의 제 2 터치 이동을 감지하고, 제 2 터치가 이동되는 접촉 위치를 파악한다(S406).As a result of the determination, when no pressure is detected, the
만일 S405의 판단 결과, 제 2 터치의 접촉 위치에 압력이 감지되는 경우, 압력 감지부(204)에 의해 추후 설명하게 될 S412~S413의 과정으로 진행된다.If the pressure is detected at the contact position of the second touch as a result of the determination in S405, the process proceeds from S412 to S413 which will be described later by the
S406 후, 좌표 변환부(203)는 S405에서 파악된 제 2 터치의 이동을 포인터의 이동으로 변환하여 반영한다(S407).After S406, the coordinate converting
이때, 좌표 변환부(203)는 제 2 터치의 이동에 대한 포인터의 이동을 1 대 1 또는 1 대 N으로 반영하여, 제 2 터치로 포인터의 이동을 섬세하게 조절할 수 있다.In this case, the coordinate
S407 후, 디스플레이부(205)를 통해 포인터의 위치 이동이 디스플레이된다(S408).After S407, the positional movement of the pointer is displayed through the display unit 205 (S408).
만일 S402의 판단 결과, 제 1 터치의 접촉이 해제되지 않은 경우 터치 감지부(201)는 제 1 터치의 이동 여부를 판단한다(S409).If it is determined in S402 that the touch of the first touch is not released, the
판단 결과, 제 1 터치의 이동이 소정의 거리를 벗어난 경우, 터치 감지 부(201)는 이를 제 2 터치로 판단하고 포인터 설정부(202)는 제 1 터치의 첫 접촉 위치에 포인터를 설정한다(S410).As a result of the determination, when the movement of the first touch is out of a predetermined distance, the
만일 S409의 판단 결과 제 1 터치의 이동이 소정의 거리를 벗어나지 못했다면, 터치 감지부(201)에서 지속적으로 제 1 터치의 감지 및 접촉 위치를 파악하게 된다 If it is determined in S409 that the movement of the first touch does not deviate from the predetermined distance, the
만일 S409의 판단 결과, 제 1 터치의 접촉 위치가 이동되지 않았다면, 압력 감지부(204)는 제 1 터치의 접촉 위치에서 압력 감지 여부를 판단하고(S411), 판단 결과 압력이 감지되는 경우 압력의 지속시간이나 압력의 강도를 파악하여 해당 조건에 대응하는 동작을 지시한다(S412).If it is determined in S409 that the contact position of the first touch is not moved, the
S412 후, 디스플레이부(205)는 지시된 동작을 디스플레이한다(S413).After S412, the
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. You will understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.
상기한 바와 같은 본 발명의 실시예에 따른 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the method for improving usability in the touch screen and the touch screen to improve the usability according to the embodiment of the present invention as described above has one or more of the following effects.
사용자가 보기 원하는 화면의 내용이 사용자의 손가락과 같은 신체 일부분이나 스타일러스 펜과 같은 도구에 일부 가리워지는 현상을 해소하는 장점이 있다. This has the advantage of eliminating the phenomenon that the contents of the screen that the user wants to see are partially hidden by a body part such as a user's finger or a tool such as a stylus pen.
또한, 제 1 터치 및 제 2 터치로 포인터의 이동이나 포인터를 통한 동작을 세밀하게 조절할 수 있는 장점도 있다.In addition, there is an advantage in that the movement of the pointer or the operation through the pointer can be finely adjusted with the first touch and the second touch.
또한, 화면의 크기를 확대하지 않고도 포인터의 이동 및 포인터를 통한 동작을 세밀하게 조절함으로써 위치 기반 서비스 기기의 소형화에 기여하는 장점도 있다.In addition, there is an advantage in that the location-based service device can be miniaturized by finely adjusting the movement of the pointer and the operation through the pointer without increasing the size of the screen.
Claims (14)
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070007972A KR100891099B1 (en) | 2007-01-25 | 2007-01-25 | How to improve usability on touch screens and touch screens |
US11/979,929 US8760410B2 (en) | 2007-01-25 | 2007-11-09 | Apparatus and method for improvement of usability of touch screen |
EP08100613.2A EP1950653B1 (en) | 2007-01-25 | 2008-01-17 | Apparatus and method for improvement of usability of touch screen |
CN200810003567.9A CN101231564B (en) | 2007-01-25 | 2008-01-25 | Apparatus and method for improvement of usability of touch screen |
JP2008014719A JP5448346B2 (en) | 2007-01-25 | 2008-01-25 | Apparatus and method for improving usability in a touch screen |
JP2013221022A JP5881661B2 (en) | 2007-01-25 | 2013-10-24 | Apparatus and method for improving usability in a touch screen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070007972A KR100891099B1 (en) | 2007-01-25 | 2007-01-25 | How to improve usability on touch screens and touch screens |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080070226A KR20080070226A (en) | 2008-07-30 |
KR100891099B1 true KR100891099B1 (en) | 2009-03-31 |
Family
ID=39415137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070007972A Active KR100891099B1 (en) | 2007-01-25 | 2007-01-25 | How to improve usability on touch screens and touch screens |
Country Status (5)
Country | Link |
---|---|
US (1) | US8760410B2 (en) |
EP (1) | EP1950653B1 (en) |
JP (2) | JP5448346B2 (en) |
KR (1) | KR100891099B1 (en) |
CN (1) | CN101231564B (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013062240A1 (en) * | 2011-10-26 | 2013-05-02 | 주식회사 한글과컴퓨터 | Touchscreen device and method for adjusting the size of a touchscreen |
KR101390164B1 (en) | 2009-08-17 | 2014-04-29 | 노키아 코포레이션 | Apparatus comprising an optically transparent sheet and related methods |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD601155S1 (en) * | 2007-12-28 | 2009-09-29 | Sony Corporation | Personal digital assistant |
US10983665B2 (en) | 2008-08-01 | 2021-04-20 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for implementing user interface |
US8384687B2 (en) * | 2008-08-21 | 2013-02-26 | Denso Corporation | Manipulation input apparatus |
JP2010049460A (en) * | 2008-08-21 | 2010-03-04 | Denso Corp | Operation input device |
US20100060588A1 (en) * | 2008-09-09 | 2010-03-11 | Microsoft Corporation | Temporally separate touch input |
US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
KR101507840B1 (en) * | 2008-10-23 | 2015-04-03 | 엘지전자 주식회사 | Mobile communication terminal and touch screen control method |
US20100162181A1 (en) * | 2008-12-22 | 2010-06-24 | Palm, Inc. | Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress |
JP2010176330A (en) | 2009-01-28 | 2010-08-12 | Sony Corp | Information processing apparatus and display control method |
DE102009008041A1 (en) * | 2009-02-09 | 2010-08-12 | Volkswagen Ag | Method for operating a motor vehicle with a touchscreen |
KR101062594B1 (en) * | 2009-03-19 | 2011-09-06 | 김연수 | Touch screen with pointer display |
US8884895B2 (en) | 2009-04-24 | 2014-11-11 | Kyocera Corporation | Input apparatus |
US20100283722A1 (en) * | 2009-05-08 | 2010-11-11 | Sony Ericsson Mobile Communications Ab | Electronic apparatus including a coordinate input surface and method for controlling such an electronic apparatus |
US8355007B2 (en) * | 2009-05-11 | 2013-01-15 | Adobe Systems Incorporated | Methods for use with multi-touch displays for determining when a touch is processed as a mouse event |
JP5173924B2 (en) * | 2009-05-12 | 2013-04-03 | 京セラドキュメントソリューションズ株式会社 | Image forming apparatus |
FR2948808B1 (en) * | 2009-07-30 | 2012-08-03 | Dassault Aviat | DIGITAL DISPLAY DEVICE, IN PARTICULAR FOR THE PREPARATION OF A PATH |
IN2012DN01870A (en) * | 2009-09-02 | 2015-08-21 | Amazon Tech Inc | |
JP2011053974A (en) * | 2009-09-02 | 2011-03-17 | Sony Corp | Device and method for controlling operation, and computer program |
CN102033684B (en) * | 2009-09-30 | 2013-01-02 | 万达光电科技股份有限公司 | Gesture detection method for touch panel |
TW201115419A (en) * | 2009-10-29 | 2011-05-01 | Sentelic Corp | Touch-sensing method and electronic device |
CN102103452A (en) * | 2009-12-17 | 2011-06-22 | 深圳富泰宏精密工业有限公司 | Flying spot control system and method |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
US20110224896A1 (en) * | 2010-03-09 | 2011-09-15 | Nokia Corporation | Method and apparatus for providing touch based routing services |
KR101572892B1 (en) | 2010-05-06 | 2015-11-30 | 엘지전자 주식회사 | Mobile terminal and Method for displying image thereof |
KR101694157B1 (en) * | 2010-05-11 | 2017-01-09 | 엘지전자 주식회사 | Mobile terminal and operation control method thereof |
US8640020B2 (en) * | 2010-06-02 | 2014-01-28 | Microsoft Corporation | Adjustable and progressive mobile device street view |
US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
US8643616B1 (en) | 2011-07-29 | 2014-02-04 | Adobe Systems Incorporated | Cursor positioning on a touch-sensitive display screen |
EP2562628A1 (en) * | 2011-08-26 | 2013-02-27 | Sony Ericsson Mobile Communications AB | Image scale alteration arrangement and method |
WO2013047182A1 (en) * | 2011-09-27 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | Portable electronic device, touch operation processing method and program |
JP2013080412A (en) * | 2011-10-05 | 2013-05-02 | Sony Corp | Information processing device, information processing method, and program |
KR101338825B1 (en) | 2011-12-14 | 2013-12-06 | 현대자동차주식회사 | A controlling method and apparatus for display particular in selected area by using dynamic touch interaction |
US9460029B2 (en) | 2012-03-02 | 2016-10-04 | Microsoft Technology Licensing, Llc | Pressure sensitive keys |
US9075566B2 (en) | 2012-03-02 | 2015-07-07 | Microsoft Technoogy Licensing, LLC | Flexible hinge spine |
KR101690261B1 (en) | 2012-04-02 | 2016-12-27 | 삼성전자주식회사 | Digital image processing apparatus and controlling method thereof |
CN108052264B (en) * | 2012-05-09 | 2021-04-27 | 苹果公司 | Device, method and graphical user interface for moving and placing user interface objects |
US20130300590A1 (en) | 2012-05-14 | 2013-11-14 | Paul Henry Dietz | Audio Feedback |
CN103425311A (en) * | 2012-05-25 | 2013-12-04 | 捷达世软件(深圳)有限公司 | Positioning method and positioning system for mobile object clicking selection |
CN102750034B (en) * | 2012-06-20 | 2017-07-28 | 中兴通讯股份有限公司 | A kind of method and mobile terminal for reporting touch panel coordinates point |
US9493342B2 (en) | 2012-06-21 | 2016-11-15 | Nextinput, Inc. | Wafer level MEMS force dies |
CN103513908B (en) * | 2012-06-29 | 2017-03-29 | 国际商业机器公司 | For controlling light target method and apparatus on the touchscreen |
JP2014010777A (en) * | 2012-07-02 | 2014-01-20 | Fujitsu Ltd | Display program, display method, and information processing device |
WO2014008377A1 (en) | 2012-07-05 | 2014-01-09 | Ian Campbell | Microelectromechanical load sensor and methods of manufacturing the same |
JP6015183B2 (en) * | 2012-07-18 | 2016-10-26 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP2014044605A (en) * | 2012-08-28 | 2014-03-13 | Fujifilm Corp | Input control device and method in touch-sensitive display, and program |
KR101404505B1 (en) * | 2012-09-24 | 2014-06-09 | (주)이스트소프트 | Method for manipulating scale and/or rotation of graphic in electronic device with display, and electronic device for implementing the same |
US10139937B2 (en) | 2012-10-12 | 2018-11-27 | Microsoft Technology Licensing, Llc | Multi-modal user expressions and user intensity as interactions with an application |
JP6029453B2 (en) * | 2012-12-21 | 2016-11-24 | 京セラ株式会社 | Portable terminal, cursor display control program, cursor display control method, cursor generation control program, cursor generation control method, icon display program, and icon display method |
JP5780438B2 (en) * | 2013-05-21 | 2015-09-16 | カシオ計算機株式会社 | Electronic device, position designation method and program |
CN103530052B (en) | 2013-09-27 | 2017-09-29 | 华为技术有限公司 | The display methods and user equipment of a kind of interface content |
CN104679423A (en) * | 2013-12-03 | 2015-06-03 | 方正国际软件(北京)有限公司 | Method and system for accurately positioning geographic position of touch screen |
US9902611B2 (en) | 2014-01-13 | 2018-02-27 | Nextinput, Inc. | Miniaturized and ruggedized wafer level MEMs force sensors |
US9965173B2 (en) * | 2015-02-13 | 2018-05-08 | Samsung Electronics Co., Ltd. | Apparatus and method for precise multi-touch input |
EP3307671B1 (en) | 2015-06-10 | 2022-06-15 | Nextinput, Inc. | Ruggedized wafer level mems force sensor with a tolerance trench |
CN107168565B (en) * | 2016-03-07 | 2020-05-15 | 敦泰电子有限公司 | Touch device, driving circuit and driving method thereof, and electronic equipment |
CN107229362A (en) * | 2016-03-25 | 2017-10-03 | 宇龙计算机通信科技(深圳)有限公司 | A kind of touch-control pressure reminding method and device |
CN107239202B (en) * | 2016-03-29 | 2020-06-30 | 中兴通讯股份有限公司 | Control instruction identification method and device |
KR101835674B1 (en) * | 2016-04-27 | 2018-03-07 | 연세대학교 산학협력단 | Data input device and method on force touch interaction |
JP6313395B1 (en) * | 2016-10-17 | 2018-04-18 | グリー株式会社 | Drawing processing method, drawing processing program, and drawing processing apparatus |
US20180121000A1 (en) * | 2016-10-27 | 2018-05-03 | Microsoft Technology Licensing, Llc | Using pressure to direct user input |
US11243125B2 (en) | 2017-02-09 | 2022-02-08 | Nextinput, Inc. | Integrated piezoresistive and piezoelectric fusion force sensor |
US11255737B2 (en) | 2017-02-09 | 2022-02-22 | Nextinput, Inc. | Integrated digital force sensors and related methods of manufacture |
EP3655740A4 (en) | 2017-07-19 | 2021-07-14 | Nextinput, Inc. | VOLTAGE TRANSFER STACKING IN A MEMS FORCE SENSOR |
US11423686B2 (en) | 2017-07-25 | 2022-08-23 | Qorvo Us, Inc. | Integrated fingerprint and force sensor |
US11243126B2 (en) | 2017-07-27 | 2022-02-08 | Nextinput, Inc. | Wafer bonded piezoresistive and piezoelectric force sensor and related methods of manufacture |
US11579028B2 (en) | 2017-10-17 | 2023-02-14 | Nextinput, Inc. | Temperature coefficient of offset compensation for force sensor and strain gauge |
US11385108B2 (en) | 2017-11-02 | 2022-07-12 | Nextinput, Inc. | Sealed force sensor with etch stop layer |
WO2019099821A1 (en) | 2017-11-16 | 2019-05-23 | Nextinput, Inc. | Force attenuator for force sensor |
JP6863918B2 (en) * | 2018-03-19 | 2021-04-21 | グリー株式会社 | Control programs, control methods and information processing equipment |
US10962427B2 (en) | 2019-01-10 | 2021-03-30 | Nextinput, Inc. | Slotted MEMS force sensor |
TW202202681A (en) | 2020-06-15 | 2022-01-16 | 大陸商東麗纖維研究所(中國)有限公司 | Knitted fabric and use thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651908A (en) * | 1992-07-28 | 1994-02-25 | Sony Corp | Information processor provided with touch panel type input device |
KR20040056892A (en) | 2002-12-24 | 2004-07-01 | 엘지.필립스 엘시디 주식회사 | Apparatus and Method of Driving Touch Panel |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1136749A (en) * | 1909-02-13 | 1915-04-20 | Union Special Machine Co | Feeding mechanism for sewing-machines. |
JP3103085B2 (en) * | 1989-12-15 | 2000-10-23 | 株式会社東芝 | Display input device |
JPH07104914A (en) | 1993-09-30 | 1995-04-21 | Toshiba Corp | Touch input device |
US20010040587A1 (en) | 1993-11-15 | 2001-11-15 | E. J. Scheck | Touch control of cursonr position |
GB2286100A (en) * | 1994-01-19 | 1995-08-02 | Ibm | Touch-sensitive display apparatus |
JPH09251347A (en) | 1996-03-15 | 1997-09-22 | Matsushita Electric Ind Co Ltd | Coordinate input device |
US5854625A (en) * | 1996-11-06 | 1998-12-29 | Synaptics, Incorporated | Force sensing touchpad |
JPH11203044A (en) | 1998-01-16 | 1999-07-30 | Sony Corp | Information processing system |
US7760187B2 (en) * | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
US6252544B1 (en) * | 1998-01-27 | 2001-06-26 | Steven M. Hoffberg | Mobile communication device |
US6278443B1 (en) * | 1998-04-30 | 2001-08-21 | International Business Machines Corporation | Touch screen with random finger placement and rolling on screen to control the movement of information on-screen |
JPH11338628A (en) | 1998-05-25 | 1999-12-10 | Sharp Corp | Pointing device |
JP4044255B2 (en) * | 1999-10-14 | 2008-02-06 | 富士通株式会社 | Information processing apparatus and screen display method |
EP1191430A1 (en) | 2000-09-22 | 2002-03-27 | Hewlett-Packard Company, A Delaware Corporation | Graphical user interface for devices having small tactile displays |
JP5109212B2 (en) * | 2001-05-01 | 2012-12-26 | ソニー株式会社 | Navigation device, information display device, object generation method, and storage medium |
FI115254B (en) | 2001-12-20 | 2005-03-31 | Nokia Corp | Use of touch screen with a touch screen |
US7656393B2 (en) * | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) * | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
JP2004110388A (en) | 2002-09-18 | 2004-04-08 | Sharp Corp | Device having touch panel |
KR20040081697A (en) | 2003-03-12 | 2004-09-22 | 박경희 | Mouse typed touch pad by implementing click and draw operation like as mouse operation |
JP4215549B2 (en) * | 2003-04-02 | 2009-01-28 | 富士通株式会社 | Information processing device that operates in touch panel mode and pointing device mode |
EP1658551A1 (en) * | 2003-08-29 | 2006-05-24 | Nokia Corporation | Method and device for recognizing a dual point user input on a touch based user input device |
US7454713B2 (en) * | 2003-12-01 | 2008-11-18 | Sony Ericsson Mobile Communications Ab | Apparatus, methods and computer program products providing menu expansion and organization functions |
US7366995B2 (en) * | 2004-02-03 | 2008-04-29 | Roland Wescott Montague | Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag |
KR20060010579A (en) | 2004-07-28 | 2006-02-02 | 안준성 | Mouse touchpad |
JP2006126997A (en) | 2004-10-27 | 2006-05-18 | Pfu Ltd | 3D touch panel |
US7489306B2 (en) | 2004-12-22 | 2009-02-10 | Microsoft Corporation | Touch screen accuracy |
JP4642497B2 (en) * | 2005-02-10 | 2011-03-02 | クラリオン株式会社 | Navigation device |
US7605804B2 (en) * | 2005-04-29 | 2009-10-20 | Microsoft Corporation | System and method for fine cursor positioning using a low resolution imaging touch screen |
DE102005047648A1 (en) | 2005-10-05 | 2007-04-12 | Volkswagen Ag | Input device for navigation system of e.g. land vehicle, has display to display variable information e.g. map, and controller to produce selection marking and to move marking corresponding to touching movement over touch screen |
-
2007
- 2007-01-25 KR KR1020070007972A patent/KR100891099B1/en active Active
- 2007-11-09 US US11/979,929 patent/US8760410B2/en active Active
-
2008
- 2008-01-17 EP EP08100613.2A patent/EP1950653B1/en active Active
- 2008-01-25 JP JP2008014719A patent/JP5448346B2/en active Active
- 2008-01-25 CN CN200810003567.9A patent/CN101231564B/en active Active
-
2013
- 2013-10-24 JP JP2013221022A patent/JP5881661B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651908A (en) * | 1992-07-28 | 1994-02-25 | Sony Corp | Information processor provided with touch panel type input device |
KR20040056892A (en) | 2002-12-24 | 2004-07-01 | 엘지.필립스 엘시디 주식회사 | Apparatus and Method of Driving Touch Panel |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101390164B1 (en) | 2009-08-17 | 2014-04-29 | 노키아 코포레이션 | Apparatus comprising an optically transparent sheet and related methods |
WO2013062240A1 (en) * | 2011-10-26 | 2013-05-02 | 주식회사 한글과컴퓨터 | Touchscreen device and method for adjusting the size of a touchscreen |
Also Published As
Publication number | Publication date |
---|---|
CN101231564A (en) | 2008-07-30 |
JP2014056590A (en) | 2014-03-27 |
US20080180402A1 (en) | 2008-07-31 |
CN101231564B (en) | 2014-06-25 |
JP5881661B2 (en) | 2016-03-09 |
JP5448346B2 (en) | 2014-03-19 |
KR20080070226A (en) | 2008-07-30 |
EP1950653A3 (en) | 2009-07-08 |
EP1950653A2 (en) | 2008-07-30 |
JP2008181523A (en) | 2008-08-07 |
EP1950653B1 (en) | 2018-08-29 |
US8760410B2 (en) | 2014-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100891099B1 (en) | How to improve usability on touch screens and touch screens | |
JP5174704B2 (en) | Image processing apparatus and image processing method | |
CN103677556B (en) | The method and apparatus of quick positioning application program | |
JP5379259B2 (en) | Screen display device | |
US9013368B1 (en) | Foldable mobile device and method of controlling the same | |
JP5129478B2 (en) | Screen display device | |
KR101667715B1 (en) | Method for providing route guide using augmented reality and mobile terminal using this method | |
US9207096B2 (en) | Map magnifier | |
KR101467766B1 (en) | Screen display method of mobile terminal and mobile terminal | |
US9772757B2 (en) | Enlarging image based on proximity of a pointing object to a display screen | |
US20050268253A1 (en) | Navigation of an N-dimensional hierarchical structure using a 2-dimensional controller | |
JP2010019643A (en) | Information terminal, navigation apparatus, and option display method | |
KR20100069842A (en) | Electronic apparatus implementing user interface and method thereof | |
CA2779590C (en) | Map magnifier | |
CA2746064C (en) | Navigating between a map dialog and button controls displayed outside the map | |
KR101430475B1 (en) | Screen display method of mobile terminal and mobile terminal | |
JP6254803B2 (en) | Map image display device | |
CN107231472A (en) | A kind of display methods and mobile terminal | |
CN113296647A (en) | Interface display method and device | |
CN106569682B (en) | Touch screen display content selection apparatus and method | |
KR101455994B1 (en) | Screen display method of mobile terminal and mobile terminal | |
JP2013093043A (en) | Image processing apparatus, image processing method, and program | |
JP2018045139A (en) | Electronic device | |
KR20070081193A (en) | How to control the display pointer position of a portable information terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20070125 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20080228 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20080825 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20090220 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20090324 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20090325 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20120116 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130221 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20130221 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140221 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20140221 Start annual number: 6 End annual number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150212 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20150212 Start annual number: 7 End annual number: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160219 Year of fee payment: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20160219 Start annual number: 8 End annual number: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170221 Year of fee payment: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20170221 Start annual number: 9 End annual number: 9 |
|
FPAY | Annual fee payment |
Payment date: 20180220 Year of fee payment: 10 |
|
PR1001 | Payment of annual fee |
Payment date: 20180220 Start annual number: 10 End annual number: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190221 Year of fee payment: 11 |
|
PR1001 | Payment of annual fee |
Payment date: 20190221 Start annual number: 11 End annual number: 11 |
|
FPAY | Annual fee payment |
Payment date: 20200225 Year of fee payment: 12 |
|
PR1001 | Payment of annual fee |
Payment date: 20200225 Start annual number: 12 End annual number: 12 |
|
PR1001 | Payment of annual fee |
Payment date: 20210222 Start annual number: 13 End annual number: 13 |
|
PR1001 | Payment of annual fee |
Payment date: 20220216 Start annual number: 14 End annual number: 14 |
|
PR1001 | Payment of annual fee |
Payment date: 20230214 Start annual number: 15 End annual number: 15 |
|
PR1001 | Payment of annual fee |
Payment date: 20240219 Start annual number: 16 End annual number: 16 |