KR20170121930A - Wearable device and apparatus for vehicles diagnosis having the same - Google Patents
Wearable device and apparatus for vehicles diagnosis having the same Download PDFInfo
- Publication number
- KR20170121930A KR20170121930A KR1020160050813A KR20160050813A KR20170121930A KR 20170121930 A KR20170121930 A KR 20170121930A KR 1020160050813 A KR1020160050813 A KR 1020160050813A KR 20160050813 A KR20160050813 A KR 20160050813A KR 20170121930 A KR20170121930 A KR 20170121930A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- recognized
- user
- wearable device
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000003745 diagnosis Methods 0.000 title claims description 40
- 230000003190 augmentative effect Effects 0.000 claims abstract description 52
- 238000004891 communication Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 46
- 230000008439 repair process Effects 0.000 claims description 28
- 238000010586 diagram Methods 0.000 description 19
- 230000000007 visual effect Effects 0.000 description 11
- 210000001747 pupil Anatomy 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R31/00—Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
- G01R31/005—Testing of electric installations on transport means
- G01R31/006—Testing of electric installations on transport means on road vehicles, e.g. automobiles or trucks
- G01R31/007—Testing of electric installations on transport means on road vehicles, e.g. automobiles or trucks using microprocessors or computers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R1/00—Details of instruments or arrangements of the types included in groups G01R5/00 - G01R13/00 and G01R31/00
- G01R1/02—General constructional details
- G01R1/025—General constructional details concerning dedicated user interfaces, e.g. GUI, or dedicated keyboards
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R31/00—Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
- G01R31/28—Testing of electronic circuits, e.g. by signal tracer
- G01R31/2832—Specific tests of electronic circuits not provided for elsewhere
- G01R31/2834—Automated test systems [ATE]; using microprocessors or computers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R31/00—Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
- G01R31/28—Testing of electronic circuits, e.g. by signal tracer
- G01R31/2832—Specific tests of electronic circuits not provided for elsewhere
- G01R31/2836—Fault-finding or characterising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G06K9/20—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0808—Diagnosing performance data
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0816—Indicating performance data, e.g. occurrence of a malfunction
- G07C5/0825—Indicating performance data, e.g. occurrence of a malfunction using optical means
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C2205/00—Indexing scheme relating to group G07C5/00
- G07C2205/02—Indexing scheme relating to group G07C5/00 using a vehicle scan tool
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Ophthalmology & Optometry (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
Abstract
본 발명의 일 측면은, 사용자에게 차량 진단 및 수리에 필요한 정보를 증강 현실 이미지를 통해 제공하고, 사용자의 제어 명령을 제스처, 시선 또는 음성을 통해 입력받는 웨어러블 기기 및 이를 포함하는 차량 진단 장치를 제공한다.
일 실시예에 따른 차량 진단 장치는, 사용자의 전방 영상을 촬영하는 웨어러블 기기; 상기 전방 영상으로부터 상기 사용자의 제스처 및 시선 중 적어도 하나를 인식하고, 상기 인식된 제스처 또는 상기 인식된 시선의 위치에 대응되는 차량의 부품을 판단하는 제어부; 상기 차량에 고장 코드(DTC) 요청 메시지를 송신하고, 상기 차량으로부터 고장 코드를 수신하는 통신부;를 포함한다.One aspect of the present invention provides a wearable device that provides a user with information necessary for diagnosing and repairing a vehicle through an augmented reality image, receives a user's control command through a gesture, a sight line, or voice, and a vehicle diagnostic device including the same do.
A vehicle diagnostic apparatus according to an exemplary embodiment includes a wearable device that photographs a forward image of a user; A controller for recognizing at least one of a gesture and a gaze of the user from the forward image and determining a part of the vehicle corresponding to the recognized gesture or the position of the recognized gaze; And a communication unit for transmitting a fault code (DTC) request message to the vehicle and receiving a fault code from the vehicle.
Description
본 발명은 차량 진단에 사용되는 웨어러블 기기 및 이를 포함하는 차량 진단 장치에 관한 것이다. The present invention relates to a wearable device used for vehicle diagnosis and a vehicle diagnostic apparatus including the wearable device.
일반적으로 차량의 고장을 진단하기 위해서는 정비사가 스캔 기능을 포함하는 휴대용 차량 진단 장치를 이용하여 차량에서 발생되는 고장 코드(DTC: Diagnostic Trouble Code)를 스캔하고, 발생된 고장 코드를 참조하여 차량에 대한 수리를 진행한다.Generally, in order to diagnose a malfunction of a vehicle, a mechanic scans a diagnostic trouble code (DTC) generated in the vehicle using a portable vehicle diagnostic apparatus including a scan function, and refers to a malfunction code Proceed with repair.
이 경우, 정비사는 휴대용 차량 진단 장치를 이용한 정보의 검색과 수리 작업을 동시에 수행하게 되면서 작업 효율이 떨어지게 되고, 정비사의 기술 숙련도에 따라 정보의 활용도나 작업 결과의 효율성, 신뢰도 등에 차이가 나게 된다. In this case, the mechanic performs the retrieval and repair of the information using the portable vehicle diagnostic device at the same time, resulting in a decrease in the working efficiency, and the information utilization, the efficiency and the reliability of the work result are different according to the technical skill of the mechanic.
본 발명의 일 측면은, 사용자에게 차량 진단 및 수리에 필요한 정보를 증강 현실 이미지를 통해 제공하고, 사용자의 제어 명령을 제스처, 시선 또는 음성을 통해 입력받는 웨어러블 기기 및 이를 포함하는 차량 진단 장치를 제공한다.One aspect of the present invention provides a wearable device that provides a user with information necessary for diagnosing and repairing a vehicle through an augmented reality image, receives a user's control command through a gesture, a sight line, or voice, and a vehicle diagnostic device including the same do.
일 실시예에 따른 차량 진단 장치는, 사용자의 전방 영상을 촬영하는 웨어러블 기기; 상기 전방 영상으로부터 상기 사용자의 제스처 및 시선 중 적어도 하나를 인식하고, 상기 인식된 제스처 또는 상기 인식된 시선의 위치에 대응되는 차량의 부품을 판단하는 제어부; 상기 차량에 고장 코드(DTC) 요청 메시지를 송신하고, 상기 차량으로부터 고장 코드를 수신하는 통신부;를 포함한다.A vehicle diagnostic apparatus according to an exemplary embodiment includes a wearable device that photographs a forward image of a user; A controller for recognizing at least one of a gesture and a gaze of the user from the forward image and determining a part of the vehicle corresponding to the recognized gesture or the position of the recognized gaze; And a communication unit for transmitting a fault code (DTC) request message to the vehicle and receiving a fault code from the vehicle.
상기 웨어러블 기기는, 상기 사용자에게 증강 현실 이미지를 제공할 수 있다.The wearable device may provide an augmented reality image to the user.
상기 제어부는, 상기 전방 영상으로부터 상기 차량에 포함되는 복수의 부품을 인식하고, 상기 인식된 부품에 관한 정보를 상기 웨어러블 기기에 전송할 수 있다.The control unit may recognize a plurality of parts included in the vehicle from the forward image and transmit information about the recognized part to the wearable device.
상기 웨어러블 기기는, 상기 인식된 부품에 관한 정보를 포함하는 증강 현실 이미지를 출력할 수 있다.The wearable device may output an augmented reality image including information on the recognized part.
상기 웨어러블 기기, 상기 인식된 부품의 위치에 상기 인식된 부품에 관한 정보를 겹쳐서 표시하는 증강 현실 이미지를 출력할 수 있다.The wearable device, and the augmented reality image in which the information about the recognized part is superimposed and displayed at the position of the recognized part.
상기 제어부는, 상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 부품을 고장 진단 대상 부품으로 판단할 수 있다.The control unit may determine the part at the position corresponding to the recognized gesture or the recognized sight line as the failure diagnosis target part.
상기 차량에 포함되는 복수의 단품을 상기 복수의 단품이 각각 포함되는 복수의 시스템에 따라 그룹핑하여 저장하는 저장부;를 더 포함할 수 있다.And a storage unit for grouping and storing a plurality of individual items included in the vehicle according to a plurality of systems each including the plurality of individual items.
상기 제어부는, 상기 전방 영상으로부터 상기 사용자의 시선을 인식하고, 상기 인식된 시선의 위치에 대응되는 차량의 시스템을 판단하고, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고, 상기 판단된 시스템에 포함되는 단품 중에서 상기 인식된 제스처에 대응되는 위치에 대응되는 단품을 판단할 수 있다.The control unit recognizes the user's gaze from the forward image, determines a system of the vehicle corresponding to the recognized position of the gaze, recognizes the user's gesture from the forward image, It is possible to determine a single item corresponding to a position corresponding to the recognized gesture among the single items.
상기 제어부는, 상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 단품을 판단하고, 상기 판단된 단품이 포함되는 시스템을 고장 진단 대상 부품으로 판단할 수 있다.The control unit may determine the recognized gesture or a single item at a position corresponding to the recognized line of sight, and determine the system including the determined single item as a failure diagnosis target part.
상기 통신부는, 상기 고장 진단 대상 부품에 대한 고장 코드 요청 메시지를 상기 차량에 송신하고, 상기 차량으로부터 상기 고장 진단 대상 부품에 대한 고장 코드를 수신할 수 있다.The communication unit may transmit a failure code request message to the vehicle for the failure diagnosis target part and receive a failure code for the failure diagnosis target part from the vehicle.
상기 웨어러블 기기는, 사용자의 음성을 입력 받고, 상기 입력된 음성을 전기적인 음성 신호로 변환하고, 상기 제어부는, 상기 음성 신호에 포함된 명령어를 인식하고, 상기 인식된 명령어에 대응되는 부품을 고장 진단 대상 부품으로 판단할 수 있다.The wearable device receives a user's voice and converts the input voice into an electrical voice signal. The control unit recognizes a command word included in the voice signal, and breaks a component corresponding to the recognized command word It can be judged as a part to be diagnosed.
상기 웨어러블 기기는, 상기 고장 코드가 발생한 부품의 수리를 가이드하기 위한 정보를 상기 증강 현실 이미지로 출력할 수 있다.The wearable device may output information for guiding the repair of the component in which the failure code is generated to the augmented reality image.
상기 웨어러블 기기는, 상기 고장 코드가 발생한 부품의 위치에 상기 부품의 수리를 가이드하기위한 정보를 겹쳐서 표시하는 증강 현실 이미지를 출력할 수 있다.The wearable device can output an augmented reality image in which the information for guiding the repair of the component is superimposed on the position of the component where the failure code is generated.
상기 제어부는, 상기 부품의 수리를 가이드하기 위한 정보가 복수의 단계를 포함하는 경우, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고 상기 인식된 제스처가 미리 저장된 제스처이면 상기 복수의 단계 중 다음 단계의 정보를 출력하기 위한 제어 신호를 상기 웨어러블 기기에 전송할 수 있다.Wherein the controller recognizes the user's gesture from the forward image if the information for guiding the repair of the component includes a plurality of steps and if the recognized gesture is a gesture that has been stored in advance, A control signal for outputting information can be transmitted to the wearable device.
상기 웨어러블 기기는, 상기 고장 코드가 발생한 부품의 위치에 미리 설정된 색을 겹쳐서 표시하는 증강 현실 이미지를 출력할 수 있다.The wearable device can output an augmented reality image that displays a predetermined color at a position of a component where the failure code is generated, and displays the augmented reality image.
상기 제어부는, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고 상기 인식된 제스처가 미리 저장된 제스처이면 상기 증강 현실 이미지를 제거하기 위한 제어 신호를 상기 웨어러블 기기에 전송할 수 있다.The controller may recognize a gesture of the user from the forward image and transmit a control signal for removing the augmented reality image to the wearable device if the recognized gesture is a gesture previously stored.
일 실시예에 따른 웨어러블 기기는, 사용자의 전방 영상을 촬영하는 촬영부; 상기 전방 영상으로부터 상기 사용자의 제스처 및 시선 중 적어도 하나를 인식하고, 상기 인식된 제스처 또는 상기 인식된 시선의 위치에 대응되는 차량의 부품을 판단하는 제어부; 상기 차량에 고장 코드(DTC) 요청 메시지를 송신하고, 상기 차량으로부터 고장 코드를 수신하는 통신부;를 포함한다.According to an embodiment of the present invention, a wearable device includes a photographing unit photographing a forward image of a user; A controller for recognizing at least one of a gesture and a gaze of the user from the forward image and determining a part of the vehicle corresponding to the recognized gesture or the position of the recognized gaze; And a communication unit for transmitting a fault code (DTC) request message to the vehicle and receiving a fault code from the vehicle.
상기 웨어러블 기기는, 사용자가 응시하는 공간에 가상의 이미지를 겹쳐서 표시하는 증강 현실 이미지를 출력하는 디스플레이부;를 더 포함할 수 있다.The wearable device may further include a display unit for outputting an augmented reality image in which a virtual image is superimposed and displayed in a space to be examined by a user.
상기 제어부는, 상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 부품을 고장 진단 대상 부품으로 판단할 수 있다.The control unit may determine the part at the position corresponding to the recognized gesture or the recognized sight line as the failure diagnosis target part.
상기 차량에 포함되는 복수의 단품을 상기 복수의 단품이 각각 포함되는 복수의 시스템에 따라 그룹핑하여 저장하는 저장부;를 더 포함할 수 있다.And a storage unit for grouping and storing a plurality of individual items included in the vehicle according to a plurality of systems each including the plurality of individual items.
상기 제어부는, 상기 전방 영상으로부터 상기 사용자의 시선을 인식하고, 상기 인식된 시선의 위치에 대응되는 차량의 시스템을 판단하고, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고, 상기 판단된 시스템에 포함되는 단품 중에서 상기 인식된 제스처에 대응되는 위치에 대응되는 단품을 판단할 수 있다.The control unit recognizes the user's gaze from the forward image, determines a system of the vehicle corresponding to the recognized position of the gaze, recognizes the user's gesture from the forward image, It is possible to determine a single item corresponding to a position corresponding to the recognized gesture among the single items.
상기 제어부는, 상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 단품을 판단하고, 상기 판단된 단품이 포함되는 시스템을 고장 진단 대상 부품으로 판단할 수 있다.The control unit may determine the recognized gesture or a single item at a position corresponding to the recognized line of sight, and determine the system including the determined single item as a failure diagnosis target part.
사용자의 음성을 입력 받고, 상기 입력된 음성을 전기적인 음성 신호로 변환하는 마이크;를 더 포함하고, 상기 제어부는, 상기 음성 신호에 포함된 명령어를 인식하고, 상기 인식된 명령어에 대응되는 부품을 고장 진단 대상 부품으로 판단할 수 있다.And a microphone for receiving a user's voice and converting the input voice into an electrical voice signal, wherein the controller recognizes a command included in the voice signal and transmits the part corresponding to the recognized command It can be judged as a part to be diagnosed as a failure diagnosis.
상기 디스플레이부는, 상기 고장 코드가 발생한 부품의 수리를 가이드하기 위한 정보를 상기 증강 현실 이미지로 출력할 수 있다.The display unit may output information for guiding the repair of the component in which the failure code is generated to the augmented reality image.
상기 디스플레이부는, 상기 고장 코드가 발생한 부품의 위치에 상기 부품의 수리를 가이드하기위한 정보를 겹쳐서 표시하는 증강 현실 이미지를 출력할 수 있다.The display unit may output an augmented reality image that overlaps and displays information for guiding the repair of the component to the position of the component where the failure code is generated.
상기 제어부는, 상기 부품의 수리를 가이드하기 위한 정보가 복수의 단계를 포함하는 경우, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처가 미리 저장된 제스처이면 상기 복수의 단계 중 다음 단계의 정보를 출력하기 위한 제어 신호를 상기 디스플레이부에 전송할 수 있다.Wherein the controller recognizes the user's gesture from the forward image if the information for guiding the repair of the component includes a plurality of steps, and if the recognized gesture is a pre-stored gesture, To the display unit, a control signal for outputting information on the display unit.
상기 디스플레이부는, 상기 고장 코드가 발생한 부품의 위치에 미리 설정된 색을 겹쳐서 표시하는 증강 현실 이미지를 출력할 수 있다.The display unit may output an augmented reality image in which a predetermined color is superimposed on a position of a component where the failure code is generated.
상기 제어부는, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고 상기 인식된 제스처가 미리 저장된 제스처이면 상기 증강 현실 이미지를 제거하기 위한 제어 신호를 상기 디스플레이부에 전송할 수 있다.The control unit recognizes the gesture of the user from the forward image and transmits a control signal for removing the augmented reality image to the display unit if the recognized gesture is a gesture previously stored.
본 발명의 일 측면에 따른 웨어러블 기기 및 이를 포함하는 차량 진단 장치에 의하면, 사용자에게 차량 진단 및 수리에 필요한 정보를 증강 현실 이미지를 통해 제공하고 사용자의 제어 명령을 제스처, 시선 또는 음성 등을 통해 입력받음으로써 작업에 대한 신뢰도와 편의성을 향상시킬 수 있다.According to one aspect of the present invention, a wearable device and a vehicle diagnostic apparatus including the wearable device provide information required for diagnosing and repairing a vehicle to an user through an augmented reality image and inputting a control command of the user through a gesture, The reliability and convenience of the work can be improved.
도 1은 일 실시예에 따른 차량 진단 장치의 제어 블록도이다.
도 2는 일 실시예에 따른 웨어러블 기기의 외관도이다.
도 3은 일 실시예에 따른 웨어러블 기기의 제어 블록도이다.
도 4는 웨어러블 기기가 촬영한 영상이 제어 모듈로 전달되는 과정을 나타낸 도면이다.
도 5는 엔진룸에 포함된 부품들에 관한 정보를 증강 현실 이미지로 제공하는 예시를 나타낸 도면이다.
도 6은 웨어러블 기기가 마이크를 더 포함하는 경우의 차량 진단 장치의 제어 블록도이다.
도 7은 마이크를 더 포함하는 웨어러블 기기의 외관도이다.
도 8 및 도 9는 웨어러블 기기를 통해 사용자에게 출력되는 화면의 예시를 나타낸 도면이다.
도 10 내지 도 12는 사용자가 고장 진단 대상을 선택하는 다양한 예시들을 나타낸 도면이다.
도 13은 엔진룸에 포함되는 주요 시스템을 DB화하여 저장한 저장부를 나타낸 도면이다.
도 14는 시선 인식과 제스처 인식을 조합하여 고장 진단 대상 부품을 선택하는 예시를 나타낸 도면이다.
도 15는 시선 인식과 음성 인식을 조합하여 고장 진단 대상 부품을 선택하는 예시를 나타낸 도면이다.
도 16은 고장 코드에 대한 정보를 증강 현실 이미지를 통해 제공하는 예시를 나타낸 도면이다.
도 17 내지 도 19는 부품에 대한 수리를 가이드하기 위한 정보를 증강 현실 이미지를 통해 제공하는 예시를 나타낸 도면이다.
도 20은 증강 현실 이미지를 제거하기 위한 제스처의 예시를 나타낸 도면이다.1 is a control block diagram of a vehicle diagnostic apparatus according to an embodiment.
2 is an external view of a wearable device according to an embodiment.
3 is a control block diagram of a wearable device according to an embodiment.
4 is a diagram illustrating a process in which an image captured by a wearable device is transmitted to a control module.
5 is a diagram showing an example of providing information on parts included in the engine room as an augmented reality image.
6 is a control block diagram of a vehicle diagnostic apparatus in a case where the wearable device further includes a microphone.
7 is an external view of a wearable device including a microphone.
8 and 9 are views showing examples of screens output to a user through a wearable device.
10 to 12 are diagrams showing various examples in which the user selects a fault diagnosis object.
13 is a view showing a storage unit in which a main system included in the engine room is stored as a DB.
14 is a diagram showing an example of selecting a component to be diagnosed as a failure by combining visual recognition and gesture recognition.
15 is a diagram showing an example of selecting a component to be diagnosed by a combination of visual perception and speech recognition.
16 is a diagram showing an example of providing information on a failure code through an augmented reality image.
17 to 19 are views showing an example of providing information for guiding repair of a part through an augmented reality image.
20 is a diagram illustrating an example of a gesture for removing an augmented reality image.
이하 첨부된 도면을 참조하여 일 측면에 따른 웨어러블 기기, 이를 포함하는 차량 진단 장치 및 차량 진단 방법의 실시예를 상세하게 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a wearable device, a vehicle diagnostic apparatus including the wearable device, and a vehicle diagnostic method will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 차량 진단 장치의 제어 블록도이다.1 is a control block diagram of a vehicle diagnostic apparatus according to an embodiment.
도 1을 참조하면, 차량 진단 장치(100)는 차량에 고장 코드 요청 메시지를 송신하거나 차량으로부터 고장 코드를 수신하는 통신부(110), 차량 진단 장치(100)의 전반적인 동작을 제어하는 제어부(120) 및 사용자에게 차량 진단에 관련된 각종 정보를 제공하는 웨어러블 기기(130)를 포함한다.1, the vehicle
통신부(110)는 차량과 통신할 수 있는 통신 모듈을 포함한다. 통신 모듈은 무선 통신 모듈일 수도 있고, 유선 통신 모듈일 수도 있다. The
통신부(110)가 무선 통신 모듈을 포함하는 경우에는 와이파이(Wi-Fi)와 같은 무선 랜(Wireless LAN), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy) 등의 통신 모듈 중 적어도 하나를 포함할 수 있다.When the
통신부(110)가 유선 통신 모듈을 포함하는 경우에는 차량과 연결되기 위한 연결 포트, 케이블 또는 커넥터를 포함할 수 있다.When the
통신부(110)는 무선 통신 모듈과 유선 통신 모듈을 모두 포함하는 것도 가능하다.The
또한, 통신부(110)는 차량의 고장 진단을 통합적으로 관리하는 외부의 서버와 통신하기 위한 무선 통신 모듈을 더 포함하는 것도 가능하다. 이러한 무선 통신 모듈은 3세대(3G) 통신 방식, 엘티이(Long Term Evolution: LTE), 와이브로 에볼루션(Wireless Broadband Evolution) 등의 4세대(4G) 통신 방식 또는 5세대(5G) 통신 방식을 채용할 수 있다. In addition, the
또는, 차량과의 통신을 지원하는 무선 통신 모듈을 이용하여 외부의 서버와 통신하는 것도 가능하다. Alternatively, it is possible to communicate with an external server using a wireless communication module that supports communication with a vehicle.
제어부(120)는 차량과의 데이터 송수신을 제어하고, 웨어러블 기기(130)로부터 입력되는 정보 또는 웨어러블 기기(130)를 통해 사용자에게 제공할 정보를 처리 및 제어할 수 있다. The
구체적으로, 제어부(120)는 통신부(110)를 통해 차량에 고장 코드 요청 메시지를 송신할 수 있고, 차량으로부터 고장 코드가 수신되면 수신된 고장 코드에 기초하여 웨어러블 기기(130)를 제어하기 위한 제어 신호를 생성할 수 있다. Specifically, the
또한, 제어부(120)는 웨어러블 기기(130)를 통해 수신되는 영상 또는 음성을 분석하여 사용자가 입력한 제어 명령을 판단할 수 있다. 또는, 수신된 영상 또는 음성의 분석을 위해 외부의 서버로 전달하는 것도 가능하다. In addition, the
제어부(120)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램 및 상기 프로그램을 실행하기 위해 필요한 데이터를 저장하는 메모리와, 저장된 프로그램을 실행하는 프로세서를 포함할 수 있다. The
한편, 제어부(120)는 통신부(110)와 함께 하나의 물리적인 모듈, 즉 제어 모듈(150)을 구성할 수 있다. 이 경우, 통신부(110)는 차량이나 외부의 서버 뿐만 아니라 웨어러블 기기(130)의 통신을 위한 통신 모듈을 더 포함하거나, 전술한 통신 모듈 중 하나를 이용하여 웨어러블 기기(130)와 통신할 수 있다. 웨어러블 기기(130)와 제어 모듈(150)이 무선으로 연결되는 경우에는 근거리 무선 통신 모듈 중 하나를 사용할 수 있고, 유선으로 연결되는 경우에는 케이블을 통해 연결될 수 있다. Meanwhile, the
또는, 제어부(120)와 통신부(110)가 별도의 물리적인 모듈을 구성하지 않고, 웨어러블 기기(130)에 통합되는 것도 가능하다. 즉, 이 경우에는 웨어러블 기기(130)가 직접 차량 및 외부의 서버와 통신하여 데이터를 송수신할 수 있고, 웨어러블 기기(130)가 촬영한 영상이나 웨어러블 기기(130)를 통해 입력된 음성 등을 직접 분석할 수 있다. 이에 관한 구체적인 설명은 후술하도록 한다. Alternatively, the
웨어러블 기기(130)는 사용자가 휴대하여 착용할 수 있는 모바일 전자기기일 수 있다. 예를 들어, 웨어러블 기기(130)는 사용자의 눈에 착용하는 글래스 형태, 머리에 착용하는 헤드셋 형태 또는 손목에 착용하는 워치 형태일 수 있으나, 반드시 웨어러블 기기(130)의 형태가 이에 한정되는 것은 아니며, 당해 실시예에서 설명하는 기능을 수행할 수 있는 형태이면 웨어러블 기기(130)의 착용 부위에 대해서는 제한을 두지 않는다.The
웨어러블 기기(130)는 고장 진단 및 수리의 대상인 차량의 영상을 촬영할 수 있고, 촬영된 차량의 영상을 제어부(120)에 전송할 수 있다. 또한, 제어부(120)로부터 전송된 제어 신호에 따라 사용자에게 시각적인 정보를 제공함으로써 차량의 고장 진단 및 그에 따른 수리를 가이드할 수 있다. 이하, 웨어러블 기기(130)의 동작과 구성에 관하여 구체적으로 설명한다. The
도 2는 일 실시예에 따른 웨어러블 기기의 외관도이고, 도 3은 일 실시예에 따른 웨어러블 기기의 제어 블록도이다.FIG. 2 is an external view of a wearable device according to an embodiment, and FIG. 3 is a control block diagram of a wearable device according to an embodiment.
후술하는 실시예에서는 웨어러블 기기(130)가 글래스 형태로 구현되는 경우를 예로 들어 설명하기로 한다.In the following embodiments, the case where the
도 2 및 도 3을 함께 참조하면, 웨어러블 기기(130)는 사용자에게 시각적인 정보를 제공하는 디스플레이부(131), 사용자의 시선에 대응되는 영상을 촬영하는 촬영부(132), 제어 모듈(150)과 통신하여 데이터를 송수신하는 통신부(133) 및 웨어러블 기기(130)의 전반적인 동작을 제어하는 제어부(134)를 포함한다.2 and 3, the
디스플레이부(131)는 사용자에게 증강 현실 이미지를 제공한다. 증강 현실(Augmented Reality)은 현실의 배경에 가상의 이미지를 융합하여 제공하는 기술로서, 디스플레이부(131)는 차량의 엔진룸이나 하부 등 고장 진단 또는 수리가 필요한 영역을 바라보는 사용자에게 사용자가 바라보는 영역과 관련된 정보를 가상의 이미지로 제공한다. 여기서, 사용자는 웨어러블 기기(130)의 착용자를 의미하며, 일 예로, 사용자는 웨어러블 기기(130)를 착용하고 차량을 정비하는 정비사일 수 있다. 후술하는 실시예에서는 구체적인 설명을 위해 사용자를 차량의 정비사로 한정하여 설명하기로 한다.The
예를 들어, 디스플레이부(131)는 영상 정보를 포함하는 빔을 출력하는 프로젝터와 프로젝터로부터 출력된 빔을 반사하여 사용자의 동공에 입사시키는 프리즘을 포함할 수 있다. 동공에 입사된 빔은 망막(retina)에 직접적으로 맺히게 되고, 망막에 맺힌 상은 시신경을 통해 뇌에 전달될 수 있다. For example, the
다른 예로, 디스플레이부(131)는 빔을 출력하는 프로젝터와 렌즈(136)에 내장된 필름을 포함할 수 있다. 프로젝터에서 출력되는 영상은 렌즈(136)에 내장된 필름에 투사된다.As another example, the
이 외에도 증강 현실 이미지를 제공하는 다양한 기술이 적용될 수 있으며, 적용되는 기술에 따라 디스플레이부(131)의 구성도 달라질 수 있음은 물론이다.In addition, various techniques for providing an augmented reality image may be applied, and the configuration of the
촬영부(132)는 렌즈(136) 등 웨어러블 기기(130)의 각종 부품을 지지하고 사용자가 웨어러블 기기(130)를 착용 가능하게 하는 지지부(137)에 장착될 수 있다. 사용자의 시선에 대응되는 영역을 촬영할 수 있도록 전방을 향하여 장착될 수 있는바, 일 예로, 사용자의 시야를 가리지 않는 범위에서 렌즈(136)의 상부에 장착될 수도 있고, 렌즈(136)의 측면에 장착될 수도 있다. 전방 영역을 촬영할 수만 있으면 되고 촬영부(132)의 장착 위치에 대해서는 제한을 두지 않는다.The photographing
촬영부(132)는 CCD 카메라, CMOS 카메라 등 실사 영상을 촬영할 수 있는 카메라를 포함할 수 있다. 촬영부(132)는 동영상을 촬영하거나, 정지 영상을 주기적으로 촬영할 수 있다. The photographing
통신부(133)는 촬영부(132)가 촬영한 영상을 제어 모듈(150)에 송신하고, 제어 모듈(150)로부터 가상의 이미지 신호 또는 제어 신호를 수신할 수 있다.The
제어부(134)는 촬영부(132)와 디스플레이부(131)를 제어하여 전방 영상의 촬영과 증강 현실 이미지의 제공을 제어할 수 있다. The
도 4는 웨어러블 기기가 촬영한 영상이 제어 모듈로 전달되는 과정을 나타낸 도면이다.4 is a diagram illustrating a process in which an image captured by a wearable device is transmitted to a control module.
도 4를 참조하면, 사용자가 웨어러블 기기(130)를 착용하고 차량의 보닛(bonnet)(20)을 개방하여 엔진룸(10)을 응시하면, 웨어러블 기기(130)의 촬영부(132)가 엔진룸(10)을 촬영한다. 촬영된 엔진룸 영상(IM)은 통신부(133)를 통해 제어 모듈(150)로 전송된다. 4, when the wearer wears the
후술하는 실시예에서는 구체적인 설명을 위해 엔진룸(10)을 대상으로 하여 설명하나, 발명의 실시예가 반드시 엔진룸(10)의 정비에만 적용되는 것은 아닌바, 차량의 하부 등 정비 대상이 되는 부분이면 엔진룸(10)이 아니더라도 발명의 실시예가 적용될 수 있다. In the following embodiments, the
제어 모듈(150)의 제어부(120)는 엔진룸 영상(IM)을 처리하여 엔진룸(10)에 위치하는 각종 부품들의 위치를 확인할 수 있다. 이를 위해 제어부(120)는 사물 인식 알고리즘을 적용하여 엔진룸 영상(IM)에 포함된 부품을 인식할 수 있다. The
예를 들어, 제어부(120)는 엔진룸에 포함되는 부품들을 시각적으로 구분할 수 있는 특징들을 미리 저장하고, 사물 인식 알고리즘을 적용하여 엔진룸 영상(IM)으로부터 각각의 부품을 인식할 수 있다. For example, the
구체적인 예로서, 제어부(120)는 엔진룸 영상(IM)을 구성하는 픽셀값에 기초하여 일정 윤곽을 갖는 객체를 검출하고, 검출된 객체가 미리 저장된 특정 부품의 특징을 가지면 검출된 객체를 해당 부품으로 인식할 수 있다.As a specific example, the
엔진룸에 포함되는 부품의 종류 별로 그 특징이 저장되어 데이터베이스화 될 수 있다. 부품의 특징이 저장된 데이터베이스는 엔진룸 뿐만 아니라 차량의 하부에 대해서도 마련될 수 있고, 차량의 종류 별로 마련될 수도 있다. 따라서, 사용자가 현재 정비 대상인 차량의 종류와, 엔진룸 또는 차량의 하부를 선택하면, 제어부(120)는 그 선택에 대응되는 데이터베이스를 이용하여 부품을 인식할 수 있다. 데이터베이스는 제어부(120) 또는 후술하는 저장부(140)에 저장될 수 있다. The characteristics of each component included in the engine room can be stored and stored in a database. The database in which the characteristics of the parts are stored may be provided not only in the engine room but also in the lower portion of the vehicle, or may be provided for each kind of vehicle. Therefore, when the user selects the type of the current vehicle to be serviced, the engine room, or the lower portion of the vehicle, the
다른 예로서, 제어부(120)는 엔진룸 영상(IM)에서 기준이 되는 하나의 객체를 인식하고, 인식된 객체를 기준으로 한 상대적인 위치에 기초하여 다른 부품들의 위치를 확인할 수 있다. 이를 위해, 다른 부품들의 상대적인 위치를 2차원 또는 3차원 좌표의 형태로 미리 저장할 수 있다. 부품들 간의 상대적인 위치나 배열은 차량의 종류에 따라 달라질 수 있으므로, 부품들 간의 상대적인 위치는 차량의 종류 별로 데이터베이스화 될 수 있다.As another example, the
예를 들어, 제어부(120)는 사물 인식 알고리즘을 적용하여 엔진룸 영상(IM)에서 조인트 박스를 인식하고, 미리 저장된 상대적인 위치에 기초하여 조인트 박스를 중심으로 한 다른 부품들의 위치를 인식할 수 있다. For example, the
도 5는 엔진룸에 포함된 부품들에 관한 정보를 증강 현실 이미지로 제공하는 예시를 나타낸 도면이다.5 is a diagram showing an example of providing information on parts included in the engine room as an augmented reality image.
제어부(120)가 엔진룸 영상(IM)에 나타난 부품들의 위치를 확인하면, 확인된 부품들의 위치 정보는 차량의 고장 진단, 수리 등을 수행함에 있어 다양하게 사용될 수 있다. When the
예를 들어, 제어부(120)가 인식한 부품들의 위치 정보는 웨어러블 기기(130)로 전송될 수 있고, 웨어러블 기기(130)는 도 5에 도시된 바와 같이, 엔진룸(10)에 포함된 부품들에 관한 정보를 증강 현실 이미지(AR)로 출력할 수 있다. 웨어러블 기기(130)가 출력하는 증강 현실 이미지는 2차원 이미지일 수도 있고, 3차원 이미지일 수도 있다. For example, the position information of the parts recognized by the
구체적으로, 디스플레이부(131)는 전송된 부품들의 위치 정보에 기초하여, 현실 세계의 엔진룸(10)에서 특정 부품에 해당하는 위치에 특정 부품의 명칭을 겹쳐서 디스플레이할 수 있다. Specifically, the
웨어러블 기기(130)를 착용한 사용자는 출력된 증강 현실 이미지에 기초하여 엔진룸(10)내의 부품들이 각각 어떤 부품들인지 파악할 수 있다.The user wearing the
한편, 웨어러블 기기(130)를 통해 사용자에게 제공되는 정보는 디스플레이부(131)를 통해 증강 현실 이미지(AR)로 출력될 수 있고, 사용자의 제어 명령은 제스쳐, 모션 또는 음성 등으로 입력될 수 있다.Meanwhile, the information provided to the user through the
도 6은 웨어러블 기기가 마이크를 더 포함하는 경우의 차량 진단 장치의 제어 블록도이고, 도 7은 마이크를 더 포함하는 웨어러블 기기의 외관도이다.FIG. 6 is a control block diagram of a vehicle diagnostic apparatus in a case where the wearable apparatus further includes a microphone, and FIG. 7 is an external view of a wearable apparatus that further includes a microphone.
도 6 및 도 7을 함께 참조하면, 웨어러블 기기(130)는 사용자의 음성을 입력받는 마이크(135)를 더 포함할 수 있다. 마이크(135)는 사용자의 발화(utterance)된 음성이 입력되면 이를 전기적 신호로 변환하여 통신부(133)를 통해 제어 모듈(150)로 전송할 수 있다. 또한, 마이크(135)는 아날로그-디지털 컨버터를 포함하여 아날로그 음성 신호를 디지털 음성 신호로 변환하여 제어 모듈(150)에 전송하는 것도 가능하다. Referring to FIGS. 6 and 7 together, the
제어 모듈(150)의 제어부(120)는 전술한 바와 같이 웨어러블 기기(130)로부터 입력된 영상을 처리하여 필요한 정보를 획득하는 영상 처리부(121) 및 웨어러블 기기(130)로부터 입력된 음성을 인식하는 음성 인식 모듈(122)을 포함할 수 있다. The
영상 처리부(121)의 동작은 앞서 도 4를 참조하여 설명한 바와 같으므로, 여기서는 설명을 생략한다.Since the operation of the
음성 인식 모듈(122)은 입력된 음성 신호에 대해 전처리를 수행하는 전처리부, 전처리된 음성 신호를 인식하는 인식 엔진 및 음성 인식에 사용되는 모델을 저장하는 메모리를 포함할 수 있다. The
전처리부는 음성 신호로부터 노이즈 신호를 제거하고, 특징 벡터를 추출할 수 있다. 일 예로, 전처리부 입력된 음성 신호의 초기 구간을 실제 음성 구간이 아닌 노이즈 구간으로 보고, 노이즈 구간에 포함되는 신호를 노이즈 신호로 추출할 수 있다. 다만, 상기 방식은 노이즈 신호 추출의 일 예시에 불과하고, 다른 방식에 의해 노이즈가 추출될 수 있음은 물론이다.The preprocessor can remove the noise signal from the speech signal and extract the feature vector. For example, the initial section of the speech signal input to the preprocessing section may be regarded as a noise section rather than an actual speech section, and a signal included in the noise section may be extracted as a noise signal. However, the above method is merely an example of noise signal extraction, and it goes without saying that noise can be extracted by other methods.
전처리부는 음성 신호로부터 특징을 추출할 수 있는바, 여기서 추출되는 특징은 벡터 형태일 수 있다. 예를 들어, 전처리부는 노이즈 신호가 제거된 음성 신호에 켑스트럼(Cepstrum), 선형 예측 코딩(Linear Predictive Coefficient: LPC), 멜프리퀀시켑스트럼(Mel Frequency Cepstral Coefficient: MFCC) 또는 필터 뱅크 에너지(Filter Bank Energy) 등의 특징 벡터 추출 기술을 적용하여 특징 벡터를 추출할 수 있다. The preprocessor can extract the feature from the speech signal, and the feature extracted here may be in the form of a vector. For example, the preprocessor may add a cepstrum, a linear predictive coefficient (LPC), a mel-frequency cepstral coefficient (MFCC), or a filter bank energy to the speech signal from which the noise signal has been removed Filter Bank Energy), and so on.
인식 엔진은 추출된 특징 벡터와 훈련된 기준 패턴과의 비교를 통하여 음성 신호를 인식하는 음성 인식 엔진을 포함할 수 있다. 예를 들어, 인식부에서는 음성의 신호적인 특성을 모델링하여 비교하는 음향 모델(Acoustic Model)과 인식 어휘에 해당하는 단어나 음절 등의 언어적인 순서 관계를 모델링하는 언어 모델(Language Model)을 사용할 수 있다. 특징 벡터의 비교에 사용되는 기준 패턴이나 모델은 메모리에 저장될 수 있다. The recognition engine may include a speech recognition engine that recognizes the speech signal through comparison of the extracted feature vector with the trained reference pattern. For example, the recognition unit can use an acoustic model that models and compares the signal characteristics of speech and a language model that models the linguistic order relation of words or syllables corresponding to the recognition vocabulary. have. The reference pattern or model used to compare feature vectors can be stored in memory.
음향 모델은 다시 인식 대상을 특징 벡터 모델로 설정하고 이를 음성 데이터의 특징 벡터와 비교하는 직접 비교 방법과 인식 대상의 특징 벡터를 통계적으로 처리하여 이용하는 통계 방법을 나뉠 수 있다. The acoustic model can be divided into a direct comparison method of setting a recognition object as a feature vector model and comparing it with a feature vector of voice data, and a statistical method of using the feature vector of the recognition object statistically.
직접 비교 방법은 인식 대상이 되는 단어, 음소 등의 단위를 특징 벡터 모델로 설정하고 입력 음성이 이와 얼마나 유사한지를 비교하는 방법으로서, 대표적으로 벡터 양자화(Vector Quantization) 방법이 있다. The direct comparison method is a method of setting a unit of a recognition target word, a phoneme, etc. as a feature vector model and comparing how similar the input speech is, and a vector quantization method is typically used.
통계적 모델 방법은 인식 대상에 대한 단위를 복수의 노드(node)로 구성되는 상태 열(State Sequence)로 구성하고 상태 열 간의 관계를 이용하는 방법이다. 상태 열 간의 관계를 이용하는 방법은 다시 동적 시간 와핑(Dynamic Time Warping: DTW), 히든 마르코프 모델(Hidden Markov Model: HMM), 신경 회로망을 이용한 방식 등이 있다. The statistical modeling method is a method of constructing a unit for a recognition target as a state sequence composed of a plurality of nodes and using a relation between state strings. The method of using the relation between state columns is again Dynamic Time Warping (DTW), Hidden Markov Model (HMM), and a method using a neural network.
한편, 단어나 음절 등의 언어적인 순서 관계를 모델링하는 언어 모델은 언어를 구성하는 단위들 간의 순서 관계를 음성 인식에서 얻어진 단위들에 적용함으로써 음향적인 모호성을 줄이고 인식의 오류를 줄일 수 있다. 언어 모델에는 통계적 언어 모델과 유한 상태 네트워크(Finite State Automata: FSA)에 기반한 모델이 있고, 통계적 언어 모델에는 Unigram, Bigram, Trigram 등 단어의 연쇄 확률이 이용된다. On the other hand, the language model modeling the linguistic order relations of words and syllables can reduce the acoustical ambiguity and reduce the errors of recognition by applying the order relation between the units constituting the language to the units obtained by speech recognition. There are statistical language models and Finite State Automata (FSA) based models for language models, and the chained probabilities of words such as Unigram, Bigram, and Trigram are used for statistical language models.
인식 엔진은 음성을 인식함에 있어 상술한 방식 중 어느 방식을 사용해도 무방하다. The recognition engine can use any of the above-mentioned methods in recognizing the voice.
한편, 음성 인식 모듈(122)이 제어 모듈(150)에 포함되지 않고, 외부의 서버에 포함되는 것도 가능하다. 이 경우, 제어 모듈(150)이 통신부(110)를 통해 음성 신호를 외부의 서버로 전송하면, 외부의 서버에서 음성을 인식하고, 음성 인식 결과를 다시 제어 모듈(150)에 전송할 수 있다. It is also possible that the
도 8 및 도 9는 웨어러블 기기를 통해 사용자에게 출력되는 화면의 예시를 나타낸 도면이다.8 and 9 are views showing examples of screens output to a user through a wearable device.
도 8에 도시된 바와 같은 기본 화면 또는 초기 화면(S1)이 디스플레이부(131)를 통해 출력될 수 있다. 초기 화면(S1)에는 사용자로부터 제어 명령을 입력 받기 위한 메뉴 아이콘들이 표시될 수 있는바, A basic screen or an initial screen S 1 as shown in FIG. 8 may be output through the
예를 들어, 초기 화면(S1)에는 차량의 고장 진단에 관한 자동 진단 모드의 선택을 가이드하는 메뉴 아이콘(S11) 및 기능별 진단 모드의 선택을 가이드하는 메뉴 아이콘(S12)이 표시될 수 있고, 이와 함께 서비스 정보의 선택을 가이드하는 메뉴 아이콘(S13)도 표시될 수 있다. For example, on the initial screen S 1 , a menu icon S 11 for guiding the selection of the automatic diagnosis mode relating to the diagnosis of the vehicle and a
또한, 차종 선택을 가이드하는 메뉴 아이콘(S14), 로그아웃을 가이드하는 메뉴 아이콘(S15), 인터넷 업데이트를 가이드하는 메뉴 아이콘(S16), 환경 설정을 가이드하는 메뉴 아이콘(S17), 화면 오프를 가이드하는 메뉴 아이콘(S18), 프로그램 종료를 가이드하는 메뉴 아이콘(S19) 및 음성 인식 실행을 가이드하는 메뉴 아이콘(S20)이 표시될 수 있다.Further, the menu icons (S 14) to guide the vehicle selected, the menu icons (S 15) to guide the log-out, the menu icons (S 16), the menu icons to guide the configuration (S 17) for guiding the Internet update, menu icons (S 18) for guiding the off-screen, menu icons (S 19) for guiding the end of program icons and menu (S 20) to guide the speech recognition is executed may be displayed.
메뉴 아이콘은 해당 메뉴를 나타내는 텍스트 또는 이미지 형태로 표시될 수 있다. The menu icon may be displayed in the form of text or images representing the menu.
메뉴 아이콘들은 음성 인식 또는 제스처 인식에 의해 선택될 수 있는바, 초기 화면(S1)에 표시되는 메뉴 아이콘들 중 음성 인식에 의해 선택 가능한 메뉴 아이콘(S11~S20)들은 특정 색으로 표시함으로써, 사용자에게 해당 메뉴 아이콘이 음성 인식에 의해 선택 가능함을 알려줄 수 있다.The menu icons can be selected by voice recognition or gesture recognition. The menu icons S 11 to S 20 selectable by voice recognition among the menu icons displayed on the initial screen S 1 are displayed in a specific color , The user can be informed that the menu icon can be selected by voice recognition.
예를 들어, 웨어러블 기기(130)를 착용한 사용자가 "Auto Mode"를 발화하면, 마이크(135)를 통해 입력된 음성 신호가 제어 모듈(150)로 전송되고, 제어 모듈(150)은 발화된 "Auto Mode" 인식하여 자동 진단 모드를 실행할 수 있다. For example, when the user wearing the
자동 진단 모드가 실행되면, 순차적 고장 진단이 자동으로 수행된다. 디스플레이부(131)는 도 9에 도시된 바와 같이 고장 진단 대상 시스템을 선택할 수 있는 시스템 선택 화면(S2)을 출력할 수 있고, 사용자는 표시된 시스템 중 원하는 시스템을 선택할 수 있다. When the automatic diagnosis mode is executed, sequential troubleshooting is automatically performed.
시스템의 선택 역시 음성 인식을 통해 이루어질 수 있는바, 복잡한 시스템의 명칭을 발화하지 않아도 원하는 시스템을 선택할 수 있도록, 각각의 시스템마다 번호를 할당할 수 있다. 시스템과 번호의 할당 정보는 제어 모듈(150)에 저장될 수 있다. 시스템 선택 화면(S2)에는 시스템 명칭 리스트(S22)와 각각의 시스템 명칭에 할당된 번호 리스트(S21)를 함께 표시할 수 있다.The selection of the system can also be done through voice recognition, so that a number can be assigned to each system so that the system can be selected without having to ignite the name of the complex system. System and number assignment information may be stored in the
예를 들어, 사용자가 엔진을 선택하고자 하는 경우에는, 엔진에 할당된 번호 1을 발화할 수 있고, 사용자의 음성이 마이크(135)를 통해 입력되어 제어부(120)에 전송되면, 제어부(120)는 번호 1을 인식하고 그에 할당된 엔진에 대한 고장 진단을 수행한다. For example, when the user desires to select the engine, the user can speak the
한편, 초기 화면(S1)이나 시스템 선택 화면(S2)에 표시된 메뉴 아이콘들 또는 리스트들을 제스쳐 인식을 통해 선택하는 것도 가능하다. 디스플레이부(131)를 통해 초기 화면(S1)이나 시스템 선택 화면(S2)이 출력되는 동안에도 촬영부(132)는 전방 영상을 촬영 중이고, 촬영된 영상은 제어 모듈(150)로 전송된다. It is also possible to select menu icons or lists displayed on the initial screen S 1 or the system selection screen S 2 through gesture recognition. The
초기 화면(S1)이나 시스템 선택 화면(S2) 역시 증강 현실 이미지로 출력될 수 있는바, 사용자는 현실 세계와 융합되어 표시된 초기 화면(S1) 또는 시스템 선택 화면(S2) 중에서 선택하고자 하는 메뉴 아이콘 또는 리스트에 대응되는 위치를 손으로 가리킬 수 있다.The initial screen S 1 or the system selection screen S 2 can also be output as an augmented reality image so that the user can select an initial screen S 1 or a system selection screen S 2 fused with the real world The user can manually point the position corresponding to the menu icon or the list.
제어부(120)는 웨어러블 기기(130)로부터 전송된 영상에서 사용자의 손을 인식하고, 사용자의 손에 대응되는 위치의 메뉴 아이콘 또는 리스트를 판단할 수 있다. 그리고, 판단된 메뉴 아이콘 또는 리스트에 대응되는 동작을 실행한다. 제스처 인식에 관해서는 뒤에서 더 자세히 설명하도록 한다.The
전술한 바와 같이, 웨어러블 기기(130)를 착용한 사용자가 별도의 복잡한 조작 없이 음성을 발화하거나 제스처를 취하는 것만으로 제어 명령을 입력할 수 있게 되면, 사용자의 편의성 및 작업에 대한 집중도가 향상되어 결과적으로는 작업 결과에 대한 신뢰도를 향상시킬 수 있다.As described above, when the user wearing the
도 10 내지 도 12는 사용자가 고장 진단 대상을 선택하는 다양한 예시들을 나타낸 도면이다.10 to 12 are diagrams showing various examples in which the user selects a fault diagnosis object.
도 10의 예시에 도시된 바와 같이, 웨어러블 기기(130)를 착용한 사용자가 엔진룸(10)을 바라본 상태에서 고장 진단을 수행하고자 하는 부품을 중심으로 원을 그리는 제스처를 취할 수 있다. 당해 실시예에서 제스처라 함은 정지 동작뿐만 아니라 모션까지 모두 포함하는 것으로 한다. As shown in the example of FIG. 10, a user who wears the
촬영부(132)는 엔진룸 영상(IM)을 촬영하여 제어 모듈(150)에 전송할 수 있다. 여기서, 엔진룸 영상(IM)은 동영상일 수 있다. 다만, 상기 제스처는 발명의 실시예에 적용될 수 있는 예시에 불과하고, 그 외에 다른 제스처도 영상으로부터 인식이 가능하고, 미리 저장된 것이면 모두 고장 진단 대상 부품을 선택하기 위해 사용되는 제스처가 될 수 있다. The photographing
제어 모듈(150)의 제어부(120)는 전송된 엔진룸 영상(IM)에서 사용자의 제스처를 인식할 수 있다. 먼저, 사물 인식 알고리즘을 적용하여 사용자의 손을 인식할 수 있고, 사용자의 손이 취하는 제스처가 미리 저장된 특징 또는 미리 저장된 패턴을 갖는 제스처이면, 사용자가 해당 제스처를 취한 영역에 위치하는 부품을 판단할 수 있고, 해당 부품을 고장 진단 대상 부품으로 선택할 수 있다. The
예를 들어, 사용자가 조인트 박스를 중심으로 원을 그리는 제스처를 취하면, 촬영부(132)가 촬영한 엔진룸 영상(IM)에서 제어부(120)가 해당 제스처를 인식하고, 제스처를 취한 영역에 위치하는 조인트 박스를 고장 진단 대상 부품으로 선택할 수 있다.For example, when the user takes a gesture that draws a circle around the joint box, the
부품이 선택되면, 제어부(120)는 통신부(110)를 통해 차량에 고장 코드 요청 메시지를 전송할 수 있다.When the component is selected, the
또는, 도 11의 예시에 도시된 바와 같이, 웨어러블 기기(130)를 착용한 사용자가 엔진룸(10)을 바라본 상태에서 고장 진단을 수행하고자 하는 부품을 응시할 수 있다. Alternatively, as shown in the example of FIG. 11, a user who wears the
촬영부(132)는 전방 영상을 촬영하는 카메라뿐만 아니라, 사용자의 동공을 촬영하기 위해 후방 영상을 촬영하는 카메라를 더 포함할 수 있다. 촬영된 전방 영상 및 후방 영상은 제어 모듈(150)에 전송된다. 여기서, 전방 영상은 엔진룸이 촬영된 엔진룸 영상(IM)이 되고, 후방 영상은 사용자의 동공이 촬영된 동공 영상이 된다. The photographing
제어부(120)는 후방 영상에서 사용자의 동공을 인식하고, 전방 영상과 후방 영상의 위치 관계에 기초하여 사용자의 동공이 응시하는 전방 영상 내의 위치를 판단할 수 있다. 또한, 제어부(120)는 사용자의 동공이 응시하는 위치의 부품을 판단할 수 있고, 해당 부품을 고장 진단 대상 부품으로 선택할 수 있다.The
예를 들어, 사용자가 조인트 박스를 응시하면, 제어부(120)는 촬영부(132)가 촬영한 후방 영상에서 사용자의 동공을 인식하고, 전방 영상과 후방 영상 사이의 위치 관계에 기초하여 사용자의 동공이 응시하는 전방 영상 내의 위치에 조인트 박스가 위치함을 판단할 수 있다. For example, when the user gazes at the joint box, the
마찬가지로, 부품이 선택되면, 제어부(120)는 통신부(110)를 통해 차량에 고장 코드 요청 메시지를 전송할 수 있다.Similarly, when the component is selected, the
또는, 도 12의 예시에 도시된 바와 같이, 웨어러블 기기(130)를 착용한 사용자가 고장 진단을 수행하고자 하는 부품의 명칭을 발화할 수 있다. 발화된 음성은 마이크(135)를 통해 입력되고, 제어부(120)는 음성 신호를 인식하여 고장 진단 대상 부품을 판단할 수 있다. Alternatively, as shown in the example of FIG. 12, the user wearing the
예를 들어, 사용자가 "조인트 박스"를 발화하면, 마이크(135)는 발화된 음성에 대응되는 음성 신호를 제어 모듈(150)로 전송하고, 제어부(120)는 음성 신호에 포함된 명령어를 "조인트 박스"로 인식할 수 있다. For example, when the user fires a "joint box", the
전술한 바와 같이, 사용자가 엔진룸(10)을 바라보면서 고장 진단 대상 부품을 선택함에 있어서, 상기 도 10 내지 도 12의 예시에 도시된 바와 같이, 디스플레이부(131)가 엔진룸(10)에 포함된 부품들에 관한 정보를 증강 현실 이미지(AR)로 출력할 수 있다. 10 to 12, when the user selects the component to be diagnosed by looking at the
앞서 도 5에서 설명한 바와 같이, 디스플레이부(131)는 현실 세계의 엔진룸(10)에서 특정 부품에 해당하는 위치에 해당 부품의 명칭을 겹쳐서 디스플레이할 수 있다.As described above with reference to FIG. 5, the
엔진룸(10)에 포함된 부품들에 관한 정보를 증강 현실 이미지(AR)로 출력되면, 사용자는 각 부품들의 위치를 정확히 파악할 수 있고, 고장 진단 부품을 정확하게 선택할 수 있다. When information on the parts included in the
다만, 발명의 실시예가 이에 한정되는 것은 아닌바, 증강 현실 이미지(AR)를 출력하지 않은 상태에서 고장 진단 대상 부품에 대한 선택을 입력 받는 것도 가능함은 물론이다. However, it is needless to say that the embodiment of the present invention is not limited to this, and it is also possible to receive a selection of a component to be diagnosed as a failure diagnosis object without outputting the AR image.
도 13은 엔진룸에 포함되는 주요 시스템을 DB화하여 저장한 저장부를 나타낸 도면이다.13 is a view showing a storage unit in which a main system included in the engine room is stored as a DB.
도 13을 참조하면, 저장부(140)는 엔진룸(10)에 포함되는 단품들을 주요한 4개의 시스템으로 그룹핑하여 저장할 수 있고, 저장부(140)는 제어 모듈(150)에 포함될 수 있다.Referring to FIG. 13, the
예를 들어, 엔진룸(10)에 포함되는 부품들을 High Voltage Charging System, High Voltage Distributing System, High Voltage Control System 및 Motor/Reduction Gear System 4개의 시스템 그룹으로 나누고, 각각의 시스템마다 그에 포함되는 단품들을 DB화 하여 저장할 수 있다. For example, the parts included in the
또한, 차량의 하부에 포함되는 부품들에 대해서도 주요 시스템들로 그룹핑하여 DB화하여 저장할 수 있음은 물론이다.In addition, it is needless to say that the components included in the lower portion of the vehicle can also be grouped into major systems and stored as a DB.
전술한 예시에서는 사용자가 제스처, 음성, 시선 등을 이용하여 선택한 단품들을 고장 진단 대상 부품으로 판단하였다. 본 발명의 다른 예시에서는, 사용자가 선택한 단품들이 포함된 시스템을 고장 진단 대상으로 판단하는 것도 가능하다. In the above-described example, the user judged the selected single parts using the gesture, voice, gaze, or the like as the failure diagnosis target parts. In another example of the present invention, it is also possible to determine a system including individual items selected by the user as a failure diagnosis target.
예를 들어, 전술한 예시에서와 같이 사용자가 조인트 박스를 선택한 경우에, 제어 모듈(150)은 선택된 조인트 박스를 저장부(140) 내에 그룹핑된 시스템 내의 단품들과 비교하여 조인트 박스가 High Voltage Distributing System에 포함됨을 판단할 수 있다. 제어 모듈(150)은 차량에 High Voltage Distributing System에 대한 고장 코드 요청 메시지를 전송할 수 있다. For example, when the user selects a joint box, as in the example described above, the
한편, 고장 진단 대상 부품을 선택함에 있어, 전술한 제스처 인식, 시선 인식 및 음성 인식을 조합하여 그 정확도를 향상시키는 것도 가능하다. 이하, 도면을 참조하여 설명한다.On the other hand, in selecting a component to be diagnosed as a failure, it is also possible to improve the accuracy by combining the aforementioned gesture recognition, visual recognition, and speech recognition. Hereinafter, a description will be given with reference to the drawings.
도 14는 시선 인식과 제스처 인식을 조합하여 고장 진단 대상 부품을 선택하는 예시를 나타낸 도면이고, 도 15는 시선 인식과 음성 인식을 조합하여 고장 진단 대상 부품을 선택하는 예시를 나타낸 도면이다. Fig. 14 is a diagram showing an example of selecting a component to be diagnosed by combining sight line recognition and gesture recognition, and Fig. 15 is a view showing an example of selecting a component to be diagnosed by a combination of visual recognition and speech recognition.
도 14를 참조하면, 먼저 시선 인식을 통해 엔진룸(10)에 포함된 복수의 시스템 중 하나를 판단하고, 제스처 인식을 통해 해당 시스템에 포함된 단품 중 하나를 판단할 수 있다. Referring to FIG. 14, one of a plurality of systems included in the
구체적으로, 사용자가 엔진룸(10) 내의 특정 시스템, 예를 들어 High Voltage Distributing System을 응시하면, 제어부(120)는 촬영부(132)가 촬영한 전방 영상 및 후방 영상을 비교하여 사용자의 시선이 High Voltage Distributing System을 응시하고 있음을 판단할 수 있다.Specifically, when the user looks at a specific system in the
그리고, 사용자가 High Voltage Distributing System에 포함되는 조인트 박스에 대해 미리 저장된 특정 제스처를 취하면, 제어부(120)는 촬영부(132)가 촬영한 엔진룸 영상으로부터 사용자의 제스처를 인식하여 조인트 박스를 고장 진단 대상 부품으로 판단할 수 있다. When the user takes a specific gesture previously stored in the joint box included in the High Voltage Distributing System, the
이 경우, 1차적으로 High Voltage Distributing System을 판단하였고, High Voltage Distributing System 내에 포함되는 조인트 박스를 2차적으로 판단하였기 때문에 판단의 정확도가 향상될 수 있다. In this case, since the High Voltage Distributing System is first determined and the joint box included in the High Voltage Distributing System is secondarily determined, the accuracy of the judgment can be improved.
또는, 제스처 인식을 통해 시스템을 판단하고, 시선 인식을 통해 단품을 판단하는 것도 가능하다.Alternatively, it is possible to judge the system through gesture recognition, and to determine a single product through visual recognition.
또는, 시선 인식과 제스처 인식을 통해 모두 시스템을 판단하거나, 모두 단품을 판단하는 것도 가능하다. Alternatively, it is possible to judge the system by both the sight line recognition and the gesture recognition, or to judge a single item.
도 15를 참조하면, 먼저 시선 인식을 통해 엔진룸(10)에 포함된 복수의 시스템 중 하나를 판단하고, 음성 인식을 통해 해당 시스템에 포함된 단품 중 하나를 판단할 수 있다. Referring to FIG. 15, one of the plurality of systems included in the
구체적으로, 사용자가 엔진룸(10) 내의 특정 시스템, 예를 들어 High Voltage Distributing System을 응시하면, 제어부(120)는 촬영부(132)가 촬영한 전방 영상 및 후방 영상을 비교하여 사용자의 시선이 High Voltage Distributing System을 응시하고 있음을 판단할 수 있다.Specifically, when the user looks at a specific system in the
그리고, 사용자가 High Voltage Distributing System에 포함되는 조인트 박스를 발화하면, 제어부(120)는 마이크(135)로부터 전송된 음성 신호로부터 "조인트 박스"를 인식하여 조인트 박스를 고장 진단 대상 부품으로 판단할 수 있다. 이 경우, 제어부(120)는 High Voltage Distributing System에 포함되는 단품들이 저장된 음성 인식 DB만 음성 신호와 비교하면 되기 때문에 음성 인식에 소요되는 시간을 감소시킬 수 있다.Then, when the user fires the joint box included in the High Voltage Distributing System, the
또한, 전술한 예시와 마찬가지로 1차적으로 High Voltage Distributing System을 판단하였고, High Voltage Distributing System 내에 포함되는 조인트 박스를 2차적으로 판단하였기 때문에 판단의 정확도가 향상될 수 있다. Also, as in the above-described example, since the High Voltage Distributing System is primarily determined and the joint box included in the High Voltage Distributing System is secondarily determined, the accuracy of the judgment can be improved.
또는, 제스처 인식을 통해 시스템을 판단하고, 시선 인식을 통해 단품을 판단하는 것도 가능하다.Alternatively, it is possible to judge the system through gesture recognition, and to determine a single product through visual recognition.
또는, 시선 인식과 제스처 인식을 통해 모두 시스템을 판단하거나, 모두 단품을 판단하는 것도 가능하다.Alternatively, it is possible to judge the system by both the sight line recognition and the gesture recognition, or to judge a single item.
한편, 도 14 및 도 15의 예시에서 시선 인식과 제스처 인식 또는 시선 인식과 음성 인식을 통해 단품을 판단한 후에, 해당 단품을 저장부(140)에 DB화되어 저장된 단품들과 비교하고, 저장된 단품이 포함된 시스템을 고장 진단 대상 부품으로 판단하는 것도 가능하다. 14 and FIG. 15, after determining a single product through visual recognition, gesture recognition, visual recognition, and voice recognition, the corresponding single product is compared with the individual products DB stored in the
전술한 예시들 중 하나를 적용하여 사용자가 고장 진단 대상 부품을 선택하면, 제어 모듈(150)은 차량에 해당 부품에 대한 고장 코드 요청 메시지를 송신하고, 이에 대한 응답으로 차량은 해당 부품에 대한 고장 코드를 제어 모듈(150)에 송신한다. When one of the above-mentioned examples is applied and the user selects a component to be diagnosed, the
또는, 제어 모듈(150)은 전체 시스템에 대한 고장 코드를 수신하고, 사용자가 선택한 부품의 고장 코드에 대한 정보만 웨어러블 기기(130)에 전송하는 것도 가능하다. Alternatively, the
도 16은 고장 코드에 대한 정보를 증강 현실 이미지를 통해 제공하는 예시를 나타낸 도면이다.16 is a diagram showing an example of providing information on a failure code through an augmented reality image.
사용자가 선택한 부품에 고장 코드가 발생한 경우, 디스플레이부(131)는 도 16에 도시된 바와 같이, 해당 부품의 테두리에 색을 표시하거나, 해당 부품 전체에 색을 표시하는 등의 방식으로 증강 현실 이미지를 출력하여 고장 코드의 발생을 사용자에게 알려줄 수 있다.When a failure code is generated on a part selected by the user, the
또한, 세부 고장 코드 별로 색상을 다르게 표시하는 것도 가능하다. 예를 들어, 현 발생 고장 코드를 나타낼 때에는 빨간색을 표시하고, 과거 발생 고장 코드를 나타낼 때에는 노랑색을 표시하고, 예정 고장 코드를 나타낼 때에는 주황색을 표시할 수 있다. It is also possible to display different colors for each detailed fault code. For example, a red color may be displayed to indicate a present fault code, a yellow color to indicate a past fault code, and an orange color to indicate a predetermined fault code.
다만, 발명의 실시예가 이에 한정되는 것은 아닌바, 표시된 색상을 깜빡거리게 하는 등 고장 코드가 발생한 부품에 시각적으로 인식 가능한 컨텐츠를 겹쳐서 표시하는 것이면 전술한 예시 외에 다른 방식도 본 발명의 실시예에 포함될 수 있다. However, the embodiment of the present invention is not limited to this, and other methods other than the above-mentioned examples may be included in the embodiment of the present invention as long as visually recognizable contents are displayed on a part where a failure code is generated, .
전술한 바와 같이, 고장 코드 발생에 관한 정보를 실제 부품과 융합된 증강 현실 이미지 형태로 제공하면 사용자는 어느 부품에 어떤 고장 코드가 발생했는지를 직관적으로 용이하게 파악할 수 있게 된다. As described above, when information on the occurrence of a failure code is provided in the form of an augmented reality image fused with an actual part, the user can intuitively and easily grasp which failure code has occurred in which part.
차량 진단 장치(100)는 고장 코드 발생에 관한 정보를 제공하는 것뿐만 아니라, 고장 코드가 발생한 부품에 대한 수리를 가이드하는 것도 가능하다. The vehicle
도 17 내지 도 19는 부품에 대한 수리를 가이드하기 위한 정보를 증강 현실 이미지를 통해 제공하는 예시를 나타낸 도면이다.17 to 19 are views showing an example of providing information for guiding repair of a part through an augmented reality image.
예를 들어, 엔진룸(10)의 브레이크 오일에 고장 코드가 발생하여 오일의 교체가 필요한 경우에, 디스플레이부(131)는 도 17에 도시된 바와 같이 브레이크 오일 리저버(11)에 대응되는 위치에 브레이크 오일 캡을 제거하라는 텍스트와 함께 캡의 제거를 가이드할 수 있는 이미지를 표시할 수 있다. For example, when a failure code is generated in the brake oil of the
사용자는 수리에 필요한 정보를 현실 세계에 겹쳐져서 표시되는 증강 현실 이미지 형태로 제공받음으로써, 정보의 확인과 수리를 동시에 수행할 수 있다. 이로써, 사용자 별 기술 숙련도에 따른 작업 효율의 차이나 작업 결과의 신뢰도 차이를 줄일 수 있다.The user can simultaneously perform confirmation and repair of information by receiving the information necessary for repairing in the form of an augmented reality image superimposed on the real world. As a result, the difference in the work efficiency according to the skill level of each user and the reliability difference of the work result can be reduced.
수리를 가이드하기 위한 정보가 복수의 단계로 구성되는 경우에, 사용자의 명령에 따라 다음 단계로 넘어갈 수 있다. In the case where the information for guiding repair is composed of a plurality of steps, the user can proceed to the next step according to the command.
예를 들어, 도 18에 도시된 바와 같이, 사용자가 손을 오른쪽으로 스와핑하는 제스처를 취하고, 촬영부(132)가 엔진룸 영상을 촬영하여 제어 모듈(150)로 전송하면, 제어 모듈(150)은 엔진룸 영상에 나타난 사용자의 제스처를 인식하고, 그 다음 단계의 정보를 제공하기 위한 제어 신호를 웨어러블 기기(130)에 전송할 수 있다. 이를 위해, 스와핑 제스처가 수리의 다음 단계로 넘어가기 위한 제스처로 맵핑되어 저장될 수 있다. For example, as shown in FIG. 18, when the user takes a gesture to swap his / her hand to the right, and the photographing
다른 예로, 도 19에 도시된 바와 같이, 사용자가 "넥스트"를 발화하면, 마이크(135)가 입력된 음성에 대응되는 음성 신호를 제어 모듈(150)로 전송하고, 제어 모듈(150)은 음성 신호로부터 "NEXT"를 인식하여 그 다음 단계의 정보를 제공하기 위한 제어 신호를 웨어러블 기기(130)에 전송할 수 있다. 이를 위해, "NEXT"가 수리의 다음 단계로 넘어가기 위한 명령어로 맵핑되어 저장될 수 있다. 19, when the user fires "Next", the
전술한 예시 외에 다른 제스처 또는 다른 명령어가 맵핑되어 저장될 수 있음은 물론이다.It goes without saying that other gestures or other instructions may be mapped and stored in addition to the above-described examples.
또한, 부품의 수리를 가이드하기 위한 정보를 동영상으로 제공하는 것도 가능하고, 웨어러블 기기(130)에 스피커를 마련하여 음성 정보를 함께 제공하는 것도 가능하다. It is also possible to provide information for guiding the repair of parts to a moving picture, or to provide a speaker in the
도 20은 증강 현실 이미지를 제거하기 위한 제스처의 예시를 나타낸 도면이다.20 is a diagram illustrating an example of a gesture for removing an augmented reality image.
한편, 사용자가 수리를 진행함에 있어서 증강 현실 이미지로 출력되는 컨텐츠들이 불필요한 경우가 있다. 이러한 경우에는 도 20에 도시된 바와 같이, 화면 오프에 미리 맵핑된 제스처를 취함으로써 증강 현실 이미지가 출력되는 화면을 오프시킬 수 있다. On the other hand, there is a case in which contents output as an augmented reality image are unnecessary when the user proceeds to repair. In this case, as shown in FIG. 20, a screen on which the augmented reality image is output can be turned off by taking a gesture previously mapped to the screen off.
예를 들어, 손을 위아래로 스와핑하는 제스처가 화면 오프에 미리 맵핑되어 저장된 경우, 사용자가 손을 위아래로 스와핑하는 제스처를 취하고, 촬영부(132)가 엔진룸 영상을 촬영하여 제어 모듈(150)로 전송하면, 제어 모듈(150)은 엔진룸 영상에 나타난 사용자의 제스처를 인식하고, 화면을 오프시키기 위한 제어 신호를 웨어러블 기기(130)에 전송할 수 있다. For example, when the gesture for swapping hands up and down is previously mapped and stored on the screen off, the user takes a gesture to sweep his / her hand up and down. The photographing
또한, 화면 오프에 미리 맵핑되어 저장된 음성 명령어를 사용자가 발화함으로써, 화면을 오프시키는 것도 가능함은 물론이다. It goes without saying that it is also possible to turn off the screen by the user uttering the voice command which is previously mapped and stored in the screen off.
전술한 실시예에서는 제어 모듈(150)과 웨어러블 기기(130)가 별도로 존재하는 경우에 관하여 설명하였으나, 앞서 언급한 바와 같이, 제어 모듈(150)이 웨어러블 기기(130)에 통합되는 것도 가능하다. 즉, 이 경우에는, 앞서 설명한 제어 모듈(150)의 동작을 웨어러블 기기(130)에서 수행할 수 있는바, 예를 들어 제어 모듈(150)의 제어부(120)의 동작은 웨어러블 기기(130)의 제어부(134)에서 수행할 수 있고, 통신부(110)의 동작은 웨어러블 기기(130)의 통신부(133)에서 수행할 수 있으며, 저장부(140)는 웨어러블 기기(130) 내에 마련될 수 있다. The
또는, 저장부(140)는 외부의 서버에 마련되고, 웨어러블 기기(130)가 통신부(133)를 통해 외부의 서버에 접속하여 필요한 정보를 검색하는 것도 가능하다. 또는, 저장부(140)에 저장되는 것으로 설명한 정보 중 일부가 외부의 서버에 저장되는 것도 가능하다. Alternatively, the
또는, 전술한 제어 모듈(150)의 동작을 수행하는 프로그램이 외부 서버의 기록매체에 저장되고, 사용자가 상기 프로그램을 스마트폰, 스마트 워치, PDA 등의 모바일 기기에 다운로드받아 제어 모듈(150)로 사용하는 것도 가능하다. Alternatively, a program for performing the operations of the
지금까지 설명한 웨어러블 기기 및 이를 포함하는 차량 진단 장치에 의하면, 사용자에게 차량 진단 및 수리에 필요한 정보를 증강 현실 이미지를 통해 제공하고 사용자의 제어 명령을 제스처, 시선 또는 음성 등을 통해 입력 받음으로써 작업에 대한 신뢰도와 편의성을 향상시킬 수 있다.According to the wearable device and the vehicle diagnostic apparatus including the wearable device described above, the information necessary for diagnosis and repair of the vehicle is provided to the user through the augmented reality image, and the user's control command is inputted through the gesture, Thereby improving the reliability and convenience.
100: 차량 진단 장치
110: 통신부
120: 제어부
130: 웨어러블 기기
140: 저장부
150: 제어 모듈
131: 디스플레이부
132: 촬영부
133: 통신부
134: 제어부
135: 마이크100: Vehicle diagnostic device
110:
120:
130: Wearable device
140:
150: Control module
131:
132:
133:
134:
135: microphone
Claims (28)
상기 전방 영상으로부터 상기 사용자의 제스처 및 시선 중 적어도 하나를 인식하고, 상기 인식된 제스처 또는 상기 인식된 시선의 위치에 대응되는 차량의 부품을 판단하는 제어부;
상기 차량에 고장 코드(DTC) 요청 메시지를 송신하고, 상기 차량으로부터 고장 코드를 수신하는 통신부;를 포함하는 차량 진단 장치.A wearable device for photographing a forward image of a user;
A controller for recognizing at least one of a gesture and a gaze of the user from the forward image and determining a part of the vehicle corresponding to the recognized gesture or the position of the recognized gaze;
And a communication unit that transmits a failure code (DTC) request message to the vehicle and receives a failure code from the vehicle.
상기 웨어러블 기기는,
상기 사용자에게 증강 현실 이미지를 제공하는 차량 진단 장치.The method according to claim 1,
The wearable device,
And provides the user with an augmented reality image.
상기 제어부는,
상기 전방 영상으로부터 상기 차량에 포함되는 복수의 부품을 인식하고, 상기 인식된 부품에 관한 정보를 상기 웨어러블 기기에 전송하는 차량 진단 장치.3. The method of claim 2,
Wherein,
Recognizes a plurality of parts included in the vehicle from the forward image, and transmits information about the recognized parts to the wearable device.
상기 웨어러블 기기는,
상기 인식된 부품에 관한 정보를 포함하는 증강 현실 이미지를 출력하는 차량 진단 장치.The method of claim 3,
The wearable device,
And outputs an augmented reality image including information on the recognized part.
상기 웨어러블 기기,
상기 인식된 부품의 위치에 상기 인식된 부품에 관한 정보를 겹쳐서 표시하는 증강 현실 이미지를 출력하는 차량 진단 장치.5. The method of claim 4,
The wearable device,
And outputs the augmented reality image in which the information about the recognized part is superimposed and displayed at the position of the recognized part.
상기 제어부는,
상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 부품을 고장 진단 대상 부품으로 판단하는 차량 진단 장치. 3. The method of claim 2,
Wherein,
And determines the part of the recognized gesture or the position corresponding to the recognized line of sight as the failure diagnosis target part.
상기 차량에 포함되는 복수의 단품을 상기 복수의 단품이 각각 포함되는 복수의 시스템에 따라 그룹핑하여 저장하는 저장부;를 더 포함하는 차량 진단 장치.3. The method of claim 2,
And a storage unit for grouping and storing a plurality of individual items included in the vehicle according to a plurality of systems each including the plurality of individual items.
상기 제어부는,
상기 전방 영상으로부터 상기 사용자의 시선을 인식하고, 상기 인식된 시선의 위치에 대응되는 차량의 시스템을 판단하고, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고, 상기 판단된 시스템에 포함되는 단품 중에서 상기 인식된 제스처에 대응되는 위치에 대응되는 단품을 판단하는 차량 진단 장치.8. The method of claim 7,
Wherein,
Recognizing the user's gaze from the forward image, determining a system of the vehicle corresponding to the position of the recognized gaze, recognizing the user's gesture from the forward image, And judges each piece corresponding to a position corresponding to the recognized gesture.
상기 제어부는,
상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 단품을 판단하고, 상기 판단된 단품이 포함되는 시스템을 고장 진단 대상 부품으로 판단하는 차량 진단 장치.8. The method of claim 7,
Wherein,
Determines a single piece of the gesture recognized or a position corresponding to the recognized line of sight, and determines the system including the determined single piece as a failure diagnosis target part.
상기 통신부는,
상기 고장 진단 대상 부품에 대한 고장 코드 요청 메시지를 상기 차량에 송신하고, 상기 차량으로부터 상기 고장 진단 대상 부품에 대한 고장 코드를 수신하는 차량 진단 장치.The method according to claim 6,
Wherein,
And transmits a failure code request message for the component to be diagnosed to the vehicle, and receives a fault code for the component to be diagnosed from the vehicle.
상기 웨어러블 기기는,
사용자의 음성을 입력 받고, 상기 입력된 음성을 전기적인 음성 신호로 변환하고,
상기 제어부는,
상기 음성 신호에 포함된 명령어를 인식하고, 상기 인식된 명령어에 대응되는 부품을 고장 진단 대상 부품으로 판단하는 차량 진단 장치.3. The method of claim 2,
The wearable device,
Receiving a user's voice, converting the input voice into an electrical voice signal,
Wherein,
Recognizes a command included in the voice signal, and determines a part corresponding to the recognized command as a part to be diagnosed as a failure diagnosis target.
상기 웨어러블 기기는,
상기 고장 코드가 발생한 부품의 수리를 가이드하기 위한 정보를 상기 증강 현실 이미지로 출력하는 차량 진단 장치. 3. The method of claim 2,
The wearable device,
And outputs information for guiding the repair of the component where the failure code has occurred to the augmented reality image.
상기 웨어러블 기기는,
상기 고장 코드가 발생한 부품의 위치에 상기 부품의 수리를 가이드하기위한 정보를 겹쳐서 표시하는 증강 현실 이미지를 출력하는 차량 진단 장치.13. The method of claim 12,
The wearable device,
And outputs an augmented reality image in which information for guiding the repair of the component is superimposed on the position of the component where the failure code is generated.
상기 제어부는,
상기 부품의 수리를 가이드하기 위한 정보가 복수의 단계를 포함하는 경우, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고 상기 인식된 제스처가 미리 저장된 제스처이면 상기 복수의 단계 중 다음 단계의 정보를 출력하기 위한 제어 신호를 상기 웨어러블 기기에 전송하는 차량 진단 장치.13. The method of claim 12,
Wherein,
Wherein when the information for guiding the repair of the component includes a plurality of steps, the gesture of the user is recognized from the forward image, and if the recognized gesture is a pre-stored gesture, And transmits the control signal to the wearable device.
상기 웨어러블 기기는,
상기 고장 코드가 발생한 부품의 위치에 미리 설정된 색을 겹쳐서 표시하는 증강 현실 이미지를 출력하는 차량 진단 장치.3. The method of claim 2,
The wearable device,
And outputs an augmented reality image in which a predetermined color is superimposed and displayed at a position of a component where the failure code is generated.
상기 제어부는,
상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고 상기 인식된 제스처가 미리 저장된 제스처이면 상기 증강 현실 이미지를 제거하기 위한 제어 신호를 상기 웨어러블 기기에 전송하는 차량 진단 장치.3. The method of claim 2,
Wherein,
And transmits a control signal to the wearable device to recognize the gesture of the user from the forward image and to remove the augmented reality image if the recognized gesture is a pre-stored gesture.
상기 전방 영상으로부터 상기 사용자의 제스처 및 시선 중 적어도 하나를 인식하고, 상기 인식된 제스처 또는 상기 인식된 시선의 위치에 대응되는 차량의 부품을 판단하는 제어부;
상기 차량에 고장 코드(DTC) 요청 메시지를 송신하고, 상기 차량으로부터 고장 코드를 수신하는 통신부;를 포함하는 웨어러블 기기.A photographing unit photographing a forward image of the user;
A controller for recognizing at least one of a gesture and a gaze of the user from the forward image and determining a part of the vehicle corresponding to the recognized gesture or the position of the recognized gaze;
And a communication unit that transmits a failure code (DTC) request message to the vehicle and receives a failure code from the vehicle.
상기 웨어러블 기기는,
사용자가 응시하는 공간에 가상의 이미지를 겹쳐서 표시하는 증강 현실 이미지를 출력하는 디스플레이부;를 더 포함하는 웨어러블 기기.18. The method of claim 17,
The wearable device,
And a display unit for outputting an augmented reality image in which a virtual image is superimposed and displayed in a space in which the user is looking.
상기 제어부는,
상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 부품을 고장 진단 대상 부품으로 판단하는 웨어러블 기기. 19. The method of claim 18,
Wherein,
And judges the part at the position corresponding to the recognized gesture or the recognized sight line as the component to be diagnosed as the failure diagnosis target.
상기 차량에 포함되는 복수의 단품을 상기 복수의 단품이 각각 포함되는 복수의 시스템에 따라 그룹핑하여 저장하는 저장부;를 더 포함하는 웨어러블 기기.19. The method of claim 18,
And a storage unit for grouping and storing a plurality of individual items contained in the vehicle according to a plurality of systems each including the plurality of individual items.
상기 제어부는,
상기 전방 영상으로부터 상기 사용자의 시선을 인식하고, 상기 인식된 시선의 위치에 대응되는 차량의 시스템을 판단하고, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고, 상기 판단된 시스템에 포함되는 단품 중에서 상기 인식된 제스처에 대응되는 위치에 대응되는 단품을 판단하는 웨어러블 기기.21. The method of claim 20,
Wherein,
Recognizing the user's gaze from the forward image, determining a system of the vehicle corresponding to the position of the recognized gaze, recognizing the user's gesture from the forward image, And judges each piece corresponding to a position corresponding to the recognized gesture.
상기 제어부는,
상기 인식된 제스처 또는 상기 인식된 시선에 대응되는 위치의 단품을 판단하고, 상기 판단된 단품이 포함되는 시스템을 고장 진단 대상 부품으로 판단하는 웨어러블 기기.21. The method of claim 20,
Wherein,
Judges the recognized gesture or a single item at a position corresponding to the recognized line of sight, and judges the system including the determined single item as a failure diagnosis target part.
사용자의 음성을 입력 받고, 상기 입력된 음성을 전기적인 음성 신호로 변환하는 마이크;를 더 포함하고,
상기 제어부는,
상기 음성 신호에 포함된 명령어를 인식하고, 상기 인식된 명령어에 대응되는 부품을 고장 진단 대상 부품으로 판단하는 웨어러블 기기.19. The method of claim 18,
And a microphone for receiving a user's voice and converting the input voice into an electrical voice signal,
Wherein,
Recognizes a command included in the voice signal and determines a part corresponding to the recognized command as a part to be diagnosed as a failure diagnosis target.
상기 디스플레이부는,
상기 고장 코드가 발생한 부품의 수리를 가이드하기 위한 정보를 상기 증강 현실 이미지로 출력하는 웨어러블 기기. 19. The method of claim 18,
The display unit includes:
And outputs information for guiding the repair of the component in which the failure code has occurred to the augmented reality image.
상기 디스플레이부는,
상기 고장 코드가 발생한 부품의 위치에 상기 부품의 수리를 가이드하기위한 정보를 겹쳐서 표시하는 증강 현실 이미지를 출력하는 웨어러블 기기.25. The method of claim 24,
The display unit includes:
And outputs an augmented reality image in which information for guiding the repair of the component is superimposed on the position of the component where the failure code is generated.
상기 제어부는,
상기 부품의 수리를 가이드하기 위한 정보가 복수의 단계를 포함하는 경우, 상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고, 상기 인식된 제스처가 미리 저장된 제스처이면 상기 복수의 단계 중 다음 단계의 정보를 출력하기 위한 제어 신호를 상기 디스플레이부에 전송하는 웨어러블 기기.25. The method of claim 24,
Wherein,
Wherein when the information for guiding the repair of the part includes a plurality of steps, the gesture of the user is recognized from the forward image, and if the recognized gesture is a gesture previously stored, And transmits the control signal to the display unit.
상기 디스플레이부는,
상기 고장 코드가 발생한 부품의 위치에 미리 설정된 색을 겹쳐서 표시하는 증강 현실 이미지를 출력하는 웨어러블 기기.19. The method of claim 18,
The display unit includes:
And outputs an augmented reality image in which a predetermined color is superimposed and displayed at the position of the component where the failure code is generated.
상기 제어부는,
상기 전방 영상으로부터 상기 사용자의 제스처를 인식하고 상기 인식된 제스처가 미리 저장된 제스처이면 상기 증강 현실 이미지를 제거하기 위한 제어 신호를 상기 디스플레이부에 전송하는 웨어러블 기기.19. The method of claim 18,
Wherein,
And transmits a control signal for removing the augmented reality image to the display unit if the gesture of the user is recognized from the forward image and the recognized gesture is a pre-stored gesture.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160050813A KR20170121930A (en) | 2016-04-26 | 2016-04-26 | Wearable device and apparatus for vehicles diagnosis having the same |
US15/358,931 US10360452B2 (en) | 2016-04-26 | 2016-11-22 | Wearable device and vehicle diagnosis apparatus including the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160050813A KR20170121930A (en) | 2016-04-26 | 2016-04-26 | Wearable device and apparatus for vehicles diagnosis having the same |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170150345A Division KR101866741B1 (en) | 2017-11-13 | 2017-11-13 | Wearable device and apparatus for vehicles diagnosis having the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170121930A true KR20170121930A (en) | 2017-11-03 |
Family
ID=60089080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160050813A Ceased KR20170121930A (en) | 2016-04-26 | 2016-04-26 | Wearable device and apparatus for vehicles diagnosis having the same |
Country Status (2)
Country | Link |
---|---|
US (1) | US10360452B2 (en) |
KR (1) | KR20170121930A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164056A1 (en) * | 2018-02-23 | 2019-08-29 | (주)프론티스 | Server, method and wearable device for supporting maintenance of military equipment on basis of binary search tree in augmented reality, virtual reality, or mixed reality based general object recognition |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10560578B2 (en) * | 2016-12-01 | 2020-02-11 | TechSee Augmented Vision Ltd. | Methods and systems for providing interactive support sessions |
US10567584B2 (en) * | 2016-12-01 | 2020-02-18 | TechSee Augmented Vision Ltd. | Methods and systems for providing interactive support sessions |
US10567583B2 (en) * | 2016-12-01 | 2020-02-18 | TechSee Augmented Vision Ltd. | Methods and systems for providing interactive support sessions |
US10885712B2 (en) * | 2017-07-12 | 2021-01-05 | Nio Usa, Inc. | Camera pose estimation method for augmented reality manual for cars |
US11157648B1 (en) * | 2018-02-20 | 2021-10-26 | PRIVACY4CARS, Inc. | Data privacy and security in vehicles |
KR20210056404A (en) * | 2018-09-10 | 2021-05-18 | 류와인드르, 엘엘씨 | Image management using area-based metadata indexing |
CN109243427A (en) * | 2018-09-29 | 2019-01-18 | 深圳市智驾实业有限公司 | A kind of car fault diagnosis method and device |
US11145130B2 (en) * | 2018-11-30 | 2021-10-12 | Apprentice FS, Inc. | Method for automatically capturing data from non-networked production equipment |
WO2020096597A1 (en) * | 2018-11-08 | 2020-05-14 | Rovi Guides, Inc. | Methods and systems for augmenting visual content |
CN109635957A (en) * | 2018-11-13 | 2019-04-16 | 广州裕申电子科技有限公司 | A kind of equipment maintenance aid method and system based on AR technology |
US11302217B2 (en) | 2019-01-17 | 2022-04-12 | Toyota Motor North America, Inc. | Augmented reality dealer vehicle training manual |
US10410182B1 (en) * | 2019-04-17 | 2019-09-10 | Capital One Services, Llc | Visualizing vehicle condition using extended reality |
JP7462386B2 (en) * | 2019-06-14 | 2024-04-05 | 株式会社シマノ | DETECTION APPARATUS, DETECTION METHOD, GENERATION METHOD, COMPUTER PROGRAM, AND STORAGE MEDIUM |
JP7514063B2 (en) * | 2019-06-14 | 2024-07-10 | 株式会社シマノ | DETECTION APPARATUS, DETECTION METHOD, COMPUTER PROGRAM, AND STORAGE MEDIUM |
US11580628B2 (en) * | 2019-06-19 | 2023-02-14 | Deere & Company | Apparatus and methods for augmented reality vehicle condition inspection |
US11587315B2 (en) | 2019-06-19 | 2023-02-21 | Deere & Company | Apparatus and methods for augmented reality measuring of equipment |
KR102641117B1 (en) | 2019-08-26 | 2024-02-27 | 삼성전자주식회사 | Method and apparatus of augmenting image |
US11403889B2 (en) | 2019-09-09 | 2022-08-02 | Toyota Motor North America, Inc. | Part maintenance and value estimation system |
US10607084B1 (en) * | 2019-10-24 | 2020-03-31 | Capital One Services, Llc | Visual inspection support using extended reality |
JP7384111B2 (en) * | 2020-05-18 | 2023-11-21 | トヨタ自動車株式会社 | Vehicle parts display device and vehicle parts display method |
US11804039B2 (en) * | 2020-05-28 | 2023-10-31 | Science House LLC | Systems, methods, and apparatus for enhanced cameras |
CN112181146A (en) * | 2020-09-29 | 2021-01-05 | 重庆市华驰交通科技有限公司 | Wearable device display picture control method and system for electromechanical device maintenance |
US11170540B1 (en) | 2021-03-15 | 2021-11-09 | International Business Machines Corporation | Directional based commands |
US20220391853A1 (en) * | 2021-06-08 | 2022-12-08 | Service Write, Inc. | Service Bay Timer System and Method |
CN113538515B (en) * | 2021-07-19 | 2024-06-07 | 安徽炬视科技有限公司 | High-voltage switch cabinet abnormal state detection method based on combination of semantic segmentation and target detection tracking |
US11783551B2 (en) * | 2021-10-28 | 2023-10-10 | Ncr Corporation | Augmented reality (AR) device support |
CN114724248A (en) * | 2022-04-20 | 2022-07-08 | Oppo广东移动通信有限公司 | Control method, control device, vehicle, computer equipment and medium |
CN114815779B (en) * | 2022-04-25 | 2023-01-10 | 深圳市希车智能科技有限公司 | Automobile remote interactive diagnosis method, system and storage medium based on AR and VR |
CN114924686B (en) * | 2022-07-20 | 2023-03-14 | 深圳市星卡软件技术开发有限公司 | Intelligent gesture response processing method, device, equipment and medium for automobile diagnosis equipment |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070003611A1 (en) * | 2005-06-29 | 2007-01-04 | Sung-Tsuen Liu | Novel method of granulating calcium carbonate and products provided therefrom |
US7362738B2 (en) * | 2005-08-09 | 2008-04-22 | Deere & Company | Method and system for delivering information to a user |
KR20110118506A (en) | 2010-04-23 | 2011-10-31 | 재단법인대구경북과학기술원 | Method, system and information terminal for vehicle diagnosis |
JP4913913B2 (en) | 2010-04-28 | 2012-04-11 | 新日鉄ソリューションズ株式会社 | Information processing system, information processing method, and program |
KR20120015802A (en) | 2010-08-13 | 2012-02-22 | 현대자동차주식회사 | Vehicle parts management system using augmented reality and its method |
US20130271574A1 (en) * | 2012-04-13 | 2013-10-17 | Hunter Engineering Company | Method And Apparatus For Contactless Data Acquisition In A Vehicle Service System |
KR20140145332A (en) | 2013-06-13 | 2014-12-23 | 현대모비스 주식회사 | HMD system of vehicle and method for operating of the said system |
JP6063854B2 (en) | 2013-12-02 | 2017-01-18 | 本田技研工業株式会社 | Vehicle display system |
-
2016
- 2016-04-26 KR KR1020160050813A patent/KR20170121930A/en not_active Ceased
- 2016-11-22 US US15/358,931 patent/US10360452B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164056A1 (en) * | 2018-02-23 | 2019-08-29 | (주)프론티스 | Server, method and wearable device for supporting maintenance of military equipment on basis of binary search tree in augmented reality, virtual reality, or mixed reality based general object recognition |
Also Published As
Publication number | Publication date |
---|---|
US10360452B2 (en) | 2019-07-23 |
US20170308751A1 (en) | 2017-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170121930A (en) | Wearable device and apparatus for vehicles diagnosis having the same | |
KR101866741B1 (en) | Wearable device and apparatus for vehicles diagnosis having the same | |
CN113302664B (en) | Multimodal user interface for a vehicle | |
EP2876484B1 (en) | Maintenance assistant system | |
US10573037B2 (en) | Method and apparatus for mentoring via an augmented reality assistant | |
US20190146753A1 (en) | Automatic Speech Recognition (ASR) Feedback For Head Mounted Displays (HMD) | |
US20140129207A1 (en) | Augmented Reality Language Translation | |
CN105182535B (en) | How to Use Smart Glasses for Car Maintenance | |
US9830909B2 (en) | User configurable speech commands | |
EP3548156B1 (en) | Animated character head systems and methods | |
US10872438B2 (en) | Artificial intelligence device capable of being controlled according to user's gaze and method of operating the same | |
KR20190008663A (en) | Voice data processing method and system supporting the same | |
US20070200912A1 (en) | Method and device for enhancing accuracy of voice control with image characteristic | |
WO2019026616A1 (en) | Information processing device and method | |
KR20190113693A (en) | Artificial intelligence apparatus and method for recognizing speech of user in consideration of word usage frequency | |
US11355101B2 (en) | Artificial intelligence apparatus for training acoustic model | |
KR20190053001A (en) | Electronic device capable of moving and method for operating thereof | |
KR20210044475A (en) | Apparatus and method for determining object indicated by pronoun | |
KR20190093166A (en) | Communication robot and control program therefor | |
JP2017102516A (en) | Display device, communication system, control method for display device and program | |
US9640199B2 (en) | Location tracking from natural speech | |
JP2023153283A (en) | Work support system, work support method and work support device | |
JP6798258B2 (en) | Generation program, generation device, control program, control method, robot device and call system | |
US20240096093A1 (en) | Ai-driven augmented reality mentoring and collaboration | |
CN107548483B (en) | Control method, control device, system, and motor vehicle including such a control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160426 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20170323 Patent event code: PE09021S01D |
|
PE0601 | Decision on rejection of patent |
Patent event date: 20170822 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20170323 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20170822 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20170523 Comment text: Amendment to Specification, etc. |
|
PX0601 | Decision of rejection after re-examination |
Comment text: Decision to Refuse Application Patent event code: PX06014S01D Patent event date: 20171012 Comment text: Amendment to Specification, etc. Patent event code: PX06012R01I Patent event date: 20170921 Comment text: Decision to Refuse Application Patent event code: PX06011S01I Patent event date: 20170822 Comment text: Amendment to Specification, etc. Patent event code: PX06012R01I Patent event date: 20170523 Comment text: Notification of reason for refusal Patent event code: PX06013S01I Patent event date: 20170323 |
|
PG1501 | Laying open of application | ||
A107 | Divisional application of patent | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20171113 Patent event code: PA01071R01D |