KR101987255B1 - Speech recognition device and speech recognition method - Google Patents

Speech recognition device and speech recognition method Download PDF

Info

Publication number
KR101987255B1
KR101987255B1 KR1020120090513A KR20120090513A KR101987255B1 KR 101987255 B1 KR101987255 B1 KR 101987255B1 KR 1020120090513 A KR1020120090513 A KR 1020120090513A KR 20120090513 A KR20120090513 A KR 20120090513A KR 101987255 B1 KR101987255 B1 KR 101987255B1
Authority
KR
South Korea
Prior art keywords
command
user input
speech recognition
input unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020120090513A
Other languages
Korean (ko)
Other versions
KR20140024536A (en
Inventor
김기철
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020120090513A priority Critical patent/KR101987255B1/en
Priority to PCT/KR2012/010567 priority patent/WO2014030809A1/en
Priority to US14/420,768 priority patent/US10037757B2/en
Publication of KR20140024536A publication Critical patent/KR20140024536A/en
Application granted granted Critical
Publication of KR101987255B1 publication Critical patent/KR101987255B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)

Abstract

실시 예에 따른 음성 인식 장치는, 제 1 사용자 명령을 입력받는 제 1 사용자 입력부; 제 2 사용자 명령을 입력받는 제 2 사용자 입력부; 및, 상기 제 1 및 2 사용자 입력부를 통해 입력되는 제 1 및 2 사용자 명령의 조합에 따라 특정 기능을 실행시키는 제어부를 포함한다.The speech recognition apparatus includes a first user input unit receiving a first user command; A second user input unit for receiving a second user command; And a controller for executing a specific function according to a combination of first and second user commands input through the first and second user input units.

Description

음성 인식 장치 및 이의 음성 인식 방법{SPEECH RECOGNITION DEVICE AND SPEECH RECOGNITION METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a speech recognition apparatus,

실시 예는, 음성 인식 장치에 관한 것으로, 특히 음성 인식의 신뢰성을 높일 수 있는 음성 인식 장치 및 이의 음성 인식 방법에 관한 것이다.The present invention relates to a speech recognition apparatus and, more particularly, to a speech recognition apparatus and its speech recognition method capable of enhancing the reliability of speech recognition.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.A terminal can be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal according to whether the terminal can be moved. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

한편, 상기와 같은 단말기는 터치 스크린, 리모트 컨트롤러, 로컬 키 버튼 및 음성 인식 모듈 등을 이용하여 사용자 명령을 인식하고, 상기 인식한 사용자 명령에 대응하는 기능을 실행시킨다.Meanwhile, the terminal recognizes a user command using a touch screen, a remote controller, a local key button, and a voice recognition module, and executes a function corresponding to the recognized user command.

상기와 같은 터치 스크린은, 사용자가 터치한 스크린의 좌표를 인식하고, 상기 인식한 좌표에 대응하는 기능을 실행시킨다. 즉, 사용자는 터치 스크린에 표시된 메뉴항목들 중 하나의 항목을 터치할 수 있으며, 단말기는 상기 터치 스크린에서 눌려진 지점에 해당하는 X, Y 좌표를 인식하고, 상기 인식한 X, Y 좌표에 해당하는 기능을 실행시킨다.The touch screen as described above recognizes coordinates of a screen touched by a user, and executes a function corresponding to the recognized coordinates. That is, the user can touch one of the menu items displayed on the touch screen, and the terminal recognizes the X, Y coordinates corresponding to the pressed point on the touch screen, Function.

그러나, 상기와 같은 터치 스크린을 이용한 기능 실행 방법은 사용자가 항상 터치 스크린을 보면서, 자신이 원하는 터치 지점을 확인하고, 상기 확인한 터치 지점을 정확히 터치해야 함으로써, 자동차의 운전중에는 사용이 불편함 문제점이 있다.However, the above-described function execution method using the touch screen requires the user to always check the desired touch point while touching the touch screen, and to accurately touch the confirmed touch point, have.

또한, 음성을 인식하여 기능을 실행하는 경우, 상기 음성 인식을 수행하는 모듈은 항상 활성화 상태를 유지하게 되며, 이로 인해 주위의 잡음 등을 상기 사용자 음성으로 오인식하여 기기가 오작동하는 문제점이 있다.In addition, when performing a function by recognizing a voice, the module for performing the voice recognition is always kept in an activated state, thereby erroneously recognizing surrounding noise or the like as the user voice, thereby causing a malfunction of the device.

이를 해결하기 위해서는, 음성 인식 기능을 온(On), 오프(Off) 할 수 있는데, 이와 같은 경우에는 음성 인식 기능을 사용할 때마다 상기 음성 인식 기능을 온 설정해야 하며, 상기 음성 인식 기능을 모두 사용하면 다시 이를 오프 해야 하는 불편함이 있다.In order to solve this problem, the speech recognition function can be turned on or off. In such a case, the speech recognition function must be turned on every time the speech recognition function is used. There is an inconvenience that it must be turned off again.

실시 예에서는, 음성 인식 검출률을 상승시켜 음성 인식 기능의 신뢰성을 향상시킬 수 있는 음성 인식 장치 및 이의 음성 인식 방법을 제공한다.Embodiments provide a speech recognition apparatus and a speech recognition method thereof capable of raising the speech recognition detection rate and improving the reliability of the speech recognition function.

또한, 실시 예에서는 음성 인식 기능과 연동한 특정 사용자 입력이 존재하는 경우에만 상기 음성 인식 기능을 활성화시켜, 음성 오인식에 의한 오작동을 방지할 수 있는 음성 인식 장치 및 이의 음성 인식 방법을 제공한다.The present invention also provides a speech recognition apparatus and a speech recognition method thereof, which can prevent a malfunction due to a speech recognition mistake by activating the speech recognition function only when there is a specific user input interlocked with the speech recognition function.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.

실시 예에 따른 음성 인식 장치는, 제 1 사용자 명령을 입력받는 제 1 사용자 입력부; 제 2 사용자 명령을 입력받는 제 2 사용자 입력부; 및, 상기 제 1 및 2 사용자 입력부를 통해 입력되는 제 1 및 2 사용자 명령의 조합에 따라 특정 기능을 실행시키는 제어부를 포함한다.The speech recognition apparatus includes a first user input unit receiving a first user command; A second user input unit for receiving a second user command; And a controller for executing a specific function according to a combination of first and second user commands input through the first and second user input units.

또한, 상기 제 1 사용자 입력부 및 제 2 사용자 입력부는, 서로 다른 타입으로 상기 제 1 사용자 명령 및 제 2 사용자 명령을 각각 입력받는다. Also, the first user input unit and the second user input unit receive the first user command and the second user command in different types, respectively.

또한, 상기 제 1 사용자 입력부는, 터치 스크린, 원격제어장치, 로컬 키 및 상기 음성 인식 장치와 연계된 키 버튼 중 적어도 어느 하나를 포함하고, 상기 제 2 사용자 입력부는, 사용자 음성을 인식하는 음성 인식 모듈을 포함한다.The first user input unit may include at least one of a touch screen, a remote control device, a local key, and a key button associated with the voice recognition device. The second user input unit may include at least one of a voice recognition Module.

또한, 상기 제어부는, 상기 제 1 사용자 입력부를 통해 제 1 사용자 명령이 입력되면, 상기 제 2 사용자 입력부를 활성화시켜 상기 제 2 사용자 명령을 입력받는다.In addition, when the first user command is input through the first user input unit, the controller activates the second user input unit and receives the second user command.

또한, 상기 제어부는, 상기 제 1 사용자 입력부를 통해 제 1 사용자 명령이 입력되는 동안에 상기 제 2 사용자 입력부를 활성화시키고, 상기 제 1 사용자 명령이 입력이 해제되면 상기 제 2 사용자 입력부를 비활성화시킨다.Also, the controller activates the second user input unit while the first user command is input through the first user input unit, and deactivates the second user input unit when the first user command is released.

또한, 상기 제 1 사용자 명령은, 상기 제 2 사용자 입력부의 활성화를 위한 명령이다.The first user command is an instruction for activating the second user input unit.

또한, 상기 제어부는, 상기 제 1 사용자 명령이 입력되는, 주변 기기의 음성 출력을 차단하기 위한 제어 신호를 출력한다.Also, the control unit outputs a control signal for interrupting the audio output of the peripheral device to which the first user command is input.

또한, 상기 제어부는, 상기 제 1 사용자 명령이 입력되면, 상기 제 2 사용자 입력부를 통해 수행되는 음성 인식 기능의 민감도를 증가시킨다.In addition, the control unit increases the sensitivity of the voice recognition function performed through the second user input unit when the first user command is input.

한편, 실시 예에 따른 음성 인식 방법은 제 1 사용자 명령을 입력받는 단계;Meanwhile, a speech recognition method according to an embodiment includes receiving a first user command;

상기 제 1 사용자 명령이 입력됨에 따라 제 2 사용자 명령을 입력받는 단계; 및 상기 입력된 제 2 사용자 명령에 대응하는 특정 기능을 실행시키는 단계를 포함한다.Receiving a second user command as the first user command is input; And executing a specific function corresponding to the input second user command.

또한, 상기 제 1 사용자 명령은, 상기 제 2 사용자 명령을 입력받기 위한 음성 인식 기능의 활성화 명령이다.The first user command is an instruction for activating a voice recognition function for receiving the second user command.

또한, 상기 제 1 사용자 명령은, 터치 스크린, 원격제어장치, 로컬 키 및 상기 음성 인식 장치와 연계된 키 버튼 중 적어도 어느 하나를 통해 입력되고, 상기 제 2 사용자 명령은, 음성 인식 모듈을 통해 인식된 사용자 음성을 포함한다.The first user command is input through at least one of a touch screen, a remote controller, a local key, and a key button associated with the voice recognition device, and the second user command is recognized through a voice recognition module Lt; / RTI >

또한, 상기 제 2 사용자 명령을 입력받는 단계는, 상기 제 1 사용자 명령이 입력됨에 따라 음성 인식 기능을 활성화하는 단계와, 상기 제 1 사용자 명령이 입력되고 있는 동안에 상기 제 2 사용자 명령을 입력받는 단계를 포함한다.The receiving of the second user command may include activating a voice recognition function as the first user command is input, receiving the second user command while the first user command is being input, .

또한, 상기 제 1 사용자 명령의 입력이 해제되면, 상기 음성 인식 기능을 비활성화하는 단계를 더 포함한다.The method may further include, when the input of the first user command is canceled, deactivating the speech recognition function.

또한, 상기 제 1 사용자 명령이 입력되면, 주변 기기를 통해 출력되는 음성을 차단하는 단계를 더 포함한다.In addition, when the first user command is input, the method further comprises blocking a voice output through the peripheral device.

또한, 상기 제 1 사용자 명령이 입력됨에 따라 상기 제 2 사용자 명령을 입력받기 위한 음성 인식 민감도를 제 1 레벨로 증가시키는 단계를 더 포함한다.The method further includes increasing a voice recognition sensitivity to a first level for receiving the second user command as the first user command is input.

또한, 상기 제 1 사용자 명령의 입력이 해제되면, 상기 음성 인식 민감도를 상기 제 1 레벨보다 낮은 제 2 레벨로 감소시키는 단계를 더 포함하며, 상기 제 1 레벨 및 제 2 레벨은, 사용자에 의해 설정 및 변경이 가능하다.The method of claim 1, further comprising decreasing the speech recognition sensitivity to a second level lower than the first level when the first user command is released, wherein the first level and the second level are set by a user And changes are possible.

실시 예에 의하면, 음성 인식 기능을 활성화하기 위한 제 1 명령이 입력되는 시점에만 음성 인식 기능이 활성화되도록 하여, 음성 인식에 대한 검출률을 높이면서 음성 오인식에 따른 오작동을 방지할 수 있다. 즉, According to the embodiment, the voice recognition function is activated only at the time when the first command for activating the voice recognition function is input, thereby enhancing the detection rate for voice recognition and preventing the malfunction due to the voice recognition mistake. In other words,

또한, 실시 예에 의하면, 상기 음성 인식 기능의 활성화 여부를 특정 명령이 입력 여부에 의해 결정하기 때문에, 메뉴화면상에서 일일이 상기 음성 인식 기능의 활성화 여부를 설정해야 하는 불편함을 해결할 수 있다.Further, according to the embodiment, it is possible to solve the inconvenience that it is necessary to individually set whether or not the voice recognition function is activated on the menu screen since the specific instruction determines whether the voice recognition function is activated or not.

또한, 실시 예에 의하면 제 1 명령이 입력되면, 음성 인식 민감도를 증가시킴으로써, 사용자가 음성 인식을 수행하고자 하는 경우에 음성 인식률을 높일 수 있도록 한다.In addition, according to the embodiment, when the first command is input, the voice recognition rate can be increased when the user intends to perform voice recognition by increasing the voice recognition sensitivity.

도 1은 실시 예에 따른 음성 인식 장치의 구성을 설명하는 도면이다.
도 2 내지 10은 실시 예에 따른 음성 인식 장치의 음성 인식 방법을 설명하는 도면이다.
1 is a view for explaining a configuration of a speech recognition apparatus according to an embodiment.
2 to 10 are diagrams for explaining a speech recognition method of the speech recognition apparatus according to the embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

이하, 본 발명의 실시 예들에 의하여 복수의 사용자 입력 방식을 결합하여 특정 기능을 실행시킬 수 있는 음성 인식 장치 및 음성 인식 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이때, 각 블록들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록들에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록들에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. 또한, 각 블록은 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the drawings for explaining a speech recognition apparatus and a speech recognition method capable of performing a specific function by combining a plurality of user input methods according to embodiments of the present invention. It will be appreciated that each block may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that those instructions, which are executed through a processor of a computer or other programmable data processing apparatus, Thereby creating means for performing functions. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in the flowchart blocks. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide steps for executing the functions described in the flowchart blocks. Further, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions.

또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.It should also be noted that in some alternative implementations, the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may actually be executed substantially concurrently, or the blocks may sometimes be performed in reverse order according to the corresponding function.

본 실시 예에서 사용되는 '~부' 또는 '~모듈'이라는 용어는 소프트웨어 또는 FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부' 또는 '~모듈'은 어떤 역할들을 수행한다. 그렇지만 '~부' 또는 '~모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부' 또는 '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 도 있다. 따라서, 일 예로서 '~부' 또는 '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부' 또는 '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부' 또는 '~모듈'들로 결합하거나 추가적인 구성요소들과 '~부' 또는 '~모듈'들로 더 분리될 수 있다. The term '~' or '~ module' as used in the present embodiment means a software or hardware component such as an FPGA or an ASIC, and the '~' or '~ module' performs certain roles. However, '~' or '~ module' is not meant to be limited to software or hardware. A "to" or "module" may be configured to reside on an addressable storage medium and configured to play back one or more processors. Thus, by way of example, 'a' or 'module' refers to components such as software components, object-oriented software components, class components and task components, and processes, Routines, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Or " modules " or " modules " may be combined into a smaller number of components and may be combined with " modules " or & Can be further separated into '~ modules'.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

실시 예에 따른 음성 인식 장치는, 단말기일 수 있으며, 상기 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 디지털 TV, 데스크톱 컴퓨터 등과 같은 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.A smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a portable multimedia player (PMP), and a voice recognition device according to embodiments may be a terminal. , Navigation, and the like. However, it will be apparent to those skilled in the art that the configuration according to the embodiments described herein may be applied to terminals such as a digital TV, a desktop computer, and the like.

실시 예에서는, 상기 음성 인식 장치가 차량에 설치되는 네비게이션이라 가정하여 설명하기로 한다. 그러나, 이는 본 발명의 일 실시 예에 불과할 뿐, 상기 음성 인식 장치는 상기 네비게이션뿐만 아니라, 상기 기재된 단말기 중 어느 하나로 대체될 수 있음은 자명한 사항일 것이다.In the embodiment, it is assumed that the speech recognition apparatus is a navigation system installed in a vehicle. However, it should be understood that the speech recognition apparatus may be replaced with any one of the above-described terminals as well as the navigation system, which is merely an embodiment of the present invention.

도 1은 실시 예에 따른 음성 인식 장치의 구성을 설명하는 도면이다.1 is a view for explaining a configuration of a speech recognition apparatus according to an embodiment.

도 1을 참조하면, 음성 인식 장치(100)는 무선 통신부(110), 전원 공급부(120), 출력부(130), 메모리(140), 제 1 명령 입력부(150), 제 2 명령 입력부(160) 및 제어부(170)를 포함한다.1, the speech recognition apparatus 100 includes a wireless communication unit 110, a power supply unit 120, an output unit 130, a memory 140, a first command input unit 150, a second command input unit 160 And a control unit 170. [0031]

무선 통신부(110)는 음성 인식 장치(100)와 무선 통신 시스템 사이 또는 음성 인식 장치(100)와 음성 인식 장치(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the voice recognition apparatus 100 and the wireless communication system or between the voice recognition apparatus 100 and the network in which the voice recognition apparatus 100 is located .

예를 들면, 무선 통신부(110)는 방송 수신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈을 포함할 수 있다.For example, the wireless communication unit 110 may include a broadcast receiving module, a wireless Internet module, a local area communication module, and a location information module.

방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 이를 음성 인식 장치(100)에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated by the server and transmitting the received broadcast signals and / or broadcast- related information to the voice recognition apparatus 100 have. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (DVF-H), a Digital Video Broadcast- , Integrated Services Digital Broadcast-Terrestrial (ISDB-T), or the like. Of course, the broadcast receiving module may be configured to be suitable for other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(140)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the memory 140.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 음성 인식 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and may be built in or externally attached to the voice recognition apparatus 100. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module is a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈은 음성 인식 장치(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module is a module for acquiring the location of the speech recognition apparatus 100, and a representative example thereof is a Global Position System (GPS) module.

전원 공급부(120)는 후술할 제어부(170)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 상기 음성 인식 장치(100)를 구성하는 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 120 receives external power and internal power under the control of a control unit 170 to be described later and supplies power necessary for operation of the components constituting the voice recognition device 100.

출력부(130)는 시각 또는 청각과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부와 음향 출력 모듈 등이 포함될 수 있다.The output unit 130 generates an output related to visual or auditory sense, and may include a display unit and an audio output module.

디스플레이부는 음성 인식 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 음성 인식 장치(100)에서 수행하는 동작과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. The display unit displays (outputs) the information processed by the speech recognition apparatus 100. For example, a UI (User Interface) or a GUI (Graphic User Interface) associated with the operation performed by the voice recognition apparatus 100 is displayed.

디스플레이부는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, Dimensional display (3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 기기 본체의 디스플레이부가 차지하는 영역을 통해 기기 본체의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display portion may also be configured as a light transmission structure. With this structure, the user can see an object located behind the main body of the apparatus through the area occupied by the display portion of the main body of the apparatus.

음성 인식 장치(100)의 구현 형태에 따라 디스플레이부이 2개 이상 존재할 수 있다. 예를 들어, 음성 인식 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Depending on the implementation of the speech recognition apparatus 100, there may be two or more display units. For example, in the voice recognition apparatus 100, a plurality of display portions may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces.

한편, 디스플레이부와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.On the other hand, in a case where a display unit and a sensor (hereinafter, referred to as 'touch sensor') that detects a touch operation form a mutual layer structure (hereinafter referred to as a 'touch screen'), the display unit may be used as an input device . The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부의 특정 부위에 가해진 압력 또는 디스플레이부의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display portion or a capacitance occurring in a specific portion of the display portion into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(170)로 전송한다. 이로써, 제어부(170)는 디스플레이부의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 170. Thus, the control unit 170 can know which area of the display unit is touched or the like.

음향 출력 모듈은 음성인식 모드, 방송수신 모드, 길 안내 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(140)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈은 음성 인식 장치(100)에서 수행되는 기능(예를 들어, 길 안내음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module may receive audio data received from the wireless communication unit 110 or stored in the memory 140 in a voice recognition mode, a broadcast reception mode, a guidance mode, or the like. The sound output module outputs an acoustic signal related to a function (e.g., a guidance sound, etc.) performed in the speech recognition apparatus 100. [ Such an audio output module may include a receiver, a speaker, a buzzer, and the like.

메모리(140)는 제어부(170)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(140)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 140 may store a program for the operation of the controller 170 and temporarily store input / output data (e.g., still images, moving images, etc.). The memory 140 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 140 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk.

한편, 실시 예에 따른 음성 인식 장치(100)에는 음성 인식 장치(100)에 연결되는 모든 외부기기와의 통로 역할을 하는 인터페이스부가 더 구비될 수 있다.Meanwhile, the speech recognition apparatus 100 according to the embodiment may further include an interface unit serving as a path for communication with all external devices connected to the speech recognition apparatus 100.

인터페이스부는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 음성 인식 장치(100) 내부의 각 구성 요소에 전달하거나, 음성 인식 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부에 포함될 수 있다. The interface unit receives data from an external device or receives power from the external device to transfer the data to the respective components in the voice recognition device 100 or allows data in the voice recognition device 100 to be transmitted to external devices. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, Video input / output (I / O) ports, earphone ports, and the like.

상기 인터페이스부는 음성 인식 장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 음성 인식 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 음성 인식 장치로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 음성 인식 장치가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the speech recognition apparatus 100 is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the speech recognition apparatus 100, or various command signals input from the cradle by the user And may be a passage that is transmitted to the speech recognition apparatus. The various command signals input from the cradle or the power source may be operated as a signal for recognizing that the voice recognition device is correctly mounted on the cradle.

제 1 명령 입력부(150)는 제 1 타입의 사용자 명령 입력 장치이다.The first command input unit 150 is a first type user command input device.

예를 들어, 제 1 명령 입력부(150)는 RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(예를 들어, 리모트 컨트롤러)로부터 전원 온/오프, 목적지 검색, 길 안내 시작, 화면 설정 등과 같은 사용자 입력 신호를 수신하여 제어부(170)로 전달할 수 있다. 즉, 제 1 명령 입력부(150)는 원격제어장치 자체가 될 수 있으며, 상기 원격제어장치와 연계되어 상기 원격제어장치를 통해 입력되는 신호를 수신하는 수신부가 될 수 있다.For example, the first command input unit 150 may be configured to turn on / off the power from a remote control device (for example, a remote controller) according to various communication methods such as an RF (Radio Frequency) communication method, A destination search, a route guidance start, a screen setting, and the like, and may transmit the received user input signal to the controller 170. That is, the first command input unit 150 may be a remote control apparatus itself, and may be a receiver that receives a signal input through the remote control apparatus in association with the remote control apparatus.

또한, 예를 들어, 제 1 명령 입력부(150)는 전원 키, 길 안내 키, 볼륨 키 등의 로컬 키에서 입력되는 사용자 명령을 제어부(170)에 전달하는 로컬 키 수신부가 될 수 있다.For example, the first command input unit 150 may be a local key receiving unit that transmits a user command input from a local key such as a power key, a guidance key, and a volume key to the controller 170.

또한, 상기와 같이 제 1 명령 입력부(150)는 디스플레이부의 화면 터치를 통해 상기 디스플레이부에 표시되는 특정 메뉴 항목을 선택하는 터치스크린일 수 있다.Also, as described above, the first command input unit 150 may be a touch screen for selecting a specific menu item displayed on the display unit by touching the screen of the display unit.

또한, 예를 들어, 제 1 명령 입력부(150)는 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. For example, the first command input unit 150 may transmit a user input signal input from a sensing unit (not shown) that senses a user's gesture to the controller 170. [ Here, the sensing unit (not shown) may include a touch sensor, an audio sensor, a position sensor, an operation sensor, and the like.

또한, 예를 들어, 제 1 명령 입력부(150)는 상기 음성 인식 장치(100)와 연계되어 음성 인식 장치(100)가 구비된 차량의 핸들에 배치되는 키 버튼일 수 있다.Also, for example, the first command input unit 150 may be a key button disposed in a handle of the vehicle in which the voice recognition apparatus 100 is provided in association with the voice recognition apparatus 100.

제 2 명령 입력부(160)은 상기 기재한 다양한 제 1 타입의 제 1 명령 입력부(150)와 다른 제 2 타입의 사용자 명령 입력장치이다.The second instruction input unit 160 is a second type user instruction input unit different from the first instruction input unit 150 of the first type described above.

이때, 제 2 명령 입력부(160)는 사용자 음성을 인식하는 음성 인식 모듈일 수 있다. 음성 인식 모듈은, 고립 단어 인식을 위해 인식 단어 설정이 가능하고, 화자에 독립적인 인식 기능을 가지며, 인식 결과를 인식 단어와 해당 단어에 대한 인식 추정 정확도를 % 단위로 출력해 줄 수 있는 상용의 음성 인식 모듈을 상정한다.At this time, the second command input unit 160 may be a voice recognition module for recognizing the user's voice. The speech recognition module is capable of setting recognition words for recognition of isolated words, has a recognition function independent of the speaker, and is capable of outputting recognition results in recognition words and recognition accuracy of the words in units of% Assume a speech recognition module.

이를 위해, 제 2 명령 입력부(160)는 음성을 입력받는 마이크와, 상기 마이크를 통해 입력받은 음성에서 노이즈를 제거하는 필터부는 물론, 상기 필터부에 의해 노이즈가 제거되는 음성신호를 분석하는 분석부 및 아날로그 음성신호를 디지털 음성 신호로 변환하여 출력하는 신호 변환부로 구성될 수 있다.For this, the second command input unit 160 includes a microphone for receiving a voice, a filter unit for removing noise from the voice input through the microphone, and an analyzing unit for analyzing a voice signal from which the noise is removed by the filter unit. And a signal converting unit for converting an analog voice signal into a digital voice signal and outputting the converted digital voice signal.

제어부(170)는 음성 인식 장치의 전반적인 동작을 제어한다.The control unit 170 controls the overall operation of the voice recognition apparatus.

예를 들어, 상기 음성 인식 장치(100)가 네비게이션인 경우, 제어부(170)는 사용자 입력에 대응하는 목적지를 검색하고, 상기 검색한 목적지에 대응하는 길 안내 기능이 실행되도록 할 수 있다.For example, when the speech recognition apparatus 100 is a navigation system, the control unit 170 may search for a destination corresponding to a user input and execute a route guidance function corresponding to the searched destination.

이하에서는, 본 실시 예에 따른 음성 인식 기능을 주된 내용으로 하여 상기 제어부(170)의 동작에 대해 설명하기로 한다.Hereinafter, the operation of the controller 170 will be described with the voice recognition function according to the present embodiment as a main content.

제어부(170)는 상기 제 1 명령 입력부(150) 및 제 2 명령 입력부(160)를 통해 입력되는 복수의 사용자 명령의 조합을 토대로 상기 음성 입력 장치(100)의 동작을 제어한다.The controller 170 controls the operation of the voice input device 100 based on a combination of a plurality of user commands input through the first command input unit 150 and the second command input unit 160.

즉, 제어부(170)는 우선적으로 상기 제 2 명령 입력부(160)를 비활성화시킨다. 예를 들어, 평상시에는 상기 제 2 명령 입력부(160)가 비활성화되어, 음성 인식 동작을 수행하지 않는다.That is, the control unit 170 first deactivates the second instruction input unit 160. For example, the second instruction input unit 160 is inactivated normally so that speech recognition is not performed.

상기 제 2 명령 입력부(160)에 의한 음성 인식 기능은, 상기 제 1 명령 입력부(150)에 의해 입력되는 명령에 의해 활성화될 수 있다.The voice recognition function by the second command input unit 160 may be activated by a command input by the first command input unit 150. [

이를 위해, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력되는 명령을 수신하고, 상기 수신된 명령이 기설정된 제 1 명령인 경우, 상기 제 2 명령 입력부(160)를 동작시켜 상기 음성 인식 기능이 활성화되도록 한다.The controller 170 receives the command input through the first command input unit 150 and operates the second command input unit 160 when the received command is a preset first command, Enable the voice recognition function.

이때, 상기 제 1 명령은, 상기 제 2 명령 입력부(160)를 활성화시키기 위한 명령일 수 있다.At this time, the first command may be a command for activating the second command input unit 160.

예를 들어, 상기 제 1 명령 입력은, 상기 터치 스크린상에서 특정 메뉴 항목을 터치한 경우일 수 있다. 특히, 상기 특정 메뉴 항목은, 상기 제 2 명령 입력부(160)를 활성화하기 위한 메뉴 항목일 수 있다.For example, the first command input may be a touch of a specific menu item on the touch screen. In particular, the specific menu item may be a menu item for activating the second command input unit 160. [

이와 다르게, 상기 제 1 명령 입력은, 상기 터치 스크린상에서 특정 영역(특정 메뉴가 할당되지 않은 임의의 영역)을 터치한 경우일 수 있다.Alternatively, the first command input may be a touch of a specific area (an arbitrary area to which a specific menu is not allocated) on the touch screen.

또한, 이와 다르게 상기 제 1 명령 입력은 다수의 로컬 키 중 상기 음성 인식 기능의 활성화를 위한 기능이 할당된 로컬 키를 입력한 경우일 수 있다.Alternatively, the first command input may be a case where a local key assigned a function for activating the voice recognition function among a plurality of local keys is inputted.

또한, 이와 다르게 상기 제 1 명령 입력은 원격제어장치에 구비된 다수의 키 중 상기 음성 인식 기능의 활성화를 위한 기능이 할당된 특정 키를 입력할 경우일 수 있다.Alternatively, the first command input may be for inputting a specific key assigned a function for activating the voice recognition function among a plurality of keys provided in the remote controller.

또한, 이와 다르게 상기 제 1 명령 입력은 상기 음성 인식 장치(100)와 연계된 입력 장치(예를 들어, 차량의 핸들에 장착된 키 버튼)에서 상기 음성 인식 기능의 활성화를 위한 기능이 할당된 특정 키 버튼을 입력할 경우일 수 있다.Alternatively, the first command input may be a specific command assigned to a function for activating the voice recognition function in an input device associated with the voice recognition apparatus 100 (for example, a key button mounted on a handle of a vehicle) Key button is pressed.

이와 같이, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력되는 명령을 수신하고, 상기 수신한 명령이 상기와 같이 음성 인식 기능의 활성화를 위한 제 1 명령인지 여부를 확인한다.In this way, the controller 170 receives the command input through the first command input unit 150, and determines whether the received command is the first command for activating the voice recognition function as described above.

이때, 상기 제 1 명령 입력부(150)를 통해 입력된 명령이 제 1 명령이 아니면, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력된 명령에 대응하는 기능을 실행시킨다. 예를 들어, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력된 명령이 목적지 검색을 위한 명령이면, 상기 입력된 명령에 대응하는 목적지 검색 기능을 실행시킨다.At this time, if the command input through the first command input unit 150 is not the first command, the controller 170 executes a function corresponding to the command input through the first command input unit 150. [ For example, if the command input through the first command input unit 150 is a destination search command, the control unit 170 executes a destination search function corresponding to the input command.

또한, 상기 제 1 명령 입력부(150)를 통해 입력된 명령이 제 1 명령이면, 제어부(170)는 상기 입력된 제 1 명령에 따라 상기 제 2 명령 입력부(160)를 동작시킨다. 다시 말해서, 상기 제어부(170)는 상기 제 1 명령이 입력됨에 따라 상기 제 2 명령 입력부(160)를 동작(예를 들어, 마이크 등)시켜 음성 인식 기능을 활성화시킨다.If the command input through the first command input unit 150 is a first command, the controller 170 operates the second command input unit 160 according to the input first command. In other words, the controller 170 activates the voice recognition function by operating the second command input unit 160 (e.g., a microphone or the like) as the first command is input.

이때, 상기 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 상기 제 1 명령이 입력되는 동안에만 상기 음성 인식 기능을 활성화시킨다.At this time, the controller 170 activates the voice recognition function only while the first command is input through the first command input unit 150. [

다시 말해서, 상기 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 계속 입력되고 있다면, 상기 음성 인식 기능을 활성화시키고, 상기 제 1 명령 입력부(150)를 통해 제 1 명령의 입력이 중지되면, 상기 음성 인식 기능을 비활성화시킨다.In other words, if the first command is continuously inputted through the first command input unit 150, the control unit 170 activates the voice recognition function and transmits the first command through the first command input unit 150 When the input is stopped, the voice recognition function is deactivated.

만약, 상기 제 1 명령이 터치 스크린의 임의의 지점의 터치를 통해 입력된다면, 상기 제어부(170)는 상기 임의의 지점에 대한 터치가 이루어지는 동안에만 상기 음성 인식 기능을 활성화하고, 상기 터치가 계속적으로 이루어지다가 해제되면 상기 음성 인식 기능을 비활성화시킨다.If the first command is input through the touch of any point on the touch screen, the controller 170 activates the voice recognition function only while the touch is performed on the arbitrary point, And when it is released, the voice recognition function is deactivated.

이에 따라, 상기 제 2 명령 입력부(160)는 상기 제 1 명령 입력부(150)를 통해 상기 음성 인식 기능 활성화를 위한 제 1 명령이 입력되고 있는 시점에만 동작하여 음성 인식을 수행한다.Accordingly, the second command input unit 160 operates only when the first command for activating the voice recognition function is input through the first command input unit 150, thereby performing voice recognition.

이때, 상기 음성 인식률을 높이기 위해서는 사용자가 원하는 음성만을 인식해야 한다. 그러나, 사용 환경상 상기 음성 인식 장치(100)의 주변에는 다양한 음성이 발생할 수 있다.At this time, in order to increase the voice recognition rate, only the voice desired by the user should be recognized. However, various voices may occur in the vicinity of the speech recognition apparatus 100 due to the use environment.

이에 따라, 제어부(170)는 상기 음성 인식 기능이 활성화됨에 따라 상기 음성 인식 장치(100)의 주변에 위치한 주변 기기의 음성 출력을 차단한다. 예를 들어, 제어부(170)는 상기 음성 인식 기능이 활성화됨에 따라 오디오 장치, 라디오 장치 등과 같은 음성 출력 장치의 출력을 차단한다.Accordingly, the control unit 170 blocks the audio output of the peripheral device located in the vicinity of the voice recognition device 100 as the voice recognition function is activated. For example, the control unit 170 blocks the output of the audio output device such as an audio device, a radio device or the like as the voice recognition function is activated.

이를 위해, 제어부(170)는 무선 통신부(110)를 통해 상기 주변 기기의 음성 출력 차단을 위한 제어 신호를 출력하며, 상기 주변기기들은 상기 출력되는 제어 신호를 이용하여 기출력되고 있는 음성 신호의 출력을 차단한다.For this purpose, the control unit 170 outputs a control signal for interrupting the audio output of the peripheral device through the wireless communication unit 110, and the peripheral devices output the audio signal being output by using the output control signal .

한편, 상기에서는 상기 제 1 명령이 입력되는 시점에만 음성 인식 기능을 활성화한다고 하였으나, 상기 제 1 명령이 입력되지 않는 시점에도 상기 음성 인식 기능을 활성화할 수도 있다.In the above description, the voice recognition function is activated only when the first command is input. However, the voice recognition function may be activated even when the first command is not input.

예를 들어, 제어부(170)는 상기 제 1 명령이 입력되는 동안의 음성 인식 조건과, 상기 제 1 명령이 입력되지 않는 동안의 음성 인식 조건을 서로 다르게 적용하여, 상기 제 2 명령 입력부(160)에 의한 음성 인식이 이루어지도록 할 수도 있다.For example, the controller 170 may apply the speech recognition condition while the first command is input and the speech recognition condition during which the first command is not input, to the second command input unit 160, So that the voice recognition can be performed.

이때, 상기 음성 인식 조건은 음성 인식을 수행하기 위한 민감도를 포함할 수 있다. 상기 민감도는 상기 음성 인식률과 연관성이 높다. At this time, the speech recognition condition may include a sensitivity for performing speech recognition. The sensitivity is highly related to the speech recognition rate.

이에 따라, 상기 제어부(170)는 상기 제 1 명령이 입력되지 않는 시점에는 상기 민감도를 제 1 레벨로 설정하여 상기 음성 인식률을 낮춤으로써, 더욱 정확한 사용자 음성만이 인식되도록 하고, 상기 제 1 명령이 입력되는 시점에는 상기 민감도를 상기 제 1 레벨보다 높은 제 2 레벨로 조정하여, 상기 음성 인식률을 증가시킨다.Accordingly, when the first command is not inputted, the controller 170 sets the sensitivity to the first level and lowers the voice recognition rate so that only the more accurate user voice is recognized. And adjusts the sensitivity to a second level higher than the first level at the time of input, thereby increasing the voice recognition rate.

이에 따라, 실시 예에서는, 음성 인식 기능을 활성화하기 위한 제 1 명령이 입력되는 시점에만 음성 인식 기능이 활성화되도록 하여, 음성 인식에 대한 검출률을 높이면서 음성 오인식에 따른 오작동을 방지할 수 있다.Accordingly, in the embodiment, the voice recognition function is activated only at the time when the first command for activating the voice recognition function is inputted, thereby enhancing the detection rate for voice recognition and preventing malfunction due to the voice recognition mistake.

도 2는 실시 예에 따른 음성 인식 방법을 개략적으로 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining a speech recognition method according to an embodiment of the present invention.

도 2를 참조하면, 제 1 명령 입력부(150)를 제 1 명령을 입력받으며, 그에 따라 상기 입력받은 제 1 명령을 제어부(170)에 전달한다(110단계).Referring to FIG. 2, the first command input unit 150 receives the first command, and transmits the first command to the controller 170 in step 110.

제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 입력됨에 따라 음성 인식 기능을 활성화시킨다(120단계). 즉, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 입력되면, 상기 제 2 명령 입력부(160)를 동작시켜 사용자 음성이 인식되도록 한다(120단계).The control unit 170 activates the voice recognition function as the first command is input through the first command input unit 150 (operation 120). That is, when the first command is input through the first command input unit 150, the controller 170 operates the second command input unit 160 to recognize the user voice in operation 120.

이때, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 계속적으로 입력되는지 여부에 따라 상기 음성 인식 기능의 활성화를 유지하거나 비활성화시킨다.At this time, the control unit 170 maintains or inactivates the activation of the voice recognition function depending on whether the first command is continuously input through the first command input unit 150.

제 2 명령 입력부(160)는 상기 음성 인식 기능이 활성화됨에 따라 외부로부터 입력되는 사용자 음성에 따른 제 2 명령을 인식하고, 그에 따라 상기 인식한 제 2 명령을 제어부(170)에 전달한다(130단계).The second command input unit 160 recognizes the second command according to the user's voice input from the outside as the voice recognition function is activated and transmits the recognized second command to the controller 170 in step 130 ).

이때, 상기 제 2 명령은, 상기 제 1 명령이 계속적으로 입력되는 시점에만 인식되어 상기 제어부(170)로 전달된다. 즉, 상기 제 1 명령의 입력이 해제되면, 상기 제 2 명령 입력부(160)는 비활성화되며, 그에 따라 상기 제 2 명령을 인식할 수 없는 상태가 된다. At this time, the second command is recognized only at the time when the first command is continuously inputted, and the second command is transmitted to the controller 170. That is, when the input of the first command is canceled, the second command input unit 160 is inactivated, and thus the second command can not be recognized.

이에 따라, 상기 제 2 명령 입력부(160)는 상기 제 1 명령이 인식됨에 따라 상기 제어부(170)를 통해 음성 인식 기능의 활성화가 유지되는 시점에만 동작하여 상기 제 2 명령의 입력을 인식하게 된다.Accordingly, the second command input unit 160 recognizes the input of the second command only when the activation of the voice recognition function is maintained through the controller 170 as the first command is recognized.

제어부(170)는 상기 제 2 명령 입력부(160)를 통해 제 2 명령이 전달됨에 따라 상기 제 2 명령에 대응하는 기능을 실행시킨다(140단계).The control unit 170 executes a function corresponding to the second instruction as the second instruction is transmitted through the second instruction input unit 160 (step 140).

이하, 도 2에 도시된 음성 인식 방법에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, the speech recognition method shown in FIG. 2 will be described in more detail.

도 3은 실시 예에 따른 음성 인식 활성화 방법을 설명하는 도면이다.3 is a view for explaining a speech recognition activation method according to the embodiment.

도 3을 참조하면, 먼저 제 1 명령 입력부(150)를 통해 특정 명령이 입력된다(210단계). 이때, 상기 입력된 명령은 음성 인식 기능의 활성화를 위한 제 1 명령일 수도 있고, 상기 제 1 명령이 아닌 다른 명령일 수도 있다.Referring to FIG. 3, a specific command is input through the first command input unit 150 (Step 210). At this time, the input command may be a first command for activating the voice recognition function, or may be a command other than the first command.

제 1 명령 입력부(150)는 상기 특정 명령이 입력됨에 따라 상기 입력된 명령을 제어부(170)로 전달하며, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 전달되는 명령을 인식한다(220단계).The first command input unit 150 transmits the input command to the controller 170 in response to the input of the specific command and the controller 170 recognizes the command transmitted through the first command input unit 150 Step 220).

제어부(170)는 상기 명령이 인식되면, 상기 인식한 명령이 음성 인식 기능의 활성화를 위한 제 1 명령인지, 아니면 상기 제 1 명령이 아닌 특정 기능 실행을 위한 다른 명령인지 여부를 판단한다(230단계).If the command is recognized, the control unit 170 determines whether the recognized command is a first command for activating the voice recognition function or another command for executing a specific function instead of the first command ).

상기 판단결과(230단계), 상기 인식한 명령이 상기 음성 인식 기능의 활성화를 위한 제 1 명령이면, 상기 제어부(170)는 음성 인식 기능을 활성화시키면서, 상기 음성 인식 기능이 활성화되었음을 알리는 안내 화면 또는 안내 음성을 출력한다(240단계).If the recognized command is a first command for activating the voice recognition function, the controller 170 activates the voice recognition function and displays a guidance screen informing that the voice recognition function is activated And outputs a guidance voice (Step 240).

도 4는 실시 예에 따른 안내 화면을 나타낸 도면이다.4 is a view showing a guidance screen according to the embodiment.

즉, 제어부(170)는 상기 제 1 명령의 입력이 인식됨에 따라 상기 출력부(130)를 통해 "제 1 명령이 입력되는 동안 음성 인식 기능이 활성화됩니다"라는 메시지와 함께, "원하시는 기능을 말하세요"와 같은 안내 메시지를 포함하는 안내 화면이 디스플레이되도록 한다.That is, when the input of the first command is recognized, the control unit 170 transmits a message "Voice recognition function is activated while the first command is input" through the output unit 130, Quot; please "is displayed.

한편, 상기 판단결과(230단계), 상기 인식한 명령이 제 1 명령이 아닌 다른 명령이면, 상기 제어부(170)는 상기 입력된 명령에 대응하는 동작을 수행한다(250단계).If the recognized command is a command other than the first command, the controller 170 performs an operation corresponding to the input command (operation 250).

예를 들어, 상기 제어부(170)는 상기 입력된 명령이 길 안내 개시를 위한 명령이면, 사용자로부터 입력된 명령에 대응하는 목적지 안내 방송을 개시한다.For example, if the input command is an instruction to start route guidance, the control unit 170 starts destination announcement broadcasting corresponding to the command input from the user.

도 5는 실시 예에 따라 음성 인식 기능이 활성화됨에 따른 부가 기능을 설명하기 위한 도면이다.5 is a diagram for explaining an additional function according to the embodiment in which the voice recognition function is activated.

도 5를 참조하면, 제어부(170)는 상기와 같이 제 1 명령이 입력됨에 따라 음성 인식 기능을 활성화한다(310단계).Referring to FIG. 5, the controller 170 activates the voice recognition function as the first command is input (step 310).

이때, 제어부(170)는 상기 음성 인식 기능이 활성화됨에 따라 상기 음성 인식의 검출률을 높이기 위해, 주변 음성을 차단시킨다. 다시 말해서, 제어부(170)는 음성 인식 장치(100)의 주변에 위치한 주변 기기(예를 들어, 오디오 장치, 라디오 등)에 음성 출력 차단 신호를 전송하여, 상기 주변 기기를 통해 음성이 출력되지 않도록 한다(320단계).At this time, the control unit 170 blocks the surrounding speech in order to increase the detection rate of the speech recognition as the speech recognition function is activated. In other words, the control unit 170 transmits a voice output cutoff signal to a peripheral device (for example, an audio device, a radio, etc.) located in the vicinity of the voice recognition device 100 so as not to output voice through the peripheral device (Step 320).

한편, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 계속적으로 입력되고 있는지 여부를 판단한다(330단계).Meanwhile, the controller 170 determines whether the first command is continuously input through the first command input unit 150 (step 330).

다시 말해서, 제어부(170)는 상기 제 1 명령의 입력이 중지(해제)되었는지 여부를 판단한다(330단계). In other words, the controller 170 determines whether the input of the first command is suspended (released) (operation 330).

상기 판단결과(330단계), 상기 제 1 명령의 입력이 중지되었다면, 상기 제어부(170)는 상기 활성화하였던 음성 인식 기능을 비활성화한다(340단계). 다시 말해서, 제어부(170)는 상기 제 2 명령 입력부(160)의 동작을 중지시킨다.If the input of the first command is stopped (step 330), the controller 170 deactivates the activated voice recognition function (step 340). In other words, the control unit 170 stops the operation of the second command input unit 160.

이때, 제어부(170)는 도 6에 도시된 바와 같이, 상기 제 1 명령의 입력이 중지되어, 상기 음성 인식 기능이 비활성화되었음을 알리는 안내 화면을 표시한다.At this time, as shown in FIG. 6, the control unit 170 displays the guidance screen informing that the input of the first command is stopped and the voice recognition function is inactivated.

또한, 제어부(170)는 상기 음성 인식 기능이 비활성화됨에 따라 상기 주변 기기의 음성 출력 차단을 해제한다(350단계).Also, the control unit 170 cancels the audio output interruption of the peripheral device as the voice recognition function is deactivated (operation 350).

즉, 제어부(170)는 도 7에 도시된 바와 같이, 상기 제 1 명령이 입력됨에 따라 상기 주변 기기의 음성 출력이 차단되었음을 알리는 안내 화면을 표시한다.That is, as shown in FIG. 7, the control unit 170 displays a guidance screen informing that the audio output of the peripheral device is blocked as the first command is input.

이때, 상기 안내 화면에는 상기 음성 인식 기능이 활성화됨에 따라 주변 기기의 음성 출력이 차단되었음을 알리는 메시지를 포함할 수 있다. 한편, 도 7에는 상기와 같은 메시지만을 포함하는 안내 화면이 도시되었지만, 이는 일 실시 예에 불과할 뿐, 상기 차단된 주변 기기의 정보를 출력할 수도 있을 것이다. At this time, the guidance screen may include a message informing that the audio output of the peripheral device is blocked as the voice recognition function is activated. Meanwhile, although FIG. 7 shows a guidance screen including only the message as described above, it may output the information of the blocked peripheral device only as an example.

도 8은 실시 예에 따른 음성 인식 장치의 민감도 조정 방법을 설명하는 도면이다.8 is a view for explaining a sensitivity adjustment method of the speech recognition apparatus according to the embodiment.

도 8을 참조하면, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 입력되고 있는지 여부를 판단한다(410단계).Referring to FIG. 8, the controller 170 determines whether a first command is being input through the first command input unit 150 (step 410).

상기 판단결과(410단계), 상기 제 1 명령 입력부를 통해 제 1 명령이 입력되고 있으면, 제어부(170)는 상기 음성 인식을 위한 민감도를 증가시킨다(420단계). If it is determined in operation 410 that the first command is input through the first command input unit, the controller 170 increases the sensitivity for the speech recognition in operation 420.

이때, 상기 민감도는 상기 제 2 명령 입력부(160)를 구성하는 마이크의 민감도일 수 있다. 상기 민감도를 증가시키면 이에 따른 음성 인식률도 증가된다.In this case, the sensitivity may be the sensitivity of the microphone constituting the second command input unit 160. Increasing the sensitivity increases the voice recognition rate accordingly.

제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력되는 제 1 명령의 입력 중지가 이루어졌는지 여부를 판단한다(430단계).The controller 170 determines whether or not the first command input through the first command input unit 150 is stopped (step 430).

상기 제 1 명령의 입력이 중지되었다면 제어부(170)는 상기 증가한 민감도를 원 레벨로 감소시킨다(440단계). 즉, 상기에서는 상기 제 1 명령의 입력이 중지되면 상기 음성 인식 기능을 비활성화시켰지만, 다른 실시 예에서는 상기 제 1 명령의 입력이 중지되어도 상기 음성 인식 기능의 활성화를 유지하면서 상기 민감도만을 감소시킨다.If the input of the first command is stopped, the controller 170 decreases the increased sensitivity to the original level (step 440). That is, although the speech recognition function is inactivated when the input of the first command is stopped, in another embodiment, only the sensitivity is reduced while the activation of the speech recognition function is maintained even if the input of the first command is stopped.

상기 음성 인식 기능의 민감도가 감소하게 되면, 상기 제 2 명령 입력부(160)는 보다 확실한 사용자 음성만을 인식하기 때문에 음성 오인식에 따른 오작동을 방지할 수 있게 된다.If the sensitivity of the speech recognition function is reduced, the second instruction input unit 160 recognizes only the more reliable user speech, thereby preventing a malfunction due to the speech recognition mistake.

즉, 제어부(170)는 도 9에 도시된 바와 같이 상기 제 1 명령이 입력됨에 따라 상기 음성 인식의 민감도가 증가하였음을 알리는 메시지를 표시한다.That is, as shown in FIG. 9, the controller 170 displays a message indicating that the sensitivity of the speech recognition is increased as the first command is input.

한편, 상기와 같은 민감도는 사용자에 의해 설정될 수 있다.Meanwhile, the above sensitivity can be set by the user.

즉, 도 10에 도시된 바와 같이 상기 제 1 명령이 입력되지 않는 시점(평상시)에 적용되는 제 1 민감도와, 상기 제 1 명령이 입력되고 있는 시점에 적용되는 제 2 민감도를 설정할 수 있는 메뉴 화면을 제공한다.That is, as shown in FIG. 10, a menu screen for setting a first sensitivity applied at a time when the first command is not input (normal) and a second sensitivity applied at a time when the first command is inputted .

그리고, 제어부(170)는 상기 메뉴 화면상에서 설정되는 제 1 민감도와 제 2 민감도를 메모리에 저장하고, 추후 상기 설정된 제 1 민감도 및 제 2 민감도를 적용하여 음성 인식 기능을 실행시킨다.The controller 170 stores the first sensitivity and the second sensitivity, which are set on the menu screen, in the memory, and then executes the voice recognition function by applying the first sensitivity and the second sensitivity.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

110: 무선 통신부
120: 전원 공급부
130: 출력부
140: 메모리
150: 제 1 명령 입력부
160: 제 2 명령 입력부
170: 제어부
110:
120: Power supply
130:
140: Memory
150: first command input section
160: second command input
170:

Claims (16)

사용자 입력 신호를 수신하는 제 1 사용자 입력부;
음성을 수신 및 인식하는 제 2 사용자 입력부; 및,
상기 제1 사용자 입력부를 통해 입력되는 상기 사용자 입력 신호에 기반하여 상기 제2 사용자 입력부를 제어하는 제어부를 포함하고,
상기 제어부는,
상기 사용자 입력 신호가 제1 명령이고, 상기 제2 사용자 입력부가 비활성화 상태이면, 상기 제2 사용자 입력부를 활성화시키고,
상기 사용자 입력 신호가 상기 제1 명령이 아니면, 상기 수신된 사용자 입력 신호에 대응하는 기능이 수행되도록 제어하고,
상기 사용자 입력 신호가 제1 명령인 경우, 무선 통신부를 통해 주변 기기의 음성 출력을 차단하기 위한 제어 신호를 출력하며,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 계속적으로 입력되면, 상기 제2 사용자 입력부의 음성 인식 민감도를 증가시키고, 상기 음성 인식 민감도가 증가하였음을 알리는 메시지를 표시하며,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 입력되지 않으면, 상기 제2 사용자 입력부의 상기 음성 인식 민감도를 감소시키며,
상기 제2 사용자 입력부의 활성화는,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 입력되지 않을 때까지 유지되는 음성 인식 장치.
A first user input for receiving a user input signal;
A second user input unit for receiving and recognizing a voice; And
And a controller for controlling the second user input unit based on the user input signal input through the first user input unit,
Wherein,
Activating the second user input if the user input signal is a first instruction and the second user input is inactive,
Controlling the function corresponding to the received user input signal to be performed if the user input signal is not the first instruction,
When the user input signal is the first command, outputs a control signal for interrupting the audio output of the peripheral device through the wireless communication unit,
Wherein when the first command is continuously input through the first user input unit, the second user input unit increases the voice recognition sensitivity of the second user input unit, displays a message indicating that the voice recognition sensitivity is increased,
Wherein if the first instruction is not input through the first user input unit, the second user input unit decreases the speech recognition sensitivity of the second user input unit,
Wherein the activation of the second user input comprises:
And the second instruction is held until the first instruction is not inputted through the first user input unit.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 음성 인식 기능을 비활성화시키는 단계;
제1 사용자 입력부를 통해 사용자 입력 신호를 수신하는 단계;
상기 사용자 입력 신호가 제1 명령인지 여부를 판단하는 단계;
상기 사용자 입력 신호가 상기 제1 명령이면, 무선 통신부를 통해 주변기기의 음성 출력을 차단하기 위한 제어 신호를 전송하고, 상기 음성 인식 기능을 활성화시키는 단계;
상기 사용자 입력 신호가 상기 제1 명령이 아니면, 상기 사용자 입력 신호에 대응하는 기능을 수행하는 단계;
상기 제1 명령이 상기 제1 사용자 입력부를 통해 계속적으로 입력되는지 여부를 판단하는 단계;
상기 제1 사용자 입력부를 통해 상기 제1 명령이 계속적으로 입력되면, 상기 음성 인식 기능의 음성 인식 민감도를 제1 레벨로 증가시키는 단계;
상기 음성 인식 민감도가 상기 제1 레벨로 증가하였음을 알리는 메시지를 표시하는 단계; 및
상기 제1 사용자 입력부를 통해 상기 제1 명령이 계속적으로 입력되지 않으면, 상기 음성 인식 기능의 상기 음성 인식 민감도를 상기 제1 레벨에서 제2 레벨로 감소시키는 단계를 포함하고,
상기 음성 인식 기능의 활성화는,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 입력되지 않을 때까지 유지되며,
상기 제 1 레벨 및 제 2 레벨은,
사용자에 의해 설정 및 변경이 가능한 음성 인식 방법.
Deactivating the speech recognition function;
Receiving a user input signal via a first user input;
Determining whether the user input signal is a first instruction;
If the user input signal is the first command, transmitting a control signal for blocking the audio output of the peripheral device through the wireless communication unit and activating the voice recognition function;
Performing a function corresponding to the user input signal if the user input signal is not the first instruction;
Determining whether the first instruction is continuously input via the first user input unit;
Increasing the speech recognition sensitivity of the speech recognition function to a first level when the first instruction is continuously input through the first user input unit;
Displaying a message indicating that the speech recognition sensitivity has increased to the first level; And
And decreasing the speech recognition sensitivity of the speech recognition function from the first level to a second level if the first instruction is not continuously input through the first user input,
The activation of the speech recognition function may be performed,
The first instruction is not input through the first user input unit,
Wherein the first level and the second level are < RTI ID = 0.0 &
A speech recognition method that can be set and changed by a user.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020120090513A 2012-08-20 2012-08-20 Speech recognition device and speech recognition method Expired - Fee Related KR101987255B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120090513A KR101987255B1 (en) 2012-08-20 2012-08-20 Speech recognition device and speech recognition method
PCT/KR2012/010567 WO2014030809A1 (en) 2012-08-20 2012-12-06 Voice recognition apparatus and method of recognizing voice
US14/420,768 US10037757B2 (en) 2012-08-20 2012-12-06 Voice recognition apparatus and method of recognizing voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120090513A KR101987255B1 (en) 2012-08-20 2012-08-20 Speech recognition device and speech recognition method

Publications (2)

Publication Number Publication Date
KR20140024536A KR20140024536A (en) 2014-03-03
KR101987255B1 true KR101987255B1 (en) 2019-06-11

Family

ID=50150094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120090513A Expired - Fee Related KR101987255B1 (en) 2012-08-20 2012-08-20 Speech recognition device and speech recognition method

Country Status (3)

Country Link
US (1) US10037757B2 (en)
KR (1) KR101987255B1 (en)
WO (1) WO2014030809A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10054327B2 (en) 2013-08-21 2018-08-21 Honeywell International Inc. Devices and methods for interacting with an HVAC controller
KR102210433B1 (en) * 2014-01-21 2021-02-01 삼성전자주식회사 Electronic device for speech recognition and method thereof
KR101517738B1 (en) * 2014-05-13 2015-05-04 박남태 The method of voice control for display device and voice control display device
KR102185564B1 (en) * 2014-07-09 2020-12-02 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
KR102453603B1 (en) * 2015-11-10 2022-10-12 삼성전자주식회사 Electronic device and method for controlling thereof
US10642233B2 (en) * 2016-01-04 2020-05-05 Ademco Inc. Device enrollment in a building automation system aided by audio input
US10621992B2 (en) * 2016-07-22 2020-04-14 Lenovo (Singapore) Pte. Ltd. Activating voice assistant based on at least one of user proximity and context
US10965899B1 (en) * 2017-04-17 2021-03-30 Alarm.Com Incorporated System and method for integration of a television into a connected-home monitoring system
US10664533B2 (en) 2017-05-24 2020-05-26 Lenovo (Singapore) Pte. Ltd. Systems and methods to determine response cue for digital assistant based on context
DE102017213241A1 (en) * 2017-08-01 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Method, device, mobile user device, computer program for controlling an audio system of a vehicle
US10524046B2 (en) 2017-12-06 2019-12-31 Ademco Inc. Systems and methods for automatic speech recognition
KR102606789B1 (en) * 2018-10-01 2023-11-28 삼성전자주식회사 The Method for Controlling a plurality of Voice Recognizing Device and the Electronic Device supporting the same

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57118299A (en) * 1981-01-14 1982-07-23 Nissan Motor Voice load driver
US6012030A (en) * 1998-04-21 2000-01-04 Nortel Networks Corporation Management of speech and audio prompts in multimodal interfaces
FI981154A7 (en) * 1998-05-25 1999-11-26 Nokia Mobile Phones Ltd Method and device for speech recognition
JP3157788B2 (en) * 1998-11-12 2001-04-16 埼玉日本電気株式会社 Portable information terminals
SE9902229L (en) * 1999-06-07 2001-02-05 Ericsson Telefon Ab L M Apparatus and method of controlling a voice controlled operation
DE10058786A1 (en) * 2000-11-27 2002-06-13 Philips Corp Intellectual Pty Method for controlling a device having an acoustic output device
US7085722B2 (en) * 2001-05-14 2006-08-01 Sony Computer Entertainment America Inc. System and method for menu-driven voice control of characters in a game environment
US20030033143A1 (en) * 2001-08-13 2003-02-13 Hagai Aronowitz Decreasing noise sensitivity in speech processing under adverse conditions
US20030095675A1 (en) * 2001-10-19 2003-05-22 Marlow C. Allen Light communication channel-based voice-activated control system and method for implementing thereof
US20030212562A1 (en) * 2002-05-13 2003-11-13 General Motors Corporation Manual barge-in for server-based in-vehicle voice recognition systems
US8068881B2 (en) * 2002-08-09 2011-11-29 Avon Associates, Inc. Voice controlled multimedia and communications system
JP4304952B2 (en) * 2002-10-07 2009-07-29 三菱電機株式会社 On-vehicle controller and program for causing computer to execute operation explanation method thereof
DE10251113A1 (en) * 2002-11-02 2004-05-19 Philips Intellectual Property & Standards Gmbh Voice recognition method, involves changing over to noise-insensitive mode and/or outputting warning signal if reception quality value falls below threshold or noise value exceeds threshold
US7142678B2 (en) * 2002-11-26 2006-11-28 Microsoft Corporation Dynamic volume control
KR20040075615A (en) * 2003-02-22 2004-08-30 이영일 Subsidiary apparatus of voice recognition system for automobile
DE602004010054T2 (en) * 2004-01-19 2008-03-06 Harman Becker Automotive Systems Gmbh Actuation of a speech dialogue system
US8095364B2 (en) * 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
WO2005122145A1 (en) 2004-06-08 2005-12-22 Metaphor Solutions, Inc. Speech recognition dialog management
JP4416643B2 (en) * 2004-06-29 2010-02-17 キヤノン株式会社 Multimodal input method
JP2008048076A (en) * 2006-08-11 2008-02-28 Canon Inc Voice processor and its control method
US8214219B2 (en) * 2006-09-15 2012-07-03 Volkswagen Of America, Inc. Speech communications system for a vehicle and method of operating a speech communications system for a vehicle
US8140325B2 (en) * 2007-01-04 2012-03-20 International Business Machines Corporation Systems and methods for intelligent control of microphones for speech recognition applications
DE102008051757A1 (en) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodal user interface of a driver assistance system for entering and presenting information
JP2009229899A (en) * 2008-03-24 2009-10-08 Toshiba Corp Device and method for voice recognition
EP2107553B1 (en) * 2008-03-31 2011-05-18 Harman Becker Automotive Systems GmbH Method for determining barge-in
KR101513615B1 (en) * 2008-06-12 2015-04-20 엘지전자 주식회사 A mobile terminal and a voice recognition method thereof
US9070282B2 (en) * 2009-01-30 2015-06-30 Altorr Corp. Smartphone control of electrical devices
KR101566379B1 (en) 2009-05-07 2015-11-13 삼성전자주식회사 Method For Activating User Function based on a kind of input signal And Portable Device using the same
KR101567603B1 (en) 2009-05-07 2015-11-20 엘지전자 주식회사 Apparatus and Method for controlling an operation in a multi voice recognition system
US8412531B2 (en) * 2009-06-10 2013-04-02 Microsoft Corporation Touch anywhere to speak
US8788267B2 (en) * 2009-09-10 2014-07-22 Mitsubishi Electric Research Laboratories, Inc. Multi-purpose contextual control
US8294683B2 (en) * 2009-09-25 2012-10-23 Mitac International Corp. Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition
KR101631939B1 (en) * 2009-12-02 2016-06-20 엘지전자 주식회사 Mobile terminal and method for controlling the same
US8428759B2 (en) * 2010-03-26 2013-04-23 Google Inc. Predictive pre-recording of audio for voice input
US20120260176A1 (en) * 2011-04-08 2012-10-11 Google Inc. Gesture-activated input using audio recognition
US9318129B2 (en) * 2011-07-18 2016-04-19 At&T Intellectual Property I, Lp System and method for enhancing speech activity detection using facial feature detection
US9159322B2 (en) * 2011-10-18 2015-10-13 GM Global Technology Operations LLC Services identification and initiation for a speech-based interface to a mobile device
US9263044B1 (en) * 2012-06-27 2016-02-16 Amazon Technologies, Inc. Noise reduction based on mouth area movement recognition

Also Published As

Publication number Publication date
WO2014030809A1 (en) 2014-02-27
KR20140024536A (en) 2014-03-03
US10037757B2 (en) 2018-07-31
US20150187354A1 (en) 2015-07-02

Similar Documents

Publication Publication Date Title
KR101987255B1 (en) Speech recognition device and speech recognition method
US11275484B2 (en) Method of controlling device having plurality of operating systems installed therein, and the device
US9892313B2 (en) Electronic device and control method thereof
KR101582686B1 (en) Item display method and mobile communication terminal using the method
US8532707B2 (en) Mobile terminal having multiple subscriber identity modules (SIMs) with different phone numbers
US20100323671A1 (en) Mobile terminal and method of performing functions using the same
US10222928B2 (en) Electronic device
EP2884492A1 (en) Method and electronic device for tracking audio
KR20220100988A (en) How to move icons and electronic devices
KR101802498B1 (en) Mobile terminal and method for searching location information using touch pattern recognition thereof
KR101951480B1 (en) Electronic Device And Method Of Controlling The Same
US9955288B2 (en) Electronic device and operation method of the same
KR101902404B1 (en) Mobile terminal and controlling method thereof, and recording medium thereof
US20140082496A1 (en) Apparatus and method for controlling volume
KR20140064517A (en) Mobile terminal and application searching method thereof
KR101646097B1 (en) Method of providing active user interface and Mobile Terminal thereof
KR102131018B1 (en) Method for processing received message and electronic device implementing the same
KR101523386B1 (en) A control method of a mobile communication terminal according to a user operation and a mobile communication terminal
US20160070368A1 (en) Method for controlling user interface and electronic device supporting the same
KR20100078413A (en) Method for controlling user interface and display device employing the same
KR20130024580A (en) Mobile terminal and method for providing user interface thereof
KR101554740B1 (en) Location display method and terminal applied thereto
KR101694005B1 (en) Terminal and operating method thereof
KR20140141310A (en) Terminal and operating method thereof
KR102033177B1 (en) Mobile terminal and control method for mobile terminal

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20120820

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20170821

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20120820

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20181120

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20190523

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20190603

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20190604

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20230314

OSZAR »