KR101987255B1 - Speech recognition device and speech recognition method - Google Patents
Speech recognition device and speech recognition method Download PDFInfo
- Publication number
- KR101987255B1 KR101987255B1 KR1020120090513A KR20120090513A KR101987255B1 KR 101987255 B1 KR101987255 B1 KR 101987255B1 KR 1020120090513 A KR1020120090513 A KR 1020120090513A KR 20120090513 A KR20120090513 A KR 20120090513A KR 101987255 B1 KR101987255 B1 KR 101987255B1
- Authority
- KR
- South Korea
- Prior art keywords
- command
- user input
- speech recognition
- input unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000035945 sensitivity Effects 0.000 claims description 30
- 230000003213 activating effect Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 16
- 230000002093 peripheral effect Effects 0.000 claims description 13
- 230000001965 increasing effect Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 6
- 230000000903 blocking effect Effects 0.000 claims description 2
- 230000007423 decrease Effects 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 82
- 230000007257 malfunction Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
- Telephone Function (AREA)
Abstract
실시 예에 따른 음성 인식 장치는, 제 1 사용자 명령을 입력받는 제 1 사용자 입력부; 제 2 사용자 명령을 입력받는 제 2 사용자 입력부; 및, 상기 제 1 및 2 사용자 입력부를 통해 입력되는 제 1 및 2 사용자 명령의 조합에 따라 특정 기능을 실행시키는 제어부를 포함한다.The speech recognition apparatus includes a first user input unit receiving a first user command; A second user input unit for receiving a second user command; And a controller for executing a specific function according to a combination of first and second user commands input through the first and second user input units.
Description
실시 예는, 음성 인식 장치에 관한 것으로, 특히 음성 인식의 신뢰성을 높일 수 있는 음성 인식 장치 및 이의 음성 인식 방법에 관한 것이다.The present invention relates to a speech recognition apparatus and, more particularly, to a speech recognition apparatus and its speech recognition method capable of enhancing the reliability of speech recognition.
단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.A terminal can be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal according to whether the terminal can be moved. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .
한편, 상기와 같은 단말기는 터치 스크린, 리모트 컨트롤러, 로컬 키 버튼 및 음성 인식 모듈 등을 이용하여 사용자 명령을 인식하고, 상기 인식한 사용자 명령에 대응하는 기능을 실행시킨다.Meanwhile, the terminal recognizes a user command using a touch screen, a remote controller, a local key button, and a voice recognition module, and executes a function corresponding to the recognized user command.
상기와 같은 터치 스크린은, 사용자가 터치한 스크린의 좌표를 인식하고, 상기 인식한 좌표에 대응하는 기능을 실행시킨다. 즉, 사용자는 터치 스크린에 표시된 메뉴항목들 중 하나의 항목을 터치할 수 있으며, 단말기는 상기 터치 스크린에서 눌려진 지점에 해당하는 X, Y 좌표를 인식하고, 상기 인식한 X, Y 좌표에 해당하는 기능을 실행시킨다.The touch screen as described above recognizes coordinates of a screen touched by a user, and executes a function corresponding to the recognized coordinates. That is, the user can touch one of the menu items displayed on the touch screen, and the terminal recognizes the X, Y coordinates corresponding to the pressed point on the touch screen, Function.
그러나, 상기와 같은 터치 스크린을 이용한 기능 실행 방법은 사용자가 항상 터치 스크린을 보면서, 자신이 원하는 터치 지점을 확인하고, 상기 확인한 터치 지점을 정확히 터치해야 함으로써, 자동차의 운전중에는 사용이 불편함 문제점이 있다.However, the above-described function execution method using the touch screen requires the user to always check the desired touch point while touching the touch screen, and to accurately touch the confirmed touch point, have.
또한, 음성을 인식하여 기능을 실행하는 경우, 상기 음성 인식을 수행하는 모듈은 항상 활성화 상태를 유지하게 되며, 이로 인해 주위의 잡음 등을 상기 사용자 음성으로 오인식하여 기기가 오작동하는 문제점이 있다.In addition, when performing a function by recognizing a voice, the module for performing the voice recognition is always kept in an activated state, thereby erroneously recognizing surrounding noise or the like as the user voice, thereby causing a malfunction of the device.
이를 해결하기 위해서는, 음성 인식 기능을 온(On), 오프(Off) 할 수 있는데, 이와 같은 경우에는 음성 인식 기능을 사용할 때마다 상기 음성 인식 기능을 온 설정해야 하며, 상기 음성 인식 기능을 모두 사용하면 다시 이를 오프 해야 하는 불편함이 있다.In order to solve this problem, the speech recognition function can be turned on or off. In such a case, the speech recognition function must be turned on every time the speech recognition function is used. There is an inconvenience that it must be turned off again.
실시 예에서는, 음성 인식 검출률을 상승시켜 음성 인식 기능의 신뢰성을 향상시킬 수 있는 음성 인식 장치 및 이의 음성 인식 방법을 제공한다.Embodiments provide a speech recognition apparatus and a speech recognition method thereof capable of raising the speech recognition detection rate and improving the reliability of the speech recognition function.
또한, 실시 예에서는 음성 인식 기능과 연동한 특정 사용자 입력이 존재하는 경우에만 상기 음성 인식 기능을 활성화시켜, 음성 오인식에 의한 오작동을 방지할 수 있는 음성 인식 장치 및 이의 음성 인식 방법을 제공한다.The present invention also provides a speech recognition apparatus and a speech recognition method thereof, which can prevent a malfunction due to a speech recognition mistake by activating the speech recognition function only when there is a specific user input interlocked with the speech recognition function.
제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.
실시 예에 따른 음성 인식 장치는, 제 1 사용자 명령을 입력받는 제 1 사용자 입력부; 제 2 사용자 명령을 입력받는 제 2 사용자 입력부; 및, 상기 제 1 및 2 사용자 입력부를 통해 입력되는 제 1 및 2 사용자 명령의 조합에 따라 특정 기능을 실행시키는 제어부를 포함한다.The speech recognition apparatus includes a first user input unit receiving a first user command; A second user input unit for receiving a second user command; And a controller for executing a specific function according to a combination of first and second user commands input through the first and second user input units.
또한, 상기 제 1 사용자 입력부 및 제 2 사용자 입력부는, 서로 다른 타입으로 상기 제 1 사용자 명령 및 제 2 사용자 명령을 각각 입력받는다. Also, the first user input unit and the second user input unit receive the first user command and the second user command in different types, respectively.
또한, 상기 제 1 사용자 입력부는, 터치 스크린, 원격제어장치, 로컬 키 및 상기 음성 인식 장치와 연계된 키 버튼 중 적어도 어느 하나를 포함하고, 상기 제 2 사용자 입력부는, 사용자 음성을 인식하는 음성 인식 모듈을 포함한다.The first user input unit may include at least one of a touch screen, a remote control device, a local key, and a key button associated with the voice recognition device. The second user input unit may include at least one of a voice recognition Module.
또한, 상기 제어부는, 상기 제 1 사용자 입력부를 통해 제 1 사용자 명령이 입력되면, 상기 제 2 사용자 입력부를 활성화시켜 상기 제 2 사용자 명령을 입력받는다.In addition, when the first user command is input through the first user input unit, the controller activates the second user input unit and receives the second user command.
또한, 상기 제어부는, 상기 제 1 사용자 입력부를 통해 제 1 사용자 명령이 입력되는 동안에 상기 제 2 사용자 입력부를 활성화시키고, 상기 제 1 사용자 명령이 입력이 해제되면 상기 제 2 사용자 입력부를 비활성화시킨다.Also, the controller activates the second user input unit while the first user command is input through the first user input unit, and deactivates the second user input unit when the first user command is released.
또한, 상기 제 1 사용자 명령은, 상기 제 2 사용자 입력부의 활성화를 위한 명령이다.The first user command is an instruction for activating the second user input unit.
또한, 상기 제어부는, 상기 제 1 사용자 명령이 입력되는, 주변 기기의 음성 출력을 차단하기 위한 제어 신호를 출력한다.Also, the control unit outputs a control signal for interrupting the audio output of the peripheral device to which the first user command is input.
또한, 상기 제어부는, 상기 제 1 사용자 명령이 입력되면, 상기 제 2 사용자 입력부를 통해 수행되는 음성 인식 기능의 민감도를 증가시킨다.In addition, the control unit increases the sensitivity of the voice recognition function performed through the second user input unit when the first user command is input.
한편, 실시 예에 따른 음성 인식 방법은 제 1 사용자 명령을 입력받는 단계;Meanwhile, a speech recognition method according to an embodiment includes receiving a first user command;
상기 제 1 사용자 명령이 입력됨에 따라 제 2 사용자 명령을 입력받는 단계; 및 상기 입력된 제 2 사용자 명령에 대응하는 특정 기능을 실행시키는 단계를 포함한다.Receiving a second user command as the first user command is input; And executing a specific function corresponding to the input second user command.
또한, 상기 제 1 사용자 명령은, 상기 제 2 사용자 명령을 입력받기 위한 음성 인식 기능의 활성화 명령이다.The first user command is an instruction for activating a voice recognition function for receiving the second user command.
또한, 상기 제 1 사용자 명령은, 터치 스크린, 원격제어장치, 로컬 키 및 상기 음성 인식 장치와 연계된 키 버튼 중 적어도 어느 하나를 통해 입력되고, 상기 제 2 사용자 명령은, 음성 인식 모듈을 통해 인식된 사용자 음성을 포함한다.The first user command is input through at least one of a touch screen, a remote controller, a local key, and a key button associated with the voice recognition device, and the second user command is recognized through a voice recognition module Lt; / RTI >
또한, 상기 제 2 사용자 명령을 입력받는 단계는, 상기 제 1 사용자 명령이 입력됨에 따라 음성 인식 기능을 활성화하는 단계와, 상기 제 1 사용자 명령이 입력되고 있는 동안에 상기 제 2 사용자 명령을 입력받는 단계를 포함한다.The receiving of the second user command may include activating a voice recognition function as the first user command is input, receiving the second user command while the first user command is being input, .
또한, 상기 제 1 사용자 명령의 입력이 해제되면, 상기 음성 인식 기능을 비활성화하는 단계를 더 포함한다.The method may further include, when the input of the first user command is canceled, deactivating the speech recognition function.
또한, 상기 제 1 사용자 명령이 입력되면, 주변 기기를 통해 출력되는 음성을 차단하는 단계를 더 포함한다.In addition, when the first user command is input, the method further comprises blocking a voice output through the peripheral device.
또한, 상기 제 1 사용자 명령이 입력됨에 따라 상기 제 2 사용자 명령을 입력받기 위한 음성 인식 민감도를 제 1 레벨로 증가시키는 단계를 더 포함한다.The method further includes increasing a voice recognition sensitivity to a first level for receiving the second user command as the first user command is input.
또한, 상기 제 1 사용자 명령의 입력이 해제되면, 상기 음성 인식 민감도를 상기 제 1 레벨보다 낮은 제 2 레벨로 감소시키는 단계를 더 포함하며, 상기 제 1 레벨 및 제 2 레벨은, 사용자에 의해 설정 및 변경이 가능하다.The method of claim 1, further comprising decreasing the speech recognition sensitivity to a second level lower than the first level when the first user command is released, wherein the first level and the second level are set by a user And changes are possible.
실시 예에 의하면, 음성 인식 기능을 활성화하기 위한 제 1 명령이 입력되는 시점에만 음성 인식 기능이 활성화되도록 하여, 음성 인식에 대한 검출률을 높이면서 음성 오인식에 따른 오작동을 방지할 수 있다. 즉, According to the embodiment, the voice recognition function is activated only at the time when the first command for activating the voice recognition function is input, thereby enhancing the detection rate for voice recognition and preventing the malfunction due to the voice recognition mistake. In other words,
또한, 실시 예에 의하면, 상기 음성 인식 기능의 활성화 여부를 특정 명령이 입력 여부에 의해 결정하기 때문에, 메뉴화면상에서 일일이 상기 음성 인식 기능의 활성화 여부를 설정해야 하는 불편함을 해결할 수 있다.Further, according to the embodiment, it is possible to solve the inconvenience that it is necessary to individually set whether or not the voice recognition function is activated on the menu screen since the specific instruction determines whether the voice recognition function is activated or not.
또한, 실시 예에 의하면 제 1 명령이 입력되면, 음성 인식 민감도를 증가시킴으로써, 사용자가 음성 인식을 수행하고자 하는 경우에 음성 인식률을 높일 수 있도록 한다.In addition, according to the embodiment, when the first command is input, the voice recognition rate can be increased when the user intends to perform voice recognition by increasing the voice recognition sensitivity.
도 1은 실시 예에 따른 음성 인식 장치의 구성을 설명하는 도면이다.
도 2 내지 10은 실시 예에 따른 음성 인식 장치의 음성 인식 방법을 설명하는 도면이다.1 is a view for explaining a configuration of a speech recognition apparatus according to an embodiment.
2 to 10 are diagrams for explaining a speech recognition method of the speech recognition apparatus according to the embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
이하, 본 발명의 실시 예들에 의하여 복수의 사용자 입력 방식을 결합하여 특정 기능을 실행시킬 수 있는 음성 인식 장치 및 음성 인식 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이때, 각 블록들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록들에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록들에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. 또한, 각 블록은 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the drawings for explaining a speech recognition apparatus and a speech recognition method capable of performing a specific function by combining a plurality of user input methods according to embodiments of the present invention. It will be appreciated that each block may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that those instructions, which are executed through a processor of a computer or other programmable data processing apparatus, Thereby creating means for performing functions. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in the flowchart blocks. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide steps for executing the functions described in the flowchart blocks. Further, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions.
또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.It should also be noted that in some alternative implementations, the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may actually be executed substantially concurrently, or the blocks may sometimes be performed in reverse order according to the corresponding function.
본 실시 예에서 사용되는 '~부' 또는 '~모듈'이라는 용어는 소프트웨어 또는 FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부' 또는 '~모듈'은 어떤 역할들을 수행한다. 그렇지만 '~부' 또는 '~모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부' 또는 '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 도 있다. 따라서, 일 예로서 '~부' 또는 '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부' 또는 '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부' 또는 '~모듈'들로 결합하거나 추가적인 구성요소들과 '~부' 또는 '~모듈'들로 더 분리될 수 있다. The term '~' or '~ module' as used in the present embodiment means a software or hardware component such as an FPGA or an ASIC, and the '~' or '~ module' performs certain roles. However, '~' or '~ module' is not meant to be limited to software or hardware. A "to" or "module" may be configured to reside on an addressable storage medium and configured to play back one or more processors. Thus, by way of example, 'a' or 'module' refers to components such as software components, object-oriented software components, class components and task components, and processes, Routines, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Or " modules " or " modules " may be combined into a smaller number of components and may be combined with " modules " or & Can be further separated into '~ modules'.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
실시 예에 따른 음성 인식 장치는, 단말기일 수 있으며, 상기 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 디지털 TV, 데스크톱 컴퓨터 등과 같은 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.A smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a portable multimedia player (PMP), and a voice recognition device according to embodiments may be a terminal. , Navigation, and the like. However, it will be apparent to those skilled in the art that the configuration according to the embodiments described herein may be applied to terminals such as a digital TV, a desktop computer, and the like.
실시 예에서는, 상기 음성 인식 장치가 차량에 설치되는 네비게이션이라 가정하여 설명하기로 한다. 그러나, 이는 본 발명의 일 실시 예에 불과할 뿐, 상기 음성 인식 장치는 상기 네비게이션뿐만 아니라, 상기 기재된 단말기 중 어느 하나로 대체될 수 있음은 자명한 사항일 것이다.In the embodiment, it is assumed that the speech recognition apparatus is a navigation system installed in a vehicle. However, it should be understood that the speech recognition apparatus may be replaced with any one of the above-described terminals as well as the navigation system, which is merely an embodiment of the present invention.
도 1은 실시 예에 따른 음성 인식 장치의 구성을 설명하는 도면이다.1 is a view for explaining a configuration of a speech recognition apparatus according to an embodiment.
도 1을 참조하면, 음성 인식 장치(100)는 무선 통신부(110), 전원 공급부(120), 출력부(130), 메모리(140), 제 1 명령 입력부(150), 제 2 명령 입력부(160) 및 제어부(170)를 포함한다.1, the
무선 통신부(110)는 음성 인식 장치(100)와 무선 통신 시스템 사이 또는 음성 인식 장치(100)와 음성 인식 장치(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The
예를 들면, 무선 통신부(110)는 방송 수신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈을 포함할 수 있다.For example, the
방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 이를 음성 인식 장치(100)에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated by the server and transmitting the received broadcast signals and / or broadcast- related information to the
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (DVF-H), a Digital Video Broadcast- , Integrated Services Digital Broadcast-Terrestrial (ISDB-T), or the like. Of course, the broadcast receiving module may be configured to be suitable for other broadcasting systems as well as the digital broadcasting system described above.
방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(140)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 음성 인식 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and may be built in or externally attached to the
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module is a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.
위치정보 모듈은 음성 인식 장치(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module is a module for acquiring the location of the
전원 공급부(120)는 후술할 제어부(170)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 상기 음성 인식 장치(100)를 구성하는 각 구성요소들의 동작에 필요한 전원을 공급한다.The
출력부(130)는 시각 또는 청각과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부와 음향 출력 모듈 등이 포함될 수 있다.The
디스플레이부는 음성 인식 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 음성 인식 장치(100)에서 수행하는 동작과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. The display unit displays (outputs) the information processed by the
디스플레이부는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, Dimensional display (3D display).
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 기기 본체의 디스플레이부가 차지하는 영역을 통해 기기 본체의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display portion may also be configured as a light transmission structure. With this structure, the user can see an object located behind the main body of the apparatus through the area occupied by the display portion of the main body of the apparatus.
음성 인식 장치(100)의 구현 형태에 따라 디스플레이부이 2개 이상 존재할 수 있다. 예를 들어, 음성 인식 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Depending on the implementation of the
한편, 디스플레이부와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.On the other hand, in a case where a display unit and a sensor (hereinafter, referred to as 'touch sensor') that detects a touch operation form a mutual layer structure (hereinafter referred to as a 'touch screen'), the display unit may be used as an input device . The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.
터치 센서는 디스플레이부의 특정 부위에 가해진 압력 또는 디스플레이부의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display portion or a capacitance occurring in a specific portion of the display portion into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(170)로 전송한다. 이로써, 제어부(170)는 디스플레이부의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
음향 출력 모듈은 음성인식 모드, 방송수신 모드, 길 안내 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(140)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈은 음성 인식 장치(100)에서 수행되는 기능(예를 들어, 길 안내음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module may receive audio data received from the
메모리(140)는 제어부(170)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(140)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
한편, 실시 예에 따른 음성 인식 장치(100)에는 음성 인식 장치(100)에 연결되는 모든 외부기기와의 통로 역할을 하는 인터페이스부가 더 구비될 수 있다.Meanwhile, the
인터페이스부는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 음성 인식 장치(100) 내부의 각 구성 요소에 전달하거나, 음성 인식 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부에 포함될 수 있다. The interface unit receives data from an external device or receives power from the external device to transfer the data to the respective components in the
상기 인터페이스부는 음성 인식 장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 음성 인식 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 음성 인식 장치로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 음성 인식 장치가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the
제 1 명령 입력부(150)는 제 1 타입의 사용자 명령 입력 장치이다.The first
예를 들어, 제 1 명령 입력부(150)는 RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(예를 들어, 리모트 컨트롤러)로부터 전원 온/오프, 목적지 검색, 길 안내 시작, 화면 설정 등과 같은 사용자 입력 신호를 수신하여 제어부(170)로 전달할 수 있다. 즉, 제 1 명령 입력부(150)는 원격제어장치 자체가 될 수 있으며, 상기 원격제어장치와 연계되어 상기 원격제어장치를 통해 입력되는 신호를 수신하는 수신부가 될 수 있다.For example, the first
또한, 예를 들어, 제 1 명령 입력부(150)는 전원 키, 길 안내 키, 볼륨 키 등의 로컬 키에서 입력되는 사용자 명령을 제어부(170)에 전달하는 로컬 키 수신부가 될 수 있다.For example, the first
또한, 상기와 같이 제 1 명령 입력부(150)는 디스플레이부의 화면 터치를 통해 상기 디스플레이부에 표시되는 특정 메뉴 항목을 선택하는 터치스크린일 수 있다.Also, as described above, the first
또한, 예를 들어, 제 1 명령 입력부(150)는 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. For example, the first
또한, 예를 들어, 제 1 명령 입력부(150)는 상기 음성 인식 장치(100)와 연계되어 음성 인식 장치(100)가 구비된 차량의 핸들에 배치되는 키 버튼일 수 있다.Also, for example, the first
제 2 명령 입력부(160)은 상기 기재한 다양한 제 1 타입의 제 1 명령 입력부(150)와 다른 제 2 타입의 사용자 명령 입력장치이다.The second
이때, 제 2 명령 입력부(160)는 사용자 음성을 인식하는 음성 인식 모듈일 수 있다. 음성 인식 모듈은, 고립 단어 인식을 위해 인식 단어 설정이 가능하고, 화자에 독립적인 인식 기능을 가지며, 인식 결과를 인식 단어와 해당 단어에 대한 인식 추정 정확도를 % 단위로 출력해 줄 수 있는 상용의 음성 인식 모듈을 상정한다.At this time, the second
이를 위해, 제 2 명령 입력부(160)는 음성을 입력받는 마이크와, 상기 마이크를 통해 입력받은 음성에서 노이즈를 제거하는 필터부는 물론, 상기 필터부에 의해 노이즈가 제거되는 음성신호를 분석하는 분석부 및 아날로그 음성신호를 디지털 음성 신호로 변환하여 출력하는 신호 변환부로 구성될 수 있다.For this, the second
제어부(170)는 음성 인식 장치의 전반적인 동작을 제어한다.The
예를 들어, 상기 음성 인식 장치(100)가 네비게이션인 경우, 제어부(170)는 사용자 입력에 대응하는 목적지를 검색하고, 상기 검색한 목적지에 대응하는 길 안내 기능이 실행되도록 할 수 있다.For example, when the
이하에서는, 본 실시 예에 따른 음성 인식 기능을 주된 내용으로 하여 상기 제어부(170)의 동작에 대해 설명하기로 한다.Hereinafter, the operation of the
제어부(170)는 상기 제 1 명령 입력부(150) 및 제 2 명령 입력부(160)를 통해 입력되는 복수의 사용자 명령의 조합을 토대로 상기 음성 입력 장치(100)의 동작을 제어한다.The
즉, 제어부(170)는 우선적으로 상기 제 2 명령 입력부(160)를 비활성화시킨다. 예를 들어, 평상시에는 상기 제 2 명령 입력부(160)가 비활성화되어, 음성 인식 동작을 수행하지 않는다.That is, the
상기 제 2 명령 입력부(160)에 의한 음성 인식 기능은, 상기 제 1 명령 입력부(150)에 의해 입력되는 명령에 의해 활성화될 수 있다.The voice recognition function by the second
이를 위해, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력되는 명령을 수신하고, 상기 수신된 명령이 기설정된 제 1 명령인 경우, 상기 제 2 명령 입력부(160)를 동작시켜 상기 음성 인식 기능이 활성화되도록 한다.The
이때, 상기 제 1 명령은, 상기 제 2 명령 입력부(160)를 활성화시키기 위한 명령일 수 있다.At this time, the first command may be a command for activating the second
예를 들어, 상기 제 1 명령 입력은, 상기 터치 스크린상에서 특정 메뉴 항목을 터치한 경우일 수 있다. 특히, 상기 특정 메뉴 항목은, 상기 제 2 명령 입력부(160)를 활성화하기 위한 메뉴 항목일 수 있다.For example, the first command input may be a touch of a specific menu item on the touch screen. In particular, the specific menu item may be a menu item for activating the second
이와 다르게, 상기 제 1 명령 입력은, 상기 터치 스크린상에서 특정 영역(특정 메뉴가 할당되지 않은 임의의 영역)을 터치한 경우일 수 있다.Alternatively, the first command input may be a touch of a specific area (an arbitrary area to which a specific menu is not allocated) on the touch screen.
또한, 이와 다르게 상기 제 1 명령 입력은 다수의 로컬 키 중 상기 음성 인식 기능의 활성화를 위한 기능이 할당된 로컬 키를 입력한 경우일 수 있다.Alternatively, the first command input may be a case where a local key assigned a function for activating the voice recognition function among a plurality of local keys is inputted.
또한, 이와 다르게 상기 제 1 명령 입력은 원격제어장치에 구비된 다수의 키 중 상기 음성 인식 기능의 활성화를 위한 기능이 할당된 특정 키를 입력할 경우일 수 있다.Alternatively, the first command input may be for inputting a specific key assigned a function for activating the voice recognition function among a plurality of keys provided in the remote controller.
또한, 이와 다르게 상기 제 1 명령 입력은 상기 음성 인식 장치(100)와 연계된 입력 장치(예를 들어, 차량의 핸들에 장착된 키 버튼)에서 상기 음성 인식 기능의 활성화를 위한 기능이 할당된 특정 키 버튼을 입력할 경우일 수 있다.Alternatively, the first command input may be a specific command assigned to a function for activating the voice recognition function in an input device associated with the voice recognition apparatus 100 (for example, a key button mounted on a handle of a vehicle) Key button is pressed.
이와 같이, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력되는 명령을 수신하고, 상기 수신한 명령이 상기와 같이 음성 인식 기능의 활성화를 위한 제 1 명령인지 여부를 확인한다.In this way, the
이때, 상기 제 1 명령 입력부(150)를 통해 입력된 명령이 제 1 명령이 아니면, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력된 명령에 대응하는 기능을 실행시킨다. 예를 들어, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력된 명령이 목적지 검색을 위한 명령이면, 상기 입력된 명령에 대응하는 목적지 검색 기능을 실행시킨다.At this time, if the command input through the first
또한, 상기 제 1 명령 입력부(150)를 통해 입력된 명령이 제 1 명령이면, 제어부(170)는 상기 입력된 제 1 명령에 따라 상기 제 2 명령 입력부(160)를 동작시킨다. 다시 말해서, 상기 제어부(170)는 상기 제 1 명령이 입력됨에 따라 상기 제 2 명령 입력부(160)를 동작(예를 들어, 마이크 등)시켜 음성 인식 기능을 활성화시킨다.If the command input through the first
이때, 상기 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 상기 제 1 명령이 입력되는 동안에만 상기 음성 인식 기능을 활성화시킨다.At this time, the
다시 말해서, 상기 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 계속 입력되고 있다면, 상기 음성 인식 기능을 활성화시키고, 상기 제 1 명령 입력부(150)를 통해 제 1 명령의 입력이 중지되면, 상기 음성 인식 기능을 비활성화시킨다.In other words, if the first command is continuously inputted through the first
만약, 상기 제 1 명령이 터치 스크린의 임의의 지점의 터치를 통해 입력된다면, 상기 제어부(170)는 상기 임의의 지점에 대한 터치가 이루어지는 동안에만 상기 음성 인식 기능을 활성화하고, 상기 터치가 계속적으로 이루어지다가 해제되면 상기 음성 인식 기능을 비활성화시킨다.If the first command is input through the touch of any point on the touch screen, the
이에 따라, 상기 제 2 명령 입력부(160)는 상기 제 1 명령 입력부(150)를 통해 상기 음성 인식 기능 활성화를 위한 제 1 명령이 입력되고 있는 시점에만 동작하여 음성 인식을 수행한다.Accordingly, the second
이때, 상기 음성 인식률을 높이기 위해서는 사용자가 원하는 음성만을 인식해야 한다. 그러나, 사용 환경상 상기 음성 인식 장치(100)의 주변에는 다양한 음성이 발생할 수 있다.At this time, in order to increase the voice recognition rate, only the voice desired by the user should be recognized. However, various voices may occur in the vicinity of the
이에 따라, 제어부(170)는 상기 음성 인식 기능이 활성화됨에 따라 상기 음성 인식 장치(100)의 주변에 위치한 주변 기기의 음성 출력을 차단한다. 예를 들어, 제어부(170)는 상기 음성 인식 기능이 활성화됨에 따라 오디오 장치, 라디오 장치 등과 같은 음성 출력 장치의 출력을 차단한다.Accordingly, the
이를 위해, 제어부(170)는 무선 통신부(110)를 통해 상기 주변 기기의 음성 출력 차단을 위한 제어 신호를 출력하며, 상기 주변기기들은 상기 출력되는 제어 신호를 이용하여 기출력되고 있는 음성 신호의 출력을 차단한다.For this purpose, the
한편, 상기에서는 상기 제 1 명령이 입력되는 시점에만 음성 인식 기능을 활성화한다고 하였으나, 상기 제 1 명령이 입력되지 않는 시점에도 상기 음성 인식 기능을 활성화할 수도 있다.In the above description, the voice recognition function is activated only when the first command is input. However, the voice recognition function may be activated even when the first command is not input.
예를 들어, 제어부(170)는 상기 제 1 명령이 입력되는 동안의 음성 인식 조건과, 상기 제 1 명령이 입력되지 않는 동안의 음성 인식 조건을 서로 다르게 적용하여, 상기 제 2 명령 입력부(160)에 의한 음성 인식이 이루어지도록 할 수도 있다.For example, the
이때, 상기 음성 인식 조건은 음성 인식을 수행하기 위한 민감도를 포함할 수 있다. 상기 민감도는 상기 음성 인식률과 연관성이 높다. At this time, the speech recognition condition may include a sensitivity for performing speech recognition. The sensitivity is highly related to the speech recognition rate.
이에 따라, 상기 제어부(170)는 상기 제 1 명령이 입력되지 않는 시점에는 상기 민감도를 제 1 레벨로 설정하여 상기 음성 인식률을 낮춤으로써, 더욱 정확한 사용자 음성만이 인식되도록 하고, 상기 제 1 명령이 입력되는 시점에는 상기 민감도를 상기 제 1 레벨보다 높은 제 2 레벨로 조정하여, 상기 음성 인식률을 증가시킨다.Accordingly, when the first command is not inputted, the
이에 따라, 실시 예에서는, 음성 인식 기능을 활성화하기 위한 제 1 명령이 입력되는 시점에만 음성 인식 기능이 활성화되도록 하여, 음성 인식에 대한 검출률을 높이면서 음성 오인식에 따른 오작동을 방지할 수 있다.Accordingly, in the embodiment, the voice recognition function is activated only at the time when the first command for activating the voice recognition function is inputted, thereby enhancing the detection rate for voice recognition and preventing malfunction due to the voice recognition mistake.
도 2는 실시 예에 따른 음성 인식 방법을 개략적으로 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining a speech recognition method according to an embodiment of the present invention.
도 2를 참조하면, 제 1 명령 입력부(150)를 제 1 명령을 입력받으며, 그에 따라 상기 입력받은 제 1 명령을 제어부(170)에 전달한다(110단계).Referring to FIG. 2, the first
제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 입력됨에 따라 음성 인식 기능을 활성화시킨다(120단계). 즉, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 입력되면, 상기 제 2 명령 입력부(160)를 동작시켜 사용자 음성이 인식되도록 한다(120단계).The
이때, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 계속적으로 입력되는지 여부에 따라 상기 음성 인식 기능의 활성화를 유지하거나 비활성화시킨다.At this time, the
제 2 명령 입력부(160)는 상기 음성 인식 기능이 활성화됨에 따라 외부로부터 입력되는 사용자 음성에 따른 제 2 명령을 인식하고, 그에 따라 상기 인식한 제 2 명령을 제어부(170)에 전달한다(130단계).The second
이때, 상기 제 2 명령은, 상기 제 1 명령이 계속적으로 입력되는 시점에만 인식되어 상기 제어부(170)로 전달된다. 즉, 상기 제 1 명령의 입력이 해제되면, 상기 제 2 명령 입력부(160)는 비활성화되며, 그에 따라 상기 제 2 명령을 인식할 수 없는 상태가 된다. At this time, the second command is recognized only at the time when the first command is continuously inputted, and the second command is transmitted to the
이에 따라, 상기 제 2 명령 입력부(160)는 상기 제 1 명령이 인식됨에 따라 상기 제어부(170)를 통해 음성 인식 기능의 활성화가 유지되는 시점에만 동작하여 상기 제 2 명령의 입력을 인식하게 된다.Accordingly, the second
제어부(170)는 상기 제 2 명령 입력부(160)를 통해 제 2 명령이 전달됨에 따라 상기 제 2 명령에 대응하는 기능을 실행시킨다(140단계).The
이하, 도 2에 도시된 음성 인식 방법에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, the speech recognition method shown in FIG. 2 will be described in more detail.
도 3은 실시 예에 따른 음성 인식 활성화 방법을 설명하는 도면이다.3 is a view for explaining a speech recognition activation method according to the embodiment.
도 3을 참조하면, 먼저 제 1 명령 입력부(150)를 통해 특정 명령이 입력된다(210단계). 이때, 상기 입력된 명령은 음성 인식 기능의 활성화를 위한 제 1 명령일 수도 있고, 상기 제 1 명령이 아닌 다른 명령일 수도 있다.Referring to FIG. 3, a specific command is input through the first command input unit 150 (Step 210). At this time, the input command may be a first command for activating the voice recognition function, or may be a command other than the first command.
제 1 명령 입력부(150)는 상기 특정 명령이 입력됨에 따라 상기 입력된 명령을 제어부(170)로 전달하며, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 전달되는 명령을 인식한다(220단계).The first
제어부(170)는 상기 명령이 인식되면, 상기 인식한 명령이 음성 인식 기능의 활성화를 위한 제 1 명령인지, 아니면 상기 제 1 명령이 아닌 특정 기능 실행을 위한 다른 명령인지 여부를 판단한다(230단계).If the command is recognized, the
상기 판단결과(230단계), 상기 인식한 명령이 상기 음성 인식 기능의 활성화를 위한 제 1 명령이면, 상기 제어부(170)는 음성 인식 기능을 활성화시키면서, 상기 음성 인식 기능이 활성화되었음을 알리는 안내 화면 또는 안내 음성을 출력한다(240단계).If the recognized command is a first command for activating the voice recognition function, the
도 4는 실시 예에 따른 안내 화면을 나타낸 도면이다.4 is a view showing a guidance screen according to the embodiment.
즉, 제어부(170)는 상기 제 1 명령의 입력이 인식됨에 따라 상기 출력부(130)를 통해 "제 1 명령이 입력되는 동안 음성 인식 기능이 활성화됩니다"라는 메시지와 함께, "원하시는 기능을 말하세요"와 같은 안내 메시지를 포함하는 안내 화면이 디스플레이되도록 한다.That is, when the input of the first command is recognized, the
한편, 상기 판단결과(230단계), 상기 인식한 명령이 제 1 명령이 아닌 다른 명령이면, 상기 제어부(170)는 상기 입력된 명령에 대응하는 동작을 수행한다(250단계).If the recognized command is a command other than the first command, the
예를 들어, 상기 제어부(170)는 상기 입력된 명령이 길 안내 개시를 위한 명령이면, 사용자로부터 입력된 명령에 대응하는 목적지 안내 방송을 개시한다.For example, if the input command is an instruction to start route guidance, the
도 5는 실시 예에 따라 음성 인식 기능이 활성화됨에 따른 부가 기능을 설명하기 위한 도면이다.5 is a diagram for explaining an additional function according to the embodiment in which the voice recognition function is activated.
도 5를 참조하면, 제어부(170)는 상기와 같이 제 1 명령이 입력됨에 따라 음성 인식 기능을 활성화한다(310단계).Referring to FIG. 5, the
이때, 제어부(170)는 상기 음성 인식 기능이 활성화됨에 따라 상기 음성 인식의 검출률을 높이기 위해, 주변 음성을 차단시킨다. 다시 말해서, 제어부(170)는 음성 인식 장치(100)의 주변에 위치한 주변 기기(예를 들어, 오디오 장치, 라디오 등)에 음성 출력 차단 신호를 전송하여, 상기 주변 기기를 통해 음성이 출력되지 않도록 한다(320단계).At this time, the
한편, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 계속적으로 입력되고 있는지 여부를 판단한다(330단계).Meanwhile, the
다시 말해서, 제어부(170)는 상기 제 1 명령의 입력이 중지(해제)되었는지 여부를 판단한다(330단계). In other words, the
상기 판단결과(330단계), 상기 제 1 명령의 입력이 중지되었다면, 상기 제어부(170)는 상기 활성화하였던 음성 인식 기능을 비활성화한다(340단계). 다시 말해서, 제어부(170)는 상기 제 2 명령 입력부(160)의 동작을 중지시킨다.If the input of the first command is stopped (step 330), the
이때, 제어부(170)는 도 6에 도시된 바와 같이, 상기 제 1 명령의 입력이 중지되어, 상기 음성 인식 기능이 비활성화되었음을 알리는 안내 화면을 표시한다.At this time, as shown in FIG. 6, the
또한, 제어부(170)는 상기 음성 인식 기능이 비활성화됨에 따라 상기 주변 기기의 음성 출력 차단을 해제한다(350단계).Also, the
즉, 제어부(170)는 도 7에 도시된 바와 같이, 상기 제 1 명령이 입력됨에 따라 상기 주변 기기의 음성 출력이 차단되었음을 알리는 안내 화면을 표시한다.That is, as shown in FIG. 7, the
이때, 상기 안내 화면에는 상기 음성 인식 기능이 활성화됨에 따라 주변 기기의 음성 출력이 차단되었음을 알리는 메시지를 포함할 수 있다. 한편, 도 7에는 상기와 같은 메시지만을 포함하는 안내 화면이 도시되었지만, 이는 일 실시 예에 불과할 뿐, 상기 차단된 주변 기기의 정보를 출력할 수도 있을 것이다. At this time, the guidance screen may include a message informing that the audio output of the peripheral device is blocked as the voice recognition function is activated. Meanwhile, although FIG. 7 shows a guidance screen including only the message as described above, it may output the information of the blocked peripheral device only as an example.
도 8은 실시 예에 따른 음성 인식 장치의 민감도 조정 방법을 설명하는 도면이다.8 is a view for explaining a sensitivity adjustment method of the speech recognition apparatus according to the embodiment.
도 8을 참조하면, 제어부(170)는 상기 제 1 명령 입력부(150)를 통해 제 1 명령이 입력되고 있는지 여부를 판단한다(410단계).Referring to FIG. 8, the
상기 판단결과(410단계), 상기 제 1 명령 입력부를 통해 제 1 명령이 입력되고 있으면, 제어부(170)는 상기 음성 인식을 위한 민감도를 증가시킨다(420단계). If it is determined in operation 410 that the first command is input through the first command input unit, the
이때, 상기 민감도는 상기 제 2 명령 입력부(160)를 구성하는 마이크의 민감도일 수 있다. 상기 민감도를 증가시키면 이에 따른 음성 인식률도 증가된다.In this case, the sensitivity may be the sensitivity of the microphone constituting the second
제어부(170)는 상기 제 1 명령 입력부(150)를 통해 입력되는 제 1 명령의 입력 중지가 이루어졌는지 여부를 판단한다(430단계).The
상기 제 1 명령의 입력이 중지되었다면 제어부(170)는 상기 증가한 민감도를 원 레벨로 감소시킨다(440단계). 즉, 상기에서는 상기 제 1 명령의 입력이 중지되면 상기 음성 인식 기능을 비활성화시켰지만, 다른 실시 예에서는 상기 제 1 명령의 입력이 중지되어도 상기 음성 인식 기능의 활성화를 유지하면서 상기 민감도만을 감소시킨다.If the input of the first command is stopped, the
상기 음성 인식 기능의 민감도가 감소하게 되면, 상기 제 2 명령 입력부(160)는 보다 확실한 사용자 음성만을 인식하기 때문에 음성 오인식에 따른 오작동을 방지할 수 있게 된다.If the sensitivity of the speech recognition function is reduced, the second
즉, 제어부(170)는 도 9에 도시된 바와 같이 상기 제 1 명령이 입력됨에 따라 상기 음성 인식의 민감도가 증가하였음을 알리는 메시지를 표시한다.That is, as shown in FIG. 9, the
한편, 상기와 같은 민감도는 사용자에 의해 설정될 수 있다.Meanwhile, the above sensitivity can be set by the user.
즉, 도 10에 도시된 바와 같이 상기 제 1 명령이 입력되지 않는 시점(평상시)에 적용되는 제 1 민감도와, 상기 제 1 명령이 입력되고 있는 시점에 적용되는 제 2 민감도를 설정할 수 있는 메뉴 화면을 제공한다.That is, as shown in FIG. 10, a menu screen for setting a first sensitivity applied at a time when the first command is not input (normal) and a second sensitivity applied at a time when the first command is inputted .
그리고, 제어부(170)는 상기 메뉴 화면상에서 설정되는 제 1 민감도와 제 2 민감도를 메모리에 저장하고, 추후 상기 설정된 제 1 민감도 및 제 2 민감도를 적용하여 음성 인식 기능을 실행시킨다.The
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
110: 무선 통신부
120: 전원 공급부
130: 출력부
140: 메모리
150: 제 1 명령 입력부
160: 제 2 명령 입력부
170: 제어부110:
120: Power supply
130:
140: Memory
150: first command input section
160: second command input
170:
Claims (16)
음성을 수신 및 인식하는 제 2 사용자 입력부; 및,
상기 제1 사용자 입력부를 통해 입력되는 상기 사용자 입력 신호에 기반하여 상기 제2 사용자 입력부를 제어하는 제어부를 포함하고,
상기 제어부는,
상기 사용자 입력 신호가 제1 명령이고, 상기 제2 사용자 입력부가 비활성화 상태이면, 상기 제2 사용자 입력부를 활성화시키고,
상기 사용자 입력 신호가 상기 제1 명령이 아니면, 상기 수신된 사용자 입력 신호에 대응하는 기능이 수행되도록 제어하고,
상기 사용자 입력 신호가 제1 명령인 경우, 무선 통신부를 통해 주변 기기의 음성 출력을 차단하기 위한 제어 신호를 출력하며,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 계속적으로 입력되면, 상기 제2 사용자 입력부의 음성 인식 민감도를 증가시키고, 상기 음성 인식 민감도가 증가하였음을 알리는 메시지를 표시하며,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 입력되지 않으면, 상기 제2 사용자 입력부의 상기 음성 인식 민감도를 감소시키며,
상기 제2 사용자 입력부의 활성화는,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 입력되지 않을 때까지 유지되는 음성 인식 장치.A first user input for receiving a user input signal;
A second user input unit for receiving and recognizing a voice; And
And a controller for controlling the second user input unit based on the user input signal input through the first user input unit,
Wherein,
Activating the second user input if the user input signal is a first instruction and the second user input is inactive,
Controlling the function corresponding to the received user input signal to be performed if the user input signal is not the first instruction,
When the user input signal is the first command, outputs a control signal for interrupting the audio output of the peripheral device through the wireless communication unit,
Wherein when the first command is continuously input through the first user input unit, the second user input unit increases the voice recognition sensitivity of the second user input unit, displays a message indicating that the voice recognition sensitivity is increased,
Wherein if the first instruction is not input through the first user input unit, the second user input unit decreases the speech recognition sensitivity of the second user input unit,
Wherein the activation of the second user input comprises:
And the second instruction is held until the first instruction is not inputted through the first user input unit.
제1 사용자 입력부를 통해 사용자 입력 신호를 수신하는 단계;
상기 사용자 입력 신호가 제1 명령인지 여부를 판단하는 단계;
상기 사용자 입력 신호가 상기 제1 명령이면, 무선 통신부를 통해 주변기기의 음성 출력을 차단하기 위한 제어 신호를 전송하고, 상기 음성 인식 기능을 활성화시키는 단계;
상기 사용자 입력 신호가 상기 제1 명령이 아니면, 상기 사용자 입력 신호에 대응하는 기능을 수행하는 단계;
상기 제1 명령이 상기 제1 사용자 입력부를 통해 계속적으로 입력되는지 여부를 판단하는 단계;
상기 제1 사용자 입력부를 통해 상기 제1 명령이 계속적으로 입력되면, 상기 음성 인식 기능의 음성 인식 민감도를 제1 레벨로 증가시키는 단계;
상기 음성 인식 민감도가 상기 제1 레벨로 증가하였음을 알리는 메시지를 표시하는 단계; 및
상기 제1 사용자 입력부를 통해 상기 제1 명령이 계속적으로 입력되지 않으면, 상기 음성 인식 기능의 상기 음성 인식 민감도를 상기 제1 레벨에서 제2 레벨로 감소시키는 단계를 포함하고,
상기 음성 인식 기능의 활성화는,
상기 제1 사용자 입력부를 통해 상기 제1 명령이 입력되지 않을 때까지 유지되며,
상기 제 1 레벨 및 제 2 레벨은,
사용자에 의해 설정 및 변경이 가능한 음성 인식 방법.Deactivating the speech recognition function;
Receiving a user input signal via a first user input;
Determining whether the user input signal is a first instruction;
If the user input signal is the first command, transmitting a control signal for blocking the audio output of the peripheral device through the wireless communication unit and activating the voice recognition function;
Performing a function corresponding to the user input signal if the user input signal is not the first instruction;
Determining whether the first instruction is continuously input via the first user input unit;
Increasing the speech recognition sensitivity of the speech recognition function to a first level when the first instruction is continuously input through the first user input unit;
Displaying a message indicating that the speech recognition sensitivity has increased to the first level; And
And decreasing the speech recognition sensitivity of the speech recognition function from the first level to a second level if the first instruction is not continuously input through the first user input,
The activation of the speech recognition function may be performed,
The first instruction is not input through the first user input unit,
Wherein the first level and the second level are < RTI ID = 0.0 &
A speech recognition method that can be set and changed by a user.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120090513A KR101987255B1 (en) | 2012-08-20 | 2012-08-20 | Speech recognition device and speech recognition method |
PCT/KR2012/010567 WO2014030809A1 (en) | 2012-08-20 | 2012-12-06 | Voice recognition apparatus and method of recognizing voice |
US14/420,768 US10037757B2 (en) | 2012-08-20 | 2012-12-06 | Voice recognition apparatus and method of recognizing voice |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120090513A KR101987255B1 (en) | 2012-08-20 | 2012-08-20 | Speech recognition device and speech recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140024536A KR20140024536A (en) | 2014-03-03 |
KR101987255B1 true KR101987255B1 (en) | 2019-06-11 |
Family
ID=50150094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120090513A Expired - Fee Related KR101987255B1 (en) | 2012-08-20 | 2012-08-20 | Speech recognition device and speech recognition method |
Country Status (3)
Country | Link |
---|---|
US (1) | US10037757B2 (en) |
KR (1) | KR101987255B1 (en) |
WO (1) | WO2014030809A1 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10054327B2 (en) | 2013-08-21 | 2018-08-21 | Honeywell International Inc. | Devices and methods for interacting with an HVAC controller |
KR102210433B1 (en) * | 2014-01-21 | 2021-02-01 | 삼성전자주식회사 | Electronic device for speech recognition and method thereof |
KR101517738B1 (en) * | 2014-05-13 | 2015-05-04 | 박남태 | The method of voice control for display device and voice control display device |
KR102185564B1 (en) * | 2014-07-09 | 2020-12-02 | 엘지전자 주식회사 | Mobile terminal and control method for the mobile terminal |
KR102453603B1 (en) * | 2015-11-10 | 2022-10-12 | 삼성전자주식회사 | Electronic device and method for controlling thereof |
US10642233B2 (en) * | 2016-01-04 | 2020-05-05 | Ademco Inc. | Device enrollment in a building automation system aided by audio input |
US10621992B2 (en) * | 2016-07-22 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Activating voice assistant based on at least one of user proximity and context |
US10965899B1 (en) * | 2017-04-17 | 2021-03-30 | Alarm.Com Incorporated | System and method for integration of a television into a connected-home monitoring system |
US10664533B2 (en) | 2017-05-24 | 2020-05-26 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to determine response cue for digital assistant based on context |
DE102017213241A1 (en) * | 2017-08-01 | 2019-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, device, mobile user device, computer program for controlling an audio system of a vehicle |
US10524046B2 (en) | 2017-12-06 | 2019-12-31 | Ademco Inc. | Systems and methods for automatic speech recognition |
KR102606789B1 (en) * | 2018-10-01 | 2023-11-28 | 삼성전자주식회사 | The Method for Controlling a plurality of Voice Recognizing Device and the Electronic Device supporting the same |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57118299A (en) * | 1981-01-14 | 1982-07-23 | Nissan Motor | Voice load driver |
US6012030A (en) * | 1998-04-21 | 2000-01-04 | Nortel Networks Corporation | Management of speech and audio prompts in multimodal interfaces |
FI981154A7 (en) * | 1998-05-25 | 1999-11-26 | Nokia Mobile Phones Ltd | Method and device for speech recognition |
JP3157788B2 (en) * | 1998-11-12 | 2001-04-16 | 埼玉日本電気株式会社 | Portable information terminals |
SE9902229L (en) * | 1999-06-07 | 2001-02-05 | Ericsson Telefon Ab L M | Apparatus and method of controlling a voice controlled operation |
DE10058786A1 (en) * | 2000-11-27 | 2002-06-13 | Philips Corp Intellectual Pty | Method for controlling a device having an acoustic output device |
US7085722B2 (en) * | 2001-05-14 | 2006-08-01 | Sony Computer Entertainment America Inc. | System and method for menu-driven voice control of characters in a game environment |
US20030033143A1 (en) * | 2001-08-13 | 2003-02-13 | Hagai Aronowitz | Decreasing noise sensitivity in speech processing under adverse conditions |
US20030095675A1 (en) * | 2001-10-19 | 2003-05-22 | Marlow C. Allen | Light communication channel-based voice-activated control system and method for implementing thereof |
US20030212562A1 (en) * | 2002-05-13 | 2003-11-13 | General Motors Corporation | Manual barge-in for server-based in-vehicle voice recognition systems |
US8068881B2 (en) * | 2002-08-09 | 2011-11-29 | Avon Associates, Inc. | Voice controlled multimedia and communications system |
JP4304952B2 (en) * | 2002-10-07 | 2009-07-29 | 三菱電機株式会社 | On-vehicle controller and program for causing computer to execute operation explanation method thereof |
DE10251113A1 (en) * | 2002-11-02 | 2004-05-19 | Philips Intellectual Property & Standards Gmbh | Voice recognition method, involves changing over to noise-insensitive mode and/or outputting warning signal if reception quality value falls below threshold or noise value exceeds threshold |
US7142678B2 (en) * | 2002-11-26 | 2006-11-28 | Microsoft Corporation | Dynamic volume control |
KR20040075615A (en) * | 2003-02-22 | 2004-08-30 | 이영일 | Subsidiary apparatus of voice recognition system for automobile |
DE602004010054T2 (en) * | 2004-01-19 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Actuation of a speech dialogue system |
US8095364B2 (en) * | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
WO2005122145A1 (en) | 2004-06-08 | 2005-12-22 | Metaphor Solutions, Inc. | Speech recognition dialog management |
JP4416643B2 (en) * | 2004-06-29 | 2010-02-17 | キヤノン株式会社 | Multimodal input method |
JP2008048076A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Voice processor and its control method |
US8214219B2 (en) * | 2006-09-15 | 2012-07-03 | Volkswagen Of America, Inc. | Speech communications system for a vehicle and method of operating a speech communications system for a vehicle |
US8140325B2 (en) * | 2007-01-04 | 2012-03-20 | International Business Machines Corporation | Systems and methods for intelligent control of microphones for speech recognition applications |
DE102008051757A1 (en) * | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodal user interface of a driver assistance system for entering and presenting information |
JP2009229899A (en) * | 2008-03-24 | 2009-10-08 | Toshiba Corp | Device and method for voice recognition |
EP2107553B1 (en) * | 2008-03-31 | 2011-05-18 | Harman Becker Automotive Systems GmbH | Method for determining barge-in |
KR101513615B1 (en) * | 2008-06-12 | 2015-04-20 | 엘지전자 주식회사 | A mobile terminal and a voice recognition method thereof |
US9070282B2 (en) * | 2009-01-30 | 2015-06-30 | Altorr Corp. | Smartphone control of electrical devices |
KR101566379B1 (en) | 2009-05-07 | 2015-11-13 | 삼성전자주식회사 | Method For Activating User Function based on a kind of input signal And Portable Device using the same |
KR101567603B1 (en) | 2009-05-07 | 2015-11-20 | 엘지전자 주식회사 | Apparatus and Method for controlling an operation in a multi voice recognition system |
US8412531B2 (en) * | 2009-06-10 | 2013-04-02 | Microsoft Corporation | Touch anywhere to speak |
US8788267B2 (en) * | 2009-09-10 | 2014-07-22 | Mitsubishi Electric Research Laboratories, Inc. | Multi-purpose contextual control |
US8294683B2 (en) * | 2009-09-25 | 2012-10-23 | Mitac International Corp. | Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition |
KR101631939B1 (en) * | 2009-12-02 | 2016-06-20 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US8428759B2 (en) * | 2010-03-26 | 2013-04-23 | Google Inc. | Predictive pre-recording of audio for voice input |
US20120260176A1 (en) * | 2011-04-08 | 2012-10-11 | Google Inc. | Gesture-activated input using audio recognition |
US9318129B2 (en) * | 2011-07-18 | 2016-04-19 | At&T Intellectual Property I, Lp | System and method for enhancing speech activity detection using facial feature detection |
US9159322B2 (en) * | 2011-10-18 | 2015-10-13 | GM Global Technology Operations LLC | Services identification and initiation for a speech-based interface to a mobile device |
US9263044B1 (en) * | 2012-06-27 | 2016-02-16 | Amazon Technologies, Inc. | Noise reduction based on mouth area movement recognition |
-
2012
- 2012-08-20 KR KR1020120090513A patent/KR101987255B1/en not_active Expired - Fee Related
- 2012-12-06 US US14/420,768 patent/US10037757B2/en not_active Expired - Fee Related
- 2012-12-06 WO PCT/KR2012/010567 patent/WO2014030809A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2014030809A1 (en) | 2014-02-27 |
KR20140024536A (en) | 2014-03-03 |
US10037757B2 (en) | 2018-07-31 |
US20150187354A1 (en) | 2015-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101987255B1 (en) | Speech recognition device and speech recognition method | |
US11275484B2 (en) | Method of controlling device having plurality of operating systems installed therein, and the device | |
US9892313B2 (en) | Electronic device and control method thereof | |
KR101582686B1 (en) | Item display method and mobile communication terminal using the method | |
US8532707B2 (en) | Mobile terminal having multiple subscriber identity modules (SIMs) with different phone numbers | |
US20100323671A1 (en) | Mobile terminal and method of performing functions using the same | |
US10222928B2 (en) | Electronic device | |
EP2884492A1 (en) | Method and electronic device for tracking audio | |
KR20220100988A (en) | How to move icons and electronic devices | |
KR101802498B1 (en) | Mobile terminal and method for searching location information using touch pattern recognition thereof | |
KR101951480B1 (en) | Electronic Device And Method Of Controlling The Same | |
US9955288B2 (en) | Electronic device and operation method of the same | |
KR101902404B1 (en) | Mobile terminal and controlling method thereof, and recording medium thereof | |
US20140082496A1 (en) | Apparatus and method for controlling volume | |
KR20140064517A (en) | Mobile terminal and application searching method thereof | |
KR101646097B1 (en) | Method of providing active user interface and Mobile Terminal thereof | |
KR102131018B1 (en) | Method for processing received message and electronic device implementing the same | |
KR101523386B1 (en) | A control method of a mobile communication terminal according to a user operation and a mobile communication terminal | |
US20160070368A1 (en) | Method for controlling user interface and electronic device supporting the same | |
KR20100078413A (en) | Method for controlling user interface and display device employing the same | |
KR20130024580A (en) | Mobile terminal and method for providing user interface thereof | |
KR101554740B1 (en) | Location display method and terminal applied thereto | |
KR101694005B1 (en) | Terminal and operating method thereof | |
KR20140141310A (en) | Terminal and operating method thereof | |
KR102033177B1 (en) | Mobile terminal and control method for mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20120820 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20170821 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20120820 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20181120 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20190523 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20190603 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20190604 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20230314 |