ITTO980383A1 - PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE STEP OF NEURAL AND MARKOVIAN RECOGNITION. - Google Patents
PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE STEP OF NEURAL AND MARKOVIAN RECOGNITION. Download PDFInfo
- Publication number
- ITTO980383A1 ITTO980383A1 IT98TO000383A ITTO980383A ITTO980383A1 IT TO980383 A1 ITTO980383 A1 IT TO980383A1 IT 98TO000383 A IT98TO000383 A IT 98TO000383A IT TO980383 A ITTO980383 A IT TO980383A IT TO980383 A1 ITTO980383 A1 IT TO980383A1
- Authority
- IT
- Italy
- Prior art keywords
- recognition
- hypotheses
- scores
- list
- hypothesis
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
- Computer And Data Communications (AREA)
- Image Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
Descrizionedell'invenzioneaventepertitolo: Description of the invention with the title:
"PROCEDIMENTO E DISPOSITIVO DI RICONOSCIMENTO VOCALE CON DOPPIOPASSODIRICONOSCIMENTO,NEURALEEMARKOVIANO" "PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE PASS OF RECOGNITION, NEURAL EMARKOVIAN"
Lapresenteinvenzione siriferisceaisistemidiriconoscimento automatico della voce ed in particolare riguarda un procedimento e un dispositivo per il riconoscimento di parole isolate in ampi vocabolari in cui le parole sono rappresentate componendo unità acustico-fonetiche della lingua e in cui il riconoscimentovieneeffettuatomedianteduepassisequenzialiincuisiutilizzano rispettivamenteletecnichedelleretineuraliedeimodellimarkovianieirisultati delleduetecnichesonocombinatiinmodoopportunopermigliorarel'accuratezza delriconoscimento. The present invention relates to automatic voice recognition systems and in particular concerns a procedure and a device for the recognition of isolated words in large vocabularies in which the words are represented by composing acoustic-phonetic units of the language and in which the recognition is carried out by two sequential passages in which they use respectfully the techniques of the obstruction of the obscuration of the obstruction of the last words and the obstruction of the latter.
Le reti neurali sono una struttura elaborativa parallela, che riproduce in forma molto semplificata l'organizzazione della corteccia cerebrale. Una rete neurale è costituita da numerose unità elaborative, dette neuroni, fortemente interconnesse mediante collegamenti di varia intensità dette sinapsi o pesi di interconnessione.Ineuronisonodispostiingeneresecondounastrutturaalivelli, unlivellodiingresso, unoopiùlivelliintermedieunlivellodiuscita. Partendo dalleunitàdiingresso,acuivienefornitoilsegnaledatrattare,l'elaborazionesi propaga ai livelli successivi della rete fino alle unità di uscita, che forniscono il risultato. Varie realizzazioni di reti neurali sono descritte, ad esempio, nel libro di D. Rumelhart "Parallel Distributed Processing", voi. 1 Foundations, MIT Press, Cambridge, Mass., 1986. Neural networks are a parallel processing structure that reproduces the organization of the cerebral cortex in a very simplified form. A neural network is made up of numerous processing units, called neurons, strongly interconnected through links of varying intensity called synapses or interconnection weights. Neurons are arranged according to a structure at levels, an input level, an intermediate level and an output level. Starting from the input units, the signal to be treated is supplied, the processing propagates to the successive levels of the network up to the output units, which provide the result. Various realizations of neural networks are described, for example, in D. Rumelhart's book "Parallel Distributed Processing", vol. 1 Foundations, MIT Press, Cambridge, Mass., 1986.
La tecnologia delle reti neurali è applicabile in molti settori, ed in particolare nel riconoscimento del parlato, in cui la rete neurale è utilizzata per stimare la probabilità P(Q | X) di un'unità fonetica Q data la rappresentazione parametrica X di una porzione di segnale vocale d’ingresso. Le parole da riconoscere sono rappresentate come concatenazione di unità fonetiche e si utilizza un algoritmo di programmazione dinamica per trovare la parola che ha la massima probabilità di essere quella effettivamente pronunciata. Neural network technology is applicable in many sectors, and in particular in speech recognition, where the neural network is used to estimate the probability P (Q | X) of a phonetic unit Q given the parametric representation X of a portion voice input signal. The words to be recognized are represented as a concatenation of phonetic units and a dynamic programming algorithm is used to find the word that has the greatest probability of being the one actually pronounced.
I modelli markoviani nascosti (Hidden Markov Models ) sono una tecnologia classica per il riconoscimento del parlato. Un modello di questo tipo consiste di un certo numero di stati collegati dalle possibili transizioni. Alle transizioni è associata una probabilità di passare dallo stato di origine a quello di destinazione. Inoltre, ogni stato può emettere dei simboli da un alfabeto finito secondo una distribuzione di probabilità data. Nel caso di impiego per il riconoscimento del parlato, ogni modello rappresenta un'unità acustico-fonetica mediante un automa sinistra-destra in cui in ogni stato si può permanere con una transizione ciclica o passare al successivo. Ad ogni stato inoltre è associata una densità di probabilità definita su X, dove X rappresenta un vettore di parametri estratti dal segnale vocale ogni 10 ms. I simboli emessi, in base alla densità di probabilità associata allo stato, sono quindi gli infiniti possibili vettori di parametri X. Questa densità di probabilità è data da una mistura di gaussiane nello spazio multidimensionale dei vettori d’ingresso. Hidden Markov Models are a classic technology for speech recognition. Such a model consists of a number of states connected by possible transitions. Transitions are associated with a probability of going from the source to the destination state. Furthermore, each state can emit symbols from a finite alphabet according to a given probability distribution. In the case of use for speech recognition, each model represents an acoustic-phonetic unit by means of a left-right automaton in which in each state one can persist with a cyclic transition or move on to the next. Each state is also associated with a probability density defined on X, where X represents a vector of parameters extracted from the speech signal every 10 ms. The symbols emitted, based on the probability density associated with the state, are therefore the infinite possible vectors of X parameters. This probability density is given by a mixture of Gaussians in the multidimensional space of the input vectors.
Anche nel caso dei modelli markoviani nascosti le parole da riconoscere sono rappresentate come concatenazione di unità fonetiche e si utilizza un algoritmo di programmazione dinamica (algoritmo di Viterbi) per trovare la parola generata con la massima probabilità, dato il segnale vocale d’ingresso. Even in the case of hidden Markov models, the words to be recognized are represented as a concatenation of phonetic units and a dynamic programming algorithm (Viterbi's algorithm) is used to find the word generated with the highest probability, given the voice input signal.
Maggiori dettagli su questa tecnica di riconoscimento si possono trovare p. es, in L. Rabiner, B-H. Juang: "Fundamentals of speech recognition", Prentice Hall, Englewood Cliffs, New Jersey (USA) More details on this recognition technique can be found on p. eg, in L. Rabiner, B-H. Juang: "Fundamentals of speech recognition", Prentice Hall, Englewood Cliffs, New Jersey (USA)
Il metodo oggetto della presente invenzione utilizza entrambe le tecniche delle reti neurali e dei modelli markoviani, mediante un doppio passo di riconoscimento e una ricombinazione dei risultati ottenuti con le due tecniche. The method object of the present invention uses both techniques of neural networks and Markov models, by means of a double recognition step and a recombination of the results obtained with the two techniques.
Un sistema di riconoscimento in cui vengono ricombinati i punteggi di riconoscitori differenti per il miglioramento delle prestazioni in termini di accuratezza di riconoscimento è illustrato nella memoria "Speech recognition using segmentai neural nets" di S. Austin, G. Zavaliagkos, J. Makhoul e R. Schwartz presentata alla conferenza ICASSP '92, San Francisco, 23-26 Marzo 1992. A recognition system in which the scores of different recognizers are recombined to improve the performance in terms of recognition accuracy is illustrated in the "Speech recognition using segmentai neural nets" by S. Austin, G. Zavaliagkos, J. Makhoul and R. Schwartz presented at ICASSP '92 conference, San Francisco, March 23-26, 1992.
Questo sistema noto effettua un primo riconoscimento con l’utilizzo dei modelli markoviani nascosti, fornendo una lista delle N migliori ipotesi di riconoscimento (p. es: 20), cioè delle N frasi che hanno la maggior probabilità di essere quella effettivamente pronunciata, insieme a un rispettivo punteggio di verosimiglianza. Lo stadio markoviano di riconoscimento provvede anche a una segmentazione fonetica di ciascuna ipotesi e trasferisce il risultato della segmentazione a un secondo stadio di riconoscimento basato su una rete neurale. Questo opera un riconoscimento a partire dai segmenti fonetici forniti dal primo passo markoviano e fornisce a sua volta una lista di ipotesi associate ognuna un punteggio di verosimiglianza in base alla tecnica di riconoscimento neurale. I due punteggi sono poi combinati linearmente per formare una lista unica, e la migliore ipotesi risultante dalla combinazione viene scelta come frase riconosciuta. This known system carries out a first recognition with the use of hidden Markov models, providing a list of the N best recognition hypotheses (e.g. 20), that is, of the N phrases that are most likely to be the one actually pronounced, together with a respective likelihood score. The Markov stage of recognition also provides for a phonetic segmentation of each hypothesis and transfers the result of the segmentation to a second stage of recognition based on a neural network. This operates a recognition starting from the phonetic segments provided by the first Markovian step and in turn provides a list of associated hypotheses each with a likelihood score based on the neural recognition technique. The two scores are then combined linearly to form a single list, and the best guess resulting from the combination is chosen as the recognized phrase.
Un sistema di questo tipo presenta alcuni inconvenienti. Un primo inconveniente è legato al fatto di effettuare il riconoscimento nel secondo stadio a partire dai segmenti fonetici fomiti dal primo stadio: in presenza di eventuali errori temporali nella segmentazione, il secondo stadio commetterà a sua volta errori di riconoscimento che quindi si propagano alla lista finale. Inoltre, il sistema non si presta bene al riconoscimento di parole isolate all’intemo di grandi vocabolari, per il fatto di presentare come primo stadio il riconoscitore markoviano, che in tali particolari condizioni risulta un po' meno efficiente di quello neurale in termini di onere computazionale. Ancora, tenuto conto che le ipotesi fornite da un riconoscitore markoviano e da un riconoscitore a rete neurale hanno dinamica dei punteggi notevolmente diverse, una semplice combinazione lineare dei punteggi può dare risultati non significativi. Infine, il sistema noto non fornisce alcuna indicazione sull’affidabilità del riconoscimento effettuato. A system of this type has some drawbacks. A first drawback is linked to the fact of carrying out the recognition in the second stage starting from the phonetic segments provided by the first stage: in the presence of any temporal errors in the segmentation, the second stage will in turn commit recognition errors which then propagate to the final list . Furthermore, the system does not lend itself well to the recognition of isolated words within large vocabularies, due to the fact that it presents the Markov recognizer as the first stage, which in these particular conditions is a little less efficient than the neural one in terms of burden. computational. Again, taking into account that the hypotheses provided by a Markov recognizer and a neural network recognizer have remarkably different dynamics of the scores, a simple linear combination of the scores can give insignificant results. Finally, the known system does not provide any indication on the reliability of the recognition performed.
Il disporre di questa informazione nel caso di riconoscimento di parole isolate è invece una caratteristica molto importante: in effetti questi sistemi, come prassi generale, richiedono all’utilizzatore una conferma della parola pronunciata, ciò che allunga i tempi della procedura. Disponendo dell’informazione di affidabilità il sistema può richiedere la conferma solo quando l’affidabilità del riconoscimento scende sotto una certa soglia, rendendo la procedura più rapida, con vantaggi sia per l’utilizzatore che per il gestore del sistema. Having this information in the case of recognition of isolated words is instead a very important feature: in fact these systems, as a general practice, require the user to confirm the spoken word, which lengthens the time of the procedure. Having the reliability information, the system can request confirmation only when the reliability of the recognition falls below a certain threshold, making the procedure faster, with advantages for both the user and the system manager.
Lo scopo dell’invenzione è quello di fornire un procedimento e un dispositivo di riconoscimento del tipo suddetto che è particolarmente studiato per il riconoscimento di parole isolate all’interno di grandi vocabolari e che consente di migliorare l'accuratezza del riconoscimento e inoltre di ottenere una stima dell’affidabilità del riconoscimento. The object of the invention is to provide a method and a recognition device of the aforesaid type which is particularly designed for the recognition of isolated words within large vocabularies and which allows to improve the accuracy of the recognition and also to obtain a estimation of recognition reliability.
Più in particolare, il procedimento secondo l’invenzione è caratterizzato dal fatto che i due passi di riconoscimento operano in sequenza su una stessa espressione da riconoscere in modo tale che il passo neurale esamini l’intero vocabolario attivo e il passo markoviano esamini solo un vocabolario parziale rappresentato dalla lista di ipotesi fornita come risultato del passo neurale, e dal fatto che si valuta inoltre l’affidabilità del riconoscimento per la ipotesi migliore della lista riordinata, sulla base dei punteggi risultanti dalla combinazione e associati a tale ipotesi migliore e a una o più ipotesi che occupano posizioni successive nella lista riordinata, generando un indice di affidabilità che può assumere almeno due valori corrispondenti rispettivamente a riconoscimento certo e riconoscimento incerto. More specifically, the method according to the invention is characterized by the fact that the two recognition steps operate in sequence on the same expression to be recognized in such a way that the neural step examines the entire active vocabulary and the Markov step examines only one vocabulary. partial represented by the list of hypotheses provided as a result of the neural step, and by the fact that the reliability of the recognition for the best hypothesis of the reordered list is also evaluated, on the basis of the scores resulting from the combination and associated with this best hypothesis and one or more hypotheses that occupy successive positions in the reordered list, generating a reliability index that can assume at least two values corresponding respectively to certain recognition and uncertain recognition.
Un riconoscitore per realizzare il procedimento è caratterizzato dal fatto che l’unità di riconoscimento a rete neurale è disposta a monte dell’unità di riconoscimento basata sui modelli markoviani nascosti ed è atta a effettuare il rispettivo riconoscimento operando sull’intero vocabolario attivo, e l’unità di riconoscimento basata sui modelli markoviani nascosti è atta a effettuare il riconoscimento in maniera indipendente da quello effettuato dall’unità di riconoscimento a rete neurale operando su un vocabolario parziale costituito dalle ipotesi contenute nella lista fornita da quest’ultima; e dal fatto che l’unità elaborativa comprende mezzi per valutare l’affidabilità del riconoscimento per l’ipotesi che ha il miglior punteggio di verosimiglianza nella lista di ipotesi riordinata, utilizzando i punteggi combinati associati alle ipotesi contenute nella lista riordinata, detti mezzi di valutazione essendo atti a fornire un indice di affidabilità che può assumere almeno due valori corrispondenti rispettivamente a riconoscimento certo o incerto per tale ipotesi. A recognizer for carrying out the procedure is characterized by the fact that the neural network recognition unit is arranged upstream of the recognition unit based on hidden Markovian models and is able to carry out the respective recognition by operating on the entire active vocabulary, and the The recognition unit based on hidden Markov models is capable of carrying out the recognition independently from that carried out by the neural network recognition unit by operating on a partial vocabulary consisting of the hypotheses contained in the list provided by the latter; and by the fact that the processing unit includes means for evaluating the reliability of the recognition for the hypothesis that has the best likelihood score in the reordered hypothesis list, using the combined scores associated with the hypotheses contained in the reordered list, said evaluation means being able to provide a reliability index which can assume at least two values corresponding respectively to certain or uncertain recognition for this hypothesis.
A maggior chiarimento si fa riferimento ai disegni allegati, in cui: For further clarification, reference is made to the attached drawings, in which:
- la fig. 1 è uno schema a blocchi di un sistema di riconoscimento secondo l’invenzione. - fig. 1 is a block diagram of a recognition system according to the invention.
- la fig. 2 è un diagramma di flusso del procedimento di riconoscimento secondo l’invenzione, - fig. 2 is a flow chart of the recognition process according to the invention,
- la fig. 3 è un diagramma di flusso delle operazioni di combinazione dei punteggi, e - fig. 3 is a flowchart of the scoring operations, and
- la fig. 4 è un diagramma di flusso delle operazioni di calcolo dell’affidabilità del riconoscimento. - fig. 4 is a flow chart of the recognition reliability calculation operations.
La descrizione che segue è fatta a titolo di esempio non limitativo supponendo che l’invenzione sia impiegata per il riconoscimento di parole isolate. The following description is given as a non-limiting example assuming that the invention is used for the recognition of isolated words.
Nella fig. 1 si vede che il sistema di riconoscimento secondo l’invenzione comprende due riconoscitori NE, MA operanti in due passi di riconoscimento successivi e indipendenti sul segnale vocale in arrivo sulla linea 1. Come usuale nella tecnica, il segnale presente sulla linea 1 sarà un’opportuna rappresentazione parametrica (p. es. una rappresentazione cepstrale) di una parola pronunciata dal parlatore, ottenuta in dispositivi di trattamento non rappresentati e organizzata in trame della durata p. es. di 10 - 15 ms. In fig. 1 it can be seen that the recognition system according to the invention comprises two recognizers NE, MA operating in two successive and independent recognition steps on the voice signal arriving on line 1. As usual in the art, the signal present on line 1 will be a appropriate parametric representation (eg a cepstral representation) of a word pronounced by the speaker, obtained in unrepresented processing devices and organized in plots of duration p. ex. by 10 - 15 ms.
Il riconoscitore NE che opera nel primo passo è basato sulla tecnologia delle reti neurali ed effettua il riconoscimento utilizzando l’intero vocabolario attivo. NE fornisce su un’uscita 2 una lista delle M(nn) parole che costituiscono le migliori ipotesi di riconoscimento secondo lo specifico tipo di rete neurale e sono associate ognuna a un rispettivo punteggio di verosimiglianza acustica nnj. The NE recognizer that operates in the first step is based on neural network technology and carries out the recognition using the entire active vocabulary. NE provides on output 2 a list of the M (nn) words that constitute the best recognition hypotheses according to the specific type of neural network and are each associated with a respective acoustic likelihood score nnj.
L’uscita 2 di NE è collegata anche al secondo riconoscitore MA, che riceve anch’esso il segnale presente sulla connessione 1 ed effettua un riconoscimento in base alla tecnica dei modelli markoviani nascosti, limitando però il campo di scelta delle possibili ipotesi di riconoscimento al vocabolario rappresentato dalle M(nn) parole individuate dal riconoscitore NE. MA fornisce a sua volta su un’uscita 3 una lista di M(hmm) parole che costituiscono le migliori ipotesi di riconoscimento secondo il modello markoviano e sono associate ognuna a un rispettivo punteggio di verosimiglianza acustica hmmj. The output 2 of NE is also connected to the second recognizer MA, which also receives the signal present on connection 1 and performs a recognition on the basis of the hidden Markov models technique, limiting however the range of choice of the possible recognition hypotheses to vocabulary represented by the M (nn) words identified by the NE recognizer. MA in turn provides on output 3 a list of M (hmm) words that constitute the best recognition hypotheses according to the Markov model and are each associated with a respective acoustic likelihood score hmmj.
In modo del tutto convenzionale, le due liste sono emesse come liste ordinate. Si noti che nel caso più generale esse possono avere lunghezza diversa anche se, date le modalità di operazione di MA, le M(hmm) parole fornite da MA saranno un sottoinsieme delle M(nn) parole fornite da NE. In a completely conventional way, the two lists are issued as ordered lists. Note that in the more general case they can have different length even if, given the operation modalities of MA, the M (hmm) words supplied by MA will be a subset of the M (nn) words supplied by NE.
Le uscite 2, 3 dei due riconoscitori NE, MA sono collegate a un dispositivo di elaborazione dei punteggi EL che deve compiere due tipi di operazione: The outputs 2, 3 of the two NE, MA recognizers are connected to an EL score processing device which must perform two types of operation:
1) effettuare un trattamento dei punteggi delle parole presenti nelle due liste, basato su una normalizzazione dei punteggi di ciascuna parola e su una combinazione dei punteggi normalizzati, e, a conclusione del trattamento, fornire su una prima uscita 4 del dispositivo una nuova lista riordinata in base ai punteggi combinati; 1) carry out a treatment of the scores of the words present in the two lists, based on a normalization of the scores of each word and on a combination of the normalized scores, and, at the end of the treatment, provide a new reordered list on a first output 4 of the device based on combined scores;
2) se entrambi i riconoscitori NE, MA hanno individuato una stessa parola come migliore ipotesi di riconoscimento, calcolare ed emettere su una seconda uscita 5 un indice di affidabilità di questa parola (che ovviamente risulterà la migliore ipotesi nella lista combinata), verificando che siano soddisfatte certe condizioni per i punteggi di verosimiglianza all’intemo di tale lista combinata. 2) if both recognizers NE, MA have identified the same word as the best hypothesis of recognition, calculate and issue on a second output 5 a reliability index of this word (which will obviously be the best hypothesis in the combined list), verifying that they are certain conditions are met for the likelihood scores within this combined list.
Tenuto conto di questa duplice funzione, all’interno dei dispositivi EL di elaborazione dei punteggi si sono rappresentati in figura tre blocchi funzionali UE1, CM, UE2. UE1 è un’unità elaborativa che ha il compito di effettuare le operazioni relative alla normalizzazione dei punteggi delle due liste fomite da NE e MA, alla combinazione dei punteggi normalizzati e alla generazione della lista riordinata in base ai punteggi combinati, che viene emessa su una prima uscita 4 del riconoscitore. CM è un’unità di confronto che ha il compito di verificare se la migliore parola riconosciuta è la stessa nelle due liste e, in caso di esito positivo, di abilitare l’unità UE2. Questa a sua volta è un’unità elaborativa che ha il compito di verificare se le condizioni desiderate per i punteggi combinati sono soddisfatte e di emettere di conseguenza l’indice di affidabilità su una seconda uscita 5 del riconoscitore. Nell’esempio di realizzazione qui descritto si supporrà che tale indice possa assumere due valori, corrispondenti rispettivamente a "riconoscimento certo" e a "riconoscimento incerto". Taking into account this dual function, three functional blocks UE1, CM, UE2 are shown in the figure within the EL score processing devices. UE1 is a processing unit that has the task of carrying out the operations relating to the normalization of the scores of the two lists provided by NE and MA, the combination of the normalized scores and the generation of the reordered list based on the combined scores, which is issued on a first output 4 of the validator. CM is a comparison unit that has the task of verifying whether the best recognized word is the same in the two lists and, if successful, of enabling the UE2 unit. This in turn is a processing unit that has the task of verifying whether the desired conditions for the combined scores are met and consequently emitting the reliability index on a second output 5 of the recognizer. In the example of embodiment described here it will be assumed that this index can assume two values, corresponding respectively to "certain recognition" and "uncertain recognition".
Le modalità con cui le unità UE1, UE2 effettuano le operazioni indicate sopra saranno descritte con maggiori dettagli in seguito. The ways in which the units UE1, UE2 carry out the operations indicated above will be described in greater detail below.
La soluzione adottata, con l’unità di riconoscimento neurale NE posta a monte dell’unità di riconoscimento markoviana MA migliora l’efficienza complessiva. In effetti la tecnologia delle reti neurali consente maggiori velocità di riconoscimento su vocabolari grandi, mentre quella markoviana ha migliori prestazioni su vocabolari più limitati: utilizzando il riconoscitore markoviano MA nella seconda fase, dove si utilizza solo il vocabolario corrispondente alle M(nn) migliori ipotesi ottenute con il riconoscitore neurale NE, si possono ridurre i tempi globali di riconoscimento. The solution adopted, with the NE neural recognition unit placed upstream of the MA Markov recognition unit, improves overall efficiency. In fact, the neural network technology allows higher recognition speeds on large vocabularies, while the Markovian one has better performances on more limited vocabularies: using the Markov recognizer MA in the second phase, where only the vocabulary corresponding to the M (nn) best hypotheses is used obtained with the neural recognizer NE, the overall recognition times can be reduced.
I vantaggi in termini di velocità fomiti dalle reti neurali sono ottenuti in particolar modo se il riconoscitore neurale NE è del tipo in cui la propagazione dei risultati delle elaborazioni è di tipo incrementale (cioè NE comprende una rete a più livelli in cui si propagano da un livello a quello superiore solo le differenze significative tra i valori di attivazione dei neuroni in istanti successivi), come descritto p. es. nella domanda di brevetto europeo EP-A 0 733 982 a nome della stessa Richiedente. Non vi sono particolari esigenze per il riconoscitore markoviano MA, che può essere di uno qualsiasi dei tipi noti nella tecnica. The advantages in terms of speed provided by neural networks are obtained in particular if the neural recognizer NE is of the type in which the propagation of the results of the processing is incremental (i.e. NE includes a multi-level network in which they propagate from a to the higher level only the significant differences between the activation values of the neurons in subsequent instants), as described p. ex. in the European patent application EP-A 0 733 982 in the name of the same Applicant. There are no particular requirements for the Markov recognizer MA, which can be of any of the types known in the art.
Si noti che la fig. 1 è uno schema puramente funzionale, e quindi i blocchi UE1, CM, UE2 corrisponderanno in generale parti diverse di un programma memorizzato nei dispositivi di elaborazione EL. Tenuto conto che anche i singoli riconoscitori NE, MA sono a loro volta implementati su dispositivi di elaborazione opportunamente programmati, è chiaro che uno stesso dispositivo di elaborazione può svolgere i compiti di più di imo dei blocchi rappresentati. Note that fig. 1 is a purely functional diagram, and therefore the blocks UE1, CM, UE2 will generally correspond to different parts of a program stored in the processing devices EL. Taking into account that also the single recognizers NE, MA are in turn implemented on suitably programmed processing devices, it is clear that the same processing device can perform the tasks of more than one of the blocks represented.
L’intero processo di riconoscimento svolto dal dispositivo di fig. 1 è anche rappresentato sotto forma di diagramma di flusso in fig. 2. Data la descrizione che precede, non sono necessarie ulteriori spiegazioni. The entire recognition process carried out by the device in fig. 1 is also shown in the form of a flow chart in FIG. 2. Given the above description, no further explanation is needed.
Venendo ora alle operazioni relative al trattamento dei punteggi delle ipotesi comprese nelle due liste fornite da NE e MA, il primo passo compiuto da UE1 è il calcolo della media μ(ηη), μ(ΐιιηπι) e della varianza σ(ηη), d(hmm) dei punteggi per ciascuna delle due liste secondo le ben note formule: Coming now to the operations relating to the treatment of the scores of the hypotheses included in the two lists provided by NE and MA, the first step taken by UE1 is the calculation of the mean μ (ηη), μ (ΐιιηπι) and of the variance σ (ηη), d (hmm) of the scores for each of the two lists according to the well-known formulas:
dove M(hmm) , M(nn), nnj, hmmj hanno il significato già visto. where M (hmm), M (nn), nnj, hmmj have the meaning already seen.
Successivamente si procede a una normalizzazione dei punteggi rispetto alla media e alla varianza, in modo da ottenere due liste NNi, HMMj di punteggi a media nulla e varianza unitaria. A questo scopo UEl esegue le operazioni rappresentate dalle relazioni seguenti: The scores are then normalized with respect to the mean and variance, in order to obtain two lists NNi, HMMj of scores with zero mean and unit variance. For this purpose UEl performs the operations represented by the following relations:
UEl effettua il calcolo della media e della varianza dei punteggi (e la normalizzazione) per una lista solo se il numero di parole in quella lista non è inferiore a una certa soglia M. Nell’esempio preferito di realizzazione si è posto M = 3, cioè il valore minimo per il quale il calcolo della media e della varianza sono possibili. Se il numero di parole in una lista è inferiore alla soglia M, invece del punteggio fornito dal rispettivo riconoscitore, UEl utilizza valori di punteggio prefissati. Questo costituisce a sua volta una sorta di normalizzazione. In prove effettuate si sono assegnati al punteggio un valore di 3,0 nel caso di una sola ipotesi e valori di 2,0 e 1,0 nel caso di due sole ipotesi. Il riconoscitore si è comunque dimostrato poco sensibile al valore di questi parametri, e quindi qualsiasi valore che corrisponda a una buona verosimiglianza può essere utilizzato. UEl performs the calculation of the mean and variance of the scores (and normalization) for a list only if the number of words in that list is not less than a certain threshold M. In the preferred implementation example we set M = 3, ie the minimum value for which the calculation of the mean and variance are possible. If the number of words in a list is less than the threshold M, instead of the score provided by the respective recognizer, UEl uses predetermined score values. This in turn constitutes a kind of normalization. In tests carried out, the score was assigned a value of 3.0 in the case of a single hypothesis and values of 2.0 and 1.0 in the case of only two hypotheses. However, the recognizer has proved not very sensitive to the value of these parameters, and therefore any value that corresponds to a good likelihood can be used.
Infine si passa alla combinazione vera e propria dei punteggi associati nelle due liste a una stessa parola IP^HMM), I3⁄4(NN) per generare la lista finale di possibili parole, che viene poi riordinata in base al punteggio combinato. La combinazione è una combinazione lineare, cosicché nella nuova lista ognuna delle parole IPx ha un punteggio combinato Sx dato da Finally, we move on to the actual combination of the scores associated in the two lists with the same word IP ^ HMM), I3⁄4 (NN) to generate the final list of possible words, which is then reordered based on the combined score. The combination is a linear combination, so that in the new list each of the IPx words has a combined score Sx given by
dove a e β sono i pesi attribuiti a ciascuno dei due riconoscitori. where a and β are the weights attributed to each of the two recognizers.
Preferibilmente, i due pesi (memorizzati all’interno dell’unità UE1) soddisfano alla relazione β = 1 - a, dove a = 0,5 se i riconoscitori hanno prestazioni sostanzialmente analoghe Nel caso di prestazioni alquanto diverse, un intervallo adatto di valori di a e β può essere 0,4 - 0,6 Preferably, the two weights (stored inside the UE1 unit) satisfy the relation β = 1 - a, where a = 0.5 if the recognizers have substantially similar performances.In the case of somewhat different performances, a suitable range of values of a and β can be 0.4 - 0.6
Evidentemente, la combinazione dei punteggi non viene effettuata nel caso di parole presenti in una sola lista. Queste parole (generalmente appartenenti alla lista fornita dalla rete neurale, per le ragioni dette sopra) possono essere scartate oppure possono essere associate a un punteggio minimo, in modo da essere inserite nella lista finale dopo quelle per cui si è effettuata la combinazione dei punteggi. Obviously, the combination of scores is not carried out in the case of words present in a single list. These words (generally belonging to the list provided by the neural network, for the reasons mentioned above) can be discarded or can be associated with a minimum score, in order to be included in the final list after those for which the scores were combined.
Grazie alla normalizzazione, che dà liste con media nulla e varianza unitaria, si eliminano gli effetti dovuti alla diversa dinamica dei punteggi forniti dai due riconoscitori e si migliora la precisione del riconoscimento. Thanks to the normalization, which gives lists with zero mean and unit variance, the effects due to the different dynamics of the scores provided by the two recognizers are eliminated and recognition accuracy is improved.
La procedura di trattamento è riportata anche nel diagramma di flusso di Fig. 3. Data la descrizione che precede, questo diagramma non ha bisogno di ulteriori illustrazioni. The treatment procedure is also reported in the flow diagram of Fig. 3. Given the above description, this diagram does not need further illustrations.
Una volta che UE1 ha ottenuto i punteggi combinati e preparato la lista riordinata, il blocco UE2 può determinare l’affidabilità del riconoscimento della prima parola della lista stessa. Come detto, le operazioni di UE2 sono abilitate dal comparatore CM se questo riconosce che una stessa parola occupa la prima posizione nelle liste fornite da NE e MA, cioè IPl(NN) = IPl(HMM). Per la determinazione dell’affidabilità UE2 valuta il punteggio associato alla parola migliore e le differenze di punteggio tra questa e alcune delle parole successive nella lista. In particolare, affinché il riconoscimento sia considerato "certo", contemporaneamente alla condizione relativa all’identità della migliore parola nelle due liste, devono essere soddisfatte le seguenti condizioni: Once UE1 has obtained the combined scores and prepared the reordered list, the UE2 block can determine the reliability of the recognition of the first word of the list itself. As said, the operations of UE2 are enabled by the comparator CM if this recognizes that the same word occupies the first position in the lists supplied by NE and MA, that is IP1 (NN) = IP1 (HMM). For the determination of reliability, UE2 evaluates the score associated with the best word and the score differences between this and some of the following words in the list. In particular, in order for recognition to be considered "certain", at the same time as the condition relating to the identity of the best word in the two lists, the following conditions must be met:
1) il punteggio combinato SI della prima parola della lista riordinata deve essere superiore a una prima soglia Tl; 1) the combined SI score of the first word of the reordered list must be higher than a first threshold Tl;
2) le differenze tra il punteggio combinato SI associato alla prima parola della lista riordinata e quelli S2, S5 associati alla seconda e alla quinta parola sono rispettivamente superiori a una seconda e a una terza soglia T2, T3. 2) the differences between the combined score SI associated with the first word of the reordered list and those S2, S5 associated with the second and fifth words are respectively greater than a second and a third threshold T2, T3.
Le differenze SI - S2 e SI - S5 vengono calcolate e confrontate con le rispettive soglie verificate solo se è presente un sufficiente numero di ipotesi; in caso contrario la condizione 2) è considerata automaticamente soddisfatta. The differences SI - S2 and SI - S5 are calculated and compared with the respective verified thresholds only if there is a sufficient number of hypotheses; otherwise, condition 2) is considered automatically satisfied.
I valori delle soglie sono stabiliti in base all'applicazione in cui viene inserito il riconoscitore. Per esempio, negli esperimenti effettuati si sono adottati i seguenti valori): The threshold values are established according to the application in which the recognizer is inserted. For example, the following values were adopted in the experiments carried out):
E’ intuitivo vedere come le condizioni indicate sopra, (che oltre all’identità della migliore ipotesi dì riconoscimento fornita dalle due liste richiedono anche un sufficiente distacco di punteggio tra l’ipotesi migliore e quelle successive nella lista), permettano di valutare effettivamente la certezza del riconoscimento. It is intuitive to see how the conditions indicated above, (which in addition to the identity of the best hypothesis of recognition provided by the two lists also require a sufficient gap in the score between the best hypothesis and the following ones in the list), allow to effectively evaluate the certainty of recognition.
Le operazioni di valutazione dell’affidabilità del riconoscimento sono anche rappresentate sotto forma di diagramma di flusso in fig. 4. Si noti che in questo diagramma la concordanza della migliore parola nelle due liste è stata indicata come una condizione da verificare congiuntamente alle altre condizioni, invece di essere considerata una condizione preliminare per la verifica delle altre condizioni, ma è evidente che si tratta unicamente di dettagli implementativi dello stesso principio. Per il resto, anche questo diagramma non ha bisogno di ulteriori illustrazioni. The recognition reliability evaluation operations are also represented in the form of a flow chart in fig. 4. Note that in this diagram the agreement of the best word in the two lists has been indicated as a condition to be verified together with the other conditions, instead of being considered a preliminary condition for the verification of the other conditions, but it is evident that this is only of implementation details of the same principle. Otherwise, this diagram also needs no further illustrations.
E’ evidente che quanto descritto è dato unicamente a titolo di esempio non limitativo e che varianti e modifiche sono possibili senza uscire dal campo di protezione deirinvenzione. Per esempio, per la valutazione dell’affidabilità, si potrebbe solo verificare che il punteggio della parola migliore sia sufficientemente superiore a quello della seconda parola, eliminando il confronto con un’ulteriore parola (che potrebbe anche non essere la quinta, ma un’altra parola sufficientemente distante dalla seconda). Per la verifica dell’affidabilità del riconoscimento si potrebbero combinare diversamente le condizioni date - oppure aggiungere condizioni ulteriori - in modo da introdurre gradi di valutazione intermedi tra “certo” e “incerto”: per esempio, un grado di valutazione intermedio potrebbe essere rappresentato dalla verifica delle condizioni solo per le soglie TI e T2 ma non per T3. Infine, anche se si è fatto riferimento nella descrizione al riconoscimento di parole isolate, il riconoscitore potrebbe essere utilizzato anche per il parlato continuo. It is clear that what has been described is given only by way of non-limiting example and that variations and modifications are possible without going out of the scope of the invention. For example, for the evaluation of reliability, one could only verify that the score of the best word is sufficiently higher than that of the second word, eliminating the comparison with an additional word (which may not even be the fifth, but another word sufficiently distant from the second). To verify the reliability of the recognition, the given conditions could be combined differently - or additional conditions added - so as to introduce intermediate grades of assessment between "certain" and "uncertain": for example, an intermediate grade could be represented by verification of conditions only for thresholds TI and T2 but not for T3. Finally, even if reference has been made in the description to the recognition of isolated words, the recognizer could also be used for continuous speech.
Claims (16)
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT98TO000383A ITTO980383A1 (en) | 1998-05-07 | 1998-05-07 | PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE STEP OF NEURAL AND MARKOVIAN RECOGNITION. |
CA002270326A CA2270326C (en) | 1998-05-07 | 1999-04-28 | A method of and a device for speech recognition employing neural network and markov model recognition techniques |
US09/302,210 US6185528B1 (en) | 1998-05-07 | 1999-04-29 | Method of and a device for speech recognition employing neural network and markov model recognition techniques |
EP99108530A EP0955628B1 (en) | 1998-05-07 | 1999-05-04 | A method of and a device for speech recognition employing neural network and Markov model recognition techniques |
DE69938374T DE69938374T2 (en) | 1998-05-07 | 1999-05-04 | Method and apparatus for speech recognition using both a neural network and hidden Markov models |
JP11125902A JP3078279B2 (en) | 1998-05-07 | 1999-05-06 | Method and apparatus for speech recognition using neural network and Markov model recognition technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT98TO000383A ITTO980383A1 (en) | 1998-05-07 | 1998-05-07 | PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE STEP OF NEURAL AND MARKOVIAN RECOGNITION. |
Publications (1)
Publication Number | Publication Date |
---|---|
ITTO980383A1 true ITTO980383A1 (en) | 1999-11-07 |
Family
ID=11416735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT98TO000383A ITTO980383A1 (en) | 1998-05-07 | 1998-05-07 | PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE STEP OF NEURAL AND MARKOVIAN RECOGNITION. |
Country Status (6)
Country | Link |
---|---|
US (1) | US6185528B1 (en) |
EP (1) | EP0955628B1 (en) |
JP (1) | JP3078279B2 (en) |
CA (1) | CA2270326C (en) |
DE (1) | DE69938374T2 (en) |
IT (1) | ITTO980383A1 (en) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6148284A (en) | 1998-02-23 | 2000-11-14 | At&T Corporation | Method and apparatus for automatic speech recognition using Markov processes on curves |
DE19842151A1 (en) * | 1998-09-15 | 2000-03-23 | Philips Corp Intellectual Pty | Process for the adaptation of linguistic language models |
WO2001065541A1 (en) * | 2000-02-28 | 2001-09-07 | Sony Corporation | Speech recognition device and speech recognition method, and recording medium |
US6629073B1 (en) | 2000-04-27 | 2003-09-30 | Microsoft Corporation | Speech recognition method and apparatus utilizing multi-unit models |
US6662158B1 (en) * | 2000-04-27 | 2003-12-09 | Microsoft Corporation | Temporal pattern recognition method and apparatus utilizing segment and frame-based models |
US6735562B1 (en) * | 2000-06-05 | 2004-05-11 | Motorola, Inc. | Method for estimating a confidence measure for a speech recognition system |
US7003456B2 (en) * | 2000-06-12 | 2006-02-21 | Scansoft, Inc. | Methods and systems of routing utterances based on confidence estimates |
US6754629B1 (en) * | 2000-09-08 | 2004-06-22 | Qualcomm Incorporated | System and method for automatic voice recognition using mapping |
US7158935B1 (en) * | 2000-11-15 | 2007-01-02 | At&T Corp. | Method and system for predicting problematic situations in a automated dialog |
US7027987B1 (en) * | 2001-02-07 | 2006-04-11 | Google Inc. | Voice interface for a search engine |
WO2002069137A1 (en) * | 2001-02-23 | 2002-09-06 | The Trustees Of The University Of Pennsylvania | Dynamical brain model for use in data processing applications |
US6772116B2 (en) * | 2001-03-27 | 2004-08-03 | International Business Machines Corporation | Method of decoding telegraphic speech |
FR2825496B1 (en) * | 2001-06-01 | 2003-08-15 | Synomia | METHOD AND SYSTEM FOR BROAD SYNTAXIC ANALYSIS OF CORPUSES, ESPECIALLY SPECIALIZED CORPUSES |
WO2003017252A1 (en) * | 2001-08-13 | 2003-02-27 | Knittel, Jochen | Method and device for recognising a phonetic sound sequence or character sequence |
TW517221B (en) * | 2001-08-24 | 2003-01-11 | Ind Tech Res Inst | Voice recognition system |
ES2309728T3 (en) * | 2005-02-17 | 2008-12-16 | Loquendo S.P.A. | METHOD AND AUTOMATIC SYSTEM TO PROVIDE LINGUISTIC FORMULATIONS THAT ARE OUTSIDE OF A DOMAIN OF RECOGNITION OF AN AUTOMATIC VOCAL RECOGNITION SYSTEM. |
US20080312926A1 (en) * | 2005-05-24 | 2008-12-18 | Claudio Vair | Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition |
US20100125459A1 (en) * | 2008-11-18 | 2010-05-20 | Nuance Communications, Inc. | Stochastic phoneme and accent generation using accent class |
US8660678B1 (en) * | 2009-02-17 | 2014-02-25 | Tonara Ltd. | Automatic score following |
US8260763B2 (en) * | 2010-01-15 | 2012-09-04 | Hewlett-Packard Devlopment Company, L.P. | Matching service entities with candidate resources |
JPWO2013125203A1 (en) * | 2012-02-21 | 2015-07-30 | 日本電気株式会社 | Speech recognition apparatus, speech recognition method, and computer program |
CN103631802B (en) * | 2012-08-24 | 2015-05-20 | 腾讯科技(深圳)有限公司 | Song information searching method, device and corresponding server |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
US9589565B2 (en) | 2013-06-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US9311298B2 (en) | 2013-06-21 | 2016-04-12 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
US20180247640A1 (en) * | 2013-12-06 | 2018-08-30 | Speech Morphing Systems, Inc. | Method and apparatus for an exemplary automatic speech recognition system |
US9324321B2 (en) | 2014-03-07 | 2016-04-26 | Microsoft Technology Licensing, Llc | Low-footprint adaptation and personalization for a deep neural network |
US9529794B2 (en) | 2014-03-27 | 2016-12-27 | Microsoft Technology Licensing, Llc | Flexible schema for language model customization |
US9614724B2 (en) | 2014-04-21 | 2017-04-04 | Microsoft Technology Licensing, Llc | Session-based device configuration |
US9520127B2 (en) * | 2014-04-29 | 2016-12-13 | Microsoft Technology Licensing, Llc | Shared hidden layer combination for speech recognition systems |
US9430667B2 (en) | 2014-05-12 | 2016-08-30 | Microsoft Technology Licensing, Llc | Managed wireless distribution network |
US10111099B2 (en) | 2014-05-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Distributing content in managed wireless distribution networks |
US9874914B2 (en) | 2014-05-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Power management contracts for accessory devices |
US10037202B2 (en) | 2014-06-03 | 2018-07-31 | Microsoft Technology Licensing, Llc | Techniques to isolating a portion of an online computing service |
US9367490B2 (en) | 2014-06-13 | 2016-06-14 | Microsoft Technology Licensing, Llc | Reversible connector for accessory devices |
US9627532B2 (en) * | 2014-06-18 | 2017-04-18 | Nuance Communications, Inc. | Methods and apparatus for training an artificial neural network for use in speech recognition |
US9717006B2 (en) | 2014-06-23 | 2017-07-25 | Microsoft Technology Licensing, Llc | Device quarantine in a wireless network |
US10304440B1 (en) * | 2015-07-10 | 2019-05-28 | Amazon Technologies, Inc. | Keyword spotting using multi-task configuration |
KR102069699B1 (en) | 2016-01-18 | 2020-01-23 | 한국전자통신연구원 | Apparatus and method for recognizing speech |
CN108292477B (en) * | 2016-08-01 | 2021-10-29 | 霍尼韦尔国际公司 | Portable data link equipment for eavesdropping on data or voice communications |
JP7326033B2 (en) * | 2018-10-05 | 2023-08-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Speaker recognition device, speaker recognition method, and program |
US20220246138A1 (en) * | 2019-06-07 | 2022-08-04 | Nippon Telegraph And Telephone Corporation | Learning apparatus, speech recognition apparatus, methods and programs for the same |
US20230050795A1 (en) * | 2020-01-16 | 2023-02-16 | Nippon Telegraph And Telephone Corporation | Speech recognition apparatus, method and program |
US11783818B2 (en) * | 2020-05-06 | 2023-10-10 | Cypress Semiconductor Corporation | Two stage user customizable wake word detection |
KR20220010259A (en) * | 2020-07-17 | 2022-01-25 | 삼성전자주식회사 | Natural language processing method and apparatus |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2577891B2 (en) | 1986-08-06 | 1997-02-05 | 日本電信電話株式会社 | Word voice preliminary selection device |
GB8908205D0 (en) | 1989-04-12 | 1989-05-24 | Smiths Industries Plc | Speech recognition apparatus and methods |
US5278911A (en) * | 1989-05-18 | 1994-01-11 | Smiths Industries Public Limited Company | Speech recognition using a neural net |
GB8911461D0 (en) | 1989-05-18 | 1989-07-05 | Smiths Industries Plc | Temperature adaptors |
JP2964507B2 (en) * | 1989-12-12 | 1999-10-18 | 松下電器産業株式会社 | HMM device |
GB2240203A (en) * | 1990-01-18 | 1991-07-24 | Apple Computer | Automated speech recognition system |
IT1270919B (en) | 1993-05-05 | 1997-05-16 | Cselt Centro Studi Lab Telecom | SYSTEM FOR THE RECOGNITION OF ISOLATED WORDS INDEPENDENT OF THE SPEAKER THROUGH NEURAL NETWORKS |
US5677990A (en) * | 1995-05-05 | 1997-10-14 | Panasonic Technologies, Inc. | System and method using N-best strategy for real time recognition of continuously spelled names |
JP3039408B2 (en) | 1996-12-27 | 2000-05-08 | 日本電気株式会社 | Sound classification method |
-
1998
- 1998-05-07 IT IT98TO000383A patent/ITTO980383A1/en unknown
-
1999
- 1999-04-28 CA CA002270326A patent/CA2270326C/en not_active Expired - Fee Related
- 1999-04-29 US US09/302,210 patent/US6185528B1/en not_active Expired - Lifetime
- 1999-05-04 DE DE69938374T patent/DE69938374T2/en not_active Expired - Lifetime
- 1999-05-04 EP EP99108530A patent/EP0955628B1/en not_active Expired - Lifetime
- 1999-05-06 JP JP11125902A patent/JP3078279B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0955628A3 (en) | 2000-07-26 |
DE69938374T2 (en) | 2009-04-30 |
JP3078279B2 (en) | 2000-08-21 |
JP2000029495A (en) | 2000-01-28 |
US6185528B1 (en) | 2001-02-06 |
CA2270326C (en) | 2002-02-26 |
DE69938374D1 (en) | 2008-04-30 |
EP0955628A2 (en) | 1999-11-10 |
EP0955628B1 (en) | 2008-03-19 |
CA2270326A1 (en) | 1999-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITTO980383A1 (en) | PROCEDURE AND VOICE RECOGNITION DEVICE WITH DOUBLE STEP OF NEURAL AND MARKOVIAN RECOGNITION. | |
Young et al. | Tree-based state tying for high accuracy modelling | |
CA2609247C (en) | Automatic text-independent, language-independent speaker voice-print creation and speaker recognition | |
JPH08506430A (en) | Speech recognition method by 2-way search | |
JPH0583918B2 (en) | ||
WO1996027872A1 (en) | Speech recognition | |
Renals et al. | Decoder technology for connectionist large vocabulary speech recognition | |
rn Svendsen et al. | Optimizing baseforms for HMM-based speech recognition | |
Koo et al. | A new decoder based on a generalized confidence score | |
Rose | Word spotting from continuous speech utterances | |
Lee et al. | Acoustic modeling of subword units for speech recognition | |
JP3039634B2 (en) | Voice recognition device | |
Johansen | A comparison of hybrid HMM architecture using global discriminating training | |
Paul et al. | The Lincoln large-vocabulary stack-decoder HMM CSR | |
Kershaw et al. | The 1995 Abbot hybrid connectionist-HMM large-vocabulary recognition system | |
Li | A detection approach to search-space reduction for HMM state alignment in speaker verification | |
Stadermann et al. | Multi-task learning strategies for a recurrent neural net in a hybrid tied-posteriors acoustic mode | |
JP3104900B2 (en) | Voice recognition method | |
JP3873418B2 (en) | Voice spotting device | |
JP3559479B2 (en) | Continuous speech recognition method | |
Lee et al. | Acoustic modeling of subword units for large vocabulary speaker independent speech recognition | |
McDermott et al. | Prototype-based MCE/GPD training for word spotting and connected word recognition | |
JP2731133B2 (en) | Continuous speech recognition device | |
JP2738508B2 (en) | Statistical language model creation device and speech recognition device | |
Young et al. | Tree based state tying for high accuracy modeling |