JP2014056503A - Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment - Google Patents

Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment Download PDF

Info

Publication number
JP2014056503A
JP2014056503A JP2012201909A JP2012201909A JP2014056503A JP 2014056503 A JP2014056503 A JP 2014056503A JP 2012201909 A JP2012201909 A JP 2012201909A JP 2012201909 A JP2012201909 A JP 2012201909A JP 2014056503 A JP2014056503 A JP 2014056503A
Authority
JP
Japan
Prior art keywords
score
image
language
search
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012201909A
Other languages
Japanese (ja)
Inventor
Kotaro Miyamoto
晃太郎 宮本
Sachiko Yoshihama
佐知子 吉濱
Ken Mizuno
謙 水野
Kyoji Katsuno
恭治 勝野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2012201909A priority Critical patent/JP2014056503A/en
Priority to CN201310415674.3A priority patent/CN103678460B/en
Priority to US14/024,771 priority patent/US9514127B2/en
Publication of JP2014056503A publication Critical patent/JP2014056503A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a computer packaging method, a program, and a system for effectively obtaining non-text information with high versatility which is suitably used in multilingual environment.SOLUTION: There is provided a computer packaging method for specifying a non-text element matching communication in multilingual environment using a database in which the non-text element can be searched. The method includes the steps of: receiving a search result of the database using a search condition of one language and a search condition of another language corresponding to the search condition, a specific language attribute being related to the non-text element included in the search result; imparting a score to the non-text element included in the search result according to similarity to another element to which a different language attribute is related; and specifying at least one non-text element included in the search result according to the score.

Description

本発明は、一般的には、情報処理技術に関し、より特定的には、多言語環境でのコミュニケーションに適する非テキスト要素を特定するためのコンピュータ実装方法、プログラム、および、システムに関する。   The present invention relates generally to information processing technology, and more particularly to a computer-implemented method, program, and system for identifying non-text elements suitable for communication in a multilingual environment.

近年、画像、音(サウンド)その他の非テキスト情報の検索技術が発達し、広く普及している。例えば、ユーザは、1以上の検索キーワードを入力して画像検索を実行することによって、インターネット上に存在する関連画像を検索することができる。以下の特許文献および非特許文献リストは、非テキスト情報の検索技術に関連する背景技術を含む。   In recent years, search techniques for images, sounds, and other non-text information have been developed and are widely used. For example, the user can search for related images existing on the Internet by inputting one or more search keywords and executing an image search. The following patent documents and non-patent document lists include background techniques related to a search technique for non-text information.

特許第4796435号(特開2007−299172)Japanese Patent No. 4796435 (Japanese Patent Laid-Open No. 2007-299172) 特許第4340367号(特開2000−285141)Japanese Patent No. 4340367 (Japanese Patent Laid-Open No. 2000-285141) 特許第2601111号(特開平6−162104)Japanese Patent No. 2601111 (JP-A-6-162104) 特表2008−547061Special table 2008-547061 特開平10−289251JP-A-10-289251

Google Inc.、“About GoogleImages - Google Images Help”、[online]、[平成24年9月11日検索]、インターネット〈URL:http://support.google.com/images/bin/answer.py?hl=ja&answer=112512〉Google Inc., “About GoogleImages-Google Images Help”, [online], [searched September 11, 2012], Internet <URL: http://support.google.com/images/bin/answer.py? hl = en & answer = 112512> Kobi Reiter, Stephen Soderland, and Oren Etzioni, “Cross-LingualImage Search on the Web”、Proceeding of Twentieth International JointConference on Artificial Intelligence、2007年1月6日発行Kobi Reiter, Stephen Soderland, and Oren Etzioni, “Cross-LingualImage Search on the Web”, Proceeding of Twentieth International Joint Conference on Artificial Intelligence, published January 6, 2007 “Polyglot Image Search − キーワードを35ヶ国語に自動翻訳し、Googleイメージで世界中の画像を検索”、[online]、[平成24年9月11日検索]、インターネット<URL:http://www.crystal-creation.com/software/polyglot-image-search/>"Polyglot Image Search-Automatically translate keywords into 35 languages and search for images from around the world with Google Images", [online], [Search September 11, 2012], Internet <URL: http: // www .crystal-creation.com / software / polyglot-image-search />

非テキスト情報(画像、音など)をコミュニケーションにおいて用いることが、直感的かつ柔軟で便利な場合がある。しかし、非テキスト情報は、人によって様々な解釈が可能であるため、ミスコミュニケーションが起こり易い。例えば、画像アイコンは、言語、文化が異なるコミュニティで異なる意味を持つことがあるため、異なるコミュニティに属する人々の間でコミュニケーションをする場合、コミュニケーションがうまくいかないことが頻繁に起こる可能性がある。   It may be intuitive, flexible and convenient to use non-text information (image, sound, etc.) in communication. However, since non-text information can be interpreted in various ways by people, miscommunication is likely to occur. For example, image icons may have different meanings in communities with different languages and cultures. Therefore, when communicating between people belonging to different communities, it may frequently occur that communication is not successful.

したがって、本発明の目的の1つは、多言語環境でのコミュニケーションに適する非テキスト要素を特定するためのコンピュータ実装方法、プログラム、および、システムを提供することである。   Accordingly, one object of the present invention is to provide a computer-implemented method, program, and system for identifying non-text elements suitable for communication in a multilingual environment.

上記の目的を達成するために、非テキスト要素を検索可能なデータベースを用いて、多言語環境でのコミュニケーションに適する非テキスト要素を特定するためのコンピュータ実装方法が提供される。方法は、ある言語の検索条件および当該検索条件に対応する他の言語の検索条件を用いたデータベースの検索結果を受けるステップを含む。検索結果に含まれる非テキスト要素に特定の言語属性が関連付けられている。方法は、さらに、検索結果に含まれる非テキスト要素に対して、異なる言語属性が関連付けられている他の要素との類似度に応じてスコアを与えるステップと、スコアに基づいて、検索結果に含まれる非テキスト要素の少なくとも1つを特定するステップを含む。   To achieve the above object, a computer-implemented method for identifying non-text elements suitable for communication in a multilingual environment is provided using a database that is searchable for non-text elements. The method includes receiving a database search result using a search condition in one language and a search condition in another language corresponding to the search condition. A specific language attribute is associated with a non-text element included in the search results. The method further includes a step of assigning a score to the non-text element included in the search result according to the similarity with another element associated with a different language attribute, and the method includes the non-text element based on the score. Identifying at least one of the non-text elements to be included.

好ましくは、スコアを与えるステップにおいて、異なる言語属性が関連付けられている他の要素との類似度が高い非テキスト要素に高いスコアが与えられる。また、方法は、ある言語の検索条件を翻訳エンジンによって翻訳し、他の言語の検索条件を生成するステップをさらに含むことができる。   Preferably, in the step of giving a score, a high score is given to a non-text element having a high degree of similarity with another element associated with a different language attribute. The method may further include translating a search condition in one language by a translation engine and generating a search condition in another language.

好ましくは、非テキスト要素は、画像および/または音(サウンド)である。本発明において検索される画像は、静止画像、動画像その他のいかなる形式の画像をも含む。   Preferably, the non-text element is an image and / or sound. The image searched in the present invention includes a still image, a moving image, and any other type of image.

好ましくは、方法は、ある言語の検索条件および当該検索条件に対応する他の言語の検索条件を用いてデータベースを検索するステップと、検索結果に含まれる非テキスト要素に、検索に用いた言語を言語属性として関連付けるステップをさらに含む。   Preferably, the method includes a step of searching the database using a search condition of a certain language and a search condition of another language corresponding to the search condition, and the language used for the search is set in a non-text element included in the search result. The method further includes associating as a language attribute.

好ましくは、スコアを与えるステップは、画像要素に含まれる形状に関する情報について、複数の非テキスト要素の間での比較を行うことによって、形状スコアを算出するステップを含む。また、形状スコアを算出するステップが、画像要素の輪郭情報を抽出するステップと、複数の画像要素間で抽出された輪郭情報を比較するステップを含むこともできる。さらに好ましくは、輪郭情報を比較するステップにおいて、拡大・縮小および/または向きの変更を施された輪郭情報が比較される。輪郭情報を比較するステップが、あらかじめ準備された形状パターン分類辞書を参照するステップを含み、関連する形状パターン分類を考慮して複数の非テキスト要素の間での比較を行うようにすることができる。   Preferably, the step of giving a score includes a step of calculating a shape score by performing comparison between a plurality of non-text elements for information on the shape included in the image element. The step of calculating the shape score may include a step of extracting the contour information of the image element and a step of comparing the contour information extracted between the plurality of image elements. More preferably, in the step of comparing the contour information, the contour information subjected to enlargement / reduction and / or orientation change is compared. The step of comparing the contour information may include a step of referring to a shape pattern classification dictionary prepared in advance, and a comparison between a plurality of non-text elements may be performed in consideration of the related shape pattern classification. .

好ましくは、スコアを与えるステップが、イメージ画像要素に含まれる色成分に関する情報について、非テキスト要素と他の非テキスト要素の比較を行うことによって、色成分スコアを算出するステップを含む。色成分スコアを算出するステップが、複数の画像要素について画像全体の色成分値の代表を比較するステップを含むことができる。好ましくは、色成分の代表値が、当該画像要素の色成分値の平均値、中央値、最頻値および/または上位値である。   Preferably, the step of giving a score includes a step of calculating a color component score by comparing a non-text element with another non-text element for information on the color component included in the image image element. The step of calculating a color component score can include comparing representatives of the color component values of the entire image for a plurality of image elements. Preferably, the representative value of the color component is an average value, a median value, a mode value, and / or an upper value of the color component values of the image element.

好ましくは、方法は、画像要素の平滑度に基づいて、平滑度スコアを算出するステップをさらに含む。平滑度スコアを算出するステップが、画像要素を所定の規則に従って複数の領域に分割するステップと、複数の領域のそれぞれについて同一色の占有割合を算出するステップと、複数の領域のそれぞれの同一色の占有割合に基づいて平滑度スコアを算出するステップを含む。また、方法は、光学文字認識技術を用いて、画像要素に含まれる文字の文字認識を試みるステップと、文字認識の結果に基づいて、文字認識スコアを算出するステップをさらに含む。   Preferably, the method further includes calculating a smoothness score based on the smoothness of the image element. The step of calculating the smoothness score includes the step of dividing the image element into a plurality of regions according to a predetermined rule, the step of calculating an occupation ratio of the same color for each of the plurality of regions, and the same color of each of the plurality of regions Calculating a smoothness score based on the occupation ratio. In addition, the method further includes a step of attempting character recognition of characters included in the image element using an optical character recognition technique, and a step of calculating a character recognition score based on the result of character recognition.

好ましくは、非テキスト要素をスコアリングするステップが、当該非テキスト要素の形状スコア、色成分スコア、平滑度スコア、文字認識スコアのうちの少なくとも1つに基づいて総合スコアを算出するステップを含み、特定するステップが、総合スコアに基づいて、検索結果に含まれる非テキスト要素の少なくとも1つを特定するステップを含む。   Preferably, the step of scoring the non-text element includes a step of calculating a total score based on at least one of the shape score, the color component score, the smoothness score, and the character recognition score of the non-text element, The identifying step includes identifying at least one of the non-text elements included in the search result based on the total score.

以上、多言語環境でのコミュニケーションに適する非テキスト要素を特定するためのコンピュータ実装方法として本発明の概要を説明したが、本発明は、プログラム、プログラム製品、ソフトウェア、ソフトウェア製品、システムないし装置などとして把握することもできる。   The outline of the present invention has been described above as a computer-implemented method for identifying non-text elements suitable for communication in a multilingual environment. However, the present invention is not limited to programs, program products, software, software products, systems or devices, etc. It can also be grasped.

プログラム製品ないしソフトウェア製品は、例えば、前述のプログラム、ソフトウェアを格納した記憶媒体を含め、あるいはプログラム、ソフトウェアを伝送する媒体を含めることができる。プログラムは、コンピュータに前述の方法の各ステップを実行させることができ得る。   The program product or software product can include, for example, a storage medium storing the above-described program and software, or a medium for transmitting the program and software. The program may cause a computer to execute the steps of the method described above.

上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの構成要素のコンビネーションまたはサブコンビネーションもまた、発明となり得ることに留意すべきである。   It should be noted that the above summary of the invention does not enumerate all necessary features of the invention, and combinations or sub-combinations of these components can also be an invention.

本発明の実施形態における画像検索システムの機能ブロック図である。It is a functional block diagram of an image search system in an embodiment of the present invention. 本発明の実施形態における画像検索システムの全体動作を表現するフローチャートである。It is a flowchart expressing the whole operation | movement of the image search system in embodiment of this invention. 本発明の実施形態における言語をまたがった輪郭スコア算出処理または色成分スコア計算の処理の動作の前半を表現するフローチャートである。It is a flowchart expressing the first half of the operation | movement of the outline score calculation process or the color component score calculation across languages in embodiment of this invention. 本発明の実施形態における言語をまたがった輪郭スコア算出処理または色成分スコア計算の処理の動作の後半を表現するフローチャートである。It is a flowchart expressing the second half of the operation | movement of the outline score calculation process or color component score calculation across languages in embodiment of this invention. 本発明の実施形態における言語をまたがった輪郭スコア算出処理のさらなる詳細を表現するフローチャートである。It is a flowchart expressing the further detail of the contour score calculation process across languages in embodiment of this invention. 本発明の実施形態における言語をまたがった色成分スコア算出処理のさらなる詳細を表現するフローチャートである。It is a flowchart expressing the further detail of the color component score calculation process across languages in embodiment of this invention. 本発明の実施形態における言語をまたがった平滑度スコア算出処理の詳細を表現するフローチャートである。It is a flowchart expressing the detail of the smoothness score calculation process across languages in embodiment of this invention. 本発明の実施形態における非テキスト情報データベースを説明するためのイメージ図である。It is an image figure for demonstrating the non-text information database in embodiment of this invention. 本発明の実施形態における画像検索システムにおける検索結果の一例を説明するための図である。It is a figure for demonstrating an example of the search result in the image search system in embodiment of this invention. 本発明の実施形態における画像検索システムにおける検索結果の一例を説明するための図である。It is a figure for demonstrating an example of the search result in the image search system in embodiment of this invention. 本発明の実施形態における画像検索システムにおける検索結果の一例を説明するための図である。It is a figure for demonstrating an example of the search result in the image search system in embodiment of this invention. 本発明の実施形態における画像検索システムを実現するために好適な情報処理装置のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of the information processing apparatus suitable in order to implement | achieve the image search system in embodiment of this invention.

以下、本発明を実施するための形態を図面に基づいて詳細に説明するが、以下の実施形態は特許請求の範囲に記載された発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らないことに留意すべきである。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the following embodiments do not limit the invention described in the claims, and are described in the embodiments. It should be noted that not all combinations of features that are present are essential to the solution of the invention.

また、本発明は多くの異なる態様で実施することが可能であり、実施の形態の記載内容に限定して解釈されるべきものではない。実施の形態の説明の全体を通じて同じ要素には同じ番号を付している。   The present invention can be implemented in many different modes and should not be construed as being limited to the description of the embodiment. The same number is attached | subjected to the same element through the whole description of embodiment.

本発明の実施形態では、画像検索システムにおける情報処理を通じて、ユーザが入力した検索条件に合致する画像アイコンをユーザに提示する。特に、本発明の実施形態では、文化、言語が異なるコミュニティに属する人々の間でコミュニケーションでの使用に適する、汎用性の高い画像アイコンがユーザに提示される。   In the embodiment of the present invention, an image icon that matches a search condition input by the user is presented to the user through information processing in the image search system. In particular, in the embodiment of the present invention, a highly versatile image icon suitable for use in communication among people belonging to communities having different cultures and languages is presented to the user.

本発明の実施形態では、ユーザ入力に基づく検索条件(キーワード)を含むクエリが翻訳エンジンによって複数の言語に翻訳される。そして、オリジナルのキーワードと翻訳キーワードに基づいて画像検索が実行される。本発明の実施形態では、画像検索の結果に含まれる画像には特定の言語属性が与えられている。   In the embodiment of the present invention, a query including a search condition (keyword) based on user input is translated into a plurality of languages by a translation engine. Then, an image search is executed based on the original keyword and the translation keyword. In the embodiment of the present invention, a specific language attribute is given to an image included in the image search result.

次いで、本発明の実施形態では、画像検索の結果に含まれる画像について、文字認識解析、色成分解析、輪郭解析、平滑度解析が実施される。輪郭解析、色成分解析については、各画像の輪郭および色成分について特徴値が抽出される。次いで、輪郭および/または色成分の観点から言語をまたがって類似画像が存在する度合いを、抽出された特徴値を用いて解析する。ある画像について他言語の属性が与えられた類似画像が存在する度合いが高い場合、当該ある画像に高いスコアが付与される。   Next, in the embodiment of the present invention, character recognition analysis, color component analysis, contour analysis, and smoothness analysis are performed on the image included in the image search result. For contour analysis and color component analysis, feature values are extracted for the contour and color components of each image. Next, the degree to which a similar image exists across languages in terms of contours and / or color components is analyzed using the extracted feature values. When there is a high degree of existence of a similar image to which an attribute of another language is given for a certain image, a high score is given to the certain image.

また、本発明の実施形態では、文字認識解析、平滑度解析が、各画像がコミュニケーション手段として適するかどうかを判断するために実施される。具体的には、文字が含まれると言語依存度が高くなるため、文字認識の結果、文字が含まれている度合いが低いものに高いスコアが付与される。また、写真のように情報量が多過ぎてコミュニケーション手段に適さないものを排除するために、平滑度解析の結果、平滑度が低い画像に高いスコアを付与する。   In the embodiment of the present invention, character recognition analysis and smoothness analysis are performed to determine whether each image is suitable as a communication means. Specifically, when a character is included, the degree of language dependency increases, and as a result of character recognition, a high score is given to a character that includes a low degree of character. In addition, in order to eliminate those that are not suitable for communication means such as photographs, a high score is given to images with low smoothness as a result of smoothness analysis.

本発明の実施形態では、文字認識解析、色成分解析、輪郭解析、および、平滑度解析によって得られたスコアに基づいて、すなわち、これら4つのスコアを正規化し、平均値を計算することによって各画像の総合スコアが得られることとなる。そして、総合スコアに従って、多言語環境において最も言語を用いないコミュニケーション手段として適した画像アイコンが特定され、ユーザに提示される。   In the embodiment of the present invention, based on the scores obtained by character recognition analysis, color component analysis, contour analysis, and smoothness analysis, that is, by normalizing these four scores and calculating the average value, An overall score of the image is obtained. Then, according to the total score, an image icon suitable as a communication means that uses the least language in the multilingual environment is specified and presented to the user.

本発明の実施形態の画像検索システムのユースケースとして、例えば、スマートフォンのようなモバイル端末を通じて画像検索システムにアクセスして得た多言語環境でのコミュニケーションに適する画像アイコンを当該モバイル端末に表示して共有することで、言葉の通じない者同士の間のコミュニケーションを行うことが考えられる。   As a use case of the image search system according to the embodiment of the present invention, for example, an image icon suitable for communication in a multilingual environment obtained by accessing the image search system through a mobile terminal such as a smartphone is displayed on the mobile terminal. By sharing, it is possible to communicate between people who do not speak.

別のユースケースとして、多数の人々に対するメッセージ/ニュースを配信する場合に、画像検索システムにより得た、メッセージ/ニュース内容を意味する画像アイコンを配信することが考えられる。配信の対象となる多数の人々の中には文字が読めない人々も存在し、そのような人々にとっては画像検索システムが提供する多言語環境でのコミュニケーションに適す画像アイコンが有効な情報源となり得る。   As another use case, when a message / news is distributed to a large number of people, it is conceivable to distribute an image icon representing a message / news content obtained by an image search system. There are some people who can't read characters among the many people who can be distributed, and for such people, image icons suitable for communication in a multilingual environment provided by an image search system can be an effective source of information. .

さらに別のユースケースとして、例えば、ローカルな地域で用いられることを想定してデザインされた既存のパンフレット等の著作物をグローバルに展開する場合に、当該著作物に含まれる画像アイコンがグローバルに意味が通じるかどうかを検証し、また、通じない場合に置き換えるべき画像アイコンの候補を得るために、本発明の実施形態の画像検索システムを使用することができる。   As another use case, for example, when an existing work such as an existing pamphlet designed for use in a local area is developed globally, the image icon included in the work means globally. The image search system according to the embodiment of the present invention can be used to verify whether or not, and to obtain a candidate of an image icon to be replaced if not.

以下、本発明の実施形態を図1〜12を参照してさらに詳細に説明する。   Hereinafter, embodiments of the present invention will be described in more detail with reference to FIGS.

図1は、本発明の実施形態における画像検索システム(100)の機能ブロック図である。図1の機能ブロック図に示す各要素は、図12に例示したハードウェア構成を有する情報処理装置において、ハードディスク装置13などに格納されたオペレーティング・システム、アプリケーション・プログラムなどのコンピュータ・プログラムをメインメモリ4にロードした上でメインCPU1に読み込ませ、ハードウェア資源とソフトウェアを協働させることによって実現することができる。   FIG. 1 is a functional block diagram of an image search system (100) according to an embodiment of the present invention. Each element shown in the functional block diagram of FIG. 1 is an information processing apparatus having the hardware configuration illustrated in FIG. 12, and stores a computer program such as an operating system and application program stored in the hard disk device 13 or the like in a main memory. 4 is loaded into the main CPU 1 and read by the main CPU 1 so that hardware resources and software cooperate with each other.

本発明の実施形態の画像検索システム(100)は、入出力部(105)、キーワード抽出部(110)、画像検索部(115)、検索結果格納部(120)、検索結果解析部(125)、総合スコア計算部(150)、総合スコア記憶部(155)、提示画像決定部(160)を備える。   An image search system (100) according to an embodiment of the present invention includes an input / output unit (105), a keyword extraction unit (110), an image search unit (115), a search result storage unit (120), and a search result analysis unit (125). , A total score calculation unit (150), a total score storage unit (155), and a presentation image determination unit (160).

入出力部(105)は、画像検索システム(100)とユーザまたは他のコンピュータ・システムとの入出力インターフェースを提供する。本発明の実施形態では、例えば、ユーザは、入出力部(105)を通じて、画像検索の検索条件を入力する。   The input / output unit (105) provides an input / output interface between the image search system (100) and a user or another computer system. In the embodiment of the present invention, for example, the user inputs search conditions for image search through the input / output unit (105).

本発明の実施形態のキーワード抽出部(110)は、入出力部(105)を通じて入力された検索条件を解釈して1以上の検索キーワードを抽出し、画像検索部(115)に引き渡す。本発明の実施形態では、検索条件は、コミュニケーション内容および言語属性を含む。例えば、キーワード抽出部(110)は、検索条件として自然文「地震警報です。警戒してください。」、言語属性:日本語が入力された場合に、検索キーワード「地震」「警報」「警戒」を抽出する、といった機能を提供する。   The keyword extraction unit (110) according to the embodiment of the present invention interprets the search condition input through the input / output unit (105), extracts one or more search keywords, and delivers them to the image search unit (115). In the embodiment of the present invention, the search condition includes communication contents and language attributes. For example, when the keyword extraction unit (110) is entered as a natural sentence “Earthquake alert. Please be alert.”, Language attribute: Japanese, the search keywords “earthquake” “alarm” “warning” Provides a function to extract.

本発明の実施形態のキーワード抽出部(110)は、よく知られているtf-idfの手法を用いてキーワード抽出を実施する。ここで、tfはterm frequencyの略で、idfはinverse documentfrequencyの略である。たとえば、具体的には、文jから形態素解析によって得られた各単語iについて、以下に式に従って得られたtfi,jとidfiを乗じた得られた値があらかじめ定められた閾値以上であった場合に、当該単語iを検索のためのキーワードとして抽出するようにするとよい。 The keyword extraction unit (110) of the embodiment of the present invention performs keyword extraction using the well-known tf-idf technique. Here, tf is an abbreviation for term frequency, and idf is an abbreviation for inverse document frequency. For example, for each word i obtained by morphological analysis from sentence j, the value obtained by multiplying tf i, j and idf i obtained according to the following formula is greater than or equal to a predetermined threshold value. If so, the word i may be extracted as a keyword for search.

さらに、本発明の実施形態のキーワード抽出部(110)は、抽出した検索条件ないし検索キーワードを1以上の所定の言語に翻訳し、対応する検索キーワードを得て、その言語属性とともに画像検索部(115)に引き渡す。所定の言語は、あらかじめ定められた主要言語であるようにしてもよいし、ユーザが都度指定するようにしてもよいし、それら両方を組み合わせて決定するようにしてもよい。なお、所定の言語は、コミュニケーション相手の言語を含むようにすることが好ましい。   Further, the keyword extraction unit (110) of the embodiment of the present invention translates the extracted search condition or the search keyword into one or more predetermined languages, obtains the corresponding search keyword, and the image search unit (with the language attribute) 115). The predetermined language may be a predetermined main language, may be designated each time by the user, or may be determined in combination of both. The predetermined language preferably includes the language of the communication partner.

本発明の実施形態の画像検索部(115)は、キーワード抽出部(110)で抽出された検索キーワードおよび言語属性を含むクエリを用いて、非テキスト情報データベース(180)に問合せを行い、キーワードに合致する複数の画像を得る。クエリを言語属性ごとに生成し、データベースへの問合せを行うことが好ましい。また、画像検索部(115)が得た検索結果の画像には1以上の言語属性がそれぞれ与えられている。検索結果の画像に与えられる言語属性は、画像検索部(115)が検索を行ったときに使用した検索キーワードに与えられた言語属性を各画像に与えられるようにしてもよい。   The image search unit (115) of the embodiment of the present invention queries the non-text information database (180) using the query including the search keyword and language attribute extracted by the keyword extraction unit (110), and uses the keyword as a keyword. Get multiple matching images. It is preferable to generate a query for each language attribute and to query the database. Also, one or more language attributes are given to the search result image obtained by the image search unit (115). As the language attribute given to the search result image, the language attribute given to the search keyword used when the image search unit (115) performed the search may be given to each image.

図8を参照して、本願発明の非テキスト情報データベース(180)の一例をより詳細に説明する。図8は、本発明の実施形態における非テキスト情報データベース(180)を説明するためのイメージ図である。非テキスト情報データベース(180)は、言語リスト(505)、言語別先頭文字リスト(510)、言語別先頭文字別単語リスト(515)、言語別先頭文字別単語別ポインタ(520)およびコンテンツファイル格納部(525)を備える。   An example of the non-text information database (180) of the present invention will be described in more detail with reference to FIG. FIG. 8 is an image diagram for explaining the non-text information database (180) in the embodiment of the present invention. The non-text information database (180) includes a language list (505), a language-specific first character list (510), a language-specific first character-specific word list (515), a language-specific first character-specific word pointer (520), and a content file storage. Part (525).

本願発明の非テキスト情報データベース(180)に格納されるデータは、インターネット上のウェブ・サーバ(図示せず)をクローリングすることによって得られる。具体的には、本発明の実施形態の非テキスト情報データベース(180)は、インターネット上の画像について、クローリング・エンジン(図示せず)から、画像のファイル名、画像に関連付けられた代替テキストであるalt属性、画像近辺のテキストなどの情報を得て、メタ情報(インデックス・キーワード)を生成する。また、その際、当該画像または当該画像を含むウェブ・ページに割り当てられた言語属性、ファイル名、または、エンコーディング方式などを調査することによって、当該画像について1以上の言語属性を得るようにされている。   The data stored in the non-text information database (180) of the present invention is obtained by crawling a web server (not shown) on the Internet. Specifically, the non-text information database (180) of the embodiment of the present invention is an alternative text associated with an image file name and image from a crawling engine (not shown) for an image on the Internet. Meta information (index / keyword) is generated by obtaining information such as alt attribute and text near the image. At that time, one or more language attributes are obtained for the image by investigating the language attribute, file name, or encoding method assigned to the image or the web page including the image. Yes.

本願発明の非テキスト情報データベース(180)は、メタ情報および言語属性から画像に対する格納すべき画像対するインデックスを形成する。具体的には、言語リスト(505)に言語属性が、言語別先頭文字リスト(510)にインデックス・キーワードの先頭文字が、言語別先頭文字別単語リスト(515)にインデックス・キーワードが格納され、言語別先頭文字別単語別ポインタ(520)にはコンテンツファイル格納部(530)に格納されたコンテンツに対するポインタが格納されている。それぞれのテーブル(505)〜(520)はポインタで指し示されている。   The non-text information database (180) of the present invention forms an index for the image to be stored for the image from the meta information and the language attribute. Specifically, the language attribute is stored in the language list (505), the first character of the index / keyword is stored in the first character list by language (510), and the index / keyword is stored in the word list (515) by first character by language. A pointer for the content stored in the content file storage unit (530) is stored in the language-specific first character-specific word-specific pointer (520). Each table (505) to (520) is indicated by a pointer.

そして、言語別先頭文字別単語別ポインタ(520)は、同じキーワード・インデックスを持つ複数の画像内での人気度を表現するランキング・スコアを含む。ランキング・スコアは、画像検索結果の中でその画像が最終的にクリックがされた回数を計測するなどして得ることができるが、その求め方は種々の方法を当業者は設計することができるのでここでは詳細には説明されない。   The language-specific first character-specific word-specific pointer (520) includes a ranking score expressing the popularity in a plurality of images having the same keyword index. The ranking score can be obtained by, for example, measuring the number of times the image is finally clicked in the image search result, and those skilled in the art can design various methods for obtaining the ranking score. It will not be described in detail here.

本発明の実施形態の非テキスト情報データベース(180)に対して、検索キーワードおよび言語属性を含むクエリを用いて問合せがなされると、最初に、クエリ内の言語属性と言語リスト(505)内のマッチングが行われ、マッチする言語属性に対応する言語別先頭文字リスト(510)とクエリに含まれる検索キーワードの先頭文字のマッチングが行われる。次いで、マッチした先頭文字に対応する言語別先頭文字別単語リスト(515)とクエリ内の検索キーワードのマッチングが行われ、マッチした言語別先頭文字別単語別ポインタ(520)が特定される。そして、特定された言語別先頭文字別単語別ポインタ(520)を用いて、所定の数だけ、ランキング・スコアが高いコンテンツファイル格納部(530)に格納されているコンテンツファイルをクエリの返答として返すこととなる。   When the non-text information database (180) of the embodiment of the present invention is queried using a query including a search keyword and a language attribute, first, the language attribute in the query and the language list (505) Matching is performed, and the first character list (510) by language corresponding to the matching language attribute is matched with the first character of the search keyword included in the query. Next, the language-specific first character-specific word list (515) corresponding to the matched first character and the search keyword in the query are matched, and the matched language-specific first character-specific word pointer (520) is specified. Then, the content file stored in the content file storage unit (530) having a high ranking score by a predetermined number is returned as a query response by using the specified language-specific first character-by-word pointer (520). It will be.

なお、コンテンツファイルそのものをコンテンツファイル格納部(530)に格納することもできるし、コンテンツが存在するインターネット上の場所を示すURL(ユニフォーム・リソース・ロケータ)をコンテンツファイル格納部(530)に格納しておいて返すようにしてもよい。後者の場合、画像検索部(115)は、返ってきたてきたURLを用いて、該当する画像をインターネット上のウェブ・サーバから入手することとなる。   The content file itself can be stored in the content file storage unit (530), or a URL (Uniform Resource Locator) indicating the location on the Internet where the content exists is stored in the content file storage unit (530). You may make it return. In the latter case, the image search unit (115) obtains the corresponding image from a web server on the Internet using the returned URL.

なお、本発明の実施形態では、検索速度を向上させるために、言語リスト(505)、言語別先頭文字リスト(510)、および、言語別先頭文字別単語リスト(515)は、よく使用されるカラムを動的に上位に上げるようにすることができる。   In the embodiment of the present invention, the language list (505), the language-specific first character list (510), and the language-based first character-specific word list (515) are often used to improve the search speed. Columns can be raised dynamically to the top.

本発明の実施形態の検索結果格納部(120)は、画像検索部(115)が得た複数の画像を含む検索結果を格納する。検索結果格納部(120)では、検索結果の各画像は1以上の言語属性と関連付けられている。   The search result storage unit (120) of the embodiment of the present invention stores a search result including a plurality of images obtained by the image search unit (115). In the search result storage unit (120), each image of the search result is associated with one or more language attributes.

本発明の実施形態の検索結果解析部(125)は、画像検索部(115)によって検索され、検索結果格納部(120)に格納された複数の画像を含む検索結果を解析する。検索結果解析部(125)は、輪郭解析部(130)、色成分解析部(135)、平滑度解析部(140)および文字認識解析部(145)を備える。   The search result analysis unit (125) of the embodiment of the present invention analyzes a search result including a plurality of images searched by the image search unit (115) and stored in the search result storage unit (120). The search result analysis unit (125) includes a contour analysis unit (130), a color component analysis unit (135), a smoothness analysis unit (140), and a character recognition analysis unit (145).

本発明の実施形態の輪郭解析部(130)は、各画像に含まれるオブジェクトの特徴点を抽出して輪郭情報を取得し、各画像の間で輪郭情報の類似度を解析する。その結果、解析対象の画像が、異なる言語属性が与えられている他の画像と輪郭情報の類似度が高いことが多い場合、当該画像に高い「輪郭スコア」が与えられる。   The contour analysis unit (130) according to the embodiment of the present invention extracts feature points of objects included in each image to acquire contour information, and analyzes the similarity of the contour information between the images. As a result, when the image to be analyzed often has a high degree of similarity between the contour information and another image having a different language attribute, a high “contour score” is given to the image.

本発明の実施形態の色成分解析部(135)は、各画像の色成分を抽出したうえで、各画像の間での色成分の類似度を解析する。その結果、異なる言語属性が与えられている色成分の画像と類似度が高いことが多い画像について高い「色成分スコア」が与えられる。かかるスコア付けをする理由は、ある事象を表すのに、色成分の観点からローカル度が高い画像を排除するためである。たとえば、郵便ポストの色は、アメリカでは青色だが、日本、イギリスなどでは赤色、中華人民共和国では緑色、ドイツやフランスなどでは黄色である。したがって、郵便ポストの画像アイコンを検索する場合、色がなければ郵便ポストだとわからないような画像だと多言語環境において意味が通じる可能性が低いため、そのような画像を低く評価する必要がある。   The color component analysis unit (135) of the embodiment of the present invention extracts the color component of each image and then analyzes the similarity of the color component between the images. As a result, a high “color component score” is given to an image that often has a high degree of similarity with an image of a color component that is given a different language attribute. The reason for such scoring is to eliminate images with high locality from the viewpoint of color components to represent a certain event. For example, the color of the post box is blue in the United States, red in Japan and the United Kingdom, green in the People's Republic of China, and yellow in Germany and France. Therefore, when searching for image icons for postboxes, it is necessary to underestimate such images because it is unlikely that it will be meaningful in a multilingual environment if it is an image that does not know if it is a postbox without color. .

本発明の実施形態の平滑度解析部(140)は、各画像に対して、均一色のサブ領域をもつ割合に基づいて平滑度スコアを得る。平滑度解析部(140)は、低い平滑度をもつ画像に高い「平滑度スコア」を与える。その理由は、平滑度が高い画像は、風景写真のようなものが多く、情報量が多すぎることに起因して、直感的でなくまた明瞭でないために、情報伝達に適さないことが多いからである。   The smoothness analysis unit (140) of the embodiment of the present invention obtains a smoothness score based on the ratio of having a uniform color sub-region for each image. The smoothness analysis unit (140) gives a high “smoothness score” to an image having low smoothness. The reason is that images with high smoothness are often not suitable for information transmission because they are often like landscape photographs and are too intuitive and unclear due to too much information. It is.

本発明の実施形態の文字認識解析部(145)は、検索結果の各画像に言語に依存する文字が含まれる度合いを解析し、かかる度合いが低い画像に対して、高い「文字認識スコア」を与える。その理由は、言語に依存する文字が多く含まれている場合、その言語を理解することができない相手にとってその画像はコミュニケーション手段として役にたたないからである。文字認識解析部(145)は、既存の光学文字認識(Optical Character Recognition、単に「OCR」とも呼ばれる)技術を適用することで実装することができる。   The character recognition analysis unit (145) of the embodiment of the present invention analyzes the degree to which each image of the search result includes language-dependent characters, and gives a high “character recognition score” to an image with a low degree. give. The reason is that if there are a lot of language-dependent characters, the image is not useful as a communication means for a partner who cannot understand the language. The character recognition analysis unit (145) can be implemented by applying an existing optical character recognition (also referred to simply as “OCR”) technology.

「輪郭スコア」、「色成分スコア」、「平滑度スコア」および「文字認識スコア」の算出については、後で詳細に説明する。   Calculation of the “contour score”, “color component score”, “smoothness score”, and “character recognition score” will be described in detail later.

本発明の実施形態の総合スコア計算部(150)は、検索結果解析部(125)から「要素スコア」、具体的には、「平滑度スコア」、「文字認識スコア」、「色成分スコア」および「輪郭スコア」を検索結果解析部(125)から受け、これらに基づいて各画像に「総合スコア」を与える。本発明の実施形態の総合スコア計算部(150)によって計算された総合スコアは、総合スコア記憶部(155)に記憶されることとなる。一例として、本発明の実施形態では、「総合スコア」は「平滑度スコア」、「文字認識スコア」、「色成分スコア」および「輪郭スコア」を正規化したのちに平均値を算出することによって求められる。   The total score calculation unit (150) of the embodiment of the present invention receives “element score” from the search result analysis unit (125), specifically, “smoothness score”, “character recognition score”, “color component score”. The “contour score” is received from the search result analysis unit (125), and based on these, the “total score” is given to each image. The total score calculated by the total score calculation unit (150) of the embodiment of the present invention is stored in the total score storage unit (155). As an example, in the embodiment of the present invention, the “total score” is obtained by normalizing the “smoothness score”, “character recognition score”, “color component score”, and “contour score”, and then calculating an average value. Desired.

本発明の実施形態の提示画像決定部(160)は、総合スコア記憶部(155)に記憶された各画像の総合スコアに従って、ユーザに提示する画像を決定し、決定した画像を検索結果格納部(120)から得て、ユーザに提示するために入出力部(105)に引き渡す。本発明の実施形態では、検索結果に含まれる画像のうち最も総合スコアの高い画像が特定され、ユーザに提示されることとなる。   The presentation image determination unit (160) of the embodiment of the present invention determines an image to be presented to the user according to the total score of each image stored in the total score storage unit (155), and the determined image is a search result storage unit. Obtained from (120) and delivered to the input / output unit (105) for presentation to the user. In the embodiment of the present invention, the image with the highest overall score is specified from the images included in the search result and presented to the user.

図2は、本発明の実施形態における画像検索システムの全体動作を表現するフローチャート(200)である。処理はステップ(205)でスタートし、ステップ(210)でユーザから検索条件の入力、たとえば、キーワードもしくは自然文を特定の言語で受け入れる。なお、検索条件が自然文で入力された場合は、ステップ(210)では、キーワード抽出部(110)と関連して説明したtf-idfの手法を用いてキーワード抽出を実施することとなる。   FIG. 2 is a flowchart (200) representing the overall operation of the image search system in the embodiment of the present invention. The process starts in step (205), and in step (210), input of a search condition from the user, for example, a keyword or a natural sentence is accepted in a specific language. When the search condition is input in a natural sentence, in step (210), keyword extraction is performed using the tf-idf method described in relation to the keyword extraction unit (110).

処理はステップ(215)に進み、ステップ(210)で抽出された特定の言語の検索キーワードを、所定の他の言語に翻訳する。他の言語が、他言語環境のコミュニケーションにおけるターゲットオーディエンスが使用する言語を含むことが好ましく、また、あらかじめ定められた1以上の主要言語を含むことが好ましい。他の言語を、ユーザが指定するようにしてよい。本発明の実施形態では、最終的に「英語」「日本語」「中国語」「スペイン語」の四ヶ国語のキーワードのセットが得られるものとする。   The process proceeds to step (215), and the search keyword in the specific language extracted in step (210) is translated into another predetermined language. The other language preferably includes a language used by a target audience in communication in another language environment, and preferably includes one or more predetermined main languages. Other languages may be specified by the user. In the embodiment of the present invention, a set of keywords in four languages, “English”, “Japanese”, “Chinese”, and “Spanish” is finally obtained.

次に、ステップ(220)において、ステップ(215)で得られた複数の言語(四ヶ国語)で検索キーワードを用いて画像検索を実行する。本発明の実施形態では、検索キーワードおよび対応する言語属性を含むクエリを各言語それぞれについて形成して、画像検索を実施し、それぞれの結果得られた画像に対して、クエリに含まれる当該言語属性として与え、関連付ける。画像検索の結果は、検索結果格納部(120)に格納される。   Next, in step (220), an image search is executed using a search keyword in a plurality of languages (four languages) obtained in step (215). In the embodiment of the present invention, a query including a search keyword and a corresponding language attribute is formed for each language, an image search is performed, and the language attribute included in the query is obtained for each resulting image. Give and associate as. The result of the image search is stored in the search result storage unit (120).

本発明の実施形態では、ステップ(220)のあと、ステップ(225)〜(240)のそれぞれにおいて「輪郭スコア」「色成分スコア」「平滑度スコア」「文字認識スコア」の算出処理が並列で実行される。   In the embodiment of the present invention, after the step (220), the calculation processing of the “contour score”, “color component score”, “smoothness score”, and “character recognition score” is performed in parallel in each of the steps (225) to (240). Executed.

ステップ(225)〜(240)における「輪郭スコア」「色成分スコア」「平滑度スコア」「文字認識スコア」の算出処理が完了すると、処理はステップ(245)に進む。ステップ(245)では、検索結果の各画像について、「平滑度スコア」「文字認識スコア」「輪郭スコア」「色成分スコア」に基づいて総合スコアを算出する。本発明の実施形態では、「平滑度スコア」「文字認識スコア」「輪郭スコア」「色成分スコア」を正規化したうえで単純な平均値を求めることによって、総合スコアが算出される。   When the calculation processing of “contour score”, “color component score”, “smoothness score”, and “character recognition score” in steps (225) to (240) is completed, the process proceeds to step (245). In step (245), for each image of the search result, a total score is calculated based on the “smoothness score”, “character recognition score”, “contour score”, and “color component score”. In the embodiment of the present invention, the “smoothness score”, “character recognition score”, “contour score”, and “color component score” are normalized and a simple average value is obtained to calculate the total score.

次いで、処理はステップ(250)に進み、ステップ(245)で算出された総合スコアに基づいて提示すべき画像を決定し、決定された画像をユーザに提示する。本発明の実施形態では、総合スコアが最も高い画像がユーザに提示されることとなる。処理はステップ(255)に進み、終了する。   Next, the process proceeds to step (250), an image to be presented is determined based on the total score calculated in step (245), and the determined image is presented to the user. In the embodiment of the present invention, an image having the highest total score is presented to the user. The process proceeds to step (255) and ends.

本発明の実施形態における言語をまたがった輪郭スコア算出処理または色成分スコア計算の処理の一例を、図3、4のフローチャートを参照してより詳細に説明する。この輪郭スコア算出処理または色成分スコア計算の処理は、図2のフローチャート(200)のステップ(225)または(230)に対応することに留意されたい。   An example of the contour score calculation process or the color component score calculation process across languages in the embodiment of the present invention will be described in more detail with reference to the flowcharts of FIGS. It should be noted that this contour score calculation process or color component score calculation process corresponds to step (225) or (230) of the flowchart (200) in FIG.

図3、4に示すフローチャートでは、言語属性として、言語iが与えられたある画像lijに対するた輪郭スコア算出処理または色成分スコア計算の処理が行われるものとする。なお、本発明の実施形態では、図3、4の諸ステップは、輪郭解析部(130)または色成分解析部(135)によって実行される。 In the flowcharts shown in FIGS. 3 and 4, it is assumed that a contour score calculation process or a color component score calculation process is performed on an image l ij given a language i as a language attribute. In the embodiment of the present invention, the steps of FIGS. 3 and 4 are executed by the contour analysis unit (130) or the color component analysis unit (135).

図3は、本発明の実施形態における言語をまたがった輪郭スコア算出処理または色成分スコア計算の処理の動作の前半を表現するフローチャートである。処理はステップ(305)でスタートし、ステップ(310)で対象の言語i以外の他の言語mを特定することを試みる。   FIG. 3 is a flowchart showing the first half of the operation of the contour score calculation process or the color component score calculation process across languages in the embodiment of the present invention. The process starts at step (305), and at step (310), an attempt is made to specify a language m other than the target language i.

処理はステップ(315)に進み、まだ処理を行っていない他の言語mが存在するかどうかが判断される。ステップ(315)で他の言語mが存在すると判断された場合、処理はYESの矢印からステップ(320)に進み、言語mの言語属性が与えられた画像lmnを1つ取り出すことを試み、次いで、ステップ(325)において画像lmnが成功裏に取り出されたかどうかが判断される。 The process proceeds to step (315), and it is determined whether there is another language m that has not been processed yet. If it is determined in step (315) that another language m exists, the process proceeds from the arrow of YES to step (320), and tries to extract one image l mn given the language attribute of the language m, It is then determined in step (325) whether the image l mn has been successfully retrieved.

ステップ(325)において画像lmnが成功裏に取り出されたと判断された場合、処理はYESの矢印からステップ(330)に進み、対象の画像lijとステップ(320)で取り出された画像lmnのマッチングスコアSmnを算出する。輪郭マッチングまたは色成分マッチングの具体的な処理の内容は、後で図5、6に示すフローチャートを用いてそれぞれ詳細に説明するので、ここではこれ以上は説明されない。 When it is determined in step (325) that the image l mn has been successfully extracted, the process proceeds from the YES arrow to step (330), and the target image l ij and the image l mn extracted in step (320) are processed. The matching score Smn is calculated. Details of specific processing of contour matching or color component matching will be described later in detail with reference to the flowcharts shown in FIGS. 5 and 6, and will not be described further here.

処理はステップ(335)へ進み、ステップ(330)において求めたマッチングスコアSmnが、対象画像lijに関して、言語属性として言語mが与えられた画像との過去に行われたマッチングにおける最大マッチングスコアTmよりも大きいかどうかが判断される。なお、本発明の実施形態では、対象画像lijに関するマッチングが最初に行われる場合のために、最大マッチングスコアTは初期値として0が設定されているものとする。 The process proceeds to step (335), and the matching score S mn obtained in step (330) is the maximum matching score in matching performed in the past with the image having the language m as the language attribute for the target image l ij. It is determined whether it is greater than Tm. In the embodiment of the present invention, in case the matching relating to the target image l ij is performed first, the maximum matching score The T m is assumed to 0 as an initial value is set.

ステップ(335)においてステップ(330)において求めたマッチングスコアSmnが過去のマッチング処理における最大マッチングスコアTよりも大きいと判断された場合、処理はステップ(340)に進み、最大マッチングスコアTがステップ(330)において求めたマッチングスコアSmnに置き換えられ、その後処理はステップ(320)に進む。また、ステップ(335)においてステップ(330)において求めたマッチングスコアSmnが過去のマッチング処理における最大マッチングスコアTよりも大きくないと判断された場合、処理はステップ(320)に戻る。 When it is determined in step (335) that the matching score S mn obtained in step (330) is larger than the maximum matching score T m in the past matching process, the process proceeds to step (340), and the maximum matching score T m Is replaced with the matching score S mn obtained in step (330), and then the process proceeds to step (320). If it is determined in step (335) that the matching score S mn obtained in step (330) is not larger than the maximum matching score T m in the past matching process, the process returns to step (320).

処理はステップ(320)に戻ったあと、画像lmnが存在しなくなるまで上述したステップ(320)からステップ(340)の処理が繰り返される。繰り返しの間に、ステップ(325)において画像lmnが存在しないと判断された場合、処理はNOの矢印からループを抜けしてステップ(310)に戻り、さらに他の言語についてステップ(310)以降が繰り返される。ステップ(310)以降の処理を繰り返す間に、ステップ(315)において未処理の他の言語がもはや存在しないと判断された場合、処理はNOの矢印から(A)のマーク(345)を経由して、図4のフローチャートに移行する。 After the processing returns to step (320), the processing from step (320) to step (340) described above is repeated until the image l mn no longer exists. If it is determined in step (325) that the image l mn does not exist during the repetition, the process exits the loop from the NO arrow and returns to step (310), and further steps (310) and after for other languages. Is repeated. If it is determined in step (315) that there are no other unprocessed languages anymore while the processing from step (310) is repeated, the processing goes from the arrow of NO to the mark (345) of (A). Then, the process proceeds to the flowchart of FIG.

図4は、本発明の実施形態における言語をまたがった輪郭抽出または色成分マッチング処理の動作の後半を表現するフローチャートである。処理は(A)のマーク(345)からスタートし、ステップ(405)において、言語iが言語属性として与えられた画像の集合のうち、j≠kとなる次の画像likが抽出される。 FIG. 4 is a flowchart representing the second half of the operation of contour extraction or color component matching processing across languages in the embodiment of the present invention. The process starts from the mark (345) in (A), and in step (405), the next image l ik in which j ≠ k is extracted from the set of images in which the language i is given as the language attribute.

次いで、ステップ(410)において、画像likが存在するかどうかが判断される。ステップ(410)において存在すると判断された場合、処理はステップ(415)に進み、対象の画像lijとステップ(405)で取り出された画像likのマッチングスコアOkを算出する。輪郭マッチングまたは色成分マッチングの具体的な処理の内容は、後で図5、6に示すフローチャートを用いてそれぞれ詳細に説明するので、ここではこれ以上は説明されない。 Next, in step (410), it is determined whether an image l ik exists. If it is determined in step (410), the process proceeds to step (415), and a matching score Ok between the target image l ij and the image l ik extracted in step (405) is calculated. Details of specific processing of contour matching or color component matching will be described later in detail with reference to the flowcharts shown in FIGS. 5 and 6, and will not be described further here.

処理はステップ(420)に進み、対象画像lijと、同一言語iが言語属性として与えられた過去のマッチングスコアの累積値Pに、ステップ(415)において算出されたOを加算する。その後、ステップ(405)に処理は戻り、ステップ(410)において画像likが存在しないと判断されるまで繰り返される。ステップ(410)において画像likが存在しないと判断された場合、処理はステップ(425)へ進む。 The process proceeds to step (420), a target image l ij, the accumulated value P of the past match scores same language i is given as a language attribute, it adds the O k calculated in step (415). Thereafter, the process returns to step (405) and is repeated until it is determined in step (410) that the image l ik does not exist. If it is determined in step (410) that the image l ik does not exist, the process proceeds to step (425).

ステップ(425)では、TとPそれぞれの重み付けによって画像lijに対する色成分スコアまたは輪郭スコアを計算する。処理はステップ(430)に進み、終了する。 In step (425), a color component score or contour score for the image l ij is calculated by weighting T m and P, respectively. The process proceeds to step (430) and ends.

本発明の実施形態における「輪郭スコア」の算出処理を、図5を用いてさらに詳細に説明する。図5は、本発明の実施形態における言語をまたがった輪郭スコア算出処理のさらなる詳細を表現するフローチャートである。本フローチャートに従う処理は、図3、4のフローチャートのステップ(330)または(415)に対応することに留意されたい。図5に示される諸ステップは、輪郭解析部(130)によって実行される。   The “contour score” calculation process in the embodiment of the present invention will be described in more detail with reference to FIG. FIG. 5 is a flowchart expressing further details of the contour score calculation process across languages in the embodiment of the present invention. Note that the processing according to this flowchart corresponds to step (330) or (415) of the flowchart of FIGS. The steps shown in FIG. 5 are executed by the contour analysis unit (130).

処理は、ステップ(505)からスタートし、ステップ(510)において2つの画像(ここでは画像A、Bという)の特徴点をそれぞれ抽出する。ここで、画像A、Bはステップ(330)においては画像lijとlmnであり、ステップ(415)では画像lijとlikである。各画像の特徴点は、Gabor Filter法として知られている手法に従って算出することができ、具体的には以下の式に従って求められる。 The process starts from step (505), and feature points of two images (here, images A and B) are extracted in step (510). Here, images A and B are images l ij and l mn at step (330), and images l ij and l ik at step (415). The feature points of each image can be calculated according to a method known as the Gabor Filter method, and specifically, can be obtained according to the following equation.

処理はステップ(515)に進み、ステップ(510)において抽出した画像Aの特徴点と画像Bの特徴点との最小距離dist1を算出する。なお、ここでいう最小距離とは、画像Aの特徴点と画像Bの特徴点の組合せを、いずれの特徴点も漏らすことなく、かつ組合せられた画像Aの特徴点と画像Bの特徴点の距離の総和が最小となるように形成し場合の、当該距離の総和をいうものとする。次に、ステップ(525)において、画像Aを左右反転させ、反転させた画像Aの特徴点と画像Bの特徴点との最小距離distRを算出する。   The process proceeds to step (515), and the minimum distance dist1 between the feature point of image A and the feature point of image B extracted in step (510) is calculated. Note that the minimum distance here refers to the combination of the feature points of the image A and the feature points of the image B without leaking any feature points, and the feature points of the combined image A and the feature points of the image B. The sum of the distances in the case of forming the sum of the distances to be the minimum is said. Next, in step (525), the image A is reversed left and right, and the minimum distance distR between the inverted feature point of the image A and the feature point of the image B is calculated.

次いで、処理はステップ(530)に進み、画像A、Bの最適な拡大・縮小率を算出する。最適な拡大・縮小率は、画像Aと画像Bが同一のサイズ(縦横比が異なる場合は、同一の幅ないし高さ)となるように、一方の画像を拡大・縮小するための率をいうものとする。そして、ステップ(535)において、ステップ(530)において算出された拡大・縮小率を用いて拡大・縮小処理をされた画像Aの特徴点と画像Bの特徴点との最小距離distXを算出する。   Next, the process proceeds to step (530), and the optimal enlargement / reduction ratio of the images A and B is calculated. The optimum enlargement / reduction ratio is a ratio for enlarging / reducing one image so that the images A and B have the same size (or the same width or height when the aspect ratio is different). Shall. In step (535), a minimum distance distX between the feature point of image A and the feature point of image B that has been subjected to the enlargement / reduction processing using the enlargement / reduction ratio calculated in step (530) is calculated.

次に、ステップ(540)において、画像Aを左右反転させ、左右反転された画像Aと画像Bについて最適な拡大・縮小率を算出する。次いで、ステップ(545)において、左右反転され、かつ、ステップ(540)において算出された拡大・縮小率を用いて拡大・縮小処理をされた画像Aの特徴点と画像Bの特徴点との最小距離distXRを算出する。   Next, in step (540), the image A is horizontally reversed, and the optimal enlargement / reduction ratio is calculated for the horizontally reversed image A and image B. Next, in step (545), the minimum of the feature point of image A and the feature point of image B that have been horizontally reversed and enlarged / reduced using the enlargement / reduction ratio calculated in step (540) Calculate the distance distXR.

処理はステップ(550)に進み、dist1、distR、distX、distXRのうち最小の値のものをdistOptとして選択する。なお、distR、distX、distXRは、ある画像が他の画像を左右反転および/または拡大縮小しただけのものである場合は両者を類似画像として取り扱うべきことを考慮したものである。次いで、ステップ(555)において、distOptを輪郭マッチングスコアとして記憶し、ステップ(560)で終了する。   The process proceeds to step (550), and the lowest value among dist1, distR, distX and distXR is selected as distOpt. Note that distR, distX, and distXR take into account that if an image is simply a horizontally reversed and / or enlarged / reduced image of another image, both should be treated as similar images. Next, in step (555), distOpt is stored as a contour matching score, and the process ends in step (560).

本発明の実施形態における「色成分スコア」の算出処理を、図6を用いてさらに詳細に説明する。図6は、本発明の実施形態における言語をまたがった色成分スコア算出処理のさらなる詳細を表現するフローチャートである。本フローチャートに従う処理は、図3、4のフローチャートのステップ(330)または(415)に対応することに留意されたい。図6に示される諸ステップは、色成分解析部(135)によって実行される。   The “color component score” calculation process in the embodiment of the present invention will be described in more detail with reference to FIG. FIG. 6 is a flowchart expressing further details of the color component score calculation processing across languages in the embodiment of the present invention. Note that the processing according to this flowchart corresponds to step (330) or (415) of the flowchart of FIGS. The steps shown in FIG. 6 are executed by the color component analysis unit (135).

処理は、ステップ(605)からスタートし、ステップ(610)において2つの画像(画像A、Bという)の各画素について所定の色成分(ここでは、RGB成分)を抽出する。ここで、画像A、Bはステップ(330)においては画像lijとlmnであり、ステップ(415)では画像lijとlikである。 The processing starts from step (605), and a predetermined color component (here, RGB component) is extracted for each pixel of two images (referred to as images A and B) in step (610). Here, images A and B are images l ij and l mn at step (330), and images l ij and l ik at step (415).

次に、ステップ(615)において、画像A、Bにおける各色成分(すなわち、R(赤)、G(緑)、B(青)の各成分の平均値を算出し、ステップ(620)において、ステップ(615)で算出した各色成分の平均値の差(絶対値)を算出する。次いで、ステップ(625)において、各色成分の平均値の差の合計値(colorVal)を算出する。そして、ステップ(630)においてcolorValを色成分に関するマッチングスコアとして記憶し、ステップ(635)で処理は終了する。   Next, in step (615), an average value of each color component (that is, R (red), G (green), and B (blue)) in the images A and B is calculated. In step (620), The difference (absolute value) of the average value of each color component calculated in (615) is calculated, and then the total value (colorVal) of the difference of the average value of each color component is calculated in step (625). In step 630, colorVal is stored as a matching score for the color component, and the process ends in step (635).

次に、本発明の実施形態における「平滑度スコア」の算出処理を図7に示すフローチャートを用いて詳細に説明する。図7に示すフローチャートによる処理は、図2のフローチャート(200)のステップ(235)に対応することに留意されたい。また、本フローチャートの諸ステップは、平滑度解析部(140)によって実行される。   Next, the “smoothness score” calculation process in the embodiment of the present invention will be described in detail with reference to the flowchart shown in FIG. It should be noted that the processing according to the flowchart shown in FIG. 7 corresponds to step (235) of the flowchart (200) in FIG. Further, the steps of this flowchart are executed by the smoothness analysis unit (140).

まず、処理は、ステップ(220)の実施後に、ステップ(705)からスタートし、ステップ(710)でステップ(220)での画像検索の結果に含まれる画像から、1つ画像を取り出す。次いで、ステップ(715)において、ステップ(710)で取り出した画像を所定の規則に従ってサブ領域(ここでは、3x3ピクセルの領域)に分割する。処理はステップ(720)に進み、ステップ(715)で分割した領域のうちの1つを取り出し、ステップ(725)において、ステップ(720)で取り出した領域の色成分(ここでは、RGB値)を抽出する。   First, after the execution of step (220), the process starts from step (705), and in step (710), one image is extracted from the images included in the result of the image search in step (220). Next, in step (715), the image extracted in step (710) is divided into sub-regions (here, 3 × 3 pixel regions) according to a predetermined rule. The process proceeds to step (720), where one of the regions divided in step (715) is extracted, and in step (725), the color components (in this case, RGB values) of the region extracted in step (720) are obtained. Extract.

さらに処理は進み、ステップ(730)において、ステップ(725)において抽出された色成分に基づいて、対象の領域内に同じ色の点が所定の割合(ここでは50%)より多いかどうかが判定される。ステップ(730)において所定の割合より多いと判定されなかった場合、処理はNOの矢印からステップ(740)に進む。ステップ(730)において所定の割合より多いと判定された場合、処理はYESの矢印からステップ(735)に進む。ステップ(735)では、変数である「平滑領域の数」を1だけ増分し、ステップ(740)に進む。   The processing further proceeds, and in step (730), based on the color component extracted in step (725), it is determined whether or not there are more points of the same color in the target area than a predetermined ratio (here, 50%). Is done. If it is not determined in step (730) that the ratio is greater than the predetermined ratio, the process proceeds from the NO arrow to step (740). If it is determined in step (730) that the ratio is greater than the predetermined ratio, the process proceeds from the arrow of YES to step (735). In step (735), the variable “number of smooth regions” is incremented by 1, and the flow proceeds to step (740).

ステップ(740)では、ステップ(715)で分割され得られた未処理の領域がまだ残っているかどうかが判定される。ステップ(740)で残っていると判定された場合、処理はYESの矢印を通じてステップ(720)に戻り、以降の処理が繰り返される。ステップ(740)で残っていないと判定された場合、処理はNOの矢印を通じてステップ(745)に進み、以下の式に従って処理対象の画像の平滑度スコアが計算される。   In step (740), it is determined whether or not the unprocessed area obtained by the division in step (715) still remains. If it is determined in step (740) that the process remains, the process returns to step (720) through the YES arrow, and the subsequent processes are repeated. If it is determined in step (740) that the image does not remain, the process proceeds to step (745) through the NO arrow, and the smoothness score of the image to be processed is calculated according to the following equation.

ステップ(745)で平滑度スコアが計算された後、処理はステップ(750)に進みステップ(220)の画像検索で得られた画像でまだ未処理のものが残っているかどうかが判定される。ステップ(750)で残っていると判定された場合、処理はYESの矢印からステップ(710)に戻り、以降の処理が繰り返される。ステップ(750)で残っていると判定された場合、処理はNOの矢印からステップ(755)に進み終了する(ステップ245に進むこととなる)。   After the smoothness score is calculated in step (745), the process proceeds to step (750), and it is determined whether there are any unprocessed images remaining in the image search in step (220). If it is determined in step (750) that the process remains, the process returns from the YES arrow to step (710), and the subsequent processes are repeated. If it is determined in step (750) that the process remains, the process proceeds to step (755) from the NO arrow and ends (proceeds to step 245).

次に、本発明の実施形態における「文字認識スコア」の算出処理を説明する。なお、既に説明したとおり、「文字認識スコア」の算出処理は文字認識解析部(145)によって実行される。既存の光学文字認識技術を用いると、画像内で文字が含まれている可能性のある領域(「文字領域」と呼ばれる)を特定し、そこにあるイメージとあらかじめ用意された文字フォントデータのマッチングを行うことによって、文字領域に文字が存在する確率を得ることができる。本発明の実施形態では、かかる文字領域に文字が存在する確率の逆数を計算して、「文字認識スコア」とするものとする。   Next, the “character recognition score” calculation process in the embodiment of the present invention will be described. As already described, the “character recognition score” calculation process is executed by the character recognition analysis unit (145). Using existing optical character recognition technology, it is possible to identify an area in the image that may contain characters (called "character area"), and match the image in that area with character font data prepared in advance. By performing the above, the probability that a character exists in the character region can be obtained. In the embodiment of the present invention, the “character recognition score” is calculated by calculating the reciprocal of the probability that a character exists in the character area.

なお、既に述べたとおり、本発明の実施形態の総合スコア計算部(150)は、ステップ(245)において、「輪郭スコア」、「色成分スコア」、「平滑度スコア」および「文字認識スコア」を正規化してから平均値を算出することによって総合スコアを得る。各スコアの正規化は、所定の規則に従って、各値を所定の範囲内に収めるようにすることが考えられる。例えば、画像iの正規化された輪郭スコアは以下の式に従って得ることができる。   As already described, the total score calculation unit (150) of the embodiment of the present invention performs the “contour score”, “color component score”, “smoothness score”, and “character recognition score” in step (245). The total score is obtained by normalizing and calculating the average value. The normalization of each score may be performed such that each value falls within a predetermined range according to a predetermined rule. For example, the normalized contour score of image i can be obtained according to the following equation:

また、例えば、画像iの正規化された色成分スコアは以下の式に従って得ることができる。   For example, the normalized color component score of the image i can be obtained according to the following equation.

以下、図9〜11を用いて、本発明の実施形態における画像検索システムにおける検索結果の例をいくつか説明する。図9〜11は、出願図面においてカラー図面が使用できないという制約のために白黒図面により示されるが、実際の例の画像はカラー・アイコンであることに留意されたい。図9は、本発明の実施形態における画像検索システムにおける検索結果の一例を説明するための図である。図5に示す例では、英語の”earthquake”が入力キーワードとして選ばれた場合を示している。この場合、対応する翻訳キーワードは日本語の「地震」、中国語の「地震」、スペイン語の「terremoto」が使用されていることに留意されたい。この一例では、英語の”earthquake”を用いて検索を行った場合の第4候補として得られた画像が最も総合スコアが高い(総合スコア=0.88)ので、この画像がユーザに提示されることとなる。   Hereinafter, some examples of search results in the image search system according to the embodiment of the present invention will be described with reference to FIGS. Although FIGS. 9-11 are shown in black and white drawings due to the restriction that color drawings cannot be used in the application drawings, it should be noted that the actual example images are color icons. FIG. 9 is a diagram for explaining an example of a search result in the image search system according to the embodiment of the present invention. The example shown in FIG. 5 shows a case where “earthquake” in English is selected as an input keyword. Note that in this case, the corresponding translation keywords are Japanese “earthquake”, Chinese “earthquake”, and Spanish “terremoto”. In this example, the image obtained as the fourth candidate when searching using “earthquake” in English has the highest overall score (overall score = 0.88), so this image is presented to the user. It will be.

図10は、本発明の実施形態における画像検索システムにおける検索結果の他の例を説明するための図である。図6に示す例では、英語の”tsunami”が入力キーワードとして選ばれた場合を示している。この場合、対応する翻訳キーワードは日本語の「津波」、中国語の「海嘯」、スペイン語の「tsunami」が使用されていることに留意されたい。この一例では、英語の”tsunami”を用いて検索を行った場合の第4候補として得られた画像が最も総合スコアが高い(総合スコア=0.96)ので、この画像がユーザに提示されることとなる。   FIG. 10 is a diagram for explaining another example of the search result in the image search system according to the embodiment of the present invention. The example shown in FIG. 6 shows a case where “tsunami” in English is selected as an input keyword. In this case, it should be noted that the corresponding translation keyword is “tsunami” in Japanese, “Kaien” in Chinese, and “tsunami” in Spanish. In this example, the image obtained as the fourth candidate when searching using “tsunami” in English has the highest overall score (overall score = 0.96), so this image is presented to the user. It will be.

図11は、本発明の実施形態における画像検索システムにおける検索結果のさらなる他の例を説明するための図である。図7に示す例では、英語の”exit”が入力キーワードとして選ばれた場合を示している。この場合、対応する翻訳キーワードは日本語の「出口」、中国語の「出口」、スペイン語の「salida」が使用されていることに留意されたい。この一例では、日本語の「出口」を用いて検索を行った場合の第5候補として得られた画像が最も総合スコアが高い(総合スコア=0.96)ので、この画像がユーザに提示される。   FIG. 11 is a diagram for explaining still another example of the search result in the image search system according to the embodiment of the present invention. In the example shown in FIG. 7, “exit” in English is selected as the input keyword. In this case, it should be noted that the corresponding translation keyword is “exit” in Japanese, “exit” in Chinese, and “salida” in Spanish. In this example, the image obtained as the fifth candidate when searching using the Japanese “exit” has the highest overall score (overall score = 0.96), so this image is presented to the user. The

図12は、本発明の実施の形態の画像検索システムを実現するのに好適な情報処理装置のハードウェア構成の一例を示した図である。情報処理装置は、バス2に接続されたCPU(中央処理装置)1とメインメモリ4を含んでいる。ハードディスク装置13、30、およびCD−ROM装置26、29、フレキシブル・ディスク装置20、MO装置28、DVD装置31のようなリムーバブル・ストレージ(記録メディアを交換可能な外部記憶システム)がフロッピーディスクコントローラ19、IDEコントローラ25、SCSIコントローラ27などを経由してバス2へ接続されている。   FIG. 12 is a diagram illustrating an example of a hardware configuration of an information processing apparatus suitable for realizing the image search system according to the embodiment of this invention. The information processing apparatus includes a CPU (central processing unit) 1 and a main memory 4 connected to the bus 2. The hard disk devices 13 and 30 and the CD-ROM devices 26 and 29, the flexible disk device 20, the MO device 28, and the removable storage (external storage system capable of exchanging recording media) such as the DVD device 31 are floppy disk controllers 19. Are connected to the bus 2 via the IDE controller 25, the SCSI controller 27, and the like.

フレキシブル・ディスク、MO、CD−ROM、DVD−ROMのような記憶メディアが、リムーバブル・ストレージに挿入される。これらの記憶メディアやハードディスク装置13、30、ROM14には、オペレーティング・システムと協働してCPU等に命令を与え、本発明を実施するためのコンピュータ・プログラムのコードを記録することができる。メインメモリ4にロードされることによってコンピュータ・プログラムは実行される。コンピュータ・プログラムは圧縮し、また複数に分割して複数の媒体に記録することもできる。   A storage medium such as a flexible disk, MO, CD-ROM, or DVD-ROM is inserted into the removable storage. In these storage media, the hard disk devices 13 and 30, and the ROM 14, instructions of a computer program for carrying out the present invention can be recorded by giving instructions to the CPU or the like in cooperation with the operating system. The computer program is executed by being loaded into the main memory 4. The computer program can be compressed or divided into a plurality of pieces and recorded on a plurality of media.

情報処理装置は、キーボード/マウス・コントローラ5を経由して、キーボード6やマウス7のような入力デバイスからの入力を受ける。情報処理装置は、視覚データをユーザに提示するための表示装置11にDAC/LCDC10を経由して接続される。   The information processing apparatus receives input from an input device such as a keyboard 6 or a mouse 7 via the keyboard / mouse controller 5. The information processing apparatus is connected via a DAC / LCDC 10 to a display apparatus 11 for presenting visual data to the user.

情報処理装置は、ネットワーク・アダプタ18(イーサネット(R)等)を介してネットワークに接続し、他のコンピュータ等と通信を行うことが可能である。図示はされていないが、パラレルポートを介してプリンタと接続することや、シリアルポートを介してモデムを接続することも可能である。   The information processing apparatus can connect to a network via a network adapter 18 (Ethernet (R) or the like) and communicate with other computers or the like. Although not shown in the figure, it is possible to connect to a printer via a parallel port or a modem via a serial port.

以上の説明により、本発明の実施の形態による画像検索システムを実現するのに好適な情報処理装置は、通常のパーソナルコンピュータ、ワークステーション、メインフレームなどの情報処理装置、または、これらの組み合わせによって実現されることが容易に理解されるであろう。ただし、これらの構成要素は例示であり、そのすべての構成要素が本発明の必須構成要素となるわけではない。   As described above, the information processing apparatus suitable for realizing the image search system according to the embodiment of the present invention is realized by an information processing apparatus such as a normal personal computer, workstation, mainframe, or a combination thereof. It will be readily understood that However, these constituent elements are examples, and not all the constituent elements are essential constituent elements of the present invention.

本発明の実施の形態において使用される情報処理装置の各ハードウェア構成要素を、複数のマシンを組み合わせ、それらに機能を配分し実施する等の種々の変更は当業者によって容易に想定され得ることは勿論である。それらの変更は、当然に本発明の思想に包含される概念である。   Various modifications such as combining a plurality of machines with each hardware component of the information processing apparatus used in the embodiment of the present invention, and allocating and executing functions to them can be easily assumed by those skilled in the art. Of course. These modifications are naturally included in the concept of the present invention.

本発明の実施の形態の画像検索システムは、マイクロソフト・コーポレーションが提供するWindows(R)オペレーティング・システム、アップル・コンピュータ・インコーポレイテッドが提供するMacOS(R)、UNIX(R)系システム(例えば、インターナショナル・ビジネス・マシーンズ・コーポレーションが提供するAIX(R))のような、GUI(グラフィカル・ユーザー・インターフェース)マルチウインドウ環境をサポートするオペレーティング・システムを採用する。   The image search system according to the embodiment of the present invention includes a Windows (R) operating system provided by Microsoft Corporation, a MacOS (R), UNIX (R) system provided by Apple Computer Incorporated (for example, an international system). Employing an operating system that supports a GUI (Graphical User Interface) multi-window environment, such as AIX® provided by Business Machines Corporation.

以上から、本発明の実施の形態において使用される画像検索システムは、特定のオペレーティング・システム環境に限定されるものではないことを理解することができる。   From the above, it can be understood that the image search system used in the embodiment of the present invention is not limited to a specific operating system environment.

本発明は、当業者に理解されるとおり、システム、方法またはコンピュータ・プログラム製品として実施することができる。そのため、本発明は全面的にハードウェアとしての実施形態、全面的にソフトウェアとしての実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)あるいは、ここでは、一般的に「回路」、「モジュール」または「システム」と呼ぶソフトウェアとハードウェアを組み合わせた実施形態の形式をとることができる。さらに、本発明は、その媒体で実施されるコンピュータが使用できるプログラム・コードを持った有形の表現媒体で実施されるコンピュータ・プログラム製品の形態をとることもできる。   The present invention may be implemented as a system, method or computer program product as will be appreciated by those skilled in the art. Therefore, the present invention may be implemented entirely as hardware, entirely as software (including firmware, resident software, microcode, etc.), or, here, generally “circuit”, “module”. Alternatively, it may take the form of an embodiment combining software and hardware called a “system”. Furthermore, the present invention may take the form of a computer program product implemented on a tangible expression medium having program code usable by a computer implemented on the medium.

コンピュータ使用可能/コンピュータ可読媒体の組み合わせを利用することもできる。コンピュータ使用可能/コンピュータ可読媒体は、たとえば、電子的、磁気的、光学的、電磁、赤外線または半導体システム、装置、デバイスまたは伝搬媒体であってよいが、これらに限定されない。コンピュータ可読媒体のより具体的な例の非網羅的なリストには、以下のものが含まれる。導線を持った電気的接続、ポータブル・コンピュータ・ディスケット、ハードディスク、ランダム・アクセス・メモリ(RAM)、リードオンリー・メモリ(ROM)、消去可能なプログラマブル・リードオンリー・メモリ(EPROMまたはフラッシュメモリ)、光ファイバー、ポータブル・コンパクトディスク・リードオンリー・メモリ(CD―ROM)、光記憶デバイス、インターネットまたはイントラネットをサポートする伝送媒体、磁気記憶装置。   Combinations of computer usable / computer readable media may also be utilized. The computer usable / computer readable medium may be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, device, or propagation medium. A non-exhaustive list of more specific examples of computer readable media includes: Electrical connection with conductors, portable computer diskette, hard disk, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), optical fiber Portable compact disk read-only memory (CD-ROM), optical storage device, transmission medium supporting the Internet or intranet, magnetic storage device.

プログラムは、たとえば、紙または他の媒体を光学的に走査することによって、電子的に取得され、次に、必要に応じて、コンパイルされ、解釈され、その他適宜の方法で処理され、コンピュータのメモリに保存されるため、コンピュータ使用可能/コンピュータ可読媒体は、プログラムが印刷された紙またはその他の適当な媒体であってもよい点に留意すべきである。コンピュータ使用可能/コンピュータ可読媒体は、命令実行システム、装置またはデバイスにより、あるいはこれらに関連して使用するためのプログラムを包含し、保存し、通信し、伝播し、または搬送することができる任意の媒体であってよい。コンピュータが使用できる媒体は、ベースバンド中または搬送波の一部として、一緒に実施されるコンピュータが使用できるプログラム・コードを含んだ伝播されたデータ信号を含むことができる。コンピュータが使用できるプログラム・コードは、無線、ワイヤーライン、光ファイバー・ケーブル、RF等を含むがこれらに限定されない適切な媒体を使用して伝送することができる。   The program is obtained electronically, for example, by optically scanning paper or other media, and then compiled, interpreted, and otherwise processed as appropriate, as required by computer memory. It should be noted that the computer-usable / computer-readable medium may be paper or other suitable medium on which the program is printed. A computer-usable / computer-readable medium is any medium that can contain, store, communicate, propagate, or carry a program for use by or in connection with an instruction execution system, apparatus or device. It may be a medium. A computer usable medium may include a propagated data signal including program code usable by a computer implemented together in baseband or as part of a carrier wave. Program code that can be used by a computer can be transmitted using any suitable medium including, but not limited to, wireless, wireline, fiber optic cable, RF, and the like.

本発明を実行するコンピュータ・プログラム・コードは、Java、Smalltalk、C++等のオブジェクト指向のプログラム言語およびCプログラム言語またはこれに類似するプログラム言語等の従来型の手続プログラム言語を含んだ1種類または複数のプログラム言語の組み合わせを使用して記述することができる。プログラム・コードは、全面的にユーザのコンピュータ上、一部をユーザのコンピュータ上、独立型のソフトウェア・パッケージとして、一部をユーザのコンピュータおよび一部をリモート・コンピュータ上、全面的にリモート・コンピュータまたはサーバ上で実行できる。後者のシナリオでは、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)またはワイド・エリア・ネットワーク(WAN)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続することができ、あるいは接続は外部コンピュータ(たとえば、インターネット・サービス・プロバイダを利用してインターネットを通じて)に対して行うこともできる。   The computer program code that implements the present invention includes one or more object-oriented programming languages such as Java, Smalltalk, C ++, etc. and a conventional procedural programming language such as C programming language or similar programming language. Can be described using a combination of programming languages. Program code is entirely on the user's computer, partly on the user's computer, as a stand-alone software package, partly on the user's computer and partly on the remote computer, entirely on the remote computer Or it can run on the server. In the latter scenario, the remote computer can connect to the user's computer through any type of network, including a local area network (LAN) or a wide area network (WAN), or the connection can be an external computer. (E.g., via the internet using an internet service provider).

以上、方法、装置(システム)およびコンピュータ・プログラム製品のフローチャートによる図示および/またはブロック図を参照して、本発明の実施形態を説明した。フローチャートによる図示および/またはブロック図の各ブロック、およびフローチャートによる図示および/またはブロック図のブロックの組み合わせは、コンピュータ・プログラムの命令によって実行できることは理解されるであろう。汎用コンピュータ、特殊目的のコンピュータ、またはその他のプログラム可能なデータ処理装置のプロセッサを通じて実行される命令が、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/活動を実行する手段を生成する機械を製造するために、これらのコンピュータ・プログラムの命令は、上記コンピュータ、その他のプログラム可能なデータ処理装置のプロセッサに対して与えることができる。   The embodiments of the present invention have been described above with reference to flowchart illustrations and / or block diagrams of methods, apparatuses (systems) and computer program products. It will be understood that each block of the flowchart illustration and / or block diagram, and combinations of blocks in the flowchart illustration and / or block diagram, can be performed by computer program instructions. Means for instructions executed through the processor of a general purpose computer, special purpose computer, or other programmable data processing device to perform the functions / activities specified in one or more blocks of the flowcharts and / or block diagrams These computer program instructions can be provided to the processor of the computer or other programmable data processing device.

これらのコンピュータ・プログラム命令は、コンピュータまたは他のプログラム可能なデータ処理装置を、コンピュータ可読媒体に保存された命令が、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/動作を実行する命令手段を含む製品を生産するよう、特定の態様で機能させることができるコンピュータ可読媒体に保存することもできる。   These computer program instructions are stored in a computer or other programmable data processing device, the functions / operations in which instructions stored on a computer readable medium are specified in one or more blocks of a flowchart and / or block diagram. Can also be stored on a computer readable medium that can be operated in a particular manner to produce a product that includes instruction means for executing.

コンピュータ・プログラム命令は、コンピュータまたは他のプログラム可能なデータ処理装置上で実行する命令がフローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/活動を実行するプロセスを提供するように、コンピュータで実行するプロセスを作成するため、コンピュータまたは他のプログラム可能なデータ処理装置上で一連の動作のステップを実行するようにそのコンピュータまたは他のプログラム可能なデータ処理装置にロードすることもできる。   Computer program instructions are provided such that instructions executing on a computer or other programmable data processing device provide a process for performing the functions / activities specified in one or more blocks of the flowcharts and / or block diagrams. In addition, to create a process for execution on a computer, the computer or other programmable data processing device may be loaded to perform a series of operational steps on the computer or other programmable data processing device. it can.

図面中のフローチャートおよびブロック図は、この発明のさまざまな実施形態によるシステム、方法およびコンピュータ・プログラム製品のアーキテクチャ、機能性および実行動作を図示している。この点については、フローチャートまたはブロック図の各ブロックは指定された論理機能を実行するための1つまたは複数の実行可能な命令を含んだモジュール、セグメントまたはコードの部分を示すことができる。一定の代替的実装例においては、ブロックに示された機能が図面に示したものとは異なる順番で行われることがある点にも留意すべきである。たとえば、関連する機能性に応じて、順番に示されている2個のプロックが、実際にはほぼ同時に実行されること、あるいはブロックが逆の順番で実行されることがある。ブロック図および/またはフローチャートの図示の各ブロック、およびブロック図および/またはフローチャートの図示のブロックの組み合わせは、特殊な機能または活動を行う特殊目的のためのハードウェア主体のシステム、または特殊目的のハードウェアの組み合わせによって実行され得る。   The flowchart and block diagrams in the Figures illustrate the architecture, functionality, and execution operations of systems, methods and computer program products according to various embodiments of the present invention. In this regard, each block in the flowchart or block diagram may represent a module, segment, or portion of code that includes one or more executable instructions for performing a specified logical function. It should also be noted that in certain alternative implementations, the functions shown in the blocks may be performed in a different order than that shown in the drawings. For example, depending on the functionality involved, two blocks shown in sequence may actually be executed almost simultaneously, or the blocks may be executed in reverse order. Each block shown in the block diagrams and / or flowcharts, and combinations of the blocks shown in the block diagrams and / or flowcharts, is a special purpose hardware-based system or special purpose hardware that performs a special function or activity. It can be executed by a combination of wear.

上記の実施の形態に、種々の変更または改良を加えることが可能であることが当業者に明らかである。例えば、本発明の実施形態では、ユーザに単一の画像を提示することを前提に説明をしたが、例えば、総合スコアに基づいて、高い総合スコアを有する複数の画像を提示するようにすることが可能である。また、本発明の実施形態では、総合スコアを「輪郭スコア」、「色成分スコア」、「平滑度スコア」および「文字認識スコア」を正規化してから平均値を算出することによって得ることとしたが、当業者は様々な手法にしたがって、「輪郭スコア」、「色成分スコア」、「平滑度スコア」および「文字認識スコア」から総合スコアを得ることができるであろう。   It will be apparent to those skilled in the art that various modifications or improvements can be made to the above-described embodiment. For example, the embodiment of the present invention has been described on the assumption that a single image is presented to the user. For example, a plurality of images having a high overall score are presented based on the overall score. Is possible. In the embodiment of the present invention, the overall score is obtained by normalizing the “contour score”, “color component score”, “smoothness score”, and “character recognition score”, and then calculating the average value. However, those skilled in the art will be able to obtain an overall score from the “contour score”, “color component score”, “smoothness score” and “character recognition score” according to various techniques.

また、「輪郭スコア」を算出にあたっては、形状パターン分類辞書をあらかじめ準備し、そのような辞書を参照して関連する形状パターン分類を特定したうえで、特定されたパターン分類を考慮して複数の非テキスト要素の間の類似度を計算することが可能である。さらに、「色成分スコア」を算出するにあたっては、画像の色成分値の平均を求めるようにしたが、その代わりに画像の色成分値の中央値、最頻値および/または上位値を用いるようにすることができるばかりでなく、あらゆる色成分の代表値を適宜使用することが可能である。さらに、「文字認識スコア」を算出するに当たっては、より多くの文字が前記画像要素に含まれる場合に、前記文字認識スコアを低くするようにできる。   In calculating the “contour score”, a shape pattern classification dictionary is prepared in advance, a related shape pattern classification is identified with reference to such a dictionary, and a plurality of patterns are considered in consideration of the identified pattern classification. It is possible to calculate the similarity between non-text elements. Further, in calculating the “color component score”, the average of the color component values of the image is obtained, but instead, the median, mode and / or upper value of the color component values of the image are used. In addition, the representative values of all color components can be used as appropriate. Furthermore, in calculating the “character recognition score”, the character recognition score can be lowered when more characters are included in the image element.

検索される非テキスト情報の例として静止画像を取り上げて説明したが、動画像、音(サウンド)その他のインデックス付けすることなどによって検索可能なようにデータベース化することができ、かつ、相互に類似度を算出できるいかなる非テキスト情報またはそれらの組合せをも対象とすることができる。また、例えば、音(サウンド)を対象とする場合は、光学的文字認識技術の代わりに、既存の音声認識技術などを使用することができる。上記のような変更または改良を加えた形態も当然に本発明の技術的範囲に含まれる。   As an example of non-text information to be searched, still images are taken up as an example. However, they can be made into a database so that they can be searched by indexing moving images, sounds, etc., and similar to each other Any non-text information or a combination thereof that can calculate the degree can be targeted. Further, for example, when a sound (sound) is targeted, an existing speech recognition technology can be used instead of the optical character recognition technology. Needless to say, embodiments to which the above modifications or improvements are made are also included in the technical scope of the present invention.

以上、本発明の実施形態によれば、多言語環境の使用に適する、汎用性の高い非テキスト情報を効果的に得ることができるようになることが理解され得る。   As described above, according to the embodiment of the present invention, it can be understood that highly versatile non-text information suitable for use in a multilingual environment can be effectively obtained.

Claims (20)

非テキスト要素を検索可能なデータベースを用いて、多言語環境でのコミュニケーションに適する非テキスト要素を特定するためのコンピュータ実装方法であって、
ある言語の検索条件および当該検索条件に対応する他の言語の検索条件を用いた前記データベースの検索結果を受けるステップであって、前記検索結果に含まれる非テキスト要素に特定の言語属性が関連付けられている、ステップと、
前記検索結果に含まれる非テキスト要素に対して、異なる言語属性が関連付けられている他の要素との類似度に応じてスコアを与えるステップと、
前記スコアに基づいて、前記検索結果に含まれる非テキスト要素の少なくとも1つを特定するステップと、
を含む、方法。
A computer-implemented method for identifying non-text elements suitable for communication in a multilingual environment using a database capable of searching non-text elements, comprising:
Receiving a search result of the database using a search condition of a language and a search condition of another language corresponding to the search condition, wherein a specific language attribute is associated with a non-text element included in the search result Step, and
Giving a score according to the degree of similarity between the non-text element included in the search result and another element associated with a different language attribute;
Identifying at least one non-text element included in the search result based on the score;
Including a method.
前記スコアを与えるステップにおいて、異なる言語属性が関連付けられている他の要素との類似度が高い非テキスト要素に高いスコアが与えられる、請求項1に記載の方法。   The method of claim 1, wherein in the step of giving a score, a high score is given to non-text elements that are highly similar to other elements with different language attributes associated with them. 前記ある言語の検索条件を翻訳エンジンによって翻訳し、前記他の言語の検索条件を生成するステップをさらに含む、請求項1に記載の方法。   The method according to claim 1, further comprising translating the search condition of the certain language by a translation engine to generate the search condition of the other language. 前記非テキスト要素が、画像である、請求項1に記載の方法。   The method of claim 1, wherein the non-text element is an image. 前記非テキスト要素が、音声である、請求項1に記載の方法。   The method of claim 1, wherein the non-text element is speech. 前記ある言語の検索条件および当該検索条件に対応する他の言語の検索条件を用いて前記データベースを検索するステップと、
前記検索結果に含まれる非テキスト要素に、検索に用いた言語を言語属性として関連付けるステップと、
をさらに含む、請求項1に記載の方法。
Searching the database using a search condition of the certain language and a search condition of another language corresponding to the search condition;
Associating the language used for the search with the non-text element included in the search result as a language attribute;
The method of claim 1, further comprising:
前記スコアリングするステップが、前記画像要素に含まれる形状に関する情報について、複数の非テキスト要素の間での比較を行うことによって、形状スコアを算出するステップを含む、請求項4に記載の方法。   The method of claim 4, wherein the scoring comprises calculating a shape score by performing a comparison between a plurality of non-text elements for information about the shape contained in the image element. 前記形状スコアを与えるステップが、画像要素の輪郭情報を抽出するステップと、複数の画像要素間で抽出された輪郭情報を比較するステップを含む、請求項7に記載の方法。   8. The method of claim 7, wherein providing the shape score includes extracting contour information of image elements and comparing contour information extracted between a plurality of image elements. 前記輪郭情報を比較するステップにおいて、拡大・縮小および/または向きの変更を施された輪郭情報が比較される、請求項8記載の方法。   9. The method according to claim 8, wherein in the step of comparing the contour information, the contour information subjected to enlargement / reduction and / or orientation change is compared. 前記輪郭情報を比較するステップが、あらかじめ準備された形状パターン分類辞書を参照するステップを含み、関連する形状パターン分類を考慮して複数の非テキスト要素の間での比較を行う、請求項8に記載の方法。   The step of comparing the contour information includes a step of referring to a shape pattern classification dictionary prepared in advance, and performing comparison between a plurality of non-text elements in consideration of related shape pattern classification. The method described. 前記スコアを与えるステップが、前記イメージ画像要素に含まれる色成分に関する情報について、非テキスト要素と他の非テキスト要素の比較を行うことによって、色成分スコアを算出するステップを含む、請求項4に記載の方法。   The step of providing the score includes calculating a color component score by comparing a non-text element with another non-text element for information on the color component included in the image image element. The method described. 色成分スコアを算出するステップが、複数の画像要素について画像全体の色成分値の代表を比較するステップを含む、請求項11に記載の方法。   The method of claim 11, wherein calculating a color component score includes comparing representatives of color component values of the entire image for a plurality of image elements. 前記色成分の代表値が、当該画像要素の色成分値の平均値、中央値、最頻値および/または上位値である、請求項12に記載の方法。   The method according to claim 12, wherein the representative value of the color component is an average value, a median value, a mode value, and / or an upper value of the color component values of the image element. 前記画像要素の平滑度に基づいて、平滑度スコアを算出するステップをさらに含む、請求項4に記載の方法。   The method of claim 4, further comprising calculating a smoothness score based on the smoothness of the image element. 前記平滑度スコアを算出するステップが、前記画像要素を所定の規則に従って複数の領域に分割するステップと、前記複数の領域のそれぞれについて同一色の占有割合を算出するステップと、前記複数の領域のそれぞれの前記同一色の占有割合に基づいて平滑度スコアを算出するステップを含む、請求項14に記載の方法。   The step of calculating the smoothness score includes the step of dividing the image element into a plurality of regions according to a predetermined rule, the step of calculating an occupation ratio of the same color for each of the plurality of regions, The method of claim 14, comprising calculating a smoothness score based on an occupancy ratio of each of the same colors. 光学文字認識技術を用いて、前記画像要素に含まれる文字の文字認識を試みるステップと、文字認識の結果に基づいて、文字認識スコアを算出するステップをさらに含む、請求項4に記載の方法。   The method according to claim 4, further comprising: trying to recognize characters of the character included in the image element using an optical character recognition technique; and calculating a character recognition score based on the result of character recognition. より多くの文字が前記画像要素に含まれる場合に、前記文字認識スコアを低くする、請求項16の方法。   17. The method of claim 16, wherein the character recognition score is lowered when more characters are included in the image element. 前記非テキスト要素をスコアリングするステップが、当該非テキスト要素の形状スコア、色成分スコア、平滑度スコア、文字認識スコアのうちの少なくとも1つに基づいて総合スコアを算出するステップを含み、
前記特定するステップが、前記総合スコアに基づいて、前記検索結果に含まれる非テキスト要素の少なくとも1つを特定するステップを含む、
請求項4に記載の方法。
Scoring the non-text element includes calculating a total score based on at least one of a shape score, a color component score, a smoothness score, and a character recognition score of the non-text element;
The step of identifying includes identifying at least one of non-text elements included in the search result based on the total score;
The method of claim 4.
請求項1〜18のいずれかに記載された方法の各ステップを実行する手段を備える、システム。   A system comprising means for performing the steps of the method according to any of claims 1-18. 請求項1〜18のいずれかに記載された方法の各ステップをコンピュータに実行させる、プログラム。   The program which makes a computer perform each step of the method as described in any one of Claims 1-18.
JP2012201909A 2012-09-13 2012-09-13 Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment Pending JP2014056503A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012201909A JP2014056503A (en) 2012-09-13 2012-09-13 Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment
CN201310415674.3A CN103678460B (en) 2012-09-13 2013-09-12 For identifying the method and system for the non-text elements for being suitable to be communicated in multi-language environment
US14/024,771 US9514127B2 (en) 2012-09-13 2013-09-12 Computer implemented method, program, and system for identifying non-text element suitable for communication in multi-language environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201909A JP2014056503A (en) 2012-09-13 2012-09-13 Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment

Publications (1)

Publication Number Publication Date
JP2014056503A true JP2014056503A (en) 2014-03-27

Family

ID=50234190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201909A Pending JP2014056503A (en) 2012-09-13 2012-09-13 Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment

Country Status (3)

Country Link
US (1) US9514127B2 (en)
JP (1) JP2014056503A (en)
CN (1) CN103678460B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018531440A (en) * 2015-07-28 2018-10-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Information inquiry

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515110B2 (en) * 2013-11-12 2019-12-24 Pinterest, Inc. Image based search
CN104298786B (en) * 2014-11-12 2018-07-10 广州出益信息科技有限公司 A kind of image search method and device
US9678954B1 (en) * 2015-10-29 2017-06-13 Google Inc. Techniques for providing lexicon data for translation of a single word speech input
JP2017151768A (en) * 2016-02-25 2017-08-31 富士ゼロックス株式会社 Translation program and information processing device
JP6533259B2 (en) * 2017-08-17 2019-06-19 本田技研工業株式会社 Program for supporting ideas
US10956487B2 (en) * 2018-12-26 2021-03-23 Industrial Technology Research Institute Method for establishing and processing cross-language information and cross-language information system

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2601111B2 (en) 1992-11-18 1997-04-16 株式会社日立製作所 Document element retrieval device
JP3275153B2 (en) * 1993-03-03 2002-04-15 株式会社日立製作所 Dictionary distribution system and dictionary distribution management method
JP3234064B2 (en) * 1993-09-02 2001-12-04 キヤノン株式会社 Image retrieval method and apparatus
JPH10289251A (en) 1997-02-17 1998-10-27 Dainippon Screen Mfg Co Ltd Data retrieving method and recording medium where program for performing its process is recorded
JP4340367B2 (en) 1999-01-27 2009-10-07 株式会社リコー Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
JP2000276493A (en) * 1999-01-29 2000-10-06 Canon Inc Browsing method for electronically accessible resource
US20030041047A1 (en) * 2001-08-09 2003-02-27 International Business Machines Corporation Concept-based system for representing and processing multimedia objects with arbitrary constraints
CN100568230C (en) 2004-07-30 2009-12-09 国际商业机器公司 Hypertext-based Multilingual Network Information Search Method and System
US7657100B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for enabling image recognition and searching of images
US9020955B2 (en) * 2005-05-12 2015-04-28 Hewlett-Packard Development Company, L.P. Compositional balance driven content retrieval
US7643985B2 (en) 2005-06-27 2010-01-05 Microsoft Corporation Context-sensitive communication and translation methods for enhanced interactions and understanding among speakers of different languages
JP2007026386A (en) * 2005-07-21 2007-02-01 Fuji Xerox Co Ltd Image search system and method
JP4696856B2 (en) * 2005-11-02 2011-06-08 オムロン株式会社 Image processing apparatus, image processing method, program thereof, and computer-readable recording medium recording the program
JP2007229172A (en) 2006-02-28 2007-09-13 Aruze Corp Game machine
JP4796435B2 (en) 2006-04-28 2011-10-19 富士フイルム株式会社 Image viewer
US7917518B2 (en) * 2007-07-20 2011-03-29 Hewlett-Packard Development Company, L.P. Compositional balance and color driven content retrieval
US7792785B2 (en) * 2007-11-01 2010-09-07 International Business Machines Corporation Translating text into visual imagery content
US8209164B2 (en) * 2007-11-21 2012-06-26 University Of Washington Use of lexical translations for facilitating searches
US8326029B1 (en) * 2008-03-21 2012-12-04 Hewlett-Packard Development Company, L.P. Background color driven content retrieval
US20110119298A1 (en) * 2008-06-20 2011-05-19 Nokia Corporation Method and apparatus for searching information
IL196115A0 (en) * 2008-12-22 2009-09-22 Adi Gaash Method and system of searching for information pertaining target objects
WO2010116333A1 (en) * 2009-04-07 2010-10-14 Alon Atsmon System and process for builiding a catalog using visual objects
US8577910B1 (en) * 2009-05-15 2013-11-05 Google Inc. Selecting relevant languages for query translation
US8538957B1 (en) * 2009-06-03 2013-09-17 Google Inc. Validating translations using visual similarity between visual media search results
US8644611B2 (en) * 2009-06-03 2014-02-04 Raytheon Bbn Technologies Corp. Segmental rescoring in text recognition
CN102053991B (en) * 2009-10-30 2014-07-02 国际商业机器公司 Method and system for multi-language document retrieval
WO2011060565A1 (en) * 2009-11-20 2011-05-26 Google Inc. Cross-language search options
US8515185B2 (en) * 2009-11-25 2013-08-20 Google Inc. On-screen guideline-based selective text recognition
US8805079B2 (en) * 2009-12-02 2014-08-12 Google Inc. Identifying matching canonical documents in response to a visual query and in accordance with geographic information
EP2354968A1 (en) * 2009-12-30 2011-08-10 Tim Frey Hyperadapter and method for accessing documents in a document base
CN101901338A (en) * 2010-07-09 2010-12-01 北京商纳科技有限公司 Method and system for calculating scores of test paper
US9043316B1 (en) * 2011-03-28 2015-05-26 Google Inc. Visual content retrieval
US9170706B2 (en) * 2011-05-12 2015-10-27 Microsoft Technology Licensing, Llc Query box polymorphism
US8949107B1 (en) * 2012-06-04 2015-02-03 Amazon Technologies, Inc. Adjusting search result user interfaces based upon query language

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018531440A (en) * 2015-07-28 2018-10-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Information inquiry

Also Published As

Publication number Publication date
CN103678460B (en) 2018-02-23
CN103678460A (en) 2014-03-26
US20140074453A1 (en) 2014-03-13
US9514127B2 (en) 2016-12-06

Similar Documents

Publication Publication Date Title
CN108701161B (en) Providing images for search queries
EP3575984A1 (en) Artificial intelligence based-document processing
US9411790B2 (en) Systems, methods, and media for generating structured documents
US9633309B2 (en) Displaying quality of question being asked a question answering system
KR101911999B1 (en) Feature-based candidate selection
JP2014056503A (en) Computer packaging method, program, and system for specifying non-text element matching communication in multilingual environment
EP4481588A1 (en) Related notes and multi-layer search in personal and shared content
CN104899322A (en) Search engine and implementation method thereof
US9075870B2 (en) System, method and apparatus for detecting related topics and competition topics based on topic templates and association words
JP2021504781A (en) Methods, computer programs and systems for extracting document metadata based on blocks
US20160140145A1 (en) Extracting information from PDF Documents using Black-Box Image Processing
US9658990B2 (en) Reordering text from unstructured sources to intended reading flow
US10949452B2 (en) Constructing content based on multi-sentence compression of source content
CN104978332B (en) User-generated content label data generation method, device and correlation technique and device
CN103559220B (en) Picture searching equipment, method and system
US9009188B1 (en) Drawing-based search queries
EP4336379A1 (en) Tracking concepts within content in content management systems and adaptive learning systems
US20190317985A1 (en) Generating a structured document based on a machine readable document and artificial intelligence-generated annotations
JP6025487B2 (en) Forensic analysis system, forensic analysis method, and forensic analysis program
JP5700007B2 (en) Information processing apparatus, method, and program
CN115392389A (en) Cross-modal information matching and processing method and device, electronic equipment and storage medium
Zeng et al. A web page segmentation approach using visual semantics
US20150081682A1 (en) Method and System for Filtering Search Results
KR20200110880A (en) Electronic device for selecting important keywords for documents based on style attributes and operating method thereof
CN118797019B (en) Task processing method, document dialogue method and document processing method
OSZAR »