JPH10178564A - Panorama image generator and recording medium - Google Patents

Panorama image generator and recording medium

Info

Publication number
JPH10178564A
JPH10178564A JP9269427A JP26942797A JPH10178564A JP H10178564 A JPH10178564 A JP H10178564A JP 9269427 A JP9269427 A JP 9269427A JP 26942797 A JP26942797 A JP 26942797A JP H10178564 A JPH10178564 A JP H10178564A
Authority
JP
Japan
Prior art keywords
image
images
divided
parallax
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9269427A
Other languages
Japanese (ja)
Inventor
Mitsuaki Nakamura
三津明 中村
Yoshihiro Kitamura
義弘 北村
Hiroyuki Akagi
宏之 赤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP9269427A priority Critical patent/JPH10178564A/en
Priority to DE69713243T priority patent/DE69713243T2/en
Priority to EP97117985A priority patent/EP0837428B1/en
Priority to US08/951,713 priority patent/US6005987A/en
Publication of JPH10178564A publication Critical patent/JPH10178564A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a panorama image generator in which deterioration in the image quality due to deviation in the image or double exposure is less even with regard to the image including a parallax caused by a difference of the depth in the case of photographing when movement of a center of a lens of a camera is unavoidable for photographing a scene by the camera or the like. SOLUTION: A panorama image generator is provided with an image input device 101, a frame memory 102 that stores inputted divided images, an image position calculation part 106 that calculates a synthesis position of the divided images, an image parallax extract processing part 107 that extracts parallax information between images from the image including a parallax in an overlap area between adjacent divided images, an intermediate image production processing part 108 that produces plural intermediate images from the image including the parallax and an image synthesis processing part 109 that synthesizes a panorama image from the divided images. The image parallax extract processing part 107 corrects a deviation in the images in an overlap area and interpolates by the intermediate image produced by the intermediate image production processing part 108 to synthesize the panorama image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数のスチルデジ
タル画像から、パノラマ画像を合成するパノラマ画像作
成装置に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to a panoramic image creating apparatus for synthesizing a panoramic image from a plurality of still digital images.

【0002】[0002]

【従来の技術】複数の互いにオーバーラップ領域を持つ
デジタル画像をつなぎ合わせ、パノラマ画像、或いは高
精細(高解像度)画像を作成する方法としては、例え
ば、特開平3−182976号公報に開示されているよ
うな2つの特徴粒子を隣接画像間で抽出し、それらを結
ぶ線を接合線として画像をつなぐ方法、或いは、特開平
5−122606号公報に開示されているような濃度差
が最小になるような領域で画像をつなぐ方法がある。ま
た、画像を接合する際に、接合線のように線で結ぶので
はなく、接合線周辺において両画像の濃度変化が不連続
にならないように色調の平滑化を行なう方法が東京大学
出版会発行の画像解析ハンドブック466頁に記載され
ている。
2. Description of the Related Art A method of connecting a plurality of digital images having overlapping areas to each other to create a panoramic image or a high-definition (high-resolution) image is disclosed, for example, in Japanese Patent Application Laid-Open No. 3-182977. A method of extracting two feature particles between adjacent images and connecting the images by using a line connecting them as a joining line, or minimizing the density difference as disclosed in JP-A-5-122606. There is a method of connecting images in such an area. Also, when joining images, instead of connecting them with a line like a joint line, a method of smoothing the color so that the density change of both images does not become discontinuous around the joint line is published by the University of Tokyo Press. Image Analysis Handbook, page 466.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、デジタ
ル画像の撮影において、手持ちによるパン撮影する場
合、三脚を用いてパン撮影する場合、或いは複数のカメ
ラによりオーバラップを持つように設置し撮影する場合
などがある。手持ちによるパン撮影や、複数のカメラで
の撮影では、図4に示すように、カメラのレンズ位置が
移動する。また、多くのカメラと三脚の組合せにおいて
も回転中心とカメラのレンズ中心が一致しないので多少
のレンズの移動が生じる。これらのレンズ位置の相違
は、撮像画像において被写体の奥行きの違いに起因する
視差を生じさせるため、図5に見られるように画像内の
被写体の奥行きが違う部分においてパン方向側に、一方
では写っているが、他方には写っていないような部分が
生じることや、撮影に時間的ずれがあるために移動する
物体が撮影された場合にも、オーバーラップ内の画像は
一致しない。
However, in photographing a digital image, when photographing a hand-held pan, when photographing a pan using a tripod, or when installing and photographing with a plurality of cameras so as to overlap each other, etc. There is. In pan shooting by hand or shooting with a plurality of cameras, the lens position of the camera moves as shown in FIG. Also, in many combinations of a camera and a tripod, the center of rotation does not coincide with the center of the lens of the camera, so that some movement of the lens occurs. These differences in the lens positions cause parallax due to the difference in the depth of the subject in the captured image. Therefore, as shown in FIG. However, the image in the overlap does not match even when a portion that is not shown on the other side occurs, or when a moving object is photographed due to a time lag in photographing.

【0004】従来の画像接合技術では、接合線を直線
や、幅を持った直線で接合していたが、前記のような画
像間に差があるような場合には、うまく合成出来ない場
合が多い。特に、一部は自然につながっていても、視差
の生じている部分や、移動物体を含んでいる箇所におい
ては、接合線上でのずれや、2重写りが生じ、接合した
パノラマ画像の品質を著しく低下させる原因となってい
る。
In the conventional image joining technology, joining lines are joined by straight lines or straight lines having a width. However, when there is a difference between images as described above, there is a case where the images cannot be combined well. Many. In particular, even if some parts are connected naturally, in places where parallax occurs or where moving objects are included, misalignment on the joining line or double image occurs, and the quality of the joined panoramic image is reduced. This is the cause of the significant decrease.

【0005】本発明は、以上のような従来技術の問題点
を解決するため、カメラなどで風景を撮影する際、カメ
ラのレンズ中心が移動が避けられない場合の撮影におい
ては、奥行きの違いによって生じる視差を含む画像に対
しても、画像のズレや2重写りによる画質の低下が少な
いパノラマ画像作成装置を提供する。また、カメラのレ
ンズ中心が移動が避けられない場合や、動物体を含むこ
とが避けられない場合の撮影においては、奥行きの違い
によって生じる視差や、動物体を含む画像に対しても、
画像のズレや2重写りによる画質の低下が少ないパノラ
マ画像作成装置を提供する。
[0005] The present invention solves the above-mentioned problems of the prior art. In taking a picture with a camera or the like, when the center of the camera cannot be avoided, the difference in depth is caused by the difference in depth. Provided is a panoramic image creating apparatus in which an image including parallax is less likely to deteriorate in image quality due to image shift and double image. Also, when the camera lens center is unavoidable to move, or when it is unavoidable to include a moving object, parallax caused by a difference in depth, and for images including moving objects,
Provided is a panoramic image creating apparatus in which image quality is less likely to be reduced due to image shift and double image capturing.

【0006】[0006]

【課題を解決するための手段】本発明の請求項1に係る
パノラマ画像作成装置は、複数の撮像手段により、或い
は、撮像手段を複数回移動して、撮像画像の一部をオー
バーラップさせて撮影し、得られた分割画像をつなぎ合
わせてパノラマ画像を作成するためのパノラマ画像作成
装置であって、前記撮像手段と、前記撮像手段から入力
された分割画像を記憶する記憶手段と、前記撮像手段に
対して前記分割画像の取り込みを指示すると共に、前記
記憶手段に対しては、前記取り込まれた分割画像の記憶
先アドレスを指示する画像入力処理手段と、前記分割画
像の合成位置を計算する画像位置計算手段と、隣接する
前記分割画像間のオーバーラップ領域内の視差を含んだ
画像から、画像間の視差情報を抽出する視差情報抽出手
段と、前記オーバーラップ領域内の視差を含んだ画像か
ら複数の中間画像を作成する中間画像作成手段と、前記
分割画像からパノラマ画像を合成する画像合成手段とを
備え、前記オーバーラップ領域の画像のずれを前記視差
情報抽出手段で補正すると共に、前記中間画像作成手段
で作成した中間画像で補間してパノラマ画像を合成する
ことを特徴とする。
According to a first aspect of the present invention, there is provided a panoramic image creating apparatus in which a plurality of image pickup means or an image pickup means is moved a plurality of times to partially overlap a picked-up image. What is claimed is: 1. A panorama image creating apparatus for creating a panoramic image by joining captured images and obtaining the obtained divided images, said imaging means; a storage means for storing a divided image input from said imaging means; Image input processing means for instructing the means for capturing the divided image and for specifying the storage address of the captured divided image for the storage means, and calculating the composite position of the divided image. Image position calculating means; disparity information extracting means for extracting disparity information between images from an image including disparity in an overlap area between adjacent divided images; An intermediate image creating unit that creates a plurality of intermediate images from an image including parallax in the overlap region; and an image combining unit that combines a panoramic image from the divided images. It is characterized in that the panoramic image is synthesized by interpolating with the intermediate image created by the intermediate image creating unit, while being corrected by the information extracting unit.

【0007】本発明の請求項2に係るパノラマ画像作成
装置は、複数の撮像手段により、或いは、撮像手段を複
数回移動して、撮像画像の一部をオーバーラップさせて
撮影し、得られた分割画像をつなぎ合わせてパノラマ画
像を作成するためのパノラマ画像作成装置であって、前
記撮像手段と、前記撮像手段から入力された分割画像を
記憶する記憶手段と、前記撮像手段に対して前記分割画
像の取り込みを指示すると共に、前記記憶手段に対して
は、前記取り込まれた分割画像の記憶先アドレスを指示
する画像入力処理手段と、前記分割画像の合成位置を計
算する画像位置計算手段と、隣接する前記分割画像間の
オーバーラップ領域内の視差を含んだ画像から、画像間
の視差情報を抽出する視差情報抽出手段と、前記視差情
報抽出手段によって得られた奥行き情報に基づいて、前
記オーバーラップ領域の画像の撮像手段に最も近い被写
体の輪郭上に接合線を設定する接合線決定手段と、前記
分割画像からパノラマ画像を合成する画像合成手段とを
備え、前記オーバーラップ領域の画像のずれを前記視差
情報抽出手段で補正すると共に、前記接合線決定手段に
よって求められた接合線に基づいて、分割画像を接合す
ることを特徴とする。
According to a second aspect of the present invention, there is provided a panoramic image creating apparatus which is obtained by moving a plurality of image pickup means or moving the image pickup means a plurality of times to overlap a part of the picked-up image. What is claimed is: 1. A panorama image creating apparatus for joining a divided image to create a panoramic image, comprising: an image pickup unit; a storage unit configured to store a divided image input from the image pickup unit; Image input processing means for instructing capture of an image, and for instructing the storage destination address of the captured divided image, image position calculating means for calculating a combined position of the divided images, Parallax information extracting means for extracting parallax information between images from an image including parallax in an overlap area between the adjacent divided images, and parallax information extracting means. Based on the obtained depth information, a joining line determining unit that sets a joining line on the contour of the subject closest to the imaging unit of the image of the overlap area, and an image combining unit that combines a panoramic image from the divided images. Wherein the displacement of the image in the overlap area is corrected by the parallax information extracting means, and the divided images are joined based on the joining lines obtained by the joining line determining means.

【0008】本発明の請求項3に係るパノラマ画像作成
装置は、請求項2に係るパノラマ画像作成装置におい
て、前記接合線決定手段は、前記オーバーラップ領域の
画像の撮像手段に最も近い被写体のオーバーラップ領域
側の画像端に最も近い輪郭に接合線を設定することを特
徴とする。本発明の請求項4に係るパノラマ画像作成装
置は、請求項2又は、請求項3に係るパノラマ画像作成
装置において、前記接合線決定手段は、前記オーバーラ
ップ領域内において、接合線決定時における基準画像の
選択と、前記接合線決定方法の組み合わせによる複数の
接合線の中から最適な接合線を選出して分割画像を接合
することを特徴とする。
According to a third aspect of the present invention, there is provided the panoramic image creating apparatus according to the second aspect, wherein the joining line determining means determines whether or not the subject closest to the image capturing means for the image of the overlap area is overlaid. The present invention is characterized in that a joining line is set at a contour closest to an image end on the lap area side. According to a fourth aspect of the present invention, there is provided the panoramic image creating apparatus according to the second or third aspect, wherein the joining line determining unit is configured to determine a reference for determining a joining line in the overlap area. The method is characterized in that an optimal joint line is selected from a plurality of joint lines by combining the image selection and the joint line determination method, and the divided images are joined.

【0009】本発明の請求項5に係る記録媒体は、複数
の撮像手段により、或いは、撮像手段を複数回移動し
て、撮像画像の一部をオーバーラップさせて撮影し、得
られた分割画像をつなぎ合わせてパノラマ画像を作成す
るためのプログラムであり、画像入力処理手段は撮像手
段に対して指示して分割画像の取り込みを行わせると共
に、記憶手段に対して記憶先アドレスを指示して取り込
まれた前記分割画像を記憶手段に記憶させ、画像位置計
算手段には前記分割画像の合成位置を計算させ、視差情
報抽出手段には隣接する前記分割画像間のオーバーラッ
プ領域内の視差を含んだ画像から画像間の視差情報を抽
出させ、中間画像作成手段には前記オーバーラップ領域
内の視差を含んだ画像から複数の中間画像を作成させ、
画像合成手段には前記分割画像からパノラマ画像を合成
させ、その際、前記視差情報抽出手段において前記オー
バーラップ領域の画像のずれを補正すると共に、前記中
間画像作成手段で作成した中間画像で補間してパノラマ
画像を合成する動作を実行させるプログラムを格納した
ものである。
According to a fifth aspect of the present invention, there is provided a recording medium comprising: a plurality of image pickup means, or a plurality of movements of the image pickup means, and a photographed image obtained by overlapping a part of a photographed image; Is a program for creating a panoramic image by linking the image data. The image input processing means instructs the imaging means to capture the divided image, and instructs the storage means to specify the storage destination address and captures the divided image. The divided image thus stored is stored in a storage unit, an image position calculating unit calculates a combined position of the divided images, and a disparity information extracting unit includes a disparity in an overlap area between adjacent divided images. Causing the parallax information between the images to be extracted from the image, and causing the intermediate image generating means to generate a plurality of intermediate images from the image including the parallax in the overlap area,
The image synthesizing unit synthesizes a panoramic image from the divided images. At this time, the parallax information extracting unit corrects the image shift in the overlap area, and interpolates with the intermediate image created by the intermediate image creating unit. And a program for executing an operation of synthesizing a panoramic image.

【0010】本発明の請求項6に係る記録媒体は、複数
の撮像手段により、或いは、撮像手段を複数回移動し
て、撮像画像の一部をオーバーラップさせて撮影し、得
られた分割画像をつなぎ合わせてパノラマ画像を作成す
るためのプログラムであり、画像入力処理手段は撮像手
段に対して指示して分割画像の取り込みを行わせると共
に、記憶手段に対して記憶先アドレスを指示して取り込
まれた前記分割画像を記憶手段に記憶させ、画像位置計
算手段には前記分割画像の合成位置を計算させ、視差情
報抽出手段には隣接する前記分割画像間のオーバーラッ
プ領域内の視差を含んだ画像から画像間の視差情報を抽
出させ、接合線決定手段には前記視差情報抽出手段によ
って得られた奥行き情報に基づいて、前記オーバーラッ
プ領域の画像の撮像手段に最も近い被写体の輪郭上に接
合線を設定させ、画像合成手段には前記分割画像からパ
ノラマ画像を合成させ、その際、前記視差情報抽出手段
において前記オーバーラップ領域の画像のずれを補正す
ると共に、前記接合線決定手段によって求められた接合
線に基づいて、分割画像を接合することでパノラマ画像
を合成する動作を実行させるプログラムを格納したもの
である。
According to a sixth aspect of the present invention, there is provided a recording medium comprising: a plurality of image pickup means, or a plurality of image pickup means, which are moved a plurality of times, and a part of the picked-up image is overlapped and photographed; Is a program for creating a panoramic image by linking the image data. The image input processing means instructs the imaging means to capture the divided image, and instructs the storage means to specify the storage destination address and captures the divided image. The divided image thus stored is stored in a storage unit, an image position calculating unit calculates a combined position of the divided images, and a disparity information extracting unit includes a disparity in an overlap area between adjacent divided images. Parallax information between the images is extracted from the image, and a joining line determining unit captures an image of the overlap region based on the depth information obtained by the parallax information extracting unit. A joining line is set on the contour of the subject closest to the step, and a panoramic image is synthesized from the divided images by the image synthesizing unit. At this time, the disparity information extracting unit corrects the image shift in the overlap area. In addition, a program for executing an operation of synthesizing a panoramic image by joining the divided images based on the joining line determined by the joining line determining means is stored.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。図1は、本発明の請
求項1に係る実施形態の一実施例を示すブロック図であ
る。101は画像入力装置、102はフレームメモリ、
103は画像出力装置、104は画像入力処理部、10
5は画像前処理部、106は画像位置計算部、107は
画像視差抽出処理部、108は中間画像生成処理部、1
09は画像合成処理部、110は画像出力処理部、11
1はタイミング制御部、112はRAMである。図3
は、前記RAM112の一構成例を示す図である。ここ
で、前記RAM112は以下の説明にあるいくつかの処
理により、所定のアドレスから情報を得たり、各処理に
より発生した情報を格納する場所である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of an embodiment according to claim 1 of the present invention. 101 is an image input device, 102 is a frame memory,
103 is an image output device, 104 is an image input processing unit, 10
5 is an image preprocessing unit, 106 is an image position calculation unit, 107 is an image parallax extraction processing unit, 108 is an intermediate image generation processing unit, 1
09 is an image synthesis processing unit, 110 is an image output processing unit, 11
1 is a timing control unit, and 112 is a RAM. FIG.
FIG. 3 is a diagram showing a configuration example of the RAM 112. Here, the RAM 112 is a place for obtaining information from a predetermined address and storing information generated by each process by some processes described below.

【0012】図8は、本発明の請求項1に係る実施形態
の処理の手順を示す図である。
FIG. 8 is a diagram showing a procedure of processing according to an embodiment of the present invention.

【0013】以下、図1を用いて本発明の請求項1に係
る実施形態に関する内容を説明する。
Hereinafter, the contents relating to the first embodiment of the present invention will be described with reference to FIG.

【0014】全体のシステムが起動するとタイミング制
御部111は、画像入力処理部104、画像前処理部1
05、画像位置計算部106、画像視差抽出処理部10
7、中間画像生成処理部108、画像合成処理部10
9、画像出力処理部110に対してリセット信号を送
る。
When the entire system is started, the timing control unit 111 controls the image input processing unit 104, the image preprocessing unit 1
05, image position calculation unit 106, image parallax extraction processing unit 10
7, intermediate image generation processing unit 108, image synthesis processing unit 10
9. Send a reset signal to the image output processing unit 110.

【0015】前記各ブロックにおける処理は、タイミン
グ制御部111からの開始信号を受信するまで待ち状態
に入る。まず、タイミング制御部111は、入力画像を
フレームメモリ102へ格納するために画像入力処理部
104へ開始信号を出し、画像入力処理部104からの
終了信号を受けるまで待ち状態に入る。
The processing in each block enters a wait state until a start signal from the timing control unit 111 is received. First, the timing control unit 111 sends a start signal to the image input processing unit 104 to store an input image in the frame memory 102, and enters a wait state until receiving an end signal from the image input processing unit 104.

【0016】画像入力処理部104は、タイミング制御
部111から開始信号を受けると、画像入力装置101
に対し、画像をフレームメモリ102に転送する処理を
行なう。もし、オンラインで画像の合成を行なう時は画
像入力装置101は、画像入力手段と、画像入力手段か
ら得られるアナログ画像信号をデジタル画像信号に変換
するためのA/D変換手段からなり、画像入力処理部1
04からの信号により画像の撮像とアナログ画像信号の
A/D変換手段により、デジタル画像信号に変換し、フ
レームメモリ102の所定のアドレスに転送する処理と
なる。オフラインでの画像の合成の場合は、画像入力装
置101は画像の記憶装置に当たり、画像入力処理部1
04は、画像入力装置101に記憶されている画像信号
をフレームメモリ102の所定のアドレスに転送する処
理となる。画像入力処理部104は、全ての画像をフレ
ームメモリ102への転送が完了すると、画像入力枚数
や、それぞれの格納アドレスを順次RAM112の所定
アドレスに書き込む。その後、画像入力処理部104
は、タイミング制御部111に対して画像入力処理の終
了を通知する終了信号を送信して処理を終了する。
When the image input processing unit 104 receives a start signal from the timing control unit 111, the image input processing unit 104
Then, a process of transferring the image to the frame memory 102 is performed. If an image is to be synthesized online, the image input device 101 comprises image input means and A / D conversion means for converting an analog image signal obtained from the image input means into a digital image signal. Processing unit 1
The image signal is converted into a digital image signal by an A / D conversion unit for capturing an image and an analog image signal based on the signal from the signal 04, and is transferred to a predetermined address of the frame memory 102. In the case of off-line image synthesis, the image input device 101 corresponds to an image storage device, and the image input processing unit 1
Step 04 is a process of transferring an image signal stored in the image input device 101 to a predetermined address of the frame memory 102. When the transfer of all the images to the frame memory 102 is completed, the image input processing unit 104 sequentially writes the number of input images and the respective storage addresses to predetermined addresses in the RAM 112. After that, the image input processing unit 104
Transmits an end signal notifying the end of the image input processing to the timing control unit 111, and ends the processing.

【0017】タイミング制御部111は、入力画像のフ
レームメモリへの転送の終了信号を受信すると、画像前
処理部105へ開始信号を送信し、画像前処理部105
からの終了信号を受けるまで待ち状態に入る。
When the timing control unit 111 receives the end signal of the transfer of the input image to the frame memory, it transmits a start signal to the image preprocessing unit 105, and
It enters a wait state until it receives an end signal from.

【0018】画像前処理部105は、タイミング制御部
111から開始信号を受けると、RAM112から処理
すべき画像枚数を読み出し記憶し、カウンタkを1にセ
ットする。次にカウンタkに対応した画像I(k)のフ
レームメモリ102内のアドレスをRAM112から読
み出し、該アドレスからフレームメモリ102内の所定
の画像を読み出す(図8(イ)、(ロ)を参照)。読み
込んだ画像I(k)に対して、該画像に対する既知の歪
みを除去する処理を行なう。それには、例えば、撮像系
のレンズの持つ収差補正などがある。それを除去した画
像を再度、フレームメモリ102の同一のアドレスに書
き出す。その後、カウンタkを1増やし、カウンタkと
画像枚数とを比較する。カウンタkが画像枚数以下なら
ば、次の画像の前処理を行なう。カウンタkが画像枚数
より大ならば、画像前処理部105は、タイミング制御
部111に対して画像前処理の終了を通知する終了信号
を送信して処理を終了する。
When receiving the start signal from the timing control unit 111, the image preprocessing unit 105 reads out and stores the number of images to be processed from the RAM 112, and sets the counter k to one. Next, the address in the frame memory 102 of the image I (k) corresponding to the counter k is read from the RAM 112, and a predetermined image in the frame memory 102 is read from the address (see FIGS. 8A and 8B). . The read image I (k) is subjected to a process of removing a known distortion from the image. For example, there is aberration correction of a lens of an imaging system. The image from which the image has been removed is written again at the same address in the frame memory 102. Thereafter, the counter k is incremented by 1, and the counter k is compared with the number of images. If the counter k is equal to or less than the number of images, preprocessing for the next image is performed. If the counter k is larger than the number of images, the image preprocessing unit 105 transmits an end signal notifying the end of the image preprocessing to the timing control unit 111 and ends the processing.

【0019】タイミング制御部111は、画像前処理部
105からの終了信号を受信すると、画像位置計算部1
06へ開始信号を送信し、画像位置計算部106からの
終了信号を受けるまで待ち状態に入る。
Upon receiving the end signal from the image pre-processing unit 105, the timing control unit 111
A start signal is transmitted to 06 and a wait state is entered until an end signal from the image position calculation unit 106 is received.

【0020】画像位置計算部106は、タイミング制御
部111から開始信号を受けると、RAM112から処
理すべき画像枚数を読み出し記憶し、カウンタkを1に
セットする。次にカウンタkに対応した画像のフレーム
メモリ102内のアドレスをRAM112から読み出
し、該アドレスからフレームメモリ102内の所定の画
像I(k)の内、図9(a)及び図9(b)に示すよう
なパターンマッチングの参照領域となる部分(rx0,ry
0)−(rx1,ry1)を読み出す。
Upon receiving the start signal from the timing control unit 111, the image position calculation unit 106 reads out and stores the number of images to be processed from the RAM 112, and sets a counter k to one. Next, the address of the image corresponding to the counter k in the frame memory 102 is read out from the RAM 112, and from the address, the predetermined image I (k) in the frame memory 102 is read as shown in FIGS. 9A and 9B. The part to be the reference area for pattern matching as shown (rx0, ry
0)-(rx1, ry1) is read.

【0021】さらに、その画像に隣接する画像I(k+
1)の探索領域(sx0,sy0)−(sx1,sy1)を同様に読
み出す。探索領域については、画像間の位置関係がある
程度分かっている場合、つまり、位置関係を一定にする
ように撮像されたか、或いは、撮像後、大まかな位置関
係を外部から与えられている場合には、その情報によ
り、探索領域を限定して読み出し、また、位置関係が未
定の場合には、画像の全領域を探索領域として読み出
す。
Further, an image I (k +
The search area (sx0, sy0)-(sx1, sy1) of 1) is similarly read. For the search area, when the positional relationship between the images is known to some extent, that is, when the image is captured so that the positional relationship is constant, or when the rough positional relationship is externally given after the image capturing. Based on the information, the search area is limited and read out. If the positional relationship is undecided, the entire area of the image is read out as the search area.

【0022】読み込んだそれぞれの画像の参照領域、探
索領域をもとにパターンマッチングを行ない、参照領域
の画像信号が、探索領域内でのマッチングする位置、つ
まり、参照領域との相関値が最も高い位置(mx0,my0)
を求める。相関値は、例えば下式で計算を行なう。
Pattern matching is performed on the basis of the reference area and the search area of each read image, and the image signal of the reference area has the highest matching value in the search area, that is, the correlation value with the reference area. Position (mx0, my0)
Ask for. The correlation value is calculated by the following equation, for example.

【0023】[0023]

【数1】 (Equation 1)

【0024】ここで、Rareaは参照領域、R(x,y)
は参照領域の座標(x,y)における輝度値、S(x,
y)は探索領域の座標(x,y)における輝度値、(of
fsetx,offsety)は探索画像の原点(0,0)からのオ
フセットである。ここで求めたマッチング位置(mx0,m
y0)は、図9(c)に示すように元の画像から切り出し
た参照領域、探索領域のそれぞれの画像における位置な
ので、以下の式で補正を行ない、元画像における画像間
のずれ量(xmove,ymove)を求める。
Here, R area is a reference area, and R (x, y)
Is the luminance value at the coordinates (x, y) of the reference area, and S (x,
y) is the luminance value at the coordinates (x, y) of the search area, (of
fset x , offset y ) is an offset from the origin (0, 0) of the search image. Matching position obtained here (mx0, m
(y0) is the position of each of the reference region and the search region cut out from the original image in the original image as shown in FIG. 9 (c). move , y move ).

【0025】[0025]

【数2】 (Equation 2)

【0026】以上により、画像間のずれ量(平行移動
量)が計算出来る。
As described above, the shift amount (parallel movement amount) between images can be calculated.

【0027】また、必要ならば、図9(d)及び図9
(e)のように2個以上の参照領域を設けることで、参
照領域間の距離とマッチング領域間の距離の変化から画
像のスケールの変化、参照領域とマッチング領域のなす
方向差により相対的な回転角度なども、求められる。例
えば、複数の参照領域の中心を通るベクトルVr、マッ
チング領域の中心を通るベクトルをVmとした場合、ス
ケールの変化、回転角度は以下の式によって求められ
る。
If necessary, FIGS. 9D and 9
By providing two or more reference areas as shown in (e), a change in the scale of the image based on a change in the distance between the reference areas and the distance between the matching areas, and a relative difference in the direction formed between the reference area and the matching area. The rotation angle is also required. For example, when a vector Vr passing through the centers of a plurality of reference regions and a vector Vm passing through the centers of the matching regions are Vm, a change in scale and a rotation angle are obtained by the following equations.

【0028】[0028]

【数3】 (Equation 3)

【0029】この場合、画像I(k)に対するスケール
S(k)、回転角度θ(k)から、画像I(k+1)を
1/Sk倍、−θ(k)だけ回転したものを改めてフレ
ームバッファの元の画像I(k+1)のアドレスに書き
出す。さらに求めた平行移動量をカウンタkに対応した
RAM112の所定の位置に書き込む。以上の処理を行
なった後、カウンタkを1増やし、カウンタkと画像枚
数との比較を行なう。カウンタkが画像枚数より小なら
ば、次の画像位置の計算処理を行なう。カウンタkが画
像枚数に等しいか大ならば、画像位置計算部106は、
タイミング制御部111に対して画像位置計算処理の終
了を通知する終了信号を送信して処理を終了する。
In this case, based on the scale S (k) and the rotation angle θ (k) with respect to the image I (k), the image I (k + 1) rotated by 1 / Sk times and −θ (k) is re-framed. At the address of the original image I (k + 1). Further, the obtained parallel movement amount is written in a predetermined position of the RAM 112 corresponding to the counter k. After performing the above processing, the counter k is incremented by 1, and the counter k is compared with the number of images. If the counter k is smaller than the number of images, calculation processing of the next image position is performed. If the counter k is equal to or larger than the number of images, the image position calculation unit 106
An end signal for notifying the end of the image position calculation process is transmitted to the timing control unit 111, and the process ends.

【0030】タイミング制御部111は、画像位置計算
部106からの終了信号を受信すると、画像視差抽出部
107へ開始信号を送信し、画像視差抽出処理部107
からの終了信号を受けるまで待ち状態に入る。
Upon receiving the end signal from the image position calculation unit 106, the timing control unit 111 transmits a start signal to the image parallax extraction unit 107, and the image parallax extraction processing unit 107
It enters a wait state until it receives an end signal from.

【0031】画像視差抽出処理部107は、タイミング
制御部111から開始信号を受けると、RAM112か
ら処理すべき画像枚数を読み出し記憶し、カウンタkを
1にセットする。次にカウンタkに対応した画像のフレ
ームメモリ102内のアドレスをRAM112から読み
出し、該アドレスからフレームメモリ102内の画像を
読み出す。これを画像I(k)と呼ぶ。さらに、その画
像に隣接する(カウンタk+1に対応する)画像を読み
出す。この画像を画像I(k+1)と呼ぶ。その後、画
像位置計算部106で求めた平行移動量をRAM112
より読み出し、画像I(k)と画像I(k+1)がオー
バーラップする領域を画像I(k)、画像I(k+1)
についてそれぞれ求める。
Upon receiving the start signal from the timing control unit 111, the image parallax extraction processing unit 107 reads out and stores the number of images to be processed from the RAM 112, and sets the counter k to 1. Next, the address in the frame memory 102 of the image corresponding to the counter k is read from the RAM 112, and the image in the frame memory 102 is read from the address. This is called an image I (k). Further, an image adjacent to the image (corresponding to the counter k + 1) is read. This image is called an image I (k + 1). After that, the parallel movement amount obtained by the image position calculation unit 106 is stored in the RAM 112.
And the area where the image I (k) and the image I (k + 1) overlap is defined as an image I (k) and an image I (k + 1).
Ask for each.

【0032】そして、画像I(k)のオーバーラップ部
分を分割し、それぞれを参照領域とし、画像I(k+
1)から対応する位置をパターンマッチングの手法を用
いて探索する。この際、探索を行なうのは視差による画
像間のずれであるので、探索は横方向のみから行なえば
良い。このずれ量は、視差による物体の見かけ上の動き
量であり、それは、奥行きに起因しているため、ずれの
方向や、ずれ量から、参照領域内の物体の奥行きが推定
出来る(図10を参照)。
Then, the overlap portion of the image I (k) is divided, each of which is used as a reference region, and the image I (k +
A corresponding position is searched from 1) by using a pattern matching technique. At this time, since the search is performed based on a shift between images due to parallax, the search may be performed only in the horizontal direction. This shift amount is an apparent motion amount of the object due to parallax, and is caused by the depth. Therefore, the depth of the object in the reference area can be estimated from the shift direction and the shift amount (see FIG. 10). reference).

【0033】また、ある奥行きの距離の点を一致させた
場合、同一幅のオーバーラップ内でも、視差の関係上、
ある点よりカメラに近い物体ほど左側へのずれ量が大き
く、ある点よりカメラから遠いほど右側へのずれ量が大
きくなる。ここで、ある距離の点というのは、画像位置
計算部106で求めた平行移動量に対応する距離になる
が、ここで求めたオーバーラップ内のずれ量をもとに補
正を加えても良い。例えば、画像中最も奥行きの深い場
所で合わせるのならば、基準値をずれ量の最小値とし、
また、画像中最も奥行きの浅い場所で合わせるのなら
ば、基準値をずれ量の最大値とし、また、ずれ量の平均
を基準値としても良い。求めた基準値分だけRAM11
2内の平行移動量を加え、また、今求めたオーバーラッ
プ領域内の各ずれ量を基準値と差をとり、補正する。そ
うすることで、基準値としたずれ量が0に補正出来る。
Also, when the points at a certain depth distance are matched, even within the overlap of the same width, due to parallax,
An object closer to the camera than a certain point has a larger shift amount to the left, and a farther object from the camera has a larger shift amount to the right. Here, the point at a certain distance is a distance corresponding to the parallel movement amount obtained by the image position calculation unit 106, but a correction may be made based on the deviation amount within the overlap obtained here. . For example, if matching at the deepest place in the image, the reference value is set to the minimum value of the shift amount,
In addition, if the adjustment is performed at a place where the depth is the smallest in the image, the reference value may be set to the maximum value of the shift amount, and the average of the shift amounts may be set to the reference value. RAM 11 for the determined reference value
2 is added, and each shift amount in the overlap area just obtained is corrected by taking a difference from a reference value. By doing so, the deviation amount as the reference value can be corrected to zero.

【0034】この処理においては、正確な奥行きは求め
ず、奥行きの差に伴う視差、つまり画素間のずれ量自体
を、領域毎、或いは画素毎にRAM112に格納してお
く。
In this process, an accurate depth is not obtained, and the parallax due to the difference in depth, that is, the shift amount between pixels itself is stored in the RAM 112 for each region or for each pixel.

【0035】図6は、視差抽出を行なうためのマッチン
グの様子を示した図である。
FIG. 6 is a diagram showing a state of matching for performing parallax extraction.

【0036】画像(A)の桝目は分割された参照領域に
当たり、領域内の丸印は領域中心を示す。画像(B)中
の枠はオーバーラップ領域を示し、丸印は画像(A)の
参照領域中心を示す丸印に対応するもので、そこから伸
びる矢印は、マッチングによるずれの方向と、ずれ量を
示している。ここで、画像が図6のように右側の画像が
左側の画像を撮影した位置より右の位置で撮影されたも
のならば、右方向へのずれは大きければ大きいほど奥行
きが深く、左方向へのずれはずれ量が大きければ大きい
ほど奥行きが浅いことが言える。このずれ量を左方向を
正にとり、画素の輝度値として示したのが画像(C)で
ある。暗い部分ほど視差が小さく、つまり奥行きが深
く、明るい部分ほど視差が大きく、つまり奥行きが浅い
ことを示す。また、参照領域をさらに小さくすることに
より、より細かな視差抽出が可能になる(図8(ハ)、
(ニ)を参照)。
The cells in the image (A) correspond to the divided reference areas, and the circles in the area indicate the center of the area. The frame in the image (B) indicates the overlap area, and the circle corresponds to the circle indicating the center of the reference area of the image (A), and the arrow extending therefrom indicates the direction of the shift due to the matching and the shift amount. Is shown. Here, as shown in FIG. 6, if the image on the right is taken at a position to the right of the position at which the image on the left was taken as shown in FIG. It can be said that the greater the deviation amount, the shallower the depth. The image (C) shows this shift amount as the luminance value of the pixel, taking the left direction as positive. A darker portion indicates a smaller parallax, that is, a deeper depth, and a brighter portion indicates a larger parallax, that is, a shallower depth. Further, by further reducing the reference area, finer parallax extraction can be performed (FIG. 8C).
(See (d)).

【0037】同様にして、画像I(k+1)を参照側、
画像I(k)を探索側として奥行き抽出を行なう。画像
I(k+1)の視差抽出結果も同様にRAM112に格
納しておく。
Similarly, the image I (k + 1) is referred to as a reference side,
Depth extraction is performed using the image I (k) as a search side. The parallax extraction result of the image I (k + 1) is also stored in the RAM 112 in the same manner.

【0038】画像I(k)、画像I(k+1)の奥行き
抽出処理が終わったら、カウンタkを1増やし、カウン
タkと画像枚数とを比較する。カウンタkが画像枚数よ
り小ならば、画像I(k)、画像I(k+1)に対する
奥行き抽出処理を行なう。カウンタkが画像枚数以上な
らば、画像視差抽出処理部107は、タイミング制御部
111に対して画像視差抽出処理の終了を通知する終了
信号を送信して処理を終了する。
When the depth extraction processing of the images I (k) and I (k + 1) is completed, the counter k is incremented by 1, and the counter k is compared with the number of images. If the counter k is smaller than the number of images, a depth extraction process is performed on the images I (k) and I (k + 1). If the counter k is equal to or greater than the number of images, the image parallax extraction processing unit 107 transmits an end signal notifying the end of the image parallax extraction processing to the timing control unit 111, and ends the processing.

【0039】タイミング制御部111は、画像視差抽出
処理部107からの終了信号を受信すると、中間画像生
成部108へ開始信号を送信し、中間画像生成部108
からの終了信号を受けるまで待ち状態に入る。
Upon receiving the end signal from the image parallax extraction processing unit 107, the timing control unit 111 transmits a start signal to the intermediate image generation unit 108,
It enters a wait state until it receives an end signal from.

【0040】中間画像生成処理部108は、タイミング
制御部111から開始信号を受けると、RAM112か
ら処理すべき画像枚数を読み出し記憶し、カウンタkを
1にセットする。次にカウンタkに対応した画像のフレ
ームメモリ102内のアドレスをRAM112から読み
出し、該アドレスからフレームメモリ102内の画像I
(k)を読み出す。さらに、その画像に隣接する(カウ
ンタk+1に対応する)画像I(k+1)を読み出す。
その後、画像位置計算部106で求めた平行移動量をR
AM112より読み出し、画像I(k)のオーバラップ
領域、画像I(k+1)のオーバーラップ領域をそれぞ
れ求める。
Upon receiving the start signal from the timing control unit 111, the intermediate image generation processing unit 108 reads out and stores the number of images to be processed from the RAM 112, and sets the counter k to 1. Next, the address of the image corresponding to the counter k in the frame memory 102 is read from the RAM 112, and the image I in the frame memory 102 is read from the address.
Read (k). Further, an image I (k + 1) adjacent to the image (corresponding to the counter k + 1) is read.
Thereafter, the parallel movement amount obtained by the image position calculation unit 106 is represented by R
The overlap area of the image I (k) and the overlap area of the image I (k + 1) are obtained by reading from the AM 112.

【0041】中間画像(Intermidiate Image)とは、視
点の違う位置から撮像した2枚の画像から、その両視点
の中間である位置で撮像される画像を計算により作成さ
れる画像である。画像I(k)を撮像した位置を撮像位
置Tkとする。ここでは、オーバーラップ内の画像を領
域内で水平方向にn−1に分けそれぞれ左から、撮像位
置Tkと撮像位置Tk+1を1:n−1に内分する位置か
ら、2:n−2,…,n−1:1に内分する撮像位置か
ら撮像される中間画像IIk(l),l=1,2,…,
n−1を以下の方法で作成する。
An intermediate image is an image created by calculating an image captured at a position intermediate between two viewpoints from two images captured from different viewpoints. The position where the image I (k) was captured is defined as an imaging position Tk . Here, the image in the overlap is divided into n-1 in the horizontal direction in the area, and the image pickup position Tk and the image pickup position Tk + 1 are divided into 1: n-1 from the left, and 2: , n-1,..., n−1: an intermediate image II k (l) captured from an imaging position internally divided into 1: 1, l = 1, 2,.
n-1 is created by the following method.

【0042】撮像位置Tkと撮像位置Tk+1をl:n−l
に内分する位置での中間画像生成における中間画像の作
成方法を示す。視差抽出処理部107で求めた画像I
(k)と画像I(k+1)の画像間のずれずれ量を、各
画素、或いは領域毎に、RAM112から読み出す。
The imaging position T k and the imaging position T k + 1 are represented by 1: n−1
2 shows a method of creating an intermediate image in generating an intermediate image at a position internally divided. Image I obtained by parallax extraction processing section 107
The amount of shift between (k) and the image I (k + 1) is read from the RAM 112 for each pixel or area.

【0043】図7(A)及び図7(B)に示すように画
像I(k)の画像I(k+1)とのオーバーラップ領域
R1(rx0,ry0)−(rx1,ry1)内の任意の点をP1と
し、点P1の座標を(x1,y1)、点P1での輝度値をD
(P1)、点P1でのずれ量をM(P1)(図7(A)
の矢印)とし、画像I(k+1)の画像I(k)とのオ
ーバーラップ領域R2(rx2,ry2)−(rx3,ry3)内の
任意の点をP2とし、点P2の座標を(x2,y2)、点P
2での輝度値をD(P2)、点P2でのずれ量をM(P
2)(図7(B)の矢印)とする。
As shown in FIGS. 7 (A) and 7 (B), an arbitrary region in the overlap region R1 (rx0, ry0)-(rx1, ry1) of the image I (k) with the image I (k + 1) is obtained. Let P1 be the point, the coordinates of point P1 be (x1, y1), and the brightness value at point P1 be D1.
(P1), the shift amount at the point P1 is represented by M (P1) (FIG. 7 (A)
), An arbitrary point in the overlap area R2 (rx2, ry2)-(rx3, ry3) of the image I (k + 1) with the image I (k) is P2, and the coordinates of the point P2 are (x2, y2), point P
2 is D (P2), and the shift amount at point P2 is M (P
2) (arrow in FIG. 7B).

【0044】まず画像I(k)を基準にした中間画像I
k(l)図7(C)を作成する。オーバーラップ領域
R1内の各点P1(x,y),rx0≦x≦rx1,ry0≦y
≦ry1に対し、中間画像IIk(l)上の点(x+M(P
1)*l/n−rx0,y−ry0)の輝度値をD(P1)と
する。
First, an intermediate image I based on the image I (k)
I k (l) FIG. 7C is created. Each point P1 (x, y) in the overlap region R1, rx0 ≦ x ≦ rx1, ry0 ≦ y
≦ respect ry1, points on the intermediate image II k (l) (x + M (P
1) Let the luminance value of * l / n-rx0, y-ry0) be D (P1).

【0045】画像I(k)のみで中間画像IIk(l)
を作成した場合、画素毎の視差の違いによるずれ量の違
いにより、中間画像のある部分では、複数の画素の輝度
値が書き込まれることになったり、図7(C)の黒画素
部分のような未定義画素が生じる場合がある。中間画像
の生成中、輝度値が既に書き込まれている場合には、ず
れ量M(P1)の大きい画素の輝度値を優先する。なぜ
ならば、ずれ量M(P1)が大きければ大きいほどカメ
ラに近い物体であり、それより奥の物体や背景の輝度値
が来るのは不自然だからである。
An intermediate image II k (l) using only the image I (k)
Is created, the luminance value of a plurality of pixels is written in a certain portion of the intermediate image due to the difference in the shift amount due to the difference in the parallax of each pixel, or as shown in the black pixel portion of FIG. Undefined pixels may occur. If a luminance value has already been written during generation of the intermediate image, priority is given to the luminance value of a pixel having a large shift amount M (P1). This is because the larger the displacement amount M (P1) is, the closer the object is to the camera, and it is unnatural to receive the luminance value of an object or the background behind the camera.

【0046】また、未定義画素については、以下のよう
に画像I(k+1)から作成した中間画像II
k+1(l)でそれを補間する。
For the undefined pixels, the intermediate image II created from the image I (k + 1) as follows:
Interpolate it with k + 1 (l).

【0047】中間画像IIk(l)の作成と同様に画像
I(k+1)を基準にした中間画像IIk’(l)図7
(D)を作成する。
Similarly to the creation of the intermediate image II k (l), the intermediate image II k ′ (l) based on the image I (k + 1)
(D) is created.

【0048】オーバーラップ領域R2内の各点P2
(x,y),rx2≦x≦rx3,ry2≦y≦ry3に対し、中間
画像IIk’(l)上の点(x+M(P2)*(n−
l)/n−rx0,y−ry0)の輝度値をD(P2)とす
る。ただし、先に述べたように輝度値が既に書き込まれ
ている場合には、ずれ量M(P1)の大きい画素の輝度
値を優先する。その後、画像I(k+1)とその画素毎
のずれ量から作成したIIk’(l)を用いて、画像I
(k)とその画素毎のずれ量から作成したIIk(l)
における未定義画素について、対応するIIk’(l)の
画素により補間する。
Each point P2 in the overlap region R2
(X, y), with respect to rx2 ≦ x ≦ rx3, ry2 ≦ y ≦ ry3, the intermediate image II k '(l) on the point (x + M (P2) * (n-
l) / n-rx0, y-ry0) is defined as D (P2). However, as described above, when a luminance value has already been written, priority is given to a luminance value of a pixel having a large displacement amount M (P1). Thereafter, the image I (k + 1) and II k ′ (l) created from the shift amount for each pixel are used to generate the image I (k + 1).
II k (l) created from (k) and the shift amount for each pixel
Are interpolated by the corresponding pixel of II k ′ (l).

【0049】最後に、中間画像に輝度値が書き込まれて
いない箇所が存在した場合には、周囲の書き込まれてい
る輝度値により補間を行なう。図14は補間の様子を示
したものである。1つ1つの四角が1つの画素にあた
り、中心に丸印の入ったものが未定義の画素である。
今、太線で囲まれた未定義画素の輝度値を、太い破線で
囲まれた8近傍の内、既に定義されている画素、図14
中では、中心に三角の印が入った画素の平均とする。以
上の操作を未定義画素全てについて繰り返す。もし、8
近傍の画素が全て未定義ならば、他の未定義画素の補間
が終わった後、再度補間操作を行ない、未定義画素がな
くなるまで繰り返す。
Finally, when there is a portion where no luminance value is written in the intermediate image, interpolation is performed using the surrounding written luminance value. FIG. 14 shows the state of interpolation. Each square corresponds to one pixel, and those with a circle at the center are undefined pixels.
Now, the luminance value of the undefined pixel surrounded by the bold line is changed to the already defined pixel in 8 neighborhoods surrounded by the bold broken line, as shown in FIG.
Inside, the average of the pixels with a triangular mark in the center. The above operation is repeated for all the undefined pixels. If 8
If all the neighboring pixels are undefined, the interpolation operation is performed again after the interpolation of the other undefined pixels is completed, and the process is repeated until there are no more undefined pixels.

【0050】また、8近傍の既に定義されている画素の
数が多い未定義画素から補間を行なえば、より品質の良
い補間画像が得られる。以上で中間画像IIk(l)は
生成されるが、合成に用いる領域は(dx*(l−1),
0)−(dx*l,(ry1−ry0))である。そのため、そ
の部分のみをフレームメモリ102に書き込み、画像I
(k)と画像I(k+1)とのオーバーラップ領域での
l:n−lの中間画像生成を終える。
Further, if interpolation is performed from undefined pixels having a large number of already defined pixels in the vicinity of 8, an interpolation image with higher quality can be obtained. As described above, the intermediate image II k (l) is generated, but the area used for synthesis is (dx * (l−1),
0)-(dx * 1, (ry1-ry0)). Therefore, only that part is written into the frame memory 102 and the image I
The generation of an intermediate image of l: n−1 in the overlap region between (k) and the image I (k + 1) is completed.

【0051】l=1,…,9までの前記中間画像作成処
理を行なったら、RAM112に作成した中間画像の枚
数を所定アドレスに書き込み、カウンタkを1増やし、
カウンタkと画像枚数とを比較する。カウンタkが画像
枚数より小ならば、更新したカウンタに相当する画像に
対する前記中間画像処理を行なう。カウンタkが画像枚
数と等しいならば、中間画像生成処理部108は、タイ
ミング制御部111に対して中間画像生成処理の終了を
通知する終了信号を送信して処理を終了する。
After the above-described intermediate image creation processing up to l = 1,..., 9, the number of intermediate images created in the RAM 112 is written into a predetermined address, and the counter k is incremented by one.
The counter k is compared with the number of images. If the counter k is smaller than the number of images, the intermediate image processing is performed on the image corresponding to the updated counter. If the counter k is equal to the number of images, the intermediate image generation processing unit 108 transmits an end signal notifying the end of the intermediate image generation processing to the timing control unit 111, and ends the processing.

【0052】タイミング制御部111は、中間画像生成
処理部109からの終了信号を受信すると、画像合成処
理部109へ開始信号を送信し、画像合成処理部109
からの終了信号を受けるまで待ち状態に入る。
Upon receiving the end signal from the intermediate image generation processing unit 109, the timing control unit 111 transmits a start signal to the image synthesis processing unit 109,
It enters a wait state until it receives an end signal from.

【0053】画像合成処理部109は、タイミング制御
部111から開始信号を受けると、RAM112から処
理すべき画像枚数を読み出し記憶し、カウンタkを1に
セットする。次にカウンタkに対応した画像のフレーム
メモリ102内のアドレスをRAM112から読み出
し、該アドレスからフレームメモリ102内の画像I
(k)を読み出す。
Upon receiving the start signal from the timing control section 111, the image synthesis processing section 109 reads out and stores the number of images to be processed from the RAM 112, and sets the counter k to one. Next, the address of the image corresponding to the counter k in the frame memory 102 is read from the RAM 112, and the image I in the frame memory 102 is read from the address.
Read (k).

【0054】カウンタkが1の場合には、画像I(k)
をフレームメモリ102の出力画像領域の所定位置に書
き込む。
When the counter k is 1, the image I (k)
At a predetermined position in the output image area of the frame memory 102.

【0055】カウンタkが1より大きい場合には、画像
I(k−1)とのずれ量M(k)をRAM112から呼
び出す。画像I(k−1)とのオーバラップ領域Rk(r
x0,ry0)−(rx1,ry1)を計算する。また、中間画像
生成処理部108で作成した画像I(k−1)と画像I
(k)に対する中間画像枚数nをRAM112から呼び
出す。中間画像IIk(i),i=1,…,nの張り付
け位置をPiとした場合、位置Piは、
When the counter k is larger than 1, the deviation M (k) from the image I (k-1) is called from the RAM 112. Overlap region R k (r with image I (k-1)
x0, ry0)-(rx1, ry1) is calculated. Further, the image I (k−1) and the image I
The number n of intermediate images for (k) is called from the RAM 112. Intermediate image II k (i), i = 1, ..., if the stuck position of n was P i, the position P i is

【0056】[0056]

【数4】 (Equation 4)

【0057】で計算出来、中間画像IIk(i),i=
1,…,nを合成画像メモリ位置Piにコピーする。次
に、位置(Σk i=1M(i)+rx1,ry1)以降に画像I
(k)のx座標rx1の右以降の部分をコピーする(図8
(ホ)、(ヘ)を参照)。
The intermediate image II k (i), i =
1, ..., copies the n in the composite image memory position P i. Next, after the position (Σ k i = 1 M (i) + rx1, ry1), the image I
The part after the right of the x coordinate rx1 of (k) is copied (FIG. 8).
(E) and (f)).

【0058】以上の処理が終わったら、カウンタkを1
増やし、カウンタkと画像枚数とを比較する。カウンタ
kが画像枚数以下ならば、更新した画像I(k)に対す
る前記処理を続けて行なう。カウンタkが画像枚数より
大ならば、画像合成処理部109は、タイミング制御部
111に対して画像合成処理の終了を通知する終了信号
を送信して処理を終了する。
When the above processing is completed, the counter k is set to 1
Then, the counter k is compared with the number of images. If the counter k is equal to or smaller than the number of images, the above-described processing is continuously performed on the updated image I (k). If the counter k is larger than the number of images, the image synthesis processing unit 109 transmits an end signal notifying the end of the image synthesis processing to the timing control unit 111, and ends the processing.

【0059】タイミング制御部111は、画像合成処理
部109からの終了信号を受信すると、画像出力処理部
110へ開始信号を送信し、画像出力処理部110から
の終了信号を受けるまで待ち状態に入る。画像出力処理
部110は、タイミング制御部111からの開始信号を
受けとると、RAM112からフレームメモリ102内
の出力画像アドレスを読み出す。次に、画像出力装置1
03へ画像出力を開始するための開始信号を送り、出力
画像信号をフレームメモリ102から順次読み出し、画
像出力装置103に出力する。出力画像を画像出力装置
103から出力し終わると、画像出力処理部110は、
タイミング制御部111に対して画像出力処理の終了を
通知する終了信号を送信して処理を終了する。
When receiving the end signal from the image synthesis processing unit 109, the timing control unit 111 transmits a start signal to the image output processing unit 110 and enters a wait state until receiving the end signal from the image output processing unit 110. . Upon receiving the start signal from the timing control unit 111, the image output processing unit 110 reads an output image address in the frame memory 102 from the RAM 112. Next, the image output device 1
A start signal for starting image output is sent to the image memory device 03, and the output image signal is sequentially read from the frame memory 102 and output to the image output device 103. When the output image has been output from the image output device 103, the image output processing unit 110
An end signal for notifying the end of the image output process is transmitted to the timing control unit 111, and the process ends.

【0060】タイミング制御部111は、画像出力処理
部110からの終了信号を受信すると全てを終了する。
When the timing control unit 111 receives the end signal from the image output processing unit 110, the operation ends.

【0061】以上の一連の処理の流れにより、2つの画
像のオーバーラップ内の被写体間の視差の違いは、中間
画像の作成により、軽減され、出来上がった合成画像
は、視差の違いが存在した部分においても従来のよう
に、ずれたり、2重になって合成されたりすることが、
なくなる。当然のことながら、中間画像の作成数、つま
り、オーバーラップ内の分割数を多くすることで、より
自然なパノラマ画像が得られる。また、本発明の請求項
1に係る実施形態において、視差によりずれ量の違う被
写体を同一幅のオーバーラップで合成するため、カメラ
に近いものはより幅が狭く合成され、遠いものは幅広に
合成される。カメラに近い部分を自然にしたい場合は、
画像視差抽出処理部107において、カメラに近い物体
のずれ量を基準値として、全体のずれ量を補正すれば良
い。また、カメラに遠い部分を自然にしたい場合は、画
像視差抽出処理部107において、カメラに遠い物体の
ずれ量を基準値として、全体のずれ量を補正すれば良
い。
According to the flow of the above series of processes, the difference in parallax between subjects in the overlap between two images is reduced by creating an intermediate image. As in the past, it can be shifted or doubled as in the past,
Disappears. Naturally, a more natural panoramic image can be obtained by increasing the number of intermediate images created, that is, the number of divisions within the overlap. Further, in the embodiment according to claim 1 of the present invention, since subjects having different amounts of displacement due to parallax are combined with an overlap having the same width, objects closer to the camera are combined with a smaller width, and objects farther away are combined with a wider width. Is done. If you want the part close to the camera to be natural,
In the image parallax extraction processing unit 107, the entire shift amount may be corrected using the shift amount of an object close to the camera as a reference value. When it is desired to make a portion far from the camera natural, the image parallax extraction processing unit 107 may correct the entire shift amount using the shift amount of an object far from the camera as a reference value.

【0062】以上、ここで挙げた実施例は本発明の請求
項1に係る実施形態の一例であり、本発明の主旨を変え
ない限り、本実施例の内容に限定されるものではない。
The embodiment described above is an example of the embodiment according to claim 1 of the present invention, and is not limited to the contents of the present embodiment unless the gist of the present invention is changed.

【0063】図2は、本発明の請求項2に係る実施形態
の一実施例を示すブロック図である。
FIG. 2 is a block diagram showing one embodiment of the second embodiment of the present invention.

【0064】101は画像入力装置、102はフレーム
メモリ、103は画像出力装置、104は画像入力処理
部、105は画像前処理部、106は画像位置計算部、
107’は画像視差抽出処理部、108’は接合線決定
処理部、109’は画像合成処理部、110は画像出力
処理部、111はタイミング制御部、112はRAMで
ある。
Reference numeral 101 denotes an image input device, 102 denotes a frame memory, 103 denotes an image output device, 104 denotes an image input processing unit, 105 denotes an image preprocessing unit, 106 denotes an image position calculation unit,
107 'is an image parallax extraction processing unit, 108' is a joint line determination processing unit, 109 'is an image synthesis processing unit, 110 is an image output processing unit, 111 is a timing control unit, and 112 is a RAM.

【0065】図11は、本発明の請求項2に係る実施形
態の処理の手順を示す図である。
FIG. 11 is a diagram showing the procedure of the process according to the second embodiment of the present invention.

【0066】以下、図2を用いて本発明の請求項2に係
る実施形態に関する内容を説明する。
Hereinafter, the contents of the second embodiment of the present invention will be described with reference to FIG.

【0067】画像入力処理部104、画像前処理部10
5、画像位置計算部106の各機能と、画像位置計算部
106までの処理は、本発明の請求項1に係る実施形態
と同じ処理を行なうので、詳細は省略する。
Image input processing section 104, image preprocessing section 10
5. The functions of the image position calculation unit 106 and the processing up to the image position calculation unit 106 are the same as those in the embodiment according to claim 1 of the present invention, and thus the details are omitted.

【0068】タイミング制御部111は、画像位置計算
部106からの終了信号を受信すると、画像視差抽出処
理部107’へ開始信号を送信し、画像視差抽出処理部
107’からの終了信号を受けるまで待ち状態に入る。
When receiving the end signal from the image position calculation unit 106, the timing control unit 111 transmits a start signal to the image parallax extraction processing unit 107 'until receiving the end signal from the image parallax extraction processing unit 107'. Enter the waiting state.

【0069】画像視差抽出処理部107’は、タイミン
グ制御部111から開始信号を受けると、RAM112
から処理すべき画像枚数を読み出し記憶し、カウンタk
を1にセットする。次にカウンタkに対応した画像のフ
レームメモリ102内のアドレスをRAM112から読
み出し、該アドレスからフレームメモリ102内の画像
I(k)を読み出す。さらに、その画像に隣接する(カ
ウンタk+1に対応する)画像I(k+1)を読み出
す。その後、画像位置計算部106で求めた平行移動量
をRAM112より読み出し、画像I(k)のオーバラ
ップ領域、画像I(k+1)のオーバーラップ領域をそ
れぞれ求める。
Upon receiving the start signal from the timing control section 111, the image parallax extraction processing section 107 '
And reads and stores the number of images to be processed from
Is set to 1. Next, the address of the image corresponding to the counter k in the frame memory 102 is read from the RAM 112, and the image I (k) in the frame memory 102 is read from the address. Further, an image I (k + 1) adjacent to the image (corresponding to the counter k + 1) is read. Thereafter, the parallel movement amount obtained by the image position calculation unit 106 is read from the RAM 112, and an overlap area of the image I (k) and an overlap area of the image I (k + 1) are obtained.

【0070】そして、画像I(k)のオーバーラップ部
分を分割し、それぞれを参照領域とし、画像I(k+
1)から対応する位置をパターンマッチングの手法を用
いて探索する。この際、探索を行なうのは視差による画
像間のずれであるので、探索は横方向のみから行なえば
良い。このずれ量は視差による物体の見かけ上の動き量
であり、それは奥行きに起因しているため、ずれの方向
や、ずれ量から、参照領域内の物体の奥行きが推定出来
る。また、ある距離の点を一致させた場合、同一幅のオ
ーバーラップ内でも、視差の関係上、ある点よりカメラ
に近い物体ほど左側へのずれ量が大きく、ある点よりカ
メラから遠いほど右側へのずれ量が大きくなる。
Then, the overlap portion of the image I (k) is divided, each of which is used as a reference area, and the image I (k +
A corresponding position is searched from 1) by using a pattern matching technique. At this time, since the search is performed based on a shift between images due to parallax, the search may be performed only in the horizontal direction. This shift amount is an apparent motion amount of the object due to parallax, and is caused by the depth. Therefore, the depth of the object in the reference area can be estimated from the shift direction and the shift amount. Also, when a point at a certain distance is matched, even within an overlap of the same width, due to parallax, an object closer to the camera than a certain point has a larger amount of shift to the left, and a point farther from the camera to the right than the certain point has a rightward shift. Shift amount becomes large.

【0071】ここで、求めた領域、或いは画素の中で、
最も奥行きのあるものを求め、つまり、左方向を正とし
た場合、最も小さいずれ量を持つ領域と、そこにおける
ずれ量を各領域、或いは画素間の距離から引き、画像位
置計算部106で求めた平行移動量に加えることで、画
像のずれを画像内部で最も奥行きのある部分を基準のず
れとする。それに伴いRAM112内の平行移動量、オ
ーバーラップ領域内の各ずれ量も補正しておく。同様に
して、画像I(k+1)を参照側、画像I(k)を探索
側として視差抽出を行なう。画像I(k+1)の視差抽
出結果も同様にRAM112に格納しておく。
Here, in the obtained area or pixel,
When the image with the largest depth is obtained, that is, when the left direction is defined as positive, the area having the smallest amount and the shift amount there are subtracted from each area or the distance between pixels, and the image position calculation unit 106 obtains the area. By adding this to the parallel movement amount, the shift of the image is set as the reference shift with the deepest part inside the image. Accordingly, the amount of parallel movement in the RAM 112 and the amount of displacement in the overlap area are also corrected. Similarly, parallax extraction is performed using the image I (k + 1) as a reference side and the image I (k) as a search side. The parallax extraction result of the image I (k + 1) is also stored in the RAM 112 in the same manner.

【0072】画像I(k)、画像I(k+1)の視差抽
出処理が終わったら、カウンタkを1増やし、カウンタ
kと画像枚数とを比較する。カウンタkが画像枚数より
小ならば、画像I(k)、画像I(k+1)に対する視
差抽出処理を行なう。カウンタkが画像枚数以上なら
ば、画像視差抽出処理部107’は、タイミング制御部
111に対して画像視差抽出処理の終了を通知する終了
信号を送信して処理を終了する。
After the parallax extraction processing of the images I (k) and I (k + 1) is completed, the counter k is incremented by 1, and the counter k is compared with the number of images. If the counter k is smaller than the number of images, parallax extraction processing is performed on the images I (k) and I (k + 1). If the counter k is equal to or larger than the number of images, the image parallax extraction processing unit 107 'transmits an end signal notifying the end of the image parallax extraction processing to the timing control unit 111, and ends the processing.

【0073】タイミング制御部111は、画像視差抽出
処理部107’からの終了信号を受信すると、接合線決
定処理部108’へ開始信号を送信し、接合線決定処理
部108’からの終了信号を受けるまで待ち状態に入
る。
When receiving the end signal from the image parallax extraction processing unit 107 ', the timing control unit 111 transmits a start signal to the joint line determination processing unit 108', and receives the end signal from the joint line determination processing unit 108 '. Enter waiting state until received.

【0074】接合線決定処理部108’は、タイミング
制御部111から開始信号を受けると、RAM112か
ら処理すべき画像枚数を読み出し記憶し、カウンタkを
1にセットする。次にカウンタkに対応した画像のフレ
ームメモリ102内のアドレスをRAM112から読み
出し、該アドレスからフレームメモリ102内の画像I
(k)を読み出す。さらに、その画像に隣接する(カウ
ンタk+1に対応する)画像I(k+1)を読み出す。
その後、画像視差抽出処理部107’で求めた画像I
(k)、画像I(k+1)の視差量をRAM112より
読み出す。
Upon receiving the start signal from the timing control unit 111, the joining line determination processing unit 108 'reads out and stores the number of images to be processed from the RAM 112, and sets the counter k to 1. Next, the address of the image corresponding to the counter k in the frame memory 102 is read from the RAM 112, and the image I in the frame memory 102 is read from the address.
Read (k). Further, an image I (k + 1) adjacent to the image (corresponding to the counter k + 1) is read.
Then, the image I obtained by the image parallax extraction processing unit 107 '
(K) The parallax amount of the image I (k + 1) is read from the RAM 112.

【0075】ここで請求項2、3、4における画像I
(k)からの接合線を求める方法を各々図11、12、
13を用いて説明する。画像視差抽出処理部107’に
より、画像I(k)(図11(a))と画像I(k+
1)(図11(b))から求めた画像I(k)に対する
視差画像(図11(c))から、画像右端からみて画像
の視差がより大きくなるように変化する点、つまり下式
を満たす点を抽出する。
Here, the image I in the second, third and fourth aspects will be described.
The method for obtaining the joint line from (k) is shown in FIGS.
13 will be described. The image I (k) (FIG. 11A) and the image I (k +
1) From the parallax image (FIG. 11 (c)) for the image I (k) obtained from (FIG. 11 (b)), a point at which the parallax of the image changes so as to be larger when viewed from the right end of the image, that is, Extract satisfying points.

【0076】[0076]

【数5】 (Equation 5)

【0077】ここで、E(x,y)は画像の座標(x,
y)における視差の量、Thresholdは適当な閾値であ
る。図11(e)における画像内の白い丸印に当たる。
これらの点列は、被写体の右側の輪郭線を示し、画像I
(k+1)上において対応する位置の左側では、画像I
(k)の見えていない部分が見えていることになり、こ
れらの点付近の、特に左側では、画像I(k)、I(k
+1)の間の差が大きい。また、これらの点の右側付近
においては、両方の画像で同じものが見えているため、
画像I(k)、I(k+1)の差は小さいことになる。
Here, E (x, y) is the coordinates (x, y) of the image.
The amount of parallax in y), Threshold, is an appropriate threshold. This corresponds to a white circle in the image in FIG.
These dot sequences show the right outline of the subject and the image I
On the left side of the corresponding position on (k + 1), the image I
Invisible parts of (k) are visible, and the images I (k) and I (k) near these points, especially on the left side,
+1) is large. Also, near the right of these points, the same thing is visible in both images,
The difference between the images I (k) and I (k + 1) is small.

【0078】請求項2における接合線の抽出方法は、以
上を考慮して、求めた視差変化の大きい点列から、なる
べく同一の視差をもつ点を抽出し、つまり、カメラに近
く、同一の物体の輪郭線を抽出し、それを接合線とする
方法である。また、図11(e)のように上下にそれら
の視差変化の大きい箇所がない場合はそれらに、最も近
い輪郭線の端から画像の上端又は、下端に下ろした線を
接合線とする。
In the joint line extraction method according to the second aspect, in consideration of the above, a point having the same parallax as much as possible is extracted from the obtained point sequence having a large change in parallax. Is a method of extracting the contour line of, and using it as a joining line. In addition, when there is no portion where the parallax change is large above and below as shown in FIG. 11E, a line drawn from the edge of the closest contour line to the upper end or the lower end of the image is set as the joining line.

【0079】請求項3における接合線の抽出方法は、同
様に求めた視差変化の大きい点列で、オーバーラップ領
域内でのある閾値Thresholdを越える最もオーバーラッ
プ領域側の画像端に近い点列、つまりここでは最も右側
の点列を結ぶ線を接合線L(k)とする方法である(図
12(i)を参照)。
According to a third aspect of the present invention, there is provided a method for extracting a joint line, comprising: a point sequence having a large parallax change, which is obtained in the same manner, and which is closer to the end of the image on the side of the overlap region exceeding a certain threshold Threshold in the overlap region; That is, in this case, the line connecting the rightmost point sequence is set as the joining line L (k) (see FIG. 12 (i)).

【0080】請求項4における接合線の抽出方法は、以
下の通りである。前記請求項2及び請求項3における接
合線の抽出方法は、画像I(k+1)を基準にして、左
から右への視差変化の大きい点列を求めることにより、
同様に適応出来る。すなわち、2つの方法で画像I
(k)、画像I(k+1)から接合線を求めることによ
り、複数の接合線の候補が求められる。閾値Threshold
の値を変更することで更に複数の接合線の候補が得られ
る。それらをLi(k),i=1,2,…とする(図1
3(I)、(II)を参照)。
A method for extracting a joint line according to claim 4 is as follows. In the method for extracting a joint line according to the second and third aspects, a point sequence having a large parallax change from left to right is obtained based on the image I (k + 1).
It can be adapted as well. That is, the image I is
(K) By obtaining a joint line from the image I (k + 1), a plurality of joint line candidates are obtained. Threshold
By changing the value of, a plurality of joining line candidates can be obtained. Let them be L i (k), i = 1, 2,.
3 (I), (II)).

【0081】接合線候補Li(k),i=1,2,…で
最も最適なのものは、以下の値が最も小さくなる接合線
となる。
The most optimal connection line candidate L i (k), i = 1, 2,... Is a connection line having the following values which are the smallest.

【0082】[0082]

【数6】 (Equation 6)

【0083】ここで、Cは接合線Li(k)上の経路
で、Li(k)(x,y)は画像I(k)における接合
線Li(k)上の点(x,y)での輝度値(或いは、R
GBのそれぞれの値のベクトル)、Li’(k)
(x’,y’)は画像I(k+1)における接合線Li
(k)上の画像I(k)における点(x,y)に対応す
る点(x’,y’)上での輝度値(或いは、RGBのそ
れぞれの値のベクトル)である。上式を最小にする接合
線候補Li(k)を求め、それを接合線とする(図13
(III)を参照)。以上のように求めた接合線L
(k)を、RAM112の所定アドレスに順次書き出し
て終了する。
Here, C is a path on the joining line L i (k), and L i (k) (x, y) is a point (x, y) on the joining line L i (k) in the image I (k). y) (or R
Vector of each value of GB), L i ′ (k)
(X ', y') joint line in the image I (k + 1) L i
It is a luminance value (or a vector of each value of RGB) on a point (x ′, y ′) corresponding to the point (x, y) in the image I (k) on (k). A joining line candidate L i (k) that minimizes the above equation is obtained and is set as a joining line (FIG. 13).
(III)). The joining line L obtained as described above
(K) is sequentially written to a predetermined address of the RAM 112, and the processing is terminated.

【0084】画像I(k)、画像I(k+1)の接合線
決定処理が終わったら、カウンタkを1増やし、カウン
タkと画像枚数とを比較する。カウンタkが画像枚数よ
り小ならば、画像I(k)、画像I(k+1)に対する
接合線決定処理を行なう。カウンタkが画像枚数以上な
らば、接合線決定処理部108’は、タイミング制御部
111に対して接合線決定処理の終了を通知する終了信
号を送信して処理を終了する。
When the joining line determination processing of the images I (k) and I (k + 1) is completed, the counter k is incremented by 1, and the counter k is compared with the number of images. If the counter k is smaller than the number of images, a joining line determination process is performed on the images I (k) and I (k + 1). If the counter k is equal to or greater than the number of images, the joining line determination processing unit 108 'transmits an end signal notifying the end of the joining line determination process to the timing control unit 111, and ends the process.

【0085】タイミング制御部111は、接合線決定処
理部108’からの終了信号を受信すると、画像合成処
理部109’へ開始信号を送信し、画像合成処理部10
9’からの終了信号を受けるまで待ち状態に入る。
When the timing control unit 111 receives the end signal from the joining line determination processing unit 108 ′, it transmits a start signal to the image synthesis processing unit 109 ′, and
It enters a wait state until it receives an end signal from 9 '.

【0086】画像合成処理部109’は、タイミング制
御部111から開始信号を受けると、RAM112から
処理すべき画像枚数を読み出し記憶し、カウンタkを1
にセットする。次にカウンタkに対応した画像のフレー
ムメモリ102内のアドレスをRAM112から読み出
し、該アドレスからフレームメモリ102内の画像I
(k)を読み出す。カウンタkが1の場合には、画像I
(k)をフレームメモリ102の出力画像領域の所定位
置に書き込む。
Upon receiving the start signal from the timing control section 111, the image synthesis processing section 109 'reads out and stores the number of images to be processed from the RAM 112, and sets the counter k to 1
Set to. Next, the address of the image corresponding to the counter k in the frame memory 102 is read from the RAM 112, and the image I in the frame memory 102 is read from the address.
Read (k). If the counter k is 1, the image I
(K) is written in a predetermined position of the output image area of the frame memory 102.

【0087】カウンタkが1より大きい場合には、画像
I(k−1)との平行移動量M(k)と接合線L(k−
1)をRAM112から呼び出す。
When the counter k is larger than 1, the parallel movement amount M (k) with the image I (k-1) and the joint line L (k-
1) is called from the RAM 112.

【0088】画像I(k)をおく位置は、The position where the image I (k) is placed is

【0089】[0089]

【数7】 (Equation 7)

【0090】により得られる。また接合線も、Pk-1
けずらした位置に補正する。
Is obtained. Also, the joining line is corrected to a position shifted by P k−1 .

【0091】画像I(k)を合成メモリへコピーする
際、以下の条件で行ない、画像を合成する。
When copying the image I (k) to the combining memory, the image is combined under the following conditions.

【0092】・接合線Lk-1より左になる画素は書き込
まない。 ・接合線Lk-1の右wドット分は濃度平滑によって画像
I(k)とのスムージングを行なう。 ・接合線Lk-1の右wドット以降は画素をそのまま書き
込む。
Pixels to the left of the joining line L k-1 are not written. The right w dots of the joining line L k−1 are smoothed with the image I (k) by density smoothing. -Pixels are written as they are after the right w dot of the joining line Lk-1 .

【0093】ここで、wは適当な定数値である。このw
ドットで濃度平滑を行なうことで、接合がより自然にな
る。図11においては、図11(h)のようにマスクを
かけ、濃度平滑化を行なう領域を設け、図11(g)と
の合成により、図11(i)のような合成画像を生成す
ることになる。
Here, w is an appropriate constant value. This w
By performing density smoothing with dots, joining becomes more natural. In FIG. 11, a mask is applied as shown in FIG. 11 (h), a region for performing density smoothing is provided, and a combined image as shown in FIG. 11 (i) is generated by combining with FIG. 11 (g). become.

【0094】以上の処理が終わったら、カウンタkを1
増やし、カウンタkと画像枚数とを比較する。カウンタ
kが画像枚数以下ならば、更新した画像I(k)に対す
る前記処理を続けて行なう。カウンタkが画像枚数より
大ならば、画像合成処理部109’は、タイミング制御
部111に対して画像合成処理の終了を通知する終了信
号を送信して処理を終了する。
When the above processing is completed, the counter k is set to 1
Then, the counter k is compared with the number of images. If the counter k is equal to or smaller than the number of images, the above-described processing is continuously performed on the updated image I (k). If the counter k is larger than the number of images, the image synthesis processing unit 109 'transmits an end signal notifying the end of the image synthesis processing to the timing control unit 111, and ends the processing.

【0095】タイミング制御部111は、画像合成処理
部109’からの終了信号を受信すると、画像出力処理
部110へ開始信号を送信し、画像出力処理部110か
らの終了信号を受けるまで待ち状態に入る。
When the timing control section 111 receives the end signal from the image synthesis processing section 109 ', it transmits a start signal to the image output processing section 110 and waits until receiving the end signal from the image output processing section 110. enter.

【0096】画像出力処理部110は、タイミング制御
部111からの開始信号を受けとると、RAM112か
らフレームメモリ102内の出力画像アドレスを読み出
す。次に、画像出力装置103へ画像出力を開始するた
めの開始信号を送り、出力画像信号をフレームメモリ1
02から順次読み出し、画像出力装置103に出力す
る。出力画像を画像出力装置103から出力し終わる
と、画像出力処理部110は、タイミング制御部111
に対して画像出力処理の終了を通知する終了信号を送信
して処理を終了する。
Upon receiving the start signal from the timing control unit 111, the image output processing unit 110 reads the output image address in the frame memory 102 from the RAM 112. Next, a start signal for starting image output is sent to the image output device 103, and the output image signal is stored in the frame memory 1
02 and sequentially output to the image output device 103. When the output image has been output from the image output device 103, the image output processing unit 110
Then, an end signal for notifying the end of the image output processing is transmitted to the processing, and the processing is ended.

【0097】タイミング制御部111は、画像出力処理
部110からの終了信号を受信することで全てを終了す
る。
The timing control unit 111 receives the end signal from the image output processing unit 110, and ends all operations.

【0098】以上の一連の処理の流れにより、2枚の画
像のオーバーラップ領域内の視差の違いは、カメラに近
い被写体ほど大きく、そこで合成が行なわれるとずれ
や、2重になる原因となるが、カメラに近い被写体での
輪郭上に接合線を設けることにより、視差が大きく違う
部分で接合することが少なくなり、接合画像は、従来よ
りも自然になり、品質が向上する。
According to the flow of the series of processes described above, the difference in the parallax in the overlap area between the two images is larger for a subject closer to the camera, and if the composition is performed there, it causes a shift or a double. However, by providing a joining line on the contour of an object close to the camera, joining at a portion where the parallax is greatly different is reduced, and the joined image becomes more natural than before and the quality is improved.

【0099】また、本発明の請求項2、3、4に係る実
施形態では、画像中に動物体を含む画像であっても、視
差抽出において、それが視差として現れるために、同様
に高品質に接合が可能になる。以上、ここで挙げた実施
例は本発明の請求項2、3、4に係る実施例の一例であ
り、本発明の主旨を変えない限り、実施例の内容に限定
されるものではない。
In the embodiments according to claims 2, 3, and 4 of the present invention, even if an image includes a moving object in the image, the image appears as a parallax in parallax extraction. Can be joined. The embodiment described above is an example of the embodiment according to claims 2, 3 and 4 of the present invention, and is not limited to the content of the embodiment unless the gist of the present invention is changed.

【0100】また、本発明のパノラマ画像作成装置にお
いて、一連のパノラマ画像を作成する処理を実現するプ
ログラムは、フロッピーディスク、ハードディスク、磁
気テープ、CD−ROM/光ディスク/光磁気ディス
ク、MD等のメディア、及びROM/RAMメモリ等の
記録媒体に格納される以下の内容である。
Further, in the panoramic image creating apparatus of the present invention, a program for realizing a process of creating a series of panoramic images includes a medium such as a floppy disk, a hard disk, a magnetic tape, a CD-ROM / optical disk / magneto-optical disk, and an MD. And the following contents stored in a recording medium such as a ROM / RAM memory.

【0101】格納されるプログラム内容の一例として
は、複数の撮像手段により、或いは、撮像手段を複数回
移動して、撮像画像の一部をオーバーラップさせて撮影
して得られた分割画像を、画像入力処理手段は撮像手段
に対して指示して取り込みを行わせると共に、記憶手段
に対して記憶先アドレスを指示して取り込まれた前記分
割画像を記憶手段に記憶させ、画像位置計算手段には前
記分割画像の合成位置を計算させ、視差情報抽出手段に
は隣接する前記分割画像間のオーバーラップ領域内の視
差を含んだ画像から画像間の視差情報を抽出させ、中間
画像作成手段には前記オーバーラップ領域内の視差を含
んだ画像から複数の中間画像を作成させ、画像合成手段
には前記分割画像からパノラマ画像を合成させ、その
際、前記視差情報抽出手段において前記オーバーラップ
領域の画像のずれを補正すると共に、前記中間画像作成
手段で作成した中間画像で補間してパノラマ画像を合成
する動作を実行させるものである。
As an example of the stored program contents, a divided image obtained by photographing with a plurality of image pickup means or by moving the image pickup means a plurality of times and overlapping a part of the picked-up images, The image input processing means instructs the imaging means to perform the capture, and instructs the storage means to specify the storage destination address to store the captured divided image in the storage means. Calculating the combined position of the divided images, causing the disparity information extracting means to extract the disparity information between the images from the image including the disparity in the overlap area between the adjacent divided images, and allowing the intermediate image creating means to A plurality of intermediate images are created from an image including parallax in the overlap area, and a panoramic image is synthesized from the divided images by an image synthesizing unit. Together to correct the deviation of the image of the overlap region in the stage, it is intended to execute the operation for synthesizing a panoramic image by interpolating an intermediate image created in the intermediate image creating unit.

【0102】また、格納されるプログラム内容の別の一
例としては、複数の撮像手段により、或いは、撮像手段
を複数回移動して、撮像画像の一部をオーバーラップさ
せて撮影して得られた分割画像を、画像入力処理手段は
撮像手段に対して指示して取り込みを行わせると共に、
記憶手段に対して記憶先アドレスを指示して取り込まれ
た前記分割画像を記憶手段に記憶させ、画像位置計算手
段には前記分割画像の合成位置を計算させ、視差情報抽
出手段には隣接する前記分割画像間のオーバーラップ領
域内の視差を含んだ画像から画像間の視差情報を抽出さ
せ、接合線決定手段には前記視差情報抽出手段によって
得られた奥行き情報に基づいて、前記オーバーラップ領
域の画像の撮像手段に最も近い被写体の輪郭上に接合線
を設定させ、画像合成手段には前記分割画像からパノラ
マ画像を合成させ、その際、前記視差情報抽出手段にお
いて前記オーバーラップ領域の画像のずれを補正すると
共に、前記接合線決定手段によって求められた接合線に
基づいて、分割画像を接合することでパノラマ画像を合
成する動作を実行させるものである。
Another example of the stored program contents is obtained by photographing with a plurality of image pickup means or moving the image pickup means a plurality of times and overlapping a part of the picked-up images. The image input processing means instructs the imaging means to capture the divided images,
The storage unit instructs a storage destination address to instruct the storage destination address and stores the captured divided image in the storage unit, the image position calculation unit calculates the combined position of the divided image, and the disparity information extraction unit Parallax information between the images is extracted from the image including the parallax in the overlap region between the divided images, and the joining line determination unit determines the overlap region of the overlap region based on the depth information obtained by the parallax information extraction unit. A joining line is set on the contour of the subject closest to the image capturing means, and a panoramic image is synthesized from the divided images by the image synthesizing means. At this time, the image of the overlap area is shifted by the parallax information extracting means. And performing an operation of synthesizing a panoramic image by joining the divided images based on the joining line determined by the joining line determining means. It is intended to.

【0103】尚、ここで挙げた内容例は本発明の請求項
5、6に係る実施例の一例であり、本発明の主旨を変え
ない限り、上記内容に限定されるものではない。
The above contents are only examples of the embodiments according to claims 5 and 6 of the present invention, and are not limited to the above contents unless the gist of the present invention is changed.

【0104】以上、本発明におけるプログラムは、上記
記録媒体を用いることで、パーソナルコンピュータ、携
帯情報端末、カメラ一体型画像処理装置などの各種情報
機器においても使用出来るものである。
As described above, the program according to the present invention can be used in various information devices such as a personal computer, a portable information terminal, and a camera-integrated image processing device by using the recording medium.

【0105】[0105]

【発明の効果】以上のように本発明のパノラマ画像作成
装置では、各請求項において以下の効果が得られる。
As described above, the panoramic image creating apparatus of the present invention has the following effects in each claim.

【0106】本発明の請求項1及び請求項5において
は、被写体の奥行きに起因する視差を画像間のオーバラ
ップ内で計算により求め、それをもとに画像の取られた
位置を補間する中間画像を用いてオーバーラップ内の画
像を補間することにより、被写体の奥行きによる視差が
ある場合においても、従来より自然なパノラマ画像が生
成出来る効果が得られる。
According to the first and fifth aspects of the present invention, the parallax due to the depth of the subject is calculated by calculation within the overlap between the images, and an intermediate position for interpolating the position where the image is taken based on the calculated parallax. By interpolating the images in the overlap using the images, the effect of generating a more natural panoramic image than before can be obtained even when there is parallax due to the depth of the subject.

【0107】本発明の請求項2及び請求項6において
は、被写体の奥行きに起因する視差や、動物体を画像間
のオーバラップ内で計算により求め、それをもとに両画
像間での物体の奥行きの差が大きい場所を含まないよう
な画像のラインを接合ラインとして用いることにより、
被写体の奥行きによる視差がある場合や、動物体を含む
場合においても、従来より品質が良く、歪みの少ない自
然なパノラマ画像が生成出来る効果が得られる。
According to the second and sixth aspects of the present invention, the parallax caused by the depth of the subject and the moving object are obtained by calculation within the overlap between the images, and the object between the two images is obtained based on the calculation. By using a line of an image that does not include a place where the depth difference is large as a joining line,
Even when there is a parallax due to the depth of the subject or when a moving object is included, the effect of generating a natural panoramic image with higher quality and less distortion than before can be obtained.

【0108】本発明の請求項3においては、近くの被写
体が複雑な形状である場合など、前記請求項2の発明で
は、接合線がうまく求められない場合でも、比較的近い
被写体の集合の輪郭で接合線を設けることで、品質が良
く、歪みの少ない自然なパノラマ画像が生成出来る効果
が得られる。
According to a third aspect of the present invention, even when a nearby subject has a complicated shape, the contour of a set of relatively close subjects can be obtained even when a joint line cannot be determined well. By providing the joining line in the above, an effect that a natural panoramic image with good quality and little distortion can be generated can be obtained.

【0109】本発明の請求項4においては、オーバーラ
ップ内の被写体の位置によっては、前記請求項2及び請
求項3の発明で、基準とする画像を常に1方向に固定し
てはうまくいかない場合があり、その場合、基準とする
画像の選択と、前記請求項2及び請求項3の発明での接
合線決定方法の組み合わせによって作成される複数の接
合線の候補を選び出し、それらの中から、接合線上での
画像間の差が最も小さくなる最適な接合線を選び出すこ
とにより、より安定に品質が良く、歪みの少ない自然な
パノラマ画像が生成出来る効果が得られる。
According to the fourth aspect of the present invention, depending on the position of the subject in the overlap, it may not be successful if the reference image is always fixed in one direction in the second and third aspects of the present invention. Yes, in this case, a plurality of joining line candidates created by combining the selection of a reference image and the joining line determination method according to the second and third aspects of the present invention are selected, and a joining line is selected from them. By selecting the optimal joint line that minimizes the difference between the images on the line, an effect is obtained in which a natural panoramic image with higher quality and less distortion can be generated more stably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の請求項1における実施形態の一実施例
を説明するブロック図である。
FIG. 1 is a block diagram illustrating an example of an embodiment according to claim 1 of the present invention.

【図2】本発明の請求項2における実施形態の一実施例
を説明するブロック図である。
FIG. 2 is a block diagram illustrating an example of an embodiment according to claim 2 of the present invention.

【図3】本発明の請求項1における実施形態でのRAM
の一構成例を示した説明図である。
FIG. 3 is a RAM according to the first embodiment of the present invention;
FIG. 4 is an explanatory diagram showing an example of the configuration of FIG.

【図4】カメラの移動、或いは、複数のカメラによるオ
ーバーラップ領域を持たせた画像撮影の様子を示した説
明図である。
FIG. 4 is an explanatory diagram showing a state of moving a camera or capturing an image having an overlap area by a plurality of cameras.

【図5】図4で撮影された画像であって、奥行きの違い
によってオーバーラップ内の画像が一致しないことを示
した説明図である。
5 is an explanatory diagram showing that the images captured in FIG. 4 do not match in the overlap due to a difference in depth. FIG.

【図6】視差抽出を行なうためのマッチングの様子を示
した説明図である。
FIG. 6 is an explanatory diagram showing a state of matching for performing parallax extraction.

【図7】中間画像の作成の様子を示した説明図である。FIG. 7 is an explanatory diagram showing a state of creating an intermediate image.

【図8】本発明の請求項1における実施形態の処理の手
順を示した説明図である。
FIG. 8 is an explanatory diagram showing a procedure of a process according to the first embodiment of the present invention.

【図9】本発明の請求項1及び請求項2において画像位
置を求める様子を示した説明図である。
FIG. 9 is an explanatory diagram showing a state in which an image position is obtained in claims 1 and 2 of the present invention.

【図10】画像間のマッチングのずれ量とカメラからの
奥行きとの関係を示した説明図である。
FIG. 10 is an explanatory diagram showing a relationship between a matching shift amount between images and a depth from a camera.

【図11】本発明の請求項2における実施形態の処理の
手順を示した説明図である。
FIG. 11 is an explanatory diagram showing a procedure of a process according to an embodiment of the present invention.

【図12】本発明の請求項3における接合線の決定の様
子を示した説明図である。
FIG. 12 is an explanatory diagram showing a state of determining a joining line according to claim 3 of the present invention.

【図13】本発明の請求項4における接合線の決定の様
子を示した説明図である。
FIG. 13 is an explanatory diagram showing how a joint line is determined according to claim 4 of the present invention.

【図14】未定義画素の周囲からの補間方法の様子を示
した説明図である。
FIG. 14 is an explanatory diagram showing a state of an interpolation method from around undefined pixels.

【符号の説明】[Explanation of symbols]

101 画像入力装置 102 フレームメモリ 103 画像出力装置 104 画像入力処理部 105 画像前処理部 106 画像位置計算部 107 画像視差抽出処理部 108 中間画像生成処理部 109 画像合成処理部 110 画像出力処理部 111 タイミング制御部 112 RAM 107’ 画像視差抽出処理部 108’ 接合線決定処理部 109’ 画像合成処理部 Reference Signs List 101 Image input device 102 Frame memory 103 Image output device 104 Image input processing unit 105 Image preprocessing unit 106 Image position calculation unit 107 Image parallax extraction processing unit 108 Intermediate image generation processing unit 109 Image synthesis processing unit 110 Image output processing unit 111 Timing Control unit 112 RAM 107 'Image parallax extraction processing unit 108' Join line determination processing unit 109 'Image synthesis processing unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の撮像手段により、或いは、撮像手
段を複数回移動して、撮像画像の一部をオーバーラップ
させて撮影し、得られた分割画像をつなぎ合わせてパノ
ラマ画像を作成するためのパノラマ画像作成装置であっ
て、 前記撮像手段と、 前記撮像手段から入力された分割画像を記憶する記憶手
段と、 前記撮像手段に対して前記分割画像の取り込みを指示す
ると共に、前記記憶手段に対しては、前記取り込まれた
分割画像の記憶先アドレスを指示する画像入力処理手段
と、 前記分割画像の合成位置を計算する画像位置計算手段
と、 隣接する前記分割画像間のオーバーラップ領域内の視差
を含んだ画像から、画像間の視差情報を抽出する視差情
報抽出手段と、 前記オーバーラップ領域内の視差を含んだ画像から複数
の中間画像を作成する中間画像作成手段と、 前記分割画像からパノラマ画像を合成する画像合成手段
とを備え、 前記オーバーラップ領域の画像のずれを前記視差情報抽
出手段で補正すると共に、前記中間画像作成手段で作成
した中間画像で補間してパノラマ画像を合成することを
特徴とするパノラマ画像作成装置。
1. A panoramic image is created by a plurality of image pickup means or by moving an image pickup means a plurality of times, taking a part of the picked-up images while overlapping them, and joining the obtained divided images together. A panoramic image creating apparatus, wherein the imaging unit; a storage unit configured to store the divided image input from the imaging unit; and an instruction to capture the divided image to the imaging unit. Image input processing means for designating a storage destination address of the captured divided image; image position calculating means for calculating a combined position of the divided images; and A disparity information extracting unit configured to extract disparity information between the images from the image including the disparity; and generating a plurality of intermediate images from the images including the disparity in the overlap region. Intermediate image creating means, and an image synthesizing means for synthesizing a panoramic image from the divided images, wherein the displacement of the image in the overlap area is corrected by the parallax information extracting means and created by the intermediate image creating means. A panoramic image creating apparatus, which synthesizes a panoramic image by interpolating with an intermediate image.
【請求項2】 複数の撮像手段により、或いは、撮像手
段を複数回移動して、撮像画像の一部をオーバーラップ
させて撮影し、得られた分割画像をつなぎ合わせてパノ
ラマ画像を作成するためのパノラマ画像作成装置であっ
て、 前記撮像手段と、 前記撮像手段から入力された分割画像を記憶する記憶手
段と、 前記撮像手段に対して前記分割画像の取り込みを指示す
ると共に、前記記憶手段に対しては、前記取り込まれた
分割画像の記憶先アドレスを指示する画像入力処理手段
と、 前記分割画像の合成位置を計算する画像位置計算手段
と、 隣接する前記分割画像間のオーバーラップ領域内の視差
を含んだ画像から、画像間の視差情報を抽出する視差情
報抽出手段と、 前記視差情報抽出手段によって得られた奥行き情報に基
づいて、前記オーバーラップ領域の画像の撮像手段に最
も近い被写体の輪郭上に接合線を設定する接合線決定手
段と、 前記分割画像からパノラマ画像を合成する画像合成手段
とを備え、 前記オーバーラップ領域の画像のずれを前記視差情報抽
出手段で補正すると共に、前記接合線決定手段によって
求められた接合線に基づいて、分割画像を接合すること
を特徴とするパノラマ画像作成装置。
2. A panoramic image is created by a plurality of image pickup means or by moving the image pickup means a plurality of times so that a part of the picked-up images are photographed with overlapping, and the obtained divided images are joined together. A panoramic image creating apparatus, wherein the imaging unit; a storage unit configured to store the divided image input from the imaging unit; and an instruction to capture the divided image to the imaging unit. Image input processing means for designating a storage destination address of the captured divided image; image position calculating means for calculating a combined position of the divided images; and A disparity information extracting unit that extracts disparity information between the images from the image including the disparity, based on the depth information obtained by the disparity information extracting unit, A joining line determining unit that sets a joining line on the contour of the subject closest to the image capturing unit of the image of the overlap area; and an image combining unit that combines a panoramic image from the divided images. Is corrected by the parallax information extracting means, and the divided images are joined based on the joining lines obtained by the joining line determining means.
【請求項3】 請求項2記載のパノラマ画像作成装置に
おいて、 前記接合線決定手段は、前記オーバーラップ領域の画像
の撮像手段に最も近い被写体のオーバーラップ領域側の
画像端に最も近い輪郭に接合線を設定することを特徴と
するパノラマ画像作成装置。
3. The panoramic image creating apparatus according to claim 2, wherein the joining line determining unit joins a contour closest to an image edge on the overlapping region side of a subject closest to the image capturing unit of the image of the overlapping region. A panoramic image creation device, wherein a line is set.
【請求項4】 請求項2又は、請求項3記載のパノラマ
画像作成装置において、 前記接合線決定手段は、前記オーバーラップ領域内にお
いて、接合線決定時における基準画像の選択と、前記接
合線決定方法の組み合わせによる複数の接合線の中か
ら、最適な接合線を選出して分割画像を接合することを
特徴とするパノラマ画像作成装置。
4. The panoramic image creating apparatus according to claim 2, wherein the joining line determining means selects a reference image at the time of determining a joining line and determines the joining line in the overlap area. A panoramic image creating apparatus, wherein an optimum joining line is selected from a plurality of joining lines by a combination of methods, and the divided images are joined.
【請求項5】 複数の撮像手段により、或いは、撮像手
段を複数回移動して、撮像画像の一部をオーバーラップ
させて撮影し、得られた分割画像をつなぎ合わせてパノ
ラマ画像を作成するためのプログラムであり、 画像入力処理手段は撮像手段に対して指示して分割画像
の取り込みを行わせると共に、記憶手段に対して記憶先
アドレスを指示して取り込まれた前記分割画像を記憶手
段に記憶させ、 画像位置計算手段には前記分割画像の合成位置を計算さ
せ、 視差情報抽出手段には隣接する前記分割画像間のオーバ
ーラップ領域内の視差を含んだ画像から画像間の視差情
報を抽出させ、 中間画像作成手段には前記オーバーラップ領域内の視差
を含んだ画像から複数の中間画像を作成させ、 画像合成手段には前記分割画像からパノラマ画像を合成
させ、 その際、前記視差情報抽出手段において前記オーバーラ
ップ領域の画像のずれを補正すると共に、前記中間画像
作成手段で作成した中間画像で補間してパノラマ画像を
合成する動作を実行させるプログラムを格納した記録媒
体。
5. A panorama image is created by a plurality of image pickup means or by moving the image pickup means a plurality of times to shoot a part of the picked-up images while overlapping them, and joining the obtained divided images together. The image input processing means instructs the imaging means to capture the divided image, and instructs the storage means to specify the storage destination address and stores the captured divided image in the storage means. Causing the image position calculating means to calculate the combined position of the divided images; and causing the disparity information extracting means to extract the disparity information between the images from the image including the disparity in the overlap region between the adjacent divided images. The intermediate image creating means creates a plurality of intermediate images from the image including the parallax in the overlap area, and the image synthesizing means combines the panoramic images from the divided images. At this time, a program for causing the parallax information extracting means to correct a shift of the image in the overlap area and to execute an operation of synthesizing a panoramic image by interpolating with the intermediate image created by the intermediate image creating means is stored. Recording medium.
【請求項6】 複数の撮像手段により、或いは、撮像手
段を複数回移動して、撮像画像の一部をオーバーラップ
させて撮影し、得られた分割画像をつなぎ合わせてパノ
ラマ画像を作成するためのプログラムであり、 画像入力処理手段は撮像手段に対して指示して分割画像
の取り込みを行わせると共に、記憶手段に対して記憶先
アドレスを指示して取り込まれた前記分割画像を記憶手
段に記憶させ、 画像位置計算手段には前記分割画像の合成位置を計算さ
せ、 視差情報抽出手段には隣接する前記分割画像間のオーバ
ーラップ領域内の視差を含んだ画像から画像間の視差情
報を抽出させ、 接合線決定手段には前記視差情報抽出手段によって得ら
れた奥行き情報に基づいて、前記オーバーラップ領域の
画像の撮像手段に最も近い被写体の輪郭上に接合線を設
定させ、 画像合成手段には前記分割画像からパノラマ画像を合成
させ、 その際、前記視差情報抽出手段において前記オーバーラ
ップ領域の画像のずれを補正すると共に、前記接合線決
定手段によって求められた接合線に基づいて、分割画像
を接合することでパノラマ画像を合成する動作を実行さ
せるプログラムを格納した記録媒体。
6. A panoramic image is created by a plurality of image pickup means or by moving the image pickup means a plurality of times to shoot a part of the picked-up images while overlapping, and joining the obtained divided images together. The image input processing means instructs the imaging means to capture the divided image, and instructs the storage means to specify the storage destination address and stores the captured divided image in the storage means. Causing the image position calculating means to calculate the combined position of the divided images; and causing the disparity information extracting means to extract the disparity information between the images from the image including the disparity in the overlap region between the adjacent divided images. Based on the depth information obtained by the parallax information extracting means, the joining line determining means on the contour of the subject closest to the imaging means of the image of the overlap area. A merging line is set, and a panoramic image is synthesized from the divided images by the image synthesizing unit. At this time, the parallax information extracting unit corrects the image shift in the overlap area and obtains the image by the joining line determining unit. A recording medium storing a program for executing an operation of synthesizing a panoramic image by joining divided images based on the obtained joining line.
JP9269427A 1996-10-17 1997-10-02 Panorama image generator and recording medium Pending JPH10178564A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP9269427A JPH10178564A (en) 1996-10-17 1997-10-02 Panorama image generator and recording medium
DE69713243T DE69713243T2 (en) 1996-10-17 1997-10-16 Image forming apparatus
EP97117985A EP0837428B1 (en) 1996-10-17 1997-10-16 Picture image forming apparatus
US08/951,713 US6005987A (en) 1996-10-17 1997-10-16 Picture image forming apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP27432696 1996-10-17
JP8-274326 1996-10-17
JP9269427A JPH10178564A (en) 1996-10-17 1997-10-02 Panorama image generator and recording medium

Publications (1)

Publication Number Publication Date
JPH10178564A true JPH10178564A (en) 1998-06-30

Family

ID=26548762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9269427A Pending JPH10178564A (en) 1996-10-17 1997-10-02 Panorama image generator and recording medium

Country Status (4)

Country Link
US (1) US6005987A (en)
EP (1) EP0837428B1 (en)
JP (1) JPH10178564A (en)
DE (1) DE69713243T2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244814A (en) * 1999-02-24 2000-09-08 Hitachi Ltd Image synthesizing apparatus and recording medium on which image synthesizing method is recorded
JP2002208005A (en) * 2001-01-12 2002-07-26 Minolta Co Ltd Image processing apparatus, image processing method, image processing program, and computer-readable recording medium storing image processing program
US6587597B1 (en) 1999-01-21 2003-07-01 Nec Corporation Image input method, image input apparatus, and recording medium
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Photographing apparatus
US7324135B2 (en) 2002-10-15 2008-01-29 Seiko Epson Corporation Panoramic composition of multiple image data
JP2008252716A (en) * 2007-03-30 2008-10-16 Nikon Corp Imaging device
KR101030435B1 (en) 2009-08-07 2011-04-20 포항공과대학교 산학협력단 Real-time mosaic image generation for images with parallax and moving objects
KR101065339B1 (en) 2008-07-02 2011-09-16 삼성전자주식회사 Split shooting method between mobile device and mobile device
JP2012182582A (en) * 2011-02-28 2012-09-20 Olympus Imaging Corp Imaging apparatus
CN102694972A (en) * 2011-03-24 2012-09-26 卡西欧计算机株式会社 Device and method including function for reconstituting image
JP2013183353A (en) * 2012-03-02 2013-09-12 Toshiba Corp Image processor
JP2014149798A (en) * 2013-02-04 2014-08-21 Casio Comput Co Ltd Image processor, imaging device, imaging processing method and program
CN104255026A (en) * 2012-05-11 2014-12-31 索尼公司 Image processing apparatus and image processing method
US9652856B2 (en) 2014-08-12 2017-05-16 Ricoh Company, Ltd. Image processing system, image processing apparatus, and image capturing system
JP2018026744A (en) * 2016-08-12 2018-02-15 日本電信電話株式会社 Panorama video information generation device, panorama video information generation method to be used therefor, and program for panorama video information generation
JP2018142963A (en) * 2018-03-27 2018-09-13 パナソニックIpマネジメント株式会社 Image processing system, image processing device, and image processing method
JP2020525912A (en) * 2017-07-06 2020-08-27 ヒューマンアイズ テクノロジーズ リミテッド System and method for adaptively stitching digital images

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU3062697A (en) 1996-05-10 1997-12-05 Applied Science Fiction, Inc. Luminance-priority color sensor
US6069714A (en) 1996-12-05 2000-05-30 Applied Science Fiction, Inc. Method and apparatus for reducing noise in electronic film development
US6442301B1 (en) 1997-01-06 2002-08-27 Applied Science Fiction, Inc. Apparatus and method for defect channel nulling
US6380539B1 (en) 1997-01-30 2002-04-30 Applied Science Fiction, Inc. Four color trilinear CCD scanning
US6017688A (en) 1997-01-30 2000-01-25 Applied Science Fiction, Inc. System and method for latent film recovery in electronic film development
JPH114398A (en) * 1997-06-11 1999-01-06 Hitachi Ltd Digital wide camera
US6215914B1 (en) * 1997-06-24 2001-04-10 Sharp Kabushiki Kaisha Picture processing apparatus
US6611629B2 (en) 1997-11-03 2003-08-26 Intel Corporation Correcting correlation errors in a composite image
DE19855885A1 (en) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Image processing method for digital photographic copier providing photographic prints
US6720997B1 (en) * 1997-12-26 2004-04-13 Minolta Co., Ltd. Image generating apparatus
JPH11205648A (en) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd Image synthesizing device
EP1053644A1 (en) 1998-02-04 2000-11-22 Applied Science Fiction, Inc. Multilinear array sensor with an infrared line
EP1086577B1 (en) 1998-02-23 2002-09-18 Applied Science Fiction, Inc. Progressive area scan in electronic film development
AU2990399A (en) 1998-03-13 1999-09-27 Applied Science Fiction, Inc. Image defect correction method
US6486908B1 (en) * 1998-05-27 2002-11-26 Industrial Technology Research Institute Image-based method and system for building spherical panoramas
US6674485B2 (en) 1998-08-31 2004-01-06 Hitachi Software Engineering Co., Ltd. Apparatus and method for image compositing
US6384936B1 (en) * 1998-10-26 2002-05-07 Hewlett-Packard Company Printer effort reduction through caching and reduction
US6594041B1 (en) 1998-11-20 2003-07-15 Applied Science Fiction, Inc. Log time processing and stitching system
US6437358B1 (en) 1999-02-04 2002-08-20 Applied Science Fiction, Inc. Apparatus and methods for capturing defect data
US6404516B1 (en) 1999-02-22 2002-06-11 Applied Science Fiction, Inc. Parametric image stitching
US6781620B1 (en) 1999-03-16 2004-08-24 Eastman Kodak Company Mixed-element stitching and noise reduction system
US6443639B1 (en) 1999-06-29 2002-09-03 Applied Science Fiction, Inc. Slot coater device for applying developer to film for electronic film development
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
AU6914900A (en) 1999-08-17 2001-03-13 Applied Science Fiction, Inc. Method and system for using calibration patches in electronic film processing
WO2001015081A2 (en) * 1999-08-20 2001-03-01 Hebrew University Of Jerusalem System and method for rectified mosaicing of images recorded by a moving camera
US6487321B1 (en) 1999-09-16 2002-11-26 Applied Science Fiction Method and system for altering defects in a digital image
US6614946B1 (en) 1999-10-08 2003-09-02 Eastman Kodak Company System and method for correcting defects in digital images through selective fill-in from surrounding areas
AU1077101A (en) 1999-10-08 2001-04-23 Applied Science Fiction, Inc. Method and apparatus for differential illumination image-capturing and defect handling
US6924911B1 (en) 1999-10-12 2005-08-02 Eastman Kodak Company Method and system for multi-sensor signal detection
US6711302B1 (en) 1999-10-20 2004-03-23 Eastman Kodak Company Method and system for altering defects in digital image
US6865289B1 (en) * 2000-02-07 2005-03-08 Canon Kabushiki Kaisha Detection and removal of image occlusion errors
AU2054401A (en) 1999-12-17 2001-06-25 Applied Science Fiction, Inc. Method and system for selective enhancement of image data
US6683995B2 (en) 1999-12-23 2004-01-27 Eastman Kodak Company Method and apparatus for correcting large defects in digital images
US6704458B2 (en) 1999-12-29 2004-03-09 Eastman Kodak Company Method and apparatus for correcting heavily damaged images
US7164511B2 (en) * 1999-12-29 2007-01-16 Eastman Kodak Company Distinguishing positive and negative films system and method
US6813392B2 (en) 1999-12-30 2004-11-02 Eastman Kodak Company Method and apparatus for aligning multiple scans of the same area of a medium using mathematical correlation
AU2465001A (en) 1999-12-30 2001-07-16 Applied Science Fiction, Inc. System and method for digital color dye film processing
US6707557B2 (en) 1999-12-30 2004-03-16 Eastman Kodak Company Method and system for estimating sensor dark current drift and sensor/illumination non-uniformities
WO2001050194A1 (en) 1999-12-30 2001-07-12 Applied Science Fiction, Inc. System and method for digital film development using visible light
US6788335B2 (en) 1999-12-30 2004-09-07 Eastman Kodak Company Pulsed illumination signal modulation control & adjustment method and system
US6720560B1 (en) 1999-12-30 2004-04-13 Eastman Kodak Company Method and apparatus for scanning images
WO2001050193A1 (en) 1999-12-30 2001-07-12 Applied Science Fiction, Inc. Improved system and method for digital film development using visible light
US6965692B1 (en) 1999-12-30 2005-11-15 Eastman Kodak Company Method and apparatus for improving the quality of reconstructed information
US6554504B2 (en) 1999-12-30 2003-04-29 Applied Science Fiction, Inc. Distributed digital film processing system and method
US6447178B2 (en) 1999-12-30 2002-09-10 Applied Science Fiction, Inc. System, method, and apparatus for providing multiple extrusion widths
US6862117B1 (en) 1999-12-30 2005-03-01 Eastman Kodak Company Method and apparatus for reducing the effect of bleed-through on captured images
US6864973B2 (en) 1999-12-30 2005-03-08 Eastman Kodak Company Method and apparatus to pre-scan and pre-treat film for improved digital film processing handling
US6664034B2 (en) 1999-12-31 2003-12-16 Eastman Kodak Company Digital film processing method
US6475711B1 (en) 1999-12-31 2002-11-05 Applied Science Fiction, Inc. Photographic element and digital film processing method using same
WO2001057797A2 (en) 2000-02-03 2001-08-09 Applied Science Fiction Method, system and software for signal processing using sheep and shepherd artifacts
JP2004514156A (en) 2000-02-03 2004-05-13 アプライド・サイエンス・フィクション Film processing liquid cartridge and method for developing and digitizing film
US6943920B2 (en) 2000-02-03 2005-09-13 Eastman Kodak Company Method, system, and software for signal processing using pyramidal decomposition
WO2001095028A2 (en) 2000-02-03 2001-12-13 Applied Science Fiction Method and system for self-service film processing
AU2001238021A1 (en) 2000-02-03 2001-08-14 Applied Science Fiction Match blur system and method
US6619863B2 (en) 2000-02-03 2003-09-16 Eastman Kodak Company Method and system for capturing film images
US8407595B1 (en) 2000-02-11 2013-03-26 Sony Corporation Imaging service for automating the display of images
US7810037B1 (en) * 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
US7136528B2 (en) 2000-02-11 2006-11-14 Sony Corporation System and method for editing digital images
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US6972796B2 (en) * 2000-02-29 2005-12-06 Matsushita Electric Industrial Co., Ltd. Image pickup system and vehicle-mounted-type sensor system
US7397949B2 (en) 2000-06-21 2008-07-08 Microsoft Corporation Serial storage of ink and its properties
US7006711B2 (en) 2000-06-21 2006-02-28 Microsoft Corporation Transform table for ink sizing and compression
JP2002112992A (en) * 2000-06-30 2002-04-16 Canon Inc Apparatus and method for processing signal, and imaging device
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
WO2002025928A2 (en) 2000-09-21 2002-03-28 Applied Science Fiction Dynamic image correction and imaging systems
US20020106134A1 (en) * 2000-09-22 2002-08-08 Dundon Thomas A. Multiple-orientation image defect detection and correction
AU2001293021A1 (en) * 2000-09-22 2002-04-02 Applied Science Fiction Lens focusing device, system and method for use with multiple light wavelengths
US6888997B2 (en) 2000-12-05 2005-05-03 Eastman Kodak Company Waveguide device and optical transfer system for directing light to an image plane
US6707473B2 (en) 2001-08-01 2004-03-16 Microsoft Corporation Dynamic rendering of ink strokes with transparency
EP1360551A2 (en) 2001-02-09 2003-11-12 Applied Science Fiction, Inc. Digital film processing solutions and method of digital film processing
JP3472273B2 (en) * 2001-03-07 2003-12-02 キヤノン株式会社 Image reproducing apparatus, image processing apparatus and method
US6987892B2 (en) * 2001-04-19 2006-01-17 Eastman Kodak Company Method, system and software for correcting image defects
DE10126790A1 (en) * 2001-06-01 2003-01-02 Micronas Munich Gmbh Method and device for displaying at least two images in an overall image
US7346229B2 (en) 2001-06-27 2008-03-18 Microsoft Corporation Transform table for ink sizing and compression
US7113633B2 (en) * 2001-07-02 2006-09-26 Photoinaphoto.Com, Inc. System and method for discovering and categorizing attributes of a digital image
JP4046957B2 (en) * 2001-07-05 2008-02-13 キヤノン株式会社 Imaging apparatus and control method thereof, information processing apparatus and method, and storage medium
US6805501B2 (en) 2001-07-16 2004-10-19 Eastman Kodak Company System and method for digital film development using visible light
US7168038B2 (en) * 2001-08-01 2007-01-23 Microsoft Corporation System and method for scaling and repositioning drawings
US6770863B2 (en) * 2001-10-26 2004-08-03 Agilent Technologies, Inc. Apparatus and method for three-dimensional relative movement sensing
JP3739693B2 (en) * 2001-11-09 2006-01-25 本田技研工業株式会社 Image recognition device
US7263240B2 (en) 2002-01-14 2007-08-28 Eastman Kodak Company Method, system, and software for improving signal quality using pyramidal decomposition
CN1312908C (en) 2002-04-17 2007-04-25 精工爱普生株式会社 Digital camera
JP2004015286A (en) 2002-06-05 2004-01-15 Seiko Epson Corp Digital camera
US7184609B2 (en) * 2002-06-28 2007-02-27 Microsoft Corp. System and method for head size equalization in 360 degree panoramic images
CN100369460C (en) * 2002-08-01 2008-02-13 精工爱普生株式会社 Digital camera
AU2003246268A1 (en) * 2002-08-09 2004-02-25 Sharp Kabushiki Kaisha Image combination device, image combination method, image combination program, and recording medium containing the image combination program
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US6928194B2 (en) * 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
US7215362B2 (en) * 2002-10-31 2007-05-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Auto-calibration of multi-projector systems
JP3945430B2 (en) * 2003-03-19 2007-07-18 コニカミノルタホールディングス株式会社 Method for measuring object by image and imaging device
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US7027081B2 (en) * 2003-12-21 2006-04-11 Kremen Stanley H System and apparatus for recording, transmitting, and projecting digital three-dimensional images
US7609290B2 (en) * 2005-01-28 2009-10-27 Technology Advancement Group, Inc. Surveillance system and method
DE602006012705D1 (en) * 2005-09-12 2010-04-15 Trimble Jena Gmbh Surveying instrument and method for providing survey data using the survey instrument
US20070081081A1 (en) * 2005-10-07 2007-04-12 Cheng Brett A Automated multi-frame image capture for panorama stitching using motion sensor
FR2897163B1 (en) * 2006-02-08 2008-04-11 Thales Sa METHOD FOR GEO-LOCALIZATION OF ONE OR MORE TARGETS
US8417060B2 (en) * 2006-03-20 2013-04-09 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods for multi-point descriptors for image registrations
US20080065754A1 (en) * 2006-08-17 2008-03-13 Benhase Linda V System And Method For Dynamic Picture Generation In A Web Or Java Application
US7630367B2 (en) * 2006-09-01 2009-12-08 Wipro Limited Approach for fast IP address lookups
US8275215B2 (en) * 2007-05-08 2012-09-25 Arcsoft (Shanghai) Technology Company, Ltd Merging images
US8203764B2 (en) * 2007-06-27 2012-06-19 Lexmark International, Inc. Phased illumination method for image capture system
US8164600B2 (en) * 2007-12-06 2012-04-24 Barco Nv Method and system for combining images generated by separate sources
KR101473215B1 (en) * 2008-04-18 2014-12-17 삼성전자주식회사 Apparatus for generating panorama image and method therof
TWI408947B (en) * 2009-02-13 2013-09-11 Mstar Semiconductor Inc Image adjusting apparatus and image adjusting method
JP5235798B2 (en) * 2009-06-22 2013-07-10 富士フイルム株式会社 Imaging apparatus and control method thereof
GB2473247B (en) 2009-09-04 2015-02-11 Sony Corp A method and apparatus for image alignment
US8385689B2 (en) * 2009-10-21 2013-02-26 MindTree Limited Image alignment using translation invariant feature matching
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
CN102792333B (en) * 2010-03-19 2016-11-23 拉碧斯半导体株式会社 Image processing apparatus, method, program and record medium
TWI524752B (en) * 2010-05-03 2016-03-01 量宏科技股份有限公司 Device and method for high resolution image and video capture
US8723946B2 (en) * 2010-09-16 2014-05-13 Honda Motor Co., Ltd. Workpiece inspecting apparatus and workpiece inspecting method
JP5696419B2 (en) * 2010-09-30 2015-04-08 カシオ計算機株式会社 Image processing apparatus and method, and program
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
US8983121B2 (en) * 2010-10-27 2015-03-17 Samsung Techwin Co., Ltd. Image processing apparatus and method thereof
US8861890B2 (en) 2010-11-24 2014-10-14 Douglas Alan Lefler System and method for assembling and displaying individual images as a continuous image
TWI437476B (en) * 2011-02-24 2014-05-11 Au Optronics Corp Interactive stereo display system and method for calculating three dimensional coordinate
JP5561214B2 (en) * 2011-03-15 2014-07-30 オムロン株式会社 Image processing apparatus and image processing program
JP2012222674A (en) * 2011-04-12 2012-11-12 Sony Corp Image processing apparatus, image processing method, and program
EP2726937B1 (en) * 2011-06-30 2019-01-23 Nokia Technologies Oy Method, apparatus and computer program product for generating panorama images
JP5988213B2 (en) * 2011-11-28 2016-09-07 パナソニックIpマネジメント株式会社 Arithmetic processing unit
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
US20130258044A1 (en) * 2012-03-30 2013-10-03 Zetta Research And Development Llc - Forc Series Multi-lens camera
GB2506411B (en) 2012-09-28 2020-03-11 2D3 Ltd Determination of position from images and associated camera positions
NL2010213C2 (en) 2013-01-31 2014-08-04 Lely Patent Nv Camera system, animal related system therewith, and method to create 3d camera images.
DE102013211271A1 (en) * 2013-06-17 2014-12-18 Robert Bosch Gmbh System and method for joining pictures taken by means of a plurality of optical sensors
DE102014213536A1 (en) * 2014-07-11 2016-01-14 Bayerische Motoren Werke Aktiengesellschaft Merging partial images into an image of an environment of a means of transportation
JP6525570B2 (en) * 2014-12-04 2019-06-05 キヤノン株式会社 Image display system, control device, control method and program
US20160295108A1 (en) * 2015-04-01 2016-10-06 Cheng Cao System and method for panoramic imaging
JP6397801B2 (en) * 2015-06-30 2018-09-26 日立オートモティブシステムズ株式会社 Object detection device
US9875548B2 (en) * 2015-12-18 2018-01-23 Ricoh Co., Ltd. Candidate list generation
GB201620037D0 (en) * 2016-11-28 2017-01-11 Nokia Technologies Oy Imaging device and method
US20200294194A1 (en) * 2019-03-11 2020-09-17 Nvidia Corporation View synthesis using neural networks
AT527033B1 (en) * 2023-05-09 2024-10-15 Frequentis Ag Method for displaying and updating a panoramic image of a landscape

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3646336A (en) * 1964-09-04 1972-02-29 Itek Corp Correlation unit
US4602857A (en) * 1982-12-23 1986-07-29 James H. Carmel Panoramic motion picture camera and method
JPH03182976A (en) * 1989-12-11 1991-08-08 Sumitomo Metal Ind Ltd Joining method for digital picture
JP3045763B2 (en) * 1990-11-22 2000-05-29 旭光学工業株式会社 Camera system
US5465163A (en) * 1991-03-18 1995-11-07 Canon Kabushiki Kaisha Image processing method and apparatus for processing oversized original images and for synthesizing multiple images
JPH05122606A (en) * 1991-10-30 1993-05-18 Matsushita Electric Ind Co Ltd Method and device for synthesizing image
US5631697A (en) * 1991-11-27 1997-05-20 Hitachi, Ltd. Video camera capable of automatic target tracking
JP3238755B2 (en) * 1992-08-21 2001-12-17 富士通株式会社 Hologram creation and stereoscopic display method and stereoscopic display device
US5452105A (en) * 1992-11-19 1995-09-19 Sharp Kabushiki Kaisha Joint-portion processing device for image data for use in an image processing apparatus
FR2698699B1 (en) * 1992-11-30 1994-12-30 Peugeot Method for detecting contours in a mobile scene and device for implementing this method.
KR940017747A (en) * 1992-12-29 1994-07-27 에프. 제이. 스미트 Image processing device
EP0650299B1 (en) * 1993-10-20 1998-07-22 Laboratoires D'electronique Philips S.A.S. Method of processing luminance levels in a composite image and image processing system applying this method
US5764871A (en) * 1993-10-21 1998-06-09 Eastman Kodak Company Method and apparatus for constructing intermediate images for a depth image from stereo images using velocity vector fields
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
JPH09265056A (en) * 1995-07-14 1997-10-07 Pioneer Electron Corp Stereoscopic picture display device
US5825915A (en) * 1995-09-12 1998-10-20 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus in which the position of a planar object is estimated by using hough transform
AU5573698A (en) * 1997-01-30 1998-08-25 Yissum Research Development Company Of The Hebrew University Of Jerusalem Generalized panoramic mosaic

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587597B1 (en) 1999-01-21 2003-07-01 Nec Corporation Image input method, image input apparatus, and recording medium
JP2000244814A (en) * 1999-02-24 2000-09-08 Hitachi Ltd Image synthesizing apparatus and recording medium on which image synthesizing method is recorded
JP2002208005A (en) * 2001-01-12 2002-07-26 Minolta Co Ltd Image processing apparatus, image processing method, image processing program, and computer-readable recording medium storing image processing program
US7324135B2 (en) 2002-10-15 2008-01-29 Seiko Epson Corporation Panoramic composition of multiple image data
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Photographing apparatus
JP2008252716A (en) * 2007-03-30 2008-10-16 Nikon Corp Imaging device
KR101065339B1 (en) 2008-07-02 2011-09-16 삼성전자주식회사 Split shooting method between mobile device and mobile device
KR101030435B1 (en) 2009-08-07 2011-04-20 포항공과대학교 산학협력단 Real-time mosaic image generation for images with parallax and moving objects
JP2012182582A (en) * 2011-02-28 2012-09-20 Olympus Imaging Corp Imaging apparatus
CN102694972A (en) * 2011-03-24 2012-09-26 卡西欧计算机株式会社 Device and method including function for reconstituting image
JP2012205015A (en) * 2011-03-24 2012-10-22 Casio Comput Co Ltd Image processor and image processing method, and program
JP2013183353A (en) * 2012-03-02 2013-09-12 Toshiba Corp Image processor
CN104255026A (en) * 2012-05-11 2014-12-31 索尼公司 Image processing apparatus and image processing method
JP2014149798A (en) * 2013-02-04 2014-08-21 Casio Comput Co Ltd Image processor, imaging device, imaging processing method and program
US9652856B2 (en) 2014-08-12 2017-05-16 Ricoh Company, Ltd. Image processing system, image processing apparatus, and image capturing system
JP2018026744A (en) * 2016-08-12 2018-02-15 日本電信電話株式会社 Panorama video information generation device, panorama video information generation method to be used therefor, and program for panorama video information generation
JP2020525912A (en) * 2017-07-06 2020-08-27 ヒューマンアイズ テクノロジーズ リミテッド System and method for adaptively stitching digital images
JP2018142963A (en) * 2018-03-27 2018-09-13 パナソニックIpマネジメント株式会社 Image processing system, image processing device, and image processing method

Also Published As

Publication number Publication date
EP0837428A3 (en) 2000-01-05
DE69713243T2 (en) 2003-01-23
US6005987A (en) 1999-12-21
EP0837428B1 (en) 2002-06-12
EP0837428A2 (en) 1998-04-22
DE69713243D1 (en) 2002-07-18

Similar Documents

Publication Publication Date Title
JPH10178564A (en) Panorama image generator and recording medium
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4760973B2 (en) Imaging apparatus and image processing method
JP7093015B2 (en) Panorama video compositing device, panoramic video compositing method, and panoramic video compositing program
US7672538B2 (en) Generation of still image from a plurality of frame images
TWI387935B (en) Image generation method, program therefor, and storage medium for storing the program
US20050008254A1 (en) Image generation from plurality of images
JP2005141527A (en) Image processing apparatus, image processing method and computer program
JP2005122320A (en) Imaging apparatus, image processing method thereof, and program
JPH10126665A (en) Image composing device
JP4128123B2 (en) Camera shake correction device, camera shake correction method, and computer-readable recording medium recording camera shake correction program
JP6702755B2 (en) Image processing device, imaging device, image processing method, and program
JP2008003683A (en) Image generation device and its method and recording medium
CN111698389A (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JPH11331696A (en) Image processing method, device and recording medium
JP6274744B2 (en) Image processing apparatus and image processing method
JP2821042B2 (en) Image synthesis device
Souza et al. 360 stitching from dual-fisheye cameras based on feature cluster matching
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP2004072677A (en) Device, method and program for compositing image and recording medium recording the program
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JPH1083442A (en) Picture synthesis method
JP2004046777A (en) Image processor, image processing method used therefor, and its program
JP4154023B2 (en) Image composition method, image composition apparatus, image composition system, and storage medium
JP2000236434A (en) Image forming device
OSZAR »