JP6036065B2 - Gaze position detection device and gaze position detection method - Google Patents

Gaze position detection device and gaze position detection method Download PDF

Info

Publication number
JP6036065B2
JP6036065B2 JP2012202501A JP2012202501A JP6036065B2 JP 6036065 B2 JP6036065 B2 JP 6036065B2 JP 2012202501 A JP2012202501 A JP 2012202501A JP 2012202501 A JP2012202501 A JP 2012202501A JP 6036065 B2 JP6036065 B2 JP 6036065B2
Authority
JP
Japan
Prior art keywords
vehicle
line
image
sight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012202501A
Other languages
Japanese (ja)
Other versions
JP2014054486A (en
Inventor
康洋 青木
康洋 青木
水谷 政美
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012202501A priority Critical patent/JP6036065B2/en
Priority to US13/942,986 priority patent/US9245171B2/en
Publication of JP2014054486A publication Critical patent/JP2014054486A/en
Application granted granted Critical
Publication of JP6036065B2 publication Critical patent/JP6036065B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、例えば、車両の乗員が注視する位置を検出する注視位置検出装置及び注視位置検出方法に関する。   The present invention relates to a gaze position detection device and a gaze position detection method for detecting a position at which a vehicle occupant gazes, for example.

近年、ドライバによる車両の運転を支援するために、ドライバが注視した位置を検出し、車両の周囲を撮影した画像上でその注視位置に対応する点を特定する技術が提案されている(例えば、特許文献1〜3を参照)。   In recent years, in order to support driving of a vehicle by a driver, a technique has been proposed in which a position at which the driver gazes is detected and a point corresponding to the gaze position is identified on an image obtained by photographing the periphery of the vehicle (for example, (See Patent Documents 1 to 3).

例えば、特許文献1に記載された運転支援装置は、ドライバの顔を撮影した画像に基づいてドライバの右眼の視線角度及び左眼の視線角度を検出する。そしてこの運転支援装置は、右眼と左眼の中点から右眼の視線角度を表すベクトルと左眼の視線角度を表すベクトルとの交点までを結ぶベクトルを視線ベクトルとして検出する。   For example, the driving support apparatus described in Patent Literature 1 detects the gaze angle of the right eye and the gaze angle of the left eye of the driver based on an image obtained by photographing the driver's face. The driving support device detects a vector connecting from the midpoint of the right eye and the left eye to the intersection of the vector representing the right eye gaze angle and the vector representing the left eye gaze angle as the gaze vector.

また、特許文献2に記載された視線方向計測装置は、被験者に装着したアイカメラ及び3次元磁気センサからの出力信号に基づいて被験者の視線方向を検出する。そしてこの視線方向計測装置は、被験者がフロントガラスを通して遠方を見る動作を行っている場合には、視点位置が無限遠点にあるものとして、被験者の前方の風景を撮影するTVカメラにより生成される映像上に、その視点位置をマッピングする。   Moreover, the gaze direction measuring device described in Patent Literature 2 detects the gaze direction of the subject based on output signals from an eye camera and a three-dimensional magnetic sensor attached to the subject. This gaze direction measuring device is generated by a TV camera that captures the scenery in front of the subject, assuming that the viewpoint position is at an infinite point when the subject performs an operation of looking far away through the windshield. The viewpoint position is mapped on the video.

さらに、特許文献3に記載された安全走行支援装置は、2個のカメラで車両前方をそれぞれ撮影することにより得られた二つの映像から運転者が注意を払うべき対象物を検出し、三角測量の原理によって、自車とその対象物との相対的な位置関係を求める。またこの安全走行支援装置は、例えば、瞳孔角膜反射法によって運転者の視線方向を検出する。そしてこの安全走行支援装置は、対象物と運転者の間に二次元空間を設定し、運転者の眼の位置と対象物とを結んだ線がその二次元空間と交わる位置に対象物を写像し、かつ、運転者の視線方向をその二次元空間に写像する。そうすることで、この安全走行支援装置は、その二次元空間上で対象物と視線方向の関係を比較できる。   Furthermore, the safe driving support apparatus described in Patent Document 3 detects an object that the driver should pay attention to from two images obtained by photographing the front of the vehicle with two cameras, and triangulation Based on this principle, the relative positional relationship between the vehicle and the object is obtained. Moreover, this safe driving assistance apparatus detects a driver | operator's gaze direction by a pupil cornea reflection method, for example. The safe driving support apparatus sets a two-dimensional space between the object and the driver, and maps the object to a position where the line connecting the position of the driver's eyes and the object intersects the two-dimensional space. In addition, the driver's line-of-sight direction is mapped to the two-dimensional space. By doing so, this safe driving support device can compare the relationship between the object and the line-of-sight direction in the two-dimensional space.

特開2009−43003号公報JP 2009-43003 A 特開平6−189906号公報Japanese Patent Laid-Open No. 6-189906 国際公開第2007/069489号公報International Publication No. 2007/069489

車両の周囲を撮影するカメラとドライバは、互いに離れているので、そのカメラの視野とドライバの視野との間には視差が存在する。そのため、ドライバが注視する位置に対応する画像上の点を正確に特定するには、ドライバからその注視位置までの距離が求められることが好ましい。   Since the camera that captures the surroundings of the vehicle and the driver are separated from each other, there is a parallax between the field of view of the camera and the field of view of the driver. Therefore, in order to accurately specify a point on the image corresponding to the position where the driver is gazing, it is preferable that the distance from the driver to the gazing position is obtained.

このことに関して、特許文献1に記載の技術では、左眼の視線角度と右眼の視線角度の差が小さいため、何れかの眼の視線角度の検出結果に誤差が含まれると、検出された注視位置までの距離が、本来の注視位置までの距離から大きくずれてしまうおそれがあった。   In this regard, in the technique described in Patent Document 1, since the difference between the gaze angle of the left eye and the gaze angle of the right eye is small, it is detected that an error is included in the detection result of any eye gaze angle. There is a possibility that the distance to the gaze position may deviate greatly from the distance to the original gaze position.

また、特許文献2に記載の技術では、注視位置が無限遠に設定されるものの、実際には、ドライバは車両近辺にある物体を注視することもある。そのため、特許文献2に記載の技術では、ドライバの注視位置に対応する画像上の位置とは異なる位置に視点位置が設定されるおそれがあった。   In the technique described in Patent Document 2, although the gaze position is set to infinity, the driver may gaze at an object in the vicinity of the vehicle. Therefore, in the technique described in Patent Document 2, there is a possibility that the viewpoint position is set at a position different from the position on the image corresponding to the gaze position of the driver.

さらに、特許文献3に記載の技術は、ドライバから注視位置までの距離を求める代わりに、自車から対象物までの距離を求めている。しかしこの技術は、自車から対象物までの距離を求めるために、2台のカメラを用いるので、装置構成が複雑化し、その結果として装置のコストも高くなる。   Furthermore, the technique described in Patent Document 3 obtains the distance from the vehicle to the object instead of obtaining the distance from the driver to the gaze position. However, since this technique uses two cameras to determine the distance from the host vehicle to the object, the configuration of the apparatus becomes complicated, resulting in an increase in the cost of the apparatus.

そこで本明細書は、車両周囲が写った画像上でのドライバの注視位置の精度を向上可能な注視位置検出装置を提供することを目的とする。   In view of this, it is an object of the present specification to provide a gaze position detection device that can improve the accuracy of the gaze position of a driver on an image in which the periphery of the vehicle is captured.

一つの実施形態によれば、注視位置検出装置が提供される。この注視位置検出装置は、車両の周囲の少なくとも一部の景色を撮影し、その景色が写った画像を生成する撮像部と、車両の乗員の視線の方向を検出する視線検出部と、車両の周囲の少なくとも一部に、車両の進行方向と平行でかつ車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ車両から離れた位置に仮想的な面を設定する投影面設定部と、その仮想的な面と乗員の視線との交点を求める交点算出部と、画像上に交点を投影することにより得られた画像上の点を乗員の注視位置として検出する投影部とを有する。   According to one embodiment, a gaze position detection device is provided. The gaze position detection device captures at least a part of the scenery around the vehicle, generates an image in which the scenery is captured, a gaze detection unit that detects the direction of the gaze of a vehicle occupant, Projection plane setting that sets a virtual plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by the occupant is present at least at a part of the periphery. An intersection calculation unit that obtains an intersection between the virtual plane and the sight line of the occupant, and a projection unit that detects a point on the image obtained by projecting the intersection point on the image as a gaze position of the occupant. Have.

本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示された注視位置検出装置は、車両周囲が写った画像上でのドライバの注視位置の精度を向上できる。   The gaze position detecting device disclosed in the present specification can improve the accuracy of the gaze position of the driver on the image in which the periphery of the vehicle is captured.

一つの実施形態による注視位置検出装置が実装された運転支援装置の概略構成図である。It is a schematic block diagram of the driving assistance device by which the gaze position detection device by one embodiment was mounted. 車両内における運転支援装置の配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the driving assistance apparatus in a vehicle. 制御部の機能ブロック図である。It is a functional block diagram of a control part. 視線投影面の一例を示す図である。It is a figure which shows an example of a gaze projection surface. ドライバの視線と視線投影面との交点と、車外画像上の注視位置との関係の一例を示す図である。It is a figure which shows an example of the relationship between the intersection of a driver | operator's eyes | visual_axis and a gaze projection surface, and the gaze position on an image outside a vehicle. 注視位置検出処理を含む運転支援処理の動作フローチャートである。It is an operation | movement flowchart of the driving assistance process including a gaze position detection process.

以下、図を参照しつつ、一つの実施形態による、注視位置検出装置について説明する。
この注視位置検出装置は、車両の周囲の少なくとも一部の景色を撮影する車外撮像部から、ドライバが注視する物体が存在する可能性のある距離だけ離れた位置に、仮想的に車両の進行方向に平行な面を設定し、その面とドライバの視線との交点を求める。そしてこの注視位置検出装置は、車外撮像部からその交点までの距離に応じて、その車外撮像部により生成された画像上にその交点を投影することで、車両の周囲の少なくとも一部の景色が写った画像上でのユーザの注視位置を特定する。
Hereinafter, a gaze position detection device according to one embodiment will be described with reference to the drawings.
This gaze position detection device is a virtual direction of travel of the vehicle at a position away from the outside imaging unit that captures at least a part of the scenery around the vehicle by a distance where an object to be watched by the driver may exist. A plane parallel to is set, and the intersection of the plane and the driver's line of sight is obtained. The gaze position detection device projects at least a part of the scenery around the vehicle by projecting the intersection point on the image generated by the exterior imaging unit according to the distance from the exterior imaging unit to the intersection point. The user's gaze position on the captured image is specified.

本実施形態では、注視位置検出装置は、運転支援装置に実装されるものとする。しかし注視位置検出装置は、ドライバの注視位置からドライバが興味を持っているものを解析する装置などにも利用可能である。また注視位置検出装置は、ドライバの注視位置を検出する代わりに、車室内にいる他の乗員の注視位置を検出してもよい。   In the present embodiment, the gaze position detection device is mounted on the driving support device. However, the gaze position detection device can also be used as a device for analyzing what the driver is interested in from the gaze position of the driver. Further, the gaze position detection device may detect the gaze position of another occupant in the vehicle interior instead of detecting the gaze position of the driver.

図1は、注視位置検出装置が実装された一つの実施形態による運転支援装置の概略構成図である。図2は、車両内における運転支援装置の配置の一例を示す図である。運転支援装置1は、光源2と、車内撮像部3と、車外撮像部4と、記憶部5と、制御部6とを有する。運転支援装置1は、さらに、車外撮像部4により生成された画像を表示するためのディスプレイ(図示せず)を有してもよい。例えば、運転支援装置1が有する各構成要素は、一つの筺体内に収容されていてもよい。この場合、運転支援装置1は、車両10のダッシュボードの上に、車外撮像部4が車両10の周囲の少なくとも一部の景色を撮影可能であり、かつ、車内撮像部3がドライバ11の顔を撮影可能なように配置される。   FIG. 1 is a schematic configuration diagram of a driving support device according to an embodiment in which a gaze position detection device is mounted. FIG. 2 is a diagram illustrating an example of the arrangement of the driving support devices in the vehicle. The driving support device 1 includes a light source 2, an in-vehicle imaging unit 3, an out-of-vehicle imaging unit 4, a storage unit 5, and a control unit 6. The driving support device 1 may further include a display (not shown) for displaying an image generated by the vehicle exterior imaging unit 4. For example, each component which the driving assistance apparatus 1 has may be accommodated in one housing. In this case, on the dashboard of the vehicle 10, the driving assistance device 1 allows the outside imaging unit 4 to capture at least a part of the scenery around the vehicle 10, and the in-vehicle imaging unit 3 is the face of the driver 11. Is arranged so that it can be photographed.

あるいは、運転支援装置1の一部の構成要素が他の構成要素とは別個に配置されてもよい。例えば、光源2は、インスツルメントパネルまたは車室内前方の天井付近にドライバ11へ向けて光を発するように取り付けられてもよい。また車内撮像部3も、例えば、ドライバの方を向けてインスツルメントパネルまたは車室内前方の天井付近に取り付けられてもよい。さらに、車外撮像部4は、車両10の周囲の少なくとも一部の景色、例えば、車両10の前方の景色を撮影可能なように取り付けられる。そして光源2、車内撮像部3及び車外撮像部4は、信号線を介して、記憶部5及び制御部6が収容され、インスツルメントパネルの裏側またはダッシュボードの上に配置された筐体と接続されてもよい。   Or the one part component of the driving assistance device 1 may be arrange | positioned separately from another component. For example, the light source 2 may be attached to emit light toward the driver 11 near an instrument panel or a ceiling in front of the vehicle interior. The in-vehicle image capturing unit 3 may also be attached to the vicinity of the ceiling in front of the instrument panel or the vehicle interior, for example, facing the driver. Further, the outside-vehicle imaging unit 4 is attached so as to be able to photograph at least a part of the scenery around the vehicle 10, for example, a scenery in front of the vehicle 10. The light source 2, the vehicle interior image capturing unit 3, and the vehicle exterior image capturing unit 4 include a storage unit 5 and a control unit 6 accommodated via a signal line, and a housing disposed on the back side of the instrument panel or on the dashboard. It may be connected.

光源2は、ユーザの顔、特に眼及びその周囲を照明する。そのため、光源2は、例えば、少なくとも一つの赤外発光ダイオードと、制御部6からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして光源2は、制御部6から光源を点灯させる制御信号を受信すると照明光を発する。
なお、運転支援装置1が有する光源2の数は、1個に限られず、複数個であってもよい。
The light source 2 illuminates the user's face, particularly the eyes and surroundings. Therefore, the light source 2 includes, for example, at least one infrared light emitting diode and a drive circuit that supplies power from a power source (not shown) to the infrared light emitting diode in accordance with a control signal from the control unit 6. And the light source 2 will emit illumination light, if the control signal which lights a light source from the control part 6 is received.
In addition, the number of the light sources 2 which the driving assistance apparatus 1 has is not restricted to one, A plurality may be sufficient.

車内撮像部3は、ドライバの視線方向を検出するために利用される、ドライバの顔が写った画像を生成する。そのために、車内撮像部3は、光源2の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にドライバの顔の像を結像する撮像光学系を有する。車内撮像部3は、虹彩による反射像及び光源2以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。また車内撮像部3は、画像上で、ユーザの角膜に光源2の像が写るように、例えば、光源2と近接して配置される。   The in-vehicle imaging unit 3 generates an image showing the driver's face, which is used to detect the driver's line-of-sight direction. For this purpose, the in-vehicle imaging unit 3 includes an image sensor having a solid-state imaging device that is two-dimensionally arranged with sensitivity to light from the light source 2 and an imaging optical system that forms an image of a driver's face on the image sensor. Have The in-vehicle imaging unit 3 further includes a visible light cut filter between the image sensor and the imaging optical system in order to suppress detection of a reflection image by the iris and a corneal reflection image of light from a light source other than the light source 2. You may have. In addition, the in-vehicle imaging unit 3 is disposed, for example, close to the light source 2 so that an image of the light source 2 appears on the user's cornea on the image.

また、画像が光源2のプルキンエ像を識別できる程度の解像度を有するように、車内撮像部3のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像である。あるいは、イメージセンサにより生成される画像は、固体撮像素子が受光した光の強度が強いほど各画素の輝度が高くなるグレー画像であってもよい。   Further, the number of pixels of the image sensor of the in-vehicle imaging unit 3 can be set to, for example, 1 million, 2 million, or 4 million so that the image has a resolution that can identify the Purkinje image of the light source 2. The image generated by the image sensor is a color image. Alternatively, the image generated by the image sensor may be a gray image in which the luminance of each pixel increases as the intensity of light received by the solid-state imaging device increases.

車内撮像部3は、注視位置検出処理が実行されている間、制御部6から通知された所定の露出条件に従って、所定の撮影レート(例えば、10〜30フレーム/秒)でドライバの顔を撮影することにより、ドライバの顔が写った画像を生成する。車内撮像部3は、画像を生成する度に、その画像を制御部6へ出力する。なお、以下では、便宜上、車内撮像部3により生成された画像を車内画像と呼ぶ。   The in-vehicle imaging unit 3 captures the face of the driver at a predetermined shooting rate (for example, 10 to 30 frames / second) according to a predetermined exposure condition notified from the control unit 6 while the gaze position detection process is being executed. By doing so, an image showing the driver's face is generated. The in-vehicle imaging unit 3 outputs the image to the control unit 6 every time an image is generated. Hereinafter, for the sake of convenience, an image generated by the in-vehicle imaging unit 3 is referred to as an in-vehicle image.

車外撮像部4は、車両10の周囲の少なくとも一部の景色を撮影可能なように設置され、所定の撮影レート(例えば、10〜30フレーム/秒)で周期的にその景色が写った画像を生成する。そのために、車外撮像部4は、2次元アレイ状に並べられた固体撮像素子のイメージセンサと、そのイメージセンサ上に車両の前方の景色の像を結像する結像光学系とを有する。本実施形態では、車外撮像部4の光軸が、車両10の進行方向と平行となり、車外撮像部4が車両10の前方の景色を撮影できるように、車外撮像部4は設置される。なお、車外撮像部4は、車両10の右側方または左側方を撮影するように設置されてもよい。また、車外撮像部4が生成する画像はカラー画像であってもよく、あるいは、グレー画像であってもよい。車外撮像部4は、画像を生成する度に、その画像を制御部6へ渡す。なお、以下では、便宜上、車外撮像部4により生成された画像を車外画像と呼ぶ。   The outside imaging unit 4 is installed so as to be able to photograph at least a part of the scenery around the vehicle 10, and periodically captures an image of the scenery at a predetermined photographing rate (for example, 10 to 30 frames / second). Generate. For this purpose, the vehicle exterior imaging unit 4 includes image sensors of solid-state imaging devices arranged in a two-dimensional array, and an imaging optical system that forms an image of a landscape in front of the vehicle on the image sensor. In the present embodiment, the vehicle exterior imaging unit 4 is installed so that the optical axis of the vehicle exterior imaging unit 4 is parallel to the traveling direction of the vehicle 10 and the vehicle exterior imaging unit 4 can capture a scene in front of the vehicle 10. The vehicle exterior imaging unit 4 may be installed so as to photograph the right side or the left side of the vehicle 10. Further, the image generated by the vehicle exterior imaging unit 4 may be a color image or a gray image. The outside imaging unit 4 passes the image to the control unit 6 every time an image is generated. Hereinafter, for the sake of convenience, an image generated by the vehicle exterior imaging unit 4 is referred to as a vehicle exterior image.

記憶部5は、例えば、読み書き可能な不揮発性または揮発性の半導体メモリ及び読み出し専用の不揮発性の半導体メモリを有する。そして記憶部5は、制御部6上で実行される、注視位置検出処理のプログラムを記憶する。また記憶部5は、車外画像上でのドライバの注視位置を検出するために利用される各種のデータを記憶する。   The storage unit 5 includes, for example, a readable / writable nonvolatile or volatile semiconductor memory and a read-only nonvolatile semiconductor memory. And the memory | storage part 5 memorize | stores the program of the gaze position detection process performed on the control part 6. FIG. In addition, the storage unit 5 stores various data used for detecting the gaze position of the driver on the outside image.

制御部6は、一つまたは複数のプロセッサ及びその周辺回路を有し、運転支援装置1の各部と信号線を通じて接続されている。そして制御部6は、運転支援装置1の各部へ信号線を通じて制御信号を送信することで運転支援装置1の各部を制御する。   The control unit 6 includes one or a plurality of processors and their peripheral circuits, and is connected to each unit of the driving support device 1 through a signal line. And the control part 6 controls each part of the driving assistance apparatus 1 by transmitting a control signal to each part of the driving assistance apparatus 1 through a signal line.

図3は、制御部6の機能ブロック図である。制御部6は、視線検出部11と、視線投影面設定部12と、交点算出部13と、投影部14と、注視対象検出部15と、注意判定部16とを有する。このうち、視線検出部11、視線投影面設定部12、交点算出部13及び投影部14が注視位置検出装置に含まれる。
制御部6が有するこれらの各部は、制御部6が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。
また制御部6が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として制御部6が有するプロセッサとは別個に、運転支援装置1に実装されてもよい。
FIG. 3 is a functional block diagram of the control unit 6. The control unit 6 includes a line-of-sight detection unit 11, a line-of-sight projection plane setting unit 12, an intersection calculation unit 13, a projection unit 14, a gaze target detection unit 15, and a caution determination unit 16. Among these, the gaze detection unit 11, the gaze projection plane setting unit 12, the intersection calculation unit 13, and the projection unit 14 are included in the gaze position detection device.
Each of these units included in the control unit 6 is a functional module realized by a computer program executed on a processor included in the control unit 6.
Each of these units included in the control unit 6 may be mounted on the driving support device 1 separately from the processor included in the control unit 6 as one integrated circuit in which circuits corresponding to the respective units are integrated.

視線検出部11は、制御部6が車内撮像部3から車内画像を受け取る度に、その車内画像に基づいてドライバの視線方向を検出する。本実施形態では、視線検出部11は、車内画像上でドライバの角膜により反射された光源2のプルキンエ像及びドライバの瞳孔重心を検出し、プルキンエ像と瞳孔重心間の位置関係に応じてドライバの視線方向を検出する。   The line-of-sight detection unit 11 detects the line-of-sight direction of the driver based on the vehicle interior image every time the control unit 6 receives the vehicle interior image from the vehicle interior imaging unit 3. In this embodiment, the line-of-sight detection unit 11 detects the Purkinje image of the light source 2 and the driver's pupil center of gravity reflected by the driver's cornea on the vehicle interior image, and determines the driver's pupil center of gravity according to the positional relationship between the Purkinje image and the pupil center of gravity. Detect gaze direction.

そこで例えば、視線検出部11は、車内画像上でドライバの顔が写っている領域を検出する。
本実施形態では、撮影時において、ドライバの顔は光源2からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、車内画像上で顔の肌の部分が写っている画素の輝度は高い。一方、車内画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源2から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで視線検出部11は、車内画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして視線検出部11は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、車内画像の各画素の値が輝度を表すグレー画像である場合、視線検出部11は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
Therefore, for example, the line-of-sight detection unit 11 detects an area where the driver's face is shown on the in-vehicle image.
In this embodiment, at the time of shooting, the driver's face is illuminated with infrared light from the light source 2, and the skin reflectance for the infrared light is relatively high (for example, the skin reflectance is near infrared). (Several tens of percent in the wavelength range), the brightness of the pixels in the car image where the facial skin is reflected is high. On the other hand, since the area of the hair or the area behind the user on the in-vehicle image has a low reflectance for infrared light or is far from the light source 2, the luminance of the pixel in which the area of the hair or the area behind the user is reflected is relatively low. Become.
Therefore, when the value of each pixel of the in-vehicle image is a color image represented by the RGB color system, the line-of-sight detection unit 11 converts the value of each pixel into a value represented by the YUV color system. Then, the line-of-sight detection unit 11 extracts pixels whose luminance component (Y component) value of each pixel is equal to or greater than a predetermined threshold as face area candidate pixels that may have a face. When the value of each pixel in the in-vehicle image is a gray image representing luminance, the line-of-sight detection unit 11 compares the value of each pixel with a predetermined threshold value. For example, the predetermined threshold is set to a value obtained by multiplying the maximum value of the luminance component on the image by 0.8.

また、車内画像上でドライバの顔が占める領域の大きさはある程度推定される。
そこで視線検出部11は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして視線検出部11は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、視線検出部11はその顔候補領域をドライバの顔が写っている顔領域と判定する。
In addition, the size of the area occupied by the driver's face on the in-vehicle image is estimated to some extent.
Therefore, the line-of-sight detection unit 11 performs a labeling process on the face area candidate pixels, and sets a set of face area candidate pixels adjacent to each other as a face candidate area. The line-of-sight detection unit 11 determines whether the size of the face candidate area is included in a reference range corresponding to the size of the user's face. If the size of the face candidate area is included in the reference range corresponding to the size of the user's face, the line-of-sight detection unit 11 determines that the face candidate area is a face area in which the driver's face is reflected.

なお、視線検出部11は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、視線検出部11は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。   The line-of-sight detection unit 11 may detect the face area according to any of various other methods for detecting the face area shown on the image. For example, the line-of-sight detection unit 11 performs template matching between the face candidate area and a template corresponding to a general face shape, calculates the degree of coincidence between the face candidate area and the template, and the degree of coincidence is predetermined. If the value is greater than or equal to the value, the face candidate area may be determined as a face area.

次に、視線検出部11は、顔領域内で眼に相当する領域を検出する。眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで視線検出部11は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして視線検出部11は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、視線検出部11は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
Next, the line-of-sight detection unit 11 detects an area corresponding to the eye in the face area. The luminance of the pixel corresponding to the eye is significantly different from the luminance of the pixel corresponding to the periphery of the eye. Accordingly, the line-of-sight detection unit 11 detects edge pixels whose luminance changes in the vertical direction by performing a difference calculation between neighboring pixels in the vertical direction using, for example, a Sobel filter for each pixel in the face region. The line-of-sight detection unit 11 sets, for example, a region surrounded by two edge lines in which edge pixels are connected in a substantially horizontal direction by a predetermined number or more corresponding to the size of the eye.
Alternatively, the line-of-sight detection unit 11 detects an area that most closely matches the template in the face area by template matching between the template representing the image of the eye on the image and the face area, and uses the detected area as the eye area. Also good.

眼の領域が検出されると、視線検出部11は、眼の領域内で瞳孔領域を検出する。本実施形態では、視線検出部11は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして視線検出部11は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。
また視線検出部11は、画像上で瞳孔領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。
When the eye region is detected, the line-of-sight detection unit 11 detects a pupil region within the eye region. In the present embodiment, the line-of-sight detection unit 11 performs template matching between the template corresponding to the pupil and the eye region, and detects a region having the highest degree of matching with the template in the eye region. Then, when the highest coincidence value is higher than a predetermined coincidence threshold value, the line-of-sight detection unit 11 determines that the pupil is reflected in the detected region.
The line-of-sight detection unit 11 may detect the pupil region by using any of various other methods for detecting the pupil region on the image.

さらに、視線検出部11は、眼の領域内で光源2のプルキンエ像を検出する。
光源2のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高い。また、光源2のプルキンエ像が写っている領域の形状は、光源2の発光面の形状と略一致する。そこで視線検出部11は、眼の領域内で、光源2の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そして視線検出部11は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い領域を検出する。そして視線検出部11は、その検出された領域内の内側のリングで囲まれた領域を光源2のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。
なお、視線検出部11は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
Further, the line-of-sight detection unit 11 detects the Purkinje image of the light source 2 within the eye region.
The luminance of the region where the Purkinje image of the light source 2 is reflected is higher than the luminance of the surrounding region. In addition, the shape of the region where the Purkinje image of the light source 2 is reflected substantially matches the shape of the light emitting surface of the light source 2. Therefore, the line-of-sight detection unit 11 sets two rings that have a shape that substantially matches the contour shape of the light-emitting surface of the light source 2 in the eye region and that have different sizes and centers. Then, the line-of-sight detection unit 11 has a difference value obtained by subtracting the average value of the luminance of the outer pixels from the average value of the luminance of the pixels corresponding to the inner ring, which is larger than a predetermined difference threshold value. A region where the average luminance value is higher than a predetermined luminance threshold is detected. The line-of-sight detection unit 11 sets a region surrounded by the inner ring in the detected region as a Purkinje image of the light source 2. Note that the difference threshold value can be, for example, an average value of difference values between neighboring pixels in the eye region. The predetermined luminance threshold can be set to 80% of the maximum luminance value in the eye region, for example.
Note that the line-of-sight detection unit 11 may detect the region where the Purkinje image of the light source is captured using any of various other methods for detecting the region where the Purkinje image of the light source is captured on the image. .

視線検出部11は、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。   The line-of-sight detection unit 11 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the Purkinje image as the coordinates of the center of gravity of the Purkinje image.

角膜の表面は略球形であるため、ドライバの視線方向によらず、光源2のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ドライバの視線方向に応じて移動する。そのため、視線検出部11は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ドライバの視線方向を検出できる。   Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the light source 2 is substantially constant regardless of the line of sight of the driver. On the other hand, the center of gravity of the pupil moves according to the line of sight of the driver. Therefore, the line-of-sight detection unit 11 can detect the driver's line-of-sight direction by obtaining the relative position of the pupil center of gravity relative to the center of gravity of the Purkinje image.

本実施形態では、視線検出部11は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部11は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルを参照することにより、ドライバの視線方向を決定する。なお、視線方向参照テーブルは、例えば、既知の複数の方向のそれぞれごとに、ドライバがその方向を見たときの瞳孔重心とプルキンエ像の重心の位置を検出することによって予め作成され、記憶部5に記憶される。   In this embodiment, the line-of-sight detection unit 11 determines the relative position of the pupil centroid relative to the centroid of the Purkinje image of the light source, for example, the horizontal direction of the centroid of the Purkinje image from the horizontal coordinate and vertical coordinate of the pupil centroid. It is obtained by subtracting the coordinate and the vertical coordinate. Then, the line-of-sight detection unit 11 determines the line-of-sight direction of the driver by referring to a line-of-sight direction reference table that represents the relationship between the relative position of the pupil center of gravity and the user's line-of-sight direction. The line-of-sight direction reference table is created in advance, for example, by detecting the position of the center of the pupil and the center of gravity of the Purkinje image when the driver looks at the direction for each of a plurality of known directions. Is remembered.

なお、視線検出部11は、プルキンエ像を用いない方法によりドライバの視線方向を検出してもよい。例えば、視線検出部11は、車内画像上でのドライバの顔の特徴的な部位の位置を基準とした、瞳孔重心の相対的な位置に基づいてドライバの視線方向を検出してもよい。
例えば、視線検出部11は、鼻尖点または目頭といった、眼との相対的な位置関係の変動が小さい特徴的な部位の画像上での座標を求める。そのために、視線検出部11は、例えば、顔領域とそれら特徴的な部位の一般的な形状に相当するテンプレートとの間で相対的な位置を変えつつテンプレートマッチングを行って、顔領域とテンプレートとの一致度を算出する。そして視線検出部11は、顔領域内の特定位置で一致度が所定値以上である場合に、その特定位置にテンプレートに相当する部位が写っていると判定する。
Note that the line-of-sight detection unit 11 may detect the line-of-sight direction of the driver by a method that does not use the Purkinje image. For example, the line-of-sight detection unit 11 may detect the line-of-sight direction of the driver based on the relative position of the center of gravity of the pupil with reference to the position of a characteristic part of the driver's face on the in-vehicle image.
For example, the line-of-sight detection unit 11 obtains coordinates on an image of a characteristic part such as a nasal apex or an eye that has a small change in relative positional relationship with the eye. For this purpose, the line-of-sight detection unit 11 performs, for example, template matching while changing the relative position between the face region and a template corresponding to the general shape of these characteristic parts, The degree of coincidence of is calculated. The line-of-sight detection unit 11 determines that a part corresponding to the template is captured at the specific position when the degree of coincidence is a predetermined value or more at the specific position in the face region.

視線検出部11は、その特徴的な部位の座標から、ドライバが特定の方向を向いている状態でドライバの顔が撮影された基準画像から求められ、かつ記憶部5に記憶されているその特徴的な部位の基準位置の座標を引くことにより位置補正量を求める。そして視線検出部11は、瞳孔重心の座標値にその位置補正量を減じて、位置補正量に相当する、車内画像上の瞳孔重心の位置と基準画像上の瞳孔重心の位置の差を打ち消すことで、補正後の瞳孔重心の座標を求める。
視線検出部11は、記憶部5に記憶されている瞳孔−視線方向参照テーブルを参照することにより、補正後の瞳孔重心位置に対応するドライバの視線方向を決定する。
The line-of-sight detection unit 11 is obtained from a reference image in which the driver's face is photographed in a state where the driver is facing a specific direction from the coordinates of the characteristic part, and the feature stored in the storage unit 5 The position correction amount is obtained by subtracting the coordinates of the reference position of a typical part. Then, the line-of-sight detection unit 11 subtracts the position correction amount from the coordinate value of the pupil centroid to cancel the difference between the position of the pupil centroid on the in-vehicle image and the position of the pupil centroid on the reference image corresponding to the position correction amount. Thus, the corrected coordinates of the center of gravity of the pupil are obtained.
The line-of-sight detection unit 11 determines the line-of-sight direction of the driver corresponding to the corrected pupil center of gravity by referring to the pupil-gaze direction reference table stored in the storage unit 5.

ドライバの視線方向は、世界座標系での単位ベクトルとして表すことができる。そこで視線検出部11は、ドライバの視線方向を表す単位ベクトル及び車内画像上の眼の位置を交点算出部13へ通知する。   The driver's line-of-sight direction can be expressed as a unit vector in the world coordinate system. Therefore, the line-of-sight detection unit 11 notifies the intersection point calculation unit 13 of the unit vector representing the line-of-sight direction of the driver and the eye position on the in-vehicle image.

視線投影面設定部12は、ドライバの視線を投影するための仮想的な面である視線投影面を、車両10の周囲の少なくとも一部に設定する。本実施形態では、視線投影面設定部12は、視線投影面を、車両10の進行方向と平行でかつ車両10から注視対象物が存在する可能性がある位置までの距離だけ車両10から離れた位置に設定する。なお、本実施形態では、世界座標系での視線投影面の取扱を容易にするために、車両10から視線投影面までの距離を、車両10に搭載された車外撮像部4から視線投影面までの距離で表す。しかし、車両10から視線投影面までの距離は、車両10の側面または車両10の進行方向に平行な、車両10の中心線から視線投影面までの距離で表されてもよい。   The line-of-sight projection plane setting unit 12 sets the line-of-sight projection plane, which is a virtual plane for projecting the driver's line of sight, to at least a part of the periphery of the vehicle 10. In the present embodiment, the line-of-sight projection plane setting unit 12 moves the line-of-sight projection plane away from the vehicle 10 by a distance from the vehicle 10 to a position where there is a possibility that an object to be watched exists in parallel with the traveling direction of the vehicle 10. Set to position. In this embodiment, in order to facilitate the handling of the line-of-sight projection plane in the world coordinate system, the distance from the vehicle 10 to the line-of-sight projection plane is determined from the vehicle exterior imaging unit 4 mounted on the vehicle 10 to the line-of-sight projection plane. Expressed as a distance. However, the distance from the vehicle 10 to the line-of-sight projection plane may be represented by the distance from the center line of the vehicle 10 to the line-of-sight projection plane, which is parallel to the side surface of the vehicle 10 or the traveling direction of the vehicle 10.

図4は、視線投影面の一例を示す図である。図4に示されるように、視線投影面400は、車両10の左側、右側及び上側を囲むように設定される。この例では、右側の視線投影面400a及び左側の視線投影面400bは、それぞれ、路面に対して鉛直な方向に沿って設定される。一方、上方の視線投影面400cは、路面と平行に設定される。ドライバは、運転中、衝突などの危険を事前に回避するために、対向車線を走行する他の車両、あるいは側道を歩行する歩行者または自転車を注視することがある。そこで、視線投影面設定部12は、車外撮像部4から車両10の右側に設定される視線投影面までの距離を、例えば、車外撮像部4から対向車線までの距離、あるいは、車外撮像部4から車両10が走行中の道路の右端までの距離に設定する。この距離は、予め設定され、記憶部5に記憶されていてもよい。   FIG. 4 is a diagram illustrating an example of a line-of-sight projection plane. As shown in FIG. 4, the line-of-sight projection plane 400 is set so as to surround the left side, the right side, and the upper side of the vehicle 10. In this example, the right gaze projection plane 400a and the left gaze projection plane 400b are set along a direction perpendicular to the road surface. On the other hand, the upper line-of-sight projection plane 400c is set parallel to the road surface. In order to avoid dangers such as a collision in advance during driving, the driver may pay attention to another vehicle traveling in the oncoming lane or a pedestrian or bicycle walking on the side road. Therefore, the line-of-sight projection plane setting unit 12 sets the distance from the vehicle exterior imaging unit 4 to the line of sight projection plane set on the right side of the vehicle 10, for example, the distance from the vehicle exterior imaging unit 4 to the opposite lane, or the vehicle exterior imaging unit 4. To the right end of the road on which the vehicle 10 is traveling. This distance may be set in advance and stored in the storage unit 5.

あるいは、視線投影面設定部12が、車外画像上で道路上に引かれたセンターラインまたは道路の右端を検出することにより、車外撮像部4からそのセンターラインまたは道路の右端までの距離を推定してもよい。車外画像上で道路上に引かれたセンターラインまたは道路の右端を検出する場合には、視線投影面設定部12は、例えば、車外画像上の道路が写る領域内でエッジ検出処理を実行することにより、その領域内のエッジ画素を検出する。そして視線投影面設定部12は、例えば、エッジ画素に対してハフ変換を実行することで、車両10の右側に相当する領域で車両10の進行方向に沿って伸びる直線を、センターラインまたは道路の右端として検出すればよい。また視線投影面設定部12は、センターラインまたは道路の端を検出する他の様々な手法の何れかに従って、センターラインまたは道路の右端を検出してもよい。   Alternatively, the line-of-sight projection plane setting unit 12 estimates the distance from the vehicle exterior imaging unit 4 to the center line or the right end of the road by detecting the center line or the right end of the road drawn on the road on the vehicle exterior image. May be. When detecting the center line drawn on the road or the right end of the road on the outside image, the line-of-sight projection plane setting unit 12 executes, for example, an edge detection process in an area where the road on the outside image is shown. To detect edge pixels in the region. Then, the line-of-sight projection plane setting unit 12 performs a Hough transform on the edge pixels, for example, so that a straight line extending along the traveling direction of the vehicle 10 in a region corresponding to the right side of the vehicle 10 What is necessary is just to detect as a right end. The line-of-sight projection plane setting unit 12 may detect the center line or the right end of the road according to any of various other methods for detecting the end of the road.

車外撮像部4の光軸方向、及び車外撮像部4の画角は予め既知である。そのため、車外撮像部4から、車外画像上の任意の画素に写っている物体へ向かう方向が分かる。また、路面から車外撮像部4までの高さも既知である。そのため、視線投影面設定部12は、車外画像上で路面が写っている画素を特定することにより、車外撮像部4からその画素に写っている路面までの距離も求めることができる。そこで視線投影面設定部12は、センターラインまたは道路の右端が写っている何れかの画素に基づいて、車外撮像部4からセンターラインまたは道路の右端までの距離を求めることができる。   The optical axis direction of the outside imaging unit 4 and the angle of view of the outside imaging unit 4 are known in advance. Therefore, the direction toward the object reflected in an arbitrary pixel on the vehicle outside image can be known from the vehicle outside imaging unit 4. Further, the height from the road surface to the vehicle exterior imaging unit 4 is also known. Therefore, the line-of-sight projection plane setting unit 12 can also determine the distance from the vehicle exterior imaging unit 4 to the road surface reflected in the pixel by specifying the pixel where the road surface is captured in the vehicle exterior image. Therefore, the line-of-sight projection plane setting unit 12 can obtain the distance from the vehicle exterior imaging unit 4 to the center line or the right end of the road based on any pixel in which the center line or the right end of the road is shown.

なお、車外撮像部4から車両10の右側に設定される視線投影面までの距離をDとすれば、車両10の右側に設定される視線投影面sは、次式で表される。

Figure 0006036065
ただし、(x,y,z)は、車外撮像部4の前側主点を原点とする世界座標系における座標を表す。このうち、zは、車両10の進行方向、すなわち、車外撮像部4の光軸に平行な方向の座標を表す。またxは、路面と平行で、かつ車両10の進行方向に直交する方向の座標を表す。そしてyは、路面鉛直方向の座標を表す。なお、xは、原点から右へ向かう方向が正であり、yは、原点から上方へ向かう方向が正であり、zは、原点から車両10の前方へ向かう方向が正である。 If the distance from the vehicle exterior imaging unit 4 to the line-of-sight projection plane set on the right side of the vehicle 10 is D, the line-of-sight projection plane s set on the right side of the vehicle 10 is expressed by the following equation.
Figure 0006036065
However, (x, y, z) represents coordinates in the world coordinate system with the front principal point of the outside-vehicle imaging unit 4 as the origin. Among these, z represents the coordinate of the advancing direction of the vehicle 10, ie, a direction parallel to the optical axis of the imaging unit 4 outside the vehicle. X represents coordinates in a direction parallel to the road surface and orthogonal to the traveling direction of the vehicle 10. And y represents the coordinate in the road surface vertical direction. Note that x is positive in the direction from the origin to the right, y is positive in the direction from the origin to the upper side, and z is positive in the direction from the origin to the front of the vehicle 10.

また、視線投影面設定部12は、車外撮像部4から車両10の左側に設定される視線投影面までの距離を、例えば、車外撮像部4から車両10が走行中の道路の左端までの距離に設定する。この場合も、車外撮像部4から車両10が走行中の道路の左端までの距離は、予め記憶部5に記憶されていてもよい。あるいは、視線投影面設定部12が、車外画像上で道路の左端を検出することにより、その距離を決定してもよい。なお、車両10の左側に設定される視線投影面s'は、車外撮像部4から車両10の左側に設定される視線投影面までの距離をDとすれば、(1)式において、Dの代わりに(-D)とすることで求められる。   Further, the line-of-sight projection plane setting unit 12 sets the distance from the vehicle exterior imaging unit 4 to the line-of-sight projection plane set on the left side of the vehicle 10, for example, the distance from the vehicle exterior imaging unit 4 to the left end of the road on which the vehicle 10 is traveling. Set to. Also in this case, the distance from the vehicle exterior imaging unit 4 to the left end of the road on which the vehicle 10 is traveling may be stored in the storage unit 5 in advance. Alternatively, the line-of-sight projection plane setting unit 12 may determine the distance by detecting the left end of the road on the outside image. Note that the line-of-sight projection plane s ′ set on the left side of the vehicle 10 is represented by the following formula (1), where D is the distance from the vehicle exterior imaging unit 4 to the line-of-sight projection plane set on the left side of the vehicle 10. Instead, it is calculated by (-D).

さらに、視線投影面設定部12は、車外撮像部4から車両10の上側に設定される視線投影面までの距離を、例えば、車外撮像部4から道路標識または信号機までの高さ(例えば、4m)に相当する値に設定する。   Further, the line-of-sight projection plane setting unit 12 determines the distance from the vehicle exterior imaging unit 4 to the line-of-sight projection plane set on the upper side of the vehicle 10, for example, the height from the vehicle exterior imaging unit 4 to a road sign or a traffic light (for example, 4 m ).

なお、視線投影面設定部12は、車両10の右側及び左側にのみ、視線設定面を設定し、車両10の上方には視線投影面を設定しなくてもよい。これは、車両10の上方から車両10に近づく物体は、一般的には存在しないためである。また、視線投影面設定部12は、車両10の周囲に、車両10の進行方向に平行な軸を中心とする円筒面状に視線投影面を設定してもよい。   Note that the line-of-sight projection plane setting unit 12 sets the line-of-sight setting plane only on the right side and the left side of the vehicle 10 and does not need to set the line-of-sight projection plane above the vehicle 10. This is because an object that approaches the vehicle 10 from above the vehicle 10 generally does not exist. In addition, the line-of-sight projection plane setting unit 12 may set the line-of-sight projection plane around the vehicle 10 in a cylindrical surface centered on an axis parallel to the traveling direction of the vehicle 10.

視線投影面設定部12は、視線投影面を表す式を交点算出部13へ通知する。   The line-of-sight projection plane setting unit 12 notifies the intersection calculation unit 13 of an expression representing the line-of-sight projection plane.

交点算出部13は、視線投影面とドライバの視線との交点を算出する。ドライバの視線は、ドライバの視線方向を表す単位ベクトルをv(x,y,z)とし、車外撮像部4の前側主点を原点とする世界座標系におけるドライバの眼の位置をg(x,y,z)とすれば、直線(g+kv)で表される。ただしkは正の値を持つ実数である。そのため、交点算出部13は、次式に従って視線投影面とドライバの視線との交点を算出できる。なお、次式において、v、gは、同次座標表現で表されており、それぞれ、v(x,y,z,0)、g(x,y,z,1)である。

Figure 0006036065
The intersection calculation unit 13 calculates an intersection between the line-of-sight projection plane and the driver's line of sight. The driver's line of sight is represented by v (x, y, z) as a unit vector representing the driver's line of sight, and g (x, If y, z), it is represented by a straight line (g + kv). However, k is a real number having a positive value. Therefore, the intersection calculation unit 13 can calculate the intersection between the line-of-sight projection plane and the driver's line of sight according to the following equation. In the following expression, v and g are expressed in homogeneous coordinate expression, and are v (x, y, z, 0) and g (x, y, z, 1), respectively.
Figure 0006036065

なお、ドライバの眼の位置は、例えば、車内撮像部3により生成された車内画像から検出された眼の位置に基づいて決定される。車内画像上の任意の画素と、車内撮像部3からその画素に写っている被写体への方向は1対1に対応する。そのため、車内画像上の眼の重心に相当する画素を特定することにより、車内撮像部3からのドライバの眼へ向かう方向が特定される。そして車内撮像部3の光軸方向、画角及び設置位置は既知であるので、世界座標系における、車内撮像部3からのドライバの眼へ向かう直線を求めることができる。さらに、車内撮像部3とシートの位置関係により、車内撮像部3からドライバまでの距離も予め推定される。そのため、その直線に沿って、車内撮像部3からドライバの眼までの推定距離だけ車内撮像部3から離れた位置にドライバの眼があると推定される。
なお、ドライバの眼の位置は、予め測定され、記憶部5に記憶されてもよい。
The driver's eye position is determined based on, for example, the eye position detected from the in-vehicle image generated by the in-vehicle imaging unit 3. Arbitrary pixels on the in-vehicle image and the direction from the in-vehicle image capturing unit 3 to the subject shown in the pixel correspond to each other on a one-to-one basis. Therefore, by specifying a pixel corresponding to the center of gravity of the eye on the in-vehicle image, the direction from the in-vehicle imaging unit 3 toward the driver's eyes is specified. Since the optical axis direction, the angle of view, and the installation position of the in-vehicle image capturing unit 3 are known, a straight line from the in-vehicle image capturing unit 3 toward the driver's eyes in the world coordinate system can be obtained. Furthermore, the distance from the in-vehicle imaging unit 3 to the driver is also estimated in advance based on the positional relationship between the in-vehicle imaging unit 3 and the seat. Therefore, it is estimated that the driver's eyes are located at a position away from the in-vehicle image capturing unit 3 by an estimated distance from the in-vehicle image capturing unit 3 to the driver's eyes along the straight line.
Note that the position of the eyes of the driver may be measured in advance and stored in the storage unit 5.

また、実空間上でのドライバの眼の位置が分かっているときにドライバの頭部を撮影して得られた車内画像上での眼の位置が、眼の基準位置として予め記憶部5に記憶されてもよい。そして交点算出部13は、注視位置検出処理の実行中に得られた車内画像上の眼の位置と、眼の基準位置との差を求め、その差に応じて、基準位置に対応するドライバの眼の位置を補正することで、ドライバの眼の位置を求めてもよい。
さらに交点算出部13は、ドライバの眼の位置を検出する様々な他の技術の何れかを用いて、ドライバの眼の位置を検出してもよい。
Further, the eye position on the in-vehicle image obtained by photographing the driver's head when the driver's eye position in the real space is known is stored in the storage unit 5 in advance as the eye reference position. May be. The intersection calculation unit 13 obtains a difference between the eye position on the in-vehicle image obtained during execution of the gaze position detection process and the eye reference position, and according to the difference, the driver corresponding to the reference position The position of the driver's eye may be obtained by correcting the position of the eye.
Further, the intersection calculation unit 13 may detect the position of the driver's eye using any of various other techniques for detecting the position of the driver's eye.

交点算出部13は、ドライバの視線と視線投影面との交点の座標を投影部14へ通知する。   The intersection calculation unit 13 notifies the projection unit 14 of the coordinates of the intersection between the driver's line of sight and the line-of-sight projection plane.

投影部14は、ドライバの視線と視線投影面の交点を車外画像上へ投影する。上記のように、車外撮像部4の設置位置、光軸方向、画角、及び1画素のサイズといった車外撮像部4に関するパラメータは既知である。そのため、車外撮像部4の撮像光学系の歪曲収差が無視できるほど小さい場合、投影部14は、世界座標系上の任意の点を車外画像上に投影する射影行列Fを、これらのパラメータに基づいて決定できる。あるいは、射影行列Fの各要素の値を決定するために、車外撮像部4から所定の距離だけ離れた位置に既知のパターンが示されたチャートを配置して、そのチャートを車外撮像部4で撮影することにより得られる画像が利用されてもよい。この場合、そのチャートが写った画像から、チャート上の複数の特徴点が抽出される。そして、各特徴点に対応するチャート上の点を射影行列Fを用いて車外画像上に投影したときの座標と特徴点との距離の二乗和が最小となるように、射影行列Fの各要素の値が算出される。この射影行列Fは、例えば、運転支援装置1が車両10に設置されたとき、あるいは、定期的に実行されるキャリブレーション処理において算出され、記憶部5に記憶されればよい。   The projection unit 14 projects the intersection of the driver's line of sight and the line-of-sight projection plane onto the vehicle exterior image. As described above, the parameters related to the vehicle exterior imaging unit 4 such as the installation position of the vehicle exterior imaging unit 4, the optical axis direction, the angle of view, and the size of one pixel are known. Therefore, when the distortion aberration of the imaging optical system of the imaging unit 4 outside the vehicle is so small as to be negligible, the projection unit 14 uses a projection matrix F that projects an arbitrary point on the world coordinate system on the outside image based on these parameters. Can be determined. Alternatively, in order to determine the value of each element of the projection matrix F, a chart showing a known pattern is arranged at a position away from the vehicle exterior imaging unit 4 by a predetermined distance, and the chart is displayed by the vehicle exterior imaging unit 4. An image obtained by photographing may be used. In this case, a plurality of feature points on the chart are extracted from the image showing the chart. Then, each element of the projection matrix F so that the sum of squares of the distance between the coordinates and the feature points when the points on the chart corresponding to the feature points are projected onto the outside image using the projection matrix F is minimized. Is calculated. For example, the projection matrix F may be calculated and stored in the storage unit 5 when the driving support apparatus 1 is installed in the vehicle 10 or in a calibration process that is periodically performed.

投影部14は、その射影行列Fを用いて次式により、ドライバの視線と視線投影面の交点q(x,y,z)に対応する車外画像上の注視位置p(u,w)を算出する。ただし、uは、車外画像上での水平方向の座標であり、wは、車外画像上での垂直方向の座標である。

Figure 0006036065
なお、(3)式では、交点q及び対応する車外画像上の注視位置pを同次座標表現で表している。すなわち、(3)式で得られた注視位置pの一番上の要素を1/zした値が、車外画像上での実際の水平方向の座標uとなり、(3)式で得られた注視位置pの上から2番目の要素を1/zした値が、車外画像上での実際の垂直方向の座標wとなる。 The projection unit 14 uses the projection matrix F to calculate the gaze position p (u, w) on the outside image corresponding to the intersection point q (x, y, z) between the driver's line of sight and the line-of-sight projection plane by the following equation. To do. However, u is a coordinate in the horizontal direction on the outside image, and w is a coordinate in the vertical direction on the outside image.
Figure 0006036065
In the equation (3), the intersection point q and the corresponding gaze position p on the outside image are expressed in homogeneous coordinate expression. That is, the value obtained by 1 / z the top element of the gaze position p obtained by the equation (3) becomes the actual horizontal coordinate u on the outside image, and the gaze obtained by the equation (3). The value of 1 / z of the second element from the top of the position p is the actual vertical coordinate w on the outside image.

図5は、ドライバの視線と視線投影面との交点と、車外画像上の注視位置との関係の一例を示す図である。車外撮像部4から視線投影面502までの距離Dが、その視線投影面502の近傍にドライバ500の注視対象物501が位置するように設定されていると、ドライバ500の視線503と視線投影面502との交点qは、その注視対象物501の近くに位置する。そのため、ドライバ500と車外撮像部4とが離れて配置されていても、車外撮像部4と交点qとを結ぶ線511が車外撮像部4の光軸OAとなす角と、車外撮像部4と注視対象物501とを結ぶ線512がその光軸OAとなす角との差は小さい。そのため、交点qに対応する、車外撮像部4の撮像面504上の位置pと、注視対象物501に対応する、車外撮像部4の撮像面504上の位置p'はほぼ一致する。そのため、ドライバから注視対象物までの距離を測定しなくても、制御部6は、車外画像上の注視位置を実際にドライバが注視した対象物の車外画像上の位置に近づけることができる。   FIG. 5 is a diagram illustrating an example of the relationship between the intersection between the driver's line of sight and the line-of-sight projection plane and the gaze position on the vehicle exterior image. When the distance D from the vehicle exterior imaging unit 4 to the line-of-sight projection plane 502 is set so that the gaze target object 501 of the driver 500 is positioned in the vicinity of the line-of-sight projection plane 502, the line of sight 503 of the driver 500 and the line-of-sight projection plane The intersection point q with 502 is located near the gaze target object 501. Therefore, even if the driver 500 and the outside imaging unit 4 are arranged apart from each other, the angle formed by the line 511 connecting the outside imaging unit 4 and the intersection point q with the optical axis OA of the outside imaging unit 4 and the outside imaging unit 4 The difference between the line 512 connecting the gaze object 501 and the angle formed with the optical axis OA is small. Therefore, the position p on the imaging surface 504 of the imaging unit 4 outside the vehicle corresponding to the intersection point q and the position p ′ on the imaging surface 504 of the imaging unit 4 outside the vehicle corresponding to the gaze target 501 substantially coincide. Therefore, without measuring the distance from the driver to the gaze target, the control unit 6 can bring the gaze position on the vehicle outside image closer to the position on the vehicle outside image of the object actually watched by the driver.

なお、車外撮像部4の撮像光学系が魚眼レンズである場合のように、その撮像光学系の歪曲収差が無視できないほど大きいことがある。このような場合には、例えば、車外撮像部4の光軸からの角度と歪曲収差による車外画像上の位置のずれを補正する補正量との対応関係を表す補正テーブルが予め記憶部5に記憶される。このような補正テーブルは、車外撮像部4を用いて予め既知のパターンが示されたチャートを撮影して得られる画像を解析することによって作成できる。あるいは、車外撮像部4の撮像光学系の歪曲収差曲線が分かっている場合には、その歪曲収差曲線に基づいて補正テーブルは作成されてもよい。   Note that, as in the case where the imaging optical system of the imaging unit 4 outside the vehicle is a fisheye lens, the distortion aberration of the imaging optical system may be so large that it cannot be ignored. In such a case, for example, a correction table representing a correspondence relationship between an angle from the optical axis of the outside-vehicle imaging unit 4 and a correction amount for correcting a position shift on the outside-vehicle image due to distortion is stored in the storage unit 5 in advance. Is done. Such a correction table can be created by analyzing an image obtained by photographing a chart on which a known pattern is shown in advance using the outside-vehicle imaging unit 4. Alternatively, when the distortion aberration curve of the imaging optical system of the outside-vehicle imaging unit 4 is known, the correction table may be created based on the distortion aberration curve.

投影部14は、車外撮像部4の前側主点から交点へ向かう線と車外撮像部4の光軸とのなす角を算出し、補正テーブルを参照してその角度に応じた補正量を求める。また投影部14は、光軸に相当する車外画像上の画素から(3)式で算出した交点qの車外画像上の投影点pへ向かう車外画像上の直線を求める。そして投影部14は、その直線に沿って、光軸に相当する画素から(3)式で算出したその投影点pまでの距離をその補正量だけ減じた位置を注視位置pの座標とすればよい。   The projection unit 14 calculates an angle formed by a line from the front principal point of the vehicle exterior imaging unit 4 to the intersection and the optical axis of the vehicle exterior imaging unit 4, and obtains a correction amount corresponding to the angle with reference to the correction table. Further, the projection unit 14 obtains a straight line on the outside image from the pixel on the outside image corresponding to the optical axis toward the projection point p on the outside image of the intersection q calculated by the expression (3). Then, the projection unit 14 takes the position obtained by subtracting the distance from the pixel corresponding to the optical axis to the projection point p calculated by Equation (3) by the correction amount along the straight line as the coordinate of the gaze position p. Good.

投影部14は、車外画像上の注視位置pの座標を注意判定部16へ通知する。   The projection unit 14 notifies the attention determination unit 16 of the coordinates of the gaze position p on the outside image.

注視対象検出部15は、車外画像上でドライバが注視すべき対象物を検出する。例えば、注視対象検出部15は、車外画像を複数の部分画像に分割し、部分画像ごとに注視すべき対象物を表す特徴量を抽出する。そして注視対象検出部15は、部分画像ごとの特徴量を、注視すべき対象物か否かを識別する識別器に入力することによって、その部分画像に注視すべき対象物が写っているか否か判定する。なお、識別器は、例えば、adaBoost識別器あるいはサポートベクトルマシンとすることができる。また特徴量は、例えば、Haar-like特徴量とすることができる。   The gaze target detection unit 15 detects an object to be watched by the driver on the outside image. For example, the gaze target detection unit 15 divides the image outside the vehicle into a plurality of partial images, and extracts a feature amount representing the target object to be watched for each partial image. Then, the gaze target detection unit 15 inputs the feature amount for each partial image to the discriminator that identifies whether or not it is a target to be watched, thereby determining whether or not the target to be watched is reflected in the partial image. judge. The classifier can be, for example, an adaBoost classifier or a support vector machine. The feature amount can be, for example, a Haar-like feature amount.

なお、注視対象検出部15は、様々なトラッキング手法の何れかを用いて、時間的に連続する複数の車外画像にわたって注意すべき対象物を追跡してもよい。そして注視対象検出部15は、その対象物の車外画像上の位置が車外画像の中心に近づいている場合、すなわち、その対象物が車両10に接近していると推定される場合にのみ、その対象物を注意すべき対象物としてもよい。   Note that the gaze target detection unit 15 may track an object to be noted over a plurality of temporally continuous images using any of various tracking methods. Then, the gaze target detection unit 15 is only in the case where the position of the object on the outside image is approaching the center of the outside image, that is, when it is estimated that the object is approaching the vehicle 10. The object may be an object to be noted.

注視対象検出部15は、注視すべき対象物が写っている領域を表す情報を注意判定部16へ通知する。   The gaze target detection unit 15 notifies the attention determination unit 16 of information indicating a region where the target object to be watched is shown.

注意判定部16は、車外画像上の注視点の座標が、何れかの注視すべき対象物の領域に含まれるか否かを判定する。そして注意判定部16は、注視点の座標が、何れかの注視すべき対象物が写っている領域に含まれる場合、ドライバはその注視すべき対象物を見たと判定する。   The attention determination unit 16 determines whether or not the coordinates of the gazing point on the image outside the vehicle are included in any region of the object to be gazed. The attention determination unit 16 determines that the driver has seen the object to be watched when the coordinates of the gaze point are included in a region where any of the objects to be watched is shown.

注意判定部16は、直近の所定期間にわたって、その所定期間中に生成された車外画像に注意すべき対象物が写っている場合、ドライバがその対象物を見ているか否か判定する。なお、所定期間は、例えば、0.1秒〜1秒程度に設定される。その所定期間にわたってドライバがその対象物を見ていない場合、注意判定部16は、ドライバに注意を喚起するよう、例えば、スピーカ(図示せず)に警告音を発させる。あるいは、注意判定部16は、車内に配置されたディスプレイ(図示せず)に、最新の車外画像及びその車外画像上で検出された注意すべき対象物を示すマーク(例えば、その対象物を囲む特定の色の枠線)を表示させてもよい。   The attention determination unit 16 determines whether or not the driver is looking at the target object when the target object is shown in the outside image generated during the predetermined period for the most recent predetermined period. Note that the predetermined period is set to about 0.1 seconds to 1 second, for example. When the driver has not looked at the target object for the predetermined period, the attention determination unit 16 causes, for example, a speaker (not shown) to emit a warning sound so as to alert the driver. Alternatively, the caution determining unit 16 surrounds the latest outside-of-vehicle image and an object to be noted detected on the outside-of-vehicle image (for example, surrounding the object) on a display (not shown) arranged in the vehicle. A specific color frame) may be displayed.

図6は、制御部6により制御される注視位置検出処理を含む運転支援処理の動作フローチャートである。制御部6は、車外画像を受け取る度に、この動作フローチャートに従って運転支援処理を実行する。   FIG. 6 is an operation flowchart of driving support processing including gaze position detection processing controlled by the control unit 6. Each time the control unit 6 receives an image outside the vehicle, the control unit 6 executes a driving support process according to the operation flowchart.

視線検出部11は、車内撮像部3から受け取った最新の車内画像に基づいて、ドライバの視線方向を検出する(ステップS101)。そして視線検出部11は、その視線方向を表す方向ベクトルを交点算出部13へ通知する。   The line-of-sight detection unit 11 detects the line-of-sight direction of the driver based on the latest vehicle interior image received from the vehicle interior imaging unit 3 (step S101). The line-of-sight detection unit 11 notifies the intersection point calculation unit 13 of a direction vector representing the line-of-sight direction.

視線投影面設定部12は、車両10の周囲に、車両10の進行方向と平行、かつ、車外撮像部4から注意すべき対象物が位置する可能性がある距離だけ離れた位置に視線投影面を設定する(ステップS102)。そして視線投影面設定部12は、視線投影面を交点算出部13へ通知する。   The line-of-sight projection plane setting unit 12 is arranged around the vehicle 10 at a position parallel to the traveling direction of the vehicle 10 and away from the outside-of-vehicle imaging unit 4 by a distance at which an object to be noted may be located. Is set (step S102). Then, the line-of-sight projection plane setting unit 12 notifies the intersection calculation unit 13 of the line-of-sight projection plane.

交点算出部13は、ドライバの視線と視線投影面との交点を算出する(ステップS103)。なおこの交点の座標は世界座標系で表される。そして交点算出部13は、交点の座標を投影部14へ通知する。   The intersection calculation unit 13 calculates the intersection between the driver's line of sight and the line-of-sight projection plane (step S103). The coordinates of this intersection are expressed in the world coordinate system. Then, the intersection calculation unit 13 notifies the projection unit 14 of the coordinates of the intersection.

投影部14は、ドライバの視線と視線投影面との交点を車外画像上へ投影して注視位置を特定する(ステップS104)。そして投影部14は、車外画像上の注視位置の座標を注意判定部16へ通知する。   The projection unit 14 projects the intersection of the driver's line of sight and the line-of-sight projection plane onto the image outside the vehicle, and specifies the gaze position (step S104). Then, the projection unit 14 notifies the attention determination unit 16 of the coordinates of the gaze position on the outside image.

また、注視対象検出部15は、車外画像上でドライバが注視すべき対象物が写っている領域を検出する(ステップS105)。そして注視対象検出部15は、注視すべき対象物が写っている領域の位置及び範囲を注意判定部16へ通知する。   In addition, the gaze target detection unit 15 detects a region in which an object to be watched by the driver is shown on the image outside the vehicle (step S105). The gaze target detection unit 15 notifies the attention determination unit 16 of the position and range of the region in which the target object to be watched is shown.

注意判定部16は、車外画像上でのドライバの注視位置が、何れかの注意すべき対象物が写っている領域の何れかに含まれるか否か判定する(ステップS106)。注視位置が注意すべき対象物が写っている領域の何れにも含まれない場合(ステップS106−No)、注意判定部16は、ドライバはその車外画像の生成時において、注意すべき対象物を見ていないと判定する。そして注意判定部16は、ドライバが注意すべき対象物を見ていない期間が、所定期間にわたって継続しているか否か判定する(ステップS107)。ドライバが注意すべき対象物を見ていない期間が所定期間にわたって継続している場合(ステップS107−Yes)、注意判定部16は、注意すべき対象物が車両10の周囲に存在することをドライバに警告する(ステップS108)。その後、制御部6は、運転支援処理を終了する。   The attention determination unit 16 determines whether or not the driver's gaze position on the vehicle outside image is included in any of the regions where any object to be noted is shown (step S106). When the gaze position is not included in any of the regions in which the object to be watched is reflected (No in step S106), the attention determination unit 16 determines that the driver should pay attention to the object to be watched when generating the outside image. Judge that you have not seen. Then, the attention determination unit 16 determines whether or not the period during which the driver does not look at the object to be noted continues for a predetermined period (step S107). When the period during which the driver does not look at the object to be watched continues for a predetermined period (step S107—Yes), the attention determination unit 16 determines that the object to be watched exists around the vehicle 10. Is warned (step S108). Then, the control part 6 complete | finishes a driving assistance process.

一方、ステップS107にて、ドライバの注視位置が、何れかの注意すべき対象物が写っている領域に含まれる場合(ステップS106−Yes)、注意判定部16は、ドライバはその注意すべき対象物を見たと判定する。この場合、ドライバに警告せずに注意すべき対象物を見ていない継続期間の長さを0にリセットした上で、制御部6は、運転支援処理を終了する。またステップS108にて、ドライバが注意すべき対象物を見ていない継続時間が所定期間に達していない場合も(ステップS107−No)、制御部6は、ドライバに警告せずに運転支援処理を終了する。   On the other hand, in step S107, when the driver's gaze position is included in an area in which any target object to be watched is reflected (Yes in step S106), the attention determination unit 16 determines that the driver is the target to be watched. Judge that you saw an object. In this case, the control unit 6 ends the driving support process after resetting the length of the continuation period in which the target object to be noted without being warned to the driver is not reset to 0. Also, in step S108, when the continuation time during which the driver is not looking at the object to be noted has not reached the predetermined period (step S107-No), the control unit 6 performs the driving support process without warning the driver. finish.

以上に説明してきたように、この注視位置検出装置が実装された運転支援装置は、ドライバの視線と、注意すべき対象物が存在する可能性のある位置に設定された視線投影面との交点を求め、その交点を車外画像上へ投影する。視線投影面の性質上、運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を、車外撮像部からこの交点までの距離によって近似できる。そのため、この運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を測定しなくても、車外画像上での注視位置の精度を向上できる。またこの運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を測定しなくてよいので、運転支援装置の構成を簡単化できる。   As described above, the driving support device in which the gaze position detection device is mounted is an intersection of the driver's line of sight and the line-of-sight projection plane set at a position where there is a possibility that an object to be noted exists. And the intersection is projected onto the image outside the vehicle. Due to the nature of the line-of-sight projection plane, the driving support device can approximate the distance from the outside imaging unit to the object that the driver is actually gazing with by the distance from the outside imaging unit to this intersection. Therefore, this driving support device can improve the accuracy of the gaze position on the outside image without measuring the distance from the outside imaging unit to the object that the driver is actually looking at. In addition, since this driving support device does not need to measure the distance from the vehicle exterior imaging unit to the object that the driver is actually watching, the configuration of the driving support device can be simplified.

なお、本発明は上記の実施形態に限定されるものではない。例えば、注視位置検出装置は、運転中にドライバが注視した物を解析する注視物体解析装置に実装されてもよい。注視物体解析装置も、図1に示された運転支援装置の構成と同様の構成を有することができる。この場合、例えば、視線投影面は、車外撮像部4から、解析対象とする物体が位置する可能性のある位置までの距離に応じて設定される。例えば、ドライバが注視した広告看板を特定したい場合には、視線投影面は、車外撮像部4から広告看板の推定位置までの距離だけ車外撮像部4から離れた位置に、車両10の進行方向と平行に設定されればよい。   In addition, this invention is not limited to said embodiment. For example, the gaze position detection device may be mounted on a gaze object analysis device that analyzes an object that the driver gazes during driving. The gaze object analyzing apparatus can also have a configuration similar to that of the driving support apparatus shown in FIG. In this case, for example, the line-of-sight projection plane is set according to the distance from the vehicle exterior imaging unit 4 to the position where the object to be analyzed may be located. For example, when it is desired to specify an advertising billboard that the driver has watched, the line-of-sight projection plane is separated from the outside imaging unit 4 by a distance from the outside imaging unit 4 to the estimated position of the advertising signboard, and the traveling direction of the vehicle 10 What is necessary is just to set in parallel.

またこの例では、注視物体解析装置は、例えば、全地球測位システム(Global Positioning System, GPS)のGPS衛星からの測位情報に基づいて、車両10の現在位置を検出する位置検出部(図示せず)をさらに有してもよい。さらに、注視物体解析装置の記憶部は、車両10が走行中のエリア内にある、広告看板の位置及び広告内容を表すマップ情報を記憶していてもよい。   In this example, the gaze object analyzing apparatus is a position detection unit (not shown) that detects the current position of the vehicle 10 based on, for example, positioning information from a GPS satellite of the Global Positioning System (GPS). ) May further be included. Furthermore, the memory | storage part of the gaze object analysis apparatus may memorize | store the map information showing the position and advertisement content of an advertisement signboard in the area where the vehicle 10 is traveling.

この例では、制御部6の注視対象検出部15は、例えば、車両10の現在位置に基づいて、その現在位置の近傍にある広告看板に対応するテンプレートを記憶部5から読み込む。そして注視対象検出部15は、車外画像とそのテンプレートとのテンプレートマッチングにより、車外画像上でそのテンプレートと最も一致する領域に、そのテンプレートに対応する広告看板が写っていると判定する。   In this example, the gaze target detection unit 15 of the control unit 6 reads, from the storage unit 5, for example, a template corresponding to an advertising billboard near the current position based on the current position of the vehicle 10. Then, the gaze target detection unit 15 determines that the advertising signboard corresponding to the template is shown in the region that most matches the template on the outside image by template matching between the outside image and the template.

また制御部6の注意判定部16は、車外画像上で広告看板が写っていると判定された領域内にドライバの注視位置が含まれる場合、ドライバはその広告看板を見たと判定する。そして注意判定部16は、直近の所定の期間にわたって、その期間内に取得された各車外画像においてドライバがその広告看板を見たと判定した場合、注視した広告看板の広告内容を記憶部5から読み出す。そして注意判定部16は、マップ情報を参照して、車両10の現在位置の周囲の所定の範囲(例えば、2km×2kmの範囲)内で、ドライバが注視した広告看板の広告内容と関連する店を検出する。例えば、ドライバが注視した広告看板の広告内容がレストランの広告であれば、注意判定部16は、レストランを検出する。そして注意判定部16は、車内に設置された表示部(図示せず)に車両10の現在位置の周囲のマップとともに、検出した店の名称及び位置を示す情報を表示させる。   Further, the attention determination unit 16 of the control unit 6 determines that the driver has seen the advertisement signboard when the driver's gaze position is included in the area where it is determined that the advertisement signboard is reflected on the image outside the vehicle. When the attention determination unit 16 determines that the driver has seen the advertisement signboard in each of the images outside the vehicle acquired during the most recent predetermined period, the attention determination unit 16 reads the advertisement content of the watched advertisement signboard from the storage unit 5. . Then, the attention determination unit 16 refers to the map information, and stores related to the advertisement content of the advertising signboard that the driver watched within a predetermined range (for example, a range of 2 km × 2 km) around the current position of the vehicle 10. Is detected. For example, if the advertisement content of the advertising billboard watched by the driver is a restaurant advertisement, the attention determination unit 16 detects the restaurant. And the attention determination part 16 displays the information which shows the name and position of the detected shop with the map around the present position of the vehicle 10 on the display part (not shown) installed in the vehicle.

さらに他の変形例によれば、注視物体解析装置は、車外に設置された移動体通信システムの基地局と無線通信するための通信部(図示せず)を有し、その基地局を介して、車外の所定の場所、例えば、データセンターに設置されたサーバと通信可能であってもよい。この場合、注視物体解析装置は、車両10の現在位置、ドライバが注視した広告看板の位置及び広告内容を表す情報を含む信号を、通信部及び基地局を介して、サーバへ送信する。サーバは、マップ情報を参照して、車両10の現在位置の周囲の所定の範囲内で、ドライバが注視した広告看板の広告内容と関連する店を検出する。そしてサーバは、検出した店の名称及び位置を示す情報を、車両10に設置された注視物体解析装置へ返信する。
注視物体解析装置の制御部6は、車内に設置された表示部(図示せず)に車両10の現在位置の周囲のマップとともに、検出した店の名称及び位置を示す情報を表示させる。
According to still another modification, the gaze object analyzing apparatus includes a communication unit (not shown) for wirelessly communicating with a base station of a mobile communication system installed outside the vehicle, via the base station. It may be possible to communicate with a predetermined place outside the vehicle, for example, a server installed in a data center. In this case, the gaze object analyzing apparatus transmits a signal including information indicating the current position of the vehicle 10, the position of the advertisement signboard watched by the driver, and the advertisement content to the server via the communication unit and the base station. The server refers to the map information, and detects a store related to the advertisement content of the advertising signboard that the driver watched within a predetermined range around the current position of the vehicle 10. Then, the server returns information indicating the name and position of the detected store to the gaze object analyzing device installed in the vehicle 10.
The control unit 6 of the gaze object analyzing apparatus displays information indicating the name and position of the detected store together with a map around the current position of the vehicle 10 on a display unit (not shown) installed in the vehicle.

さらに他の変形例によれば、制御部6は、車両10の走行中の一定期間中に生成されたそれぞれの車外画像に対して注視位置を示すマークを付し、そのマークを付した車外画像を記憶部5に記憶させてもよい。
これにより、注視物体解析装置は、その一定期間の車外画像上の注視位置を追跡することで、ドライバの視線の動きを解析することが可能となる。
According to still another modified example, the control unit 6 attaches a mark indicating a gaze position to each of the outside images generated during a certain period while the vehicle 10 is traveling, and the outside image having the marks attached thereto. May be stored in the storage unit 5.
As a result, the gaze object analyzing apparatus can analyze the movement of the driver's line of sight by tracking the gaze position on the image outside the vehicle for a certain period.

また、上記の実施形態及び変形例による制御部の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。なお、記録媒体には、搬送波は含まれない。   In addition, the computer program that realizes the function of each unit of the control unit according to the above-described embodiments and modifications is recorded in a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. May be provided. The recording medium does not include a carrier wave.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
車両の乗員の視線の方向を検出し、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定し、
前記仮想的な面と前記乗員の視線との交点を求め、
前記車両の周囲の少なくとも一部の景色が写った画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
Detects the direction of the line of sight of the vehicle occupants,
An imaginary plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by an occupant is present at least partially around the vehicle. Set
Finding the intersection of the virtual plane and the sight line of the occupant,
A gaze position for causing a computer to detect a point on the image obtained by projecting the intersection on an image in which at least a part of the scenery around the vehicle is captured as the gaze position of the occupant Computer program for detection.

1 運転支援装置(注視位置検出装置)
2 光源
3 車内撮像部
4 車外撮像部
5 記憶部
6 制御部
11 視線検出部
12 視線投影面設定部
13 交点算出部
14 投影部
15 注視対象検出部
16 注意判定部
1 Driving support device (gaze position detection device)
2 Light source 3 In-vehicle imaging unit 4 Outside imaging unit 5 Storage unit 6 Control unit 11 Gaze detection unit 12 Gaze projection plane setting unit 13 Intersection calculation unit 14 Projection unit 15 Gaze target detection unit 16 Attention determination unit

Claims (3)

車両の周囲の少なくとも一部の景色を撮影し、当該景色が写った画像を生成する撮像部と、
前記車両の乗員の視線の方向を検出する視線検出部と、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定する投影面設定部と、
前記仮想的な面と前記乗員の視線との交点を求める交点算出部と、
前記画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する投影部と
を有する注視位置検出装置。
An imaging unit that captures at least a part of the scenery around the vehicle and generates an image of the scenery;
A line-of-sight detection unit for detecting the direction of the line of sight of the occupant of the vehicle;
An imaginary plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by an occupant is present at least partially around the vehicle. A projection plane setting unit for setting
An intersection calculation unit for obtaining an intersection between the virtual plane and the line of sight of the occupant;
A gaze position detection apparatus comprising: a projection unit that detects a point on the image obtained by projecting the intersection point on the image as a gaze position of the occupant.
前記投影面設定部は、前記画像上で前記車両が走行する道路のセンターラインまたは該道路の端部を検出し、該道路のセンターラインまたは該道路の端部の位置に前記仮想的な面を設定する、請求項1に記載の注視位置検出装置。 The projection plane setting unit detects a center line of a road on which the vehicle travels or an end of the road on the image, and places the virtual plane at a position of the center line of the road or the end of the road. The gaze position detection device according to claim 1, wherein the gaze position detection device is set. 車両の周囲の少なくとも一部の景色が写った画像を取得し、
前記車両の乗員の視線の方向を検出し、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定し、
前記仮想的な面と前記乗員の視線との交点を求め、
前記画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する
ことを含む注視位置検出方法。
Get an image of at least part of the scenery around the vehicle,
Detecting the direction of the line of sight of the vehicle occupant,
An imaginary plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by an occupant is present at least partially around the vehicle. Set
Finding the intersection of the virtual plane and the sight line of the occupant,
A gaze position detection method including detecting a point on the image obtained by projecting the intersection point on the image as a gaze position of the occupant.
JP2012202501A 2012-09-14 2012-09-14 Gaze position detection device and gaze position detection method Expired - Fee Related JP6036065B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012202501A JP6036065B2 (en) 2012-09-14 2012-09-14 Gaze position detection device and gaze position detection method
US13/942,986 US9245171B2 (en) 2012-09-14 2013-07-16 Gaze point detection device and gaze point detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012202501A JP6036065B2 (en) 2012-09-14 2012-09-14 Gaze position detection device and gaze position detection method

Publications (2)

Publication Number Publication Date
JP2014054486A JP2014054486A (en) 2014-03-27
JP6036065B2 true JP6036065B2 (en) 2016-11-30

Family

ID=50274066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012202501A Expired - Fee Related JP6036065B2 (en) 2012-09-14 2012-09-14 Gaze position detection device and gaze position detection method

Country Status (2)

Country Link
US (1) US9245171B2 (en)
JP (1) JP6036065B2 (en)

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
WO2015026350A1 (en) * 2013-08-22 2015-02-26 Empire Technology Development, Llc Influence of line of sight for driver safety
WO2015064080A1 (en) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 Gaze direction-detecting device and gaze direction-detecting method
JP6322986B2 (en) * 2013-12-09 2018-05-16 富士通株式会社 Image processing apparatus, image processing method, and image processing program
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20150221341A1 (en) * 2014-01-31 2015-08-06 Audi Ag System and method for enhanced time-lapse video generation using panoramic imagery
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US12112089B2 (en) 2014-02-11 2024-10-08 Mentor Acquisition One, Llc Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
GB2536474B (en) * 2015-03-18 2019-09-04 Jaguar Land Rover Ltd Situational awareness monitoring method and apparatus
JPWO2016157951A1 (en) * 2015-03-31 2018-01-25 ソニー株式会社 Display control device, display control method, and recording medium
JP2017004117A (en) * 2015-06-05 2017-01-05 富士通テン株式会社 Line-of-sight detection apparatus and line-of-sight detection method
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
EP3468469A4 (en) 2016-06-13 2020-02-19 Xevo Inc. Method and system for providing behavior of vehicle operator using virtuous cycle
KR101896790B1 (en) * 2016-11-08 2018-10-18 현대자동차주식회사 Apparatus for determining concentration of driver, system having the same and method thereof
US10186155B2 (en) * 2016-12-22 2019-01-22 Xevo Inc. Method and system for providing interactive parking management via artificial intelligence analytic (AIA) services using cloud network
CN109803583A (en) * 2017-08-10 2019-05-24 北京市商汤科技开发有限公司 Driver monitoring method, apparatus and electronic equipment
TWI653170B (en) * 2017-11-01 2019-03-11 宏碁股份有限公司 Driving notification method and driving notification system
KR20190050633A (en) * 2017-11-03 2019-05-13 주식회사 만도 System and method for controlling vehicle based on condition of driver
CN107808397B (en) * 2017-11-10 2020-04-24 京东方科技集团股份有限公司 Pupil positioning device, pupil positioning method and sight tracking equipment
CN109823344B (en) * 2017-11-22 2021-10-22 宏碁股份有限公司 Driving prompt method and system
CN110758237A (en) * 2018-07-27 2020-02-07 深圳富泰宏精密工业有限公司 Electronic device and driving safety reminding method
JP7155750B2 (en) * 2018-08-23 2022-10-19 トヨタ自動車株式会社 Information systems and programs
WO2020170916A1 (en) * 2019-02-22 2020-08-27 パナソニックIpマネジメント株式会社 State detection device and state detection method
US10933803B2 (en) * 2019-03-31 2021-03-02 Gm Cruise Holdings Llc Autonomous vehicle visual based communication
US20230156178A1 (en) * 2020-04-02 2023-05-18 Kyocera Corporation Detection device and image display module
CN113815623B (en) * 2020-06-11 2023-08-08 广州汽车集团股份有限公司 A method for visually tracking the gaze point of human eyes, a vehicle early warning method and device
US20230388479A1 (en) * 2020-10-30 2023-11-30 Kyocera Corporation Detection device and image display system
US11623654B2 (en) * 2021-05-05 2023-04-11 Nissan North America, Inc. Systems and methods of assisting vehicle navigation
US11827150B2 (en) * 2021-09-21 2023-11-28 International Business Machines Corporation Computer-implemented object visibility improvement by interposing an image in a viewer's line-of-sight
US12159468B2 (en) 2021-10-08 2024-12-03 Woven By Toyota, Inc. Vehicle occupant gaze detection system and method of using
US11704698B1 (en) 2022-03-29 2023-07-18 Woven By Toyota, Inc. Vehicle advertising system and method of using
US12027050B2 (en) 2022-03-29 2024-07-02 Woven By Toyota, Inc. Hazard notification method and system for implementing

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189906A (en) 1992-12-26 1994-07-12 Nissan Motor Co Ltd Visual axial direction measuring device
JP3941926B2 (en) 2002-03-12 2007-07-11 松下電器産業株式会社 Vehicle periphery monitoring device
JP4206928B2 (en) * 2004-01-19 2009-01-14 株式会社デンソー Collision possibility judgment device
JP4345526B2 (en) 2004-03-08 2009-10-14 株式会社デンソー Object monitoring device
JP4270010B2 (en) * 2004-04-05 2009-05-27 株式会社デンソー Object danger judgment device
CN101356078B (en) 2005-12-12 2012-07-18 松下电器产业株式会社 Safety-travel assistance device
JP2008280026A (en) * 2007-04-11 2008-11-20 Denso Corp Driving assistance device
JP4935571B2 (en) 2007-08-08 2012-05-23 株式会社デンソー Driving assistance device
JP5278461B2 (en) * 2011-02-03 2013-09-04 株式会社デンソー Gaze detection device and gaze detection method

Also Published As

Publication number Publication date
JP2014054486A (en) 2014-03-27
US9245171B2 (en) 2016-01-26
US20140078282A1 (en) 2014-03-20

Similar Documents

Publication Publication Date Title
JP6036065B2 (en) Gaze position detection device and gaze position detection method
JP4612635B2 (en) Moving object detection using computer vision adaptable to low illumination depth
CN110703904B (en) An augmented virtual reality projection method and system based on gaze tracking
US10634918B2 (en) Internal edge verification
TWI522257B (en) Vehicle safety system and operating method thereof
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
US11024040B2 (en) Dynamic object tracking
JP2009265722A (en) Face direction sensing device
JP2014154898A (en) Object detection device
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP6669182B2 (en) Occupant monitoring device
JP2012115505A (en) Visual line detection device and visual line detection method
JP2006338594A (en) Pedestrian recognition device
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
KR20210150881A (en) Electronic apparatus and operaintg method thereof
JP6717330B2 (en) Eye-gaze detecting device, control method of the eye-gaze detecting device, method of detecting corneal reflection image position, and computer program
JP2020038551A (en) Face orientation detection device, face orientation detection method, and control program
KR101935853B1 (en) Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)
KR20190071781A (en) Night vision system for displaying thermal energy information and control method thereof
JP3994954B2 (en) Object detection apparatus and object detection method
JP2024015666A (en) Line-of-sight estimation device, computer program for line-of-sight estimation, and line-of-sight estimation method
KR20190070951A (en) Night vision system
JP2018004325A (en) Gaze point detector, gaze point detection method, gaze point detection system, and vehicle
CN105930764B (en) Imaging device capable of imaging stereoscopic vision, imaging method, and storage medium
JP7420441B2 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R150 Certificate of patent or registration of utility model

Ref document number: 6036065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees
OSZAR »