JP6036065B2 - Gaze position detection device and gaze position detection method - Google Patents
Gaze position detection device and gaze position detection method Download PDFInfo
- Publication number
- JP6036065B2 JP6036065B2 JP2012202501A JP2012202501A JP6036065B2 JP 6036065 B2 JP6036065 B2 JP 6036065B2 JP 2012202501 A JP2012202501 A JP 2012202501A JP 2012202501 A JP2012202501 A JP 2012202501A JP 6036065 B2 JP6036065 B2 JP 6036065B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- line
- image
- sight
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 88
- 238000003384 imaging method Methods 0.000 claims description 93
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 description 25
- 230000003287 optical effect Effects 0.000 description 19
- 210000001747 pupil Anatomy 0.000 description 15
- 230000005484 gravity Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000012937 correction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000004075 alteration Effects 0.000 description 4
- 210000004087 cornea Anatomy 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、例えば、車両の乗員が注視する位置を検出する注視位置検出装置及び注視位置検出方法に関する。 The present invention relates to a gaze position detection device and a gaze position detection method for detecting a position at which a vehicle occupant gazes, for example.
近年、ドライバによる車両の運転を支援するために、ドライバが注視した位置を検出し、車両の周囲を撮影した画像上でその注視位置に対応する点を特定する技術が提案されている(例えば、特許文献1〜3を参照)。
In recent years, in order to support driving of a vehicle by a driver, a technique has been proposed in which a position at which the driver gazes is detected and a point corresponding to the gaze position is identified on an image obtained by photographing the periphery of the vehicle (for example, (See
例えば、特許文献1に記載された運転支援装置は、ドライバの顔を撮影した画像に基づいてドライバの右眼の視線角度及び左眼の視線角度を検出する。そしてこの運転支援装置は、右眼と左眼の中点から右眼の視線角度を表すベクトルと左眼の視線角度を表すベクトルとの交点までを結ぶベクトルを視線ベクトルとして検出する。
For example, the driving support apparatus described in
また、特許文献2に記載された視線方向計測装置は、被験者に装着したアイカメラ及び3次元磁気センサからの出力信号に基づいて被験者の視線方向を検出する。そしてこの視線方向計測装置は、被験者がフロントガラスを通して遠方を見る動作を行っている場合には、視点位置が無限遠点にあるものとして、被験者の前方の風景を撮影するTVカメラにより生成される映像上に、その視点位置をマッピングする。
Moreover, the gaze direction measuring device described in
さらに、特許文献3に記載された安全走行支援装置は、2個のカメラで車両前方をそれぞれ撮影することにより得られた二つの映像から運転者が注意を払うべき対象物を検出し、三角測量の原理によって、自車とその対象物との相対的な位置関係を求める。またこの安全走行支援装置は、例えば、瞳孔角膜反射法によって運転者の視線方向を検出する。そしてこの安全走行支援装置は、対象物と運転者の間に二次元空間を設定し、運転者の眼の位置と対象物とを結んだ線がその二次元空間と交わる位置に対象物を写像し、かつ、運転者の視線方向をその二次元空間に写像する。そうすることで、この安全走行支援装置は、その二次元空間上で対象物と視線方向の関係を比較できる。
Furthermore, the safe driving support apparatus described in
車両の周囲を撮影するカメラとドライバは、互いに離れているので、そのカメラの視野とドライバの視野との間には視差が存在する。そのため、ドライバが注視する位置に対応する画像上の点を正確に特定するには、ドライバからその注視位置までの距離が求められることが好ましい。 Since the camera that captures the surroundings of the vehicle and the driver are separated from each other, there is a parallax between the field of view of the camera and the field of view of the driver. Therefore, in order to accurately specify a point on the image corresponding to the position where the driver is gazing, it is preferable that the distance from the driver to the gazing position is obtained.
このことに関して、特許文献1に記載の技術では、左眼の視線角度と右眼の視線角度の差が小さいため、何れかの眼の視線角度の検出結果に誤差が含まれると、検出された注視位置までの距離が、本来の注視位置までの距離から大きくずれてしまうおそれがあった。
In this regard, in the technique described in
また、特許文献2に記載の技術では、注視位置が無限遠に設定されるものの、実際には、ドライバは車両近辺にある物体を注視することもある。そのため、特許文献2に記載の技術では、ドライバの注視位置に対応する画像上の位置とは異なる位置に視点位置が設定されるおそれがあった。
In the technique described in
さらに、特許文献3に記載の技術は、ドライバから注視位置までの距離を求める代わりに、自車から対象物までの距離を求めている。しかしこの技術は、自車から対象物までの距離を求めるために、2台のカメラを用いるので、装置構成が複雑化し、その結果として装置のコストも高くなる。
Furthermore, the technique described in
そこで本明細書は、車両周囲が写った画像上でのドライバの注視位置の精度を向上可能な注視位置検出装置を提供することを目的とする。 In view of this, it is an object of the present specification to provide a gaze position detection device that can improve the accuracy of the gaze position of a driver on an image in which the periphery of the vehicle is captured.
一つの実施形態によれば、注視位置検出装置が提供される。この注視位置検出装置は、車両の周囲の少なくとも一部の景色を撮影し、その景色が写った画像を生成する撮像部と、車両の乗員の視線の方向を検出する視線検出部と、車両の周囲の少なくとも一部に、車両の進行方向と平行でかつ車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ車両から離れた位置に仮想的な面を設定する投影面設定部と、その仮想的な面と乗員の視線との交点を求める交点算出部と、画像上に交点を投影することにより得られた画像上の点を乗員の注視位置として検出する投影部とを有する。 According to one embodiment, a gaze position detection device is provided. The gaze position detection device captures at least a part of the scenery around the vehicle, generates an image in which the scenery is captured, a gaze detection unit that detects the direction of the gaze of a vehicle occupant, Projection plane setting that sets a virtual plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by the occupant is present at least at a part of the periphery. An intersection calculation unit that obtains an intersection between the virtual plane and the sight line of the occupant, and a projection unit that detects a point on the image obtained by projecting the intersection point on the image as a gaze position of the occupant. Have.
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.
本明細書に開示された注視位置検出装置は、車両周囲が写った画像上でのドライバの注視位置の精度を向上できる。 The gaze position detecting device disclosed in the present specification can improve the accuracy of the gaze position of the driver on the image in which the periphery of the vehicle is captured.
以下、図を参照しつつ、一つの実施形態による、注視位置検出装置について説明する。
この注視位置検出装置は、車両の周囲の少なくとも一部の景色を撮影する車外撮像部から、ドライバが注視する物体が存在する可能性のある距離だけ離れた位置に、仮想的に車両の進行方向に平行な面を設定し、その面とドライバの視線との交点を求める。そしてこの注視位置検出装置は、車外撮像部からその交点までの距離に応じて、その車外撮像部により生成された画像上にその交点を投影することで、車両の周囲の少なくとも一部の景色が写った画像上でのユーザの注視位置を特定する。
Hereinafter, a gaze position detection device according to one embodiment will be described with reference to the drawings.
This gaze position detection device is a virtual direction of travel of the vehicle at a position away from the outside imaging unit that captures at least a part of the scenery around the vehicle by a distance where an object to be watched by the driver may exist. A plane parallel to is set, and the intersection of the plane and the driver's line of sight is obtained. The gaze position detection device projects at least a part of the scenery around the vehicle by projecting the intersection point on the image generated by the exterior imaging unit according to the distance from the exterior imaging unit to the intersection point. The user's gaze position on the captured image is specified.
本実施形態では、注視位置検出装置は、運転支援装置に実装されるものとする。しかし注視位置検出装置は、ドライバの注視位置からドライバが興味を持っているものを解析する装置などにも利用可能である。また注視位置検出装置は、ドライバの注視位置を検出する代わりに、車室内にいる他の乗員の注視位置を検出してもよい。 In the present embodiment, the gaze position detection device is mounted on the driving support device. However, the gaze position detection device can also be used as a device for analyzing what the driver is interested in from the gaze position of the driver. Further, the gaze position detection device may detect the gaze position of another occupant in the vehicle interior instead of detecting the gaze position of the driver.
図1は、注視位置検出装置が実装された一つの実施形態による運転支援装置の概略構成図である。図2は、車両内における運転支援装置の配置の一例を示す図である。運転支援装置1は、光源2と、車内撮像部3と、車外撮像部4と、記憶部5と、制御部6とを有する。運転支援装置1は、さらに、車外撮像部4により生成された画像を表示するためのディスプレイ(図示せず)を有してもよい。例えば、運転支援装置1が有する各構成要素は、一つの筺体内に収容されていてもよい。この場合、運転支援装置1は、車両10のダッシュボードの上に、車外撮像部4が車両10の周囲の少なくとも一部の景色を撮影可能であり、かつ、車内撮像部3がドライバ11の顔を撮影可能なように配置される。
FIG. 1 is a schematic configuration diagram of a driving support device according to an embodiment in which a gaze position detection device is mounted. FIG. 2 is a diagram illustrating an example of the arrangement of the driving support devices in the vehicle. The
あるいは、運転支援装置1の一部の構成要素が他の構成要素とは別個に配置されてもよい。例えば、光源2は、インスツルメントパネルまたは車室内前方の天井付近にドライバ11へ向けて光を発するように取り付けられてもよい。また車内撮像部3も、例えば、ドライバの方を向けてインスツルメントパネルまたは車室内前方の天井付近に取り付けられてもよい。さらに、車外撮像部4は、車両10の周囲の少なくとも一部の景色、例えば、車両10の前方の景色を撮影可能なように取り付けられる。そして光源2、車内撮像部3及び車外撮像部4は、信号線を介して、記憶部5及び制御部6が収容され、インスツルメントパネルの裏側またはダッシュボードの上に配置された筐体と接続されてもよい。
Or the one part component of the
光源2は、ユーザの顔、特に眼及びその周囲を照明する。そのため、光源2は、例えば、少なくとも一つの赤外発光ダイオードと、制御部6からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして光源2は、制御部6から光源を点灯させる制御信号を受信すると照明光を発する。
なお、運転支援装置1が有する光源2の数は、1個に限られず、複数個であってもよい。
The
In addition, the number of the
車内撮像部3は、ドライバの視線方向を検出するために利用される、ドライバの顔が写った画像を生成する。そのために、車内撮像部3は、光源2の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にドライバの顔の像を結像する撮像光学系を有する。車内撮像部3は、虹彩による反射像及び光源2以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。また車内撮像部3は、画像上で、ユーザの角膜に光源2の像が写るように、例えば、光源2と近接して配置される。
The in-
また、画像が光源2のプルキンエ像を識別できる程度の解像度を有するように、車内撮像部3のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像である。あるいは、イメージセンサにより生成される画像は、固体撮像素子が受光した光の強度が強いほど各画素の輝度が高くなるグレー画像であってもよい。
Further, the number of pixels of the image sensor of the in-
車内撮像部3は、注視位置検出処理が実行されている間、制御部6から通知された所定の露出条件に従って、所定の撮影レート(例えば、10〜30フレーム/秒)でドライバの顔を撮影することにより、ドライバの顔が写った画像を生成する。車内撮像部3は、画像を生成する度に、その画像を制御部6へ出力する。なお、以下では、便宜上、車内撮像部3により生成された画像を車内画像と呼ぶ。
The in-
車外撮像部4は、車両10の周囲の少なくとも一部の景色を撮影可能なように設置され、所定の撮影レート(例えば、10〜30フレーム/秒)で周期的にその景色が写った画像を生成する。そのために、車外撮像部4は、2次元アレイ状に並べられた固体撮像素子のイメージセンサと、そのイメージセンサ上に車両の前方の景色の像を結像する結像光学系とを有する。本実施形態では、車外撮像部4の光軸が、車両10の進行方向と平行となり、車外撮像部4が車両10の前方の景色を撮影できるように、車外撮像部4は設置される。なお、車外撮像部4は、車両10の右側方または左側方を撮影するように設置されてもよい。また、車外撮像部4が生成する画像はカラー画像であってもよく、あるいは、グレー画像であってもよい。車外撮像部4は、画像を生成する度に、その画像を制御部6へ渡す。なお、以下では、便宜上、車外撮像部4により生成された画像を車外画像と呼ぶ。
The
記憶部5は、例えば、読み書き可能な不揮発性または揮発性の半導体メモリ及び読み出し専用の不揮発性の半導体メモリを有する。そして記憶部5は、制御部6上で実行される、注視位置検出処理のプログラムを記憶する。また記憶部5は、車外画像上でのドライバの注視位置を検出するために利用される各種のデータを記憶する。
The storage unit 5 includes, for example, a readable / writable nonvolatile or volatile semiconductor memory and a read-only nonvolatile semiconductor memory. And the memory | storage part 5 memorize | stores the program of the gaze position detection process performed on the
制御部6は、一つまたは複数のプロセッサ及びその周辺回路を有し、運転支援装置1の各部と信号線を通じて接続されている。そして制御部6は、運転支援装置1の各部へ信号線を通じて制御信号を送信することで運転支援装置1の各部を制御する。
The
図3は、制御部6の機能ブロック図である。制御部6は、視線検出部11と、視線投影面設定部12と、交点算出部13と、投影部14と、注視対象検出部15と、注意判定部16とを有する。このうち、視線検出部11、視線投影面設定部12、交点算出部13及び投影部14が注視位置検出装置に含まれる。
制御部6が有するこれらの各部は、制御部6が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。
また制御部6が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として制御部6が有するプロセッサとは別個に、運転支援装置1に実装されてもよい。
FIG. 3 is a functional block diagram of the
Each of these units included in the
Each of these units included in the
視線検出部11は、制御部6が車内撮像部3から車内画像を受け取る度に、その車内画像に基づいてドライバの視線方向を検出する。本実施形態では、視線検出部11は、車内画像上でドライバの角膜により反射された光源2のプルキンエ像及びドライバの瞳孔重心を検出し、プルキンエ像と瞳孔重心間の位置関係に応じてドライバの視線方向を検出する。
The line-of-
そこで例えば、視線検出部11は、車内画像上でドライバの顔が写っている領域を検出する。
本実施形態では、撮影時において、ドライバの顔は光源2からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、車内画像上で顔の肌の部分が写っている画素の輝度は高い。一方、車内画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源2から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで視線検出部11は、車内画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして視線検出部11は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、車内画像の各画素の値が輝度を表すグレー画像である場合、視線検出部11は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
Therefore, for example, the line-of-
In this embodiment, at the time of shooting, the driver's face is illuminated with infrared light from the
Therefore, when the value of each pixel of the in-vehicle image is a color image represented by the RGB color system, the line-of-
また、車内画像上でドライバの顔が占める領域の大きさはある程度推定される。
そこで視線検出部11は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして視線検出部11は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、視線検出部11はその顔候補領域をドライバの顔が写っている顔領域と判定する。
In addition, the size of the area occupied by the driver's face on the in-vehicle image is estimated to some extent.
Therefore, the line-of-
なお、視線検出部11は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、視線検出部11は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。
The line-of-
次に、視線検出部11は、顔領域内で眼に相当する領域を検出する。眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで視線検出部11は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして視線検出部11は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、視線検出部11は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
Next, the line-of-
Alternatively, the line-of-
眼の領域が検出されると、視線検出部11は、眼の領域内で瞳孔領域を検出する。本実施形態では、視線検出部11は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして視線検出部11は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。
また視線検出部11は、画像上で瞳孔領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。
When the eye region is detected, the line-of-
The line-of-
さらに、視線検出部11は、眼の領域内で光源2のプルキンエ像を検出する。
光源2のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高い。また、光源2のプルキンエ像が写っている領域の形状は、光源2の発光面の形状と略一致する。そこで視線検出部11は、眼の領域内で、光源2の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そして視線検出部11は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い領域を検出する。そして視線検出部11は、その検出された領域内の内側のリングで囲まれた領域を光源2のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。
なお、視線検出部11は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
Further, the line-of-
The luminance of the region where the Purkinje image of the
Note that the line-of-
視線検出部11は、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。
The line-of-
角膜の表面は略球形であるため、ドライバの視線方向によらず、光源2のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ドライバの視線方向に応じて移動する。そのため、視線検出部11は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ドライバの視線方向を検出できる。
Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the
本実施形態では、視線検出部11は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部11は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルを参照することにより、ドライバの視線方向を決定する。なお、視線方向参照テーブルは、例えば、既知の複数の方向のそれぞれごとに、ドライバがその方向を見たときの瞳孔重心とプルキンエ像の重心の位置を検出することによって予め作成され、記憶部5に記憶される。
In this embodiment, the line-of-
なお、視線検出部11は、プルキンエ像を用いない方法によりドライバの視線方向を検出してもよい。例えば、視線検出部11は、車内画像上でのドライバの顔の特徴的な部位の位置を基準とした、瞳孔重心の相対的な位置に基づいてドライバの視線方向を検出してもよい。
例えば、視線検出部11は、鼻尖点または目頭といった、眼との相対的な位置関係の変動が小さい特徴的な部位の画像上での座標を求める。そのために、視線検出部11は、例えば、顔領域とそれら特徴的な部位の一般的な形状に相当するテンプレートとの間で相対的な位置を変えつつテンプレートマッチングを行って、顔領域とテンプレートとの一致度を算出する。そして視線検出部11は、顔領域内の特定位置で一致度が所定値以上である場合に、その特定位置にテンプレートに相当する部位が写っていると判定する。
Note that the line-of-
For example, the line-of-
視線検出部11は、その特徴的な部位の座標から、ドライバが特定の方向を向いている状態でドライバの顔が撮影された基準画像から求められ、かつ記憶部5に記憶されているその特徴的な部位の基準位置の座標を引くことにより位置補正量を求める。そして視線検出部11は、瞳孔重心の座標値にその位置補正量を減じて、位置補正量に相当する、車内画像上の瞳孔重心の位置と基準画像上の瞳孔重心の位置の差を打ち消すことで、補正後の瞳孔重心の座標を求める。
視線検出部11は、記憶部5に記憶されている瞳孔−視線方向参照テーブルを参照することにより、補正後の瞳孔重心位置に対応するドライバの視線方向を決定する。
The line-of-
The line-of-
ドライバの視線方向は、世界座標系での単位ベクトルとして表すことができる。そこで視線検出部11は、ドライバの視線方向を表す単位ベクトル及び車内画像上の眼の位置を交点算出部13へ通知する。
The driver's line-of-sight direction can be expressed as a unit vector in the world coordinate system. Therefore, the line-of-
視線投影面設定部12は、ドライバの視線を投影するための仮想的な面である視線投影面を、車両10の周囲の少なくとも一部に設定する。本実施形態では、視線投影面設定部12は、視線投影面を、車両10の進行方向と平行でかつ車両10から注視対象物が存在する可能性がある位置までの距離だけ車両10から離れた位置に設定する。なお、本実施形態では、世界座標系での視線投影面の取扱を容易にするために、車両10から視線投影面までの距離を、車両10に搭載された車外撮像部4から視線投影面までの距離で表す。しかし、車両10から視線投影面までの距離は、車両10の側面または車両10の進行方向に平行な、車両10の中心線から視線投影面までの距離で表されてもよい。
The line-of-sight projection
図4は、視線投影面の一例を示す図である。図4に示されるように、視線投影面400は、車両10の左側、右側及び上側を囲むように設定される。この例では、右側の視線投影面400a及び左側の視線投影面400bは、それぞれ、路面に対して鉛直な方向に沿って設定される。一方、上方の視線投影面400cは、路面と平行に設定される。ドライバは、運転中、衝突などの危険を事前に回避するために、対向車線を走行する他の車両、あるいは側道を歩行する歩行者または自転車を注視することがある。そこで、視線投影面設定部12は、車外撮像部4から車両10の右側に設定される視線投影面までの距離を、例えば、車外撮像部4から対向車線までの距離、あるいは、車外撮像部4から車両10が走行中の道路の右端までの距離に設定する。この距離は、予め設定され、記憶部5に記憶されていてもよい。
FIG. 4 is a diagram illustrating an example of a line-of-sight projection plane. As shown in FIG. 4, the line-of-
あるいは、視線投影面設定部12が、車外画像上で道路上に引かれたセンターラインまたは道路の右端を検出することにより、車外撮像部4からそのセンターラインまたは道路の右端までの距離を推定してもよい。車外画像上で道路上に引かれたセンターラインまたは道路の右端を検出する場合には、視線投影面設定部12は、例えば、車外画像上の道路が写る領域内でエッジ検出処理を実行することにより、その領域内のエッジ画素を検出する。そして視線投影面設定部12は、例えば、エッジ画素に対してハフ変換を実行することで、車両10の右側に相当する領域で車両10の進行方向に沿って伸びる直線を、センターラインまたは道路の右端として検出すればよい。また視線投影面設定部12は、センターラインまたは道路の端を検出する他の様々な手法の何れかに従って、センターラインまたは道路の右端を検出してもよい。
Alternatively, the line-of-sight projection
車外撮像部4の光軸方向、及び車外撮像部4の画角は予め既知である。そのため、車外撮像部4から、車外画像上の任意の画素に写っている物体へ向かう方向が分かる。また、路面から車外撮像部4までの高さも既知である。そのため、視線投影面設定部12は、車外画像上で路面が写っている画素を特定することにより、車外撮像部4からその画素に写っている路面までの距離も求めることができる。そこで視線投影面設定部12は、センターラインまたは道路の右端が写っている何れかの画素に基づいて、車外撮像部4からセンターラインまたは道路の右端までの距離を求めることができる。
The optical axis direction of the
なお、車外撮像部4から車両10の右側に設定される視線投影面までの距離をDとすれば、車両10の右側に設定される視線投影面sは、次式で表される。
また、視線投影面設定部12は、車外撮像部4から車両10の左側に設定される視線投影面までの距離を、例えば、車外撮像部4から車両10が走行中の道路の左端までの距離に設定する。この場合も、車外撮像部4から車両10が走行中の道路の左端までの距離は、予め記憶部5に記憶されていてもよい。あるいは、視線投影面設定部12が、車外画像上で道路の左端を検出することにより、その距離を決定してもよい。なお、車両10の左側に設定される視線投影面s'は、車外撮像部4から車両10の左側に設定される視線投影面までの距離をDとすれば、(1)式において、Dの代わりに(-D)とすることで求められる。
Further, the line-of-sight projection
さらに、視線投影面設定部12は、車外撮像部4から車両10の上側に設定される視線投影面までの距離を、例えば、車外撮像部4から道路標識または信号機までの高さ(例えば、4m)に相当する値に設定する。
Further, the line-of-sight projection
なお、視線投影面設定部12は、車両10の右側及び左側にのみ、視線設定面を設定し、車両10の上方には視線投影面を設定しなくてもよい。これは、車両10の上方から車両10に近づく物体は、一般的には存在しないためである。また、視線投影面設定部12は、車両10の周囲に、車両10の進行方向に平行な軸を中心とする円筒面状に視線投影面を設定してもよい。
Note that the line-of-sight projection
視線投影面設定部12は、視線投影面を表す式を交点算出部13へ通知する。
The line-of-sight projection
交点算出部13は、視線投影面とドライバの視線との交点を算出する。ドライバの視線は、ドライバの視線方向を表す単位ベクトルをv(x,y,z)とし、車外撮像部4の前側主点を原点とする世界座標系におけるドライバの眼の位置をg(x,y,z)とすれば、直線(g+kv)で表される。ただしkは正の値を持つ実数である。そのため、交点算出部13は、次式に従って視線投影面とドライバの視線との交点を算出できる。なお、次式において、v、gは、同次座標表現で表されており、それぞれ、v(x,y,z,0)、g(x,y,z,1)である。
なお、ドライバの眼の位置は、例えば、車内撮像部3により生成された車内画像から検出された眼の位置に基づいて決定される。車内画像上の任意の画素と、車内撮像部3からその画素に写っている被写体への方向は1対1に対応する。そのため、車内画像上の眼の重心に相当する画素を特定することにより、車内撮像部3からのドライバの眼へ向かう方向が特定される。そして車内撮像部3の光軸方向、画角及び設置位置は既知であるので、世界座標系における、車内撮像部3からのドライバの眼へ向かう直線を求めることができる。さらに、車内撮像部3とシートの位置関係により、車内撮像部3からドライバまでの距離も予め推定される。そのため、その直線に沿って、車内撮像部3からドライバの眼までの推定距離だけ車内撮像部3から離れた位置にドライバの眼があると推定される。
なお、ドライバの眼の位置は、予め測定され、記憶部5に記憶されてもよい。
The driver's eye position is determined based on, for example, the eye position detected from the in-vehicle image generated by the in-
Note that the position of the eyes of the driver may be measured in advance and stored in the storage unit 5.
また、実空間上でのドライバの眼の位置が分かっているときにドライバの頭部を撮影して得られた車内画像上での眼の位置が、眼の基準位置として予め記憶部5に記憶されてもよい。そして交点算出部13は、注視位置検出処理の実行中に得られた車内画像上の眼の位置と、眼の基準位置との差を求め、その差に応じて、基準位置に対応するドライバの眼の位置を補正することで、ドライバの眼の位置を求めてもよい。
さらに交点算出部13は、ドライバの眼の位置を検出する様々な他の技術の何れかを用いて、ドライバの眼の位置を検出してもよい。
Further, the eye position on the in-vehicle image obtained by photographing the driver's head when the driver's eye position in the real space is known is stored in the storage unit 5 in advance as the eye reference position. May be. The
Further, the
交点算出部13は、ドライバの視線と視線投影面との交点の座標を投影部14へ通知する。
The
投影部14は、ドライバの視線と視線投影面の交点を車外画像上へ投影する。上記のように、車外撮像部4の設置位置、光軸方向、画角、及び1画素のサイズといった車外撮像部4に関するパラメータは既知である。そのため、車外撮像部4の撮像光学系の歪曲収差が無視できるほど小さい場合、投影部14は、世界座標系上の任意の点を車外画像上に投影する射影行列Fを、これらのパラメータに基づいて決定できる。あるいは、射影行列Fの各要素の値を決定するために、車外撮像部4から所定の距離だけ離れた位置に既知のパターンが示されたチャートを配置して、そのチャートを車外撮像部4で撮影することにより得られる画像が利用されてもよい。この場合、そのチャートが写った画像から、チャート上の複数の特徴点が抽出される。そして、各特徴点に対応するチャート上の点を射影行列Fを用いて車外画像上に投影したときの座標と特徴点との距離の二乗和が最小となるように、射影行列Fの各要素の値が算出される。この射影行列Fは、例えば、運転支援装置1が車両10に設置されたとき、あるいは、定期的に実行されるキャリブレーション処理において算出され、記憶部5に記憶されればよい。
The
投影部14は、その射影行列Fを用いて次式により、ドライバの視線と視線投影面の交点q(x,y,z)に対応する車外画像上の注視位置p(u,w)を算出する。ただし、uは、車外画像上での水平方向の座標であり、wは、車外画像上での垂直方向の座標である。
図5は、ドライバの視線と視線投影面との交点と、車外画像上の注視位置との関係の一例を示す図である。車外撮像部4から視線投影面502までの距離Dが、その視線投影面502の近傍にドライバ500の注視対象物501が位置するように設定されていると、ドライバ500の視線503と視線投影面502との交点qは、その注視対象物501の近くに位置する。そのため、ドライバ500と車外撮像部4とが離れて配置されていても、車外撮像部4と交点qとを結ぶ線511が車外撮像部4の光軸OAとなす角と、車外撮像部4と注視対象物501とを結ぶ線512がその光軸OAとなす角との差は小さい。そのため、交点qに対応する、車外撮像部4の撮像面504上の位置pと、注視対象物501に対応する、車外撮像部4の撮像面504上の位置p'はほぼ一致する。そのため、ドライバから注視対象物までの距離を測定しなくても、制御部6は、車外画像上の注視位置を実際にドライバが注視した対象物の車外画像上の位置に近づけることができる。
FIG. 5 is a diagram illustrating an example of the relationship between the intersection between the driver's line of sight and the line-of-sight projection plane and the gaze position on the vehicle exterior image. When the distance D from the vehicle
なお、車外撮像部4の撮像光学系が魚眼レンズである場合のように、その撮像光学系の歪曲収差が無視できないほど大きいことがある。このような場合には、例えば、車外撮像部4の光軸からの角度と歪曲収差による車外画像上の位置のずれを補正する補正量との対応関係を表す補正テーブルが予め記憶部5に記憶される。このような補正テーブルは、車外撮像部4を用いて予め既知のパターンが示されたチャートを撮影して得られる画像を解析することによって作成できる。あるいは、車外撮像部4の撮像光学系の歪曲収差曲線が分かっている場合には、その歪曲収差曲線に基づいて補正テーブルは作成されてもよい。
Note that, as in the case where the imaging optical system of the
投影部14は、車外撮像部4の前側主点から交点へ向かう線と車外撮像部4の光軸とのなす角を算出し、補正テーブルを参照してその角度に応じた補正量を求める。また投影部14は、光軸に相当する車外画像上の画素から(3)式で算出した交点qの車外画像上の投影点pへ向かう車外画像上の直線を求める。そして投影部14は、その直線に沿って、光軸に相当する画素から(3)式で算出したその投影点pまでの距離をその補正量だけ減じた位置を注視位置pの座標とすればよい。
The
投影部14は、車外画像上の注視位置pの座標を注意判定部16へ通知する。
The
注視対象検出部15は、車外画像上でドライバが注視すべき対象物を検出する。例えば、注視対象検出部15は、車外画像を複数の部分画像に分割し、部分画像ごとに注視すべき対象物を表す特徴量を抽出する。そして注視対象検出部15は、部分画像ごとの特徴量を、注視すべき対象物か否かを識別する識別器に入力することによって、その部分画像に注視すべき対象物が写っているか否か判定する。なお、識別器は、例えば、adaBoost識別器あるいはサポートベクトルマシンとすることができる。また特徴量は、例えば、Haar-like特徴量とすることができる。
The gaze
なお、注視対象検出部15は、様々なトラッキング手法の何れかを用いて、時間的に連続する複数の車外画像にわたって注意すべき対象物を追跡してもよい。そして注視対象検出部15は、その対象物の車外画像上の位置が車外画像の中心に近づいている場合、すなわち、その対象物が車両10に接近していると推定される場合にのみ、その対象物を注意すべき対象物としてもよい。
Note that the gaze
注視対象検出部15は、注視すべき対象物が写っている領域を表す情報を注意判定部16へ通知する。
The gaze
注意判定部16は、車外画像上の注視点の座標が、何れかの注視すべき対象物の領域に含まれるか否かを判定する。そして注意判定部16は、注視点の座標が、何れかの注視すべき対象物が写っている領域に含まれる場合、ドライバはその注視すべき対象物を見たと判定する。
The
注意判定部16は、直近の所定期間にわたって、その所定期間中に生成された車外画像に注意すべき対象物が写っている場合、ドライバがその対象物を見ているか否か判定する。なお、所定期間は、例えば、0.1秒〜1秒程度に設定される。その所定期間にわたってドライバがその対象物を見ていない場合、注意判定部16は、ドライバに注意を喚起するよう、例えば、スピーカ(図示せず)に警告音を発させる。あるいは、注意判定部16は、車内に配置されたディスプレイ(図示せず)に、最新の車外画像及びその車外画像上で検出された注意すべき対象物を示すマーク(例えば、その対象物を囲む特定の色の枠線)を表示させてもよい。
The
図6は、制御部6により制御される注視位置検出処理を含む運転支援処理の動作フローチャートである。制御部6は、車外画像を受け取る度に、この動作フローチャートに従って運転支援処理を実行する。
FIG. 6 is an operation flowchart of driving support processing including gaze position detection processing controlled by the
視線検出部11は、車内撮像部3から受け取った最新の車内画像に基づいて、ドライバの視線方向を検出する(ステップS101)。そして視線検出部11は、その視線方向を表す方向ベクトルを交点算出部13へ通知する。
The line-of-
視線投影面設定部12は、車両10の周囲に、車両10の進行方向と平行、かつ、車外撮像部4から注意すべき対象物が位置する可能性がある距離だけ離れた位置に視線投影面を設定する(ステップS102)。そして視線投影面設定部12は、視線投影面を交点算出部13へ通知する。
The line-of-sight projection
交点算出部13は、ドライバの視線と視線投影面との交点を算出する(ステップS103)。なおこの交点の座標は世界座標系で表される。そして交点算出部13は、交点の座標を投影部14へ通知する。
The
投影部14は、ドライバの視線と視線投影面との交点を車外画像上へ投影して注視位置を特定する(ステップS104)。そして投影部14は、車外画像上の注視位置の座標を注意判定部16へ通知する。
The
また、注視対象検出部15は、車外画像上でドライバが注視すべき対象物が写っている領域を検出する(ステップS105)。そして注視対象検出部15は、注視すべき対象物が写っている領域の位置及び範囲を注意判定部16へ通知する。
In addition, the gaze
注意判定部16は、車外画像上でのドライバの注視位置が、何れかの注意すべき対象物が写っている領域の何れかに含まれるか否か判定する(ステップS106)。注視位置が注意すべき対象物が写っている領域の何れにも含まれない場合(ステップS106−No)、注意判定部16は、ドライバはその車外画像の生成時において、注意すべき対象物を見ていないと判定する。そして注意判定部16は、ドライバが注意すべき対象物を見ていない期間が、所定期間にわたって継続しているか否か判定する(ステップS107)。ドライバが注意すべき対象物を見ていない期間が所定期間にわたって継続している場合(ステップS107−Yes)、注意判定部16は、注意すべき対象物が車両10の周囲に存在することをドライバに警告する(ステップS108)。その後、制御部6は、運転支援処理を終了する。
The
一方、ステップS107にて、ドライバの注視位置が、何れかの注意すべき対象物が写っている領域に含まれる場合(ステップS106−Yes)、注意判定部16は、ドライバはその注意すべき対象物を見たと判定する。この場合、ドライバに警告せずに注意すべき対象物を見ていない継続期間の長さを0にリセットした上で、制御部6は、運転支援処理を終了する。またステップS108にて、ドライバが注意すべき対象物を見ていない継続時間が所定期間に達していない場合も(ステップS107−No)、制御部6は、ドライバに警告せずに運転支援処理を終了する。
On the other hand, in step S107, when the driver's gaze position is included in an area in which any target object to be watched is reflected (Yes in step S106), the
以上に説明してきたように、この注視位置検出装置が実装された運転支援装置は、ドライバの視線と、注意すべき対象物が存在する可能性のある位置に設定された視線投影面との交点を求め、その交点を車外画像上へ投影する。視線投影面の性質上、運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を、車外撮像部からこの交点までの距離によって近似できる。そのため、この運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を測定しなくても、車外画像上での注視位置の精度を向上できる。またこの運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を測定しなくてよいので、運転支援装置の構成を簡単化できる。 As described above, the driving support device in which the gaze position detection device is mounted is an intersection of the driver's line of sight and the line-of-sight projection plane set at a position where there is a possibility that an object to be noted exists. And the intersection is projected onto the image outside the vehicle. Due to the nature of the line-of-sight projection plane, the driving support device can approximate the distance from the outside imaging unit to the object that the driver is actually gazing with by the distance from the outside imaging unit to this intersection. Therefore, this driving support device can improve the accuracy of the gaze position on the outside image without measuring the distance from the outside imaging unit to the object that the driver is actually looking at. In addition, since this driving support device does not need to measure the distance from the vehicle exterior imaging unit to the object that the driver is actually watching, the configuration of the driving support device can be simplified.
なお、本発明は上記の実施形態に限定されるものではない。例えば、注視位置検出装置は、運転中にドライバが注視した物を解析する注視物体解析装置に実装されてもよい。注視物体解析装置も、図1に示された運転支援装置の構成と同様の構成を有することができる。この場合、例えば、視線投影面は、車外撮像部4から、解析対象とする物体が位置する可能性のある位置までの距離に応じて設定される。例えば、ドライバが注視した広告看板を特定したい場合には、視線投影面は、車外撮像部4から広告看板の推定位置までの距離だけ車外撮像部4から離れた位置に、車両10の進行方向と平行に設定されればよい。
In addition, this invention is not limited to said embodiment. For example, the gaze position detection device may be mounted on a gaze object analysis device that analyzes an object that the driver gazes during driving. The gaze object analyzing apparatus can also have a configuration similar to that of the driving support apparatus shown in FIG. In this case, for example, the line-of-sight projection plane is set according to the distance from the vehicle
またこの例では、注視物体解析装置は、例えば、全地球測位システム(Global Positioning System, GPS)のGPS衛星からの測位情報に基づいて、車両10の現在位置を検出する位置検出部(図示せず)をさらに有してもよい。さらに、注視物体解析装置の記憶部は、車両10が走行中のエリア内にある、広告看板の位置及び広告内容を表すマップ情報を記憶していてもよい。
In this example, the gaze object analyzing apparatus is a position detection unit (not shown) that detects the current position of the
この例では、制御部6の注視対象検出部15は、例えば、車両10の現在位置に基づいて、その現在位置の近傍にある広告看板に対応するテンプレートを記憶部5から読み込む。そして注視対象検出部15は、車外画像とそのテンプレートとのテンプレートマッチングにより、車外画像上でそのテンプレートと最も一致する領域に、そのテンプレートに対応する広告看板が写っていると判定する。
In this example, the gaze
また制御部6の注意判定部16は、車外画像上で広告看板が写っていると判定された領域内にドライバの注視位置が含まれる場合、ドライバはその広告看板を見たと判定する。そして注意判定部16は、直近の所定の期間にわたって、その期間内に取得された各車外画像においてドライバがその広告看板を見たと判定した場合、注視した広告看板の広告内容を記憶部5から読み出す。そして注意判定部16は、マップ情報を参照して、車両10の現在位置の周囲の所定の範囲(例えば、2km×2kmの範囲)内で、ドライバが注視した広告看板の広告内容と関連する店を検出する。例えば、ドライバが注視した広告看板の広告内容がレストランの広告であれば、注意判定部16は、レストランを検出する。そして注意判定部16は、車内に設置された表示部(図示せず)に車両10の現在位置の周囲のマップとともに、検出した店の名称及び位置を示す情報を表示させる。
Further, the
さらに他の変形例によれば、注視物体解析装置は、車外に設置された移動体通信システムの基地局と無線通信するための通信部(図示せず)を有し、その基地局を介して、車外の所定の場所、例えば、データセンターに設置されたサーバと通信可能であってもよい。この場合、注視物体解析装置は、車両10の現在位置、ドライバが注視した広告看板の位置及び広告内容を表す情報を含む信号を、通信部及び基地局を介して、サーバへ送信する。サーバは、マップ情報を参照して、車両10の現在位置の周囲の所定の範囲内で、ドライバが注視した広告看板の広告内容と関連する店を検出する。そしてサーバは、検出した店の名称及び位置を示す情報を、車両10に設置された注視物体解析装置へ返信する。
注視物体解析装置の制御部6は、車内に設置された表示部(図示せず)に車両10の現在位置の周囲のマップとともに、検出した店の名称及び位置を示す情報を表示させる。
According to still another modification, the gaze object analyzing apparatus includes a communication unit (not shown) for wirelessly communicating with a base station of a mobile communication system installed outside the vehicle, via the base station. It may be possible to communicate with a predetermined place outside the vehicle, for example, a server installed in a data center. In this case, the gaze object analyzing apparatus transmits a signal including information indicating the current position of the
The
さらに他の変形例によれば、制御部6は、車両10の走行中の一定期間中に生成されたそれぞれの車外画像に対して注視位置を示すマークを付し、そのマークを付した車外画像を記憶部5に記憶させてもよい。
これにより、注視物体解析装置は、その一定期間の車外画像上の注視位置を追跡することで、ドライバの視線の動きを解析することが可能となる。
According to still another modified example, the
As a result, the gaze object analyzing apparatus can analyze the movement of the driver's line of sight by tracking the gaze position on the image outside the vehicle for a certain period.
また、上記の実施形態及び変形例による制御部の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。なお、記録媒体には、搬送波は含まれない。 In addition, the computer program that realizes the function of each unit of the control unit according to the above-described embodiments and modifications is recorded in a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. May be provided. The recording medium does not include a carrier wave.
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。 All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
車両の乗員の視線の方向を検出し、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定し、
前記仮想的な面と前記乗員の視線との交点を求め、
前記車両の周囲の少なくとも一部の景色が写った画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
Detects the direction of the line of sight of the vehicle occupants,
An imaginary plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by an occupant is present at least partially around the vehicle. Set
Finding the intersection of the virtual plane and the sight line of the occupant,
A gaze position for causing a computer to detect a point on the image obtained by projecting the intersection on an image in which at least a part of the scenery around the vehicle is captured as the gaze position of the occupant Computer program for detection.
1 運転支援装置(注視位置検出装置)
2 光源
3 車内撮像部
4 車外撮像部
5 記憶部
6 制御部
11 視線検出部
12 視線投影面設定部
13 交点算出部
14 投影部
15 注視対象検出部
16 注意判定部
1 Driving support device (gaze position detection device)
2
Claims (3)
前記車両の乗員の視線の方向を検出する視線検出部と、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定する投影面設定部と、
前記仮想的な面と前記乗員の視線との交点を求める交点算出部と、
前記画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する投影部と
を有する注視位置検出装置。 An imaging unit that captures at least a part of the scenery around the vehicle and generates an image of the scenery;
A line-of-sight detection unit for detecting the direction of the line of sight of the occupant of the vehicle;
An imaginary plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by an occupant is present at least partially around the vehicle. A projection plane setting unit for setting
An intersection calculation unit for obtaining an intersection between the virtual plane and the line of sight of the occupant;
A gaze position detection apparatus comprising: a projection unit that detects a point on the image obtained by projecting the intersection point on the image as a gaze position of the occupant.
前記車両の乗員の視線の方向を検出し、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定し、
前記仮想的な面と前記乗員の視線との交点を求め、
前記画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する
ことを含む注視位置検出方法。 Get an image of at least part of the scenery around the vehicle,
Detecting the direction of the line of sight of the vehicle occupant,
An imaginary plane at a position away from the vehicle by a distance from the vehicle to a position where there is a possibility that an object to be watched by an occupant is present at least partially around the vehicle. Set
Finding the intersection of the virtual plane and the sight line of the occupant,
A gaze position detection method including detecting a point on the image obtained by projecting the intersection point on the image as a gaze position of the occupant.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012202501A JP6036065B2 (en) | 2012-09-14 | 2012-09-14 | Gaze position detection device and gaze position detection method |
US13/942,986 US9245171B2 (en) | 2012-09-14 | 2013-07-16 | Gaze point detection device and gaze point detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012202501A JP6036065B2 (en) | 2012-09-14 | 2012-09-14 | Gaze position detection device and gaze position detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014054486A JP2014054486A (en) | 2014-03-27 |
JP6036065B2 true JP6036065B2 (en) | 2016-11-30 |
Family
ID=50274066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012202501A Expired - Fee Related JP6036065B2 (en) | 2012-09-14 | 2012-09-14 | Gaze position detection device and gaze position detection method |
Country Status (2)
Country | Link |
---|---|
US (1) | US9245171B2 (en) |
JP (1) | JP6036065B2 (en) |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
WO2015026350A1 (en) * | 2013-08-22 | 2015-02-26 | Empire Technology Development, Llc | Influence of line of sight for driver safety |
WO2015064080A1 (en) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | Gaze direction-detecting device and gaze direction-detecting method |
JP6322986B2 (en) * | 2013-12-09 | 2018-05-16 | 富士通株式会社 | Image processing apparatus, image processing method, and image processing program |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20150206173A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9529199B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US12093453B2 (en) | 2014-01-21 | 2024-09-17 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9615742B2 (en) | 2014-01-21 | 2017-04-11 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9811152B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US20150221341A1 (en) * | 2014-01-31 | 2015-08-06 | Audi Ag | System and method for enhanced time-lapse video generation using panoramic imagery |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9852545B2 (en) | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US12112089B2 (en) | 2014-02-11 | 2024-10-08 | Mentor Acquisition One, Llc | Spatial location presentation in head worn computing |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
GB2536474B (en) * | 2015-03-18 | 2019-09-04 | Jaguar Land Rover Ltd | Situational awareness monitoring method and apparatus |
JPWO2016157951A1 (en) * | 2015-03-31 | 2018-01-25 | ソニー株式会社 | Display control device, display control method, and recording medium |
JP2017004117A (en) * | 2015-06-05 | 2017-01-05 | 富士通テン株式会社 | Line-of-sight detection apparatus and line-of-sight detection method |
US10591728B2 (en) | 2016-03-02 | 2020-03-17 | Mentor Acquisition One, Llc | Optical systems for head-worn computers |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
EP3468469A4 (en) | 2016-06-13 | 2020-02-19 | Xevo Inc. | Method and system for providing behavior of vehicle operator using virtuous cycle |
KR101896790B1 (en) * | 2016-11-08 | 2018-10-18 | 현대자동차주식회사 | Apparatus for determining concentration of driver, system having the same and method thereof |
US10186155B2 (en) * | 2016-12-22 | 2019-01-22 | Xevo Inc. | Method and system for providing interactive parking management via artificial intelligence analytic (AIA) services using cloud network |
CN109803583A (en) * | 2017-08-10 | 2019-05-24 | 北京市商汤科技开发有限公司 | Driver monitoring method, apparatus and electronic equipment |
TWI653170B (en) * | 2017-11-01 | 2019-03-11 | 宏碁股份有限公司 | Driving notification method and driving notification system |
KR20190050633A (en) * | 2017-11-03 | 2019-05-13 | 주식회사 만도 | System and method for controlling vehicle based on condition of driver |
CN107808397B (en) * | 2017-11-10 | 2020-04-24 | 京东方科技集团股份有限公司 | Pupil positioning device, pupil positioning method and sight tracking equipment |
CN109823344B (en) * | 2017-11-22 | 2021-10-22 | 宏碁股份有限公司 | Driving prompt method and system |
CN110758237A (en) * | 2018-07-27 | 2020-02-07 | 深圳富泰宏精密工业有限公司 | Electronic device and driving safety reminding method |
JP7155750B2 (en) * | 2018-08-23 | 2022-10-19 | トヨタ自動車株式会社 | Information systems and programs |
WO2020170916A1 (en) * | 2019-02-22 | 2020-08-27 | パナソニックIpマネジメント株式会社 | State detection device and state detection method |
US10933803B2 (en) * | 2019-03-31 | 2021-03-02 | Gm Cruise Holdings Llc | Autonomous vehicle visual based communication |
US20230156178A1 (en) * | 2020-04-02 | 2023-05-18 | Kyocera Corporation | Detection device and image display module |
CN113815623B (en) * | 2020-06-11 | 2023-08-08 | 广州汽车集团股份有限公司 | A method for visually tracking the gaze point of human eyes, a vehicle early warning method and device |
US20230388479A1 (en) * | 2020-10-30 | 2023-11-30 | Kyocera Corporation | Detection device and image display system |
US11623654B2 (en) * | 2021-05-05 | 2023-04-11 | Nissan North America, Inc. | Systems and methods of assisting vehicle navigation |
US11827150B2 (en) * | 2021-09-21 | 2023-11-28 | International Business Machines Corporation | Computer-implemented object visibility improvement by interposing an image in a viewer's line-of-sight |
US12159468B2 (en) | 2021-10-08 | 2024-12-03 | Woven By Toyota, Inc. | Vehicle occupant gaze detection system and method of using |
US11704698B1 (en) | 2022-03-29 | 2023-07-18 | Woven By Toyota, Inc. | Vehicle advertising system and method of using |
US12027050B2 (en) | 2022-03-29 | 2024-07-02 | Woven By Toyota, Inc. | Hazard notification method and system for implementing |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06189906A (en) | 1992-12-26 | 1994-07-12 | Nissan Motor Co Ltd | Visual axial direction measuring device |
JP3941926B2 (en) | 2002-03-12 | 2007-07-11 | 松下電器産業株式会社 | Vehicle periphery monitoring device |
JP4206928B2 (en) * | 2004-01-19 | 2009-01-14 | 株式会社デンソー | Collision possibility judgment device |
JP4345526B2 (en) | 2004-03-08 | 2009-10-14 | 株式会社デンソー | Object monitoring device |
JP4270010B2 (en) * | 2004-04-05 | 2009-05-27 | 株式会社デンソー | Object danger judgment device |
CN101356078B (en) | 2005-12-12 | 2012-07-18 | 松下电器产业株式会社 | Safety-travel assistance device |
JP2008280026A (en) * | 2007-04-11 | 2008-11-20 | Denso Corp | Driving assistance device |
JP4935571B2 (en) | 2007-08-08 | 2012-05-23 | 株式会社デンソー | Driving assistance device |
JP5278461B2 (en) * | 2011-02-03 | 2013-09-04 | 株式会社デンソー | Gaze detection device and gaze detection method |
-
2012
- 2012-09-14 JP JP2012202501A patent/JP6036065B2/en not_active Expired - Fee Related
-
2013
- 2013-07-16 US US13/942,986 patent/US9245171B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014054486A (en) | 2014-03-27 |
US9245171B2 (en) | 2016-01-26 |
US20140078282A1 (en) | 2014-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6036065B2 (en) | Gaze position detection device and gaze position detection method | |
JP4612635B2 (en) | Moving object detection using computer vision adaptable to low illumination depth | |
CN110703904B (en) | An augmented virtual reality projection method and system based on gaze tracking | |
US10634918B2 (en) | Internal edge verification | |
TWI522257B (en) | Vehicle safety system and operating method thereof | |
KR20180022374A (en) | Lane markings hud for driver and assistant and same method thereof | |
US11024040B2 (en) | Dynamic object tracking | |
JP2009265722A (en) | Face direction sensing device | |
JP2014154898A (en) | Object detection device | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP6669182B2 (en) | Occupant monitoring device | |
JP2012115505A (en) | Visual line detection device and visual line detection method | |
JP2006338594A (en) | Pedestrian recognition device | |
JP2013257244A (en) | Distance measurement device, distance measurement method, and distance measurement program | |
KR20210150881A (en) | Electronic apparatus and operaintg method thereof | |
JP6717330B2 (en) | Eye-gaze detecting device, control method of the eye-gaze detecting device, method of detecting corneal reflection image position, and computer program | |
JP2020038551A (en) | Face orientation detection device, face orientation detection method, and control program | |
KR101935853B1 (en) | Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) | |
KR20190071781A (en) | Night vision system for displaying thermal energy information and control method thereof | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JP2024015666A (en) | Line-of-sight estimation device, computer program for line-of-sight estimation, and line-of-sight estimation method | |
KR20190070951A (en) | Night vision system | |
JP2018004325A (en) | Gaze point detector, gaze point detection method, gaze point detection system, and vehicle | |
CN105930764B (en) | Imaging device capable of imaging stereoscopic vision, imaging method, and storage medium | |
JP7420441B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6036065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |