デンソーが考える衝突回避、そして自動運転の未来技術

世界最小のステレオ画像センサー開発

 デンソーは27日、世界最小のステレオ画像センサー(写真)を開発したと発表した。ダイハツ工業が11月末に発売した軽自動車「タント」の衝突回避支援システム「スマートアシスト3」に採用された。デンソーがステレオ画像センサーを製品化するのは初めて。

 センサーサイズは幅125ミリ×高さ35ミリ×奥行き85ミリメートル。ルームミラー裏側に搭載された。ステレオ画像センサーは測定可能な距離が遠くなるほど二つのカメラ間の幅が大きくなるため、全体サイズも大きくなる。今回「サブピクセルマッチング」と呼ばれる技術を用い、必要な測定距離を維持しつつカメラ間の幅を80ミリメートルと本来必要な大きさの半分にした。

 距離を測るには複数のセンサーを使うのが一般的。デンソーはダイハツやトヨタ自動車の衝突回避支援システム向けにレーザーレーダーや単眼カメラを供給しているが、ステレオ画像センサーはなかった。

 歩行者にも対応する自動ブレーキやオートハイビームなどの機能があるスマートアシスト3は、新型タントに初搭載された。

日刊工業新聞2016年12月28日


                 


開発は非常に慎重に進めている


 今年7月に加藤良文常務役員が講演で、高度運転支援システム(ADAS)や自動運転技術の開発戦略を語っている。衝突回避支援システムや自動運転の技術は今後どう進化するのか。そのカギを、加藤氏の講演から読み解く。

 そもそも自動運転をどう定義するか。デンソーは「①周辺環境を認識し、②自動で走る・曲がる・止まるを制御し、③安全・快適に目的地まで到達させる」技術だとみている。

 このうち、最も重要なのが①の周辺認識の技術だという。現在のクルマにはカメラやミリ波レーダーが搭載されることが多くなり、ドライバーに衝突の危険を知らせたり、自動ブレーキをかけたりするようになってきている。

 周辺認識技術のスタンダードな仕組みは、単眼カメラやミリ波レーダーを組み合わせて前後方をみるもの。これにソナーを使うこともある。これによって自車の周辺100メートル~250メートル程度を認識できる。

 今後は自動運転化が進むにつれ、個々の車がより遠くの状況も認識することが必要になってくる。こうしたことから、デンソーは「V2X」(Vehicle to X)と呼ばれる、車同士(車車間)や車と路面(路車間)をつなげる通信機器を使い、1000メートル単位で周辺状況を取得。さらにクラウド通信器や「ADASロケータ」(位置情報提供装置)などの機器を装備して、1万メートル(10キロメートル)先の情報を得ることを想定している。
講演する加藤氏


「3万2000次元」の特徴を分析して歩行者を認識


 また、歩行者の認識も自動運転の前提として重要になる技術。歩行者と一口にいっても、ベビーカーを押す人から杖をつく人、裾の広がるスカートをはく女性などさまざまな人がいる。また、車の前に飛び出てきたのが人なのか、動物なのか、はたまたゴミなのか。これを判別できない限り、正確な自動運転はできない。

 デンソーは実に3万2000次元の歩行者の特徴を分析し、カメラに映る物体が歩行者なのか、そうでないのかを判別するシステムを作り上げたという。

 加藤氏は講演で、「いつもする例え話」として、「BMI指数」を挙げた。BMIは身長と体重からその人の肥満度を調べる指数のことだが、ここで出てくる数字は、身長と体重の2次元となる。

 同社は歩行者認識のために、人の写真データから、3万2000次元の特徴量を分析。歩行者の画像データを2000万枚、人ではない障害物などのデータを約2億枚集めて、スーパーコンピューターによって1カ月ほど膨大なデータを計算したという。

 加えて、デンソーはレーザーによって周辺環境を認識する「走査型LIDAR」にも注目する。自動運転車では、歩行者などを認識するだけでなく、「何もない空間=移動可能な空間」を認識することが必要だ。

 車の周辺には、カメラでは認識できなくとも、レーザーをあてると「道にはタイヤの切れ端から、ソファー、野菜などまで落ちている」(加藤氏)。こうしたものを発見できなくてはレーンチェンジや駐車時に障害物に当たってしまう。

 カメラによる周辺認識に、LIDARによる計測を加えた「センサーフュージョン」がホットな話題になっているのだという。

「クルマから人への情報伝達」もカギに


 一方、加藤氏は今後、クルマと人との情報のやりとりをする「ヒューマン・マシン・インターフェース」(HMI)の重要性が増してくるとみている。例えば自動運転モードで走行している際、ドライバーが寝たり、注意が散漫になっていたりすると、手動運転に戻した瞬間に事故を起こす可能性がある。自動運転車ではドライバーの状況をクルマ側が確認しなくてはならないのだ。

 ではクルマはどうやってドライバーをみるか。デンソーが研究開発しているのは、ドライバー前方にカメラや投光器を設置し、そこからドライバーの顔を検出するシステムだ。

 具体的には、左右の目と鼻の周辺を結んだ三角形を描き、顔の筋肉の動きを見る、というもの。これによって、ドライバーが笑っているのか怒っているのか、はたまた眠くなっているのかなどを推定する。眠そうだと判断したら警告を出すなどする。

 もうひとつ、加藤氏は、必要な情報をフロントガラスなどに投影する「ヘッドアップディスプレイ」(HUD)も重要になってくる技術だという。人の視野には「中心視野」と「周辺視野」があり、周辺視野はぼやっとしか見えていないが、そこにあるものが動いたり点滅したりすると分かるという。

 現在のクルマではHUDに速度などを表示するものがあるが、今後は下り坂で斜度がある程度分かるように線を表示することなどを考えているという。

自動運転技術は今後、どう進むのか


 自動運転の技術は今後、段階的に進んでいくという見方が多い。ドライバーが何らかの形で主体的に運転に関わるレベルから、最終的にはまったく関与しない完全自律型までが想定される。

 講演の最後、質疑応答で会場からテスラ車が起こした事故について問われた加藤氏。事故へのコメントは避けつつ、自動運転システムの開発は非常に慎重に進めていることを明かした。

 「自動運転という名前のついたシステムで事故が起きることは、高度交通支援システム(ADAS)を出した時から想定しており、事故の可能性を極力減らすという方針でやってきた。世の中に出す前に200万キロメートル以上の走行実績を積んでいる。いま我々がやっているのはすべてドライバー主権のシステムです」。

 クルマは今後、レーダーやHUDなどの搭載が進み、徐々に高機能化していく。その意味では、航空機のように高度なシステムの集合体になっていくと考えられる。自動運転技術は競争が激しくなり、日進月歩で進んでいる一方、事故時の責任の所在をめぐる論争は決着していない。デンソーをはじめとするメーカー側も、非常に慎重な姿勢で研究開発を進めているようだ。

ニュースイッチ2016年07月29日


※内容は当時のもの

明 豊

明 豊
12月28日
この記事のファシリテーター

東京・渋谷にあるデンソーアイティーラボラトリはAIの拠点。そこでは運転者の意図を理解する「意図推定」、車両の周辺状況を把握する「周辺状況認識」、それら二つの情報を解析して渋滞予測や運転者の疲労度などを提示する「情報解析・生成」、分かりやすく適切に情報を提示する「ユーザーインターフェース」などを研究している。開発を慎重に進めていることが記事から分かるが、一方でAIが今後、事業化へどのようなスピードで反映されていくか意思決定のプロセスも興味深いところだ。

この記事にコメントする

  

ファシリテーター紹介

記者・ファシリテーターへのメッセージ

この記事に関するご意見、ご感想
情報などをお寄せください。