自動運転車と責任について

               

電話問い合わせ可能時間:月曜日~金曜日 午前10時~午後8時
※夜間、土日祝も適宜対応可能

自動運転車と責任について

こんにちは。弁護士の小川です。

 

1 はじめに

 2018年3月、自動運転車が昨年、アリゾナ州で女性(49)をひき、死亡させた事故が起き、自動運転車の安全性が議論されるようになりました。

 

 この事故から1年半が経過した2019年11月5日、アメリカの大手配車サービス会社のUberが、この事故についての報告書を発表しました。

 

 様々な業界でAIによる自動化が叫ばれている現代において、この事故は、今後のAIによる自動化の議論に大きく関係する事例となりますので、この事例を用いて、このような場合、誰がどのような責任を負うのかについて見ていきましょう。

 

2 この事故が起こった原因とあり得る責任主体について

 Uberが発表した報告書によると、今回の事故が起こった最大の理由は、車道を歩いていた女性をAIが人間だと判断できなかったため、車のブレーキ等の制動が遅れたとされています。つまり、プログラムに欠陥があったということが原因で今回の事故があったことになります。

 

 また、この車の運転手が前方注視を怠り、テレビ番組を見ていたため、運転手自身がブレーキをかけることができなかったことも原因の1つとなっています。

 

 こうみると、プログラムの開発者と運転手には責任がありそうです。

 

 他にも、今の法律に照らし合わせると、車の所有者も損害賠償などの責任を負いそうですし、車のメーカーも製造物責任法で責任を負うことになりそうです。

 

 

3 誰が責任を負うのか

(1)運転手

 現在の自動運転車はいずれも完全な自動運転ではなく一部は人力で制御することが前提の自動運転車となっています。そのため、運転手も普通の自動車を運転するときと同様に運転する際には前方注視などの注意義務を負います。

 したがって、このような事故を起こした場合、運転手は民事上注意義務違反として損害賠償の責任を負う可能性があり、また、刑事上も過失運転致死罪に問われる可能性があります。

 

(2)所有者

 現在の法律では、人を轢いてしまった車の所有者は運行供用者責任(自動車損害賠償保障法3条)を負います。自動運転であっても、この責任を負うことは原則として免れられません。

 ただし、①運行供用者又は運転手が注意を怠らなかったこと、②第三者に故意過失があったこと、③自動車に構造上の欠陥または機能の障害がなかったこと、の3つを全て満たせば例外的に損害賠償の責任を免れることができます。

 

 しかし、今回の事例では、運転手が明らかな前方不注視をしていますので、①の要件を満たすことができず、車の所有者も損害賠償の責任を負うことになります。

 

 他方、現在の法律では単に車を所有しているだけで罪に問われることはありませんので、運転手と違い罪に問われることはありません。

 

(3)自動車メーカー

 自動車メーカーは、事故を引き起こした自動運転車という「製造物」を製造し、販売しているため、不法行為責任のみならず製造物責任(製造物責任法3条)を負うことになります。

 

 製造した自動運転車に欠陥がなければ、このような責任を負うことはありませんが、今回は開発した自動運転車が、車道の人間を人間と認識できないという大きな欠陥を抱えているため、不法行為責任や製造物責任に基づき、損害賠償の責任を負うことになります。

 

 また、製造物した自動運転車が一般的に欠陥を持っていることがありえること、欠陥があれば事故が起きうることは容易に想定ができますので、その欠陥をあらかじめ予見できたにも関わらず対策を講じなかった場合には、業務上過失致死傷罪に問われる可能性があります。

 

 しかし、今回のケースでは、人間を認識できないということがあらかじめ報告されていたわけではないため、AIの欠陥を自動車メーカーがあらかじめ把握することが難しかったと思います。また、おそらく何度もAIが人間を認識できるのかの実験を幾度となく行っているはずですから、自動車メーカーが欠陥を認識し対策ができたのかといわれると疑問符がつくところですので、業務上過失致死罪を負うことはないと思われます。

 

(4)プログラムの開発者

 プログラムの開発者は、人を正しく認識できないAIプログラムを開発したということで、いかにも責任を負いそうに思えます。

 

 しかし、自動運転車のシステムはAIプログラム以外のシステムも含まれて一体として構成されていることから、自動運転車全体のみを「製造物」として考え、AIプログラムだけ取り出して「製造物」とは考えないため、自動車メーカーと違い製造物責任等に基づいた法律上の責任を負うことはありません。

 

 もっとも、そのような不完全なプログラムを作ってしまったということは間違いありませんので、社会的な非難にあってしまうという意味での責任を負うことにはなります。

 

4 最後に

 今回の事故の原因を見てみると、AIが人間を人間として認識できずに起こった事故ともいえます。こういう風に捉えてしまうと、なんだか怖い話ですね。

 

 弊所には、AI・ビッグデータ・個人情報の取り扱いに対して、豊富な知識を有している弁護士も在籍しております。

 

 「うちの会社はどうなのだろうか」「今回の事件をみて、うちの会社のAI事業はどんなリスクがあるのか見直したい」等がございましたら、一度、弊所までご相談にいらしてください。

 

 会社の業種、状況などから予想されるリスクの種類の大きさを一緒に考えていきましょう。その上で、費用対効果の観点から望ましい、企業ごとにカスタマイズした個人情報の取り扱いをご提案させていただきます。

 


お気軽にお問い合わせください