米国で自動運転車のテスト中に事故が起きて、
歩行者が亡くなった。
こういう場合誰が責任をとることになるのか。
国交省書の有識者会議の報告書によると
今まで通り原則、車の所有者ということになる。
ただし、車のシステムに明確な欠陥がある場合は
製造者責任としてメーカー側が負ううことになる。
でも、これってどうなのだろうか。
車が勝手に事故を起こすことって、絶対にないのだろうか。
人間よりもAIの方が、100%安全運転できるのだろうか。
事故で加害者になったとき、どうやって謝罪するのだろうか。
私は運転していなかったので、悪いのは自動車ということ?
自己責任時代ではあるが、AIの起こしてた事故責任を負うのって、
なんか釈然としない。
話は違うけれど、酔っ払って自動運転車に乗っていたら
どんな罪に問われるのだろうか?
でも、私は免許も車も持っていないから、
いずれにしろ、被害者にしかなりようがない。
ログインしてコメントを確認・投稿する