mixiユーザー(id:6393203)

2017年03月02日19:54

208 view

■AI研究の倫理指針「AI自身も守って」 人工知能学会

■AI研究の倫理指針「AI自身も守って」 人工知能学会
(朝日新聞デジタル - 03月02日 15:14)
http://news.mixi.jp/view_news.pl?media_id=168&from=diary&id=4458081

>>>>>
 人工知能(AI)自身にも倫理性を――。大学や企業の研究者で作る人工知能学会が28日、人工知能の研究開発の倫理指針をまとめ、ホームページで公開した。研究者が備えるべき倫理性を、人工知能自身にも求めたのが特徴だ。技術が進歩し、「人工知能が人工知能を作り出す」時代の到来を見越した。

 指針は学会の倫理委員会が2年かけてまとめ、理事会が承認した。最終の第9条で「人工知能が社会の構成員またはそれに準じるものとなるためには、(中略)学会員と同等に倫理指針を遵守(じゅんしゅ)できなければならない」とした。学会員向けには1〜8条で開発と利用の際の安全確保、利用者への情報提供や注意喚起、差別の禁止、プライバシーの尊重、悪用防止、社会との対話などを挙げた。

 人工知能の進歩はめざましく、会社の経営判断や医師の治療行為を補助する人工知能が登場し、いずれ自ら考えて行動し、人工知能を作る人工知能が登場すると予測される。時期は十数年後とも半世紀以上先ともいわれ、予測はまちまちだが、欧米では、技術の後追いになって社会が混乱しないよう、例えば法人格のような法律上の責任主体としての「人格」を人工知能に与えるなどの提案が出ており、倫理委も参考にした。

 当初は拘束力が伴う倫理綱領とする構想だったが、自由な研究開発の妨げになるとの判断から、緩やかな「指針」に変更した。社会と対話しながら書き換えていくという。松尾豊委員長(東京大特任准教授)は「社会の構成員としての人工知能の姿は、鉄腕アトムやドラえもんになじんだ日本人にはイメージしやすいと思う。9条をきっかけに、人工知能のあるべき姿の議論が社会の中でも深まることを期待したい」と話す。

 人工知能は社会の生産性や利便性を高める半面、個人情報を分析して人物評価を下す「プロファイリング」がプライバシーの侵害や差別の助長につながったり、自動運転車が交通事故を起こしたり、株式売買を人工知能で瞬時に行う「超高速取引」が経済格差を拡大させたりするといった社会不安を招きかねない側面がある。

 米国のビル・ゲイツ氏や英物理学者スティーブン・ホーキング氏など多くの著名人が、高度な人工知能に対して「人類への脅威になりうる」と警鐘を鳴らしている。

 倫理指針は同学会倫理委員会のホームページ(http://ai-elsi.org/archives/471)に掲載されている。(嘉幡久敬)
>>>>>

こういう記事を読んでいると、日本という国が次第に活力を失って、没落してゆくのだろうという感慨を持たざるをえない。大学が軍事目的の研究を拒否したり、企業が平和利用のみに限定することになんら疑問を持たない状況である。

もちろん、AIに倫理を持たせたところで、誰かがそのような制約のないAIを作り上げるだろう。その作り上げる過程で人類の危機が訪れるかも知れず、滅亡もありうるが、それだってやってみなければ分からないはずだ。

戦争を禁止したところで誰かが行うにきまっている。核廃絶と同じ問題がある。核廃絶するというお題目はよい。では世界中から核兵器を廃絶に成功したとする。そのあとについて、少しでも現実的な想像をするならば、その時点で、誰かが核兵器を持ちだしたら、どのようにその勢力と対抗するのか。

冷戦時の抑止力という考え方には当然一理しかないしが、一理はあるのである。当然だが、核兵器を持てば、世界中に圧力をかけるのは当然ではないか。誰もがよい人である?これだけブラック企業がはびこる意地汚さであふれる国に生まれてそのような能天気な気分になれるのはどういう事か。

もちろん、いつの時代に生まれてもきっと、この国は終わりだ、と思ったことだろう。戦争中は当然だとしても、ロシア戦争中でさえ、幕末でさえ、江戸幕府の始まりでさえ、楠木正成が敗北したときも、蒙古襲来の時も、きっと物部氏が滅亡したときも。

それでも続いてきたのだから、それは杞憂であることは間違いないとしても、だからと言って、その当時の人々の中にも文句がなかったはずもないと思ったりする。

だが、少なくとも、なんであれ蓋をするのはよろしくない。それだけは唯一の根拠としてあるようだ。隠しおおせなければならない事情があるのは理解できる。だが、懸念があるというだけで蓋をするのには常に賛成しない。

アシモフにロボット三原則がある。これもおそらく今の時代ならロボットに対する倫理指針と呼ばれたりするのだろうか。

第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

人間に危害を加えてはならない。命令に服従しなければならない。自衛する権利を有する。

おそらくAIについて求めるものもこれを外れる事はない。だがロボット三原則はロボットが守るべき法であるが、倫理規定はAIではなく、研究者が守るべき法に過ぎない。キカイダーの良心回路みたいなものをAIには組み込まなければならない、という指針である。

アシモフが図らずしも書いたように(読んだ事はないのだが)、ロボット自らが考えて矛盾に突き当たる、人間でいうところの究極の選択みたいなものが、必ず論理構造の中にはあるはずである。数学的には確か、不完全性定理と呼んだっけ。

AIが論理を積み重ねてもそれに突き当たる事は十分に考えられる。だが人間に危害を加えないという命題は、危害を加えないの実際があらかじめ得られなければ判定できないはずである。

車を運転する。赤信号でも交差点に入る車も多い。そこで事故が起きなかったのは偶々に過ぎないが、そこで事故を起こせば危害を加えたといえる。だから危害というものにも、過失と故意がある。

ここでAIがしてはならない危害とはおそらく故意であろう。ならば過失ならばAIは人間を滅ぼしてもよろしいか。ならば、故意ではないが、過失として人間を滅ぼすように動き出したAIの論理を、ジャックのようにいいや、これは故意であると訴えることのできる人間は存在しるか。

Masterの一手の意味さえも、その論理的な因果関係さえも既に理解できないというのに。

AIの出現とトランプ大統領の誕生が決して無関係ではないように、新しい何かの準備が必要だという予感を誰もが持っている。AIに対して倫理をという考えもその一手であるが、それは明らかに素人手である、と僕は言いたい。
0 2

コメント

mixiユーザー

ログインしてコメントを確認・投稿する

<2017年03月>
   1234
567891011
12131415161718
19202122232425
262728293031