0その6

いまさら聞けない人工知能・その6
「AI倫理って? 」

1 「AI倫理」って
いったい何?

AIの「倫理」について
考えよう

みなさん、こんにちは。
AI(人工知能)とは、まさに人間によって作られた知能。AIは人が行っている知的作業の代行にくわえ、人にはできないことができるように設計され、進化してきました。しかし、それは同時にAIが「人と同様の責任や価値観」を負ったり、「人がこれまで負ったことのない責任や価値観」を負ったりする可能性が生まれることになりました。今回は、そんな「AIについての倫理」のお話です。

そもそも「倫理」とは何でしょうか。
辞書には「人として守るべき道」として、「道徳」や「モラル」と同じ意味として書かれています。強制力がある「しなければならないこと」というよりは、「そうした方がよりよいこと」として扱われ、それぞれの人の判断や意思によって行われることが多い考え方・価値観を指します。

AIと責任

さて、今、AIの利用において避けて通れないのが「AI倫理」の問題です。

たとえば、医療の現場では現在、画像解析を用いたレントゲンや心電図の診断サポートなどにAIが導入されていますが、もし今後、医師が行う診断の最終的な判断もAIが行い、生命に関わる誤診が起こってしまったら、その責任は誰が負うことになるでしょうか。また、AIで制御された完全自動運転(無人)車が人身事故を起こしてしまった場合はどうでしょうか。

いくつかの異なる価値観が交わるなかで判断しなければならない時や、偶然や不確かさのもとに起こってしまう事故を未然に防ぐことなどを、果たして人に代わってAIが行うことができるのか、その倫理的な問題が議論されています。先ほどもあったように、人間の倫理観もまた、それぞれの人の判断や意思にゆだねられていることが多く、人間でさえも難しい問題だからです。

CHECK!

人間が行っている知的作業の代行や、人間にはできないことがAIにできるようになったから、その責任をどう取るのかは難しいね。

2 「人間中心のAI」
であり続けるために

AIは、人と社会を
豊かにするもの

「AI倫理」については、今もさまざまな場面で議論が繰り返されています。AIは、人の作業の代行や人にはできないことが行え、生活や社会をより豊かにする可能性のあるものです。これからは、テクノロジーと通信の劇的な発達によって、さらに進化が加速するでしょう。ただ、その背景には、生命の尊厳や差別の問題、一人一人のプライバシー、人権など、人に関するとても繊細な問題が、常に存在しています。

便利で快適、その利便性を追求していきながら、AIは原則として安心で、安全なものであることが不可欠ですね。AIを開発し、さまざまなものに導入している企業では、その観点での「責任あるAI」と呼ばれる向き合い方が主流になってきています。

「責任あるAI」を目指して

「責任あるAI」とは、安心・安全で信頼できる、人間中心のAIをつくっていく際に、企業が行なうべき必要な姿勢・行動のことです。

たとえば、差別などが起こってしまわないように、AIの判断結果に偏りが生じないようにする「公平性」の視点や、セキュリティ対策や想定通りの動作を追求し、プライバシーや生命を守っていく「安全性」の視点、AIの判断基準を言葉で説明できる「透明性」や、AIを使うときに起こるかもしれないことをしっかり説明しておく「説明責任」の視点などをふまえて、さまざまなバランスを取りながら、安心で安全なAIを目指していく必要があるのですね。

AIの進化は、人間そのものの進化でもあります。人と社会を豊かにするために作られたAI。あらためて私たちは、日々の倫理観とAIに関する知識をもっと深め、人間社会を豊かにする視点で考え、AIと向き合っていくことも必要かもしれませんね。

CHECK!

安心で安全なAIにしていくために、人も進化していかないといけないんだね。