なぜいま「ロボット倫理学」が必要か〜問題はすでに起きている

なぜいま「ロボット倫理学」が必要か〜問題はすでに起きている

  • 現代ビジネス
  • 更新日:2017/01/12

「ロボット倫理学」とは何か?

21世紀に入ってすでに16年が過ぎた。我々は、かつて小説や漫画や映画で描かれた輝かしい(あるいは恐ろしい)近未来、あの21世紀を生きている。

もちろん「SF物語に描かれた21世紀」と「現実の21世紀」の間にある隔たりは大きい。我々は鉄腕アトムが空を飛ぶ風景を見ることはないし、自我に目覚めたスカイネットの人間狩りに怯えることもない。

ただし、「現実」の21世紀でも、かつてのSFと同様に(あるいはそれ以上に)重要な問題が生じている。その一つが「ロボット倫理学」と呼ばれる新興学問領域だ。

これは、「ロボットが備えるべき倫理」を考える学問であり、その反対に「ロボットを扱う際に必要な倫理」を探求する学問でもある。

とはいえロボット倫理学は、「人工知能が本当に倫理を理解することは出来るのか?」とか「人間と区別のつかないロボットが作られたら彼らに人権を認めるべきなのか?」といった、現時点ではいつ実現するのか分からない遙か未来の問題を扱う空想的な分野というわけではない。

むしろ、今実際に起こりつつある問題を扱うからこそ、注目が集まっているのである。

日に日に広がる判断領域

人間による直接的な操作や制御がない状態で人々の福利に大きな影響を与える業務に従事する機械やソフトウェアは、実験段階のものを含めればすでに多数存在する。

例えば、戦場で自動的に敵味方を識別し、敵兵を狙撃する陸戦用ロボット。人間の運転手がハンドルを操作しなくても適切な車線を認識し走行する自動走行システム。高齢者のベッドからの乗降や入浴・排泄などの介助をおこなうケアロボット。

あるいはそのような身体としてのハードウェアは持たなくても、画像識別や他言語への翻訳、はては株式売買などの決済をサポートするネットワーク上の人工知能──。

ひとまず、これらロボットと人工知能を総称して「自律機械」と呼びたい。

もちろん、それぞれの「自律性」には程度の差があり、完全に人間の手を離れて作動するものばかりではない。

さらに、実用化を視野に開発が進められているとはいえ、これらの機械やソフトウェアは人権に配慮した道徳判断を下す能力を有しているわけではなく、モラルに従おうと意図して作動しているわけでもない。

その意味では、「自律機械に倫理が必要だ」と主張すると、過剰な擬人化に陥ってしまい、今の自律機械に実行不可能なこと(倫理的判断)を自律機械にやらせようとする無謀な試みに繋がりかねない危険もある。「できないこと」を「するべきだ」と言っても益はない。

だがその一方で、自律機械に判断が委ねられる領域が日に日に拡大していることは事実であり、その結果として、自律機械の振る舞いによって人々が被る影響も、良くも悪くも増大しつつある。

AIが起こした事故は誰のせい?

例えば昨年、レベル2(加速や操舵などの操作の一部をシステムが代行するレベル)の自動走行システムを搭載した米テスラの電気自動車が人身事故を起こし、運転手が死亡したというニュースがあった。

その際、「自動運転車が事故を起こした場合、その事故の責任はどうなるのか?」という問題が注目を集めた。

もちろん、人工知能の動作により人々が危害を被った場合の責任問題は法的にも倫理的にも議論が必要だが、特に自動運転車に関して「ロボット倫理学」が必要とされる状況は、正常な作動の結果として不可避的に事故が生じる場面にある。

倫理学でおきまりの「トロッコ問題」を例に、少し考えてみよう。

今ここに、自動化レベル4(人間は目的地を設定するだけで、走行中の制御は全てシステムに委ねられるレベル)の自動走行システムが実現したと想定しよう。そしてそのシステムは、きわめて正常に作動している。

ところが、そのシステムを搭載した自動運転車の走行中、目の前で事故が起こり、複数の人間が車線上に投げ出された。このまま進めば多くの人命が失われる。もし対向車線に大きくはみ出せば、その5人の命は助かるが、対向車が巻き込まれてその運転手が命を落とす。道路の反対側は崖になっており、そちらに向かえば自動運転車に乗っている人間が犠牲になる。

そのまま進むか、被害の少ない対向車線に向かうか、それとも自己犠牲か。どれか一つしか選べないとき、自動運転車の走行システムはどの選択肢を選ぶようにプログラムされるべきなのか?

そこでさらに、自動運転車のシステムが、倒れている人々と対向車の運転手を瞬時に認識し、それぞれの年収、年齢、病歴などを参照した上で、最も損害額が少なくなるような判断をするように設計できると想定しよう。

そうすれば、どの選択肢を選んでも何らかの被害が生じる状況でも、最善の選択が出来るように見える。だが、たとえそのような判断が技術的に可能になったとしても、それを実装するべきではない。

なぜなら、人工知能が対向車の運転手を「この人間はすでに大病を患っているため、優先度が低い」などと判断したことによって自動運転車が対向車線に飛び出すようになってしまえば、優先度を低く設定された人々だけに、自動運転車が引き起こす事故に巻き込まれるリスクが高まってしまうことになるからだ。

結果として、自動運転が普及することで交通事故の数そのものは減少したとしても、事故のリスクを含めた社会的格差は今よりいっそう大きなものになってしまう。言い換えれば、「命に値段をつける」ことになってしまうのである。

だからといって、「事故が起こった際には自分を犠牲にする」と設計されたシステムにはほとんどの人々が乗りたがらないだろう。以上の例は思考実験だが、完全自動運転が実現した際には必ずどこかで起こりうる問題でもある。

走行システムがどのように判断することになるのかは将来の技術者や自動運転をとりまく交通法規、あるいは今後の保険制度の仕組みによって変わるだろう。ただし、そのような状況での判断基準を何らかの形で設定しなければならないことだけは確実である。

なぜいま倫理が必要なのか?

さて、コリン・アレンとウェンデル・ウォラックという倫理学の研究者は『モラル・マシーンズ:ロボットに善悪の区別を教える』という本の中で、ロボット倫理学が扱うべき問題を次の三つに整理した。

(1)なぜ自律機械に倫理を実装する必要があるのか?
(2)我々は倫理的判断を自律機械に任せてもよいのか?
(3)どのように設計すれば、自律機械に倫理を実装したことになるのか?

「なぜ倫理が必要なのか?」という問題については、以上の説明が答えになるだろう。

現在、自動化されたシステムによって人々の権利や生命が左右される場面は増えつつある。我々の生活に実際に影響を与える人工知能やロボットが、我々の権利や生命に無関心のままでいて欲しいとは誰も思わないだろう。

人間がおこなう倫理的判断とまったく同じものである必要はないが、自律機械の行動や判断が何らかの仕方で「倫理的」な基準を満たすことは求められる。

仮に自律機械が倫理的基準を満たした行動ができるようになったとしても、どの領域で倫理的な自律機械を用いるべきかが次の問題となる。さきほど「できないこと」を「するべきだ」と言っても益がないと述べたが、「できる」というだけでも「するべきだ」という結論は導かれない。

No image

〔PHOTO〕gettyimages

AIに「倫理的判断」を委ねられるか

例えば簡単な会話やレクリエーションを行うことができるコミュニケーション・ロボットが実験的に高齢者介護施設に導入され、入居する被介護者の人々を楽しませている。

ロボットという新たなガジェットが人々の輪に入ることによって入居者同士のコミュニケーションの促進が期待される一方で、ロボットがいっそう高度な会話やコミュニケーションの能力を身につけて倫理的にも問題のない行動を行えるようになった場合、高齢者への対応がロボット任せになってしまう可能性は否定できない。

そうなれば、人間とのコミュニケーションが失われ、入居する高齢者は孤独になってしまうだろう。ロボットに人間への対応が「できる」からといって、その全てを任せてかまわないかどうかは疑問の余地が残る。

医療の場面でも、自律機械が倫理的判断をおこなう問題は生じる。例えば、本人の事前の希望が不明なまま意識などを失った終末期患者がいるとしよう。その患者の医療方針の決定には、患者の家族・親族の希望や患者本人の性格などを考慮した上で、慎重な倫理的判断が求められる。

このとき、終末期診断用のエキスパートシステムが、患者のこれまでの人生や同様の症状を抱えた他の患者の判断などの膨大なデータを参照して「患者が最も望むはずの医療」を判断するようになれば、親族が本人の代理として判断するよりもいっそう「患者本人の判断」に近いものになる。

しかし、そのエキスパートシステムがどれだけ患者本人の判断に近づいたとしても、「どのデータがその患者の人生にとって重要な価値を持つのか」といった考慮をしているわけではない。データの統計的処理からわかることには限界がある。

だが、そのシステムが親族よりも信頼できる代理人とみなされるようになれば、医療スタッフや親族が下すべきだった「倫理的判断」そのものが人工知能の手に委ねられることになる。

高齢者介護の問題も、終末期医療の問題も、最終的には「はたして我々は自律機械にそのような判断を任せる社会を望ましいと考えるか否か」が焦点となる。そのような社会のあり方を肯定するにせよ否定するにせよ、議論が必要なことに変わりはない。

人間の選択が未来を決める

最後に、「どのように設計すれば、自律機械に倫理を実装したことになるのか」という問題が残っている。

しかしこの問題については、どの分野で、どのように使用される自律機械なのかという点に大きく左右される。人間と同様の情動や意図や責任が伴わなければ倫理とは言えないような(つまり当分は自律機械に代行できない)領域もあるが、自動走行システムや医療診断システムの「倫理」に、人間とまったく同じ能力が必要だとは言えないだろう。

今後、自律機械の判断や行動が人々の生活にますます大きな影響を与えるようになる。だが、あるべき未来を決めるのは我々人間の選択である。

だからこそ、「我々はどのような社会で暮らしたいと考えているのか」を問い直し、「自律機械の判断にはどのような基準が必要で、そしてそれは可能なのか?」、「そもそもその問題を自律機械に任せるべきなのか?」といった議論をおこなわなければならない。

No image

〔PHOTO〕gettyimages

そしてもちろん、その結論が国や文化によって大きく異なる可能性もある。

例えば、動物を模したペット型ロボットを患者や高齢者と触れ合わせることで、認知能力やQOL(クオリティ・オブ・ライフ)の改善をはかるロボットセラピーという療法がある。これは犬や猫などの動物との触れ合いによって生じる効果を、ロボットを用いることでより安全かつ安定して引き出そうとするものだ。

このような自律機械の利用について、日本では好意的に受け止められ特に問題視されていないものの、ヨーロッパでは逆に大きな反発を呼び、「ロボットを動物だと錯覚させ、高齢者を騙す行為だ」と憤る論者すら存在する。

このような日本とヨーロッパの自律機械に対する態度の違いは、社会的問題に対する世論の関心の大きさよりも、宗教的・文化的な背景が影響していることは想像に難くない。その違いを無視して倫理を論じるべきではないだろう。

さらには、国内の議論だけで済む問題もあれば国際的規制が必要な問題もある。軍事ロボットはその最たるもので、一国が開発や配備を禁止しても、他国が開発を続ければ何の解決にもならない。そのため、軍事ロボットの開発に対する国際的禁止を求める運動を展開している研究者も少なくない。

いずれにせよ、ロボットや人工知能の倫理問題は、すでに空想上の問題ではなくなっている。我々21世紀に生きる人間が考えるべき、喫緊の問題なのである。

この記事をお届けした
グノシーの最新ニュース情報を、

でも最新ニュース情報をお届けしています。

外部リンク

IT総合カテゴリの人気記事

グノシーで話題の記事を読もう!
信じられるかい?この手編みのブレスレットでiPhoneを充電できるんだぜ?
早く届けろ!クラウドファンディングは成功したのに完成しなかった製品3選
意識の宿ったAIが、人間の「不完全さ」をも完全に備え、人間を超越した後の世界は来るか?
「ご確認」メール、開けると危ない! 業務装うウイルス蔓延
ソフトバンクのスマホ、気付いたら見覚えない料金が毎月引き落とし...無料キャンペーンの罠
  • このエントリーをはてなブックマークに追加