SFのような展開が世界中で起きている昨今、まさにSFの極みとも言える「ロボットは友人になれるのか」という議論が世界中で生まれている。 オススメ記事 ロボットだから仕方ない、ではなく、あのロボットが行ったことが憎い(愛しい)という感覚は、ソニーのアイボを失ったときに家族が葬式を行ったことに、その感覚の萌芽が認められる。ロボットの法的責任問題は、こうした観点からも議論が行われなければならない。つまり、ロボット法の問題は、企業の責任を問うといった視点だけから捉えられるのではなく、私たちがロボットとどのような関係の中で生きていくのか、という視点からも考えられなければならないのだ。故にスマートスピーカーなどの会話を可能とする人工知能の登場は、こうした人間とコンピュータ、そしてロボットとの関係を進めるための第一歩のようにも思われる。 EUやエストニアの議論は、法学や哲学、またサイバー法など幅広い知識が必要とされるもので、安易な視点から議論することはむしろ問題を困難にしてしまう可能性がある。それは人工知能を語る際に、10年先の話か50年先の話なのか、焦点を絞らなければさらなる困難を招くのと同じことだ。その意味で本稿が後半に論じたロボットの「人間性」や「道徳性」が、どの程度先の未来に顕在化するかについては、注意しなければならない。とはいえ、我々が漠然と不安に思うロボットや人工知能の問題について、問題の輪郭を描くこともまた、今求められているように思われる。人工知能やロボットの分野は技術発達が著しい。引き続き観察と考察を続けたい。 via: ロボットの起こした事故は誰の責任になるのか ロボットと私たちの関係はどう変わるのか – 塚越健司 (拓殖大学非常勤講師) (2/2) 道徳的主体とは何か 私がここで友人と言ったのは、ロボットが道徳的主体になれるかどうかという話です。難しい言い方ですが簡単に言うと「あいつは良いやつだ」とか「いけすかないやつだ」と呼ばれるような対象になれるかどうかということです。不思議な感じがしますが、人間は無意識に対象が道徳的主体かどうかを判断しています。 例えば子どもが電車の中で走り回って自分の足を踏まれたとしましょう。その時、大きく2種類の判断があると思います。「悪ガキ」か「しつけの出来ない親」どちらかに怒りか注意したい気持ちか何かしらの感情が湧くはずです。そのとき、前者は子どもを道徳的主体として認めており、後者は親のせいだということで子どもを道徳的主体として見ていません。 当然大の大人が足を踏めばその人のせいだと思うでしょうが、その人が精神疾病を抱えていることが明確な場合はそう感じない人も多いでしょう。つまり私たちは「自分で判断が出来る存在かどうか」で道徳的主体かどうかを捉えています(他にも、相手の痛みに共感する力があるかどうかで判断するなど、幾つかの基準があると言われています)。 ロボットは道徳的主体になれるか そう、だからこそAIの発達によって急速に思考力を身に着けているAIの議論の中でこのような道徳的主体かどうかの話が出てくるのです。だって、自分で判断が出来るなら「お前が悪い」と言えるわけですからね。どんなに優れていても、掃除機やティーポットに「お前が悪い」とか「お前は凄い」などは思いません。それは実のところ作ったメーカーに対する評価だと知っています。彼らは自分で判断はしないからです。 つまり、この議論は来るべきのためのものになります。ロボットが自ら判断する時です。誰かに命じられたものであっても、他の人が危険だと感じた場合に自動で停止したりリスクを最小化出来るような判断が出来るようになったら、それだけ素晴らしくなったからこそ「他の判断も出来たのではないか」と事故が発生したときに責任を問われるようになるのです。 ロボットは道具なのかそれとも友人なのか、というのはまさに時期によって答えが変わります。彼らはいまのところ道具でしかありませんが、必ず友人として私達の社会に入ってくる日が来ます。その時私たちは彼らを裁判で裁きさえするでしょう。