今話題のロボットと言うことに寄せて、倫理学を説明してしまおうと言う本に見えます。
しかし、まえがきにもあるように、ここでロボットと倫理学を重ねると言うことには2つの意味があり、一つは確かに倫理学に初めて触れる人にも興味をもたれやすいと言う意味を考えているものの、もう一つはすでに実際の問題となりつつある、ロボットや人工知能(AI)の、開発に携わっている人々に、倫理学と言うものを考えてもらうためというものです。
自動運転車が事故を引き起こすと言う事態もすでに現実のものとなっていますし、戦争において無人攻撃機というものが使用され、それによる誤爆の被害も起きています。
こういった問題はほんの少し前までは、SF小説の世界の中だけだと思われていたようなものです。
しかし、すでに現実のものとなっています。
また、ロボットによって労働者が職場を奪われると言う事態も現実のものとなっています。
「ロボットによって職場から解放される」のか、「ロボットによって職場を奪われる」のか、同じようでまったく違う結論になりそうです。
機械の中に道徳はあり得るか。
道徳観を人工知能に持たせることができるかどうか、まだ結論は出ていないようです。
一見、持っているかのように見せかけることは、すでに可能なのだそうですが、それが本当に「道徳を持つ」かどうか、複雑な問題を含んでいます。
それは、「倫理の葛藤」を感じる人工知能ができるのかどうかとも関わってきます。
この辺のところは、倫理学と言うものの中にも数々の説が存在するところから、一つには決まらないと言うこともありそうです。
功利主義と義務論の立場からの違いというものがあり、さらに第三の立場として徳倫理学というものもあるそうで、それによって結論も変わりそうです。
人工知能のせいで被害を受けたら誰が責任を取るのか。
現在開発中の自動運転車などでは、メーカーが責任を負うということになっているようですが、その技術が完成した後、市販されるようになって購入者が走らせた場合、どのようになるのかまだ確定はされていないようです。
無人攻撃機といった、現在も使われている兵器は今のところは遠隔操作型であるようです。
これも、中東の戦場の兵器をアメリカ本土の操作担当者が動かしているといったことはあるようですが、これがさらに進歩した場合、自立型となる可能性(危険性?)もあります。
つまり、人工知能が判断して攻撃するような兵器です。
すでにアシモフのロボット三原則に反しているようですが、いずれはそうなるでしょう。
攻撃するかどうかの最終判断は人間が行なうという考え方もあるようですが、そのような迂遠なことをやっていては役に立たないということになるでしょう。
そうなれば、人工知能が人を殺すという判断もすることになります。
倫理学と言うものは、今ひとつ実感を伴わない議論にも見えますが、このようにロボットや人工知能といった技術開発の最前線をからめて考えれば非常に重要なことだということが判るようです。