人間と機械 ‐ ロボット倫理学 ‐
-
Upload
keely-logan -
Category
Documents
-
view
34 -
download
0
description
Transcript of 人間と機械 ‐ ロボット倫理学 ‐
人間と機械‐ロボット倫理学‐1026638c吉原 美奈子
自律的に判断を行える機械が出来た時
その機械(ロボット)には 責任が生じるのか
軍事用
機関銃搭載の兵器ロボット イラクに配置
• 数年に渡る開発を経て、3台の『SWORDS』(特殊兵器監視遠隔偵察直接戦闘システム)ロボットがイラクに配置
• 3台とも機関銃『M249 Squad Automatic Weapon』を装備
• 『SWORDS』はイラク全土で使用されている爆弾処理ロボットの改造版
• 指令がすぐに届かない限り指令に従って行動することはない• 銃を発射するには3段階の発射手順と、物理的および電子的な安全装置がある
• ロボットが奇妙な行動を起こした場合に備えて、停止スイッチが搭載された
自動制御兵器と事故 2007.10.22 対空砲の演習中、兵士20名以上が死傷
・南アフリカ共和国防衛軍の銃撃演習中に対空機関砲の異常により9名の兵士が死亡。10数名が重傷を負った
・この兵器は高速で低空飛行をする飛行機、ヘリコプター、無人航空機、巡航ミサイルを自動追尾する能力を持つ
・自動モードでは、標的のデータを、射撃制御部から2組の35ミリ砲に直接送るとともに弾倉が空になると自動で再装填を行う
一対の 250弾自動装填式弾倉が空になったときには、兵士9名が死亡、15名が
負傷
だが、未だ名前の分からないその士官の勇気ある行動に関わらず、35mm Twin Gun GDF-005対空二連砲が大きく向きを
変えるのを止められなかった
爆発力が強く、 0.5Kgの重さがある 35mm砲の弾丸が数百発、周囲に向けて発射された
1人の女性砲兵士官が自分の命を危険に晒して自分の砲兵隊に属する隊員たちを銃撃から助け出そうとした
南アフリカ『 The Star』紙より引用
1秒の8分の1の間に、15-20の弾が発射
事故は数秒の間に起こった
VS 人間
必ず勝つじゃんけんロボット・東京大学研究者(石川奥研究所)が開発・後だしじゃんけんの超人的速さ Ver.・じゃんけん=意思決定行為、より身体的な知性・空間の中で認識して動くような身体的知性
チェス:スーパーコンピューター
• 1997年の時点でコンピューターが人間に勝利(ガリ・カスパロフ対ディープ・ブルー)
• 2003年 引き分け(同相手)• 2005年 コンピューターの圧勝(3対3)• 2006年 コンピューターの勝利(ディープ・フリッツ対クラムニク)
• 2009年 スマートフォン搭載のソフトがグランド・マスター級の評価を得る
医療
人間型ロボット
・実在の女性を基にデザイン・周囲にセンサーを搭載。読みとった内容に合わせて動きを変える・認知科学や心理学といった人間の研究 + ロボット工学
• 人型の妊婦ロボット(医学生用)• オフィス案内用ロボット(日立製作所)• 人の洗髪・頭皮ケア用ロボット(パナソニック)
検察側は工場側に責任を負わせた。また責任の一部は作業員にもあるとした
工業用ロボット
重い岩を持ち上げるためのロボット
・誤作動により作業員が殺されかけた (スウェーデン 2012年 9月)
ロボット工学3原則第一条ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない
第二条ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りではない
第三条ロボットは、前掲第一条および第二条に反するおそれのない限り、自己をまもらなければならない
2058年「ロボット工学ハンドブック」第56版‐アイザック・アシモフ著 「われはロボット」 1950年 より
①人間に危害を与えてはならない②人間から与えられた命令に服従しなければならない
③前2条に抵触しない限り、自己を守らなければならない
①>②>③
自律的に判断を行える機械が出来た時
その機械(ロボット)には 責任が生じるのか
ロボット倫理学
•①ロボットを製造する際の倫理•②ロボットの守るべき倫理ロボットが道徳的行為者になり得ることが前提
•③ロボットに対する倫理 ロボットが道徳的配慮を受け得ることが前提
ロボットは道徳的行為者になれるのか
自分の意志で何らかの行動を選択する ①何らかの事態を表象し(可能) ②その事態が実現することを目指して(困難) ←利害を持つことの帰結 ③何らかの行動を選択する(機能論理プログラム) 不可能
ロボットは道徳的受容者になれるか
• 現在のロボットは道徳的受容者としての資格を持っていない (独自の利害を持っていないから)
• 独自の利害を持つ→「生死」という利害を持つ 不可能
道具としての道徳的ロボット裁判員制度 量刑に関する一般人の感覚をシミュレートするエキスパート・システム介護対象の患 薬を飲みたがらない時①薬を飲むことを強要②薬を飲ませず医者に知らせる③薬も飲ませず医者にも知らせない
介護仕の判断の事例を集めILPにより規則を抽出→介護仕の倫理的な判断をシミュレート
なぜロボットが必要?
・作業の効率化(大量生産)・災害対応(震災、原発事故)「災害対応無人化システム研究開発プロジェクト」・少子高齢化、労働人口の減少に備えて・福祉用(介護)、家庭用(家事)( ex ルンバ)「生活支援ロボット実用化プロジェクト」・警備用、教育用
最大の問題
• 判断が間違っていた時に機械にはその責任が取れない
道徳的責任を取るためには、それ自身が道徳的存在者でなければならない
実現の容易さ+潜在的な需要の高さ
道徳的ロボットが人間を支援する道具として社会に入ってくる可能性は高い
論点• システムの行動について誰が責任を持つか
• 誰がロボットを統制するのか• 人間を超える人工知能を持つロボットは必要か
• ロボットのゴールは人間にあるのか
参考資料• 日経 Bizアカデミー• ITメディアニュース• 論文「ロボット倫理学の可能性」久木田 水生
• WIRED archives• Wikipedia• 「ボーカロイド現象」 安藤 卓