あなたは2人の乗客と5人の歩行者どちらを選ぶ?道徳的意思決定を確認する診断ツール「モラル・マシン」が面白いのでご紹介
どうも、じぇいです。
おもしろい診断ツールを見つけたのでご紹介
その名も「モラル・マシン」
モラル・マシンとは
自動運転車を用いた人工知能の道徳的な意思決定に関して、人間の視点を収集するためのプラットフォーム。例えば、「2人の乗客または歩行者5人が犠牲となる」状況の中で自動運転車はどちらを「犠牲者」として選択すべきか、をあなたが「事故を観察する第三者」として判定する。それにより、あなた自身の「道徳的意思決定」がどのような価値観のもとに成り立っているかを他の人との比較によって確認することができる。(HP:http://moralmachine.mit.edu/hl/ja より抜粋、編集)
あなた自身の「道徳的意思決定」がどのような価値観のもとに〜
って書いてありますけど、実態は違うと思う
これから人工知能が自動車を運転する時代は必ずきて、上のような状況は間違いなく起きるでしょう。そのとき、人工知能は人の取捨選択をしなきゃいけませんよね?
誰を犠牲にするかという取捨選択。子供かお年寄り。医者かホームレスなどなど
その判断基準が、ぼくたちの診断結果というわけです。
たぶん。笑
ハーバード白熱教室の問いによく似てる
人工知能という条件を外せば、この診断は
講義の中で学生に投げかける問いによく似ていると思った
条件
あなたは時速100キロの電車に乗っていたが、行く手には5人の労働者がいることに気づいて電車をとめようとする。しかしブレーキが壊れていた。そのまま突っ込めば5人は電車にはねられ死ぬと仮定する。そのとき、脇にそれる線路、待避線を発見。しかしそこには1人の労働者がいる。ブレーキはきかないがハンドルはきくので、待避線を選択すれば1人は殺すが5人は助けられる。
問い
正しい行いは、「そのまま進む」「待避線に逸れる」のどちらか?
どうです?モラル・マシンの診断もマイケル・サンデル教授の問いも
どちらも道徳的意思決定を確認していますよね?
気になった方はYouTubeで「ハーバード白熱教室」と検索したら
出てくるのでもし良かったら。
学生たちの答えもいろいろですごく面白いですよ!
実際にモラル・マシンをやってみた
結果はこうなりました
- 男性よりも女性を助ける
- ホームレスよりも医者を助ける
- お年寄りよりも赤ちゃんを助ける
- より人数が多い方を助ける
こんな感じ。うーん伝わりづらいww
結果が表示されているリンク貼ろうとしたんですけど
一定時間経つと消えちゃうっぽいのでやめました
ぜひ一度やってみるべき
こちらからどうぞ→http://moralmachine.mit.edu/hl/ja
自分の道徳的価値観が他人とどう違うのかがわかって単純に面白いですよ!
ただ、さっきも言ったようにみなさんの診断結果は今後の人工知能の意思決定に少なからず関わってくることをお忘れなく。笑
では。