日程 9月12日(金) 10:10 - 11:30
口頭発表1 (O1)
会場:国際会議場1F井深大記念ホール
座長:服部 エリーン彩矢(慶應義塾大学)
-
O1-1本研究では,非定常環境下の経験的意思決定を対象に,忘却ベイズ推論モデルと動的プロスペクト理論に基づいたモデルを構築した.実験では,参加者が報酬確率の変動する二択課題を繰り返し行い,その選択データを基にモデル比較を行った.その結果,直近の経験を重視する忘却ベイズ推論モデルが支持され,さらに経験によってリスク回避的なバイアスが低減し,ベイズ合理的な選択傾向へと変化する可能性が示唆された.
-
O1-2本研究では、医師による患者の余命推定課題を通じて、AIおよび集合知の活用によって人間の推定精度がいかに向上するかを検証した。認知実験の結果、AIの推定を参照することで医師の推定精度が向上する一方、その効果には個人差があった。さらに、計算機シミュレーションによって集合知の効果を検討した結果、AIの推定を参照した後の医師の判断を集約することで、AI単独を超える精度が得られる可能性が示された。
-
O1-3スライムハンド錯覚の原理を耳介に応用した「ブッダの耳錯覚」において、耳介上部を自らつまむ操作が錯覚の強度に与える影響を検討した。実験の結果、耳たぶを引っ張る条件下では、上部をつまむことで耳たぶの伸長感や透明な皮膚感が有意に増大した。これは、自己接触が参照点として機能し、錯覚を強化することを示唆しており、皮膚変形錯覚に共通する構成原理となる可能性がある。
-
O1-4トロッコ問題を題材とした道徳的なジレンマを引き起こす行為の評価において,人-ロボット間の対話がどのように影響するのかを実験により調べた.参加者は,最初に人型ロボットとトロッコ問題について数分間の対話を行なった後で,そのロボットが五人の命を救うために一人の命を犠牲にする行為を選択したことが告げられ,その行為の問題性を評価した.結果人間は,一人の人間を犠牲にしたロボットの行為を,問題ないと評価する功利主義的立場に傾くことが確認された.