研究分野

人工知能

  • O1-4
    金野 武司 (金沢工業大学)
    石田 直暉 (金沢工業大学)
    佐藤 綾南 (金沢工業大学)
    長滝 祥司 (中京大学)
    柏端 達也 (慶應大学)
    大平 英樹 (名古屋大学)
    橋本 敬 (北陸先端大学)
    柴田 正良 (金沢大学)
    三浦 俊彦 (東京大学)
    加藤 樹里 (金沢工業大学)
    トロッコ問題を題材とした道徳的なジレンマを引き起こす行為の評価において,人-ロボット間の対話がどのように影響するのかを実験により調べた.参加者は,最初に人型ロボットとトロッコ問題について数分間の対話を行なった後で,そのロボットが五人の命を救うために一人の命を犠牲にする行為を選択したことが告げられ,その行為の問題性を評価した.結果人間は,一人の人間を犠牲にしたロボットの行為を,問題ないと評価する功利主義的立場に傾くことが確認された.
  • P1-37
    長島 一真 (静岡大学)
    森田 純哉 (静岡大学)
    不安は,将来的に生じる危険を予測し,回避するうえで重要な役割を果たす.不安による環境への適応は,時間認知などの個別の認知機能への作用によって実現されると考える.本研究では,ACT-Rを用いて,時間の経過に伴う不安の増幅を組み入れたモデルを構築した.そのモデルを利用したシミュレーションにより,現実よりも過大な接近の知覚が生じるルーミング(looming)が発生する条件が明らかになった.
  • P1-57
    上野 誠弥 (東京電機大学 理工学部)
    高橋 達二 (東京電機大学)
    甲野 佑 (東京電機大学 理工学部)
    強化学習の応用例であるバンディット問題を解くアルゴリズムでは,事前分布など事前知識を与えることがある.その中でも人の試行錯誤の一種である満足化を再現した Risk-sensitive Satisficing (RS) では,最適な目標値を事前知識として与えた場合に高い性能が確認されていた.本研究では最適な目標値が未知の実数値になりうる場合でも,エージェントがオンライン情報から自律的に推定する方法を検討した.
  • P1-63
    徐 キョウテツ (弘前大学)
    本研究は、AIベースの表情分析技術であるDeepFaceを活用し、他者の感情表情を観察中の観察者自身の微細な表情変化が性格特性とどのように関連するかを検証した。その結果、協調性および神経質性が高い人ほど、怒り、嫌悪、喜び、驚きといった感情の表情強度が抑制されることが明らかになった。この現象は、協調性の高い人が対人関係における調和を維持するため、また神経質性の高い人が否定的な評価を回避するために、自身の情動表出を調整していると解釈できる。
  • P2-30
    大信田 和華 (日本大学文理学部)
    角森 穂佳 (日本大学文理学部)
    古賀 日南乃 (日本大学文理学部)
    奥岡 耕平 (日本大学文理学部)
    佐々木 康輔 (NECソリューションイノベータ株式会社)
    野田 尚志 (NECソリューションイノベータ株式会社)
    森口 昌和 (NECソリューションイノベータ株式会社)
    大澤 正彦 (日本大学文理学部)
    本研究の目的は探究学習において教育者が学習者の思考を促すために行うメンタリングの自動化である. 著者らは先行研究として,学習者の発話に応じて対話戦略を選択するメンタリングシステムを開発したが,評価実験において比較条件と対話時間の設定に課題があった.そこで本研究では,比較条件を修正し1週間の期間を設けて実験を行った. 実験の結果,条件間で差は見られなかったが,メンタリング前後で探究的衝動が強まった.
  • P2-31
    張 銘一多 (千葉大学大学院 情報・データサイエンス学府)
    伝 康晴 (千葉大学)
    対話型AIをゲームに導入することは、単に新たな遊び方を提供するだけでなく、人間と人工知能との新たな交流様式を提案する試みである。特定の環境設定や機能設計によって、ゲーム内での対話型AIとの会話において、ユーザが入力時に「訂正」という修復行動を行う場面が観察される。この修復行動は、自然会話における聞き手の注意喚起を目的とするものではなく、むしろゲームAIの理解能力の限界を考慮し、誤解を最小化することを意図しているものである。
  • P2-45
    藤堂 健世 (関東学院大学 理工学部)
    吉川 厚 (関東学院大学 理工学部)
    山村 雅幸 (東京科学大学 情報理工学院)
    本研究では,対話エージェント設計で従来軽視されてきた構造的要素がユーザー評価に与える影響を検証した.キャラクターの向き・吹き出しサイズ・背景PC配置の3要因を操作し,1000名の参加者の信頼性評価を測定した.その結果,女性参加者においてキャラクター向きによりPC配置の最適位置が反転する現象を発見した.この知見は対話エージェント設計における構造的要素への配慮の必要性を示している.
  • P2-61
    小野 淳平 (青森大学ソフトウェア情報学部)
    小方 孝 (大和大学情報学部)
    青木 慎一郎 (岩手県立大学)
    本研究は、ASD者の行動や認知特性の理解を深める手段として、生成AIによるシミュレーションを試みた。具体的には、当事者のエピソードと、特定の状況下におけるASD者の行動を入力とし、生成AI(Gemini)にその行動の理由を出力させることで、ASD理解の促進という観点からシミュレーションの有効性を検証した。一方で、慣習といった限定的な文脈は、生成AIによる適切な理解が難しいという課題も明らかにした。
  • P2-65
    中島 亮一 (京都大学)
    田中 葉月 (日本大学)
    大澤 正彦 (日本大学文理学部)
    大規模言語モデル(LLM)にパーソナリティを付与すると、LLMはそれに応じてふるまえる。本研究では、LLM自身のパーソナリティ評価と、LLMが生成した文章から推定されるパーソナリティの他者評価を比較した。その結果、外向性、勤勉性、開放性は、おおむね自己・他者評価が一貫した。また、協調性と神経症傾向の評価間には、人間同士の場合と一致した齟齬が見られた。つまり、特定のパーソナリティを付与したLLMは、人間に類似した言語表現を出力できる。
  • P3-14
    大滝 文一 (静岡大学 創造科学技術大学院)
    大島 律子 (静岡大学 創造科学技術大学院)
    大島 純 (静岡大学 創造科学技術大学院)
    本研究は,生成AIを活用した協調的問題解決における論証過程の差異を分析した.情報系学部生20名10組を対象に,品種改良食物をテーマとした課題に取り組ませ,トゥールミンモデルと談話分析を用いて議論構造と知識構築過程を比較した.高論証グループでは,生成AIの多面的な出力を批判的に統合し,議論を深化させたが,低論証グループでは解決志向に偏った結果,情報活用が限定的であった.AIを用いた学習支援の設計的工夫の重要性が示唆された.
  • P3-37
    小方 孝 (大和大学情報学部)
    小野 淳平 (青森大学ソフトウェア情報学部)
    政治集団による個人をターゲットとした攻撃の仮想的状況を設定し、SNS上での偽情報物語の生成‐拡散現象をシミュレーションする実験システムを実装し、その結果を示した上で議論する。システムは、共感度、認知状態、閾値、ラベリング、偽情報等の概念によって構成され、実際に物語を生成し、その累積から偽情報物語が浮上するプロセスをモデル化する。