January 8, 2026
「ロボットに対する行為を私たちはどう評価するか:倫理的非対称性仮説の検証」“How We Judge Actions Toward Robots: Testing the Ethical Asymmetry Hypothesis”


(日本語は英語の後に続きます)
======================================================
(English)
The 5th BAIRAL Research Meeting for Fiscal Year 2025
“How We Judge Actions Toward Robots: Testing the Ethical Asymmetry Hypothesis”
◇BAIRAL(B’AI RA League)
BAIRAL is a study group by young research assistants (RA) of the B’AI Global Forum of the Institute for AI and Beyond at the University of Tokyo. Aiming to achieve gender equality and a guarantee of rights for minorities in the AI era, this study group examines relationships between digital information technology and society. BAIRAL organizes research meetings every other month with guest speakers in a variety of fields.
◇Date & Venue
・Date: January 8, 2026 (Thursday) 13:00-14:30 JST
・Language: English
・Format: Online – Zoom meeting (No registration required)
https://u-tokyo-ac-jp.zoom.us/j/86444691494…
Meeting ID: 864 4469 1494/Passcode: 904391
◇Guest Speaker
Minyi Wang (PhD student, Human Interface Technology Lab, University of Canterbury)
◇Abstract
The Ethical Asymmetry Hypothesis in human–robot interaction proposes that observers judge harmful actions toward robots as indicative of vice, whereas benevolent actions do not proportionally elevate attributions of virtue. Empirical evidence for this asymmetry remains limited, particularly within a virtue-ethical framework. This study provides an initial assessment by examining how graded moral behaviours toward artificial agents influence attributions of the four cardinal virtues.
Forty text-based scenarios were constructed through three rounds of pretesting to represent ten calibrated levels of moral valence for each virtue: prudence, justice, temperance, and courage. A sample of 146 native-English-speaking adults was recruited via Prolific. Participants evaluated each scenario’s moral valence and attributed virtue using the QCV scale on a 1–10 range. For each virtue, ten observations were plotted in a two-dimensional morality–virtue space and modelled through polynomial curve fitting to characterise the functional mapping between moral behaviour and perceived virtue.
Across all four virtues, the fitted polynomial functions exhibited similar shapes and showed central symmetry, indicating no detectable asymmetry between responses to morally negative and morally positive behaviours.
Link: https://baiforum.jp/en/events/en098/
◇Organizer
B’AI Global Forum, Institute for AI and Beyond at the University of Tokyo
◇Inquiry
MAO YUNFAN (Research assistant of the B’AI Global Forum)
maoyunfan0254[at]g.ecc.u-tokyo.ac.jp (Please change [at] to @)
====================================================
(日本語)
2025年度第5回BAIRAL研究会
「ロボットに対する行為を私たちはどう評価するか:倫理的非対称性仮説の検証」
◇BAIRALとは
BAIRALは、東京大学Beyond AI推進機構B’AI Global Forumの若手RA(リサーチアシスタント)が主体となり、月に一回のペースで開催している研究会です。B’AI Global Forumでは、AI社会におけるジェンダー平等とマイノリティの権利保障という社会目標の実現に向けて研究を進めております。その一環として、BAIRALではデジタル情報技術と社会の関係について理解を深めるために、隔月、様々なゲストスピーカーの方にお話しいただいております。
◇開催情報
- 日時:2026年1月8日(木)13:00-14:30(日本標準時)
- 使用言語:英語
- 形式:Zoomによるオンライン開催(事前申し込み不要)
https://u-tokyo-ac-jp.zoom.us/j/86444691494…
ミーティング ID: 864 4469 1494/パスコード: 904391
◇ゲストスピーカー
王敏一,博士課程,人間インターフェース技術研究所,カンタベリー大学
◇趣旨
人とロボットの相互作用における倫理的非対称性仮説は、ロボットに対する有害な行為は悪徳を示すものとして観察者によって判断される一方で、善意ある行為はそれに対応する比率で美徳の帰属を高めることはない、と提唱している。この非対称性に関する実証的証拠は、特に美徳倫理学の枠組み内では、依然として限られている。本研究は、人工エージェントに対する段階的な道徳的行動が、四つの主要な枢要徳(Cardinal Virtues)の帰属にどのように影響するかを検証することにより、この非対称性仮説の初期評価を提供するものである。
四十のテキストベースのシナリオは、三段階の予備テストを経て構築され、審慮(prudence)、正義(justice)、節制(temperance)、勇気(courage)という各美徳に対して、十段階に校正された道徳的価値(moral valence)を表すよう設計された。参加者として、Prolific を介して英語を母語とする成人 146 名のサンプルが募集された。参加者は、QCV尺度(1–10の範囲)を用いて各シナリオの道徳的価値を評価し、美徳を帰属させた。各美徳について、十の観察結果が二次元の「道徳-美徳空間」にプロットされ、道徳的行動と知覚された美徳との間の機能的マッピングを特徴づけるために、多項式曲線近似によってモデル化された。
その結果、四つの美徳すべてにおいて、近似された多項式関数は類似した形状を示し、中心対称性が確認された。これは、道徳的に否定的な行動に対する反応と、道徳的に肯定的な行動に対する反応との間に、検出可能な非対称性が存在しないことを示している。
リンク:https://baiforum.jp/events/en098/
◇主催
東京大学Beyond AI研究推進機構B’AI Global Forum
◇お問い合わせ
毛 雲帆(B’AI Global Forum リサーチ・アシスタント)
maoyunfan0254[at]g.ecc.u-tokyo.ac.jp([at]を@に変えてください)
