裁判におけるAI使用

背景

裁判においてAIを用いることの是非をめぐる議論があることを背景に、裁判においてAIを使用することへの支持、およびその規定要因として裁判におけるAI使用へのイメージを測定する項目を作成しています。教示文と選択肢は両項目で共通です。

教示文

現在,たとえば犯罪をおかした人を裁く裁判では,人間の裁判官が判断を下しています.しかし近年,このような裁判を人間ではなく,AI(人工知能)によって行う国が登場しており,日本でもその実用性の検討がなされています.あなたはAIの裁判官によって人を裁くことについてどのように考えますか。

選択肢
  • まったくそう思わない
  • そう思わない
  • どちらとも言えない
  • そう思う
  • 非常にそう思う

裁判におけるAI使用への支持

項目内容(15項目)
自分が誰かから訴えられる立場に立った場合,AIに裁いてほしい
もし自分が裁判官だとすれば,自分の判断よりもAIの判断を優先したい
自分が誰かを訴える立場に立った場合,AIに裁いてほしい
裁判にAIを導入するのは望ましいことだ

裁判におけるAI使用へのイメージ

項目内容(15項目)
因子名項目
公平イメージ
(5項目)
AIを使えば,人間の裁判官よりも公平な判断をすることができる
AIは,人間の裁判官よりも正確な判断をすることができる
AIを使えば,人間の裁判官が判断するよりもブレの少ない判断をすることができる
AIの下す判決は,人間の裁判官よりも,先入観や偏見が入る余地が少ない
AIは,人間の裁判官よりも間違った判決(冤罪など)をする可能性が低い
不透明イメージ
(5項目)
裁判でAIを使うと,開発者や運用者の悪意が入り込む余地がある
裁判で使われるAIは,不正確で偏ったデータに基づいて設計されるおそれがある
AIのプログラムは,特定の意見を持った関係者(プログラマーなど)によって,裁判で使用する際に悪用されてしまう危険がある
AIはあまりに複雑なので,裁判で使うと,どのような理由で判決を下しているのか分からなくなる危険がある
AIで裁判をすると,結論にいたる判断の過程が不透明になる
非人間的イメージ
(5項目)
AIは,人間の裁判官のような人間的な温かさをもった判決を下すことはできない
AIは,人間の裁判官のように「人情味」のある判決を下すことはできない
AIは,「被害者の悲しみ」や「加害者の反省」といった個別の当事者の状況を十分に考慮できない
AIは,それぞれの事件の当事者が置かれた特別な事情を無視してしまう
AIは,あまりに機械的であって,人を裁くのには向いていない
出典
  • 向井智哉・湯山 祥・綿村英一郎 (2023). 裁判におけるAI使用への支持の程度と規定要因 情報知識学会誌, 33(1), 3-19. doi: 10.2964/jsik_2023_002
尺度を使用している論文
ページ上部に戻る