天秤は、誰が持つべきか
今回は未来志向ベースで構成します。
AI司法の現状・可能性・限界をバランスよく盛り込みました。
第1回で見た公式的正義の理想は「誰に対しても、同じ物差しで」だった。
第2回では人間の心理がその物差しを歪め、
第3回では組織の構造がその歪みを制度化することを見た。
では、人間でも組織でもない存在が天秤を持ったとしたら、どうなるか。
感情を持たず、忖度せず、保身も慢心もない存在。
データと論理だけで判断を下す存在。
それが人工知能(AI)だ。
AIは公式的正義の理想を実現できるのか。
あるいは、新たな形の不正義を生み出すのか。
現在進行形で動く世界の事例と、その限界を正直に見ていく。
世界で進むAI司法の現実
AIによる司法支援は、すでに世界各地で実用段階に入っている。
ブラジルでは、最高裁判所に「VICTOR」というAIが導入され、上訴案件の精査と分類を数秒で処理している。
人間なら44分かかる作業だ。
アルゼンチンでは、司法アシスタント「Prometea」が月間処理件数を130件から490件へと約3.8倍に引き上げた。
中国ではAIシステムが全国の裁判所に導入され、判例検索から判決文の草案作成、さらには判決内容の誤りチェックまでを「206システム」などのAIが担っている。
シンガポールでは少額訴訟においてAIが結果予測と必要書類のガイドを提供し、法的知識のない市民が制度にアクセスしやすくなった。
裁判所は米ハービー(Harvey)社と提携し、申し立ての定型化や必要な証拠の整理を支援する生成AIツールを開発しました。
共通しているのは、AIが「制度への入口を広げる」役割を果たしているという点だ。
これはまさに、第3回で見た「制度へのアクセス格差」という問題への一つの回答だ。
AIが約束する「公式的正義」の可能性
AIが司法に持ち込む最大の価値は、一貫性と予測可能性だ。
人間の裁判官は、午前と午後で判断が変わることがある。
空腹のときに下した判決が、満腹のときより厳しくなるという研究すら存在する。
体調、感情、無意識の偏見――人間である限り、これらから完全に自由にはなれない。
AIにはそれがない。
同じ条件には同じ判断を返す。
「昨日は見逃したが今日は厳しく」という恣意性が、原理的に生じない。
さらに重要なのが「記録の透明性」だ。
AIが判断の根拠をログとして残せば、制度の番人たちは「知らなかった」「気づかなかった」という逃げ道を失う。
第3回で見た不作為の幇助に対して、AIは「無知の言い訳を封じる記録装置」として機能しうる。
弱者が声を上げたとき、その声をデータとして客観的に記録し、法的根拠と照合し、「これは権利侵害に該当する」と公式に判定する。
その瞬間、既得権者の主観は介入できなくなる。
アルゴリズムの中に潜む影
しかしAIは、万能の救済者ではない。
最も深刻なリスクが「アルゴリズムのバイアス」だ。
AIは過去のデータから学習する。
もしその学習データに、過去の人間の偏見や差別が含まれていたとしたら、AIはその偏見を「正しいパターン」として内面化してしまう。
アメリカで実際に起きた問題がある。
再犯リスクを予測するAIツール「COMPAS」が、黒人被告を白人被告よりも高リスクと判定する傾向があることが統計的に示された。
AIは意図的に差別したのではない。
過去の司法データに刻まれた人種的偏見を、忠実に学習した結果だ。
過去の不正義を学習したAIは、未来の不正義を自動化する。
これはアルゴリズムの問題ではなく、何を「正解データ」として与えるかという設計思想の問題だ。
腐敗した人間が作ったデータを食べたAIは、腐敗を効率的に再生産する機械になりかねない。
「ブラックボックス」という新たな不透明性
もう一つの課題が、判断プロセスの不透明性だ。
深層学習(ディープラーニング)を用いた高度なAIは、なぜその結論に至ったのかを、開発者自身も完全には説明できない場合がある。
これが「ブラックボックス問題」だ。
公式的正義の核心は「プロセスの透明性」にある。
なぜその判決が下されたのかを当事者が理解し、異議を申し立てられることが、法の正当性の根拠だ。
AIが「この人物は高リスクです」と判定しても、その理由が開示されないとしたら、それは新たな形の密室裁判だ。
透明性を担保するはずのAIが、最も不透明な権力として君臨する逆説が生まれる。
AIと人間の「役割分担」という現実解
では、AIは司法に導入すべきではないのか。
そうではない。
現時点での現実解は、AIを「補助」として位置づけ、最終判断の責任を人間が負うという役割分担だ。
AIが証拠を整理し、判例を照合し、リスクを数値化する。
その結果を踏まえて、人間が文脈と個別事情を加味した判断を下す。
AIは「見落としを防ぐ装置」であり、「責任を肩代わりする存在」ではない。
重要なのは、AIの判断を最終的に問い直せる仕組みを制度として組み込むことだ。
AIが間違えたとき、誰が責任を取るのか。
その問いに答えられない限り、AIは公式的正義の道具にはなれない。
[まとめ]天秤は、まだ完成していない
AIは確かに、人間の忖度・保身・不作為から自由だ。
その点において、公式的正義の理想に人間より近い側面を持つ。
しかし学習データのバイアス、ブラックボックス問題、責任の所在の曖昧さ――これらが解決されない限り、AIは「歪んだ天秤を高速で動かす機械」に過ぎない可能性がある。
天秤はまだ、完成していない。
しかしその天秤を完成に近づけていくのも、結局は人間の仕事だ。
腐敗した制度を批判し、より公正なデータを設計し、AIの判断を監視し続ける。
その営みの積み重ねが、公式的正義を「理想」から「現実」へと引き寄せていく。
次回は、この天秤を日常生活の中に実装するという、より身近な視点から正義を考える。
最後まで読んでくださいまして、ありがとうございます。
第5回「日常に正義を取り戻す|公式的正義Ⅴ」 ―職場・学校・地域。
身近なトラブルにAIの天秤を持ち込むとき、何が変わるのか。

コメント