成城彩論
seijo salon

現代社会の変化と法律学のチャレンジ

町村 泰貴 教授
法学部 法律学科
専門分野:民事法学

AIに法的人格を認める話

 AI(人工知能)も、法律学に多大な影響を及ぼすのではないかと、世界中で注目を浴びているテーマです。

 もっとも、AI=人工知能と聞くと、すぐに、人間と同じような知的能力を身につけたロボットが、鉄腕アトムのように活躍する姿を想像するかもしれません。AIによって人間の仕事はなくなるといわれたり、いわば超人類として人間を支配するようになるとか、フランケンシュタインの作り出したモンスターのように人間を襲い始めるとか、そんなファンタジーが世の中には溢れています。とりわけハリウッド映画は、ターミネーターのスカイネットのように人間に牙をむくコンピュータというテーマが好きですね。

 これに対して法律家は、基本的に文系人間ですから、機械的なことや技術的なことには疎い人が多いです。従って、技術者から「こんな未来が実現するかもしれません」と言われると、それを真に受けてしまう傾向があります。AIが人間と同じような判断能力をもつ知的存在になると言われれば、人間と同じような法的人格を認めるべきではないか、権利能力や責任能力を認めるべきではないか、仮に認めたらどうなるかといったことは、かなり真顔で議論されています。しかし、人間と同じような能力をAIに法的に認めようというのは全くの妄想でしょう。

 確かに、将棋や囲碁のような限られたルールの中の勝負では、機械学習、あるいはディープラーニングによりプログラマーの予期しない能力をAI自らが獲得し、人間を凌駕する能力を発揮できるレベルになっています。その応用可能性も幅広いものがあります。また自動運転の世界では、人間のコントロールがないところで自律的に行動を選択する機械が一部実用化されてもいます。

 それでも、AIが判断することは限られた条件の中に限られます。AIに法的人格を認めようという話になるのは、まだまだ遠い先の話なのでしょう。

差別するAIの問題

 AI技術の発達が法律学にとって重要な問題となるのは、大量のデータを収集し、機械学習・深層学習を経て、当面の問題へ適合的な解答を出す能力が法律実務にとって利用されやすく、しかもブラックボックスになりやすいところにあります。

 AIの判断機能が現実に用いられている例としては、人事評価システムがあります。採用判断にせよ社内人事の判断にせよ、過去の人事評価とその結果のデータからAI自身が作成した一定の判断基準により、対象人材の適性とか将来性とかを評価して答えを出します。この場合採用担当者や人事評価担当者は、そのようなシステムを採用した時点で、そのシステムの出す答に反対する材料は持てませんから、AIの言いなりということになるかもしれません。そのこと自体も一応は問題ですが、より深刻な問題は、機械自身が作成した判断基準に何らかの歪みが入り込んでいる可能性です。

 かつてマイクロソフトがツイッター上のチャットボットとして公開したAIシステムが、人種差別的な発言を繰り返すようになったとして、あわてて引っ込めたということがありました。ツイッターの書き込みをビッグデータとして学習すれば、その書き込みの中に現れる偏見とか、あるいはジェンダーバイアスとか、そういった歪みがAIの判断に組み込まれる可能性があります。その結果、ひどく人格的に歪んだような書き込みをするチャットボットが誕生したわけです。採用人事システムの例でも、アマゾンがAIによる人材採用システムを運用したところ、女性に対して差別的な選考をする傾向が現れ、ついにそのシステムの使用を諦めたということもありました。幹部社員に女性の割合が少なければ、女性は幹部社員となる能力が乏しいと判断され、女性には不利な判定結果となりやすいことは想像がつきます。

 このような無意識的な歪みも問題ですが、一定の目的を持って意図的に学習データを操作するようなことが行われれば、そのようにしてできた自動判定システムの利用は極めて不公正なものとなるでしょう。

裁判とAI

 裁判の世界でも、例えば刑事裁判の量刑を決めるに当たって、被告人の再犯可能性を考慮するというアイディアは、世間の賛成が得られやすいものです。再犯可能性が高い、危険な被告人は、なるべく社会から隔離して、更生のための教育を長期間すべきだというわけです。しかし、被告人の属性から再犯可能性を予測すると、一種の差別につながるおそれがあります。判断要素として反省の態度を示しているかということくらいなら良いですが、身元引受人の有無を考慮するなら、そのような人がいる被告人には有利になります。被告人の生い立ちとか、生活環境とか、学歴とかを考慮するとなると、一般的には貧困で恵まれない環境下では犯罪を犯しやすいものですから、貧困層の被告人には不利に、裕福な被告人には有利に判断することになります。こうしたことは許されるでしょうか?

 統計的に有意な再犯率の違いが出たとしても、貧乏人には定型的に不利な判断をするシステムなど、AIだからといって許されてよいはずはありません。AIが法的判断に必要な分析結果を出させる、人間はそれを参考にするだけという場合でも、ときとして危ない領域に陥る可能性があることは否定できないのです。

page top