AIバイアスを考える

エージェント化など生成AIの利用シーンが急速に拡大する中で、AIバイアスに対する懸念が高まっています。AIシステムに差別的価値観が埋め込まれてしまうことで、既存のバイアスが増幅され、差別・偏見・固定観念を強化してしまう可能性が指摘されています。

AIバイアスの代表的な事例として、Amazonは過去10年間の履歴書データをもとにAI採用ツールを開発しましたが、女性や「women」という記載を含む履歴書のスコアを意図せず低く評価してしまうことが発覚し、2018年にシステム運用を中止したことが知られています。また、米国司法で使われた「COMPAS」という再犯リスク算出ツールでは、黒人被告に対して不当に高いリスクを割り当てる傾向が発覚し、大きな問題となりました。

日本でも、2019年夏に就職情報サイト「リクナビ」が、学生本人の同意を得ずに閲覧履歴等から「内定辞退確率」をAIで推定し、企業に販売した「リクナビDMP事件」が発覚しました。生成AIの普及に伴い、こうした事例は新たな形で繰り返される可能性があります。

+++
こうした問題の発生も踏まえて、人事・採用分野では、既に2019年にはAIバイアスを踏まえた議論が始まっています。
例えば、厚生労働政策審議会の報告書(2019年6月11日)では、「AIの情報リソースとなるデータやアルゴリズムにはバイアスが含まれる可能性があるため、企業は倫理的責任を果たす必要がある。特にHRテックの領域では、労働者が不当に不利益を受ける可能性があるため、企業が適切に対応できる環境整備が求められる」
と明記されています。

その後、AI活用の対象は採用領域にとどまらず大きく拡大しています。こうした中で注目されるのが、2025年6月に公布された「人工知能関連技術の研究開発及び活用の推進に関する法律(AI新法)」です。この法律は、日本で初めての包括的なAI基本法であり、下記に示すように研究開発と産業利用の促進に加え、幅広い分野におけるリスク管理と安全確保を制度的に位置づけました。
〇労働・雇用分野(厚生労働省)
 採用や人事評価におけるAI活用で、不当な差別や偏見が再生産されるリスク。
〇産業・経済分野(経済産業省)
 製造・物流・金融などでAIが誤作動した場合の安全性や、競争環境の歪みを防ぐリスク管理。
〇情報通信分野(総務省)
 生成AIによるフェイクニュースや誤情報の拡散、世論操作の危険性。
〇行政・公共分野(デジタル庁)
 行政サービスや公共調達でAIを利用する際の透明性・説明責任の確保。
〇安全保障・国家戦略(内閣府)
 国家体制の安定や国際競争力に関わる安全保障リスク。外交・防衛領域での悪用の懸念。

このようにAI新法は、労働分野に限定されない「横断的なリスク対策」を含む枠組みであり、AIを安心して活用できる社会基盤を整えることを狙いとしています。

+++
一方、私たちが日常的にAIバイアスに注意するためには、その発生要因を理解しておく必要があります。主なものは次の3つです。

1.データバイアス
学習データそのものの偏りに由来します。過去の採用履歴に男性が多ければ、AIは「男性が望ましい」と学習してしまい、女性候補者を不利に扱う傾向が出ます。Amazonの採用AIの事例はその典型です。

2.アルゴリズムバイアス
AIの設計や学習方法に起因する偏りです。アルゴリズムは「過去の成功パターン」を重視するため、社会的公平性が十分に反映されない場合があります。Amazonのケースでは、女性関連の単語を不利な要因と誤認識してしまいました。

3.ソーシャルバイアス
AIの出力が社会に広がり、偏見を再生産・拡大するものです。例えば、AIが「管理職=男性」といった表現を繰り返し生成すると、SNS等を通じて拡散し、社会の固定観念を強める危険性があります。日本の「リクナビDMP事件」も、この一例といえます。

+++
シンギュラリティのような遠い将来の議論も重要ですが、AIバイアスはすでに現実に直面している実務課題です。行政職員や企業の担当者にとっては、AIバイアスのタイプを踏まえつつ、AIを活用する際に
・その判断はどのようなデータに基づくのか
・差別を招くアルゴリズムが構築されていないか
・多様なステークホルダーの目から見た公平性や透明性は確保されているか
を常に問い直す姿勢が欠かせません。

今後、AI利活用が加速する中で、公的部門と民間部門が連携し、透明性・説明責任・倫理的利用ルールを確立していくことが不可欠です。AIを安心して活用できる仕組みを整えることにより、組織の信頼性を高め、日本社会全体の持続的な発展につながることに期待したいと思います。

株式会社マインズ・アイ
代表取締役 名取雅彦

タイトルとURLをコピーしました