SHOUJIKE

Google: 人間による監視があれば、顧客は同社の AI を使って「高リスク」分野で意思決定を行うことができる。

グーグルは12月18日、更新された利用ポリシーを通じて、人間による監視があれば、顧客は同社の生成AIツールを使用して、医療などの「高リスク」分野で「自動化された意思決定」を行うことができると明確にした。

同社が火曜日に発表した「生成AI禁止ポリシー」の改訂版によると、顧客はGoogleの生成AIを利用して、雇用、住宅、保険、社会福祉といった分野において、一定の条件下で個人の権利に重大な悪影響を及ぼす可能性のある「自動化された意思決定」を行うことが認められる。これらの意思決定は、何らかの形で人間による監視を受けている限り許可される。

注:人工知能の分野において、自動意思決定とは、AIシステムが事実または推論データに基づいて行う意思決定を指します。例えば、AIはデータに基づいて融資の承認や求職者の選考を行う場合があります。

Googleの以前の規約草案では、生成AIを用いた高リスクの自動意思決定は完全に禁止されるべきであるとされていました。しかし、GoogleはTechCrunchに対し、人間の監督が行われている限り、同社の生成AIは高リスク領域における自動意思決定を「事実上禁止したことはない」と明らかにしました。

グーグルの広報担当者はインタビューで、「人間による監視の要件は常に存在しており、すべての高リスク領域に適用されています」と述べた。さらに、「ユーザーにとってより分かりやすくするために、用語を再分類し、より具体的な例を示しただけです」と付け加えた。

規制当局は、個人に影響を与える自動化された意思決定プロセスにおけるAIの潜在的なバイアスについて懸念を表明しています。例えば、研究では、信用調査や住宅ローンの申請承認に使用されるAIシステムが、従来から存在する差別問題を悪化させる可能性があることが示唆されています。

報告書によると、規制当局は、自動化された意思決定システムが個人に影響を与える可能性があるため、こうした人工知能システムにおける潜在的なバイアスを懸念している。研究によると、信用調査や住宅ローンの承認に使用されるAIシステムは、歴史的に問題となっている差別問題を悪化させる可能性がある。(清遠)