SHOUJIKE

Googleは、AIの兵器化を禁止しないことは「社会にとって良いことだ」として、多様性計画を放棄する。

英国紙ガーディアンが先週報じたところによると、2月17日、グーグルの幹部らは全社会議で、同社の多様性計画を段階的に廃止する方法について詳細を説明し、「兵器や監視のためのAI開発への反対」を放棄するという同社の公約を擁護した。

グーグルの元ダイバーシティ責任者メロニー・パーカー氏は、同社がダイバーシティとインクルージョンに関する従業員研修プログラムを中止し、「DEIコンテンツ」を含むより広範な研修プログラムを「更新」すると述べた。

GoogleのCEO、サンダー・ピチャイ氏は、同社は世界中のユーザーの多様性を反映した人材の雇用に常に「深く配慮」してきたものの、事業を展開する地域の法律や規制を遵守しなければならないと述べた。「私たちの価値観は時代を超えたものですが、法規制の変化に合わせて、それに対応していく必要があります。」

AIに関して、Googleは今月初めにウェブサイトから「兵器や監視用のAIを開発しない」という誓約を削除し、大きな注目を集めました。Googleの最高法務責任者であるケント・ウォーカー氏は、2018年にGoogleがAI原則を初めて導入して以来、状況は大きく変化したと述べています。AI原則では、Googleは有害な目的でAIを開発しないと明記されています。

Googleの最高法務責任者であるケント・ウォーカー氏は、「私たちは重要な議論において発言権を求められることが増えています。これは社会にとって良いことだと考えています。なぜなら、Googleは生物学など、私たちが得意とする分野でこうした議論に役割を果たしているからです。『AI原則の最初のバージョン』に存在した厳格な禁止事項の中には、現在私たちが行っているより微妙な議論には必ずしも当てはまらないものもありますが、私たちの目標は常に、メリットがリスクをはるかに上回ることです」と述べています。

近年、Googleが米国およびイスラエル軍と締結したクラウドサービス契約が社内からの抗議を引き起こしていることは特筆に値します。Googleは一貫して、自社の人工知能技術が人間に危害を加えるために利用されることはないと主張してきました。しかし、米国国防総省の人工知能責任者は先日、TechCrunchに対し、一部企業のAIモデルが米軍の「キルチェーン」プロセスを加速させていると明らかにしました。(Wang Miao)