SHOUJIKE

Appleは2022年にCSAM検出機能を削除したとして訴えられており、原告は被害者を保護するという約束に違反したと主張している。

12月9日、Appleが2022年に計画していた児童性的虐待資料(CSAM)検査プログラムを中止したとして訴えられていると報じられた。幼少期に性的虐待を受けた27歳の女性が仮名でAppleを相手取り訴訟を起こし、同社が被害者保護の約束に違反したと非難した。

2021年後半、AppleはiCloud内の画像をデバイス上のハッシュシステムを用いてスキャンし、CSAM(成人向けコンテンツ安全)の拡散を検知・ブロックし、ヌードを含む写真を送受信したユーザーに警告を表示する計画を発表しました。コミュニケーションセーフティ機能は依然として存在しますが、CSAM検出機能はプライバシー専門家、児童安全団体、そして政府からの広範な反対により廃止されました。

原告は、CSAM検出機能がまだ有効だったにもかかわらず、バーモント州で押収されたMacBookから性的虐待を受けている画像がiCloudにアップロードされているという通知を法執行機関から受け取ったと主張している。訴状の中で彼女は、Appleがこの機能の廃止を決定したことで、これらの画像が広く拡散し、結果としてAppleが消費者に「欠陥製品」を販売し、彼女のようなユーザーグループに損害を与えたと主張している。

女性の弁護士の一人によると、原告はAppleに対し、慣行を改め、最大2,680人の他の適格被害者にも補償を行うよう求めている。これらの被害者は、法律に基づき少なくとも1人あたり15万ドルの補償を受ける権利がある。もし全ての被害者への補償が認められれば、Appleの賠償総額は12億ドル(現在約87億2,800万人民元)を超える可能性がある。

ノースカロライナ州でも同様の事例が発生しました。CSAMの被害者である9歳の少女は、AppleがiCloudリンクを通じて見知らぬ人から違法動画を受け取り、同様のコンテンツを撮影してアップロードするよう促されたと訴えました。Appleは、連邦法典第230条により、ユーザーがiCloudにアップロードしたコンテンツに対する責任からAppleを保護する規定があると主張し、訴訟の却下を申し立てました。しかし、最近の裁判所の判決では、この法的保護は能動的なコンテンツモデレーションのケースにのみ適用されるとされており、Appleの抗弁が弱まる可能性があります。

Appleの広報担当者フレッド・サインツ氏は、新たな訴訟に対し、「Appleは児童性的虐待コンテンツは忌まわしいものであり、ユーザーのプライバシーと安全を損なうことなく、関連犯罪に積極的に取り組むことをお約束します」と述べました。サインツ氏は、Appleがメッセージアプリのヌード検出機能を拡張し、ユーザーが有害コンテンツを報告できるようにしたと述べました。しかし、原告と弁護士のマーガレット・マビ氏は、Appleの対策は到底不十分だと考えています。

マビ氏は、法執行機関の報告書や関連文書を通じて、被害者の画像とApple製品に関連する事例を80件以上発見したと述べた。これらの画像を共有した人物の1人は、ベイエリア在住の男性で、iCloudアカウントに2,000枚以上の違法な写真と動画が保存されていた。(オーシャン)