SHOUJIKE

スタンフォード大学の研究者たちは、裁判文書にChatGPTの使用による誤りがあったことを認めたが、それが文書の実質的な内容に影響を与えなかったと主張した。

12月5日、スタンフォード大学ソーシャルメディアラボの創設者であり、誤情報の専門家でもあるジェフ・ハンコック氏は、裁判所文書の引用整理にAIツール「ChatGPT」を使用したものの、いわゆる「幻覚」が生じたことを認めた。批評家たちは、これが文書の信憑性に深刻な影響を与えたと指摘した。

ハンコック氏は、ミネソタ州の「ディープフェイク技術を用いた選挙への影響」法案を支持するために、この宣誓供述書を裁判所に提出したとみられる。この法案は現在、連邦裁判所で争われている。原告には保守系YouTuberのクリストファー・コールズ氏とミネソタ州下院議員のメアリー・フランソン氏が含まれており、両氏の弁護士はハンコック氏の宣誓供述書には存在しない引用が含まれている可能性があると判断し、この文書を「信頼できない」と判断し、審議から除外するよう求めている。

ハンコック氏は後にChatGPTの使用を認めたが、コンテンツの執筆に使用したことは否定した。彼は宣誓供述書を執筆・精査し、その中のすべての主張は当該分野の最新の学術研究によって裏付けられており、人工知能技術が誤情報とその社会的影響に与える影響に関する専門家としての自身の見解を反映していると確信していると述べた。

誤った引用の問題に関して、ハンコック氏は、宣誓証言に関連する可能性のある論文を特定するためにGoogle ScholarとGPT-4を使用し、既存の知識と新たな学術研究を統合したと説明した。彼は、GPT-4を使って引用リストを作成したが、ツールが2つの誤った引用(いわゆる「錯覚」)を生成し、別の引用に誤った著者を追加したことに気付いていなかったと述べた。

ハンコック氏は、「裁判所や弁護士の方々を誤解させる意図は全くありませんでした。この件で混乱を招いたことを心からお詫び申し上げます。しかしながら、宣誓供述書で提起さ​​れた全ての重要な点については、引き続き確固たる姿勢で臨みます」と述べた。

この事件は、AIを業務支援に活用する際に、人間による確認と検証の重要性を浮き彫りにしている。(海洋)