|
3月5日のニュース:生成型人工知能(GAI)技術のブレークスルーは、ディープフェイク、自動運転、AIによる医療診断など、AIの応用分野を多岐に広げています。これらのAI技術は、斬新な体験や便利なアプリケーションをもたらす一方で、新たな社会問題を引き起こす可能性もあります。 今年の全国人民代表大会(全人代)と中国人民政治協商会議(全人代・政治協商会議)では、雷軍氏、周紅義氏、劉青鋒氏、李東勝氏など、インターネット技術のリーダーたちが提言の中でAIに言及しましたが、それぞれの視点は異なっていました。これらのリーダーたちがAIのどのような側面に焦点を当てていたのかを見てみましょう。 AIディープフェイク 雷軍:「AIによる顔の交換と音声の模倣」に関する違法行為や著作権侵害の影響が深刻な地域の管理を強化することを提案します。 2024年10月、「雷軍AIナレーション」をフィーチャーした動画がショート動画プラットフォームで話題になりました。雷軍氏独特の音声を駆使したこれらの動画は、休日の交通渋滞やゲームといった話題について鋭い解説を披露し、中には「侮辱」的な発言も含まれていたため、激しい議論を巻き起こしました。動画は瞬く間に1億回以上の再生回数を記録しました。 しかし、これらのナレーションのほとんどは雷軍本人の声ではなく、ショート動画プラットフォームのユーザーがAIツールを用いて雷軍の声質をシミュレートし、設定されたテキストコンテンツに基づいて生成した雷軍の声の音声素材です。 注目すべきは、雷軍氏の音声コンテンツのパロディに加え、一部のネットユーザーがAIを駆使して張文紅博士の音声・動画クリップを作成し、自社製品のプロモーションに利用していることです。また、犯罪者の中にはAI生成のディープコンポジット動画を詐欺に利用する者もいます。過去1年間、AI生成のディープコンポジット音声・動画による知的財産権侵害は激化しています。 今年の両会において、全国人民代表大会(全人代)代表でシャオミ創業者兼CEOの雷軍氏は、違法侵害の主要分野である「AI顔交換・音声模倣」産業のガバナンス強化を提案した。具体的には、3つの方向性を示した。第一に、安全と発展のバランスを取りながら立法地位を向上させるため、個別法の立法プロセスを加速する。第二に、業界の自主規制と共同ガバナンスを強化し、プラットフォーム企業などの責任と義務を明確化する。第三に、法教育と広報の幅と強度を高め、国民の警戒心と識別力を高める。 李東勝:AIディープフェイク詐欺への管理強化を提言。 雷軍氏のほか、全国人民代表大会代表でTCLの創業者兼会長の李東勝氏も、AIディープフェイク詐欺の管理強化を提案した。 李東勝氏は、生成型人工知能技術の発展に伴い、ディープフェイク技術も急速に発展していると考えている。この新興技術の不適切な利用を規制するためには、ディープフェイクサービス提供者にAI生成コンテンツのラベル表示を義務付け、悪質な不正利用を減らし、責任を明確にし、違法行為や犯罪行為の責任者を処罰する必要がある。近年、我が国では関連法制がこの問題に対処してきたものの、既存の規制はまだ体系化されておらず、詳細かつ運用可能なルールや明確な罰則基準が欠けている。 これに対し、李東勝氏は次のように提案した。第一に、AI生成深層合成コンテンツのラベリングに関する法規制と制度の公布を加速する。第二に、ラベリング義務を履行しないAI深層合成サービスプロバイダーに対する罰則制度を明確にし、規定通りにラベリングを行わない深層合成コンテンツサービスプロバイダーの定義、分類内容、および対応する罰則基準を改善する。第三に、深層合成コンテンツのラベリングに関する技術基準の公布と管理を強化し、深層合成コンテンツのラベリングに関する技術基準を公布してラベリングの実効性を確保する。さらに、関連コンテンツプラットフォームに要求事項を公布し、ユーザーが深層合成動画、音声などのコンテンツを公開する際にラベリングを行うことを義務付ける。第四に、国際協力を強化し、AI生成合成コンテンツに対する効果的な規制枠組みを形成する。 AIの錯覚問題 周紅毅:大規模モデルの「錯覚」に対して、もっと寛容になることをお勧めします。 DeepSeekに代表される大規模モデルは、「国家レベルの科学技術のブレークスルー」を達成し、大規模モデル技術における自主的なイノベーションを促進するだけでなく、上流・下流産業の協調的発展を牽引し、大規模モデルの様々な分野への応用を加速させています。しかしながら、DeepSeekを含む大規模モデルは「錯覚」に悩まされており、一見非論理的で事実と矛盾するシナリオを生成することがあります。 中国人民政治協商会議全国委員会委員であり、360グループの創設者でもある周紅一氏は、「錯覚」は諸刃の剣だと考えている。これは大規模モデルに固有の特性であり、排除することはできず、その創造性と想像力を決定づけるものであり、AGI(汎用人工知能)の実現において極めて重要である。大規模モデルに「錯覚」がなければ、想像力と創造性は失われてしまう。さらに、モデルの能力が高ければ高いほど、錯覚は一般的に多くなる。 周紅一氏は、科学研究分野において、大型模型の「錯覚」は新薬の分子構造やタンパク質の構造などを「想像」し、新たな研究の指針となると指摘した。医学、法律、金融など、正確性が非常に重視される分野では、「錯覚」が誤っていたとしても、RAG(Retrieval Enhanced Generation)技術などの技術的手段を用いて、専門知識ベースやリアルタイムのオンライン情報と比較することで修正できる。 周紅義氏は、「セーフハーバー原則」の成功例を参考に、大型モデルおよび関連製品・サービスに対して柔軟な規制を実施し、大型モデルの「錯覚」を適切に許容すべきだと提言した。「錯覚」によって引き起こされる一般的な誤りについては、直接的な閉鎖や撤去を避け、企業に自己修正の機会を与え、大胆なイノベーションと自由な競争を促進し、より多くの企業がDeepSeekの成功を「再現」できるよう努めるべきである。 劉清鋒:「錯覚データ」による被害を防ぐために、独立して制御可能な大規模モデル産業エコシステムの構築を加速することを提案します。 中国インターネットネットワークインフォメーションセンター(CNNIC)が発表した「生成型人工知能アプリケーションの発展に関する報告書(2024年)」によると、中国における生成型人工知能製品のユーザー数は2億4,900万人に達した。 全国人民代表大会の代表であり、iFlytekの会長でもある劉清鋒氏は、生成型人工知能(GAI)は幻想を抱かせるものだと考えている。特に、深層推論モデルの論理的一貫性の向上により、AIが生成したコンテンツの真偽を区別することが困難になっているためだ。アルゴリズムの偏りを含む虚偽の情報は、次世代AIシステムによって繰り返し学習され、国民の信頼と社会の安定を損なう悪循環を生み出す可能性がある。 インターネット上の大規模モデルによって生成された「錯覚データ」の蔓延によって引き起こされる害に対して、劉青鋒氏は次のように提案している。 1. コンテンツの信頼性を向上させるための安全で信頼性の高いデータタグ付けシステムの構築:安全で信頼性が高く、動的に更新される情報源とデータ知識ベースを確立し、さまざまな種類のデータの信憑性と危害に関するタグ付けシステムを確立して、人工知能の錯覚の可能性を減らし、生成されたコンテンツの信頼性を向上させます。 2. AIGC幻覚ガバナンス技術とプラットフォームの開発、幻覚データの定期的なクリーンアップ:自動幻覚分析のための技術とソフトウェアプラットフォームを研究し、自動幻覚分析、AIGCの詳細な認証、虚偽情報の検出、有害コンテンツの特定、インターネット上の拡散追跡などを実施する。中国サイバースペース管理局、国家データ管理局などの部門は、幻覚データを定期的にクリーンアップし、AIGC幻覚情報検出ツールとサービスを一般向けに提供する。 AIが仕事を奪う状況にどう対処するか? Liu Qingfeng: AI 失業保険を設立することを提案します。 世界経済フォーラムの「2025年雇用の未来レポート」では、今後5年間で新たなテクノロジーと産業の変化により、世界で約9,200万の雇用が失われる一方で、1億7,000万の新たな雇用が創出されると予測されています。 AIが雇用を奪うのではないかという懸念に対し、全国人民代表大会代表でiFlytek会長の劉清鋒氏は、「AI失業給付のための特別保険」を試行し、6~12か月の失業緩衝期間を設定し、「政府主導の保険+商業機関の運営」モデルを採用し、AIの影響を最も受けやすい雇用のための特別保護基金を設立することを提案した。保険機関が商業用のAI失業保険商品を開発するよう指導し、社会全体に幅広い失業保護の選択肢を提供することを提案した。 また、彼はAI関連の新職業の企画と管理を強化する必要があると述べた。具体的には、AI関連の新職種の繁栄を促進し、AI時代に生み出される新職種を体系的に整理し、職業認定を強化する。大学や専門学校がトレンドを把握し、人材育成計画やカリキュラム設定を調整し、キャリアプランニングを科学的に指導することを奨励する。AIスキルトレーニングを強化し、特に低所得層に無料のトレーニング機会を提供する。 AIアプリケーションのセキュリティ Zhou Hongyi: 大規模モデル アプリケーションのセキュリティ問題を解決するには、「モデル間」アプローチを使用することをお勧めします。 DeepSeek-R1のような高度なモデルは前例のない可能性をもたらしましたが、同時に従来のサイバーセキュリティ手法では解決できないセキュリティ上の課題にも直面しています。中国人民政治協商会議全国委員会委員であり、360グループの創設者でもある周紅義氏は、大規模モデルアプリケーションのセキュリティは、主にベースモデル、知識ベース、そしてインテリジェントエージェントという3つの側面に重点が置かれていると考えています。 ベースモデルのセキュリティに関しては、大規模モデルにおける共通の錯覚現象により、特にテキスト生成時に出力が現実と一致しない可能性があり、政策立案、法的条項の解釈、ビジネス上の意思決定などのシナリオで誤解を招く結果につながる可能性があります。 エージェントのセキュリティに関して言えば、エージェントは通常、政府機関や企業内の様々なITシステム、電子メール、制御システムに接続されています。攻撃を受けると、有害な電子メールの送信から生産ラインの稼働停止、深刻な物理的損害に至るまで、一連の連鎖反応を引き起こす可能性があります。 周鴻義氏は、上記の課題に対応するため、360は人工知能技術を活用してセキュリティ環境を再構築し、「モデルツーモデル」のアプローチを採用して新たな問題に対処していると説明した。同社は、セキュリティビッグモデル技術を基盤として、「ベースモデル - 知識ベース - インテリジェントエージェント」を網羅するフルリンクセキュリティシステムを構築し、政府や企業の「デジタルトランスフォーメーションとインテリジェントアップグレード」を保護している。 この防御システムをさらに強化するため、周鴻義氏は二つの対策を提案した。第一に、セキュリティ技術のイノベーションと研究成果の転換を促進すること。周氏は、関係部門が速やかに支援政策と措置を導入し、「セキュリティ+人工知能」の包括的なソリューションを備えたサプライチェーンのリーディングカンパニーが、大規模なセキュリティモデル技術に基づく研究開発を行い、人工知能応用に関わる基礎モデル、知識ベース、そしてインテリジェントエージェントに関するセキュリティ問題に対処することを奨励することを提言した。これにより、技術成果の転換が加速され、人工知能応用プロセス全体にセキュリティ要素が深く組み込まれることになるだろう。 自動運転 雷軍:自動運転の量産化を加速 雷軍氏は3年間自動車製造に携わっており、Xiaomi SU7は発売以来、幅広い人気を博しています。今年の「二つの会談」では、雷軍氏は新エネルギー車のナンバープレートデザインの最適化や、自動運転技術の量産化の加速を提案しました。 雷軍氏は、自動車産業がインテリジェント化の高度な段階に入り、インテリジェント運転(レベル1、レベル2の運転支援、レベル3、レベル4の自動運転を含む)が自動車産業の熾烈な競争分野となっていると考えている。欧米先進国は、自動運転の量産化と法的保護を積極的に推進している。わが国では、レベル3の自動運転が公道で実証実験中で、レベル4の自動運転の実証実験も着実に進んでいる。自動運転車の量産化に向けた条件が整い始めており、自動運転機能の量産化と応用を強化し、新たな生産力を育成・拡大することが急務となっている。 そのために、雷軍氏は以下のことを提案した。1. 自動運転車の大規模なテストと検証を推進し、量産と商用化のプロセスを加速する。2. 自動運転車専用の保険の設立を推進し、安全使用に関する広報を強化する。3. 自動運転に関する法律や規制の公布を加速し、道路上での法的地位を明確にする。 |
AIに焦点を当て、雷軍、李東勝、周紅一点をはじめとするテクノロジー界の巨人たちは両会での提言で何を語ったのか?
関連するおすすめ記事
-
XPeng Motors の P7 スマートコックピットチップのアップグレードはクラウドファンディングを完了し、車両インフォテインメントのスムーズさが 2 倍向上すると期待されています。
-
F5:2025年までのアジア太平洋地域におけるエンタープライズAIアプリケーションの5つの主要トレンド
-
OpenAI は、複雑な情報の検索と分析を容易にするために ChatGPT の「ディープ リサーチ」機能をリリースしました。
-
ニッチからの脱却が鍵!2024年国内AI大規模モデル製品の画期的な戦略を総括。
-
東風汽車と長安汽車は同日、中国最大の自動車メーカーを創設するための再編を計画していると発表した。
-
テスラFSD vs. Li Auto AD Max:直接比較