SHOUJIKE

Googleは、Project Astraのテストを開始し、一部のユーザーがスマートグラスを通じてAIアシスタントを体験する予定だと述べている。

12月12日、Googleが人工知能(AI)に巨額の投資を行っていることが報じられました。同社のバーチャルアシスタントのビジョンを真に理解するには、Project Astraに注目する必要があります。今春のGoogle I/Oで、Googleはこのフル機能のマルチモーダルバーチャルアシスタントを披露し、ユーザーの生活における「常に寄り添うパートナー」として位置付けました。この技術は現在「コンセプトビデオ」と「初期プロトタイプ」の中間段階ですが、AI分野におけるGoogleの最も野心的な試みと言えるでしょう。

Astraのデモンストレーション中、繰り返し登場したある要素が注目を集めました。それはメガネです。Googleは長年にわたりスマートウェアラブルデバイスの分野に取り組んでおり、Google Glass、Cardboard、そして2年前にデモを行ったProject Iris翻訳メガネなどを通じて、この分野への探求を示してきました。今年初め、Googleの広報担当者であるジェーン・パーク氏は、これらのメガネは「機能的な研究用プロトタイプ」に過ぎないと述べました。

しかし、状況は変わったようだ。Gemini 2.0の発表に先立つ記者会見で、GoogleのDeepMindチームのプロダクトマネージャーであるBibo Xu氏は、「少人数のグループがプロトタイプのグラスを通してProject Astraをテストします。これは、この種のAIを体験する最も強力で直感的な方法の一つだと考えています」と明らかにした。これらのテスターはGoogleのTrusted Testerプログラムに所属し、通常はこれらの初期プロトタイプにアクセスできる。これらのプロトタイプの多くは最終的に一般公開されることはない。一部のテスターはAndroidスマートフォン経由でAstraを使用し、他のテスターはグラスを通してAstraを体験することになるだろう。

その後の質疑応答で、グラスに関する質問に対し、徐氏は「グラス自体については、近日中に詳細情報を発表します」と述べました。これは必ずしもGoogleのスマートグラスが間もなく発売されることを意味するわけではありませんが、GoogleがProject Astraのハードウェア面について計画を立てていることを示唆していることは間違いありません。

スマートグラスは、GoogleがAstraで実現したいと考えていることを実現するのに最適なプラットフォームです。音声、動画、ディスプレイを組み合わせる最良の方法は、顔に装着するデバイスです。特に「常時アシスタント」体験を実現することが目標であればなおさらです。AstraとGemini 2.0の連携を紹介する新しい動画では、テスターがAstraを使ってアパートのセキュリティコードを記憶したり、天気を確認したりしていました。あるシーンでは、テスターはバスが通り過ぎるのを見て、「このバスはチャイナタウンの近くまで行きますか?」とAstraに尋ねました。これらのタスクはすべてスマートフォンでも実行できますが、ウェアラブルデバイスで操作する方がはるかに自然な感覚です。(Yuanyang)