Google I/O 2025:AIが技術エコシステムの中心に

Google I/O 2025:AIが技術エコシステムの中心に

TLDR : Googleは、Google I/O 2025でGemini 2.5、Veo 3、Imagen 4のAIモデルの更新と検索エンジンへの新しいAIモードの統合を発表しました。改善点には、Gemini 2.5の推論モードの改善、米国でのAIモードの展開、3D会話をよりリアルにするためのProject StarlineのGoogle Beamへの進化が含まれます。

予想通り、AIはGoogle I/O 2025の発表を支配しました。Gemini 2.5、Veo 3、Imagen 4のモデルの更新、検索エンジンのAIモードなど、GoogleはAIとGeminiを製品の中心に据えています。

Gemini 2.5ファミリー

3月に発売されたGemini 2.5 Proは、Deep Thinkと呼ばれる改善された推論モードを備えています。このモードは、数学やプログラミングなどの複雑なタスクにより多くの計算サイクルを割り当て、回答を形成する前に複数の仮説を探ることを可能にします。
4月に発表されたGoogle 2.5 Flashは、推論をオンまたはオフにできるハイブリッド推論モデルで、コスト、パフォーマンス、遅延のバランスを最適化するよう設計されています。Googleは、推論、コード管理、マルチモーダル処理、広範なコンテキストの理解の面で改善を発表し、その内部評価によればトークン消費が20〜30%削減されています。
これら2つのモデルは、より自然な会話体験のためのネイティブオーディオ出力API、高度なセキュリティ対策、およびAIエージェントProject Marinerのコンピュータ使用能力を備えた新機能を享受しています。

AIモードの展開

I/O 2024で発表されたAI Overviewsが最近アップグレードされた中、Googleは、詳細な探索、比較、洗練された推論が必要な質問のために、AIモードを米国で展開すると発表しました。
最適化されたGemini 2.5モデルによって駆動され、リアルタイムのソースと情報にアクセスできるAIモードは、「クエリファンアウト」またはリクエスト分散技術を利用しています。AIは、関連する異なるトピックについて複数の検索を同時に開始し、さまざまなデータソースを使用して、これらの検索結果をまとめ上げ、引用されたウェブページへのハイパーリンクを含む構造化された回答を提供します。ユーザーは、希望すればフォローアップクエリで検索を微調整できます。

Project Starlineが進化してGoogle Beamに

Google Beamは、光場表示、6台のカメラによるボリュメトリックキャプチャ、空間オーディオ、AIによるリアルタイム処理などの先進技術を使用して、対話者の3D表現を作成します。このアプローチにより、60フレーム/秒のレンダリングと、ヘッドの動きの正確な追跡を実現し、ヘッドセットやメガネのような携帯機器を必要とせずに、よりリアルな会話を可能にします。当初、この技術は大きなプロトタイプに限定されていましたが、HPとのパートナーシップで開発されたよりコンパクトなシステムに統合されるように小型化されました。
GoogleがMeetにも統合したリアルタイム音声翻訳機能により、ユーザーの声、トーン、表現を保持しながら、多言語のスムーズな会話が可能になります。

Pour mieux comprendre

Google Beamで使用されているライトフィールドディスプレイとは何ですか、それはバーチャルリアリティや拡張現実にどのような影響を与える可能性がありますか?

ライトフィールドディスプレイは、光をすべての方向でキャプチャして表示する技術であり、特別なメガネなしでリアルな3D画像を再現できます。これにより、より没入感があり自然な体験を提供することで、バーチャルリアリティや拡張現実のアプリケーションを革新する可能性があります。

GoogleのAI Modeの「query fan-out」技術は、ユーザーデータのプライバシーにどのように影響しますか?

「query fan-out」技術は、異なるソースに複数のクエリを送信することを含み、潜在的に敏感なデータとの接触点が増えるため、データプライバシーの課題をもたらす可能性があります。規制当局は、プライバシー基準への準拠を確保するために監査を要求するかもしれません。