先日開催された Google Cloud Next '26 では多くの発表がありました。イベント全体を通して共通していたテーマは、自律型AIエージェントがワークフローに組み込まれる「エージェント型エンタープライズ」でした。
この変化は、単に新しいアプリケーションの導入にとどまらず、基盤となるインフラストラクチャに求められる要件にも影響を与えます。本記事では、「Cross-cloud infrastructure for the agentic enterprise」セッションの内容を基に、エージェント型AIを支えるインフラの課題と、それらを解決するために発表されたGoogle Cloudの新機能を整理します。
従来型インフラの限界
これまでのインフラは、主に人間の操作スピード(タイピングやクリック)を前提として構築・最適化されてきました。しかし、エージェント型AIの登場により、ワークロードの性質が変わりつつあります。
- 計算能力の需要増加
エージェントはマシンスピードで動作するため、連続的な計算要求が発生します。膨大なトークンを遅延なく処理し続けるため、高い計算能力が求められます。 - ネットワークトラフィックの増大
従来のネットワークでは、「ユーザーからの1つのAPIリクエストに対して、サーバーがレスポンスを返す」というシンプルなトラフィックが一般的でした。
しかし、エージェントは1つのタスクをこなす過程で、世界中のクラウドやデータセンターにあるAPIやツール、他のエージェントに対して数百ものリクエストを送信する可能性があります。これにより大幅にペイロードが増加し、ネットワークが通信を処理しきれなくなるおそれがあります。 - データレイヤーの混雑
エージェントは推論を行う際、テーブル全体をスキャンするような重い分析クエリを実行することがしばしばあります。データ基盤の設計によっては、AIの処理がリソースを圧迫し、本来データを使いたい人間が利用しづらくなるという問題が発生する可能性があります。 - コンプライアンスの行き詰まり
「データがどこに保存されているか」だけでなく、「誰がどのデータにアクセスできるか」を正確に把握・制御する仕組みが必要です。エージェントによるデータの利活用と機密保護のバランスをどのように取るべきか、改めて考え直す必要があります。
企業がエージェント型AIを安全かつスムーズに導入するには、これらの課題を見越したインフラ設計が必要です。ここからは、その解決策として提示された「エージェント型エンタープライズ向けクロスクラウド インフラストラクチャ(Cross-cloud infrastructure for the agentic enterprise)」の4つの重要な要素を見ていきます。
エージェント型エンタープライズ向けクロスクラウド インフラストラクチャの構成要素
流動的なコンピューティング(Fluid compute)
アプリやDB、ERPシステムのような従来型のワークロードは、絶対的な信頼性や安定性が重視されてきました。一方で、AIエージェントはマシンスピードで動作し、必要に応じて即座に計算能力が確保できる必要があります。
これらのワークロードは相互に作用し合っているため、必要に応じて柔軟にスケーリングできる流動的なコンピューティングを実現する基盤が必要です。これを実現するため、以下の新機能が発表されました。
- 第8世代TPU(Coming Soon)
トレーニングに最適化されたTPU 8tと、推論や強化学習に最適化されたTPU 8iが発表されました。これらはAIのコアとなる強大な処理能力を提供します。 - GKE Agent Sandbox(プレビュー)
エージェント実行の重要なステップとして、エージェントが生成するコードや強化学習シミュレーションをサンドボックス環境に隔離する必要があります。GKE Agent Sandboxは、オープンソースのgVisorテクノロジーをベースとしており、クラスターあたり毎秒300個までサンドボックスを拡張できます。これにより、エージェントのバースト時にも一時停止することなく、認識、推論、行動を実行できます。 - C4Nシリーズ(プレビュー)
セキュリティアプライアンスやメディアストリーミングなど、I/O負荷の高いワークロード向けに設計されたマシンシリーズです。ネットワークの帯域幅は400Gbpsで、VM上で毎秒9500万パケットを処理できます。これにより、アプリケーションの規模拡大と、エージェントからの新たな需要増加の両方に対応できます。 - M4Nシリーズ(プレビュー)
vCPUあたり26.57GBのRAMを提供するメモリ最適化インスタンスです。OracleワークロードをM4N上で実行することで、他のハイパースケーラーと比べてTCOを20%以上削減できます。 - C4NおよびM4N向けのHyperdisk Extreme(プレビュー)
約100万IOPSと25GiB/sのスループットをサポートします。
安全な接続性(Secure connectivity)
コンピューティングが真に流動的であるためには、単一のデータセンターやパブリッククラウドサービスの境界に制約されるべきではありません。エージェントやAIサービスが、データの保存場所を問わず、シームレスにアクセスできるネットワーク基盤が求められます。
Google Cloudはこれまで、静的な制限に縛られない「Cross-Cloud Network」を推進してきましたが、今回のセッションでは、マルチクラウド環境での監視・セキュリティ・ガバナンスを強化する多数の新機能が発表されました。
- Cloud Network Insights(プレビュー)
Google Cloud内に留まらず、他のパブリッククラウドやオンプレミス環境も含めて、エージェント、コアアプリケーション、ネットワーク全体のパフォーマンスとエクスペリエンスを統合的に監視できる機能です。
さらに、ネットワーク運用の自動化・簡素化を支援するため、Gemini Cloud Assist向けのNetwork Domain Agentsも発表されています。 - Cloud NGFW Advanced Malware Sandbox と Cloud Armor Managed WAF Rules(いずれもプレビュー)
ネットワークへの脅威はAI駆動型攻撃によって急速に進化しており、セキュリティは後付けではなく、ネットワーク自体に組み込まれている必要があります。ゼロデイ攻撃へのリアルタイム保護機能として発表されました。Cloud NGFW Advanced Malware Sandboxでは、既知および未知のマルウェアの99%を検知できます。
Cloud Armorでは、数千もの事前定義済みルールにより、脆弱性やゼロデイ攻撃を防ぐためのマネージドWAFルールを提供します。
これらは、Cross-Cloud Networksに統合されており、リアルタイムでインテリジェントなセキュリティを保証します。 - Agent Gateway(プレビュー)
各従業員が独自のAIプラットフォームを構築していくと、エージェントが無秩序に増加し、企業レベルでのセキュリティやガバナンスが十分確保できていない状態になります。Agent Gatewayでは、Model Identity, Model Registry, Model Armorと連携してエンタープライズグレードのガバナンスと強力な保護を適用することを支援します。また、エージェントから他のエージェント、モデル、MCPサーバー、各クラウドのAPIへの接続を検査・管理し、認証を行うことで、エージェントからのAPI呼び出しを保護します。 - Ultra Low Latency Solution(プレビュー)
シカゴ・マーカンタイル取引所(CME)グループとそのクライアントが、コアトレーディングアプリケーションをGoogle Cloudへ移行できるようにするフルマネージドのクラウド環境です。これにより、すべてのトレーダーに対して公平な取引環境が提供され、ナノ秒レベルの市場データをリアルタイムで活用できるようになります。
セッション内では、Agent Gatewayの具体的な動作を見せるため、Gemini Enterpriseのエージェントを使用した住宅ローン審査プロセスのデモが行われました。これは、担当者がエージェントにローン申請書のレビューを依頼し、その結果を受け取るというシナリオです。
デモの中では、エージェントが取得したデータの中に社会保障番号(SSN)などの機密情報が含まれていた場合、Agent Gatewayがそれを検知し、Data Loss Prevention APIを呼び出して回答中の機密情報がマスキングされる様子が確認できました。
また、会話のコピーを外部へメール送信しようとした際に、エージェントが読み取り権限しか持たないことから、書き込み(メール送信)がブロックされる仕組みも紹介されていました。
Agent Gatewayによりリアルタイムでの制御が行われることで、問題が起きた後にログを追跡するのではなく、情報漏洩や不正操作を未然に防ぐことができます。企業がエージェント型AIを安全に活用するためには必須の機能だと感じました。
統合されたデータレイヤー(Unified data layer)
エージェントが推論を実行するためにはデータが必要ですが、企業のデータはGoogle Cloud上または他のプラットフォームのデータストアなどに分散しており、サイロ化している可能性があります。
データは企業にとって最も強力なものであり、データから知識へと進化させることを目指すべく、以下のサービスが発表されました。
- Knowledge Catalog(プレビュー)
企業全体のデータ環境の包括的なセマンティックマップを提供します。顧客としてデータを完全に理解し、AIエージェントにコンテキストを提供できる状態にします。 - Smart Storage(プレビュー)
画像やドキュメントに自動的に注釈が付けられ、オブジェクトが自己記述的になります。これにより、内容をセマンティック検索できるようになり、AIが必要なデータサブセットを簡単に検出できるようになります。 - Cross-Cloud Lakehouse(プレビュー)
オープンなApache Iceberg Standardに基づいているため、エージェントはデータの保存場所を問わず、様々なベンダーのカタログやオブジェクトストアをネイティブに読み取ってリアルタイムの推論を行うことが可能です。
デジタル主権(Digital sovereignty)
エージェント型AIを業務に組み込む際、政府機関や金融、製造業などでは「データが物理的にどこに存在し、誰がそれにアクセスできるか」を厳密に制御する必要があります。
セッションでは、組織が求める「デジタル主権」を3つの基本的なニーズに分類し、それぞれに対応するソリューションが紹介されました。
Ⅰ. 規制への準拠(Regulatory compliance)
データ所在地とアクセス制御を厳格に管理するニーズです。これに対応する Google Cloud Data Boundary は、IL5を含む多くのコンプライアンス要件を満たしています。
- Confidential External Key Management(プレビュー)
独自の暗号鍵を制御する機能がアップデートされます。Confidential Computeの仕組みを活用し、検証可能なハードウェア隔離環境内で安全に鍵のアクセス制御を行えるようになります。
Ⅱ. 地域内での運用(Local operations)
データがローカルにあるだけでなく、「現地の独立した組織が運用・管理しているか」という新しいコンプライアンス要件への対応です。
Google Cloud Dedicated は、現地の主権要件を満たすために、完全に独立した地域プロバイダーによって運用されます。フランスではS3NS社と提携して最高レベルのセキュリティ要件(SecNumCloud 3.2)を取得済みで、今年後半にはドイツでも展開予定です。また、GPUを搭載しており、特定の地域内に制限された環境でもAIワークロードをフルサポートします。
Ⅲ. 絶対的な隔離(Total isolation)
知的財産などの機密データを守るため、パブリックインターネットから完全に切り離されたエアギャップ環境を求めるニーズです。これを実現するのが Google Distributed Cloud です。データの分離にとどまらず、運用環境そのものを外部から完全に分離します。
- Gemini on Google Distributed Cloud(プレビュー)
NVIDIAおよびDellとの提携により、この完全に隔離された環境でGoogleのAIモデル「Gemini」を稼働させることが可能になります。NVIDIAの次世代AIチップであるBlackwellおよびBlackwell Ultra(B200, B300)環境にも対応しています。
まとめ
AIが自律的にタスクをこなすエージェントへと進化する中で、それを支えるインフラストラクチャも劇的な進化を遂げています。
計算リソースの柔軟性、通信の安全性と可観測性、分散したデータの統合がクラウド基盤の標準機能として提供されることで、企業はより安全かつ効率的にAIエージェントを業務に組み込めるようになるはずです。
エージェント型エンタープライズの時代に向け、これらの強力なインフラをどのように利用するか、今後の展開に期待が高まります。
- カテゴリ:
- Google Next '26




