2025/12/2 9:00:00 ~ 2025/12/3 9:00:00 (JST)
最近の発表
Announcing Amazon EC2 General purpose M8azn instances (Preview)
本日より、新しい汎用高頻度ハイネットワークの Amazon Elastic Compute Cloud (Amazon EC2) M8AZN インスタンスがプレビュー可能になりました。これらのインスタンスは第 5 世代の AMD EPYC (旧コード名 Turin) プロセッサを搭載しており、クラウドで最も高い 5 GHz の CPU 周波数を実現しています。M8AZn インスタンスは、前世代の M5Zn インスタンスと比較して最大 2 倍のコンピューティングパフォーマンスを提供します。また、これらのインスタンスは M8a インスタンスよりも 24% 高いパフォーマンスを発揮します。\n M8azn インスタンスは、AWS が設計したハードウェアとソフトウェアのイノベーションの集まりである AWS Nitro System 上に構築されています。AWS Nitro System は、分離されたマルチテナンシー、プライベートネットワーク、高速ローカルストレージにより、効率的で柔軟かつ安全なクラウドサービスの提供を可能にします。これらのインスタンスは、自動車、航空宇宙、エネルギー、電気通信業界向けのゲーム、高性能コンピューティング、高頻度取引 (HFT)、CI/CD、シミュレーションモデリングなどのアプリケーションに最適です。 M8azn インスタンスプレビューの詳細やアクセスをリクエストするには、Amazon EC2 M8a ページをご覧ください。
Announcing Amazon Nova 2 Sonic for real-time conversational AI
本日、Amazonは、音声ベースの会話型AIとして業界トップの品質と価格を実現する、自然でリアルタイムの会話型AIの音声読み上げモデルであるAmazon Nova 2 Sonicの発売を発表しました。バックグラウンドノイズやユーザーの話し方に対する堅牢性、効率的なダイアログ処理、複数の言語でネイティブに話すことができる表現力豊かな音声 (ポリグロット音声) による音声生成など、クラス最高のストリーミング音声認識機能を備えています。以前のモデルと比較して、推論、指示の追跡、およびツール呼び出しの精度が優れています。\n Nova 2 Sonicは、オリジナルのNova Sonicモデルで導入された機能をベースに、言語サポートの拡大 (ポルトガル語とヒンディー語)、モデルが同じ音声を使用して異なる言語をネイティブ表現で話すことを可能にする多言語音声、開発者が低/中/高の一時停止感度を設定できるターンテイキング制御などの新機能を備えています。このモデルには、ユーザーが同じセッションで音声とテキストをシームレスに切り替えることができるクロスモーダルインタラクション、会話の流れを中断することなくマルチステップのタスクをサポートする非同期ツール呼び出し、持続的なインタラクションのための100万トークンのコンテキストウィンドウも追加されています。
開発者は Amazon Bedrock の双方向ストリーミング API を使用して、Nova Sonic 2 をリアルタイム音声システムに直接統合できます。Nova Sonic 2 は、Amazon Connect や Vonage、Twilio、AudioCodes などの他の主要なテレフォニープロバイダー、LiveKit や Pipecat などのオープンソースフレームワークともシームレスに統合されるようになりました。
Amazon Nova 2 Sonic は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (東京)、ヨーロッパ (ストックホルム) の Amazon Bedrock でご利用いただけます。詳細については、AWS ニュースブログと Amazon Nova Sonic ユーザーガイドをご覧ください。Amazon Bedrock で Nova Sonic 2 を使い始めるには、Amazon Bedrock コンソールにアクセスしてください。
Announcing the Apache Spark upgrade agent for Amazon EMR
AWS は、EC2 上の Amazon EMR と EMR サーバーレスの Apache Spark バージョンアップグレードを高速化する新機能である Apache Spark アップグレードエージェントを発表しました。このエージェントは、コードの分析と変換を自動化することで、通常は数か月かかる複雑なアップグレードプロセスを、数週間にわたるプロジェクトに変換します。組織は、Spark のアップグレード中に API 変更の分析、コンフリクトの解決、アプリケーションの検証に多大なエンジニアリングリソースを投資します。エージェントには、エンジニアがコード変更を完全に制御しながらアップグレード要件を自然言語で表現できる会話型インターフェースが導入されています。\n Apache Spark アップグレードエージェントは、PySpark アプリケーションと Scala アプリケーション全体にわたる API の変更と動作の変更を自動的に識別します。MCP (モデルコンテキストプロトコル) との互換性により、エンジニアは選択した SageMaker Unified Studio、Kiro CLI、または IDE から直接アップグレードを開始できます。アップグレードプロセス中、エージェントは既存のコードを分析して具体的な変更を提案し、エンジニアは実装前にレビューして承認することができます。エージェントはデータ品質検証を通じて機能の正しさを検証します。エージェントは現在 Spark 2.4 から 3.5 へのアップグレードをサポートしており、アップグレードプロセス全体を通してデータ処理の正確さを維持しています。 Apache Spark アップグレードエージェントは、SageMaker Unified Studio が利用可能なすべての AWS リージョンで利用できるようになりました。エージェントの使用を開始するには、SageMaker Unified Studio にアクセスして IDE スペースを選択するか、Kiro CLI をインストールしてください。詳細な実装ガイダンス、リファレンスドキュメント、移行例については、ドキュメントを参照してください。
Amazon RDS for SQL Server now supports Developer Edition
SQL Server 用アマゾンリレーショナルデータベースサービス (Amazon RDS) が Microsoft SQL Server 2022 デベロッパーエディションを提供するようになりました。SQL Server デベロッパーエディションは SQL Server の無料エディションで、エンタープライズエディションのすべての機能が含まれており、本番環境以外のあらゆる環境で使用できます。これにより、お客様はコストを削減し、本番環境のデータベース構成との一貫性を維持しながら、SQL Server を使用してアプリケーションを構築、テスト、およびデモンストレーションできます。\n 以前は、開発およびテスト環境用に SQL Server インスタンス用 Amazon RDS を作成したお客様は、SQL Server スタンダードエディションまたは SQL Server エンタープライズエディションを使用する必要がありました。その結果、本番以外の用途ではデータベースのライセンスコストが追加で発生していました。現在、お客様は SQL Server 開発者版を使用することで、Amazon RDS の開発およびテストインスタンスのコストを下げることができます。さらに、開発とテストを目的とした自動バックアップ、自動ソフトウェア更新、モニタリング、暗号化などの Amazon RDS for SQL Server の機能は、Developer Edition でも機能します。 Microsoft SQL Server デベロッパーエディションのライセンスは、その使用を開発およびテスト目的に限定しています。本番環境では使用できません。また、エンドユーザーに直接サービスを提供する商業目的では使用できません。詳細については、Amazon RDS for SQL Server ユーザーガイドを参照してください。価格の詳細と提供地域については、Amazon RDS for SQL Server の料金表を参照してください。
Amazon S3 Storage Lens では、ストレージの使用状況とアクティビティを組織全体で可視化できるため、コストの最適化、パフォーマンスの向上、データ保護の強化に役立ちます。本日、S3 ストレージの使用状況とアプリケーションパフォーマンスに関するより深い洞察を提供する 3 つの新機能を S3 Storage Lens に追加しました。1 つは、アプリケーションが S3 データとどのように相互作用するかについての洞察を提供するパフォーマンスメトリクス、バケット内の何十億ものプレフィックスの分析、そしてクエリと分析を容易にするための S3 テーブルへのメトリクスの直接エクスポートです。\n 具体的に 3 種類のパフォーマンスメトリクスを追加します。アクセスパターンメトリクスは、小さすぎて不要なネットワークオーバーヘッドが発生するリクエストなど、非効率的なリクエストを識別します。クロスリージョンリクエスト数などのリクエストオリジンメトリクスは、アプリケーションがリージョンをまたいでデータにアクセスするタイミングを示し、レイテンシーとコストに影響します。オブジェクトアクセス数メトリクスから、キャッシュや高性能ストレージへの移行によって最適化できるオブジェクトのごく一部をアプリケーションが頻繁に読み取っていることが明らかになります。 S3 Storage Lens のプレフィックス分析を拡張して、バケットごとに何十億ものプレフィックスを分析できるようにしています。これまで、メトリクスは最小サイズと深さのしきい値を満たす最大のプレフィックスに限定されていました。これにより、すべてのプレフィックスにおけるストレージの使用状況とアクティビティを可視化できます。最後に、メトリクスをマネージド S3 テーブルに直接エクスポートできるようになりました。これにより、Amazon QuickSight などの AWS 分析サービスですぐにクエリを実行できるようになり、このデータを他の AWS サービスデータと組み合わせてより深い洞察を得ることができます。 開始するには、S3 Storage Lens アドバンスドメトリクスダッシュボード設定でパフォーマンスメトリクスを有効にするか、プレフィックスを拡張してください。これらの機能は、AWS 中国リージョンと AWS GovCloud (米国) リージョンを除くすべての AWS リージョンで利用できます。S3 テーブルが利用できる AWS リージョンの無料ダッシュボード設定と高度なダッシュボード設定の両方で、マネージド S3 テーブルへのメトリクスのエクスポートを有効にできます。詳細については、S3 Storage Lens 概要ページ、ドキュメント、S3 料金ページ、および AWS ニュースブログをご覧ください。
Amazon FSx for NetApp ONTAP now supports Amazon S3 access
Amazon S3 アクセスポイントを Amazon FSx for NetApp ONTAP ファイルシステムに接続して、S3 にあるかのようにファイルデータにアクセスできるようになりました。この新機能により、FSx for NetApp ONTAPのファイルデータに簡単にアクセスして、S3と連携するさまざまな人工知能、機械学習、分析サービスやアプリケーションで使用できます。ただし、ファイルデータはFSx for NetApp ONTAPファイルシステムに残ります。\n Amazon FSx for NetApp ONTAP は、クラウドで最初で唯一の完全マネージド型の NetApp ONTAP ファイルシステムです。これにより、データの管理方法を変更することなく、NetApp ONTAP やその他の NAS アプライアンスに依存するオンプレミスアプリケーションを AWS に移行できます。S3 アクセスポイントは、さまざまなアプリケーションやユーザーがデータにアクセスする方法を制御および簡素化するのに役立つエンドポイントです。NetApp ONTAP の FSx 用 S3 アクセスポイントを利用すると、AWS に移行したデータから新しい洞察を発見し、イノベーションを迅速に行い、データ主導型の意思決定をさらに的確に行うことができます。たとえば、データを使用して Amazon Bedrock でジェネレーティブ AI アプリケーションを拡張したり、Amazon SageMaker で機械学習モデルをトレーニングしたり、Amazon Glue やさまざまな AWS データおよび分析コンピテンシーパートナーソリューションを使用して分析を実行したり、S3 ベースのクラウドネイティブアプリケーションを使用してワークフローを実行したりできます。 Amazon FSx コンソール、AWS コマンドラインインターフェイス (AWS CLI)、または AWS ソフトウェア開発キット (AWS SDK) を使用して S3 アクセスポイントを作成し、NetApp ONTAP ファイルシステム用の新しい FSx に S3 アクセスポイントを作成してアタッチすることから始めましょう。NetApp ONTAP ファイルシステム向け既存の FSx のサポートは、近日実施予定の週次メンテナンス期間中に開始される予定です。この新機能は、一部の AWS リージョンで利用できます。 開始するには、以下のリソースリストを参照してください。
ネットアップ ONTAP 向け Amazon FSx
Amazon S3 アクセスポイント
AWS ニュースブログ
Amazon RDS for SQL Serverは、M7iおよびR7iインスタンスファミリーをサポートしてCPUを最適化しました。これにより、同等の前世代のインスタンスと比較して価格が最大 55% 削減されます。CPU を最適化すると、同時マルチスレッディング (SMT) 構成が最適化され、商用ソフトウェアの料金が削減されます。お客様は、類似の第 6 世代インスタンスから M7i および R7i インスタンスにアップグレードすることでコストを削減できます。さらに、メモリや IO を大量に消費するデータベースワークロードでは、CPU 構成を微調整して最適化することで、さらにコストを削減できます。\n データベースインスタンスの消費時間に対する RDS for SQL Server の料金には、Microsoft Windows と Microsoft SQL Server のソフトウェア料金が含まれています。CPU を最適化すると、物理 CPU コアが 2 つ以上あるインスタンスの SMT が無効になります。これにより、同じ数の物理 CPU コアとほぼ同等のパフォーマンスを提供しながら、vCPU の数とそれに対応する商用ソフトウェアの料金を 50% 削減できます。最も大幅な節約は、2Xlarge 以上のインスタンスとマルチ AZ 配置を使用するインスタンスです。RDS では、ほとんどの使用において、1 つのアクティブノードのみで SQL Server ソフトウェアの料金を削減するように最適化されています。メモリや IO を大量に消費するワークロードの場合、お客様はアクティブな物理 CPU コアの数を微調整してさらに節約することができます。 RDS for SQL Server は、すべての AWS リージョンの M7i インスタンスと R7i インスタンスをサポートしています。バンドルされていないインスタンス料金では、データベースのコストは vCPU 時間あたりのサードパーティのライセンス料として個別に計算され、サードパーティのライセンス料は組織の AWS 割引の対象にはなりません。お客様の使用状況に関連する Microsoft Windows および SQL Server の料金は、AWS 請求およびコスト管理と月次請求で確認できます。詳細については、RDS for SQL Server の料金表、Amazon RDS ユーザーガイド、AWS ニュースブログをご覧ください。
Amazon EC2 P6e-GB300 UltraServers accelerated by NVIDIA GB300 NVL72 are now generally available
本日、AWS は Amazon Elastic Compute Cloud (Amazon EC2) P6e-GB300 UltraServers の一般提供を発表しました。NVIDIA GB300 NVL72 によってアクセラレーションされた P6e-GB300 ウルトラサーバーは、P6e-GB200 と比較して 1.5 倍の GPU メモリと 1.5 倍の FP4 コンピューティング (スパースなし) を提供します。 \n お客様は、より高度なコンテキストを必要とするアプリケーションや、推論やエージェント AI などの新しい推論手法を実装するアプリケーション向けに、P6e-GB300 を使用して生産中の最も強力なモデルのパフォーマンスを最適化できます。
P6e-GB300 UltraServer の使用を開始するには、AWS の営業担当者にお問い合わせください。
P6e ウルトラサーバーとインスタンスの詳細については、Amazon EC2 P6 インスタンスをご覧ください。
Announcing new memory-optimized Amazon EC2 X8aedz Instances
AWS は、第 5 世代 AMD EPYC プロセッサ (旧コード名 Turin) を搭載した次世代のメモリ最適化インスタンスである Amazon EC2 x8Aedz を発表しました。これらのインスタンスは、クラウド内で最も高い 5 GHz の CPU 周波数を提供します。前世代の X2IEZn インスタンスと比較して、最大 2 倍高いコンピューティングパフォーマンスを実現します。\n X8Aedz インスタンスは最新の第 6 世代 AWS Nitro カードを使用して構築されており、物理レイアウトや物理検証ジョブなどの電子設計自動化 (EDA) ワークロード、およびシングルスレッドプロセッサの高いパフォーマンスと大きなメモリフットプリントの恩恵を受けるリレーショナルデータベースに最適です。5 GHzプロセッサとローカルNVMeストレージの組み合わせにより、フロアプランニング、ロジック配置、クロックツリー合成(CTS)、ルーティング、パワー/シグナルインテグリティ解析など、メモリを大量に消費するバックエンドEDAワークロードの処理を高速化できます。 X8Aedz インスタンスは、メモリと vCPU の比率が 32:1 で、2 個から 96 個の vCPU の 8 つのサイズで、64 ~ 3,072 GiB のメモリ (2 種類のベアメタルバリアントを含む)、最大 8 TB のローカル NVMe SSD ストレージが用意されています。 X8Aedz インスタンスは、米国西部 (オレゴン) とアジアパシフィック (東京) リージョンで利用できるようになりました。お客様は貯蓄プラン、オンデマンドインスタンス、スポットインスタンスを通じて X8Aedz インスタンスを購入できます。開始するには、AWS マネジメントコンソールにサインインしてください。詳細については、Amazon EC2 X8Aedz インスタンスページまたは AWS ニュースブログをご覧ください。
Announcing Amazon EC2 Memory optimized X8i instances (Preview)
アマゾンウェブサービスは、次世代のメモリ最適化インスタンスである Amazon EC2 X8i のプレビューを発表しました。X8i インスタンスはカスタム Intel Xeon 6 プロセッサを搭載しており、クラウド内の同等の Intel プロセッサの中で最高のパフォーマンスと最速のメモリを実現します。X8i インスタンスは、前世代の X2i インスタンスと比較して 1.5 倍のメモリ容量 (最大 6 TB) と最大 3.4 倍のメモリ帯域幅を提供します。\n X8i インスタンスは SAP 認定を受けており、ミッションクリティカルな SAP ワークロードの場合、X2i インスタンスと比較して 46% 高い SAPS を実現します。X8i インスタンスは、インメモリデータベースと分析、大規模な従来型データベース、電子設計自動化 (EDA) など、メモリを大量に消費するワークロードに最適です。X8i インスタンスは X2i インスタンスよりも 35% 高いパフォーマンスを提供しますが、ワークロードによってはさらに高いパフォーマンスを発揮します。 X8i インスタンスプレビューの詳細やアクセスをリクエストするには、Amazon EC2 X8i ページをご覧ください。
Amazon S3 increases the maximum object size to 50 TB
Amazon S3 は、最大オブジェクトサイズを 50 TB に増やしました。これは、以前の 5 TB の制限から 10 倍に増加しました。これにより、高解像度のビデオ、地震データファイル、AI トレーニングデータセットなどの大きなオブジェクトの処理が簡単になります。すべての S3 ストレージクラスに 50 TB のオブジェクトを保存し、すべての S3 機能で使用できます。\n AWS SDK の最新の AWS Common Runtime (CRT) と S3 Transfer Manager を使用して、ラージオブジェクトのアップロードとダウンロードのパフォーマンスを最適化します。S3 のストレージ管理機能をこれらのオブジェクトに適用できます。たとえば、S3 ライフサイクルを使用してアクセス頻度の低いオブジェクトを S3 Glacier ストレージクラスに自動的にアーカイブしたり、S3 レプリケーションを使用して AWS アカウントやリージョン間でオブジェクトをコピーしたりできます。 Amazon S3 は、すべての AWS リージョンで最大 50 TB のオブジェクトをサポートします。ラージオブジェクトの操作について詳しくは、S3 ユーザーガイドをご覧ください。
Mistral Large 3 and Ministral 3 family now available first on Amazon Bedrock
お客様は、Amazon Bedrockで最初に発売されたMistral Large 3およびMinistral 3ファミリーのモデルだけでなく、生産規模でジェネレーティブAIアプリケーションとエージェントを構築するためのプラットフォームであるAmazon BedrockでVoxtral Mini 1.0、Voxtral Small 1.0、Magistral Small 1.2などの追加モデルを使用できるようになりました。\n Mistral Large 3は最先端のオープンウェイトの汎用マルチモーダルモデルで、41Bのアクティブパラメータと675Bの合計パラメータを特徴とするきめ細かなエキスパート混合アーキテクチャを採用しており、信頼性と長期的なコンテキストの理解を目的として設計されています。14B、8B、3Bモデルで構成されるMinistral 3ファミリーは、言語、ビジョン、インストラクションのバリエーションにわたって競合チェックポイントを提供し、開発者がカスタマイズと展開に適したスケールを選択できるようにします。Amazon Bedrock は、こうした最先端モデルを提供する最初のプラットフォームであり、お客様に Mistral AI の最新のイノベーションへの早期アクセスを提供します。Mistral Large 3 は、256K のコンテキストウィンドウと強力なエージェント機能をサポートしているため、プロダクショングレードのアシスタント、検索拡張システム、複雑なエンタープライズワークフローに優れています。Ministral 3ファミリーは、柔軟な導入オプションでこれを補完します。Ministral 3 14Bはローカル展開向けの高度なマルチモーダル機能を提供し、Ministral 3 8BはエッジデプロイメントとシングルGPU運用にクラス最高のテキストおよびビジョン機能を提供し、Ministral 3 3Bは低リソース環境向けのコンパクトなパッケージで堅牢な機能を提供します。これらのモデルを合わせると、フロンティアインテリジェンスから効率的なエッジコンピューティングまで、あらゆる領域に及びます。
これらのモデルは現在 Amazon Bedrock でご利用いただけます。利用可能な AWS リージョンの全リストについては、ドキュメントを参照してください。
Amazon Bedrock でこれらのモデルを使い始めるには、Amazon Bedrock Mistral AI ページをご覧ください。
Amazon S3 Batch Operations introduces performance improvements
Amazon S3 Batch Operations では、1 つのジョブで最大 200 億個のオブジェクトを処理する規模で、ジョブが最大 10 倍速く完了するようになり、大規模なストレージオペレーションを加速できます。\n S3 Batch Operations を使用すると、ステージングバケットとプロダクションバケット間でのオブジェクトのコピー、S3 ライフサイクル管理のためのオブジェクトのタグ付け、保存されたデータセットの内容を検証するためのオブジェクトチェックサムの計算など、大規模な操作を実行できます。S3 Batch Operations では、追加の設定やコストなしで、数百万のオブジェクトを処理するジョブについて、オブジェクトの前処理、実行、完了レポートの生成が最大 10 倍高速化されました。開始するには、AWS マネジメントコンソールでジョブを作成し、オペレーションタイプとバケット、プレフィックス、作成日などのフィルターを指定します。S3 はオブジェクトリストを自動的に生成し、必要に応じてアクセス権限ポリシーを含む AWS Identity and Access Management (IAM) ロールを作成し、ジョブを開始します。 S3 バッチオペレーションのパフォーマンス向上は、AWS 中国リージョンと AWS GovCloud (米国) リージョンを除くすべての AWS リージョンで利用できます。料金情報については、Amazon S3 料金ページの「管理と洞察」タブをご覧ください。S3 バッチオペレーションの詳細については、概要ページとドキュメントをご覧ください。
Announcing Amazon Nova 2 foundation models now available in Amazon Bedrock
本日、AWS は Amazon Nova 2 を発表しました。Amazon Nova 2 は、業界トップクラスの価格パフォーマンスで推論機能を提供する次世代の一般モデルです。Amazon Bedrock で本日ご利用いただける新しいモデルは以下のとおりです。\n • Amazon Nova 2 Lite は、日常のワークロードに対応する、高速で費用対効果の高い推論モデルです。
• Amazon Nova 2 Pro (プレビュー) は、非常に複雑な複数ステップのタスクに対応する最もインテリジェントなモデルです。
Amazon Nova 2 Lite と Amazon Nova 2 Pro (プレビュー) は、前世代のモデルに比べて大幅に進歩しています。これらのモデルは、段階的な推論とタスク分解による拡張的思考をサポートし、思考強度レベル (低、中、高) の 3 つのレベルを備えているため、開発者はスピード、インテリジェンス、コストのバランスをコントロールできます。これらのモデルには、コードインタープリターや Web グラウンディングなどの組み込みツールや、リモート MCP ツールもサポートされています。また、100 万トークンのコンテキストウィンドウも提供されるため、より豊かなインタラクションが可能になります。
Nova 2 Lite は日常のさまざまなタスクに使用できます。価格、パフォーマンス、速度の最適な組み合わせを提供します。初期の顧客は、カスタマーサービスのチャットボット、文書処理、ビジネスプロセスの自動化に Nova 2 Lite を使用しています。Amazon Nova 2 Pro (プレビュー) は、マルチドキュメント分析、ビデオ推論、ソフトウェア移行などの非常に複雑なエージェントタスクに使用できます。Nova 2 Pro はプレビュー段階にあり、Amazon Nova Forge のすべてのお客様にアーリーアクセスをご利用いただけます。興味がある場合は、アクセスについて AWS アカウントチームにお問い合わせください。Nova 2 Lite は Amazon Bedrock と Amazon SageMaker の監視付き微調整 (SFT) を使用してカスタマイズでき、Amazon SageMaker では完全な微調整が可能です。
Amazon Nova 2 Lite と Nova 2 Pro (プレビュー) は、複数の場所でのグローバルクロスリージョン推論により Amazon Bedrock で利用できるようになりました。
詳細については、AWS ニュースブログ、Amazon Nova モデルの製品ページ、および Amazon Nova ユーザーガイドをご覧ください。
Introducing AWS DevOps Agent (preview), frontier agent for operational excellence
AWS DevOps Agent in preview をリリースできることを嬉しく思います。AWS DevOps Agent は、インシデントを解決して予防的に防止し、AWS、マルチクラウド、ハイブリッド環境におけるアプリケーションの信頼性とパフォーマンスを継続的に向上させる最先端エージェントです。AWS DevOps Agent は、経験豊富な DevOps エンジニアが行うように、インシデントを調査して運用の改善点を特定します。リソースとその関係を学習し、オブザーバビリティツール、ランブック、コードリポジトリ、CI/CD パイプラインを操作し、それらすべてにわたるテレメトリ、コード、デプロイデータを相互に関連付けて、アプリケーションリソース間の関係を理解します。\n AWS DevOps Agent はインシデントを自律的に優先順位付けし、平均解決時間 (MTTR) を短縮するためにチームを迅速に解決するよう導きます。AWS DevOps Agent は、午前2時であろうとピーク時であろうと、アラートを受け取った瞬間に調査を開始し、アプリケーションを最適なパフォーマンスにすばやく復元します。過去のインシデントのパターンを分析して、オブザーバビリティ、インフラストラクチャの最適化、デプロイパイプラインの強化などの主要分野を強化する実用的な推奨事項を提示します。AWS DevOps Agent を使用すると、ワークフローを変更することなく、運用データやツールに含まれる未開拓の洞察にアクセスできます。
AWS DevOps Agent は、米国東部 (バージニア北部) リージョンでのプレビュー期間中は追加料金なしで利用できます。詳細については、AWS ニュースブログを読み、「はじめに」を参照してください。
Amazon S3 Vectors is now generally available with 40 times the scale of preview
Amazon S3 Vectorsは、ベクターの保存とクエリをネイティブサポートする最初のクラウドオブジェクトストレージで、現在一般公開されています。S3 Vectors は、AI エージェント、推論、検索拡張生成 (RAG)、セマンティック検索のための、コスト最適化された専用のベクターストレージを、10 億ベクトル規模で提供します。S3 Vectors は Amazon S3 と同じ伸縮性、耐久性、可用性を提供するように設計されており、ベクターのアップロード、保存、クエリにかかる総コストを最大 90% 削減します。一般提供では、1 つのインデックスにつき最大 20 億個のベクトルの保存とクエリが可能で、ベクトルバケットあたり 10,000 個のベクトルインデックスまで伸縮自在にスケーリングできます。頻度の低いクエリでは引き続き 1 秒未満で結果が返されますが、頻度の高いクエリではレイテンシーが約 100 ミリ秒以下になるようになりました。単一ベクトルの更新をインデックスにストリーミングすることで、アプリケーションでは 1 秒あたり 1,000 ベクトルという書き込みスループットを達成できます。1 つのクエリで最大 100 件の検索結果を取得し、クエリできめ細かくフィルタリングできるように、各ベクトルと一緒に最大 50 個のメタデータキーを格納できます。\n S3 Vectors では、耐久性に優れた低コストのベクターストレージに最適化された新しいバケットタイプ、つまりベクターバケットが手に入ります。ベクターバケット内では、ベクターインデックスを使用してベクターデータを整理し、インフラストラクチャをプロビジョニングせずにベクターを保存、アクセス、クエリするための専用の API セットを利用できます。デフォルトでは、S3 VectorsはS3マネージドキー(SSE-S3)を使用してベクターバケット内のすべてのベクターデータをサーバー側の暗号化で暗号化します。オプションで、AWS Key Management Service(SSE-KMS)を使用してデフォルトの顧客管理キーを設定し、ベクターバケット内のすべての新しいベクターインデックスを暗号化することもできます。また、ベクターインデックスごとに顧客管理専用のキーを設定できるようになったため、スケーラブルなマルチテナントアプリケーションを構築し、規制やガバナンスの要件を満たすのに役立ちます。また、属性ベースのアクセス制御 (ABAC) 用にベクターバケットとインデックスにタグを付けたり、AWS Billing and Cost Management を使用してコストを追跡および整理したりすることもできます。
S3 Vectors は Amazon Bedrock ナレッジベースと統合されているため、RAG に大規模なベクターデータセットを使用する場合のコストを削減できます。Amazon Bedrock または Amazon SageMaker Unified Studio でナレッジベースを作成する場合、既存の Amazon S3 ベクターインデックスを選択するか、クイック作成ワークフローを使用して新しいベクターインデックスを作成できます。Amazon OpenSearch Service では、S3 のベクターストレージを自動的に管理するように OpenSearch を設定することで、ハイブリッド検索ワークロードのコストを最適化できます。
S3 Vectors は現在 14 の AWS リージョンで利用可能で、プレビュー版の 5 つのリージョンから拡張されています。詳細については、製品ページ、S3 料金ページ、ドキュメント、および AWS ニュースブログをご覧ください。
Amazon CloudWatch には、AWS 環境とサードパーティのソース全体で運用、セキュリティ、およびコンプライアンスデータを統合できる新しいデータ管理および分析機能が提供されています。DevOps チーム、セキュリティアナリスト、コンプライアンス担当者がすべてのデータに 1 か所からアクセスできるようになったため、複数の個別のデータストアや複雑な (抽出-変換-ロード) ETL パイプラインを管理する必要がなくなりました。CloudWatch では、CloudWatch をネイティブに使用したり、Apache Iceberg 互換のツールを使用したりして、お客様がこのデータからインサイトを得る場所と方法について、これまで以上に柔軟に対応できるようになりました。\n 統合データストアの機能強化により、お客様は地理的境界、事業単位、または個人固有の要件に合わせて、AWS アカウントやリージョンのログを簡単に収集して集計できるようになりました。AWS CloudTrail、Amazon VPC、Amazon WAF などの AWS ソースと、クラウドストライク、Okta、パロアルトネットワークスなどのサードパーティソースのマネージドコレクターを AWS 組織全体で有効にすることで、CloudWatch ではより多くのログを簡単にまとめることができます。お客様はパイプラインを使用して、セキュリティ分析用のOpen Cybersecurity Schema Framework(OCSF)などの標準形式にログを変換および強化したり、ファセットを定義してデータに関する洞察を促進したりできます。顧客は、追加のストレージ料金なしでマネージド型の Amazon S3 テーブルでデータを利用できるようにできるため、チームは Amazon SageMaker Unified Studio、Amazon Quick Suite、Amazon Athena、Amazon Redshift、または任意の Apache Iceberg 互換分析ツールでデータをクエリできます。 開始するには、CloudWatch コンソールの取り込みページにアクセスして、1 つ以上のデータソースを追加してください。Amazon CloudWatch 統合データストアの詳細については、製品ページ、価格ページ、およびドキュメントをご覧ください。リージョンの提供状況については、AWS Builder Center をご覧ください。
Announcing Database Savings Plans with up to 35% savings
本日、AWS は Database Savings Plans を発表しました。これは、前払いなしで 1 年間にわたって一貫した使用量(1 時間あたり USD で測定)を約束することと引き換えに、最大 35% 節約できる新しい柔軟な価格モデルです。\n データベース節約プランは、サポートされているエンジン、インスタンスファミリー、サイズ、デプロイオプション、AWS リージョンに関係なく、対象となるサーバーレスおよびプロビジョンドインスタンスの使用に自動的に適用されます。たとえば、データベース節約プランでは、Aurora db.r7g インスタンスと db.r8g インスタンスの切り替え、ワークロードの欧州 (アイルランド) から米国 (オハイオ) への移行、Oracle 用 Amazon RDS から Amazon Aurora PostgreSQL へ、または RDS から Amazon DynamoDB へのモダナイズが可能ですが、それでもデータベース節約プランが提供する割引価格の恩恵を受けることができます。 データベース節約プランは本日より、中国リージョンを除くすべての AWS リージョンで利用可能になり、Amazon Aurora、Amazon RDS、Amazon DynamoDB、Amazon ElastiCache、Amazon DocumentDB (MongoDB 互換)、Amazon Neptune、Amazon キースペース (Apache Cassandra 用)、Amazon タイムストリーム、AWS データベース移行サービス (DMS) がサポートされます。 データベース節約プランは、AWS 請求およびコスト管理コンソールから、または AWS CLI を使用して開始できます。最大限の節約を実現するには、コンソールに表示される推奨購入方法を使用して節約プランにコミットしてください。よりカスタマイズされた分析を行う場合は、貯蓄プラン購入アナライザーを使用して、カスタム購入シナリオで節約できる可能性のあるコストを見積もることができます。詳細については、データベース節約プランの料金ページと AWS 貯蓄プランのよくある質問をご覧ください。
Amazon Bedrock adds 18 fully managed open weight models, the largest expansion of new models to date
Amazon Bedrock は、プロダクション規模でジェネレーティブ AI アプリケーションとエージェントを構築するためのプラットフォームです。Amazon Bedrock では、一元的な API を通じて大手の AI 企業の幅広いフルマネージドモデルにアクセスできるため、アプリケーションを書き換えたり、インフラストラクチャを変更したりすることなく、新しいモデルの評価、切り替え、採用が可能になります。Amazon Bedrock は本日、フルマネージド型のオープンウェイトモデルを 18 モデルに追加しました。これは、これまでで最大の新規モデルの拡張です。\n Amazon Bedrock では以下のモデルにアクセスできるようになりました。
グーグル:Gemma 3 4B、Gemma 3 12B、Gemma 3 27B
ミニマックス AI: ミニマックス M2
ミストラル AI: ミストラル・ラージ 3、ミニストラ 3 3B、ミニストラ 3 8B、ミニストラ 3 14B、マジストラル・スモール 1.2、ボクストラル・ミニ 1.0、ボクストラル・スモール 1.0
ムーンショット AI: キミ K2 思考
NVIDIA: NVIDIA ネモトロンナノ 2 9B、NVIDIA ネモトロンナノ 2 VL 12B
OpenAI: gpt-oss-safeguard-20b、gpt-oss-safeguard-120b
クウェン:Qwen3-Next-80B-A3B、Qwen3-VL-235B-A2B
利用可能な AWS リージョンの全リストについては、ドキュメントを参照してください。
Amazon Bedrock が提供しているすべてのモデルの詳細については、Amazon Bedrock のモデル選択ページをご覧ください。Amazon Bedrock でこれらのモデルを使い始めるには、ローンチブログを読み、Amazon Bedrock コンソールにアクセスしてください。
Amazon Bedrock AgentCore now includes Policy (preview), Evaluations (preview) and more
本日、Amazon Bedrock AgentCore は、ポリシー (プレビュー) や評価 (プレビュー) などの新しいサービスを導入しました。これにより、チームが自信を持ってエージェントを組織全体に展開し、エージェントをプロトタイプから本番環境のソリューションに変えるために必要な制御と品質保証が可能になります。\n AgentCore のポリシーは AgentCore Gateway と統合され、すべてのツールコールをリアルタイムでインターセプトし、エージェントが速度を落とすことなく定義された境界内にとどまるようにします。チームは AWS のオープンソースポリシー言語である Cedar に自動的に変換される自然言語を使用してポリシーを作成できるため、開発、コンプライアンス、セキュリティの各チームがカスタムコードを書かなくてもルールを設定、理解、監査できます。AgentCore Evaluations は、開発者が実際の行動に基づいてエージェントのパフォーマンスをテストし、継続的にモニタリングすることで、品質を向上させ、顧客に広範囲にわたる影響が及ぶ前に問題を発見するのに役立ちます。開発者は、有用性、ツールの選択、正確性など、品質に関する共通の側面について13種類のビルトインエバリュエーターを使用したり、カスタムモデルベースのスコアリングシステムを作成したりできるため、評価インフラストラクチャの開発に必要な労力を大幅に削減できます。すべての品質メトリクスには、Amazon CloudWatch が提供する統合ダッシュボードからアクセスできます。また、より高度なエージェント機能をサポートするために、AgentCore メモリ、AgentCore ランタイム、AgentCore Identity に新機能を追加しました。AgentCore Memory にはエピソード記憶が含まれるようになりました。これにより、エージェントは経験から学び、適応し、時間をかけて知識を蓄積し、より人間らしいやりとりを生み出すことができます。AgentCore Runtime は、自然な会話を実現する双方向ストリーミングをサポートしているため、エージェントは会話の途中での中断やコンテキストの変化に対応しながら、音声エージェントの強力なユースケースの可能性を広げています。AgentCore Identity では、選択した ID プロバイダーとのシームレスな統合を維持しながら、マルチテナント環境全体で認証ルールを強化するためのカスタムクレームがサポートされるようになりました。 AgentCore Evaluations は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (シドニー)、ヨーロッパ (フランクフルト) の 4 つの AWS リージョンでプレビュー版としてご利用いただけます。AgentCore のポリシーは、AgentCore が利用可能なすべての AWS リージョンでプレビュー版として利用できます。 ブログで AgentCore の新しいアップデートの詳細を確認したり、AgentCore リソースの使用方法を詳しく調べたり、AgentCore スターターツールキットを使い始めたりしてください。AgentCore は、初期費用なしで従量課金制の価格設定を提供しています。
AWS AI Factoryが利用可能になり、お客様のデータセンターに迅速にデプロイ可能で高性能な AWS AI インフラストラクチャが提供されるようになりました。最新の AWS Trainium アクセラレーターと NVIDIA GPU、専用の低レイテンシーネットワーク、高性能ストレージ、AWS AI サービスを組み合わせることで、AI ファクトリーを単独で構築する場合と比較して、AI の構築を数か月または数年短縮できます。AWS AI Factorysは、20年近くにわたる AWS クラウドのリーダーシップに関する専門知識を活用して、通常 AI イニシアチブの遅延の原因となる調達、セットアップ、最適化の複雑さを解消します。\n Amazon Bedrock や Amazon SageMaker などの統合された AWS AI サービスを使用すると、個々のモデルプロバイダーと個別に契約を交渉しなくても、主要な基盤モデルにすぐにアクセスできます。AWS AI Factoryは、お客様またはお客様が指定した信頼できるコミュニティ専用に構築された専用環境として運用されるため、完全に分離して運用上の独立性を確保しながら、より広範な AWS サービスと統合できます。このアプローチは、政府や企業が AWS クラウドの比類ないセキュリティ、信頼性、機能の恩恵を受けながら、デジタル主権の要件を満たすのに役立ちます。インフラストラクチャのデプロイと管理は AWS が行い、お客様は既に獲得したデータセンターのスペースと電力容量を提供します。
AWS AI Factorysは、厳格なデータレジデンシー要件を備えた安全で隔離された環境を求めるあらゆる業界の企業や政府機関に高度な AI テクノロジーを提供します。これらの専用環境では、パブリッククラウドリージョンと同じ高度なテクノロジーを利用できるため、AI を活用したアプリケーションを構築したり、独自のデータを使用して大規模な言語モデルのトレーニングやデプロイを行ったりすることができます。AWS では、独自に何年もかけてキャパシティを構築するよりも、デプロイのスケジュールを短縮できるので、インフラストラクチャの複雑さではなくイノベーションに集中できます。
データセンターに AWS AI Factory をデプロイする方法と、専用 AI インフラストラクチャを大規模に構築および維持してきた AWS の実績ある専門知識を活用して AI イニシアチブを加速する方法の詳細については、AWS アカウントチームにお問い合わせください。
Amazon S3 Tables now support automatic replication of Apache Iceberg tables
Amazon S3 テーブルは、AWS リージョンとアカウント間の Apache Iceberg テーブルの自動レプリケーションをサポートするようになりました。この新機能により、すべてのスナップショットとメタデータを含むテーブル構造全体が複製されるため、クエリのレイテンシーが短縮され、グローバルな分析ワークロードのデータへのアクセス性が向上します。\n S3 テーブルレプリケーションは、ターゲットテーブルバケットに読み取り専用のレプリカテーブルを自動的に作成し、ソーステーブルの最新の状態でバックフィルし、新しい更新がないか継続的に監視してレプリカの同期を維持します。レプリカテーブルは、コンプライアンスとデータ保護の要件を満たすために、ソーステーブルから独立したスナップショット保持ポリシーと暗号化キーを使用して構成できます。Amazon SageMaker Unified Studio、または Amazon Athena、Amazon Redshift、Apache Spark、DuckDB などの Iceberg 互換エンジンを使用してレプリカテーブルをクエリできます。 S3 テーブルレプリケーションは、S3 テーブルがサポートされているすべての AWS リージョンで利用できるようになりました。料金の詳細については、Amazon S3 料金表ページをご覧ください。S3 テーブルの詳細については、製品ページ、ドキュメント、および AWS ニュースブログをご覧ください。
AWS Security Hub is now generally available with near real-time risk analytics
アマゾンウェブサービス(AWS)は、重要なセキュリティ問題に優先順位を付け、大規模な対応、セキュリティリスクの軽減、チームの生産性の向上に役立つ統合クラウドセキュリティソリューションである AWS Security Hub の一般提供を発表しました。Security Hub が一般提供を開始したことで、ほぼリアルタイムのリスク分析、高度なトレンド、統一された支援と管理、複数の AWS セキュリティサービスにわたる料金の合理化が可能になりました。Security Hub は、Amazon GuardDuty、Amazon Inspector、AWS Security Hub CSPM からのセキュリティシグナルを相互に関連付け、強化することで重大なリスクを検出します。これにより、クラウド環境内のアクティブなリスクをすばやく特定し、優先順位を付けることができます。\n Security Hub では、ほぼリアルタイムのリスク分析と高度なトレンドが提供されるようになり、強化された視覚化とコンテキストの強化により、相関関係のあるセキュリティシグナルを実行可能な洞察に変換できるようになりました。Security Hub は、デプロイと管理を一元化することで、個々のアカウントや AWS 組織全体で有効にすることができます。これらの新機能は、リスク調査結果、セキュリティに焦点を当てたリソースインベントリ、攻撃経路の視覚化、チケットシステム統合による自動対応ワークフローなどの既存の機能を補完します。この一元管理により、複数のコンソール間で手動で関連付ける必要性が減り、潜在的な運用上の中断を最小限に抑えながら、大規模な修復を合理化できます。また、複数の AWS セキュリティサービスにわたる料金を統合する合理化された価格設定により、コストの予測可能性が向上しました。このサービスでは、攻撃者がどのように脅威、脆弱性、設定ミスを連鎖させて重要なリソースを危険にさらす可能性があるかを示すことで、潜在的な攻撃経路を自動的に視覚化し、より包括的な分析によってより深いリスクコンテキストを提供します。 Security Hub を利用できる AWS の商用地域の詳細については、AWS の地域表を参照してください。このサービスは既存の AWS セキュリティサービスと統合されるため、運用上のオーバーヘッドを増やすことなく、より包括的なセキュリティ体制を実現できます。Security Hub の詳細と使用を開始するには、AWS Security Hub コンソールまたは AWS Security Hub 製品ページをご覧ください。
Oracle および SQL Server 向けの Amazon リレーショナルデータベースサービス (Amazon RDS) は、最大 256 TiB のストレージサイズをサポートするようになりました。これは、データベースインスタンスあたりのストレージサイズが 4 倍に増加したためです。お客様は、プライマリストレージボリュームに加えて最大 3 つのストレージボリューム (それぞれ最大 64 TiB のストレージ) をデータベースインスタンスに追加できます。アプリケーションのダウンタイムなしに、データベースインスタンスからストレージボリュームを追加、スケールアップ、または削除できるため、お客様は変化するワークロード要件に基づいてストレージボリュームを徐々に追加したり調整したりできます。\n ストレージボリュームを追加することで、お客様は引き続き 1 次ボリュームで使用できる最大ストレージサイズを超えてデータベースストレージを拡張できます。また、月末のデータ処理やローカルストレージからのデータのインポートなど、ストレージの追加が短期的に必要になった場合は、一時的にボリュームを追加し、不要になったら未使用のボリュームを削除できます。さらに、お客様はデータベースインスタンスに高性能のプロビジョンド IOPS SSD (io2) ボリュームと汎用 (gp3) ボリュームを組み合わせて使用することで、コストパフォーマンスを最適化できます。たとえば、一貫した IOPS パフォーマンスを必要とするデータを io2 ボリュームに保存し、アクセス頻度の低い履歴データを gp3 ボリュームに保存して、ストレージコストを最適化できます。 まず、お客様は AWS マネジメントコンソール、AWS CLI、または SDK を使用して、新規または既存のデータベースインスタンスに追加のストレージボリュームを作成できます。詳細については、『RDS for Oracle ユーザーガイド』および『RDS for SQL Server ユーザーガイド』を参照してください。ストレージボリュームを増やすことでお客様がどのようにメリットを得られるかについて詳しくは、AWS ニュースブログ投稿をご覧ください。追加のストレージボリュームは、すべての商用 AWS リージョンと AWS GovCloud (米国) リージョンで利用できます。
Amazon EMR Serverless eliminates local storage provisioning for Apache Spark workloads
Amazon EMR Serverless では、Apache Spark ワークロードのローカルストレージプロビジョニングが不要になるサーバーレスストレージが提供されるようになりました。これにより、データ処理コストを最大 20% 削減し、ディスク容量の制約によるジョブの失敗を防ぐことができます。アプリケーションごとにローカルディスクの種類とサイズを設定する必要がなくなりました。EMR Serverless は、シャッフルなどの中間データ操作をローカルストレージ料金なしで自動的に処理します。お支払いいただくのは、ジョブが消費したコンピューティングリソースとメモリリソースのみです。\n EMR Serverless は、転送中および保存中のデータをジョブレベルの分離により暗号化する、フルマネージド型の自動スケーリングサーバーレスストレージに中間データ操作をオフロードします。サーバーレスストレージはストレージをコンピューティングから切り離すため、Spark は一時的なデータを保存するためにワーカーをアクティブにしておくのではなく、アイドル状態になったらすぐにワーカーを解放できます。ディスク容量不足によるジョブの失敗を防ぎ、アイドル状態のワーカーへの課金を回避することでコストを削減できます。これは、動的なリソース割り当てを使用するジョブに特に役立ちます。たとえば、レコメンデーションエンジンでは、数百万件もの顧客とのやりとりを処理するレコメンデーションエンジンでは、初期段階で大規模なデータセットを高い並列処理で処理し、その後でデータの集約が絞り込まれます。 この機能は EMR リリース 7.12 以降で一般的に利用できます。利用可能かどうかについては、「サポートされている AWS リージョン」を参照してください。開始するには、EMR Serverless ドキュメントの「サーバーレスストレージ」を参照してください。
Amazon OpenSearch Service adds GPU-accelerated and auto-optimized vector indexes
GPU アクセラレーション機能を備えた Amazon OpenSearch Service では、10 億スケールのベクターデータベースを 1 時間以内に構築できるようになりました。また、ベクターインデックスの自動最適化により、検索品質、速度、コストの最適なトレードオフを実現できます。\n 以前は、大規模なベクターインデックスの構築には数日かかり、最適化には専門家が何週間もかけて手動で調整する必要がありました。時間、コスト、労力がイノベーションの速度を圧迫し、顧客はコストとパフォーマンスの最適化を見送っていました。サーバーレスで自動最適化ジョブを実行して、最適化の推奨事項を生成できるようになりました。検索レイテンシーとリコール要件を指定するだけで、これらのジョブはインデックス構成 (k-NN アルゴリズム、量子化、エンジン設定) を自動的に評価します。その後、ベクトル GPU アクセラレーションを使用すると、インデックス作成コストの 4 分の 1 で最適化されたインデックスを最大 10 倍速く構築できます。サーバーレス GPU はドメインまたはコレクションを動的にアクティブ化して高速化するため、料金が発生するのはスピードブーストの恩恵を受けた場合のみで、GPU インスタンスを管理しなくてもすべて完了します。 これらの機能により、セマンティック検索、レコメンデーションエンジン、エージェントシステムなどの AI アプリケーションをより効率的に拡張できます。大規模で最適化されたベクターデータベースを構築する時間を簡素化および短縮することで、チームはより迅速にイノベーションを起こせるようになります。 Vector GPU アクセラレーションは、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (シドニー)、ヨーロッパ (アイルランド)、アジアパシフィック (東京) の各地域のベクターコレクションと OpenSearch 3.1 以降のドメインで利用できます。ベクター自動最適化は、米国東部 (オハイオ)、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド) の各地域のベクターコレクションと OpenSearch 2.17 以上のドメインで利用できます。詳細はこちら。
Build agents to automate production UI workflows with Amazon Nova Act (GA)
Amazon Nova Actが一般公開されたことを発表できることを嬉しく思います。Amazon Nova Actは、プロダクションUIワークフローを自動化するための信頼性の高いエージェント群を開発および管理するための開発者向けの新しいAWSサービスです。Nova Act はカスタム Nova 2 Lite モデルを採用しており、高い信頼性と比類のないコスト効率、価値実現までの時間の短縮、大規模導入の容易さを実現しています。\n Nova Act は、反復的な UI ワークフローをブラウザで確実に完了したり、API やツールを実行したり (PDF への書き込みなど)、必要に応じて人間のスーパーバイザーにエスカレーションしたりできます。企業全体で繰り返されるプロセスを自動化する必要がある開発者は、自然言語の柔軟性とより確定的な Python コードを組み合わせたワークフローを定義できます。Nova Act を使用する技術チームは、nova.amazon.com/act にあるオンラインプレイグラウンドですぐにプロトタイプ作成を開始し、Nova Act IDE 拡張機能を使用してスクリプトを改良してデバッグし、わずか数ステップで AWS にデプロイできます。 Nova Act は本日、米国東部 (バージニア北部) の AWS リージョンでご利用いただけます。 Nova Act の詳細をご覧ください。
AWS previews EC2 C8ine instances
AWS は、カスタムの第 6 世代インテル Xeon スケーラブルプロセッサー (Granite Rapids) と最新の AWS Nitro v6 カードを搭載した Amazon EC2 C8ine インスタンスのプレビューを開始します。これらのインスタンスは、データプレーンのパケット処理ワークロード専用に設計されています。\n Amazon EC2 C8ine インスタンス構成では、前世代の C6in インスタンスと比較して、vCPU あたりのパケットパフォーマンスが最大 2.5 倍向上します。既存の C6in ネットワーク最適化インスタンスと比較して、インターネットゲートウェイ経由で最大 2 倍のネットワーク帯域幅を提供し、Elastic Network Interface (ENI) を最大 3 倍増やすことができます。小さなパケットサイズで高いパフォーマンスを必要とするパケット処理ワークロードに最適です。これらのワークロードには、セキュリティ仮想アプライアンス、ファイアウォール、ロードバランサー、DDoS 防御システム、Telco 5G UPF アプリケーションが含まれます。 これらのインスタンスは、AWS アカウントチームからのリクエストに応じてプレビューできます。アカウント担当者に連絡してサインアップしてください。
Amazon GuardDuty Extended Threat Detection now supports Amazon EC2 and Amazon ECS
AWS は、AWS Fargate または Amazon EC2 で実行されている Amazon Elastic Compute Cloud (Amazon EC2) インスタンスと Amazon EC2 で実行されている Amazon Elastic Container Service (Amazon ECS) クラスターを標的とする多段階攻撃を検出する新機能により、Amazon GuardDuty 拡張脅威検知をさらに強化したことを発表しました。GuardDuty 拡張脅威検知では、AWS 規模でトレーニングされた人工知能と機械学習アルゴリズムを使用して、セキュリティシグナルを自動的に相互に関連付け、重大な脅威を検出します。ネットワークアクティビティ、プロセスランタイムの動作、マルウェアの実行、AWS API アクティビティにわたる複数のセキュリティシグナルを長期間にわたって分析し、他の方法では見過ごされがちな高度な攻撃パターンを検出します。\n 今回の発表により、GuardDuty では、攻撃シーケンス:EC2/侵害されたインスタンスグループ、および攻撃シーケンス:ECS/侵害されたクラスターという 2 つの新しい重大度調査結果が導入されました。これらの結果から攻撃シーケンス情報が得られるため、初期分析にかかる時間を短縮し、重大な脅威への対応により多くの時間を費やすことができるため、ビジネスへの影響を最小限に抑えることができます。たとえば、GuardDuty では、永続化を試みた疑わしいプロセス、クリプトマイニングアクティビティ、リバースシェルの作成などを識別し、これらの関連イベントを 1 つの重大度調査結果として表すことができます。各調査結果には、詳細な要約、イベントのタイムライン、MITRE ATT&CK® の戦術と手法へのマッピング、および修復の推奨事項が含まれています。 GuardDuty 拡張脅威検知は、GuardDuty のお客様には追加費用なしで自動的に有効になりますが、その検出範囲は有効な GuardDuty 保護プランによって異なります。Amazon EC2 インスタンスの攻撃シーケンスの対象範囲と脅威分析を改善するには、EC2 のランタイムモニタリングを有効にしてください。侵害された ECS クラスターを検出できるようにするには、インフラストラクチャの種類に応じて Fargate または EC2 のランタイムモニタリングを有効にします。 はじめに、コンソールまたは API で GuardDuty 保護プランを有効にしてください。GuardDuty の新規のお客様は 30 日間の無料トライアルから始めることができ、ランタイムモニタリングをまだ使用していない既存のお客様も 30 日間無料でお試しいただけます。追加情報については、ブログ投稿と Amazon Guard Duty 製品ページをご覧ください。
Announcing Amazon EC2 Trn3 UltraServers for faster, lower-cost generative AI training
AWS は、第 4 世代 AI チップ Trainium3 を搭載した Amazon Elastic Compute Cloud (Amazon EC2) Trn3 UltraServer の一般提供を発表しました。これは、次世代のエージェンシー、推論、およびビデオ生成アプリケーションに最高のトークンエコノミクスを提供することを目的として構築された、当社初の 3 nm AWS AI チップです。\n 各 AWS Trainium3 チップは 2.52 ペタフロップス (PFLOP) の FP8 コンピューティングを提供し、メモリ容量は Trainium2 の 1.5 倍、帯域幅は 1.7 倍に増加し、HBM3e メモリは 144 GB、メモリ帯域幅は 4.9 Tb/s になります。Trainium3は、高度なデータタイプ(MXFP8およびMXFP4)を備え、リアルタイム、マルチモーダル、推論タスクのためのメモリと計算のバランスが改善された高密度ワークロードとエキスパート並列ワークロードの両方向けに設計されています。 Trn3 ウルトラサーバーは Trainium3 チップ 144 個 (合計 362 個の FP8 PFLOP) までスケールでき、EC2 UltraClusters 3.0 では数十万個のチップまでスケーリングできます。フル構成の Trn3 ウルトラサーバーは、最大 20.7 TB の HBM3e と 706 TB/秒の総メモリ帯域幅を実現します。次世代のTrn3ウルトラサーバーは、Trn2 UltraServerのチップ間インターコネクト帯域幅を2倍にするオール・ツー・オール・ファブリックのNeuronSwitch-V1を採用しています。 Trn3は、Trn2 UltraServerと比較して最大4.4倍のパフォーマンス、3.9倍のメモリ帯域幅、4倍のワットあたりのパフォーマンスを実現し、強化学習、専門家の混合(MoE)、推論、ロングコンテキストアーキテクチャなどのフロンティアスケールのモデルのトレーニングと提供に最適なコストパフォーマンスを提供します。Amazon Bedrockでは、Trainium3が最速のアクセラレーターであり、ユーザーあたりのレイテンシーは同程度で、メガワットあたりの出力トークンは5倍以上高く、Trainium2の最大3倍のパフォーマンスを提供します。 新しい Trn3 UltraServer は AI 研究者向けに構築され、AWS Neuron SDK を搭載しているため、画期的なパフォーマンスを引き出すことができます。PyTorch とのネイティブ統合により、開発者はモデルコードを 1 行も変更せずにトレーニングとデプロイを行うことができます。AI パフォーマンスエンジニアが Trainium3 をより深く利用できるようにしたことで、パフォーマンスの微調整、カーネルのカスタマイズ、モデルのさらなるプッシュが可能になります。イノベーションはオープン性によって成り立つため、私たちはオープンソースのツールやリソースを通じて開発者と交流することに全力を注いでいます。
AWS Lambda announces durable functions for multi-step applications and AI workflows
AWS Lambda は、開発者が信頼性の高いマルチステップアプリケーションと AI ワークフローを Lambda の開発者エクスペリエンス内で構築できるようにする、耐久性の高い機能を発表しました。耐久性に優れた関数により、自動的に進捗状況のチェックポイント、長時間実行中のタスクの実行中の一時停止、障害からの復旧などが可能になり、追加のインフラストラクチャを管理したり、カスタムの状態管理やエラー処理コードを作成したりする必要がありません。\n お客様が Lambda を利用するのは、イベント駆動型のプログラミングモデルがシンプルで、組み込みの統合機能があるためです。従来の Lambda 関数は単一の存続期間の短いタスクの処理に優れていますが、注文処理、ユーザーオンボーディング、AI 支援ワークフローなどの複雑な複数ステップのアプリケーションを構築する開発者は、以前はカスタムの状態管理ロジックを実装するか、外部のオーケストレーションサービスと統合する必要がありました。Lambda の耐久性の高い関数は、「ステップ」や「待機」などの新しい操作で Lambda プログラミングモデルを拡張することで、この機会に対応しました。これにより、コンピューティング料金を発生させることなく、進行状況を確認したり実行を一時停止したりできます。このサービスは、状態管理、エラー回復、長時間実行されるタスクの効率的な一時停止と再開を行うため、ユーザーは中核となるビジネスロジックに集中できます。 Lambda の耐久性関数は、Python (バージョン 3.13 と 3.14) と Node.js (バージョン 22 と 24) のランタイムをサポートしている米国東部 (オハイオ州) で一般的に提供されています。最新のリージョンでの提供状況については、リージョン別の AWS 機能ページをご覧ください。 AWS Lambda API、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (AWS CLI)、AWS クラウドフォーメーション、AWS サーバーレスアプリケーションモデル (AWS SAM)、AWS SDK、AWS クラウド開発キット (AWS CDK) を使用して、新しい Python ベースまたは Node.js ベースの Lambda 関数の耐久性の高い関数をアクティブ化できます。耐久性の高い関数の詳細については、AWS Lambda 開発者ガイドとブログ投稿をご覧ください。料金については、AWS Lambda の料金をご覧ください。
AWS Support transformation: AI-powered operations with the human expertise you trust
AWS サポートは、サポートポートフォリオを、ビジネスサポート+、エンタープライズサポート、統合運用という 3 つのインテリジェントなエクスペリエンス主導型プランに簡略化したことを発表しました。各プランは、AI のスピードと精度と AWS エンジニアの専門知識を組み合わせたものです。上位のプランはいずれも前のプランに基づいて構築されており、応答時間の短縮、積極的なガイダンス、よりスマートな運用が追加されています。その結果、エンジニアリングの負担が軽減され、信頼性と耐障害性が強化され、クラウド運用の合理化が実現しました。\n Business Support+ では、お客様の状況を理解する AI を活用した支援を 24 時間 365 日提供し、重大な問題については AWS の専門家に 30 分以内に直接対応します。これは現在のプランの 2 倍の速さです。さらにエンタープライズサポートでは、専任のテクニカルアカウントマネージャー (TAM) を招き、生成的な AI の洞察と人間の判断を組み合わせて、レジリエンス、コスト、効率に関する戦略的な運用ガイダンスを提供します。また、追加料金なしの AWS セキュリティインシデントレスポンスも含まれているため、お客様はこれを有効化してセキュリティアラートの調査と優先順位付けを自動化できます。最上位プランの Unified Operations はミッションクリティカルなワークロード向けに設計されており、指定された専門家からなるグローバルチームが、アーキテクチャレビュー、ガイド付きテスト、プロアクティブな最適化、重大なインシデントに対する状況に応じた対応時間を 5 分以内に提供します。AWS DevOps Agent (プレビュー) を使用しているお客様は、必要に応じてワンクリックで調査から AWS サポートを利用できるため、AWS の専門家にコンテキストをすぐに提供してより迅速に解決できます。AWS DevOps Agent は、インシデントを解決して積極的に防止し、AWS、マルチクラウド、ハイブリッド環境におけるアプリケーションの信頼性とパフォーマンスを継続的に向上させる最前線のエージェントです。 ビジネスサポート+、エンタープライズサポート、ユニファイドオペレーションはすべての商用 AWS リージョンで利用できます。既存のお客様は、現在のプランを継続することも、パフォーマンスと効率を向上させる新しいサービスを検討することもできます。AWS が AI インテリジェンスと人間の専門知識を融合させてクラウド運用を変革する方法については、AWS サポート製品ページをご覧ください。
AWS Security Agent (Preview): AI agent for proactive app security
本日、AWS は AWS Security Agent のプレビュー版を発表しました。AWS Security Agent は、開発ライフサイクル全体を通じてアプリケーションを積極的に保護する AI 搭載エージェントです。AWS Security Agent は、お客様の組織の要件に合わせた自動セキュリティレビューを実施し、状況に応じたペネトレーションテストを実施します。設計からデプロイまで継続的にセキュリティを検証することで、すべての環境で開発の早い段階で脆弱性を防ぐのに役立ちます。\n セキュリティチームは、承認された暗号化ライブラリ、認証フレームワーク、ログ標準などの組織のセキュリティ要件を AWS Security Agent コンソールで一度定義します。AWS Security Agent は、アーキテクチャ文書やコードをお客様が定義した基準と照らし合わせて評価することで、開発全体を通してこれらの要件を自動的に検証し、違反が検出された場合は具体的なガイダンスを提供します。デプロイの検証では、セキュリティチームがペネトレーションテストの範囲を定義し、AWS Security Agent はアプリケーションコンテキストを開発し、高度な攻撃チェーンを実行し、脆弱性を発見して検証します。これにより、すべてのチームに一貫したセキュリティポリシーを適用し、開発速度に合わせてセキュリティレビューをスケーリングし、ペネトレーションテストを定期的なボトルネックからオンデマンド機能に変えることで、リスクにさらされるリスクを大幅に軽減します。
AWS セキュリティエージェント (プレビュー) は現在、米国東部 (バージニア北部) リージョンでご利用いただけます。すべてのデータは安全でプライベートなままです。クエリやデータがモデルのトレーニングに使用されることはありません。AWS セキュリティエージェントは、監査とコンプライアンスのために API アクティビティを AWS CloudTrail に記録します。
AWS セキュリティエージェントの詳細については、製品ページにアクセスして、リリースアナウンスをお読みください。技術的な詳細や使用方法については、AWS セキュリティエージェントのドキュメントを参照してください。
Announcing New Compute-Optimized Amazon EC2 C8a Instances
AWS は、コンピューティングに最適化された新しい Amazon EC2 C8a インスタンスの一般提供を発表しました。C8a インスタンスは、最大周波数が 4.5 GHz の第 5 世代 AMD EPYC プロセッサ (旧コード名 Turin) を搭載しており、C7a インスタンスと比較してパフォーマンスが最大 30% 高く、コストパフォーマンスが最大 19% 向上しています。\n C8a インスタンスは C7a インスタンスと比較して 33% 多いメモリ帯域幅を提供するため、これらのインスタンスはレイテンシーの影響を受けやすいワークロードに最適です。Amazon EC2 C7a インスタンスと比較して、GroovyJVM の場合は最大 57% 高速であるため、Java ベースのアプリケーションの応答時間が短くなります。C8a インスタンスには、2 つのベアメタルサイズを含む 12 のサイズがあります。このようなインスタンスサイズの範囲により、お客様はワークロードの要件に正確に対応できます。 C8a インスタンスは AWS Nitro System 上に構築されており、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、動画エンコーディングなど、ハイパフォーマンスで計算量の多いワークロードに最適です。 C8a インスタンスは、米国東部 (バージニア北部)、米国東部 (オハイオ)、および米国西部 (オレゴン) リージョンの AWS リージョンで利用できます。開始するには、AWS マネジメントコンソールにサインインしてください。お客様は貯蓄プラン、オンデマンドインスタンス、スポットインスタンスを通じてこれらのインスタンスを購入できます。詳細については、Amazon EC2 C8a インスタンスページをご覧ください。
Announcing Amazon EC2 M4 Max Mac instances (Preview)
アマゾンウェブサービスは、最新の Mac Studio ハードウェアを搭載した Amazon EC2 M4 Max Mac インスタンスのプレビューを発表しました。Amazon EC2 M4 Max Mac インスタンスは次世代の EC2 Mac インスタンスであり、これによって Apple の開発者は最も要求の厳しいビルドやテストのワークロードを AWS に移行できます。これらのインスタンスは、iOS、macOS、iPadOS、tvOS、watchOS、VisionOS、Safari などの Apple プラットフォーム向けのアプリケーションの構築とテストに最適です。\n M4 Max Mac インスタンスは AWS Nitro システムを搭載しており、最大 10 Gbps のネットワーク帯域幅と 8 Gbps の Amazon エラスティックブロックストア (Amazon EBS) ストレージ帯域幅を提供します。これらのインスタンスは、16 コア CPU、40 コア GPU、16 コアのニューラルエンジン、128 GB のユニファイドメモリを搭載した Apple M4 Max Mac Studio コンピューター上に構築されています。EC2 M4 Pro Mac インスタンスと比較すると、M4 Max インスタンスは 2 倍の GPU コアと 2.5 倍以上のユニファイドメモリを備えているため、インスタンス機能を特定のワークロード要件に合わせて選択できる選択肢が広がり、AWS での Apple シリコン Mac ハードウェアの選択肢がさらに広がります。
Amazon EC2 M4 Max Mac インスタンスプレビューの詳細を確認したり、アクセスをリクエストしたりするには、Amazon EC2 Mac ページをご覧ください。
Amazon Nova Forge: Build your own Frontier Models using Nova
Novaを使用して独自のフロンティアモデルを構築する新しいサービス、Nova Forgeの一般提供を開始したことをお知らせします。\n Nova Forge では、トレーニング前、トレーニング中、またはトレーニング後のフェーズにわたって、Nova の初期チェックポイントから SageMaker AI でのモデル開発を開始できます。独自のデータを Amazon Nova が収集したデータと組み合わせてモデルをトレーニングできます。また、Nova Forge でのみ利用できるモデル開発機能を活用することもできます。たとえば、ご使用の環境でリワード機能付きの強化微調整 (RFT) を実行したり、組み込みの責任ある AI ツールキットを使用してカスタムの安全ガードレールを実装したりする機能などです。Nova Forge では、推論などの一般的な機能を維持し、壊滅的な忘却などのリスクを最小限に抑えながら、組織独自の知識を深く理解し、専門知識を反映したモデルを構築できます。さらに、Nova Forge のお客様は、Nova 2 Pro や Nova 2 Omni などの新しい Nova モデルに先行してアクセスできます。 Nova Forge は本日、米国東部 (バージニア北部) の AWS リージョンで利用可能ですが、今後数か月以内に他のリージョンでも利用できるようになる予定です。Nova Forge の詳細については、AWS ニュースブログ、Amazon Nova Forge 製品ページ、または Amazon Nova Forge ユーザーガイドをご覧ください。今すぐ Amazon Nova Forge コンソールから Nova Forge を使い始めることができます。
Introducing Amazon Nova 2 Omni in Preview
マルチモーダル推論と画像生成のオールインワンモデルである Amazon Nova 2 Omni を発表できることを嬉しく思います。テキスト、画像、動画、音声の入力をサポートすると同時に、テキストと画像の両方の出力も生成する、業界初の推論モデルです。マルチモーダル理解、自然言語を使用した画像の生成と編集、および音声文字起こしを可能にします。\n それぞれが異なる入力タイプと出力タイプをサポートするさまざまな専用モデルをつなぎ合わせることを組織に強いる従来のアプローチとは異なり、Nova 2 Omniは複数の AI モデルを管理する複雑さを排除します。これにより、複雑さとコストを削減しながらアプリケーション開発を加速することができ、開発者はマーケティングコンテンツの作成やカスタマーサポートへの電話の文字起こしから、ビデオ分析や視覚的支援による文書化まで、さまざまなタスクに取り組むことができます。 このモデルは、100 万トークンのコンテキストウィンドウ、テキスト処理用の 200 以上の言語、音声入力用の 10 言語をサポートしています。自然言語を使用して高品質の画像を生成および編集できるため、文字の一貫性、画像内でのテキストレンダリング、オブジェクトや背景の変更が可能になります。Nova 2 Omniは、ネイティブの推論による優れた音声理解機能により、複数の話者の会話を書き起こし、翻訳し、要約します。さらに、推論の深さと予算を柔軟に制御できるため、開発者はさまざまなユースケースで最適なパフォーマンス、正確性、コスト管理を実現できます。 Nova 2 Omni はプレビュー段階で、すべての Nova Forge のお客様が先行アクセスできるようになりました。アクセスについては、AWS アカウントチームにお問い合わせください。Amazon Nova 2 Omni の詳細については、ユーザーガイドをご覧ください。
Amazon API Gateway adds MCP proxy support
Amazon API Gateway はモデルコンテキストプロトコル (MCP) プロキシをサポートするようになりました。これにより、既存の REST API を MCP 互換のエンドポイントに変換できます。この新機能により、組織は AI エージェントや MCP クライアントが API にアクセスできるようになります。Amazon Bedrock AgentCore の Gateway サービスと統合することで、REST API をエージェント互換ツールに安全に変換できると同時に、セマンティック検索によるインテリジェントなツール発見が可能になります。\n MCP プロキシ機能と Bedrock AgentCore ゲートウェイサービスには、主に 3 つの利点があります。1 つ目は、REST API がプロトコル変換を通じて AI エージェントや MCP クライアントと通信できるようになるため、アプリケーションを変更したり、追加のインフラストラクチャを管理したりする必要がなくなることです。2 つ目は、二重認証による包括的なセキュリティです。つまり、インバウンドリクエストではエージェントの ID を検証すると同時に、アウトバウンドコールでは REST API への安全な接続を管理します。最後に、AI エージェントはプロンプトコンテキストに最も合致する最も関連性の高い REST API を検索して選択できるようになります。 この機能の料金については、Amazon Bedrock AgentCore の料金表ページをご覧ください。Amazon API Gateway MCP プロキシ機能は、Amazon Bedrock AgentCore が利用可能な 9 つの AWS リージョン (アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (ダブリン)、ヨーロッパ (フランクフルト)、米国東部 (バージニア)、米国東部 (オハイオ)、米国西部 (オレゴン) で利用できます。開始するには、Amazon API Gateway のドキュメントをご覧ください。
Amazon SageMaker Catalog now exports asset metadata as queryable dataset
Amazon SageMaker カタログは、Amazon S3 テーブルを介してアセットのメタデータを Apache アイスバーグテーブルとしてエクスポートするようになりました。これにより、データチームはカタログインベントリをクエリし、「先月登録された資産はいくつか」などの質問に答えることができます。、「どの資産が機密として分類されていますか?」、または「事業内容が記載されていない資産はどれか?」レポート用のカスタム ETL インフラストラクチャを構築せずに標準 SQL を使用する。\n この機能により、カタログアセットのメタデータが Amazon Athena、SageMaker Unified Studio ノートブック、AI エージェント、その他の分析ツールや BI ツールからアクセスできるクエリ可能なテーブルに自動的に変換されます。エクスポートされたテーブルには、技術メタデータ (resource_id、resource_type など)、ビジネスメタデータ (アセット名、ビジネス説明など)、所有権の詳細、タイムスタンプが含まれます。データはタイムトラベルクエリ用に snapshot_date ごとに分割され、SageMaker Unified Studio の aws-sagemaker-catalog バケットの下に自動的に表示されます。
この機能は、SageMaker カタログがサポートされているすべての AWS リージョンで追加料金なしで利用できます。S3 テーブルストレージや Amazon Athena クエリなど、基盤となるサービスに対してのみ料金が発生します。エクスポートされたテーブルに保持ポリシーを設定して、指定した期間より古いレコードを自動的に削除することで、ストレージコストを管理できます。 まず、AWS CLI を使用してデータセットのエクスポートを有効にし、24 時間以内に S3 テーブルまたは SageMaker Unified Studio の [データ] タブからアセットテーブルにアクセスしてください。Amazon Athena や Studio ノートブックを使用してクエリを実行するか、S3 テーブルアイスバーグ REST カタログエンドポイントを介して外部の BI ツールに接続します。手順については、Amazon SageMaker ユーザーガイドを参照してください。
Amazon CloudWatch GenAI observability now supports Amazon AgentCore Evaluations
Amazon CloudWatch では、エージェントコア評価を通じて AI エージェントの品質評価を自動化できるようになりました。この新機能により、開発者は実際のやり取りに基づいてエージェントのパフォーマンスを継続的に監視および改善できるため、チームは顧客に影響が及ぶ前に品質問題を特定して対処できます。\n AgentCore Evaluationsには、有用性、ツールの選択、回答の正確性などの重要な品質側面をカバーする13種類の評価ツールがあらかじめ組み込まれています。また、カスタムのモデルベースのスコアリングシステムもサポートしています。CloudWatch ダッシュボードから統一された品質メトリクスとエージェントテレメトリにアクセスでき、エンドツーエンドのトレース機能で評価メトリクスをプロンプトやログと関連付けることができます。この機能は、アプリケーションシグナル、アラーム、機密データ保護、ログインサイトなどの CloudWatch の既存の機能とシームレスに統合されます。この機能により、チームがカスタム評価インフラストラクチャを構築して維持する必要がなくなり、高品質な AI エージェントの導入が加速されます。開発者は CloudWatch GenAI オブザーバビリティコンソールの AgentCore セクションからすべてのエージェントを監視できます。
AgentCore Evaluations は、米国東部 (バージニア北部)、米国西部 (オレゴン)、ヨーロッパ (フランクフルト)、およびアジア太平洋 (シドニー) で利用できるようになりました。開始するには、ドキュメントと価格の詳細をご覧ください。基礎となるテレメトリデータには CloudWatch の標準料金が適用されます。
Announcing new memory optimized Amazon EC2 X8aedz instances
AWS は、第 5 世代 AMD EPYC プロセッサ (旧コード名 Turin) を搭載した次世代のメモリ最適化インスタンスである Amazon EC2 x8Aedz を発表しました。これらのインスタンスは、クラウド内で最も高い 5 GHz の CPU 周波数を提供します。前世代の X2IEZn インスタンスと比較して、最大 2 倍高いコンピューティングパフォーマンスを実現します。\n X8Aedz インスタンスは最新の第 6 世代 AWS Nitro カードを使用して構築されており、物理レイアウトや物理検証ジョブなどの電子設計自動化 (EDA) ワークロード、およびシングルスレッドプロセッサの高いパフォーマンスと大きなメモリフットプリントの恩恵を受けるリレーショナルデータベースに最適です。5 GHzプロセッサとローカルNVMeストレージの組み合わせにより、フロアプランニング、ロジック配置、クロックツリー合成(CTS)、ルーティング、パワー/シグナルインテグリティ解析など、メモリを大量に消費するバックエンドEDAワークロードの処理を高速化できます。 X8Aedz インスタンスは、メモリと vCPU の比率が 32:1 で、2 個から 96 個の vCPU の 8 つのサイズで、64 ~ 3,072 GiB のメモリ (2 種類のベアメタルバリアントを含む)、最大 8 TB のローカル NVMe SSD ストレージが用意されています。 X8Aedz インスタンスは、米国西部 (オレゴン) とアジアパシフィック (東京) リージョンで利用できるようになりました。お客様は貯蓄プラン、オンデマンドインスタンス、スポットインスタンスを通じて X8Aedz インスタンスを購入できます。開始するには、AWS マネジメントコンソールにサインインしてください。詳細については、Amazon EC2 X8Aedz インスタンスページまたは AWS ニュースブログをご覧ください。
Amazon Bedrock AgentCore Runtime now supports bi-directional streaming
Amazon Bedrock AgentCore Runtime は双方向ストリーミングをサポートするようになりました。これにより、エージェントは会話の途中での中断やコンテキスト変更を処理しながら、同時に聞き取りと応答を行うリアルタイムの会話が可能になります。この機能により、対話中ずっとコンテキストが維持される継続的な双方向のコミュニケーションが可能になり、会話の摩擦が解消されます。\n 従来のエージェントでは、説明や訂正を行う前にユーザーが応答を完了するのを待たなければならず、特に音声アプリケーションでは、会話の流れを断ち切り、不自然に感じるようなストップスタート型のインタラクションが発生していました。双方向ストリーミングは、継続的なコンテキスト処理を可能にすることでこの制限に対処し、ユーザーが会話の途中で中断したり、明確化したり、方向を変更したりできる自然な会話体験を提供する音声エージェントを強化すると同時に、応答性の向上によるテキストベースの対話の強化にも役立ちます。この機能は AgentCore Runtime に組み込まれているため、リアルタイムストリーミング機能の構築に何ヶ月もかかるエンジニアリング作業が不要になるため、開発者は複雑なストリーミングインフラストラクチャの管理に煩わされることなく、革新的なエージェントエクスペリエンスの構築に集中できます。 この機能は、Amazon Bedrock AgentCore Runtime を利用できる 9 つの AWS リージョン (米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド) のすべてで利用できます。 AgentCore Runtime 双方向ストリーミングの詳細については、ブログを読んだり、AgentCore のドキュメントにアクセスしたり、AgentCore スターターツールキットを使い始めたりしてください。AgentCore Runtime の従量制料金では、エージェントの実行中に消費されたアクティブなリソースに対してのみ支払いが発生し、アイドル時間や初期費用はかかりません。
Amazon SageMaker AI announces serverless MLflow capability for faster AI development
Amazon SageMaker AI は、AI モデル開発タスクをサポートするように動的にスケーリングするサーバーレス MLflow 機能を提供するようになりました。MLflow を使用すると、AI 開発者はインフラストラクチャの設定を待たずに実験の追跡、比較、評価を開始できます。\n さまざまな業界のお客様が AI 開発を加速するにつれ、AI モデル、アプリケーション、エージェントの実験を追跡し、動作を観察し、パフォーマンスを評価する機能が求められています。ただし、MLflow インフラストラクチャーを管理するには、管理者が追跡サーバーを継続的に維持および拡張し、キャパシティプランニングに関する複雑な決定を下し、データを分離するために個別のインスタンスをデプロイする必要があります。このインフラストラクチャーの負担により、中核的な AI 開発からリソースがそらされ、チームの生産性と費用対効果に影響するボトルネックが生じます。 今回の更新により、MLflow は動的にスケーリングして、要求の厳しい予測不可能なモデル開発タスクでは高速なパフォーマンスを提供し、アイドルタイムにはスケールダウンするようになりました。管理者は、リソースアクセスマネージャー (RAM) を使用してクロスアカウントアクセスを設定して組織の境界を越えたコラボレーションを簡素化することで、生産性を高めることもできます。 Amazon SageMaker AI のサーバーレス MLflow 機能は追加料金なしで提供され、SageMaker AI JumpStart、SageMaker モデルレジストリ、SageMaker パイプラインなどの使い慣れた Amazon SageMaker AI モデル開発機能とネイティブに連携します。お客様は自動バージョン更新により Amazon SageMaker AI の最新バージョンの MLFlow にアクセスできます。 MLFlow を搭載した Amazon SageMaker AI が一部の AWS リージョンで利用できるようになりました。詳細については、Amazon SageMaker AI ユーザーガイドと AWS ニュースブログを参照してください。
Amazon S3 Tables now offer the Intelligent-Tiering storage class
Amazon S3 Tables では、パフォーマンスへの影響や運用上のオーバーヘッドなしに、アクセスパターンに基づいてコストを最適化する Intelligent-Tiering ストレージクラスが提供されるようになりました。Intelligent-Tiering は、アクセスパターンの変化に応じて 3 つの低レイテンシーアクセス階層にわたってテーブル内のデータを自動的に移行し、ストレージコストを最大 80% 削減します。さらに、S3 Tables は圧縮、スナップショットの有効期限、未参照ファイルの削除などのメンテナンス操作を自動化しているため、データが階層化されることはありません。これにより、ストレージコストを節約しながらテーブルを最適化できます。\n Intelligent-Tiering ストレージクラスでは、30 日間連続でアクセスされなかったテーブルのデータは、自動的に低頻度アクセス層に移行されます (高頻度アクセス層よりもコストが 40% 低くなります)。90 日間アクセスできない場合、そのデータはアーカイブインスタントアクセス階層に移行されます (低頻度アクセス階層よりも 68% 低コスト)。テーブルを作成するときに Intelligent-Tiering をストレージクラスとして選択したり、テーブルバケット内のすべての新しいテーブルのデフォルトとして設定したりできるようになりました。 インテリジェント階層化ストレージクラスは、S3 テーブルが利用できるすべての AWS リージョンで利用できます。料金の詳細については、Amazon S3 料金表ページをご覧ください。S3 テーブルの詳細については、製品ページ、ドキュメント、および AWS ニュースブログをご覧ください。
AWS Blogs
Amazon Web Services ブログ (日本語)
- Amazon S3によるHA対応の持続可能で耐久性の高いSAPドキュメントおよびデータアーカイブ – Part2
- Amazon S3を使用した持続可能で耐久性の高いSAPドキュメントおよびデータアーカイブ
- SAP on AWSのエンドツーエンド・オブザーバビリティ: Part-3 Amazon CloudWatch Internet Monitor for SAP
- Amazon Bedrock Knowledge BasesでSAPおよびエンタープライズデータから新たな可能性を解き放つ
- AWS Database Migration Service で PostgreSQL のテーブルをグループ毎にタスク化
- 大容量テーブルの継続的レプリケーションを、AWS DMS の列フィルターによる並列化でパフォーマンス向上
- Amazon Bedrock AgentCore ゲートウェイインターセプター: きめ細かなアクセス制御の実現
- 【開催報告】セキュリティと生成AI について学ぶ GameDay with AWS Partners
AWS News Blog
- Amazon S3 テーブルのレプリケーションサポートとインテリジェント階層化の発表
- Amazon S3 Storage Lens にパフォーマンスメトリクスの追加、数十億のプレフィックスのサポート、S3 テーブルへのエクスポートが追加されました
- Amazon Bedrock AgentCore には、信頼できる AI エージェントをデプロイするための品質評価とポリシーコントロールが追加されました。
- AWS Lambda の耐久性関数を使用して複数ステップのアプリケーションと AI ワークフローを構築
- SQL Server と Oracle 向け Amazon RDS のコストを最適化し、スケーラビリティを向上させる新機能
- AWS データベースのデータベース節約プランの紹介
- Amazon CloudWatch は、運用、セキュリティ、コンプライアンスのための統合データ管理と分析を導入します
- 新しく強化された AWS サポートプランでは、専門家によるガイダンスに AI 機能が追加されました
- Amazon OpenSearch Service は GPU アクセラレーションと自動最適化によりベクターデータベースのパフォーマンスとコストを向上させます
- Amazon S3 Vectorsは、拡張性とパフォーマンスが向上して一般的に利用できるようになりました
- Amazon Bedrockは、新しいミストラルラージ3モデルとミニストラル3モデルを含む18のフルマネージドオープンウェイトモデルを追加します
- メモリを大量に消費するワークロード向けに、第 5 世代 AMD EPYC プロセッサを搭載した Amazon EC2 X8Aedz インスタンスのご紹介
- AWS DevOps Agent はインシデント対応の迅速化とシステム信頼性の向上に役立ちます (プレビュー)
- サーバーレス MLflow で Amazon SageMaker AI を使用して AI 開発を加速
- Amazon FSx for NetApp ONTAP が Amazon S3 と統合され、シームレスなデータアクセスが可能になりました
- 高速で費用対効果の高い推論モデルである Amazon Nova 2 Lite のご紹介
- 新しい AWS セキュリティエージェントは、設計からデプロイまでアプリケーションをプロアクティブに保護します (プレビュー)
- ほぼリアルタイムの分析とリスクの優先順位付けが可能な AWS Security Hub が一般公開されました
- Amazon GuardDuty が Amazon EC2 と Amazon ECS に拡張脅威検出機能を追加
- Amazon Nova Forge のご紹介:Nova を使用して独自のフロンティアモデルを構築しましょう