2025/8/12 9:00:00 ~ 2025/8/13 9:00:00 (JST)

最近の発表

Amazon EC2 Single GPU P5 instances are now generally available

本日、AWSは、NVIDIA H100 GPUを1つ搭載した新しいAmazon Elastic Compute Cloud(Amazon EC2)P5インスタンスサイズを発表しました。これにより、企業は機械学習(ML)とハイパフォーマンスコンピューティング(HPC)のリソースを費用対効果の高い方法で適切なサイズに設定できます。\n 新しいインスタンスサイズにより、お客様は小規模から始めて、きめ細かくスケールできるようになり、インフラストラクチャコストをより柔軟に管理できるようになります。チャットボットや専門言語翻訳ツールなどの小規模から中規模の大規模言語モデル (LLM) を開発しているお客様は、推論タスクをより経済的に実行できるようになりました。また、お客様はこれらのインスタンスを使用して、高価で大規模な GPU の導入を行わずに、医薬品の発見、流体フロー分析、および財務モデリング用の HPC アプリケーションをデプロイできます。

P5.4XLargeインスタンスは、米国東部(ノースバージニア、オハイオ)、米国西部(オレゴン)、ヨーロッパ(ロンドン)、アジアパシフィック(ムンバイ、シドニー、東京)、南米(サンパウロ)の各リージョンで Amazon EC2 Capacity Blocks for ML で利用できるようになりました。これらのインスタンスは、ヨーロッパ (ロンドン)、アジアパシフィック (ムンバイ、ジャカルタ、東京)、南米 (サンパウロ) の各リージョンのオンデマンド、スポット、または貯蓄プランを通じて購入できます。

P5.4XLarge インスタンスの詳細については、Amazon EC2 P5 インスタンスをご覧ください。

Amazon SageMaker AI now supports P6e-GB200 UltraServers

本日、Amazon SageMaker AI は SageMaker HyperPod と Training Jobs における P6e-GB200 UltraServer のサポートを発表しました。P6e-GB200 UltraServer では、1 つの NVLink ドメインで最大 72 台の NVIDIA Blackwell GPU を活用して、基礎モデルのトレーニングとデプロイを 1 兆パラメータ規模で加速できます。P6e-GB200 UltraServer には ml.u-p6e-gb200x72 (NVLink 内に 72 基の GPU) と ml.u-p6e-gb200x36 (NVLink 内に 36 基の GPU) の 2 つのサイズがあります。\n P6e-GB200 ウルトラサーバーは、P5en インスタンスと比較して、1 つの NVIDIA NVLink で 20 倍を超えるコンピューティングと 11 倍を超えるメモリを提供します。各 NVLink ドメイン内では、360 ペタフロップスの FP8 コンピューティング (スパースなし) と合計 13.4 TB の高帯域幅メモリ (HBM3e) を活用できます。SageMaker AIでP6e-GB200ウルトラサーバーを使用すると、GB200の優れたパフォーマンスと、セキュリティ、組み込みのフォールトトレランス、トポロジー対応スケジューリング(SageMaker HyperPod EKS & Slurm)、統合モニタリング機能、他のSageMaker AIおよびAWSサービスとのネイティブ統合などのSageMakerのマネージドインフラストラクチャを組み合わせることができます。 UltraServer は、米国東部 (バージニア北部) AWS リージョンの延長であるダラスローカルゾーン (「us-east-1-dfw-2a」) の SageMaker フレキシブルトレーニングプランを通じて利用できます。GB200 UltraServers のオンデマンド予約については、アカウントマネージャーにお問い合わせください。Amazon SageMaker AI では、パフォーマンスとコストが最適化されたフルマネージド型のインフラストラクチャを使用して、機械学習モデルのトレーニングと大規模なデプロイを簡単に行うことができます。SageMaker AI で UltraServer を使い始めるには、ドキュメントをご覧ください。

Announcing new incentives for ISVs selling in AWS Marketplace

アマゾンウェブサービス株式会社(AWS)は、AWS パートナーセントラルで AWS Marketplace プライベートオファープロモーションプログラム(MPOPP)を開始したことを発表しました。これは、独立系ソフトウェアベンダー(ISV)が新規顧客獲得を促進することを支援するものです。このプログラムは、参加している ISV から購入するインセンティブとして AWS プロモーションクレジットを顧客に提供することで、AWS Marketplace を通じた販売を促進することを目的としています。MPOPP は AWS マーケットプレイスへの道のりのさまざまな段階にある AWS パートナーに特典を提供します。AWS Marketplace の新規販売者は即時の資金調達支援の恩恵を受けることができ、実績のある販売者は AWS Marketplace の更新を促進するための特別なインセンティブの恩恵を受けることができます。\n 対象となるパートナーは、AWS Partner Funding Portal を通じて年間を通じてセルフサービスで資金のリクエストを送信できます。これにより、プライベートオファーが受理された後の翌営業日に資金を調達できます。シンプルな資金調達テンプレートは、完全に自動化された承認プロセスにより、取引の成立を早め、市場投入までの時間を短縮するのに役立ちます。取引完了と AWS Marketplace での取引確認が完了すると、契約総額 (TCV) と該当するプログラム料金に基づいてお客様の AWS アカウントにプロモーションクレジットが発行され、計画からクレジット支払いまでのプロセス全体が合理化されます。 MPOPP、資格、特典の詳細については、AWS パートナー資金給付特典ガイドをご覧ください (AWS パートナーセントラルへのログインが必要です)。

Amazon SageMaker HyperPod now supports custom AMIs (Amazon Machine Images)

Amazon SageMaker HyperPod はカスタム AMI をサポートするようになったため、お客様は特定の組織要件を満たす事前設定済みのセキュリティ強化された環境でクラスターをデプロイできます。HyperPod に AI/ML ワークロードをデプロイするお客様は、クラスターの起動時間を短縮しながら、厳しいセキュリティ、コンプライアンス、運用要件を満たすカスタマイズされた環境を必要としますが、デプロイが遅くなり、クラスターノード間で不整合が生じる複雑なライフサイクル設定スクリプトに苦労することがよくあります。\n この機能により、お客様はカスタマイズされたセキュリティエージェント、コンプライアンスツール、独自のライブラリ、および専用ドライバをイメージに直接組み込んで、HyperPodのパフォーマンスが最適化されたベースAMIを基盤として構築できるため、起動時間の短縮、信頼性の向上、セキュリティコンプライアンスの強化が可能になります。セキュリティチームは組織のポリシーをベースイメージに直接埋め込むことができるため、AI/ML チームは事前に承認された環境を使用できるため、企業のセキュリティ基準を満たしながらトレーニングまでの時間を短縮できます。CreateCluster API を使用して新しい HyperPod クラスターを作成したり、UpdateCluster API を使用してインスタンスグループを追加したり、UpdateClusterSoftware API を使用して既存のクラスターにパッチを適用したりするときに、カスタム AMI を指定できます。カスタム AMI は、分散トレーニングライブラリやクラスター管理機能との互換性を維持するために、HyperPod のパブリックベース AMI を使用して構築する必要があります。 この機能は、Amazon SageMaker HyperPod がサポートされているすべての AWS リージョンで利用できます。カスタム AMI サポートの詳細については、Amazon SageMaker HyperPod ユーザーガイドを参照してください。

Anthropic’s Claude Sonnet 4 in Amazon Bedrock Expanded Context Window

Amazon BedrockのAnthropicのクロード・ソネット4が本日リリースされ、パブリックプレビューのコンテキストウィンドウが大幅に拡大されました。コンテキストウィンドウが 200,000 トークンから 100 万トークンに増え、5 倍に拡大されました。この機能強化により、Claude は 1 回のリクエストで大量のテキストを処理および推論できるようになり、包括的な分析および生成タスクの新しい可能性が広がりました。\n Sonnet 4のコンテキストウィンドウが拡張されたことで、お客様に多くのメリットがもたらされます。大規模なコード分析では、ユーザーはソースファイル、テスト、ドキュメンテーションを含むコードベース全体を読み込めるようになったため、Sonnet 4はプロジェクトのアーキテクチャを理解し、ファイル間の依存関係を特定し、システム設計全体を考慮した改善を提案することができます。文書合成では、法的契約、長い研究論文、大規模なデータセット、技術仕様などの広範な文書セットを 1 回の API 呼び出しで処理できるようになり、完全なコンテキストを維持しながら数百の文書間の関係を分析できるようになりました。さらに、この拡張により、完全な API ドキュメントやインタラクション履歴など、何百ものツールコールやマルチステップのワークフローにわたって一貫性を維持できる、より高度なコンテキスト対応エージェントを作成できるようになりました。 Claude Sonnet 4 の拡張されたコンテキストウィンドウが、米国西部 (オレゴン)、米国東部 (バージニア北部)、および米国東部 (オハイオ) の AWS リージョンの Amazon Bedrock でパブリックプレビューできるようになりました。200,000 トークンを超えるプロンプトには、入力のトークン価格の約 2 倍、出力のトークン価格の約 1.5 倍の料金が発生します。クロード・ソネット 4 の拡張コンテキストウィンドウを使い始めるには、Amazon Bedrock コンソールにアクセスしてください。

AWS Direct Connect announces 100G expansion in Cape Town, South Africa

本日、AWSは、南アフリカのケープタウン近郊のTeraco CT1データセンターにあるAWS Direct Connectロケーションでの100 Gbps専用接続の拡張を発表しました。この場所から、すべてのパブリック AWS リージョン (中国を除く)、AWS GovCloud リージョン、AWS ローカルゾーンへのプライベートで直接ネットワークアクセスを確立できるようになりました。MACsec 暗号化機能を備えた 100 Gbps 接続を提供するのは、南アフリカで AWS Direct Connect ロケーションが 2 つ目です。\n Direct Connect サービスにより、AWS とデータセンター、オフィス、またはコロケーション環境との間にプライベートな物理ネットワーク接続を確立できます。これらのプライベート接続は、パブリックインターネット経由の接続よりも一貫したネットワークエクスペリエンスを提供できます。

世界中の 142 か所以上の Direct Connect ロケーションの詳細については、Direct Connect 製品詳細ページのロケーションセクションをご覧ください。または、入門ページにアクセスして Direct Connect を購入して展開する方法について詳しく学んでください。

AWS Deadline Cloud introduces new cost-saving compute option

AWS Deadline Cloud は、映画、テレビ、放送、ウェブコンテンツ、デザイン用のコンピューター生成グラフィックや視覚効果を作成するチームのレンダリング管理を簡素化する完全マネージド型サービスです。本日、Deadline Cloud のサービス管理型フリート向けに、vCPU 時間あたり 0.006 USD という低価格でレンダリングコストを削減できる、待機して保存できる新しい機能を発表できることを嬉しく思います。\n この新機能は、完了時間を柔軟に設定できるため、時間に制約のないレンダリングワークロードに最適です。この待機と保存のアプローチを使用してジョブを送信すると、大幅なコスト削減が可能になり、次のプロジェクトでよりクリエイティブなイテレーションや探索を行えるようになります。この機能は、サービスマネージド型フリートに含まれる既存の AWS Deadline Cloud コンピューティングオプションを補完するもので、さまざまな優先順位や予算にわたってリソース利用をより柔軟に最適化できます。 AWS Deadline クラウドの待機と保存は、AWS Deadline クラウドが提供されているすべての AWS リージョンで利用できます。この新しいコスト削減機能の詳細と、それがレンダリングワークロードの最適化にどのように役立つかについては、AWS Deadline Cloud 製品ページをご覧になるか、AWS Deadline Cloud のドキュメントをご覧ください。

Amazon OpenSearch Serverless now supports kNN Byte vector and new data types

Amazon OpenSearch Serverless では、kNN バイトベクトルサポート、ベクターコレクションの放射状検索機能、strict_allow_templates、ワイルドカードフィールドタイプ、kuromoji_complete アナライザーなどの新しいデータ型とマッピングパラメータなど、いくつかの新機能が導入されました。\n これらの機能強化により、検索と分析のワークロードに大きなメリットがもたらされます。kNN Byte ベクトルサポートは、レイテンシーとパフォーマンスを向上させながら、メモリとストレージの要件を下げてコストを削減するのに役立ちます。1 つのドキュメントに複数のベクターを保存するための入れ子フィールドや新しいマッピングパラメーターなどの追加機能により、複雑なインフラストラクチャー管理を行わずに検索操作をより柔軟に管理できるようになります。 Amazon OpenSearch サービスの可用性に関する詳細については、AWS 地域サービスリストを参照してください。OpenSearch サーバーレスの詳細については、ドキュメントを参照してください。

New Sharing and Targeting Capabilities for EC2 On-Demand Capacity Reservations in Cluster Placement Groups

本日、クラスタープレイスメントグループ (CPG-ODCR) の Amazon EC2 オンデマンドキャパシティー予約に複数の拡張機能を導入します。CPG-ODCR は、お客様に容量を保証し、同じクラスタープレイスメントグループ (CPG) 内のインスタンス間の低レイテンシーと高スループットを実現します。現在、CPG-ODCR を使用するお客様は、より使いやすくする 2 つの追加機能の恩恵を受けることができます。1つ目は、顧客は異なるCPGに属するODCRをリソースグループに追加できるようになったことです。これにより、顧客は複数のプレイスメントグループに分散した予約グループを管理し、ターゲットを絞ることができるようになります。次に、顧客は AWS Resource Access Manager を使用して複数の AWS アカウントで CPG-ODCRを共有できます。これにより、キャパシティの中央プールを作成し、異なるアカウントのワークロード間で効率的に使用することができます。\n お客様は AWS CLI/API を使用するか、AWS マネジメントコンソールにアクセスすることで、CPG-ODCR のこれらの機能を使い始めることができます。これらの機能は現在、中国を除くすべての AWS リージョンで利用でき、追加費用なしで利用できます。これらの機能の詳細については、キャパシティ予約ユーザーガイドを参照してください。

AWS Blogs

Amazon Web Services ブログ (日本語)

Containers

AWS Database Blog

AWS for Industries

Artificial Intelligence

AWS for M&E Blog

Open Source Project

AWS CLI

Amplify UI