2025/9/18 9:00:00 ~ 2025/9/19 9:00:00 (JST)

最近の発表

Second-generation AWS Outposts racks now supported in the AWS Canada (Central) and US West (N. California) Regions

第 2 世代の AWS Outposts ラックが AWS カナダ (中部) および米国西部 (北カリフォルニア) リージョンでサポートされるようになりました。Outposts ラックは、AWS インフラストラクチャ、AWS サービス、API、ツールを事実上すべてのオンプレミスのデータセンターまたはコロケーションスペースに拡張し、真に一貫したハイブリッド体験を実現します。\n カナダや米国内外のスタートアップ企業から企業、公共部門に至るまで、Outposts ラックを注文できるようになりました。これにより、レイテンシーとデータレジデンシーのニーズに合わせて最適化できるよう、これら2つの新しいサポート対象リージョンに接続されたOutpostsラックを注文できるようになりました。Outposts を利用すると、お客様はオンプレミスシステムへの低レイテンシーアクセスを必要とするワークロードをローカルで実行しながら、アプリケーション管理のために自国のリージョンに接続し直すことができます。また、お客様は Outposts と AWS のサービスを使用して、データレジデンシー要件を満たすためにオンプレミスに残しておく必要のあるデータを管理および処理することもできます。このリージョンの拡大により、お客様の Outposts が接続できる AWS リージョンの柔軟性がさらに高まります。

第 2 世代の Outposts ラックの詳細については、このブログ投稿とユーザーガイドをお読みください。第二世代の Outposts ラックがサポートされている国と地域、および AWS リージョンの最新リストについては、Outposts ラックに関する FAQ ページをご覧ください。

Amazon VPC Reachability Analyzer and Amazon VPC Network Access Analyzer are now available in seven additional AWS Regions

今回の発表により、Amazon VPC 到達可能性アナライザーと Amazon VPC ネットワークアクセスアナライザーは、アジアパシフィック (ニュージーランド)、アジアパシフィック (ハイデラバード)、アジアパシフィック (メルボルン)、アジアパシフィック (台北)、カナダ西部 (カルガリー)、イスラエル (テルアビブ)、メキシコ (中央) で利用できるようになりました。\n VPC Reachability Analyzer では、ネットワーク構成を分析することで、仮想プライベートクラウド (VPC) 内のソースリソースとターゲットリソース間のネットワーク到達可能性を診断できます。たとえば、Reachability Analyzer は、VPC ルートテーブルに欠落しているルートテーブルエントリを特定するのに役立ちます。このエントリが、AWS 組織のアカウント B の別の EC2 インスタンスに接続できないアカウント A の EC2 インスタンス間のネットワーク接続を妨げている可能性があります。 VPC Network Access Analyzer を使用すると、AWS リソースへの意図しないネットワークアクセスを特定できるため、セキュリティとコンプライアンスのガイドラインを満たすのに役立ちます。たとえば、ウェブアプリケーションからインターネットへのすべてのパスがファイアウォールを通過していることを確認し、ファイアウォールを迂回するパスを検出するスコープを作成できます。 詳細については、VPC 到達可能性アナライザーと VPC ネットワークアクセスアナライザーのドキュメントをご覧ください。料金については、Amazon VPC 料金ページの「ネットワーク分析」タブを参照してください。

Amazon Q Developer CLI announces support for remote MCP servers

Amazon Q デベロッパー CLI がリモート MCP サーバーのサポートを発表しました。リモート MCP サーバーは、開発タスクで使用するツールのスケーラビリティとセキュリティを向上させます。一元化されたサーバーに移行することでコンピューティングリソースの使用量を削減できるだけでなく、アクセスとセキュリティをより適切に管理するのにも役立ちます。HTTP をサポートし、OAuth ベースの認証をサポートする Atlassian や GitHub などの MCP サーバーと統合できるようになりました。\n リモート MCP サーバーを設定するには、トランスポートタイプを HTTP、ユーザーが認証情報を取得する URL、リクエストを行う際に含めるオプションのヘッダーを指定します。リモート MCP サーバーは、カスタムエージェント設定または mcp.json で設定できます。CLI セッションが開始されると、ロードする MCP サーバーのリストが表示され、そのリストに認証 URL を照会できます。認証ステップを正常に完了すると、Q Developer CLI は MCP サーバーから利用できるツールをクエリし、エージェントが利用できるようにします。 リモート MCP サーバーは Amazon Q デベロッパー CLI と Amazon Q デベロッパー IDE プラグインで利用できます。詳細については、ドキュメントをご覧ください。

Amazon Kinesis Data Streams expands Internet Protocol version 6 support to the AWS GovCloud (US) Regions

Amazon Kinesis データストリームでは、お客様が AWS GovCloud (米国) リージョンのインターネットプロトコルバージョン 6 (IPv6) 経由で API リクエストを行うことができるようになりました。お客様は、デュアルスタックのパブリックエンドポイントまたは VPC エンドポイントを介してリクエストを送信する場合、IPv6 または IPv4 のいずれかを使用できます。新しいエンドポイントは、連邦情報処理標準 (FIPS) 140-3 プログラムでも検証されています。\n Kinesis Data Streams を使用すると、ユーザーはあらゆる規模でデータストリームをリアルタイムでキャプチャ、処理、保存できます。IPv6 では利用可能なアドレスの数が桁違いに増えるため、お客様は重複するアドレス空間を管理する必要がなくなります。現在、多くのデバイスやネットワークがすでに IPv6 を使用しており、データストリームへの書き込みやデータストリームからの読み取りが容易になっています。FIPS 準拠のエンドポイントは、米国連邦政府と契約している企業が、サポート対象地域の機密データを暗号化する FIPS セキュリティ要件を満たすのに役立ちます。 Kinesis データストリームによる IPv6 のサポートは、AWS GovCloud (米国) や中国リージョンなど、Kinesis データストリームが利用可能なすべてのリージョンで利用できるようになりました。リージョンの全リストについては、こちらをご覧ください。Kinesis データストリームの詳細については、開発者ガイドを参照してください。

Stability AI Image Services now available in Amazon Bedrock

Amazon Bedrockは、プロのクリエイティブワークフローを加速するように設計された、9つの専用画像編集ツールの包括的なスイートであるStabilityAI Image Servicesの提供を発表しました。StabilityAI Image Services では、クリエイティブプロセスと連携するように設計されたさまざまなツールを使用して画像編集をきめ細かく制御できるため、1 つのコンセプトをアイデアから完成品まで正確かつ柔軟に実現できます。\n Sability AI Image Services には、編集ツールの 2 種類の画像編集機能があります。1 つは編集ツール (背景の削除、オブジェクトの消去、検索と置換、検索と色の変更) で、Inpaint では画像の特定の部分に的を絞った変更を加えることができます。コントロールツール:構造、スケッチ、スタイルガイド、スタイル転送を使用すると、既存の画像やスケッチに基づいてバリエーションを生成する強力な方法が得られます。 Stability AI イメージサービスが API を通じて Amazon Bedrock で利用できるようになり、米国西部 (オレゴン)、米国東部 (バージニア北部)、および米国東部 (オハイオ) でサポートされるようになりました。サポートされている地域の詳細については、地域別の Amazon Bedrock モデルサポートガイドをご覧ください。安定性 AI イメージサービスとその機能の詳細については、安定性 AI 製品ページと安定性 AI ドキュメントページをご覧ください。

AWS Step Functions expands data source options and improves observability for Distributed Map

AWS Step Functions は、分散マップ用の追加のデータソースと新しいオブザーバビリティメトリクスをサポートするようになりました。AWS Step Functions は、220 を超える AWS サービスの 14,000 を超える API アクションをオーケストレーションして、分散アプリケーションとデータ処理ワークロードを構築できる視覚的なワークフローサービスです。分散マップは Step Functions のタスクステートで、データセットの複数のエントリに対して同じプロセスを実行します。\n 今回の更新により、Distributed Map は追加のデータ入力をサポートするようになり、大規模な分析と ETL ワークフローをオーケストレーションできるようになりました。AWS Athena データマニフェストと Parquet ファイルを直接処理したり、S3ListObjectsv2 を使用して指定されたプレフィックスの下の S3 オブジェクトを反復処理したり、JSON オブジェクトから読み取ったり、Amazon S3 または状態入力から JSON オブジェクトから配列データをネイティブに抽出したりできるようになりました。これにより、カスタムの前処理が不要になります。また、おおよそのオープンマップ実行回数、オープンマップ実行上限、おおよそのマップ実行バックログサイズなどの指標を使用して、分散マップの使用状況を可視化できるようになりました。 分散マップの新しい入力ソースと改善されたオブザーバビリティは、AWS Step Functions を利用できるすべての商用 AWS リージョンで利用できます。使い始めるには、今すぐ AWS Step Functions コンソールの分散マップモードを使用できます。詳細については、Step Functions 開発者ガイドをご覧ください。

Amazon Lex provides enhanced confirmation and currency built-in slots to 10 additional languages

Amazon Lex では、確認および通貨スロットタイプのサポートが追加され、ポルトガル語、カタロニア語、フランス語、イタリア語、ドイツ語、スペイン語、標準中国語、広東語、日本語、韓国語の 10 言語が追加されました。組み込みスロットを使用すると、ユーザーの発言の同義語を理解し、それらの入力内容を標準形式に変換することで、より自然で効率的な会話を構築できます。確認スロットは、ユーザーの謝辞のさまざまな表現を理解するのに役立ち、それらを「はい」、「いいえ」、「知らない」、または「たぶん」に変換します。通貨スロットは通貨を識別するのに役立ち、入力内容を体系的に表します。たとえば、ユーザーが「いいえ」または「絶対違う」と言った場合、確認スロットは「いいえ」になり、ユーザーが「1ドル」と言った場合、通貨スロットは「USD 1.00」と解決します。これらの組み込みスロットは、より自然で効率的な会話体験を構築するのに役立ちます。\n この機能は Amazon Lex が運営されているすべての商用 AWS リージョンで利用できます。これらの機能の詳細については、Amazon Lex のドキュメントをご覧ください。また、Amazon Connect と Amazon Lex がコンタクトセンターにクラウドベースの会話型 AI エクスペリエンスを提供する方法については、Amazon Connect のウェブサイトをご覧ください。

DeepSeek-V3.1 model now available fully managed in Amazon Bedrock

DeepSeek-V3.1は、Amazon Bedrockのフルマネージド基盤モデルとして利用できるようになりました。この高度なオープンウェイトモデルでは、詳細なステップバイステップ分析のための思考モードと、より迅速な対応のための非思考モードを切り替えることができます。包括的な多言語サポートにより、意思決定プロセスの可視性を維持しながら、以前のDeepSeekモデルと比較して精度が向上し、幻覚が軽減されます。\n DeepSeek-v3.1のエンタープライズグレードの機能は、最先端のソフトウェア開発から複雑な数学的推論やデータ分析まで、重要なビジネス機能のすべてで使用できます。このモデルは高度な問題解決タスクに優れており、コーディングベンチマークや技術的課題において優れたパフォーマンスを発揮します。強化されたツール呼び出し機能とシームレスなワークフロー統合により、AI エージェントの構築や企業プロセスの自動化に最適です。また、透明性の高い推論アプローチにより、チームはそのアウトプットを理解し、信頼できるようになります。

DeepSeek-V3.1 は現在、米国西部 (オレゴン)、アジアパシフィック (東京)、アジアパシフィック (ムンバイ)、ヨーロッパ (ロンドン)、ヨーロッパ (ストックホルム) の AWS リージョンでご利用いただけます。詳細については、ブログ、製品ページ、Amazon Bedrock の料金表、およびドキュメントをご覧ください。Amazon Bedrock で DeepSeek を使い始めるには、Amazon Bedrock コンソールにアクセスしてください。

Qwen3 models are now available fully managed in Amazon Bedrock

Amazon Bedrockは、4つのQwen3オープンウェイトファンデーションモデルを追加することで、モデルの選択肢を拡大し続けています。これらのモデルは現在、フルマネージドのサーバーレスサービスとして提供されています。ラインナップには、Qwen3-Coder-480B-A35B-Instruct、Qwen3-Coder-30B-A3B-Instruct、Qwen3-235B-A22B-Instruct-2507、および効率的な高密度計算を実現する Qwen3-32B が含まれます。これらのモデルは、高密度アーキテクチャと専門家混合 (MoE) アーキテクチャの両方を特徴としており、さまざまな開発ニーズに対応する柔軟なオプションを提供します。\n これらのオープンウェイトモデルにより、インフラストラクチャを管理しなくても、高度なエージェント機能を備えた強力な AI アプリケーションを構築できます。2 つの Qwen3-Coder モデルは、エージェントコーディングや複雑なソフトウェアエンジニアリングタスクに優れており、関数呼び出しやツールの使用において最先端のパフォーマンスを発揮します。235B モデルは、さまざまなタスクにわたって効率的な一般的な推論と指示に従うのに対し、32B 高密度モデルは、幅広い計算タスクに適した、より伝統的なアーキテクチャを提供します。 Qwen3 モデル (32B、Coder-30B) は、現在、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジア太平洋 (ムンバイ、東京)、ヨーロッパ (アイルランド、ロンドン、ミラノ、ストックホルム)、および南米 (サンパウロ) の AWS リージョンでご利用いただけます。Qwen 235B は現在、米国西部 (オレゴン)、アジアパシフィック (ムンバイ、東京)、およびヨーロッパ (ロンドン、ミラノ、ストックホルム) の AWS リージョンでご利用いただけます。Qwen Coder-480B は現在、米国西部 (オレゴン)、アジアパシフィック (ムンバイ、東京)、およびヨーロッパ (ロンドン、ストックホルム) の AWS リージョンでご利用いただけます。今後の更新については、リージョンの全リストをご覧ください。詳細については、ブログ、製品ページ、Amazon Bedrock の料金、およびドキュメントをご覧ください。Amazon Bedrock で Qwen を使い始めるには、Amazon Bedrock コンソールにアクセスしてください。

OpenAI open weight models expand to new regions on AWS Bedrock

本日、AWS は AWS Bedrock の OpenAI オープンウェイトモデルを 8 つの新しいリージョンに拡張したことを発表しました。この拡張により、これらの強力な AI モデルは世界各地のお客様により近いものになり、さまざまな AI 搭載アプリケーションのレイテンシーの短縮とパフォーマンスの向上が可能になります。\n 今回の拡張により、OpenAI オープンウェイトモデルは、以前サポートされていた米国西部 (オレゴン) のリージョンに加えて、米国東部 (バージニア北部)、アジアパシフィック (東京)、ヨーロッパ (ストックホルム)、アジアパシフィック (ムンバイ)、ヨーロッパ (アイルランド)、南米 (サンパウロ)、ヨーロッパ (ロンドン)、ヨーロッパ (ミラノ) の AWS リージョンで利用できるようになりました。この幅広い可用性により、より多くのお客様がこれらの最先端のAIモデルを活用しながら、データを希望する地理的場所に保管できるようになり、データ保存要件への対応とネットワーク遅延の削減に役立ちます。 AWS Bedrock の OpenAI オープンウェイトモデルの詳細とその開始方法については、Amazon Bedrock コンソールにアクセスするか、ドキュメントをご覧ください。AWS Bedrock でのこれらのモデルの初回リリースの詳細については、以前のブログ投稿を参照してください。

Amazon SageMaker HyperPod now supports autoscaling using Karpenter

Amazon SageMaker HyperPod は、Karpenter を使用したマネージドノードの自動スケーリングをサポートするようになりました。これにより、お客様は動的な推論とトレーニングの要求に合わせてクラスターを自動的にスケーリングできます。リアルタイム推論ワークロードには、コストを最適化しながら、予測できないトラフィックパターンに対処し、サービスレベル契約を維持するための自動スケーリングが必要です。しかし、複雑な自動スケーリングソリューションのインストール、構成、保守に伴う運用上のオーバーヘッドに悩まされる組織は少なくありません。HyperPod が管理するノードの自動スケーリングは、統合されたレジリエンスとフォールトトレランス機能を提供すると同時に、Karpenter のセットアップとメンテナンスの手間を省きます。\n Karpenter を使用した HyperPod での自動スケーリングにより、お客様はジャストインタイムのプロビジョニングを実現し、推論トラフィックの急増に GPU コンピューティングを迅速に適応させることができます。お客様は、専用のコントローラー・インフラストラクチャーを維持しなくても、需要の少ない時期にはノード数をゼロまで拡張でき、ワークロードに応じたノード選択によってインスタンスタイプとコストを最適化できるというメリットがあります。推論ワークロードの場合、これにより、本番環境のトラフィックの急増に対応するための自動容量スケーリング、アイドル期間中のインテリジェントなノード統合によるコスト削減、KEDA などのイベント駆動型ポッドオートスケーラーとのシームレスな統合が可能になります。トレーニングワークロードは、モデル開発サイクル中に自動的にリソースを最適化できるという利点もあります。自動スケーリングモードを「有効」に設定し、オートスケーラータイプを「Karpenter」に設定して UpdateCluster API を使用すると、HyperPod でオートスケーリングを有効にできます。 この機能は、Amazon SageMaker HyperPod EKS クラスターがサポートされているすべての AWS リージョンで利用できます。Karpenter を使用した SageMaker HyperPod でのオートスケーリングの詳細については、ユーザーガイドとブログを参照してください。

Amazon EVS now supports HCX migration over public internet

Amazon Elastic VMware Service (Amazon EVS) では、オンプレミスのデータセンターからパブリックインターネットを介して Amazon EVS 環境にレイヤー 2 ネットワークを安全に移行および拡張できるようになりました。今回の発表により、AWS Direct Connect や仮想プライベートネットワーク (VPN) などの専用のプライベート接続を通じて、ワークロードを Amazon EVS に移行する既存の機能がさらに強化されます。\n Amazon EVS はインターネット接続を有効にすることで、Elastic IP アドレス (EIP) を使用して VMware HCX を使用してワークロードの移行を実行するための安定したエンドポイントとより迅速なセットアップを実現しています。プライベート接続オプションを利用できない場合や、移行中にプライベート接続のような高いネットワークパフォーマンス特性を必要としないアプリケーションやプロジェクトの費用対効果の高い代替手段を探している場合に、移行プロジェクトにインターネット接続を使用できるようになりました。

パブリック HCX 接続は、Amazon EVS が利用できるすべての AWS リージョンで利用できます。HCX での EVS 移行オプションの詳細については、AWS ユーザーガイドをご覧ください。Amazon EVS の詳細については、製品詳細ページをご覧ください。

AWS Step Functions now supports IPv6 with dual-stack endpoints

AWS ステップ関数に IPv6 のサポートが追加されました。新しいデュアルスタック IPv4 および IPv6 エンドポイントを介して IPV6 トラフィックを AWS Step Functions に送信できるようになりました。AWS Step Functions は、お客様が AWS サービスを使用して分散アプリケーションを構築し、IT とビジネスプロセスを自動化し、データおよび機械学習パイプラインを構築できるようにする視覚的なワークフローサービスです。この拡張機能により、インターネットの拡大に伴う IP アドレスに対するニーズの高まりに対応し、従来の IPv4 形式よりも大きなアドレス空間が提供されます。\n IPv6 のサポートにより、アプリケーションを最新化する組織は、IPv4 アドレス空間の制限に縛られることなく、サーバーレスのワークフローを構築できるようになりました。新しいデュアルスタックのエンドポイントは、既存の IPv4 エンドポイントとの下位互換性を維持しながら、IPv4 プロトコルと IPv6 プロトコルの両方をサポートします。Step Functions は、PrivateLink インターフェイスの仮想プライベートクラウド (VPC) エンドポイントを介した IPv6 接続もサポートしているため、パブリックインターネットを経由せずにプライベートにサービスにアクセスできます。これにより、IPv6 環境で業務を行っている組織は、IPv6 と IPv4 間の複雑な変換メカニズムを必要とせずに Step Functions とネイティブに統合できます。 AWS Step Functions の IPv6 サポートは現在、米国東部 (オハイオ)、米国東部 (バージニア北部)、米国西部 (オレゴン)、米国西部 (オレゴン)、米国西部 (北カリフォルニア) のほか、AWS GovCloud (米国東部)、AWS GovCloud (米国西部) の各リージョンで、AWS Step Functions を利用できるようになっています。 AWS での IPv6 サポートの詳細については、ドキュメントページをご覧ください。

Amazon OpenSearch Serverless now supports Disk-Optimized Vectors

Amazon OpenSearch Serverlessのディスク最適化ベクターサポートの開始を発表できることを嬉しく思います。これにより、精度やリコール率を損なうことなく、ベクター検索操作のための費用対効果の高いソリューションをお客様に提供できます。この新機能により、組織は運用コストを大幅に削減しながら、高品質のベクター検索機能を実装できます。\n Disk Optimized Vectorsの導入により、お客様はメモリ最適化ベクターストレージとディスク最適化ベクターストレージのどちらかを選択できるようになりました。ディスク最適化オプションでは、メモリ最適化ベクターと同じ高い精度と再現率を低コストで実現できます。このオプションではレイテンシーが若干長くなる可能性がありますが、セマンティック検索アプリケーション、レコメンデーションシステム、その他の AI を活用した検索シナリオなど、ミリ秒未満の応答時間が重要ではないユースケースには理想的です。 Amazon OpenSearch Serverless は、フルマネージド型のデプロイオプションであり、検索と分析のワークロードのインフラストラクチャ管理の複雑さを排除します。このサービスは、お客様のワークロードの需要に応じて、OpenSearch Compute Units (OCU) 単位で測定されるコンピューティング容量を自動的にスケーリングします。

Amazon OpenSearch サービスの可用性に関する詳細については、AWS 地域サービスリストを参照してください。OpenSearch サーバーレスの詳細については、ドキュメントを参照してください。

AWS Blogs

Amazon Web Services ブログ (日本語)

AWS News Blog

AWS Cloud Operations Blog

AWS Big Data Blog

Containers

AWS Database Blog

Desktop and Application Streaming

AWS HPC Blog

AWS for Industries

Artificial Intelligence

AWS Security Blog

Open Source Project

AWS CLI

Amplify for iOS

Karpenter