2024/12/6 9:00:00 ~ 2024/12/9 9:00:00 (JST)

最近の発表

Amazon EC2 Hpc6id instances are now available in Europe (Paris) region

本日より、Amazon EC2 HPC6id インスタンスは他の AWS リージョンヨーロッパ (パリ) でもご利用いただけるようになりました。これらのインスタンスは、有限要素解析や地震貯留層シミュレーションなど、メモリ帯域幅に制限があり、データ集約型のハイパフォーマンスコンピューティング (HPC) ワークロードを効率的に実行できるように最適化されています。EC2 HPC6id インスタンスを使用すると、AWS の弾力性とスケーラビリティを活用しながら、HPC ワークロードのコストを削減できます。\n EC2 HPC6id インスタンスは、3.5 GHz のオールコアターボ周波数 3.5 GHz、1,024 GB のメモリ、最大 15.2 TB のローカル NVMe ソリッドステートドライブ (SSD) ストレージを搭載した 64 コアの第3世代インテル Xeon スケーラブルプロセッサを搭載しています。AWS Nitro システム上に構築された EC2 HPC6id インスタンスは、200 Gbps Elastic Fabric Adapter (EFA) ネットワーキングを提供し、高スループットのノード間通信を可能にし、HPC ワークロードを大規模に実行できるようにします。AWS Nitro System は、従来の仮想化機能の多くを専用のハードウェアとソフトウェアにオフロードするためのビルディングブロックが豊富に揃っています。仮想化のオーバーヘッドを削減しながら、高パフォーマンス、高可用性、高セキュリティを実現します。 EC2 HPC6id インスタンスの詳細については、製品詳細ページを参照してください。

Amazon EC2 Hpc7a instances are now available in Europe (Paris) region

本日より、Amazon EC2 HPC7a インスタンスは他の AWS リージョンヨーロッパ (パリ) でも利用できるようになります。EC2 HPC7a インスタンスは、最大 192 コアの第 4 世代 AMD EPYC プロセッサと 300 Gbps の Elastic Fabric Adapter (EFA) ネットワーク帯域幅を搭載し、高速で低レイテンシーのノード間通信を実現します。HPC7a インスタンスはダブルデータレート 5 (DDR5) メモリを搭載しているため、メモリ内のデータへの高速アクセスが可能になります。\n HPC7a インスタンスは、計算流体力学 (CFD)、天気予報、マルチフィジックスシミュレーションなど、計算量が多く、密結合でレイテンシーの影響を受けやすいハイパフォーマンスコンピューティング (HPC) ワークロードに最適で、より少ないノードでより効率的にスケーリングできます。密結合ワークロード向けに HPC インスタンスのネットワークを最適化するには、リージョン内の 1 つのアベイラビリティーゾーンにあるこれらのインスタンスにアクセスできます。 詳細については、「Amazon HPC7a インスタンス」を参照してください。

Amazon Aurora now available as a quick create vector store in Amazon Bedrock Knowledge Bases

Amazon Aurora PostgreSQL が Amazon Bedrock ナレッジベースのクイック作成ベクターストアとして利用できるようになりました。新しい Aurora クイック作成オプションを使用すると、ジェネレーティブ AI アプリケーションを構築する開発者やデータサイエンティストはベクターストアとして Aurora PostgreSQL を選択し、ワンクリックで pgvector で事前設定された Aurora サーバーレスクラスターを数分でデプロイできます。Aurora Serverless はオンデマンドの自動スケーリング構成で、アプリケーションの需要に応じて容量が自動的に調整されるため、開発者のベクターストアとして理想的です。\n Knowledge Basesは、Bedrockで実行されている基盤モデル (FM) をRetrieval Augmented Generation (RAG) 用の企業データソースに安全に接続して、より関連性が高く、コンテキストに即した正確な応答を提供することで、FM がビジネスについてより知識を深めるのに役立ちます。RAGを実装するには、組織はデータを埋め込み (ベクター) に変換し、その埋め込みをベクターストアに保存して、ジェネレーティブ人工知能 (AI) アプリケーションで類似性を検索できるようにする必要があります。pgvector エクステンションが付いた Aurora PostgreSQL は、既存の Aurora データベースのナレッジベースのベクターストアとしてサポートされています。ナレッジベースとの新しいクイック作成統合により、Aurora を Bedrock で使用するベクターストアとして簡単に設定できるようになりました。 Bedrock ナレッジベースのクイック作成オプションは、2024 年第 4 四半期に予定されている AWS GovCloud (米国西部) を除き、これらのリージョンで使用できます。Amazon Bedrock と Aurora での RAG の詳細については、「Amazon Bedrock ナレッジベース」を参照してください。 Amazon Aurora は、ハイエンドの商用データベースのパフォーマンスと可用性と、オープンソースデータベースのシンプルさと費用対効果を兼ね備えています。Amazon Aurora PostgreSQL を Amazon Bedrock ナレッジベースのベクターストアとして使用し始めるには、当社のドキュメントを参照してください。

Amazon CloudWatch now provides centralized visibility into telemetry configurations

Amazon CloudWatch では、Amazon VPC フローログ、Amazon EC2 詳細メトリックス、AWS ラムダトレースなどの重要な AWS サービスのテレメトリ設定を一元的に可視化できるようになりました。この可視性の向上により、中央の DevOps チーム、システム管理者、およびサービスチームは、インフラストラクチャのモニタリング設定における潜在的なギャップを特定できます。テレメトリ設定の監査機能は AWS Config とシームレスに統合され、AWS リソースを検出します。また、新しい AWS Organizations と Amazon CloudWatch の統合により、組織全体で利用できるようになります。\n テレメトリ設定を可視化することで、現在の設定では見逃していたモニタリングのギャップを特定できます。たとえば、EC2 の詳細なメトリクスのギャップを特定して、それらに対処し、短期間のパフォーマンスの急上昇を簡単に検出し、応答性の高い自動スケーリングポリシーを構築するのに役立ちます。テレメトリ設定の対象範囲をリソースタイプと個々のリソースレベルの両方で監査し、特定のアカウント、リソースタイプ、またはリソースタグをフィルタリングして重要なリソースに焦点を当てて表示を絞り込むことができます。 テレメトリ構成の監査エクスペリエンスは、米国東部 (バージニア北部)、米国西部 (オレゴン)、米国東部 (オハイオ)、アジアパシフィック (東京)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、およびヨーロッパ (ストックホルム) の各リージョンでご利用いただけます。AWS Config を含め、新しいエクスペリエンスを有効にしても追加費用はかかりません。 Amazon CloudWatch コンソール、ナビゲーションパネルの Telemetry config をクリックするか、API/CLI を使用してプログラムでテレメトリ設定の監査を開始できます。詳細については、当社のドキュメントをご覧ください。

AWS Config now supports a service-linked recorder

AWS Config では、サービスにリンクされたレコーダーのサポートが追加されました。これは AWS サービスによって管理され、新しい Amazon CloudWatch テレメトリ設定監査など、サービス固有のリソースに設定データを記録できる新しいタイプの AWS Config レコーダーです。Amazon CloudWatch でサービスにリンクされたレコーダーを有効にすることで、Amazon VPC フローログ、Amazon EC2 詳細メトリックス、AWS Lambda トレースなどの重要な AWS サービステレメトリ設定を一元的に可視化できます。\n サービスにリンクされたレコーダーを使用すると、AWS のサービスがユーザーに代わって AWS Config レコーダーをデプロイして管理し、リソースを発見して設定データを利用して差別化された機能を提供できます。たとえば、Amazon CloudWatch マネージドサービスにリンクされたレコーダーは、組織内の特定の重要なリソースにおけるモニタリングギャップを特定するのに役立ち、テレメトリ設定のステータスを一元的に一元的に把握できます。サービスにリンクされたレコーダーは変更できないため、一貫性が保たれ、設定のずれが防止され、エクスペリエンスがシンプルになります。サービスにリンクされたレコーダーは、既存の AWS Config レコーダーが有効になっていれば、それとは独立して動作します。これにより、特定のユースケースに合わせて AWS Config レコーダーを個別に管理でき、権限のある AWS サービスは機能固有の要件に合わせてサービスにリンクされたレコーダーを管理できます。 Amazon CloudWatch マネージドサービスにリンクされたレコーダーは、米国東部 (バージニア北部)、米国西部 (オレゴン)、米国東部 (オハイオ)、アジアパシフィック (東京)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー) ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、ヨーロッパ (ストックホルム) の各リージョンで利用できるようになりました。Amazon CloudWatch テレメトリ設定機能専用の AWS Config サービスにリンクされたレコーダーは、追加料金なしでお客様に提供されています。 詳細については、当社のドキュメントを参照してください。

Amazon RDS Performance Insights extends On-demand Analysis to new regions

Amazon RDS (リレーショナルデータベースサービス) パフォーマンスインサイトにより、オンデマンド分析機能の利用可能性が 15 の新しいリージョンに拡大されました。この機能は Aurora MySQL、Aurora PostgreSQL、および RDS for PostgreSQL エンジンで利用できます。\n このオンデマンド分析エクスペリエンスは、以前は 15 のリージョンでしか利用できませんでしたが、現在ではすべての商用リージョンで利用できるようになりました。この機能により、選択した期間のパフォーマンスインサイトデータを分析できます。選択した期間が通常とどう違うのか、何が悪かったのかを知り、是正措置に関するアドバイスを得ることができます。わかりやすいグラフと説明により、パフォーマンス問題の主な原因を特定できます。また、これらの問題に対処するための次のステップについてのガイダンスも得られます。これにより、データベースパフォーマンスの問題の平均診断時間を数時間から数分に短縮できます。 Amazon RDS Performance Insights は RDS のデータベースパフォーマンスのチューニングおよびモニタリング機能で、データベースの負荷を視覚的に評価し、いつどこでアクションを取るべきかを判断できます。Amazon RDS マネジメントコンソールで 1 回クリックするだけで、完全管理型のパフォーマンスモニタリングソリューションを Amazon RDS データベースに追加できます。 RDS パフォーマンスインサイトの詳細については、Amazon RDS ユーザーガイドをご覧ください。また、価格の詳細とリージョンの利用状況については、パフォーマンスインサイトの料金表をご覧ください。

SageMaker SDK enhances training and inference workflows

本日、SageMaker Python SDK の新しいモデルトレーナークラスを導入し、ModelBuilder クラスを強化します。これらの更新により、トレーニングワークフローが合理化され、推論のデプロイが容易になります。\n ModelTrainer クラスを使用すると、お客様は Amazon SageMaker で分散型トレーニング戦略を簡単に設定してカスタマイズできます。この新機能により、モデルトレーニング時間が短縮され、リソース利用が最適化され、効率的な並列処理によりコストが削減されます。お客様はカスタムのエントリポイントとコンテナをローカル環境から SageMaker にスムーズに移行できるため、インフラストラクチャを管理する必要がなくなります。ModelTrainerは、パラメーターをいくつかのコア変数に減らし、SageMakerのサービスインタラクションを直感的に行えるユーザーフレンドリーなクラスを提供することで、構成を簡素化します。さらに、ModelBuilder クラスが強化されたことで、お客様は HuggingFace モデルのデプロイ、ローカル環境での開発を SageMaker に切り替えたり、前処理スクリプトと後処理スクリプトを使用して推論をカスタマイズしたりすることが簡単にできるようになりました。重要なのは、お客様が ModelTrainer クラスから ModelBuilder クラスにトレーニング済みのモデル成果物を簡単に ModelBuilder クラスに渡せるようになったことで、SageMaker でのトレーニングから推論へのシームレスな移行が可能になったことです。 ModelTrainer クラスの詳細についてはこちらを、ModelBuilder の機能強化についてはこちらをご覧ください。また、ModelTrainer と ModelBuilder のサンプルノートブックを使い始めることもできます。

Amazon SageMaker introduces new capabilities to accelerate scaling of Generative AI Inference

ジェネレーティブ AI モデルのデプロイとスケーリングを大幅に強化する SageMaker Inference の 2 つの新機能、コンテナキャッシュと高速モデルローダーを発表できることを嬉しく思います。これらのイノベーションは、大規模言語モデル (LLM) の効率的なスケーリングにおける重要な課題に対処し、トラフィックの急増への応答時間を短縮し、より費用対効果の高いスケーリングを可能にします。これらの機能により、モデルの読み込み時間が短縮され、自動スケーリングが加速されるため、需要の変動に対するジェネレーティブ AI アプリケーションの応答性が向上し、特にトラフィックパターンが動的なサービスにメリットがもたらされます。\n コンテナキャッシュは、コンテナイメージを事前にキャッシュすることで、ジェネレーティブ AI モデルを推論用にスケーリングするのに必要な時間を大幅に短縮します。これにより、スケールアップ時にダウンロードする必要がなくなり、ジェネレーティブ AI モデルのエンドポイントのスケーリング時間を大幅に短縮できます。Fast Model Loader はモデルの重みを Amazon S3 からアクセラレータに直接ストリーミングするので、従来の方法に比べてはるかに速くモデルをロードできます。これらの機能により、顧客はより応答性の高い自動スケーリングポリシーを作成できるようになり、定義されたしきい値に達したときに SageMaker が新しいインスタンスやモデルコピーを迅速に追加できるため、トラフィックが急増しても最適なパフォーマンスを維持すると同時に、コストを効果的に管理できます。 これらの新機能は Amazon SageMaker 推論が利用できるすべての AWS リージョンで利用できます。詳細については、詳細な実装ガイダンスのドキュメントを参照してください。

AWS Blogs

Amazon Web Services ブログ (日本語)

AWS Architecture Blog

AWS Database Blog

AWS for Industries

AWS Machine Learning Blog

AWS Security Blog

Open Source Project

AWS CDK