2026/4/27 9:00:00 ~ 2026/4/28 9:00:00 (JST)
最近の発表
Amazon Redshift Serverless AI-driven scaling is now the default for new workgroups
Amazon Redshift Serverless では、AI 主導のスケーリングと最適化がすべての新しいワークグループのデフォルトになりました。AI 主導のスケーリングでは、機械学習を使用してコンピューティングニーズを予測し、クエリがキューに入る前にリソースを自動的に調整するので、手動での調整なしでコストパフォーマンスが向上します。また、このリリースでは、ベース RPU の範囲が 8 ~ 512 RPU のワークロードへのサポートが以前の 32 ~ 512 RPU から拡大され、AI 主導型スケーリングの導入コストが削減されました。\n AI 主導のスケーリングと最適化により、Amazon Redshift はワークロードパターンを監視し、クエリの複雑さ、データ量、予想されるデータスキャンサイズに基づいてコンピューティングリソースを自動的に調整します。価格パフォーマンススライダーを使用して、コスト、パフォーマンス、またはその両方のバランスを優先するかどうかを選択できます。Amazon Redshift では、選択した目標に合わせて、自動マテリアライズドビューや自動テーブル設計最適化など、追加の最適化も適用します。価格性能目標を設定するには、AWS マネジメントコンソールまたは Amazon Redshift API オペレーションを使用します。ワークグループを作成した後でターゲットを変更することもできます。 Amazon Redshift サーバーレス AI 主導のスケーリングと最適化は、Amazon Redshift サーバーレスが利用可能なすべての AWS リージョンで利用できます。詳細については、Amazon Redshift サーバーレス製品ページと AI 主導のスケーリングと最適化に関するドキュメントを参照してください。
Amazon Redshift Serverless を使用すると、データウェアハウスクラスターをプロビジョニングおよび管理しなくても分析を実行およびスケーリングでき、AWS アジアパシフィック (メルボルン) およびカナダ西部 (カルガリー) リージョンで一般的に利用できるようになりました。Amazon Redshift Serverless では、データアナリスト、開発者、データサイエンティストを含むすべてのユーザーが Amazon Redshift を使用してデータから数秒で洞察を得ることができます。Amazon Redshift Serverless は、データウェアハウスの容量を自動的にプロビジョニングしてインテリジェントにスケーリングすることで、すべての分析で高いパフォーマンスを実現します。1 秒あたりの料金は、ワークロード中に使用されたコンピューティング分のみです。既存の分析およびビジネスインテリジェンスアプリケーションに変更を加えなくても、このシンプルさのメリットを享受できます。\n AWS マネジメントコンソールで数回クリックするだけで、Query Editor V2 や Amazon Redshift Serverless で任意のツールを使用してデータのクエリを開始できます。ノードタイプ、ノード数、ワークロード管理、スケーリング、その他の手動設定を選択する必要はありません。データベース、スキーマ、テーブルを作成し、Amazon S3 から独自のデータをロードしたり、Amazon Redshift データ共有を使用してデータにアクセスしたり、既存の Amazon Redshift でプロビジョニングされたクラスタースナップショットを復元したりすることができます。Amazon Redshift サーバーレスを使用すると、Amazon S3 データレイクの Apache Parquet や Apache Iceberg などのオープンフォーマットのデータを直接クエリできます。Amazon Redshift Serverless では、これらのデータソースのいずれかに対するクエリに対して一元的な請求が行われるため、コストを効率的に監視および管理できます。 開始するには、Amazon Redshift サーバーレス機能ページ、ユーザードキュメント、および API リファレンスを参照してください。
Amazon Connect increases attachment file sizes and adds custom file types
Amazon Connect では、チャット、ケース、およびタスク用の添付ファイルサイズが、以前の 20 MB の制限から最大 100 MB になりました。管理者は Amazon Connect 管理ウェブサイトまたは Amazon Connect API を使用して、これらの高い制限を有効にしたり、チャット、E メール、ケース、およびタスクにわたる添付ファイルのカスタムファイル拡張子を設定したりできます。\n 企業のお客様をサポートするあるテクノロジー企業は、診断バンドルやログアーカイブなどのファイルをチャットで最大 100 MB まで受け付けることができるようになりました。これにより、やりとりのやり取りが減り、エージェントが問題をより迅速に解決できるようになりました。金融サービス会社では、署名済みの契約書やコンプライアンス文書にファイル拡張子を追加して、顧客がチャットや電子メールに書類を直接添付できるようにすることができます。
これらの機能は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル)、アジアパシフィック (大阪)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、アフリカ (ケープタウン)、カナダ (中央)、ヨーロッパ (フランクフルト)、ヨーロッパ (ロンドン) で使用できます。
詳細については、Amazon Connect にアクセスし、Amazon Connect 管理者ガイドの「添付ファイルを有効にする」を参照してください。
南米、ヨーロッパ、アフリカ、アジア太平洋、および AWS GovCloud (米国) の 17 の追加 AWS リージョンで OpenZFS シングル AZ (HA) ファイルシステム用の Amazon FSx を作成できるようになりました。\n Amazon FSx for OpenZFS は、一般的な OpenZFS ファイルシステムを搭載した、フルマネージド型で費用対効果の高い共有ファイルストレージを提供します。ZFS を利用した豊富なデータ管理機能 (スナップショット、データクローニング、圧縮など) に加えて、ミリ秒未満のレイテンシーと数GB/秒のスループットを実現するように設計されています。Single-AZ (HA) ファイルシステムは、データ分析、機械学習、半導体チップ設計など、高可用性を必要とするが、複数のアベイラビリティーゾーンにわたるストレージの冗長性を必要としないワークロード向けの費用対効果の高いソリューションです。
今回の拡張により、OpenZFS Single-AZ (HA) ファイルシステム用の FSx が、アフリカ (ケープタウン)、アジア太平洋 (ハイデラバード、ジャカルタ、マレーシア、大阪、台北、タイ)、カナダ西部 (カルガリー)、ヨーロッパ (ミラノ、パリ、スペイン、チューリッヒ)、イスラエル (テルアビブ)、メキシコ (中央)、南米 (サンパウロ)、AWS GovA () の追加 AWS リージョンで利用できるようになりました。クラウド (米国東部、米国西部)。OpenZFS 用 Amazon FSx の詳細については、当社の製品ページをご覧ください。また、FSx for OpenZFS のリージョンテーブルで、リージョンの提供状況に関する詳細情報を参照してください。
Amazon SageMaker HyperPod now supports G7e and r5d.16xlarge instances
Amazon SageMaker HyperPod は G7e インスタンスと r5d.16xlarge インスタンスをサポートするようになりました。SageMaker HyperPod は、基盤モデルを大規模に開発、トレーニング、デプロイするための専用インフラストラクチャです。組み込みのフォールトトレランス、自動クラスターリカバリ、最適化された分散型トレーニングライブラリを備えた、耐障害性とパフォーマンスの高い環境を提供し、大規模な AI/ML インフラストラクチャーの管理に伴う差別化されていない重労働を軽減します。 \n G7e インスタンスは NVIDIA RTX PRO 6000 Blackwell Server Edition GPU を搭載しており、G6e インスタンスよりも最大 2.3 倍優れた推論パフォーマンスを提供するため、レイテンシーを減らしながら 1 秒あたりより多くのリクエストを処理できます。合計で最大 768 GB の GPU メモリを搭載した G7e インスタンスでは、単一のエンドポイントで大規模な言語モデルをデプロイしたり、複数のモデルを実行したりできます。これらのインスタンスは、LLM、エージェント AI、マルチモーダルジェネレーティブ AI、物理 AI モデルのデプロイに使用できます。G7e インスタンスは、G6e と比較して最大 1.27 倍の TFLOP と GPU 間の帯域幅が最大 4 倍であるため、NLP、コンピュータービジョン、および小規模な生成 AI モデルのコスト効率の高い単一ノードの微調整やトレーニングにも非常に適しています。さらに、HyperPod は r5d.16xlarge もサポートするようになりました。r5d.16xlarge インスタンスには、64 個の vCPU、512 GB のメモリ、5 x 600 GB の NVMe SSD インスタンスストレージが搭載されており、最大 3.1 GHz の持続的なオールコアターボ周波数を持つインテル Xeon Platinum 8000 シリーズプロセッサを搭載しています。このインスタンスは、特に Ray などのフレームワークでの分散型トレーニングデータの前処理、大規模な機能エンジニアリング、GPU コンピューティングによるメモリ負荷の高いオーケストレーションサービスの実行などに適しています。 G7e インスタンスは米国東部 (バージニア北部)、米国東部 (オハイオ)、アジアパシフィック (東京)、および米国西部 (オレゴン) で利用でき、r5d.16xlarge は Amazon SageMaker HyperPod が利用可能なすべてのリージョンで利用できます。
AWS Blogs
Amazon Web Services ブログ (日本語)
- 週刊AWS – 2026/4/20週
- 週刊生成AI with AWS – 2026/4/20 週
- 【開催報告】AWS Retail & CPG EXPO 2026 — AI エージェントが変える流通小売・消費財業界の現場を体感
AWS News Blog
AWS Architecture Blog
AWS Cloud Financial Management
AWS Cloud Operations Blog
AWS Big Data Blog
Containers
AWS Database Blog
- SQL SQL ダイアレクト:Amazon Aurora DSQL と単一インスタンスの PostgreSQL の違い
- カジャビ社が Amazon Aurora のアップグレードでコストを最適化した方法
AWS DevOps & Developer Productivity Blog
AWS for Industries
Artificial Intelligence
- Amazon クイックフローによる反復作業の自動化
- Amazon Bedrock ナレッジベースの自動同期ソリューションを構築してデプロイする
- SageMaker AI モデルと MLflow を使用してストランドエージェントをビルド
- Popsa が Amazon Nova を活用して、パーソナライズされたタイトル候補で顧客を刺激した方法