2025/6/25 9:00:00 ~ 2025/6/26 9:00:00 (JST)

最近の発表

Amazon SageMaker now supports automatic synchronization from Git to S3

本日、AWS は、プロジェクトの Git リポジトリのファイルをアマゾンシンプルストレージサービス (Amazon S3) バケットに自動的に同期する Amazon SageMaker Unified Studio の新機能を発表しました。Amazon SageMaker Unified Studio は、AWS アナリティクスと AI/ML サービスサービスの機能とツールを統合した、データと AI を統合した単一の開発環境です。これにより、1 つのインターフェイスからワークフローの構築、デプロイ、実行、モニタリングが容易になります。\n 自動同期により、コード変更と本番環境の同期が保たれるため、手作業が不要になり、開発者のワークフローが合理化されます。これは、視覚的な抽出、変換、読み込み (ETL) フローと SQL クエリブックの統合スケジューリングを使用する開発者にとって特に有益です。Amazon S3 バケットで最新のコードアーティファクトをすぐに利用できることが実行を成功させるために不可欠である場合です。 この新機能は、Amazon SageMaker Unified Studio が利用できるすべての AWS リージョンで利用できるようになりました。最新の空き状況情報については、サポートされているリージョンのリストにアクセスしてください。 詳細については、Amazon SageMaker ドキュメントをご覧ください。

Amazon FSx for OpenZFS now supports Amazon S3 access

Amazon Simple Storage Service (Amazon S3) アクセスポイントを Amazon FSx for OpenZFS ファイルシステムに接続して、ファイルデータに S3 にあるかのようにアクセスできるようになりました。この新機能により、FSx for OpenZFSのファイルデータにアクセスして、ファイルデータがFSx for OpenZFSファイルシステムに残っている間も、S3と連携する幅広い人工知能、機械学習、分析サービスおよびアプリケーションで使用できます。\n S3 アクセスポイントは、さまざまなアプリケーションやユーザーがデータにアクセスする方法を制御および簡素化するのに役立つエンドポイントです。S3 アクセスポイントが FSx for OpenZFS と連携するようになったため、アプリケーションやサービスは S3 API を使用して FSx for OpenZFS のファイルデータに、あたかもデータが S3 にあるかのようにアクセスできるようになりました。FSx for OpenZFS のデータを利用することで、新しい洞察を発見し、より迅速に革新し、データ主導型の意思決定をより適切に行うことができます。たとえば、ファイルデータを使用して、Amazon Bedrock でジェネレーティブ AI アプリケーションを強化したり、Amazon SageMaker で機械学習モデルをトレーニングしたり、Amazon Glue、さまざまな AWS データおよび分析コンピテンシーパートナーソリューション、S3 ベースのクラウドネイティブアプリケーションを使用して分析を実行したりできます。

この機能を利用するには、Amazon FSx コンソール、AWS コマンドラインインターフェイス (AWS CLI)、または AWS ソフトウェア開発キット (AWS SDK) を使用して、米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン)、ヨーロッパ (フランクフルト、アイルランド、ストックホルム)、およびアジアパシフィック (香港、シンガポール、シドニー、東京) の AWS リージョンで S3 アクセスポイントを作成し、FSx for OpenZFS ファイルシステムにアタッチします。。詳細については、製品ページ、ユーザーガイド、AWS ニュースブログをご覧ください。

Amazon Bedrock Flows announces preview of persistent long-running execution and inline-code support

Amazon Bedrock Flows を使用すると、基盤モデル (FM)、Amazon Bedrock プロンプト、Amazon Bedrock エージェント、Amazon Bedrock ナレッジベース、Amazon Bedrock Guardrails、その他の AWS サービスをリンクして、事前定義されたジェネレーティブ AI ワークフローを構築およびスケーリングできます。本日、長時間実行されるワークフロー向けの永続実行のプレビューと、フロー内でのインラインコード実行のサポートを発表しました。\n Bedrock Flowsをご利用のお客様は、現在、ワークフローの作成、実行、監視を行う際に、ステップごとに2分間のアイドルタイムアウト制限、カスタムAPIベースの監視ソリューションの必要性、および基本的なデータ処理タスク用のLambda関数を作成する必要があるという3つの主な制限に直面しています。本日より、ワークフローステップの実行時間を 15 分に延長する新しいプレビュー機能でこれらの課題に対処します。新機能には、AWS Management Console に直接実行追跡機能が組み込まれているため、カスタムモニタリングコードが不要になります。新しいインラインコードノードタイプを使用して Python スクリプトを実行できるようになり、簡単なデータ処理のための Lambda 関数を設定するオーバーヘッドがなくなりました。これらの機能強化により、Amazon Bedrock Flows でのワークフローの開発と管理が大幅に合理化され、生成的な AI アプリケーションの構築に集中できるようになります。

Flows が動作するサポート対象のすべての商業地域で、長時間実行されるフローの実行が可能になりました。インラインコードノードは、米国東部 (バージニア北部)、米国西部 (オレゴン)、およびヨーロッパ (フランクフルト) で利用できます。開始するには、AWS ユーザーガイドを参照してください。

Amazon S3 Tables are now available in two additional AWS Regions

Amazon S3 テーブルは、アジアパシフィック (タイ) とメキシコ (中部) の 2 つの追加の AWS リージョンで利用できるようになりました。S3 Tables は、Apache Iceberg サポートが組み込まれた初めてのクラウドオブジェクトストアであり、表形式のデータを大規模に保存する最も簡単な方法でもあります。\n 今回の拡張により、S3 テーブルは 32 の AWS リージョンで一般利用できるようになりました。詳細については、製品ページ、ドキュメント、S3 料金ページをご覧ください。

Amazon EC2 C7g instances are now available in the AWS Israel (Tel Aviv) Region

本日より、Amazon Elastic Compute Cloud (Amazon EC2) C7g インスタンスが AWS イスラエル (テルアビブ) リージョンで利用できるようになりました。これらのインスタンスは、AWS Graviton2 プロセッサと比較して最大 25% 優れたコンピューティングパフォーマンスを提供する AWS Graviton3 プロセッサを搭載し、分離されたマルチテナンシー、プライベートネットワーク、高速ローカルストレージを備えた効率的で柔軟で安全なクラウドサービスを提供する AWS が設計したイノベーションの集まりである AWS Nitro System 上に構築されています。\n また、Amazon EC2 Graviton3 インスタンスは、同等の EC2 インスタンスと同じパフォーマンスで、消費電力が最大 60% 少ないため、クラウドの二酸化炭素排出量を削減できます。スケーラビリティ向上のため、これらのインスタンスはベアメタルを含む 9 種類のインスタンスサイズで利用可能で、最大 30 Gbps のネットワーク帯域幅と Amazon Elastic Block Store (EBS) に最大 20 Gbps の帯域幅を提供します。 詳細については、「Amazon EC2 C7g」を参照してください。ワークロードを Graviton ベースのインスタンスに移行する方法については、AWS Graviton ファストスタートプログラムおよび Graviton 用ポーティングアドバイザーを参照してください。開始するには、AWS マネジメントコンソールを参照してください。

AWS Glue enables enhanced Apache Spark capabilities for AWS Lake Formation tables with full table access

AWS Glue では、ジョブロールにフルテーブルアクセス権がある場合に、AWS Lake Formation に登録されたテーブル上の AWS Glue 5.0 Apache Spark ジョブからの読み取りおよび書き込みオペレーションがサポートされるようになりました。この機能により、同じ Apache Spark アプリケーション内から Apache Hive テーブルと Iceberg テーブルの CREATE、ALTER、DELETE、UPDATE、MERGE INTO ステートメントの作成、変更、削除、更新、MERGE INTO などのデータ操作言語 (DML) 操作が可能になります。\n Lake Formation のきめ細かなアクセス制御 (FGAC) では、行、列、セルの各レベルでのきめ細かなセキュリティ制御が可能ですが、多くの ETL ワークロードに必要なのはテーブルへのフルアクセスだけです。この新機能により、AWS Glue 5.0 Spark ジョブはテーブル全体へのアクセスが許可されたときにデータを直接読み書きできるようになり、以前は特定の抽出、変換、読み込み (ETL) 操作を制限していた制限がなくなりました。耐障害性分散データセット (RDD)、カスタムライブラリ、およびレイクフォーメーションテーブルでのユーザー定義関数 (UDF) などの高度な Spark 機能を活用できるようになりました。さらに、データチームは Lake Formation のテーブルレベルのセキュリティ境界を維持しながら、SageMaker Unified Studio を使用して複雑でインタラクティブな Spark アプリケーションを互換モードで実行できます。 この機能は、AWS Glue と AWS Lake Formation がサポートされているすべての AWS リージョンで利用できます。詳細については、AWS Glue 製品ページとドキュメントをご覧ください。

AWS Blogs

Amazon Web Services ブログ (日本語)

AWS News Blog

AWS Big Data Blog

AWS Database Blog

Desktop and Application Streaming

AWS for Industries

Artificial Intelligence

AWS Quantum Technologies Blog

Open Source Project

AWS CLI