2025/7/10 9:00:00 ~ 2025/7/11 9:00:00 (JST)

最近の発表

Amazon SageMaker HyperPod accelerates open-weights model deployment

Amazon SageMaker HyperPod は、Amazon SageMaker JumpStart のオープンウェイトファンデーションモデルと、Amazon S3 と Amazon FSx の独自の微調整済みモデルの両方を Amazon SageMaker HyperPod に直接デプロイできるようになりました。これにより、同じ HyperPod コンピューティングリソース上でモデルのトレーニング、微調整、デプロイをシームレスに行うことができ、モデルのライフサイクル全体にわたってリソースの使用率を最大化できます。\n いくつかの簡単なステップを踏むだけで、SageMaker JumpStart からオープンウェイトの基盤モデルを選択し、それを SageMaker HyperPod クラスターにすばやくデプロイできます。SageMaker はインフラストラクチャのプロビジョニング、クラスターへのモデルのデプロイ、自動スケーリングの有効化、SageMaker エンドポイントの設定を自動的に行います。SageMaker は、モデルエンドポイントのトラフィックの変化に応じて HyperPod タスクガバナンスを通じてコンピュートリソースをスケールアップ/スケールダウンし、モデルパフォーマンスを完全に可視化できるように HyperPod オブザーバビリティダッシュボードに自動的にメトリクスを公開します。 SageMaker JumpStart のモデルは、HyperPod が利用可能なすべての AWS リージョンにデプロイできます。米国東部 (バージニア北部)、米国西部 (北カリフォルニア)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (フランクフルト)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、ヨーロッパ (ロンドン)、ヨーロッパ (ストックホルム)、南米 (S) サンパウロ)。 詳細については、SageMaker HyperPod の Web ページ、ブログ、およびドキュメントを参照してください。

Amazon SageMaker Studio now supports remote connections from Visual Studio Code

本日、AWS は Visual Studio Code から Amazon SageMaker Studio 開発環境へのリモート接続を発表しました。これにより、AI 開発者は Visual Studio Code を SageMaker AI のスケーラブルなコンピューティングリソースで使用できるようになります。この新機能により、開発者は Visual Studio Code から SageMaker Studio に数時間ではなく数分で接続できるようになり、モデル開発を迅速にスケーリングできるようになります。\n SageMaker Studio は、JupyterLab やコード OSS (VS Code-オープンソース) をベースにしたコードエディターなど、フルマネージド型のクラウドインタラクティブ開発環境 (IDE) を幅広く提供しています。本日より、SageMaker AI のコンピュートリソースとデータにアクセスしながら、AI 支援開発ツールやカスタム拡張機能など、カスタマイズしたローカルの VS Code セットアップを使用できます。VS Code の AWS ツールキットエクステンションを使用して認証することも、SageMaker Studio のウェブインターフェイスを使用して認証することもできます。認証が完了すると、数回クリックするだけで任意の SageMaker Studio 開発環境に接続できます。AI モデルを開発し、Visual Studio Code でデータを分析している間は、SageMaker Studio の Web ベースの環境と同じセキュリティ境界を維持できます。

この機能は米国東部 (オハイオ) リージョンで利用できるようになりました。

詳しくは、以下のリソースをご覧ください。

Amazon SageMaker Studio ウェブページ

AWS ML ブログ

ドキュメンテーション

Amazon SageMaker HyperPod introduces CLI and SDK for AI Workflows

Amazon SageMaker HyperPod コマンドラインインターフェイス (CLI) とソフトウェア開発キット (SDK) が一般公開されたことを発表できることを嬉しく思います。これらのツールにより、開発者や ML プラクティショナーは SageMaker HyperPod で大規模な AI モデルを簡単に構築、トレーニング、デプロイできます。\n SageMaker HyperPod CLI では、HyperPod クラスターの管理と迅速な実験のためのシンプルで一貫したコマンドラインエクスペリエンスが提供されます。SDK では、HyperPod の分散型トレーニングおよび推論機能に直感的にプログラムでアクセスでき、開発者はワークロード構成をきめ細かく制御できます。これらのツールを使えば、データサイエンティストや機械学習エンジニアは、トレーニングジョブの開始、スケーラブルな推論エンドポイントのデプロイ、クラスターのパフォーマンスの監視を簡単に行うことができます。顧客は簡単なコマンドを使用してシステムログや HyperPod オブザーバビリティダッシュボードにアクセスできるため、問題をデバッグしてモデル開発を迅速に行うことができます。これらの新しい開発者インターフェースにより、お客様はプロダクションジェネレーティブ AI モデルを SageMaker HyperPod 上でより迅速に構築してデプロイできます。 HyperPod CLI と SDK は、SageMaker HyperPod がサポートされているすべての AWS 商用リージョンでご利用いただけます。SageMaker HyperPod CLI と SDK を使い始めるには、『SageMaker HyperPod 開発者ガイド』を参照してください。

AWS announces 100G expansion in Kolkata, India

本日、AWSは、インドのコルカタ近郊にあるDC1データセンターであるSTTコルカタにあるAWS Direct Connectロケーションでの100 Gbps専用接続の拡張を発表しました。この場所から、すべてのパブリック AWS リージョン (中国を除く)、AWS GovCloud リージョン、AWS ローカルゾーンへのプライベートなダイレクトネットワークアクセスを確立できるようになりました。これは、MACsec 暗号化機能を備えた 100 Gbps 接続を提供する AWS Direct Connect ロケーションがインドで 3 番目です。\n Direct Connect サービスにより、AWS とデータセンター、オフィス、またはコロケーション環境との間にプライベートな物理ネットワーク接続を確立できます。これらのプライベート接続は、パブリックインターネット経由の接続よりも一貫したネットワークエクスペリエンスを提供できます。 世界中の 142 か所以上の Direct Connect ロケーションの詳細については、Direct Connect 製品詳細ページのロケーションセクションをご覧ください。または、入門ページにアクセスして Direct Connect を購入して展開する方法について詳しく学んでください。

Fully managed MLflow 3.0 now available on Amazon SageMaker AI

Amazon SageMaker では MLflow 3.0 のフルマネージドサポートが提供されるようになりました。これにより、AI の実験が合理化され、アイデアから本番環境まで GenAI への移行が加速されます。このリリースでは、マネージド MLflow を実験追跡からエンドツーエンドのオブザーバビリティの提供へと変革し、ジェネレーティブ AI 開発の市場投入までの時間を短縮します。\n さまざまな業界の顧客がジェネレーティブ AI の開発を加速するにつれて、モデルや AI アプリケーションの実験を追跡したり、動作を観察したり、パフォーマンスを評価したりする機能が求められています。データサイエンティストや開発者には、実験から本番環境まで、モデルや AI アプリケーションのパフォーマンスを分析するためのツールが不足しているため、問題の根本原因や解決が困難です。チームは、モデルやジェネレーティブ AI アプリケーションの改善よりも、ツールの統合に多くの時間を費やしています。今回の発表により、Amazon SageMaker AI のフルマネージド型 MLflow 3.0 により、1 つのツールを使用してモデルと AI アプリケーションの実験の追跡やパフォーマンスのモニタリングが容易になり、お客様はジェネレーティブ AI を加速できるようになります。フルマネージド型 MLflow 3.0 のトレース機能により、お客様はジェネレーティブ AI アプリケーションの各ステップで入力、出力、メタデータを記録できるようになり、開発者はバグや予期しない動作の原因をすばやく特定できます。フルマネージド型の MLflow 3.0 では、各モデルとアプリケーションバージョンの記録を保持することで、AI の応答をソースコンポーネントに結び付けるトレーサビリティが提供され、開発者は問題を生成した特定のコード、データ、またはパラメータまで問題をすばやく直接追跡できます。これにより、トラブルシューティングにかかる時間が大幅に短縮され、チームはイノベーションにもっと集中できるようになります。

Amazon SageMaker AI 上のフルマネージド型 MLflow 3.0 は、中国リージョンと GovCloud (米国) リージョンを除き、Amazon SageMaker が提供されているすべてのリージョンで利用できるようになりました。

Amazon SageMaker AI のフルマネージド MLFlow 3.0 の詳細については、Amazon SageMaker 開発者ガイドをご覧ください。

Amazon SageMaker HyperPod announces new observability capability

Amazon SageMaker HyperPod の新しいオブザーバビリティ機能により、コンピューティングリソースとモデル開発タスク全体を包括的に可視化することで、お客様はジェネレーティブ AI モデルの開発を加速できます。これにより、スタック全体から何百ものメトリクスを収集し、それらの間の相関関係を視覚化し、ジェネレーティブ AI モデル開発タスクのパフォーマンスを回復するという手作業が不要になります。HyperPod Observabilityは、タスクのパフォーマンス指標をリアルタイムで追跡し、いずれかの指標が悪化した場合は顧客に警告し、顧客が定義したポリシーを使用して根本原因を自動的に修正します。\n SageMaker HyperPod オブザーバビリティは、ジェネレーティブ AI モデル開発タスクをお客様がモニタリングして最適化する方法を変革します。Amazon Managed Grafana で事前に設定されている統合ダッシュボードでは、モニタリングデータが Amazon Managed Prometheus ワークスペースに自動的に公開されるため、お客様はジェネレーティブ AI タスクのパフォーマンスメトリクス、リソース使用率、クラスターの状態を 1 つのビューで確認できるようになりました。これにより、チームはボトルネックを迅速に発見し、コストのかかる遅延を防ぎ、コンピューティングリソースを最適化できます。顧客は数回クリックするだけで、自動アラートを定義し、ユースケース固有のタスクメトリクスを導き出し、統合ダッシュボードに公開できます。この機能は、トラブルシューティングにかかる時間を数日から数分に短縮することで、お客様が本番稼働までの時間を短縮し、AI への投資から最大限の利益を得るのに役立ちます。

SageMaker HyperPod オブザーバビリティは、米国西部 (北カリフォルニア) とアジアパシフィック (メルボルン) を除き、SageMaker HyperPod がサポートされているすべての AWS リージョンで利用できます。詳細を確認して使用を開始するには、ブログ、ドキュメント、および SageMaker HyperPod ウェブページを参照してください。

Anthropic’s Claude 3.7 Sonnet is now available on Amazon Bedrock in AWS GovCloud (US-West)

Anthropic の Claude 3.7 Sonnet ハイブリッド推論モデルが AWS GovCloud (米国西部) で利用できるようになりました。Claude 3.7 Sonnet は高度な AI 機能を備えており、迅速な対応と、ユーザーに詳細かつ段階的な考え方が見えるようになっています。このモデルには強力なコーディング機能があり、指示に従う、数学、物理などのさまざまなタスクでパフォーマンスを向上させます。Anthropic の Claude 3.7 ソネットモデルは FedRAMP High でもあり、国防総省クラウドコンピューティングセキュリティ要件ガイド (DoD CC SRG) の影響レベル (IL) は AWS GovCloud (米国) リージョンの Amazon Bedrock 内で承認されています。\n Claude 3.7 Sonnet は、他の機能とシームレスに統合することで、AI 推論に対する独自のアプローチを導入しています。素早い応答と深い思考を必要とする応答を区別する従来のモデルとは異なり、Claude 3.7 Sonnetではユーザーが標準思考モードと拡張思考モードを切り替えることができます。スタンダードモードでは、クロード 3.5 ソネットのアップグレード版として機能します。拡張思考モードでは、内省を働かせて、幅広いタスクでより良い結果を出します。Amazon Bedrock の顧客はモデルの思考時間を調整できるため、速度と回答品質の間で柔軟にトレードオフを図ることができます。さらに、ユーザーはトークンの制限を指定することで推論予算を制御できるため、より正確なコスト管理が可能になります。 Claude 3.7 Sonnet は、ヨーロッパ (ロンドン)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、ヨーロッパ (パリ)、ヨーロッパ (ストックホルム)、米国東部 (バージニア北部)、米国東部 (オハイオ)、および米国西部 (オレゴン) リージョンの Amazon Bedrock でもご利用いただけます。開始するには、Amazon Bedrock コンソールにアクセスしてください。Amazon Bedrock API または SDK を使用してアプリケーションに統合してください。詳細については、AWS ニュースブログ、Amazon Bedrock のクロード、Amazon Bedrock のドキュメントを参照してください。

AWS Blogs

Amazon Web Services ブログ (日本語)

AWS Open Source Blog

AWS Cloud Financial Management

AWS Big Data Blog

AWS Database Blog

AWS HPC Blog

Artificial Intelligence

AWS for M&E Blog

AWS Security Blog

Open Source Project

Amazon EKS Anywhere