2025/12/3 9:00:00 ~ 2025/12/4 9:00:00 (JST)

最近の発表

Amazon SageMaker HyperPod now supports checkpointless training

Amazon SageMaker HyperPod はチェックポイントレストレーニングをサポートするようになりました。これは、障害復旧のためにチェックポイントベースのジョブレベルの再起動の必要性を軽減する新しい基本モデルトレーニング機能です。チェックポイントレストレーニングは、障害が発生してもトレーニングの勢いを保ち、復旧時間を数時間から数分に短縮します。これは、障害が発生するとトレーニングクラスター全体を一時停止し、問題を手動で診断し、保存したチェックポイントから復元する必要がある従来のチェックポイントベースの復旧からの根本的な転換を表しています。このプロセスでは、高価な AI アクセラレーターが何時間もアイドル状態になり、組織の無駄なコンピューティングにコストがかかる可能性があります。\n チェックポイントレストレーニングは、分散クラスター全体でモデルトレーニングの状態を維持し、障害のあるトレーニングノードをその場で自動的に交換し、正常なアクセラレーターからのピアツーピア状態転送を使用して障害回復を行うことで、このパラダイムを変えます。チェックポイントのないトレーニングは、復旧中のチェックポイントへの依存を軽減することで、組織がアイドル状態の AI アクセラレータのコストを節約し、時間を短縮するのに役立ちます。Amazon SageMaker HyperPod でチェックポイントのないトレーニングを行うと、大規模であっても、何千もの AI アクセラレーターを使用したクラスターサイズで 95% 以上のトレーニングが可能になります。

SageMaker HyperPod のチェックポイントレストレーニングは、Amazon SageMaker HyperPod が現在利用できるすべての AWS リージョンで利用できます。Llama や GPT OSS などの一般公開されている一般的なモデルの HyperPod レシピを使用すると、コードを変更せずにチェックポイントのないトレーニングを実現できます。カスタムモデルアーキテクチャでは、PyTorchベースのワークフローに最小限の変更を加えるだけでチェックポイントのないトレーニングコンポーネントを統合できるため、トレーニングの専門知識が分散していてもチームがアクセスできるようになります。

開始するには、Amazon SageMaker HyperPod 製品ページにアクセスし、チェックポイントレストレーニング GitHub ページで実装ガイダンスを確認してください。

New serverless model customization capability in Amazon SageMaker AI

アマゾンウェブサービス(AWS)は、新しいサーバーレスモデルカスタマイズ機能を発表しました。これにより、AI開発者は、教師付き微調整や強化学習などの最新技術を使用して、人気のあるモデルを迅速にカスタマイズできます。Amazon SageMaker AI は、あらゆるユースケースで高性能で低コストの AI モデル開発を可能にする幅広いツールセットをまとめた完全マネージド型サービスです。 \n 多くの AI 開発者は、精度を向上させるために独自のデータを使用してモデルをカスタマイズしようとしますが、これには長い反復サイクルが必要になることがよくあります。たとえば、AI 開発者は、ユースケースを定義してデータを準備し、モデルとカスタマイズ手法を選択し、モデルをトレーニングして、展開するモデルを評価する必要があります。これで、AI 開発者は、データの準備から評価、デプロイまで、エンドツーエンドのモデルカスタマイズワークフローを簡素化し、プロセスを加速できます。使いやすいインターフェイスにより、AI 開発者はすぐに使い始めることができ、Amazon Nova、Llama、Qwen、DeepSeek、GPT-OSS などの一般的なモデルを独自のデータを使用してカスタマイズできます。教師付き微調整や、強化学習や直接選好最適化などの最新のカスタマイズ技術を使用できます。さらに、AI 開発者は AI エージェントが誘導するワークフロー (プレビュー中) を使用したり、自然言語を使用して合成データを生成したり、データ品質を分析したり、モデルのトレーニングや評価を行ったりできます。これらはすべて完全にサーバーレスです。

この使いやすいインターフェイスは、ヨーロッパ (アイルランド)、米国東部 (バージニア北部)、アジアパシフィック (東京)、米国西部 (オレゴン) の AWS リージョンで使用できます。待機リストに参加して AI エージェントガイド付きワークフローにアクセスするには、サインアップページにアクセスしてください。

詳細については、SageMaker AI モデルのカスタマイズページとブログをご覧ください。

Announcing TypeScript support in Strands Agents (preview) and more

5月、私たちはStrands Agents SDKをオープンソース化しました。これはオープンソースのPythonフレームワークで、モデル主導型のアプローチでわずか数行のコードでAIエージェントを構築して実行できます。本日、TypeScript サポートがプレビュー版で利用可能になったことを発表します。これで、開発者はストランドエージェントを構築する際に Python と TypeScript のどちらかを選択できるようになりました。\n ストランドでのTypeScriptサポートは、完全な型安全、非同期/待機サポート、最新のJavaScript/TypeScriptパターンを備えた、慣用的なTypeScript体験を提供するように設計されています。ストランドは、クライアントアプリケーションやブラウザで、サーバーサイドアプリケーションでは AWS Lambda や Bedrock AgentCore などのランタイムで簡単に実行できます。開発者は AWS CDK を使用して Typescript でスタック全体を構築することもできます。 また、Strands SDK の 3 つの追加アップデートも発表します。まず、Strands Agents のエッジデバイスサポートが一般公開され、双方向ストリーミングや、ローカルモデルを使用する小規模デバイスでエージェントを実行できる llama.cpp などのローカルモデルプロバイダーが追加され、SDK が拡張されました。2つ目は、Strandsのステアリングが実験的な機能として利用可能になったことです。開発者はモジュール式のプロンプトメカニズムを利用して、ライフサイクルの適切なタイミングでエージェントにフィードバックを提供し、厳格なワークフローなしでエージェントを望ましい結果へと導くことができます。最後に、ストランドの評価をプレビューできるようになりました。評価により、開発者はエージェントの行動を体系的に検証し、改善点を測定し、開発サイクル中に自信を持ってリリースすることができます。 ストランド・エージェント GitHub にアクセスして、構築を始めましょう。

Introducing elastic training on Amazon SageMaker HyperPod

Amazon SageMaker HyperPod はエラスティックトレーニングをサポートするようになりました。これにより、組織はリソースの可用性とワークロードの優先順位に基づいてトレーニングワークロードを自動的にスケーリングすることで、基盤モデルトレーニングを加速できます。これは、コンピューティングの可用性に基づいてトレーニングジョブを再構成するために費やすエンジニアリング時間を節約できるため、固定されたリソースセットでのトレーニングから抜本的な転換を意味しています。\n これまで、コンピューティングの可用性を変更するには、トレーニングの停止、トレーニングパラメーターの再構成、ジョブの再開を手動で行う必要がありました。このプロセスでは、分散したトレーニングの専門知識が必要であり、トレーニングジョブの再構成中は高価な AI アクセラレーターがアイドル状態のままになります。エラスティック・トレーニングは、アイドル状態の AI アクセラレーターを吸収するようにトレーニングジョブを自動的に拡大し、優先度の高いワークロードでリソースが必要な場合はシームレスに契約します。これらはすべて、トレーニングを完全に停止することなく行われます。

エラスティックトレーニングは、手動による再構成のオーバーヘッドを排除し、利用可能なコンピューティングを継続的に利用できるようにすることで、これまでインフラストラクチャ管理に費やしていた時間を節約し、クラスターの利用率を最大化することによるコスト削減、市場投入までの時間の短縮に役立ちます。トレーニングは最小限のリソースですぐに開始でき、キャパシティが空くにつれて必要に応じてトレーニングを拡張できます。

SageMaker HyperPod は Amazon SageMaker HyperPod が現在利用できるすべてのリージョンでご利用いただけます。組織は、Llama や GPT OSS などの公開モデルの HyperPod レシピを使用して、コードを変更せずにエラスティックトレーニングを実現できます。カスタム・モデル・アーキテクチャーの場合、お客様は簡単な構成更新と最小限のコード変更によってエラスティック・トレーニング機能を統合できるため、分散システムの専門知識がなくてもチームが利用できるようになります。

開始するには、Amazon SageMaker HyperPod 製品ページにアクセスし、実装ガイダンスに関するエラスティックトレーニングドキュメントを参照してください。

Amazon Bedrock now supports reinforcement fine-tuning delivering 66% accuracy gains on average over base models

Amazon Bedrock は強化学の微調整をサポートするようになったため、機械学習に関する深い専門知識や大量のラベル付きデータを必要とせずにモデルの精度を向上させることができます。Amazon Bedrock は強化微調整ワークフローを自動化し、この高度なモデルカスタマイズ手法を日常の開発者が利用できるようにしています。モデルは、従来の微調整方法に必要な大量のデータではなく、少数のプロンプトを使用して特定の要件に合わせて調整する方法を学習するため、チームはすぐに作業を開始できます。この機能により、同じプロンプトに対して考えられる複数の応答に関するフィードバックを通じてモデルに学習させることができるため、何が良い応答になるかについての判断力が向上します。Amazon Bedrock の強化微調整により、基本モデルと比較して平均で 66% の精度が向上するため、高品質を維持しながら、より小さく、より速く、より費用対効果の高いモデルバリアントを使用できます。\n 組織は AI モデルを独自のビジネスニーズに適応させるのに苦労しており、平均的なパフォーマンスを発揮する汎用モデルか、専門的な人材、インフラストラクチャ、リスクの高いデータ移動を必要とする高価で複雑なカスタマイズのどちらかを選択せざるを得ません。Amazon Bedrock の強化微調整により、高度なモデルのカスタマイズを迅速、自動化、かつ安全に行えるため、この複雑さが解消されます。コンピューターからトレーニングデータを直接アップロードしてモデルをトレーニングすることも、Amazon S3 に既に保存されているデータセットから選択してモデルをトレーニングすることもできます。これにより、ラベル付けされたデータセットは不要になります。検証可能なルールベースの採点者または AI ベースのジャッジと組み込みのテンプレートを使用して報酬関数を定義し、コード生成や数学推論などの客観的なタスクと、指示に従うことやチャットボットとのやりとりなどの主観的なタスクの両方に対してモデルを最適化できます。カスタマイズプロセス全体を通して、専有データが AWS の安全で管理された環境から離れることはなく、セキュリティとコンプライアンスに関する懸念が軽減されます。

Amazon Bedrock コンソールと Amazon Bedrock API を使用して、Amazon Bedrock の強化による微調整を始めることができます。発売時には Amazon Nova 2 Lite で強化微調整を使用できます。その他のモデルも間もなくサポートされる予定です。Amazon Bedrock の強化微調整の詳細については、リリースブログ、価格ページ、およびドキュメントをご覧ください。

YouTube

AWS Black Belt Online Seminar (日本語)

AWS Blogs

Amazon Web Services ブログ (日本語)

AWS News Blog

Open Source Project

AWS CLI

Amplify for iOS