2024/12/4 9:00:00 ~ 2024/12/5 9:00:00 (JST)
最近の発表
Amazon Bedrock Knowledge Bases now supports structured data retrieval
Amazon Bedrock ナレッジベースでは、データソースから構造化データを取得するための自然言語クエリがサポートされるようになりました。今回の発表により、Bedrock Knowledge Bases はエンドツーエンドの管理されたワークフローをお客様に提供し、さまざまな構造化データソースと非構造化データソースのコンテキスト情報にアクセスして組み込むことができるカスタムの生成 AI アプリケーションを構築できるようになりました。Bedrock Knowledge Baseでは、高度な自然言語処理を使用して自然言語クエリをSQLクエリに変換できるため、ユーザーはデータを移動したり前処理したりすることなく、ソースから直接データを取得できます。\n 開発者は、構造化データをジェネレーティブAIアプリケーションに統合する際に課題に直面することがよくあります。これには、自然言語クエリを複雑なデータベーススキーマに基づく SQL クエリに変換するための大規模言語モデル (LLM) のトレーニングや、適切なデータガバナンスとセキュリティ制御の確保が難しいことが含まれます。Bedrock Knowledge Baseは、SQL (NL2SQL) モジュールにマネージド自然言語を提供することで、これらのハードルを排除します。小売アナリストは、「先月売れた商品の上位5つは何だった?」と簡単に尋ねることができるようになりました。そして、Bedrock Knowledge Baseは、そのクエリを自動的に SQL に変換し、データベースに対してクエリを実行して結果を返すだけでなく、要約された回答を返すこともできます。正確な SQL クエリを生成するために、Bedrock Knowledge Base はデータベーススキーマ、以前のクエリ履歴、およびデータソースに関して提供されるその他のコンテキスト情報を活用します。 Bedrock Knowledge Bases は、現時点では Amazon Redshift と Amazon Sagemaker Lakehouse からの構造化データ取得をサポートしており、Bedrock ナレッジベースがサポートされているすべての商用地域で利用できます。詳細については、こちらとこちらをご覧ください。価格の詳細については、こちらを参照してください。
AWS announces Amazon SageMaker Partner AI Apps
アマゾンウェブサービス株式会社(AWS)は本日、Amazon SageMakerパートナーAIアプリの一般提供を発表しました。これは、お客様が主要なアプリプロバイダーが提供するクラス最高の機械学習(ML)およびジェネレーティブAI(GenAI)開発アプリケーションをプライベートかつ安全に簡単に発見、デプロイ、使用できるようにする新機能であり、Amazon SageMaker AI から離れることなく、パフォーマンスが高い AI モデルをより迅速に開発できます。\n 今日まで、さまざまなモデル開発タスクに特化した機能を提供する専用の GenAI と ML 開発アプリケーションを統合するには、かなりの労力が必要でした。既存のサービスを評価するためのデューデリジェンスに時間と労力を費やす必要があるだけでなく、お客様はこれらのアプリケーションのデプロイ、管理、アップグレード、スケーリングにおいて、差別化されていない面倒な作業を行わなければなりませんでした。さらに、厳格なセキュリティとコンプライアンスのプロトコルを順守するためには、組織はデータを別の場所、たとえばSoftware as a Service(SaaS)アプリケーションに移動する必要なく、セキュリティ境界の範囲内にデータを保存する必要があります。最後に、結果として得られる開発者のエクスペリエンスはしばしば断片化され、開発者は複数のばらばらなインターフェースを行ったり来たりしなくてはなりません。SageMaker パートナー AI アプリを使用すると、パートナーソリューションにすばやくサブスクライブし、アプリを SageMaker 開発環境にシームレスに統合できます。SageMaker パートナー AI アプリは完全に管理され、お客様の SageMaker 環境でプライベートかつ安全に実行されるため、データやモデルが漏洩するリスクが軽減されます。 ローンチ時には、AIモデル開発のための実験を追跡、視覚化、管理するためのComet、AIモデルの品質とコンプライアンスを評価するDeepchecksを、本番環境のAIモデルの検証、監視、分析、改善を行うFiddler、迅速な攻撃、データ損失、不適切なコンテンツなどのセキュリティ脅威からAIアプリケーションを保護するためのLakeraを有効にすることで、チームの生産性を高め、市場投入までの時間を短縮できます。 SageMaker パートナー AI アプリは、Gov Cloud を除く現在サポートされているすべての地域で利用できます。詳細については、SageMaker パートナー AI アプリのデベロッパーガイドをご覧ください。
Amazon SageMaker HyperPod now provides flexible training plans
Amazon SageMaker HyperPod は、柔軟なトレーニングプランを発表しました。これは、タイムラインと予算内でジェネレーティブ AI モデルをトレーニングできる新機能です。耐障害性、パフォーマンスが最適化された分散トレーニング、強化されたオブザーバビリティとモニタリングなどの SageMaker HyperPod の機能を引き続き活用しながら、予測可能なモデルトレーニングのタイムラインを獲得し、予算要件内でトレーニングワークロードを実行できます。 \n いくつかの簡単な手順で、希望するコンピューティングインスタンス、必要なコンピューティングリソースの量、ワークロードの期間、ジェネレーティブ AI モデルトレーニングの希望開始日を指定できます。その後、SageMakerは最も費用対効果の高いトレーニングプランの作成を支援し、モデルのトレーニングにかかる時間を数週間短縮します。トレーニングプランを作成して購入すると、SageMaker が自動的にインフラストラクチャをプロビジョニングし、これらのコンピューティングリソースでトレーニングワークロードを実行します。手動による操作は必要ありません。また、SageMaker は、あるキャパシティブロックから別のキャパシティブロックに切り替わる際に、コンピューティングの可用性にギャップがある間のトレーニングの一時停止と再開を自動的に処理します。インフラストラクチャー管理の面倒な作業をすべて取り除きたい場合は、SageMaker のフルマネージド型トレーニングジョブを使用してトレーニングプランを作成して実行することもできます。
SageMaker HyperPod フレキシブルトレーニングプランは、米国東部 (バージニア北部)、米国東部 (オハイオ)、および米国西部 (オレゴン) の AWS リージョンでご利用いただけます。詳細については、SageMaker HyperPod、ドキュメント、およびアナウンスブログをご覧ください。
Amazon Bedrock Marketplace brings over 100 models to Amazon Bedrock
Amazon Bedrock マーケットプレイスでは、ジェネレーティブ AI 開発者が、業界をリードする Amazon Bedrock のサーバーレスモデルに加えて、100 を超える公開されている独自の基盤モデル (FM) にアクセスできます。顧客はこれらのモデルを SageMaker エンドポイントにデプロイし、そこで必要なインスタンス数とインスタンスタイプを選択できます。Amazon Bedrock マーケットプレイスモデルには Bedrock の統合 API を通じてアクセスでき、Bedrock のコンバース API と互換性のあるモデルは、エージェント、ナレッジベース、ガードレールなどの Amazon Bedrock のツールで使用できます。\n Amazon Bedrock Marketplace を利用すると、ジェネレーティブ AI 開発者は、さまざまなタイプやサイズの新進気鋭の FM、人気のある、主要な FM を迅速にテストして組み込むことができます。お客様は、独自の要件に合わせたさまざまなモデルから選択できるため、市場投入までの時間の短縮、精度の向上、ジェネレーティブ AI ワークフローのコスト削減に役立ちます。たとえば、顧客は金融や医療に特化したモデルや、アジア言語向けの言語翻訳モデルを、すべて 1 か所から組み込むことができます。
Amazon Bedrock Marketplace は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中央)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、ヨーロッパ (ロンドン)、ヨーロッパ (パリ)、南米 (サンパウロ) でサポートされています。 詳細については、Amazon Bedrock マーケットプレイスのアナウンスブログまたはドキュメントを参照してください。
AWS Education Equity Initiative to boost education for underserved learners
Amazonは、AWS Education Equity Initiativeを通じて、十分なサービスを受けていない世界中の学習者のアクセスを拡大するデジタル学習ソリューションを開発している組織を対象に、クラウドテクノロジーとテクニカルサポートを5年間継続することを発表しました。教育技術の利用は増え続けているものの、多くの組織は、支援を必要とするより多くの学習者に働きかけるために業務を加速・拡大するために必要なクラウドコンピューティングや AI リソースを利用できていません。\n Amazon は、社会志向の組織がクラウドと AI テクノロジーを活用した学習ソリューションを構築し、規模を拡大できるよう支援するために、最大 1 億ドルの AWS クレジットと技術アドバイスを提供しています。これにより、当初の財政的障壁が軽減され、AWS テクノロジーを使用して AI を活用した教育ソリューションを構築および拡張するためのガイダンスが提供されます。 社会志向の教育技術者、社会的企業、非営利団体、政府、企業の社会的責任チームを含む対象となる受給者は、そのソリューションが十分なサービスを受けていないコミュニティの学生にどのように役立つかを示す必要があります。このイニシアチブは現在、申請を受け付けています。 詳細と申請方法については、AWS 教育エクイティイニシアチブのページをご覧ください。
Task governance is now generally available for Amazon SageMaker HyperPod
Amazon SageMaker HyperPod では、トレーニングや推論など、すべてのジェネレーティブ AI 開発タスクを一元的に管理できるようになりました。コンピューティングリソースの割り当てを完全に可視化して制御できるため、最も重要なタスクに優先順位を付け、コンピューティングリソースの使用率を最大化して、モデル開発コストを最大 40% 削減できます。\n HyperPod のタスクガバナンスにより、管理者はさまざまなタスクの優先順位をより簡単に定義し、各チームが使用できるコンピューティングリソースの数に制限を設定できます。また、管理者はいつでも、実行中のタスクやコンピュートリソースを待っているタスクを視覚的なダッシュボードで監視および監査できます。データサイエンティストがタスクを作成すると、HyperPodは定義されたコンピューティングリソースの制限と優先順位に従ってタスクを自動的に実行します。たとえば、優先度の高いモデルのトレーニングをできるだけ早く完了する必要があるが、すべてのコンピューティングリソースが使用中の場合、HyperPod は優先度の低いタスクからリソースを解放してトレーニングを支援します。HyperPod は優先度の低いタスクを一時停止し、チェックポイントを保存して、解放されたコンピューティングリソースを再割り当てします。プリエンプトされた優先度の低いタスクは、リソースが再び利用可能になると、最後に保存したチェックポイントから再開されます。また、あるチームが管理者が設定したリソース制限を十分に活用していない場合、HyperPodはそのアイドル状態のリソースを使って他のチームのタスクを迅速化します。さらに、HyperPod は Amazon SageMaker Studio と統合され、タスクガバナンスやその他のハイパーポッド機能がスタジオ環境にもたらされるようになりました。データサイエンティストは Studio から直接 HyperPod クラスターをシームレスに操作できるようになり、強力なアクセラレーターベースのクラスター上で機械学習 (ML) ジョブを開発、送信、監視できるようになりました。 HyperPod のタスクガバナンスは、HyperPod が利用可能なすべての AWS リージョン (米国東部 (バージニア北部)、米国西部 (北カリフォルニア)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (フランクフルト)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、ヨーロッパ (ロンドン)、ヨーロッパ (ストックホルム)、南米 (サンパウロ) で利用できます。。 詳細については、SageMaker HyperPod ウェブページ、AWS ニュースブログ、および SageMaker AI ドキュメントをご覧ください。
Amazon Bedrock Guardrails supports multimodal toxicity detection for image content (Preview)
ビジネス価値を高め、意思決定を改善し、顧客体験を向上させるために、マルチモーダルデータを含むアプリケーションを使用する組織が増えています。Amazon Bedrock Guardrails は画像コンテンツのマルチモーダル毒性検出をサポートするようになり、組織が画像にコンテンツフィルターを適用できるようになりました。Guardrails のこの新しい機能は、現在パブリックプレビュー段階にあり、お客様が画像データに対する独自の保護手段を構築したり、エラーが起こりやすく面倒な手動評価に時間を費やすといった面倒な作業を省くことができます。\n Bedrock Guardrailsは、ヘルスケア、製造、金融サービス、メディアと広告、輸送、マーケティング、教育など、さまざまな業種にわたる幅広いユースケースで、お客様が責任を持ってジェネレーティブAIアプリケーションを構築およびスケーリングできるよう支援します。この新機能により、Amazon Bedrock Guardrails は、安全で関連性の高いビジュアルを維持しながら、望ましくない、あるいは潜在的に有害な画像コンテンツの検出とフィルタリングを可能にする包括的なソリューションを提供します。お客様は、設定可能な閾値を持つ単一のソリューションでテキストデータと画像データの両方にコンテンツフィルタを使用できるようになりました。これにより、憎悪、侮辱、性的、暴力などのカテゴリにわたって望ましくないコンテンツを検出してフィルタリングし、責任ある AI ポリシーに基づいて生成的な AI アプリケーションを構築できます。 プレビュー中のこの新機能は、Amazon Bedrockのすべての基盤モデル(FM)で利用でき、米国東部(バージニア北部)、米国東部(オハイオ)、米国西部(オレゴン)、ヨーロッパ(アイルランド)、ヨーロッパ(フランクフルト)、ヨーロッパ(ロンドン)、アジアパシフィック(ソウル)、アジアパシフィック(シンガポール)、アジアパシフィック(東京)、アジアパシフィック(ムンバイ)の11のAWSリージョンの微調整されたFMを含むイメージをサポートする、Amazon Bedrockのすべてのファンデーションモデル(FM)で使用できます。、および AWS GovCloud (米国西部)。 詳細については、Amazon Bedrock Guardrails 製品ページにアクセスするか、ニュースブログとドキュメントをご覧ください。
Announcing new AWS AI Service Cards to advance responsible generative AI
本日、AWS は Amazon Nova Reel、Amazon Canvas、Amazon Nova Micro、Lite、Pro、Amazon Titan Image Generator、Amazon Titan テキスト埋め込み向けの新しい AWS AI サービスカードの発売を発表しました。AI サービスカードは、AWS AI サービスの対象となるユースケースと制限、責任ある AI 設計の選択肢、およびパフォーマンス最適化のベストプラクティスに関する情報を 1 か所で見つけることができるようにすることで、透明性を高めるように設計されたリソースです。\n AWS AI サービスカードは、責任ある方法でサービスを構築するための包括的な開発プロセスの一部です。公平性、説明のしやすさ、プライバシーとセキュリティ、安全性、制御性、信憑性と堅牢性、ガバナンス、透明性など、AI の開発とデプロイの重要な側面に焦点を当てています。AWS はこれらのカードを提供することで、お客様が自社のアプリケーションやワークフローで AI サービスを利用することについて、情報に基づいた意思決定を行うために必要な知識を提供することを目指しています。当社の AI サービスカードは、お客様や幅広いコミュニティと連携してフィードバックを収集し、継続的にアプローチを繰り返すにつれて、今後も進化と拡大を続けていきます。 詳細については、以下の AI サービスカードをご覧ください。
アマゾン・ノヴァ・リール
アマゾンノバキャンバス
アマゾン・ノバ・マイクロ、ライト、プロ
アマゾン・タイタン・イメージ・ジェネレーター
Amazon タイタンテキスト埋め込み
AI サービスカードの詳細と、責任ある方法で AI を構築するための当社の幅広いアプローチについては、「責任ある AI」ウェブページをご覧ください。
Amazon Bedrock announces preview of prompt caching
本日、AWS は Amazon Bedrock がプロンプトキャッシュをサポートするようになったことを発表しました。プロンプトキャッシュは、頻繁に使用されるプロンプトを複数の API 呼び出しにわたってキャッシュすることで、サポート対象モデルのコストを最大 90% 削減し、レイテンシーを最大 85% 削減できる新機能です。これにより、繰り返しの多い入力をキャッシュし、モデルの応答を導くのに役立つ長いシステムプロンプトや一般的な例などのコンテキストを再処理する必要がなくなります。キャッシュを使用すると、出力を生成するのに必要なコンピューティングリソースは少なくなります。その結果、お客様のリクエストをより迅速に処理できるだけでなく、使用するリソースを減らすことによるコスト削減も実現できます。\n Amazon Bedrock は完全マネージド型サービスで、主要な AI 企業から選りすぐりのハイパフォーマンスな FM を 1 つの API で提供します。Amazon Bedrock には、セキュリティ、プライバシー、責任ある AI 機能が組み込まれたジェネレーティブ AI アプリケーションの構築にお客様が必要とする幅広い機能も用意されています。これらの機能は、さまざまな業界の複数のユースケースに合わせてカスタマイズされたアプリケーションを構築するのに役立ち、組織が顧客の信頼とデータガバナンスを構築するためのツールを提供しながら、ジェネレーティブ AI から持続的な成長を引き出すのに役立ちます。 米国西部 (オレゴン) と米国東部 (バージニア北部) では Claude 3.5 Haiku と Claude 3.5 Sonnet v2 でクロスリージョン推論が可能になり、米国東部 (バージニア北部) では Nova Micro、Nova Lite、Nova Pro の各モデルでプロンプトキャッシュを利用できるようになりました。発売時点では、この機能にアクセスできるのは一部のお客様だけです。プレビューへの参加について詳しくは、このページをご覧ください。プロンプトキャッシュについて詳しくは、ドキュメントとブログをご覧ください。
Amazon Q Developer can now guide SageMaker Canvas users through ML development
本日より、Amazon Q Developer を使用して自然言語を使用して ML モデルを構築できるようになりました。このモデルは Amazon SageMaker Canvas でプレビュー版として利用できるようになりました。データ準備からモデルのデプロイまで、ML ライフサイクル全体にわたって AI を活用したジェネレーティブアシスタンスが受けられるようになりました。Amazon Q Developer では、あらゆるスキルレベルのユーザーが自然言語を使用して専門家のガイダンスにアクセスし、高品質の ML モデルを構築できるため、イノベーションと市場投入までの時間が短縮されます。\n Amazon Q Developer は、お客様の目標を特定の ML タスクに分解し、適切な ML 問題のタイプを定義し、データ準備技術をデータに適用します。その後、Amazon Q Developer がカスタム ML モデルの構築、評価、デプロイのプロセスを案内します。Amazon Q Developer と共に SageMaker Canvas で作成された ML モデルは本番環境ですぐに使用でき、SageMaker Studio に登録できます。また、コードをデータサイエンティストと共有してダウンストリームの MLOps ワークフローに統合することもできます。 Amazon Q Developer は、米国東部 (バージニア北部)、米国西部 (オレゴン)、ヨーロッパ (フランクフルト)、ヨーロッパ (パリ)、アジアパシフィック (東京)、アジアパシフィック (ソウル) の AWS リージョンで SageMaker Canvas のプレビュー版をご利用いただけます。SageMaker Canvas で Amazon Q Developer を使用する方法の詳細については、ウェブサイトにアクセスするか、AWS ニュースブログを読むか、技術文書を参照してください。
Amazon Bedrock Data Automation now available in preview
本日、Amazon Bedrockの新機能であるAmazon Bedrock Data Automation(BDA)のプレビューリリースを発表します。これにより、開発者はドキュメント、画像、動画、音声などの非構造化マルチモーダルコンテンツから貴重な洞察を自動的に生成して、Genaiベースのアプリケーションを構築できます。これらのインサイトには、重要な瞬間の動画による要約、不適切な画像コンテンツの検出、複雑な文書の自動分析などが含まれます。開発者は BDA の出力をカスタマイズして、システムやアプリケーションに必要な一貫した形式で具体的なインサイトを生成することもできます。\n BDAを活用することで、開発者は開発時間と労力を削減でき、インテリジェントな文書処理、メディア分析、その他のマルチモーダルデータ中心の自動化ソリューションを簡単に構築できます。BDAは、説明しやすくするための信頼スコア付きの視覚的グラウンディングや組み込みの幻覚緩和機能などの機能とともに、代替ソリューションよりも低コストで高い精度を提供します。これにより、構造化されていないマルチモーダルデータコンテンツからの正確な洞察が保証されます。開発者はBedrockコンソールでBDAを使い始めることができます。Bedrockコンソールでは、サンプルデータを使用して出力を構成およびカスタマイズできます。その後、BDA の統合マルチモーダル推論 API をアプリケーションに統合して、非構造化コンテンツを高い精度と一貫性をもって大規模に処理できます。また、BDAはBedrock Knowledge Basesと統合されているため、開発者は構造化されていないマルチモーダルコンテンツから有意義な情報を簡単に生成して、検索拡張生成(RAG)に対してより適切な回答を提供できます。 Bedrock Data Automation は、米国西部 (オレゴン) AWS リージョンでプレビュー版として提供されています。 詳細については、Bedrock データオートメーションのページをご覧ください。
Amazon Bedrock Knowledge Bases now supports GraphRAG (preview)
本日、Amazon Bedrockナレッジベースの新機能であるGraphRagのサポートを発表します。これは、RAG技術とグラフデータを組み合わせることで、より包括的で関連性が高く説明可能な応答を提供することにより、ジェネレーティブAIアプリケーションを強化するものです。Amazon Bedrock Knowledge Bases は、フルマネージド型のエンドツーエンドの検索-拡張生成 (RAG) ワークフローを提供し、会社のデータソースからのコンテキスト情報を組み込むことで、高精度で低レイテンシーのカスタムジェネレーティブ AI アプリケーションを作成できます。Amazon Bedrock ナレッジベースでは、Amazon Neptune Analytics によるフルマネージド型の GraphRag 機能が提供されるようになりました。\n これまで、お客様は異種のコンテンツを網羅的に複数ステップで検索するという課題に直面していました。GraphRagは、ドキュメント全体で主要なエンティティを特定することで、データ内の関係性を活用するインサイトを提供し、エンドユーザーへの対応を改善しました。たとえば、ユーザーは旅行アプリケーションに、直行便やおいしいシーフードレストランがある家族向けのビーチデスティネーションを尋ねることができます。ジェネレーティブ AI アプリケーションを構築する開発者は、ナレッジベースを作成する際にデータソースを指定し、ベクターストアとして Amazon Neptune Analytics を選択することで、数回クリックするだけで GraphRag を有効にできます。これにより、エンティティとその関係のグラフ表現とともに、ベクター埋め込みが Amazon Neptune Analytics に自動的に生成されて保存されます。 GraphRag with Amazon Neptune は Amazon Bedrock ナレッジベースに直接組み込まれており、基盤となるサービス以外に追加の設定や追加料金なしで、統合されたエクスペリエンスを提供します。GraphRag は Amazon Bedrock ナレッジベースと Amazon Neptune アナリティクスの両方が利用できる AWS リージョンで利用できます (サポートされているリージョンの最新リストを参照)。詳細については、Amazon Bedrock ユーザーガイドをご覧ください。
Announcing Amazon SageMaker HyperPod recipes
Amazon SageMaker HyperPod レシピを使用すると、最先端のパフォーマンスで公開されているファンデーションモデル (FM) のトレーニングと微調整を数分で開始できます。SageMaker HyperPod は、レジリエンシーとパフォーマンスの最適化が組み込まれているため、お客様が数百または数千の AI アクセラレータにわたってジェネレーティブ AI モデル開発を拡大できるよう支援し、モデルトレーニング時間を最大 40% 短縮します。ただし、FM のサイズが数千億のパラメーターにまで拡大し続けるにつれて、これらのモデルをカスタマイズするプロセスには、数週間にわたる広範な実験とデバッグが必要になることがあります。さらに、より優れた価格パフォーマンスを引き出すためのトレーニングの最適化は、多くの場合、お客様にとって現実的ではありません。なぜなら、顧客は機械学習に関する深い専門知識を必要とし、市場投入までの時間をさらに遅らせる可能性があるからです。 \n SageMaker HyperPodレシピを使用すると、あらゆるスキルセットのお客様が最先端のパフォーマンスを活用できると同時に、Llama 3.1 405B、Mixtral 8x22B、Mistral 7Bなどの一般公開されている一般的なFMのトレーニングと微調整をすぐに開始できます。SageMaker HyperPod レシピには AWS がテストしたトレーニングスタックが含まれており、さまざまなモデル構成で何週間もかけて実験する面倒な作業が不要になります。また、レシピを 1 行変更するだけで GPU ベースのインスタンスと AWS Trainium ベースのインスタンスをすばやく切り替えることができ、自動モデルチェックポイントを有効にしてトレーニングの耐障害性を向上させることもできます。最後に、お好みの SageMaker AI トレーニングサービスで本番環境でワークロードを実行することもできます。
SageMaker HyperPod レシピは、SageMaker HyperPod と SageMaker のトレーニングジョブがサポートされているすべての AWS リージョンでご利用いただけます。詳細を確認して使い始めるには、SageMaker HyperPod のページとブログをご覧ください。
Announcing scenarios analysis capability of Amazon Q in QuickSight (preview)
QuickSight の Amazon Q の新しいシナリオ分析機能がプレビューで利用可能になりました。この新機能により、AI を活用したデータ分析が可能になり、より適切な意思決定をより迅速に行えるようになります。QuickSight の Amazon Q は、ステップバイステップのガイダンスにより詳細な分析を簡素化し、手作業によるデータ操作にかかる時間を節約し、組織全体でデータ主導型の意思決定を可能にします。\n QuickSight の Amazon Q を使用すると、ビジネスユーザーは複雑なシナリオ分析をスプレッドシートよりも最大 10 倍速く実行できます。自然言語で質問したり目標を述べたりできます。QuickSight の Amazon Q では、分析アプローチの提案、データの自動分析、関連性の高いインサイトの抽出、推奨アクションによる結果の要約など、高度なデータ分析のあらゆるステップをガイドしてくれます。このエージェント的なアプローチでは、データ分析を理解しやすく実行可能な一連のステップに分解し、専門的なスキルや面倒で間違いが起こりやすいスプレッドシートでのデータ操作がなくても、複雑な問題の解決策を見つけるのに役立ちます。広大な分析キャンバス上で作業することで、データを直接操作したり、分析ステップを絞り込んだり、複数の分析パスを並べて調べたりすることで、直感的にソリューションへの道を反復できます。このシナリオ分析機能にはどの Amazon QuickSight ダッシュボードからでもアクセスできるので、データの視覚化からモデリングソリューションにシームレスに移行できます。QuickSight の Amazon Q を使用すると、以前の分析を簡単に変更、拡張、再利用できるため、変化するビジネスニーズにすばやく適応できます。
QuickSight Pro の Amazon Q ユーザーは、この新機能を米国東部 (バージニア北部) と米国西部 (オレゴン) の AWS リージョンでプレビューで使用できます。詳細については、Amazon Q in QuickSight のドキュメントと AWS ニュースブログをご覧ください。
Amazon Bedrock Knowledge Bases now processes multimodal data
Amazon Bedrock ナレッジベースにより、開発者は画像、グラフ、図、表などのテキストデータとビジュアルデータの両方から得られる洞察を分析して活用できるジェネレーティブ AI アプリケーションを構築できるようになりました。Bedrock Knowledge Bases では、エンドツーエンドのマネージド検索-拡張生成 (RAG) ワークフローが提供されています。これにより、お客様は独自のデータソースからのコンテキスト情報を組み込むことで、高精度で低レイテンシーで安全なカスタムジェネレーティブ AI アプリケーションを作成できます。今回の発表により、Bedrock Knowledge Basesはテキストとビジュアルデータの両方からコンテンツを抽出し、選択した埋め込みモデルを使用してセマンティック埋め込みを生成し、選択したベクターストアに保存します。これにより、ユーザーはテキストだけでなくビジュアルデータからも導き出された質問に対する回答を取得して生成することができます。さらに、取得された結果にはビジュアルデータのソース属性が含まれるようになったため、透明性が高まり、生成された出力の信頼性が高まります。\n まず、マルチモーダルデータからコンテンツを自動的に抽出するマネージドサービス (現在はプレビュー中) の Amazon Bedrock Data Automation、またはデフォルトのプロンプトを柔軟にカスタマイズできる Claude 3.5 Sonnet や Claude 3 Haiku などの FM のいずれかを選択できます。 Bedrock Data Automation によるマルチモーダルデータ処理は、米国西部 (オレゴン) リージョンでプレビュー版としてご利用いただけます。FM ベースの解析は、Bedrock ナレッジベースが利用できるすべての地域でサポートされています。Bedrock Data Automation または FM をパーサーとして使用する場合の料金の詳細については、料金表ページを参照してください。 詳細については、Amazon Bedrock ナレッジベースの製品ドキュメントをご覧ください。
Amazon Bedrock Intelligent Prompt Routing is now available in preview
Amazon Bedrock インテリジェントプロンプトルーティングは、モデルファミリー内のさまざまな基本モデルにプロンプトをルーティングし、応答の質とコストを最適化するのに役立ちます。インテリジェントプロンプトルーティングは、高度なプロンプトマッチングとモデル理解技術を使用して、リクエストごとに各モデルのパフォーマンスを予測し、最も低いコストで目的の応答が得られる可能性が最も高いと予測されるモデルに各リクエストを動的にルーティングします。お客様は、クロード・ソネット 3.5 とクロード・ハイクの間、または Llama 3.1 8B と Llama 3.1 70B の間で、リクエストをルーティングする 2 つのプロンプトルーターをプレビュー版から選択できます。\n Amazon Bedrock は完全マネージド型サービスで、主要な AI 企業が提供する高性能な基盤モデルを 1 つの API で選択できます。Amazon Bedrock には、セキュリティ、プライバシー、責任ある AI 機能が組み込まれたジェネレーティブ AI アプリケーションの構築にお客様が必要とする幅広い機能も用意されています。これらの機能は、さまざまな業界の複数のユースケースに合わせてカスタマイズされたアプリケーションを構築するのに役立ち、組織が顧客の信頼とデータガバナンスを確保しながら、ジェネレーティブ AI から持続的な成長を引き出すのに役立ちます。Amazon Bedrockは、インテリジェント・プロンプト・ルーティングにより、お客様が複数の基盤モデルを組み合わせて費用対効果の高いジェネレーティブAIアプリケーションを構築し、単一の基盤モデルよりも低コストで優れたパフォーマンスを実現できるよう支援します。 プレビュー中、お客様にはリクエストのルーティング先のモデルに対して通常のオンデマンド料金が請求されます。詳しくは、ドキュメントとブログをご覧ください。
Announcing GenAI Index in Amazon Kendra
Amazon Kendra は AI を活用した検索サービスです。これにより、組織はインテリジェントな検索体験を構築し、生成的な AI アプリケーションを強化する拡張生成 (RAG) システムを検索できます。本日より、AWS のお客様は RAG とインテリジェント検索用の GenAI インデックスという新しいインデックスを使用できるようになりました。Kendra GenAI Index では、最新の情報検索テクノロジーとセマンティックモデルにより、すぐに使える高い検索精度が得られます。\n Kendra GenAI インデックスは、Amazon Bedrock ナレッジベースや Amazon Q Business などの AWS ジェネレーティブ AI サービス全体のモビリティをサポートしているため、お客様はインデックス化されたコンテンツをさまざまなユースケースで柔軟に使用できます。Bedrock ナレッジベースのマネージドレトリーバーとして利用できるため、お客様は Kendra GenAI インデックスを利用したナレッジベースを作成できます。また、お客様はこのようなナレッジベースをガードレール、プロンプトフロー、エージェントなどの他のBedrockサービスと統合して、高度なジェネレーティブAIアプリケーションを構築することもできます。GenAI Index は 43 種類のデータソースのコネクタをサポートしているため、お客様はさまざまなソースからコンテンツを簡単に取り込むことができます。 Kendra GenAI インデックスは、米国東部 (バージニア北部) および米国西部 (オレゴン) リージョンでご利用いただけます。 詳細については、Amazon Kendra 開発者ガイドの「ケンドラ GenAI インデックス」を参照してください。価格については、Kendra の料金表ページを参照してください。
AWS Blogs
Amazon Web Services ブログ (日本語)
- Amazon ElastiCache for Valkey version 8.0 による高速なスケーリングとメモリ効率の向上
- Amazon Keyspaces (for Apache Cassandra) のキャッシュとしての Amazon ElastiCache の利用
- Avataar Creator Platform で e コマースのビジュアルを強化
- Okta のユーザーとグループを Amazon QuickSight と同期する
- AWS Deadline Cloud 用の conda パッケージとチャネルの作成
- 初学者向けイベント! AWS JumpStart 2025 開催予告
- 【開催報告 & 資料公開】生成 AI が切り拓く、今後のエンジニアリング環境
AWS News Blog
- Buy with AWS のご紹介:AWS Marketplace を利用した AWS パートナーサイトでの迅速な調達エクスペリエンス
- 新しい Amazon SageMaker HyperPod レシピを使用して、ファンデーションモデルのトレーニングと微調整を加速
- AWS 教育エクイティイニシアチブ:ジェネレーティブ AI を応用して次世代のイノベーターを教育する
- QuickSight の Amazon Q の新しいシナリオ分析機能により、複雑な問題を解決できます。
- Amazon Q Developer を使用して Amazon SageMaker Canvas で ML モデルを構築してください
- Amazon Bedrock Guardrails が画像サポートによるマルチモーダル毒性検出をサポートするようになりました (プレビュー)
- Amazon Bedrockの新しい機能により、データ処理と取得が強化されます
- Amazon Bedrock インテリジェントプロンプトルーティングとプロンプトキャッシュ (プレビュー) でコストとレイテンシーを削減
- Amazon Bedrock マーケットプレイス:100 種類以上のファンデーションモデルに 1 か所でアクセスできます
- 新しい Amazon SageMaker HyperPod フレキシブルトレーニングプランで、トレーニングのタイムラインと予算に合わせてトレーニングを行ってください。
- 新しい Amazon SageMaker HyperPod タスクガバナンスにより、モデル開発におけるアクセラレータの利用率を最大化
AWS Big Data Blog
- Amazon SageMaker Lakehouse を使用して企業のデータアクセスを簡素化しましょう
- AWS Lake Formation と統合された AWS Glue 5.0 を使用して、データレイクテーブルにきめ細かなアクセスコントロールを適用します
- Apache Spark 用の AWS Glue 5.0 でオープンテーブル形式のライブラリを使用する
- Apache Spark 用の AWS Glue 5.0 のご紹介
- オープンソースの Apache Spark の AWS Glue アイスバーグレストカタログを使用して S3 アイスバーグテーブルを読み書きする
- Amazon SageMaker ユニファイドスタジオでのビジュアル ETL フローの作成 (プレビュー)
- AWS Glue と Zero-ETL を使用して Amazon SageMaker Lakehouse へのデータ統合を簡素化
- Amazon SageMaker Lakehouse を使用して Amazon Athena フェデレーションクエリをカタログ化して管理する
- 次世代の Amazon SageMaker: すべてのデータ、分析、AI のセンター
- ANZ機関部門が連携データプラットフォームを構築して、各ドメインチームがビジネス成果をサポートするデータ製品を構築できるようにした方法
AWS Database Blog
AWS HPC Blog
AWS for Industries
AWS Machine Learning Blog
- Amazon Bedrock マーケットプレイスに NVIDIA モデルが追加されました:NVIDIA Nemotron-4 NIM マイクロサービスのご紹介
- リアルタイム、リアルタイム:Amazon SageMaker と Tecton によるプロダクション AI
- Amazon SageMaker JumpStart モデルで Amazon Bedrock ツールを使用してください
- Amazon 岩盤モデル蒸留ガイド (プレビュー)
- Amazon SageMaker Unified Studio の Amazon Bedrock IDE を使用して、ジェネレーティブ AI アプリケーションをすばやく構築できます
- Amazon SageMaker Studio と Amazon SageMaker HyperPod で ML ワークフローをスケーリングしましょう
- Amazon Kendra GenAI インデックスのご紹介 — セマンティック検索および取得機能の強化
- Amazon SageMaker を使用して AWS パートナーが提供する AI アプリケーションを使用して、ジェネレーティブ AI および ML ソリューションをより迅速に構築できます