2025/4/8 9:00:00 ~ 2025/4/9 9:00:00 (JST)
最近の発表
Amazon OpenSearch Ingestion now available in AWS Europe (Spain) Region
本日より、お客様はヨーロッパ (スペイン) リージョンの Amazon OpenSearch Ingestion を使用して、Amazon OpenSearch Service のマネージドクラスターまたはサーバーレスコレクションにデータを取り込むことができます。\n Amazon OpenSearch Ingesting はフルマネージド型のデータ取り込み階層であり、Amazon OpenSearch マネージドクラスターまたはサーバーレスコレクションでインデックスを作成する前に、データを取り込んで処理することができます。Amazon OpenSearch インジェストでは、コードなしでデータのフィルタリング、変換、編集、Amazon OpenSearch サービスへのルーティングを行うことができます。Amazon OpenSearch Ingestion は、ワークロードの変動する需要を満たすように、基盤となるリソースを自動的にプロビジョニングしてスケーリングします。 今回の発表により、Amazon OpenSearch Ingestion は、米国東部 (オハイオ)、米国東部 (バージニア北部)、米国西部 (オレゴン)、米国西部 (北カリフォルニア)、ヨーロッパ (アイルランド)、ヨーロッパ (ロンドン)、ヨーロッパ (フランクフルト)、ヨーロッパ (スペイン)、アジアパシフィック (東京)、アジアパシフィック (シドニー)、アジアパシフィック (シンガポール)、アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル) の 16 の AWS リージョンで一般的に利用できるようになりました。)、カナダ(中央)、南米(サンパウロ)、およびヨーロッパ(ストックホルム)。 詳細については、Amazon OpenSearch インジェストのウェブページと Amazon OpenSearch インジェスト開発者ガイドを参照してください。
Amazon EC2 C6in instances are now available in AWS Asia Pacific (Osaka) Region
本日より、Amazon Elastic Compute Cloud (Amazon EC2) C6in インスタンスが AWS リージョンアジアパシフィック (大阪) で利用できるようになりました。第 6 世代のネットワーク最適化インスタンスは、第 3 世代 Intel Xeon Scalable プロセッサを搭載し、AWS Nitro System 上に構築されており、最大 200 Gbps のネットワーク帯域幅を実現し、同等の第 5 世代インスタンスの 2 倍のネットワーク帯域幅を実現します。\n お客様は C6in インスタンスを使用して、ネットワーク仮想アプライアンス (ファイアウォール、仮想ルーター、ロードバランサー)、Telco 5G User Plane Function (UPF)、データ分析、ハイパフォーマンスコンピューティング (HPC)、CPU ベースの AI/ML ワークロードなどのアプリケーションのパフォーマンスをスケーリングできます。C6in インスタンスには、ベアメタルサイズを含め、最大 128 個の vCPU を搭載した 10 種類のサイズがあります。Amazon EC2 第 6 世代 x86 ベースのネットワーク最適化された EC2 インスタンスは、最大 100 Gbps の Amazon エラスティックブロックストア (Amazon EBS) 帯域幅と最大 40 万 IOPS を実現します。C6in インスタンスは、32 x ラージサイズおよびメタルサイズでエラスティックファブリックアダプター (EFA) ネットワーキングをサポートします。 C6in インスタンスは、米国東部 (オハイオ、バージニア北部)、米国西部 (北カリフォルニア、オレゴン)、ヨーロッパ (フランクフルト、アイルランド、ロンドン、ミラノ、パリ、スペイン、ストックホルム、チューリッヒ)、中東 (バーレーン、UAE)、イスラエル (テルアビブ)、アジアパシフィック (香港、ハイデラバード、ジャカルタ、マレーシア、メルボルン、ムンバイ、大阪、ソウル、シンガポール、シドニー) で利用できます。、東京)、アフリカ(ケープタウン)、南米(サンパウロ)、カナダ(中部)、AWS GovCloud(米国西部、米国東部)詳細については、Amazon EC2 C6in インスタンスを参照してください。開始するには、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (AWS CLI)、および AWS SDK を参照してください。
Meta’s Llama 4 now available in Amazon SageMaker JumpStart
新しいラマ4シリーズの最初のモデル、ラマ4スカウト17Bとラマ4マーベリック17Bが、AWSでご利用いただけるようになりました。Amazon SageMaker JumpStart では Llama 4 モデルにアクセスできます。これらの高度なマルチモーダルモデルにより、複数のタイプのメディアに対応する、よりカスタマイズされたアプリケーションを構築できます。Llama 4 は、グローバルアプリケーションの言語サポートが拡大されているため、Llama 3 よりも低コストでパフォーマンスが向上しています。Mixture-of-Experts (MoE) アーキテクチャを採用したこれらのモデルは、テキスト入力と画像入力の効率的なマルチモーダル処理、計算効率の向上、AI 安全対策の強化を実現します。\n Metaによると、小型のLlama 4 Scout 17Bモデルは、同クラスで世界最高のマルチモーダルモデルであり、MetaのLlama 3モデルよりも強力です。スカウトは170億のアクティブパラメーター、16人のエキスパート、合計1090億のパラメーターを備えた汎用モデルで、このクラスでは最先端のパフォーマンスを発揮します。Scoutはコンテキストの長さをラマ3の128Kから、業界をリードする1,000万トークンへと大幅に拡大しました。これにより、複数文書の要約、パーソナライズされたタスクのための広範なユーザーアクティビティの解析、膨大なコードベースでの推論など、さまざまな可能性が広がります。Llama 4 Maverick 17B は、量子化 (FP8) バージョンと非量子化 (BF16) バージョンの両方に対応する汎用モデルで、128 人の専門家、4, 000 億の合計パラメーター、100 万のコンテキスト長を備えています。12 言語にわたる画像とテキストの理解に優れており、多用途のアシスタントやチャットアプリケーションに適しています。 メタの Llama 4 モデルは、米国東部 (バージニア北部) AWS リージョンの Amazon SageMaker JumpStart でご利用いただけます。詳細については、リリースブログと技術ブログをご覧ください。これらのモデルには Amazon SageMaker Studio からアクセスできます。
Amazon Bedrock Guardrails announces new capabilities to safely build generative AI applications
Amazon Bedrock Guardrails は、ジェネレーティブ AI アプリケーションを大規模に安全に構築するための新機能を発表しました。これらの新機能により、ユースケースや責任ある AI ポリシーに合わせて Bedrock Guardrails が提供する設定可能な保護手段を使用しながら、柔軟性が向上し、きめ細かな制御が可能になり、使いやすくなりました。\n Bedrock Guardrails には、設定したポリシーから期待される結果をプレビューできる検出モードが用意されました。これにより、セーフガードを導入する前にその効果を評価できます。これにより、ポリシーの組み合わせや長所が異なる場合でも、イテレーションを迅速に行い、製品化までの時間を短縮できるため、導入前にガードレールを微調整できます。 Guardrailsでは、入力プロンプト、モデルレスポンス、またはプロンプトとレスポンスの両方でポリシーを有効にするオプションにより、より詳細な設定が可能になりました。これは、ポリシーが入力と出力の両方に自動的に適用されていた以前のデフォルト設定を大幅に改善したものです。よりきめ細かい制御が可能になるため、セーフガードを選択的に適用して効果を上げることができます。 Bedrock Guardrails には、個人を特定できる情報 (PII) を検出する機密情報フィルタの 2 つのモードがあります。1 つは機密情報を含むリクエストを完全にブロックする [ブロック] モードで、もう 1 つは機密情報を編集して識別子タグに置き換える [マスク] です。これら 2 つのモードのどちらかを、入力プロンプトとモデル応答の両方に使用できるようになったため、ジェネレーティブ AI アプリケーションを大規模に安全に構築するための柔軟性と使いやすさが向上しました。 これらの新機能は Amazon Bedrock Guardrails がサポートされているすべての AWS リージョンで利用できます。 詳細については、ブログ記事、技術文書、Bedrock Guardrails 製品ページを参照してください。
Amazon Bedrock now offers Pixtral Large 25.02, a multimodal model from Mistral AI
AWSは、Amazon BedrockにPixtral Large 25.02が導入されたことを発表しました。これは、最先端の画像理解と強力なテキスト処理を組み合わせたマルチモーダル機能を備えた124Bパラメータモデルです。AWS は、Pixtral Large 25.02 をフルマネージド型のサーバーレスモデルとして提供した最初のクラウドプロバイダーです。このモデルは、Mistral Large 2 の高度なテキスト機能を維持しつつ、文書分析、チャート解釈、自然な画像理解タスク全体で最前線のパフォーマンスを実現します。\n 128Kのコンテキストウィンドウを備えたPixtral Large 25.02は、MathVista、DocVQA、vQAv2などの主要なベンチマークでクラス最高のパフォーマンスを実現しています。このモデルは、数十の言語にわたる包括的な多言語サポートを特徴としており、80 を超えるプログラミング言語でトレーニングされています。主な機能には、高度な数学的推論、ネイティブ関数呼び出し、JSON 出力、Retrieval Augmented Generation (RAG) アプリケーション向けの堅牢なコンテキスト遵守などがあります。
Pixtral Large 25.02 は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、ヨーロッパ (フランクフルト)、ヨーロッパ (フランクフルト)、ヨーロッパ (ダブリン)、ヨーロッパ (パリ)、ヨーロッパ (ストックホルム) の 7 つの AWS リージョンの Amazon Bedrock で利用できるようになりました。サポートされている地域の詳細については、地域別の Amazon Bedrock モデルサポートガイドをご覧ください。
Pixtral Large 25.02 とその機能の詳細については、Mistral AI 製品ページをご覧ください。Amazon Bedrock でピクストラル・ラージ 25.02 を使い始めるには、Amazon Bedrock コンソールにアクセスしてください。
Amazon S3 Tables are now available in four additional AWS Regions
Amazon S3 テーブルは、アジアパシフィック (大阪)、ヨーロッパ (パリ)、ヨーロッパ (スペイン)、米国西部 (北カリフォルニア) の 4 つの AWS リージョンで利用可能になりました。S3 Tables は、Apache Iceberg サポートが組み込まれた初めてのクラウドオブジェクトストアであり、表形式のデータを大規模に保存する最も簡単な方法でもあります。\n 今回の拡張により、S3 テーブルは 19 の AWS リージョンで一般利用できるようになりました。詳細については、製品ページ、ドキュメント、S3 料金ページをご覧ください。
本日、Amazon は Amazon Nova Sonic を発表しました。これは、音声の理解と生成を 1 つのモデルに統合し、人工知能 (AI) アプリケーションで人間のような音声会話を可能にする新しい基盤モデルです。Amazon Nova Sonic を使用すると、開発者は Amazon Bedrock でリアルタイムの会話 AI アプリケーションを、業界トップクラスのコストパフォーマンスと低レイテンシーで構築できます。さまざまな話し方のスピーチを理解し、アメリカやイギリスなどの英語のアクセントで、男性的な声と女性的な声の両方を含む表現力豊かな声でスピーチを生成できます。Amazon Nova Sonic の斬新なアーキテクチャでは、生成された音声応答のイントネーション、韻律、スタイルを、音声入力のコンテキストと内容に合わせて調整できます。さらに、Amazon Nova Sonic では、検索拡張生成 (RAG) を使用して、エンタープライズデータを使用して関数呼び出しや知識の基盤を構築できます。Amazon Nova Sonic は責任ある AI を念頭に置いて開発されており、コンテンツモデレーションやウォーターマークなどの保護機能が組み込まれています。\n 開発者が Amazon Nova Sonic を使用してリアルタイムアプリケーションを構築できるように、AWS は Amazon Bedrock に新しい双方向ストリーミング API の導入も発表しています。この API はコンテンツの双方向ストリーミングを可能にします。これは、人間のユーザーと AI モデル間の低レイテンシーのインタラクティブなコミュニケーションに不可欠です。
Amazon Nova Sonic は、ほぼすべてのアプリケーションを音声対応にするために使用できます。コンタクトセンターでのカスタマーサービスの通話自動化、アウトバウンドマーケティング、音声対応のパーソナルアシスタントやエージェント、インタラクティブな教育や語学学習など、幅広い用途で幅広くテストされています。
Amazon Nova Sonic モデルが、米国東部 (バージニア北部) AWS リージョンの Amazon Bedrock で利用できるようになりました。詳細については、AWS ニュースブログ、Amazon Nova Sonic 製品ページ、および Amazon Nova Sonic ユーザーガイドをご覧ください。Amazon Bedrock で Amazon Nova Sonic を使い始めるには、Amazon Bedrock コンソールにアクセスしてください。
AWS SAM now supports Amazon API Gateway Custom Domain Names for private REST APIs
AWS サーバーレスアプリケーションモデル (AWS SAM) は、Amazon API ゲートウェイのプライベート REST API 機能のカスタムドメイン名をサポートするようになりました。SAM を使用してサーバーレスアプリケーションを構築する開発者は、プライベート API のカスタムドメイン名を SAM テンプレートにシームレスに直接組み込むことができるため、他のツールを使用してカスタムドメイン名を個別に設定する必要がなくなりました。\n API Gateway では、プライベート REST API 用に private.example.com などのカスタムドメイン名を作成できるため、API 呼び出し元にシンプルで直感的な URL を提供できます。プライベートカスタムドメイン名を使用すると、複雑さを軽減し、TLS 暗号化によるセキュリティ対策を設定し、ドメイン名に関連付けられた TLS 証明書のライフサイクルを管理できます。AWS SAM は、開発ライフサイクルのオーサリング、ビルド、デプロイ、テスト、モニタリングの各段階を通じて、サーバーレスアプリケーションの構築と管理を容易にするオープンソースツール (SAM、SAM CLI など) の集まりです。今回のローンチにより、SAM と SAM CLI を使用してプライベート REST API のカスタムドメイン名を簡単に設定できるようになりました。 まず、SAM CLI を最新バージョンに更新し、エンドポイント設定を PRIVATE に設定するように SAM テンプレートを変更し、AWS:: Serverless:: Api リソースのドメインプロパティの Policy フィールドにポリシードキュメントを指定します。その後、SAM は AWS:: Serverless:: Api の下にドメイン名 V2 リソースと BasePathMappingV2 リソースを自動的に生成します。詳細については、AWS SAM のドキュメントをご覧ください。プライベート REST API のカスタムドメイン名の詳細については、API Gateway のブログ投稿をご覧ください。
Amazon EC2 M8g instances now available in AWS Asia Pacific (Mumbai) and AWS Asia Pacific (Hyderabad)
本日より、Amazon Elastic Compute Cloud (Amazon EC2) M8g インスタンスは AWS アジアパシフィック (ムンバイ) リージョンと AWS アジアパシフィック (ハイデラバード) リージョンでご利用いただけます。これらのインスタンスは AWS Graviton4 プロセッサを搭載しており、AWS Graviton3 ベースのインスタンスと比較してパフォーマンスが最大 30% 向上しています。Amazon EC2 M8g インスタンスは、アプリケーションサーバー、マイクロサービス、ゲームサーバー、中規模データストア、キャッシュフリートなどの汎用ワークロード向けに構築されています。これらのインスタンスは AWS Nitro System 上に構築されており、CPU の仮想化、ストレージ、ネットワーキング機能を専用のハードウェアとソフトウェアにロードして、ワークロードのパフォーマンスとセキュリティを強化します。\n AWS Graviton4 ベースの Amazon EC2 インスタンスは、Amazon EC2 で実行される幅広いワークロードに最高のパフォーマンスとエネルギー効率をもたらします。これらのインスタンスは、Graviton3 ベースの Amazon M7g インスタンスと比較して、インスタンスサイズが大きく、vCPU とメモリが最大 3 倍多くなります。AWS Graviton4 プロセッサは、AWS Graviton3 プロセッサに比べて、データベースでは最大 40%、ウェブアプリケーションでは 30%、大規模な Java アプリケーションでは 45% 高速です。M8g インスタンスには、2 つのベアメタルサイズを含む 12 種類のインスタンスサイズがあります。最大 50 Gbps の拡張ネットワーキング帯域幅と Amazon エラスティックブロックストア (Amazon EBS) への最大 40 Gbps の帯域幅を提供します。 詳細については、「Amazon EC2 M8g インスタンス」を参照してください。ワークロードを Graviton ベースのインスタンスに移行する方法については、AWS Graviton ファストスタートプログラムおよび Graviton 用ポーティングアドバイザーを参照してください。開始するには、AWS マネジメントコンソールを参照してください。
AWS Blogs
Amazon Web Services ブログ (日本語)
- Hannover Messe 2025 AWS ブースレポート
- Amazon EC2 と SageMaker AI による AI モデル構築のコスト最適化
- EBA FinOps Party 事例:Sky株式会社様が短期的施策であるクイックウィン最適化により、ワークショップ参加チームにおいて年間 20% のコスト最適化見込み
AWS News Blog
- AWSがアマゾンベッドロックサーバーレスでPixtral Large 25.02モデルを発表
- Amazon Nova Sonic のご紹介:ジェネレーティブ AI アプリケーションのための人間のような音声会話
- Amazon Bedrock Guardrails が新機能によりジェネレーティブ AI アプリケーションの安全性を強化
AWS Architecture Blog
AWS Big Data Blog
AWS Compute Blog
AWS DevOps & Developer Productivity Blog
AWS HPC Blog
AWS Machine Learning Blog
- iFood が Amazon SageMaker 推論を使用して何百もの機械学習モデルを実行するプラットフォームを構築した方法
- Amazon Bedrock を使用してエンタープライズ合成データ戦略を構築
Networking & Content Delivery
Open Source Project
AWS CLI
Amplify for Android
Amplify UI
- @aws-amplify/ui-vue@4.3.1
- @aws-amplify/ui-react-storage@3.10.0
- @aws-amplify/ui-react-notifications@2.2.7
- @aws-amplify/ui-react-native@2.5.1
- @aws-amplify/ui-react-liveness@3.3.7
- @aws-amplify/ui-react-geo@2.2.7
- @aws-amplify/ui-react-core-notifications@2.2.7
- @aws-amplify/ui-react-core@3.4.1
- @aws-amplify/ui-react-ai@1.4.0
- @aws-amplify/ui-react@6.11.0