Amazon SageMaker Unified Studioが IAM ベースドメインのライトモードサポートを追加
Amazon SageMaker Unified StudioがIAMベースのドメインでライトモード対応を追加しました。ユーザーはプロファイル設定の「カスタマイズ外観」から、ダークモードとライトモードを選択できるようになります。この設定はブラウザとデバイス間で保持されます。
AWSのAI関連アップデートをAIが自動収集・日本語要約してお届けします
Amazon SageMaker Unified StudioがIAMベースのドメインでライトモード対応を追加しました。ユーザーはプロファイル設定の「カスタマイズ外観」から、ダークモードとライトモードを選択できるようになります。この設定はブラウザとデバイス間で保持されます。
AWS Elastic Beanstalkは、Amazon Bedrockを活用したAI駆動の環境分析機能を新たに提供開始しました。環境に問題が発生した際、イベント、インスタンスヘルス、ログを自動収集して分析し、根本原因の特定と解決策の推奨を行います。Elastic BeanstalkコンソールまたはAWS CLIから利用でき、環境のヘルスステータスがWarning、Degraded、またはSevereの場合にAI分析をリクエストできます。
Amazon Connect Healthが一般提供開始され、医療機関向けの5つのAIエージェントが利用可能になりました。患者認証、予約管理、患者インサイト、環境音声ドキュメンテーション、医療コーディングなどの機能により、患者サポートと臨床業務の効率化が実現されます。これらのエージェントはAmazon Connectと統合され、数日で導入でき、HIPAA対応のセキュリティ基準を満たしています。
AWS HealthLakeがAIを活用したデータ変換エージェント(プレビュー)を発表し、レガシーな臨床文書(CCDA形式)を数日でFHIR R4互換のリソースに変換できるようになりました。専門知識がなくても、同期変換API、テンプレートのカスタマイズ、スケーラブルなバルクインポートを通じて、臨床データの変換と取り込みが可能です。自然言語でテンプレートを調整し、即座にテストして本番環境に展開できます。
Amazon SageMaker HyperPodが、Restricted Instance Groups(RIG)向けの包括的な可観測性機能を提供開始しました。GPU利用率、NVLink帯域幅、CPU負荷、FSx for Lustre使用状況、Podライフサイクルなどをあらかじめ設定されたAmazon Managed Grafanaダッシュボードから単一ビューで監視できます。ログも自動的に利用可能になり、トレーニングの失敗診断が容易になります。
Amazon LightsailがOpenClawという独立した自ホスト型AIアシスタントのデプロイに対応しました。ビルトインのセキュリティ機能、ワンクリックHTTPSアクセス、デバイスペアリング認証など、設定不要のセキュリティ機能が搭載されています。Amazon Bedrockをデフォルトモデルプロバイダーとして利用でき、SlackやTelegramなどとも連携可能です。
Amazon SageMaker Unified StudioがAtlan、Collibra、Alationとのメタデータ同期機能をサポートしました。これらの統合により、SageMaker CatalogとパートナープラットフォームおよびAIアセットのメタデータが同期され、チームは使用するツールに関わらず一貫したデータビューを保つことができます。特にCollibra統合は双方向同期に対応しており、複数プラットフォーム間でのメタデータ管理が効率化されます。
Amazon SageMaker Unified StudioがAWS Glue 5.1に対応し、Visual ETL、ノートブック、コードベースのデータ処理ジョブで利用可能になりました。Apache Spark 3.5.6、Python 3.11、Scala 2.12.18、およびApache Iceberg 1.10.0、Apache Hudi 1.0.2、Delta Lake 3.3.2などの最新のオープンテーブルフォーマットライブラリが利用できます。ジョブ設定のバージョンドロップダウンからGlue 5.1を選択することで、全てのデータ処理ワークフローで最新のSparkランタイムとオープンテーブルフォーマットライブラリを活用できます。
Amazon SageMaker Unified StudioがKiro IDEからのリモート接続に対応しました。データサイエンティストやMLエンジニアは、ローカルのKiro IDEの機能(仕様駆動開発、会話型コーディング、自動機能生成)を活用しながら、SageMakerのスケーラブルなコンピュートリソースにアクセスできます。AWS Toolkitエクステンション経由でIAM認証により安全に接続でき、ローカル環境とクラウドインフラ間のコンテキスト切り替えを排除できます。
Amazon Bedrock AgentCoreのPolicyが一般提供開始されました。このサービスは、エージェントのツール操作に対して一元化された細粒度の制御を提供し、セキュリティ・コンプライアンス・運用チームがエージェントコードを変更することなくツールアクセスと入力検証ルールを定義できます。ポリシーは自然言語で作成でき、AWSのオープンソースポリシー言語であるCedarに自動変換され、AgentCore Gatewayで評価されます。
AWS ConfigがAmazon BedrockやAmazon Cognitoなどの主要サービスにおける30種類の新しいリソースタイプのサポートを開始しました。すべてのリソースタイプの記録を有効にしている場合、AWS Configはこれらの新しいリソースを自動的に追跡します。新しくサポートされるリソースタイプはConfig rulesとConfig aggregatorsでも利用可能です。
Amazon Bedrockのバッチ推論がConverse APIフォーマットに対応しました。従来はInvokeModel APIで各モデル固有のフォーマットが必要でしたが、今後はリアルタイムとバッチ推論の両方で統一されたConverse APIリクエストフォーマットを使用できます。AWSコンソールおよびAPIを通じて設定可能です。
Amazon BedrockがMantle推論エンジンでOpenAI互換のProjects APIのサポートを開始しました。Projects APIにより、複数のアプリケーション、環境、またはチームを持つ顧客は、個別のプロジェクトを作成して、それぞれの間でより優れた分離を実現できます。各プロジェクトに異なるIAMベースのアクセス制御を割り当てたり、コスト可視化のためにタグを追加したりできます。
Amazon SageMaker HyperPodがAPI駆動のSlurm設定をサポートするようになりました。クラスター作成・更新APIまたはAWSコンソールを通じて、Slurmトポロジーと共有ファイルシステム設定を直接定義できます。新しいSlurmConfigStrategyにより、Managed、Overwrite、Mergeの3つのオプションでパーティション・ノードマッピングのドリフトを管理し、スケール操作時の自動検出が可能になります。
Amazon EC2のM8iおよびM8i-flexインスタンスが、US West (N. California)、Europe (Paris)、Asia Pacific (Hyderabad)、South America (Sao Paulo)の4つの新しいリージョンで利用可能になりました。これらのインスタンスはAWS独自のカスタムIntel Xeon 6プロセッサを搭載し、前世代比で最大20%のパフォーマンス向上と2.5倍のメモリ帯域幅を提供します。PostgreSQL、NGINX、AI推論など特定のワークロードでは30~60%の性能向上が見込まれます。
Amazon EC2のM8iおよびM8i-flexインスタンスがアフリカ(ケープタウン)リージョンで利用可能になりました。これらのインスタンスはカスタムIntel Xeon 6プロセッサを搭載しており、前世代インスタンスと比べて最大20%のパフォーマンス向上と2.5倍のメモリ帯域幅を実現しています。特にPostgreSQL、NGINXウェブアプリケーション、AI深層学習など、様々なワークロードで大幅な性能改善が期待できます。
Amazon Location Serviceは、Kiro power、Claude Code plugin、Agent Skills形式のコンテキストを導入し、LLMが位置情報機能の開発を支援できるようになりました。このキュレーションされたコンテキストには、配送アプリケーションのアドレス入力フォーム、地図表示、最寄店舗検索、ルート可視化などの一般的な位置情報ベースソリューションの実装パターンと手順が含まれています。開発者はこれらのAIツールを使用して、コード精度を向上させ、機能実装を加速させ、繰り返し時間を削減できます。
Amazon Bedrockが、AgentCore Gateway統合を通じたサーバー側ツール実行をResponses APIでサポートするようになりました。顧客はAgentCore GatewayのツールをAmazon Bedrockモデルに接続でき、クライアント側のオーケストレーション없이サーバー側でツール実行が可能になります。Amazon Bedrockが自動的にツール発見、モデル駆動のツール選択、実行、結果挿入を処理するため、アプリケーションの複雑性とレイテンシーが削減されます。
AWS Elemental Inferenceは、ブロードキャスターやストリーマーがライブおよびオンデマンドビデオから自動的に縦型コンテンツとハイライトクリップを生成できるフルマネージドAIサービスです。1回のビデオ処理で、メイン放送と並行してTikTok、Instagram Reels、YouTube Shortsなどのモバイルプラットフォーム向けの縦型コンテンツを同時生成できます。AIの専門知識や専任の制作チームを必要としないため、コンテンツ制作を効率化できます。
Amazon RDS Snapshot Export to S3機能がAWS GovCloud (US)リージョンで利用可能になりました。この機能により、RDSのスナップショットデータをApache Parquet形式でS3にエクスポートでき、分析、データ保持、機械学習ユースケースに活用できます。エクスポートはスナップショットから直接実行されるため、データベースパフォーマンスへの影響はありません。
Amazon EC2のC8iおよびC8i-flexインスタンスが、アジア太平洋(マレーシア)および南米(サンパウロ)リージョンで利用可能になりました。これらのインスタンスはカスタムIntel Xeon 6プロセッサを搭載し、前世代と比べて最大20%のパフォーマンス向上と最大15%の価格性能比の改善を実現しています。C8i-flexは汎用的なコンピュート集約型ワークロード向け、C8iはメモリ集約型ワークロードや大規模インスタンスサイズが必要なアプリケーション向けです。
AWS WAFが新しいAIアクティビティダッシュボードを発表し、AIボットおよびエージェントトラフィックの一元的な可視化を提供します。Bot Controlの検出カバレッジが650以上のユニークなボットとエージェントに拡大され、業界で最も包括的なAIボット検出カタログの1つとなります。ダッシュボードはAIトラフィックの傾向分析、アクティブなボットの特定、カテゴリ別のリクエストボリューム分析が可能で、Bot Controlルールで直接アクション実行できます。
AWSはAmazon Q Developerの生成AI機能「Amazon Q artifacts」の一般提供を開始しました。このビジュアライゼーション機能により、ユーザーはAWSリソースのデータをテーブル形式で、コストデータをチャート形式で可視化できます。Amazon Qのアイコンはナビゲーションバーに移動し、チャットパネルは左側に配置されて、AWS Management Consoleからのアクセスが改善されました。
AWSは、Automated Reasoning policiesにソースドキュメント参照機能を追加しました。これにより、ユーザーは生成されたポリシールールと変数を元のドキュメントの内容と照らし合わせて確認できるようになります。この機能は、6つのAWSリージョンで利用可能になり、Amazon BedrockコンソールおよびPython SDKでアクセスできます。
AWS IAM Identity Center がアジア太平洋(ニュージーランド)リージョンを含む38のAWSリージョンで利用可能になりました。IAM Identity Center は、既存の従業員ID管理システムをAWSに接続し、複数のAWSアカウントやアプリケーションへのシングルサインオンを実現します。このサービスは追加費用なしで利用できます。
Amazon EC2 G7e インスタンスがアジアパシフィック(東京)リージョンで利用可能になりました。G7e インスタンスは NVIDIA RTX PRO 6000 Blackwell Server Edition GPU により G6e と比べて最大 2.3 倍の推論性能を実現します。大規模言語モデル(LLM)、AI モデル、生成 AI モデル、空間コンピューティングなど、GPU を活用したワークロードに最適です。
Amazon MQがActiveMQ マイナーバージョン5.19をサポートしました。このバージョンは前のバージョンと比べて複数の改善と修正が導入されています。Amazon MQはブローカーのパッチバージョンアップグレードを自動的に管理し、スケジュール保守ウィンドウで実行します。
Amazon EC2 M7iインスタンスがアフリカ(ケープタウン)リージョンで利用可能になりました。カスタム4th世代Intel Xeon Scalable プロセッサ(Sapphire Rapids)を搭載し、他のクラウドプロバイダーの同等のx86プロセッサと比べて最大15%のパフォーマンス向上を実現します。M7iはM6iと比べて最大15%の優れた価格性能を提供し、ゲームサーバー、CPU ベースの機械学習、動画ストリーミングなどのワークロードに最適です。
Amazon EC2のM8i-flexインスタンスが、アジア太平洋地域(マレーシア、ソウル、シンガポール、東京)、ヨーロッパ(フランクフルト)、カナダ(中央)の追加リージョンで利用可能になりました。カスタムIntel Xeon 6プロセッサを搭載し、前世代のIntel系インスタンスと比較して最大20%のパフォーマンス向上と2.5倍のメモリ帯域幅を提供します。PostgreSQL、NGINX、AI推奨モデルなどの特定ワークロードではさらに高い性能向上を実現しています。