Last updated: 2026/04/15 19:00
A Blog post by H company on Hugging Face
The conversation about AI and coding work is full of highs. These models are incredible! I’m so productive. I’m not blocked by a lack of knowledge in certain areas like I used to get. I’m making projects I never would have gotten around to making. I’m having fun with code for the first time in […]

Smaller specialized models can match or beat frontier generalists on the tasks they're trained for. Working with Applied Compute, we RL-trained SWE-check, a bug detection model that matches Opus 4.6 on our internal evals while running ~10x faster.

In this post, we introduce the Generative AI Path-to-Value (P2V) framework, a structured approach to help you move generative AI initiatives from concept to production and sustained value creation.

We're excited to announce the launch of Amazon SageMaker JumpStart optimized deployments. SageMaker JumpStart improved deployments address the need for rich and straightforward deployment customization on SageMaker JumpStart by offering pre-defined deployment configurations, designed for specific use cases. Customers maintain the same level of visibility into the details of their proposed deployments, but now deployments are optimized for their specific use case and performance constraint.

This post explores how Amazon SageMaker HyperPod provides a comprehensive solution for inference workloads. We walk you through the platform’s key capabilities for dynamic scaling, simplified deployment, and intelligent resource management. By the end of this post, you’ll understand how to use the HyperPod automated infrastructure, cost optimization features, and performance enhancements to reduce your total cost of ownership by up to 40% while accelerating your generative AI deployments from concept to production.

In this post, we walk through how Guidesly built Jack AI on AWS using AWS Lambda, AWS Step Functions, Amazon Simple Storage Service (Amazon S3), Amazon Relational Database Service (Amazon RDS), Amazon SageMaker AI, and Amazon Bedrock to ingest trip media, enrich it with context, apply computer vision and generative AI, and publish marketing-ready content across multiple channels—securely, reliably, and at scale.
Skills in Chrome let you discover, save and remix AI workflows — and repeat them instantly.

With the new Spring AI AgentCore SDK, you can build production-ready AI agents and run them on the highly scalable AgentCore Runtime. The Spring AI AgentCore SDK is an open source library that brings Amazon Bedrock AgentCore capabilities into Spring AI. In this post, we build an AI agent starting with a chat endpoint, then adding streaming responses, conversation memory, and tools for web browsing and code execution.

Google is bringing people together in Washington D.C. at our AI for the Economy Forum.

OpenAI expands its Trusted Access for Cyber program, introducing GPT-5.4-Cyber to vetted defenders and strengthening safeguards as AI cybersecurity capabilities advance.

本研究は、生成AIを活用して「未来に備えた」スキルを評価する新しいアプローチを示しています。ニューヨーク大学との共同研究により、AIによる評価が人間の専門家と同等であることが確認されました。この研究実験「Vantage」は、Google Labsで利用可能です。AIの進化に伴い、批判的思考や協力、創造的思考などの持続可能な人間の能力がますます重要視されています。Vantageは、高校生や大学生がシミュレーション環境でスキルを練習し、評価を受けるためのサンドボックスを提供します。AIアバターとの動的な会話を通じて、学生は実世界に近いシナリオでスキルを示す機会を得ます。 • 生成AIを用いた未来に備えたスキルの評価方法を提案 • AI評価が人間の専門家と同等であることを確認 • Vantageは高校生や大学生向けのシミュレーション環境を提供 • AIアバターとの会話を通じてスキルを評価 • 動的な会話環境での実世界に近いシナリオを再現 • 評価基準に基づいてAIが会話を導く • 教育者が授業をスキルに合わせて調整できるよう支援

This post demonstrates how Lambda enables scalable, cost-effective reward functions for Amazon Nova customization. You'll learn to choose between Reinforcement Learning via Verifiable Rewards (RLVR) for objectively verifiable tasks and Reinforcement Learning via AI Feedback (RLAIF) for subjective evaluation, design multi-dimensional reward systems that help you prevent reward hacking, optimize Lambda functions for training scale, and monitor reward distributions with Amazon CloudWatch. Working code examples and deployment guidance are included to help you start experimenting.
Gemini Robotics ER 1.6 upgrades spatial reasoning and multi-view understanding, unlocking new capabilities like instrument reading for autonomous robots.

AI-powered tools are being used to bring greater efficiency and security to healthcare around the world and increase access to medicines and care.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース

Agent harnesses are becoming the dominant way to build agents, and they are not going anywhere. These harnesses are intimately tied to agent memory. If you used a closed harness - especially if it’s behind a proprietary API - you are choosing to yield control of your agent’s
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • コーディングの効率向上、エラー削減、開発時間短縮が期待される

Learn how to analyze data with ChatGPT by exploring datasets, generating insights, creating visualizations, and turning findings into actionable decisions.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。特に、AIを用いたコード生成やデバッグ支援の機能が強調されており、開発者が効率的に作業を進めるための具体的な手法が紹介されています。また、これらのツールがどのようにして開発プロセスを改善し、エラーを減少させるかについても触れています。さらに、実装方法や必要な環境についての詳細も提供されており、実際のプロジェクトにどのように適用できるかが示されています。 • AI技術を活用した新しい開発ツールの紹介 • コード生成やデバッグ支援の機能が強調されている • 開発プロセスの改善とエラーの減少に寄与する • 具体的な実装方法や必要な環境についての詳細が提供されている • 実際のプロジェクトへの適用方法が示されている

Learn how to use ChatGPT for writing to draft, revise, and refine content with clear structure, tone, and intent.

Learn how to use ChatGPT for research to gather sources, analyze information, and create structured, citation-backed insights.
この記事では、ChatGPTを安全かつ効果的に使用するためのベストプラクティスが紹介されています。AIは知識労働を変革する技術であり、ChatGPTは大量のデータを基に人間のような言語を生成しますが、誤った情報を生成する可能性があるため、注意が必要です。使用者は、職場のポリシーを尊重し、重要な作業には必ず人間を関与させるべきです。また、バイアスや視点に注意し、法的、医療的、財務的なアドバイスは専門家に確認することが推奨されています。AIの使用を透明にし、他者のデータを共有する際には同意を得ることが重要です。フィードバックを提供し、最新の情報を得るために検索機能を活用することも奨励されています。 • AIの安全で効果的な使用に関するベストプラクティスを提供 • 職場のポリシーを尊重し、重要な作業には人間を関与させるべき • ChatGPTは誤った情報を生成する可能性があるため、信頼できる情報源で確認する必要がある • バイアスや視点に注意し、出力を批判的に評価することが重要 • 法的、医療的、財務的なアドバイスは専門家に確認することが推奨される • AIの使用を透明にし、他者のデータを共有する際には同意を得ることが重要 • フィードバックを提供し、最新の情報を得るために検索機能を活用することが奨励されている
この記事では、ChatGPTを効果的に活用するためのプロンプト設計の基本について説明しています。プロンプトエンジニアリングは、ChatGPTに最適な回答を得るために入力を設計・洗練するプロセスです。良いプロンプトを書くための簡単なステップとして、タスクの概要を明確にし、役立つコンテキストを提供し、理想的な出力を説明することが挙げられています。また、複雑なタスクは小さなステップに分けることや、具体的でシンプルな要求を心がけることが推奨されています。さらに、選択肢を求めたり、優先事項を設定することも重要です。 • プロンプトエンジニアリングは、ChatGPTに最適な回答を得るための入力設計プロセスである。 • 良いプロンプトを書くためには、タスクの概要、役立つコンテキスト、理想的な出力を明確にすることが重要。 • 複雑なタスクは小さなステップに分けることで、明確で焦点を絞った回答を得やすくなる。 • 具体的でシンプルな要求を心がけることで、より良い応答が得られる。 • 選択肢を求めたり、優先事項を設定することで、ChatGPTの応答をカスタマイズできる。
この記事では、特定のタスクやワークフローに合わせたカスタムGPTの構築方法について説明しています。カスタムGPTは、ユーザーの指示に従い、チームのコンテキストを活用して、一貫した出力を生成することができます。これにより、繰り返し行う作業を効率化し、再説明やコピー&ペーストの手間を減らすことが可能です。カスタムGPTは、特定のニーズに基づいて設計され、ファイルのアップロードやツールの有効化が可能です。記事では、カスタムGPTの具体的な使用例や、作成手順についても詳しく説明されています。特に、定期的に行う作業や、同じプロンプトを繰り返し使用する場合に有効です。 • カスタムGPTは特定のタスクやワークフローに特化したChatGPTのバージョンである。 • カスタムGPTは、ユーザーの指示に従い、チームのコンテキストを活用して一貫した出力を生成する。 • 繰り返し行う作業を効率化し、再説明やコピー&ペーストの手間を減らすことができる。 • カスタムGPTの作成には、明確な目的を設定し、必要なフィールドを埋めることが重要である。 • 具体的な使用例として、FAQボットやライティングアシスタント、データ分析アシスタントなどが挙げられる。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • コーディングの効率向上、エラー削減、開発時間短縮が期待される
この記事では、ChatGPTがオペレーションチームにどのように役立つかについて説明しています。オペレーションチームは情報と実行の交差点に位置し、ChatGPTは常時稼働するチーフオブスタッフのように機能します。散発的な情報を整理し、意思決定に必要な要約を提供することで、チームの作業を効率化します。具体的には、散らばった情報を明確な次のステップに変換し、ステータス更新を明確にすることで、同じ質問が繰り返されるのを防ぎます。また、定期的な業務を一貫性のあるものに保つために、標準化されたフォーマットを提供します。主な使用ケースには、運営のリズムと報告、プロセスと引き継ぎ、インシデント管理、ベンダーおよびパートナー業務、キャパシティと計画、メトリクスとデータの整合性が含まれます。オペレーションチームは、明確な運営コンテキストを提供することで、ChatGPTから最大の価値を引き出すことができます。 • オペレーションチームの情報と実行の交差点での役割を強化する。 • 散発的な情報を整理し、意思決定に必要な要約を提供する。 • ステータス更新を明確にし、同じ質問の繰り返しを防ぐ。 • 定期的な業務を標準化し、一貫性を持たせる。 • 主な使用ケースには運営のリズム、プロセス管理、インシデント管理、ベンダー業務、キャパシティ計画が含まれる。

Learn how to personalize ChatGPT using custom instructions and memory to get more relevant, consistent, and tailored responses.

Learn how customer success teams use ChatGPT to manage accounts, improve communication, reduce churn, and drive adoption and renewals.

Learn how to create and use ChatGPT skills to build reusable workflows, automate recurring tasks, and ensure consistent, high-quality outputs.

Learn how managers use ChatGPT to prepare for conversations, write clear feedback, stay organized, and improve team effectiveness.
ChatGPTでは、ファイルを直接アップロードして会話の中で分析、編集、生成が可能です。ユーザーは、ツールメニューから「写真やファイルを追加」を選択し、CSV、XLSX、PDF、DOCX、JPEG、PNG、TXTなどの形式のファイルをアップロードできます。アップロード後、レポートの要約やリスクの指摘、データの視覚化、文書の書き直し、PDFからのデータ抽出などのタスクを依頼できます。また、特定のビュー(テーブルやチャート)をリクエストしたり、ChatGPTが生成した出力をダウンロードすることも可能です。さらに、一部のChatGPTバージョンでは、外部ツールに接続するアプリを使用でき、会話に外部のコンテキストを持ち込むことができます。エンタープライズワークスペースでは、管理者が利用可能なアプリを制御します。アプリを通じてアクセスされたデータは、デフォルトではOpenAIモデルのトレーニングには使用されません。 • ChatGPTでファイルをアップロードし、分析や編集ができる機能がある。 • サポートされているファイル形式にはCSV、XLSX、PDF、DOCX、JPEG、PNG、TXTが含まれる。 • ユーザーはファイルをアップロード後、要約やデータの視覚化、文書の書き直しなどのタスクを依頼できる。 • 特定のビューをリクエストしたり、生成された出力をダウンロードすることが可能。 • 一部のバージョンでは外部ツールに接続するアプリを使用でき、外部のコンテキストを会話に持ち込むことができる。 • エンタープライズワークスペースでは、管理者が利用可能なアプリを制御し、データはデフォルトでモデルのトレーニングには使用されない。
この記事では、医療現場におけるAIの活用方法について説明しています。特に、ChatGPT for Healthcareが医療従事者向けに設計された安全な作業空間であり、HIPAAに準拠した使用が可能であることが強調されています。このツールは、臨床文書の作成、事前承認の準備、患者情報の要約など、医療従事者の業務を支援し、管理業務の負担を軽減し、患者ケアに集中できるようにします。具体的な使用例として、診断テストの選択、鑑別診断の作成、治療計画の策定に関するプロンプトが示されており、これにより医療従事者が日常業務を効率化できることが示されています。 • AIが医療現場での業務を支援する具体的な方法を示している • ChatGPT for HealthcareはHIPAA準拠の安全な作業空間である • 臨床文書作成や患者情報の要約などのタスクを支援する • 診断テストの選択や鑑別診断の作成に役立つプロンプトが提供されている • 医療従事者が業務を効率化し、患者ケアに集中できるようにする効果がある
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した情報に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • コーディング効率の向上が期待される • エラー削減や開発時間短縮のメリット

Learn how to use ChatGPT, start your first conversation, and discover simple ways to write, brainstorm, and solve problems with AI.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語で機能を入力することでコードを生成 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減が期待される • 多くのプログラミング言語に対応している
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行うことができ、開発効率を大幅に向上させることが期待されています。さらに、ツールは多くのプログラミング言語に対応しており、さまざまな開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 多言語対応でさまざまな開発環境で利用可能 • 開発効率の向上が期待される

Learn how to create and refine images with ChatGPT using clear prompts, iterate on designs, and generate high-quality visuals in minutes.

Learn how sales teams use ChatGPT to research accounts, personalize outreach, manage deals, and improve pipeline and conversion.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での入力に基づくコードの自動生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応している

Today we're launching Cognition Japan, our first expansion into Asia, to partner with Japanese enterprises ready to transform how software gets built.
This post shows you how to manage FM transitions in Amazon Bedrock, so you can make sure your AI applications remain operational as models evolve. We discuss the three lifecycle states, how to plan migrations with the new extended access feature, and practical strategies to transition your applications to newer models without disruption.

Today, we're announcing AWS Agent Registry (preview) in AgentCore, a single place to discover, share, and reuse AI agents, tools, and agent skills across your enterprise.

This post walks you through three steps: starting a session and generating the Live View URL, rendering the stream in your React application, and wiring up an AI agent that drives the browser while your users watch. At the end, you will have a working sample application you can clone and run.
This year, we're doing it again. Interrupt 2026 is May 13–14 at The Midway in San Francisco, and the lineup, the format, and the scale have all leveled up.

Today we’re launching Deep Agents deploy in beta. Deep Agents deploy is the fastest way to deploy a model agnostic, open source agent harness in a production ready way. Deep Agents deploy is built for an open world. It’s built on Deep Agents - an open source, model

AI agents work best when they reflect the knowledge and judgment your team has built over time. Some of that is institutional knowledge that’s already documented and easy for an agent to use as-is. But most great organizations also rely on tacit knowledge that lives inside their employees’ minds.

In this post, you will learn how to build stateful MCP servers that request user input during execution, invoke LLM sampling for dynamic content generation, and stream progress updates for long-running tasks. You will see code examples for each capability and deploy a working stateful MCP server to Amazon Bedrock AgentCore Runtime.

ConvApparelは、LLM(大規模言語モデル)ベースのユーザーシミュレーターにおける「リアリズムギャップ」を定量化し、堅牢な会話エージェントのトレーニングを改善するために設計された新しい人間-AI会話データセットと評価フレームワークです。現代の会話AIエージェントは複雑なタスクを処理できますが、長時間の対話では制約を忘れたり、無関係な応答を生成したりすることが多いです。これを改善するためには、継続的なトレーニングとフィードバックが必要ですが、実際の人間テストに依存するのは高コストで時間がかかります。そこで、AI研究コミュニティはユーザーシミュレーターに注目していますが、現代のLLMベースのシミュレーターは依然としてリアリズムギャップに悩まされています。ConvApparelは、ユーザーシミュレーションの隠れた欠陥を明らかにし、信頼できるAIベースのテスターを構築するための道を提供します。データ収集プロトコルでは、参加者が「良い」エージェントまたは「悪い」エージェントにランダムにルーティングされ、人口統計統計、ヒューマンライクスコアリング、反事実検証を含む三本柱の検証戦略を用いています。これにより、単なる表面的な模倣を超えた人間行動の全範囲を捉えることができます。 • ConvApparelはLLMベースのユーザーシミュレーターのリアリズムギャップを定量化するための新しいデータセットと評価フレームワークを提供する。 • 現代の会話AIエージェントは長時間の対話で制約を忘れたり、無関係な応答を生成することが多い。 • ユーザーシミュレーターは、実際の人間テストに代わるスケーラブルな解決策として注目されている。 • ConvApparelは、良いエージェントと悪いエージェントの二重エージェントデータ収集プロトコルを使用している。 • 三本柱の検証戦略により、単なる表面的な模倣を超えた人間行動を捉えることができる。 • シミュレーターは新しい状況に対しても適切に反応する必要がある。 • 反事実検証の概念を導入し、シミュレーターが新しいエージェントにどのように適応するかを評価する。
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Studio, Server, and Memory Gateway. Everything you need to run your agents at scale.

Mastra raises a $22M Series A led by Spark Capital, bringing total funding to $35M. Plus: the Mastra platform launches today.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • 使用するほどに精度が向上するAIの学習能力
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が入力した要件に基づいて、AIが最適なコードを提案し、開発の効率を向上させることを目的としています。また、ツールの導入により、開発時間の短縮やエラーの減少が期待されると述べられています。さらに、実装方法や使用する際の注意点についても詳しく解説されています。 • AI技術を活用した新しい開発ツールの紹介 • 生成AIを利用したコードの自動生成や修正機能 • 開発者の要件に基づく最適なコード提案 • 開発効率の向上とエラーの減少が期待される • 実装方法や使用時の注意点についての解説
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での入力に基づくコードの自動生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応している

この記事では、学術研究のワークフローを改善するために、2つのAIエージェントを紹介しています。PaperVizAgentは、学術的な図を描くためのビジュアライザーエージェントであり、ScholarPeerは、学術論文を自動的かつ厳密に評価するレビュアーエージェントです。研究者は、PaperVizAgentを使用して、研究の方法論や統計的プロットを含む出版準備が整った図を生成できます。ScholarPeerは、文献に基づいた批評を提供し、従来の自動レビュアーよりも優れた評価を行います。これらのエージェントは、研究者が革新に集中できるように設計されており、学術研究のライフサイクルを支援します。 • 学術研究のワークフローを改善するためのAIエージェントの導入 • PaperVizAgentは、学術的な図を自動生成するビジュアライザーエージェント • ScholarPeerは、論文を自動的に評価するレビュアーエージェント • PaperVizAgentは、研究の方法セクションと図のキャプションを基に図を生成 • ScholarPeerは、文献に基づいた批評を提供し、従来の自動レビュアーよりも優れた評価を行う • これらのエージェントは、研究者が革新に集中できるように設計されている

In this post, we'll walk you through a complete implementation of model fine-tuning in Amazon Bedrock using Amazon Nova models, demonstrating each step through an intent classifier example that achieves superior performance on a domain specific task. Throughout this guide, you'll learn to prepare high-quality training data that drives meaningful model improvements, configure hyperparameters to optimize learning without overfitting, and deploy your fine-tuned model for improved accuracy and reduced latency. We'll show you how to evaluate your results using training metrics and loss curves.

In healthcare and life sciences, AI agents help organizations process clinical data, submit regulatory filings, automate medical coding, and accelerate drug development and commercialization. However, the sensitive nature of healthcare data and regulatory requirements like Good Practice (GxP) compliance require human oversight at key decision points. This is where human-in-the-loop (HITL) constructs become essential. In this post, you will learn four practical approaches to implementing human-in-the-loop constructs using AWS services.

This post walks you through understanding audio embeddings, implementing Amazon Nova Multimodal Embeddings, and building a practical search system for your audio content. You'll learn how embeddings represent audio as vectors, explore the technical capabilities of Amazon Nova, and see hands-on code examples for indexing and querying your audio libraries. By the end, you'll have the knowledge to deploy production-ready audio search capabilities.

In this post, we explore where RFT is most effective, using the GSM8K mathematical reasoning dataset as a concrete example. We then walk through best practices for dataset preparation and reward function design, show how to monitor training progress using Amazon Bedrock metrics, and conclude with practical hyperparameter tuning guidelines informed by experiments across multiple models and use cases.

By Vivek Trivedy, Product Manager @ LangChain 💡TL;DR: We can build better agents by building better harnesses. But to autonomously build a “better” harness, we need a strong learning signal to “hill-climb” on. We share how we use evals as that signal, plus design decisions that help our agent generalize
この記事では、画像や動画生成のための拡散モデルの効率的な実行を実現するために、MXFP8およびNVFP4というマイクロスケーリングフォーマットを使用した手法について説明しています。これらのフォーマットは、NVIDIAのBlackwellアーキテクチャにネイティブにサポートされており、メモリと計算リソースの要求を軽減します。具体的には、MXFP8は8ビットのフォーマットで、BF16よりも高速な推論を提供し、NVFP4は4ビットの浮動小数点フォーマットで、特に高バッチの計算負荷の高いワークロードに最適です。記事では、これらのフォーマットを使用した場合の推論速度の向上を示し、CUDAグラフやLPIPSを用いた精度とパフォーマンスの最適化についても触れています。 • MXFP8とNVFP4は、NVIDIAのBlackwellアーキテクチャに対応したマイクロスケーリングフォーマットである。 • MXFP8は8ビットフォーマットで、BF16よりも高速な推論を実現し、視覚品質の損失がほとんどない。 • NVFP4は4ビットフォーマットで、メモリフットプリントがBF16の約3.5倍小さく、高バッチの計算負荷に適している。 • CUDAグラフやLPIPSを用いて、モデルの精度とパフォーマンスを最適化する手法が紹介されている。 • 実験の再現に必要なコードが提供されている。

Find out how you can get more ROI from AI, manage AI costs effectively, and turn AI adoption into lasting business value.

A Blog post by IBM Research on Hugging Face
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自動補完機能やエラーチェック機能が強化されています。また、ユーザーインターフェースが直感的で使いやすく、初心者でも簡単に扱えるように設計されています。さらに、既存の開発環境との互換性が高く、導入が容易であることも特徴です。これにより、開発の効率が向上し、エラーの発生を減少させることが期待されています。 • AI技術を活用した新しい開発ツールの紹介 • 自動補完機能やエラーチェック機能が強化されている • 直感的で使いやすいユーザーインターフェース • 初心者でも簡単に扱える設計 • 既存の開発環境との高い互換性 • 導入が容易で開発効率が向上することが期待される
Monarchは、PyTorch用の分散プログラミングフレームワークで、巨大なクラスター上での分散トレーニングジョブを簡単に実行できるように設計されています。これにより、スーパコンピュータを直接制御可能なシステムとして扱うことができ、ローカル開発の体験を大規模トレーニングに持ち込むことができます。Monarchは、エージェントが開発タスクを効率的に実行できるように、RDMAを利用したリモートファイルシステムや分散SQLテレメトリを提供します。また、KubernetesやSLURMとの統合が可能で、リソースを一度プロビジョニングすれば、必要なだけのジョブを実行できます。Monarchは、エージェント駆動のトレーニング開発を強化し、デバッグや依存関係の同期を迅速に行えるようにします。 • Monarchは分散トレーニングジョブを簡単に実行できるフレームワークである。 • スーパコンピュータを直接制御可能なシステムとして扱うことができる。 • RDMAを利用したリモートファイルシステムにより、コードや依存関係を迅速に同期できる。 • 分散SQLテレメトリを使用して、ライブ状態情報を収集し、デバッグを容易にする。 • KubernetesやSLURMとの統合が可能で、リソースを一度プロビジョニングすれば、複数のジョブを実行できる。
この記事では、深層学習における正規化手法であるLayerNormとRMSNormのtorch.compileによるパフォーマンス向上について評価しています。NVIDIA H100およびB200でのカーネルごとの性能を向上させ、ほぼ最先端のパフォーマンスを達成することを目指しています。LayerNormは平均と分散を用いて入力を正規化し、RMSNormは平方和を用いて正規化します。Quackというライブラリを基準にtorch.compileの性能を評価し、torch.compileがQuackの約50%の性能であることを確認しました。最終的に、オートチューニングを行い、Inductorのデフォルトを改善することで、H100およびB200での最先端性能を達成しました。 • LayerNormとRMSNormは深層学習における重要な正規化手法である。 • torch.compileの性能をNVIDIA H100およびB200で評価し、最先端のパフォーマンスを目指した。 • Quackライブラリを基準にtorch.compileの性能を比較した結果、torch.compileはQuackの約50%の性能であった。 • オートチューニングを行い、Inductorのデフォルト設定を改善することで、性能を向上させた。 • 特に、内側の削減RBLOCKをスケールアップし、持続的な削減のXBLOCKを調整した。

Discover OpenAI’s Child Safety Blueprint—a roadmap for building AI responsibly with safeguards, age-appropriate design, and collaboration to protect and empower young people online.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Edit agent instructions, tools, and display conditions from Studio with draft/publish versioning, or programmatically through the editor API.

With Amazon Bedrock Projects, you can attribute inference costs to specific workloads and analyze them in AWS Cost Explorer and AWS Data Exports. In this post, you will learn how to set up Projects end-to-end, from designing a tagging strategy to analyzing costs.

We're releasing SWE-1.6, our latest model optimized for both intelligence and model UX.

TL;DR: We’ve released new minor versions of deepagents & deepagentsjs, featuring async (non-blocking) subagents, expanded multi-modal filesystem support, and more. See the changelog for details. Async subagents Deep Agents can now delegate work to remote agents that run in the background. As opposed to the existing inline subagents, which

This post walks through building an automated podcast generator that creates engaging conversations between two AI hosts on any topic, demonstrating the streaming capabilities of Nova Sonic, stage-aware content filtering, and real-time audio generation.

In this post, we show you how to build a natural text-to-SQL solution using Amazon Bedrock that transforms business questions into database queries and returns actionable answers.

Arcade is the MCP runtime for production agents, delivering secure agent authorization, reliable tools, and governance. This integration gives your agents access to Arcade’s collection of 7,500+ agent-optimized tools through a single secure gateway.

This article was written by Andrew Green, technical writer and industry analyst. We pay Andrew, but he refuses to write anything else but his own opinion. The big boys entered the market, OpenClaw appropriated the MCP security strategy, and everyone started vibe coding but only if they already knew how
Apollo Skills cut AI agent token usage and completion time down significantly — same result, far less cost. Here's what the experiment revealed.
この記事では、TorchInductorに新たに統合されたCuteDSLバックエンドについて説明しています。TorchInductorは、行列乗算のためにTriton、CUTLASS(C++)、cuBLASの3つの自動調整バックエンドをサポートしており、CuteDSLはその4番目のバックエンドとして追加されました。CuteDSLは、NVIDIAが開発を進めており、最適化されたカーネルテンプレートを提供することで、TorchInductorのメンテナンス負担を軽減します。さらに、CuteDSLはPythonで書かれており、コンパイル時間が短く、CUTLASS C++よりも維持管理が容易です。GEMM(行列の積)操作は、トランスフォーマーモデルの計算プロファイルの大部分を占めており、これらの操作の最適化が重要です。CuteDSLは、最新のNVIDIAハードウェアでの最適なGEMMパフォーマンスを提供するために適したバックエンドとされています。 • TorchInductorにCuteDSLを新たに統合したこと • CuteDSLはNVIDIAが開発しており、最適化されたカーネルテンプレートを提供 • メンテナンス負担が軽減され、コンパイル時間が短縮される • CuteDSLはPythonで書かれており、CUTLASS C++よりも維持管理が容易 • GEMM操作はトランスフォーマーモデルの計算プロファイルの大部分を占める • CuteDSLは最新のNVIDIAハードウェアでの最適なGEMMパフォーマンスを提供するために適している

Monitor AI agents with dashboards for aggregate health and traces to debug individual runs, using OpenTelemetry gen_ai spans, with real code examples.

In this post, we walk through building a custom HR onboarding agent with Quick. We show how to configure an agent that understands your organization’s processes, connects to your HR systems, and automates common tasks, such as answering new-hire questions and tracking document completion.

In this post, we walk through how we fine-tuned Qwen 2.5 7B Instruct for tool calling using RLVR. We cover dataset preparation across three distinct agent behaviors, reward function design with tiered scoring, training configuration and results interpretation, evaluation on held-out data with unseen tools, and deployment.

In this post, we show how to implement a generative AI agentic assistant that uses both semantic and text-based search using Amazon Bedrock, Amazon Bedrock AgentCore, Strands Agents and Amazon OpenSearch.

This blog post demonstrates how Windward helps enhance and accelerate alert investigation processes by combining geospatial intelligence with generative AI, enabling analysts to focus on decision-making rather than data collection.

Amazon Bedrock AgentCore Gateway provides a centralized layer for managing how AI agents connect to tools and MCP servers across your organization. In this post, we walk through how to configure AgentCore Gateway to connect to an OAuth-protected MCP server using the Authorization Code flow.

Build a production-ready RAG system architecture. Understand core components, how to implement, challenges, and best practices.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案やエラーチェックを行い、開発者の生産性を向上させることを目的としています。また、ツールの導入方法や設定手順についても詳しく解説されており、特に初心者にとっても使いやすい設計がされています。さらに、AIの学習データとして多様なプログラミング言語が使用されており、幅広い開発環境に対応可能です。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでのコード提案やエラーチェック機能 • 開発者の生産性向上を目的とした設計 • 初心者にも使いやすい導入方法と設定手順 • 多様なプログラミング言語に対応した学習データの使用
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いたコード生成機能が特徴です。具体的には、開発者が自然言語で指示を出すと、それに基づいてコードを自動生成することが可能です。また、ツールは既存のコードベースとの互換性があり、簡単に導入できる点も強調されています。さらに、AIによるコードレビュー機能も搭載されており、品質向上に寄与することが期待されています。 • AIを活用したコード生成ツールの紹介 • 自然言語での指示に基づくコード自動生成機能 • 既存のコードベースとの互換性がある • 簡単に導入できる設計 • AIによるコードレビュー機能の搭載

Most discussions of continual learning in AI focus on one thing: updating model weights. But for AI agents, learning can happen at three distinct layers: the model, the harness, and the context. Understanding the difference changes how you think about building systems that improve over time. The three main layers

本記事では、LLM(大規模言語モデル)の行動傾向の評価と整合性についての体系的な評価フレームワークを紹介しています。このフレームワークは、モデルの行動傾向を人間の社会的傾向と比較し、モデルの出力と人間の合意との間の整合性や逸脱を定量化することを目的としています。具体的には、共感や自己主張などの特性を評価するための標準化された心理学的質問票を用いて、LLMの行動傾向を評価します。研究では、プロフェッショナルな落ち着きや対立解決、日常的な意思決定など、現実的なユーザーアシスタントシナリオにおけるLLMの行動を分析しました。25のLLMを対象にした大規模な分析の結果、モデルの傾向が人間の合意から逸脱している場合や、合意がない場合に人間の意見の範囲を捉えられていない場合があることが明らかになりました。今後の研究では、これらの結果を基に、モデルの行動の整合性を向上させる機会が期待されています。 • LLMの行動傾向を評価するための体系的なフレームワークを導入 • モデルの出力と人間の合意との整合性を定量化 • 心理学的質問票を用いてLLMの行動傾向を評価 • 現実的なユーザーアシスタントシナリオでのモデルの行動を分析 • 25のLLMを対象にした大規模な分析で2種類のギャップを特定 • モデルの行動が人間の合意から逸脱する場合がある • 今後の研究でモデルの行動の整合性を向上させる機会が期待される

💡TL;DR: Open models like GLM-5 and MiniMax M2.7 now match closed frontier models on core agent tasks — file operations, tool use, and instruction following — at a fraction of the cost and latency. Here's what our evals show and how to start using them in Deep Agents. Over the

In this post, we explore how ActorSimulator in Strands Evaluations SDK addresses the challenge with structured user simulation that integrates into your evaluation pipeline.

Gemma 4: our most intelligent open models to date, purpose-built for advanced reasoning and agentic workflows.

Google is introducing two new inference tiers to the Gemini API, Flex and Priority, to balance cost and latency.

This post describes how TGS achieved near-linear scaling for distributed training and expanded context windows for their Vision Transformer-based SFM using Amazon SageMaker HyperPod. This joint solution cut training time from 6 months to just 5 days while enabling analysis of seismic volumes larger than previously possible.

In this post, we show you how to configure AWS Network Firewall to restrict AgentCore resources to an allowlist of approved internet domains. This post focuses on domain-level filtering using SNI inspection — the first layer of a defense-in-depth approach.

Through a strategic partnership with the AWS Generative AI Innovation Center (GenAIIC), Rocket Close developed an intelligent document processing solution that has significantly reduced processing time, making the process 15 times faster. The solution, which uses Amazon Textract for OCR processing and Amazon Bedrock for foundation models (FMs), achieves a strong 90% overall accuracy in document segmentation, classification, and field extraction.

In this post, we go through how to use managed session storage to persist your agent's filesystem state and how to execute shell commands directly in your agent's environment.

Using AI for every workflow step isn't just unnecessary — it's slower, costlier, and less reliable when rule-based logic fits. This post covers practical patterns for combining deterministic and AI steps in n8n, with downloadable templates and hands-on exercises for each.

A foundation for anyone new to n8n, covering the platform concepts you'll see throughout the Production AI Playbook series.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ユーザーインターフェースは直感的で使いやすく、開発者が迅速に作業を進められるように設計されています。さらに、このツールは既存の開発環境に簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者の意図を理解し、適切なコードスニペットを提案 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境に簡単に統合可能
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • コーディング効率の向上が期待される • エラー削減や開発時間短縮のメリット
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
It feels like spring has sprung here, and so has a new NVIDIA integration, ticket sales for Interrupt 2026, and announcing LangSmith Fleet (formerly Agent Builder).

This post demonstrates how to build an automated competitive price intelligence system that streamlines manual workflows, supporting teams to make data-driven pricing decisions with real-time market insights.

A Blog post by H company on Hugging Face

A practical look at governing AI agents with clarity, speed, and platform‑level enforcement across the enterprise.

Google partnered with the Brazilian government on a satellite imagery map to help protect the country’s forests.

Here are Google’s latest AI updates from March 2026
A Blog post by Technology Innovation Institute on Hugging Face
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • コーディングの効率向上、エラー削減、開発時間短縮が期待される

In this post, we introduce Amazon Bedrock AgentCore Evaluations, a fully managed service for assessing AI agent performance across the development lifecycle. We walk through how the service measures agent accuracy across multiple quality dimensions. We explain the two evaluation approaches for development and production and share practical guidance for building agents you can deploy with confidence.

In this post, you learn how to build a FinOps agent using Amazon Bedrock AgentCore that helps your finance team manage AWS costs across multiple accounts. This conversational agent consolidates data from AWS Cost Explorer, AWS Budgets, and AWS Compute Optimizer into a single interface, so your team can ask questions like "What are my top cost drivers this month?" and receive immediate answers.

In this post, we show you how to build a similar system for your organization. You will learn the architecture decisions, implementation details, and deployment process that can help you automate your own compliance workflows.

In this post, we demonstrate how to implement agentic QA automation through QA Studio, a reference solution built with Amazon Nova Act. You will see how to define tests in natural language that adapt automatically to UI changes, explore the serverless architecture that executes tests reliably at scale, and get step-by-step deployment guidance for your AWS environment.

Build production AI agents on MongoDB Atlas — with vector search, persistent memory, natural-language querying, and end-to-end observability built in.

I'm excited to announce that AWS Security Agent on-demand penetration testing and AWS DevOps Agent are now generally available, representing a new class of AI capabilities we announced at re:Invent called frontier agents. These autonomous systems work independently to achieve goals, scale massively to tackle concurrent tasks, and run persistently for hours or days without constant human oversight. Together, these agents are changing the way we secure and operate software. In preview, customers and partners report that AWS Security Agent compresses penetration testing timelines from weeks to hours and the AWS DevOps Agent supports 3–5x faster incident resolution.

Google Research explores the trade-off between number of items and human raters per item to improve AI benchmark reproducibility and capture the nuance of human disagreement.

Veo 3.1 Lite is now available in paid preview through the Gemini API and for testing in Google AI Studio.

Discover how Azure Local powers sovereign AI at the edge for secure, compliant workloads in remote and regulated environments.

Traditional frameworks designed for static deployments cannot address the dynamic interactions that define agentic workloads. AI Risk Intelligence (AIRI), from AWS Generative AI Innovation Center, provides the automated rigor required to govern agents at enterprise scale—a fundamental reimagining of how security, operations, and governance work together systemically.
A Blog post by IBM Granite on Hugging Face
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案する機能 • JavaScriptやTypeScriptプロジェクトへの統合が容易 • 開発効率の向上とエラー削減が期待される

この記事では、将来の量子コンピュータが暗号通貨を保護する楕円曲線暗号(ECDLP-256)を破る可能性について論じています。Googleは2016年からポスト量子暗号(PQC)への移行を推進しており、暗号通貨コミュニティに対してセキュリティと安定性を向上させるための推奨事項を提供しています。具体的には、量子攻撃に耐性のあるPQCへのブロックチェーンの移行を提案しています。また、米国政府と連携し、悪意のある行為者に対する道筋を示さずに脆弱性を検証できるゼロ知識証明を用いた新しい方法を開発しました。量子コンピュータのリソース推定についても言及し、ECDLP-256を破るために必要な論理キュービットとトフォリゲートの数を示しています。最終的に、PQCは暗号通貨とデジタル経済の長期的な存続を支える道であると結論付けています。 • 将来の量子コンピュータが楕円曲線暗号を破る可能性があることを指摘 • ポスト量子暗号(PQC)への移行を提案 • ゼロ知識証明を用いて脆弱性を安全に共有する方法を開発 • 量子コンピュータのリソース推定を提供し、ECDLP-256を破るための具体的な数値を示す • PQCが暗号通貨の長期的な安定性を保証する道であると主張
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Learn about FabCon and SQLCon, where attendees explored the latest innovations in Microsoft Fabric, SQL, analytics, and AI.

Modernize financial services with Microsoft Cloud to unlock AI‑first transformation, operational resilience, and trusted innovation. Learn more.

In this post, you'll learn how Ring implemented metadata-driven filtering for Region-specific content, separated content management into ingestion, evaluation and promotion workflows, and achieved cost savings while scaling up.

In this post, we explore the challenges that Volkswagen Group faced in producing brand-compliant marketing assets at scale. We walk through how we built a generative AI solution that generates photorealistic vehicle images, validates technical accuracy at the component level, and helps enforce brand guideline compliance alignment across the ten brands.

In this post, we show you how to use Amazon SageMaker AI to build and deploy a deep learning model for detecting solar flares using data from the European Space Agency's STIX instrument.

In this post, we walk through two use cases that help enhance the user viewing experience using agentic AI tools and frameworks including Strands Agents SDK, Amazon Bedrock AgentCore, and Amazon Nova Sonic 2.0. This agentic AI system uses a Model Context Protocol (MCP) to deliver a personal entertainment concierge that understands user preferences through natural dialogue.

Today, Copilot Cowork—designed for long-running, multi-step work in Microsoft 365—is available via the Frontier program.

In three months, Prisma fundamentally changed how it builds software by rethinking the relationship between engineers and AI agents. Here's what we learned building Prisma Next with agentic engineering.

AI for Disaster Response in Asia: OpenAI Workshop with Gates Foundation
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案する機能 • JavaScriptやTypeScriptプロジェクトへの統合が容易 • 開発効率の向上とエラー削減が期待される
A practical checklist for agent evaluation: error analysis, dataset construction, grader design, offline & online evals, and production readiness.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Today, we’re excited to announce that Amazon Bedrock is now available in the Asia Pacific (New Zealand) Region (ap-southeast-6). Customers in New Zealand can now access Anthropic Claude models (Claude Opus 4.5, Opus 4.6, Sonnet 4.5, Sonnet 4.6, and Haiku 4.5) and Amazon (Nova 2 Lite) models directly in the Auckland Region with cross region inference. In this post, we explore how cross-Region inference works from the New Zealand Region, the models available through geographic and global routing, and how to get started with your first API call. We

Discover how Kensho, S&P Global’s AI innovation engine, leveraged LangGraph to create its Grounding framework–a unified agentic access layer solving fragmented financial data retrieval at enterprise scale.

In this post, we walk you through how to implement a fully automated, context-aware AI solution using a serverless architecture on AWS. This solution helps organizations looking to deploy responsible AI systems, align with compliance requirements for vulnerable populations, and help maintain appropriate and trustworthy AI responses across diverse user groups without compromising performance or governance.

Last year, AWS announced an integration between Amazon SageMaker Unified Studio and Amazon S3 general purpose buckets. This integration makes it straightforward for teams to use unstructured data stored in Amazon Simple Storage Service (Amazon S3) for machine learning (ML) and data analytics use cases. In this post, we show how to integrate S3 general purpose buckets with Amazon SageMaker Catalog to fine-tune Llama 3.2 11B Vision Instruct for visual question answering (VQA) using Amazon SageMaker Unified Studio.

Today, we’re excited to announce the new Bidirectional Streaming API for Amazon Polly, enabling streamlined real-time text-to-speech (TTS) synthesis where you can start sending text and receiving audio simultaneously. This new API is built for conversational AI applications that generate text or audio incrementally, like responses from large language models (LLMs), where users must begin synthesizing audio before the full text is available.
In the latest episode of our Dialogues on Technology and Society series, LL COOL J sits down with James Manyika.

Gemini 3.1 Flash Live is now available across Google products.

Gemini 3.1 Flash Live is now available across Google products.
💡TLDR: The best agent evals directly measure an agent behavior we care about. Here's how we source data, create metrics, and run well-scoped, targeted experiments over time to make agents more accurate and reliable. Evals shape agent behavior We’ve been curating evaluations to measure and improve Deep Agents. Deep

We’re expanding Search Live globally, to all languages and locations where AI Mode is available.

Discover how Microsoft guides responsible AI agent adoption to scale productivity, empower people, and transform work with digital teammates. Learn more.

Agent harnesses are what help build an agent, they connect an LLM to its environment and let it do things. When you’re building an agent, it’s likely you’ll want build an application specific agent harness. “Agent Middleware” empowers you to build on top of LangChain and Deep
Firecrawl is offering 100,000 credits when you connect through n8n Cloud We've partnered with Firecrawl to make it easier than ever to bring web data into your n8n workflows. Connect to Firecrawl in one step, create an account without leaving the canvas, and start building immediately on n8n Cloud.

この記事では、複数のAPIをオーケストレーションする方法について説明しています。特に、AIエージェントがさまざまなサービスからデータを取得する際の課題に焦点を当てています。GraphQL APIを使用することで、エージェントは複雑な統合コードを書くことなく、データに信頼性のあるアクセスを得ることができます。GraphQLの設計原則は、エージェントがAPIと信頼性を持って連携するために必要な要素を提供します。具体的には、自己記述的なスキーマ、強い型付け、宣言的なクエリが、エージェントの動作を簡素化し、正確なデータ取得を可能にします。MCP(Model Context Protocol)を使用することで、エージェントとAPI間の通信が標準化され、複雑なサービスをシンプルなインターフェースで扱うことができます。 • AIエージェントが複数のAPIからデータを取得する際の課題を解決する方法を提案している。 • GraphQL APIを利用することで、カスタム統合コードなしでデータにアクセスできる。 • GraphQLの自己記述的なスキーマ、強い型付け、宣言的なクエリがエージェントの信頼性を向上させる。 • MCPを使用することで、エージェントとAPI間の通信が標準化される。 • エージェントは単一のGraphQLエンドポイントを介して複数のサービスとやり取りできる。
この記事では、NCCLウォッチドッグタイムアウトの理解を深めるための新しいツール「Flight Recorder」について説明しています。大規模AIモデルのトレーニング中に発生するこのエラーは、デバッグが難しく、原因が複雑であることが多いです。記事では、NCCLウォッチドッグタイムアウトが発生する理由や、一般的な根本原因(CPU側の分岐、GPUのハング、誤設定されたコレクティブなど)について詳しく解説しています。また、PyTorch Flight Recorderを使用して問題を迅速に特定し、解決する方法についても説明しています。最終的には、NCCLウォッチドッグタイムアウトを効率的に診断し、解決するための知識と実用的なツールを提供することを目的としています。 • NCCLウォッチドッグタイムアウトのエラーはデバッグが難しい • 一般的な根本原因にはCPU側の分岐やGPUのハングが含まれる • PyTorch Flight Recorderを使用して問題を特定する方法を解説 • コレクティブ操作の重要性とその実行方法について説明 • NCCLウォッチドッグはGPUトレーニングに特化しているが、他の分散バックエンドも監視可能

In this post, we explore how the multimodal foundation models (FMs) of Amazon Bedrock enable scalable video understanding through three distinct architectural approaches. Each approach is designed for different use cases and cost-performance trade-offs.

In this series of posts, you will learn how streaming architectures help address these challenges using Pipecat voice agents on Amazon Bedrock AgentCore Runtime. In Part 1, you will learn how to deploy Pipecat voice agents on AgentCore Runtime using different network transport approaches including WebSockets, WebRTC and telephony integration, with practical deployment guidance and code samples.
この記事では、PyTorchとNebiusの共同作業により、DeepSeek-V3 Mixture-of-ExpertsモデルのトレーニングをNVIDIA B200クラスターで行い、最大41%のトレーニング速度向上を実現したことが述べられています。具体的には、MXFP8トレーニングとDeepEP通信加速の2つの最適化手法がBF16ベースラインに対して評価されました。DeepEP単独での性能向上は32%で、MXFP8を組み合わせることで41%のスループット向上が確認されました。また、MXFP8トレーニングはBF16と同等の収束挙動を示し、全ての実験はNebius Cloud上で行われ、再現可能なオープンソースのPyTorchツールを使用しています。これにより、MoEアーキテクチャにおける計算とGPU間通信のボトルネックを解消し、コストパフォーマンスの向上が期待されます。 • DeepSeek-V3モデルのトレーニングにおいて、最大41%の速度向上を実現した。 • MXFP8トレーニングとDeepEP通信加速の2つの最適化手法を評価した。 • DeepEP単独での性能向上は32%、MXFP8を組み合わせることで41%のスループット向上が確認された。 • MXFP8トレーニングはBF16と同等の収束挙動を示した。 • 全ての実験はNebius Cloud上で行われ、再現可能なオープンソースのPyTorchツールを使用した。

In this post, we walk through the end-to-end workflow of using RFT on Amazon Bedrock with OpenAI-compatible APIs: from setting up authentication, to deploying a Lambda-based reward function, to kicking off a training job and running on-demand inference on your fine-tuned model.
Google DeepMind releases new findings and an evaluation framework to measure AI's potential for harmful manipulation in areas like finance and health, with the goal of enhancing AI safety.
We are bringing Lyria 3 to the tools where professionals work and create every day.

Lyria 3 is now available in paid preview through the Gemini API and for testing in Google AI Studio.
We are bringing Lyria 3 to the tools where professionals work and create every day.

KPMG CanadaのChristine Andrewは、Copilotが時間を節約するだけでなく、高価値の影響をもたらすと述べています。彼女は、AIを活用した生産性ツールが、より戦略的で高価値な活動に時間を再配分する手助けをしていると強調しています。Copilotにより、計画や報告のプロセスが加速され、業務の質により多くの注意を払うことが可能になりました。Andrewは、繰り返しのタスクに費やしていた時間を取り戻し、ビジネスのパフォーマンスについて深く考える時間を持てるようになったと述べています。また、他の組織とのAI導入戦略や課題についての接続時間も増え、ベストプラクティスを理解するのに役立っています。Copilotは、Microsoftのエコシステムと深く統合されており、KPMGの信頼できる環境内でAIを「責任を持って安全に」使用することを可能にしています。 • Copilotは時間を節約するだけでなく、高価値の活動に時間を再配分する手助けをする。 • 計画や報告のプロセスが加速され、業務の質により多くの注意を払うことができる。 • 繰り返しのタスクに費やしていた時間を取り戻し、ビジネスのパフォーマンスについて深く考える時間が増えた。 • 他の組織とのAI導入戦略や課題についての接続時間が増え、ベストプラクティスを理解するのに役立つ。 • CopilotはMicrosoftのエコシステムと深く統合されており、責任を持って安全にAIを使用することができる。

Infobip Chief Alliances Officer Veselin Vuković relies on Microsoft 365 Copilot to move faster through complex data and speed up analysis.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース

Vibe Coding XRは、Gemini CanvasとオープンソースのXR Blocksフレームワークを活用した迅速なプロトタイピングワークフローで、ユーザーのプロンプトを完全にインタラクティブで物理的に認識可能なWebXRアプリケーションに変換します。このシステムは、デスクトップとAndroid XRヘッドセットの両方でインテリジェントな空間体験を迅速にテストできるように設計されています。Vibe Coding XRは、ユーザーがXRに関する事前知識なしで自然言語で指示を出すことを可能にし、Geminiがシーンやインタラクションを自動的に構成します。これにより、ユーザーは60秒以内に機能するAndroid XRアプリを作成できます。さらに、デスクトップ上でのシミュレーション環境を提供し、ユーザーはAndroid XRデバイスにデプロイする前にインタラクションを迅速にプロトタイピングおよびテストできます。 • Vibe Coding XRは、Gemini CanvasとXR Blocksフレームワークを使用した迅速なプロトタイピング手法である。 • ユーザーは自然言語でプロンプトを入力することで、物理的に認識可能なWebXRアプリを60秒以内に作成できる。 • このシステムは、デスクトップとAndroid XRヘッドセットの両方でインタラクティブな体験をテストすることを可能にする。 • Geminiは、ユーザーの指示に基づいてシーンやインタラクションを自動的に構成し、迅速なプロトタイピングを実現する。 • デスクトップ上のシミュレーション環境を利用することで、ユーザーはAndroid XRデバイスにデプロイする前にインタラクションをテストできる。

Learn why we're committed to expanding our sovereign cloud continuum and strengthening cloud capabilities to navigate digital sovereignty.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案やエラー検出機能 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境との簡単な統合 • 効率的なコーディングを実現するメリット

In this post, we walk through how to search for available p-family GPU capacity, create a training plan reservation for inference, and deploy a SageMaker AI inference endpoint on that reserved capacity. We follow a data scientist's journey as they reserve capacity for model evaluation and manage the endpoint throughout the reservation lifecycle.

TurboQuantは、大規模言語モデルやベクトル検索エンジンのための高度な量子化アルゴリズムを導入し、極限の圧縮を実現します。ベクトルはAIモデルが情報を理解し処理する基本的な方法であり、高次元ベクトルは複雑な情報をキャプチャしますが、大量のメモリを消費し、キー・バリューキャッシュのボトルネックを引き起こします。TurboQuantは、メモリオーバーヘッドを最適に解決し、精度を損なうことなくモデルサイズを大幅に削減します。具体的には、PolarQuant法を用いてデータベクトルをランダムに回転させ、標準的な高品質量子化器を適用します。さらに、QJLアルゴリズムを用いて残った誤差を排除し、より正確な注意スコアを実現します。これにより、AIモデルのパフォーマンスを維持しつつ、検索やAIに依存するすべての圧縮関連のユースケースに深い影響を与える可能性があります。 • TurboQuantは、AIモデルのメモリオーバーヘッドを最適に解決する圧縮アルゴリズムである。 • PolarQuant法を用いてデータベクトルをランダムに回転させ、高品質な量子化を実現する。 • QJLアルゴリズムを使用して、残った誤差を排除し、精度を維持する。 • この技術は、キー・バリューキャッシュのボトルネックを解消し、AIモデルのパフォーマンスを向上させる。 • TurboQuantは、検索やAIに依存するユースケースにおいて重要な影響を与える可能性がある。

This post introduces Claude Tool use in Amazon Bedrock which uses the power of large language models (LLMs) to perform dynamic, adaptable entity recognition without extensive setup or training.

この記事では、S2Vecという自己教師ありフレームワークを紹介しています。S2Vecは、複雑な地理空間データを一般的な埋め込みに変換し、世界中の社会経済的および環境的パターンを予測するために設計されています。従来、地理空間データの処理は手作業で行われていましたが、S2Vecはこのプロセスを自動化し、AIが人間のように地域の特性を理解できるようにします。具体的には、S2 Geometryライブラリを使用して地球の表面を階層的に分割し、特徴をラスタライズして多層画像に変換します。これにより、AIは地理データをデジタル写真のように扱い、コンピュータビジョン技術を活用して理解します。S2Vecは、特に社会経済的予測タスクにおいて競争力のある性能を示しましたが、環境タスクにおいては改善の余地があることも明らかになりました。 • S2Vecは複雑な地理空間データを一般的な埋め込みに変換するフレームワークである。 • 地理空間データの処理は従来手作業で行われていたが、S2Vecは自動化を実現する。 • S2 Geometryライブラリを使用して地球の表面を階層的に分割し、特徴をラスタライズする。 • ラスタライズされたデータはAIが理解できる形式に変換され、コンピュータビジョン技術を活用できる。 • S2Vecは社会経済的予測タスクで競争力のある性能を示したが、環境タスクには改善が必要である。

Moda uses a multi-agent system built on Deep Agents and traced through LangSmith to let non-designers create and iterate on professional-grade visuals.

Learn how Microsoft uses agentic AI, digital twins, and physical AI to transform logistics and supply chain operations.

ARUM Inc uses Microsoft Foundry and Azure to bring automation and natural voice interface to address skilled labor shortage in precision manufacturing

ARUM CEO Takayuki Hirayama shares how he's using Microsoft cloud and AI tools to pivot his company's future to a globally connected, automated precision manufacturing solution
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの意図を理解し、それに基づいて適切なコードを提案する機能があります。また、ツールは多様なプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低い点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 生成AIを利用したコードの自動生成や補完機能 • 開発者の意図を理解し、適切なコードを提案 • JavaScriptやPythonに対応した多様なプログラミング言語のサポート • 生産性向上とエラー減少の期待 • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は作業効率を大幅に向上させることができ、エラーの削減にも寄与します。さらに、ユーザーからのフィードバックを基に継続的に改善される点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 作業効率の向上とエラー削減が期待できる • ユーザーからのフィードバックを基にした継続的な改善
A Blog post by ServiceNow-AI on Hugging Face

If you're attending Google Cloud Next 2026 in Las Vegas this year and working on agent development, here's what we have planned. Visit Us at Booth #5006 We'll be at Booth #5006 in the Expo Hall at the Mandalay Bay Convention Center, April 22-24. Our engineering team will be running
PyTorch 2.11のリリースが発表され、主な変更点として、分散トレーニングのための微分可能なコレクティブ、HopperおよびBlackwell GPU上でのFlashAttention-4バックエンドのFlexAttention、Apple Silicon向けのMPSの包括的なオペレーター拡張、RNN/LSTMのGPUエクスポートサポート、XPUグラフのサポートが含まれています。このリリースは、PyTorch 2.10以降の432人の貢献者からの2723のコミットで構成されています。特に、分散深層学習研究における重要な進展として、コレクティブ操作を通じてバックプロパゲートできるトレーニングワークフローが可能になりました。また、MPSバックエンドからのエラーレポート機能や、RNNモジュールのGPUエクスポートが新たにサポートされ、モデルのデプロイが拡大しました。 • 分散トレーニングのための微分可能なコレクティブが追加され、トレーニングワークフローが改善された。 • FlexAttentionにFlashAttention-4バックエンドが追加され、最大3.2倍の速度向上が実現された。 • Apple Silicon向けのMPSのオペレーター拡張が行われ、新しい分布関数が追加された。 • RNNモジュールのGPUエクスポートがサポートされ、動的形状のLSTMのトレースが可能になった。 • XPUグラフにより、Intel GPU上での実行が最適化され、CPUオーバーヘッドが削減された。

In this blog post, we show you how Reco implemented Amazon Bedrock to help transform security alerts and achieve significant improvements in incident response times.

In this post, we demonstrate how to build a Slack integration using AWS Cloud Development Kit (AWS CDK). You will learn how to deploy the infrastructure with three specialized AWS Lambda functions, configure event subscriptions properly to handle Slack's security requirements, and implement conversation management patterns that work for many agent use cases.

In this post, we’re excited to showcase how AWS ISV Partner Artificial Genius is using Amazon SageMaker AI and Amazon Nova to deliver a solution that is probabilistic on input but deterministic on output, helping to enable safe, enterprise-grade adoption.

Learn how Notch builds action-taking AI agents for regulated customer support using layered guardrails, governance, and Azure infrastructure.

Token-aware model routing for observational memory, MongoDB-backed versioned datasets and experiments, Okta SSO auth with RBAC, workflow upgrades, tool suspension handling, and observability improvements.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される
A Blog post by NVIDIA on Hugging Face
この記事では、Intel® Core™ Ultra Series 3プロセッサーとPyTorch 2.10の新機能について説明しています。これらのプロセッサーは、AIシナリオをPCやエッジコンピューティングで実行するための性能向上を実現しています。特に、X e 3アーキテクチャや96個のXMX AIエンジンを搭載し、120 TOPsの性能を提供します。PyTorch 2.10は、TorchAOを活用して、開発サイクルの短縮と推論性能の向上を図っています。ユーザーは、Intel®プラットフォーム上で一貫したPyTorchの体験を享受でき、さまざまなデータ型やライブラリとの統合が可能です。さらに、LLM推論のための簡単なインストール手順も示されています。 • Intel® Core™ Ultra Series 3プロセッサーはAI性能を向上させるための新機能を搭載している。 • PyTorch 2.10はTorchAOを使用して、開発サイクルの短縮と推論性能の向上を実現している。 • ユーザーはIntel®プラットフォーム上で一貫したPyTorchの体験を享受できる。 • 多様なデータ型(int4, int8, fp8など)をサポートし、標準ライブラリとの統合が可能。 • LLM推論のための簡単なインストール手順が提供されている。
A Blog post by NVIDIA on Hugging Face

Discover how to secure agentic AI and protect against threats with new capabilities across Microsoft Agent 365, Microsoft Entra, Microsoft Defender, and more.
A Blog post by IBM Granite on Hugging Face

Devin can now break down large tasks and delegate them to a team of managed Devins, with each running in its own isolated VM in parallel.
TorchSpecは、スケーラブルな推測デコーディングトレーニングのためのPyTorchネイティブフレームワークです。大規模言語モデル(LLM)の効率的な推論が重要な課題となる中、TorchSpecは推論システムとトレーニングシステムを分離し、隠れ状態をディスクに書き込むのではなく、直接ストリーミングすることでストレージ要件を削減します。このアプローチにより、推論とトレーニングのリソースを独立してスケールさせることが可能になります。TorchSpecを使用して、Kimi K2.5 EAGLE-3ドラフトモデルを1500 H200 GPU時間でトレーニングし、600kトレーニングサンプル、60億トークンにスケールしました。トレーニングされたドラフトモデルは、さまざまなベンチマークで強力なパフォーマンスを示し、出力スループットはバッチサイズ1で60%、バッチサイズ8で30%、バッチサイズ16で26%向上しました。 • 推測デコーディングはLLM生成を加速する効果的な手法である。 • TorchSpecは推論システムとトレーニングシステムを分離し、隠れ状態を直接ストリーミングする。 • 従来のアプローチはディスクに隠れ状態を保存するか、推論とトレーニングを同時に行う必要があった。 • TorchSpecを使用することで、Kimi K2.5 EAGLE-3ドラフトモデルを1500 H200 GPU時間でトレーニングした。 • トレーニングされたドラフトモデルは、出力スループットがバッチサイズに応じて60%以上向上した。

Microsoft introduces Zero Trust for AI, adding a new AI pillar to its workshop, enhanced reference architecture, a new assessment tool, and practical guidance.

This post explores the technical characteristics of the Nemotron 3 Super model and discusses potential application use cases. It also provides technical guidance to get started using this model for your generative AI applications within the Amazon Bedrock environment.

Agent Builder is now Fleet: a central place for all of your teams to build, use, and manage agents across the enterprise.

In this post, we explore our approach to video generation through VRAG, transforming natural language text prompts and images into grounded, high-quality videos. Through this fully automated solution, you can generate realistic, AI-powered video sequences from structured text and image inputs, streamlining the video creation process.

This post introduces Video Retrieval-Augmented Generation (V-RAG), an approach to help improve video content creation. By combining retrieval augmented generation with advanced video AI models, V-RAG offers an efficient, and reliable solution for generating AI videos.

SageMaker AI endpoints now support enhanced metrics with configurable publishing frequency. This launch provides the granular visibility needed to monitor, troubleshoot, and improve your production endpoints.