Last updated: 2026/03/17 05:01
A Blog post by NVIDIA on Hugging Face

Comprehensive agent engineering platform combined with NVIDIA AI enables enterprises to build, deploy, and monitor production-grade AI agents at scale Press Release SAN FRANCISCO, March 16, 2026 /PRNewswire/ — LangChain, the agent engineering company behind LangSmith and open-source frameworks that have surpassed 1 billion downloads, today announced a comprehensive integration with

Today at NVIDIA GTC 2026, AWS and NVIDIA announced an expanded collaboration with new technology integrations to support growing AI compute demand and help you build and run AI solutions that are production-ready.

This is Part II of a two-part series from the AWS Generative AI Innovation Center. In Part II, we speak directly to the leaders who must turn that shared foundation into action. Each role carries a distinct set of responsibilities, risks, and leverage points. Whether you own a P&L, run enterprise architecture, lead security, govern data, or manage compliance, this section is written in the language of your job—because that's where agentic AI either succeeds or quietly dies.

この記事では、高温超伝導に関する研究を通じて、大規模言語モデル(LLM)が専門的な物理学の質問に対してどの程度の能力を持つかを評価しています。著者たちは、コーネル大学と協力し、6つのLLMに対して高温超伝導体に関する難解な質問を投げかけ、その回答を専門家が評価しました。結果として、NotebookLMとカスタムシステムが最も優れたパフォーマンスを示し、全体的に改善が必要な領域も特定されました。この研究は、科学的発見を進めるための信頼できるツールの開発に寄与することが期待されています。また、LLMが専門的な分野での知識を持つ思考パートナーとして機能できるかどうかを探求し、高温超伝導のメカニズム理解に向けた新たな可能性を示唆しています。 • 高温超伝導に関する専門的な質問に対するLLMの能力を評価した。 • 6つのLLMが高温超伝導体に関する質問に回答し、専門家がその回答を評価した。 • 最も優れたパフォーマンスを示したのはNotebookLMとカスタムシステムであった。 • 全体的にLLMには改善が必要な領域があることが明らかになった。 • この研究は、科学的発見を進めるための信頼できるツールの開発に寄与することが期待される。 • LLMが専門的な分野での知識を持つ思考パートナーとして機能できるかを探求した。

We’re excited to introduce the deploy cli, a new set of commands within the langgraph-cli package that makes it simple to deploy and manage agents directly from the command line. The first command in this new set, langgraph deploy, lets you deploy an agent to LangSmith Deployment in a

In this blog post, we introduce the concepts behind next-generation inference capabilities, including disaggregated serving, intelligent request scheduling, and expert parallelism. We discuss their benefits and walk through how you can implement them on Amazon SageMaker HyperPod EKS to achieve significant improvements in inference performance, resource utilization, and operational efficiency.

This blog post provides step-by-step guidance on implementing an offline feature store using SageMaker Catalog within a SageMaker Unified Studio domain. By adopting a publish-subscribe pattern, data producers can use this solution to publish curated, versioned feature tables—while data consumers can securely discover, subscribe to, and reuse them for model development.

Deploy LiteLLM server on Vercel to give developers OpenAI-compatible LLM access. Route models to any provider, including Vercel AI Gateway, with centralized control.
Learn how Apollo's docs team built an AI-powered style guide reviewer that runs on every commit — and the three things that made it actually work: restructuring the style guide as a pattern library, integrating results directly into GitHub, and optimizing for speed and cost with caching, line-level review, and parallelism.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ツールの導入は簡単で、既存の開発環境にスムーズに統合できる点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 既存の開発環境に簡単に統合可能
ExecuTorchは、音声エージェントのワークロード(音声認識、リアルタイムストリーミング、話者識別、音声活動検出、ライブ翻訳など)に対応するための、クロスプラットフォームのネイティブ推論プラットフォームです。開発者は、PyTorchから直接音声モデルをエクスポートし、Linux、macOS、Windows、Android、iOS上でCPU、GPU、NPUで実行できます。ExecuTorchは、音声モデルの多様性に対応するために設計されており、モデルの変更を最小限に抑えつつ、C++アプリケーション層やモバイルアプリを提供しています。LM Studioは、ExecuTorchを使用した音声転写をすでに商用化しています。音声エージェントは、オフラインの音声転写だけでなく、ストリーミング音声認識やノイズ抑制などの機能を必要とし、低遅延でローカルに動作することが求められています。ExecuTorchは、音声ワークロードの多様性を処理できることを証明するために開発されました。 • ExecuTorchは音声エージェントのためのクロスプラットフォーム推論基盤である。 • 開発者はPyTorchから音声モデルをエクスポートし、様々なデバイスで実行可能。 • 音声モデルの多様性に対応するため、C++アプリケーション層やモバイルアプリを提供。 • 音声エージェントはリアルタイムの音声認識やノイズ抑制などの機能を必要とする。 • LM StudioはExecuTorchを使用した音声転写を商用化している。

A Blog post by NVIDIA on Hugging Face

In this post, we explain how P-EAGLE works, how we integrated it into vLLM starting from v0.16.0 (PR#32887), and how to serve it with our pre-trained checkpoints.
A Blog post by NVIDIA on Hugging Face

Today, we’re announcing two new Amazon CloudWatch metrics for Amazon Bedrock, TimeToFirstToken and EstimatedTPMQuotaUsage. In this post, we cover how these work and how to set alarms, establish baselines, and proactively manage capacity using them.

In this post, you will understand how Policy in Amazon Bedrock AgentCore creates a deterministic enforcement layer that operates independently of the agent's own reasoning. You will learn how to turn natural language descriptions of your business rules into Cedar policies, then use those policies to enforce fine-grained, identity-aware controls so that agents only access the tools and data that their users are authorized to use. You will also see how to apply Policy through AgentCore Gateway, intercepting and evaluating every agent-to-tool request at runtime.
この記事では、Llama4 Scoutモデルのトレーニングにおいて、MXFP8を使用した場合のトレーニング速度がbfloat16に対して30.2%向上したことを示しています。この速度向上は、TorchAOとTorchTitanを用いた実験で得られたもので、GEMM(General Matrix Multiplication)をMXFP8に変換することで実現されました。トレーニングは64ノード、256デバイスのGB200クラスターで行われ、bfloat16のトレーニングベースラインと同等の収束を示しました。具体的なトレーニング設定や、MXFP8を用いたグループ化されたGEMMの前方および後方パスの詳細も説明されています。さらに、MXFP8を使用することで、エンドツーエンドのトレーニング速度が1.3倍向上することが確認されました。 • Llama4 ScoutモデルのトレーニングでMXFP8を使用することで、bfloat16に対して30.2%の速度向上を実現した。 • トレーニングは64ノード、256デバイスのGB200クラスターで行われ、bfloat16と同等の収束を示した。 • MXFP8を用いたグループ化されたGEMMの前方および後方パスの詳細が説明されている。 • MXFP8を使用することで、エンドツーエンドのトレーニング速度が1.3倍向上した。 • TorchAOとTorchTitanを使用したトレーニング設定やAPIについても言及されている。

This post shows you how to build a scalable multimodal video search system that enables natural language search across large video datasets using Amazon Nova models and Amazon OpenSearch Service. You will learn how to move beyond manual tagging and keyword-based searches to enable semantic search that captures the full richness of video content.

In this post, we explore how to fine-tune a leaderboard-topping, NVIDIA Nemotron Speech Automatic Speech Recognition (ASR) model; Parakeet TDT 0.6B V2. Using synthetic speech data to achieve superior transcription results for specialised applications, we'll walk through an end-to-end workflow that combines AWS infrastructure with the following popular open-source frameworks.

A new Google AI initiative aims to improve heart health outcomes for people living in remote Australian communities.

この記事では、都市部におけるAI駆動の急激な洪水予測の導入について説明しています。新しいAIトレーニング手法を用いて、最大24時間前に急激な洪水のリスクを予測することが可能になりました。この取り組みは、気候変動への適応力を高め、コミュニティの安全を守るための重要なステップです。急激な洪水は、世界中で洪水関連の死亡者の約85%を占めており、早期警告システム(EWS)が重要です。しかし、発展途上国ではEWSの整備が不十分で、多くの人々が事前の警告を受けられない状況にあります。新しいAI手法を活用することで、過去の洪水イベントのデータを基にした予測が可能となり、都市部の急激な洪水に対する予測能力が向上しました。 • 急激な洪水は世界で最も致命的な災害の一つであり、年間5,000人以上の命を奪っている。 • 早期警告システムは、12時間のリードタイムで60%の被害軽減が可能。 • 発展途上国では多くの地域でEWSが整備されておらず、数十億人が警告を受けられない。 • 新しいAI手法を用いて、過去の洪水データを抽出し、急激な洪水の予測モデルを構築。 • この新しい予測モデルは、都市部における急激な洪水のリスクを最大24時間前に予測できる。

Groundsourceは、Geminiを活用して非構造化のグローバルニュースを行動可能な歴史データに変換する新しいスケーラブルな手法です。最初のオープンアクセスのGroundsourceデータセットは、都市の急激な洪水に関する260万件の記録を含み、より正確で命を救う予測を可能にします。自然災害は毎年数百万の人々に影響を与え、数十億ドルの直接的な損害をもたらします。歴史的データは、科学者が危険を軽減し、実証的な証拠に基づいた予測を検証するために重要です。Groundsourceは、非構造化データから検証された真実を抽出するフレームワークを提供し、災害の歴史的な足跡を前例のない精度でマッピングします。この手法は、他の危険に対する歴史的データセットの構築にも応用可能です。 • Groundsourceは、非構造化のニュースを分析して洪水の詳細をキュレーションする手法を提供する。 • 260万件の洪水イベントのデータセットを作成し、都市部の洪水予測を支援する。 • 自然災害に関する歴史的データは、科学者が危険を軽減するために重要である。 • 既存のデータベースは、特に急激な災害に対してデータが不足している。 • Groundsourceは、ニュースメディアからの信号を抽出するために高度なAIを活用している。

この記事では、GraphQLスキーマを使用してAIエージェントを構築する方法について説明しています。AIエージェントは急速に進化しており、特にGraphQL APIを持つチームにとっては、既存のアプリケーションやデータと接続する方法が重要です。GraphQLスキーマは、AIエージェントが必要とする文脈や明確な境界を提供するため、自然な適合性を持っています。Apollo MCP Serverは、GraphQLスキーマをエージェントの環境内での重要なツールとして扱い、既存のバックエンドに変更を加えることなく、AIエージェントとGraphQL APIを接続する方法を提供します。この記事では、GraphQLとMCPがどのように連携するか、AIエージェントをGraphQL APIに接続する具体的な手順を示しています。 • AIエージェントは、既存のGraphQL APIと接続することで、データとアプリケーションを活用できる。 • GraphQLスキーマは、AIエージェントに必要な文脈と明確なデータ契約を提供する。 • Apollo MCP Serverは、GraphQLスキーマをエージェントの環境内でのツールとして扱い、バックエンドを変更せずに接続を可能にする。 • MCPは、エージェントが外部ツールを発見し、呼び出す方法を標準化する。 • 具体的な実装手順として、GraphQLスキーマのインスペクション、スキーマファイルの作成、GraphQL操作の定義、MCPサーバーの設定などが含まれる。
A Blog post by NVIDIA on Hugging Face

The AWS Generative AI Innovation Center has helped 1,000+ customers move AI into production, delivering millions in documented productivity gains. In this post, we share guidance for leaders across the C-suite: CTOs, CISOs, CDOs, and Chief Data Science/AI officers, as well as business owners and compliance leads.

TL;DR: We've added a tool to the Deep Agents SDK (Python) and CLI that allows models to compress their own context windows at opportune times. Motivation Context compression is an action that reduces the information in an agent’s working memory. Older messages are replaced by a summary or

本研究は、Beth Israel Deaconess Medical Centerとの共同で行われた、会話型診断AI「AMIE」の実世界での評価に関する初の研究成果を示しています。AMIEは、医療専門家の診断支援や患者との対話を行うAIシステムであり、医療へのアクセスを向上させる可能性があります。本研究では、AMIEが新しい外来診療の訪問前に患者から情報を収集する方法と、医師と患者がAIシステムをどのように認識しているかを探求しました。研究はIRBに承認され、参加者は診療予約時に研究への参加を選択できました。AMIEは、患者とのテキストチャットを行い、その内容は医師が監視し、必要に応じて介入できる体制が整えられました。これにより、AMIEの安全性と実用性を評価する重要なステップとなりました。 • AMIEは医療専門家の診断支援を行う会話型AIである。 • 研究はBeth Israel Deaconess Medical Centerと共同で行われた。 • 患者からの情報収集を行うために、AMIEが外来診療の訪問前に使用された。 • 参加者は研究への参加を選択でき、IRBに承認されたプロトコルに従った。 • 医師がAMIEのテキストチャットを監視し、必要に応じて介入する体制が整えられた。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • JavaScriptやPythonなど多くのプログラミング言語に対応 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • コーディングの効率向上、エラー削減、開発時間短縮が期待される
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の効果 • 多くのプログラミング言語に対応
Learn the different purposes of WebMCP and MCP, and how to use them together for agentic experiences.

By Vivek Trivedy TLDR: Agent = Model + Harness. Harness engineering is how we build systems around models to turn them into work engines. The model contains the intelligence and the harness makes that intelligence useful. We define what a harness is and derive the core components today's and tomorrow's agents need.

Three new sandbox providers for safely running agent code in isolated cloud containers.

In this post, we show how to fine-tune a Llama model using Oumi on Amazon EC2 (with the option to create synthetic data using Oumi), store artifacts in Amazon S3, and deploy to Amazon Bedrock using Custom Model Import for managed inference.

See how Microsoft enables Frontier Transformation, scaling healthcare AI safely across clinical, operational, and security workflows. Learn more.

Kerry Group’s Shane McGibney explains how Microsoft 365 Copilot acts as a knowledge partner that streamlines his work and unlocks company-wide insights.

Today we announced new beta features for Gemini in Sheets to help you create, organize and edit entire sheets, from basic tasks to complex data analysis — just describe …
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案やエラーチェックを行い、開発者の生産性を向上させることを目的としています。また、ツールの導入方法や設定手順についても詳しく解説されており、特に初心者にとっても使いやすい設計がされています。さらに、AIの学習データとして多様なプログラミング言語が使用されており、幅広い開発環境に対応可能です。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでのコード提案やエラーチェック機能 • 開発者の生産性向上を目的とした設計 • 初心者にも使いやすい導入方法と設定手順 • 多様なプログラミング言語に対応した学習データ
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は作業効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 作業効率の向上とエラー削減が期待される • 生成AIを利用した新しい開発手法の提案

We’re on a journey to advance and democratize artificial intelligence through open source and open science.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

We are excited to announce that NVIDIA’s Nemotron 3 Nano is now available as a fully managed and serverless model in Amazon Bedrock. This follows our earlier announcement at AWS re:Invent supporting NVIDIA Nemotron 2 Nano 9B and NVIDIA Nemotron 2 Nano VL 12B models. This post explores the technical characteristics of the NVIDIA Nemotron 3 Nano model and discusses potential application use cases. Additionally, it provides technical guidance to help you get started using this model for your generative AI applications within the Amazon Bedrock environment.

In this post, you will discover how to use Amazon Bedrock's Global cross-Region Inference for Claude models in India. We will guide you through the capabilities of each Claude model variant and how to get started with a code example to help you start building generative AI applications immediately.
PyTorchは2026年3月16日から19日までサンノゼで開催されるNVIDIA GTC 2026に参加します。参加者はデモ、講演、ハンズオンラボを通じてPyTorchの専門家と交流できる機会があります。Metaのブース(ブース#338)では、Helionという新しいPyTorchネイティブのカーネル作成フレームワークのデモや、ExecuTorchを使用した高性能な音声認識モデルのデモが行われます。また、3月16日には「カーネルからクラスターへ:PyTorchが高性能AIを支える方法」という講演が予定されています。さらに、ハンズオンラボやハッカソンも開催され、参加者はGPUカーネルの作成や最適化について学ぶことができます。 • PyTorchはNVIDIA GTC 2026に参加し、デモや講演を行う。 • MetaのブースではHelionデモやExecuTorchのデモが行われる。 • 「カーネルからクラスターへ」という講演でPyTorchの進化と高性能AIの活用法が紹介される。 • ハンズオンラボではPyTorchモデルの最適化や分散AIトレーニングについて学べる。 • Helionハッカソンが開催され、GPUカーネル作成の実践的な学びの機会が提供される。
A Blog post by IBM Granite on Hugging Face

In this step-by-step tutorial you'll learn how to route user questions based on context using AI agents, semantic search, and the Pinecone Assistant node.
Ten years since AlphaGo, we explore how its search and learning methods are catalyzing scientific discovery and paving a path to AGI.

Copilot Cowork turns intent into action across Microsoft 365—automating tasks, coordinating workflows, and keeping you in control. See how.

Explore new ways to interact with business applications and Microsoft 365 Copilot, grounded in your organization’s intelligence with Work IQ.

Wave 3 of Microsoft 365 Copilot introduces Copilot Cowork, multi‑model intelligence, and enterprise‑ready AI—built to get real work done.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントを基にコードを提案 • 既存の開発環境に簡単に統合可能 • JavaScriptやTypeScriptプロジェクトでの使用が推奨される • 開発効率の向上とエラー削減が期待される

Deploying AI without oversight can be a liability. This post covers how to keep humans in control of the decisions that matter, including three practical patterns, a framework for when to apply them, and hands-on templates for deeper exploration.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

WAXALは、アフリカの言語音声技術のための大規模なオープンリソースであり、27の母国語に対する自動音声認識(ASR)および音声合成(TTS)データの大規模コーパスを提供します。このプロジェクトは、2021年から始まり、アフリカの学術機関やコミュニティと協力して開発されました。WAXALは、約1,846時間の自然音声の文字起こしデータと、565時間以上の高品質な音声データを含み、クリエイティブ・コモンズライセンス(CC-BY-4.0)の下で公開されます。これにより、アフリカのAIエコシステムが地域の言語的多様性を反映した堅牢な音声システムを構築できるようになります。WAXALは、音声認識と音声合成の両方のタスクをカバーするために設計された2つの専門データセットを統合しており、特に自然な会話システムの開発を支援します。 • WAXALは、アフリカの27の母国語に対する音声データを提供するオープンリソースである。 • 約1,846時間の自然音声データと565時間の高品質音声データを含む。 • データはクリエイティブ・コモンズライセンス(CC-BY-4.0)で公開され、研究を促進する。 • ASRデータセットは自然な音声を収集するために、視覚的刺激に基づく説明を求める方法を使用。 • TTSデータセットは、地域のコミュニティと協力して高品質な音声を生成。 • WAXALは、アフリカのAI研究エコシステムを強化し、デジタルデバイドを解消することを目指している。
KernelAgentは、PyTorchチームが開発したオープンエージェントシステムで、250のL1/L2/L3 KernelBenchタスクにおいて100%の正確性を達成しています。この記事では、既存のフレームワークにハードウェア指向の最適化レイヤーを追加し、GPUハードウェアのパフォーマンス信号を統合した閉ループのマルチエージェントワークフローを通じてTritonカーネルの最適化をガイドします。KernelAgentは、100のL1 KernelBenchタスクで評価され、以前のバージョンの生成カーネルに対して2.02倍のスピードアップを達成しました。平均して、KernelAgentはデフォルトのtorch.compileと比較して1.56倍のスピードアップを実現し、100のKernelBench L1タスクのうち65タスクで優れた性能を示しました。最適化コードベースはKernelAgentリポジトリにあり、ドキュメントも提供されています。 • KernelAgentは250のKernelBenchタスクで100%の正確性を達成したオープンエージェントシステムである。 • ハードウェア指向の最適化レイヤーを追加し、GPUパフォーマンス信号を利用してTritonカーネルの最適化を行う。 • KernelAgentは100のL1 KernelBenchタスクで評価され、以前のバージョンに対して2.02倍のスピードアップを達成した。 • 平均して、KernelAgentはデフォルトのtorch.compileに対して1.56倍のスピードアップを実現した。 • 最適化プロセスは、実際のハードウェア信号に基づいており、複数の最適化戦略を並行して評価する。
A Blog post by NVIDIA on Hugging Face

An overview of SpeciesNet, our open-source AI model that is helping people around the world protect and conserve wildlife.

One year after going open-source, Google’s SpeciesNet model is accelerating wildlife conservation by identifying nearly 2,500 species in camera trap images globally. Learn how this AI tool supports biodiversity research from the global research community.

Learn how enterprise AI return on investment compounds when AI is treated as a platform using Microsoft Foundry to scale across use cases.

v0 API now supports custom MCP servers. The v0 API now supports connecting to any custom MCP server.

AI Gateway now supports OpenAI's Responses API. AI Gateway now supports OpenAI's Responses API. You can use the openai SDK you already know, point it at AI Gateway, and route requests to models from Anthropic, Google, and OpenAI through a single...

Responses API is now supported on Vercel AI Gateway, with no other provider accounts required and no markup on inference cost.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が入力した要件に基づいて、AIが最適なコードを提案し、開発プロセスを効率化します。また、ツールは多様なプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、初心者でも簡単に扱えるようになっています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の要件に基づいて最適なコードを提案 • JavaScriptやPythonなど多様なプログラミング言語に対応 • 直感的なユーザーインターフェースで初心者でも扱いやすい • 開発プロセスの効率化を実現
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と高い互換性を持ち、導入が容易です。最終的に、開発者はより迅速に高品質なソフトウェアを作成できるようになります。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案やエラー検出機能 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境との高い互換性 • 迅速な高品質なソフトウェア開発の実現
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • JavaScriptやPythonなど多くのプログラミング言語に対応 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース

By Robert Xu Recently at LangChain we’ve been building skills to help coding agents like Codex, Claude Code, and Deep Agents CLI work with our ecosystem: namely, LangChain and LangSmith. This is not an effort unique to us - most (if not all) companies are exploring how to create

Learn more about AI Mode in Search’s query fan-out method for visual search.
FlexAttentionは、PyTorch APIであり、カスタムアテンションバリアントを簡単に実装できるツールです。新たにFlashAttention-4バックエンドが追加され、PyTorchでCuTeDSLスコア/マスク修正関数を自動生成し、カスタムアテンションバリアントのためにFlashAttention-4をJITインスタンス化することが可能になりました。この変更により、計算負荷の高いワークロードにおいて、既存のTriton実装に対して1.2倍から3.2倍のパフォーマンス向上が見込まれます。FlexAttentionは、スコア修正やマスク修正関数を用いてアテンションスコアを変更することができ、ALiBiやスライディングウィンドウ、ドキュメントマスキングなどの機能を同一インターフェースで扱えます。FlexAttentionは、AI研究者が新しいアテンションバリアントをプロトタイピングし、実験するための柔軟性を提供することを目的として設計されました。 • FlexAttentionはカスタムアテンションバリアントを簡単に実装できるPyTorch APIである。 • 新たにFlashAttention-4バックエンドが追加され、パフォーマンスが1.2倍から3.2倍向上した。 • スコア修正やマスク修正関数を用いてアテンションスコアを変更できる。 • ALiBi、スライディングウィンドウ、ドキュメントマスキングなどの機能を同一インターフェースで扱える。 • AI研究者が新しいアテンションバリアントをプロトタイピングするための柔軟性を提供する。
Here are Google’s latest AI updates from February 2026

In this post, we walk through a multi-developer CI/CD pipeline for Amazon Lex that enables isolated development environments, automated testing, and streamlined deployments. We show you how to set up the solution and share real-world results from teams using this approach.

This post demonstrates how to build custom model parsers for Strands agents when working with LLMs hosted on SageMaker that don't natively support the Bedrock Messages API format. We'll walk through deploying Llama 3.1 with SGLang on SageMaker using awslabs/ml-container-creator, then implementing a custom parser to integrate it with Strands agents.
この記事では、ExecuTorchを使用してPyTorchモデルをArmベースのマイクロコントローラにデプロイする方法について説明しています。AIの世界がクラウドを超えて、手のひらに収まるデバイスに広がる中、PyTorchモデルを小型システムで実行するためには新しいアプローチが必要です。ExecuTorchは、PyTorchのワークフローと低消費電力のArmマイクロコントローラとの間のギャップを埋める軽量ランタイムであり、量子化やグラフコンパイルなどの最適化を通じて、エッジ向けにモデルを効率化します。著者は、Arm Corstone-320プラットフォーム上でPyTorchとExecuTorchを使用して、Tiny Rock-Paper-Scissorsデモを構築しました。PyTorchの柔軟性を活かしつつ、組み込みハードウェアの制約に対応するために、モデルをコンパクトでポータブルな形式にコンパイルし、メモリフットプリントと計算コストを大幅に削減します。 • ExecuTorchは、PyTorchモデルをArmベースのマイクロコントローラにデプロイするための軽量ランタイムである。 • 量子化とグラフコンパイルを使用して、モデルをエッジ向けに効率化する。 • Tiny Rock-Paper-Scissorsデモを通じて、PyTorchのワークフローが小型システムにスケールダウンできることを示す。 • モデルは、浮動小数点から低精度整数形式に量子化され、メモリ使用量と計算コストが削減される。 • PyTorchからエッジデバイスへのエンドツーエンドのTinyMLパイプラインを構築するための詳細な学習パスが提供されている。

See how Microsoft Dragon Copilot unifies clinical intelligence, workflows, and partner AI to reduce burden and scale care. Learn more.
A Blog post by NXP on Hugging Face

You can now access GPT 5.4 and GPT 5.4 Pro via Vercel's AI Gateway with no markup and no other provider accounts required.

Set per-provider timeouts on AI Gateway to trigger fast failover when a provider is slow to respond. Available for BYOK credentials.

GPT-5.4 is now available in Windsurf with multiple reasoning effort levels. For a limited time, self serve users enjoy promotional pricing starting at 1x credits.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での入力に基づくコードの自動生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応している

Learn how to use GraphQL, Apollo Skills, and Model Context Protocol (MCP) to build secure, reliable AI agent integrations with your APIs.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案機能 • エラー検出機能の実装 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境との簡単な統合
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Improve tool-call accuracy, MCP fetch hooks receive RequestContext, and reliability updates surface streaming errors, preserve history in stateless tool runs, and clean up orphaned vector embeddings.

Organizations find it challenging to implement a secure embedded chat in their applications and can require weeks of development to build authentication, token validation, domain security, and global distribution infrastructure. In this post, we show you how to solve this with a one-click deployment solution to embed the chat agents using the Quick Suite Embedding SDK in enterprise portals.

In this post, we discuss how Amazon Nova demonstrates capabilities in conversational analytics, call classification, and other use cases often relevant to contact center solutions. We examine these capabilities for both single-call and multi-call analytics use cases.

This post explores how Ricoh built a standardized, multi-tenant solution for automated document classification and extraction using the AWS GenAI IDP Accelerator as a foundation, transforming their document processing from a custom-engineering bottleneck into a scalable, repeatable service.

Google researchers demonstrate how Bayesian teaching through supervised fine-tuning enables LLMs to approximate optimal probabilistic reasoning and generalize to new domains.

We’re releasing a CLI along with our first set of skills to give AI coding agents expertise in the LangSmith ecosystem. This includes adding tracing to agents, understanding their execution, building test sets, and evaluating performance. On our eval set, this bumps Claude Code’s performance on these tasks

We’re releasing our first set of skills to give AI coding agents expertise in the open source LangChain ecosystem. This includes building agents with LangChain, LangGraph, and Deep Agents. On our eval set, this bumps Claude Code’s performance on these tasks from 29% to 95%. What are Skills?
この記事では、TorchAOにおける量子化対応トレーニング(QAT)の拡張について説明しています。特に、ExecuTorchを使用してエッジデバイス向けの大規模言語モデルに焦点を当て、MSLKの高速CUDAカーネルをターゲットにした高速推論のためのフローを紹介しています。UnslothやAxolotlなどの人気のファインチューニングフレームワークへの統合が行われ、INT4 QATを使用することで66.9%の精度低下を回復し、BF16と比較して1.73倍の推論速度向上を実現しています。また、NVFP4 QATを用いることで71.6%の精度低下を回復し、B200 GPUでのHBM使用量を1/4に削減しつつ1.35倍の推論速度向上を達成しています。QATは、ポストトレーニング量子化(PTQ)による精度低下を軽減するための手法であり、LoRAとの組み合わせにより、トレーニング中のストレージと計算要件を大幅に削減しつつ、量子化による劣化を緩和することができます。 • TorchAOにおけるQATの拡張について説明 • ExecuTorchを使用してエッジデバイス向けの大規模言語モデルをターゲット • INT4 QATで66.9%の精度低下を回復し、1.73倍の推論速度向上を実現 • NVFP4 QATで71.6%の精度低下を回復し、HBM使用量を1/4に削減 • QATはポストトレーニング量子化による精度低下を軽減する手法 • LoRAとの組み合わせによりトレーニング中のストレージと計算要件を削減

Canvas in AI Mode is now available for everyone in the U.S. Plus, it can now help you draft documents or build interactive tools.

See how AI is helping governments deliver benefits with greater speed, dignity, and trust while strengthening financial stewardship and supporting frontline teams.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行います。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース

Learn more about Google DeepMind’s Project Genie and how to write prompts to create your own worlds.

A Blog post by Photoroom on Hugging Face

Gemini 3.1 Flash-Lite is our fastest and most cost-efficient Gemini 3 series model yet.

Gemini 3.1 Flash-Lite is our fastest and most cost-efficient Gemini 3 series model yet.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される

In this post, we explore the virtual try-on capability now available in Amazon Nova Canvas, including sample code to get started quickly and tips to help get the best outputs.

This post details how Lendi Group built their AI-powered Home Loan Guardian using Amazon Bedrock, the challenges they faced, the architecture they implemented, and the significant business outcomes they’ve achieved. Their journey offers valuable insights for organizations that want to use generative AI to transform customer experiences while maintaining the human touch that builds trust and loyalty.

In this post, we show you how to connect Quick Suite with Tines to securely retrieve, analyze, and visualize enterprise data from any security or IT system. We walk through an example that uses a MCP server in Tines to retrieve data from various tools, such as AWS CloudTrail, Okta, and VirusTotal, to remediate security events using Quick Suite.

Read how Frontier Firms are building companies in which AI is embedded in the operating model, not layered on top of yesterday’s processes.

You can now access the newest Gemini model, Gemini 3.1 Flash Preview via Vercel's AI Gateway with no other provider accounts required.

You can now access GPT 5.3 Chat (GPT 5.3 Instant) via Vercel's AI Gateway with no markup and no other provider accounts required.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントを基にコードを提案 • 既存の開発環境に簡単に統合可能 • JavaScriptやTypeScriptプロジェクトでの使用が推奨される • 開発効率の向上とエラー削減が期待される
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が入力した要件に基づいて、AIが最適なコードを提案し、開発プロセスを効率化します。また、ツールは多様なプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、初心者でも簡単に扱えるようになっています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の要件に基づいて最適なコードを提案 • JavaScriptやPythonなど多様なプログラミング言語に対応 • 直感的なユーザーインターフェースで初心者でも扱いやすい • 開発プロセスの効率化を実現

Run test cases against agents and workflows, score the results, and track quality over time.

A new video course designed to get you from zero to deploying your first agent in under two hours.

In this post, we share results from the AWS China Applied Science team's comprehensive evaluation of Nova Forge using a challenging Voice of Customer (VOC) classification task, benchmarked against open-source models.

This post explores how to build an intelligent conversational agent using Amazon Bedrock, LangGraph, and managed MLflow on Amazon SageMaker AI.

In this post, we will show you how to configure Amazon Bedrock Guardrails for efficient performance, implement best practices to protect your applications, and monitor your deployment effectively to maintain the right balance between safety and user experience.

Discover how SharePoint’s 25‑year legacy powers Microsoft 365 Copilot, Work IQ, and AI‑driven knowledge for organizations worldwide.

AI agents can now discover, evaluate, and install Vercel Marketplace integrations autonomously through the CLI with non-interactive commands and JSON output.

How Waldium made a blog platform work for humans and AI alike. Waldium started the way most content platforms do: building blogs for humans to read. But something Amrutha kept noticing was quietly changing who, and what, showed up to read them.

Build MCP Apps with Apollo Client and Apollo MCP Server. Learn how to create conversational, interactive apps for ChatGPT and other MCP hosts using GraphQL, auto-generated tools, and a deploy-anywhere framework with no custom MCP infrastructure required.

This guide breaks down the top 20 MCP servers for developers and demonstrates how to orchestrate them with n8n to build reliable, autonomous agentic workflows that run in production.

We are sharing an early preview of our ongoing SWE-1.6 training run.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ツールの導入は簡単で、既存の開発環境にスムーズに統合できる点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 既存の開発環境へのスムーズな統合が可能
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案機能 • エラー検出機能の実装 • 直感的なユーザーインターフェース • 既存の開発環境との簡単な統合
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広いプロジェクトで利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した開発ツールの紹介 • 自然言語からコードを生成する機能 • 既存コードの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での入力に基づくコードの自動生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応している

Google is partnering with the Massachusetts AI Hub to provide every Baystater with no-cost access to Google’s AI training.

Delivering successful COBOL modernization requires a solution that can reverse engineer deterministically, produce validated and traceable specs, and help those specs flow into any AI-powered coding assistant for the forward engineering. A successful modernization requires both reverse engineering and forward engineering. Learn more about COBOL in this post.

New alternatives, “understand” and “ask” buttons in Google Translate help you navigate the complexities of natural language.

In this post, we explore reinforcement fine-tuning (RFT) for Amazon Nova models, which can be a powerful customization technique that learns through evaluation rather than imitation. We'll cover how RFT works, when to use it versus supervised fine-tuning, real-world applications from code generation to customer service, and implementation options ranging from fully managed Amazon Bedrock to multi-turn agentic workflows with Nova Forge. You'll also learn practical guidance on data preparation, reward function design, and best practices for achieving optimal results.

AWS recently released significant updates to the Large Model Inference (LMI) container, delivering comprehensive performance improvements, expanded model support, and streamlined deployment capabilities for customers hosting LLMs on AWS. These releases focus on reducing operational complexity while delivering measurable performance gains across popular model architectures.

Our latest image generation model offers advanced world knowledge, production-ready specs, subject consistency and more, all at Flash speed.

Nano Banana 2 (Gemini 3.1 Flash Image) delivers Pro-level intelligence and fidelity for all image applications.

Our latest image generation model offers advanced world knowledge, production-ready specs, subject consistency and more, all at Flash speed.

Agentic AI in banking is moving from pilots to production. Explore real-world use cases and a blueprint for secure, scalable AI deployment.

You can now access Google's newest model, Gemini 3.1 Flash Image Preview (Nano Banana 2) via Vercel's AI Gateway with no other provider accounts required.

Learn how to connect AI agents to your GraphQL API using Model Context Protocol (MCP) with type-safe configuration, secure execution, and flexible tool patterns.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した情報に基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • コーディング効率の向上が期待される • エラー削減や開発時間短縮のメリット
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案やエラーチェックを行い、開発者の生産性を向上させることを目的としています。また、ツールの導入方法や設定手順についても詳しく解説されており、特に初心者にとっても使いやすい設計がされています。さらに、AIの学習データとして多様なプログラミング言語が使用されており、幅広い開発環境に対応可能です。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでのコード提案やエラーチェック機能 • 開発者の生産性向上を目的とした設計 • 初心者にも使いやすい導入方法と設定手順 • 多様なプログラミング言語に対応した学習データ

You can't monitor agents like traditional software. Inputs are infinite, behavior is non-deterministic, and quality lives in the conversations themselves. This article explains what to monitor, how to scale evaluation, and how production traces become the foundation for continuous improvement.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Supervisor pattern for multi-agent coordination, metadata-only vector queries, more flexible runEvals options, LSP diagnostics after workspace edits, and a new Blaxel sandbox provider.

In this post, we explain how we implemented multi-LoRA inference for Mixture of Experts (MoE) models in vLLM, describe the kernel-level optimizations we performed, and show you how you can benefit from this work. We use GPT-OSS 20B as our primary example throughout this post.

This post demonstrates how to quickly deploy a production-ready event assistant using the components of Amazon Bedrock AgentCore. We'll build an intelligent companion that remembers attendee preferences and builds personalized experiences over time, while Amazon Bedrock AgentCore handles the heavy lifting of production deployment: Amazon Bedrock AgentCore Memory for maintaining both conversation context and long-term preferences without custom storage solutions, Amazon Bedrock AgentCore Identity for secure multi-IDP authentication, and Amazon Bedrock AgentCore Runtime for serverless scaling and session isolation. We will also use Amazon Bedrock Knowledge Bases for managed RAG and event data retrieval.

At Samsung Unpacked 2026, we showcased how Samsung Galaxy S26 devices are getting the latest in Android’s AI features.

Discover three Microsoft AI initiatives showing how human expertise and AI transform business processes, workflows, and learning at scale.

Microsoft was named a leader in The Forrester Wave™ for Public Sector, Q1 2026, recognizing its secure, AI-powered industry cloud platform.

We have published security patches and security advisories for a set of recently discovered high or critical-severity security vulnerabilities affecting n8n. These vulnerabilities have been fixed in the following n8n versions: * 1.x: Versions < 1.123.22 are patched in 1.123.22 * Stable: Versions >= 2.0.0 < 2.9.

As n8n grows, so does the scrutiny our codebase receives from the security community. That is a good thing. In the past months we have published many security advisories, and with that comes natural questions from our users: How much notice will I get before a vulnerability is published? Why

The AI dispatch system built with Microsoft tools helps Munich manage non-emergency transport calls and reduces dispatcher workload.

For Chief Strategy and Product Officer Jayme Fishman, the path to modernizing Avalara starts with how it builds.

Today, we launch an AI software engineering platform for the U.S. government, built to modernize the systems America depends on.
この記事では、DeepSpeedの2つの重要なアップデートについて説明しています。1つ目は、PyTorchと同一のバックワードAPIの導入で、これにより複雑なマルチモーダルモデルのトレーニングが効率的に行えるようになります。このAPIは、従来のDeepSpeedの制約を克服し、簡潔なコードで高度な並列処理を可能にします。2つ目は、低精度モデルのトレーニングオプションで、これによりピークメモリが大幅に削減され、より制約のあるハードウェアで大規模モデルのトレーニングが可能になります。実験では、数値的安定性を維持しながら40%のメモリ削減が確認されました。これらのアップデートは、最先端のトレーニングワークロードの開発を直接支援します。 • DeepSpeedのPyTorch同一バックワードAPIにより、複雑なマルチモーダルモデルのトレーニングが効率化される。 • 新しいAPIは、従来のDeepSpeedの制約を克服し、簡潔なコードで高度な並列処理を実現する。 • 低精度トレーニングオプションにより、ピークメモリが大幅に削減され、より大きなモデルのトレーニングが可能になる。 • 実験により、数値的安定性を維持しながら40%のメモリ削減が確認された。 • これらのアップデートは、最先端のトレーニングワークロードの開発を支援する。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを分析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを分析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 幅広いプラットフォームとの互換性 • 生産性向上が期待される

In this post, we show you how to build a comprehensive photo search system using the AWS Cloud Development Kit (AWS CDK) that integrates Amazon Rekognition for face and object detection, Amazon Neptune for relationship mapping, and Amazon Bedrock for AI-powered captioning.
Helionは、開発者が高性能なMLカーネルを記述できる高水準DSLであり、最適化の複雑なタスクを自動調整エンジンに委ねています。この自動調整エンジンは、実装選択の広大な高次元空間を探索し、ターゲットハードウェア上でのパフォーマンスを最大化する構成を発見します。しかし、自動調整には長い時間がかかるという欠点があり、ユーザーからの不満の一因となっています。新たに開発されたLFBOパターン検索アルゴリズムは、機械学習の技術を用いて自動調整エンジンの効率を改善し、候補構成の評価数を大幅に削減します。このアルゴリズムにより、NVIDIA B200カーネルでは自動調整時間を36.5%短縮し、カーネルのレイテンシを平均2.6%改善しました。AMD MI350カーネルでも同様の改善が見られ、特定のカーネルでは最大50%の時間短縮が達成されています。 • Helionは高性能MLカーネルを記述するためのDSLで、最適化を自動調整エンジンに委ねる。 • 自動調整エンジンは高次元の実装選択空間を探索し、パフォーマンスを最大化する構成を見つける。 • 自動調整には長い時間がかかり、ユーザーからの不満が多い。 • LFBOパターン検索アルゴリズムは機械学習を用いて自動調整の効率を改善し、評価する候補構成の数を減少させる。 • NVIDIA B200カーネルで自動調整時間を36.5%短縮し、レイテンシを2.6%改善。 • AMD MI350カーネルでも自動調整時間を25.9%短縮し、レイテンシを1.7%改善。 • 特定のカーネルでは最大50%の時間短縮が達成されている。

At MWC 2026, Microsoft shares new AI investments enabling telecoms to move from pilots to real return on intelligence. Read more.

In a conversation with Futurum’s Daniel Newman, Ryan Cunningham unpacks the shift toward intent‑first, agent‑powered enterprise development.

In this post, we demonstrate how to train CodeFu-7B, a specialized 7-billion parameter model for competitive programming, using Group Relative Policy Optimization (GRPO) with veRL, a flexible and efficient training library for large language models (LLMs) that enables straightforward extension of diverse RL algorithms and seamless integration with existing LLM infrastructure, within a distributed Ray cluster managed by SageMaker training jobs. We walk through the complete implementation, covering data preparation, distributed training setup, and comprehensive observability, showcasing how this unified approach delivers both computational scale and developer experience for sophisticated RL training workloads.

This post explores the implementation of Dottxt’s Outlines framework as a practical approach to implementing structured outputs using AWS Marketplace in Amazon SageMaker.

In this post, we are exciting to announce availability of Global CRIS for customers in Thailand, Malaysia, Singapore, Indonesia, and Taiwan and give a walkthrough of technical implementation steps, and cover quota management best practices to maximize the value of your AI Inference deployments. We also provide guidance on best practices for production deployments.

We’re excited to announce the availability of Anthropic’s Claude Opus 4.6, Claude Sonnet 4.6, Claude Opus 4.5, Claude Sonnet 4.5, and Claude Haiku 4.5 through Amazon Bedrock global cross-Region inference for customers operating in the Middle East. In this post, we guide you through the capabilities of each Anthropic Claude model variant, the key advantages of global cross-Region inference including improved resilience, real-world use cases you can implement, and a code example to help you start building generative AI applications immediately.

An AI voice tool is helping U.K. clinicians save time on documentation and stay more present with patients at Manchester NHS Trust.
Some solid advice from a couple of Frontend Masters courses made for a fast, secure, and ready to scale deployment system.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応

You can now access OpenAI's newest model GPT 5.3 Codex via Vercel's AI Gateway with no other provider accounts required.
A Blog post by NVIDIA on Hugging Face

An open-source TUI coding agent with observational memory that compresses context without losing it.

In this post, we examine how Bedrock Robotics tackles this challenge. By joining the AWS Physical AI Fellowship, the startup partnered with the AWS Generative AI Innovation Center to apply vision-language models that analyze construction video footage, extract operational details, and generate labeled training datasets at scale, to improve data preparation for autonomous construction equipment.

In this post, we explore how Sonrai, a life sciences AI company, partnered with AWS to build a robust MLOps framework using Amazon SageMaker AI that addresses these challenges while maintaining the traceability and reproducibility required in regulated environments.

In this blog post, we demonstrate how Hexagon collaborated with Amazon Web Services to scale their AI model production by pretraining state-of-the-art segmentation models, using the model training infrastructure of Amazon SageMaker HyperPod.

Hugging Face smolagents is an open source Python library designed to make it straightforward to build and run agents using a few lines of code. We will show you how to build an agentic AI solution by integrating Hugging Face smolagents with Amazon Web Services (AWS) managed services. You'll learn how to deploy a healthcare AI agent that demonstrates multi-model deployment options, vector-enhanced knowledge retrieval, and clinical decision support capabilities.

Chat SDK is now open source and available in public beta. It's a TypeScript library for building chat bots that work across Slack, Microsoft Teams, Google Chat, Discord, GitHub, and Linear — from a single codebase.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案する機能 • JavaScriptやTypeScriptプロジェクトへの統合が容易 • 開発効率の向上とエラー削減が期待される • 生成AIを利用した新しい開発手法の提案
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での入力に基づくコードの自動生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応している

A key part of Agent Builder is its memory system. In this article we cover our rationale for prioritizing a memory system, technical details of how we built it, learnings from building the memory system, what the memory system enables, and discuss future work.

You can't build reliable agents without understanding how they reason, and you can't validate improvements without systematic evaluation.

In 2025, Amazon SageMaker AI saw dramatic improvements to core infrastructure offerings along four dimensions: capacity, price performance, observability, and usability. In this series of posts, we discuss these various improvements and their benefits. In Part 1, we discuss capacity improvements with the launch of Flexible Training Plans. We also describe improvements to price performance for inference workloads. In Part 2, we discuss enhancements made to observability, model customization, and model hosting.

In 2025, Amazon SageMaker AI made several improvements designed to help you train, tune, and host generative AI workloads. In Part 1 of this series, we discussed Flexible Training Plans and price performance improvements made to inference components. In this post, we discuss enhancements made to observability, model customization, and model hosting. These improvements facilitate a whole new class of customer use cases to be hosted on SageMaker AI.

In this post, you’ll use a six-step checklist to build a new MCP server or validate and adjust an existing MCP server for Amazon Quick integration. The Amazon Quick User Guide describes the MCP client behavior and constraints. This is a “How to” guide for detailed implementation required by 3P partners to integrate with Amazon Quick with MCP.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

By Jacob Talbot Agent Builder gets better the more you use it because it remembers your feedback. Every correction you make, preference you share, and approach that works well is something that your agent can hold onto and apply the next time. Memory is one of the things that makes

In this post, we explain how you can use the Flyte Python SDK to orchestrate and scale AI/ML workflows. We explore how the Union.ai 2.0 system enables deployment of Flyte on Amazon Elastic Kubernetes Service (Amazon EKS), integrating seamlessly with AWS services like Amazon Simple Storage Service (Amazon S3), Amazon Aurora, AWS Identity and Access Management (IAM), and Amazon CloudWatch. We explore the solution through an AI workflow example, using the new Amazon S3 Vectors service.

この記事では、AIがオンラインでの信頼性にどのように影響を与えるかを探る新しい研究について述べています。Microsoftの「メディアの整合性と認証:現状、方向性、未来」という報告書は、現在の認証方法の限界を評価し、それを強化する方法を模索しています。著者たちは、デジタルの欺瞞を防ぐための単一の解決策は存在しないと結論付け、出所、使用されたツール、変更の有無などの情報を提供する手法(プロヴェナンス、透かし、デジタルフィンガープリンティングなど)を提案しています。報告書は、メディアの信頼性を高めるための道筋を示し、特に深層偽造が増加する中で、より高品質なコンテンツ指標を認識することの重要性を強調しています。Microsoftは2019年からメディアのプロヴェナンス技術を先駆けており、2021年にはメディアの整合性を標準化するためのC2PAを共同設立しました。 • AIによる深層偽造がニュースや選挙、ブランドへの信頼を脅かしている。 • Microsoftの報告書は、現在の認証方法の限界を評価し、強化策を探る。 • 単一の解決策ではデジタルの欺瞞を防げないと結論付けている。 • プロヴェナンス、透かし、デジタルフィンガープリンティングなどの手法が提案されている。 • メディアの信頼性を高めるための「高信頼性認証」の方向性が示されている。 • 深層偽造が増加する中で、より高品質なコンテンツ指標を認識することが重要。 • Microsoftはメディアのプロヴェナンス技術を2019年から開発している。

In this blog post, we will guide you through establishing data source connectivity between Amazon Quick Sight and Snowflake through secure key pair authentication.

3.1 Pro is designed for tasks where a simple answer isn’t enough.

Learn how we empower organizations to operate confidently, knowing their workloads run on a platform designed to meet stringent expectations.
Windsurf is the world's most advanced AI coding assistant for developers and enterprises. Windsurf Editor — the first AI-native IDE that keeps developers in flow.
A Blog post by NVIDIA on Hugging Face
The more effort you put in to what you put in, the higher quality you're going to get out.

You can now access Google's newest model, Gemini 3.1 Pro Preview via Vercel's AI Gateway with no other provider accounts required.

Build video generation into your apps with AI Gateway. Create product videos, dynamic content, and marketing assets at scale.

Generate AI videos with xAI Grok Imagine via the AI SDK. Text-to-video, image-to-video, and video editing with natural audio and dialogue.

Generate stylized AI videos with Alibaba Wan models via the Vercel AI Gateway. Text-to-video, image-to-video, and unique style transfer (R2V) to transform existing footage into anime, watercolor, and more.

Generate AI videos with Kling models via the AI Gateway. Text-to-video with audio, image-to-video with first/last frame control, and motion transfer. 7 models including v3.0, v2.6, and turbo variants.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。特に、AIを用いたコード生成やデバッグ支援の機能が強調されており、開発者が効率的に作業を進めるための具体的な手法が紹介されています。また、これらのツールがどのようにして開発プロセスを改善し、エラーを減少させるかについても触れています。さらに、実装方法や必要な環境についての詳細も提供されており、実際の導入に向けたステップが明確に示されています。 • AI技術を活用した新しい開発ツールの紹介 • コード生成やデバッグ支援の機能が強調されている • 開発プロセスの改善とエラーの減少に寄与する • 具体的な実装方法や必要な環境についての詳細が提供されている • 導入に向けたステップが明確に示されている