Last updated: 2026/03/17 05:01
A Blog post by NVIDIA on Hugging Face
The point of the blackmail exercise was to have something to describe to policymakers—results that are visceral enough to land with people, and make misalignment risk actually salient in practice …

Comprehensive agent engineering platform combined with NVIDIA AI enables enterprises to build, deploy, and monitor production-grade AI agents at scale Press Release SAN FRANCISCO, March 16, 2026 /PRNewswire/ — LangChain, the agent engineering company behind LangSmith and open-source frameworks that have surpassed 1 billion downloads, today announced a comprehensive integration with

Today at NVIDIA GTC 2026, AWS and NVIDIA announced an expanded collaboration with new technology integrations to support growing AI compute demand and help you build and run AI solutions that are production-ready.

Here's the handout I prepared for my NICAR 2026 workshop "Coding agents for data analysis" - a three hour session aimed at data journalists demonstrating ways that tools like Claude …

This is Part II of a two-part series from the AWS Generative AI Innovation Center. In Part II, we speak directly to the leaders who must turn that shared foundation into action. Each role carries a distinct set of responsibilities, risks, and leverage points. Whether you own a P&L, run enterprise architecture, lead security, govern data, or manage compliance, this section is written in the language of your job—because that's where agentic AI either succeeds or quietly dies.

この記事では、高温超伝導に関する研究を通じて、大規模言語モデル(LLM)が専門的な物理学の質問に対してどの程度の能力を持つかを評価しています。著者たちは、コーネル大学と協力し、6つのLLMに対して高温超伝導体に関する難解な質問を投げかけ、その回答を専門家が評価しました。結果として、NotebookLMとカスタムシステムが最も優れたパフォーマンスを示し、全体的に改善が必要な領域も特定されました。この研究は、科学的発見を進めるための信頼できるツールの開発に寄与することが期待されています。また、LLMが専門的な分野での知識を持つ思考パートナーとして機能できるかどうかを探求し、高温超伝導のメカニズム理解に向けた新たな可能性を示唆しています。 • 高温超伝導に関する専門的な質問に対するLLMの能力を評価した。 • 6つのLLMが高温超伝導体に関する質問に回答し、専門家がその回答を評価した。 • 最も優れたパフォーマンスを示したのはNotebookLMとカスタムシステムであった。 • 全体的にLLMには改善が必要な領域があることが明らかになった。 • この研究は、科学的発見を進めるための信頼できるツールの開発に寄与することが期待される。 • LLMが専門的な分野での知識を持つ思考パートナーとして機能できるかを探求した。

We’re excited to introduce the deploy cli, a new set of commands within the langgraph-cli package that makes it simple to deploy and manage agents directly from the command line. The first command in this new set, langgraph deploy, lets you deploy an agent to LangSmith Deployment in a

Healthcare systems around the world are under strain, and both patients and clinicians are feeling the impact. OpenAI's Head of Health Dr. Nate Gross and Karan Singhal, who leads Health AI Research, discuss how AI can help address the biggest challenges. They cover how OpenAI is training models to handle sensitive health questions in collaboration with physicians, and how that foundation is unlocking a new generation of tools for patients, clinicians, and healthcare systems. Chapters: 00:00:38 – Origins of Nate and Karan’s interest in AI and healthcare 00:05:01 – Strategy for building AI tools for clinicians 00:06:57 – How AI models are trained for health use cases 00:10:15 – How OpenAI is able to score well on health evals 00:14:21 – Key challenges deploying AI in healthcare 00:21:05 – Collaboration with hospitals and healthcare systems 00:23:05 – Practical everyday uses of AI health assistants 00:26:43 – Biggest “wow” moment during development 00:28:46 – Feedback from clinicians and early users

In this blog post, we introduce the concepts behind next-generation inference capabilities, including disaggregated serving, intelligent request scheduling, and expert parallelism. We discuss their benefits and walk through how you can implement them on Amazon SageMaker HyperPod EKS to achieve significant improvements in inference performance, resource utilization, and operational efficiency.

This blog post provides step-by-step guidance on implementing an offline feature store using SageMaker Catalog within a SageMaker Unified Studio domain. By adopting a publish-subscribe pattern, data producers can use this solution to publish curated, versioned feature tables—while data consumers can securely discover, subscribe to, and reuse them for model development.
この記事では、mastraの新しいリリース(バージョン1.12.0)に関する重要な変更点が説明されています。主なハイライトとして、Cloudflare Durable Objectsストレージアダプタの追加、ワークスペースファイルシステムのパス解決の改善、MCPツールの可観測性の向上、エージェントループの信頼性向上、サンドボックスおよびワークスペースの拡張性が挙げられています。特に、Cloudflareにおける状態を持つストレージの強化や、ファイルシステムのパス解決が実際のファイルシステムのセマンティクスに一致するようになった点が重要です。また、いくつかの破壊的変更もあり、絶対パスの扱いが変更され、プロセスIDが数値から文字列に変更されました。これにより、コードの更新が必要となる場合があります。 • Cloudflare Durable Objectsストレージアダプタの追加により、SQLiteの永続性やバッチ操作が可能に。 • ワークスペースファイルシステムのパス解決が実際のファイルシステムのセマンティクスに一致。 • MCPツールコールの可観測性が向上し、トレースの連続性が保たれる。 • エージェントループの信頼性が向上し、トークンの成長を抑制するための修正が行われた。 • サンドボックスプロセスIDが文字列ベースに変更され、プロバイダ固有のゲッターが追加された。 • 絶対パスの扱いが変更され、ワークスペース相対ではなく実際のファイルシステムパスとして解決される。
この記事では、Mastraの新しいリリース(バージョン1.11.0)に関する重要な機能と変更点が紹介されています。主な機能として、エージェントがコンテキストに基づいてモデルの選択を行うための動的モデルフォールバック配列が追加され、これにより、ユーザーのティアや地域に応じた柔軟なモデルルーティングが可能になります。また、Zod v4との互換性を持つ標準スキーマの正規化機能が追加され、リクエストバリデーションエラーのカスタマイズが可能になりました。さらに、リクエストコンテキストのエンドツーエンドトレーシングが強化され、ストレージのパフォーマンスが向上しました。これにより、データセットや実験におけるメタデータの流れが改善され、より効率的なデータ処理が実現されています。 • エージェントがコンテキストに基づいてモデルの選択を行う動的モデルフォールバック配列の追加 • Zod v4との互換性を持つ標準スキーマの正規化機能の追加 • リクエストバリデーションエラーのカスタマイズが可能になった • リクエストコンテキストのエンドツーエンドトレーシングが強化された • ストレージのパフォーマンスが向上し、データ処理が効率化された
How coding agents work - Agentic Engineering Patterns

Deploy LiteLLM server on Vercel to give developers OpenAI-compatible LLM access. Route models to any provider, including Vercel AI Gateway, with centralized control.
Learn how Apollo's docs team built an AI-powered style guide reviewer that runs on every commit — and the three things that made it actually work: restructuring the style guide as a pattern library, integrating results directly into GitHub, and optimizing for speed and cost with caching, line-level review, and parallelism.

この記事では、リモートコーディングエージェントについて解説しています。リモートコーディングエージェントとは何か、なぜそれが必要なのか、そしてCursor CloudやClaude Code、古いラップトップなど、さまざまな方法でそれらを実行する方法について説明しています。具体的な使用例として、ウェブサイトのデータ処理、リサーチアシスタント、旅行エージェントなどが挙げられています。また、リモートエージェントがどこでどのように動作するか、CLIやユーザーインターフェース、リモート開発環境の設定、APIキーの管理についても触れています。最後に、DIYエージェントやカスタムソリューションの作成についても言及されています。 • リモートコーディングエージェントの定義と必要性 • 具体的な使用例(データ処理、リサーチアシスタント、旅行エージェント) • リモートエージェントの実行環境と方法 • CLIやユーザーインターフェースの種類 • リモート開発環境の設定方法 • APIキーの管理とアクセス方法 • DIYエージェントやカスタムソリューションの作成方法
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ツールの導入は簡単で、既存の開発環境にスムーズに統合できる点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 既存の開発環境に簡単に統合可能
この記事は、langgraph-cliのバージョン0.4.18のリリースに関する情報を提供しています。このリリースは2023年3月15日に行われ、主な変更点としてエラーメッセージの更新が含まれています。リリースはGitHub上で行われ、コミットはGitHubの検証済み署名で作成されています。バージョン0.4.17からの変更点は、エラーメッセージの改善に焦点を当てています。 • langgraph-cliのバージョン0.4.18がリリースされた • リリース日は2023年3月15日 • 主な変更点はエラーメッセージの更新 • リリースはGitHubで行われた • コミットはGitHubの検証済み署名で作成された
What is agentic engineering? - Agentic Engineering Patterns

The Top AI Papers of the Week (March 9 - March 15)
ExecuTorchは、音声エージェントのワークロード(音声認識、リアルタイムストリーミング、話者識別、音声活動検出、ライブ翻訳など)に対応するための、クロスプラットフォームのネイティブ推論プラットフォームです。開発者は、PyTorchから直接音声モデルをエクスポートし、Linux、macOS、Windows、Android、iOS上でCPU、GPU、NPUで実行できます。ExecuTorchは、音声モデルの多様性に対応するために設計されており、モデルの変更を最小限に抑えつつ、C++アプリケーション層やモバイルアプリを提供しています。LM Studioは、ExecuTorchを使用した音声転写をすでに商用化しています。音声エージェントは、オフラインの音声転写だけでなく、ストリーミング音声認識やノイズ抑制などの機能を必要とし、低遅延でローカルに動作することが求められています。ExecuTorchは、音声ワークロードの多様性を処理できることを証明するために開発されました。 • ExecuTorchは音声エージェントのためのクロスプラットフォーム推論基盤である。 • 開発者はPyTorchから音声モデルをエクスポートし、様々なデバイスで実行可能。 • 音声モデルの多様性に対応するため、C++アプリケーション層やモバイルアプリを提供。 • 音声エージェントはリアルタイムの音声認識やノイズ抑制などの機能を必要とする。 • LM StudioはExecuTorchを使用した音声転写を商用化している。
GitHub’s slopocalypse – the flood of AI-generated spam PRs and issues – has made Jazzband’s model of open membership and shared push access untenable. Jazzband was designed for a world …

I was a speaker last month at the Pragmatic Summit in San Francisco, where I participated in a fireside chat session about agentic engineering hosted by Eric Lui from Statsig. …

Claude Code Review, AutoHarness, Perplexity Personal Computer, Cloudflare /crawl, Context7 CLI, and More
この記事は、langchain-anthropicのバージョン1.3.5のリリースに関する情報を提供しています。このリリースでは、いくつかのバグ修正と新機能が追加されました。具体的には、一般的な使用に関するキャッシュ作成フィールドを無視する修正、HTTP呼び出しのタイムアウト設定、新しいフィールドの追加、eager_input_streamingのサポート、メッセージチャンク作成メソッドのインスタンスメソッドへの移動などが含まれています。また、統合テストの更新や、特定の思考が有効な場合の強制的なツール選択の削除も行われています。 • バージョン1.3.5のリリースに関する情報 • 一般的な使用に関するキャッシュ作成フィールドを無視する修正 • HTTP呼び出しのタイムアウト設定 • 新しいフィールドの追加 • eager_input_streamingのサポート • メッセージチャンク作成メソッドのインスタンスメソッドへの移動 • 統合テストの更新 • 特定の思考が有効な場合の強制的なツール選択の削除
この記事は、langgraph-cliのバージョン0.4.17のリリースに関する情報を提供しています。このリリースでは、新しいディープエージェントテンプレートが追加されました。リリースはGitHub上で行われ、バージョン0.4.16からの変更点が記載されています。リリース日は2023年3月13日で、GitHubの署名付きコミットとして作成されています。 • 新しいディープエージェントテンプレートが追加された • リリース日は2023年3月13日 • バージョン0.4.16からの変更点がある • GitHub上でのリリースである • 署名付きコミットとして作成された

We’re introducing Skills in beta for ChatGPT Business and Enterprise. Skills are reusable, shareable workflows that tell ChatGPT exactly how to do a specific task, enabling ChatGPT to do that task better and more consistently. A skill can bundle instructions, examples, and even code. Once a skill has been created and installed, ChatGPT can automatically use a skill (or multiple skills) when it’s helpful. A skill can include instructions and supporting resources you want ChatGPT to use whenever you ask it to do a specific task. And for more structured work, skills can include a set of steps that run the same way every time. Skills are available in beta in ChatGPT Business and Enterprise. Skills are also supported in Codex and the API. While they don’t sync across products yet, OpenAI skills follow the Agent Skills open standard—so you can download them from one product and install them in another.

A Blog post by NVIDIA on Hugging Face

In this post, we explain how P-EAGLE works, how we integrated it into vLLM starting from v0.16.0 (PR#32887), and how to serve it with our pre-trained checkpoints.
DeepSpeedのv0.18.8パッチリリースでは、いくつかの重要な修正が行われました。具体的には、メモリ使用量のログを抑制する修正、Bloomテストのハングを修正、ユーザーフレンドリーなエラーメッセージの追加、Huawei Ascend NPUでの非同期I/O操作のビルドエラーの修正、Evoformerのマルチアーキテクチャディスパッチの根本原因の修正、fp16.loss_scaleの検証、AIコーディングエージェントのプロジェクトルールを含むAGENTS.mdとCLAUDE.mdの追加、Zero3の勾配計算に関する修正が含まれています。これらの修正により、DeepSpeedの安定性と使いやすさが向上しています。 • メモリ使用量のログ抑制によるパフォーマンス改善 • Bloomテストのハング修正 • ユーザーフレンドリーなエラーメッセージの追加 • Huawei Ascend NPUでの非同期I/O操作のビルドエラー修正 • Evoformerのマルチアーキテクチャディスパッチの修正 • fp16.loss_scaleの検証機能追加 • AIコーディングエージェント用のプロジェクトルールの追加
Here's what surprised me: Standard pricing now applies across the full 1M window for both models, with no long-context premium. OpenAI and Gemini both charge more for prompts where the …
Simply put: It’s a big mess, and no off-the-shelf accounting software does what I need. So after years of pain, I finally sat down last week and started to build …
この記事は、langchain-mistralaiのバージョン1.1.2のリリースに関するもので、主に新機能の追加やバグ修正について説明しています。新たにモデルプロファイルにフィールドが追加され、生成されたプロファイルがモデルIDでソートされるようになりました。また、埋め込みにおける例外のリトライロジックが更新され、型ヒントを解決する際のNameErrorが修正されました。依存関係の更新も行われ、特にlangsmithのバージョンが0.4.31から0.6.3に引き上げられています。ドキュメントの改善として、パートナー統合に関するモジュールレベルのドキュメントが追加されました。 • 新機能としてモデルプロファイルに新しいフィールドが追加された • 生成されたプロファイルがモデルIDでソートされるようになった • 埋め込みにおける例外リトライロジックが更新された • 型ヒントを解決する際のNameErrorが修正された • 依存関係としてlangsmithのバージョンが0.4.31から0.6.3に引き上げられた • ドキュメントにパートナー統合に関するモジュールレベルのドキュメントが追加された
この記事は、GitHub上でのlangchain-classicのバージョン1.0.3のリリースに関する情報を提供しています。このリリースでは、BaseCrossEncoderがlangchain-coreに移動され、tornadoのバージョンが6.5.2から6.5.5に更新されました。また、他のライブラリやパッケージのバージョンもいくつか更新されています。具体的には、types-pytzが2025.2.0.20251108から2026.1.1.20260304に、packagingが24.2から26.0にそれぞれバージョンアップされています。これらの変更は、langchainの機能やパフォーマンスの向上を目的としています。 • langchain-classicのバージョン1.0.3がリリースされた • BaseCrossEncoderがlangchain-coreに移動された • tornadoのバージョンが6.5.2から6.5.5に更新された • types-pytzとpackagingのバージョンもそれぞれ更新された • これらの変更はlangchainの機能向上を目的としている
この記事は、GitHub上でのlangchain-coreのバージョン1.2.19のリリースに関する情報を提供しています。このリリースでは、BaseCrossEncoderがlangchain-coreに移動され、tornadoライブラリがバージョン6.5.2から6.5.5にアップグレードされました。これにより、コア機能の改善が図られています。リリース日は2023年3月13日で、GitHubの署名付きコミットとして記録されています。 • langchain-coreのバージョン1.2.19がリリースされた • BaseCrossEncoderがlangchain-coreに移動された • tornadoライブラリが6.5.2から6.5.5にアップグレードされた • リリース日は2023年3月13日 • GitHubの署名付きコミットとして記録されている
PR from Shopify CEO Tobias Lütke against Liquid, Shopify's open source Ruby template engine that was somewhat inspired by Django when Tobi first created it back in 2006. Tobi found …
A Blog post by NVIDIA on Hugging Face

Today, we’re announcing two new Amazon CloudWatch metrics for Amazon Bedrock, TimeToFirstToken and EstimatedTPMQuotaUsage. In this post, we cover how these work and how to set alarms, establish baselines, and proactively manage capacity using them.

In this post, you will understand how Policy in Amazon Bedrock AgentCore creates a deterministic enforcement layer that operates independently of the agent's own reasoning. You will learn how to turn natural language descriptions of your business rules into Cedar policies, then use those policies to enforce fine-grained, identity-aware controls so that agents only access the tools and data that their users are authorized to use. You will also see how to apply Policy through AgentCore Gateway, intercepting and evaluating every agent-to-tool request at runtime.
Brutal satire on the whole vibe-porting license washing thing (previously): Finally, liberation from open source license obligations. Our proprietary AI robots independently recreate any open source project from scratch. The …
Epic piece on AI-assisted development by Clive Thompson for the New York Times Magazine, who spoke to more than 70 software developers from companies like Google, Amazon, Microsoft, Apple, plus …
この記事では、Llama4 Scoutモデルのトレーニングにおいて、MXFP8を使用した場合のトレーニング速度がbfloat16に対して30.2%向上したことを示しています。この速度向上は、TorchAOとTorchTitanを用いた実験で得られたもので、GEMM(General Matrix Multiplication)をMXFP8に変換することで実現されました。トレーニングは64ノード、256デバイスのGB200クラスターで行われ、bfloat16のトレーニングベースラインと同等の収束を示しました。具体的なトレーニング設定や、MXFP8を用いたグループ化されたGEMMの前方および後方パスの詳細も説明されています。さらに、MXFP8を使用することで、エンドツーエンドのトレーニング速度が1.3倍向上することが確認されました。 • Llama4 ScoutモデルのトレーニングでMXFP8を使用することで、bfloat16に対して30.2%の速度向上を実現した。 • トレーニングは64ノード、256デバイスのGB200クラスターで行われ、bfloat16と同等の収束を示した。 • MXFP8を用いたグループ化されたGEMMの前方および後方パスの詳細が説明されている。 • MXFP8を使用することで、エンドツーエンドのトレーニング速度が1.3倍向上した。 • TorchAOとTorchTitanを使用したトレーニング設定やAPIについても言及されている。
この記事は、langgraphのバージョン1.1.2のリリースに関する情報を提供しています。このリリースでは、ストリーム部分の一般的な順序を修正し、リモートグラフAPIのためのコンテキストを追加しました。また、いくつかのタイポを修正し、依存関係としてtornadoのバージョンを6.5.4から6.5.5に更新しました。これらの変更は、langgraphの機能性と安定性を向上させることを目的としています。 • ストリーム部分の一般的な順序を修正した • リモートグラフAPIのためのコンテキストを追加した • いくつかのタイポを修正した • 依存関係としてtornadoのバージョンを6.5.4から6.5.5に更新した • これらの変更はlanggraphの機能性と安定性を向上させることを目的としている
Here's what I think is happening: AI-assisted coding is exposing a divide among developers that was always there but maybe less visible. Before AI, both camps were doing the same …

This post shows you how to build a scalable multimodal video search system that enables natural language search across large video datasets using Amazon Nova models and Amazon OpenSearch Service. You will learn how to move beyond manual tagging and keyword-based searches to enable semantic search that captures the full richness of video content.

In this post, we explore how to fine-tune a leaderboard-topping, NVIDIA Nemotron Speech Automatic Speech Recognition (ASR) model; Parakeet TDT 0.6B V2. Using synthetic speech data to achieve superior transcription results for specialised applications, we'll walk through an end-to-end workflow that combines AWS infrastructure with the following popular open-source frameworks.

A new Google AI initiative aims to improve heart health outcomes for people living in remote Australian communities.

この記事では、都市部におけるAI駆動の急激な洪水予測の導入について説明しています。新しいAIトレーニング手法を用いて、最大24時間前に急激な洪水のリスクを予測することが可能になりました。この取り組みは、気候変動への適応力を高め、コミュニティの安全を守るための重要なステップです。急激な洪水は、世界中で洪水関連の死亡者の約85%を占めており、早期警告システム(EWS)が重要です。しかし、発展途上国ではEWSの整備が不十分で、多くの人々が事前の警告を受けられない状況にあります。新しいAI手法を活用することで、過去の洪水イベントのデータを基にした予測が可能となり、都市部の急激な洪水に対する予測能力が向上しました。 • 急激な洪水は世界で最も致命的な災害の一つであり、年間5,000人以上の命を奪っている。 • 早期警告システムは、12時間のリードタイムで60%の被害軽減が可能。 • 発展途上国では多くの地域でEWSが整備されておらず、数十億人が警告を受けられない。 • 新しいAI手法を用いて、過去の洪水データを抽出し、急激な洪水の予測モデルを構築。 • この新しい予測モデルは、都市部における急激な洪水のリスクを最大24時間前に予測できる。

Groundsourceは、Geminiを活用して非構造化のグローバルニュースを行動可能な歴史データに変換する新しいスケーラブルな手法です。最初のオープンアクセスのGroundsourceデータセットは、都市の急激な洪水に関する260万件の記録を含み、より正確で命を救う予測を可能にします。自然災害は毎年数百万の人々に影響を与え、数十億ドルの直接的な損害をもたらします。歴史的データは、科学者が危険を軽減し、実証的な証拠に基づいた予測を検証するために重要です。Groundsourceは、非構造化データから検証された真実を抽出するフレームワークを提供し、災害の歴史的な足跡を前例のない精度でマッピングします。この手法は、他の危険に対する歴史的データセットの構築にも応用可能です。 • Groundsourceは、非構造化のニュースを分析して洪水の詳細をキュレーションする手法を提供する。 • 260万件の洪水イベントのデータセットを作成し、都市部の洪水予測を支援する。 • 自然災害に関する歴史的データは、科学者が危険を軽減するために重要である。 • 既存のデータベースは、特に急激な災害に対してデータが不足している。 • Groundsourceは、ニュースメディアからの信号を抽出するために高度なAIを活用している。

この記事では、GraphQLスキーマを使用してAIエージェントを構築する方法について説明しています。AIエージェントは急速に進化しており、特にGraphQL APIを持つチームにとっては、既存のアプリケーションやデータと接続する方法が重要です。GraphQLスキーマは、AIエージェントが必要とする文脈や明確な境界を提供するため、自然な適合性を持っています。Apollo MCP Serverは、GraphQLスキーマをエージェントの環境内での重要なツールとして扱い、既存のバックエンドに変更を加えることなく、AIエージェントとGraphQL APIを接続する方法を提供します。この記事では、GraphQLとMCPがどのように連携するか、AIエージェントをGraphQL APIに接続する具体的な手順を示しています。 • AIエージェントは、既存のGraphQL APIと接続することで、データとアプリケーションを活用できる。 • GraphQLスキーマは、AIエージェントに必要な文脈と明確なデータ契約を提供する。 • Apollo MCP Serverは、GraphQLスキーマをエージェントの環境内でのツールとして扱い、バックエンドを変更せずに接続を可能にする。 • MCPは、エージェントが外部ツールを発見し、呼び出す方法を標準化する。 • 具体的な実装手順として、GraphQLスキーマのインスペクション、スキーマファイルの作成、GraphQL操作の定義、MCPサーバーの設定などが含まれる。
A Blog post by NVIDIA on Hugging Face

Today in animated explanations built using Claude: I've always been a fan of animated demonstrations of sorting algorithms so I decided to spin some up on my phone using Claude …
この記事は、Langchainのバージョン1.2.12のリリースに関する情報を提供しています。このリリースでは、モデルとツール呼び出しのトレース機能が追加されました。リリース日は2022年3月11日で、GitHub上で公開されています。前のバージョン1.2.11からの変更点として、トレース機能の実装が強調されています。 • Langchainのバージョン1.2.12がリリースされた • 新機能としてモデルとツール呼び出しのトレース機能が追加された • リリース日は2022年3月11日 • 前のバージョン1.2.11からの変更点がある
この記事は、GitHub上で公開されているlanggraphのバージョン1.1.1のリリースに関する情報を提供しています。このリリースでは、いくつかのバグ修正が行われており、特にリプレイバグの修正とサブグラフへの直接移動が含まれています。また、mdノートの削除も行われています。リリース日は2022年3月11日で、GitHubの署名付きコミットとして記録されています。 • リリースバージョンは1.1.1である • リプレイバグの修正が行われた • サブグラフへの直接移動が可能になった • mdノートが削除された • リリース日は2022年3月11日である

The AWS Generative AI Innovation Center has helped 1,000+ customers move AI into production, delivering millions in documented productivity gains. In this post, we share guidance for leaders across the C-suite: CTOs, CISOs, CDOs, and Chief Data Science/AI officers, as well as business owners and compliance leads.

Rakuten operates one of the world’s largest digital ecosystems across e-commerce, fintech, and mobile services. Shipping fast without sacrificing reliability is critical. Teams use OpenAI Codex to support incident response, code review, and development workflows. The agent works inside monitoring systems and CI/CD pipelines to diagnose issues, review changes against internal standards, and advance projects from partial specifications. The result is faster recovery and faster shipping. Rakuten reports up to a 50% reduction in mean time to recovery, and projects that once took a quarter can now ship in weeks. As Codex handles more generation, engineers focus on clearer specifications and rigorous verification. The shift helps teams move quickly while keeping safety built into every release. Learn more: https://openai.com/index/rakuten/

We sat down with Yusuke Kaji, General Manager of AI for Business at Rakuten, to hear how Codex is empowering his engineers, reducing app vulnerabilities, and driving real impact across revenue streams. Check out the full video in our playlist: https://youtu.be/gZQQR_tDGuM
この記事は、OpenHandsのバージョン1.5.0のリリースノートを提供しています。このリリースでは、既存の会話に対してGitリポジトリを添付または変更する機能、エージェントの現在のタスクリストをリアルタイムで表示するタブ、計画エージェントの追加、チャット入力にスラッシュコマンドメニューを追加する機能、Bitbucketデータセンターのサポート、複数のAIモデル(Claude Opus 4.6、GLM-4.7など)のサポートが含まれています。また、UIの複数の問題が修正され、依存関係の更新を通じて多くのCVEが修正されました。新しい貢献者も多数参加しています。 • Gitリポジトリを既存の会話に添付または変更する機能の追加 • エージェントのタスクリストをリアルタイムで表示するタブの追加 • 計画エージェントの追加 • チャット入力にスラッシュコマンドメニューを追加 • Bitbucketデータセンターのサポートの追加 • 複数のAIモデルのサポートの追加 • UIの複数の問題の修正 • 依存関係の更新によるCVEの修正

TL;DR: We've added a tool to the Deep Agents SDK (Python) and CLI that allows models to compress their own context windows at opportune times. Motivation Context compression is an action that reduces the information in an agent’s working memory. Older messages are replaced by a summary or

本研究は、Beth Israel Deaconess Medical Centerとの共同で行われた、会話型診断AI「AMIE」の実世界での評価に関する初の研究成果を示しています。AMIEは、医療専門家の診断支援や患者との対話を行うAIシステムであり、医療へのアクセスを向上させる可能性があります。本研究では、AMIEが新しい外来診療の訪問前に患者から情報を収集する方法と、医師と患者がAIシステムをどのように認識しているかを探求しました。研究はIRBに承認され、参加者は診療予約時に研究への参加を選択できました。AMIEは、患者とのテキストチャットを行い、その内容は医師が監視し、必要に応じて介入できる体制が整えられました。これにより、AMIEの安全性と実用性を評価する重要なステップとなりました。 • AMIEは医療専門家の診断支援を行う会話型AIである。 • 研究はBeth Israel Deaconess Medical Centerと共同で行われた。 • 患者からの情報収集を行うために、AMIEが外来診療の訪問前に使用された。 • 参加者は研究への参加を選択でき、IRBに承認されたプロトコルに従った。 • 医師がAMIEのテキストチャットを監視し、必要に応じて介入する体制が整えられた。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • JavaScriptやPythonなど多くのプログラミング言語に対応 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • コーディングの効率向上、エラー削減、開発時間短縮が期待される
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の効果 • 多くのプログラミング言語に対応
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Learn the different purposes of WebMCP and MCP, and how to use them together for agentic experiences.

By Vivek Trivedy TLDR: Agent = Model + Harness. Harness engineering is how we build systems around models to turn them into work engines. The model contains the intelligence and the harness makes that intelligence useful. We define what a harness is and derive the core components today's and tomorrow's agents need.
この記事は、langgraph-sdkのバージョン0.3.11のリリースに関する情報を提供しています。このリリースは2023年3月11日に行われ、主な変更点としては、cronタイムゾーンのサポートが追加されたことが挙げられます。また、依存関係の更新も行われています。具体的には、1つのディレクトリ内のすべての依存関係が3つの更新を伴ってバンプされています。これにより、SDKの機能が向上し、より多くのユーザーに対応できるようになっています。 • langgraph-sdkのバージョン0.3.11がリリースされた • 主な変更点はcronタイムゾーンのサポート追加 • 依存関係の更新が行われた • 1つのディレクトリ内のすべての依存関係が3つの更新を伴ってバンプされた • SDKの機能向上により、ユーザー対応が強化された
<p>We are excited to announce that SGLang supports NVIDIA Nemotron 3 Super on Day 0.</p> <p><a href="https://developer.nvidia.com/blog/introducing-nemotron-3...

Three new sandbox providers for safely running agent code in isolated cloud containers.
AI should help us produce better code - Agentic Engineering Patterns
この記事は、LangChainのバージョン1.2.11のリリースに関する情報を提供しています。このリリースでは、カスタムデテクターの出力を正規化し、KeyErrorを防ぐ修正が行われました。また、Gemini-3からGemini-3.1への参照の切り替えや、いくつかの依存関係のバージョンアップが含まれています。特に、Anthropic-Bedrockのサポートや、OpenAIの自動サーバーサイド圧縮機能の追加が目立ちます。ドキュメントの不正確さの修正や、古いLangSmithのURLの更新も行われています。全体として、バグ修正と機能追加が行われた重要なアップデートです。 • カスタムデテクターの出力を正規化し、KeyErrorを防ぐ修正が行われた。 • Gemini-3からGemini-3.1への参照の切り替えが行われた。 • 依存関係のバージョンアップが複数行われた。 • Anthropic-Bedrockのサポートが追加された。 • OpenAIの自動サーバーサイド圧縮機能が追加された。 • ドキュメントの不正確さの修正と古いURLの更新が行われた。

Build agent-powered workflows for real engineering work with Codex and OpenAI APIs. In this Build Hour, you'll learn how teams are moving beyond pair programming to agentic delegation, where AI systems can take on entire engineering tasks from planning to execution. Charlie Guo (DevEx), Ryan Lopopolo (Future of Work), Mitch Troyanovsky (Cofounder, Basis) cover how to: • Ship new features faster using Codex, with real examples from Basis: https://www.getbasis.ai/ • Build agent-driven systems using new API capabilities like hosted shell, skills, and websockets • Evaluate and improve agents using the Agent Legibility Score framework • Apply Harness Engineering techniques to make agent workflows reliable in production • Use GPT-5.4 for large-context reasoning, computer-use tasks, and tool-based agent workflows • Reduce manual overhead by turning complex logic into reusable agent-driven flows 👉 Codex docs: https://developers.openai.com/codex 👉 API docs: https://developers.openai.com/api/docs 👉 Harness Engineering Blog: https://openai.com/index/harness-engineering/ 👉 GPT-5.4 Blog: https://openai.com/index/introducing-gpt-5-4/ 👉 Follow along with the code repo: http://github.com/openai/build-hours 👉 Sign up for upcoming live Build Hours: https://webinar.openai.com/buildhours 00:00 Introduction 01:58 What's New: Codex 05:01 What's New: API 08:33 Demo: Agent Legibility Score 21:53 Harness Engineering 32:32 Customer Spotlight: Basis 47:57 Q&A

In this post, we show how to fine-tune a Llama model using Oumi on Amazon EC2 (with the option to create synthetic data using Oumi), store artifacts in Amazon S3, and deploy to Amazon Bedrock using Custom Model Import for managed inference.

See how Microsoft enables Frontier Transformation, scaling healthcare AI safely across clinical, operational, and security workflows. Learn more.

Kerry Group’s Shane McGibney explains how Microsoft 365 Copilot acts as a knowledge partner that streamlines his work and unlocks company-wide insights.

Today we announced new beta features for Gemini in Sheets to help you create, organize and edit entire sheets, from basic tasks to complex data analysis — just describe …
LangGraph 1.1.0では、ストリーミングと呼び出しの新しいオプション形式(version="v2")が導入され、完全な型安全性が提供されます。これにより、stream()やinvoke()の出力が強く型付けされた形式に変わり、Pydanticモデルやデータクラスに基づく出力の自動型変換が可能になります。新しいストリーミング形式では、出力がStreamPart辞書として提供され、各ストリームモードに応じたTypedDictが用意されています。バージョン1の互換性も保たれており、既存のコードは変更なしで動作します。 • LangGraph 1.1.0では新しいストリーミング形式version="v2"が導入された。 • この新形式により、stream()やinvoke()の出力が型安全に管理される。 • Pydanticモデルやデータクラスに基づく出力の自動型変換が行われる。 • 各ストリームモードに応じたTypedDictが用意され、型の明確化が可能。 • バージョン1との互換性があり、既存のコードはそのまま使用できる。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案やエラーチェックを行い、開発者の生産性を向上させることを目的としています。また、ツールの導入方法や設定手順についても詳しく解説されており、特に初心者にとっても使いやすい設計がされています。さらに、AIの学習データとして多様なプログラミング言語が使用されており、幅広い開発環境に対応可能です。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでのコード提案やエラーチェック機能 • 開発者の生産性向上を目的とした設計 • 初心者にも使いやすい導入方法と設定手順 • 多様なプログラミング言語に対応した学習データ
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は作業効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 作業効率の向上とエラー削減が期待される • 生成AIを利用した新しい開発手法の提案
この記事は、chromaのバージョン1.5.5のリリースに関する情報を提供しています。このリリースでは、Rustのバージョン0.13.2の更新、lazy fragment fetchの同時実行のためのbuffer_unorderedの使用、chromaの設定に関するドキュメントの追加、システムデータベースの強化前に無効なコレクションを重複排除およびフィルタリングするパフォーマンス改善、テストの修正、JavaScriptのエンドポイントでAPIキーが設定されていない場合の警告の追加、GoogleGeminiのエイリアス名の追加が含まれています。これらの変更は、chromaの機能性とパフォーマンスを向上させることを目的としています。 • Rust v0.13.2の更新が含まれている • lazy fragment fetchの同時実行のためにbuffer_unorderedが使用されている • chromaの設定に関するドキュメントが追加された • 無効なコレクションを重複排除およびフィルタリングするパフォーマンス改善が行われた • JavaScriptのエンドポイントでAPIキーが設定されていない場合の警告が追加された • GoogleGeminiのエイリアス名が追加された
この記事は、GitHub上のbrowserbase/stagehandリポジトリにおけるstagehand/server-v3のバージョン3.6.1のリリースに関する情報を提供しています。このリリースでは、いくつかの修正と新機能が追加されました。具体的には、legacy handlePossibleNavigation()の削除、context.setExtraHTTPHeaders()に関するドキュメントの追加、サーバーキャッシュに関するドキュメントの更新、カスタムCDP接続ヘッダーのためのcdpHeadersオプションの追加などが含まれています。また、CIジョブに関するいくつかの修正も行われています。これにより、開発者はより効率的に作業できるようになります。 • legacy handlePossibleNavigation()の削除 • context.setExtraHTTPHeaders()に関するドキュメントの追加 • サーバーキャッシュに関するドキュメントの更新 • cdpHeadersオプションの追加 • CIジョブに関する修正
この記事は、langgraph-cliのバージョン0.4.15のリリースに関する情報を提供しています。このリリースでは、主に以下の変更が行われました。新機能として、langgraph deployが追加され、依存関係の更新が複数回行われました。また、ビルドおよびインストールコマンドにおいて、シェルインジェクション文字をブロックする修正も含まれています。これにより、セキュリティが向上し、より安全に使用できるようになっています。 • langgraph-cliの新バージョン0.4.15がリリースされた • 新機能としてlanggraph deployが追加された • 依存関係の更新が行われた • シェルインジェクション文字をブロックする修正が施された • セキュリティの向上が図られた
AI assistants are getting better at helping people inside the browser, but they still need too much babysitting.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

We’re on a journey to advance and democratize artificial intelligence through open source and open science.
この記事は、langgraph-sdkのバージョン0.3.10のリリースに関する情報を提供しています。このリリースでは、キャッシュの追加、型安全なストリーム/呼び出しの実装、出力型の強制変換の改善が行われました。また、認証に関するドキュメントの更新も含まれています。これにより、開発者はより安全で効率的なコーディングが可能になります。リリースは2023年3月9日に行われ、GitHub上で公開されています。 • langgraph-sdkのバージョン0.3.10がリリースされた • キャッシュ機能が追加された • 型安全なストリーム/呼び出しが実装された • 出力型の強制変換が改善された • 認証に関するドキュメントが更新された
この記事は、langchain-openaiのバージョン1.1.11のリリースに関するもので、主にいくつかの修正と新機能の追加が含まれています。具体的には、OpenAIの最小コアバージョンの引き上げ、プロおよびCodexモデルのAPIレスポンス検出の更新、ツール検索のサポートが新たに追加されました。また、ストリーミングトークン使用のサポートや、CSVに関するテストの追加、ファイルURL入力の破壊的変更への対応も行われています。これらの変更は、モデルプロファイルデータの更新や、生成されたプロファイルのモデルIDによるソートなど、全体的な安定性と機能性の向上を目指しています。 • OpenAIの最小コアバージョンを引き上げた • プロおよびCodexモデルのAPIレスポンス検出を更新した • ツール検索のサポートを追加した • ストリーミングトークン使用のサポートを追加した • CSVに関するテストを追加し、ファイルURL入力の破壊的変更に対応した

We are excited to announce that NVIDIA’s Nemotron 3 Nano is now available as a fully managed and serverless model in Amazon Bedrock. This follows our earlier announcement at AWS re:Invent supporting NVIDIA Nemotron 2 Nano 9B and NVIDIA Nemotron 2 Nano VL 12B models. This post explores the technical characteristics of the NVIDIA Nemotron 3 Nano model and discusses potential application use cases. Additionally, it provides technical guidance to help you get started using this model for your generative AI applications within the Amazon Bedrock environment.

In this post, you will discover how to use Amazon Bedrock's Global cross-Region Inference for Claude models in India. We will guide you through the capabilities of each Claude model variant and how to get started with a code example to help you start building generative AI applications immediately.
この記事は、Langchainのコアライブラリのバージョン1.2.18のリリースに関する情報を提供しています。このリリースでは、いくつかのバグ修正と新機能が追加されました。具体的には、代替インポートに関する非推奨のドキュメント文字列の二重バックティックの修正、ツールコールスキーマ生成時のデフォルトファクトリの保持、OpenAIツール検索のサポートが含まれています。また、3つのディレクトリにわたるマイナーおよびパッチの更新が行われています。 • バージョン1.2.18のリリース情報 • 代替インポートに関する非推奨のドキュメントの修正 • ツールコールスキーマ生成時のデフォルトファクトリの保持 • OpenAIツール検索のサポート • 3つのディレクトリにわたるマイナーおよびパッチの更新
PyTorchは2026年3月16日から19日までサンノゼで開催されるNVIDIA GTC 2026に参加します。参加者はデモ、講演、ハンズオンラボを通じてPyTorchの専門家と交流できる機会があります。Metaのブース(ブース#338)では、Helionという新しいPyTorchネイティブのカーネル作成フレームワークのデモや、ExecuTorchを使用した高性能な音声認識モデルのデモが行われます。また、3月16日には「カーネルからクラスターへ:PyTorchが高性能AIを支える方法」という講演が予定されています。さらに、ハンズオンラボやハッカソンも開催され、参加者はGPUカーネルの作成や最適化について学ぶことができます。 • PyTorchはNVIDIA GTC 2026に参加し、デモや講演を行う。 • MetaのブースではHelionデモやExecuTorchのデモが行われる。 • 「カーネルからクラスターへ」という講演でPyTorchの進化と高性能AIの活用法が紹介される。 • ハンズオンラボではPyTorchモデルの最適化や分散AIトレーニングについて学べる。 • Helionハッカソンが開催され、GPUカーネル作成の実践的な学びの機会が提供される。
A Blog post by IBM Granite on Hugging Face

In this step-by-step tutorial you'll learn how to route user questions based on context using AI agents, semantic search, and the Pinecone Assistant node.
Ten years since AlphaGo, we explore how its search and learning methods are catalyzing scientific discovery and paving a path to AGI.
A recurring concern I’ve seen regarding LLMs for programming is that they will push our technology choices towards the tools that are best represented in their training data, making it …

Wave 3 of Microsoft 365 Copilot introduces Copilot Cowork, multi‑model intelligence, and enterprise‑ready AI—built to get real work done.

Explore new ways to interact with business applications and Microsoft 365 Copilot, grounded in your organization’s intelligence with Work IQ.

Copilot Cowork turns intent into action across Microsoft 365—automating tasks, coordinating workflows, and keeping you in control. See how.
この記事は、mastra-aiのリリースノートに関するもので、主にバージョン1.10.0の新機能と修正点について説明しています。新たに追加された機能として、ツール定義にinputExamplesを含めることができ、これによりAIモデルが有効なツール入力を理解しやすくなります。また、MCPクライアントのfetchフックがRequestContextを受け取るようになり、ツール実行中にクッキーやトークンを適切に転送できるようになりました。さらに、エージェントやストリーミングの信頼性向上、メモリ管理の改善が行われ、エラー処理が一貫して行われるようになりました。これにより、クライアント側のツールがステートレスなデプロイメントでも履歴を失わないようになり、メモリのクリーンアップも自動化されました。 • ツール定義にinputExamplesを追加し、AIモデルのツール呼び出し精度を向上させる。 • MCPクライアントがRequestContextを受け取ることで、クッキーやトークンの転送が可能になる。 • エージェントやストリーミングの信頼性向上、エラー処理の一貫性が強化される。 • クライアント側のツールがステートレスなデプロイメントでも履歴を保持できるようになる。 • メモリのクリーンアップが自動化され、オーファンのベクトル埋め込みが整理される。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントを基にコードを提案 • 既存の開発環境に簡単に統合可能 • JavaScriptやTypeScriptプロジェクトでの使用が推奨される • 開発効率の向上とエラー削減が期待される

Deploying AI without oversight can be a liability. This post covers how to keep humans in control of the decisions that matter, including three practical patterns, a framework for when to apply them, and hands-on templates for deeper exploration.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

The Top AI Papers of the Week (March 1 - March 8)
What I had not realized is that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people.
RooCodeIncのRoo-Codeリポジトリで、バージョン3.51.1がリリースされました。このリリースは2023年3月8日に行われ、GitHub上で公開されています。リリースノートには、特定の変更点や新機能の詳細は記載されていないため、具体的な内容は不明です。リリースに関連するアセットも用意されていますが、詳細な情報は表示されていません。 • Roo-Codeのバージョン3.51.1がリリースされた • リリース日は2023年3月8日 • 具体的な変更点や新機能の詳細は不明 • リリースに関連するアセットが用意されているが、詳細は表示されていない
この記事は、Chromaのバージョン1.5.3のリリースノートを提供しています。このリリースでは、スレッドトポロジー名のパージダーティパイプラインへの追加、Kubernetesリソースの強化、Spannerを使用したダーティパージの実装、Python 3.14のサポートのためのpydantic v1互換レイヤーの削除、フィルターおよびidfオペレーターにおけるセグメントリーダー初期化の並列化など、いくつかの重要な変更が行われました。また、ドキュメントの更新やバグ修正も含まれています。新しい機能や改善点が多く、特にパフォーマンスの向上が期待されます。 • スレッドトポロジー名をパージダーティパイプラインに追加 • Kubernetesリソースの強化 • Spannerを使用したダーティパージの実装 • Python 3.14のサポートのためのpydantic v1互換レイヤーの削除 • フィルターおよびidfオペレーターにおけるセグメントリーダー初期化の並列化 • ドキュメントの更新やバグ修正が行われた • 新機能や改善点が多く、パフォーマンスの向上が期待される
Anthropic announced six months of free Claude Max for maintainers of popular open source projects (5,000+ stars or 1M+ NPM downloads) on 27th February. Now OpenAI have launched their comparable …

AI Labor Market Impacts, Google Workspace CLI, GPT-5.4, Exa Deep, and More

オープンスタンダードである Agent Skills に従い Claude Code にドメインの専門知識や組織のナレッジを提供するスキルが最近注目を集めていますが、スキルの作成にはいくつかのハードルがあります。Anthropic は skill-creator と呼ばれるスキルの作成と改善のプロセス、パフォーマンス測定を支援するツールを提供しています。この記事では skill-creator を使用してスキルを作成・改善を行うプロセスを実際に体験してみます
この記事は、LangChainのバージョン0.3.28のリリースに関するもので、主な変更点や修正内容が記載されています。具体的には、langchain-coreの最小バージョンを0.3.73に引き上げ、MRKLおよびReActアクションの正規表現におけるReDoS脆弱性を修正しました。また、UUID7を使用したランIDの生成や、OpenAIのデフォルトベースURLおよびクライアント使用時のストリーム使用の有効化が含まれています。さらに、GPT-5モデル名の処理やAnthropicチャットモデルの初期化におけるコンテキスト管理の追加、Pydanticの非推奨警告の解決なども行われています。ドキュメントの標準化や、さまざまなコードのリファクタリングも行われ、全体的に安定性とパフォーマンスの向上が図られています。 • langchain-coreの最小バージョンを0.3.73に引き上げた • MRKLおよびReActアクションの正規表現におけるReDoS脆弱性を修正した • UUID7を使用してランIDを生成する機能を追加した • OpenAIのデフォルトベースURLおよびクライアント使用時にストリーム使用を有効化した • GPT-5モデル名の処理を改善した • Anthropicチャットモデルの初期化におけるコンテキスト管理を追加した • Pydanticの非推奨警告を解決した • ドキュメントの標準化を進めた
この記事は、langchain-classicのバージョン1.0.2のリリースに関する情報を提供しています。このリリースでは、MRKLおよびReActアクションの正規表現におけるReDoS脆弱性(CVE-2024-58340)の修正が含まれています。また、いくつかの依存関係のバージョンアップやドキュメントの修正も行われています。具体的には、google-cloud-aiplatformのバージョンが1.117.0から1.133.0に更新され、langchainhubも0.1.18から0.1.21にアップグレードされています。さらに、MultiVectorRetrieverの使用法の明確化や、initialize_agent関数に関する警告が追加されています。これにより、ユーザーはより安全で効率的にlangchainを利用できるようになります。 • langchain-classicのバージョン1.0.2がリリースされた • MRKLおよびReActアクションの正規表現におけるReDoS脆弱性を修正した • google-cloud-aiplatformのバージョンを1.117.0から1.133.0に更新した • MultiVectorRetrieverの使用法を明確化した • initialize_agent関数に関する警告を追加した

WAXALは、アフリカの言語音声技術のための大規模なオープンリソースであり、27の母国語に対する自動音声認識(ASR)および音声合成(TTS)データの大規模コーパスを提供します。このプロジェクトは、2021年から始まり、アフリカの学術機関やコミュニティと協力して開発されました。WAXALは、約1,846時間の自然音声の文字起こしデータと、565時間以上の高品質な音声データを含み、クリエイティブ・コモンズライセンス(CC-BY-4.0)の下で公開されます。これにより、アフリカのAIエコシステムが地域の言語的多様性を反映した堅牢な音声システムを構築できるようになります。WAXALは、音声認識と音声合成の両方のタスクをカバーするために設計された2つの専門データセットを統合しており、特に自然な会話システムの開発を支援します。 • WAXALは、アフリカの27の母国語に対する音声データを提供するオープンリソースである。 • 約1,846時間の自然音声データと565時間の高品質音声データを含む。 • データはクリエイティブ・コモンズライセンス(CC-BY-4.0)で公開され、研究を促進する。 • ASRデータセットは自然な音声を収集するために、視覚的刺激に基づく説明を求める方法を使用。 • TTSデータセットは、地域のコミュニティと協力して高品質な音声を生成。 • WAXALは、アフリカのAI研究エコシステムを強化し、デジタルデバイドを解消することを目指している。
KernelAgentは、PyTorchチームが開発したオープンエージェントシステムで、250のL1/L2/L3 KernelBenchタスクにおいて100%の正確性を達成しています。この記事では、既存のフレームワークにハードウェア指向の最適化レイヤーを追加し、GPUハードウェアのパフォーマンス信号を統合した閉ループのマルチエージェントワークフローを通じてTritonカーネルの最適化をガイドします。KernelAgentは、100のL1 KernelBenchタスクで評価され、以前のバージョンの生成カーネルに対して2.02倍のスピードアップを達成しました。平均して、KernelAgentはデフォルトのtorch.compileと比較して1.56倍のスピードアップを実現し、100のKernelBench L1タスクのうち65タスクで優れた性能を示しました。最適化コードベースはKernelAgentリポジトリにあり、ドキュメントも提供されています。 • KernelAgentは250のKernelBenchタスクで100%の正確性を達成したオープンエージェントシステムである。 • ハードウェア指向の最適化レイヤーを追加し、GPUパフォーマンス信号を利用してTritonカーネルの最適化を行う。 • KernelAgentは100のL1 KernelBenchタスクで評価され、以前のバージョンに対して2.02倍のスピードアップを達成した。 • 平均して、KernelAgentはデフォルトのtorch.compileに対して1.56倍のスピードアップを実現した。 • 最適化プロセスは、実際のハードウェア信号に基づいており、複数の最適化戦略を並行して評価する。
A Blog post by NVIDIA on Hugging Face

An overview of SpeciesNet, our open-source AI model that is helping people around the world protect and conserve wildlife.

One year after going open-source, Google’s SpeciesNet model is accelerating wildlife conservation by identifying nearly 2,500 species in camera trap images globally. Learn how this AI tool supports biodiversity research from the global research community.
This piece by Bruce Schneier and Nathan E. Sanders is the most thoughtful and grounded coverage I've seen of the recent and ongoing Pentagon/OpenAI/Anthropic contract situation. AI models are increasingly …

Learn how enterprise AI return on investment compounds when AI is treated as a platform using Microsoft Foundry to scale across use cases.

Responses API is now supported on Vercel AI Gateway, with no other provider accounts required and no markup on inference cost.

AI Gateway now supports OpenAI's Responses API. AI Gateway now supports OpenAI's Responses API. You can use the openai SDK you already know, point it at AI Gateway, and route requests to models from Anthropic, Google, and OpenAI through a single...

v0 API now supports custom MCP servers. The v0 API now supports connecting to any custom MCP server.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が入力した要件に基づいて、AIが最適なコードを提案し、開発プロセスを効率化します。また、ツールは多様なプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、初心者でも簡単に扱えるようになっています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の要件に基づいて最適なコードを提案 • JavaScriptやPythonなど多様なプログラミング言語に対応 • 直感的なユーザーインターフェースで初心者でも扱いやすい • 開発プロセスの効率化を実現
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と高い互換性を持ち、導入が容易です。最終的に、開発者はより迅速に高品質なソフトウェアを作成できるようになります。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案やエラー検出機能 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境との高い互換性 • 迅速な高品質なソフトウェア開発の実現
Adnan Khan describes a devious attack chain against the Cline GitHub repository, which started with a prompt injection attack in the title of an issue opened against the repo. Cline …

Two new API models: gpt-5.4 and gpt-5.4-pro, also available in ChatGPT and Codex CLI. August 31st 2025 knowledge cutoff, 1 million token context window. Priced slightly higher than the GPT-5.2 …
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • JavaScriptやPythonなど多くのプログラミング言語に対応 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース
RooCodeIncのRoo-Codeリポジトリで、バージョン3.51.0がリリースされました。このリリースは2022年3月5日に行われ、GitHub上で公開されています。リリースノートには、バージョンの変更点や新機能についての詳細は記載されていませんが、リリースに関連するアセットが3つ用意されています。ユーザーは、GitHubのインターフェースを通じてリリース情報を確認することができます。 • Roo-Codeのバージョン3.51.0がリリースされた。 • リリース日は2022年3月5日。 • リリースに関する詳細な変更点は記載されていない。 • リリースには3つのアセットが含まれている。 • GitHub上でリリース情報を確認可能。

The Codex app is now on Windows. Get the full Codex app experience on Windows with a native agent sandbox and support for Windows developer environments in PowerShell. https://developers.openai.com/wendows
DeepSpeedのv0.18.7パッチリリースでは、いくつかの重要な変更が行われました。主な更新内容には、ARM向けのshm_commサポートの有効化、Inference V2用のEXAONE 4.0モデルサポートの追加、ROCm BF16変換の修正、Evoformerのコンパイル修正、GatheredParametersでのパラメータ変更時のエラー投げ、fp16テストにおけるZero-3静的スケールアサーションの修正などが含まれています。また、PyTorch v2.3およびPython 3.12でのDeepSpeedのインポートクラッシュの修正や、パラメータグループへの勾配を持つパラメータのみを追加する修正も行われました。新しい貢献者も数名加わり、全体的なパフォーマンスの向上が図られています。 • DeepSpeed v0.18.7のリリースにおける主要な変更点が記載されている。 • ARM向けのshm_commサポートが有効化された。 • Inference V2用のEXAONE 4.0モデルがサポートされた。 • ROCm BF16変換の修正が行われた。 • GatheredParametersでのパラメータ変更時にエラーを投げるように修正された。 • PyTorch v2.3およびPython 3.12でのインポートクラッシュが修正された。 • 新しい貢献者が数名加わり、プロジェクトの活性化が図られた。

In ChatGPT, GPT‑5.4 Thinking can now provide an upfront plan of its thinking, so you can adjust course mid-response while it’s working, and arrive at a final output that’s more closely aligned with what you need without additional turns.

OpenAI researcher SQ Mah explains how GPT-5.4 Thinking brings even more powerful capabilities to Codex — with more persistent computer-use (CUA) capabilities that cut token usage by two-thirds in some cases, and stronger image understanding for seamless website UI and image generation.

By Robert Xu Recently at LangChain we’ve been building skills to help coding agents like Codex, Claude Code, and Deep Agents CLI work with our ecosystem: namely, LangChain and LangSmith. This is not an effort unique to us - most (if not all) companies are exploring how to create

Learn more about AI Mode in Search’s query fan-out method for visual search.
FlexAttentionは、PyTorch APIであり、カスタムアテンションバリアントを簡単に実装できるツールです。新たにFlashAttention-4バックエンドが追加され、PyTorchでCuTeDSLスコア/マスク修正関数を自動生成し、カスタムアテンションバリアントのためにFlashAttention-4をJITインスタンス化することが可能になりました。この変更により、計算負荷の高いワークロードにおいて、既存のTriton実装に対して1.2倍から3.2倍のパフォーマンス向上が見込まれます。FlexAttentionは、スコア修正やマスク修正関数を用いてアテンションスコアを変更することができ、ALiBiやスライディングウィンドウ、ドキュメントマスキングなどの機能を同一インターフェースで扱えます。FlexAttentionは、AI研究者が新しいアテンションバリアントをプロトタイピングし、実験するための柔軟性を提供することを目的として設計されました。 • FlexAttentionはカスタムアテンションバリアントを簡単に実装できるPyTorch APIである。 • 新たにFlashAttention-4バックエンドが追加され、パフォーマンスが1.2倍から3.2倍向上した。 • スコア修正やマスク修正関数を用いてアテンションスコアを変更できる。 • ALiBi、スライディングウィンドウ、ドキュメントマスキングなどの機能を同一インターフェースで扱える。 • AI研究者が新しいアテンションバリアントをプロトタイピングするための柔軟性を提供する。
Here are Google’s latest AI updates from February 2026

In this post, we walk through a multi-developer CI/CD pipeline for Amazon Lex that enables isolated development environments, automated testing, and streamlined deployments. We show you how to set up the solution and share real-world results from teams using this approach.

This post demonstrates how to build custom model parsers for Strands agents when working with LLMs hosted on SageMaker that don't natively support the Bedrock Messages API format. We'll walk through deploying Llama 3.1 with SGLang on SageMaker using awslabs/ml-container-creator, then implementing a custom parser to integrate it with Strands agents.
この記事では、ExecuTorchを使用してPyTorchモデルをArmベースのマイクロコントローラにデプロイする方法について説明しています。AIの世界がクラウドを超えて、手のひらに収まるデバイスに広がる中、PyTorchモデルを小型システムで実行するためには新しいアプローチが必要です。ExecuTorchは、PyTorchのワークフローと低消費電力のArmマイクロコントローラとの間のギャップを埋める軽量ランタイムであり、量子化やグラフコンパイルなどの最適化を通じて、エッジ向けにモデルを効率化します。著者は、Arm Corstone-320プラットフォーム上でPyTorchとExecuTorchを使用して、Tiny Rock-Paper-Scissorsデモを構築しました。PyTorchの柔軟性を活かしつつ、組み込みハードウェアの制約に対応するために、モデルをコンパクトでポータブルな形式にコンパイルし、メモリフットプリントと計算コストを大幅に削減します。 • ExecuTorchは、PyTorchモデルをArmベースのマイクロコントローラにデプロイするための軽量ランタイムである。 • 量子化とグラフコンパイルを使用して、モデルをエッジ向けに効率化する。 • Tiny Rock-Paper-Scissorsデモを通じて、PyTorchのワークフローが小型システムにスケールダウンできることを示す。 • モデルは、浮動小数点から低精度整数形式に量子化され、メモリ使用量と計算コストが削減される。 • PyTorchからエッジデバイスへのエンドツーエンドのTinyMLパイプラインを構築するための詳細な学習パスが提供されている。
この記事は、Facebook ResearchのFaissライブラリのバージョン1.14.1のリリースノートを提供しています。このバージョンでは、C APIにIndexBinaryFlatを追加し、IVFのインデックスとしてHadamard変換を追加しました。また、LeanVecのOODサポートが追加され、Pythonのバージョンが3.13および3.14に更新されました。さらに、SIMD最適化されたマルチビットRaBitQ内積が実装され、ScalarQuantizerのSIMD特化を分割しました。SWIG 4.4のマルチフェーズ初期化に関する問題も修正されています。 • C APIにIndexBinaryFlatを追加 • IVFのインデックスとしてHadamard変換を追加 • LeanVecのOODサポートを追加 • Pythonのバージョンを3.13および3.14に更新 • SIMD最適化されたマルチビットRaBitQ内積を実装 • ScalarQuantizerのSIMD特化を分割 • SWIG 4.4のマルチフェーズ初期化に関する問題を修正

See how Microsoft Dragon Copilot unifies clinical intelligence, workflows, and partner AI to reduce burden and scale care. Learn more.
A Blog post by NXP on Hugging Face

Set per-provider timeouts on AI Gateway to trigger fast failover when a provider is slow to respond. Available for BYOK credentials.

You can now access GPT 5.4 and GPT 5.4 Pro via Vercel's AI Gateway with no markup and no other provider accounts required.

GPT-5.4 is now available in Windsurf with multiple reasoning effort levels. For a limited time, self serve users enjoy promotional pricing starting at 1x credits.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での入力に基づくコードの自動生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応している
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される

Learn how to use GraphQL, Apollo Skills, and Model Context Protocol (MCP) to build secure, reliable AI agent integrations with your APIs.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案機能 • エラー検出機能の実装 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境との簡単な統合

AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。

Improve tool-call accuracy, MCP fetch hooks receive RequestContext, and reliability updates surface streaming errors, preserve history in stateless tool runs, and clean up orphaned vector embeddings.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Organizations find it challenging to implement a secure embedded chat in their applications and can require weeks of development to build authentication, token validation, domain security, and global distribution infrastructure. In this post, we show you how to solve this with a one-click deployment solution to embed the chat agents using the Quick Suite Embedding SDK in enterprise portals.

In this post, we discuss how Amazon Nova demonstrates capabilities in conversational analytics, call classification, and other use cases often relevant to contact center solutions. We examine these capabilities for both single-call and multi-call analytics use cases.
この記事は、langchain-openrouterのバージョン0.1.0のリリースに関する情報を提供しています。このリリースでは、SDKモデル構築における役割の含有、ストリーミングトークン使用のサポート、コストおよびコスト詳細の応答メタデータへの表示、標準モデルプロパティの追加などの新機能が含まれています。また、モデルプロファイルデータの更新や、生成されたプロファイルのモデルIDによる安定した差分のためのソートも行われています。これにより、開発者はより効率的にモデルを利用できるようになります。 • langchain-openrouterのバージョン0.1.0がリリースされた。 • SDKモデル構築において役割を含める修正が行われた。 • ストリーミングトークン使用のサポートが追加された。 • 応答メタデータにコストとコスト詳細が表示されるようになった。 • モデルプロファイルデータが更新され、生成されたプロファイルがモデルIDでソートされるようになった。

This post explores how Ricoh built a standardized, multi-tenant solution for automated document classification and extraction using the AWS GenAI IDP Accelerator as a foundation, transforming their document processing from a custom-engineering bottleneck into a scalable, repeatable service.

Google researchers demonstrate how Bayesian teaching through supervised fine-tuning enables LLMs to approximate optimal probabilistic reasoning and generalize to new domains.

We’re releasing a CLI along with our first set of skills to give AI coding agents expertise in the LangSmith ecosystem. This includes adding tracing to agents, understanding their execution, building test sets, and evaluating performance. On our eval set, this bumps Claude Code’s performance on these tasks

We’re releasing our first set of skills to give AI coding agents expertise in the open source LangChain ecosystem. This includes building agents with LangChain, LangGraph, and Deep Agents. On our eval set, this bumps Claude Code’s performance on these tasks from 29% to 95%. What are Skills?
この記事は、Hugging FaceのTransformersライブラリのバージョン5.3.0のリリースについて説明しています。このリリースには、EuroBERT、VibeVoice ASR、TimesFM2.5、PP-DocLayoutV2、OlmoHybrid、ModernVBert、Higgs Audio V2などの新しいモデルが追加されました。EuroBERTは、双方向注意を持つ多言語エンコーダーモデルで、8192トークンまでのシーケンスをサポートします。VibeVoice ASRは、音声認識モデルで、音声をテキストに変換するための堅牢なトランスクリプションを提供します。TimesFM2.5は、時系列予測のための事前学習済みモデルで、データセット特有のトレーニングなしで正確な予測を行います。PP-DocLayoutV2は、文書レイアウト分析に特化した軽量モデルで、要素の検出と分類を行います。OlmoHybridは、効率を向上させるために標準のトランスフォーマー層と線形注意層を組み合わせたハイブリッドアーキテクチャモデルです。ModernVBertは、視覚的文書理解と検索タスクに最適化されたビジョン・ランゲージエンコーダーです。 • 新モデルの追加:EuroBERT、VibeVoice ASR、TimesFM2.5、PP-DocLayoutV2、OlmoHybrid、ModernVBert、Higgs Audio V2 • EuroBERTは多言語エンコーダーモデルで、8192トークンまでのシーケンスをサポート • VibeVoice ASRは音声認識モデルで、音声をテキストに変換する機能を持つ • TimesFM2.5は時系列予測のための事前学習済みモデルで、データセット特有のトレーニングなしで予測を行う • PP-DocLayoutV2は文書レイアウト分析に特化したモデルで、要素の検出と分類を行う • OlmoHybridはハイブリッドアーキテクチャモデルで、効率を向上させるために異なる注意層を組み合わせている • ModernVBertは視覚的文書理解と検索タスクに最適化されたビジョン・ランゲージエンコーダー
Anti-patterns: things to avoid - Agentic Engineering Patterns
この記事では、TorchAOにおける量子化対応トレーニング(QAT)の拡張について説明しています。特に、ExecuTorchを使用してエッジデバイス向けの大規模言語モデルに焦点を当て、MSLKの高速CUDAカーネルをターゲットにした高速推論のためのフローを紹介しています。UnslothやAxolotlなどの人気のファインチューニングフレームワークへの統合が行われ、INT4 QATを使用することで66.9%の精度低下を回復し、BF16と比較して1.73倍の推論速度向上を実現しています。また、NVFP4 QATを用いることで71.6%の精度低下を回復し、B200 GPUでのHBM使用量を1/4に削減しつつ1.35倍の推論速度向上を達成しています。QATは、ポストトレーニング量子化(PTQ)による精度低下を軽減するための手法であり、LoRAとの組み合わせにより、トレーニング中のストレージと計算要件を大幅に削減しつつ、量子化による劣化を緩和することができます。 • TorchAOにおけるQATの拡張について説明 • ExecuTorchを使用してエッジデバイス向けの大規模言語モデルをターゲット • INT4 QATで66.9%の精度低下を回復し、1.73倍の推論速度向上を実現 • NVFP4 QATで71.6%の精度低下を回復し、HBM使用量を1/4に削減 • QATはポストトレーニング量子化による精度低下を軽減する手法 • LoRAとの組み合わせによりトレーニング中のストレージと計算要件を削減

Canvas in AI Mode is now available for everyone in the U.S. Plus, it can now help you draft documents or build interactive tools.

See how AI is helping governments deliver benefits with greater speed, dignity, and trust while strengthening financial stewardship and supporting frontline teams.
I’m behind on writing about Qwen 3.5, a truly remarkable family of open weight models released by Alibaba’s Qwen team over the past few weeks. I’m hoping that the 3.5 …
この記事は、Mastraの新しいリリース(バージョン1.9.0)に関するもので、主にワークスペースとサンドボックスの機能強化が紹介されています。ワークスペースでは、LSP(Language Server Protocol)がデフォルトで有効化され、柔軟なバイナリ解決やローカルシンボリックマウントが可能になりました。サンドボックスコマンドは、abortSignalをサポートし、バックグラウンドプロセスのストリーミングコールバックが追加されました。また、認証システムがプラグイン可能になり、OAuth/SSOやRBAC(ロールベースのアクセス制御)が導入されました。ワークフローの実行経路追跡機能も追加され、実行ログが最適化されました。これにより、ワークフローの安全な同時更新が可能になり、エラー処理や進捗監視のための新しいコールバックも追加されました。 • ワークスペースとサンドボックスの機能が大幅に強化された。 • LSPがデフォルトで有効化され、柔軟なバイナリ解決が可能。 • サンドボックスコマンドがabortSignalをサポートし、バックグラウンドプロセスのストリーミングコールバックが追加された。 • プラグイン可能な認証システムが導入され、OAuth/SSOやRBACが追加された。 • ワークフローの実行経路追跡機能が追加され、実行ログが最適化された。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行います。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応
We tested Perplexity Computer. Discover why its cloud-based, multi-model AI agent excels at generalist workflows but falls short for web development.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 直感的で使いやすいユーザーインターフェース
Set up Claude Code MCP servers with step-by-step commands, configuration scopes, and Tool Search for 85% less context usage. Plus troubleshooting fixes.
Shock! Shock! I learned yesterday that an open problem I'd been working on for several weeks had just been solved by Claude Opus 4.6 - Anthropic's hybrid reasoning model that …
Google's latest model is an update to their inexpensive Flash-Lite family. At $0.25/million tokens of input and $1.5/million output this is 1/8th the price of Gemini 3.1 Pro. It supports …

OpenAI researcher Josh McGrath explains how GPT-5.3 Instant’s responses when using web search are more contextual, relevant, and stylistically natural.

OpenAI researcher Blair Chen explains how GPT-5.3 Instant reduces unnecessary disclaimers, making ChatGPT more directly helpful and smoother to use.

Learn more about Google DeepMind’s Project Genie and how to write prompts to create your own worlds.

A Blog post by Photoroom on Hugging Face

Gemini 3.1 Flash-Lite is our fastest and most cost-efficient Gemini 3 series model yet.

Gemini 3.1 Flash-Lite is our fastest and most cost-efficient Gemini 3 series model yet.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される

In this post, we explore the virtual try-on capability now available in Amazon Nova Canvas, including sample code to get started quickly and tips to help get the best outputs.

This post details how Lendi Group built their AI-powered Home Loan Guardian using Amazon Bedrock, the challenges they faced, the architecture they implemented, and the significant business outcomes they’ve achieved. Their journey offers valuable insights for organizations that want to use generative AI to transform customer experiences while maintaining the human touch that builds trust and loyalty.

In this post, we show you how to connect Quick Suite with Tines to securely retrieve, analyze, and visualize enterprise data from any security or IT system. We walk through an example that uses a MCP server in Tines to retrieve data from various tools, such as AWS CloudTrail, Okta, and VirusTotal, to remediate security events using Quick Suite.

Read how Frontier Firms are building companies in which AI is embedded in the operating model, not layered on top of yesterday’s processes.

You can now access GPT 5.3 Chat (GPT 5.3 Instant) via Vercel's AI Gateway with no markup and no other provider accounts required.

You can now access the newest Gemini model, Gemini 3.1 Flash Preview via Vercel's AI Gateway with no other provider accounts required.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が入力した要件に基づいて、AIが最適なコードを提案し、開発プロセスを効率化します。また、ツールは多様なプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、初心者でも簡単に扱えるようになっています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の要件に基づいて最適なコードを提案 • JavaScriptやPythonなど多様なプログラミング言語に対応 • 直感的なユーザーインターフェースで初心者でも扱いやすい • 開発プロセスの効率化を実現
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントを基にコードを提案 • 既存の開発環境に簡単に統合可能 • JavaScriptやTypeScriptプロジェクトでの使用が推奨される • 開発効率の向上とエラー削減が期待される
この記事は、Facebook ResearchのFaissライブラリのバージョン1.14.0のリリースに関する詳細を提供しています。このリリースでは、Pythonの型スタブの追加、ARM SVEサポートの追加、k-meansクラスタリングへの早期停止機能の追加、さまざまな新しいインデックスとデモの追加が行われました。また、パフォーマンス向上のためのいくつかのリファクタリングや、SIMDを利用した距離計算の最適化も含まれています。さらに、インデックスのデシリアライズ時の検証強化や、メモリ例外処理の改善も行われています。これにより、Faissはより効率的で使いやすいライブラリとなっています。 • Faissライブラリのバージョン1.14.0がリリースされた。 • Pythonの型スタブが追加され、より良い型ヒントが提供される。 • ARM SVEサポートが追加され、距離計算の性能が向上。 • k-meansクラスタリングに早期停止機能が追加され、計算効率が改善。 • 新しいインデックスやデモが追加され、機能が拡張された。 • デシリアライズ時の検証が強化され、メモリ例外処理が改善された。

A new video course designed to get you from zero to deploying your first agent in under two hours.

Run test cases against agents and workflows, score the results, and track quality over time.
この記事は、langgraph-cliのバージョン0.4.14のリリースに関するもので、主に変更点や修正内容が記載されています。具体的には、CLIに対するチェックポイント設定のパス、いくつかのCVE(脆弱性)を解決するための依存関係の更新、グラフ設定スキーマの更新、型チェック用のターゲットの追加などが含まれています。また、いくつかの依存関係がバージョンアップされており、特にlanggraph-sdkやlangchain-coreの更新が行われています。これにより、CLIの機能性やセキュリティが向上しています。 • langgraph-cliのバージョン0.4.14がリリースされた • CLIにチェックポイント設定を追加した • 複数のCVEを解決するために依存関係を更新した • グラフ設定スキーマに説明フィールドを追加した • 型チェック用のターゲットを追加した • langgraph-sdkやlangchain-coreのバージョンを更新した

In this post, we share results from the AWS China Applied Science team's comprehensive evaluation of Nova Forge using a challenging Voice of Customer (VOC) classification task, benchmarked against open-source models.

This post explores how to build an intelligent conversational agent using Amazon Bedrock, LangGraph, and managed MLflow on Amazon SageMaker AI.

In this post, we will show you how to configure Amazon Bedrock Guardrails for efficient performance, implement best practices to protect your applications, and monitor your deployment effectively to maintain the right balance between safety and user experience.
この記事は、langchain-huggingfaceのバージョン1.2.1のリリースに関するもので、主にいくつかのバグ修正と依存関係の更新が行われたことを報告しています。具体的には、Hugging Faceとの統合テストプロバイダーを変更し、huggingface-hubの互換性を解決し、transformersおよびsentence-transformersの下限バージョンを引き上げました。また、モデルプロファイルの生成をモデルIDでソートする修正も含まれています。さらに、いくつかの依存関係のバージョンを更新し、ドキュメントの改善も行われました。 • Hugging Faceとの統合テストプロバイダーを変更した • huggingface-hubの互換性を解決した • transformersとsentence-transformersの下限バージョンを引き上げた • モデルプロファイルをモデルIDでソートする修正を行った • 依存関係のバージョンを更新し、ドキュメントを改善した
この記事では、mastraの新しいリリース(バージョン1.8.0)に関する重要な機能と変更点が紹介されています。新たに導入されたスーパーバイザーパターンにより、複数のエージェントをストリームや生成を通じて調整できるようになり、メモリの隔離やツールの承認伝播などの機能が追加されました。また、メタデータのみのベクタークエリがサポートされ、クエリベクターがオプションとして扱えるようになりました。さらに、runEvalsにターゲットオプションが追加され、エージェントやワークフローの実行オプションを柔軟に指定できるようになりました。ワークスペースの編集後には、言語サーバープロトコルの診断が即座に表示される機能も追加され、エラーの早期発見が可能になっています。最後に、新しいBlaxelクラウドサンドボックスプロバイダーが追加され、デプロイメントやランタイムの選択肢が拡大しました。 • スーパーバイザーパターンにより、複数エージェントの調整が可能に • メタデータのみのベクタークエリがサポートされ、クエリベクターがオプションに • runEvalsにターゲットオプションが追加され、エージェントやワークフローの実行オプションを柔軟に指定可能 • ワークスペース編集後に言語サーバープロトコルの診断が即座に表示される • 新しいBlaxelクラウドサンドボックスプロバイダーが追加され、デプロイメントオプションが拡大

Discover how SharePoint’s 25‑year legacy powers Microsoft 365 Copilot, Work IQ, and AI‑driven knowledge for organizations worldwide.