Last updated: 2026/01/13 23:01

この記事では、量子誤り訂正(QEC)のための新しい動的回路の運用について説明しています。従来の静的回路に比べて、動的回路はより少ないカプラーを使用し、相関エラーを除去し、異なるタイプの量子ゲートを利用することで、柔軟性を持たせています。Google Quantum AIの量子プロセッサは、ノイズに敏感な超伝導回路から構成される物理キュービットを使用しており、QECはこれらの物理キュービットを論理キュービットに結合し、ノイズに対する耐性を高める役割を果たします。最近発表された研究では、動的回路を用いた表面コードの実験的デモンストレーションが行われ、エラーを検出するために異なる回路構成を交互に使用することで、エラー抑制の柔軟性が向上しました。これにより、超伝導キュービットが直面する大きな課題を回避することが可能となり、量子情報の安定性を損なうことなく物理エラーを特定することができます。 • 量子誤り訂正(QEC)は、量子アルゴリズムに必要な超低エラー率を達成するために重要である。 • 動的回路は、エラーを検出するために異なる回路構成を交互に使用し、柔軟性を提供する。 • 動的回路を使用することで、超伝導キュービットが直面する課題(漏れ、ハードウェアの制約、キュービットのドロップアウト)を回避できる。 • 新しい回路(六角形、ウォーキング、iSWAP)は、QECの特定の課題を解決する。 • 動的回路は、物理エラーを特定し、論理量子情報への影響を防ぐための重複する検出領域を組み合わせる。
この記事は、GitHub上で公開されたstagehand/serverのバージョン3.4.0のリリースに関する情報を提供しています。このリリースでは、OpenAPI仕様からx-languageおよびx-sdk-versionが削除され、モデル名の例にプロバイダー/モデル構文が使用されるようになりました。また、ドキュメントが更新され、バージョン番号が新しい3.4.0に更新されました。これにより、APIの仕様がより明確になり、開発者が利用しやすくなっています。 • OpenAPI仕様からx-languageおよびx-sdk-versionが削除された • モデル名の例にプロバイダー/モデル構文が使用されるようになった • ドキュメントが更新された • バージョン番号が3.4.0に更新された • APIの仕様が明確になり、開発者にとって利用しやすくなった
Learn how to create, structure, and maintain CLAUDE.md files for Claude Code. Save hours by documenting project conventions that persist across sessions.

LangSmith Agent Builder is now generally available—enabling anyone to build agents for complex daily tasks, without writing code.

LangSmith Agent Builder is now generally available—enabling anyone to build agents for complex daily tasks, without writing code.
この記事は、Hugging FaceのTransformersライブラリのバージョン4.57.5のパッチリリースについて説明しています。このリリースでは、いくつかの重要な修正が行われ、特にlr_scheduler_parsingの修正や、setattrにおけるスキップされたキーの追加が含まれています。これらの修正は、以前のパッチやバージョン5への移行の過程で見落とされていたもので、最終的な調整として位置付けられています。リリースは2023年1月13日に行われ、1188のコミットがメインブランチに追加されています。 • バージョン4.57.5のリリースは、Hugging FaceのTransformersライブラリにおける重要なパッチである。 • lr_scheduler_parsingの修正が行われた。 • setattrにおいてスキップされたキーが追加された。 • これらの修正は、以前のパッチやバージョン5への移行中に見落とされたものである。 • リリース日は2023年1月13日で、1188のコミットがメインブランチに追加された。
この記事は、Hugging FaceのTransformersライブラリのバージョン4.57.4のパッチリリースについて説明しています。このリリースでは、リモート生成メソッド(グループビームサーチなど)、vLLM、オフライントークナイザーの修正が含まれています。具体的には、設定パラメータによるグループビームサーチの改善、オプション引数を持つデコレーターの処理の改善、オフライン読み込みを修正するための条件付きチェックの追加が行われました。また、新しい貢献者としてKillusionsが紹介されています。 • リモート生成メソッドの小さな修正が行われた • vLLMに関する修正が含まれている • オフライントークナイザーの修正が行われた • グループビームサーチの設定パラメータによる改善があった • 新しい貢献者がプロジェクトに参加した
この記事は、Langchainのコアライブラリのバージョン0.3.83のリリースに関する情報を提供しています。このリリースでは、主にrun idsにuuid7を使用する機能が追加されました。これにより、ランの識別がより効率的に行えるようになります。リリースはGitHub上で行われ、バージョン0.3.82からの変更点が記載されています。リリース日は2023年1月13日で、GitHubの署名付きコミットとして確認されています。 • Langchainのコアライブラリのバージョン0.3.83がリリースされた。 • 新機能としてrun idsにuuid7を使用することが追加された。 • リリース日は2023年1月13日である。 • このリリースはGitHub上で行われ、署名付きコミットとして確認されている。
この記事は、langgraph-sdkのバージョン0.3.3のリリースに関する情報を提供しています。このリリースでは、エラーメッセージの改善や、クライアントに終了時間を追加する機能が含まれています。これにより、開発者はより明確なエラーメッセージを受け取ることができ、クライアントの動作をより正確に管理できるようになります。リリース日は2023年1月13日で、GitHub上で公開されています。 • エラーメッセージの改善が行われた。 • クライアントに終了時間を追加する機能が追加された。 • リリース日は2023年1月13日。 • バージョンは0.3.3である。 • GitHub上で公開されている。

AI is ubiquitous on college campuses. We sat down with students to hear what's going well, what isn't, and how students, professors, and universities alike are navigating it in real time. 0:00 - Introduction 0:22 - Meet the panel 1:06 - Vibes on campus 6:28 - What are students building? 11:27 - AI as tool vs. crutch 16:44 - Are professors keeping up? 20:15 - Downsides 25:55 - AI and the job market 34:23 - Rapid-fire questions
Classic prompt injection attack: When asked to summarize the user’s recent mail, a prompt injection in an untrusted email manipulated Superhuman AI to submit content from dozens of other sensitive …

New from Anthropic today is Claude Cowork, a “research preview” that they describe as “Claude Code for the rest of your work”. It’s currently available only to Max subscribers ($100 …
この記事は、langgraph-checkpoint-postgresのバージョン3.0.3のリリースに関する情報を提供しています。このリリースは2023年1月12日に行われ、主な変更点として、デフォルトのベースキャッシュの設定が変更されたことと、ストレージに関するドキュメントの修正が含まれています。リリースはGitHub上で行われ、コミットはGitHubの検証済み署名で作成されています。 • langgraph-checkpoint-postgresのバージョン3.0.3がリリースされた • リリース日は2023年1月12日 • デフォルトのベースキャッシュの設定が変更された • ストレージに関するドキュメントが修正された • リリースはGitHubで行われ、検証済みの署名が付与されている
この記事は、langgraphのバージョン1.0.6のリリースに関する情報を提供しています。このリリースでは、いくつかのバグ修正と機能改善が行われました。具体的には、デフォルトのベースキャッシュの設定が変更され、再帰の制限が調整され、深くネストされたグラフジャンプのための名前空間がサニタイズされました。また、タイプミスの修正も行われ、APIの制約が緩和されました。さらに、チェックポイントのタイプをコンパイル時に検証する機能が追加されました。 • バージョン1.0.6のリリースに伴うバグ修正と機能改善が行われた • デフォルトのベースキャッシュの設定が変更された • 再帰の制限が調整された • 深くネストされたグラフジャンプのための名前空間がサニタイズされた • タイプミスの修正が行われた • APIの制約が緩和された • チェックポイントのタイプをコンパイル時に検証する機能が追加された
この記事は、GitHub上で公開されたlanggraph-prebuiltのバージョン1.0.6に関するリリースノートを提供しています。このリリースでは、いくつかのバグ修正と新機能が追加されています。具体的には、デフォルトのベースキャッシュのフリップ、ToolRuntime注入のためのジェネリック型引数のサポート、ToolCallRequestのオーバーライドにstate属性を追加、意図しない非推奨警告の抑制、ツールノードドキュメントのx-refsと説明の追加、チェックポイントの型をコンパイル時に検証する機能、カスタム暗号化の追加、アシスタントの検索応答にページネーションを含める機能などが含まれています。 • バージョン1.0.6のリリースにおける主な変更点が記載されている • デフォルトのベースキャッシュの設定が変更された • ToolRuntime注入においてジェネリック型引数がサポートされた • ToolCallRequestにstate属性が追加された • 意図しない非推奨警告が抑制された • ツールノードのドキュメントにx-refsと説明が追加された • チェックポイントの型をコンパイル時に検証する機能が追加された • カスタム暗号化機能が実装された • アシスタントの検索応答にページネーションが追加された
この記事は、GitHub上で公開されたlanggraph-checkpoint-sqliteのバージョン3.0.2に関するリリースノートです。このリリースは2023年1月12日に行われ、主な変更点として、デフォルトのベースキャッシュの設定が変更されたことと、ストレージに関するドキュメントの修正が含まれています。リリースはGitHubの検証済み署名で作成されており、ユーザーはリリースの詳細を確認することができます。 • リリースされたバージョンは3.0.2である • デフォルトのベースキャッシュの設定が変更された • ストレージに関するドキュメントの修正が行われた • リリースはGitHubの検証済み署名で作成された
この記事は、GitHub上で公開されたlanggraph-checkpointのバージョン4.0.0に関するリリースノートです。このリリースでは、いくつかの修正が行われています。具体的には、base cacheのデフォルト設定の変更、InMemorySaverのコンテキストマネージャがselfを返すように修正、シリアライザプロトコルのドキュメンテーションの修正、いくつかの参照のクリーンアップ、pyproject.tomlへのリンクの追加が含まれています。これらの変更は、ソフトウェアの安定性や使いやすさを向上させることを目的としています。 • base cacheのデフォルト設定が変更された • InMemorySaverのコンテキストマネージャがselfを返すように修正された • シリアライザプロトコルのドキュメンテーションが修正された • いくつかの参照がクリーンアップされた • pyproject.tomlへのリンクが追加された

Cowork brings Claude Code’s agentic capabilities to the Claude desktop app. Give Claude access to a folder, set a task, and let it work. It loops you in along the way. Try it at claude.com/download.

NeuralGCMは、NASAの降水観測データを用いて訓練されたニューラルネットワークと物理ベースのモデリングを組み合わせ、長期的なグローバル降水のシミュレーションをより正確に行うことを目的としたモデルです。このモデルは、特に日々の降水サイクルや極端な降水イベントの捕捉において、他の手法よりも優れた結果を示しています。NeuralGCMは、従来の大気モデルと比較して、2〜15日間の天気予報の精度を向上させ、過去40年間の歴史的な気温をより正確に再現しました。特に、降水の平均値や極端な降水(上位0.1%の降水量)をより正確に再現することができ、日々の天候サイクルも改善されています。NeuralGCMは、物理学とAIを組み合わせたハイブリッドモデルであり、他のAI専用の気象モデルと補完的な役割を果たしています。 • NeuralGCMはNASAの降水観測データを用いて訓練されたニューラルネットワークを使用している。 • このモデルは、特に日々の降水サイクルや極端な降水イベントのシミュレーションにおいて他の手法よりも優れている。 • 2〜15日間の天気予報の精度を向上させ、過去40年間の気温をより正確に再現した。 • 降水の平均値や極端な降水(上位0.1%)をより正確に再現することができる。 • 物理学とAIを組み合わせたハイブリッドモデルであり、他のAI専用モデルと補完的な関係にある。

We’re introducing ChatGPT Health, a dedicated experience that securely brings your health information and ChatGPT’s intelligence together, to help you feel more informed, prepared, and confident navigating your health. With Health, ChatGPT can help you understand recent test results, prepare for appointments with your doctor, get advice on how to approach your diet and workout routine, or understand the tradeoffs of different insurance options based on your healthcare patterns. Join the waitlist: https://chatgpt.com/health/waitlist
Is Anthropic's polished CLI better than the open-source alternative? We compare features, the OAuth drama, and why visual context is the missing piece.

This post is co-written with Sunaina Kavi, AI/ML Product Manager at Omada Health. Omada Health, a longtime innovator in virtual healthcare delivery, launched a new nutrition experience in 2025, featuring OmadaSpark, an AI agent trained with robust clinical input that delivers real-time motivational interviewing and nutrition education. It was built on AWS. OmadaSpark was designed […]

Get started with Codex, OpenAI’s coding agent, in this step-by-step onboarding walkthrough. You’ll learn how to install Codex, set up the CLI and VS Code extension, configure your workflow, and use Agents.md and prompting patterns to write, review, and reason across a real codebase. This video covers: Installing Codex (CLI + IDE) Setting up a repo and getting your first runs working Writing a great Agents.md (patterns + best practices) Configuring Codex for your environment Prompting patterns for more consistent results Tips for using Codex in the CLI and IDE Advanced workflows: headless mode + SDK Start here Sign up: https://openai.com/codex/ Codex overview + docs: https://developers.openai.com/codex Codex Cookbook: https://cookbook.openai.com/topic/codex Install + setup VS Code extension: https://marketplace.visualstudio.com/items?itemName=openai.chatgpt Agents.md standard: https://agents.md Agents.md repo: https://github.com/agentsmd/agents.md Prompting + workflows Prompting guide: https://developers.openai.com/codex/prompting/ Exec plans (Agents.md patterns): https://cookbook.openai.com/articles/codex_exec_plans Config reference: https://github.com/openai/codex/blob/main/docs/config.md#config-reference Updates Changelog: https://developers.openai.com/codex/changelog Releases: https://github.com/openai/codex/releases

We recently released AI Workflow Builder for Starter, Pro and Enterprise Cloud customers, turning your natural language prompts into working automations. Instead of launching into building a new workflow from scratch with a blank canvas, you can easily get your automation ideas out of your head and into a functioning

agent-browser は Vercel が開発した CLI でブラウザを操作するツールであり、AI エージェントにブラウザ操作能力を提供するために設計されています。この記事では agent-browser のインストール方法、基本的な使い方、AI エージェントからの利用方法について紹介します。

<h2><a id="tldr" class="anchor" href="#tldr" aria-hidden="true"><svg aria-hidden="true" class="octicon octicon-link" height="16" version="1.1" viewbox="0 0 1...
I'm glad someone was brave enough to say this. There is a lot of anti-AI sentiment in the software development community these days. Much of it is justified, but if …
Last month I wrote about porting JustHTML from Python to JavaScript using Codex CLI and GPT-5.2 in a few hours while also buying a Christmas tree and watching Knives Out …

The Top AI Papers of the Week (January 5-11)
Also note that the python visualizer tool has been basically written by vibe-coding. I know more about analog filters -- and that's not saying much -- than I do about …
Provocative experiment from Drew Breunig, who designed a new library for time formatting ("3 hours ago" kind of thing) called "whenwords" that has no code at all, just a carefully …
RooCodeIncのRoo-Codeリポジトリでのリリースv3.39.3では、Roo Code Cloud Providerの名称をRoo Code Routerに変更し、ブランドの明確化を図った。また、コードベース全体でRoo Code Routerサービス名を更新し、一貫性を持たせるために型のルーター名も更新された。ExtensionHostのコードの整理とクリーンアップが行われ、CLIリリーススクリプトにローカルインストールオプションが追加された。CLIのファイル構造もより保守しやすく再編成され、CLIにTUIが追加された。 • Roo Code Cloud Providerの名称をRoo Code Routerに変更した • コードベース全体でRoo Code Routerサービス名を更新した • 型のルーター名を一貫性を持たせるために更新した • ExtensionHostのコードの整理とクリーンアップを実施した • CLIリリーススクリプトにローカルインストールオプションを追加した • CLIのファイル構造を再編成し、保守性を向上させた • CLIにTUIを追加した

TL;DR * In traditional software, you read the code to understand what the app does - the decision logic lives in your codebase * In AI agents, the code is just scaffolding - the actual decision-making happens in the model at runtime * Because of this, the source of truth for what

TL;DR * In traditional software, you read the code to understand what the app does - the decision logic lives in your codebase * In AI agents, the code is just scaffolding - the actual decision-making happens in the model at runtime * Because of this, the source of truth for what
この記事は、mastra-aiのリリースノートに関するもので、2026年1月9日に公開された内容を含んでいます。主な変更点として、@mastra/agent-builderの新しいバージョンがリリースされ、agent.network()メソッドに構造化出力のサポートが追加されました。これにより、ユーザーはZodスキーマを使用して型付きの結果を取得できるようになりました。また、すべての観測エクスポーターが環境変数を使用したゼロコンフィグ設定をサポートするようになり、特定の環境変数を設定することで、エクスポーターを構成なしでインスタンス化できるようになりました。これにより、ユーザーは設定の手間を省くことができます。 • agent.network()メソッドに構造化出力のサポートが追加された • Zodスキーマを使用して型付きの結果を取得可能 • すべての観測エクスポーターがゼロコンフィグ設定をサポート • 環境変数を使用してエクスポーターを構成なしでインスタンス化できる • 明示的な設定も引き続き機能し、環境変数より優先される
この記事は、Mastraプロジェクトの新しいリリースに関するもので、主にパッケージの変更点や改善点について説明しています。リリースには、74のパッケージが含まれ、そのうち10はマイナーな変更、67はパッチ変更です。特に、Mastraパッケージに埋め込みドキュメントサポートが追加され、各パッケージには目的や機能を説明するSKILL.mdや、機械可読なインデックスを提供するSOURCE_MAP.jsonが含まれています。また、エージェントネットワークがテキスト応答を正しく返すように修正され、MessageListクラスがリファクタリングされてメンテナンス性が向上しました。これにより、コードベースが理解しやすくなり、テスト可能性も向上しています。 • Mastraプロジェクトの新しいリリースに関する情報 • 74のパッケージが変更され、67はパッチ変更 • 埋め込みドキュメントサポートが追加され、各パッケージにSKILL.mdとSOURCE_MAP.jsonが含まれる • エージェントネットワークがテキスト応答を正しく返すように修正された • MessageListクラスがリファクタリングされ、メンテナンス性とテスト可能性が向上した
この記事は、mastra-aiのリリースノートに関するもので、2025年12月29日に公開された内容をまとめています。主な変更点として、17のパッケージに対する変更があり、特にデータチャンクプロパティのフィルタリングが修正され、必要なプロパティのみが返されるようになりました。また、AI SDK 5+において、埋め込みモデルのオプションを指定する方法が変更され、Memoryの設定でプロバイダー固有のオプションを渡すことができるようになりました。さらに、Anthropic APIのエラー修正も行われ、ツールコールの引数が正しく再構築されるようになりました。これにより、APIのバリデーションに必要なフィールドが適切に含まれるようになりました。 • データチャンクプロパティのフィルタリングが修正され、必要なプロパティのみが返されるようになった。 • AI SDK 5+で埋め込みモデルのオプション指定方法が変更され、Memory設定でプロバイダー固有のオプションを渡せるようになった。 • Anthropic APIのエラーが修正され、ツールコールの引数が正しく再構築されるようになった。 • 新たにfindToolCallArgs()ヘルパーメソッドが追加され、メッセージ内の元のツールコール引数を検索できるようになった。 • テストカバレッジが強化され、空のオブジェクト入力に対するテストが追加された。
この記事は、mastra-aiのリリースに関する情報を提供しています。2025年12月26日に公開されたこのリリースには、20のパッケージに変更があり、特に2つのパッチ変更が含まれています。主な修正点として、semantic recall機能がスレッド内のすべてのメッセージを取得するのではなく、セマンティックに一致したメッセージのみを取得するように修正されました。また、SensitiveDataFilterがDateオブジェクトを正しく保持するように改善され、これにより、Dateメソッドに依存するエクスポーターが正常に動作するようになりました。これらの変更は、mastraのコアや他の関連パッケージに対する依存関係の更新を伴っています。 • リリース日は2025年12月26日で、20のパッケージに変更があった。 • semantic recall機能がスレッド内のメッセージを正しく取得するように修正された。 • SensitiveDataFilterがDateオブジェクトを正しく保持するように改善された。 • これにより、Dateメソッドに依存するエクスポーターが正常に動作するようになった。 • mastraのコアや他の関連パッケージに対する依存関係の更新が行われた。
この記事は、mastra-aiのリリースに関する情報を提供しています。2025年12月24日に公開されたこのリリースには、15のパッケージに変更があり、主に依存関係の更新が含まれています。特に、Zod 4との互換性を修正するパッチが含まれており、ストレージスキーマの検出が正しく行われるようになりました。これにより、nullableおよびoptionalフィールドが正しく識別され、データベースの制約違反が防止されます。また、OpenAIの構造化出力との互換性を確保するための修正も行われています。 • リリース日は2025年12月24日で、15のパッケージに変更がある。 • Zod 4との互換性を修正するパッチが含まれている。 • ストレージスキーマの検出が正しく行われるようになり、データベースの制約違反が防止される。 • OpenAIの構造化出力との互換性を確保するための修正が行われている。 • 依存関係の更新が多数行われている。
この記事は、mastra-aiのリリースノートに関するもので、2025年12月24日に公開された内容を含んでいます。主な変更点として、TypeScriptの型エラーを解決するために、tool.execute()の戻り値の型を修正したことが挙げられます。また、MastraStorageが異なるアダプターからストレージドメインを構成できるようになり、異なるデータベースを用途に応じて使用できるようになりました。さらに、Runクラスにcancel()メソッドが追加され、より簡潔なAPIが提供されています。これらの変更は、開発者がより効率的にツールを使用できるようにすることを目的としています。 • TypeScriptの型エラーを解決するためにtool.execute()の戻り値の型を修正した。 • MastraStorageが異なるアダプターからストレージドメインを構成できるようになった。 • 異なるデータベースを用途に応じて使用できるようになった。 • Runクラスにcancel()メソッドが追加され、APIが簡潔になった。 • これらの変更は開発者の効率を向上させることを目的としている。
この記事は、mastra-aiのリリースノートに関するもので、2025年12月23日に公開された内容をまとめています。主な変更点として、LLM(大規模言語モデル)呼び出しにおけるモデルレベルおよびランタイムヘッダーのサポート修正が挙げられます。この修正により、モデル設定で構成されたカスタムヘッダーがAI SDK呼び出しに正しく渡されるようになりました。また、Telemetry機能の無効化設定が無視される問題も修正され、無駄なスパン生成のオーバーヘッドを防ぐための短絡評価が追加されました。さらに、bundler.externalsオプションの設定が可能になり、mastraビルド時に依存関係を外部として扱うことができるようになりました。 • LLM呼び出しにおけるモデルレベルおよびランタイムヘッダーのサポート修正 • Telemetry機能の無効化設定が正しく機能するよう修正 • bundler.externalsオプションの設定が可能になり、依存関係を外部として扱えるように • カスタムヘッダーがAI SDK呼び出しに正しく渡されるようになった • 無駄なスパン生成のオーバーヘッドを防ぐための修正
この記事は、mastra-aiのリリースノートに関するもので、2025年12月18日に公開された内容をまとめています。主な変更点として、9つのパッケージに変更があり、そのうち2つはパッチ変更です。特に、@mastra/client-jsや@mastra/coreなどの依存関係が更新され、古い評価システムから新しいスコアリングシステムへの変更が行われました。また、A2Aプロトコルにおいて、実行メタデータが追加され、エージェント実行中に呼び出されたツールやその結果、トークン使用量、完了理由などの詳細な実行情報が返されるようになりました。これにより、クライアントはエージェントの実行統計を追加のクエリなしで確認できるようになります。 • 9つのパッケージに変更があり、2つはパッチ変更 • @mastra/client-jsや@mastra/coreなどの依存関係が更新された • 古い評価システムから新しいスコアリングシステムへの変更が行われた • A2Aプロトコルに実行メタデータが追加された • エージェント実行中のツール呼び出しや結果、トークン使用量などの詳細情報が提供されるようになった
この記事は、mastra-aiのリポジトリにおける2025年12月17日のリリースに関する情報を提供しています。主な変更点として、@mastra/coreのバージョン0.24.9-alpha.0におけるパッチ変更が挙げられ、特に大きなペイロードを処理する際のメモリリークを修正したことが強調されています。具体的には、@withSpanデコレーターが、base64画像のような大きな入力をトレースする際に無制限のメモリ成長を防ぐために、制限付きシリアル化ユーティリティを使用するように変更されました。その他の依存関係の更新も行われており、複数のパッケージが@mastra/coreの新しいバージョンに依存しています。 • メモリリークの修正が行われた • @withSpanデコレーターが改良された • 大きなペイロード処理時のメモリ成長を防ぐための変更 • 複数のパッケージが@mastra/coreの新バージョンに依存している • リリース日とバージョン情報が記載されている
この記事は、mastra-aiのリリースノートに関するもので、2025年12月18日に公開された内容を含んでいます。主な変更点として、AI SDK v6(LanguageModelV3)のサポートが追加され、エージェントは新しいモデルを利用できるようになりました。新機能として、使用状況の正規化が行われ、V3のネストされた使用形式がMastraのフラット形式に変換されます。また、既存のV1およびV2モデルは変更なく動作し続けます。さらに、Auth0認証プロバイダーにおいて、トークン検証の安全性を向上させるための重要な変更が加えられ、サーバーのクラッシュを防ぎ、適切な認可チェックが行われるようになりました。これにより、システム全体の安定性が向上し、安全な認証と認可の動作が強化されます。 • AI SDK v6(LanguageModelV3)のサポートが追加された。 • 使用状況の正規化により、V3のネストされた使用形式がMastraのフラット形式に変換される。 • 既存のV1およびV2モデルは変更なく動作する。 • Auth0認証プロバイダーにおいて、トークン検証の安全性が向上した。 • サーバーのクラッシュを防ぎ、適切な認可チェックが行われるようになった。
この記事では、mastraというプロジェクトのリリースに関する情報が提供されています。2025年12月17日にリリースされたバージョンには、13のパッケージに変更があり、特に2つのパッチ変更が含まれています。新たに追加された機能として、ワークフローオプションにonFinishおよびonErrorのライフサイクルコールバックがサポートされるようになりました。これにより、ワークフローの完了やエラー処理をサーバーサイドで行うことが可能になります。具体的には、onFinishはワークフローが完了した際に呼び出され、onErrorはワークフローが失敗した場合にのみ呼び出されます。これらのコールバックは同期および非同期の関数をサポートし、エラーはログに記録され、ワークフローの結果には伝播されません。 • mastraプロジェクトの2025年12月17日のリリース情報 • 13のパッケージに変更があり、2つのパッチ変更が含まれる • ワークフローオプションにonFinishおよびonErrorのライフサイクルコールバックが追加された • onFinishはワークフロー完了時に呼び出され、onErrorは失敗時に呼び出される • コールバックは同期および非同期関数をサポートし、エラーはログに記録される
この記事は、mastra-aiのmastraリポジトリにおける2025年12月17日のリリースに関する情報を提供しています。リリースには39のパッケージが含まれ、そのうち26はパッチ変更が行われました。特に、useChatを使用する際にメッセージの重複が発生する問題が修正され、バックエンドからのメッセージIDがストレージと一致するようになりました。また、ワークフローのエラー処理が改善され、エラーの詳細情報が保持されるようになりました。これにより、アプリケーション内でのエラー特有の回復ロジックが可能になります。さらに、PostgreSQLやClickHouseにおけるテーブル作成時のSQLタイプの一貫性が向上しました。 • 39のパッケージが変更され、26のパッチ変更が行われた。 • useChatでのメッセージ重複問題が修正され、メッセージIDの一致が確保された。 • ワークフローエラーがカスタムプロパティを保持するようになり、エラー特有の回復ロジックが可能になった。 • PostgreSQLやClickHouseでのSQLタイプの一貫性が向上した。 • 新しいRunインスタンスがclient-jsに追加され、異なる実行メソッドに使用できるようになった。
この記事は、mastra-aiのリポジトリにおける2025年12月10日のリリースに関する情報を提供しています。リリースには、合計13のパッケージが変更され、その中でパッチ変更が1件含まれています。具体的には、@mastra/client-jsのバージョン0.17.1-alpha.0や、@mastra/coreのバージョン0.24.8-alpha.0など、複数の依存関係が更新されています。また、tsconfigpathsプラグインに対する簡単な仮想チェックが追加され、CI環境での不具合が修正されています。 • 合計13のパッケージが変更された • パッチ変更が1件含まれている • @mastra/[email protected]の依存関係が更新された • @mastra/[email protected]の依存関係が更新された • tsconfigpathsプラグインに対する仮想チェックが追加された
この記事は、mastra-aiのGitHubリポジトリにおける2025年12月10日のリリースに関する情報を提供しています。主な変更点として、ワークフロー内で発生するトリップワイヤーの新しい実行ステータスが追加され、トリップワイヤーが発生した場合にワークフローが適切な状態を返すようになりました。具体的には、エージェントステップがトリップワイヤーをトリガーすると、ワークフローは'tripwire'ステータスを返し、トリップワイヤーの詳細情報を含むようになります。また、エージェントチャットとワークフローUIにおいてトリップワイヤーの新しいUI状態が追加され、これは予期しないエラーを示す'status: failed'とは異なります。さらに、依存関係の更新やメッセージの順序に関する型安全性の向上も行われています。 • ワークフロー内でのトリップワイヤーの新しい実行ステータスが追加された。 • トリップワイヤーが発生した場合、ワークフローは'tripwire'ステータスを返し、詳細情報を提供する。 • エージェントチャットとワークフローUIにトリップワイヤーの新しいUI状態が追加された。 • メッセージの順序に関する型安全性が向上し、'createdAt'フィールドのみを受け入れるように制限された。 • Mastra Studioのためのベースパスを提供する機能が追加された。
この記事は、mastra-aiのリリースノートに関するもので、2025年12月9日に公開された内容を含んでいます。主な変更点として、Observability ExportersにおけるCachedTokenの追跡修正や、Langfuse、Braintrust、PostHogエクスポータのTimeToFirstTokenの修正が挙げられます。また、ワークフロー実行の削除APIが追加され、エージェントワークフローのステップにおいて型安全な構造化出力のサポートが強化されました。これにより、エージェントの出力スキーマが提供されたスキーマから正しく推論されるようになり、次のステップで直接受け取ることが可能になります。さらに、複数のツールが同時に出力をストリーミングする際のバグも修正され、信頼性が向上しました。 • Observability ExportersにおけるCachedTokenの追跡修正 • Langfuse、Braintrust、PostHogエクスポータのTimeToFirstTokenの修正 • ワークフロー実行の削除APIの追加 • エージェントワークフローのステップにおける型安全な構造化出力のサポート強化 • 複数ツールの同時出力ストリーミングのバグ修正
この記事は、mastra-aiのリリースノートに関するもので、2025年12月9日に公開された内容をまとめています。主な変更点として、12のパッケージに対するパッチ変更があり、特に@mastra/agent-builderのインストールステップの検証エラーを修正し、targetPathパラメータをオプションにしました。また、AI SDKを使用した際のツール呼び出しのサスペンドチャンクがフロントエンドで受信されない問題を修正しました。さらに、外部パッケージのサブパスインポートを正しく除外するためのバンドル修正や、デプロイ中のビルドエラーに対するエラーメッセージの改善も行われました。MCPClientの自動再接続機能も強化され、セッションが無効になった際のエラー処理が改善されています。 • @mastra/agent-builderのインストールステップの検証エラーを修正し、targetPathをオプションにした。 • AI SDKを使用した際のツール呼び出しのサスペンドチャンクがフロントエンドで受信されない問題を修正した。 • 外部パッケージのサブパスインポートを正しく除外するためのバンドル修正を行った。 • デプロイ中のビルドエラーに対するエラーメッセージを改善し、問題のあるパッケージを特定できるようにした。 • MCPClientの自動再接続機能を強化し、セッションが無効になった際のエラー処理を改善した。
この記事は、mastra-aiのGitHubリポジトリにおけるmastraのリリースノートをまとめたもので、2025年12月8日に公開された内容を含んでいます。主な変更点として、AI SDKのパッチ変更があり、エージェントの実行イベントやワークフロー実行イベントにおいてNetworkDataPartが返されるようになりました。また、ツール呼び出しが一時停止された際に、フロントエンドで正しく受信されない問題が修正され、ツール呼び出しの一時停止や承認、オブジェクト、トリップワイヤーのチャンクが正しく処理されるようになりました。さらに、AI SDKモデルをMastraプロセッサーとメモリでラップするためのwithMastra()メソッドが追加され、エージェントのストレージサポートも実装されました。これにより、エージェントの設定を永続化し、実行可能なエージェントインスタンスを動的に作成できるようになりました。 • AI SDKのパッチ変更により、エージェント実行イベントでNetworkDataPartが返されるようになった。 • ツール呼び出しが一時停止された際の問題が修正され、正しくフロントエンドで受信されるようになった。 • withMastra()メソッドが追加され、AI SDKモデルをMastraプロセッサーとメモリでラップできるようになった。 • エージェントのストレージサポートが追加され、エージェントの設定を永続化できるようになった。 • エージェントインスタンスを動的に作成する機能が実装された。
この記事は、mastra-aiのリポジトリにおける2025年12月5日のリリースに関する情報を提供しています。主な変更点として、@mastra/client-jsパッケージのzodToJsonSchema実装が改善され、Zodスキーマの特定の機能が追加されました。これにより、z.record()やz.date()を使用する際の問題が解決され、依存関係のzod-to-json-schemaが削除されました。また、workflowの再開時にwriter.customが正しく機能しない問題が修正され、カスタムイベントが適切に発生するようになりました。その他にも、複数の依存関係の更新が行われています。 • @mastra/client-jsパッケージのzodToJsonSchema実装が改善された。 • Zodスキーマのz.record()やz.date()に関する問題が解決された。 • workflowの再開時にwriter.customが正しく機能しない問題が修正された。 • 依存関係のzod-to-json-schemaが削除された。 • 複数の依存関係が更新された。
この記事は、mastra-aiのリリースノートに関するもので、2025年12月6日に公開された内容を含んでいます。主な変更点として、29のパッケージに対する修正があり、特に@mastra/agent-builderのインストールステップのバリデーションエラーを修正し、targetPathパラメータをオプションにしました。また、複数のルートスパンが同じtraceIdを共有する場合のトレースデータの上書きを防ぐための修正も行われました。さらに、saveScore関数がIDを正しく保持するようになり、getScoreById関数でのスコア取得が可能になりました。これにより、データの整合性が向上し、デバッグが容易になりました。 • @mastra/agent-builderのインストールステップのバリデーションエラーを修正 • 複数のルートスパンが同じtraceIdを共有する場合のトレースデータの上書きを防止 • saveScore関数がIDを正しく保持し、getScoreById関数でのスコア取得が可能に • バリデーションエラーにコンテキスト情報を追加し、デバッグを容易に • 全てのストア実装でデータの整合性を確保
この記事は、mastra-aiのリリースに関するもので、特にバージョン1.0.0-beta.7における変更点を詳述しています。主な変更には、OtelExporters、Bridge、Arizeパッケージの更新が含まれ、GenAI v1.38.0のOtel Semantic Conventionsに基づく改善が行われています。新たに、OtelExporter、OtelBridge、ArizeExporterにタグサポートが追加され、トレースオプションにタグを含めることが可能になりました。また、エラーIDの標準化やBraintrust統合のためのtime-to-first-token(TTFT)メトリクスの追加も行われています。これにより、エラートラッキングやデバッグが容易になり、Braintrustとの統合が強化されました。 • OtelExporters、Bridge、Arizeパッケージの更新により、GenAI v1.38.0のOtel Semantic Conventionsが実装された。 • OtelExporter、OtelBridge、ArizeExporterにタグサポートが追加され、トレースオプションにタグを含めることができるようになった。 • エラーIDの標準化により、ストレージとベクトルストア全体で一貫したエラーIDパターンが確立された。 • Braintrust統合のためにtime-to-first-token(TTFT)メトリクスが追加され、ストリーミング中に自動的に送信される。 • BraintrustのスレッドビューでのLLMメッセージの表示問題が修正された。
この記事は、Mastraというプロジェクトのリリースノートを提供しており、2025年12月4日に公開された内容を含んでいます。主な変更点として、28のパッケージに変更があり、そのうち22はパッチ変更、1はマイナー変更です。特に、BraintrustExporterにbraintrustLoggerをパラメータとして追加し、開発者が独自のロガーを渡せるようになりました。また、ワークフローの実行を再起動するためのメソッドが追加され、サーバー起動時にアクティブなワークフローを自動的に再起動する機能も実装されています。さらに、MastraClientにカスタムフェッチ機能のサポートが追加され、特定の環境でのタイムアウトエラーを回避できるようになりました。最後に、エージェントとワークフローのリストエンドポイントに対して部分的な応答をサポートするオプションが追加され、ペイロードサイズを削減することが可能になりました。 • 28のパッケージに変更があり、22はパッチ変更、1はマイナー変更。 • BraintrustExporterにbraintrustLoggerを追加し、独自のロガーを渡せるようにした。 • ワークフローの実行を再起動するメソッドを追加し、サーバー起動時にアクティブなワークフローを自動再起動する機能を実装。 • MastraClientにカスタムフェッチ機能を追加し、特定の環境でのタイムアウトエラーを回避。 • エージェントとワークフローのリストエンドポイントに部分的な応答をサポートするオプションを追加し、ペイロードサイズを削減。
この記事は、mastra-aiのリリースノートに関するもので、2025年11月28日に公開された内容を示しています。主な変更点として、14のパッケージに変更があり、特に2つのパッチ変更が含まれています。具体的には、@mastra/client-jsのバージョン0.16.16-alpha.0において、破損したprovider-registry.jsonファイルの修正が行われました。また、@mastra/deployerでは、プロダクションビルド中のモジュールが見つからないエラーを修正し、直接依存関係のみをバンドルすることでデプロイ時間が短縮されるようになりました。これにより、より効率的なデプロイが可能となります。 • 14のパッケージに変更があり、特に2つのパッチ変更が含まれる • @mastra/client-jsのバージョン0.16.16-alpha.0で破損したprovider-registry.jsonファイルを修正 • @mastra/deployerでプロダクションビルド中のモジュールが見つからないエラーを修正 • 直接依存関係のみをバンドルすることでデプロイ時間が短縮される • これにより、より効率的なデプロイが可能となる
この記事は、mastra-aiのリリースに関するもので、特に@mastra/ai-sdkの新機能や変更点に焦点を当てています。新たに追加された機能には、フレームワークに依存しないストリームハンドラーが含まれ、これによりHono/Mastraサーバー以外でも使用可能です。具体的には、エージェントチャット、ワークフロー実行、エージェントネットワークのストリーミングを行うためのスタンドアロンハンドラーが提供されています。また、ワークフロー内でのエージェントのテキストチャンクのストリーミングをサポートし、UIメッセージとしてのスムーズな体験を実現しています。さらに、エージェントストリームの再開機能も追加され、長時間の会話やマルチステップのエージェントワークフローが可能になりました。 • フレームワークに依存しないストリームハンドラーの追加 • エージェントチャット、ワークフロー実行、エージェントネットワークのストリーミング機能 • ワークフロー内でのエージェントのテキストチャンクのストリーミングサポート • UIメッセージとしてのスムーズな体験の提供 • エージェントストリームの再開機能の追加

Agent Harnesses, Dynamic Context Discovery, NousCoder-14B, SciSciGPT, ChatGPT Health, Demystifying Evals for AI Agents
RooCodeIncのRoo-Codeのリリースv3.39.2では、いくつかのバグ修正と機能改善が行われた。具体的には、Cerebrasとの互換性を確保するためにツールの厳格モード値を一貫させる修正や、OpenAI互換プロバイダーのためにconvertToSimpleMessagesを削除する修正が含まれている。また、Geminiとの互換性を保つためにアシスタントメッセージの内容が未定義にならないようにする修正も行われた。新機能としては、プロバイダーからのストリーム終了エラーに対するエラーメッセージの改善や、トラブルシューティングを容易にするためのデバッグ設定の追加がある。CLIサポートのために、@roo-code/typesや@roo-code/coreに機能が追加され、CLI開発に役立つスラッシュコマンドも導入された。 • Cerebrasとの互換性を確保するためにツールの厳格モード値を一貫させる修正 • OpenAI互換プロバイダーのためにconvertToSimpleMessagesを削除 • Geminiとの互換性を保つためにアシスタントメッセージの内容が未定義にならないようにする修正 • プロバイダーからのストリーム終了エラーに対するエラーメッセージの改善 • トラブルシューティングを容易にするためのデバッグ設定の追加 • CLIサポートのために@roo-code/typesや@roo-code/coreに機能が追加 • CLI開発に役立つスラッシュコマンドの導入

In this post, we explore how Amazon Nova Multimodal Embeddings addresses the challenges of crossmodal search through a practical ecommerce use case. We examine the technical limitations of traditional approaches and demonstrate how Amazon Nova Multimodal Embeddings enables retrieval across text, images, and other modalities. You learn how to implement a crossmodal search system by generating embeddings, handling queries, and measuring performance. We provide working code examples and share how to add these capabilities to your applications.
この記事は、GitHub上で公開されたstagehand/serverのバージョン3.3.0のリリースに関する情報を提供しています。このリリースでは、ハイブリッドモードのドキュメント更新、エージェントメッセージ処理の改善、ページのwaitForTimeout機能の追加、キャッシュが有効な場合のみXPathを計算するようにエージェントを更新、アクション後のスクリーンショット機能の追加、エージェントのロギングの改善などが行われました。また、Slackの参照をDiscordに置き換え、ツール関数と型のエクスポート、空のオブジェクトを強制するオプションパラメータの追加、AI SDKとのollamaサポートの修正、keyPressのControlまたはMetaキーの正規化の修正なども含まれています。これらの変更は、主にエージェントの機能性とユーザー体験の向上を目的としています。 • ハイブリッドモードのドキュメントが更新された • エージェントメッセージ処理が改善された • ページのwaitForTimeout機能が追加された • キャッシュが有効な場合のみXPathを計算するようにエージェントが更新された • アクション後のスクリーンショット機能が追加された • エージェントのロギングが改善された • Slackの参照がDiscordに置き換えられた • ツール関数と型がエクスポートされた • 空のオブジェクトを強制するオプションパラメータが追加された • AI SDKとのollamaサポートが修正された
この記事は、langgraph-sdkのバージョン0.3.2のリリースに関する情報を提供しています。このリリースでは、cron.on_run_completedのサポートが新たに追加され、ドキュメントが削除されるという変更が行われました。リリース日は2023年1月9日で、GitHub上でのコミットが確認されています。 • 新機能としてcron.on_run_completedのサポートが追加された • ドキュメントが削除された • リリース日は2023年1月9日 • バージョンは0.3.2である • GitHubでのコミットが確認されている
この記事では、MetaのPyTorchチームが開発したtorchforgeというPyTorchネイティブの強化学習(RL)ライブラリについて説明しています。torchforgeは、大規模な言語モデル(LLM)のポストトレーニングにおけるRLのスケーラビリティを向上させるために設計されており、512-GPUクラスターでの実験を通じてその効果が実証されました。特に、Weaverという検証システムと組み合わせることで、研究者は報酬設計やポリシー更新を迅速に行うことができ、インフラの複雑さを気にせずにRLアルゴリズムに集中できるようになります。torchforgeは、シングルノードからマルチノードクラスターまでスケール可能で、強化学習の実装を簡素化します。 • torchforgeは大規模なLLMのポストトレーニングにおけるRLのスケーラビリティを向上させるためのライブラリである。 • 512-GPUクラスターでの実験により、RLの実行が容易になった。 • Weaverは人間の注釈なしで生産レベルの報酬信号を提供する。 • Forgeは、インフラの複雑さを排除し、研究者がRLアルゴリズムに集中できるようにする。 • 強化学習の設計、ポリシー更新、検証戦略の反復が容易になる。

Quantized models can be seamlessly deployed on Amazon SageMaker AI using a few lines of code. In this post, we explore why quantization matters—how it enables lower-cost inference, supports deployment on resource-constrained hardware, and reduces both the financial and environmental impact of modern LLMs, while preserving most of their original performance. We also take a deep dive into the principles behind PTQ and demonstrate how to quantize the model of your choice and deploy it on Amazon SageMaker.
この記事は、Langchainのコアライブラリのバージョン1.2.7のリリースに関する情報を提供しています。このリリースでは、いくつかのバグ修正と新機能が追加されました。具体的には、HTMLリンク抽出において無視するファイル拡張子が増え、メッセージの要約に関する機能が改善されました。また、LengthBasedExampleSelectorにおける空の例に対するテストが追加され、オプション引数を持つ関数の厳密なスキーマ生成が修正されました。さらに、カスタムメッセージセパレーターのサポートや、GPT-2トークナイザー使用時の警告が追加されました。これらの変更により、Langchainの機能性と安定性が向上しています。 • Langchainコアライブラリのバージョン1.2.7がリリースされた。 • HTMLリンク抽出で無視するファイル拡張子が追加された。 • LengthBasedExampleSelectorに空の例に対するテストが追加された。 • オプション引数を持つ関数の厳密なスキーマ生成が修正された。 • カスタムメッセージセパレーターのサポートが追加された。 • GPT-2トークナイザー使用時の警告が追加された。

Beekeeper’s automated leaderboard approach and human feedback loop system for dynamic LLM and prompt pair selection addresses the key challenges organizations face in navigating the rapidly evolving landscape of language models.

This post, developed through a strategic scientific partnership between AWS and the Instituto de Ciência e Tecnologia Itaú (ICTi), P&D hub maintained by Itaú Unibanco, the largest private bank in Latin America, explores the technical aspects of sentiment analysis for both text and audio. We present experiments comparing multiple machine learning (ML) models and services, discuss the trade-offs and pitfalls of each approach, and highlight how AWS services can be orchestrated to build robust, end-to-end solutions. We also offer insights into potential future directions, including more advanced prompt engineering for large language models (LLMs) and expanding the scope of audio-based analysis to capture emotional cues that text data alone might miss.

This post provides a detailed architectural overview of how TrueLook built its AI-powered safety monitoring system using SageMaker AI, highlighting key technical decisions, pipeline design patterns, and MLOps best practices. You will gain valuable insights into designing scalable computer vision solutions on AWS, particularly around model training workflows, automated pipeline creation, and production deployment strategies for real-time inference.

Set goals and stick to them all year with ChatGPT.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Tritonコンパイラは、AIカーネル向けにパフォーマンスポータブルなコードとランタイムを生成することを目指しています。Triton開発者コミュニティは、オペレーターのスケジューリング、メモリ割り当て、レイアウト管理の改善に取り組んでおり、特にカーネルの最適化が複雑化する中で、SOTAパフォーマンスを維持するのが難しくなっています。ワープ専門化は、GPU上でのカーネルパフォーマンスを向上させるための技術で、各ワープに特化したコードパスを持つことで、制御フローの分岐によるパフォーマンス低下を減少させ、レイテンシの隠蔽を改善します。autoWSは、OSS Tritonの上に構築されており、手動、TorchInductor、Helion生成のカーネルに対して有効化できます。現在の実装は、HopperおよびBlackwellアクセラレータをサポートしており、複雑なカーネルの最適化を支援します。今後の計画についても言及されており、Triton開発者コミュニティからのフィードバックを求めています。 • TritonコンパイラはAIカーネル向けにパフォーマンスポータブルなコードを生成することを目指している。 • ワープ専門化はGPU上でのカーネルパフォーマンスを向上させる技術である。 • autoWSはOSS Tritonの上に構築され、手動、TorchInductor、Helion生成のカーネルに対応している。 • ワープ専門化により、制御フローの分岐によるパフォーマンス低下を減少させ、レイテンシの隠蔽を改善する。 • 現在の実装はHopperおよびBlackwellアクセラレータをサポートしている。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
RooCodeIncのRoo-Codeリポジトリでのリリースv3.39.1では、いくつかの重要な修正が行われた。具体的には、ネイティブツール呼び出しのストリーミング中にファイルパスの安定性を確保するための修正、Geminiの思考署名の持続性を無効にして署名エラーを防ぐ修正、Anthropic APIとの互換性を確保するためにminItemsの値を2から1に変更する修正が含まれている。これらの修正は、リリース日である2026年1月8日に行われた。 • ネイティブツール呼び出しのストリーミング中にファイルパスの安定性を確保する修正 • Geminiの思考署名の持続性を無効にして署名エラーを防ぐ修正 • Anthropic APIとの互換性を確保するためにminItemsの値を変更する修正

Socket CEO Feross Aboukhadijeh joins Insecure Agents to discuss CVE remediation and why supply chain attacks require a different security approach.
この記事は、LangChainのバージョン1.2.3のリリースに関する情報を提供しています。このリリースでは、いくつかの重要な変更が行われました。具体的には、使用状況メタデータに基づいて要約機能が強化され、ツール呼び出しとAIメッセージのペアリングを保持するように修正されました。また、チャットモデルプロバイダーの推論をカバーするテストが追加され、Azure OpenAI埋め込みプロバイダーのマップにおけるコピー&ペーストエラーが修正されました。これらの変更により、LangChainの機能が向上し、ユーザーにとっての利便性が増しています。 • LangChainのバージョン1.2.3がリリースされた。 • 要約機能が使用状況メタデータに基づいて強化された。 • ツール呼び出しとAIメッセージのペアリングを保持するように修正された。 • チャットモデルプロバイダーの推論をカバーするテストが追加された。 • Azure OpenAI埋め込みプロバイダーのマップにおけるコピー&ペーストエラーが修正された。
PyTorch 2.9では、Intel GPU上でのFlexAttention最適化が紹介されています。最新のLLMフレームワークは、Grouped Query AttentionやMulti-Query Attentionなどの注意メカニズムを採用しており、これにより精度とパフォーマンスのバランスが取られています。FlexAttentionは、ユーザー定義のscore_modとmask_modを受け入れ、torch.compileを使用して効率的なFlashAttentionカーネルを自動生成します。FlexAttentionは、HuggingFaceやvLLMなどのプロジェクトで広く採用されており、最新のLLMモデルへの迅速な適応を可能にします。Intel GPU上でのFlexAttentionは、PyTorchの標準GPU動作に合わせており、異なるGPU間での一貫したパフォーマンスを提供します。Triton XPUを使用することで、Intel GPU上でのTritonカーネルの実行が可能になり、FlexAttentionの最適化が実現されています。 • 最新のLLMフレームワークは注意メカニズムを採用し、精度とパフォーマンスのバランスを取る。 • FlexAttentionはユーザー定義のscore_modとmask_modを使用し、効率的なFlashAttentionカーネルを自動生成する。 • FlexAttentionはHuggingFaceやvLLMなどで広く採用され、最新のLLMモデルへの迅速な適応を可能にする。 • Intel GPU上でのFlexAttentionはPyTorchの標準GPU動作に合わせており、一貫したパフォーマンスを提供する。 • Triton XPUを使用することで、Intel GPU上でのTritonカーネルの実行が可能になる。

I joined a recording of the Oxide and Friends podcast on Tuesday to talk about 1, 3 and 6 year predictions for the tech industry. This is my second appearance …

Microsoft is using AI to accelerate breakthroughs in health, energy, climate and more, reshaping science from the lab to the field.

This two-part series explores Flo Health's journey with generative AI for medical content verification. Part 1 examines our proof of concept (PoC), including the initial solution, capabilities, and early results. Part 2 covers focusing on scaling challenges and real-world implementation. Each article stands alone while collectively showing how AI transforms medical content management at scale.

Liz used ChatGPT throughout her teenage son’s cancer treatment to translate reports, prepare questions, and have more informed conversations with doctors.

This post shows an automated PII detection and redaction solution using Amazon Bedrock Data Automation and Amazon Bedrock Guardrails through a use case of processing text and image content in high volumes of incoming emails and attachments. The solution features a complete email processing workflow with a React-based user interface for authorized personnel to more securely manage and review redacted email communications and attachments. We walk through the step-by-step solution implementation procedures used to deploy this solution. Finally, we discuss the solution benefits, including operational efficiency, scalability, security and compliance, and adaptability.

Observe.ai developed the One Load Audit Framework (OLAF), which integrates with SageMaker to identify bottlenecks and performance issues in ML services, offering latency and throughput measurements under both static and dynamic data loads. In this blog post, you will learn how to use the OLAF utility to test and validate your SageMaker endpoint.

Anthropic researcher Amanda Askell discusses the self-knowledge problem that AI models face.
I picked up a few interesting tidbits from this Wall Street Journal piece on Google's recent hard won success with Gemini. Here's the origin of the name "Nano Banana": Naina …

Discover how Dynamics 365 and agentic AI are transforming retail operations into a Commerce Anywhere model.
RooCodeIncのRoo-Codeリポジトリで、バージョン3.39.0がリリースされました。このリリースは2023年1月8日に行われ、GitHubでのコミットはGPG署名によって確認されています。リリースに関する詳細な情報は提供されていませんが、リリースノートには新機能や修正点が含まれている可能性があります。ユーザーはGitHub上でこのリリースを確認し、必要に応じてアセットをダウンロードすることができます。 • Roo-Codeのバージョン3.39.0がリリースされた • リリース日は2023年1月8日 • コミットはGitHubのGPG署名で確認済み • リリースノートには新機能や修正点が含まれる可能性がある • ユーザーはGitHubでリリースを確認できる

Discover how Wayve is revolutionising self-driving cars with AI and deep learning, powered by Microsoft Azure’s advanced infrastructure.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなくすぐに利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上

This guide walks you through the 15 best n8n practices for deploying production-ready AI Agents. Choose the best infrastructure, scale queue mode, handle errors, monitor, and deploy AI Agents reliably in n8n.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
DeepSpeedのv0.18.4パッチリリースでは、いくつかの重要な修正と機能改善が行われました。主な変更点には、コンパイルテストでの決定論的オプションの無効化、SuperOffloadOptimizer_Stage3のクラッシュ修正、AMDサポートの改善、DeepSpeed Async I/Oの待機中のハング修正、PyTorch 2.8/2.9との互換性のためのDeepCompileの修正などが含まれています。また、Python 3.11および3.12のテストが有効化され、AWS上でのCIワークフローが追加されました。これにより、DeepSpeedの信頼性とパフォーマンスが向上し、ユーザーにとっての利便性が増しています。 • v0.18.4パッチリリースでの主な修正と改善が行われた • 決定論的オプションを無効化し、SuperOffloadOptimizer_Stage3のクラッシュを修正 • AMDサポートの改善が実施された • DeepSpeed Async I/Oの待機中のハングを修正し、信頼性を向上させた • PyTorch 2.8/2.9との互換性を確保するための修正が行われた • Python 3.11および3.12のテストが追加された • AWS上でのCIワークフローが新たに導入された
この記事は、Langchainのバージョン1.2.2のリリースに関する情報を提供しています。このリリースでは、いくつかの重要な修正が行われました。具体的には、バージョンを検証するためのテストが追加され、計画ミドルウェアにおけるtodoツールの並行使用に関する問題が修正されました。また、モデル呼び出しのテストラップにおける型の修正も行われています。これにより、Langchainの安定性と機能性が向上しています。 • Langchainのバージョン1.2.2がリリースされた。 • バージョンを検証するためのテストが追加された。 • 計画ミドルウェアにおけるtodoツールの並行使用に関する問題が修正された。 • モデル呼び出しのテストラップにおける型の修正が行われた。 • これにより、Langchainの安定性と機能性が向上した。

Infosys, a global leader in digital services and consulting, has partnered with Cognition to deploy Devin, the AI software engineer, across its organization and global client base.

We’re introducing ChatGPT Health, a dedicated experience that securely brings your health information and ChatGPT’s intelligence together, to help you feel more informed, prepared, and confident navigating your health. When you choose to connect your health data, such as medical records or wellness apps, your responses are grounded in your own health information. You can also connect your Apple Health information and other wellness apps, such as Function, MyFitnessPal, Peloton. Apps may only be connected to your health data with your explicit permission, even if they’re already connected to ChatGPT for conversations outside of Health. And you’re always in control: disconnect an app at any time and it immediately loses access.

We’re introducing ChatGPT Health, a dedicated experience that securely brings your health information and ChatGPT’s intelligence together, to help you feel more informed, prepared, and confident navigating your health. Health conversations feel just like chatting with ChatGPT—but grounded in the information you’ve connected. You can upload photos and files and use search, deep research, voice mode and dictation. When relevant, ChatGPT can automatically reference your connected information to provide more relevant and personalized responses. For example, you might ask: “How’s my cholesterol trending?” or “Can you summarize my latest bloodwork before my appointment?”

We’re introducing ChatGPT Health, a dedicated experience that securely brings your health information and ChatGPT’s intelligence together, to help you feel more informed, prepared, and confident navigating your health. With Health, ChatGPT can help you understand recent test results, prepare for appointments with your doctor, get advice on how to approach your diet and workout routine, or understand the tradeoffs of different insurance options based on your healthcare patterns. Join the waitlist: https://chatgpt.com/health/waitlist

We’re introducing ChatGPT Health, a dedicated experience that securely brings your health information and ChatGPT’s intelligence together, to help you feel more informed, prepared, and confident navigating your health. Health is designed to support, not replace, medical care. It is not intended for diagnosis or treatment. Instead, it helps you navigate everyday questions and understand patterns over time—not just moments of illness—so you can feel more informed and prepared for important medical conversations. Join the waitlist: https://chatgpt.com/health/waitlist
[...] the reality is that 75% of the people on our engineering team lost their jobs here yesterday because of the brutal impact AI has had on our business. And …

Burt uses ChatGPT to navigate life with two forms of cancer, supporting him in understanding scans, preparing for appointments, and explaining complex medical information to family.

Explore how Microsoft is shaping next‑generation automotive innovation and digital engineering ahead of CES 2026. Learn more.
The best AI coding tools for developers in 2026. From IDEs to code review, find tools that work in real codebases without breaking your workflow.

v0’s composite AI pipeline boosts reliability by fixing errors in real time. Learn how dynamic system prompts, LLM Suspense, and autofixers work together to deliver stable, working web app generations at scale.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを分析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを分析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 幅広いプラットフォームとの互換性 • 生産性向上が期待される

AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
AGI is here! When exactly it arrived, we’ll never know; whether it was one company’s Pro or another company’s Pro Max (Eddie Bauer Edition) that tip-toed first across the line …

Living with heart failure, Steve uses ChatGPT to carry out his doctor’s care plan by tracking his diet, medications, and inflammation.
この記事は、Langchainのバージョン1.2.1のリリースに関する情報を提供しています。このリリースでは、メッセージ要約のためにget_buffer_stringを使用する修正や、テストモデルの型修正、PII(個人識別情報)に関するテストの型修正、ツールスキーマからの注入引数の除外など、さまざまな修正が行われました。また、ShellSession.execute()におけるレースコンディションの解決や、Googleの生成AIプロバイダーへのサポート追加などの新機能も含まれています。さらに、ドキュメントの改善やCIチェックの追加も行われています。 • Langchainのバージョン1.2.1がリリースされた。 • メッセージ要約のためにget_buffer_stringを使用する修正が行われた。 • テストモデルやPIIに関する型修正が実施された。 • ShellSession.execute()のレースコンディションが解決された。 • Googleの生成AIプロバイダーへのサポートが追加された。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に統合できるため、導入が容易である点も強調されています。さらに、AIによるコード生成は、開発の効率を大幅に向上させることが期待されています。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への統合が容易 • 開発効率の向上が期待される
This guide to the current sandboxing landscape by Luis Cardoso is comprehensive, dense and absolutely fantastic. He starts by differentiating between containers (which share the host kernel), microVMs (their own …
A Blog post by NVIDIA on Hugging Face

As a mom of two toddlers, Lauren uses ChatGPT to find time for herself through flexible workouts that fit into the unpredictable rhythms of her busy life.

Stop shipping chat UIs. Learn how AG-UI uses an event-driven protocol to build real AI apps with streaming, tools, and shared state.

By rolling out ChatGPT Enterprise across its workforce, CBA is improving how teams work and deliver better outcomes for customers. Hear more from CEO Matt Comyn in this short video.

See how AI literacy scales across the enterprise when learning is built into the work. 20,000 BNY employees have created their own agents to build and update learning content. Get the full story at https://openai.com/index/bny/

Read how NVIDIA’s next-generation systems slot directly into infrastructure that has anticipated its requirements years ahead of the industry.
A Blog post by NVIDIA on Hugging Face

A Blog post by NVIDIA on Hugging Face
この記事は、GitHub上でのlangchain-xaiのバージョン1.2.1のリリースに関する情報を提供しています。このリリースは2023年1月5日に行われ、主な変更点として、出力トータルにおける推論トークンのカウントを修正したことが挙げられています。これにより、推論の精度が向上することが期待されます。前のバージョンである1.2.0からの変更点が記載されており、GitHubの署名付きコミットとして確認されています。 • langchain-xaiのバージョン1.2.1が2023年1月5日にリリースされた • 主な修正点は出力トータルにおける推論トークンのカウントの修正 • この修正により推論の精度が向上することが期待される • リリースはGitHub上で行われ、署名付きコミットとして確認されている

See how AI gives teams more time for what matters most: BNY's clients. With deep research, advisors can cut planning time by 60% and use that time to deliver even more relevant and timely client experiences. Get the full story at https://openai.com/index/bny/

ChatGPT helps members of BNY's Legal team cut contract review time by up to 75%. Get the full story at https://openai.com/index/bny/

Leaders at BNY share how they put AI directly into the hands of employees across the firm, powering Eliza 2.0 and enabling secure, responsible AI at scale. Get the full story at https://openai.com/index/bny/

Every day, millions of people ask ChatGPT about their health – from breaking down medical information, preparing questions for their doctor’s appointments, to helping people manage their overall wellbeing.
I joined the Oxide and Friends podcast last year to predict the next 1, 3 and 6 years(!) of AI developments. With hindsight I did very badly, but they're inviting …

Use Vercel AI Gateway from Claude Code via the Anthropic-compatible endpoint, with a URL change and AI Gateway usage and cost tracking.

A Blog post by Technology Innovation Institute on Hugging Face
A Blog post by Technology Innovation Institute on Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
It genuinely feels to me like GPT-5.2 and Opus 4.5 in November represent an inflection point - one of those moments where the models get incrementally better in a way …
Something I like about our weird new LLM-assisted world is the number of people I know who are coding again, having mostly stopped as they moved into management roles or …

The Top AI Papers of the Week (December 29 - January 4)
I'm not joking and this isn't funny. We have been trying to build distributed agent orchestrators at Google since last year. There are various options, not everyone is aligned... I …
RooCodeIncのRoo-Codeリポジトリのバージョン3.38.3がリリースされ、いくつかの新機能とバグ修正が含まれています。新機能として、Context設定においてサブディレクトリから.roo/rulesおよびAGENTS.mdを再帰的に読み込むオプションが追加されました。また、OAuthリフレッシュトークンの取り扱いを強化することで、Claude Codeへの頻繁なサインインを防ぐ修正が行われました。さらに、native read_fileツールスキーマに最大同時ファイル読み込み数の制限が追加され、TTSのuseEffectにおいてlastMessage.textの型チェックを追加することでランタイムエラーを防ぐ修正も行われました。 • Context設定にサブディレクトリからの再帰的な読み込みオプションを追加 • OAuthリフレッシュトークンの取り扱いを強化し、頻繁なサインインを防止 • native read_fileツールスキーマに最大同時ファイル読み込み数の制限を追加 • TTSのuseEffectにおいてlastMessage.textの型チェックを追加し、ランタイムエラーを防止

LLMs in 2025, YOLO in the Sandbox, Plan Caching for Agents, DeepTutor
Depending on how you measure it, the tempo of Harder, Better, Faster, Stronger appears to be 123.45 beats per minute. This is one of those things that's so cool I'm …
この記事は、LangChainのコアライブラリのバージョン1.2.6のリリースに関する情報を提供しています。このリリースでは、Pydantic v2メソッドを使用するようにLangChainTracerが更新され、内部ヘルパー関数にドキュメンテーションストリングが追加されました。また、いくつかのドキュメントが更新され、依存関係としてmypyとruffのバージョンがそれぞれ1.19と1.14に引き上げられました。さらに、いくつかの型の修正やスタイルの改善が行われ、特にChatPromptTemplate.from_messagesメソッドでのタプルのサポートが追加されました。テストも強化され、特定のAPI呼び出しにおけるURLエンコーディングの修正が含まれています。 • LangChainTracerがPydantic v2メソッドを使用するように更新された • 内部ヘルパー関数にドキュメンテーションストリングが追加された • mypyとruffの依存関係がそれぞれ1.19と1.14に引き上げられた • ChatPromptTemplate.from_messagesメソッドでのタプルのサポートが追加された • 特定のAPI呼び出しにおけるURLエンコーディングの修正が行われた
My experience is that real AI adoption on real problems is a complex blend of: domain context on the problem, domain experience with AI tooling, and old-fashioned IT issues. I’m …
この記事は、Langchainの新しいバージョンlangchain-xai==1.2.0のリリースに関するもので、主にバグ修正と機能改善が含まれています。具体的には、引用が一度だけストリーミングされるように修正され、ストリーム使用メタデータがデフォルトでストリーミングされるようになりました。また、シリアル化に関するパッチや、OpenAIのトークンカウントにおけるfunction_callブロックのフィルタリングも行われています。これにより、GPT-5シリーズの最大入力トークン数の更新も含まれています。 • 引用が一度だけストリーミングされるように修正された。 • ストリーム使用メタデータがデフォルトでストリーミングされるようになった。 • シリアル化に関するパッチが適用された。 • OpenAIのトークンカウントにおいてfunction_callブロックがフィルタリングされるようになった。 • GPT-5シリーズの最大入力トークン数が更新された。
I sent the December edition of my sponsors-only monthly newsletter. If you are a sponsor (or if you start a sponsorship now) you can access a copy here. In the …
[Claude Code] has the potential to transform all of tech. I also think we’re going to see a real split in the tech industry (and everywhere code is written) between …
現在執筆中の書籍『作って学ぶAIエージェント』について、 原稿テキスト段階での技術レビューを実施します。 目的 本レビューの目的は主に以下です。 * 技術的に致命的な誤りの検出 * 説明の前提不足や誤解を招く表現の指摘 * 現行ツール・APIとの不整合の確認 あわせて、書籍の構成・内容に対する要望や改善提案も受け付けます。 (これは必須ではなく、可能な範囲で構いません) やってもらいたいこと * 書籍の内容を読み、必要に応じてサンプルコードを実際に動かす * 動作しない箇所、分かりづらい点、前提が不足している点があれば報告する * 内容や構成について要望・違和感があれば共有する レビューの深さや範囲は参加者に委ねます。 ※ 技術レビューにあたって発生する API 利用料金等は、恐れ入りますが各自のご負担となります。 レビュー自体は原稿(Markdown/コード)を読む形でも十分に行っていただけます。 進め方 * レビュー用に期間限定の Private GitHub Repository を用意しました * 対象は原稿テキスト(Markdown/

This is the third in my annual series reviewing everything that happened in the LLM space over the past 12 months. For previous years see Stuff we figured out about …

It looks like OpenAI's Codex cloud (the cloud version of their Codex coding agent) was quietly rebranded to Codex web at some point in the last few days. Here's a …
RooCodeIncのGitHubリポジトリで公開されたリリースv3.38.2では、エージェントスキル仕様に合わせたスキルシステムの調整や、ファイル作成時のパスのトランケートを防ぐ修正が行われた。また、CerebrasのmaxTokensを16384に更新し、レートリミット待機表示の修正も含まれている。さらに、ドキュメント内のTodoリスト動画をコンテキスト管理動画に置き換える変更も行われた。これらの変更は、開発者のコラボレーションによって実施され、リリースは2025年12月31日に行われた。 • エージェントスキル仕様に合わせたスキルシステムの調整 • ファイル作成時のパスのトランケートを防ぐ修正 • CerebrasのmaxTokensを16384に更新 • レートリミット待機表示の修正 • ドキュメント内の動画の更新
[...] The puzzle is still there. What’s gone is the labor. I never enjoyed hitting keys, writing minimal repro cases with little insight, digging through debug logs, or trying to …
この記事は、OpenHandsのバージョン1.1.0のリリースノートを提供しています。このリリースでは、CLI認証のためのOAuth 2.0デバイスフローが追加され、変更タブにリフレッシュボタンが追加されました。また、会話パネルに会話をエクスポートするボタンが追加され、Forgejoとの統合も行われました。初期化プロセスがmicromambaからtiniに変更され、tmuxの子プロセスが適切に管理されるようになりました。ローカル(非Docker)実行では、ホスト書き込み可能なパスがデフォルトで使用され、Playwrightのダウンロードが/workspaceから外され、パーミッションエラーが防止され、ファイルの検索が容易になりました。複数のUIおよびパフォーマンスの問題も修正されました。 • OAuth 2.0デバイスフローの追加によりCLI認証が改善された • 変更タブにリフレッシュボタンが追加された • 会話パネルにエクスポートボタンが追加された • Forgejoとの統合が行われた • 初期化プロセスがmicromambaからtiniに変更された • ローカル実行でホスト書き込み可能なパスがデフォルトになった • 複数のUIおよびパフォーマンスの問題が修正された
In essence a language model changes you from a programmer who writes lines of code, to a programmer that manages the context the model has access to, prunes irrelevant things, …
RooCodeIncのRoo-Codeリポジトリのリリースv3.38.1では、いくつかのバグ修正が行われた。具体的には、ツール結果のフラッシュ処理の修正、OpenAI互換プロバイダー向けのマージツール結果テキストのリバート、最大同時ファイル読み込み制限の強制、ディレクトリに対するread_fileツール使用時のフィードバックメッセージの改善、カスタムツールのIPCスキーマに関する処理の修正、マーケティングページのGitHubリポジトリURLの修正、プライバシーポリシーにおけるセキュリティ設定へのパスの明確化が含まれている。これらの修正により、ツールの安定性とユーザー体験が向上することが期待される。 • ツール結果のフラッシュ処理の修正 • OpenAI互換プロバイダー向けのマージツール結果テキストのリバート • 最大同時ファイル読み込み制限の強制 • ディレクトリに対するread_fileツール使用時のフィードバックメッセージの改善 • カスタムツールのIPCスキーマに関する処理の修正 • マーケティングページのGitHubリポジトリURLの修正 • プライバシーポリシーにおけるセキュリティ設定へのパスの明確化
The hard part of computer programming isn't expressing what we want the machine to do in code. The hard part is turning human thinking -- with all its wooliness and …

Here are Google’s latest AI updates from December 2025

This post shows you how to migrate your self-managed MLflow tracking server to a MLflow App – a serverless tracking server on SageMaker AI that automatically scales resources based on demand while removing server patching and storage management tasks at no cost. Learn how to use the MLflow Export Import tool to transfer your experiments, runs, models, and other MLflow resources, including instructions to validate your migration's success.

This post demonstrates how to solve this challenge by building an AI-powered website assistant using Amazon Bedrock and Amazon Bedrock Knowledge Bases.

AI-first debugging augments traditional debugging. Learn where AI helps, where it fails, and how to use it safely in production.
Jevons paradox is coming to knowledge work. By making it far cheaper to take on any type of task that we can possibly imagine, we’re ultimately going to be doing …
Today in extremely niche projects, I got fed up of Claude Code creating GitHub Actions workflows for me that used stale actions: actions/setup-python@v4 when the latest is actions/setup-python@v6 for example. …

The Top AI Papers of the Week (December 22-28)
2023年から段階的にAIを開発フローに組み込み、2025年は試行錯誤とツールの大きな変化、そしてエージェント化を経て、私のソフトウェア開発の進め方は明確に変化しました。 ここで言う「変化」とは、単に作業が速くなった、便利になったという話ではありません。 より具体的には「コードをタイピングする時間よりも、間接作業の比重と抽象的な思考・ロジックが増えた」という意味での変化です。 より深刻なのは文字入力回数の増大です。その結果、マイクに向かって話したり、タイピングの練習といったプリミティブな活動を取り入れるようになりました。 この変化は私だけのものではありません。Addy Osmaniは『Beyond Vibe Coding』で「開発者の役割はコードを書くことから、コードを指示すること(directing)へシフトしている」と述べ、アーキテクチャやデザインパターンといったシステム思考への集中を説いています。Latent SpaceのSwyxも「ソフトウェアエンジニアの強みは抽象化のレベルを上げることに最も長けている点だ」と指摘しています。 この流れに対して「コーディングがつまらなくな

I just sent out the latest edition of the newsletter version of this blog. It's a long one! Turns out I wrote a lot of stuff in the past 10 …
RooCodeIncのRoo-Codeのリリースv3.38.0では、エージェントスキルのサポートが追加され、プロンプト、ツール、リソースの再利用可能なパッケージを通じてRooの機能を拡張できるようになった。また、スラッシュコマンドのフロントマターにオプションのモードフィールドが追加され、コマンドがトリガーされた際に特定のモードに自動的に切り替わることが可能になった。さらに、カスタムツールにnpmパッケージと.envファイルのサポートが追加され、依存関係のインポートや環境変数へのアクセスが可能になった。簡易ファイル読み取りツール機能とOpenRouter Transform機能は削除され、ファイル読み取り体験が簡素化された。 • エージェントスキルのサポート追加により、Rooの機能が拡張可能に • スラッシュコマンドにオプションのモードフィールドを追加 • カスタムツールがnpmパッケージと.envファイルをサポート • 簡易ファイル読み取りツール機能を削除し、体験を簡素化 • OpenRouter Transform機能を削除
GitHub上で公開されたstagehand/serverのバージョン3.2.0がリリースされました。このリリースでは、エージェントからツールを除外する機能が追加され、OpenAIおよびGoogle CUAのための安全確認コールバックのサポートが追加されました。また、アクション失敗時にエージェントキャッシュをリフレッシュする修正も行われました。これにより、エージェントの動作が改善され、より安全にツールを管理できるようになります。 • エージェントからツールを除外する機能が追加された • OpenAIおよびGoogle CUAのための安全確認コールバックがサポートされた • アクション失敗時にエージェントキャッシュをリフレッシュする修正が行われた • エージェントの動作が改善される • ツール管理がより安全になる
この記事は、GitHub上で公開された@browserbasehq/stagehandのバージョン3.0.7のリリースに関する情報を提供しています。このリリースには、いくつかのパッチ変更が含まれており、特にハイブリッドモードの実験的な移動や、OpenAIおよびGoogle CUAのための安全確認サポートの追加が注目されます。また、エージェントの動作に関するいくつかのバグ修正や機能改善も行われています。具体的には、エージェントのキャッシュ管理の更新や、ページのホバー機能のサポートが追加されました。これにより、エージェントの動作がより安定し、効率的になることが期待されます。 • ハイブリッドモードの実験的な移動が行われた • OpenAIおよびGoogle CUAのための安全確認サポートが追加された • エージェントのキャッシュ管理が更新された • ページのホバー機能がサポートされた • いくつかのバグ修正が行われた
In advocating for LLMs as useful and important technology despite how they're trained I'm beginning to feel a little bit like John Cena in Pluribus. Pluribus spoiler (episode 6) Given …

MiniMax-M2.1, LLM Coding Workflows, GLM-4.7, MiniMax-M2.1, LaMer Meta-RL, Google's 2025 AI Breakthroughs
A year ago, Claude struggled to generate bash commands without escaping issues. It worked for seconds or minutes at a time. We saw early signs that it may become broadly …
この記事は、Langchainのテストパッケージであるlangchain-testsのバージョン1.1.2のリリースに関する情報を提供しています。このリリースは2023年12月27日に行われ、主な変更点として、テキストスプリッターや標準テスト、CLIに対するruff TCおよびRUF012ルールの追加、ruff ISC001ルールの追加、コア部分のシリアライゼーションパッチが含まれています。これにより、テストの品質向上やバグ修正が図られています。 • langchain-testsのバージョン1.1.2がリリースされた • 主な変更点にはテキストスプリッターや標準テスト、CLIに対するruff TCおよびRUF012ルールの追加がある • ruff ISC001ルールの追加も行われた • コア部分のシリアライゼーションパッチが適用された • これによりテストの品質向上やバグ修正が図られた

AI を活用するための技術というのはとりわけ新しいものではなく、過去の知見を基盤として構築されていることが多いです。それゆえに、AI 時代だからこそ基礎的な知識を体系的に学ぶことができる書籍に学ぶことに価値を求めるのです。この記事では 2025 年に読んで特に印象に残った本をいくつか紹介します。

Rob Pike (that Rob Pike) is furious. Here’s a Bluesky link for if you have an account there and a link to it in my thread viewer if you don’t. …
![Building Jarvis: MCP and the future of AI with Kent C Dodds [REPEAT]](https://media24.fireside.fm/file/fireside-images-2024/podcasts/images/3/3911462c-bca2-48c2-9103-610ba304c673/episodes/9/90da0a21-a74d-4e5a-bdde-f2631702a1ae/cover_medium.jpg?v=1)
In this repeat episode, Kent C. Dodds came back on to the podcast with bold ideas and a game-changing vision for the future of AI and web development. In this episode, we dive into the Model Context Protocol (MCP), the power behind Epic AI Pro, and how developers can start building Jarvis-like assistants today. From replacing websites with MCP servers to reimagining voice interfaces and AI security, Kent lays out the roadmap for what's next, and why it matters right now. Don’t miss this fast-paced conversation about the tools and tech reshaping everything.

AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
この記事は、GitHub上で公開されたstagehand/serverのバージョン3.1.3のリリースに関する情報を提供しています。このリリースでは、エージェントのドキュメントの更新や、環境変数からのGOOGLE_API_KEYの読み込みの修正、エージェント評価の追加、スクリーンショットコレクターの更新などが行われました。また、エラー処理やメモリのクリーンアップ、ユニットテストの追加、APIキーの自動読み込みの修正など、さまざまな技術的改善が含まれています。さらに、ハイブリッドCUA + DOMモードの追加や、OpenAPI生成のためのfastify-zod-openapiとzod v4の使用なども新たに導入されています。 • エージェントのドキュメントが更新された • GOOGLE_API_KEYを環境変数から読み込む修正が行われた • エージェント評価の追加が行われた • エラー処理とメモリのクリーンアップが実施された • ユニットテストが追加された • ハイブリッドCUA + DOMモードが新たに追加された • OpenAPI生成にfastify-zod-openapiとzod v4が使用された

In this post, we explore how to programmatically create an IDP solution that uses Strands SDK, Amazon Bedrock AgentCore, Amazon Bedrock Knowledge Base, and Bedrock Data Automation (BDA). This solution is provided through a Jupyter notebook that enables users to upload multi-modal business documents and extract insights using BDA as a parser to retrieve relevant chunks and augment a prompt to a foundational model (FM).

Enterprise organizations increasingly rely on web-based applications for critical business processes, yet many workflows remain manually intensive, creating operational inefficiencies and compliance risks. Despite significant technology investments, knowledge workers routinely navigate between eight to twelve different web applications during standard workflows, constantly switching contexts and manually transferring information between systems. Data entry and validation tasks […]

In this post, we explore how agentic QA automation addresses these challenges and walk through a practical example using Amazon Bedrock AgentCore Browser and Amazon Nova Act to automate testing for a sample retail application.

In this post, we demonstrate how to optimize large language model (LLM) inference on Amazon SageMaker AI using BentoML's LLM-Optimizer to systematically identify the best serving configurations for your workload.

Socket CTO Ahmad Nassri shares practical AI coding techniques, tools, and team workflows, plus what still feels noisy and why shipping remains human-l...
この記事は、Chromaのバージョン1.4.0のリリースに関する情報を提供しています。このリリースでは、ドキュメントの修正や新機能の追加、バグ修正が行われました。具体的には、BM25のマルチスレッド時の不具合修正、JavaScriptクライアントのベースURL指定のサポート追加、Rustクライアントの新機能追加などが含まれています。また、エージェントメモリガイドやコレクション検索の例もドキュメントに追加されました。これにより、Chromaの機能が向上し、ユーザーにとっての利便性が増しています。 • Chromaのバージョン1.4.0がリリースされた。 • ドキュメントの修正や新機能の追加が行われた。 • BM25のマルチスレッド時の不具合が修正された。 • JavaScriptクライアントにベースURL指定のサポートが追加された。 • Rustクライアントに新機能が追加された。 • エージェントメモリガイドやコレクション検索の例がドキュメントに追加された。
この記事は、GitHub上のchroma-coreリポジトリにおけるcli-1.3.0のリリースに関する情報を提供しています。このリリースは2023年12月24日に行われ、CLI(コマンドラインインターフェース)の最新バージョンが公開されました。リリースには、6つのアセットが含まれており、GitHubの検証済み署名で作成されたことが記載されています。記事は、リリースの詳細や変更点については触れていませんが、CLIのバージョン管理に関する基本的な情報を提供しています。 • CLIの最新バージョンcli-1.3.0がリリースされた • リリース日は2023年12月24日 • リリースには6つのアセットが含まれている • GitHubの検証済み署名で作成された
RooCodeIncのRoo-Codeのリリースv3.37.1では、いくつかのバグ修正と新機能が追加されました。主な修正点として、OpenAI用のネイティブツール定義をデフォルトで送信するようにし、モデル出力処理時の不正なレスポンスを防ぐためにreasoning_detailsの形状を保持することが挙げられます。また、メッセージの損失を防ぐために、askを待っている間にキューに入ったメッセージを排出する機能も追加されました。新機能としては、空のアシスタントメッセージに対するグレースリトライの追加や、OpenAI互換プロバイダー全体でのmergeToolResultTextの有効化が含まれています。さらに、プロンプト内でのネイティブツール使用ガイダンスを強化し、アカウント中心のサインアップフローを導入してオンボーディング体験を向上させました。 • OpenAI用のネイティブツール定義をデフォルトで送信する修正 • reasoning_detailsの形状を保持することで不正なレスポンスを防ぐ • askを待っている間にキューに入ったメッセージを排出する機能の追加 • 空のアシスタントメッセージに対するグレースリトライの追加 • OpenAI互換プロバイダー全体でのmergeToolResultTextの有効化 • プロンプト内でのネイティブツール使用ガイダンスの強化 • アカウント中心のサインアップフローの導入

In this post, we explore how Mantle, Amazon's next-generation inference engine for Amazon Bedrock, implements a zero operator access (ZOA) design that eliminates any technical means for AWS operators to access customer data.

In this post, we explore the new AWS AI League challenges and how they are transforming how organizations approach AI development. The grand finale at AWS re:Invent 2025 was an exciting showcase of their ingenuity and skills.

In this post, we demonstrate how to use Foundation Models (FMs) from Amazon Bedrock and the newly launched Amazon Bedrock AgentCore alongside W&B Weave to help build, evaluate, and monitor enterprise AI solutions. We cover the complete development lifecycle from tracking individual FM calls to monitoring complex agent workflows in production.

In this post, we explore how Qbtech streamlined their machine learning (ML) workflow using Amazon SageMaker AI, a fully managed service to build, train and deploy ML models, and AWS Glue, a serverless service that makes data integration simpler, faster, and more cost effective. This new solution reduced their feature engineering time from weeks to hours, while maintaining the high clinical standards required by healthcare providers.

In this post, the first of a series of three, we focus on how you can use Amazon Nova to streamline, simplify, and accelerate marketing campaign creation through generative AI. We show how Bancolombia, one of Colombia’s largest banks, is experimenting with the Amazon Nova models to generate visuals for their marketing campaigns.
2025年のGoogleの年次レビューでは、8つの研究分野における画期的な進展が紹介されています。これらの分野には、AIの進化、持続可能なエネルギー技術、医療の革新、量子コンピューティング、データプライバシーの強化、教育技術の向上、交通の効率化、そして新しいコミュニケーション手段が含まれています。特にAIの進化は、さまざまな業界において新しい可能性を開くものであり、持続可能なエネルギー技術は環境問題への対応に寄与することが期待されています。これらの研究成果は、今後の技術革新や社会の発展に大きな影響を与えるでしょう。 • 2025年における8つの研究分野の進展が報告されている • AIの進化が多くの業界に新しい可能性を提供する • 持続可能なエネルギー技術が環境問題への対応に寄与する • 医療の革新が健康管理の新しいアプローチを生む • 量子コンピューティングが計算能力を飛躍的に向上させる • データプライバシーの強化がユーザーの信頼を高める • 教育技術の向上が学習の質を改善する • 交通の効率化が都市のインフラに貢献する

This year saw new AI models, transformative products and new breakthroughs in science and robotics.

In this post, we explore how AWS and Visa are partnering to enable agentic commerce through Visa Intelligent Commerce using Amazon Bedrock AgentCore. We demonstrate how autonomous AI agents can transform fragmented shopping and travel experiences into seamless, end-to-end workflows—from discovery and comparison to secure payment authorization—all driven by natural language.

A Blog post by ServiceNow-AI on Hugging Face

Build privacy-first agentic AI using small language models. Learn how local-first architectures replace cloud LLMs for reasoning, RAG, and orchestration.
How Vercel built AI-generated pixel trading cards for Next.js Conf and Ship AI, then turned the same pipeline into a v0 template and festive holiday experiment.
RooCodeIncのRoo-Codeリポジトリのバージョン3.37.0がリリースされ、いくつかの新機能と修正が追加されました。新たにMiniMax M2.1が追加され、Minimax思考モデルの環境詳細処理が改善されました。また、Zaiプロバイダー向けに思考モードをサポートするGLM-4.7モデルが追加され、AIワークフローにシームレスに統合できるカスタムツール呼び出しの実験的機能も導入されました。XMLツールプロトコルの選択が非推奨となり、新しいタスクにはネイティブツールフォーマットが強制されます。さらに、OpenAIハンドラーでのストリーミング終了時にtool_call_endイベントを発生させる修正や、MCPツールの厳密モードを無効にする修正なども行われました。 • MiniMax M2.1の追加とMinimax思考モデルの環境詳細処理の改善 • Zaiプロバイダー向けのGLM-4.7モデルの追加 • カスタムツール呼び出しの実験的機能の導入 • XMLツールプロトコルの選択が非推奨に • OpenAIハンドラーでのtool_call_endイベントの修正 • MCPツールの厳密モードを無効にする修正

I’ve been having an absurd amount of fun recently using LLMs for cooking. I started out using them for basic recipes, but as I’ve grown more confident in their culinary …
この記事は、GitHub上でのlangchain-coreのバージョン0.3.81のリリースに関する情報を提供しています。このリリースは2023年12月23日に行われ、主な変更点としては、バージョン0.3.80からの修正が含まれています。特に、シリアライゼーションに関するパッチが適用されており、これによりデータの処理や保存に関する問題が改善されることが期待されます。リリースノートには、変更の詳細や関連するコミット情報が記載されています。 • バージョン0.3.81のリリース日: 2023年12月23日 • 主な変更点はシリアライゼーションに関するパッチの適用 • 前のバージョン0.3.80からの修正が含まれている • リリースノートには変更の詳細が記載されている

AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。

<h2><a id="tldr" class="anchor" href="#tldr" aria-hidden="true"><svg aria-hidden="true" class="octicon octicon-link" height="16" version="1.1" viewbox="0 0 1...
この記事は、Langchainのコアライブラリのバージョン1.2.5のリリースに関するもので、主にバグ修正と新機能の追加が含まれています。具体的には、シリアライズのパッチ、RunnablePickメソッドの戻り値の修正、@toolデコレーター内のField(description=...)の保持、ツールのargs_schemaからのデフォルト引数のポピュレート、get_buffer_string内でのdeprecatedなfunction_callの代わりにtool_callsの使用、@deprecatedにPEP 702 __deprecated__属性サポートの追加、ツールコールカウントのnull防止、ツールコールカウントの自動カウントと保存、count_tokens_approximatelyの代わりに'approximate'エイリアスの追加、ruffプレビュー規則の修正が行われています。 • バージョン1.2.5のリリースに伴うバグ修正と機能追加 • シリアライズのパッチが適用された • RunnablePickメソッドの戻り値が修正された • @toolデコレーター内のField(description=...)が保持されるようになった • ツールのargs_schemaからデフォルト引数がポピュレートされる • deprecatedなfunction_callの代わりにtool_callsが使用されるようになった • PEP 702 __deprecated__属性が@deprecatedに追加された • ツールコールカウントがnullにならないように修正された • ツールコールカウントが自動的にカウントされ保存されるようになった • 'approximate'エイリアスがcount_tokens_approximatelyの代わりに追加された

Turn your hard work into something big, with ChatGPT. 🎧: “Ajib Dastan Hai Yeh” by Lata Mangeshkar [Saregama Music]

This post explores Chain-of-Draft (CoD), an innovative prompting technique introduced in a Zoom AI Research paper Chain of Draft: Thinking Faster by Writing Less, that revolutionizes how models approach reasoning tasks. While Chain-of-Thought (CoT) prompting has been the go-to method for enhancing model reasoning, CoD offers a more efficient alternative that mirrors human problem-solving patterns—using concise, high-signal thinking steps rather than verbose explanations.

In this post, we demonstrate hosting Voxtral models on Amazon SageMaker AI endpoints using vLLM and the Bring Your Own Container (BYOC) approach. vLLM is a high-performance library for serving large language models (LLMs) that features paged attention for improved memory management and tensor parallelism for distributing models across multiple GPUs.

To address the need for businesses to quickly analyze information and unlock actionable insights, we are announcing Analytics Agent, a new feature that is seamlessly integrated into the GenAI IDP Accelerator. With this feature, users can perform advanced searches and complex analyses using natural language queries without SQL or data analysis expertise. In this post, we discuss how non-technical users can use this tool to analyze and understand the documents they have processed at scale with natural language.

In this post, we demonstrate how to implement a predictive maintenance solution using Foundation Models (FMs) on Amazon Bedrock, with a case study of Amazon's manufacturing equipment within their fulfillment centers. The solution is highly adaptable and can be customized for other industries, including oil and gas, logistics, manufacturing, and healthcare.

Look back on Google AI news in 2025 across Gemini, Search, Pixel and more products.