Last updated: 2026/04/06 11:01
Scan for secrets in files you plan to share
Cleanup Claude Code Paste
Lalit Maganti provides one of my favorite pieces of long-form writing on agentic engineering I've seen in ages. They spent eight years thinking about and then three months building syntaqlite, …
From anonymized U.S. ChatGPT data, we are seeing: ~2M weekly messages on health insurance ~600K weekly messages [classified as healthcare] from people living in “hospital deserts” (30 min drive to …

Most discussions of continual learning in AI focus on one thing: updating model weights. But for AI agents, learning can happen at three distinct layers: the model, the harness, and the context. Understanding the difference changes how you think about building systems that improve over time. The three main layers

The Top AI Papers of the Week (March 30 - April 5)
Scan for secrets in files you plan to share
Scan for secrets in files you plan to share
Scan for secrets in files you plan to share

コーディングエージェントの自動承認の範囲をどこまで許可するかは、ユーザー体験とセキュリティのバランスを取る上で重要な設計指針の1つです。Codex ではサンドボックス機能を提供することで、エージェントが安全に自律的に動作できる環境を実現しています。この記事では、Codex のサンドボックスの仕組みと、サンドボックス外でコマンドを実行する際の承認プロセスについて説明します。
Research into the HTTP APIs from various LLM providers.
この記事は、GitHub上でのchroma-coreプロジェクトのCLIバージョン1.4.2のリリースに関する情報を提供しています。リリースは2023年4月4日に行われ、GitHubの署名付きコミットとして記録されています。リリースには6つのアセットが含まれており、ユーザーはこれらをダウンロードして利用することができます。記事内では、リリースに関する具体的な問題や課題、提案される解決策、実装方法についての詳細は記載されていません。 • CLIバージョン1.4.2が2023年4月4日にリリースされた • リリースはGitHubの署名付きコミットとして記録されている • リリースには6つのアセットが含まれている • 具体的な問題や課題、解決策、実装方法についての詳細は記載されていない

Cursor 3, Gemma 4, Qwen3.6-Plus, GLM-5V-Turbo, Claude Code Source Leak, Emotion Concepts in LLMs, and More
3月31日の朝、Xのタイムラインが騒がしくなっていました。Claude Codeのソースコードが流出したというのです。調べてみると、npmパッケージ(v2.1.88)にデバッグ用のsource mapファイル(cli.js.map)が含まれた状態でリリースされていました。source mapのsourcesContentフィールドに元のTypeScriptソースコード全体がそのまま埋め込まれており、発見者の投稿は数千万ビューを記録。GitHubにミラーリングされ数万フォークされる事態になりました。 Claude code source code has been leaked via a map file in their npm registry! Code: https://t.co/jBiMoOzt8G pic.twitter.com/rYo5hbvEj8 — Chaofan Shou (@Fried_rice) March 31, 2026
Thomas Ptacek's take on the sudden and enormous impact the latest frontier models are having on the field of vulnerability research. Within the next few months, coding agents will drastically …

A fun thing about recording a podcast with a professional like Lenny Rachitsky is that his team know how to slice the resulting video up into TikTok-sized short form vertical …
On the kernel security list we've seen a huge bump of reports. We were between 2 and 3 per week maybe two years ago, then reached probably 10 a week …
The challenge with AI in open source security has transitioned from an AI slop tsunami into more of a ... plain security report tsunami. Less slop but lots of reports. …
Months ago, we were getting what we called 'AI slop,' AI-generated security reports that were obviously wrong or low quality. It was kind of funny. It didn't really worry us. …
この記事は、GitHub上で公開されているlanggraphのバージョン1.1.6のリリースに関する情報を提供しています。このリリースは2023年4月3日に行われ、主な変更点として、実行情報のパッチ修正が含まれています。リリースノートには、前のバージョン1.1.5からの変更点が記載されており、GitHubの署名付きコミットによって作成されたことが確認されています。 • langgraphのバージョン1.1.6が2023年4月3日にリリースされた • 主な変更点は実行情報のパッチ修正である • リリースはGitHub上で公開されている • 前のバージョン1.1.5からの変更点が含まれている • GitHubの署名付きコミットによって作成された
この記事は、Langchainのバージョン1.2.15のリリースに関する情報を提供しています。このリリースでは、aiohttpライブラリがバージョン3.13.3から3.13.4にアップデートされました。リリースはGitHub上で行われ、コミットはGitHubの検証済み署名で作成されています。リリース日付は2023年4月3日で、特に新機能の追加や大きな変更は記載されていません。 • Langchainのバージョン1.2.15がリリースされた • aiohttpライブラリがバージョン3.13.3から3.13.4にアップデートされた • リリースはGitHubで行われた • コミットはGitHubの検証済み署名で作成された • 新機能の追加や大きな変更はない
この記事は、GitHub上で公開されているlanggraphのバージョン1.1.5のリリースに関する情報を提供しています。このリリースでは、主に実行時の情報を強化する機能が追加され、リモートビルドのサポートも含まれています。また、いくつかのURLの修正やREADMEの更新も行われています。これにより、langgraphの使用がより便利になり、開発者がより多くの情報を得られるようになります。 • langgraphのバージョン1.1.5がリリースされた • 実行時の情報を強化する機能が追加された • リモートビルドのサポートが追加された • いくつかのURLが修正された • READMEが更新された
この記事は、GitHub上でのlanggraph-prebuiltのバージョン1.0.9のリリースに関する情報を提供しています。このリリースでは、ランタイムの強化やツールノードの注入バグの修正が行われました。また、依存関係の更新も含まれており、特にpygments、langchain-core、requestsのバージョンがそれぞれ2.20.0、1.2.22、2.33.0にアップデートされています。これにより、全体的なパフォーマンスと安定性が向上することが期待されます。 • ランタイムの強化により、より多くの実行情報が提供される • ツールノードの注入バグが修正された • 依存関係としてpygments、langchain-core、requestsがそれぞれアップデートされた • 全体的なパフォーマンスと安定性の向上が期待される
The Axios team have published a full postmortem on the supply chain attack which resulted in a malware dependency going out in a release the other day, and it involved …

本記事では、LLM(大規模言語モデル)の行動傾向の評価と整合性についての体系的な評価フレームワークを紹介しています。このフレームワークは、モデルの行動傾向を人間の社会的傾向と比較し、モデルの出力と人間の合意との間の整合性や逸脱を定量化することを目的としています。具体的には、共感や自己主張などの特性を評価するための標準化された心理学的質問票を用いて、LLMの行動傾向を評価します。研究では、プロフェッショナルな落ち着きや対立解決、日常的な意思決定など、現実的なユーザーアシスタントシナリオにおけるLLMの行動を分析しました。25のLLMを対象にした大規模な分析の結果、モデルの傾向が人間の合意から逸脱している場合や、合意がない場合に人間の意見の範囲を捉えられていない場合があることが明らかになりました。今後の研究では、これらの結果を基に、モデルの行動の整合性を向上させる機会が期待されています。 • LLMの行動傾向を評価するための体系的なフレームワークを導入 • モデルの出力と人間の合意との整合性を定量化 • 心理学的質問票を用いてLLMの行動傾向を評価 • 現実的なユーザーアシスタントシナリオでのモデルの行動を分析 • 25のLLMを対象にした大規模な分析で2種類のギャップを特定 • モデルの行動が人間の合意から逸脱する場合がある • 今後の研究でモデルの行動の整合性を向上させる機会が期待される
この記事は、GitHub上でのlangchain-coreのバージョン1.2.25のリリースに関する情報を提供しています。このリリースでは、主に2つの修正が行われました。1つ目は、廃止されたプロンプト読み込み機能におけるテキストファイルのチェックを強化する修正です。2つ目は、ドキュメント内の誤字を修正するもので、これによりユーザーがより正確な情報を得られるようになっています。これらの変更は、ユーザーの利便性を向上させることを目的としています。 • 廃止されたプロンプト読み込み機能におけるテキストファイルのチェックを強化した • ドキュメント内の誤字を修正した • ユーザーの利便性を向上させることを目的としている

I was a guest on Lenny Rachitsky’s podcast, in a new episode titled An AI state of the union: We’ve passed the inflection point, dark factories are coming, and automation …

Four new vision-capable Apache 2.0 licensed reasoning LLMs from Google DeepMind, sized at 2B, 4B, 31B, plus a 26B-A4B Mixture-of-Experts. Google emphasize "unprecedented level of intelligence-per-parameter", providing yet more evidence …
LLM plugin to access Google's Gemini family of models

💡TL;DR: Open models like GLM-5 and MiniMax M2.7 now match closed frontier models on core agent tasks — file operations, tool use, and instruction following — at a fraction of the cost and latency. Here's what our evals show and how to start using them in Deep Agents. Over the

In this post, we explore how ActorSimulator in Strands Evaluations SDK addresses the challenge with structured user simulation that integrates into your evaluation pipeline.
この記事は、Hugging FaceのTransformersライブラリのバージョン5.5.0のリリースに関するもので、新しいモデルの追加について詳述しています。新たに追加されたGemma4は、マルチモーダルモデルで、事前学習済みおよび指示調整済みのバリエーションがあり、1B、13B、27Bのパラメータを持っています。Gemma4は、異なるサイズの画像を固定トークン数で処理する新しい設計を採用しており、画像の自然なアスペクト比を保持します。また、NomicBERTは、8192のコンテキスト長を持つBERTインスパイアのエンコーダモデルで、短いコンテキストと長いコンテキストのベンチマークでOpenAIのモデルを上回る性能を示しています。さらに、Music Flamingoは、音楽に関する理解と推論を強化するために設計されたオーディオ・言語モデルです。 • Gemma4はマルチモーダルモデルで、異なるサイズの画像を固定トークン数で処理する新設計を採用している。 • NomicBERTは8192のコンテキスト長を持ち、短いコンテキストと長いコンテキストのベンチマークで優れた性能を示す。 • Music Flamingoは音楽に特化したオーディオ・言語モデルで、音声、音、音楽を統一的に処理する。 • Gemma4は、画像の自然なアスペクト比を保持しつつ、トークン数の制約を設けている。 • NomicBERTは、特定の指示プレフィックスを使用して、検索、クラスタリング、分類のための密なベクトル埋め込みを生成する。

AI models sometimes act like they have emotions—why? We studied one of our recent models and found that it draws on emotion concepts learned from text to inhabit its role as Claude, the AI assistant. These representations influence its behavior the way emotions might influence a human. And that has real consequences, affecting how Claude answers chats, writes code, and makes decisions. Read more about this research: https://www.anthropic.com/research/emotion-concepts-function

Gemma 4: our most intelligent open models to date, purpose-built for advanced reasoning and agentic workflows.

Google is introducing two new inference tiers to the Gemini API, Flex and Priority, to balance cost and latency.

This post describes how TGS achieved near-linear scaling for distributed training and expanded context windows for their Vision Transformer-based SFM using Amazon SageMaker HyperPod. This joint solution cut training time from 6 months to just 5 days while enabling analysis of seismic volumes larger than previously possible.

In this post, we show you how to configure AWS Network Firewall to restrict AgentCore resources to an allowlist of approved internet domains. This post focuses on domain-level filtering using SNI inspection — the first layer of a defense-in-depth approach.

Through a strategic partnership with the AWS Generative AI Innovation Center (GenAIIC), Rocket Close developed an intelligent document processing solution that has significantly reduced processing time, making the process 15 times faster. The solution, which uses Amazon Textract for OCR processing and Amazon Bedrock for foundation models (FMs), achieves a strong 90% overall accuracy in document segmentation, classification, and field extraction.

In this post, we go through how to use managed session storage to persist your agent's filesystem state and how to execute shell commands directly in your agent's environment.

Using AI for every workflow step isn't just unnecessary — it's slower, costlier, and less reliable when rule-based logic fits. This post covers practical patterns for combining deterministic and AI steps in n8n, with downloadable templates and hands-on exercises for each.

A foundation for anyone new to n8n, covering the platform concepts you'll see throughout the Production AI Playbook series.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ユーザーインターフェースは直感的で使いやすく、開発者が迅速に作業を進められるように設計されています。さらに、このツールは既存の開発環境に簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者の意図を理解し、適切なコードスニペットを提案 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境に簡単に統合可能
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • コーディング効率の向上が期待される • エラー削減や開発時間短縮のメリット
I just sent the March edition of my sponsors-only monthly newsletter. If you are a sponsor (or if you start a sponsorship now) you can access it here. In this …
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
LLM integration plugin for other plugins to depend on
Enrich data by prompting LLMs
It feels like spring has sprung here, and so has a new NVIDIA integration, ticket sales for Interrupt 2026, and announcing LangSmith Fleet (formerly Agent Builder).

Gradient Labs is giving every bank customer an AI account manager, with CSAT up to 98% and over 50% resolution on day one. In banking support, even simple issues like a declined payment can trigger multiple teams, handoffs, and delays. Gradient Labs replaces that with a single agent that handles the full workflow. Identity checks, card actions, and follow-ups happen in one continuous conversation. Read their full story here: https://lnkd.in/emSndtkx

"Codex code review is industry gold standard." We checked in with Ramp to hear how the AI Dev X team is leveraging Codex to build an AI-driven on-call helper to take the burden off engineers. " Codex with GPT 5.4 is adept at dealing with complexity in a way that would have required a lot mental effort...but Codex handles it like its nothing" Learn more: https://openai.com/codex/
この記事は、Langchainのコアライブラリのバージョン1.2.24のリリースに関する情報を提供しています。このリリースでは、OpenAIファイル入力用のプレースホルダーファイル名を補完する機能が追加され、また、全パッケージに対してPygmentsのバージョンを2.20.0以上に更新する作業が行われました。さらに、_WellKnownOpenAIToolsに「computer」を追加する修正も含まれています。これらの変更は、Langchainの機能性とセキュリティを向上させることを目的としています。 • OpenAIファイル入力用のプレースホルダーファイル名を補完する機能の追加 • 全パッケージに対してPygmentsのバージョンを2.20.0以上に更新 • _WellKnownOpenAIToolsに「computer」を追加する修正 • セキュリティ向上のための更新が含まれている

This post demonstrates how to build an automated competitive price intelligence system that streamlines manual workflows, supporting teams to make data-driven pricing decisions with real-time market insights.

A Blog post by H company on Hugging Face

A practical look at governing AI agents with clarity, speed, and platform‑level enforcement across the enterprise.

Google partnered with the Brazilian government on a satellite imagery map to help protect the country’s forests.

Here are Google’s latest AI updates from March 2026
A Blog post by Technology Innovation Institute on Hugging Face
Import unstructured data (text and images) into structured tables
Enrich data by prompting LLMs
Track usage of LLM tokens in a SQLite table
LLM integration plugin for other plugins to depend on
I want to argue that AI models will write good code because of economic incentives. Good code is cheaper to generate and maintain. Competition is high between the AI models …
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者はコーディングの効率を大幅に向上させることができ、エラーの削減や開発時間の短縮が期待されます。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者が入力したコメントや関数名に基づいて提案 • 多くのプログラミング言語に対応、特にJavaScriptやPythonが推奨 • コーディングの効率向上、エラー削減、開発時間短縮が期待される

In this post, we introduce Amazon Bedrock AgentCore Evaluations, a fully managed service for assessing AI agent performance across the development lifecycle. We walk through how the service measures agent accuracy across multiple quality dimensions. We explain the two evaluation approaches for development and production and share practical guidance for building agents you can deploy with confidence.
この記事は、GitHub上のbrowserbase/stagehandリポジトリにおけるstagehand/server-v3のバージョン3.6.3のリリースに関する情報を提供しています。このリリースでは、LLMヘッダーのModelConfigへの追加、Pydanticのスキーマ解析バグの修正、ブラウザ接続が切れた際のキャッシュ状態のクリア、既存のBrowserbaseセッションへの接続フラグの追加などが行われました。また、CLIのメタデータの追加や、リリースサイクルの分離、さまざまなルートスタブの追加も含まれています。これにより、開発者はより効率的に作業できるようになります。 • LLMヘッダーをModelConfigに追加した • Pydanticのスキーマ解析バグを修正した • ブラウザ接続が切れた際にキャッシュ状態をクリアする機能を追加した • 既存のBrowserbaseセッションへの接続フラグを追加した • CLIのメタデータを追加した • リリースサイクルをstagehandコアから分離した • さまざまなルートスタブを追加した
LLM integration plugin for other plugins to depend on
Register async versions of models from LLM plugins that only provide a sync version
Access large language models from the command-line

In this post, you learn how to build a FinOps agent using Amazon Bedrock AgentCore that helps your finance team manage AWS costs across multiple accounts. This conversational agent consolidates data from AWS Cost Explorer, AWS Budgets, and AWS Compute Optimizer into a single interface, so your team can ask questions like "What are my top cost drivers this month?" and receive immediate answers.

In this post, we show you how to build a similar system for your organization. You will learn the architecture decisions, implementation details, and deployment process that can help you automate your own compliance workflows.

In this post, we demonstrate how to implement agentic QA automation through QA Studio, a reference solution built with Amazon Nova Act. You will see how to define tests in natural language that adapt automatically to UI changes, explore the serverless architecture that executes tests reliably at scale, and get step-by-step deployment guidance for your AWS environment.

Build production AI agents on MongoDB Atlas — with vector search, persistent memory, natural-language querying, and end-to-end observability built in.
Debug plugin for LLM providing an echo model

I'm excited to announce that AWS Security Agent on-demand penetration testing and AWS DevOps Agent are now generally available, representing a new class of AI capabilities we announced at re:Invent called frontier agents. These autonomous systems work independently to achieve goals, scale massively to tackle concurrent tasks, and run persistently for hours or days without constant human oversight. Together, these agents are changing the way we secure and operate software. In preview, customers and partners report that AWS Security Agent compresses penetration testing timelines from weeks to hours and the AWS DevOps Agent supports 3–5x faster incident resolution.

Google Research explores the trade-off between number of items and human raters per item to improve AI benchmark reproducibility and capture the nuance of human disagreement.

Discover how Azure Local powers sovereign AI at the edge for secure, compliant workloads in remote and regulated environments.

Veo 3.1 Lite is now available in paid preview through the Gemini API and for testing in Google AI Studio.
Debug plugin for LLM providing an echo model

Traditional frameworks designed for static deployments cannot address the dynamic interactions that define agentic workloads. AI Risk Intelligence (AIRI), from AWS Generative AI Innovation Center, provides the automated rigor required to govern agents at enterprise scale—a fundamental reimagining of how security, operations, and governance work together systemically.
A Blog post by IBM Granite on Hugging Face
この記事は、Langchainのバージョン1.2.14のリリースに関するもので、主な変更点や修正内容が記載されています。具体的には、pygmentsのバージョンを2.20.0以上に更新し、runtimeの再帰制限のオーバーライドをテストし、初期化速度を15%向上させるなどのパフォーマンス改善が行われました。また、create_agentの再帰制限を更新し、ChatAnthropicVertexのトークンカウンターを認識する修正も含まれています。さらに、todolistの非同期実装が追加され、ミドルウェアの初期化速度も向上しました。これらの変更は、Langchainの機能性とパフォーマンスを向上させることを目的としています。 • Langchainのバージョン1.2.14がリリースされた。 • pygmentsを2.20.0以上に更新した。 • 初期化速度を15%向上させた。 • create_agentの再帰制限を更新した。 • ChatAnthropicVertexのトークンカウンターを認識する修正を行った。 • todolistに非同期実装を追加した。 • ミドルウェアの初期化速度を向上させた。
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案する機能 • JavaScriptやTypeScriptプロジェクトへの統合が容易 • 開発効率の向上とエラー削減が期待される
この記事は、langgraphのバージョン1.1.4のリリースに関する情報を提供しています。このリリースでは、再帰制限のデフォルトセントネルの衝突を回避する修正が行われ、LangSmith統合メタデータが追加されました。また、依存関係の更新も行われており、pygments、cryptography、types-requests、requestsなどのライブラリがそれぞれバージョンアップされています。これにより、langgraphの機能性と安定性が向上しています。 • 再帰制限のデフォルトセントネルの衝突を回避する修正が行われた。 • LangSmith統合メタデータが追加された。 • 依存関係としてpygments、cryptography、types-requests、requestsがそれぞれバージョンアップされた。 • これによりlanggraphの機能性と安定性が向上した。

Codex プラグインを使用すると、Claude Code から Codex を呼び出してコードレビューをしたり、タスクを委任するといったことが簡単にできるようになります。この記事では、Codex プラグインの使用方法と、どのような方法で Codex を呼び出しているのかといった内部の仕組みについて紹介します。

この記事では、将来の量子コンピュータが暗号通貨を保護する楕円曲線暗号(ECDLP-256)を破る可能性について論じています。Googleは2016年からポスト量子暗号(PQC)への移行を推進しており、暗号通貨コミュニティに対してセキュリティと安定性を向上させるための推奨事項を提供しています。具体的には、量子攻撃に耐性のあるPQCへのブロックチェーンの移行を提案しています。また、米国政府と連携し、悪意のある行為者に対する道筋を示さずに脆弱性を検証できるゼロ知識証明を用いた新しい方法を開発しました。量子コンピュータのリソース推定についても言及し、ECDLP-256を破るために必要な論理キュービットとトフォリゲートの数を示しています。最終的に、PQCは暗号通貨とデジタル経済の長期的な存続を支える道であると結論付けています。 • 将来の量子コンピュータが楕円曲線暗号を破る可能性があることを指摘 • ポスト量子暗号(PQC)への移行を提案 • ゼロ知識証明を用いて脆弱性を安全に共有する方法を開発 • 量子コンピュータのリソース推定を提供し、ECDLP-256を破るための具体的な数値を示す • PQCが暗号通貨の長期的な安定性を保証する道であると主張
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Note that the main issues that people currently unknowingly face with local models mostly revolve around the harness and some intricacies around model chat templates and prompt construction. Sometimes there …
LLM integration plugin for other plugins to depend on
DeepSpeedのv0.18.9パッチリリースでは、いくつかの重要な変更が行われました。まず、$TRITON_HOMEを尊重する機能が追加され、AutoTPのためのユニバーサルチェックポイントが導入されました。また、ROCm GPUアーキテクチャ検出において不要なshell=Trueを削除し、$DS_IGNORE_CUDA_DETECTIONが設定されている場合にはローカルGPUを検出しないように修正されました。さらに、HuggingFace tp_planのサポートが追加され、Triton自動調整キャッシュにおける存在しないパスの処理が改善されました。PyTorch 2.4未満のtorch.amp.custom_fwdの後方互換性が修正され、ZeRO Stage 3のMuon Optimizerサポートが拡張されました。これらの変更により、DeepSpeedのパフォーマンスと互換性が向上しています。 • $TRITON_HOMEを尊重する機能の追加 • AutoTPのためのユニバーサルチェックポイントの導入 • ROCm GPUアーキテクチャ検出の修正 • HuggingFace tp_planのサポート追加 • Triton自動調整キャッシュの改善 • PyTorch 2.4未満の後方互換性の修正 • ZeRO Stage 3のMuon Optimizerサポートの拡張
この記事は、OpenHandsのバージョン1.6.0のリリースノートを提供しています。このリリースでは、いくつかの新機能が追加され、バグ修正が行われました。新機能には、フックのサポート、カタルーニャ語の追加、/clearコマンドの実装、コードブロックにコピーボタンの追加、デフォルトのグローバルスキルの有効/無効化機能、スラッシュコマンドメニューへの/newコマンドの追加が含まれています。また、会話が保存されない問題や、エクスポート機能のバグ修正も行われました。さらに、依存関係の更新を通じて複数のCVEが修正されました。新しい貢献者も数名参加しています。 • フックのサポートが追加された • カタルーニャ語が追加された • /clearコマンドで新しい会話を作成できる • コードブロックにコピーボタンが追加された • デフォルトのグローバルスキルの有効/無効化が可能になった • スラッシュコマンドメニューに/newコマンドが追加された • 会話が保存されない問題が修正された • エクスポート機能のバグが修正された • 依存関係の更新により複数のCVEが修正された

Modernize financial services with Microsoft Cloud to unlock AI‑first transformation, operational resilience, and trusted innovation. Learn more.

In this post, you'll learn how Ring implemented metadata-driven filtering for Region-specific content, separated content management into ingestion, evaluation and promotion workflows, and achieved cost savings while scaling up.

In this post, we explore the challenges that Volkswagen Group faced in producing brand-compliant marketing assets at scale. We walk through how we built a generative AI solution that generates photorealistic vehicle images, validates technical accuracy at the component level, and helps enforce brand guideline compliance alignment across the ten brands.

In this post, we show you how to use Amazon SageMaker AI to build and deploy a deep learning model for detecting solar flares using data from the European Space Agency's STIX instrument.

In this post, we walk through two use cases that help enhance the user viewing experience using agentic AI tools and frameworks including Strands Agents SDK, Amazon Bedrock AgentCore, and Amazon Nova Sonic 2.0. This agentic AI system uses a Model Context Protocol (MCP) to deliver a personal entertainment concierge that understands user preferences through natural dialogue.

Trip Venturella released Mr. Chatterbox, a language model trained entirely on out-of-copyright text from the British Library. Here’s how he describes it: Mr. Chatterbox is a language model trained entirely …

Today, Copilot Cowork—designed for long-running, multi-step work in Microsoft 365—is available via the Frontier program.
Chat with Mr Chatterbox, trained on a corpus of over 28,000 Victorian-era British texts published between 1837 and 1899
この記事は、langchain-openrouterのバージョン0.2.1のリリースに関する情報を提供しています。このリリースでは、主に以下の変更が行われました。まず、HTTPリクエストのデフォルトヘッダーにアトリビューションヘッダーを追加する修正が行われました。また、モデルプロファイルデータの更新が行われ、さらに、依存ライブラリであるrequestsのバージョンが2.32.5から2.33.0に引き上げられました。これらの変更は、openrouterの機能向上や安定性の向上に寄与しています。 • langchain-openrouterのバージョン0.2.1がリリースされた • HTTPリクエストのデフォルトヘッダーにアトリビューションヘッダーを追加する修正が行われた • モデルプロファイルデータが更新された • 依存ライブラリrequestsのバージョンが2.32.5から2.33.0に引き上げられた • これらの変更は機能向上や安定性向上に寄与している

In three months, Prisma fundamentally changed how it builds software by rethinking the relationship between engineers and AI agents. Here's what we learned building Prisma Next with agentic engineering.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応
Pretext — Under the Hood

The Top AI Papers of the Week (March 23 - 29)

Hyperagents, Multi-Agent Harness Design, Chroma Context-1, Composer 2, ARC-AGI-3, and More
The thing about agentic coding is that agents grind problems into dust. Give an agent a problem and a while loop and - long term - it’ll solve that problem …
Datasette plugin for SHOWBOAT_REMOTE_URL
この記事は、GitHub上でのlangchain-coreのバージョン1.2.23のリリースに関する情報を提供しています。このリリースでは、前のバージョン1.2.22からの変更点として、メタデータ内の呼び出しパラメータをトレースする修正が元に戻されたことが記載されています。また、coreライブラリ内のrequestsパッケージがバージョン2.32.5から2.33.0に更新されたことも報告されています。リリース日は2023年3月27日で、GitHubの署名付きコミットとして作成されています。 • langchain-coreのバージョン1.2.23がリリースされた • 前のバージョンからの変更点として、メタデータ内の呼び出しパラメータをトレースする修正が元に戻された • requestsパッケージがバージョン2.32.5から2.33.0に更新された • リリース日は2023年3月27日 • GitHubの署名付きコミットとして作成された
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案する機能 • JavaScriptやTypeScriptプロジェクトへの統合が容易 • 開発効率の向上とエラー削減が期待される
FWIW, IANDBL, TINLA, etc., I don’t currently see any basis for concluding that chardet 7.0.0 is required to be released under the LGPL. AFAIK no one including Mark Pilgrim has …

I have a new laptop—a 128GB M5 MacBook Pro, which early impressions show to be very capable for running good local LLMs. I got frustrated with Activity Monitor and decided …

ChatGPT can help you find the perfect gift based on your budget, preferences, and constraints—and surface products that fit. You can browse visually, upload images as inspiration for similar items, and refine results conversationally until you land on the right option.

Upload your design inspiration to ChatGPT and find inspiration for similar items. Make shopping easier than ever with our visually immersive shopping experiences.

A practical checklist for agent evaluation: error analysis, dataset construction, grader design, offline & online evals, and production readiness.
コーディングエージェントの普及にともない、エージェントをリモートで動作させるための専用実行環境——リモートサンドボックスが注目されています。ここでいうサンドボックスとは、プロジェクトやエージェントごとに気軽に生成・破棄できるリモートVMのことで、exe.dev、Sprites、Docker Sandbox などのサービス・ツールが登場しています。 本記事ではこれらのリモートサンドボックスの用途を整理し、exe.dev・Sprites・Docker Sandboxの3つを比較します。 なぜ専用の実行環境が必要なのか コーディングエージェントをリモートで走らせる環境として、これまで一般的だった選択肢を列挙すると以下のようになります。 * Mac miniやRaspberry Piを買って自宅サーバーを立てる * VPS(Hetzner、さくらVPSなど)を契約する * Devin、Claude Code on the web、Codex(Cloud)などのマネージドサービスを使う * GitHub Codespaces、Gitpodなどのクラウド開発環境を使う これらの
Bit of a hyperbolic framing but this looks like another case study of vibe-porting, this time spinning up a new custom Go implementation of the JSONata JSON expression language - …
この記事は、Hugging FaceのTransformersライブラリのバージョン5.4.0のリリースについて説明しています。このリリースには、いくつかの新しいモデルが追加されており、特にVidEoMT、UVDoc、Jina Embeddings v3、Mistral 4、PI0、SLANeXtが含まれています。VidEoMTは、オンラインビデオセグメンテーション用の軽量なエンコーダ専用モデルで、160 FPSで動作し、競争力のある精度を達成します。UVDocは、文書画像の幾何学的変換を行うためのモデルで、歪みや傾きの修正を行います。Jina Embeddings v3は、多言語対応のテキスト埋め込みモデルで、長い入力シーケンスをサポートします。Mistral 4は、一般的な指示モデルと推論モデルの機能を統合したハイブリッドモデルです。PI0は、視覚と言語の指示を処理してロボットの動作を生成するモデルです。 • 新しいモデルVidEoMTは、オンラインビデオセグメンテーション用で、160 FPSで動作し、競争力のある精度を持つ。 • UVDocは、文書画像の幾何学的変換を行い、歪みや傾きを修正する。 • Jina Embeddings v3は、多言語対応のテキスト埋め込みモデルで、長い入力シーケンスをサポートする。 • Mistral 4は、一般的な指示モデルと推論モデルの機能を統合したハイブリッドモデルである。 • PI0は、視覚と言語の指示を処理してロボットの動作を生成する。
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Callum McMahon reported the LiteLLM malware attack to PyPI. Here he shares the Claude transcripts he used to help him confirm the vulnerability and decide what to do about it. …

Today, we’re excited to announce that Amazon Bedrock is now available in the Asia Pacific (New Zealand) Region (ap-southeast-6). Customers in New Zealand can now access Anthropic Claude models (Claude Opus 4.5, Opus 4.6, Sonnet 4.5, Sonnet 4.6, and Haiku 4.5) and Amazon (Nova 2 Lite) models directly in the Auckland Region with cross region inference. In this post, we explore how cross-Region inference works from the New Zealand Region, the models available through geographic and global routing, and how to get started with your first API call. We


Discover how Kensho, S&P Global’s AI innovation engine, leveraged LangGraph to create its Grounding framework–a unified agentic access layer solving fragmented financial data retrieval at enterprise scale.

In this post, we walk you through how to implement a fully automated, context-aware AI solution using a serverless architecture on AWS. This solution helps organizations looking to deploy responsible AI systems, align with compliance requirements for vulnerable populations, and help maintain appropriate and trustworthy AI responses across diverse user groups without compromising performance or governance.

Last year, AWS announced an integration between Amazon SageMaker Unified Studio and Amazon S3 general purpose buckets. This integration makes it straightforward for teams to use unstructured data stored in Amazon Simple Storage Service (Amazon S3) for machine learning (ML) and data analytics use cases. In this post, we show how to integrate S3 general purpose buckets with Amazon SageMaker Catalog to fine-tune Llama 3.2 11B Vision Instruct for visual question answering (VQA) using Amazon SageMaker Unified Studio.

With Codex, Ryan Hendler, a developer at me&u in Melbourne Australia, ships while he sleeps and does work that wasn’t possible 6 months ago. So Ryan, what has Codex unlocked for you? “It unlocks my afternoons. I can spend time with my team discussing product, meeting with customers, being more hands on.” More: https://openai.com/codex/ #shorts #openaicodex #coding #startup #melbourne

Today, we’re excited to announce the new Bidirectional Streaming API for Amazon Polly, enabling streamlined real-time text-to-speech (TTS) synthesis where you can start sending text and receiving audio simultaneously. This new API is built for conversational AI applications that generate text or audio incrementally, like responses from large language models (LLMs), where users must begin synthesizing audio before the full text is available.

With Codex, Ryan Hendler, a developer at me&u in Melbourne Australia, ships while he sleeps and does work that wasn’t possible 6 months ago. So Ryan, what has Codex unlocked for you? “It unlocks my afternoons. I can spend time with my team discussing product, meeting with customers, being more hands on.” More: https://openai.com/codex/
この記事は、langchain-exaのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、デフォルトの検索タイプがニューラルからオートに変更され、いくつかの依存関係が更新されています。具体的には、requestsライブラリが2.32.5から2.33.0に、orjsonが3.11.5から3.11.6に、langsmithが0.4.31から0.6.3にそれぞれバージョンアップされています。また、CI環境でのpytestのストリーミング出力を抑制する変更や、Makefileにタイプターゲットを追加する作業も行われています。これにより、開発環境の整備が進められています。 • デフォルトの検索タイプがニューラルからオートに変更された • requestsライブラリが2.32.5から2.33.0に更新された • orjsonが3.11.5から3.11.6に更新された • langsmithが0.4.31から0.6.3に更新された • CI環境でのpytestのストリーミング出力を抑制する変更が行われた • Makefileにタイプターゲットが追加された
In the latest episode of our Dialogues on Technology and Society series, LL COOL J sits down with James Manyika.
Sam Rose continues his streak of publishing spectacularly informative interactive essays, this time explaining how quantization of Large Language Models works. Also included is the best visual explanation I've ever …

Gemini 3.1 Flash Live is now available across Google products.

Gemini 3.1 Flash Live is now available across Google products.
💡TLDR: The best agent evals directly measure an agent behavior we care about. Here's how we source data, create metrics, and run well-scoped, targeted experiments over time to make agents more accurate and reliable. Evals shape agent behavior We’ve been curating evaluations to measure and improve Deep Agents. Deep

Discover how Microsoft guides responsible AI agent adoption to scale productivity, empower people, and transform work with digital teammates. Learn more.

We’re expanding Search Live globally, to all languages and locations where AI Mode is available.

Agent harnesses are what help build an agent, they connect an LLM to its environment and let it do things. When you’re building an agent, it’s likely you’ll want build an application specific agent harness. “Agent Middleware” empowers you to build on top of LangChain and Deep
Firecrawl is offering 100,000 credits when you connect through n8n Cloud We've partnered with Firecrawl to make it easier than ever to bring web data into your n8n workflows. Connect to Firecrawl in one step, create an account without leaving the canvas, and start building immediately on n8n Cloud.

The Amazon AI coding outage reignited a debate the industry can't ignore: is this an AI failure or a process failure, and does that distinction even matter anymore? Paige, Jack, Paul, and Noel dig into vibe coding culture, the engineer retention crisis, and the rise of harness engineering as a discipline in this month's panel. They also tackle autonomous agents running while you sleep, zero-touch engineering, what a senior engineer even means now, and whether open source can survive the agentic era.
この記事では、mastra-aiの新しいリリース(バージョン1.16.0)に関する重要な機能と変更点が紹介されています。主なハイライトとして、観察メモリのためのスマートモデル選択機能が追加され、入力サイズに基づいて異なるモデルにルーティングできるようになりました。また、MongoDBを使用したデータセットと実験のサポートが強化され、バージョン管理されたデータセットの履歴やタイムトラベルクエリが可能になりました。Oktaを利用したSSO認証とロールベースのアクセス制御も新たに導入され、JWTの検証やセッション管理が行えるようになりました。その他、データセットとエージェントの関連付け、実験のステータス追跡、LLMを用いたデータ生成のエンドポイント追加など、さまざまな機能改善が行われています。 • 観察メモリのためのスマートモデル選択機能が追加され、短い入力は安価なモデルに、長い入力はより能力の高いモデルにルーティング可能。 • MongoDBを使用して、バージョン管理されたデータセットの履歴やタイムトラベルクエリをサポート。 • Oktaを利用したSSO認証とロールベースのアクセス制御が新たに追加。 • データセットとエージェントの関連付け、実験のステータス追跡機能が強化。 • LLMを用いたデータ生成のエンドポイントが追加され、実験の失敗分析機能も強化。

この記事では、複数のAPIをオーケストレーションする方法について説明しています。特に、AIエージェントがさまざまなサービスからデータを取得する際の課題に焦点を当てています。GraphQL APIを使用することで、エージェントは複雑な統合コードを書くことなく、データに信頼性のあるアクセスを得ることができます。GraphQLの設計原則は、エージェントがAPIと信頼性を持って連携するために必要な要素を提供します。具体的には、自己記述的なスキーマ、強い型付け、宣言的なクエリが、エージェントの動作を簡素化し、正確なデータ取得を可能にします。MCP(Model Context Protocol)を使用することで、エージェントとAPI間の通信が標準化され、複雑なサービスをシンプルなインターフェースで扱うことができます。 • AIエージェントが複数のAPIからデータを取得する際の課題を解決する方法を提案している。 • GraphQL APIを利用することで、カスタム統合コードなしでデータにアクセスできる。 • GraphQLの自己記述的なスキーマ、強い型付け、宣言的なクエリがエージェントの信頼性を向上させる。 • MCPを使用することで、エージェントとAPI間の通信が標準化される。 • エージェントは単一のGraphQLエンドポイントを介して複数のサービスとやり取りできる。
この記事では、NCCLウォッチドッグタイムアウトの理解を深めるための新しいツール「Flight Recorder」について説明しています。大規模AIモデルのトレーニング中に発生するこのエラーは、デバッグが難しく、原因が複雑であることが多いです。記事では、NCCLウォッチドッグタイムアウトが発生する理由や、一般的な根本原因(CPU側の分岐、GPUのハング、誤設定されたコレクティブなど)について詳しく解説しています。また、PyTorch Flight Recorderを使用して問題を迅速に特定し、解決する方法についても説明しています。最終的には、NCCLウォッチドッグタイムアウトを効率的に診断し、解決するための知識と実用的なツールを提供することを目的としています。 • NCCLウォッチドッグタイムアウトのエラーはデバッグが難しい • 一般的な根本原因にはCPU側の分岐やGPUのハングが含まれる • PyTorch Flight Recorderを使用して問題を特定する方法を解説 • コレクティブ操作の重要性とその実行方法について説明 • NCCLウォッチドッグはGPUトレーニングに特化しているが、他の分散バックエンドも監視可能
Mario Zechner created the Pi agent framework used by OpenClaw, giving considerable credibility to his opinions on current trends in agentic engineering. He's not impressed: We have basically given up …
LLM integration plugin for other plugins to depend on

In this post, we explore how the multimodal foundation models (FMs) of Amazon Bedrock enable scalable video understanding through three distinct architectural approaches. Each approach is designed for different use cases and cost-performance trade-offs.

In this series of posts, you will learn how streaming architectures help address these challenges using Pipecat voice agents on Amazon Bedrock AgentCore Runtime. In Part 1, you will learn how to deploy Pipecat voice agents on AgentCore Runtime using different network transport approaches including WebSockets, WebRTC and telephony integration, with practical deployment guidance and code samples.
この記事では、PyTorchとNebiusの共同作業により、DeepSeek-V3 Mixture-of-ExpertsモデルのトレーニングをNVIDIA B200クラスターで行い、最大41%のトレーニング速度向上を実現したことが述べられています。具体的には、MXFP8トレーニングとDeepEP通信加速の2つの最適化手法がBF16ベースラインに対して評価されました。DeepEP単独での性能向上は32%で、MXFP8を組み合わせることで41%のスループット向上が確認されました。また、MXFP8トレーニングはBF16と同等の収束挙動を示し、全ての実験はNebius Cloud上で行われ、再現可能なオープンソースのPyTorchツールを使用しています。これにより、MoEアーキテクチャにおける計算とGPU間通信のボトルネックを解消し、コストパフォーマンスの向上が期待されます。 • DeepSeek-V3モデルのトレーニングにおいて、最大41%の速度向上を実現した。 • MXFP8トレーニングとDeepEP通信加速の2つの最適化手法を評価した。 • DeepEP単独での性能向上は32%、MXFP8を組み合わせることで41%のスループット向上が確認された。 • MXFP8トレーニングはBF16と同等の収束挙動を示した。 • 全ての実験はNebius Cloud上で行われ、再現可能なオープンソースのPyTorchツールを使用した。

In this post, we walk through the end-to-end workflow of using RFT on Amazon Bedrock with OpenAI-compatible APIs: from setting up authentication, to deploying a Lambda-based reward function, to kicking off a training job and running on-demand inference on your fine-tuned model.
Daniel Hnyk used the BigQuery PyPI dataset to determine how many downloads there were of the exploited LiteLLM packages during the 46 minute period they were live on PyPI. They …

The more AI can do, the more we need to ask what it should and shouldn’t do. In this episode, OpenAI researcher Jason Wolfe joins host Andrew Mayne to talk about the Model Spec, the public framework that defines intended model behavior. They discuss how the Model Spec works in practice, including how the chain of command handles conflicts between instructions, and how OpenAI evolves it based on feedback, real-world use, and new model capabilities. More on our approach to the Model Spec: https://openai.com/index/our-approach-to-the-model-spec/ Chapters 00:00 Introduction 01:10 What is the Model Spec? 03:55 How does the Model Spec work in practice? 06:26 Transparency: Where to read the Model Spec & give feedback 07:51 How did the Model Spec originate? 10:02 How does the spec translate into model behavior? 11:26 What is the hierarchy / chain of command? 13:35 Handling edge cases like Santa Claus 17:41 How does the Model Spec evolve over time? 19:59 What happens when models disagree with the spec? 22:05 How do smaller models follow the spec? 23:16 Is chain-of-thought useful for alignment? 24:16 Model Spec vs Anthropic’s Constitution 26:28 What surprised you most? 26:56 How do you define the scope of the spec? 27:44 What is the future of the Model Spec? 31:16 How should developers think about the spec? 34:44 Asimov’s laws vs Model Spec 37:16 Could AI write a Human Spec?
Google DeepMind releases new findings and an evaluation framework to measure AI's potential for harmful manipulation in areas like finance and health, with the goal of enhancing AI safety.
We are bringing Lyria 3 to the tools where professionals work and create every day.
We are bringing Lyria 3 to the tools where professionals work and create every day.

Lyria 3 is now available in paid preview through the Gemini API and for testing in Google AI Studio.
この記事は、langchain-openrouterのバージョン0.2.0のリリースに関する情報を提供しています。このリリースでは、マーケットプレイスの帰属のためのapp_categoriesフィールドの追加や、URLおよびタイトルの更新が行われました。また、モデルプロファイルデータの更新や、モデルプロファイルにおける欠落していたフィールドの追加、スキーマの変化に対する警告機能の実装も含まれています。さらに、CI環境でのpytestのストリーミング出力の抑制や、リンターターゲットにおける不必要な依存関係のインストールを避けるための変更も行われています。 • マーケットプレイスの帰属のためのapp_categoriesフィールドが追加された • URLおよびタイトルが更新された • モデルプロファイルデータが更新された • モデルプロファイルに欠落していたフィールドが追加された • スキーマの変化に対する警告機能が実装された

KPMG CanadaのChristine Andrewは、Copilotが時間を節約するだけでなく、高価値の影響をもたらすと述べています。彼女は、AIを活用した生産性ツールが、より戦略的で高価値な活動に時間を再配分する手助けをしていると強調しています。Copilotにより、計画や報告のプロセスが加速され、業務の質により多くの注意を払うことが可能になりました。Andrewは、繰り返しのタスクに費やしていた時間を取り戻し、ビジネスのパフォーマンスについて深く考える時間を持てるようになったと述べています。また、他の組織とのAI導入戦略や課題についての接続時間も増え、ベストプラクティスを理解するのに役立っています。Copilotは、Microsoftのエコシステムと深く統合されており、KPMGの信頼できる環境内でAIを「責任を持って安全に」使用することを可能にしています。 • Copilotは時間を節約するだけでなく、高価値の活動に時間を再配分する手助けをする。 • 計画や報告のプロセスが加速され、業務の質により多くの注意を払うことができる。 • 繰り返しのタスクに費やしていた時間を取り戻し、ビジネスのパフォーマンスについて深く考える時間が増えた。 • 他の組織とのAI導入戦略や課題についての接続時間が増え、ベストプラクティスを理解するのに役立つ。 • CopilotはMicrosoftのエコシステムと深く統合されており、責任を持って安全にAIを使用することができる。

Infobip Chief Alliances Officer Veselin Vuković relies on Microsoft 365 Copilot to move faster through complex data and speed up analysis.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー減少が期待される • 直感的で使いやすいユーザーインターフェース

Vibe Coding XRは、Gemini CanvasとオープンソースのXR Blocksフレームワークを活用した迅速なプロトタイピングワークフローで、ユーザーのプロンプトを完全にインタラクティブで物理的に認識可能なWebXRアプリケーションに変換します。このシステムは、デスクトップとAndroid XRヘッドセットの両方でインテリジェントな空間体験を迅速にテストできるように設計されています。Vibe Coding XRは、ユーザーがXRに関する事前知識なしで自然言語で指示を出すことを可能にし、Geminiがシーンやインタラクションを自動的に構成します。これにより、ユーザーは60秒以内に機能するAndroid XRアプリを作成できます。さらに、デスクトップ上でのシミュレーション環境を提供し、ユーザーはAndroid XRデバイスにデプロイする前にインタラクションを迅速にプロトタイピングおよびテストできます。 • Vibe Coding XRは、Gemini CanvasとXR Blocksフレームワークを使用した迅速なプロトタイピング手法である。 • ユーザーは自然言語でプロンプトを入力することで、物理的に認識可能なWebXRアプリを60秒以内に作成できる。 • このシステムは、デスクトップとAndroid XRヘッドセットの両方でインタラクティブな体験をテストすることを可能にする。 • Geminiは、ユーザーの指示に基づいてシーンやインタラクションを自動的に構成し、迅速なプロトタイピングを実現する。 • デスクトップ上のシミュレーション環境を利用することで、ユーザーはAndroid XRデバイスにデプロイする前にインタラクションをテストできる。

Learn why we're committed to expanding our sovereign cloud continuum and strengthening cloud capabilities to navigate digital sovereignty.

<h2><a id="1-the-problem-the-necessity-and-vulnerability-of-wide-ep" class="anchor" href="#1-the-problem-the-necessity-and-vulnerability-of-wide-ep" aria-hid...
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能が含まれています。また、ユーザーインターフェースは直感的で使いやすく、開発者がすぐに利用できるように設計されています。さらに、このツールは既存の開発環境と簡単に統合できるため、導入のハードルが低い点も強調されています。 • AI技術を活用した開発ツールの紹介 • リアルタイムでのコード提案やエラー検出機能 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境との簡単な統合 • 効率的なコーディングを実現するメリット
Really interesting new development in Claude Code today as an alternative to --dangerously-skip-permissions: Today, we're introducing auto mode, a new permissions mode in Claude Code where Claude makes permission decisions …
I really think "give AI total control of my computer and therefore my entire life" is going to look so foolish in retrospect that everyone who went for this is …

In this post, we walk through how to search for available p-family GPU capacity, create a training plan reservation for inference, and deploy a SageMaker AI inference endpoint on that reserved capacity. We follow a data scientist's journey as they reserve capacity for model evaluation and manage the endpoint throughout the reservation lifecycle.

TurboQuantは、大規模言語モデルやベクトル検索エンジンのための高度な量子化アルゴリズムを導入し、極限の圧縮を実現します。ベクトルはAIモデルが情報を理解し処理する基本的な方法であり、高次元ベクトルは複雑な情報をキャプチャしますが、大量のメモリを消費し、キー・バリューキャッシュのボトルネックを引き起こします。TurboQuantは、メモリオーバーヘッドを最適に解決し、精度を損なうことなくモデルサイズを大幅に削減します。具体的には、PolarQuant法を用いてデータベクトルをランダムに回転させ、標準的な高品質量子化器を適用します。さらに、QJLアルゴリズムを用いて残った誤差を排除し、より正確な注意スコアを実現します。これにより、AIモデルのパフォーマンスを維持しつつ、検索やAIに依存するすべての圧縮関連のユースケースに深い影響を与える可能性があります。 • TurboQuantは、AIモデルのメモリオーバーヘッドを最適に解決する圧縮アルゴリズムである。 • PolarQuant法を用いてデータベクトルをランダムに回転させ、高品質な量子化を実現する。 • QJLアルゴリズムを使用して、残った誤差を排除し、精度を維持する。 • この技術は、キー・バリューキャッシュのボトルネックを解消し、AIモデルのパフォーマンスを向上させる。 • TurboQuantは、検索やAIに依存するユースケースにおいて重要な影響を与える可能性がある。
この記事は、GitHub上でのlangchain-coreのバージョン1.2.22のリリースに関する情報を提供しています。このリリースでは、主にプロンプトの保存と読み込みに関するパスの検証が修正され、いくつかのメソッドが非推奨とされています。リリース日は2023年3月24日で、前のバージョン1.2.21からの変更点が記載されています。具体的には、プロンプトの保存と読み込みにおけるパスの検証が行われ、これによりユーザーがより安全にプロンプトを扱えるようになっています。 • プロンプトの保存と読み込みにおけるパスの検証が修正された • いくつかのメソッドが非推奨とされた • リリース日は2023年3月24日 • 前のバージョン1.2.21からの変更点が含まれている • ユーザーがプロンプトをより安全に扱えるようになった

This post introduces Claude Tool use in Amazon Bedrock which uses the power of large language models (LLMs) to perform dynamic, adaptable entity recognition without extensive setup or training.

この記事では、S2Vecという自己教師ありフレームワークを紹介しています。S2Vecは、複雑な地理空間データを一般的な埋め込みに変換し、世界中の社会経済的および環境的パターンを予測するために設計されています。従来、地理空間データの処理は手作業で行われていましたが、S2Vecはこのプロセスを自動化し、AIが人間のように地域の特性を理解できるようにします。具体的には、S2 Geometryライブラリを使用して地球の表面を階層的に分割し、特徴をラスタライズして多層画像に変換します。これにより、AIは地理データをデジタル写真のように扱い、コンピュータビジョン技術を活用して理解します。S2Vecは、特に社会経済的予測タスクにおいて競争力のある性能を示しましたが、環境タスクにおいては改善の余地があることも明らかになりました。 • S2Vecは複雑な地理空間データを一般的な埋め込みに変換するフレームワークである。 • 地理空間データの処理は従来手作業で行われていたが、S2Vecは自動化を実現する。 • S2 Geometryライブラリを使用して地球の表面を階層的に分割し、特徴をラスタライズする。 • ラスタライズされたデータはAIが理解できる形式に変換され、コンピュータビジョン技術を活用できる。 • S2Vecは社会経済的予測タスクで競争力のある性能を示したが、環境タスクには改善が必要である。
この記事は、GitHub上のbrowserbase/stagehandリポジトリにおけるstagehand/server-v3のバージョン3.6.2のリリースに関する情報を提供しています。このリリースでは、いくつかの変更点が含まれており、特にpage.setExtraHTTPHeaders()に関するドキュメントの追加や、toolTimeout引数の適用範囲の拡大が挙げられます。また、いくつかの不具合修正や、v4ルートの統一、選択子スキーマへのインデックス追加なども行われています。これにより、ツールの機能性や安定性が向上しています。 • stagehand/server-v3のバージョン3.6.2がリリースされた • page.setExtraHTTPHeaders()に関するドキュメントが追加された • toolTimeout引数がより多くのツールに適用された • v4ルートがfastifyプラグインでグループ化された • 選択子スキーマにインデックスが追加された • 不具合修正が行われ、ツールの安定性が向上した

Hey Ryan Nystrom (Notion), what has Codex unlocked for you? “The fact that I can build this feature solo while still supporting my team is crazy.” Ryan built Notion AI Voice Input in one shot, while managing a team. More: https://openai.com/codex/ #shorts #shortvideo #openaicodex #notion

Moda uses a multi-agent system built on Deep Agents and traced through LangSmith to let non-designers create and iterate on professional-grade visuals.

Hey Ryan Nystrom @ Notion, what has Codex unlocked for you? “The fact that I can build this feature solo while still supporting my team is crazy.” Ryan built Notion AI Voice Input in one shot, while managing a team, blindfolded. Maybe not blindfolded, but the rest is true. More: https://openai.com/codex/

Shopping in ChatGPT just got an upgrade. Now, you can browse products visually, compare options side-by-side, and get detailed, up-to-date information—all in one place. This builds on what ChatGPT does best: helping you figure out what to buy. Under the hood, we’re improving speed, relevance, and product coverage—so results are more up-to-date and more useful. That means less searching, fewer tabs, and faster decisions. To power this, we’re expanding the Agentic Commerce Protocol (ACP) to support product discovery—bringing more complete, relevant, and up-to-date information directly into ChatGPT. For merchants, using ACP means their catalog is represented with the freshest data possible—improving how products show up, how they rank, and how well they convert. These updates are rolling out to all ChatGPT free, Go, Plus, and Pro users this week, with more to come as we continue to invest in product discovery with ChatGPT. https://openai.com/index/powering-product-discovery-in-chatgpt/
The LiteLLM v1.82.8 package published to PyPI was compromised with a particularly nasty credential stealer hidden in base64 in a litellm_init.pth file, which means installing the package is enough to …

Learn how Microsoft uses agentic AI, digital twins, and physical AI to transform logistics and supply chain operations.

ARUM Inc uses Microsoft Foundry and Azure to bring automation and natural voice interface to address skilled labor shortage in precision manufacturing

ARUM CEO Takayuki Hirayama shares how he's using Microsoft cloud and AI tools to pivot his company's future to a globally connected, automated precision manufacturing solution
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの意図を理解し、それに基づいて適切なコードを提案する機能があります。また、ツールは多様なプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低い点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 生成AIを利用したコードの自動生成や補完機能 • 開発者の意図を理解し、適切なコードを提案 • JavaScriptやPythonに対応した多様なプログラミング言語のサポート • 生産性向上とエラー減少の期待 • 直感的で使いやすいユーザーインターフェース
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は作業効率を大幅に向上させることができ、エラーの削減にも寄与します。さらに、ユーザーからのフィードバックを基に継続的に改善される点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した内容に基づいてコードを提案する機能 • JavaScriptやPythonなど多くの言語に対応 • 作業効率の向上とエラー削減が期待できる • ユーザーからのフィードバックを基にした継続的な改善
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの利用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ツールの導入は簡単で、既存の開発環境にスムーズに統合できる点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 既存の開発環境に簡単に統合可能
I wrote about Dan Woods' experiments with streaming experts the other day, the trick where you run larger Mixture-of-Experts models on hardware that doesn't have enough RAM to fit the …
A Blog post by ServiceNow-AI on Hugging Face
slop is something that takes more human effort to consume than it took to produce. When my coworker sends me raw Gemini output he’s not expressing his freedom to create, …

If you're attending Google Cloud Next 2026 in Las Vegas this year and working on agent development, here's what we have planned. Visit Us at Booth #5006 We'll be at Booth #5006 in the Expo Hall at the Mandalay Bay Convention Center, April 22-24. Our engineering team will be running
PyTorch 2.11のリリースが発表され、主な変更点として、分散トレーニングのための微分可能なコレクティブ、HopperおよびBlackwell GPU上でのFlashAttention-4バックエンドのFlexAttention、Apple Silicon向けのMPSの包括的なオペレーター拡張、RNN/LSTMのGPUエクスポートサポート、XPUグラフのサポートが含まれています。このリリースは、PyTorch 2.10以降の432人の貢献者からの2723のコミットで構成されています。特に、分散深層学習研究における重要な進展として、コレクティブ操作を通じてバックプロパゲートできるトレーニングワークフローが可能になりました。また、MPSバックエンドからのエラーレポート機能や、RNNモジュールのGPUエクスポートが新たにサポートされ、モデルのデプロイが拡大しました。 • 分散トレーニングのための微分可能なコレクティブが追加され、トレーニングワークフローが改善された。 • FlexAttentionにFlashAttention-4バックエンドが追加され、最大3.2倍の速度向上が実現された。 • Apple Silicon向けのMPSのオペレーター拡張が行われ、新しい分布関数が追加された。 • RNNモジュールのGPUエクスポートがサポートされ、動的形状のLSTMのトレースが可能になった。 • XPUグラフにより、Intel GPU上での実行が最適化され、CPUオーバーヘッドが削減された。
この記事は、GitHub上でのlangchain-openaiライブラリのバージョン1.1.12のリリースに関する情報を提供しています。このリリースでは、いくつかのバグ修正と機能追加が行われました。具体的には、OpenAIの最小コアバージョンの引き上げ、モデルプロファイルのフィールド追加、phaseパラメータのサポート、ストリーミング機能呼び出しのnamespaceフィールドの保持などが含まれています。また、CI環境でのpytestの出力抑制や、不要な依存関係のインストール回避などの改善も行われています。これにより、ライブラリの安定性とパフォーマンスが向上しています。 • OpenAIの最小コアバージョンの引き上げが行われた。 • モデルプロファイルに新しいフィールドが追加された。 • phaseパラメータのサポートが追加された。 • ストリーミング機能呼び出しでnamespaceフィールドが保持されるようになった。 • CI環境でのpytestの出力が抑制されるようになった。 • 不要な依存関係のインストールを回避する改善が行われた。
I have been doing this for years, and the hardest parts of the job were never about typing out code. I have always struggled most with understanding systems, debugging things …
この記事は、Langchainのコアライブラリのバージョン1.2.21のリリースに関する情報を提供しています。このリリースでは、いくつかの重要な変更が行われました。具体的には、ModelProfileフィールドの追加とスキーマの変化に関する警告が含まれています。また、削除されたコンテキストモジュールに対する古いブロックバスターのホワイトリストが削除され、CIにおいてpytestのストリーミング出力が抑制されるようになりました。これらの変更は、Langchainの機能性と安定性を向上させることを目的としています。 • ModelProfileフィールドの追加とスキーマの変化に関する警告の実装 • 削除されたコンテキストモジュールに対する古いブロックバスターのホワイトリストの削除 • CIにおけるpytestのストリーミング出力の抑制 • バージョン1.2.21のリリースによる機能性と安定性の向上

In this blog post, we show you how Reco implemented Amazon Bedrock to help transform security alerts and achieve significant improvements in incident response times.

In this post, we demonstrate how to build a Slack integration using AWS Cloud Development Kit (AWS CDK). You will learn how to deploy the infrastructure with three specialized AWS Lambda functions, configure event subscriptions properly to handle Slack's security requirements, and implement conversation management patterns that work for many agent use cases.

In this post, we’re excited to showcase how AWS ISV Partner Artificial Genius is using Amazon SageMaker AI and Amazon Nova to deliver a solution that is probabilistic on input but deterministic on output, helping to enable safe, enterprise-grade adoption.

Learn how Notch builds action-taking AI agents for regulated customer support using layered guardrails, governance, and Azure infrastructure.

Token-aware model routing for observational memory, MongoDB-backed versioned datasets and experiments, Okta SSO auth with RBAC, workflow upgrades, tool suspension handling, and observability improvements.
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやTypeScriptプロジェクトでの使用が推奨 • 既存の開発環境に簡単に統合可能 • 開発効率の向上とエラー削減が期待される
Here’s a mildly dystopian prompt I’ve been experimenting with recently: “Profile this user”, accompanied by a copy of their last 1,000 comments on Hacker News. Obtaining those comments is easy. …

In Things That Turbo Pascal is Smaller Than James Hague lists things (from 2011) that are larger in size than Borland's 1985 Turbo Pascal 3.02 executable - a 39,731 byte …
この記事は、langgraph-cliのバージョン0.4.19のリリースに関する情報を提供しています。このリリースでは、CLIの新機能としてデプロイリビジョンリストコマンドが追加されました。また、依存関係の更新も行われており、特にjs-monorepo-exampleや他のCLI関連ライブラリの依存関係が更新されています。これにより、全体的なパフォーマンスや互換性が向上することが期待されます。 • CLIバージョン0.4.19がリリースされた • 新機能としてデプロイリビジョンリストコマンドが追加された • 依存関係の更新が行われた • 特にjs-monorepo-exampleやCLI関連ライブラリの依存関係が更新された • 全体的なパフォーマンスや互換性の向上が期待される
Congrats to the @cursor_ai team on the launch of Composer 2! We are proud to see Kimi-k2.5 provide the foundation. Seeing our model integrated effectively through Cursor's continued pretraining & …
A Blog post by NVIDIA on Hugging Face
この記事では、Intel® Core™ Ultra Series 3プロセッサーとPyTorch 2.10の新機能について説明しています。これらのプロセッサーは、AIシナリオをPCやエッジコンピューティングで実行するための性能向上を実現しています。特に、X e 3アーキテクチャや96個のXMX AIエンジンを搭載し、120 TOPsの性能を提供します。PyTorch 2.10は、TorchAOを活用して、開発サイクルの短縮と推論性能の向上を図っています。ユーザーは、Intel®プラットフォーム上で一貫したPyTorchの体験を享受でき、さまざまなデータ型やライブラリとの統合が可能です。さらに、LLM推論のための簡単なインストール手順も示されています。 • Intel® Core™ Ultra Series 3プロセッサーはAI性能を向上させるための新機能を搭載している。 • PyTorch 2.10はTorchAOを使用して、開発サイクルの短縮と推論性能の向上を実現している。 • ユーザーはIntel®プラットフォーム上で一貫したPyTorchの体験を享受できる。 • 多様なデータ型(int4, int8, fp8など)をサポートし、標準ライブラリとの統合が可能。 • LLM推論のための簡単なインストール手順が提供されている。