Last updated: 2025/12/04 15:00
From Waveforms to Wisdom: The New Benchmark for Auditory Intelligence
本記事では、機械音声知能を測定するための新しいオープンソースプラットフォーム「Massive Sound Embedding Benchmark(MSEB)」について説明しています。MSEBは、音声アシスタントや自律エージェントなどのシステムが自然に振る舞うために必要な8つの音響能力(転写、分類、検索、推論、セグメンテーション、クラスタリング、再ランキング、再構成)を統一的に評価するための基準を提供します。MSEBは、実世界のシナリオに基づいた多様なデータセットを含み、特に「Simple Voice Questions(SVQ)」データセットは177,352の短い音声クエリを収録しています。MSEBは、音声理解モデルの次世代開発を促進するためのフレームワークを提供し、現在の音声表現が普遍的ではないことを示す初期実験結果も報告しています。 • MSEBは機械音声知能を測定するためのオープンソースプラットフォームである。 • 8つの音響能力を統一的に評価する基準を提供する。 • 多様なデータセットを含み、特にSVQデータセットは177,352の音声クエリを収録している。 • 音声理解モデルの次世代開発を促進するためのフレームワークを提供する。 • 現在の音声表現には大きな改善の余地があることが示された。
Hybrid Models Meet SGLang: More than Full Attention
この記事では、フルアテンション層とMambaや線形アテンションなどの代替手法を組み合わせたハイブリッドモデルについて説明しています。特に、長いコンテキストを持つ大規模言語モデル(LLM)のシナリオにおいて、線形アテンションを活用することで、リクエストごとのKVキャッシュメモリ消費が一定に保たれ、入力長に対してプリフィルレイテンシが線形にスケールします。しかし、インプレース状態更新により、部分シーケンスマッチのためのキャッシュエントリのロールバックができず、プレフィックスキャッシングや投機的デコーディングなどの機能の実装が複雑になります。SGLangは、これらの課題に適応し最適化する方法を議論しています。ハイブリッドモデルは、効率と容量のトレードオフを実現するために、固定間隔で二次アテンション層とSSM層を交互に配置します。これにより、さまざまなタスクで強力なパフォーマンスを発揮しつつ、SSM層の効率的な利点を保持します。 • ハイブリッドモデルはフルアテンション層と代替手法を組み合わせている • 線形アテンションによりKVキャッシュメモリ消費が一定に保たれる • インプレース状態更新がキャッシュエントリのロールバックを不可能にする • SGLangはメモリ管理とPD分離に新たな課題を提起している • ハイブリッドモデルは効率と容量のトレードオフを実現する • メモリプールをMambaプールとKVキャッシュプールに分けている • 弾力的メモリプールが動的にプールサイズを調整する
Evaluating Deep Agents: Our Learnings
Over the past month at LangChain, we shipped four applications on top of the Deep Agents harness: * DeepAgents CLI: a coding agent * LangSmith Assist: an in-app agent to help with various things in LangSmith * Personal Email Assistant: an email assistant that learns from interactions with each user * Agent Builder: a
Release v3.35.5
この記事は、RooCodeIncのRoo-Codeリポジトリのバージョン3.35.5のリリースノートを提供しています。このリリースでは、OpenRouterの埋め込みに対するプロバイダーのルーティング選択機能が追加され、デフォルトのMinimax M2がネイティブツール呼び出しに変更されました。また、Geminiに関するバグを修正するためにネイティブツール呼び出しのサニタイズが行われ、CloudViewのユーザーエクスペリエンスが更新されました。これらの変更は、開発者にとっての利便性を向上させることを目的としています。 • OpenRouterの埋め込みに対するプロバイダーのルーティング選択機能が追加された。 • デフォルトのMinimax M2がネイティブツール呼び出しに変更された。 • Geminiに関するバグを修正するためにネイティブツール呼び出しのサニタイズが行われた。 • CloudViewのユーザーエクスペリエンスが更新された。 • これらの変更は開発者の利便性を向上させることを目的としている。
Codex brings concepts into view.
🎥: @maddyzhang
Nova 2 Lite now available on Vercel AI Gateway
You can now access Amazon's latest model Nova 2 Lite on Vercel AI Gateway with no other provider accounts required.
We’re announcing new health AI funding, while a new report signals a turning point for health in Europe.
At the European Health Summit in Brussels, Greg Corrado, Distinguished Scientist at Google, released a new report authored by Implement Consulting Group and commissioned…
OpenAI to acquire Neptune
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、ツールがそれに基づいてコードを生成することが可能です。また、既存のコードの改善提案やバグの修正も行えるため、開発効率が大幅に向上します。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低い点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存コードの改善提案やバグ修正が可能 • 開発効率の向上が期待できる • 直感的で使いやすいユーザーインターフェース
How confessions can keep language models honest
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Announcing the initial People-First AI Fund grantees
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
【社内実践】「AI Crazy Shift」で組織はどう変わったか? PM業務30%削減の舞台裏とカルチャー変革
AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
Release v3.35.4
RooCodeIncのRoo-Codeリポジトリでのリリースv3.35.4では、いくつかの重要な修正が行われた。具体的には、ネイティブツール呼び出しの不正処理を防ぐための修正(PR #9758)、z.aiプロバイダーにおけるGLM-4.5およびGLM-4.6の理由トグルを削除する修正(PR #9752)、write_to_fileツールからline_countパラメータを削除するリファクタリング(PR #9667)が含まれている。これらの変更は、ツールの安定性と使いやすさを向上させることを目的としている。 • ネイティブツール呼び出しの不正処理を防ぐ修正が行われた(PR #9758) • z.aiプロバイダーにおけるGLM-4.5およびGLM-4.6の理由トグルを削除した(PR #9752) • write_to_fileツールからline_countパラメータを削除するリファクタリングが実施された(PR #9667) • これらの修正はツールの安定性と使いやすさを向上させることを目的としている。
v1.13.1
この記事は、Facebook ResearchのFaissライブラリのバージョン1.13.1のリリースノートを提供しています。このリリースでは、DINO10Bデータセットの追加、2-9ビットのRaBitQ量子化の実装、IndexHNSWFlatPanoramaへのPanoramaの統合、IndexFlatL2Panoramaの実装などが含まれています。また、パーセンタイル計算に使用されるクリッピング変数の変更、ScalarQuantizerの最適化、GpuClonerOptions.h内のuseFloat16に関するコメントの更新、GOMPバリアのオーバーヘッドの修正なども行われています。これにより、Faissのパフォーマンスと機能が向上しています。 • DINO10Bデータセットが追加された。 • 2-9ビットのRaBitQ量子化が実装された。 • IndexHNSWFlatPanoramaにPanoramaが統合された。 • IndexFlatL2Panoramaが新たに実装された。 • パーセンタイル計算に使用されるクリッピング変数が変更された。 • ScalarQuantizerが最適化された。 • GpuClonerOptions.h内のuseFloat16に関するコメントが更新された。 • GOMPバリアのオーバーヘッドが修正された。
Support FSDP2 as A Training Backend for Miles
<blockquote> <p><strong>TL;DR:</strong></p> <p><strong>We have added FSDP to <a href="https://github.com/radixark/miles">Miles</a> as a more flexible trainin...
Use Circle to Search and Google Lens to spot scam messages.
You can now use Circle to Search and Google Lens to detect scammy messages you receive on your phone.
Custom Policy Enforcement with Reasoning: Faster, Safer AI Applications
A Blog post by NVIDIA on Hugging Face
Anthropic acquires Bun
Anthropic just acquired the company behind the Bun JavaScript runtime, which they adopted for Claude Code just in July. Their announcement includes an impressive revenue update on Claude Code: In …
Shaping Model Behavior in GPT-5.1— the OpenAI Podcast Ep. 11
What does it mean for an AI model to have "personality"? Researcher Christina Kim and product manager Laurentia Romaniuk talk about how OpenAI set out to build a model that delivers on both IQ and EQ, while giving people more flexibility in how ChatGPT responds. They break down what goes into model behavior and why it's an important, but still imperfect blend of art and science. Chapters - 00:00:43 — GPT-5.1 goals and the shift to reasoning models - 00:02:18 — Differences between GPT-5 and GPT-5.1 - 00:04:55 — Unpacking the model switcher - 00:07:24 — Understanding user feedback - 00:08:27 — Measuring progress on emotional intelligence - 00:10:02 — What is model personality? - 00:14:25 — Model steerability, bias, and uncertainty - 00:21:59 — Advantages of memory in ChatGPT - 00:25:27 — Looking ahead and advice for getting the most out of models
AI Fluency for nonprofits course trailer
A trailer of AI Fluency for nonprofits developed by Anthropic and Giving Tuesday. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency-for-nonprofits This video is copyright 2025 Anthropic PBC and Giving Tuesday. Based on the AI Fluency Framework developed by Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). Released under the CC BY-NC-SA 4.0 license.
Introducing Mistral 3
Four new models from Mistral today: three in their "Ministral" smaller model series (14B, 8B, and 3B) and a new Mistral Large 3 MoE model with 675B parameters, 41B active. …
LangSmith Agent Builder now in Public Beta
Now anyone can create production ready agents without writing code, just chat. Agent Builder guides you from initial idea to deployed agent, creating detailed prompts, selecting required tools, and even creating subagents.
Getting started with research in Claude.ai
See how Claude's Research feature transforms how you find and analyze information. This tutorial demonstrates how to use Research for comprehensive, multi-source analysis that would typically take hours of manual work. Learn how to craft effective research prompts, understand how Research works alongside extended thinking, and discover use cases like market analysis, competitive research, and event planning.
Getting started with projects in Claude.ai
Discover how to use Projects in Claude to organize your work with persistent context and custom instructions. This tutorial walks you through creating your first project, adding a knowledge base, setting up project instructions, and collaborating with team members. Learn how Projects can help you maintain continuity across conversations and tailor Claude's responses to your specific needs—from brand guidelines to research initiatives to content creation workflows.
Getting started with Claude.ai
Learn how to get the most out of chatting with Claude. This tutorial covers the basics of Claude's conversational interface, including how to craft effective prompts, upload supporting documents, use search and tools, customize your experience with styles and model selection, and leverage features like extended thinking and research mode. Whether you're new to Claude or looking to level up your skills, this video will help you work more effectively with your AI collaborator.
Release - langgraph-sdk==0.2.12
この記事は、langgraph-sdkのバージョン0.2.12のリリースに関する情報を提供しています。このリリースでは、主に以下の変更が行われました。まず、アシスタントの検索応答にページネーション機能が追加されました。また、SDKクライアントの作成時にAPIキーの自動読み込みをスキップするためのセンチネルが追加され、入力の型ヒントが改善されました。これにより、開発者はより効率的にSDKを利用できるようになります。 • アシスタントの検索応答にページネーション機能が追加された • SDKクライアント作成時にAPIキーの自動読み込みをスキップするセンチネルが追加された • 入力の型ヒントが改善された • これにより開発者の利便性が向上する
Release v3.35.3
RooCodeIncのRoo-Codeリポジトリでのリリースv3.35.3では、いくつかの重要な変更が行われた。新しいウェルカムビューに切り替え、オンボーディング体験を改善した。また、最新の変更を反映したホームページの更新が行われた。さらに、ステルスモデルのプライバシーを向上させるために、システムプロンプトにベンダー機密情報セクションが追加された。これらの変更は、ユーザー体験の向上とプライバシー保護に寄与することを目的としている。 • 新しいウェルカムビューへの切り替えにより、オンボーディング体験が改善された。 • 最新の変更を反映したホームページが更新された。 • ステルスモデルのプライバシー向上のため、システムプロンプトにベンダー機密情報セクションが追加された。 • これらの変更はユーザー体験の向上とプライバシー保護を目的としている。
Mistral Large 3 now available on Vercel AI Gateway
You can now access Mistral's latest model, Mistral Large 3, on Vercel AI Gateway with no other provider accounts required.
Release v3.35.2
RooCodeIncのRoo-Codeリポジトリでのリリースv3.35.2では、いくつかの重要な機能が追加されました。まず、プロバイダー固有の最適なデフォルト設定を含むモデルのデフォルト温度設定が可能になりました。また、Rooプロバイダーモデルに対するタグベースのネイティブツール呼び出し検出が追加され、すべてのLiteLLMモデルに対してネイティブツールサポートがデフォルトで有効化されました。さらに、アプリのバージョンをプロバイダーに渡すことで、リクエストトラッキングの改善が図られています。これらの変更により、ユーザーはより効率的にツールを利用できるようになります。 • モデルにデフォルト温度設定を追加する機能 • タグベースのネイティブツール呼び出し検出の追加 • すべてのLiteLLMモデルに対するネイティブツールサポートのデフォルト有効化 • アプリバージョンをプロバイダーに渡すことでリクエストトラッキングを改善
生成AI推進者が持つべき3つの心構え
AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
Claude 4.5 Opus' Soul Document
Richard Weiss managed to get Claude 4.5 Opus to spit out this 14,000 token document which Claude called the "Soul overview". Richard says: While extracting Claude 4.5 Opus' system message …
Boost SGLang Inference: Native NVIDIA Model Optimizer Integration for Seamless Quantization and Deployment
<p>(Updated on Dec 2)</p> <p>We are thrilled to announce a major new feature in SGLang: native support for <a href="https://github.com/NVIDIA/TensorRT-Model-...
DeepSeek-V3.2
Two new open weight (MIT licensed) models from DeepSeek today: DeepSeek-V3.2 and DeepSeek-V3.2-Speciale, both 690GB, 685B parameters. Here's the PDF tech report. DeepSeek-V3.2 is DeepSeek's new flagship model, now running …
Release v3.35.1
RooCodeIncのRoo-Codeリポジトリでのリリースv3.35.1は、2025年12月1日に公開されました。このリリースでは、タスクの委任前に保留中のツール結果をフラッシュする修正が行われ、さらにデバッグを容易にするためのIPCエラーロギングの改善が含まれています。これらの変更は、開発者がツールの動作をより正確に把握できるようにすることを目的としています。 • タスクの委任前に保留中のツール結果をフラッシュする修正 • IPCエラーロギングの改善によりデバッグが容易に • 開発者向けの機能改善が含まれている
Inside Mirakl’s Agent Commerce Vision
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • 使用するほどに精度が向上するAIの学習能力
Release v3.35.0
RooCodeIncのRoo-Codeのリリースv3.35.0では、メタデータ駆動のサブタスク機能が追加され、タスクのオーケストレーションが改善されました。新たに多くのプロバイダーに対するネイティブツール呼び出しのサポートが拡張され、特にOpenAI互換プロバイダーやVercel AI Gatewayなどが含まれています。また、UXの改善として、クラウドプロバイダー中心のオンボーディングフローが更新され、インターフェースがクリーンに整理されました。新しいツールとして、ファイル編集操作を効率化するapply_patchや、バッチテキスト置換を行うsearch_and_replaceが追加されました。デバッグ機能も強化され、APIとUIの履歴を表示するボタンが追加されました。 • メタデータ駆動のサブタスク機能が追加され、タスクのオーケストレーションが改善された。 • 多くのプロバイダーに対するネイティブツール呼び出しのサポートが拡張された。 • 新しいapply_patchツールが追加され、ファイル編集操作が効率化された。 • search_and_replaceツールにより、ファイル間でのバッチテキスト置換が可能になった。 • UXの改善により、クラウドプロバイダー中心のオンボーディングフローが更新された。
I sent out my November sponsor newsletter
I just send out the November edition of my sponsors-only monthly newsletter. If you are a sponsor (or if you start a sponsorship now) you can access a copy here. …
Efficient MoE Pre-training at Scale on 1K AMD GPUs with TorchTitan
この記事では、AMDとMetaのPyTorchチームが協力して、1,024のAMD MI325X GPUを使用した大規模なMixture-of-Experts(MoE)モデルの効率的な事前トレーニングを実現した方法について説明しています。TorchTitanとPrimus-Turboというオープンソースのカーネルライブラリを調整することで、DeepSeek-V3とLlama 4-Scoutのトレーニングにおいて、2.77倍のスピードアップと96%のスケーリング効率を達成しました。TorchTitanは、複数のGPUおよびノードクラスターでの大規模トレーニングのためのMetaのPyTorchネイティブの設計図であり、設定ファイルを通じてパラレル処理の度合いを簡単に調整できます。MoEモデルは、専門家のプールを使用して計算を効率化し、数百億パラメータのモデルを密なモデルの速度でトレーニングすることを可能にします。 • AMDとMetaが協力してMoEモデルの効率的なトレーニングを実現 • TorchTitanとPrimus-Turboを使用して1,024のGPUでのスケーリングを最適化 • DeepSeek-V3で2.77倍のスピードアップを達成 • 96%のスケーリング効率を実現 • TorchTitanは大規模トレーニングのための設定ファイルを使用して簡単に調整可能 • MoEモデルは専門家のプールを使用して計算を効率化 • 数百億パラメータのモデルを密なモデルの速度でトレーニング可能
Gemini 3 and Nano Banana Pro in Search are coming to more countries around the world.
We're bringing our most intelligent model yet, Gemini 3 Pro, to Google Search in more countries around the world.
DeepSeek V3.2 models now available in Vercel AI Gateway
You can now access the newest DeepSeek V3.2 models, V3.2 and V3.2 Speciale in Vercel AI Gateway with no other provider accounts required.
Trinity Mini model now available in Vercel AI Gateway
You can now access the newest Arcee AI model Trinity Mini in Vercel AI Gateway with no other provider accounts required.
Funding grants for new research into AI and mental health
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを分析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを分析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 幅広いプラットフォームとの互換性 • 生産性向上が期待される
959: TypeScript on the GPU with TypeGPU creator Iwo Plaza
この記事では、TypeGPUの創設者Iwo Plazaが、WebGPUがウェブ上でのグラフィックスと計算能力の新たな波をどのように解き放っているかについて語っています。TypeGPUは、TypeScriptでシェーダーを作成するためのライブラリであり、WebGPUとWebGLの違いや、シェーダー言語の難しさを克服する方法についても触れています。また、TypeGPUがどのようにしてGPUとCPU間のデータ交換を容易にし、TypeScriptをシェーダーコードに変換するコンパイラを構築しているのかについても詳しく説明されています。さらに、AIのブラウザ内推論や、TypeGPUのドキュメント作成の哲学、API設計におけるドキュメントの役割についても言及されています。 • TypeGPUはTypeScriptでシェーダーを作成するためのライブラリである。 • WebGPUはウェブ上での新しいGPUアクセスの時代を切り開いている。 • シェーダー言語の難しさを克服するためのアプローチが提案されている。 • GPUとCPU間のデータ交換を容易にするためにZodのようなスキーマを使用している。 • TypeScriptをシェーダーコードに変換するコンパイラを構築している。 • AIのブラウザ内推論に関する未来の抽象化についても言及されている。
SARLO-80: Worldwide Slant SAR Language Optic Dataset at 80 cm Resolution
A Blog post by Hugging Science on Hugging Face
OpenAI and NORAD team up to bring new magic to “NORAD Tracks Santa”
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に統合できるため、導入が容易である点も強調されています。さらに、AIによるコード生成は、開発の効率を大幅に向上させることが期待されています。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への統合が容易 • 開発効率の向上が期待される
Accenture and OpenAI accelerate enterprise AI success
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
OpenAI takes an ownership stake in Thrive Holdings to accelerate enterprise AI adoption
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
From research to production: Accelerate OSS LLM with EAGLE-3 on Vertex
<p><strong>TL;DR:</strong> Speculative decoding boosts LLM inference, but traditional methods require a separate, inefficient draft model. Vertex AI utilizes...
Transformers v5: Simple model definitions powering the AI ecosystem
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Quoting Felix Nolan
I am increasingly worried about AI in the video game space in general. [...] I'm not sure that the CEOs and the people making the decisions at these sorts of …
ChatGPT is three years old today
It's ChatGPT's third birthday today. It's fun looking back at Sam Altman's low key announcement thread from November 30th 2022: today we launched ChatGPT. try talking with it here: chat.openai.com …
🥇Top AI Papers of the Week
The Top AI Papers of the Week (November 24 - 30)
Claude のツール検索ツールを試してみた
MCP では多くのツール定義が LLM のコンテキストを圧迫する問題があります。Claude のツール検索ツールを使用すると、必要に応じて関連するツールのみを LLM に提供でき、コンテキスト圧迫を軽減できます。この記事では Claude の TypeScript クライアントを使用して、ツール検索ツールを実際に使用した例を紹介します。
The space of minds
On the space of minds and the optimizations that give rise to them.
🤖AI Agents Weekly: Claude Opus 4.5, OmniScientist, FLUX.2, General Agentic Memory
Claude Opus 4.5, OmniScientist, FLUX.2, General Agentic Memory
Context plumbing
Matt Webb coins the term context plumbing to describe the kind of engineering needed to feed agents the right context at the right time: Context appears at disparate sources, by …
Quoting Wikipedia content guideline
Large language models (LLMs) can be useful tools, but they are not good at creating entirely new Wikipedia articles. Large language models should not be used to generate new Wikipedia …
A ChatGPT prompt equals about 5.1 seconds of Netflix
In June 2025 Sam Altman claimed about ChatGPT that "the average query uses about 0.34 watt-hours". In March 2020 George Kamiya of the International Energy Agency estimated that "streaming a …
Bluesky Thread Viewer thread by @simonwillison.net
I've been having a lot of fun hacking on my Bluesky Thread Viewer JavaScript tool with Claude Code recently. Here it renders a thread (complete with demo video) talking about …
Release v3.34.8
RooCodeIncのRoo-Codeリポジトリで、バージョン3.34.8がリリースされました。このリリースでは、ネイティブプロトコル用のnew_taskツールにおけるレースコンディションの修正が行われました。修正はプルリクエスト#9655によって提案され、寄稿者はdaniel-lxsです。リリース日は2025年11月27日で、GitHubの検証済み署名が付与されています。 • バージョン3.34.8がリリースされた • ネイティブプロトコル用のnew_taskツールにおけるレースコンディションが修正された • 修正はプルリクエスト#9655によって提案された • 寄稿者はdaniel-lxsである • リリース日は2025年11月27日である
Quoting Qwen3-VL Technical Report
To evaluate the model’s capability in processing long-context inputs, we construct a video “Needle-in- a-Haystack” evaluation on Qwen3-VL-235B-A22B-Instruct. In this task, a semantically salient “needle” frame—containing critical visual evidence—is inserted …
Release v3.34.7
この記事は、RooCodeIncのRoo-Codeリポジトリのバージョン3.34.7のリリースノートを提供しています。このリリースでは、Anthropicプロバイダーにおけるネイティブツールのサポートが追加され、z.aiモデルおよびMoonshotモデルに対するネイティブツール呼び出しが有効化されました。また、OpenRouterツール呼び出しの処理改善や、read_fileツールに対する厳格なスキーマ検証の修正、write_to_fileにおけるENOENTエラーを防ぐための親ディレクトリの早期作成が行われました。さらに、claude-codeプロバイダーに対するネイティブツールと温度サポートの無効化が行われ、プロバイダーのウェルカム後に「クラウドに移動中」画面が追加され、オンボーディングが改善されました。 • Anthropicプロバイダーでのネイティブツールサポートの追加 • z.aiモデルおよびMoonshotモデルに対するネイティブツール呼び出しの有効化 • OpenRouterツール呼び出しの処理改善 • read_fileツールに対する厳格なスキーマ検証の修正 • write_to_fileでのENOENTエラー防止のための親ディレクトリの早期作成 • claude-codeプロバイダーに対するネイティブツールと温度サポートの無効化 • オンボーディング改善のための新しい画面追加
deepseek-ai/DeepSeek-Math-V2
New on Hugging Face, a specialist mathematical reasoning LLM from DeepSeek. This is their entry in the space previously dominated by proprietary models from OpenAI and Google DeepMind, both of …
2025-11-27
この記事では、mastraの最新リリース(2025年11月27日)における新機能と改善点について説明しています。主なハイライトとして、ワークフローとネットワークからのエージェント応答のストリーミングが可能になり、実行メタデータがUIに流れるようになりました。これにより、ユーザーはリアルタイムで進行状況を確認できるようになり、重複したステップやメタデータの欠落が解消されました。また、AI-SDKの音声モデルがサポートされ、OpenAIやElevenLabsなどの音声モデルを直接使用できるようになりました。さらに、ワークフロー内でエージェントのストリーミングテキストチャンクをサポートし、UIメッセージとして自動的に変換される機能が追加されました。 • エージェント応答のストリーミングが可能になり、リアルタイムで進行状況を確認できるようになった。 • ワークフロー内でのエージェントのストリーミングテキストチャンクのサポートが追加された。 • AI-SDKの音声モデルがサポートされ、OpenAIやElevenLabsの音声モデルを直接使用できる。 • 重複したステップやメタデータの欠落が解消された。 • UIメッセージとして自動的に変換される機能が追加された。
Top 5 AI code review tools in 2025
A hands-on comparison of five AI code review tools – Qodo, Traycer, CodeRabbit, Sourcery, and CodeAnt AI, tested on the same codebase to see which one actually delivers.
How Myriad Genetics achieved fast, accurate, and cost-efficient document processing using the AWS open-source Generative AI Intelligent Document Processing Accelerator
In this post, we explore how Myriad Genetics partnered with the AWS Generative AI Innovation Center to transform their healthcare document processing pipeline using Amazon Bedrock and Amazon Nova foundation models, achieving 98% classification accuracy while reducing costs by 77% and processing time by 80%. We detail the technical implementation using AWS's open-source GenAI Intelligent Document Processing Accelerator, the optimization strategies for document classification and key information extraction, and the measurable business impact on Myriad's prior authorization workflows.
How CBRE powers unified property management search and digital assistant using Amazon Bedrock
In this post, CBRE and AWS demonstrate how they transformed property management by building a unified search and digital assistant using Amazon Bedrock, enabling professionals to access millions of documents and multiple databases through natural language queries. The solution combines Amazon Nova Pro for SQL generation and Claude Haiku for document interactions, achieving a 67% reduction in processing time while maintaining enterprise-grade security across more than eight million documents.
Managed Tiered KV Cache and Intelligent Routing for Amazon SageMaker HyperPod
In this post, we introduce Managed Tiered KV Cache and Intelligent Routing for Amazon SageMaker HyperPod, new capabilities that can reduce time to first token by up to 40% and lower compute costs by up to 25% for long context prompts and multi-turn conversations. These features automatically manage distributed KV caching infrastructure and intelligent request routing, making it easier to deploy production-scale LLM inference workloads with enterprise-grade performance while significantly reducing operational overhead.
Release v3.34.6
この記事は、RooCodeのリリースv3.34.6に関するもので、2025年11月26日に公開されました。このリリースでは、AWS Bedrockの埋め込みサポートがコードインデックスに追加され、Mistralプロバイダーのためのネイティブツール呼び出しサポートが導入されました。また、OpenAIの並列ツール呼び出しのためにMULTIPLE_NATIVE_TOOL_CALLS実験がワイヤリングされ、OpenRouter Anthropicのための詳細なツールストリーミングが追加されました。さらに、クロスリージョンが有効な場合のBedrockのグローバル推論選択が許可され、Vertex APIに送信する前に非Anthropicコンテンツブロックをフィルタリングする修正が行われました。その他にも、APIレスポンスの空のキャッシュを防ぐ修正や、ネイティブツール呼び出しにおける行範囲の文字列を行範囲オブジェクトに変換する修正が含まれています。 • AWS Bedrockの埋め込みサポートが追加された • Mistralプロバイダーのネイティブツール呼び出しサポートが導入された • OpenAIの並列ツール呼び出しのための実験がワイヤリングされた • OpenRouter Anthropicのための詳細なツールストリーミングが追加された • クロスリージョンが有効な場合のBedrockのグローバル推論選択が許可された • 非Anthropicコンテンツブロックをフィルタリングする修正が行われた • APIレスポンスの空のキャッシュを防ぐ修正が行われた • 行範囲の文字列を行範囲オブジェクトに変換する修正が行われた
Here’s how researchers in Asia-Pacific are using AlphaFold
Learn more about AlphaFold, Google’s AI system that accurately predicts protein structures.
Apply fine-grained access control with Bedrock AgentCore Gateway interceptors
We are launching a new feature: gateway interceptors for Amazon Bedrock AgentCore Gateway. This powerful new capability provides fine-grained security, dynamic access control, and flexible schema management.
Claude Agent Skills Explained
Agent Skills are organized folders that package expertise that Claude can automatically invoke when relevant to the task at hand. Join the Claude Developer Discord - https://anthropic.com/discord Learn more about Agent Skills - https://www.claude.com/blog/skills 00:06 Introducing Agent Skills 00:30 How Agent Skills work 01:08 Agent Skills vs Claude.md 01:42 Agent Skills vs MCP Servers 02:05 Agent Skills vs Subagents 02:33 Putting it all together 02:48 Summary
How Condé Nast accelerated contract processing and rights analysis with Amazon Bedrock
In this post, we explore how Condé Nast used Amazon Bedrock and Anthropic’s Claude to accelerate their contract processing and rights analysis workstreams. The company’s extensive portfolio, spanning multiple brands and geographies, required managing an increasingly complex web of contracts, rights, and licensing agreements.
Building AI-Powered Voice Applications: Amazon Nova Sonic Telephony Integration Guide
Available through the Amazon Bedrock bidirectional streaming API, Amazon Nova Sonic can connect to your business data and external tools and can be integrated directly with telephony systems. This post will introduce sample implementations for the most common telephony scenarios.
University of California Los Angeles delivers an immersive theater experience with AWS generative AI services
In this post, we will walk through the performance constraints and design choices by OARC and REMAP teams at UCLA, including how AWS serverless infrastructure, AWS Managed Services, and generative AI services supported the rapid design and deployment of our solution. We will also describe our use of Amazon SageMaker AI and how it can be used reliably in immersive live experiences.
Optimizing Mobileye’s REM™ with AWS Graviton: A focus on ML inference and Triton integration
This post is written by Chaim Rand, Principal Engineer, Pini Reisman, Software Senior Principal Engineer, and Eliyah Weinberg, Performance and Technology Innovation Engineer, at Mobileye. The Mobileye team would like to thank Sunita Nadampalli and Guy Almog from AWS for their contributions to this solution and this post. Mobileye is driving the global evolution toward […]
Evaluate models with the Amazon Nova evaluation container using Amazon SageMaker AI
This blog post introduces the new Amazon Nova model evaluation features in Amazon SageMaker AI. This release adds custom metrics support, LLM-based preference testing, log probability capture, metadata analysis, and multi-node scaling for large evaluations.
Mixpanel security incident: what OpenAI users need to know
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、ツールがそれに基づいてコードを生成することが可能です。また、既存のコードの改善提案やバグの修正も行えるため、開発効率が大幅に向上します。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低くなっています。これにより、幅広い開発者がこのツールを活用できるようになります。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づくコード生成機能 • 既存コードの改善提案やバグ修正機能 • 開発効率の向上 • 直感的で使いやすいユーザーインターフェース
Enhanced performance for Amazon Bedrock Custom Model Import
You can now achieve significant performance improvements when using Amazon Bedrock Custom Model Import, with reduced end-to-end latency, faster time-to-first-token, and improved throughput through advanced PyTorch compilation and CUDA graph optimizations. With Amazon Bedrock Custom Model Import you can to bring your own foundation models to Amazon Bedrock for deployment and inference at scale. In this post, we introduce how to use the improvements in Amazon Bedrock Custom Model Import.
The Future of Inference: PyTorch ATX Event
2025年9月17日、PyTorch ATXはvLLMコミュニティとRed Hatと共に「The Future of Inferencing」イベントをオースティンで開催しました。このイベントには、vLLMに関わる専門家が集まり、最新のLLM推論技術について議論しました。90人以上の参加者が集まり、INT4/INT8量子化、プルーニング戦略、PagedAttentionメモリ管理、連続バッチ処理、推測デコーディング、マルチノードデプロイメントアーキテクチャなどの技術的な深掘りが行われました。Jason MeauxはPyTorch ATXメンバーのプロジェクトについての最新情報を共有し、Steve WattはvLLMの紹介とAWSでのデプロイデモを行いました。Luka GovedičはPagedAttentionや量子化アプローチについての中級セッションを提供し、Huamin Chenは意図を考慮した「mixture-of-models」ルーターを説明しました。Greg Pereiraは分散推論の課題を探求し、KVキャッシュ管理のデモを行いました。参加者は生産準備が整った推論システムを構築するための概念的枠組みと実行可能な戦略を持ち帰りました。次回のイベントは2026年2月に予定されています。 • PyTorch ATXがvLLMコミュニティとRed Hatと共に推論技術に関するイベントを開催した。 • 90人以上の専門家が集まり、最新のLLM推論技術について議論した。 • INT4/INT8量子化、プルーニング戦略、PagedAttentionメモリ管理などのトピックが扱われた。 • vLLMのデプロイ方法についてのデモが行われ、AWSやAMDクラウドでの実装が紹介された。 • 意図を考慮した「mixture-of-models」ルーターが説明され、よりコスト効率的で正確な推論サービスが提案された。 • 分散推論の課題についてのセッションがあり、KVキャッシュ管理のデモが行われた。
You don’t need AI for everything: A reality check for developers
Alexandra Spalato, fractional AI officer, shares a practical framework to help devs decide when and how to use AI and agents.
Intellect-3 model from Prime Intellect AI available on the Vercel AI Gateway
You can now access Prime Intellect AI's Intellect-3 model in Vercel AI Gateway with no other provider accounts required.
Programmatic Tool Calling(PTC)の何が新しいのか?
AnthropicがClaude(モデル) APIの新機能として「Programmatic Tool Calling」(以下PTC)を パブリックベータとして公開しました。 Introducing advanced tool use on the Claude Developer PlatformClaude can now discover, learn, and execute tools dynamically to enable agents that take action in the real world. Here’s how. 一言で言うと、これは「ClaudeがToolを呼び出す処理をPythonコードとして生成し、 Anthropicが提供するサンドボックス内で実行する」機能です。 従来のTool Useでは、Toolを1つ呼ぶたびにClaudeが次のアクションを判断し、 その結果をすべてコンテキストウィンドウに追加していました。 10個のToolを連鎖して呼び出すと、10回分の推論と、
Release v3.34.5
RooCodeIncのGitHubリポジトリで公開されたリリースv3.34.5では、いくつかの新機能と修正が含まれています。主な変更点として、複数のネイティブツール呼び出しを可能にする実験的機能が追加され、Bedrock Opus 4.5がグローバル推論モデルリストに追加されました。また、ツールプロトコルが変更された際にAPIハンドラを更新する修正や、minimax-m2およびclaude-haiku-4.5のデフォルトとしてネイティブツールを設定する変更が行われました。さらに、XMLツールに対して単一ファイルの読み取り専用設定が適用され、web-evalsダッシュボードが動的ツール列とUX改善で強化されました。最後に、Roo Code Cloudを埋め込みプロバイダーとしてサポートする変更は、いくつかの問題を修正するために元に戻されました。 • 複数のネイティブツール呼び出しを可能にする実験的機能の追加 • Bedrock Opus 4.5をグローバル推論モデルリストに追加 • ツールプロトコル変更時のAPIハンドラ更新の修正 • minimax-m2およびclaude-haiku-4.5のデフォルトとしてネイティブツールを設定 • XMLツールに対する単一ファイルの読み取り専用設定の適用 • web-evalsダッシュボードの動的ツール列とUX改善の強化 • Roo Code Cloudの埋め込みプロバイダーサポートの変更を元に戻す
Amazon SageMaker AI introduces EAGLE based adaptive speculative decoding to accelerate generative AI inference
Amazon SageMaker AI now supports EAGLE-based adaptive speculative decoding, a technique that accelerates large language model inference by up to 2.5x while maintaining output quality. In this post, we explain how to use EAGLE 2 and EAGLE 3 speculative decoding in Amazon SageMaker AI, covering the solution architecture, optimization workflows using your own datasets or SageMaker's built-in data, and benchmark results demonstrating significant improvements in throughput and latency.
Get an in-depth look at Gemini 3 with CEO Sundar Pichai.
Sundar Pichai sits down with Logan Kilpatrick to discuss Gemini 3 on the Google AI: Release Notes podcast.
Train custom computer vision defect detection model using Amazon SageMaker
In this post, we demonstrate how to migrate computer vision workloads from Amazon Lookout for Vision to Amazon SageMaker AI by training custom defect detection models using pre-trained models available on AWS Marketplace. We provide step-by-step guidance on labeling datasets with SageMaker Ground Truth, training models with flexible hyperparameter configurations, and deploying them for real-time or batch inference—giving you greater control and flexibility for automated quality inspection use cases.
Expanding data residency access to business customers worldwide
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Google Antigravity Exfiltrates Data
PromptArmor demonstrate a concerning prompt injection chain in Google's new Antigravity IDE: In this attack chain, we illustrate that a poisoned web source (an integration guide) can manipulate Gemini into …
1.0.4
この記事は、GitHub上のlangchain-ai/langgraphリポジトリのバージョン1.0.4のリリースに関する情報を提供しています。このリリースでは、リモートグラフの設定可能なフィールドからスレッドIDを削除する変更や、いくつかの参照のクリーンアップが行われました。また、Python SDKにおいてより多くの型チェックが追加され、ストリームモードの値に関する修正も含まれています。さらに、prebuiltバージョン1.0.3のリリースや、prepare_push_*関数の分離も行われています。これらの変更は、全体的なパフォーマンスや安定性の向上を目指しています。 • リモートグラフの設定可能なフィールドからスレッドIDを削除 • いくつかの参照をクリーンアップ • Python SDKにおいて型チェックを追加 • ストリームモードの値に関する修正 • prebuiltバージョン1.0.3のリリース • prepare_push_*関数を分離
Release v3.34.4
RooCodeIncのGitHubリポジトリで公開されたリリースv3.34.4では、新しいBlack Forest Labsの画像生成モデルが追加され、Roo Code Cloudで無料で利用可能であることが発表されました。また、OpenRouterでも利用可能です。このリリースには、ネイティブモードAPIの履歴において動的MCPツール名を保持する修正や、ネイティブツールを使用した際の要約メッセージ内でのtool_useブロックを保持する修正も含まれています。これにより、会話のコンテキストが維持されることが期待されます。 • 新しいBlack Forest Labsの画像生成モデルが追加された • Roo Code Cloudで無料で利用可能 • OpenRouterでも利用可能 • 動的MCPツール名を保持する修正が行われた • ネイティブツール使用時の要約メッセージ内でのtool_useブロックを保持する修正が行われた
Practical implementation considerations to close the AI value gap
The AWS Customer Success Center of Excellence (CS COE) helps customers get tangible value from their AWS investments. We've seen a pattern: customers who build AI strategies that address people, process, and technology together succeed more often. In this post, we share practical considerations that can help close the AI value gap.
Introducing bidirectional streaming for real-time inference on Amazon SageMaker AI
We're introducing bidirectional streaming for Amazon SageMaker AI Inference, which transforms inference from a transactional exchange into a continuous conversation. This post shows you how to build and deploy a container with bidirectional streaming capability to a SageMaker AI endpoint. We also demonstrate how you can bring your own container or use our partner Deepgram's pre-built models and containers on SageMaker AI to enable bi-directional streaming feature for real-time inference.
Constant-time support lands in LLVM: Protecting cryptographic code at the compiler level
Substantial LLVM contribution from Trail of Bits. Timing attacks against cryptography algorithms are a gnarly problem: if an attacker can precisely time a cryptographic algorithm they can often derive details …
The Google guide for holiday help
Learn more about using Google products like Gemini, Search, Shopping, Pixel and more over the holidays.
4 ways to refine your content in Flow
You’ll now get more creative control in Flow with new refinement and editing capabilities.
Warner Bros. Discovery achieves 60% cost savings and faster ML inference with AWS Graviton
Warner Bros. Discovery (WBD) is a leading global media and entertainment company that creates and distributes the world’s most differentiated and complete portfolio of content and brands across television, film and streaming. In this post, we describe the scale of our offerings, artificial intelligence (AI)/machine learning (ML) inference infrastructure requirements for our real time recommender systems, and how we used AWS Graviton-based Amazon SageMaker AI instances for our ML inference workloads and achieved 60% cost savings and 7% to 60% latency improvements across different models.
Physical AI in practice: Technical foundations that fuel human-machine interactions
In this post, we explore the complete development lifecycle of physical AI—from data collection and model training to edge deployment—and examine how these intelligent systems learn to understand, reason, and interact with the physical world through continuous feedback loops. We illustrate this workflow through Diligent Robotics' Moxi, a mobile manipulation robot that has completed over 1.2 million deliveries in hospitals, saving nearly 600,000 hours for clinical staff while transforming healthcare logistics and returning valuable time to patient care.
Using skills with Deep Agents
tl;dr: Anthropic recently introduced the idea of agent skills. Skills are simply folders containing a SKILL.md file along with any associated files (e.g., documents or scripts) that an agent can discover and load dynamically to perform better at specific tasks. We've added skills support to deepagents-CLI. The
HyperPod now supports Multi-Instance GPU to maximize GPU utilization for generative AI tasks
In this post, we explore how Amazon SageMaker HyperPod now supports NVIDIA Multi-Instance GPU (MIG) technology, enabling you to partition powerful GPUs into multiple isolated instances for running concurrent workloads like inference, research, and interactive development. By maximizing GPU utilization and reducing wasted resources, MIG helps organizations optimize costs while maintaining performance isolation and predictable quality of service across diverse machine learning tasks.
AlphaFold: Five years of impact
Explore five years of AlphaFold’s impact on biology. Learn how this Nobel Prize-winning AI is accelerating scientific discovery globally
Revealing a key protein behind heart disease
Discover how scientists used AlphaFold to map the protein behind heart disease and how this breakthrough could transform treatment.
Patch release v4.57.3
この記事は、Hugging FaceのTransformersライブラリのバージョン4.57.3のパッチリリースについて説明しています。このリリースでは、local_files_only=Trueでモデルを読み込む際に発生する隠れたバグと、最近のパッチに関連するタイプミスが修正されました。主な修正内容はコミットb605555に記載されています。この問題は多くのユーザーに影響を与えるため、前のリリースは取り消される予定です。 • local_files_only=Trueでモデルを読み込む際の隠れたバグが修正された • 最近のパッチに関連するタイプミスが修正された • 主な修正はコミットb605555に記載されている • 多くのユーザーに影響を与えるため、前のリリースは取り消される予定
Release v3.34.3
RooCodeIncのRoo-Codeのリリースv3.34.3では、ネイティブツール呼び出しのストリーミング機能が実装され、ツール実行中にリアルタイムフィードバックが提供されるようになった。また、Claude Opus 4.5モデルがClaude CodeプロバイダーおよびBedrockプロバイダーに追加され、Opus 4.5モデルのパフォーマンス向上のためにキャッシングが有効化された。さらに、Roo Code Cloudが埋め込みプロバイダーとしてサポートされ、いくつかのバグ修正や設定ページへの連絡先リンクの追加も行われた。これにより、ユーザーはより効率的にツールを利用できるようになる。 • ネイティブツール呼び出しのストリーミング機能を実装し、リアルタイムフィードバックを提供 • Claude Opus 4.5モデルをClaude CodeプロバイダーおよびBedrockプロバイダーに追加 • Opus 4.5モデルのパフォーマンス向上のためにキャッシングを有効化 • Roo Code Cloudを埋め込みプロバイダーとしてサポート • 設定ページに連絡先リンクを追加し、ユーザーの利便性を向上
The 9 best AI workflow automation tools in 2026
Looking for AI workflow automation tools? Compare n8n, Zapier, Make, and 6 other top platforms. Find the best fit for beginners, developers, and enterprise teams.
FLUX.2 Pro image model is now available on Vercel AI Gateway
You can now access the newest image model FLUX.2 Pro from Black Forest Labs in Vercel AI Gateway with no other provider accounts required.
Post-hoc Rationalization: LLMの推論は「言い訳」か?
AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
llm-anthropic 0.23
New plugin release adding support for Claude Opus 4.5, including the new thinking_effort option: llm install -U llm-anthropic llm -m claude-opus-4.5 -o thinking_effort low 'muse on pelicans' This took longer …
LLM SVG Generation Benchmark
Here's a delightful project by Tom Gally, inspired by my pelican SVG benchmark. He asked Claude to help create more prompts of the form Generate an SVG of [A] [doing] …
'Unified FP8: Moving Beyond Mixed Precision for Stable and Accelerated MoE RL'
<blockquote> <p>TL;DR: We have implemented fully FP8-based sampling and training in RL. Experiments show that for MoE models, the larger the model, the more ...
Continuous batching from first principles
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Diffusers welcomes FLUX-2
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Inside JetBrains—the company reshaping how the world writes code
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Quoting Claude Opus 4.5 system prompt
If the person is unnecessarily rude, mean, or insulting to Claude, Claude doesn't need to apologize and can insist on kindness and dignity from the person it’s talking with. Even …
Accelerate generative AI innovation in Canada with Amazon Bedrock cross-Region inference
We are excited to announce that customers in Canada can now access advanced foundation models including Anthropic's Claude Sonnet 4.5 and Claude Haiku 4.5 on Amazon Bedrock through cross-Region inference (CRIS). This post explores how Canadian organizations can use cross-Region inference profiles from the Canada (Central) Region to access the latest foundation models to accelerate AI initiatives. We will demonstrate how to get started with these new capabilities, provide guidance for migrating from older models, and share recommended practices for quota management.
Release v3.34.2
RooCodeIncのRoo-Codeリポジトリのリリースv3.34.2では、Claude Opus 4.5のサポートがAnthropicおよびVertexプロバイダーに追加され、OpenRouterではプロンプトキャッシングと推論予算が実装された。また、Roo Code Cloudが画像生成プロバイダーとして追加され、Geminiトランスフォーマーではサポートされていないコンテンツブロックを優雅にスキップする修正が行われた。LiteLLMキャッシュのフラッシュやXMLパーサーの状態をツールプロトコルに合わせるための修正も含まれている。さらに、Cerebrasモデルの更新やGemini 3モデルのreasoning_detailsフォーマットのサポートも追加された。 • Claude Opus 4.5のサポートがAnthropicおよびVertexプロバイダーに追加された。 • OpenRouterにプロンプトキャッシングと推論予算が実装された。 • Roo Code Cloudが画像生成プロバイダーとして追加された。 • Geminiトランスフォーマーでサポートされていないコンテンツブロックをスキップする修正が行われた。 • LiteLLMキャッシュのフラッシュやXMLパーサーの状態をツールプロトコルに合わせる修正が含まれている。 • Cerebrasモデルの更新が行われた。 • Gemini 3モデルのreasoning_detailsフォーマットのサポートが追加された。
sdk==0.2.10
この記事は、LangchainのSDKのバージョン0.2.10のリリースに関する情報を提供しています。このリリースでは、Assistants検索APIにnameパラメータが追加され、Python 3.14のサポートが追加されました。また、Python 3.9のサポートが削除され、いくつかのバグ修正や型チェックの改善が行われています。さらに、ドキュメントのスタイル修正や依存関係のアップグレードも含まれています。これにより、SDKの機能性と安定性が向上しています。 • Assistants検索APIにnameパラメータが追加された • Python 3.14のサポートが追加された • Python 3.9のサポートが削除された • 型チェックの改善が行われた • いくつかのバグ修正が含まれている • ドキュメントのスタイル修正が行われた • 依存関係のアップグレードが実施された
Power up your ML workflows with interactive IDEs on SageMaker HyperPod
Amazon SageMaker HyperPod clusters with Amazon Elastic Kubernetes Service (EKS) orchestration now support creating and managing interactive development environments such as JupyterLab and open source Visual Studio Code, streamlining the ML development lifecycle by providing managed environments for familiar tools to data scientists. This post shows how HyperPod administrators can configure Spaces for their clusters, and how data scientists can create and connect to these Spaces.
Claude Opus 4.5, and why evaluating new LLMs is increasingly difficult
Anthropic released Claude Opus 4.5 this morning, which they call “best model in the world for coding, agents, and computer use”. This is their attempt to retake the crown for …
Claude Opus 4.5 now in Amazon Bedrock
Anthropic's newest foundation model, Claude Opus 4.5, is now available in Amazon Bedrock, a fully managed service that offers a choice of high-performing foundation models from leading AI companies. In this post, I'll show you what makes this model different, walk through key business applications, and demonstrate how to use Opus 4.5's new tool use capabilities on Amazon Bedrock.
Claude Code on desktop
Today, we’re introducing Claude Code in our desktop apps in research preview. You can now run multiple local and remote Claude Code sessions in parallel: one agent fixing bugs, another researching GitHub, a third updating docs. It uses git worktrees for parallel repo work and offers a clean user interface with the option to open in VS Code or resume in CLI. Learn more: https://www.anthropic.com/news/claude-opus-4-5
Claude works with you on slides, spreadsheets, and contract redlines
See Claude Opus 4.5 tackle real work tasks—building board decks, transforming spreadsheet data, redlining contracts. Not generating drafts you'll throw away. Actual outputs you can download and use immediately. Try it: claude.ai
Introducing Claude Opus 4.5
Claude Opus 4.5 sets a new standard for coding, agents, computer use, and enterprise workflows. It knows when to pause and think, which means fewer wasted steps and better results. When we gave it our two-hour engineering assignment, it scored higher than any human ever has. We’re excited to see what you build. Learn more: https://www.anthropic.com/news/claude-opus-4-5
Claude Opus 4.5 solves a puzzle game
Watch Claude complete a puzzle game using new capabilities that enable Claude to take action in the real world—the tool search tool and programmatic tool calling. Together, these updates enable Claude to navigate large tool libraries, chain operations efficiently, and accurately execute complex tasks. Learn more: https://www.anthropic.com/engineering/advanced-tool-use
Patch Release v4.57.2
この記事は、Hugging FaceのTransformersライブラリのバージョン4.57.2のパッチリリースについて説明しています。このリリースでは、特にMistralトークナイザーに関する問題が修正されました。具体的には、mistral3およびministralのためのAutoTokenizerマッピングの追加、tekken.jsonの自動変換、tekkenパターンマッチングの修正、モデル入力の隠れ状態のチェック、モジュールレベルのget_device_and_memory_breakdownからの無効な@staticmethodの削除が含まれています。 • Mistralトークナイザーに関する問題を修正 • mistral3およびministralのためのAutoTokenizerマッピングを追加 • tekken.jsonの自動変換を実施 • tekkenパターンマッチングの修正を行った • モデル入力の隠れ状態をチェックする機能を追加 • 無効な@staticmethodを削除
Deploy GPT-OSS models with Amazon Bedrock Custom Model Import
In this post, we show how to deploy the GPT-OSS-20B model on Amazon Bedrock using Custom Model Import while maintaining complete API compatibility with your current applications.
langchain==1.1.0
この記事は、Langchainのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、SystemMessageのサポートや、HITLミドルウェアにおけるツール呼び出しの順序を変更しない修正が含まれています。また、モデルプロファイルのデータ分配や、ランタイム注入のためのテストの強化も行われています。さらに、非同期要約のサポートや、要約トリガー時のモデルコンテキストウィンドウの使用に関する機能も追加されています。これにより、Langchainの機能が向上し、より効率的な開発が可能になります。 • Langchainのバージョン1.1.0がリリースされた。 • SystemMessageのサポートが追加された。 • HITLミドルウェアでのツール呼び出しの順序を変更しない修正が行われた。 • モデルプロファイルのデータをパッケージ間で分配する機能が追加された。 • 非同期要約のサポートが追加された。 • 要約トリガー時にモデルコンテキストウィンドウを使用する機能が追加された。
langchain-xai==1.1.0
この記事は、Langchainの新しいバージョンlangchain-xai==1.1.0のリリースに関する情報を提供しています。このリリースでは、いくつかの重要な変更が行われました。具体的には、データをパッケージ間で分配する機能が追加され、README.mdファイルの更新やスタイルのクリーンアップも行われました。これにより、ユーザーはより効率的にデータを管理できるようになります。リリース日は2023年11月24日で、GitHub上で公開されています。 • Langchainの新バージョンlangchain-xai==1.1.0がリリースされた。 • データをパッケージ間で分配する機能が追加された。 • README.mdファイルの更新が行われた。 • スタイルのクリーンアップが実施された。 • リリース日は2023年11月24日。
langchain-perplexity==1.1.0
この記事は、langchain-perplexityのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、いくつかの新機能と改善が含まれています。具体的には、データをパッケージ間で分配する機能、推論モデル出力をサポートするための専用出力パーサーの作成、README.mdファイルの更新、使用メタデータのためのすべてのキーの追加などが行われました。また、コードのクリーンアップも実施されています。これにより、langchain-perplexityの機能が向上し、ユーザーにとっての利便性が増すことが期待されます。 • langchain-perplexityのバージョン1.1.0がリリースされた • データをパッケージ間で分配する機能が追加された • 推論モデル出力をサポートする専用出力パーサーが作成された • README.mdファイルが更新された • 使用メタデータのためのすべてのキーが追加された • コードのクリーンアップが行われた
langchain-groq==1.1.0
この記事は、langchain-groqのバージョン1.1.0のリリースに関する情報を提供しています。このリリースは2023年11月24日に行われ、主な変更点として、ドキュメント内のいくつかの参照の構文エラーの修正や、モデルプロファイルに関する機能が含まれています。また、データをパッケージ間で分配する機能も追加されています。これにより、ユーザーはより効率的にデータを管理できるようになります。 • langchain-groqのバージョン1.1.0が2023年11月24日にリリースされた • ドキュメント内の参照の構文エラーが修正された • モデルプロファイルに関する新機能が追加された • データをパッケージ間で分配する機能が実装された
langchain-openai==1.1.0
この記事は、langchain-openaiのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、いくつかの重要な変更が行われました。具体的には、GPT-5の温度検証が大文字小文字を区別しないように修正され、いくつかの文書の参照構文エラーが修正されました。また、モデルプロファイルのデータがパッケージ間で分配される機能が追加され、Azureテキスト補完テストがスキップされるようになりました。これらの変更は、開発者がより効率的に作業できるようにすることを目的としています。 • GPT-5の温度検証が大文字小文字を区別しないように修正された。 • 文書の参照構文エラーがいくつか修正された。 • モデルプロファイルのデータがパッケージ間で分配される機能が追加された。 • Azureテキスト補完テストがスキップされるようになった。 • 開発者の作業効率を向上させることを目的としている。
langchain-mistralai==1.1.0
この記事は、langchain-mistralaiのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、いくつかの変更が行われており、主な内容にはドキュメントの修正、モデルプロファイルのデータ分配、README.mdファイルの更新、スタイルのクリーンアップ、パッケージのバージョン変更の属性付け、リンクの修正などが含まれています。これにより、ユーザーは最新の機能や修正を利用できるようになります。 • langchain-mistralaiのバージョン1.1.0がリリースされた • ドキュメントのいくつかの参照の構文エラーが修正された • モデルプロファイルのデータがパッケージ間で分配されるようになった • README.mdファイルが更新された • スタイルのクリーンアップが行われた • パッケージの変更バージョンに属性が付けられた • リンクが修正された
langchain-huggingface==1.1.0
この記事は、langchain-huggingfaceのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、いくつかの重要な変更が行われました。具体的には、モデルプロファイルの機能が追加され、データをパッケージ間で分配できるようになりました。また、README.mdファイルの更新や、ChatHuggingFaceに対してLLMパラメータを渡す修正が行われました。さらに、コードのスタイルに関するクリーンアップも実施されています。 • langchain-huggingfaceのバージョン1.1.0がリリースされた • モデルプロファイル機能が追加され、データをパッケージ間で分配可能に • README.mdファイルが更新された • ChatHuggingFaceにLLMパラメータを渡す修正が行われた • コードのスタイルが一部クリーンアップされた
langchain-anthropic==1.2.0
この記事は、langchain-anthropicのバージョン1.2.0のリリースに関する情報を提供しています。このリリースは2023年11月24日に行われ、主な変更点として、ドキュメントの参照構文エラーの修正、モデルプロファイルのデータをパッケージ間で分配する機能の追加、ModelCallRequestにおけるsetattrの非推奨化が含まれています。これにより、ユーザーはより効率的にデータを管理し、エラーを減少させることが期待されます。 • langchain-anthropicのバージョン1.2.0が2023年11月24日にリリースされた • ドキュメントの参照構文エラーが修正された • モデルプロファイルのデータをパッケージ間で分配する機能が追加された • ModelCallRequestにおけるsetattrが非推奨となった
langchain-fireworks==1.1.0
この記事は、langchain-fireworksのバージョン1.1.0のリリースに関する情報を提供しています。このリリースでは、いくつかの変更が行われており、主な内容には、テスト済みモデルの更新、ドキュメント内の参照の構文エラーの修正、データをパッケージ間で分配する機能の追加、README.mdファイルの更新、スタイルのクリーンアップ、パッケージのバージョン変更の属性付与、pyproject.tomlのURLエントリの更新が含まれています。これにより、ユーザーは最新の機能と修正を利用できるようになります。 • langchain-fireworksのバージョン1.1.0がリリースされた • テスト済みモデルの更新が行われた • ドキュメント内の参照の構文エラーが修正された • データをパッケージ間で分配する機能が追加された • README.mdファイルが更新された • スタイルのクリーンアップが実施された • パッケージのバージョン変更の属性付与が行われた • pyproject.tomlのURLエントリが更新された
Claude Opus 4.5 now available in Vercel AI Gateway
You can now access Anthropic's latest model Claude Opus 4.5 in Vercel AI Gateway with no other provider accounts required.
GPT-5 and the future of mathematical discovery
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Introducing shopping research in ChatGPT
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
'Unified FP8: Moving Beyond Mixed Precision for Stable and Accelerated MoE RL'
<blockquote> <p>TL;DR: We have implemented fully FP8-based sampling and training in RL. Experiments show that for MoE models, the larger the model, the more ...
Release v3.34.1
RooCodeIncのRoo-Codeのリリースv3.34.1では、いくつかの重要な改善が行われた。主な変更点には、UIにおける画像生成のプロンプト表示機能の追加、TODOリストの重複表示問題の修正、クラウド同期メッセージのトラッキング機能の追加、評価時にRoo Code Cloudプロバイダーを有効にすることが含まれる。これらの改善により、ユーザーエクスペリエンスが向上し、機能の信頼性が高まることが期待される。 • UIに画像生成のプロンプト表示機能を追加 • TODOリストの重複表示問題を修正 • クラウド同期メッセージのトラッキング機能を追加 • 評価時にRoo Code Cloudプロバイダーを有効にする
🥇Top AI Papers of the Week
The Top AI Papers of the Week (November 17 - 23)
Agent design is still hard
Armin Ronacher presents a cornucopia of lessons learned from building agents over the past few months. There are several agent abstraction libraries available now (my own LLM library is edging …
LMSYS Fellowship Program
<p>We're proud to launch the LMSYS Fellowship Program!</p> <p>This year, the program will provide funding to full-time PhD students in the United States who ...
Olmo 3 is a fully open LLM
Olmo is the LLM series from Ai2—the Allen institute for AI. Unlike most open weight models these are notable for including the full training data, training process and checkpoints along …
langchain-tests==1.0.2
この記事は、Langchainのテストパッケージであるlangchain-testsのバージョン1.0.2のリリースに関する情報を提供しています。このリリースでは、いくつかの変更が行われており、主な内容には、ドキュメントの参照の構文エラーの修正、Anthropicのネイティブ構造化出力機能と厳密なツール呼び出しのサポート、ミドルウェアの参照構文の修正、CLIや標準テスト、テキスト分割器に関するRuff TCルールの修正、コードのクリーンアップが含まれています。これらの変更は、Langchainの機能性と使いやすさを向上させることを目的としています。 • langchain-testsのバージョン1.0.2がリリースされた • ドキュメントの参照の構文エラーが修正された • Anthropicのネイティブ構造化出力機能がサポートされた • 厳密なツール呼び出しが追加された • ミドルウェアの参照構文が修正された • CLIや標準テスト、テキスト分割器に関するRuff TCルールが修正された • コードのクリーンアップが行われた
🤖AI Agents Weekly: Gemini 3, Nano Banana Pro, Antigravity, Agent-R1 RL Framework, Meta's SAM 3, OLMo 3
Gemini 3, Nano Banana Pro, Antigravity, Agent-R1 RL Framework, Meta's SAM 3, OLMo 3
Release v3.34.0
RooCodeIncのRoo-Codeのリリースv3.34.0では、ブラウザのインタラクション機能を強化したBrowser Use 2.0の追加や、新しいAIプロバイダーBasetenのサポートが含まれています。また、OpenAI互換プロバイダーのエラーハンドリングと設定の改善、オンボーディング体験を向上させるためのプロバイダー指向のウェルカム画面の追加、プロバイダーリストの上部にRooプロバイダーを固定することでの発見性の向上が行われました。さらに、ネイティブツールの説明を例や明確化で強化し、ストリーミング中のキャンセルボタンの即時応答性を修正、以前の変更からのパフォーマンス回帰を解決するための修正、モデルキャッシュのリフレッシュを実装して古いディスクキャッシュの問題を防ぐなどの改善が行われています。 • ブラウザのインタラクション機能を強化したBrowser Use 2.0を追加 • 新しいAIプロバイダーBasetenをサポート • OpenAI互換プロバイダーのエラーハンドリングと設定を改善 • プロバイダー指向のウェルカム画面を追加し、オンボーディング体験を向上 • Rooプロバイダーをプロバイダーリストの上部に固定し、発見性を向上 • ネイティブツールの説明を例や明確化で強化 • ストリーミング中のキャンセルボタンの即時応答性を修正 • モデルキャッシュのリフレッシュを実装し、古いディスクキャッシュの問題を防止
langchain-model-profiles==0.0.5
この記事は、GitHub上で公開されたlangchain-model-profilesのバージョン0.0.5のリリースに関する情報を提供しています。このリリースでは、パッケージ間でデータを分配する機能が追加され、README.mdファイルの更新も行われました。リリース日は2023年11月21日で、前のバージョン0.0.4からの変更点が記載されています。 • 新機能として、データをパッケージ間で分配する機能が追加された • README.mdファイルが更新された • リリース日は2023年11月21日 • 前のバージョン0.0.4からの変更点が含まれている
langchain-core==1.1.0
この記事は、Langchainのコアライブラリのバージョン1.1.0のリリースについて説明しています。このリリースは2023年11月21日に行われ、主な変更点として、モデルプロファイルに関する機能が追加され、データをパッケージ間で分散させることが可能になりました。これにより、データ管理がより効率的に行えるようになります。リリースはGitHub上で行われ、コミットはGitHubの検証済み署名で作成されています。 • Langchainのコアライブラリのバージョン1.1.0がリリースされた。 • リリース日は2023年11月21日。 • 新機能として、モデルプロファイルに関する機能が追加された。 • データをパッケージ間で分散させることが可能になった。 • データ管理の効率が向上する。
Streamline AI operations with the Multi-Provider Generative AI Gateway reference architecture
In this post, we introduce the Multi-Provider Generative AI Gateway reference architecture, which provides guidance for deploying LiteLLM into an AWS environment to streamline the management and governance of production generative AI workloads across multiple model providers. This centralized gateway solution addresses common enterprise challenges including provider fragmentation, decentralized governance, operational complexity, and cost management by offering a unified interface that supports Amazon Bedrock, Amazon SageMaker AI, and external providers while maintaining comprehensive security, monitoring, and control capabilities.
How agents can use filesystems for context engineering
A key feature of deep agents is their access to a set of filesystem tools. Deep agents can use these tools to read, write, edit, list, and search for files in their filesystem. In this post, we’ll walk through why we think filesystems are important for agents. In order
Deploy geospatial agents with Foursquare Spatial H3 Hub and Amazon SageMaker AI
In this post, you'll learn how to deploy geospatial AI agents that can answer complex spatial questions in minutes instead of months. By combining Foursquare Spatial H3 Hub's analysis-ready geospatial data with reasoning models deployed on Amazon SageMaker AI, you can build agents that enable nontechnical domain experts to perform sophisticated spatial analysis through natural language queries—without requiring geographic information system (GIS) expertise or custom data engineering pipelines.
Reward hacking: a potential source of serious Al misalignment
We discuss our new paper, "Natural emergent misalignment from reward hacking in production RL". In this paper, we show for the first time that realistic AI training processes can accidentally produce misaligned models. Specifically, when large language models learn to cheat on software programming tasks, they go on to display other, even more misaligned behaviors as an unintended consequence. These include concerning behaviors like alignment faking and sabotage of AI safety research. 00:00 Introduction 00:42 What is this work about? 5:21 How did we run our experiment? 14:48 Detecting models' misalignment 22:17 Preventing misalignment from reward hacking 37:15 Alternative strategies 42:03 Limitations 44:25 How has this study changed our views? 50:31 Takeaways for people interested in conducting AI safety research
Reducing EV range anxiety: How a simple AI model predicts port availability
この記事では、電気自動車(EV)の充電ポートの利用可能性を予測するためのシンプルなAIモデルについて説明しています。このモデルは、特定の充電ステーションでのポートの利用可能性を、現在の時刻から数分後に予測することができ、EVドライバーが効率的に旅行を計画し、充電ステーションでの待機時間を最小限に抑えるのに役立ちます。EVの普及が進む中、信頼性の高い充電インフラの構築が求められています。記事では、充電ステーションをナビゲーションルートに統合することで、EVドライバーの「航続距離不安」を軽減するアプローチが紹介されています。モデルは、シンプルな線形回帰アプローチに基づいており、リアルタイムの利用可能データを使用してトレーニングされています。特に、時間帯を特徴として扱い、各時間帯のポートの占有率の変化を予測するための重みを学習します。 • EV充電ポートの利用可能性を予測するAIモデルを開発した。 • モデルは、特定の充電ステーションでのポートの利用可能性を数分後に予測する。 • 充電ステーションをナビゲーションルートに統合することで、航続距離不安を軽減する。 • シンプルな線形回帰アプローチを使用し、リアルタイムのデータでトレーニングされた。 • 時間帯を特徴として扱い、各時間帯のポートの占有率の変化を予測するための重みを学習する。
How Wipro PARI accelerates PLC code generation using Amazon Bedrock
In this post, we share how Wipro implemented advanced prompt engineering techniques, custom validation logic, and automated code rectification to streamline the development of industrial automation code at scale using Amazon Bedrock. We walk through the architecture along with the key use cases, explain core components and workflows, and share real-world results that show the transformative impact on manufacturing operations.
16 Google AI tips for stress-free holiday hosting in 2025
Use Gemini, Search, Pixel and more to make holiday planning feel effortless in 2025.
Self-driving infrastructure
At Vercel, we’re building self-driving infrastructure, a system that autonomously manages production operations, improves application code using real-world insights, and learns from the unpredictable nature of production itself.
Release v3.33.3
RooCodeIncのRoo-Codeリポジトリでのリリースv3.33.3では、いくつかの新機能と修正が行われた。新たにGoogle Gemini 3 Proの画像プレビューが画像生成モデルに追加され、MinimaxがAnthropic互換プロバイダーとしてサポートされるようになった。また、すべてのプロバイダーに対して会話履歴に推論を保存する機能が追加された。APIの推論を含めるためのpreserveReasoningフラグの改善や、OpenAI Nativeの並列ツール呼び出しを防ぐ修正も行われた。さらに、シンボルの検索と置換の解析を改善し、ネイティブプロトコルでスキップされたツールのtool_resultブロックを送信する修正も含まれている。マークダウンのフォーマット改善や、キャンセルされたタスクの再開時に環境詳細の重複を防ぐ修正も行われた。 • Google Gemini 3 Proの画像プレビューを画像生成モデルに追加 • MinimaxをAnthropic互換プロバイダーとしてサポート • すべてのプロバイダーに対して会話履歴に推論を保存する機能を追加 • preserveReasoningフラグの改善によりAPI推論の含め方を制御 • OpenAI Nativeの並列ツール呼び出しを防ぐ修正 • シンボルの検索と置換の解析を改善 • スキップされたツールのtool_resultブロックを送信する修正 • マークダウンフォーマットの改善と推論サポートの追加 • キャンセルされたタスクの再開時に環境詳細の重複を防ぐ修正
Scania accelerates operations across its global workforce with ChatGPT
Scania builds the trucks, buses, and transport systems that keep the world moving. With AI in their engineering-led organisation, they're evolving from vehicle maker to sustainable transport ecosystem leader. Read more: https://openai.com/index/scania/
20x Faster TRL Fine-tuning with RapidFire AI
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Open ASR Leaderboard: Trends and Insights with New Multilingual & Long-Form Tracks
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Develop a deeper understanding with interactive images in Gemini.
Learning science consistently shows us that true learning requires active engagement. This is fundamental to how Gemini helps you learn. Going beyond simple text and sta…
Newsroom
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Turning Claude into your thinking partner
We’ve shipped a lot of new features in Claude over the past few months—memory, voice, file creation, and more. Together, they add up to something bigger: Claude as a thinking partner. Now, Claude isn’t just answering questions but staying with you through the messy process of thinking and building. Here’s how it works. Memory: https://youtu.be/PupmfSttxlc Chrome Extension: https://youtu.be/mCj4kx_P2Ak File creation: https://youtu.be/EV89Ws8Ui9Y Mobile & Desktop: https://claude.com/download
MSD explores applying generative Al to improve the deviation management process using AWS services
This blog post has explores how MSD is harnessing the power of generative AI and databases to optimize and transform its manufacturing deviation management process. By creating an accurate and multifaceted knowledge base of past events, deviations, and findings, the company aims to significantly reduce the time and effort required for each new case while maintaining the highest standards of quality and compliance.
Accelerating genomics variant interpretation with AWS HealthOmics and Amazon Bedrock AgentCore
In this blog post, we show you how agentic workflows can accelerate the processing and interpretation of genomics pipelines at scale with a natural language interface. We demonstrate a comprehensive genomic variant interpreter agent that combines automated data processing with intelligent analysis to address the entire workflow from raw VCF file ingestion to conversational query interfaces.
How Rufus scales conversational shopping experiences to millions of Amazon customers with Amazon Bedrock
Our team at Amazon builds Rufus, an AI-powered shopping assistant which delivers intelligent, conversational experiences to delight our customers. More than 250 million customers have used Rufus this year. Monthly users are up 140% YoY and interactions are up 210% YoY. Additionally, customers that use Rufus during a shopping journey are 60% more likely to […]
How AI Is Accelerating Scientific Discovery Today and What's Ahead — the OpenAI Podcast Ep. 10
AI is beginning to change how science gets done. Head of OpenAI for Science Kevin Weil and OpenAI research scientist Alex Lupsasca talk about the early signs of acceleration researchers are seeing with GPT-5—from surfacing literature across fields and languages, to speeding up complex calculations, to designing follow-up experiments. They unpack what’s possible today, what doesn’t work yet, and why the next few years could reshape the trajectory of scientific progress across physics, math, biology and beyond. Chapters: - 00:00:40 — OpenAI for Science mission - 00:06:00 — Literature search and intersections across fields - 00:11:19 — A fusion physicist shows what GPT-5 can do - 00:15:08 — GPT-5 Pro and black hole symmetries - 00:19:02 — Getting the most out of the models - 00:24:33 — OpenAI’s new research paper (https://openai.com/index/accelerating-science-gpt-5/) - 00:29:59 — Looking ahead to the next 5 years - 00:32:05 — Will predictions outpace experiments? - 00:36:43 — The pace of model improvement - 00:40:31 — What do scientific benchmarks look like? - 00:44:16 — Fusion and the promise of abundant energy - 00:48:07 — Closing: Science 2.0 moment
prebuilt==1.0.5
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるprebuilt==1.0.5のリリースについて説明しています。このリリースは2023年11月20日に行われ、主な変更点として、関数シグネチャを尊重するようにインジェクションロジックをリファクタリングしたこと、ToolCallRequestにおけるsetattrの非推奨化が含まれています。これにより、より安定した動作が期待されます。 • リリース日: 2023年11月20日 • 主な変更点: インジェクションロジックのリファクタリング • ToolCallRequestにおけるsetattrの非推奨化 • 関数シグネチャを尊重する改善 • 安定性の向上が期待される
Nano Banana Pro aka gemini-3-pro-image-preview is the best available image generation model
Hot on the heels of Tuesday’s Gemini 3 Pro release, today it’s Nano Banana Pro, also known as Gemini 3 Pro Image. I’ve had a few days of preview access …
How Care Access achieved 86% data processing cost reductions and 66% faster data processing with Amazon Bedrock prompt caching
In this post, we demonstrate how healthcare organizations can securely implement prompt caching technology to streamline medical record processing while maintaining compliance requirements.
2025-11-19
この記事は、mastra-aiのリリースノートに関するもので、主に新機能や変更点について説明しています。特に、AI SDK v5ストリームにおけるメッセージチャンクの制御を細かく行えるようにするための新しいオプションが追加されました。これにより、sendStart、sendFinish、sendReasoning、sendSourcesの各パラメータが導入され、エージェントストリームの変換時に特定のデータチャンクを含めるかどうかを選択できるようになりました。また、トリップワイヤデータチャンクのサポートが追加され、特定の条件がトリガーされた際に特別なデータイベントを発生させることが可能になりました。さらに、認証設定にオプションを渡す機能や、エージェントメタデータを豊かにするための説明フィールドの追加なども行われています。 • AI SDK v5ストリームにおけるメッセージチャンクの制御が可能に • sendStart、sendFinish、sendReasoning、sendSourcesの新オプションが追加された • トリップワイヤデータチャンクのサポートが追加され、特定条件でのデータイベント発生が可能に • 認証設定にオプションを渡す機能が追加された • エージェントメタデータを豊かにするための説明フィールドが追加された
How we’re bringing AI image verification to the Gemini app
Our new Gemini app feature allows you to verify Google AI images and determine whether content was created or edited by AI.
Build with Nano Banana Pro, our Gemini 3 Pro Image model
Nano Banana Pro, or Gemini 3 Pro Image, is our most advanced image generation and editing model.
Introducing Nano Banana Pro
Nano Banana Pro is our new image generation and editing model from Google DeepMind.
Introducing Nano Banana Pro
Nano Banana Pro is our new image generation and editing model from Google DeepMind.
Build with Nano Banana Pro, our Gemini 3 Pro Image model
Nano Banana Pro, or Gemini 3 Pro Image, is our most advanced image generation and editing model.
How we’re bringing AI image verification to the Gemini app
Our new Gemini app feature allows you to verify Google AI images and determine whether content was created or edited by AI.
OpenAI and Foxconn collaborate to strengthen U.S. manufacturing across the AI supply chain
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上 • エラー削減の効果
How Westinghouse is reenergizing nuclear power with — and for — AI
Westinghouse has partnered with Google Cloud to develop a custom AI-powered platform.
Grok 4.1 Fast models now available on Vercel AI Gateway
You can now access xAI's Grok 4.1 models in Vercel AI Gateway with no other provider accounts required.
Nano Banana Pro (Gemini 3 Pro Image) now available in the AI Gateway
You can now access Google's latest model Nano Banana Pro (Gemini 3 Pro Image) in Vercel AI Gateway with no other provider accounts required.
First look at Prisma ORM v7 with Will Madden
Jack Herrington talks with Will Madden about how Prisma ORM is evolving in v7, including the transition away from Rust toward TypeScript, less magic, and a new Prisma config file for more predictable good DX. They dig into Prisma Postgres, improvements to Prisma Studio, better support for serverless environments, and how JavaScript ORM tools like Prisma as an object relational mapper will fit into future agentic coding workflows powered by LLMs.
Helping 1,000 Main Street businesses build with AI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Release v3.33.2
RooCodeIncのGitHubリポジトリで公開されたリリースv3.33.2では、いくつかの重要な変更が行われた。主な変更点には、Geminiプロバイダーのためのネイティブツール呼び出しの有効化、RCCクレジット残高の表示機能の追加、ネイティブツール呼び出し結果におけるユーザー画像の保持、過剰なgetModel()呼び出しの削減とディスクキャッシュフォールバックの実装、無料モデルに対するゼロ価格の表示が含まれる。これらの変更は、ユーザー体験の向上やパフォーマンスの最適化を目的としている。 • Geminiプロバイダーのためのネイティブツール呼び出しが有効化された。 • RCCクレジット残高の表示機能が追加された。 • ネイティブツール呼び出し結果においてユーザー画像が保持されるよう修正された。 • 過剰なgetModel()呼び出しが削減され、ディスクキャッシュフォールバックが実装された。 • 無料モデルに対してゼロ価格が表示されるようになった。
How Jimdo empower solopreneurs with AI-powered business assistance
See how Jimdo uses LangChain.js, LangGraph.js, and LangSmith to deliver personalized business insights that drive 50% more first customer contacts and 40% more overall customer activity.
Quoting Nicholas Carlini
Previously, when malware developers wanted to go and monetize their exploits, they would do exactly one thing: encrypt every file on a person's computer and request a ransome to decrypt …
Claude Code deployment patterns and best practices with Amazon Bedrock
In this post, we explore deployment patterns and best practices for Claude Code with Amazon Bedrock, covering authentication methods, infrastructure decisions, and monitoring strategies to help enterprises deploy securely at scale. We recommend using Direct IdP integration for authentication, a dedicated AWS account for infrastructure, and OpenTelemetry with CloudWatch dashboards for comprehensive monitoring to ensure secure access, capacity management, and visibility into costs and developer productivity .
Building more with GPT-5.1-Codex-Max
Hot on the heels of yesterday's Gemini 3 Pro release comes a new model from OpenAI called GPT-5.1-Codex-Max. (Remember when GPT-5 was meant to bring in a new era of …
Amazon Bedrock Guardrails expands support for code domain
Amazon Bedrock Guardrails now extends its safety controls to protect code generation across twelve programming languages, addressing critical security challenges in AI-assisted software development. In this post, we explore how to configure content filters, prompt attack detection, denied topics, and sensitive information filters to safeguard against threats like prompt injection, data exfiltration, and malicious code generation while maintaining developer productivity .
Announcing the AWS Well-Architected Responsible AI Lens
Today, we're announcing the AWS Well-Architected Responsible AI Lens—a set of thoughtful questions and corresponding best practices that help builders address responsible AI concerns throughout development and operation.
How Amazon uses AI agents to support compliance screening of billions of transactions per day
Amazon's AI-powered Amazon Compliance Screening system tackles complex compliance challenges through autonomous agents that analyze, reason through, and resolve cases with precision. This blog post explores how Amazon’s Compliance team built its AI-powered investigation system through a series of AI agents built on AWS.
Build an agentic solution with Amazon Nova, Snowflake, and LangGraph
In this post, we cover how you can use tools from Snowflake AI Data Cloud and Amazon Web Services (AWS) to build generative AI solutions that organizations can use to make data-driven decisions, increase operational efficiency, and ultimately gain a competitive edge.
Using Spectrum fine-tuning to improve FM training efficiency on Amazon SageMaker AI
In this post you will learn how to use Spectrum to optimize resource use and shorten training times without sacrificing quality, as well as how to implement Spectrum fine-tuning with Amazon SageMaker AI training jobs. We will also discuss the tradeoff between QLoRA and Spectrum fine-tuning, showing that while QLoRA is more resource efficient, Spectrum results in higher performance overall.
langchain==1.0.8
この記事は、Langchainのバージョン1.0.8のリリースに関する情報を提供しています。このリリースは2023年11月19日に行われ、GitHub上で公開されています。リリースノートには、前のバージョン1.0.7からの変更点が含まれていますが、具体的な変更内容は記載されていません。リリースはGitHubの署名付きで行われており、ユーザーは通知設定を変更するためにサインインする必要があります。全体として、Langchainの新しいバージョンのリリースに関する基本的な情報が提供されています。 • Langchainのバージョン1.0.8が2023年11月19日にリリースされた。 • リリースはGitHub上で公開されている。 • 前のバージョン1.0.7からの具体的な変更点は記載されていない。 • リリースはGitHubの署名付きで行われている。 • ユーザーは通知設定を変更するためにサインインが必要。
langchain-core==1.0.6
この記事は、GitHub上でのlangchain-coreのバージョン1.0.6のリリースに関する情報を提供しています。このリリースでは、カスタム引数スキーマを使用する際のツールランタイムの注入をサポートする機能が追加され、さらにmermaidのPNGレンダリングに対するプロキシサポートも実装されました。これにより、ユーザーはより柔軟にツールを利用できるようになります。 • langchain-coreのバージョン1.0.6がリリースされた • カスタム引数スキーマに対するツールランタイムの注入をサポート • mermaidのPNGレンダリングにプロキシサポートが追加された • これにより、ユーザーはツールをより柔軟に利用可能になる
Strengthening our safety ecosystem with external testing
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを分析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを分析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 他の開発環境との高い互換性 • 生産性向上が期待される
How evals drive the next chapter in AI for businesses
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Real-time speech-to-speech translation
本記事では、リアルタイム音声から音声への翻訳(S2ST)モデルを紹介しています。このモデルは、元の話者の声でリアルタイム翻訳を実現し、わずか2秒の遅延でコミュニケーションを可能にします。従来のS2STシステムは4〜5秒の遅延があり、エラーが蓄積しやすく、個性が欠けていました。新しいエンドツーエンドのS2STモデルは、ストリーミングフレームワークを活用し、時間同期データでのトレーニングにより遅延を大幅に削減しています。また、スケーラブルなデータ取得パイプラインを導入し、より多くの言語に対応できるようにしています。この技術は、リアルタイムでの使用ケースにおいて効果を示しています。 • リアルタイム音声翻訳の遅延を2秒に短縮 • 従来のシステムの4〜5秒の遅延を解消 • エンドツーエンドのモデルにより個性を持った翻訳を実現 • スケーラブルなデータ取得パイプラインを構築 • 音声ストリーミングに特化した機械学習アーキテクチャを導入
At our Research@ Poland event we shared how AI is helping us solve big challenges.
From AI education to disaster response, see how collaboration is at the heart of the work at Google Research.
AntigravityはどういうAIエディタなのか
GoogleがGemini 3と同時にAntigravityという新たなAI コーディングエディタを発表しました。 Google AntigravityGoogle Antigravity - Build the new wayGoogle Antigravity 内部技術としては、Google製のChromiumとV8エンジンを内蔵したElectronというフレームワーク上で動くマイクロソフトのVS Codeフォークである Windsurfの内部のCodeiumエンジンのライセンスを取得したGoogleの独自アプリです(1周した!)。 ただし、表層の実装は魔改造Windsurf寄りでありつつも、プロダクト設計はKiroに近い方向へ振れており、AIエージェントを中心に据えたタスク指向・アーティファクト管理といった独自の抽象レイヤーが全面に押し出されています。 Antigravity の設計で興味深いのは、これが単なる VS Code系フォークではなく、SDD(Spec-Driven Development)的な中間生成物をどう扱うかという“コンテキスト・エンジニアリング”の思想