Last updated: 2025/08/10 22:01

新Codex CLIの使い方
GPT-5が2025年8月7日に正式リリースされました。これに合わせて、ChatGPTのサブスクリプションプラン(PlusやProなど)でOpenAIのCodex CLIが利用可能になりました。従来はCodexの利用はAPIによる従量課金制が中心でしたが、この変更によりサブスクリプション利用者は追加料金なしでCodex CLIを利用できるようになり、新規ユーザーが増えているようです。 Codex CLIの最初のバージョンは2025年4月に公開されましが、リサーチプレビュー段階のプロジェクトなので頻繁に変更があります。リリース1ヶ月後にはTypeScriptからRustにスクラッチで書き直され。しばらく2つのバージョンの開発が並行していました。現在はRust版がデフォルトになっています。 以下のような方におすすめです * リサーチプレビューに参加したい:このツールで開発がどの程度できそうか評価してフィードバックする * エージェント開発に関心がある:ソースコードがすべて公開されているので自分のプロジェクトの参考になります 以下のような方の期待には添えないでしょう * Cl
Quoting Ethan Mollick
The issue with GPT-5 in a nutshell is that unless you pay for model switching & know to use GPT-5 Thinking or Pro, when you ask “GPT-5” you sometimes get …

Cursor now supported on Vercel MCP
Connect Cursor to Vercel MCP to manage projects and deployments, analyze logs, search docs, and more

🤖 AI Agents Weekly: GPT-5, Genie 3, gpt-oss, Cursor CLI, Opus 4.1, Efficient AI Agents
GPT-5, Genie 3, gpt-oss, Cursor CLI, Opus 4.1, Efficient AI Agents
Quoting Thomas Dohmke
You know what else we noticed in the interviews? Developers rarely mentioned “time saved” as the core benefit of working in this new way with agents. They were all about …
When a Jira Ticket Can Steal Your Secrets
Zenity Labs describe a classic lethal trifecta attack, this time against Cursor, MCP, Jira and Zendesk. They also have a short video demonstrating the issue. Zendesk support emails are often …

My Lethal Trifecta talk at the Bay Area AI Security Meetup
I gave a talk on Wednesday at the Bay Area AI Security Meetup about prompt injection, the lethal trifecta and the challenges of securing systems that use MCP. It wasn’t …

AI エージェントがインタラクティブな UI を返すことを可能にする MCP UI
MCP UI は Model Context Protocol (MCP) を拡張して、AI エージェントがインタラクティブな UI コンポーネントを返すことを可能にする仕組みです。これにより、AI エージェントとのチャットの返答としてグラフや画像ギャラリー、購入フォームなどを表示できます。この記事では MCP UI の SDK を利用して、AI エージェントがインタラクティブな UI コンポーネントを返す方法を試してみます。
Quoting @pearlmania500
I have a toddler. My biggest concern is that he doesn't eat rocks off the ground and you're talking to me about ChatGPT psychosis? Why do we even have that? …
Quoting Sam Altman
GPT-5 rollout updates: We are going to double GPT-5 rate limits for ChatGPT Plus users as we finish rollout. We will let Plus users choose to continue to use 4o. …
The surprise deprecation of GPT-4o for ChatGPT consumers
I’ve been dipping into the r/ChatGPT subreddit recently to see how people are reacting to the GPT-5 launch, and so far the vibes there are not good. This AMA thread …
langchain-openai==0.3.29
この記事は、langchain-openaiライブラリのバージョン0.3.29のリリースに関する情報を提供しています。このリリースでは、コードベース全体のフォーマット修正や、いくつかのバグ修正が行われました。特に、gpt-5におけるget_num_tokens_from_messagesのクラッシュを防ぐ修正や、ChatOpenAIにmax_retriesパラメータを追加して503エラーの処理を改善する機能が含まれています。また、カスタムツールの追加や、ドキュメントの改善も行われています。これにより、開発者の体験が向上し、より安定した動作が期待されます。 • langchain-openaiライブラリのバージョン0.3.29がリリースされた • コードベース全体のフォーマット修正が行われた • gpt-5でのget_num_tokens_from_messagesのクラッシュを防ぐ修正が含まれている • ChatOpenAIにmax_retriesパラメータが追加され、503エラーの処理が改善された • カスタムツールの追加が行われた • ドキュメントの改善が行われ、開発者体験が向上した

We’re testing a new, AI-powered Google Finance.
Beginning this week, you'll see us testing a new Google Finance, reimagined with AI at its core. Here’s what to expect:Research your finance questions with AI: Now, you …

Introducing Authorization for Apollo MCP Server: Secure AI Access to Your GraphQL APIs
Unlock microservices potential with Apollo GraphQL. Seamlessly integrate APIs, manage data, and enhance performance. Explore Apollo's innovative solutions.

Introducing GPT-5
Introducing GPT-5, our best AI system yet! GPT-5 features state-of-the-art performance across coding, math, writing assistance, health, visual perception, and more. Use GPT-5 to build websites, create apps, and tap into its improved writing capabilities to help with everyday tasks like reports, emails, and editing. GPT-5 is also our best model yet for health-related questions, empowering users to be informed about and advocate for their health. GPT‑5 is rolling out to all users starting today.
1.0.16
この記事は、Chromaのバージョン1.0.16のリリースノートを提供しています。このリリースでは、いくつかの新機能やバグ修正が行われました。具体的には、Helmチャートにキャッシュマウントとトレランスを追加し、ドキュメントの誤字を修正しました。また、エラーハンドリングの改善や、ストレージAPIにdelete_many呼び出しを追加するなどの機能強化も含まれています。さらに、パフォーマンス向上のために、セグメントのプリフェッチやブロックの並列取得が実装されました。これにより、全体的な効率が向上し、ユーザー体験が改善されることが期待されます。 • Chromaのバージョン1.0.16がリリースされた。 • Helmチャートにキャッシュマウントとトレランスを追加。 • ストレージAPIにdelete_many呼び出しを追加。 • エラーハンドリングの改善が行われた。 • パフォーマンス向上のために、セグメントのプリフェッチやブロックの並列取得が実装された。
Mastra Changelog 2025-08-08
Breaking changes to Scorer API, critical fixes for message handling and parallel workflows, plus improvements to memory filtering and type safety across the board. Plus, we're announcing our first ever conference: TypeScript AI

Introducing AI Sheets: a tool to work with datasets using open AI models!
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Accelerate ND-Parallel: A Guide to Efficient Multi-GPU Training
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
cli-1.1.5
この記事は、GitHub上のchroma-coreリポジトリにおけるcli-1.1.5のリリースに関する情報を提供しています。このリリースは2022年8月7日に行われ、CLI(コマンドラインインターフェース)の最新バージョンが公開されました。リリースには、6つのアセットが含まれており、ユーザーはこれらをダウンロードして利用することができます。また、リリースはGitHubの検証済み署名で作成されており、セキュリティが確保されています。 • CLIの最新バージョンcli-1.1.5がリリースされた • リリース日は2022年8月7日 • 6つのアセットが含まれている • リリースはGitHubの検証済み署名で作成されている • ユーザーはアセットをダウンロードして利用可能
Release v3.25.10
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.10では、GPT-5のサポートが追加されました。このリリースには、XML例におけるパーサーエラーを防ぐためのCDATAセクションの使用に関する修正や、MCPエラー翻訳キーの追加も含まれています。これらの修正は、ユーザーからのフィードバックを受けて行われたもので、特に@hannesrudolphと@app/roomoteの貢献が挙げられています。 • GPT-5のサポートが追加された • XML例におけるパーサーエラーを防ぐための修正が行われた • MCPエラー翻訳キーが追加された • ユーザーからのフィードバックを基にした修正が含まれている • 特定の貢献者による修正が行われた
langchain-core==0.3.74
この記事は、Langchainのコアライブラリのバージョン0.3.74のリリースに関する情報を提供しています。このリリースは2023年8月7日に行われ、主な変更点としてOpenAIに関連するカスタムツールの機能が追加されました。これにより、ユーザーは特定のニーズに応じたツールを作成し、利用することが可能になります。リリースノートには、前のバージョン0.3.73からの変更点が記載されています。 • Langchainのコアライブラリのバージョン0.3.74がリリースされた。 • リリース日は2023年8月7日である。 • 主な新機能としてOpenAIに関連するカスタムツールが追加された。 • ユーザーは特定のニーズに応じたツールを作成できる。 • 前のバージョン0.3.73からの変更点が含まれている。
vLLM Beijing Meetup: Advancing Large-scale LLM Deployment
Advancing Low-Bit Operators in PyTorch and ExecuTorch: Dynamic Kernel Selection, KleidiAI, and Quantized Tied Embeddings

Previewing GPT-5 at OpenAI's office
A couple of weeks ago I was invited to OpenAI's headquarters for a "preview event", for which I had to sign both an NDA and a video release waiver. I …
0.6.4
この記事は、GitHub上のlangchain-ai/langgraphリポジトリのバージョン0.6.4のリリースノートを提供しています。このリリースでは、いくつかのバグ修正と機能改善が行われました。具体的には、条件付きエッジに関するmypyの問題の修正、メッセージモードが明示的に要求された場合にサブグラフからメッセージを発信する機能のサポート、更新されたチャンネルをチェックポイントに保存するパフォーマンス改善が含まれています。また、MessageGraphの非推奨化も行われています。 • バージョン0.6.4のリリースノート • mypyの条件付きエッジに関する問題を修正 • メッセージモードでサブグラフからメッセージを発信する機能をサポート • 更新されたチャンネルをチェックポイントに保存するパフォーマンス改善 • MessageGraphが非推奨となった
prebuilt==0.6.4
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるprebuilt==0.6.4のリリースに関する情報を提供しています。このリリースでは、いくつかの修正が行われています。具体的には、メッセージモードが明示的に要求された場合にサブグラフからメッセージを発信する機能のサポートが追加され、いくつかの非推奨のキーワード引数に対してエラーを発生させる修正が行われました。また、MessageGraphの非推奨化や、ツール引数の注入リファクタリングの元に戻す作業も含まれています。 • prebuilt==0.6.4のリリースに関する情報 • サブグラフからメッセージを発信する機能のサポート追加 • 非推奨のキーワード引数に対するエラー発生の修正 • MessageGraphの非推奨化 • ツール引数の注入リファクタリングの元に戻す作業

GPT-5: Key characteristics, pricing and model card
I’ve had preview access to the new GPT-5 model family for the past two weeks, and have been using GPT-5 as my daily-driver. It’s my new favorite model. It’s still …

GPT-5 まとめ

The DIVA logistics agent, powered by Amazon Bedrock
In this post, we discuss how DTDC and ShellKode used Amazon Bedrock to build DIVA 2.0, a generative AI-powered logistics agent.

Automate enterprise workflows by integrating Salesforce Agentforce with Amazon Bedrock Agents
This post explores a practical collaboration, integrating Salesforce Agentforce with Amazon Bedrock Agents and Amazon Redshift, to automate enterprise workflows.
Introducing Usage-Based Agent Credits
Starting August 14, AI Credits shift to usage-based pricing. Pay for tokens used, not messages sent. Credits roll over with caps.

The AI model Perch, updated today, uses audio to help protect endangered species.
Our Perch AI model helps conservationists analyze bioacoustic data to protect endangered species like birds and coral reefs.
How AI is helping advance the science of bioacoustics to save endangered species
Our new Perch model helps conservationists analyze audio faster to protect endangered species, from Hawaiian honeycreepers to coral reefs.
langchain-core==0.3.73
この記事は、langchain-coreのバージョン0.3.73のリリースに関するもので、主に新機能や修正点について説明しています。新機能としては、キャッシュヒット時のトークンコストをゼロにする機能が追加されました。また、リストをマージする際のインデックスチェックの修正や、Qwen3からのツール呼び出しストリーミングバグの修正が行われています。さらに、GenerationオブジェクトをChatGenerationオブジェクトに安全に変換することでキャッシュ検証エラーを解決しました。ドキュメントの改善や、Makefileターゲットの修正も含まれています。 • キャッシュヒット時のトークンコストをゼロにする機能の追加 • リストをマージする際のインデックスチェックの修正 • Qwen3からのツール呼び出しストリーミングバグの修正 • GenerationオブジェクトをChatGenerationオブジェクトに安全に変換することでキャッシュ検証エラーを解決 • ドキュメントの改善とMakefileターゲットの修正

The latest AI news we announced in July
Here are Google’s latest AI updates from July 2025
Release v3.25.9
RooCodeIncのRoo-Codeリポジトリのリリースv3.25.9では、いくつかの重要な修正と機能追加が行われた。最大トークンの丸めに関する問題が解決され、GLM-4.5およびOpenAIのgpt-ossモデルがFireworksプロバイダーでサポートされるようになった。また、拡張メニューのプラスボタンをクリックした際にチャット入力にフォーカスを当てることで、ユーザーエクスペリエンスが向上した。これらの変更は、開発者やユーザーにとって利便性を高めるものである。 • 最大トークンの丸めに関する問題を修正 • GLM-4.5およびOpenAI gpt-ossモデルのサポートを追加 • 拡張メニューのプラスボタンをクリック時にチャット入力にフォーカスを当てるUX改善 • 開発者やユーザーにとっての利便性向上

How Amazon Bedrock powers next-generation account planning at AWS
In this post, we share how we built Account Plan Pulse, a generative AI tool designed to streamline and enhance the account planning process, using Amazon Bedrock. Pulse reduces review time and provides actionable account plan summaries for ease of collaboration and consumption, helping AWS sales teams better serve our customers.

Vercel collaborates with OpenAI for GPT-5 launch
The GPT-5 family of models released today, are now available through AI Gateway and are in production on our own v0.dev applications. Thanks to OpenAI, Vercel has been testing these models for a few weeks in v0, Next.js, AI SDK, and Vercel Sandbox.

Introducing GPT-5
Join Sam Altman, Greg Brockman, Sebastien Bubeck, Mark Chen, Yann Dubois, Brian Fioca, Adi Ganesh, Oliver Godement, Saachi Jain, Christina Kaplan, Tina Kim, Elaine Ya Le, Felipe Millon, Michelle Pokrass, Jakub Pachocki, Max Schwarzer, Rennie Song, Ruochen Wang as they introduce and demo GPT-5.

Introducing GPT-5 for developers
The best model for coding and agentic tasks.

GPT-5 and the new era of work
GPT-5 is OpenAI’s most advanced model—transforming enterprise AI, automation, and workforce productivity in the new era of intelligent work.

Achieving 10,000x training data reduction with high-fidelity labels
Release v3.25.8
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.8では、いくつかのバグ修正と機能追加が行われた。主な修正点には、無効なMCPサーバーがプロセスを開始しないようにすること、コードベース検索ツールでの現在のディレクトリパスの正しい処理、OpenAIのベースURLからのホワイトスペースのトリミングが含まれる。また、Gemini 2.5 Proの最小思考予算を128に減少させる機能追加や、URL取得時のエラー処理の改善、ChatViewの仮想スクロール実装におけるメモリリークの解決も行われた。さらに、デフォルトモデルの最大トークン数をコンテキストウィンドウの20%に制限する機能も追加された。 • 無効なMCPサーバーがプロセスを開始しないように修正 • コードベース検索ツールでの現在のディレクトリパスの正しい処理 • OpenAIのベースURLからのホワイトスペースのトリミング • Gemini 2.5 Proの最小思考予算を128に減少 • URL取得時のエラー処理の改善 • ChatViewの仮想スクロール実装におけるメモリリークの解決 • デフォルトモデルの最大トークン数をコンテキストウィンドウの20%に制限

Vision Language Model Alignment in TRL ⚡️
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Delegate work to ChatGPT agent
See ChatGPT agent in action — researching, coding, and taking action online to complete an ecommerce business plan in minutes. In this demo, you’ll watch it: - Find ecommerce and health industry reports - Gather and organize data in a spreadsheet - Build charts and a customizable business plan calculator - Create a polished research report - Navigate websites, sign up for newsletters, and adapt steps automatically You’ll also see how to stay in control at any time — guiding, interrupting, or taking over tasks — and how ChatGPT agent decides the best tools to use for each step. Learn more | Help documentation: https://help.openai.com/en/articles/11752874-chatgpt-agent Try now | Get started with ChatGPT agent: https://bit.ly/4msnLyf With ChatGPT agent, you can hand off hours of work and come back to ready-to-review results — freeing up time for what matters most.

Pioneering AI workflows at scale: A deep dive into Asana AI Studio and Amazon Q index collaboration
Today, we’re excited to announce the integration of Asana AI Studio with Amazon Q index, bringing generative AI directly into your daily workflows. In this post, we explore how Asana AI Studio and Amazon Q index transform enterprise efficiency through intelligent workflow automation and enhanced data accessibility.

Insulin resistance prediction from wearables and routine blood biomarkers
Jules, our asynchronous coding agent, is now available for everyone
I wrote about the Jules beta back in May. Google's version of the OpenAI Codex PR-submitting hosted coding tool graduated from beta today. I'm mainly linking to this now because …

Responsible AI for the payments industry – Part 1
This post explores the unique challenges facing the payments industry in scaling AI adoption, the regulatory considerations that shape implementation decisions, and practical approaches to applying responsible AI principles. In Part 2, we provide practical implementation strategies to operationalize responsible AI within your payment systems.

Responsible AI for the payments industry – Part 2
In Part 1 of our series, we explored the foundational concepts of responsible AI in the payments industry. In this post, we discuss the practical implementation of responsible AI frameworks.

Process multi-page documents with human review using Amazon Bedrock Data Automation and Amazon SageMaker AI
In this post, we show how to process multi-page documents with a human review loop using Amazon Bedrock Data Automation and Amazon SageMaker AI.
PyTorch 2.8 Release Blog

Introducing Open SWE: An Open-Source Asynchronous Coding Agent
The use of AI in software engineering has evolved over the past two years. It started as autocomplete, then went to a copilot in an IDE, and in the fast few months has evolved to be a long running, more end-to-end agent that run asynchronously in the cloud. We believe
Qwen3-4B Instruct and Thinking
Yet another interesting model from Qwen - these are tiny compared to their other recent releases (just 4B parameters, 7.5GB on Hugging Face and even smaller when quantized) but with …

Highly accurate genome polishing with DeepPolisher: Enhancing the foundation of genomic research

New Gemini app tools to help students learn, understand and study even better
Try these new tools to learn, study and understand complex topics even better.

Introducing AI Elements: build AI interfaces faster
Focus on your AI’s intelligence, not the UI scaffolding. AI Elements is now available as a new Vercel product to help frontend engineers build AI-driven interfaces in a fraction of the time.

Introducing Vercel MCP: Connect Vercel to your AI tools
Vercel now has an official hosted MCP server (aka Vercel MCP), which you can use to connect your favorite AI tools, such as Claude or VS Code, directly to Vercel.
Quoting Artificial Analysis
gpt-oss-120b is the most intelligent American open weights model, comes behind DeepSeek R1 and Qwen3 235B in intelligence but offers efficiency benefits [...] We’re seeing the 120B beat o3-mini but …
2025-08-05
この記事は、Mastraの2025年8月5日のリリースに関するもので、主に新機能や修正点について説明しています。リリースでは、Google Geminiモデルの更新、エージェントのトレースロギング機能の改善、TypeScript宣言ファイルの生成に関するユーティリティの統一、メッセージの重複排除を含むメッセージリスト変換機能の改良が行われました。また、PostgreSQLからのデータベース行の取得に関する問題を修正し、LodashのCommonJSインポートの問題を解決するためのプラグインが追加されました。さらに、Mastraのバンドラー設定にカスタムトランスパイルオプションが追加され、ユーザーが現在のコンテンツをプレビューできるボタンも実装されました。これらの変更により、開発者はより効率的に作業できるようになります。 • Google Geminiモデルの更新により、オンボーディングの問題が解決された。 • エージェントのトレースロギング機能が改善された。 • TypeScript宣言ファイルの生成に関するユーティリティが統一され、ESM互換性が向上した。 • メッセージリスト変換機能に重複排除が追加され、テストも実施された。 • PostgreSQLからのデータ取得に関する問題が修正された。 • LodashのCommonJSインポート問題が解決され、ユーザーは手動でのインストールなしに依存関係を利用できる。 • Mastraのバンドラー設定にカスタムトランスパイルオプションが追加された。 • ユーザーがコンテンツをプレビューできるボタンが実装された。

Build an AI assistant using Amazon Q Business with Amazon S3 clickable URLs
In this post, we demonstrate how to build an AI assistant using Amazon Q Business that responds to user requests based on your enterprise documents stored in an S3 bucket, and how the users can use the reference URLs in the AI assistant responses to view or download the referred documents, and verify the AI responses to practice responsible AI.

Meet your new AI coding teammate: Gemini CLI GitHub Actions
Today, we’re introducing Gemini CLI GitHub Actions. It’s a no-cost, powerful AI coding teammate for your repository. It acts both as an autonomous agent for critical rou…
No, AI is not Making Engineers 10x as Productive
Colton Voege on "curing your AI 10x engineer imposter syndrome". There's a lot of rhetoric out there suggesting that if you can't 10x your productivity through tricks like running a …
Introducing Scorers in Mastra
We're excited to announce the release of scorers in Mastra, a new way to evaluate and rank the quality of your agent's responses.
Providing ChatGPT to the Entire U.S. Federal Workforce

GPT OSS models from OpenAI are now available on SageMaker JumpStart
Today, we are excited to announce the availability of Open AI’s new open weight GPT OSS models, gpt-oss-120b and gpt-oss-20b, from OpenAI in Amazon SageMaker JumpStart. With this launch, you can now deploy OpenAI’s newest reasoning models to build, experiment, and responsibly scale your generative AI ideas on AWS. In this post, we demonstrate how to get started with these models on SageMaker JumpStart.

OpenAI's new open weight (Apache 2) models are really good
The long promised OpenAI open weight models are here, and they are very impressive. They’re available under proper open source licenses—Apache 2.0—and come in two sizes, 120B and 20B. OpenAI’s …
langchain==0.4.0.dev0
この記事は、Langchainのバージョン0.4.0.dev0のリリースに関するもので、主に新機能や修正点について説明しています。新たに標準出力機能が追加され、Googleモデル名の更新や、サポートされていないモデルの参照が削除されました。また、インデックス内の重複を追跡する機能や、ドキュメントのフォーマット修正も行われています。さらに、開発者体験を向上させるためのドキュメント改善やMakefileターゲットの修正も含まれています。これらの変更は、Langchainの機能性と使いやすさを向上させることを目的としています。 • 新機能として標準出力機能が追加された • Googleモデル名の更新が行われた • サポートされていないモデルの参照が削除された • インデックス内の重複を追跡する機能が追加された • ドキュメントのフォーマット修正が行われた • 開発者体験を向上させるためのドキュメント改善が行われた
langchain-openai==0.4.0.dev0
この記事は、langchain-openaiのバージョン0.4.0.dev0のリリースに関するもので、GitHub上での変更点や新機能について説明しています。主な変更点には、標準出力の追加、OpenAI SDKのバージョンアップ、ChatOpenAIにmax_retriesパラメータを追加して503エラーの処理を改善したことが含まれます。また、ドキュメントの改善やUnicodeレスポンスの問題修正も行われています。これにより、開発者の体験が向上し、より安定した動作が期待されます。 • langchain-openaiのバージョン0.4.0.dev0がリリースされた • 標準出力の追加により、出力形式が改善された • OpenAI SDKのバージョンが更新された • ChatOpenAIにmax_retriesパラメータが追加され、503エラーの処理が改善された • ドキュメントが改善され、具体的な例が追加された
langchain-core==0.4.0.dev0
この記事は、Langchainのコアライブラリのバージョン0.4.0.dev0のリリースに関するもので、主にいくつかの新機能とバグ修正が含まれています。新機能としては、標準出力の追加があり、バグ修正では、Qwen3からのツール呼び出しのストリーミングバグの修正や、GenerationオブジェクトをChatGenerationオブジェクトに安全に変換することでキャッシュ検証エラーを解決しています。また、Pydanticスキーマ内のネストされたフィールドに対するテストの追加や、ドキュメントの改善も行われています。これにより、開発者体験が向上し、より安定した動作が期待されます。 • 新機能として標準出力が追加された • Qwen3からのツール呼び出しのストリーミングバグが修正された • GenerationオブジェクトをChatGenerationオブジェクトに変換することでキャッシュ検証エラーが解決された • Pydanticスキーマ内のネストされたフィールドに対するテストが追加された • ドキュメントの改善が行われ、開発者体験が向上した
langchain-groq==0.3.7
この記事は、langchain-groqのバージョン0.3.7のリリースに関するもので、主に以下の変更点が含まれています。まず、reasoning_effortの制限が緩和され、メタに努力を注入する機能が追加されました。また、openai-ossに関する新機能も導入されています。ドキュメントに関しては、フォーマットの問題が修正され、開発者体験が向上するように改善が行われました。さらに、Unicodeのレスポンスに関する問題も修正され、ドキュメントのキャピタリゼーションやコードブロックのフォーマット、ハイパーリンクの修正も行われています。最後に、extra_bodyに関する包括的なドキュメントと例が追加されました。 • reasoning_effortの制限が緩和された • メタに努力を注入する機能が追加された • openai-ossに関する新機能が導入された • ドキュメントのフォーマット問題が修正された • Unicodeレスポンスに関する問題が修正された • 開発者体験が向上するように改善された • extra_bodyに関する包括的なドキュメントと例が追加された
Release v3.25.7
RooCodeIncのRoo-Codeのリリースv3.25.7では、Claude Opus 4.1のサポートが追加され、Fireworks AIプロバイダーやZ AIプロバイダーが新たに導入されました。また、GPT-OSSに対するGroqおよびCerebrasのサポートも追加され、複数フォルダーのコードインデックス作成が可能になりました。ユーザーインターフェースの改善として、モード選択のドロップダウンがレスポンシブになり、タスクヘッダーとタスク履歴が再設計されました。さらに、チェックポイントのタイミング修正や空のモード名の保存防止、MCPサーバー作成の不具合修正なども行われました。 • Claude Opus 4.1のサポート追加 • Fireworks AIプロバイダーとZ AIプロバイダーの導入 • GPT-OSSに対するGroqおよびCerebrasのサポート追加 • 複数フォルダーのコードインデックス作成機能の追加 • モード選択ドロップダウンのレスポンシブ化 • タスクヘッダーとタスク履歴の再設計 • チェックポイントのタイミング修正 • 空のモード名の保存防止 • MCPサーバー作成の不具合修正

Claude Opus 4.1
Surprise new model from Anthropic today - Claude Opus 4.1, which they describe as "a drop-in replacement for Opus 4". My favorite thing about this model is the version number …

Discover insights from Microsoft Exchange with the Microsoft Exchange connector for Amazon Q Business
Amazon Q Business is a fully managed, generative AI-powered assistant that helps enterprises unlock the value of their data and knowledge. With Amazon Q Business, you can quickly find answers to questions, generate summaries and content, and complete tasks by using the information and expertise stored across your company’s various data sources and enterprise systems. […]
Newsroom
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
v4.55.0: New openai GPT OSS model!
OpenAIが新たにリリースしたGPT OSSモデルファミリーは、117Bパラメータの大規模モデル(gpt-oss-120b)と21Bパラメータの小規模モデル(gpt-oss-20b)から構成されており、強力な推論能力と多様な開発者ユースケースに対応しています。両モデルはMixture-of-Experts(MoE)アーキテクチャを採用し、4ビット量子化スキーム(MXFP4)を使用することで、高速な推論を実現しつつリソース使用を抑えています。大規模モデルは単一のH100 GPUに収まり、小規模モデルは16GBのメモリ内で動作可能で、消費者ハードウェアやオンデバイスアプリケーションに最適です。推論実装にはtransformers、vLLM、llama.cpp、ollamaが推奨されており、APIを介した応答が推奨されています。ライセンスはApache 2.0で、補完的な使用ポリシーが適用されます。 • OpenAIが新たにリリースしたGPT OSSモデルファミリーには117Bと21Bの2つのモデルがある。 • 両モデルはMixture-of-Experts(MoE)アーキテクチャを採用し、4ビット量子化スキームを使用している。 • 大規模モデルはH100 GPUに収まり、小規模モデルは16GBのメモリで動作可能。 • 推論実装にはtransformers、vLLM、llama.cpp、ollamaが推奨されている。 • ライセンスはApache 2.0で、補完的な使用ポリシーがある。
Genie 3: A new frontier for world models
Today we are announcing Genie 3, a general purpose world model that can generate an unprecedented diversity of interactive environments. Given a text prompt, Genie 3 can generate dynamic worlds...

Claude 4.1 Opus is now supported in Vercel AI Gateway
You can now access Claude Opus 4.1, a new model released by Anthropic today, using Vercel's AI Gateway with no other provider accounts required.

gpt-oss-20b and gpt-oss-120b are now supported in Vercel AI Gateway
You can now access gpt-oss by OpenAI, an open-weight reasoning model designed to push the open model frontier, using Vercel's AI Gateway with no other provider accounts required.
Quoting greyduet on r/teachers
I teach HS Science in the south. I can only speak for my district, but a few teacher work days in the wave of enthusiasm I'm seeing for AI tools …

Welcome GPT OSS, the new open-source model family from OpenAI!
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Estimating worst case frontier risks of open weight LLMs
In this paper, we study the worst-case frontier risks of releasing gpt-oss. We introduce malicious fine-tuning (MFT), where we attempt to elicit maximum capabilities by fine-tuning gpt-oss to be as capable as possible in two domains: biology and cybersecurity.

Open Weights and AI for All
AI’s next frontier isn’t just about capability—it’s about who gets to use it. Our mission to put AI in the hands of as many people as possible is what drives us. Today’s release of our most capable open-weights models is a major step forward that makes advanced AI more open, flexible, and accessible worldwide.

gpt-oss-120b & gpt-oss-20b Model Card
We introduce gpt-oss-120b and gpt-oss-20b, two open-weight reasoning models available under the Apache 2.0 license and our gpt-oss usage policy.

Introducing gpt-oss
gpt-oss-120b and gpt-oss-20b push the frontier of open-weight reasoning models

ChatGPT agent's user-agent
I was exploring how ChatGPT agent works today. I learned some interesting things about how it exposes its identity through HTTP headers, then made a huge blunder in thinking it …

Usage charts for my LLM tool against OpenRouter
OpenRouter proxies requests to a large number of different LLMs and provides high level statistics of which models are the most popular among their users. Tools that call OpenRouter can …

Qwen-Image: Crafting with Native Text Rendering
Not content with releasing six excellent open weights LLMs in July, Qwen are kicking off August with their first ever image generation model. Qwen-Image is a 20 billion parameter MMDiT …

How we’re using AI to help track and predict cyclones
We’re partnering with the National Hurricane Center, supporting their forecasts and warnings this cyclone season.

AI judging AI: Scaling unstructured text analysis with Amazon Nova
In this post, we highlight how you can deploy multiple generative AI models in Amazon Bedrock to instruct an LLM model to create thematic summaries of text responses. We then show how to use multiple LLM models as a jury to review these LLM-generated summaries and assign a rating to judge the content alignment between the summary title and summary description.

Building an AI-driven course content generation system using Amazon Bedrock
In this post, we explore each component in detail, along with the technical implementation of the two core modules: course outline generation and course content generation.

How Handmade.com modernizes product image and description handling with Amazon Bedrock and Amazon OpenSearch Service
In this post, we explore how Handmade.com, a leading hand-crafts marketplace, modernized their product description handling by implementing an AI-driven pipeline using Amazon Bedrock and Amazon OpenSearch Service. The solution combines Anthropic's Claude 3.7 Sonnet LLM for generating descriptions, Amazon Titan Text Embeddings V2 for vector embedding, and semantic search capabilities to automate and enhance product descriptions across their catalog of over 60,000 items.

Cost tracking multi-tenant model inference on Amazon Bedrock
In this post, we demonstrate how to track and analyze multi-tenant model inference costs on Amazon Bedrock using the Converse API's requestMetadata parameter. The solution includes an ETL pipeline using AWS Glue and Amazon QuickSight dashboards to visualize usage patterns, token consumption, and cost allocation across different tenants and departments.

Quoting @himbodhisattva
for services that wrap GPT-3, is it possible to do the equivalent of sql injection? like, a prompt-injection attack? make it think it's completed the task and then get access …
I Saved a PNG Image To A Bird
Benn Jordan provides one of the all time great YouTube video titles, and it's justified. He drew an image in an audio spectrogram, played that sound to a talented starling …

Rethinking how we measure AI intelligence
Kaggle Game Arena is a new platform where AI models compete head-to-head in complex strategic games.

Rethinking how we measure AI intelligence
Kaggle Game Arena is a new platform where AI models compete head-to-head in complex strategic games.
Quoting Nick Turley
This week, ChatGPT is on track to reach 700M weekly active users — up from 500M at the end of March and 4× since last year.

LLMs are facing a QA crisis: Here’s how we could solve it
Discover how LLM QA isn’t just a tooling gap — it’s a fundamental shift in how we think about software reliability.

v0: vibe coding, securely
Vibe coding makes it possible for anyone to ship a viral app. But every line of AI-generated code is a potential vulnerability. Security cannot be an afterthought, it must be the foundation. Turn ideas into secure apps with v0.
What we’re optimizing ChatGPT for

XBai o4
Yet another open source (Apache 2.0) LLM from a Chinese AI lab. This model card claims: XBai o4 excels in complex reasoning capabilities and has now completely surpassed OpenAI-o3-mini in …

🥇Top AI Papers of the Week
The Top AI Papers of the Week (July 28 - August 3)

次期GPT系モデルかもしれない「Horizon Beta」のコーディング性能を検証する
2025年7月30日、OpenRouter上に「Horizon Alpha」という詳細不明のステルスモデルが登場しました。その後「Horizon Beta」という名前に置き換わりました。このモデルは、OpenAIの次期モデルのテスト用ではないか?と注目を集めています。今回は、このモデルの性能をコーディングタスクで検証しました。 https://openrouter.ai/openrouter/horizon-beta 特徴 * コンテキストウィンドウ: 256K(GPT-4.1の1M、o3/o4-miniの200Kと比較して中規模) * スループット: 126.9 tps(Sonnet 4の64.50 tpsの約2倍。コーディング時に体感で早い) * Reasoning機構: なし 本当にOpenAI系のモデルなのか? OpenAI系のモデルである可能性が議論されています。過去にもQuasar Alpha/Optimus AlphaがGPT-4.1リリース前に登場した経緯があり、今回も同様のパターンかもしれません。 直系のGPT-5ならコンテキストウィンドウは1M
0.6.3
この記事は、GitHub上のlangchain-ai/langgraphリポジトリのバージョン0.6.3のリリースノートについて説明しています。このリリースでは、AgentStateの整理、誤ったノードシグネチャに関する警告の追加、非推奨警告の修正、invokeおよびainvokeのための耐久性モードの追加、実行可能な例のためのインポートの追加、重複した設定確認呼び出しの削除などが行われました。これにより、ユーザーはより安定した機能を利用できるようになります。 • AgentStateの整理が行われた • 誤ったノードシグネチャに対する警告が追加された • 非推奨警告が修正された • invokeおよびainvokeの耐久性モードが追加された • 実行可能な例のために不足していたインポートが追加された • 重複した設定確認呼び出しが削除された
prebuilt==0.6.3
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるprebuilt==0.6.3のリリースに関する情報を提供しています。このリリースは2023年8月3日に行われ、主な変更点としてAgentStateの整理や、create_react_agentにおけるモデルのサポートされる入力タイプの追加が含まれています。また、前のバージョンであるprebuilt==0.6.2からの変更点も言及されています。 • リリース日: 2023年8月3日 • 主な変更点: AgentStateの整理 • create_react_agentにおけるモデルのサポートされる入力タイプの追加 • 前のバージョンからの変更点が含まれている

コーディングのための LLM モデル Qwen3-Coder を試してみた
Alibaba が開発した Qwen3-Coder を使用したコーディングエージェント Qwen Code を試してみた記事です。OpenRouter 経由での認証設定、コードベースの調査、リファクタリング、テストコード生成などの実際の使用例を紹介しています。

🤖 AI Agents Weekly: GLM-4.5, AI SDK 5, Video Overviews, ChatGPT Study Mode, Context engineering Tips, AlphaEarth Foundations
GLM-4.5, AI SDK 5, Video Overviews, ChatGPT Study Mode, Context engineering Tips, AlphaEarth Foundations

Serena MCPはClaude Codeを救うのか?
「Claude Codeがアホになる問題」が勃発している最中、SerenaというMCPサーバーが「Claude Codeのコンテキスト消費を削減し、応答を改善する」という評価でユーザーたちの間で注目されています。 筆者も実際にSerenaを使ってみたところ、確かにコンテキスト効率の改善(入出力トークンの減少を指します)を実感できました。詳しく調べてみると、このツールは非常にユニークな発想で設計されており、一過性の流行として消費されるには惜しいと感じました。 そこで、本記事では、この機能の背景にある技術的な仕組みを詳しく解説したいと思います。実際の検証も交えながら、Serenaのアーキテクチャとその効果を分析していきます。 現在のコーディングエージェントが抱える課題 現在のコーディングエージェントの多くは、コードを単なるテキストファイルとして扱って逐次的な処理をしています。この根本的なアプローチが、制約を生み出しています。 大規模なプロジェクトで作業する際、エージェントは必要な情報を見つけるために膨大なテキストを読み込まなければなりません。関数の定義を探すだけでも、リポジトリ
Release v3.25.6
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.6では、OpenRouter用のhorizon-betaモデルの最大トークン数が32kに設定され、クラウドからのプロバイダープロファイルの同期がサポートされるようになった。このリリースは2025年8月1日に行われ、@hannesrudolphのリクエストに基づいており、@app/roomoteによってプルリクエストが作成された。 • OpenRouter用のhorizon-betaモデルの最大トークン数が32kに設定された • クラウドからのプロバイダープロファイルの同期がサポートされた • リリースは2025年8月1日に行われた • リクエストは@hannesrudolphによるもので、プルリクエストは@app/roomoteが作成した
Faster inference
Two interesting examples of inference speed as a flagship feature of LLM services today. First, Cerebras announced two new monthly plans for their extremely high speed hosted model service: Cerebras …
Release v3.25.5
RooCodeIncのRoo-Codeリポジトリのリリースv3.25.5では、いくつかのバグ修正と新機能が追加されました。主な修正点には、Claude Code ENOENTエラー処理の改善、LM Studioモデルのコンテキスト長の修正、VB.NETのインデックス処理のためのフォールバックチャンクシステムの実装が含まれています。また、自動承認コスト制限の追加や、Cerebrasをプロバイダーとして追加し、CerebrasからQwen 3 Coderを追加しました。Qdrantの削除エラー処理の改善や、保存ボタンをクリックした際のメッセージ送信の復元、ローカルファイルのREADME.mdに対するリンターの適用の修正も行われました。さらに、コマンドのバリエーションの処理や、検索/置換のマッチングの改善が行われ、ユーザーインターフェースのクリーンアップも実施されました。 • Claude Code ENOENTエラー処理の改善 • LM Studioモデルのコンテキスト長の修正 • VB.NETのインデックス処理のためのフォールバックチャンクシステムの実装 • 自動承認コスト制限の追加 • Cerebrasをプロバイダーとして追加し、Qwen 3 Coderを追加 • Qdrantの削除エラー処理の改善 • 保存ボタンをクリックした際のメッセージ送信の復元 • ローカルファイルのREADME.mdに対するリンターの適用の修正 • コマンドのバリエーションの処理の改善 • 検索/置換のマッチングの改善

Introducing Amazon Bedrock AgentCore Browser Tool
In this post, we introduce the newly announced Amazon Bedrock AgentCore Browser Tool. We explore why organizations need cloud-based browser automation and the limitations it addresses for FMs that require real-time data access. We talk about key use cases and the core capabilities of the AgentCore Browser Tool. We walk through how to get started with the tool.

Introducing the Amazon Bedrock AgentCore Code Interpreter
In this post, we introduce the Amazon Bedrock AgentCore Code Interpreter, a fully managed service that enables AI agents to securely execute code in isolated sandbox environments. We discuss how the AgentCore Code Interpreter helps solve challenges around security, scalability, and infrastructure management when deploying AI agents that need computational capabilities.

Deep Think in the Gemini app
Google released Gemini 2.5 Deep Think this morning, exclusively to their Ultra ($250/month) subscribers: It is a variation of the model that recently achieved the gold-medal standard at this year's …

Observing and evaluating AI agentic workflows with Strands Agents SDK and Arize AX
In this post, we present how the Arize AX service can trace and evaluate AI agent tasks initiated through Strands Agents, helping validate the correctness and trustworthiness of agentic workflows.
July newsletter for sponors is out
This morning I sent out the third edition of my LLM digest newsletter for my $10/month and higher sponsors on GitHub. It included the following section headers: Claude Code Model …

Building AIOps with Amazon Q Developer CLI and MCP Server
In this post, we discuss how to implement a low-code no-code AIOps solution that helps organizations monitor, identify, and troubleshoot operational events while maintaining their security posture. We show how these technologies work together to automate repetitive tasks, streamline incident response, and enhance operational efficiency across your organization.

Containerize legacy Spring Boot application using Amazon Q Developer CLI and MCP server
In this post, you’ll learn how you can use Amazon Q Developer command line interface (CLI) with Model Context Protocol (MCP) servers integration to modernize a legacy Java Spring Boot application running on premises and then migrate it to Amazon Web Services (AWS) by deploying it on Amazon Elastic Kubernetes Service (Amazon EKS).
Quoting Logan Kilpatrick
Gemini Deep Think, our SOTA model with parallel thinking that won the IMO Gold Medal 🥇, is now available in the Gemini App for Ultra subscribers!! [...] Quick correction: this …

Try Deep Think in the Gemini app
Deep Think utilizes extended, parallel thinking and novel reinforcement learning techniques for significantly improved problem-solving.

MLE-STAR: A state-of-the-art machine learning engineering agents

Figma uses AI to transform digital design
A conversation with David Kossnick, Head of AI Products at Figma.

Reverse engineering some updates to Claude
Anthropic released two major new features for their consumer-facing Claude apps in the past couple of days. Sadly, they don’t do a very good job of updating the release notes …
Quoting Christina Wodtke
The old timers who built the early web are coding with AI like it's 1995. Think about it: They gave blockchain the sniff test and walked away. Ignored crypto (and …
More model releases on 31st July
Here are a few more model releases from today, to round out a very busy July: Cohere released Command A Vision, their first multi-modal (image input) LLM. Like their others …
v0.17.4 Patch Release
DeepSpeedのv0.17.4パッチリリースでは、いくつかの重要な変更が行われました。主な変更点には、バージョン情報の更新、UnboundLocalErrorの修正、TiledFusedLogitsLossの追加、及びそのバグ修正が含まれています。これにより、DeepSpeedの機能が向上し、ユーザーにとっての利便性が増すことが期待されます。新たに貢献した開発者もおり、コミュニティの活性化が見られます。 • DeepSpeedのバージョンがv0.17.4に更新された。 • UnboundLocalErrorの修正が行われた。 • TiledFusedLogitsLossが新たに追加された。 • TiledFusedLogitsLossに関するバグが修正された。 • 新しい貢献者がプロジェクトに参加した。

Claude for Financial Services Keynote
Visit anthropic.com/solutions/financial-services to learn more about Claude's finance-specific capabilities. Hear directly from Anthropic executives and industry leaders at Claude for Financial Services, where Anthropic leadership and senior financial executives discussed the future of AI in the financial services industry on July 15, 2025 in New York City, USA.

Trying out Qwen3 Coder Flash using LM Studio and Open WebUI and LLM
Qwen just released their sixth model(!) for this July called Qwen3-Coder-30B-A3B-Instruct—listed as Qwen3-Coder-Flash in their chat.qwen.ai interface. It’s 30.5B total parameters with 3.3B active at any one time. This means …
@browserbasehq/[email protected]
この記事は、GitHub上で公開された@browserbasehq/stagehandのバージョン2.4.2のリリースノートを提供しています。このリリースには、いくつかのパッチ変更が含まれており、特に型安全性の向上やAPIのタブ処理の修正、XPathを用いた要素の削除、カスタムクライアントのシリアライズエラーの一時的なパッチなどが行われています。また、APIにデバッグ用のSDKバージョン番号を渡す機能や、JSクリックのタイムアウトの追加、ネストされたiframeのXPathバグの修正も含まれています。これらの変更は、開発者がより安全で効率的に作業できるようにすることを目的としています。 • 型安全性の向上が行われた • APIのタブ処理が修正された • XPathを用いた要素の削除が実装された • カスタムクライアントのシリアライズエラーに対する一時的なパッチが適用された • APIにデバッグ用のSDKバージョン番号を渡す機能が追加された • JSクリックのタイムアウトが追加された • ネストされたiframeのXPathバグが修正された

Building AI agents with Claude in Amazon Bedrock
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Du'An Lightfoot, Senior Developer Advocate @ AWS Suman Debnath, Principal Developer Advocate @ AWS Banjo Obayami, Senior Solutions Architect @ AWS

Building AI agents with Claude in Google Cloud's Vertex AI
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Ivan Nardini, Developer Relations Engineer, AI/ML, Google Cloud

Building headless automation with Claude Code
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Sid Bidasaria, Member of Technical Staff @anthropic-ai

Bringing new tool use advancements to life: Claude Plays Pokemon
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speaker: David Hershey, Member of Technical Staff @anthropic-ai

Claude Code best practices
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Cal Rueb, Member of Technical Staff at @anthropic-ai

MCP 201: The power of protocol
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: David Soria Parra, Member of Technical Staff at @anthropic-ai

MCP at Sourcegraph
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Beyang Liu, Cofounder and CTO at @Sourcegraph

Prompting 101
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Hannah Moran, Applied AI at @anthropic-ai Christian Ryan, Applied AI at @anthropic-ai

Prompting for Agents
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Hannah Moran, Applied AI at @anthropic-ai Jeremy Hadfield, Applied AI Product Engineer at @anthropic-ai

Spotlight on Canva: Empowering the world to design with code
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Danny Wu, Head of AI Products at @canva

Spotlight on Databricks: Driving data intelligence with AI
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Craig Wiley, Sr. Director of Product for AI/ML at @Databricks

Spotlight on Manus
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Tao Zhang, Head of Product at Manus

Spotlight on Shopify
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Obie Fernandez, Principal Engineer at @shopify

Startup Innovation: How startups power new products with Claude
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Jordan Garcia, Head of AI Engineering, Gamma App Dhruv Amin, Co-Founder and CEO, Create Amar Goel, Co-Founder and CEO, Bito Kevin Michael, Co-Founder and CEO, Tempo Labs Andrew Filev, Founder & CEO, Zencoder Hayk Martiros, Co-Founder and CTO, Riffusion

Student Innovation: How students build with Claude
Presented at Code w/ Claude by @anthropic-ai on May 22, 2025 in San Francisco, CA, USA. Speakers: Isobel Porteus, Student, Stanford Mason Arditi, Student, UC Berkeley Rohil Agarwal, Student, UC Berkeley Daniel Gao, Student, USC

Introducing AWS Batch Support for Amazon SageMaker Training jobs
AWS Batch now seamlessly integrates with Amazon SageMaker Training jobs. In this post, we discuss the benefits of managing and prioritizing ML training jobs to use hardware efficiently for your business. We also walk you through how to get started using this new capability and share suggested best practices, including the use of SageMaker training plans.

Windsurf vs. Cursor: When to choose the challenger
Explore Windsurf AI’s Cascade agent, IDE integration, pricing, and how it stacks up against Cursor in this hands-on developer-focused comparison.

Structured outputs with Amazon Nova: A guide for builders
We launched constrained decoding to provide reliability when using tools for structured outputs. Now, tools can be used with Amazon Nova foundation models (FMs) to extract data based on complex schemas, reducing tool use errors by over 95%. In this post, we explore how you can use Amazon Nova FMs for structured output use cases.

AI agents unifying structured and unstructured data: Transforming support analytics and beyond with Amazon Q Plugins
Learn how to enhance Amazon Q with custom plugins to combine semantic search capabilities with precise analytics for AWS Support data. This solution enables more accurate answers to analytical questions by integrating structured data querying with RAG architecture, allowing teams to transform raw support cases and health events into actionable insights. Discover how this enhanced architecture delivers exact numerical analysis while maintaining natural language interactions for improved operational decision-making.

Amazon Strands Agents SDK: A technical deep dive into agent architectures and observability
In this post, we first introduce the Strands Agents SDK and its core features. Then we explore how it integrates with AWS environments for secure, scalable deployments, and how it provides rich observability for production use. Finally, we discuss practical use cases, and present a step-by-step example to illustrate Strands in action.

Build dynamic web research agents with the Strands Agents SDK and Tavily
In this post, we introduce how to combine Strands Agents with Tavily’s purpose-built web intelligence API, to create powerful research agents that excel at complex information gathering tasks while maintaining the security and compliance standards required for enterprise deployment.
0.51.0 - 2025-07-31
この記事は、OpenHandsのバージョン0.51.0のリリースノートを提供しています。このリリースでは、CLIに対するMCPサポートの追加、リゾルバのサマリー生成の改善、Gitの変更検出の最適化が行われました。また、エージェントが毎分のレート制限エラーで停止する問題の修正や、CLIモードにおける設定の優先順位の修正も含まれています。さらに、エージェントが停止した際にターミナルやVSCodeなどで「Waiting for runtime to start...」と表示される問題も解決されました。新しい貢献者も2名加わっています。 • CLIにMCPサポートを追加 • リゾルバのサマリー生成を改善し、重複情報を防止 • Gitの変更検出を最適化し、パフォーマンスを向上 • 毎分のレート制限エラーによるエージェント停止の問題を修正 • CLIモードにおける設定の優先順位を修正 • エージェント停止時の表示問題を解決 • 新しい貢献者が2名加わった

AI SDK 5
Introducing type-safe chat, agentic loop control, new specification, tool enhancements, speech generation, and more.

Claude Codeがアホになる問題
最近一部のClaude Codeユーザーの間で「性能が急激に劣化している」という報告が多発しています。具体的には、指示の内容を忘れて見当違いの作業をするというもので「これはClaude Codeのコンテキスト処理の問題ではないか?」と憶測を呼んでいます。 ※この話題はバージョン1.0.63時点のものです。 「バージョン1.0.24に固定せよ」 この問題に対して、ユーザーからの報告と対処法が以下で擬音されています。 Critical: Claude Code context amnesia causes silent code deletion · Issue #4487 · anthropics/claude-codeEnvironment Platform: Claude Code CLI Claude CLI version: 1.0.61 Operating System: macOS 15.5 (Build 24F74) Terminal: Terminal App
Release v3.25.4
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.4では、いくつかの新機能と修正が追加されました。新たにSambaNovaプロバイダーとDoubaoプロバイダーの統合が行われ、OpenRouter用のhorizon-alphaモデルの最大トークン数が32kに設定されました。また、Chutes AIプロバイダーにzai-org/GLM-4.5-FP8モデルが追加され、AGENTS.mdファイルの読み込みにシンボリックリンクのサポートが追加されました。プロンプトの強化にタスク履歴コンテキストをオプションで追加する機能も実装され、いくつかのバグ修正も行われました。特に、mammothとbluebirdの依存関係を更新することでnavigatorグローバルエラーが解決されました。 • SambaNovaプロバイダーとDoubaoプロバイダーの統合が追加された。 • OpenRouter用のhorizon-alphaモデルの最大トークン数が32kに設定された。 • Chutes AIプロバイダーにzai-org/GLM-4.5-FP8モデルが追加された。 • AGENTS.mdファイルの読み込みにシンボリックリンクのサポートが追加された。 • プロンプト強化にタスク履歴コンテキストをオプションで追加する機能が実装された。 • mammothとbluebirdの依存関係を更新し、navigatorグローバルエラーを解決した。

Ollama's new app
Ollama has been one of my favorite ways to run local models for a while - it makes it really easy to download models, and it's smart about keeping them …

Build an AI Shopping Assistant with Gradio MCP Servers
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

GLM-4.5 Meets SGLang: Reasoning, Coding, and Agentic Abilities
<p>Today, we are excited to introduce our latest flagship models <a href="https://huggingface.co/zai-org/GLM-4.5">GLM-4.5</a> and <a href="https://huggingfac...

Introducing Stargate Norway
We’re launching Stargate Norway—OpenAI’s first AI data center initiative in Europe under our OpenAI for Countries program. Stargate is OpenAI’s overarching infrastructure platform and is a critical part of our long-term vision to deliver the benefits of AI to everyone.
Quoting Steve Krouse
When you vibe code, you are incurring tech debt as fast as the LLM can spit it out. Which is why vibe coding is perfect for prototypes and throwaway projects: …
0.6.2
この記事は、GitHub上のlangchain-ai/langgraphリポジトリのバージョン0.6.2のリリースノートを提供しています。このリリースでは、前のバージョン0.6.1からの変更点として、prebuiltの修正が行われ、context_schemaがconfig_schemaに正しい条件で割り当てられました。また、LangGraphランタイムに対してcontext coercionが追加されました。これにより、LangGraphの機能が向上し、より柔軟なデータ処理が可能になります。 • 前のバージョン0.6.1からの修正点が含まれている • context_schemaがconfig_schemaに正しく割り当てられた • LangGraphランタイムにcontext coercionが追加された • LangGraphの機能が向上し、データ処理が柔軟になる
prebuilt==0.6.2
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるprebuilt==0.6.2のリリースについて説明しています。このリリースは2023年7月30日に行われ、主にprebuiltのバージョン0.6.1からの変更点が記載されています。具体的には、context_schemaをconfig_schemaに正しい条件で割り当てる修正が含まれています。リリースノートには、変更の詳細や関連するプルリクエストの番号も示されています。 • prebuilt==0.6.2のリリース日: 2023年7月30日 • 主な修正: context_schemaをconfig_schemaに正しい条件で割り当てる • 前のバージョン0.6.1からの変更点が含まれている • 関連するプルリクエスト番号: #5746 • リリースはGitHubで行われ、GPG署名が確認されている
2025-07-29
この記事は、Mastraの最新リリース(2025年7月29日)に関するもので、主にエージェント機能の改善や新機能の追加について述べています。具体的には、エラーメッセージの改善、メッセージ処理のためのミドルウェア機能の追加、カスタムIDジェネレーターのサポート、CORS設定の修正、テストの追加などが含まれています。また、クライアントSDKにおいては、メッセージメタデータのサポートやエラーハンドリングの改善が行われ、ユーザー体験の向上が図られています。さらに、テキスト読み上げ機能や音声認識機能も新たに追加され、開発者やユーザーにとって便利な機能が強化されています。 • エージェント機能のエラーメッセージを改善し、resourceIdとthreadIdが必要であることを明示化した。 • メッセージ処理のためのミドルウェア機能を追加し、メッセージのフィルタリングや変換、検証を可能にした。 • カスタムIDジェネレーターのサポートを追加し、デフォルトはUUIDとなる。 • CORS設定にPATCHメソッドを追加し、ドキュメントを更新した。 • クライアントSDKにおいて、メッセージメタデータのサポートやエラーハンドリングの改善を行った。 • テキスト読み上げ機能と音声認識機能を新たに追加した。

Real Talk: ChatGPT Study Mode

Automate the creation of handout notes using Amazon Bedrock Data Automation
In this post, we show how you can build an automated, serverless solution to transform webinar recordings into comprehensive handouts using Amazon Bedrock Data Automation for video analysis. We walk you through the implementation of Amazon Bedrock Data Automation to transcribe and detect slide changes, as well as the use of Amazon Bedrock foundation models (FMs) for transcription refinement, combined with custom AWS Lambda functions orchestrated by AWS Step Functions.

The best available open weight LLMs now come from China
Something that has become undeniable this month is that the best available open weight models now come from the Chinese AI labs. I continue to have a lot of love …

Streamline GitHub workflows with generative AI using Amazon Bedrock and MCP
This blog post explores how to create powerful agentic applications using the Amazon Bedrock FMs, LangGraph, and the Model Context Protocol (MCP), with a practical scenario of handling a GitHub workflow of issue analysis, code fixes, and pull request generation.

Deep Agents
Using an LLM to call tools in a loop is the simplest form of an agent. This architecture, however, can yield agents that are “shallow” and fail to plan and act over longer, more complex tasks. Applications like “Deep Research”, “Manus”, and “Claude Code” have gotten around this limitation by

Qwen3-30B-A3B-Thinking-2507
Yesterday was Qwen3-30B-A3B-Instruct-2507. Qwen are clearly committed to their new split between reasoning and non-reasoning models (a reversal from Qwen 3 in April), because today they released the new reasoning …
Release v3.25.3
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.3では、いくつかの新機能とバグ修正が行われた。主な変更点には、画像付きメッセージのキューイング機能の追加、Claude Codeのデフォルト最大出力トークン数の16kへの増加、スラッシュコマンドのドキュメントリンクの追加、ウェルカムビューでのGeminiチェックボックスの非表示、apply_diffツールの説明の明確化、チャットボタンをクリックした際の入力クリアを防ぐ修正が含まれている。また、PRレビューのルールとモード設定の更新、プルリクエストオープンイベントに翻訳チェックアクションの追加、拡張機能のタイトルから「(prev Roo Cline)」の削除、PRレビューのルールからイベントタイプの言及の削除も行われた。 • 画像付きメッセージのキューイング機能を追加 • Claude Codeのデフォルト最大出力トークン数を16kに増加 • スラッシュコマンドのドキュメントリンクを追加 • ウェルカムビューでのGeminiチェックボックスを非表示に • apply_diffツールの説明を明確化 • チャットボタンをクリックした際の入力クリアを防ぐ修正 • PRレビューのルールとモード設定を更新 • プルリクエストオープンイベントに翻訳チェックアクションを追加 • 拡張機能のタイトルから「(prev Roo Cline)」を削除 • PRレビューのルールからイベントタイプの言及を削除

Leah Belsky on how AI is transforming education — the OpenAI Podcast Ep. 4
AI is redefining how we learn — from personalized tutoring to entirely new teaching models. OpenAI’s Head of Education, Leah Belsky, joins host Andrew Mayne to discuss what this shift means for students, educators, and society. Special guests include college students Yabsera and Alaap, who share their perspectives on learning in the AI era. 00:22 – Leah’s path to OpenAI & the moonshot 01:40 – ChatGPT as a global learning platform—countries lean in 03:50 – Universities: equal access, trust, and adoption 05:12 – From AI detectors to better policy and practice 06:50 – Study Mode explained 09:51 – AI as a tutor that builds confidence 11:35 – Workforce skills graduates need 14:15 – The great brain rot debate 18:00 – A personal learning anecdote 19:30 – Meet the students 21:30 – First experiences with AI 25:25 – How professors are adapting 29:28 – Trying Study Mode 33:20 – ChatGPT vs. social media 41:43 – Cheating, challenges, and advice for students 49:24 – The future of learning with AI
AlphaEarth Foundations helps map our planet in unprecedented detail
New AI model integrates petabytes of Earth observation data to generate a unified data representation that revolutionizes global mapping and monitoring

Google Earth AI: Our state-of-the-art geospatial AI models
Google Earth AI is our collection of geospatial models and datasets to help tackle the planet's most critical needs.

Three lessons for creating a sustainable AI advantage
By experimenting early, measuring rigorously, and building an architecture that evolves with each model, Intercom created a scalable AI platform that ships new capabilities in days, not quarters.

Mistral-Small-3.2-24B-Instruct-2506 is now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
Today, we’re excited to announce that Mistral-Small-3.2-24B-Instruct-2506—a 24-billion-parameter large language model (LLM) from Mistral AI that’s optimized for enhanced instruction following and reduced repetition errors—is available for customers through Amazon SageMaker JumpStart and Amazon Bedrock Marketplace. Amazon Bedrock Marketplace is a capability in Amazon Bedrock that developers can use to discover, test, and use over […]

Simulating large systems with Regression Language Models
Release v3.25.2
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.2は、2025年7月29日に行われました。このリリースでは、背景編集が無効になっている場合に承認前に差分ビューを表示する修正が含まれています。また、組織レベルのMCPコントロールのサポートが追加され、zapアイコンのホバー状態も修正されました。 • 背景編集が無効な場合に承認前に差分ビューを表示する修正 • 組織レベルのMCPコントロールのサポート追加 • zapアイコンのホバー状態の修正
Release v3.25.1
RooCodeIncのGitHubリポジトリで公開されたリリースv3.25.1では、GLM-4.5-AirモデルのChutes AIプロバイダーへのサポートが追加され、コマンドのサブシェル検証が改善されました。このリリースは2025年7月29日に行われ、GitHubの検証済み署名で作成されています。 • GLM-4.5-AirモデルのChutes AIプロバイダーへのサポートが追加された • コマンドのサブシェル検証が改善された • リリースは2025年7月29日に行われた • GitHubの検証済み署名で作成された
0.6.1
この記事は、GitHub上のlangchain-ai/langgraphリポジトリのバージョン0.6.1のリリースノートを提供しています。このリリースでは、主に2つの修正が行われました。1つ目は、親ランタイムが利用可能な場合にそれを使用するように修正されたこと(#5707)です。2つ目は、オプションであっても設定を注入するように修正されたこと(#5708)です。これらの変更により、langgraphの機能が向上し、より柔軟な設定が可能になります。 • バージョン0.6.1のリリースノート • 親ランタイムを利用可能な場合に使用する修正(#5707) • オプションでも設定を注入する修正(#5708) • 機能の向上と柔軟な設定の実現
prebuilt==0.6.1
この記事は、GitHub上で公開されているlangchain-aiのlanggraphリポジトリにおけるprebuilt==0.6.1のリリースについて説明しています。このリリースは2023年7月29日に行われ、主な変更点としてToolNodeの更新が含まれています。この更新により、Commandの更新がすべてのメッセージを削除できるようになりました。リリースノートには、前のバージョンであるprebuilt==0.6.0からの変更点が記載されています。 • prebuilt==0.6.1が2023年7月29日にリリースされた • ToolNodeの更新によりCommandの更新がすべてのメッセージを削除できるようになった • 前のバージョンprebuilt==0.6.0からの変更点が含まれている

Introducing Align Evals: Streamlining LLM Application Evaluation
Align Evals is a new feature in LangSmith that helps you calibrate your evaluators to better match human preferences.
OpenAI: Introducing study mode
New ChatGPT feature, which can be triggered by typing /study or by visiting chatgpt.com/studymode. OpenAI say: Under the hood, study mode is powered by custom system instructions we’ve written in …

Generate suspicious transaction report drafts for financial compliance using generative AI
A suspicious transaction report (STR) or suspicious activity report (SAR) is a type of report that a financial organization must submit to a financial regulator if they have reasonable grounds to suspect any financial transaction that has occurred or was attempted during their activities. In this post, we explore a solution that uses FMs available in Amazon Bedrock to create a draft STR.

Qwen/Qwen3-30B-A3B-Instruct-2507
New model update from Qwen, improving on their previous Qwen3-30B-A3B release from late April. In their tweet they said: Smarter, faster, and local deployment-friendly. ✨ Key Enhancements: ✅ Enhanced reasoning, …

Fine-tune and deploy Meta Llama 3.2 Vision for generative AI-powered web automation using AWS DLCs, Amazon EKS, and Amazon Bedrock
In this post, we present a complete solution for fine-tuning and deploying the Llama-3.2-11B-Vision-Instruct model for web automation tasks. We demonstrate how to build a secure, scalable, and efficient infrastructure using AWS Deep Learning Containers (DLCs) on Amazon Elastic Kubernetes Service (Amazon EKS).

Introducing ChatGPT Study Mode
Introducing study mode in ChatGPT — a learning experience that helps you work through problems step-by-step instead of just getting an answer. Built in collaboration with educators and experts, study mode is our first step toward improving learning in ChatGPT.
Quoting Nilay Patel
Our plan is to build direct traffic to our site. and newsletters just one kind of direct traffic in the end. I don’t intend to ever rely on someone else’s …

Discover the potential of agentic AI in higher education
Discover how Azure AI Foundry in education helps institutions build scalable AI solutions to drive innovation and digital transformation.

New ways to learn and explore with AI Mode in Search
AI Mode in Search has several new features to help learners, educators and anyone who’s curious about the world.

The inside story of building NotebookLM
Hear how Googlers developed and tested NotebookLM, your virtual research assistant — straight from the source.
Release v3.25.0
Roo-Codeのリリースv3.25.0では、メッセージキューイング機能やカスタムスラッシュコマンドの追加、Google検索を用いたURLコンテキストとグラウンディングのオプションが導入されました。また、read_fileツールに画像サポートが追加され、LiteLLMに対するプロンプトキャッシング機能も実装されました。さらに、Markdownテーブルのレンダリングサポートや、リストファイルの再帰モードの修正、モードセレクターポップアップへの検索機能の追加、キーボードショートカットの修正などが行われました。これにより、ユーザーはより効率的にタスクを管理できるようになります。 • メッセージキューイング機能の追加 • カスタムスラッシュコマンドの追加 • Google検索を用いたURLコンテキストとグラウンディングのオプションの導入 • read_fileツールに画像サポートの追加 • LiteLLMに対するプロンプトキャッシング機能の実装 • Markdownテーブルのレンダリングサポートの追加 • リストファイルの再帰モードの修正 • モードセレクターポップアップへの検索機能の追加
Patch release 4.54.1
この記事は、Hugging FaceのTransformersライブラリのパッチリリース4.54.1について説明しています。このリリースでは、いくつかのバグ修正が行われ、特にキャッシュ関連の問題が解決されました。新たに導入されたレイヤードキャッシュに関連する修正や、ハイブリッドモデルの最大キャッシュ長の設定、GPT2のクロスアテンションに関する修正が含まれています。また、キャッシュの継承やデバイス配置に関する問題も修正されました。リリースは急いで行われたため、いくつかのバグが残っていたことが謝罪されています。 • バグ修正が多数行われた • キャッシュ関連の問題が解決された • ハイブリッドモデルの最大キャッシュ長の設定が修正された • GPT2のクロスアテンションに関する問題が修正された • キャッシュの継承やデバイス配置に関する問題が修正された

Scaling generative AI in the cloud: Enterprise use cases for driving secure innovation
In our technical guide, “Accelerating Generative AI Innovation with Cloud Migration” we outline how IT and digital transformation leaders can tap into the power and flexibility of Azure to unlock the full potential of generative AI. Learn more.

How Nippon India Mutual Fund improved the accuracy of AI assistant responses using advanced RAG methods on Amazon Bedrock
In this post, we examine a solution adopted by Nippon Life India Asset Management Limited that improves the accuracy of the response over a regular (naive) RAG approach by rewriting the user queries and aggregating and reranking the responses. The proposed solution uses enhanced RAG methods such as reranking to improve the overall accuracy

Z.ai's GLM-4.5 and GLM-4.5 Air are now supported in Vercel AI Gateway
You can now access GLM-4.5 and GLM-4.5 Air, new flagship models from Z.ai designed to unify frontier reasoning, coding, and agentic capabilities, using Vercel's AI Gateway with no other provider accounts required.

Building Jarvis: MCP and the future of AI with Kent C Dodds
Kent C. Dodds is back with bold ideas and a game-changing vision for the future of AI and web development. In this episode, we dive into the Model Context Protocol (MCP), the power behind Epic AI Pro, and how developers can start building Jarvis-like assistants today. From replacing websites with MCP servers to reimagining voice interfaces and AI security, Kent lays out the roadmap for what's next, and why it matters right now. Don’t miss this fast-paced conversation about the tools and tech reshaping everything.

Introducing study mode in ChatGPT
A new way to learn in ChatGPT that offers step by step guidance instead of quick answers.

LLMエージェントオブサーバビリティ基盤についてまとめてみた
AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。

Introducing Trackio: A Lightweight Experiment Tracking Library from Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.