Last updated: 2025/12/07 21:01
The latest AI news we announced in November
Here are Google’s latest AI updates from November 2025
Evaluating DeepAgents CLI on Terminal Bench 2.0
By Vivek Trivedy and Eugene Yurtsev DeepAgents CLI is a coding agent built on top of the Deep Agents SDK, providing an interactive terminal interface with shell execution, filesystem tools, and memory. How well does DeepAgents CLI actually perform on real-world tasks? In this post, we show how to evaluate
New research from Google Workspace reveals how young leaders are using AI at work.
Google Workspace has released findings from our second survey that looks at how people aged 22-39 are using AI at work. Commissioned by Workspace in partnership with the…
Gemini 3 Pro: the frontier of vision AI
Build with Gemini 3 Pro, the best model in the world for multimodal capabilities.
GPT 5.1 Codex Max now available on Vercel AI Gateway
You can now access the GPT 5.1 Codex Max model with Vercel's AI Gateway with no other provider accounts required.
Titans + MIRAS: Helping AI have long-term memory
この記事では、TitansアーキテクチャとMIRASフレームワークを紹介し、AIモデルが長期記憶を持ちながら迅速に動作し、大規模なコンテキストを処理できる方法を説明しています。従来のTransformerアーキテクチャは、シーケンスの長さが増すと計算コストが急増し、長文理解やゲノム解析に必要なスケーラビリティが制限されます。Titansは、RNNの速度とTransformerの精度を組み合わせた新しいアーキテクチャであり、MIRASはこれを一般化する理論的枠組みです。Titansは、AIモデルが実行中に新しい情報を取り入れ、長期記憶を維持する能力を向上させる「サプライズメトリック」を活用します。Titansの長期記憶モジュールは、従来の固定サイズのメモリとは異なり、深層ニューラルネットワークとして機能し、大量の情報を要約しつつ重要なコンテキストを保持します。 • TitansアーキテクチャとMIRASフレームワークを導入し、AIモデルの長期記憶を実現する。 • 従来のTransformerはシーケンスの長さに伴う計算コストが高く、スケーラビリティに制限がある。 • TitansはRNNの速度とTransformerの精度を組み合わせた新しいアーキテクチャ。 • MIRASはTitansの理論的枠組みで、リアルタイムでの適応を可能にする。 • Titansの長期記憶モジュールは、深層ニューラルネットワークとして機能し、情報を要約しつつ重要な関係を保持する。 • サプライズメトリックを用いて、モデルが新しい情報をどのように記憶するかを決定する。
Introducing OpenAI for Australia
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなくすぐに利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Engineering more resilient crops for a warming climate
Scientists are using AlphaFold to strengthen a vital photosynthesis enzyme (GLYK), paving the way for more resilient, heat-tolerant crops that can adapt to a warming climate and help secure food prod…
We Got Claude to Fine-Tune an Open Source LLM
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
From Waveforms to Wisdom: The New Benchmark for Auditory Intelligence
本記事では、機械音声知能を測定するための新しいオープンソースプラットフォーム「Massive Sound Embedding Benchmark(MSEB)」について説明しています。MSEBは、音声アシスタントや自律エージェントなどのシステムが自然に振る舞うために必要な8つの音響能力(転写、分類、検索、推論、セグメンテーション、クラスタリング、再ランキング、再構成)を統一的に評価するための基準を提供します。MSEBは、実世界のシナリオに基づいた多様なデータセットを含み、特に「Simple Voice Questions(SVQ)」データセットは177,352の短い音声クエリを収録しています。MSEBは、音声理解モデルの次世代開発を促進するためのフレームワークを提供し、現在の音声表現が普遍的ではないことを示す初期実験結果も報告しています。 • MSEBは機械音声知能を測定するためのオープンソースプラットフォームである。 • 8つの音響能力を統一的に評価する基準を提供する。 • 多様なデータセットを含み、特にSVQデータセットは177,352の音声クエリを収録している。 • 音声理解モデルの次世代開発を促進するためのフレームワークを提供する。 • 現在の音声表現には大きな改善の余地があることが示された。
Hybrid Models Meet SGLang: More than Full Attention
この記事では、フルアテンション層とMambaや線形アテンションなどの代替手法を組み合わせたハイブリッドモデルについて説明しています。特に、長いコンテキストを持つ大規模言語モデル(LLM)のシナリオにおいて、線形アテンションを活用することで、リクエストごとのKVキャッシュメモリ消費が一定に保たれ、入力長に対してプリフィルレイテンシが線形にスケールします。しかし、インプレース状態更新により、部分シーケンスマッチのためのキャッシュエントリのロールバックができず、プレフィックスキャッシングや投機的デコーディングなどの機能の実装が複雑になります。SGLangは、これらの課題に適応し最適化する方法を議論しています。ハイブリッドモデルは、効率と容量のトレードオフを実現するために、固定間隔で二次アテンション層とSSM層を交互に配置します。これにより、さまざまなタスクで強力なパフォーマンスを発揮しつつ、SSM層の効率的な利点を保持します。 • ハイブリッドモデルはフルアテンション層と代替手法を組み合わせている • 線形アテンションによりKVキャッシュメモリ消費が一定に保たれる • インプレース状態更新がキャッシュエントリのロールバックを不可能にする • SGLangはメモリ管理とPD分離に新たな課題を提起している • ハイブリッドモデルは効率と容量のトレードオフを実現する • メモリプールをMambaプールとKVキャッシュプールに分けている • 弾力的メモリプールが動的にプールサイズを調整する
Evaluating Deep Agents: Our Learnings
Over the past month at LangChain, we shipped four applications on top of the Deep Agents harness: * DeepAgents CLI: a coding agent * LangSmith Assist: an in-app agent to help with various things in LangSmith * Personal Email Assistant: an email assistant that learns from interactions with each user * Agent Builder: a
Nova 2 Lite now available on Vercel AI Gateway
You can now access Amazon's latest model Nova 2 Lite on Vercel AI Gateway with no other provider accounts required.
We’re announcing new health AI funding, while a new report signals a turning point for health in Europe.
At the European Health Summit in Brussels, Greg Corrado, Distinguished Scientist at Google, released a new report authored by Implement Consulting Group and commissioned…
How confessions can keep language models honest
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
OpenAI to acquire Neptune
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、ツールがそれに基づいてコードを生成することが可能です。また、既存のコードの改善提案やバグの修正も行えるため、開発効率が大幅に向上します。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低い点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存コードの改善提案やバグ修正が可能 • 開発効率の向上が期待できる • 直感的で使いやすいユーザーインターフェース
Announcing the initial People-First AI Fund grantees
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Use Circle to Search and Google Lens to spot scam messages.
You can now use Circle to Search and Google Lens to detect scammy messages you receive on your phone.
Custom Policy Enforcement with Reasoning: Faster, Safer AI Applications
A Blog post by NVIDIA on Hugging Face
LangSmith Agent Builder now in Public Beta
Now anyone can create production ready agents without writing code, just chat. Agent Builder guides you from initial idea to deployed agent, creating detailed prompts, selecting required tools, and even creating subagents.
Mistral Large 3 now available on Vercel AI Gateway
You can now access Mistral's latest model, Mistral Large 3, on Vercel AI Gateway with no other provider accounts required.
Inside Mirakl’s Agent Commerce Vision
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • 使用するほどに精度が向上するAIの学習能力
Efficient MoE Pre-training at Scale on 1K AMD GPUs with TorchTitan
この記事では、AMDとMetaのPyTorchチームが協力して、1,024のAMD MI325X GPUを使用した大規模なMixture-of-Experts(MoE)モデルの効率的な事前トレーニングを実現した方法について説明しています。TorchTitanとPrimus-Turboというオープンソースのカーネルライブラリを調整することで、DeepSeek-V3とLlama 4-Scoutのトレーニングにおいて、2.77倍のスピードアップと96%のスケーリング効率を達成しました。TorchTitanは、複数のGPUおよびノードクラスターでの大規模トレーニングのためのMetaのPyTorchネイティブの設計図であり、設定ファイルを通じてパラレル処理の度合いを簡単に調整できます。MoEモデルは、専門家のプールを使用して計算を効率化し、数百億パラメータのモデルを密なモデルの速度でトレーニングすることを可能にします。 • AMDとMetaが協力してMoEモデルの効率的なトレーニングを実現 • TorchTitanとPrimus-Turboを使用して1,024のGPUでのスケーリングを最適化 • DeepSeek-V3で2.77倍のスピードアップを達成 • 96%のスケーリング効率を実現 • TorchTitanは大規模トレーニングのための設定ファイルを使用して簡単に調整可能 • MoEモデルは専門家のプールを使用して計算を効率化 • 数百億パラメータのモデルを密なモデルの速度でトレーニング可能
Gemini 3 and Nano Banana Pro in Search are coming to more countries around the world.
We're bringing our most intelligent model yet, Gemini 3 Pro, to Google Search in more countries around the world.
Trinity Mini model now available in Vercel AI Gateway
You can now access the newest Arcee AI model Trinity Mini in Vercel AI Gateway with no other provider accounts required.
DeepSeek V3.2 models now available in Vercel AI Gateway
You can now access the newest DeepSeek V3.2 models, V3.2 and V3.2 Speciale in Vercel AI Gateway with no other provider accounts required.
Funding grants for new research into AI and mental health
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを分析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを分析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 幅広いプラットフォームとの互換性 • 生産性向上が期待される
SARLO-80: Worldwide Slant SAR Language Optic Dataset at 80 cm Resolution
A Blog post by Hugging Science on Hugging Face
OpenAI and NORAD team up to bring new magic to “NORAD Tracks Santa”
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に統合できるため、導入が容易である点も強調されています。さらに、AIによるコード生成は、開発の効率を大幅に向上させることが期待されています。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への統合が容易 • 開発効率の向上が期待される
OpenAI takes an ownership stake in Thrive Holdings to accelerate enterprise AI adoption
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Accenture and OpenAI accelerate enterprise AI success
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Transformers v5: Simple model definitions powering the AI ecosystem
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
How Myriad Genetics achieved fast, accurate, and cost-efficient document processing using the AWS open-source Generative AI Intelligent Document Processing Accelerator
In this post, we explore how Myriad Genetics partnered with the AWS Generative AI Innovation Center to transform their healthcare document processing pipeline using Amazon Bedrock and Amazon Nova foundation models, achieving 98% classification accuracy while reducing costs by 77% and processing time by 80%. We detail the technical implementation using AWS's open-source GenAI Intelligent Document Processing Accelerator, the optimization strategies for document classification and key information extraction, and the measurable business impact on Myriad's prior authorization workflows.
How CBRE powers unified property management search and digital assistant using Amazon Bedrock
In this post, CBRE and AWS demonstrate how they transformed property management by building a unified search and digital assistant using Amazon Bedrock, enabling professionals to access millions of documents and multiple databases through natural language queries. The solution combines Amazon Nova Pro for SQL generation and Claude Haiku for document interactions, achieving a 67% reduction in processing time while maintaining enterprise-grade security across more than eight million documents.
Managed Tiered KV Cache and Intelligent Routing for Amazon SageMaker HyperPod
In this post, we introduce Managed Tiered KV Cache and Intelligent Routing for Amazon SageMaker HyperPod, new capabilities that can reduce time to first token by up to 40% and lower compute costs by up to 25% for long context prompts and multi-turn conversations. These features automatically manage distributed KV caching infrastructure and intelligent request routing, making it easier to deploy production-scale LLM inference workloads with enterprise-grade performance while significantly reducing operational overhead.
Here’s how researchers in Asia-Pacific are using AlphaFold
Learn more about AlphaFold, Google’s AI system that accurately predicts protein structures.
Apply fine-grained access control with Bedrock AgentCore Gateway interceptors
We are launching a new feature: gateway interceptors for Amazon Bedrock AgentCore Gateway. This powerful new capability provides fine-grained security, dynamic access control, and flexible schema management.
How Condé Nast accelerated contract processing and rights analysis with Amazon Bedrock
In this post, we explore how Condé Nast used Amazon Bedrock and Anthropic’s Claude to accelerate their contract processing and rights analysis workstreams. The company’s extensive portfolio, spanning multiple brands and geographies, required managing an increasingly complex web of contracts, rights, and licensing agreements.
Building AI-Powered Voice Applications: Amazon Nova Sonic Telephony Integration Guide
Available through the Amazon Bedrock bidirectional streaming API, Amazon Nova Sonic can connect to your business data and external tools and can be integrated directly with telephony systems. This post will introduce sample implementations for the most common telephony scenarios.
University of California Los Angeles delivers an immersive theater experience with AWS generative AI services
In this post, we will walk through the performance constraints and design choices by OARC and REMAP teams at UCLA, including how AWS serverless infrastructure, AWS Managed Services, and generative AI services supported the rapid design and deployment of our solution. We will also describe our use of Amazon SageMaker AI and how it can be used reliably in immersive live experiences.
Optimizing Mobileye’s REM™ with AWS Graviton: A focus on ML inference and Triton integration
This post is written by Chaim Rand, Principal Engineer, Pini Reisman, Software Senior Principal Engineer, and Eliyah Weinberg, Performance and Technology Innovation Engineer, at Mobileye. The Mobileye team would like to thank Sunita Nadampalli and Guy Almog from AWS for their contributions to this solution and this post. Mobileye is driving the global evolution toward […]
Evaluate models with the Amazon Nova evaluation container using Amazon SageMaker AI
This blog post introduces the new Amazon Nova model evaluation features in Amazon SageMaker AI. This release adds custom metrics support, LLM-based preference testing, log probability capture, metadata analysis, and multi-node scaling for large evaluations.
Mixpanel security incident: what OpenAI users need to know
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、ツールがそれに基づいてコードを生成することが可能です。また、既存のコードの改善提案やバグの修正も行えるため、開発効率が大幅に向上します。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低くなっています。これにより、幅広い開発者がこのツールを活用できるようになります。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づくコード生成機能 • 既存コードの改善提案やバグ修正機能 • 開発効率の向上 • 直感的で使いやすいユーザーインターフェース
Enhanced performance for Amazon Bedrock Custom Model Import
You can now achieve significant performance improvements when using Amazon Bedrock Custom Model Import, with reduced end-to-end latency, faster time-to-first-token, and improved throughput through advanced PyTorch compilation and CUDA graph optimizations. With Amazon Bedrock Custom Model Import you can to bring your own foundation models to Amazon Bedrock for deployment and inference at scale. In this post, we introduce how to use the improvements in Amazon Bedrock Custom Model Import.
The Future of Inference: PyTorch ATX Event
2025年9月17日、PyTorch ATXはvLLMコミュニティとRed Hatと共に「The Future of Inferencing」イベントをオースティンで開催しました。このイベントには、vLLMに関わる専門家が集まり、最新のLLM推論技術について議論しました。90人以上の参加者が集まり、INT4/INT8量子化、プルーニング戦略、PagedAttentionメモリ管理、連続バッチ処理、推測デコーディング、マルチノードデプロイメントアーキテクチャなどの技術的な深掘りが行われました。Jason MeauxはPyTorch ATXメンバーのプロジェクトについての最新情報を共有し、Steve WattはvLLMの紹介とAWSでのデプロイデモを行いました。Luka GovedičはPagedAttentionや量子化アプローチについての中級セッションを提供し、Huamin Chenは意図を考慮した「mixture-of-models」ルーターを説明しました。Greg Pereiraは分散推論の課題を探求し、KVキャッシュ管理のデモを行いました。参加者は生産準備が整った推論システムを構築するための概念的枠組みと実行可能な戦略を持ち帰りました。次回のイベントは2026年2月に予定されています。 • PyTorch ATXがvLLMコミュニティとRed Hatと共に推論技術に関するイベントを開催した。 • 90人以上の専門家が集まり、最新のLLM推論技術について議論した。 • INT4/INT8量子化、プルーニング戦略、PagedAttentionメモリ管理などのトピックが扱われた。 • vLLMのデプロイ方法についてのデモが行われ、AWSやAMDクラウドでの実装が紹介された。 • 意図を考慮した「mixture-of-models」ルーターが説明され、よりコスト効率的で正確な推論サービスが提案された。 • 分散推論の課題についてのセッションがあり、KVキャッシュ管理のデモが行われた。
Intellect-3 model from Prime Intellect AI available on the Vercel AI Gateway
You can now access Prime Intellect AI's Intellect-3 model in Vercel AI Gateway with no other provider accounts required.
Amazon SageMaker AI introduces EAGLE based adaptive speculative decoding to accelerate generative AI inference
Amazon SageMaker AI now supports EAGLE-based adaptive speculative decoding, a technique that accelerates large language model inference by up to 2.5x while maintaining output quality. In this post, we explain how to use EAGLE 2 and EAGLE 3 speculative decoding in Amazon SageMaker AI, covering the solution architecture, optimization workflows using your own datasets or SageMaker's built-in data, and benchmark results demonstrating significant improvements in throughput and latency.
Get an in-depth look at Gemini 3 with CEO Sundar Pichai.
Sundar Pichai sits down with Logan Kilpatrick to discuss Gemini 3 on the Google AI: Release Notes podcast.
Train custom computer vision defect detection model using Amazon SageMaker
In this post, we demonstrate how to migrate computer vision workloads from Amazon Lookout for Vision to Amazon SageMaker AI by training custom defect detection models using pre-trained models available on AWS Marketplace. We provide step-by-step guidance on labeling datasets with SageMaker Ground Truth, training models with flexible hyperparameter configurations, and deploying them for real-time or batch inference—giving you greater control and flexibility for automated quality inspection use cases.
Expanding data residency access to business customers worldwide
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Practical implementation considerations to close the AI value gap
The AWS Customer Success Center of Excellence (CS COE) helps customers get tangible value from their AWS investments. We've seen a pattern: customers who build AI strategies that address people, process, and technology together succeed more often. In this post, we share practical considerations that can help close the AI value gap.
Introducing bidirectional streaming for real-time inference on Amazon SageMaker AI
We're introducing bidirectional streaming for Amazon SageMaker AI Inference, which transforms inference from a transactional exchange into a continuous conversation. This post shows you how to build and deploy a container with bidirectional streaming capability to a SageMaker AI endpoint. We also demonstrate how you can bring your own container or use our partner Deepgram's pre-built models and containers on SageMaker AI to enable bi-directional streaming feature for real-time inference.
The Google guide for holiday help
Learn more about using Google products like Gemini, Search, Shopping, Pixel and more over the holidays.
4 ways to refine your content in Flow
You’ll now get more creative control in Flow with new refinement and editing capabilities.
Warner Bros. Discovery achieves 60% cost savings and faster ML inference with AWS Graviton
Warner Bros. Discovery (WBD) is a leading global media and entertainment company that creates and distributes the world’s most differentiated and complete portfolio of content and brands across television, film and streaming. In this post, we describe the scale of our offerings, artificial intelligence (AI)/machine learning (ML) inference infrastructure requirements for our real time recommender systems, and how we used AWS Graviton-based Amazon SageMaker AI instances for our ML inference workloads and achieved 60% cost savings and 7% to 60% latency improvements across different models.
Physical AI in practice: Technical foundations that fuel human-machine interactions
In this post, we explore the complete development lifecycle of physical AI—from data collection and model training to edge deployment—and examine how these intelligent systems learn to understand, reason, and interact with the physical world through continuous feedback loops. We illustrate this workflow through Diligent Robotics' Moxi, a mobile manipulation robot that has completed over 1.2 million deliveries in hospitals, saving nearly 600,000 hours for clinical staff while transforming healthcare logistics and returning valuable time to patient care.
Using skills with Deep Agents
tl;dr: Anthropic recently introduced the idea of agent skills. Skills are simply folders containing a SKILL.md file along with any associated files (e.g., documents or scripts) that an agent can discover and load dynamically to perform better at specific tasks. We've added skills support to deepagents-CLI. The
HyperPod now supports Multi-Instance GPU to maximize GPU utilization for generative AI tasks
In this post, we explore how Amazon SageMaker HyperPod now supports NVIDIA Multi-Instance GPU (MIG) technology, enabling you to partition powerful GPUs into multiple isolated instances for running concurrent workloads like inference, research, and interactive development. By maximizing GPU utilization and reducing wasted resources, MIG helps organizations optimize costs while maintaining performance isolation and predictable quality of service across diverse machine learning tasks.
AlphaFold: Five years of impact
Explore five years of AlphaFold’s impact on biology. Learn how this Nobel Prize-winning AI is accelerating scientific discovery globally
Revealing a key protein behind heart disease
Discover how scientists used AlphaFold to map the protein behind heart disease and how this breakthrough could transform treatment.
The 9 best AI workflow automation tools in 2026
Looking for AI workflow automation tools? Compare n8n, Zapier, Make, and 6 other top platforms. Find the best fit for beginners, developers, and enterprise teams.
FLUX.2 Pro image model is now available on Vercel AI Gateway
You can now access the newest image model FLUX.2 Pro from Black Forest Labs in Vercel AI Gateway with no other provider accounts required.
Diffusers welcomes FLUX-2
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Continuous batching from first principles
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Inside JetBrains—the company reshaping how the world writes code
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Accelerate generative AI innovation in Canada with Amazon Bedrock cross-Region inference
We are excited to announce that customers in Canada can now access advanced foundation models including Anthropic's Claude Sonnet 4.5 and Claude Haiku 4.5 on Amazon Bedrock through cross-Region inference (CRIS). This post explores how Canadian organizations can use cross-Region inference profiles from the Canada (Central) Region to access the latest foundation models to accelerate AI initiatives. We will demonstrate how to get started with these new capabilities, provide guidance for migrating from older models, and share recommended practices for quota management.
Power up your ML workflows with interactive IDEs on SageMaker HyperPod
Amazon SageMaker HyperPod clusters with Amazon Elastic Kubernetes Service (EKS) orchestration now support creating and managing interactive development environments such as JupyterLab and open source Visual Studio Code, streamlining the ML development lifecycle by providing managed environments for familiar tools to data scientists. This post shows how HyperPod administrators can configure Spaces for their clusters, and how data scientists can create and connect to these Spaces.
Claude Opus 4.5 now in Amazon Bedrock
Anthropic's newest foundation model, Claude Opus 4.5, is now available in Amazon Bedrock, a fully managed service that offers a choice of high-performing foundation models from leading AI companies. In this post, I'll show you what makes this model different, walk through key business applications, and demonstrate how to use Opus 4.5's new tool use capabilities on Amazon Bedrock.
Deploy GPT-OSS models with Amazon Bedrock Custom Model Import
In this post, we show how to deploy the GPT-OSS-20B model on Amazon Bedrock using Custom Model Import while maintaining complete API compatibility with your current applications.
Claude Opus 4.5 now available in Vercel AI Gateway
You can now access Anthropic's latest model Claude Opus 4.5 in Vercel AI Gateway with no other provider accounts required.
Introducing shopping research in ChatGPT
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
GPT-5 and the future of mathematical discovery
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Streamline AI operations with the Multi-Provider Generative AI Gateway reference architecture
In this post, we introduce the Multi-Provider Generative AI Gateway reference architecture, which provides guidance for deploying LiteLLM into an AWS environment to streamline the management and governance of production generative AI workloads across multiple model providers. This centralized gateway solution addresses common enterprise challenges including provider fragmentation, decentralized governance, operational complexity, and cost management by offering a unified interface that supports Amazon Bedrock, Amazon SageMaker AI, and external providers while maintaining comprehensive security, monitoring, and control capabilities.
How agents can use filesystems for context engineering
A key feature of deep agents is their access to a set of filesystem tools. Deep agents can use these tools to read, write, edit, list, and search for files in their filesystem. In this post, we’ll walk through why we think filesystems are important for agents. In order
Deploy geospatial agents with Foursquare Spatial H3 Hub and Amazon SageMaker AI
In this post, you'll learn how to deploy geospatial AI agents that can answer complex spatial questions in minutes instead of months. By combining Foursquare Spatial H3 Hub's analysis-ready geospatial data with reasoning models deployed on Amazon SageMaker AI, you can build agents that enable nontechnical domain experts to perform sophisticated spatial analysis through natural language queries—without requiring geographic information system (GIS) expertise or custom data engineering pipelines.
Reducing EV range anxiety: How a simple AI model predicts port availability
この記事では、電気自動車(EV)の充電ポートの利用可能性を予測するためのシンプルなAIモデルについて説明しています。このモデルは、特定の充電ステーションでのポートの利用可能性を、現在の時刻から数分後に予測することができ、EVドライバーが効率的に旅行を計画し、充電ステーションでの待機時間を最小限に抑えるのに役立ちます。EVの普及が進む中、信頼性の高い充電インフラの構築が求められています。記事では、充電ステーションをナビゲーションルートに統合することで、EVドライバーの「航続距離不安」を軽減するアプローチが紹介されています。モデルは、シンプルな線形回帰アプローチに基づいており、リアルタイムの利用可能データを使用してトレーニングされています。特に、時間帯を特徴として扱い、各時間帯のポートの占有率の変化を予測するための重みを学習します。 • EV充電ポートの利用可能性を予測するAIモデルを開発した。 • モデルは、特定の充電ステーションでのポートの利用可能性を数分後に予測する。 • 充電ステーションをナビゲーションルートに統合することで、航続距離不安を軽減する。 • シンプルな線形回帰アプローチを使用し、リアルタイムのデータでトレーニングされた。 • 時間帯を特徴として扱い、各時間帯のポートの占有率の変化を予測するための重みを学習する。
How Wipro PARI accelerates PLC code generation using Amazon Bedrock
In this post, we share how Wipro implemented advanced prompt engineering techniques, custom validation logic, and automated code rectification to streamline the development of industrial automation code at scale using Amazon Bedrock. We walk through the architecture along with the key use cases, explain core components and workflows, and share real-world results that show the transformative impact on manufacturing operations.
16 Google AI tips for stress-free holiday hosting in 2025
Use Gemini, Search, Pixel and more to make holiday planning feel effortless in 2025.
Self-driving infrastructure
At Vercel, we’re building self-driving infrastructure, a system that autonomously manages production operations, improves application code using real-world insights, and learns from the unpredictable nature of production itself.
Open ASR Leaderboard: Trends and Insights with New Multilingual & Long-Form Tracks
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
20x Faster TRL Fine-tuning with RapidFire AI
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Develop a deeper understanding with interactive images in Gemini.
Learning science consistently shows us that true learning requires active engagement. This is fundamental to how Gemini helps you learn. Going beyond simple text and sta…
Newsroom
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
MSD explores applying generative Al to improve the deviation management process using AWS services
This blog post has explores how MSD is harnessing the power of generative AI and databases to optimize and transform its manufacturing deviation management process. By creating an accurate and multifaceted knowledge base of past events, deviations, and findings, the company aims to significantly reduce the time and effort required for each new case while maintaining the highest standards of quality and compliance.
Accelerating genomics variant interpretation with AWS HealthOmics and Amazon Bedrock AgentCore
In this blog post, we show you how agentic workflows can accelerate the processing and interpretation of genomics pipelines at scale with a natural language interface. We demonstrate a comprehensive genomic variant interpreter agent that combines automated data processing with intelligent analysis to address the entire workflow from raw VCF file ingestion to conversational query interfaces.
How Rufus scales conversational shopping experiences to millions of Amazon customers with Amazon Bedrock
Our team at Amazon builds Rufus, an AI-powered shopping assistant which delivers intelligent, conversational experiences to delight our customers. More than 250 million customers have used Rufus this year. Monthly users are up 140% YoY and interactions are up 210% YoY. Additionally, customers that use Rufus during a shopping journey are 60% more likely to […]
How Care Access achieved 86% data processing cost reductions and 66% faster data processing with Amazon Bedrock prompt caching
In this post, we demonstrate how healthcare organizations can securely implement prompt caching technology to streamline medical record processing while maintaining compliance requirements.
How we’re bringing AI image verification to the Gemini app
Our new Gemini app feature allows you to verify Google AI images and determine whether content was created or edited by AI.
Build with Nano Banana Pro, our Gemini 3 Pro Image model
Nano Banana Pro, or Gemini 3 Pro Image, is our most advanced image generation and editing model.
Introducing Nano Banana Pro
Nano Banana Pro is our new image generation and editing model from Google DeepMind.
How we’re bringing AI image verification to the Gemini app
Our new Gemini app feature allows you to verify Google AI images and determine whether content was created or edited by AI.
Build with Nano Banana Pro, our Gemini 3 Pro Image model
Nano Banana Pro, or Gemini 3 Pro Image, is our most advanced image generation and editing model.
Introducing Nano Banana Pro
Nano Banana Pro is our new image generation and editing model from Google DeepMind.
OpenAI and Foxconn collaborate to strengthen U.S. manufacturing across the AI supply chain
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上 • エラー削減の効果
How Westinghouse is reenergizing nuclear power with — and for — AI
Westinghouse has partnered with Google Cloud to develop a custom AI-powered platform.
Nano Banana Pro (Gemini 3 Pro Image) now available in the AI Gateway
You can now access Google's latest model Nano Banana Pro (Gemini 3 Pro Image) in Vercel AI Gateway with no other provider accounts required.
Grok 4.1 Fast models now available on Vercel AI Gateway
You can now access xAI's Grok 4.1 models in Vercel AI Gateway with no other provider accounts required.
Helping 1,000 Main Street businesses build with AI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
How Jimdo empower solopreneurs with AI-powered business assistance
See how Jimdo uses LangChain.js, LangGraph.js, and LangSmith to deliver personalized business insights that drive 50% more first customer contacts and 40% more overall customer activity.
Claude Code deployment patterns and best practices with Amazon Bedrock
In this post, we explore deployment patterns and best practices for Claude Code with Amazon Bedrock, covering authentication methods, infrastructure decisions, and monitoring strategies to help enterprises deploy securely at scale. We recommend using Direct IdP integration for authentication, a dedicated AWS account for infrastructure, and OpenTelemetry with CloudWatch dashboards for comprehensive monitoring to ensure secure access, capacity management, and visibility into costs and developer productivity .
Amazon Bedrock Guardrails expands support for code domain
Amazon Bedrock Guardrails now extends its safety controls to protect code generation across twelve programming languages, addressing critical security challenges in AI-assisted software development. In this post, we explore how to configure content filters, prompt attack detection, denied topics, and sensitive information filters to safeguard against threats like prompt injection, data exfiltration, and malicious code generation while maintaining developer productivity .
Announcing the AWS Well-Architected Responsible AI Lens
Today, we're announcing the AWS Well-Architected Responsible AI Lens—a set of thoughtful questions and corresponding best practices that help builders address responsible AI concerns throughout development and operation.
How Amazon uses AI agents to support compliance screening of billions of transactions per day
Amazon's AI-powered Amazon Compliance Screening system tackles complex compliance challenges through autonomous agents that analyze, reason through, and resolve cases with precision. This blog post explores how Amazon’s Compliance team built its AI-powered investigation system through a series of AI agents built on AWS.
Build an agentic solution with Amazon Nova, Snowflake, and LangGraph
In this post, we cover how you can use tools from Snowflake AI Data Cloud and Amazon Web Services (AWS) to build generative AI solutions that organizations can use to make data-driven decisions, increase operational efficiency, and ultimately gain a competitive edge.
Using Spectrum fine-tuning to improve FM training efficiency on Amazon SageMaker AI
In this post you will learn how to use Spectrum to optimize resource use and shorten training times without sacrificing quality, as well as how to implement Spectrum fine-tuning with Amazon SageMaker AI training jobs. We will also discuss the tradeoff between QLoRA and Spectrum fine-tuning, showing that while QLoRA is more resource efficient, Spectrum results in higher performance overall.
Strengthening our safety ecosystem with external testing
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを分析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを分析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 他の開発環境との高い互換性 • 生産性向上が期待される
How evals drive the next chapter in AI for businesses
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Real-time speech-to-speech translation
本記事では、リアルタイム音声から音声への翻訳(S2ST)モデルを紹介しています。このモデルは、元の話者の声でリアルタイム翻訳を実現し、わずか2秒の遅延でコミュニケーションを可能にします。従来のS2STシステムは4〜5秒の遅延があり、エラーが蓄積しやすく、個性が欠けていました。新しいエンドツーエンドのS2STモデルは、ストリーミングフレームワークを活用し、時間同期データでのトレーニングにより遅延を大幅に削減しています。また、スケーラブルなデータ取得パイプラインを導入し、より多くの言語に対応できるようにしています。この技術は、リアルタイムでの使用ケースにおいて効果を示しています。 • リアルタイム音声翻訳の遅延を2秒に短縮 • 従来のシステムの4〜5秒の遅延を解消 • エンドツーエンドのモデルにより個性を持った翻訳を実現 • スケーラブルなデータ取得パイプラインを構築 • 音声ストリーミングに特化した機械学習アーキテクチャを導入
At our Research@ Poland event we shared how AI is helping us solve big challenges.
From AI education to disaster response, see how collaboration is at the heart of the work at Google Research.
OpenAI and Target team up on new AI-powered experiences
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、ツールがそれに基づいてコードを生成することが可能です。また、既存のコードの改善提案やバグの修正も行えるため、開発効率が大幅に向上します。さらに、ユーザーインターフェースも直感的で使いやすく設計されており、導入のハードルが低くなっています。これにより、幅広い開発者がこのツールを活用できるようになります。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づくコード生成機能 • 既存コードの改善提案やバグ修正機能 • 開発効率の向上 • 直感的で使いやすいユーザーインターフェース
PINA Joins the PyTorch Ecosystem: A Unified Framework for Scientific Machine Learning
PINAは、科学的機械学習(SciML)のために設計されたオープンソースのPythonライブラリで、PyTorchおよびPyTorch Lightningに基づいています。PINAは、部分微分方程式の解法学習や機械学習力場の構築、動的シミュレーション、物体変形のモデリングなど、さまざまな科学的課題に対応するための統一されたフレームワークを提供します。PINAは、問題定義、モデル設計、ソルバー選択、トレーニングの4つの主要なステージで構成されており、各ステージはカスタマイズ可能で、外部のPyTorchコンポーネントと組み合わせることができます。これにより、研究探索や生産パイプラインに自然に適応できる柔軟性を持っています。トレーニングはPyTorch Lightningによって強化されており、大規模データセットや計算負荷の高い問題に対して効率的な実行が可能です。 • PINAは科学的機械学習のためのオープンソースライブラリである。 • PyTorchおよびPyTorch Lightningに基づいており、PyTorch Geometricと完全互換性がある。 • PINAは問題定義、モデル設計、ソルバー選択、トレーニングの4つの主要なステージを持つ。 • 各ステージはカスタマイズ可能で、外部のPyTorchコンポーネントと組み合わせることができる。 • トレーニングはPyTorch Lightningによって行われ、大規模データセットに対して効率的に実行できる。
Bringing tic-tac-toe to life with AWS AI services
RoboTic-Tac-Toe is an interactive game where two physical robots move around a tic-tac-toe board, with both the gameplay and robots’ movements orchestrated by LLMs. Players can control the robots using natural language commands, directing them to place their markers on the game board. In this post, we explore the architecture and prompt engineering techniques used to reason about a tic-tac-toe game and decide the next best game strategy and movement plan for the current player.
HyperPod enhances ML infrastructure with security and storage
This blog post introduces two major enhancements to Amazon SageMaker HyperPod that strengthen security and storage capabilities for large-scale machine learning infrastructure. The new features include customer managed key (CMK) support for encrypting EBS volumes with organization-controlled encryption keys, and Amazon EBS CSI driver integration that enables dynamic storage management for Kubernetes volumes in AI workloads.
Start building with Gemini 3
Gemini 3 is introducing advanced agentic coding capabilities, plus Google Antigravity, a new agentic development platform.
Accelerating generative AI applications with a platform engineering approach
In this post, I will illustrate how applying platform engineering principles to generative AI unlocks faster time-to-value, cost control, and scalable innovation.
We’re expanding our presence in Singapore to advance AI in the Asia-Pacific region
Google DeepMind opens a new research lab in Singapore to accelerate the development of frontier AI across the Asia-Pacific region through research, talent, and strategic collaborations.
A new era of intelligence with Gemini 3
Today we’re releasing Gemini 3 – our most intelligent model that helps you bring any idea to life.
Introducing Google Antigravity
Google Antigravity - Build the new way
Generative UI: A rich, custom, visual interactive user experience for any prompt
本記事では、Generative UIの新しい実装について紹介しています。この技術により、AIモデルはユーザーのプロンプトに応じて、没入型の視覚体験やインタラクティブなツール、シミュレーションをリアルタイムで生成することが可能になります。現在、GeminiアプリとGoogle検索のAIモードで展開されており、ユーザーの質問や指示に基づいて完全にカスタマイズされたインターフェースを提供します。従来の静的なインターフェースとは異なり、Generative UIは動的に設計され、ユーザーのニーズに応じた体験を提供します。実験的な機能として、Geminiアプリではダイナミックビューとビジュアルレイアウトが導入されており、これによりユーザーはインタラクティブに学んだり、遊んだり、探求したりすることができます。 • AIモデルがプロンプトに応じて没入型の視覚体験を生成する。 • Generative UIは、ユーザーのニーズに応じたカスタマイズされたインターフェースを提供する。 • Geminiアプリでのダイナミックビューとビジュアルレイアウトの実験が行われている。 • ユーザーはシンプルな質問から複雑な指示まで、様々なプロンプトに対してインタラクティブな応答を得られる。 • 従来の静的インターフェースに比べ、ユーザーからの評価が高い。
Google Search with Gemini 3: Our most intelligent search yet
Learn more about Gemini 3 and how it’s upgrading Google Search and AI Mode.
A new era of intelligence with Gemini 3
Today we’re releasing Gemini 3 – our most intelligent model that helps you bring any idea to life.
Vercel collaborates with Google for Gemini 3 Pro Preview launch
The Gemini 3 Pro Preview model, released today, is now available through AI Gateway and in production on v0.app.
Gemini 3 Pro now available in Vercel AI Gateway
You can now access Google's latest model Gemini 3 Pro in Vercel AI Gateway with no other provider accounts required.
Intuit and OpenAI join forces on new AI-powered experiences
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなくすぐに利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Devin's Annual Performance Review
Eighteen months since launch, Devin’s gone from tackling small projects, to deeply embedding in engineering teams at thousands of companies, including some of the largest businesses in the world. We decided it was well past time for Devin to get a performance review - just like any human engineer.
Your complete guide to Amazon Quick Suite at AWS re:Invent 2025
This year, re:Invent will be held in Las Vegas, Nevada, from December 1 to December 5, 2025, and this guide will help you navigate our comprehensive session catalog and plan your week. The sessions cater to business and technology leaders, product and engineering teams, and data and analytics teams interested in incorporating agentic AI capabilities across their teams and organization.
Accelerate enterprise solutions with agentic AI-powered consulting: Introducing AWS Professional Service Agents
I'm excited to announce AWS Professional Services now offers specialized AI agents including the AWS Professional Services Delivery Agent. This represents a transformation to the consulting experience that embeds intelligent agents throughout the consulting life cycle to deliver better value for customers.
Amazon Bedrock AgentCore and Claude: Transforming business with agentic AI
In this post, we explore how Amazon Bedrock AgentCore and Claude are enabling enterprises like Cox Automotive and Druva to deploy production-ready agentic AI systems that deliver measurable business value, with results including up to 63% autonomous issue resolution and 58% faster response times. We examine the technical foundation combining Claude's frontier AI capabilities with AgentCore's enterprise-grade infrastructure that allows organizations to focus on agent logic rather than building complex operational systems from scratch.
New ways to plan travel with AI in Search
Use new Google AI tools to get help with itineraries, finding flight deals and booking reservations.
WeatherNext 2: Our most advanced weather forecasting model
The new AI model delivers more efficient, more accurate and higher-resolution global weather predictions.
WeatherNext 2: Our most advanced weather forecasting model
The new AI model delivers more efficient, more accurate and higher-resolution global weather predictions.
OpenAI named Emerging Leader in Generative AI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Google is committing $2.25 million to support AI-ready data in Africa.
New funding from Google will help launch a regional Data Commons for Africa.
Build a biomedical research agent with Biomni tools and Amazon Bedrock AgentCore Gateway
In this post, we demonstrate how to build a production-ready biomedical research agent by integrating Biomni's specialized tools with Amazon Bedrock AgentCore Gateway, enabling researchers to access over 30 biomedical databases through a secure, scalable infrastructure. The implementation showcases how to transform research prototypes into enterprise-grade systems with persistent memory, semantic tool discovery, and comprehensive observability for scientific reproducibility .
Make your web apps hands-free with Amazon Nova Sonic
Graphical user interfaces have carried the torch for decades, but today’s users increasingly expect to talk to their applications. In this post we show how we added a true voice-first experience to a reference application—the Smart Todo App—turning routine task management into a fluid, hands-free conversation.
Harnessing the power of generative AI: Druva’s multi-agent copilot for streamlined data protection
Generative AI is transforming the way businesses interact with their customers and revolutionizing conversational interfaces for complex IT operations. Druva, a leading provider of data security solutions, is at the forefront of this transformation. In collaboration with Amazon Web Services (AWS), Druva is developing a cutting-edge generative AI-powered multi-agent copilot that aims to redefine the customer experience in data security and cyber resilience.
Introducing OpenAI for Ireland
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Mastra UI Dojo: Choose your frontend
We have a new UI dojo. It's a collection of working examples showing Mastra agents integrated with the most popular AI UI frameworks. Try it out at ui-dojo.mastra.ai.
Beyond Quantization: Bringing Sparse Inference to PyTorch
この記事では、PyTorchにおけるスパース推論の統一フレームワークの構築について述べています。大規模言語モデル(LLM)の運用コストが高いため、低精度の量子化だけでは不十分であり、スパース性の最適化が必要とされています。初期のモデルでは、95%から99%の重みが非活性化されていることが示されており、これを利用してメモリと計算を節約する方法が提案されています。特に、Deja Vuと呼ばれる手法を用いることで、推論速度が2-6倍向上し、精度の低下もほとんど見られないことが報告されています。さらに、最新のモデルではSiLUやGeLUといった滑らかな活性化関数が使用されており、これにより活性化のスパース性が低下していますが、Reluficationという手法を用いることで再びスパース性を高めることが可能であるとされています。 • 大規模言語モデルの運用コストが高く、低精度の量子化だけでは不十分である。 • スパース性の最適化が次のフロンティアであり、PyTorchでの統一フレームワークの構築が進められている。 • 初期モデルでは95%から99%の重みが非活性化されており、これを利用してメモリと計算を節約できる。 • Deja Vu手法により、推論速度が2-6倍向上し、精度の低下もほとんど見られない。 • 最新モデルではSiLUやGeLUが使用され、活性化のスパース性が低下しているが、Relufication手法で再びスパース性を高めることが可能。
Execute Code with Sandboxes for DeepAgents
By Vivek Trivedy Today we're excited to launch Sandboxes for DeepAgents, a new set of integrations that allow you to safely execute arbitrary DeepAgent code in remote sandboxes. We currently support sandboxes from 3 of our partners: Runloop, Daytona, and Modal. Below, we dive into what you can do with
SIMA 2: An Agent that Plays, Reasons, and Learns With You in Virtual 3D Worlds
Introducing SIMA 2, the next milestone in our research creating general and helpful AI agents. By integrating the advanced capabilities of our Gemini models, SIMA is evolving from an instruction-foll…
GPT 5.1 models now available in Vercel AI Gateway
You can now access the two GPT 5.1 models with Vercel's AI Gateway with no other provider accounts required.
GPT 5.1 Codex models now available in Vercel AI Gateway
You can now access the two GPT 5.1 Codex models with Vercel's AI Gateway with no other provider accounts required.
GPT 5.1, GPT 5.1-Codex, and GPT-5.1-Codex Mini are now available in Windsurf
GPT 5.1, GPT 5.1-Codex, and GPT-5.1-Codex Mini deliver a solid upgrade for agentic coding with variable thinking and improved steerability
Building an MCP Server for Nuxt
How we built the Nuxt MCP server to enable AI assistants to access our documentation through structured data and composable tools.
Understanding neural networks through sparse circuits
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Google Pixel and Golden Goose partner to bring AI to global ateliers
Advances in AI have opened up the possibilities for greater personalisation in the fashion world. Exploring this intersection between technology and high fashion, we’re …
A new quantum toolkit for optimization
Google Quantum AIの研究者たちは、量子コンピュータが従来のコンピュータでは解決できない最適化問題を解決できる可能性を示す新しい理論的研究を発表しました。彼らは、Decoded Quantum Interferometry(DQI)と呼ばれる効率的な量子アルゴリズムを紹介し、量子力学の波の性質を利用して、古典的なコンピュータでは非常に難しい近似解に収束する干渉パターンを生成します。しかし、この干渉パターンを構築するためには、デコーディングと呼ばれる別の難しい計算問題を解決する必要があります。特定の最適化問題に対して、関連するデコーディング問題が強力なアルゴリズムによって解決可能であることが発見されました。最終的に、DQIアルゴリズムを使用することで、量子コンピュータは古典的に困難な最適化問題を解決できる可能性があります。 • 量子コンピュータが従来のコンピュータでは解決できない最適化問題を解決できる可能性がある。 • Decoded Quantum Interferometry(DQI)という新しい量子アルゴリズムを提案。 • DQIは量子力学の波の性質を利用して干渉パターンを生成し、近似解に収束する。 • 干渉パターンを構築するためにはデコーディング問題を解決する必要がある。 • 特定の最適化問題に対して、デコーディング問題が強力なアルゴリズムで解決可能であることが発見された。 • DQIアルゴリズムを使用することで、量子コンピュータは古典的に困難な最適化問題を解決できる。
Building for an Open Future - our new partnership with Google Cloud
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Differentially private machine learning at scale with JAX-Privacy
JAX-Privacy 1.0は、JAXライブラリ上で動作する差分プライバシー機械学習のためのツールキットです。AIモデルの精度はデータの質に依存しており、個人のプライバシーを保護しながら大規模な高品質データセットを使用する必要があります。JAXは高性能な数値計算ライブラリで、複雑なモデルの効率的な構築とトレーニングを可能にします。JAX-Privacyは、研究者や開発者が大規模データセットで深層学習モデルをトレーニングするための差分プライバシーアルゴリズムを迅速かつ効率的に実装できるように設計されています。新バージョンでは、最新の研究成果を統合し、モジュール性を重視して再設計されており、最先端のDPアルゴリズムとJAXのスケーラビリティを組み合わせたDPトレーニングパイプラインの構築が容易になっています。 • JAX-Privacyは、JAXライブラリ上で動作する差分プライバシー機械学習のためのツールキットである。 • AIモデルの精度はデータの質に依存し、個人のプライバシーを保護しながらデータを使用する必要がある。 • JAXは高性能な数値計算ライブラリで、複雑なモデルの効率的な構築とトレーニングを可能にする。 • JAX-Privacyは、研究者が大規模データセットで深層学習モデルをトレーニングするための差分プライバシーアルゴリズムを迅速に実装できる。 • 新バージョンでは、最新の研究成果を統合し、DPトレーニングパイプラインの構築が容易になった。
Neuro drives national retail wins with ChatGPT Business
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなくすぐに利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Fighting the New York Times’ invasion of user privacy
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。また、ユーザーインターフェースが直感的で使いやすく、導入も簡単です。さらに、チームでのコラボレーション機能も強化されており、リアルタイムでの共同作業が可能です。これにより、開発の効率が大幅に向上し、プロジェクトの納期短縮にも寄与します。 • AI技術を活用した開発ツールの紹介 • エラー検出やコード最適化の支援 • 直感的なユーザーインターフェース • 簡単な導入プロセス • チームでのリアルタイムコラボレーション機能の強化 • 開発効率の向上と納期短縮の効果
Announcing our second book: Patterns for Building AI Agents
We're excited to announce the release of our new book: Patterns for Building AI Agents. This book helps you take your agents from prototype to production.
Introducing agent-to-agent protocol support in Amazon Bedrock AgentCore Runtime
In this post, we demonstrate how you can use the A2A protocol for AI agents built with different frameworks to collaborate seamlessly. You'll learn how to deploy A2A servers on AgentCore Runtime, configure agent discovery and authentication, and build a real-world multi-agent system for incident response. We'll cover the complete A2A request lifecycle, from agent card discovery to task delegation, showing how standardized protocols eliminate the complexity of multi-agent coordination.
Powering enterprise search with the Cohere Embed 4 multimodal embeddings model in Amazon Bedrock
The Cohere Embed 4 multimodal embeddings model is now available as a fully managed, serverless option in Amazon Bedrock. In this post, we dive into the benefits and unique capabilities of Embed 4 for enterprise search use cases. We’ll show you how to quickly get started using Embed 4 on Amazon Bedrock, taking advantage of integrations with Strands Agents, S3 Vectors, and Amazon Bedrock AgentCore to build powerful agentic retrieval-augmented generation (RAG) workflows.
A guide to building AI agents in GxP environments
The regulatory landscape for GxP compliance is evolving to address the unique characteristics of AI. Traditional Computer System Validation (CSV) approaches, often with uniform validation strategies, are being supplemented by Computer Software Assurance (CSA) frameworks that emphasize flexible risk-based validation methods tailored to each system's actual impact and complexity (FDA latest guidance). In this post, we cover a risk-based implementation, practical implementation considerations across different risk levels, the AWS shared responsibility model for compliance, and concrete examples of risk mitigation strategies.
Multi-Agent collaboration patterns with Strands Agents and Amazon Nova
In this post, we explore four key collaboration patterns for multi-agent, multimodal AI systems – Agents as Tools, Swarms Agents, Agent Graphs, and Agent Workflows – and discuss when and how to apply each using the open-source AWS Strands Agents SDK with Amazon Nova models.
Private AI Compute: our next step in building private and helpful AI
Introducing Private AI Compute, our new way to bring you helpful AI with the power of the cloud, while keeping your data private to you.
Teaching AI to see the world more like we do
Aligning AI vision models with human knowledge, improves their robustness and ability to generalize.
Our latest commitments in AI and learning
We’re bringing together experts, students, educators and more at our Google AI for Learning Forum.
Join LangChain at AWS re:Invent 2025
If you're attending AWS re:Invent in Las Vegas this year and working on agent development, here's what we have planned that might be useful. Visit Us at Booth #524 We'll be at Booth #524 in the Venetian Expo Center, next to the Industry Pavilion, December 1-4. Our engineering team
Fine-tune VLMs for multipage document-to-JSON with SageMaker AI and SWIFT
In this post, we demonstrate that fine-tuning VLMs provides a powerful and flexible approach to automate and significantly enhance document understanding capabilities. We also demonstrate that using focused fine-tuning allows smaller, multi-modal models to compete effectively with much larger counterparts (98% accuracy with Qwen2.5 VL 3B).
How Clario automates clinical research analysis using generative AI on AWS
In this post, we demonstrate how Clario has used Amazon Bedrock and other AWS services to build an AI-powered solution that automates and improves the analysis of COA interviews.
How AI is giving Northern Ireland teachers time back
A six-month long pilot program with the Northern Ireland Education Authority’s C2k initiative found that integrating Gemini and other generative AI tools saved participa…
Model fallbacks now available in Vercel AI Gateway
Model fallbacks now supported in Vercel AI Gateway in addition to provider routing, giving you failover options when models fail or are unavailable.
Building Trust into AI: How GraphQL Architects Accelerated Developer Delivery
Unlock microservices potential with Apollo GraphQL. Seamlessly integrate APIs, manage data, and enhance performance. Explore Apollo's innovative solutions.
How AI is giving Northern Ireland teachers time back
A six-month long pilot program with the Northern Ireland Education Authority’s C2k initiative found that integrating Gemini and other generative AI tools saved participa…
Free ChatGPT for transitioning U.S. servicemembers and veterans
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Connect Amazon Bedrock agents to cross-account knowledge bases
Organizations need seamless access to their structured data repositories to power intelligent AI agents. However, when these resources span multiple AWS accounts integration challenges can arise. This post explores a practical solution for connecting Amazon Bedrock agents to knowledge bases in Amazon Redshift clusters residing in different AWS accounts.
Democratizing AI: How Thomson Reuters Open Arena supports no-code AI for every professional with Amazon Bedrock
In this blog post, we explore how TR addressed key business use cases with Open Arena, a highly scalable and flexible no-code AI solution powered by Amazon Bedrock and other AWS services such as Amazon OpenSearch Service, Amazon Simple Storage Service (Amazon S3), Amazon DynamoDB, and AWS Lambda. We'll explain how TR used AWS services to build this solution, including how the architecture was designed, the use cases it solves, and the business profiles that use it.
Google is investing in Oklahoma’s workforce and talent pipeline.
AI is creating new opportunities for Oklahomans to learn, grow and succeed. Google is committed to making sure the Sooner State is not just ready for this transformation…
Introducing structured output for Custom Model Import in Amazon Bedrock
Today, we are excited to announce the addition of structured output to Custom Model Import. Structured output constrains a model's generation process in real time so that every token it produces conforms to a schema you define. Rather than relying on prompt-engineering tricks or brittle post-processing scripts, you can now generate structured outputs directly at inference time.
Introducing Nested Learning: A new ML paradigm for continual learning
Nested Learningは、機械学習における新しいアプローチで、モデルを小さな最適化問題の集合として捉え、各問題が独自の内部ワークフローを持つことで「破滅的忘却」の問題を軽減または回避することを目指しています。従来の手法では、モデルのアーキテクチャと最適化アルゴリズムを別々に扱っていましたが、Nested Learningではこれらを統合し、相互に関連する多層の学習問題として最適化します。この新しい視点により、より深い計算深度を持つ学習コンポーネントを設計でき、言語モデリングにおいて優れた性能を発揮し、長期的な記憶管理を改善することが示されています。 • Nested Learningは、機械学習における破滅的忘却を軽減する新しいアプローチである。 • モデルを小さな最適化問題の集合として捉え、各問題が独自の内部ワークフローを持つ。 • 従来の手法ではアーキテクチャと最適化アルゴリズムを別々に扱っていたが、Nested Learningでは統合して最適化する。 • このアプローチにより、より深い計算深度を持つ学習コンポーネントを設計できる。 • 言語モデリングにおいて優れた性能を示し、長期的な記憶管理を改善する。
How Nous Research used BotID to block automated abuse at scale
Vercel BotID Deep Analysis protected Nous Research by blocking advanced automated abuse from attacking their application
AI domain search now available via Vercel Domains
You can now search for domains on Vercel using AI. Results are fast and creative, and you have full control via the search bar.
Understanding prompt injections: a frontier security challenge
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなくすぐに利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も大きな特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Introducing the File Search Tool in Gemini API
File Search is a fully managed Retrieval Augmented Generation (RAG) system built directly into the Gemini API.
DS-STAR: A state-of-the-art versatile data science agent
DS-STARは、データサイエンスのさまざまなタスクを自動化する最先端のエージェントであり、統計分析から可視化、データ処理まで幅広く対応します。このエージェントは、DABStepベンチマークでの優れたパフォーマンスを示しています。データサイエンスは、膨大なデータを意味のある洞察に変換する重要な分野ですが、プロセスは複雑で専門知識を必要とします。DS-STARは、自然言語の質問を実行可能なコードに変換する自律的なデータサイエンスエージェントを目指しています。DS-STARは、(1)さまざまなデータ形式から文脈を自動的に抽出するデータファイル分析モジュール、(2)各ステップの計画の十分性を評価するLLMベースの検証ステージ、(3)フィードバックに基づいて初期計画を反復的に洗練するプロセスを導入しています。これにより、DS-STARは複雑な分析を行い、複数のデータソースから検証可能な洞察を引き出すことができます。 • DS-STARはデータサイエンスのタスクを自動化するエージェントである。 • 統計分析、可視化、データ処理など、さまざまなデータ形式に対応。 • DABStepベンチマークでの優れたパフォーマンスを示す。 • データファイル分析モジュールが多様なデータ形式から文脈を抽出。 • LLMベースの検証ステージが計画の十分性を評価。 • フィードバックに基づく反復的な計画プロセスを採用。 • 複数のデータソースからの検証可能な洞察を提供。
Transform your MCP architecture: Unite MCP servers through AgentCore Gateway
Earlier this year, we introduced Amazon Bedrock AgentCore Gateway, a fully managed service that serves as a centralized MCP tool server, providing a unified interface where agents can discover, access, and invoke tools. Today, we're extending support for existing MCP servers as a new target type in AgentCore Gateway. With this capability, you can group multiple task-specific MCP servers aligned to agent goals behind a single, manageable MCP gateway interface. This reduces the operational complexity of maintaining separate gateways, while providing the same centralized tool and authentication management that existed for REST APIs and AWS Lambda functions.
Google Finance adds AI features for research, earnings and more
Learn more about the new Google Finance, including new features like Deep Search and prediction markets data.
AI and learning: A new chapter for students and educators
How Google approaches AI and education, from our tools to our commitment to responsibility.
How AI Gateway runs on Fluid compute
The AI Gateway is a simple application deployed on Vercel, but it achieves scale, efficiency, and resilience by running on Fluid compute and leveraging Vercel’s global infrastructure.
Moonshot AI's Kimi K2 Thinking models are now available on Vercel AI Gateway
You can now access Moonshot AI's Kimi K2 Thinking and Kimi K2 Thinking Turbo with Vercel's AI Gateway with no other provider accounts required.
CVE-2025-48985: Input Validation Bypass on AI SDK
A low severity vulnerability of input validation bypass on Vercel AI SDK has been mitigated and fixed
From Pilot to Practice: How BBVA Is Scaling AI Across the Organization
BBVA is reimagining how employees work with ChatGPT Enterprise, embedding AI into everyday operations. The bank has saved hours per week per employee, created 20,000+ Custom GPTs, and achieved up to 80% efficiency gains.
KernelFalcon: Autonomous GPU Kernel Generation via Deep Agents
KernelFalconは、GPUカーネルを生成するための深層エージェントアーキテクチャであり、階層的なタスク分解、決定論的な制御プレーン、早期勝利の並列探索、ツールの使用、持続的なメモリと可観測性を組み合わせています。このシステムは、250のL1/L2/L3 KernelBenchタスクにおいて100%の正確性を達成した初のオープンエージェントシステムです。KernelFalconは、PyTorchのセマンティクスを保持しつつ、最適化されたTritonカーネルを生成するコードからコードへのシステムです。従来の静的なグラフベースのコンパイラとは異なり、Pythonのセマンティクスを保持し、動的な形状やデータ依存のルーティングを有効にします。KernelAgentは候補カーネルをコンパイルし、テストし、最初に数値的に正しいカーネルを早期に見つけ出します。これにより、より広範なカバレッジと現実的なパフォーマンスが実現されます。 • KernelFalconはGPUカーネル生成のための深層エージェントアーキテクチャである。 • 100%の正確性を持つ初のオープンエージェントシステムである。 • PyTorchのセマンティクスを保持しつつ、最適化されたTritonカーネルを生成する。 • 従来のコンパイラの限界を克服するために、動的な形状やデータ依存のルーティングをサポート。 • KernelAgentは候補カーネルをコンパイルし、数値的に正しいカーネルを早期に見つける。 • 並列探索と実行ベースの検証を使用して、実際にGPU上で動作するカーネルを提供。 • タスクを明確に分解し、LLMの失敗モードを減少させる。
AI progress and recommendations
AI is unlocking new knowledge and capabilities. Our responsibility is to guide that power toward broad, lasting benefit.
Introducing the Teen Safety Blueprint
Discover OpenAI’s Teen Safety Blueprint—a roadmap for building AI responsibly with safeguards, age-appropriate design, and collaboration to protect and empower young people online.
Open Source AI Editor: Second Milestone
Ghost text suggestions are now open source as part of the Copilot Chat extension - the second milestone in making VS Code an open source AI editor.
Hybrid Models as First-Class Citizens in vLLM
この記事では、vLLMにおけるハイブリッドモデルの重要性とその進化について説明しています。大規模言語モデルは、注意メカニズムのスケーリング限界に直面しており、特に長いシーケンスに対する効率的な推論が求められています。ハイブリッドモデル(例:Qwen3-Next、Nemotron Nano 2など)は、注意と他のメカニズムを組み合わせることで、モデリングの質を保ちながら長シーケンスの推論を可能にします。vLLMコミュニティでは、これらのハイブリッドモデルが実験的な手法から正式にサポートされるようになり、性能向上が期待されています。特に、長いシーケンスが必要な実世界のワークロード(例:情報検索を用いた生成)において、ハイブリッドモデルは重要な役割を果たします。 • 大規模言語モデルは注意メカニズムのスケーリング限界に直面している。 • ハイブリッドモデルは注意と他のメカニズムを組み合わせ、長シーケンスの推論を効率化する。 • vLLM V1ではハイブリッドモデルが正式にサポートされ、性能向上が期待される。 • 長いシーケンスは実世界のワークロードにおいて必要不可欠である。 • 情報検索を用いた生成(RAG)などのパターンが長いシーケンスを必要とする。
How CRED is tapping AI to deliver premium customer experiences
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Driving ROI with Azure AI Foundry and UiPath: Intelligent agents in real-world healthcare workflows
Azure AI Foundry and UiPath automate healthcare—streamlining radiology, managing findings, and improving outcomes for better ROI.
How Amazon Search increased ML training twofold using AWS Batch for Amazon SageMaker Training jobs
In this post, we show you how Amazon Search optimized GPU instance utilization by leveraging AWS Batch for SageMaker Training jobs. This managed solution enabled us to orchestrate machine learning (ML) training workloads on GPU-accelerated instance families like P5, P4, and others. We will also provide a step-by-step walkthrough of the use case implementation.
Improving Structured Outputs in the Gemini API
Today, we're announcing enhancements to Structured Outputs in the Gemini API.
Mapping, modeling, and understanding nature with AI
Discover how AI models are helping scientists better understand our biosphere, from predicting deforestation to mapping species and listening to wildlife.
Why We Rebuilt LangChain’s Chatbot and What We Learned
By Liam Bush Background Every successful platform needs reliable support, but we realized our own team was spending hours tracking down answers to technical questions. This friction wasn't just slowing down our engineers—it was a critical bottleneck for our users. We set out to solve this using the very
Forecasting the future of forests with AI: From counting losses to predicting risk
この記事では、AIを活用した初の深層学習ベンチマーク「ForestCast」を紹介し、森林伐採リスクの予測に関する新たなアプローチを提案しています。森林は気候や生態系において重要な役割を果たしていますが、世界中で急速に失われています。従来の手法は過去のデータに基づいていましたが、ForestCastは衛星データを用いて未来のリスクを予測することを目指しています。この新しいアプローチは、地域に依存せず、将来的にデータが更新されても適用可能です。記事では、森林伐採の予測が難しい理由や、従来の手法の限界についても触れています。最終的に、すべてのデータを公開し、コミュニティがこの研究を再現し、発展させることを目指しています。 • 森林伐採リスクの予測に関する新しい深層学習ベンチマーク「ForestCast」を発表 • 従来の手法は過去のデータに依存していたが、未来のリスクを予測することが可能に • 衛星データを用いた純粋なアプローチで、地域に依存せず、将来的にデータが更新可能 • 従来の手法は入力マップが不完全で、地域ごとに別々に組み立てる必要があった • 新しいアプローチは、精度が向上し、再現性が高い • 森林伐採の予測が難しい理由として、経済的、政治的、環境的要因の複雑さを挙げている • すべてのデータを公開し、コミュニティが研究を再現しやすくすることを目指している
How Chime is redefining marketing through AI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Microsoft strengthens sovereign cloud capabilities with new services
Discover new Microsoft digital sovereignty capabilities and upcoming features across AI, security, and productivity, to address sovereign cloud needs.
1 million business customers putting AI to work
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上