Last updated: 2025/09/28 07:00

Building health care agents using Amazon Bedrock AgentCore
In this solution, we demonstrate how the user (a parent) can interact with a Strands or LangGraph agent in conversational style and get information about the immunization history and schedule of their child, inquire about the available slots, and book appointments. With some changes, AI agents can be made event-driven so that they can automatically send reminders, book appointments, and so on.

Build multi-agent site reliability engineering assistants with Amazon Bedrock AgentCore
In this post, we demonstrate how to build a multi-agent SRE assistant using Amazon Bedrock AgentCore, LangGraph, and the Model Context Protocol (MCP). This system deploys specialized AI agents that collaborate to provide the deep, contextual intelligence that modern SRE teams need for effective incident response and infrastructure management.

Golf champ Bryson DeChambeau is partnering with Google Cloud to explore AI and sports performance.
Bryson DeChambeau is kicking off a partnership with Google Cloud to expand his AI aspirations.

Partnering with AARP to help keep older adults safe online
OpenAI and AARP are partnering to help older adults stay safe online with new AI training, scam-spotting tools, and nationwide programs through OpenAI Academy and OATS’s Senior Planet initiative.

Swift Transformers Reaches 1.0 — and Looks to the Future
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Adding agent templates into existing projects
You can now easily merge Mastra agent templates into your existing projects with just a few clicks.

DoWhile loops now supported in Amazon Bedrock Flows
Today, we are excited to announce support for DoWhile loops in Amazon Bedrock Flows. With this powerful new capability, you can create iterative, condition-based workflows directly within your Amazon Bedrock flows, using Prompt nodes, AWS Lambda functions, Amazon Bedrock Agents, Amazon Bedrock Flows inline code, Amazon Bedrock Knowledge Bases, Amazon Simple Storage Service (Amazon S3), […]

How PropHero built an intelligent property investment advisor with continuous evaluation using Amazon Bedrock
In this post, we explore how we built a multi-agent conversational AI system using Amazon Bedrock that delivers knowledge-grounded property investment advice. We explore the agent architecture, model selection strategy, and comprehensive continuous evaluation system that facilitates quality conversations while facilitating rapid iteration and improvement.

Accelerate benefits claims processing with Amazon Bedrock Data Automation
In the benefits administration industry, claims processing is a vital operational pillar that makes sure employees and beneficiaries receive timely benefits, such as health, dental, or disability payments, while controlling costs and adhering to regulations like HIPAA and ERISA. In this post, we examine the typical benefit claims processing workflow and identify where generative AI-powered automation can deliver the greatest impact.
Gemini Robotics 1.5 brings AI agents into the physical world
We’re powering an era of physical agents — enabling robots to perceive, plan, think, use tools and act to better solve complex multi-step tasks.

Empower your workforce with agents in Microsoft 365 Copilot
Find ready-to-use agents and more in the Microsoft 365 Copilot Agent Store and the Microsoft Marketplace. Get started today

More ways to work with your team and tools in ChatGPT
New shared projects, smarter connectors, and compliance and security updates help teams get more done.

Towards better health conversations: Research insights on a “wayfinding” AI agent based on Gemini
この記事では、Geminiに基づく「Wayfinding AI」エージェントの研究成果を紹介しています。このAIエージェントは、ユーザーが健康情報を見つける手助けをするために、積極的な会話ガイダンスや目標理解、個別化された会話を提供します。オンラインの健康情報はしばしば混乱を招き、個々の文脈に合った情報を見つけるのが難しいため、AIがこの情報をよりアクセスしやすく、個別化する可能性があります。従来のAIツールは受動的な「質問応答者」として機能することが多いですが、医療専門家のように、ユーザーのニーズを理解し、適切な情報を提供するためには、明確化の質問を積極的に行うことが重要です。研究では、163人の参加者を対象にした4つの混合手法のユーザー体験研究を通じて、AIエージェントがユーザーのニーズに対してより有用で関連性のある情報を提供できることが示されました。 • ユーザーが健康情報を見つける際の課題を解決するためのAIエージェントの設計 • AIエージェントが明確化の質問を積極的に行うことで、ユーザーのニーズをより良く理解できる • 163人の参加者を対象にした研究で、AIエージェントの有用性が向上したことを確認 • 従来のAIツールは受動的であり、医療専門家のような対話が必要 • ユーザーが健康に関する懸念を表現するのが難しいことが明らかになった • 明確化の質問がユーザーに自信を与え、より関連性のある文脈を提供する手助けをする

Measuring the performance of our models on real-world tasks
We’re introducing GDPval, a new evaluation that measures model performance on economically valuable, real-world tasks across 44 occupations.
Mastra Changelog 2025-09-25
New streaming architecture, scoring improvements, and more.

Introducing ChatGPT Pulse
Today we're releasing a preview of ChatGPT Pulse to Pro users on mobile. Pulse is a new experience where ChatGPT proactively does research to deliver personalized updates based on your chats, feedback, and connected apps like your calendar.

AfriMed-QA: Benchmarking large language models for global health
AfriMed-QAは、アフリカの健康に関する質問応答タスクのために開発された大規模なベンチマークデータセットであり、アフリカ各国の組織と協力して作成されました。このデータセットは、医療関連の質問に対する大規模言語モデル(LLM)の評価に使用され、約15,000の臨床的に多様な質問と回答、4,000以上の専門的な選択問題、1,200以上のオープンエンドの短答問題、10,000の消費者からの質問を含んでいます。LLMは、これらのデータセットに対する応答を人間の専門家の回答と比較し、評価されました。AfriMed-QAは、アフリカの医療における公平で効果的なLLMの開発を目指しており、地域特有の医療知識を反映した多様なベンチマークデータセットの必要性を強調しています。 • アフリカの健康に関する質問応答タスクのためのベンチマークデータセット • 約15,000の臨床的に多様な質問と回答を含む • 4,000以上の専門的な選択問題と1,200以上のオープンエンドの短答問題を収録 • 地域特有の医療知識を反映したデータセットの必要性 • LLMの応答を人間の専門家の回答と比較して評価 • データセットはオープンソースでコミュニティに提供されている
Transforming the manufacturing industry with ChatGPT
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ユーザーインターフェースは直感的で使いやすく、学習曲線が緩やかであることが強調されています。さらに、このツールは既存の開発環境に簡単に統合できるため、導入のハードルが低い点もメリットとして挙げられています。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者の意図を理解し、適切なコードスニペットを提案 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境に簡単に統合可能

Google AI Pro and Ultra subscribers now get Gemini CLI and Gemini Code Assist with higher limits.
Google AI Pro and Ultra subscribers now get higher limits to Gemini CLI and Gemini Code Assist IDE extensions.

Celebrating the 2025–2026 MIE Experts and Showcase Schools
Join us as we welcome Microsoft Showcase Schools and MIE Experts 2025-2026. Discover how to become an MIEE or Microsoft Showcase School.

We’re making public data more usable for AI developers with the Data Commons MCP Server
Today marks the launch of the Data Commons Model Context Protocol (MCP) Server, which allows developers to query our connected public data with simple, natural language.…

Agent Factory: Designing the open agentic web stack
Find out how the agentic web stack—a cohesive, interoperable ecosystem—can help you fully harness the potential of AI agents.

Expanding model choice in Microsoft 365 Copilot
We’re excited to announce that we’re expanding the models that power Microsoft 365 Copilot with the addition of Anthropic models.

Meet 25 startups using AI to improve public services
Google announces its first cohort of 25 startups using AI to improve public services.

SAP and OpenAI partner to launch sovereign ‘OpenAI for Germany’
SAP and OpenAI launch OpenAI for Germany, a 2026 partnership to bring secure, sovereign AI to Germany’s public sector, enabling safe, efficient public services.
How Replit’s Agent 3 builds Mastra Agents for you
Replit’s Agent 3 can automatically generate Mastra agents and workflows from natural language descriptions.

Running deep research AI agents on Amazon Bedrock AgentCore
AI agents are evolving beyond basic single-task helpers into more powerful systems that can plan, critique, and collaborate with other agents to solve complex problems. Deep Agents—a recently introduced framework built on LangGraph—bring these capabilities to life, enabling multi-agent workflows that mirror real-world team dynamics. The challenge, however, is not just building such agents but […]

Mixboard is a new way to visualize your ideas from Google Labs.
Mixboard is an experimental, AI-powered visual brainstorming tool that helps you explore, expand and refine ideas.

Google AI Plus — our newest AI plan — is now available in 40 more countries.
Google AI Plus — our newest AI plan — is now available in more than 40 more countries.

Time series foundation models can be few-shot learners
本記事では、時系列予測のための新しいアプローチを提案しています。このアプローチは、時系列ファウンデーションモデルを継続的に再訓練し、推論時にコンテキストの例から学習できるようにするものです。従来の方法では、各タスクに特化したモデルを構築する必要がありましたが、提案されたモデル「TimesFM」は、ゼロショット学習を用いてタスク特化の訓練なしで正確な予測を行うことができます。新たに導入された「In-Context Fine-Tuning」では、少数の例から学習する能力を持つモデルに変革され、ユーザーによる追加の複雑な訓練なしで、監視付きファインチューニングと同等の性能を発揮します。モデルは、異なるデータセットを混同しないように、学習可能な「共通セパレータトークン」を使用して、過去の例からのパターンを学び、現在の予測に応用します。 • 時系列予測の重要性と従来のモデル構築の課題を解決するアプローチを提案 • 新しいモデル「TimesFM」はゼロショット学習を用いており、タスク特化の訓練なしで予測が可能 • 「In-Context Fine-Tuning」により、少数の例から学習する能力を持つモデルに進化 • ユーザーによる追加の訓練なしで、監視付きファインチューニングと同等の性能を実現 • モデルは、異なるデータセットを混同しないために「共通セパレータトークン」を使用している

Try AI Mode in Spanish today.
AI Mode in Google Search is starting to roll out globally in Spanish today.

Integrate tokenization with Amazon Bedrock Guardrails for secure data handling
In this post, we show you how to integrate Amazon Bedrock Guardrails with third-party tokenization services to protect sensitive data while maintaining data reversibility. By combining these technologies, organizations can implement stronger privacy controls while preserving the functionality of their generative AI applications and related systems.

Android users can now use conversational editing in Google Photos.
We’re expanding the ability to edit your images by simply asking in Google Photos to Android devices.

AI chips are getting hotter. A microfluidics breakthrough goes straight to the silicon to cool up to three times better.
AIチップは熱を発生しやすく、従来の冷却技術では限界がある中、マイクロ流体技術を用いた新しい冷却システムが開発され、従来の冷却プレートよりも最大3倍の効率で熱を除去できることが示された。この技術は、シリコンチップの裏面に微細なチャンネルを刻むことで冷却液を直接流し込み、熱を効率的に取り除く。AIを活用してチップ上の熱の特性を特定し、冷却液を精密に制御することも可能になった。マイクロ流体技術は、次世代AIチップの効率性と持続可能性を向上させると期待されている。実験では、冷却プレートと比較して最大65%の温度上昇の抑制が確認され、データセンターのエネルギー効率や運用コストの削減にも寄与する可能性がある。 • AIチップは従来のシリコンよりも多くの熱を発生させるため、冷却技術の限界が懸念されている。 • マイクロ流体技術を用いた新しい冷却システムは、従来の冷却プレートよりも最大3倍の熱除去効率を持つ。 • 冷却液をシリコンチップの裏面に直接流し込むことで、熱を効率的に取り除くことができる。 • AIを活用してチップ上の熱の特性を特定し、冷却液の流れを精密に制御する。 • マイクロ流体技術は次世代AIチップの効率性と持続可能性を向上させる可能性がある。 • 実験では、冷却プレートと比較して最大65%の温度上昇の抑制が確認された。 • この技術はデータセンターのエネルギー効率や運用コストの削減にも寄与する。

OpenAI, Oracle, and SoftBank expand Stargate with five new AI datacenter sites
New data centers put Stargate ahead of schedule to secure full $500 billion, 10-gigawatt commitment by end of 2025.

Accelerate migration and modernization with agentic AI
At the Migrate and Modernize Summit, we’re announcing a set of agentic AI solutions and offerings to speed transformation and reduce friction. Learn more.

Chrome DevTools (MCP) for your AI agent
Public preview for the new Chrome DevTools MCP server, bringing the power of Chrome DevTools to AI coding assistants.

Sentry AI code review, now in beta: break production less
Sentry AI code review helps you ship code that breaks production less. Predict errors, get code reviews, and generate tests with Sentry's unique context.

CNA is transforming its newsroom with AI
A conversation with Walter Fernandez, Editor-in-Chief of CNA.

Rapid ML experimentation for enterprises with Amazon SageMaker AI and Comet
In this post, we showed how to use SageMaker and Comet together to spin up fully managed ML environments with reproducibility and experiment tracking capabilities.

Raising the bar for healthcare security: Dynamics 365 Contact Center achieves HITRUST certification
Discover how Dynamics 365 Contact Center’s HITRUST certification empowers healthcare organizations to innovate securely with AI.
Strengthening our Frontier Safety Framework
Today, we’re publishing the third iteration of our Frontier Safety Framework (FSF) — our most comprehensive approach yet to identifying and mitigating severe risks from advanced AI models. This...
American-made innovation
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上

Creating a safe, observable AI infrastructure for 1 million classrooms
With GPT-4.1, image generation, and text-to-speech, SchoolAI creates safe, observable AI infrastructure for 1 million classrooms—and growing.
OpenAI and NVIDIA announce strategic partnership to deploy 10 gigawatts of NVIDIA systems
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上

Built-in AI is now available on Chromebook Plus devices
Chrome's Built-in AI APIs are now available on Chromebook Plus devices, enabling web developers to bring client-side AI features to more users.

Gaia2 and ARE: Empowering the community to study agents
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Inside Sentry’s Hackweek: An excuse to break things
During Sentry's Hackweek, we unleashed Gremlins: AI agents that break real apps on purpose, and used Sentry to capture errors, replays, and traces.

Deep researcher with test-time diffusion
本記事では、Test-Time Diffusion Deep Researcher(TTD-DR)というフレームワークを紹介しています。TTD-DRは、Deep Researchエージェントを用いて、高品質な情報を取得しながら自身の草稿を作成・修正する手法です。このアプローチにより、長文の研究報告書作成や複雑な推論タスクにおいて新たな最先端の成果を達成しました。TTD-DRは、研究報告書の執筆を拡散プロセスとしてモデル化し、初期の雑な草稿を高品質な最終版に徐々に洗練させることを目指しています。具体的には、自己進化によるコンポーネントごとの最適化と、情報取得を用いたデノイジングによる報告書レベルの改良を行います。これにより、TTD-DRは報告書作成プロセスをより一貫性のあるものにし、各サイクルで報告書を改善することが可能です。 • TTD-DRは、Deep Researchエージェントを用いて草稿を作成・修正するフレームワークである。 • このアプローチは、長文の研究報告書作成や複雑な推論タスクで新たな最先端の成果を達成した。 • TTD-DRは、研究報告書の執筆を拡散プロセスとしてモデル化している。 • 自己進化によるコンポーネントごとの最適化と、情報取得を用いたデノイジングによる報告書レベルの改良を行う。 • このプロセスにより、報告書作成がより一貫性のあるものとなり、各サイクルで改善される。
TorchAO Quantized Models and Quantization Recipes Now Available on HuggingFace Hub
PyTorchは、TorchAOチームとUnslothの協力により、Phi4-mini-instruct、Qwen3、SmolLM3-3B、gemma-3-270m-itのネイティブ量子化バリアントを提供しています。これらのモデルは、int4およびfloat8の量子化を活用し、A100、H100、モバイルデバイスで効率的な推論を実現し、bfloat16モデルと比較してモデル品質の劣化を最小限に抑えています。リリースされたモデルは、サーバーおよびモバイルプラットフォーム向けに最適化されており、ユーザーは生産環境での高速モデルの展開が可能です。また、PyTorchのネイティブ量子化を自分のモデルやデータセットに適用するための包括的で再現可能な量子化レシピとガイドも提供されています。これにより、ユーザーはモデルの品質評価やパフォーマンスベンチマークを行うことができます。 • PyTorchが提供する量子化モデルは、Phi4-mini-instruct、Qwen3、SmolLM3-3B、gemma-3-270m-itである。 • int4およびfloat8の量子化を使用し、A100、H100、モバイルデバイスで効率的な推論を実現。 • リリースされたモデルは、サーバーおよびモバイルプラットフォーム向けに最適化されている。 • PyTorchのネイティブ量子化を適用するための再現可能な量子化レシピとガイドが提供されている。 • 量子化により、モデルの速度が最大2倍向上し、メモリ使用量が30-60%削減される。

Move your AI agents from proof of concept to production with Amazon Bedrock AgentCore
This post explores how Amazon Bedrock AgentCore helps you transition your agentic applications from experimental proof of concept to production-ready systems. We follow the journey of a customer support agent that evolves from a simple local prototype to a comprehensive, enterprise-grade solution capable of handling multiple concurrent users while maintaining security and performance standards.

3 ways to use photo-to-video in Gemini
Here’s how I’ve been using Gemini’s photo-to-video tool as a multimedia storyteller, plus some tips for making your own videos.

How the U.S. Patent and Trademark Office can help America maintain its AI leadership
As the new Director of the USPTO begins his term, Google’s sharing policy recommendations to help America maintain its AI Leadership.

Scaleway on Hugging Face Inference Providers 🔥
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Scale visual production using Stability AI Image Services in Amazon Bedrock
This post was written with Alex Gnibus of Stability AI. Stability AI Image Services are now available in Amazon Bedrock, offering ready-to-use media editing capabilities delivered through the Amazon Bedrock API. These image editing tools expand on the capabilities of Stability AI’s Stable Diffusion 3.5 models (SD3.5) and Stable Image Core and Ultra models, which […]

Prompting for precision with Stability AI Image Services in Amazon Bedrock
Amazon Bedrock now offers Stability AI Image Services: 9 tools that improve how businesses create and modify images. The technology extends Stable Diffusion and Stable Image models to give you precise control over image creation and editing. Clear prompts are critical—they provide art direction to the AI system. Strong prompts control specific elements like tone, […]
AI Infra Summit at PyTorch Conference
2025年10月21日にサンフランシスコで開催されるAI Infra Summitは、AIの最新の革新を支えるインフラに関する専門家が集まるイベントです。この半日サミットでは、AIの急速な進展を促進するツールやプラットフォームについて議論され、トレーニング前後の処理、ファインチューニング、推論時間のスケーリング、モデル圧縮などの最適化が取り上げられます。参加者は、AIワークロードの効率的なスケーリングやトレーニング・推論の最適化、生成モデル時代のAIインフラの未来についての洞察を得ることができます。プログラムには基調講演、技術講演、パネルディスカッションが含まれ、モデル最適化や大規模トレーニング、新しい実行パラダイムに関心のある人々が集まります。 • AIインフラの最新の革新を支える専門家が集まるイベント • トレーニング前後の処理、ファインチューニング、推論時間のスケーリングなどが議論される • AIワークロードの効率的なスケーリングやトレーニング・推論の最適化についての洞察が得られる • 基調講演や技術講演、パネルディスカッションが行われる • モデル最適化や大規模トレーニングに関心のある人々が集まる
Experience in Reducing PT2 Compilation Time for Meta Internal Workloads
この記事では、Meta内部のワークロードにおけるPyTorch 2.0(PT2)のコンパイル時間を短縮する取り組みについて説明しています。PT2は、Pythonモデルコードを高性能な機械コードに変換するコンパイルステップを導入しましたが、大規模なモデルでは初期コンパイルがボトルネックとなることがあります。特に、Metaの内部推奨モデルでは、コンパイルに1時間以上かかることもあります。2024年末に、PT2のコンパイルプロセスを詳細に分析し、ボトルネックを特定するためにTlparseを使用しました。分析の結果、Dynamo、AOTInductor、TorchInductorなどの主要コンポーネントにおける時間消費の傾向が明らかになり、特にTorchInductorが67.8%を占めていることが分かりました。これに基づき、コンパイル時間を短縮するための具体的な改善策を特定し、実施しました。 • PT2のコンパイルが大規模モデルでボトルネックとなる問題を解決するための取り組み。 • Tlparseを用いてPT2のコンパイルプロセスを詳細に分析し、ボトルネックを特定。 • Dynamo、AOTInductor、TorchInductorの各コンポーネントの時間消費を分析。 • TorchInductorが67.8%の時間を占めていることが判明。 • コンパイル時間を短縮するために、最も時間を消費する領域の最適化やキャッシュ性能の向上を目指す。

Microsoft 365 Copilot: Enabling human-agent teams
Discover how Microsoft 365 Copilot’s new collaborative agents transform teamwork with AI-powered support in Teams, SharePoint, and Viva Engage.

Discover three skilling insights that set Frontier Firms apart
For Frontier Firms, AI skilling is a continuous investment. Learn how they use skill-building strategies to turn ambition into adoption with an AI-ready workforce.

Monitor Amazon Bedrock batch inference using Amazon CloudWatch metrics
In this post, we explore how to monitor and manage Amazon Bedrock batch inference jobs using Amazon CloudWatch metrics, alarms, and dashboards to optimize performance, cost, and operational efficiency.

Use AWS Deep Learning Containers with Amazon SageMaker AI managed MLflow
In this post, we show how to integrate AWS DLCs with MLflow to create a solution that balances infrastructure control with robust ML governance. We walk through a functional setup that your team can use to meet your specialized requirements while significantly reducing the time and resources needed for ML lifecycle management.
Discovering new solutions to century-old problems in fluid dynamics
In a new paper, we introduce an entirely new family of mathematical blow ups to some of the most complex equations that describe fluid motion. Our approach presents a new way in which...

What you need to know about vibe coding
Vibe coding is revolutionizing how we work. English is now the fastest growing programming language. Our state of vibe coding report outlines what you need to know.

We’re investing in connectivity, products and skills for Africa’s AI future
As part of our ongoing commitment to Africa, Google is announcing new connectivity infrastructure, access to powerful AI tools, and skills.

Democratizing AI Safety with RiskRubric.ai
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Building agentic copilots with CopilotKit and Mastra
Learn how to build interactive, real-time agentic apps using CopilotKit as a frontend for Mastra agents.

Agent Factory: Creating a blueprint for safe and secure AI agents
Learn how you can build trustworthy AI agents by combining identity, guardrails, evaluations, adversarial testing, data protection, and more.

Supercharge your organization’s productivity with the Amazon Q Business browser extension
In this post, we showed how to use the Amazon Q Business browser extension to give your team seamless access to AI-driven insights and assistance. The browser extension is now available in US East (N. Virginia) and US West (Oregon) AWS Regions for Mozilla, Google Chrome, and Microsoft Edge as part of the Lite Subscription.

Build Agentic Workflows with OpenAI GPT OSS on Amazon SageMaker AI and Amazon Bedrock AgentCore
In this post, we show how to deploy gpt-oss-20b model to SageMaker managed endpoints and demonstrate a practical stock analyzer agent assistant example with LangGraph, a powerful graph-based framework that handles state management, coordinated workflows, and persistent memory systems.
High-performance quantized LLM inference on Intel CPUs with native PyTorch
PyTorch 2.8では、Intel Xeonプロセッサ上での高性能な量子化LLM推論が可能になりました。新機能として、libtorch ABIの安定版、Wheel Variant Support、Inductor CUTLASSバックエンドサポートなどが追加され、特に量子化設定が最適化されています。これにより、PyTorchは他のLLMフレームワークと比較しても競争力のある低精度性能を提供します。ユーザーは、AMXサポートのあるX86 CPUを選び、Torchaoの量子化手法を用いてモデルを量子化し、torch.compileを使用して最適化を自動的に適用することで、パフォーマンスを向上させることができます。 • PyTorch 2.8でIntel Xeonプロセッサ上のLLM推論が高性能化された。 • 量子化設定(A16W8、DA8W8、A16W4など)が最適化され、競争力のある性能を実現。 • torch.compileを使用して、量子化モデルのパフォーマンスを向上させることができる。 • ユーザーはAMXサポートのあるX86 CPUを選ぶ必要がある。 • Torchaoの量子化手法を用いてモデルを量子化する必要がある。

Gemini achieved gold-medal performance at the International Collegiate Programming Contest World Finals.
Gemini achieves gold status at the ICPC, marking a new leap in AI's abstract problem-solving.
Gemini achieves gold-level performance at the International Collegiate Programming Contest World Finals
An advanced version of Gemini 2.5 Deep Think has achieved gold-medal level performance at the 2025 International Collegiate Programming Contest (ICPC) World Finals. Solving complex tasks at these...

Making LLMs more accurate by using all of their layers
この記事では、SLED(Self Logits Evolution Decoding)という新しいデコーディング戦略を紹介しています。この手法は、LLM(大規模言語モデル)の出力をモデルの内在的な知識と整合させることで、外部データや追加のファインチューニングなしに精度を向上させることを目的としています。LLMは時折、事実に基づかない主張を行う「幻覚」問題を抱えており、これは不完全または偏ったトレーニングデータや、あいまいな質問などが原因です。SLEDは、LLMのすべての層を使用してテキストを生成し、最終層だけに依存せずに出力を調整します。実験の結果、SLEDはさまざまなタスクやベンチマークで事実の正確性を一貫して改善することが示されました。さらに、他の事実性デコーディング手法と柔軟に統合できることも確認されています。 • LLMの幻覚問題を解決するための新しいデコーディング手法SLEDを提案 • SLEDは外部データやファインチューニングを必要とせず、モデルの内在的知識に基づいて出力を調整 • LLMのすべての層を使用してテキストを生成し、最終層だけに依存しない • 実験により、SLEDがさまざまなタスクで事実の正確性を向上させることが確認された • SLEDは他の事実性デコーディング手法と統合可能で、モデルの幻覚をさらに減少させることができる

Investing in America 2025
Google’s deep investments in American technical infrastructure, R&D and the workforce will help the U.S. continue to lead the world in AI.

Generate static AI SDK tools from MCP servers with mcp-to-ai-sdk
Use mcp-to-ai-sdk to generate MCP tools directly into your project. Gain security, reliability, and prompt-tuned control while avoiding dynamic MCP risks.

Cognition (Windsurf) Named a Leader in the 2025 Gartner® Magic Quadrant™ for AI Code Assistants
Cognition’s Windsurf has been named a Leader in the 2025 Gartner® Magic Quadrant™ for AI Code Assistant

Smart Schema Discovery: How Apollo MCP Server Maximizes AI Context Efficiency
Unlock microservices potential with Apollo GraphQL. Seamlessly integrate APIs, manage data, and enhance performance. Explore Apollo's innovative solutions.

Public AI on Hugging Face Inference Providers 🔥
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Detecting and reducing scheming in AI models
Together with Apollo Research, we developed evaluations for hidden misalignment (“scheming”) and found behaviors consistent with scheming in controlled tests across frontier models. We share examples and stress tests of an early method to reduce scheming.

Learn Your Way uses AI to transform textbook materials into interactive guides.
Learn Your Way uses AI to transform textbook materials into interactive guides.

Learn Your Way: Reimagining textbooks with generative AI
この記事では、教育における生成AI(GenAI)を活用した新しい教科書の再構想について述べています。Googleの研究チームは、学習者が自分の学習体験を形作ることができるように、さまざまな形式や個別化された例を自動生成する方法を探求しています。新しいインタラクティブな体験「Learn Your Way」がGoogle Labsで提供されており、これにより学習者は多様な形式で教材を探索できるようになります。研究によると、「Learn Your Way」を使用した学生は、標準的なデジタルリーダーを使用した学生よりも保持テストで11ポイント高いスコアを記録しました。この記事では、学習体験を向上させるための二つの主要な柱、すなわち多様なコンテンツ表現の生成と個別化の基礎的なステップについて説明しています。 • 生成AIを用いて教科書の代替表現や個別化された例を自動生成する方法を探求している。 • 新しいインタラクティブ体験「Learn Your Way」がGoogle Labsで提供されている。 • 「Learn Your Way」を使用した学生は、標準的なデジタルリーダーを使用した学生よりも保持テストで11ポイント高いスコアを記録した。 • 学習者が選択できる多様な形式やモダリティを提供し、学習体験を強化する。 • 個別化された学習体験を提供するために、学習者の属性に応じて教育コンテンツを適応させる。

Streamline access to ISO-rating content changes with Verisk rating insights and Amazon Bedrock
In this post, we dive into how Verisk Rating Insights, powered by Amazon Bedrock, large language models (LLM), and Retrieval Augmented Generation (RAG), is transforming the way customers interact with and access ISO ERC changes.

Unified multimodal access layer for Quora’s Poe using Amazon Bedrock
In this post, we explore how the AWS Generative AI Innovation Center and Quora collaborated to build a unified wrapper API framework that dramatically accelerates the deployment of Amazon Bedrock FMs on Quora’s Poe system. We detail the technical architecture that bridges Poe’s event-driven ServerSentEvents protocol with Amazon Bedrock REST-based APIs, demonstrate how a template-based configuration system reduced deployment time from days to 15 minutes, and share implementation patterns for protocol translation, error handling, and multi-modal capabilities.

From Signal blog: How AI is quietly rewriting the rules of modern medicine
From diagnosing rare conditions to improving the patient experience, AI is transforming how we practice medicine.
Introducing Stargate UK
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上

AI agents at scale: Rox’s Vercel-powered revenue operating system
Learn more about how Rox runs global, AI-driven sales ops on fast, reliable infrastructure thanks to Vercel
Building towards age prediction
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Teen safety, freedom, and privacy
この記事では、最新のJavaScriptフレームワークであるNext.jsの新機能について詳しく解説しています。特に、画像最適化機能や新しいデータフェッチングの手法が強調されており、これにより開発者はパフォーマンスを向上させることができます。また、Next.jsの新しいAPIルート機能により、サーバーサイドでのデータ処理が簡素化され、開発の効率が向上します。さらに、これらの機能はSEO対策にも寄与し、ユーザーエクスペリエンスを向上させることが期待されています。 • Next.jsの新機能として画像最適化が追加され、パフォーマンス向上に寄与する。 • 新しいデータフェッチング手法により、開発者は効率的にデータを取得できる。 • APIルート機能の強化により、サーバーサイドでのデータ処理が簡素化される。 • これらの機能はSEO対策にも効果があり、ユーザーエクスペリエンスを向上させる。

`LeRobotDataset`: Bringing large-scale datasets to lerobot
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Introducing Output Processors
Introducing output processors: the gatekeepers that sit between your language model's response and your users.

Listen to a discussion on how AI can power scientific breakthroughs.
Pushmeet Kohli, who leads DeepMind’s science and strategic initiatives team, discusses AI and science.

Schedule topology-aware workloads using Amazon SageMaker HyperPod task governance
In this post, we introduce topology-aware scheduling with SageMaker HyperPod task governance by submitting jobs that represent hierarchical network information. We provide details about how to use SageMaker HyperPod task governance to optimize your job efficiency.

How msg enhanced HR workforce transformation with Amazon Bedrock and msg.ProfileMap
In this post, we share how msg automated data harmonization for msg.ProfileMap, using Amazon Bedrock to power its large language model (LLM)-driven data enrichment workflows, resulting in higher accuracy in HR concept matching, reduced manual workload, and improved alignment with compliance requirements under the EU AI Act and GDPR.

How AI is helping 38 million farmers with advance weather predictions
38 million farmers in India received accurate AI-powered forecasts of the start of the monsoon season.
Newsroom
To study such patterns of early AI adoption, we extend the Anthropic Economic Index along two important dimensions, introducing a geographic analysis of Claude.ai conversations and a first-of-its-kind examination of enterprise API use. We show how Claude usage has evolved over time, how adoption patterns differ across regions, and—for the first time—how firms are deploying frontier AI to solve business problems.

Introducing upgrades to Codex
Codex just got faster, more reliable, and better at real-time collaboration and tackling tasks independently anywhere you develop—whether via the terminal, IDE, web, or even your phone.

How people are using ChatGPT
Largest study to date of consumer ChatGPT usage shows demographic gaps shrinking, economic value being created through both personal and professional use.

Introducing auto model selection (preview)
Use auto model selection in VS Code to get faster responses, reduced rate limiting, and a 10% discount on premium requests for paid users.
PyTorch 2.8 Brings Native XCCL Support to Intel GPUs: Case Studies from Argonne National Laboratory
PyTorch 2.8では、Intel GPU向けにXCCLバックエンドのネイティブ統合が実現され、分散トレーニングのサポートが強化されました。この新機能により、開発者はIntelハードウェア上でAIワークロードをスケールさせるためのシームレスな体験を得られます。これまでPyTorchにはIntel GPUでの分散トレーニングの組み込み方法がなく、ユーザーは高度な機能を十分に活用できませんでしたが、XCCLバックエンドの導入によりこのギャップが解消されました。XCCLは、NCCLやGlooなどの既存のバックエンドと一貫性のある分散APIを提供し、信頼性を確保するためにテストが再構築されました。PyTorch 2.8では、Intel XPUデバイス上で自動的にXCCLがデフォルトバックエンドとして選択され、ユーザーは簡単に利用できます。Argonne国立研究所との共同作業により、Auroraスーパーコンピュータを使用して気候モデリングや薬剤発見などの課題に取り組むことが可能になりました。 • PyTorch 2.8でIntel GPU向けにXCCLバックエンドが統合された。 • 分散トレーニングのサポートが強化され、開発者はシームレスな体験を得られる。 • XCCLバックエンドの導入により、Intel GPUでの高度な機能が利用可能になった。 • XCCLはNCCLやGlooと一貫性のある分散APIを提供し、信頼性を確保している。 • PyTorch 2.8では、Intel XPUデバイス上で自動的にXCCLがデフォルトバックエンドとして選択される。 • Argonne国立研究所のAuroraスーパーコンピュータを利用して、AIによる科学研究が進められている。

Automate advanced agentic RAG pipeline with Amazon SageMaker AI
In this post, we walk through how to streamline your RAG development lifecycle from experimentation to automation, helping you operationalize your RAG solution for production deployments with Amazon SageMaker AI, helping your team experiment efficiently, collaborate effectively, and drive continuous improvement.

Unlock model insights with log probability support for Amazon Bedrock Custom Model Import
In this post, we explore how log probabilities work with imported models in Amazon Bedrock. You will learn what log probabilities are, how to enable them in your API calls, and how to interpret the returned data. We also highlight practical applications—from detecting potential hallucinations to optimizing RAG systems and evaluating fine-tuned models—that demonstrate how these insights can improve your AI applications, helping you build more trustworthy solutions with your custom models.

Migrate from Anthropic’s Claude 3.5 Sonnet to Claude 4 Sonnet on Amazon Bedrock
This post provides a systematic approach to migrating from Anthropic’s Claude 3.5 Sonnet to Claude 4 Sonnet on Amazon Bedrock. We examine the key model differences, highlight essential migration considerations, and deliver proven best practices to transform this necessary transition into a strategic advantage that drives measurable value for your organization.
Disaggregated Inference at Scale with PyTorch & vLLM
この記事では、PyTorchとvLLMの統合による生成AIアプリケーションの効率化について説明しています。特に、Prefill/Decode Disaggregationという技術が、レイテンシとスループットの両面で生成AI推論の効率を向上させることに焦点を当てています。この技術はMetaの内部推論スタックで実装され、大規模なトラフィックに対応しています。MetaとvLLMチームの協力により、Metaの内部LLM推論スタックと比較してパフォーマンスが向上しました。PrefillとDecodeの処理を分離することで、リソースの効率的な利用が可能になり、レイテンシとスループットの改善が実現されます。記事では、TCPネットワーク上での最適なP/D分離サービスを実現するための3つの主要コンポーネントについても触れています。 • PyTorchとvLLMの統合により生成AIアプリケーションの効率化が図られている。 • Prefill/Decode Disaggregation技術がレイテンシとスループットを向上させる。 • Metaの内部推論スタックでの実装により、大規模トラフィックに対応可能。 • MetaとvLLMの協力により、パフォーマンスが向上した。 • PrefillとDecodeの処理を分離することで、リソースの効率的な利用が実現される。 • TCPネットワーク上での最適なP/D分離サービスを実現するための3つの主要コンポーネントがある。

10 examples of our new native image editing in the Gemini app
A new Google DeepMind image editing model, fondly known as Nano Banana, is now in the Gemini app, giving you more creative control to blend and edit photos. Here are 10 …

Introducing x402-mcp: Open protocol payments for MCP tools
We built x402-mcp to integrate x402 payments with Model Context Protocol (MCP) servers and the Vercel AI SDK.
402-mcp enables x402 payments in MCP
Introducing x402-mcp, a library that integrates with the AI SDK to bring x402 paywalls to Model Context Protocol (MCP) servers to let agents discover and call pay for MCP tools easily and securely.
Working with US CAISI and UK AISI to build more secure AI systems
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントや関数名に基づいて、AIが適切なコードを提案する機能があります。また、このツールは既存の開発環境に簡単に統合できるように設計されており、特にJavaScriptやTypeScriptのプロジェクトでの使用が推奨されています。これにより、開発の効率が向上し、エラーの削減が期待されます。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力した情報に基づいてコードを提案する機能 • JavaScriptやTypeScriptプロジェクトへの統合が容易 • 開発効率の向上とエラー削減が期待される • 生成AIを利用した新しい開発手法の提案

VaultGemma: The world's most capable differentially private LLM
VaultGemmaは、差分プライバシーを用いてゼロからトレーニングされた最も能力の高い言語モデルです。AIが私たちの生活にますます統合される中、プライバシーを中心に構築することが重要です。差分プライバシーは、記憶を防ぐために調整されたノイズを追加することで、数学的に堅牢な解決策を提供しますが、LLMに適用する際にはトレードオフが生じます。これにより、トレーニングの安定性が低下し、バッチサイズと計算コストが大幅に増加します。新しい研究「差分プライバシー言語モデルのスケーリング法則」では、これらの複雑さを正確にモデル化する法則を確立しました。VaultGemmaは、1Bパラメータを持つオープンモデルで、Hugging FaceとKaggleで重みを公開し、プライベートAIの次世代開発を促進します。 • VaultGemmaは差分プライバシーを用いてトレーニングされた最も能力の高いLLMである。 • 差分プライバシーは、記憶を防ぐためにノイズを追加することでプライバシーを保護する。 • LLMにおける差分プライバシーの適用にはトレードオフがあり、トレーニングの安定性が低下する。 • 新しい研究により、計算、プライバシー、データの予算に基づく最適なトレーニング構成を導き出すことができる。 • VaultGemmaは1Bパラメータを持ち、Hugging FaceとKaggleで重みが公開されている。

Announcing OpenAI Grove
A program for individuals early in their company building journey.

Speculative cascades — A hybrid approach for smarter, faster LLM inference
この記事では、「スペキュレイティブカスケード」という新しいアプローチを紹介し、LLM(大規模言語モデル)の効率と計算コストを改善する方法を提案しています。この手法は、標準的なカスケードとスペキュレイティブデコーディングを組み合わせたもので、LLMの応答生成プロセスを迅速化し、コストを削減することを目指しています。カスケードは、小型の高速モデルを使用して、より大きく高価なモデルにタスクを渡すかどうかを判断することで、効率的なリソース配分を実現します。一方、スペキュレイティブデコーディングは、より小型のモデルが未来のトークンを予測し、それを大きなモデルで検証することで、応答生成の速度を向上させます。スペキュレイティブカスケードは、これらの手法の利点を組み合わせ、コストと品質のトレードオフを改善し、さまざまな言語タスクにおいて優れた結果を示しました。 • LLMの応答生成の効率とコストを改善する新しいアプローチ「スペキュレイティブカスケード」を提案 • カスケードは小型モデルを使用してコストを削減し、大型モデルにタスクを渡すか判断する • スペキュレイティブデコーディングは小型モデルが未来のトークンを予測し、大型モデルで検証する • スペキュレイティブカスケードは、コストと品質のトレードオフを改善し、より良い結果を提供 • GemmaとT5モデルを使用した実験で、標準的なカスケードやスペキュレイティブデコーディングと比較して優れた結果を示した

Enhance video understanding with Amazon Bedrock Data Automation and open-set object detection
In real-world video and image analysis, businesses often face the challenge of detecting objects that weren’t part of a model’s original training set. This becomes especially difficult in dynamic environments where new, unknown, or user-defined objects frequently appear. In this post, we explore how Amazon Bedrock Data Automation uses OSOD to enhance video understanding.

How Skello uses Amazon Bedrock to query data in a multi-tenant environment while keeping logical boundaries
Skello is a leading human resources (HR) software as a service (SaaS) solution focusing on employee scheduling and workforce management. Catering to diverse sectors such as hospitality, retail, healthcare, construction, and industry, Skello offers features including schedule creation, time tracking, and payroll preparation. We dive deep into the challenges of implementing large language models (LLMs) for data querying, particularly in the context of a French company operating under the General Data Protection Regulation (GDPR).

Create a private workforce on Amazon SageMaker Ground Truth with the AWS CDK
In this post, we present a complete solution for programmatically creating private workforces on Amazon SageMaker AI using the AWS Cloud Development Kit (AWS CDK), including the setup of a dedicated, fully configured Amazon Cognito user pool.

Smarter nucleic acid design with NucleoBench and AdaBeam
本記事では、NucleoBenchとAdaBeamという新しいアルゴリズムを用いた核酸配列設計のためのオープンソースソフトウェアベンチマークについて説明しています。核酸の設計は、特定の治療特性を持つDNAやRNAの配列を見つけることが重要であり、特にCRISPR遺伝子治療やmRNAワクチンの開発において重要です。NucleoBenchは、16の異なる生物学的課題に対して40万回以上の実験を行い、異なるアルゴリズムの性能を評価するための標準化されたフレームワークを提供します。これにより、AdaBeamというハイブリッド設計アルゴリズムが開発され、既存の手法よりも11のタスクで優れた性能を示しました。AdaBeamは、AIを活用して最適な配列を生成するための新しいアプローチを提供し、今後の生物学におけるAIの発展に寄与することが期待されています。 • 核酸配列設計の重要性と課題を説明 • NucleoBenchは、異なるアルゴリズムの性能を比較するための標準化されたベンチマーク • AdaBeamは、既存の手法よりも11のタスクで優れた性能を示す • AIを活用して最適な配列を生成する新しいアプローチを提供 • 400,000回以上の実験を通じて得られた洞察を基に開発された

August 2025 (version 1.104)
Learn what is new in the Visual Studio Code August 2025 Release (1.104)

How to turn Claude Code into a domain specific coding agent
Authored by: Aliyan Ishfaq Coding agents are great at writing code that uses popular libraries on which LLMs have been heavily trained on. But point them to a custom library, a new version of a library, an internal API, or a niche framework – and they’re not so great. That’

How AI made Meet’s language translation possible
Learn more about Google Meet’s real-time language translation feature.

Statement on OpenAI’s Nonprofit and PBC
By Bret Taylor

A joint statement from OpenAI and Microsoft
OpenAI and Microsoft sign a new MOU, reinforcing their partnership and shared commitment to AI safety and innovation.

LongCat-Flash Chat model is now supported in Vercel AI Gateway
You can now access LongCat-Flash Chat from Meituan using Vercel AI Gateway, with no Meituan account required.

Monte Carlo: Building Data + AI Observability Agents with LangGraph and LangSmith
See how Monte Carlo built its AI Troubleshooting Agent on LangGraph and debugged with LangSmith to help data teams resolve issues faster

Moving sales, service, and finance to the Frontier with Microsoft 365 Copilot
Microsoft is announcing the addition of role-based AI solutions to Microsoft 365 Copilot for sales, service, and finance professionals.

TII Falcon-H1 models now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
We are excited to announce the availability of the Technology Innovation Institute (TII)’s Falcon-H1 models on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart. With this launch, developers and data scientists can now use six instruction-tuned Falcon-H1 models (0.5B, 1.5B, 1.5B-Deep, 3B, 7B, and 34B) on AWS, and have access to a comprehensive suite of hybrid architecture models that combine traditional attention mechanisms with State Space Models (SSMs) to deliver exceptional performance with unprecedented efficiency.

The latest AI news we announced in August
Here are Google’s latest AI updates from August 2025

Oldcastle accelerates document processing with Amazon Bedrock
This post explores how Oldcastle partnered with AWS to transform their document processing workflow using Amazon Bedrock with Amazon Textract. We discuss how Oldcastle overcame the limitations of their previous OCR solution to automate the processing of hundreds of thousands of POD documents each month, dramatically improving accuracy while reducing manual effort.

How London Stock Exchange Group is detecting market abuse with their AI-powered Surveillance Guide on Amazon Bedrock
In this post, we explore how London Stock Exchange Group (LSEG) used Amazon Bedrock and Anthropic's Claude foundation models to build an automated system that significantly improves the efficiency and accuracy of market surveillance operations.

Build trustworthy AI agents with Amazon Bedrock AgentCore Observability
In this post, we walk you through implementation options for both agents hosted on Amazon Bedrock AgentCore Runtime and agents hosted on other services like Amazon Elastic Compute Cloud (Amazon EC2), Amazon Elastic Kubernetes Service (Amazon EKS), AWS Lambda, or alternative cloud providers. We also share best practices for incorporating observability throughout the development lifecycle.
Choosing the Right Model in Cursor
Cursor has an

Agent Factory: Connecting agents, apps, and data with new open standards like MCP and A2A
Find out why integration is what transforms an agent from a clever prototype into a force multiplier across a business.

Jupyter Agents: training LLMs to reason with notebooks
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Powering innovation at scale: How AWS is tackling AI infrastructure challenges
As generative AI continues to transform how enterprises operate—and develop net new innovations—the infrastructure demands for training and deploying AI models have grown exponentially. Traditional infrastructure approaches are struggling to keep pace with today’s computational requirements, network demands, and resilience needs of modern AI workloads. At AWS, we’re also seeing a transformation across the technology […]

Accelerating scientific discovery with AI-powered empirical software
この記事では、AIを活用した新しいシステムが科学者のために経験的ソフトウェアを作成する手助けをすることを紹介しています。このシステムは、明確に定義された問題と評価手段を入力として受け取り、コードの最適化を行う研究エンジンとして機能します。具体的には、遺伝学、公衆衛生、地理空間分析、神経科学、時系列予測、数値解析の6つの異なる分野において、専門家レベルのパフォーマンスを達成しています。従来のソフトウェアとは異なり、経験的ソフトウェアは事前に定義された品質スコアを最大化することを目的としており、スコア可能なタスクに対して効果的に対応します。システムは、プログラムの再現、最適化、既知の手法の再結合を通じて新しい研究アイデアを生成し、木構造探索を用いてソフトウェア候補を評価します。これにより、探索時間を数ヶ月から数日または数時間に短縮し、高品質な解決策を迅速に特定することが可能になります。 • AIシステムは科学者が経験的ソフトウェアを作成するのを支援する。 • システムは明確に定義された問題と評価手段を入力として受け取る。 • 遺伝学、公衆衛生、地理空間分析など6つの分野で専門家レベルのパフォーマンスを達成。 • 経験的ソフトウェアは事前に定義された品質スコアを最大化することを目的としている。 • システムはプログラムの再現、最適化、再結合を通じて新しい研究アイデアを生成。 • 木構造探索を用いてソフトウェア候補を評価し、探索時間を短縮。

The latest Google AI literacy resources all in one place
Building helpful AI Literacy programs that empower parents and educators and prepare students for an AI-first future

AI Quests: Bringing AI literacy to the classroom
AI Quests engages students in AI literacy through a gamified classroom experience.

Microsoft at IBC 2025: Accelerating the frontier of media and entertainment with AI
Discover how media Frontier Firms use agentic AI to drive innovation, creativity, and audience transformation at IBC 2025.

Accelerate your model training with managed tiered checkpointing on Amazon SageMaker HyperPod
AWS announced managed tiered checkpointing in Amazon SageMaker HyperPod, a purpose-built infrastructure to scale and accelerate generative AI model development across thousands of AI accelerators. Managed tiered checkpointing uses CPU memory for high-performance checkpoint storage with automatic data replication across adjacent compute nodes for enhanced reliability. In this post, we dive deep into those concepts and understand how to use the managed tiered checkpointing feature.

Ask Ralph: Where style meets AI—a new era of conversational commerce
Meet Ask Ralph, an AI-powered styling companion that helps with product discovery and inspires consumers with Ralph Lauren’s unique and iconic take on style. Learn more.
Shipping smarter agents with every new model
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上

mmBERT: ModernBERT goes Multilingual
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Agent Middleware
LangChain has had agent abstractions for nearly three years. There are now probably 100s of agent frameworks with the same core abstraction. They all suffer from the same downsides that the original LangChain agents suffered from: they do not give the developer enough control over context engineering when needed, leading

Maximize HyperPod Cluster utilization with HyperPod task governance fine-grained quota allocation
We are excited to announce the general availability of fine-grained compute and memory quota allocation with HyperPod task governance. With this capability, customers can optimize Amazon SageMaker HyperPod cluster utilization on Amazon Elastic Kubernetes Service (Amazon EKS), distribute fair usage, and support efficient resource allocation across different teams or projects. For more information, see HyperPod task governance best […]

Build and scale adoption of AI agents for education with Strands Agents, Amazon Bedrock AgentCore, and LibreChat
This post demonstrates how to quickly build sophisticated AI agents using Strands Agents, scale them reliably with Amazon Bedrock AgentCore, and make them accessible through LibreChat’s familiar interface to drive immediate user adoption across your institution.

Skai uses Amazon Bedrock Agents to significantly improve customer insights by revolutionized data access and analysis
Skai (formerly Kenshoo) is an AI-driven omnichannel advertising and analytics platform designed for brands and agencies to plan, launch, optimize, and measure paid media across search, social, retail media marketplaces and other “walled-garden” channels from a single interface. In this post, we share how Skai used Amazon Bedrock Agents to improve data access and analysis and improve customer insights.

6 ways to use NotebookLM to master any subject
This semester, students can use NotebookLM to instantly generate flashcards, quizzes, professional reports and more.

Google Doodles show how AI Mode can help you learn
Every day, students around the world search to learn and explore. Today through Wednesday, our Google homepage Doodles will feature three topics people frequently search…

AI Mode is now available in five new languages around the world.
Starting today, we’re bringing AI Mode, our most powerful AI search experience, to five new languages for users around the globe: Hindi, Indonesian, Japanese, Korean, an…

The power of AI in driving personalized product discovery at Snoonu
In this post, we share how Snoonu, a leading ecommerce platform in the Middle East, transformed their product discovery experience using AI-powered personalization. In this post, we share how Snoonu, a leading ecommerce platform in the Middle East, transformed their product discovery experience using AI-powered personalization.
Getting Started with Cursor
Cursor is an AI-focused VS Code fork. Here's Steve Kinney with a nice overview of what it offers and how to start getting help out of it right away.

A People-First AI Fund: $50M to support nonprofits
Applications are now open for OpenAI’s People-First AI Fund, a $50M initiative supporting U.S. nonprofits advancing education, community innovation, and economic opportunity. Apply by October 8, 2025, for unrestricted grants that help communities shape AI for the public good.

Funding, growth, and the next frontier of AI coding agents
Cognition has raised over $400M at a $10.2B post-money valuation led by Founders Fund. Other existing investors are similarly doubling down including Lux Capital and 8VC (who jointly led our previous round), Neo, Elad Gil, Definition Capital, and Swish VC. We’re also joined by new investors including Bain Capital Ventures and D1 Capital.
Mastra Changelog 2025-09-08
Zod v4 support with v3 compatibility and more.
Yellow Teaming on Arm: A look inside our responsible AI workshop
この記事では、著者がベルリンで開催されたWeAreDevelopers World Congressで行った「責任あるAI」に関するワークショップについて述べています。ワークショップでは、Yellow Teamingフレームワークを使用して製品設計における隠れた影響を明らかにし、Armの技術を用いて実践的な体験を提供しました。参加者は、ArmのGraviton 4上で動作するPyTorchベースの大規模言語モデル(LLM)アシスタントを構築し、機能設計のブレインストーミング用のチャットボットを作成しました。Yellow Teamingは、製品アイデアの意図しない結果を事前に浮き彫りにする手法であり、参加者はこのプロセスを通じて、AIが自分の仕事にどのように関連するかを理解する手助けを得ました。ワークショップでは、Armの最適化を活用したモデルのデプロイや、パフォーマンス向上のための技術的なポイントも紹介されました。 • Yellow Teamingフレームワークを使用して製品設計の隠れた影響を明らかにする • ArmのGraviton 4上でPyTorchベースのLLMアシスタントを構築 • 参加者は責任あるAIについての理解を深めた • AIの関連性を探るための具体的な手法を学んだ • ArmのKleidiAI INT4最適化カーネルを使用してパフォーマンスを向上させた • 生成速度が32トークン/秒に達し、初回トークン生成時間が0.4秒に短縮された • プロンプトインジェクションのリスクについての認識が高まった

Accelerating HPC and AI research in universities with Amazon SageMaker HyperPod
In this post, we demonstrate how a research university implemented SageMaker HyperPod to accelerate AI research by using dynamic SLURM partitions, fine-grained GPU resource management, budget-aware compute cost tracking, and multi-login node load balancing—all integrated seamlessly into the SageMaker HyperPod environment.

Exploring the Real-Time Race Track with Amazon Nova
This post explores the Real-Time Race Track (RTRT), an interactive experience built using Amazon Nova in Amazon Bedrock, that lets fans design, customize, and share their own racing circuits. We highlight how generative AI capabilities come together to deliver strategic racing insights such as pit timing and tire choices, and interactive features like an AI voice assistant and a retro-style racing poster.
Fast 2-Simplicial Attention: Hardware-Efficient Kernels in TLX
この記事では、2-Simplicial Attentionアルゴリズムのハードウェアに最適化された設計と、TLX(Triton Low-Level Extensions)を用いたカーネルの再実装について説明しています。2-Simplicial Attentionは、クエリと2つのキーセットおよび2つの値セット間の相互作用をモデル化するためにトリリニア関数を使用し、従来のドットプロダクトアテンションよりもトークン効率を向上させることができます。NVIDIA H100 GPU上で、588 Tensor Core BF16 TFLOPsを達成し、元のTritonカーネルの337ピークTFLOPsに対して約1.74倍のスピードアップを実現しました。また、2次元スライディングウィンドウを導入することで、計算コストを軽減しつつ、2-Simplicial Attentionの表現力を保持しています。TLXは、GPUカーネルの実行に対するハードウェアに近い制御を提供し、開発者の生産性を向上させるための言語拡張です。 • 2-Simplicial Attentionアルゴリズムのハードウェア最適化設計を紹介 • TLXを使用してカーネルを再実装し、588 Tensor Core BF16 TFLOPsを達成 • 元のTritonカーネルに対して約1.74倍のスピードアップを実現 • トリリニア関数を用いてクエリと2つのキーセット、2つの値セット間の相互作用をモデル化 • 2次元スライディングウィンドウを導入し、計算コストを軽減しつつ表現力を保持 • TLXはGPUカーネルの実行に対するハードウェアに近い制御を提供

Get Gemini’s help in Google Sheets with one simple step.
Learn how to get AI insights in one easy step in Google Sheets.

Why language models hallucinate
OpenAI’s new research explains why language models hallucinate. The findings show how improved evaluations can enhance AI reliability, honesty, and safety.
GPT-5 bio bug bounty call
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを解析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを解析し、エラー検出や最適化を支援 • 直感的なユーザーインターフェース • 簡単な導入プロセス • 幅広いプラットフォームとの互換性 • 生産性向上が期待される
OpenAI and Greek Government launch ‘OpenAI for Greece’
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • 使用するほどに精度が向上するAIの学習能力

Check out the web AI demo collection
There are so many built-in AI APIs, each with their own playground and some with even more demos. You can see all of these demos and try out client-side AI.
Introducing Cloneable Scorers
Cloneable scorers let you copy, customize, and extend Mastra’s evals into your project.
Using AI to perceive the universe in greater depth
In a paper published today in Science, we introduce Deep Loop Shaping, a novel AI method that will unlock next-generation gravitational-wave science. Deep Loop Shaping reduces noise and improves...

Build character consistent storyboards using Amazon Nova in Amazon Bedrock – Part 2
In this post, we take an animated short film, Picchu, produced by FuzzyPixel from Amazon Web Services (AWS), prepare training data by extracting key character frames, and fine-tune a character-consistent model for the main character Mayu and her mother, so we can quickly generate storyboard concepts for new sequels like the following images.

Build character consistent storyboards using Amazon Nova in Amazon Bedrock – Part 1
The art of storyboarding stands as the cornerstone of modern content creation, weaving its essential role through filmmaking, animation, advertising, and UX design. Though traditionally, creators have relied on hand-drawn sequential illustrations to map their narratives, today’s AI foundation models (FMs) are transforming this landscape. FMs like Amazon Nova Canvas and Amazon Nova Reel offer […]

Building LangGraph: Designing an Agent Runtime from first principles
In this blog piece, you’ll learn why and how we built LangGraph for production agents—focusing on control, durability, and the core features needed to scale.

Could AI help save one of the Pacific Northwest’s most vulnerable animals?
Under a grant from Microsoft’s AI for Good Lab, Woodland Park Zoo is piloting a new AI-powered wildlife monitoring system in the hope of saving vulnerable Pacific martens.

Expanding economic opportunity with AI
Fidji Simo - CEO, Applications
PyTorch 2.8+TorchAO: Unlock Efficient LLM Inference on Intel® AI PCs
この記事では、PyTorch 2.8とTorchAOを使用して、Intel® AI PC上での大規模言語モデル(LLM)の効率的な推論を実現する方法について説明しています。Intel® GPU(Arc™シリーズを含む)を活用することで、開発者はローカルでLLMを実行でき、AI機能へのアクセスが向上します。LLMをクライアントデバイスで実行する際の主な課題として、メモリ制約とカーネル効率が挙げられ、PyTorch 2.8ではoneDNNバックエンドやINT4量子化を通じてこれらの問題に対処しています。また、Hugging Faceとの統合により、Transformersモデルのハードウェアアクセラレーションが可能になり、torch.compileを使用することで、グラフ最適化によるデコード速度の向上が実現されています。 • 大規模言語モデル(LLM)の効率的な推論をIntel® AI PCで実現する方法を解説 • Intel® GPUを使用することで、ローカルでのLLM実行が可能になる • メモリ制約とカーネル効率の課題に対処するための最適化手法を紹介 • Hugging Faceとの統合により、Transformersモデルのハードウェアアクセラレーションが実現 • torch.compileを使用して、デコード速度の向上を図る

Welcome EmbeddingGemma, Google's new efficient embedding model
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Practical Evaluation Methods for Enterprise-Ready LLMs
Discover practical evaluation methods for enterprise-ready LLMs. Learn how to measure accuracy, safety, and reliability—and see how n8n’s built-in evaluation tools make it easy to test and improve AI workflows.

Authenticate Amazon Q Business data accessors using a trusted token issuer
In this post, we showed how to implement TTI authentication for Amazon Q data accessors. We covered the setup process for both ISVs and enterprises and demonstrated how TTI authentication simplifies the user experience while maintaining security standards.

Unlocking the future of professional services: How Proofpoint uses Amazon Q Business
Proofpoint has redefined its professional services by integrating Amazon Q Business, a fully managed, generative AI powered assistant that you can configure to answer questions, provide summaries, generate content, and complete tasks based on your enterprise data. In this post, we explore how Amazon Q Business transformed Proofpoint’s professional services, detailing its deployment, functionality, and future roadmap.

Enhancing LLM accuracy with Coveo Passage Retrieval on Amazon Bedrock
In this post, we show how to deploy Coveo’s Passage Retrieval API as an Amazon Bedrock Agents action group to enhance response accuracy, so Coveo users can use their current index to rapidly deploy new generative experiences across their organization.

Standard message content
TLDR: We’ve introduced a new view of message content that standardizes reasoning, citations, server-side tool calls, and other modern LLM features across providers. This makes it easier to build applications that are agnostic of the inference provider, while taking advantage of the latest features of each. This feature is
Accelerating 2K scale pre-training up to 1.28x with TorchAO, MXFP8 and TorchTitan on Crusoe B200 Cluster
この記事では、Crusoe B200クラスターを使用して、TorchAO、MXFP8、TorchTitanを活用した2Kスケールの事前トレーニングの加速について説明しています。MXFP8データ型を用いることで、BF16と比較して1.22倍から1.28倍のトレーニング加速が実現され、1856 GPUスケールでも損失曲線の同等性が確認されました。MXFP8は、Microsoftによって開発され、OCP標準となったもので、32要素ごとにスケーリングファクターを持つことで高精度な量子化を実現しています。トレーニング結果は、BF16とMXFP8の間でほぼ同じ最終結果を示し、MXFP8がわずかに優れた収束を示すことが確認されました。 • Crusoe B200クラスターでのトレーニング加速の実施 • MXFP8データ型を使用した場合の1.22倍から1.28倍の加速 • BF16とMXFP8の損失曲線の同等性 • MXFP8は32要素ごとのスケーリングファクターを持つ • トレーニング結果はBF16とMXFP8でほぼ同じで、MXFP8がわずかに優れた収束を示す

Microsoft’s analog optical computer cracks two practical problems and shows AI promise
A Microsoft analog optical computer has solved two optimization problems and shown potential for AI workloads using less energy.

Agent Factory: From prototype to production—developer tools and rapid agent development
Find out how Azure AI Foundry meets developers where they are, while giving enterprises the trust, security, and scale they need.

Agentic RAG: A Guide to Building Autonomous AI Systems
Standard RAG is accurate but inflexible. Agentic RAG is the upgrade, using smart AI agents in dynamic workflows. These agents choose the right tool for any query, like a database or web search, and verify their own answers. This guide explains what Agentic RAG is and shows you practical examples.

Train and deploy models on Amazon SageMaker HyperPod using the new HyperPod CLI and SDK
In this post, we demonstrate how to use the new Amazon SageMaker HyperPod CLI and SDK to streamline the process of training and deploying large AI models through practical examples of distributed training using Fully Sharded Data Parallel (FSDP) and model deployment for inference. The tools provide simplified workflows through straightforward commands for common tasks, while offering flexible development options through the SDK for more complex requirements, along with comprehensive observability features and production-ready deployment capabilities.

Build a serverless Amazon Bedrock batch job orchestration workflow using AWS Step Functions
In this post, we introduce a flexible and scalable solution that simplifies the batch inference workflow. This solution provides a highly scalable approach to managing your FM batch inference needs, such as generating embeddings for millions of documents or running custom evaluation or completion tasks with large datasets.

LangChain & LangGraph 1.0 alpha releases
Today we are announcing alpha releases of v1.0 for langgraph and langchain, in both Python and JS. LangGraph is a low-level agent orchestration framework, giving developers durable execution and fine-grained control to run complex agentic systems in production. LangChain helps developers ship AI features fast with standardized model abstractions

Natural language-based database analytics with Amazon Nova
In this post, we explore how natural language database analytics can revolutionize the way organizations interact with their structured data through the power of large language model (LLM) agents. Natural language interfaces to databases have long been a goal in data management. Agents enhance database analytics by breaking down complex queries into explicit, verifiable reasoning steps and enabling self-correction through validation loops that can catch errors, analyze failures, and refine queries until they accurately match user intent and schema requirements.

Deploy Amazon Bedrock Knowledge Bases using Terraform for RAG-based generative AI applications
In this post, we demonstrated how to automate the deployment of Amazon Knowledge Bases for RAG applications using Terraform.

Document intelligence evolved: Building and evaluating KIE solutions that scale
In this blog post, we demonstrate an end-to-end approach for building and evaluating a KIE solution using Amazon Nova models available through Amazon Bedrock. This end-to-end approach encompasses three critical phases: data readiness (understanding and preparing your documents), solution development (implementing extraction logic with appropriate models), and performance measurement (evaluating accuracy, efficiency, and cost-effectiveness). We illustrate this comprehensive approach using the FATURA dataset—a collection of diverse invoice documents that serves as a representative proxy for real-world enterprise data.

Announcing the new cluster creation experience for Amazon SageMaker HyperPod
With the new cluster creation experience, you can create your SageMaker HyperPod clusters, including the required prerequisite AWS resources, in one click, with prescriptive default values automatically applied. In this post, we explore the new cluster creation experience for Amazon SageMaker HyperPod.
Vijaye Raji to become CTO of Applications with acquisition of Statsig
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコメントやコードの一部を基に、AIが適切なコードを提案する機能があります。また、ツールは多くのプログラミング言語に対応しており、特にJavaScriptやPythonでの使用が推奨されています。これにより、開発者は生産性を向上させ、エラーを減少させることが期待されます。さらに、ツールの導入は簡単で、既存の開発環境にスムーズに統合できる点も強調されています。 • AIを活用したコード自動生成ツールの紹介 • 開発者が入力したコメントに基づいてコードを提案 • JavaScriptやPythonなど多くの言語に対応 • 生産性向上とエラー削減が期待される • 既存の開発環境に簡単に統合可能

Building more helpful ChatGPT experiences for everyone
Routing sensitive conversations to reasoning models and rolling out Parental Controls within the next month.

Learn what makes Pixel 10’s camera tech and AI features so special.
To kick off the second episode in Season 8 of the Made by Google podcast, host Rachid Finge asks Pixel Product Manager Stephanie Scott to describe the Pixel 10 phones in…

Detect Amazon Bedrock misconfigurations with Datadog Cloud Security
We’re excited to announce new security capabilities in Datadog Cloud Security that can help you detect and remediate Amazon Bedrock misconfigurations before they become security incidents. This integration helps organizations embed robust security controls and secure their use of the powerful capabilities of Amazon Bedrock by offering three critical advantages: holistic AI security by integrating AI security into your broader cloud security strategy, real-time risk detection through identifying potential AI-related security issues as they emerge, and simplified compliance to help meet evolving AI regulations with pre-built detections.

Set up custom domain names for Amazon Bedrock AgentCore Runtime agents
In this post, we show you how to create custom domain names for your Amazon Bedrock AgentCore Runtime agent endpoints using CloudFront as a reverse proxy. This solution provides several key benefits: simplified integration for development teams, custom domains that align with your organization, cleaner infrastructure abstraction, and straightforward maintenance when endpoints need updates.

Introducing auto scaling on Amazon SageMaker HyperPod
In this post, we announce that Amazon SageMaker HyperPod now supports managed node automatic scaling with Karpenter, enabling efficient scaling of SageMaker HyperPod clusters to meet inference and training demands. We dive into the benefits of Karpenter and provide details on enabling and configuring Karpenter in SageMaker HyperPod EKS clusters.

Meet Boti: The AI assistant transforming how the citizens of Buenos Aires access government information with Amazon Bedrock
This post describes the agentic AI assistant built by the Government of the City of Buenos Aires and the GenAIIC to respond to citizens’ questions about government procedures. The solution consists of two primary components: an input guardrail system that helps prevent the system from responding to harmful user queries and a government procedures agent that retrieves relevant information and generates responses.

Empowering air quality research with secure, ML-driven predictive analytics
In this post, we provide a data imputation solution using Amazon SageMaker AI, AWS Lambda, and AWS Step Functions. This solution is designed for environmental analysts, public health officials, and business intelligence professionals who need reliable PM2.5 data for trend analysis, reporting, and decision-making. We sourced our sample training dataset from openAFRICA. Our solution predicts PM2.5 values using time-series forecasting.

How Amazon Finance built an AI assistant using Amazon Bedrock and Amazon Kendra to support analysts for data discovery and business insights
The Amazon Finance technical team develops and manages comprehensive technology solutions that power financial decision-making and operational efficiency while standardizing across Amazon’s global operations. In this post, we explain how the team conceptualized and implemented a solution to these business challenges by harnessing the power of generative AI using Amazon Bedrock and intelligent search with Amazon Kendra.