Last updated: 2025/10/22 23:00
Metagenomi generates millions of novel enzymes cost-effectively using AWS Inferentia
In this post, we detail how Metagenomi partnered with AWS to implement the Progen2 protein language model on AWS Inferentia, achieving up to 56% cost reduction for high-throughput enzyme generation workflows. The implementation enabled cost-effective generation of millions of novel enzyme variants using EC2 Inf2 Spot Instances and AWS Batch, demonstrating how cloud-based generative AI can make large-scale protein design more accessible for biotechnology applications .
Sentence Transformers is joining Hugging Face!
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
AI in Japan—OpenAI’s Japan Economic Blueprint
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIがリアルタイムでサポートを提供し、効率的なコーディングを実現します。具体的には、AIがコードの提案を行ったり、エラーを検出したりする機能があり、これにより開発者はより迅速に高品質なソフトウェアを作成できるようになります。また、ツールの導入方法や、他の開発環境との互換性についても触れています。最終的に、このツールを使用することで、開発プロセスの効率化とエラーの削減が期待できると述べています。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでのコード提案やエラー検出機能 • 開発者の効率的なコーディングをサポート • 導入方法や他の開発環境との互換性についての説明 • 開発プロセスの効率化とエラー削減の期待
Enabling vLLM V1 on AMD GPUs With Triton
vLLM V1は、vLLMの内部アーキテクチャを大幅に再設計したもので、2025年1月にアルファ版が発表された。V1の設計目標は、コードベースの簡素化、拡張性の向上、すべてのパフォーマンス最適化をデフォルトで有効にすることだった。これにより、カーネル開発者が最適化されたアテンションカーネルを書く際の利便性が向上した。V1では、リクエストのバッチ形成方法に重要な変更が加えられ、混合バッチを形成できるようになった。最初は、CUDAバージョンのFlashAttentionパッケージのみがこれらの「V1バッチ」をサポートしていたため、AMD GPUはサポートされていなかったが、Tritonカーネルに基づく新しいアテンションバックエンドが開発され、AMDのサポートが実現した。 • vLLM V1は内部アーキテクチャの再設計で、コードベースの簡素化と拡張性の向上を目指している。 • すべてのパフォーマンス最適化がデフォルトで有効になり、カーネル開発者にとって利便性が向上した。 • リクエストのバッチ形成方法が変更され、混合バッチが形成可能になった。 • 最初はNVIDIA GPUのみがサポートされていたが、Tritonカーネルに基づく新しいアテンションバックエンドが開発され、AMD GPUのサポートが追加された。 • vLLM V1は、コンテキスト長、クエリ長、シーケンス長の3つの重要な量を考慮している。
Serverless deployment for your Amazon SageMaker Canvas models
In this post, we walk through how to take an ML model built in SageMaker Canvas and deploy it using SageMaker Serverless Inference, helping you go from model creation to production-ready predictions quickly and efficiently without managing any infrastructure. This solution demonstrates a complete workflow from adding your trained model to the SageMaker Model Registry through creating serverless endpoint configurations and deploying endpoints that automatically scale based on demand .
Building a multi-agent voice assistant with Amazon Nova Sonic and Amazon Bedrock AgentCore
In this post, we explore how Amazon Nova Sonic's speech-to-speech capabilities can be combined with Amazon Bedrock AgentCore to create sophisticated multi-agent voice assistants that break complex tasks into specialized, manageable components. The approach demonstrates how to build modular, scalable voice applications using a banking assistant example with dedicated sub-agents for authentication, banking inquiries, and mortgage services, offering a more maintainable alternative to monolithic voice assistant designs.
Accelerate large-scale AI training with Amazon SageMaker HyperPod training operator
In this post, we demonstrate how to deploy and manage machine learning training workloads using the Amazon SageMaker HyperPod training operator, which enhances training resilience for Kubernetes workloads through pinpoint recovery and customizable monitoring capabilities. The Amazon SageMaker HyperPod training operator helps accelerate generative AI model development by efficiently managing distributed training across large GPU clusters, offering benefits like centralized training process monitoring, granular process recovery, and hanging job detection that can reduce recovery times from tens of minutes to seconds.
Continue your ChatGPT experience beyond WhatsApp
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Start learning all things AI on the new Google Skills
Google Skills is a new home for building skills in AI, and learning about other topics like data analytics and security.
Unlock the power of images with AI Sheets
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Introducing ChatGPT Atlas, the browser with ChatGPT built in
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。特に、AIを用いたコード補完機能や自動化されたテストプロセスが強調されており、これにより開発者の生産性が向上することが期待されています。また、ツールの導入方法や、既存の開発環境との互換性についても詳しく述べられています。さらに、AI技術の進化に伴い、今後の開発プロセスがどのように変化するかについての見解も示されています。 • AI技術を活用した新しい開発ツールの紹介 • コード補完機能や自動化されたテストプロセスの強調 • 開発者の生産性向上が期待される • ツールの導入方法と既存環境との互換性についての詳細 • AI技術の進化による開発プロセスの変化に関する見解
A picture's worth a thousand (private) words: Hierarchical generation of coherent synthetic photo albums
この記事では、差分プライバシーを利用した合成写真アルバムの生成手法を紹介しています。この手法は、中間的なテキスト表現を使用し、階層的にアルバムを生成します。差分プライバシーは、データセット内の個人情報を保護するための強力な手段であり、生成AIモデルを用いることで、個別の分析手法を変更することなく、プライベートな合成データセットを作成できます。具体的には、元のデータセットに基づいて、AIモデルを用いてアルバムの要約と各写真の詳細なキャプションを生成し、テーマの一貫性を保ちながら合成アルバムを作成します。この方法により、複雑なデータを扱う際の課題を解決し、効果的な分析やモデリングが可能になります。 • 差分プライバシーを利用した合成写真アルバムの生成手法を提案 • 中間的なテキスト表現を使用し、階層的にデータを生成 • AIモデルを用いてアルバムの要約と各写真のキャプションを生成 • テーマの一貫性を保ちながら合成アルバムを作成 • プライベートな合成データセットを生成することで、分析手法の簡素化を実現
LangChain raises $125M to build the platform for agent engineering
We raised $125M at a $1.25B valuation to build the platform for agent engineering.
Reflections on Three Years of Building LangChain
by Harrison Chase Almost exactly 3 years ago, I pushed the first lines of code to langchain as an open source package. There was no company at the time, and no grand plan for what the project would become. A month later, ChatGPT launched, and everything for langchain changed. It
Teaching Gemini to spot exploding stars with just a few examples
この記事では、GoogleのGeminiモデルがどのようにして高精度の天文学アシスタントに変身し、超新星などの宇宙イベントを分類できるかを示しています。Geminiは、各調査ごとにわずか15の注釈付き例から学習し、3つのデータセットで93%の精度を達成しました。従来の機械学習モデルは「ブラックボックス」として機能し、結果に対する説明を提供しませんでしたが、Geminiはその理由を平易な言葉で説明することができます。少数の例から学ぶ手法を用い、各調査に対して15の注釈付き例と簡潔な指示を提供することで、宇宙イベントを正確に分類し説明する能力を獲得しました。 • GoogleのGeminiモデルは、宇宙イベントを高精度で分類し、その理由を説明できる。 • 93%の精度を達成するために、各調査ごとに15の注釈付き例を使用した。 • 従来のモデルは結果を説明しないが、Geminiは平易な言葉でその理由を説明する。 • 少数の例から学ぶ手法(few-shot learning)を採用し、効率的に学習を行った。 • 異なる解像度やピクセルスケールを持つ複数の天文調査からのデータを扱うことができる。
Leveling up your developer experience in Google AI Studio
AI Studio has released new updates that give developers even more control.
Solving virtual machine puzzles: How AI is optimizing cloud computing
この記事では、LAVAという新しいスケジューリングアルゴリズムを紹介し、クラウドデータセンターにおける仮想マシン(VM)のリソース効率を最適化する方法を説明しています。LAVAは、VMの実際の寿命を継続的に再予測し、適応することで、リソースの無駄を減らします。VMの寿命は予測が難しく、短命のVMが多く存在する一方で、長命のVMがリソースを多く消費するため、効率的な配置が求められます。LAVAは、非侵襲的寿命認識スコアリング(NILAS)、寿命認識VM割り当て(LAVA)、寿命認識再スケジューリング(LARS)の3つのアルゴリズムを用いて、VMを物理サーバーに効率的に配置するための解決策を提供します。これにより、リソースのストランディングを防ぎ、システムの更新やリソース集約型VMのプロビジョニングに必要な空きホストを確保します。 • LAVAはVMの実際の寿命を継続的に再予測し、リソース効率を最適化するスケジューリングアルゴリズムである。 • VMの寿命は予測が難しく、短命のVMが多く、長命のVMがリソースを多く消費するため、効率的な配置が重要である。 • LAVAはNILAS、LAVA、LARSの3つのアルゴリズムを使用して、VMを物理サーバーに効率的に配置する。 • このシステムは、VMの寿命を一度の予測に依存せず、実行中に予測を自動的に更新する。 • リソースのストランディングを防ぎ、システムの更新やリソース集約型VMのプロビジョニングに必要な空きホストを確保する。
How TP ICAP transformed CRM data into real-time insights with Amazon Bedrock
This post shows how TP ICAP used Amazon Bedrock Knowledge Bases and Amazon Bedrock Evaluations to build ClientIQ, an enterprise-grade solution with enhanced security features for extracting CRM insights using AI, delivering immediate business value.
Principal Financial Group accelerates build, test, and deployment of Amazon Lex V2 bots through automation
In the post Principal Financial Group increases Voice Virtual Assistant performance using Genesys, Amazon Lex, and Amazon QuickSight, we discussed the overall Principal Virtual Assistant solution using Genesys Cloud, Amazon Lex V2, multiple AWS services, and a custom reporting and analytics solution using Amazon QuickSight.
Beyond vibes: How to properly select the right LLM for the right task
In this post, we discuss an approach that can guide you to build comprehensive and empirically driven evaluations that can help you make better decisions when selecting the right model for your task.
Splash Music transforms music generation using AWS Trainium and Amazon SageMaker HyperPod
In this post, we show how Splash Music is setting a new standard for AI-powered music creation by using its advanced HummingLM model with AWS Trainium on Amazon SageMaker HyperPod. As a selected startup in the 2024 AWS Generative AI Accelerator, Splash Music collaborated closely with AWS Startups and the AWS Generative AI Innovation Center (GenAIIC) to fast-track innovation and accelerate their music generation FM development lifecycle.
Iterative fine-tuning on Amazon Bedrock for strategic model improvement
Organizations often face challenges when implementing single-shot fine-tuning approaches for their generative AI models. The single-shot fine-tuning method involves selecting training data, configuring hyperparameters, and hoping the results meet expectations without the ability to make incremental adjustments. Single-shot fine-tuning frequently leads to suboptimal results and requires starting the entire process from scratch when improvements are […]
Voice AI-powered drive-thru ordering with Amazon Nova Sonic and dynamic menu displays
In this post, we'll demonstrate how to implement a Quick Service Restaurants (QSRs) drive-thru solution using Amazon Nova Sonic and AWS services. We'll walk through building an intelligent system that combines voice AI with interactive menu displays, providing technical insights and implementation guidance to help restaurants modernize their drive-thru operations.
Optimizing document AI and structured outputs by fine-tuning Amazon Nova Models and on-demand inference
This post provides a comprehensive hands-on guide to fine-tune Amazon Nova Lite for document processing tasks, with a focus on tax form data extraction. Using our open-source GitHub repository code sample, we demonstrate the complete workflow from data preparation to model deployment.
Introducing SWE-grep and SWE-grep-mini: RL for Multi-Turn, Fast Context Retrieval
We trained SWE-grep and SWE-grep-mini, fast agentic models specialized in highly parallel context retrieval. They match the retrieval capabilities of frontier coding models, while taking an order of magnitude less time. Available now in Windsurf’s new Fast Context subagent, and our new SWE-grep demo playground!
10 years of genomics research at Google
An overview of ten years of milestones and breakthroughs in Google’s work on genomics.
DeepSomatic, an open-source AI model, is speeding up genetic analysis for cancer research.
An overview of DeepSomatic, a new AI tool that helps identify complex genetic variants in cancer cells.
Using AI to identify genetic variants in tumors with DeepSomatic
DeepSomaticは、腫瘍の遺伝子配列における癌関連の変異を特定するためのAI駆動ツールです。癌は遺伝的な病気であり、腫瘍細胞の遺伝子変異を特定することは治療計画を立てる上で重要です。DeepSomaticは、畳み込みニューラルネットワークを使用して、腫瘍細胞の遺伝子変異をより正確に特定します。このツールは、主要なシーケンシングプラットフォームからのデータに対応し、異なるサンプル処理のタイプにも適応可能です。また、トレーニングに含まれていない癌タイプにも学習を拡張できます。Google Researchは、癌の理解を深め、治療法を開発するためにAI技術を活用しており、DeepSomaticはその一環として提供されています。 • DeepSomaticは腫瘍の遺伝子変異を特定するAIツールである。 • 癌は遺伝的な病気であり、遺伝子変異の特定が治療計画に重要である。 • DeepSomaticは畳み込みニューラルネットワークを使用して、腫瘍細胞の変異を正確に特定する。 • このツールは主要なシーケンシングプラットフォームに対応し、異なるサンプル処理にも適応可能。 • DeepSomaticは、トレーニングに含まれていない癌タイプにも学習を拡張できる。 • Google Researchは癌研究を進めるためにAI技術を活用している。
From queries to conversations: Unlock insights about your data using Azure Storage Discovery—now generally available
Use Azure Storage Discovery for insights into Azure Blob Storage and Azure Data Lake Storage to optimize costs, security, and efficiency.
Extending AI impact at HLTH 2025: Dragon Copilot scales across care teams, partners, and geographies
At HLTH 2025, we’re spotlighting how Microsoft Dragon Copilot, a breakthrough AI clinical assistant, is supporting more clinicians and geographies.
Implementing Rerankers in Your AI Workflows
Boost your RAG pipeline’s accuracy with rerankers that reorder results by true semantic relevance—deliver smarter, faster, and more precise AI search!
Bringing AI to the next generation of fusion energy
We’re announcing our research partnership with Commonwealth Fusion Systems (CFS) to bring clean, safe, limitless fusion energy closer to reality with our advanced AI systems. This partnership...
Braintrust joins the Vercel Marketplace
Braintrust joins the Vercel Marketplace with native support for the Vercel AI SDK and AI Gateway, enabling developers to monitor, evaluate, and improve AI application performance in real time.
AI Agent Orchestration Frameworks: Which One Works Best for You?
Discover AI agent orchestration frameworks like n8n, LangGraph, CrewAI that power scalable, multi-agent AI orchestration in 2025.
Google Cloud C4 Brings a 70% TCO improvement on GPT OSS with Intel and Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
PyTorch 2.9 Release Blog
PyTorch 2.9のリリースが発表され、主な新機能には、C++/CUDA拡張用の安定したlibtorch ABIの更新、マルチGPUカーネルのプログラミングを容易にする対称メモリの導入、torch.compileにおけるグラフブレーク時のエラーまたは再開の切り替え機能が含まれています。また、ROCm、XPU、CUDA 13を含むホイールバリアントのサポート拡大、Intel GPUでのFlexAttentionの有効化、X86 CPUでのFlashデコーディングの最適化、Linux aarch64バイナリホイールビルドのサポートが強化されました。これらの機能は、3216のコミットと452の貢献者によって実現され、PyTorchコミュニティへの感謝が述べられています。 • C++/CUDA拡張用の安定したlibtorch ABIの更新 • マルチGPUカーネルのプログラミングを容易にする対称メモリの導入 • torch.compileにおけるグラフブレーク時のエラーまたは再開の切り替え機能 • ROCm、XPU、CUDA 13を含むホイールバリアントのサポート拡大 • Intel GPUでのFlexAttentionの有効化 • X86 CPUでのFlashデコーディングの最適化 • Linux aarch64バイナリホイールビルドのサポート強化
Transforming enterprise operations: Four high-impact use cases with Amazon Nova
In this post, we share four high-impact, widely adopted use cases built with Nova in Amazon Bedrock, supported by real-world customers deployments, offerings available from AWS partners, and experiences. These examples are ideal for organizations researching their own AI adoption strategies and use cases across industries.
Building smarter AI agents: AgentCore long-term memory deep dive
In this post, we explore how Amazon Bedrock AgentCore Memory transforms raw conversational data into persistent, actionable knowledge through sophisticated extraction, consolidation, and retrieval mechanisms that mirror human cognitive processes. The system tackles the complex challenge of building AI agents that don't just store conversations but extract meaningful insights, merge related information across time, and maintain coherent memory stores that enable truly context-aware interactions.
Sora 2 now available in Azure AI Foundry
Explore how Sora 2 in Azure AI Foundry helps developers and creators turn ideas into immersive video stories—securely, responsibly, and at scale. Learn about its advanced features, moderation tools, and how to get started.
Configure and verify a distributed training cluster with AWS Deep Learning Containers on Amazon EKS
Misconfiguration issues in distributed training with Amazon EKS can be prevented following a systematic approach to launch required components and verify their proper configuration. This post walks through the steps to set up and verify an EKS cluster for training large models using DLCs.
Scala development in Amazon SageMaker Studio with Almond kernel
This post provides a comprehensive guide on integrating the Almond kernel into SageMaker Studio, offering a solution for Scala development within the platform.
Coral NPU: A full-stack platform for Edge AI
Coral NPUは、低消費電力のエッジAIデバイス向けに設計されたフルスタックのオープンソースプラットフォームです。このプラットフォームは、パフォーマンス、断片化、プライバシーの課題を解決することを目的としています。AIが私たちの生活を支援するためには、クラウドから個人のデバイスに埋め込まれる必要がありますが、これにはいくつかの重要な問題があります。まず、複雑な機械学習モデルはエッジデバイスの限られたリソースを超えるため、パフォーマンスのギャップが生じます。次に、異なるプロセッサ向けにモデルを最適化することが難しく、断片化が進みます。最後に、個人データのプライバシーとセキュリティが重要です。Coral NPUは、これらの課題に対処するために、AIファーストのハードウェアアーキテクチャを提供し、開発者が効率的なエッジAIデバイスを構築できるようにします。 • エッジAIデバイスのパフォーマンス、断片化、プライバシーの課題を解決するプラットフォーム • AIを個人デバイスに埋め込む必要性 • 複雑な機械学習モデルがエッジデバイスのリソースを超える問題 • 異なるプロセッサ向けのモデル最適化の難しさ • 個人データのプライバシーとセキュリティの重要性 • AIファーストのハードウェアアーキテクチャを提供 • 開発者が効率的なエッジAIデバイスを構築するためのツールを提供
Designing Microsoft 365 Copilot to empower educators, students, and staff
Explore new AI-powered experiences at no additional cost for educators and students—plus an academic offering for Microsoft 365 Copilot.
Agents at work, a partnership with Salesforce and Slack
Vercel and Salesforce are partnering to help teams build, ship, and scale AI agents across the Salesforce ecosystem, starting with Slack.
Get your VLM running in 3 simple steps on Intel CPUs
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Plex Coffee delivers fast service and personal connections with ChatGPT Business
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Oracle Database@Azure offers new features, regions, and programs to unlock data and AI innovation
Migrate Oracle solutions to the cloud with a trusted, enterprise-ready platform from Microsoft and Oracle. Learn more.
Build a device management agent with Amazon Bedrock AgentCore
In this post, we explore how to build a conversational device management system using Amazon Bedrock AgentCore. With this solution, users can manage their IoT devices through natural language, using a UI for tasks like checking device status, configuring WiFi networks, and monitoring user activity.
How Amazon Bedrock Custom Model Import streamlined LLM deployment for Salesforce
This post shows how Salesforce integrated Amazon Bedrock Custom Model Import into their machine learning operations (MLOps) workflow, reused existing endpoints without application changes, and benchmarked scalability. We share key metrics on operational efficiency and cost optimization gains, and offer practical insights for simplifying your deployment strategy.
From vision to impact: Advancing public finance transformation through AI and ecosystem collaboration
Governments use AI to modernize public finance, improve compliance, and deliver better taxpayer services. Learn more.
Expert Council on Well-Being and AI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。特に、AIを用いたコード補完機能や自動生成機能が強調されており、開発者の生産性を向上させることが期待されています。また、これらのツールは、特定のプログラミング言語やフレームワークに依存せず、幅広い環境で利用可能です。さらに、AI技術の進化により、従来の開発プロセスが大きく変わる可能性があることも指摘されています。 • AIを活用したコード補完機能が開発者の生産性を向上させる。 • 自動生成機能により、開発時間を短縮できる。 • 特定のプログラミング言語やフレームワークに依存しない。 • AI技術の進化が従来の開発プロセスを変える可能性がある。
Highlights from our AI in Action workshop
In partnership with a group of startups in NYC, we demonstrated how client-side AI and built-in AI APIs can be directly integrated into their products for greater speed, privacy, and a better user experience.
Argentina’s AI opportunity
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。 • AIを活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上 • エラー削減の効果
Accelerating open-source infrastructure development for frontier AI at scale
Learn how Microsoft is addressing unprecedented power density and distribution challenges within hyperscale datacenters as AI workloads scale.
Transforming the physical world with AI: the next frontier in intelligent automation
In this post, we explore how Physical AI represents the next frontier in intelligent automation, where artificial intelligence transcends digital boundaries to perceive, understand, and manipulate the tangible world around us.
Securing your agents with authentication and authorization
Agents can take action which makes proper authentication and authorization critical. Read on for how to implement and evolve agent auth.
Medical reports analysis dashboard using Amazon Bedrock, LangChain, and Streamlit
In this post, we demonstrate the development of a conceptual Medical Reports Analysis Dashboard that combines Amazon Bedrock AI capabilities, LangChain's document processing, and Streamlit's interactive visualization features. The solution transforms complex medical data into accessible insights through a context-aware chat system powered by large language models available through Amazon Bedrock and dynamic visualizations of health parameters.
New AI-powered features help you connect with web content in Search and Discover.
We’re introducing two new AI-powered features in Search and Discover to help you connect with fresh content and links from across the web.
Kitsa transforms clinical trial site selection with Amazon Quick Automate
In this post, we'll show how Kitsa, a health-tech company specializing in AI-driven clinical trial recruitment and site selection, used Amazon Quick Automate to transform their clinical trial site selection solution. Amazon Quick Automate, a capability of Amazon Quick Suite, enables enterprises to build, deploy and maintain resilient workflow automations at scale.
Connect Amazon Quick Suite to enterprise apps and agents with MCP
In this post, we explore how Amazon Quick Suite's Model Context Protocol (MCP) client enables secure, standardized connections to enterprise applications and AI agents, eliminating the need for complex custom integrations. You'll discover how to set up MCP Actions integrations with popular enterprise tools like Atlassian Jira and Confluence, AWS Knowledge MCP Server, and Amazon Bedrock AgentCore Gateway to create a collaborative environment where people and AI agents can seamlessly work together across your organization's data and applications.
Nano Banana is coming to Google Search, NotebookLM and Photos.
Google is bringing AI image editing with Nano Banana to Search, NotebookLM and Photos.
How to edit images with Nano Banana in Search
Here’s your guide for editing images in Search using Lens with Nano Banana.
Video Overviews on NotebookLM get a major upgrade with Nano Banana
NotebookLM's Video Overviews get an upgrade with visuals powered by Nano Banana and a new "Brief" format for quick summaries.
FYAI: Why developers will lead AI transformation across the enterprise
Amanda Silver's leadership has helped shape Microsoft’s evolution toward open-source collaboration. Learn more in this edition of FYAI.
Make agents a reality with Amazon Bedrock AgentCore: Now generally available
Learn why customers choose AgentCore to build secure, reliable AI solutions using their choice of frameworks and models for production workloads.
OpenAI and Broadcom announce strategic collaboration to deploy 10 gigawatts of OpenAI-designed AI accelerators
Multi-year partnership enables OpenAI and Broadcom to deliver accelerator and network systems for next-generation AI clusters.
The evolution of AgentNetwork
We've unified multi-agent coordination under a new .network() primitive—read about our journey, the experiments, and how you can use it to orchestrate collaborative agents simply.
HYGH powers next-gen digital ads with ChatGPT Business
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Use Amazon SageMaker HyperPod and Anyscale for next-generation distributed computing
In this post, we demonstrate how to integrate Amazon SageMaker HyperPod with Anyscale platform to address critical infrastructure challenges in building and deploying large-scale AI models. The combined solution provides robust infrastructure for distributed AI workloads with high-performance hardware, continuous monitoring, and seamless integration with Ray, the leading AI compute engine, enabling organizations to reduce time-to-market and lower total cost of ownership.
Customizing text content moderation with Amazon Nova
In this post, we introduce Amazon Nova customization for text content moderation through Amazon SageMaker AI, enabling organizations to fine-tune models for their specific moderation needs. The evaluation across three benchmarks shows that customized Nova models achieve an average improvement of 7.3% in F1 scores compared to the baseline Nova Lite, with individual improvements ranging from 4.2% to 9.2% across different content moderation tasks.
1,001 real-world gen AI use cases from the world's leading organizations
A snapshot of how top companies, governments, researchers and startups are enhancing their work with Google's AI solutions.
September 2025 (version 1.105)
Learn what is new in the Visual Studio Code September 2025 Release (1.105).
SuperOffload: Unleashing the Power of Large-Scale LLM Training on Superchips
SuperOffloadは、NVIDIA GH200スーパーチップを活用して、大規模なLLM(大規模言語モデル)の効率的なフルパラメータファインチューニングを実現するための新しい技術です。具体的には、GPT-OSS-20BやQwen3-14Bモデルを単一のGH200で最大600 TFLOPSのトレーニングスループットでファインチューニングでき、従来の手法に比べて最大4倍のスループット向上を達成します。SuperOffloadは、GPUとCPUの利用率を向上させるために、Speculation-then-Validation、Heterogeneous Optimizer Computation、Superchip-Aware Casting、GraceAdamといった4つの最適化技術を導入しています。また、DeepSpeed ZeRO Stage 3の上に構築されており、Hugging Face Transformersとの互換性があり、モデルコードの変更なしに統合可能です。 • SuperOffloadは、NVIDIA GH200スーパーチップを使用して大規模LLMの効率的なトレーニングを実現する。 • GPT-OSS-20BやQwen3-14Bモデルを単一のGH200で最大600 TFLOPSのスループットでファインチューニング可能。 • 従来のZeRO-Offloadに比べて最大4倍のスループット向上を達成。 • GPU利用率を約50%から80%以上に向上させる。 • DeepSpeed ZeRO Stage 3に基づいており、Hugging Face Transformersとの互換性がある。
Microsoft Azure delivers the first large scale cluster with NVIDIA GB300 NVL72 for OpenAI workloads
Explore how the NVIDIA GB300 NVL72 delivers high-performance AI infrastructure, global availability, and faster model training on Azure.
Explore new AI innovation for Dynamics 365, Microsoft Power Platform, and Copilot Studio at the Business Applications Launch Event
Get expert insights and demos from Microsoft product leaders at the Business Applications Launch Event. Learn more.
Defining and evaluating political bias in LLMs
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特にエラーの検出やコードの最適化に役立ちます。具体的には、AIがリアルタイムでコードを解析し、改善点を提案する機能が搭載されています。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。さらに、他の開発環境との互換性も考慮されており、幅広いプラットフォームで利用可能です。これにより、開発者は生産性を向上させることが期待されます。 • AI技術を活用した新しい開発ツールの紹介 • リアルタイムでコードを解析し、改善点を提案する機能 • 直感的で使いやすいユーザーインターフェース • 簡単な導入プロセス • 幅広いプラットフォームとの互換性 • 生産性向上が期待される
ChatGPT apps support on Vercel
Use the Apps SDK, Next.js, and mcp-handler to build and deploy ChatGPT apps on Vercel, complete with custom UI and app-specific functionality.
Gemini Enterprise: The new front door for Google AI in your workplace
True business transformation in the era of AI must go beyond simple chatbots. That’s what Gemini Enterprise does.
4 ways Gemini Enterprise makes work easier for everyone
Here are four ways Gemini Enterprise can help you and your team get time back in your day.
XR Blocks: Accelerating AI + XR innovation
XR Blocksは、AIと拡張現実(XR)を組み合わせた没入型体験を開発するためのオープンソースフレームワークです。このフレームワークは、AIとXRのエコシステム間のギャップを埋めることを目的としており、ユーザー、世界、インターフェース、AI、エージェントのためのモジュール式アーキテクチャを提供します。XR Blocksは、WebXR、threejs、LiteRT、Geminiなどの技術を基盤にしており、XRクリエイターが迅速にプロトタイプを作成できるように設計されています。設計原則としては、シンプルさと可読性、クリエイター体験の優先、実用主義が挙げられます。これにより、開発者は複雑なロジックを明示的に理解しやすくし、ユーザー体験に集中できるようになります。XR Blocksは、デスクトップシミュレーターやAndroid XRデバイスでのリアルタイムAI + XRアプリケーションのプロトタイピングを加速します。 • AIとXRのエコシステム間のギャップを埋めることを目的としたオープンソースフレームワークである。 • モジュール式アーキテクチャを提供し、ユーザー、世界、インターフェース、AI、エージェントのためのコンポーネントを持つ。 • WebXR、threejs、LiteRT、Geminiなどの技術を使用して、XRクリエイターの参入障壁を下げる。 • シンプルさと可読性を重視し、開発者が高レベルの体験を記述できるようにする。 • クリエイターがユーザー体験に集中できるように、低レベルの実装から解放することを目指す。 • デスクトップとAndroid XRデバイスの両方で動作するシンプルで適応可能なアーキテクチャを採用している。
n8n raises $180m to get AI closer to value with orchestration
We just raised $180 million in Series C funding, bringing our total funding to $240 million and our valuation to $2.5 billion. The round is led by Accel, with support from Meritech, Redpoint, Evantic and Visionaries Club. Corporate investors NVentures (NVIDIA’s venture capital arm) and T.Capital also
Introducing Mastra Model Router: 600+ models, one API, zero package installs
Access 600+ LLM models from 40+ providers with a single string. Full TypeScript autocomplete turns your IDE into a model search engine.
Google is powering Belgium's digital future with a two-year €5 billion investment in AI infrastructure.
Google is investing an additional €5 billion in Belgium over the next two years to expand its cloud and AI infrastructure. This includes expansions of our data center ca…
Vxceed builds the perfect sales pitch for sales teams at scale using Amazon Bedrock
In this post, we show how Vxceed used Amazon Bedrock to develop this AI-powered multi-agent solution that generates personalized sales pitches for field sales teams at scale.
Implement a secure MLOps platform based on Terraform and GitHub
Machine learning operations (MLOps) is the combination of people, processes, and technology to productionize ML use cases efficiently. To achieve this, enterprise customers must develop MLOps platforms to support reproducibility, robustness, and end-to-end observability of the ML use case’s lifecycle. Those platforms are based on a multi-account setup by adopting strict security constraints, development best […]
The latest AI news we announced in September
Here are Google’s latest AI updates from September 2025
Introducing the Gemini 2.5 Computer Use model
Today we are releasing the Gemini 2.5 Computer Use model via the API, which outperforms leading alternatives at browser and mobile tasks.
Growing impact and scale with ChatGPT
Using a network of custom GPTs, HiBob grows employee adoption, supports career growth, and builds productivity tools for HR leaders.
Vibe Coding: Closing The Feedback Loop With Traceability
Close the feedback loop in vibe coding. Use Sentry traces with MCP to give your AI agent real execution visibility and smarter code iteration.
AI Mode is now available in more languages and locations around the world.
Starting today, we’re bringing AI Mode in Google Search to more people around the world, launching in more than 35 new languages and over 40 new countries and territorie…
Introducing the Gemini 2.5 Computer Use model
Today we are releasing the Gemini 2.5 Computer Use model via the API, which outperforms leading alternatives at browser and mobile tasks.
Google AI Plus is coming to 36 more countries.
Google AI Plus — our newest AI plan — expands to 36 more countries.
Automate Amazon QuickSight data stories creation with agentic AI using Amazon Nova Act
In this post, we demonstrate how Amazon Nova Act automates QuickSight data story creation, saving time so you can focus on making critical, data-driven business decisions.
Implement automated monitoring for Amazon Bedrock batch inference
In this post, we demonstrated how a financial services company can use an FM to process large volumes of customer records and get specific data-driven product recommendations. We also showed how to implement an automated monitoring solution for Amazon Bedrock batch inference jobs. By using EventBridge, Lambda, and DynamoDB, you can gain real-time visibility into batch processing operations, so you can efficiently generate personalized product recommendations based on customer credit data.
Googler Michel Devoret awarded the Nobel Prize in Physics
Google Quantum AI’s Chief Scientist. Michel Devoret and former hardware leader John Martinis share the 2025 Nobel Prize in Physics.
New AI tool helps rural hospitals improve financial incomes
Microsoft is launching claims denial navigator, an AI-powered tool developed with rural health leaders to help hospitals handle denied claims. Learn more.
Speech-to-Retrieval (S2R): A new approach to voice search
この記事では、Google Researchが開発した新しい音声検索エンジン「Speech-to-Retrieval (S2R)」について説明しています。従来の音声検索は、自動音声認識(ASR)を使用して音声入力をテキストに変換し、そのテキストを基に検索を行っていましたが、この方法では音声認識の誤りが検索結果に影響を与える可能性があります。S2Rは、音声クエリから直接情報を解釈し、テキスト変換を経ずに情報を取得する技術であり、音声検索の質を向上させることを目指しています。また、S2Rの性能を評価するために、17の異なる言語と26の地域で録音された短い音声質問のデータセット「Simple Voice Questions (SVQ)」をオープンソース化しています。 • 従来の音声検索はASRを使用し、音声をテキストに変換してから検索を行うが、誤認識が結果に影響を与える可能性がある。 • S2Rは音声から直接情報を取得し、テキスト変換を省略することで、検索の精度を向上させる。 • 音声検索の質の向上を目指し、S2Rは「何が言われたか」ではなく「何の情報が求められているか」に焦点を当てている。 • SVQデータセットは、S2Rの性能評価に使用され、オープンソースとして提供される。 • 音声認識の誤りが検索結果に与える影響を軽減することが期待されている。
Apollo MCP Server 1.0 is Generally Available
Unlock microservices potential with Apollo GraphQL. Seamlessly integrate APIs, manage data, and enhance performance. Explore Apollo's innovative solutions.
GraphQL Summit 2025 Product Highlights: Building the future of AI and Apps
Unlock microservices potential with Apollo GraphQL. Seamlessly integrate APIs, manage data, and enhance performance. Explore Apollo's innovative solutions.
Disrupting malicious uses of AI: October 2025
Discover how OpenAI is detecting and disrupting malicious uses of AI in our October 2025 report. Learn how we’re countering misuse, enforcing policies, and protecting users from real-world harms.
When Quantization Isn’t Enough: Why 2:4 Sparsity Matters
この記事では、2:4スパース性と量子化を組み合わせることで、大規模言語モデル(LLM)の圧縮と効率的なデプロイメントを実現する方法について説明しています。LLMは多くのパラメータを持つため、運用コストが高く、メモリオーバーヘッドが発生します。量子化は、モデルの精度を保ちながら推論コストを削減する手法ですが、4ビット以下の量子化は難しい場合があります。スパース性は、量子化の効果が頭打ちになる際に有効な圧縮手法であり、特に2:4スパース性は、NVIDIAやAMDのGPUに最適化されており、圧縮と速度のバランスを提供します。さらに、スパース性はトレーニングにも有効であり、2:4スパース性を用いることで、モデルの品質を損なうことなくトレーニングを加速できることが示されています。 • 大規模言語モデル(LLM)の運用コストとメモリオーバーヘッドの問題を解決する必要がある。 • 量子化は推論コストを削減するが、4ビット以下の量子化は難しい。 • スパース性は、量子化の効果が頭打ちになる際の圧縮手法として有効。 • 2:4スパース性は、NVIDIAやAMDのGPUに最適化されており、圧縮と速度のバランスを提供。 • スパース性はトレーニングにも有効で、モデルの品質を損なうことなくトレーニングを加速できる。
Responsible AI: How PowerSchool safeguards millions of students with AI-powered content filtering using Amazon SageMaker AI
In this post, we demonstrate how PowerSchool built and deployed a custom content filtering solution using Amazon SageMaker AI that achieved better accuracy while maintaining low false positive rates. We walk through our technical approach to fine tuning Llama 3.1 8B, our deployment architecture, and the performance results from internal validations.
Unleash your creativity at scale: Azure AI Foundry’s multimodal revolution
At OpenAI DevDay, Azure AI Foundry is excited to launch OpenAI GPT-image-1-mini, GPT-realtime-mini, and GPT-audio-mini, plus safety upgrades to GPT-5.
Ask a Techspert: What is vibe coding?
Learn more about AI and how it’s enabling new development tools, like “vibe coding.”
How we’re securing the AI frontier
An overview of Google’s cohesive strategy for securing the AI ecosystem from the inside out.
Introducing CodeMender: an AI agent for code security
CodeMender is a new AI-powered agent that improves code security automatically. It instantly patches new software vulnerabilities, and rewrites and secures existing code, eliminating entire...
Codex is now generally available
OpenAI Codex is now generally available with powerful new features for developers: a Slack integration, Codex SDK, and admin tools like usage dashboards and workspace management—making Codex easier to use and manage at scale.
Introducing apps in ChatGPT and the new Apps SDK
A new generation of apps you can chat with and the tools for developers to build them.
AMD and OpenAI announce strategic partnership to deploy 6 gigawatts of AMD GPUs
AMD and OpenAI have announced a multi-year partnership to deploy 6 gigawatts of AMD Instinct GPUs, beginning with 1 gigawatt in 2026, to power OpenAI’s next-generation AI infrastructure and accelerate global AI innovation.
Migration Guide: VNext to Standard APIs
Learn how to migrate from Mastra’s VNext streaming methods to the new standard APIs, with details on renaming, compatibility, and key differences between AI SDK v4 and v5.
Accelerating AI adoption in Europe
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いたコード生成機能が特徴です。具体的には、開発者が自然言語で指示を出すと、それに基づいてコードを自動生成することが可能です。また、生成されたコードは、開発者が手動で修正することもでき、柔軟性があります。さらに、このツールは既存の開発環境に簡単に統合できるため、導入のハードルが低い点も強調されています。 • AIを活用したコード生成ツールの紹介 • 自然言語での指示に基づくコード自動生成機能 • 生成されたコードは手動で修正可能 • 既存の開発環境への簡単な統合 • 開発者の生産性向上が期待される
Unlock global AI inference scalability using new global cross-Region inference on Amazon Bedrock with Anthropic’s Claude Sonnet 4.5
Organizations are increasingly integrating generative AI capabilities into their applications to enhance customer experiences, streamline operations, and drive innovation. As generative AI workloads continue to grow in scale and importance, organizations face new challenges in maintaining consistent performance, reliability, and availability of their AI-powered applications. Customers are looking to scale their AI inference workloads across […]
Secure ingress connectivity to Amazon Bedrock AgentCore Gateway using interface VPC endpoints
In this post, we demonstrate how to access AgentCore Gateway through a VPC interface endpoint from an Amazon Elastic Compute Cloud (Amazon EC2) instance in a VPC. We also show how to configure your VPC endpoint policy to provide secure access to the AgentCore Gateway while maintaining the principle of least privilege access.
Cognition and Windsurf's Commitment to United States Government (USG) and Impact Level 6 (IL6) Deployments
Windsurf is ready to support IL6 deployments through partnership with Palantir FedStart, demonstrating Cognition's commitment to serving DoD missions across all networks and domains.
Mastra Changelog 2025-10-03
New model router and automatic model fallbacks.
Enhance agentic workflows with enterprise search using Kore.ai and Amazon Q Business
In this post, we demonstrate how organizations can enhance their employee productivity by integrating Kore.ai’s AI for Work platform with Amazon Q Business. We show how to configure AI for Work as a data accessor for Amazon Q index for independent software vendors (ISVs), so employees can search enterprise knowledge and execute end-to-end agentic workflows involving search, reasoning, actions, and content generation.
Accelerate development with the Amazon Bedrock AgentCore MCP server
Today, we’re excited to announce the Amazon Bedrock AgentCore Model Context Protocol (MCP) Server. With built-in support for runtime, gateway integration, identity management, and agent memory, the AgentCore MCP Server is purpose-built to speed up creation of components compatible with Bedrock AgentCore. You can use the AgentCore MCP server for rapid prototyping, production AI solutions, […]
Google is investing in Arkansas with a new data center, energy efficiency programs and more.
Google is announcing a new $4 billion investment in Arkansas through 2027, which will include Google’s first data center in the state — located in West Memphis — along w…
New ways to build with Jules, our AI coding agent
Jules Tools is our new, lightweight command-line interface. And Jules API will let you integrate Jules directly into your own systems.
A collaborative approach to image generation
この記事では、ユーザーの独自の好みに基づいてテキストから画像への出力を洗練させる強化学習エージェント「PASTA」を紹介しています。PASTAは、ユーザーとの複数回の対話を通じて、画像生成を協調的な会話に変えることを目指しています。従来のテキストから画像へのモデルは、単一のプロンプトでは個々の創造的意図を捉えるのが難しいため、ユーザーは試行錯誤を繰り返す必要がありました。PASTAは、7000以上の人間の評価者とのインタラクションから得たデータを用いて訓練され、ユーザーが満足する画像を一貫して生成することが示されました。PASTAの訓練には、実際の人間のフィードバックと大規模なユーザーシミュレーションを組み合わせた二段階の戦略が採用されています。ユーザーモデルは、ユーザーが好む画像の度合いを予測するユーティリティモデルと、提示された画像セットから選択する画像を予測する選択モデルで構成されています。 • PASTAはユーザーの好みに基づいて画像生成を洗練させる強化学習エージェントである。 • ユーザーとの対話を通じて、画像生成を協調的なプロセスに変えることを目指している。 • 7000以上の人間の評価者とのインタラクションデータを使用して訓練された。 • PASTAは、ユーザーが満足する画像を一貫して生成することができる。 • ユーザーシミュレーションを用いて、実際のユーザーからのフィードバックを補完する。 • ユーザーモデルは、好みを予測するユーティリティモデルと選択を予測する選択モデルから構成されている。
How the NPU is paving the way toward a more intelligent Windows
Microsoft's neural processing unit (NPU) powers Copilot+ PCs with advanced AI capabilities, enabling efficient on-device processing.
4 tips for using Nano Banana to create amazing images
Get the scoop on how to use Nano Banana, the Gemini app's viral new image generation and editing model from Google DeepMind.
With GPT-5, Wrtn builds lifestyle AI for millions in Korea
Wrtn scaled AI apps to 6.5 million users across Korea using GPT-5—now they’re taking their playbook across East Asia.
SOTA OCR on-device with Core ML and dots.ocr
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
OpenAI announces strategic collaboration with Japan’s Digital Agency
Advancing Generative AI in Public Services, promoting International AI Governance.
Rox accelerates sales productivity with AI agents powered by Amazon Bedrock
We’re excited to announce that Rox is generally available, with Rox infrastructure built on AWS and delivered across web, Slack, macOS, and iOS. In this post, we share how Rox accelerates sales productivity with AI agents powered by Amazon Bedrock.
From sketches to prototype: Designing with generative AI
Google DeepMind collaborated with designer Ross Lovegrove and design office Modem.
Meet Microsoft 365 Premium: Your AI and productivity powerhouse
Microsoft is taking a big step forward with major updates to our individual subscription lineup, combining the best of AI and productivity at an unbeatable price.
Our new partnership with the University of Waterloo on the future of learning and work
Google and the University of Waterloo are bringing together their respective expertise in AI and innovative co-op education. This collaboration will fund a new research …
Introducing Microsoft Agent Framework
Find out how Microsoft Agent Framework can help simplify the orchestration of multi-agent systems and keep developers in flow.
The Global AI Film Award is now accepting applications
The Global AI Film Award is now accepting applications from creators using Google AI tools, with the winner awarded a prize of USD 1 million by the 1 Billion Followers S…
Samsung and SK join OpenAI’s Stargate initiative to advance global AI infrastructure
Samsung and SK join OpenAI’s Stargate initiative to expand global AI infrastructure, scaling advanced memory chip production and building next-gen data centers in Korea.
Introducing RTEB: A New Standard for Retrieval Evaluation
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Model fallbacks: Your safety net for production AI
Model fallbacks ensure your application stays online by automatically switching to backup models when your primary provider fails.
Modernize fraud prevention: GraphStorm v0.5 for real-time inference
In this post, we demonstrate how to implement real-time fraud prevention using GraphStorm v0.5's new capabilities for deploying graph neural network (GNN) models through Amazon SageMaker. We show how to transition from model training to production-ready inference endpoints with minimal operational overhead, enabling sub-second fraud detection on transaction graphs with billions of nodes and edges.
AI as a research partner: Advancing theoretical computer science with AlphaEvolve
この記事では、AlphaEvolveというLLMベースのコーディングエージェントを用いて、組合せ構造を発見し、特定の最適化問題の近似解法の難しさを改善する方法について述べています。最近の研究では、AlphaEvolveがコードスニペットの集団を進化させ、成功したスニペットをより良い解決策に向けて変形させるフィードバックループを利用しています。このアプローチにより、複雑性理論の2つの領域で新しい結果が得られました。1つは、MAX-4-CUT問題の近似解法の限界を改善すること、もう1つはランダムグラフの特性を証明する際の平均ケースの難しさの境界を厳密化することです。AIを用いた数学的研究は、文献の要約や新しい定理に向けた研究計画の策定、または証明の生成に利用されます。特に、AlphaEvolveを使用して自動的に検証可能な証明要素を生成することに焦点を当てています。 • AlphaEvolveを用いて組合せ構造を発見し、最適化問題の近似解法の難しさを改善する。 • フィードバックループを利用して、コードスニペットを進化させる。 • MAX-4-CUT問題の近似解法の限界を改善する結果を得た。 • ランダムグラフの特性を証明する際の平均ケースの難しさの境界を厳密化した。 • AIを用いた数学的研究は、文献要約や証明生成に利用される。
Powering Asia-Pacific’s energy future: AI and digital innovation for utilities
Utilities in Asia-Pacific are using AI and digital tools to improve forecasting, decision-making, and energy efficiency across operations. Learn more.
Reinventing business process with AI: Agents in record to report
Streamline record to report (R2R) with Microsoft AI agents for faster close and smarter financial operations. Learn more.
AI Mode can now help you search and explore visually
We’re redefining how you imagine, find and shop for just what you’re looking for in Search.
Towards the AI Cloud: Our Series F
Today, Vercel announced an important milestone: a Series F funding round valuing our company at $9.3 billion.
The Sora feed philosophy
Discover the Sora feed philosophy—built to spark creativity, foster connections, and keep experiences safe with personalized recommendations, parental controls, and strong guardrails.
Mastra now supports AI Tracing
Mastra introduces AI Tracing: filter out noise and use multiple observability platforms.
Sora 2 is here
Our latest video generation model is more physically accurate, realistic, and controllable than prior systems. It also features synchronized dialogue and sound effects. Create with it in the new Sora app.
Launching Sora responsibly
To address the novel safety challenges posed by a state-of-the-art video model as well as a new social creation platform, we’ve built Sora 2 and the Sora app with safety at the foundation. Our approach is anchored in concrete protections.
Sora 2 System Card
Sora 2 is our new state of the art video and audio generation model. Building on the foundation of Sora, this new model introduces capabilities that have been difficult for prior video models to achieve– such as more accurate physics, sharper realism, synchronized audio, enhanced steerability, and an expanded stylistic range.
Newsroom
Claude Sonnet 4.5 is the best coding model in the world, strongest model for building complex agents, and best model at using computers.
Grok 4 is now available in Azure AI Foundry: Unlock frontier intelligence and business-ready capabilities
Microsoft has partnered closely with xAI to bring Grok 4, their most advanced model delivering powerful reasoning, to Azure AI Foundry. Learn more.
Frontier Firms in action: Lessons from the AI adoption surge
Discover how leading companies are transforming with AI—unlocking agility, innovation, and impact as Frontier Firms.
Vibe working: Introducing Agent Mode and Office Agent in Microsoft 365 Copilot
Microsoft Copilot introduces Agent Mode in Office apps, enabling smarter document creation, analysis, and collaboration across Excel, Word, and PowerPoint.
Improving support with every interaction at OpenAI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や修正を行うことができます。具体的には、開発者が意図する機能を自然言語で入力すると、ツールがそれに基づいてコードを生成します。また、既存のコードに対しても改善提案を行う機能があります。これにより、開発の効率が向上し、エラーの削減が期待されます。さらに、ツールは多くのプログラミング言語に対応しており、幅広い開発環境で利用可能です。 • AIを活用したコード自動生成ツールの紹介 • 自然言語での入力に基づくコード生成機能 • 既存コードへの改善提案機能 • 開発効率の向上とエラー削減の期待 • 多くのプログラミング言語に対応
Driving sales productivity and customer success at OpenAI
Learn how OpenAI boosts sales productivity by automating prep, centralizing knowledge, and scaling top-selling practices.
Converting inbound leads into customers at OpenAI
Learn how OpenAI used AI to deliver personalized answers at scale, converting inbound leads into customers.
Building OpenAI with OpenAI
Introducing a new series about how OpenAI runs on its own technology.
Turning contracts into searchable data at OpenAI
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ユーザーインターフェースは直感的で使いやすく、導入も簡単です。これにより、開発の効率が向上し、エラーの削減にも寄与します。さらに、AIの学習データは常に更新されており、最新の技術トレンドに対応しています。 • AIを活用したコード自動生成ツールの紹介 • 開発者の意図を理解し、コードスニペットを提案する機能 • 直感的で使いやすいユーザーインターフェース • 導入が簡単で、開発効率が向上する • エラー削減に寄与し、最新の技術トレンドに対応した学習データ
Empowering teams to unlock insights faster at OpenAI
OpenAI’s research assistant helps teams analyze millions of support tickets, surface insights faster, and scale curiosity across the company.
Collaborating with Anthropic on Claude Sonnet 4.5 to power intelligent coding agents
Claude Sonnet 4.5 is now available on Vercel AI Gateway and across the Vercel AI Cloud. Also introducing a new coding agent platform template.
Introducing parental controls
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなくすぐに利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Combating online child sexual exploitation & abuse
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に自然言語処理を用いた機能が強化されています。具体的には、開発者が自然言語で指示を出すと、AIがそれに基づいてコードを生成することが可能です。また、ツールは既存の開発環境に簡単に統合できるよう設計されており、ユーザーは特別な設定を行うことなく利用を開始できます。これにより、開発の効率が大幅に向上し、エラーの削減にも寄与します。さらに、AIの学習能力により、使用するほどに精度が向上する点も特徴です。 • AI技術を活用した新しい開発ツールの紹介 • 自然言語での指示に基づいてコードを生成する機能 • 既存の開発環境への簡単な統合 • 開発効率の向上とエラー削減 • AIの学習能力による精度向上
Rebuilding Devin for Claude Sonnet 4.5: Lessons and Challenges
We rebuilt Devin for Claude Sonnet 4.5. The new version is 2x faster, 12% better on our Junior Developer Evals, and it's available now in Agent Preview. For users who prefer the old Devin, that remains available.
Announcing Devin Agent Preview with Sonnet 4.5
Today we're releasing Claude Sonnet 4.5 in Devin, alongside our new Devin Agent Preview that's over 2x faster and 12% better on our Jr. Developer Evals.
VibeGame: Exploring Vibe Coding Games
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Accelerating Qwen3-8B Agent on Intel® Core™ Ultra with Depth-Pruned Draft Models
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Building health care agents using Amazon Bedrock AgentCore
In this solution, we demonstrate how the user (a parent) can interact with a Strands or LangGraph agent in conversational style and get information about the immunization history and schedule of their child, inquire about the available slots, and book appointments. With some changes, AI agents can be made event-driven so that they can automatically send reminders, book appointments, and so on.
Build multi-agent site reliability engineering assistants with Amazon Bedrock AgentCore
In this post, we demonstrate how to build a multi-agent SRE assistant using Amazon Bedrock AgentCore, LangGraph, and the Model Context Protocol (MCP). This system deploys specialized AI agents that collaborate to provide the deep, contextual intelligence that modern SRE teams need for effective incident response and infrastructure management.
Golf champ Bryson DeChambeau is partnering with Google Cloud to explore AI and sports performance.
Bryson DeChambeau is kicking off a partnership with Google Cloud to expand his AI aspirations.
Partnering with AARP to help keep older adults safe online
OpenAI and AARP are partnering to help older adults stay safe online with new AI training, scam-spotting tools, and nationwide programs through OpenAI Academy and OATS’s Senior Planet initiative.
Swift Transformers Reaches 1.0 — and Looks to the Future
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Adding agent templates into existing projects
You can now easily merge Mastra agent templates into your existing projects with just a few clicks.
DoWhile loops now supported in Amazon Bedrock Flows
Today, we are excited to announce support for DoWhile loops in Amazon Bedrock Flows. With this powerful new capability, you can create iterative, condition-based workflows directly within your Amazon Bedrock flows, using Prompt nodes, AWS Lambda functions, Amazon Bedrock Agents, Amazon Bedrock Flows inline code, Amazon Bedrock Knowledge Bases, Amazon Simple Storage Service (Amazon S3), […]
How PropHero built an intelligent property investment advisor with continuous evaluation using Amazon Bedrock
In this post, we explore how we built a multi-agent conversational AI system using Amazon Bedrock that delivers knowledge-grounded property investment advice. We explore the agent architecture, model selection strategy, and comprehensive continuous evaluation system that facilitates quality conversations while facilitating rapid iteration and improvement.
Accelerate benefits claims processing with Amazon Bedrock Data Automation
In the benefits administration industry, claims processing is a vital operational pillar that makes sure employees and beneficiaries receive timely benefits, such as health, dental, or disability payments, while controlling costs and adhering to regulations like HIPAA and ERISA. In this post, we examine the typical benefit claims processing workflow and identify where generative AI-powered automation can deliver the greatest impact.
Gemini Robotics 1.5 brings AI agents into the physical world
We’re powering an era of physical agents — enabling robots to perceive, plan, think, use tools and act to better solve complex multi-step tasks.
Empower your workforce with agents in Microsoft 365 Copilot
Find ready-to-use agents and more in the Microsoft 365 Copilot Agent Store and the Microsoft Marketplace. Get started today
More ways to work with your team and tools in ChatGPT
New shared projects, smarter connectors, and compliance and security updates help teams get more done.
Towards better health conversations: Research insights on a “wayfinding” AI agent based on Gemini
この記事では、Geminiに基づく「Wayfinding AI」エージェントの研究成果を紹介しています。このAIエージェントは、ユーザーが健康情報を見つける手助けをするために、積極的な会話ガイダンスや目標理解、個別化された会話を提供します。オンラインの健康情報はしばしば混乱を招き、個々の文脈に合った情報を見つけるのが難しいため、AIがこの情報をよりアクセスしやすく、個別化する可能性があります。従来のAIツールは受動的な「質問応答者」として機能することが多いですが、医療専門家のように、ユーザーのニーズを理解し、適切な情報を提供するためには、明確化の質問を積極的に行うことが重要です。研究では、163人の参加者を対象にした4つの混合手法のユーザー体験研究を通じて、AIエージェントがユーザーのニーズに対してより有用で関連性のある情報を提供できることが示されました。 • ユーザーが健康情報を見つける際の課題を解決するためのAIエージェントの設計 • AIエージェントが明確化の質問を積極的に行うことで、ユーザーのニーズをより良く理解できる • 163人の参加者を対象にした研究で、AIエージェントの有用性が向上したことを確認 • 従来のAIツールは受動的であり、医療専門家のような対話が必要 • ユーザーが健康に関する懸念を表現するのが難しいことが明らかになった • 明確化の質問がユーザーに自信を与え、より関連性のある文脈を提供する手助けをする
Measuring the performance of our models on real-world tasks
We’re introducing GDPval, a new evaluation that measures model performance on economically valuable, real-world tasks across 44 occupations.
Mastra Changelog 2025-09-25
New streaming architecture, scoring improvements, and more.
Introducing ChatGPT Pulse
Today we're releasing a preview of ChatGPT Pulse to Pro users on mobile. Pulse is a new experience where ChatGPT proactively does research to deliver personalized updates based on your chats, feedback, and connected apps like your calendar.
AfriMed-QA: Benchmarking large language models for global health
AfriMed-QAは、アフリカの健康に関する質問応答タスクのために開発された大規模なベンチマークデータセットであり、アフリカ各国の組織と協力して作成されました。このデータセットは、医療関連の質問に対する大規模言語モデル(LLM)の評価に使用され、約15,000の臨床的に多様な質問と回答、4,000以上の専門的な選択問題、1,200以上のオープンエンドの短答問題、10,000の消費者からの質問を含んでいます。LLMは、これらのデータセットに対する応答を人間の専門家の回答と比較し、評価されました。AfriMed-QAは、アフリカの医療における公平で効果的なLLMの開発を目指しており、地域特有の医療知識を反映した多様なベンチマークデータセットの必要性を強調しています。 • アフリカの健康に関する質問応答タスクのためのベンチマークデータセット • 約15,000の臨床的に多様な質問と回答を含む • 4,000以上の専門的な選択問題と1,200以上のオープンエンドの短答問題を収録 • 地域特有の医療知識を反映したデータセットの必要性 • LLMの応答を人間の専門家の回答と比較して評価 • データセットはオープンソースでコミュニティに提供されている
Transforming the manufacturing industry with ChatGPT
この記事では、最新のAI技術を活用した新しい開発ツールについて説明しています。このツールは、開発者がコードを書く際にAIの支援を受けることができるもので、特に生成AIを利用してコードの自動生成や補完を行います。具体的には、開発者が入力したコードの意図を理解し、適切なコードスニペットを提案する機能があります。また、ユーザーインターフェースは直感的で使いやすく、学習曲線が緩やかであることが強調されています。さらに、このツールは既存の開発環境に簡単に統合できるため、導入のハードルが低い点もメリットとして挙げられています。 • AI技術を活用した新しい開発ツールの紹介 • コードの自動生成や補完機能を提供 • 開発者の意図を理解し、適切なコードスニペットを提案 • 直感的で使いやすいユーザーインターフェース • 既存の開発環境に簡単に統合可能
Google AI Pro and Ultra subscribers now get Gemini CLI and Gemini Code Assist with higher limits.
Google AI Pro and Ultra subscribers now get higher limits to Gemini CLI and Gemini Code Assist IDE extensions.
Celebrating the 2025–2026 MIE Experts and Showcase Schools
Join us as we welcome Microsoft Showcase Schools and MIE Experts 2025-2026. Discover how to become an MIEE or Microsoft Showcase School.
We’re making public data more usable for AI developers with the Data Commons MCP Server
Today marks the launch of the Data Commons Model Context Protocol (MCP) Server, which allows developers to query our connected public data with simple, natural language.…
Agent Factory: Designing the open agentic web stack
Find out how the agentic web stack—a cohesive, interoperable ecosystem—can help you fully harness the potential of AI agents.
Expanding model choice in Microsoft 365 Copilot
We’re excited to announce that we’re expanding the models that power Microsoft 365 Copilot with the addition of Anthropic models.
Meet 25 startups using AI to improve public services
Google announces its first cohort of 25 startups using AI to improve public services.
SAP and OpenAI partner to launch sovereign ‘OpenAI for Germany’
SAP and OpenAI launch OpenAI for Germany, a 2026 partnership to bring secure, sovereign AI to Germany’s public sector, enabling safe, efficient public services.
How Replit’s Agent 3 builds Mastra Agents for you
Replit’s Agent 3 can automatically generate Mastra agents and workflows from natural language descriptions.
Running deep research AI agents on Amazon Bedrock AgentCore
AI agents are evolving beyond basic single-task helpers into more powerful systems that can plan, critique, and collaborate with other agents to solve complex problems. Deep Agents—a recently introduced framework built on LangGraph—bring these capabilities to life, enabling multi-agent workflows that mirror real-world team dynamics. The challenge, however, is not just building such agents but […]
Mixboard is a new way to visualize your ideas from Google Labs.
Mixboard is an experimental, AI-powered visual brainstorming tool that helps you explore, expand and refine ideas.
Google AI Plus — our newest AI plan — is now available in 40 more countries.
Google AI Plus — our newest AI plan — is now available in more than 40 more countries.
Time series foundation models can be few-shot learners
本記事では、時系列予測のための新しいアプローチを提案しています。このアプローチは、時系列ファウンデーションモデルを継続的に再訓練し、推論時にコンテキストの例から学習できるようにするものです。従来の方法では、各タスクに特化したモデルを構築する必要がありましたが、提案されたモデル「TimesFM」は、ゼロショット学習を用いてタスク特化の訓練なしで正確な予測を行うことができます。新たに導入された「In-Context Fine-Tuning」では、少数の例から学習する能力を持つモデルに変革され、ユーザーによる追加の複雑な訓練なしで、監視付きファインチューニングと同等の性能を発揮します。モデルは、異なるデータセットを混同しないように、学習可能な「共通セパレータトークン」を使用して、過去の例からのパターンを学び、現在の予測に応用します。 • 時系列予測の重要性と従来のモデル構築の課題を解決するアプローチを提案 • 新しいモデル「TimesFM」はゼロショット学習を用いており、タスク特化の訓練なしで予測が可能 • 「In-Context Fine-Tuning」により、少数の例から学習する能力を持つモデルに進化 • ユーザーによる追加の訓練なしで、監視付きファインチューニングと同等の性能を実現 • モデルは、異なるデータセットを混同しないために「共通セパレータトークン」を使用している
Try AI Mode in Spanish today.
AI Mode in Google Search is starting to roll out globally in Spanish today.
Integrate tokenization with Amazon Bedrock Guardrails for secure data handling
In this post, we show you how to integrate Amazon Bedrock Guardrails with third-party tokenization services to protect sensitive data while maintaining data reversibility. By combining these technologies, organizations can implement stronger privacy controls while preserving the functionality of their generative AI applications and related systems.
Android users can now use conversational editing in Google Photos.
We’re expanding the ability to edit your images by simply asking in Google Photos to Android devices.
Join the 5-day AI Agents Intensive course with Google and Kaggle.
Earlier this year, we launched the second iteration of our GenAI Intensive course, which attracted over 280,000 learners. Now, we're taking things to the next level with…
AI chips are getting hotter. A microfluidics breakthrough goes straight to the silicon to cool up to three times better.
AIチップは熱を発生しやすく、従来の冷却技術では限界がある中、マイクロ流体技術を用いた新しい冷却システムが開発され、従来の冷却プレートよりも最大3倍の効率で熱を除去できることが示された。この技術は、シリコンチップの裏面に微細なチャンネルを刻むことで冷却液を直接流し込み、熱を効率的に取り除く。AIを活用してチップ上の熱の特性を特定し、冷却液を精密に制御することも可能になった。マイクロ流体技術は、次世代AIチップの効率性と持続可能性を向上させると期待されている。実験では、冷却プレートと比較して最大65%の温度上昇の抑制が確認され、データセンターのエネルギー効率や運用コストの削減にも寄与する可能性がある。 • AIチップは従来のシリコンよりも多くの熱を発生させるため、冷却技術の限界が懸念されている。 • マイクロ流体技術を用いた新しい冷却システムは、従来の冷却プレートよりも最大3倍の熱除去効率を持つ。 • 冷却液をシリコンチップの裏面に直接流し込むことで、熱を効率的に取り除くことができる。 • AIを活用してチップ上の熱の特性を特定し、冷却液の流れを精密に制御する。 • マイクロ流体技術は次世代AIチップの効率性と持続可能性を向上させる可能性がある。 • 実験では、冷却プレートと比較して最大65%の温度上昇の抑制が確認された。 • この技術はデータセンターのエネルギー効率や運用コストの削減にも寄与する。
OpenAI, Oracle, and SoftBank expand Stargate with five new AI datacenter sites
New data centers put Stargate ahead of schedule to secure full $500 billion, 10-gigawatt commitment by end of 2025.
Accelerate migration and modernization with agentic AI
At the Migrate and Modernize Summit, we’re announcing a set of agentic AI solutions and offerings to speed transformation and reduce friction. Learn more.
Chrome DevTools (MCP) for your AI agent
Public preview for the new Chrome DevTools MCP server, bringing the power of Chrome DevTools to AI coding assistants.