Last updated: 2025/06/21 01:00

Revisiting Uncertainty Quantification Evaluation in Language Models: Spurious Interactions with Response Length Bias Results
Uncertainty Quantification (UQ) in Language Models (LMs) is key to improving their safety and reliability. Evaluations often use metrics…
Normalizing Flows are Capable Generative Models

Trade-offs in Data Memorization via Strong Data Processing Inequalities
Recent research demonstrated that training large language models involves memorization of a significant fraction of training data. Such…

Aligning LLMs by Predicting Preferences from User Writing Samples
Accommodating human preferences is essential for creating aligned LLM agents that deliver personalized and effective interactions. Recent…

INRFlow: Flow Matching for INRs in Ambient Space
Flow matching models have emerged as a powerful method for generative modeling on domains like images or videos, and even on irregular or…

Variational Rectified Flow Matching
We study Variational Rectified Flow Matching, a framework that enhances classic rectified flow matching by modeling multi-modal velocity…

AI による自然言語アサーション
Cato CTRL™ Threat Research: PoC Attack Targeting Atlassian’s Model Context Protocol (MCP) Introduces New “Living off AI” Risk
Stop me if you've heard this one before: A threat actor (acting as an external user) submits a malicious support ticket. An internal user, linked to a tenant, invokes an …

Build a scalable AI video generator using Amazon SageMaker AI and CogVideoX
In recent years, the rapid advancement of artificial intelligence and machine learning (AI/ML) technologies has revolutionized various aspects of digital content creation. One particularly exciting development is the emergence of video generation capabilities, which offer unprecedented opportunities for companies across diverse industries. This technology allows for the creation of short video clips that can be […]

Building trust in AI: The AWS approach to the EU AI Act
The EU AI Act establishes comprehensive regulations for AI development and deployment within the EU. AWS is committed to building trust in AI through various initiatives including being among the first signatories of the EU's AI Pact, providing AI Service Cards and guardrails, and offering educational resources while helping customers understand their responsibilities under the new regulatory framework.

Update on the AWS DeepRacer Student Portal
Starting July 14, 2025, the AWS DeepRacer Student Portal will enter a maintenance phase where new registrations will be disabled. Until September 15, 2025, existing users will retain full access to their content and training materials, with updates limited to critical security fixes, after which the portal will no longer be available.

Accelerate foundation model training and inference with Amazon SageMaker HyperPod and Amazon SageMaker Studio
In this post, we discuss how SageMaker HyperPod and SageMaker Studio can improve and speed up the development experience of data scientists by using IDEs and tooling of SageMaker Studio and the scalability and resiliency of SageMaker HyperPod with Amazon EKS. The solution simplifies the setup for the system administrator of the centralized system by using the governance and security capabilities offered by the AWS services.

How OpenElections Uses LLMs
The OpenElections project collects detailed election data for the USA, all the way down to the precinct level. This is a surprisingly hard problem: while county and state-level results are …

6 inspiring, real-world AI activities for educators
Explore AI activities for educators using the Microsoft Education AI Toolkit. Access resources to get started with AI in education.
Clarified zucchini consommé
I continue to have fun running fantasy cooking prompts through LLMs - this time I tried
Quoting Arvind Narayanan
Radiology has embraced AI enthusiastically, and the labor force is growing nevertheless. The augmentation-not-automation effect of AI is despite the fact that AFAICT there is no identified "task" at which …

7 Best AI Agent Builders: An Expert Market Breakdown
Explore 7 top AI agent builders: workflow-native, AI-native & hybrid. Compare AI agent builder platforms by use case, integration & flexibility!

Gemini 2.5 with Logan Kilpatrick
Logan Kilpatrick from Google DeepMind talks about the latest developments in the Gemini 2.5 model family, including Gemini 2.5 Pro, Flash, and the newly introduced Flashlight. Logan also offers insight into AI development workflows, model performance, and the future of proactive AI assistants.

(LoRA) Fine-Tuning FLUX.1-dev on Consumer Hardware
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

The real ways college students use ChatGPT
Quoting Workaccount2 on Hacker News
They poison their own context. Maybe you can call it context rot, where as context grows and especially if it grows with lots of distractions and dead ends, the output …
Coding agents require skilled operators
I wrote this recently in a conversation about whether coding agents can work as a replacement for human programmers. The
PyTorch Docathon 2025: Wrap Up

Meeting summarization and action item extraction with Amazon Nova
In this post, we present a benchmark of different understanding models from the Amazon Nova family available on Amazon Bedrock, to provide insights on how you can choose the best model for a meeting summarization task.

Building a custom text-to-SQL agent using Amazon Bedrock and Converse API
Developing robust text-to-SQL capabilities is a critical challenge in the field of natural language processing (NLP) and database management. The complexity of NLP and database management increases in this field, particularly while dealing with complex queries and database structures. In this post, we introduce a straightforward but powerful solution with accompanying code to text-to-SQL using a custom agent implementation along with Amazon Bedrock and Converse API.

Accelerate threat modeling with generative AI
In this post, we explore how generative AI can revolutionize threat modeling practices by automating vulnerability identification, generating comprehensive attack scenarios, and providing contextual mitigation strategies.

AI strategies from the frontlines of higher education
Explore the latest strategies from higher education institutions and how they’re creating AI-ready campuses with Microsoft AI solutions.

Search Live: Talk, listen and explore in real time with AI Mode
Search Live with voice facilitates back-and-forth conversations in AI Mode.
Introducing Fusion: Vibe Code at Any Scale
Fusion is the first AI-powered visual canvas for entire teams to build, edit, and ship code at any scale using existing codebase, design systems and workflows

OpenHands Cloud Self-hosted: Secure, Convenient Deployment of AI Software Development Agents
OpenHands Cloud is now available as a self-hosted solution, providing secure, convenient deployment of AI software development agents. It features a 30-day free trial and is available as a source-available Helm Chart.

Sam Altman on AGI, GPT-5, and what’s next — the OpenAI Podcast Ep. 1
On the first episode of the OpenAI Podcast, Sam Altman joins host Andrew Mayne to talk about the future of AI: from GPT-5 and AGI to Project Stargate, new research workflows, and AI-powered parenting. 00:00 Welcome to the OpenAI Podcast 01:00 ChatGPT & parenthood 04:10 AGI, superintelligence & scientific progress 07:10 Operator, Deep Research & productivity 10:30 GPT-5 & how we name models 13:40 User privacy & NYT lawsuit 16:15 Will ChatGPT ever show ads? 20:30 Social media & user behavior 23:25 Project Stargate & why compute matters 31:30 Future progress & potential new AI devices 38:45 Final thoughts
I counted all of the yurts in Mongolia using machine learning
Fascinating, detailed account by Monroe Clinton of a geospatial machine learning project. Monroe wanted to count visible yurts in Mongolia using Google Maps satellite view. The resulting project incorporates mercantile …

Frontend devs: Here’s how to get the most out of Cursor
Explore Cursor AI, one of the hottest tools in AI-assisted coding. Uncover the features you might be missing and practical workflows that actually work.

Hear a podcast discussion about Gemini’s coding capabilities.
The latest episode of the Google AI: Release Notes podcast focuses on how the Gemini team built one of the world’s leading AI coding models.Host Logan Kilpatrick chats w…
Preparing for future AI risks in biology

Toward understanding and preventing misalignment generalization
We study how training on incorrect responses can cause broader misalignment in language models and identify an internal feature driving this behavior—one that can be reversed with minimal fine-tuning.

Why AI Engineers Need Planning More Than Perfect Prompts
The best AI engineers I know follow a specific pattern. They don't obsess over prompt crafting – they obsess over planning. There's a reason for this, and it's not what most people think. The Reality Check Here's what typically happens when someone starts working with AI: 1. They throw requirements at the model 2. They get mediocre outputs 3. They blame their prompting skills 4. They spend hours "optimizing" prompts 5. They still get mediocre results Sound familiar? But here's what eli

Everyone's Talking About R1 vs o1 Benchmarks. But Here's What Really Matters.
In an interesting coincidence, DeepSeek released R1 on the same day we launched Plan & Act modes in Cline. And something fascinating started happening immediately: developers began naturally using R1 for planning phases and 3.5-Sonnet for implementation. Not because anyone suggested it – it just made sense. 0:00 /0:54 1× What's Actually Happening Here's what developers discovered works best: 1. Start new tasks in Plan mode using R1 ($0.55/M tokens)

The Developer's Guide to MCP: From Basics to Advanced Workflows
Picture this: You're deep into development with your AI assistant, trying to juggle multiple tools – GitHub issues need updating, tests need running, and documentation needs reviewing. But instead of the seamless workflow you imagined, you're stuck with manual context switching and disconnected tools. Your AI assistant, brilliant as it is, feels trapped in its chat window. This is where the Model Context Protocol (MCP) changes everything. It's not just another developer tool – it's a fundamenta

Best AI Coding Assistant 2025: Complete Guide to Cline and Cursor
Updated March 4, 2025 article to reflect recent developments Remember when GitHub Copilot first launched and we thought AI-assisted coding couldn't get more revolutionary? Two years later, we're seeing a fascinating divergence in how AI coding assistants approach development. With recent releases from both Cline (now 3.5) and Cursor (0.46), we're witnessing not just a battle of features, but a philosophical split in how AI should partner with developers. I've watched both tools mature. Let's c

DeepSeek's Wild Week: A View from the Developer Trenches
Last week, Chinese AI startup, DeepSeek, caused the biggest single-day drop in NVIDIA's history, wiping nearly $600 billion from the chip giant's market value. But while Wall Street panicked about DeepSeek's cost claims, Cline users in our community were discovering a more nuanced reality. The Promise vs The Reality "R1 is so hesitant to open and read files while Claude just bulldozes through them," observed one of our users. This perfectly captures the gap between DeepSeek's impressive bench

The Local LLM Reality Check: What Actually Happens When You Try to Run AI Models on Your Computer
If you've used DeepSeek's R1 (or V3 for that matter), you've probably been impressed at its performance for the price. And if you've run into issues with its API recently, your next thought was probably, “Hey, I’ve got a decent computer—maybe I can run this locally and run this myself!” Then reality hits: the full DeepSeek R1 model needs about 1,342 GB of VRAM—no, that’s not a typo. It’s designed to run on a cluster of 16 NVIDIA A100 GPUs, each with 80GB of memory (source). Let’s break down wha

What AI Companies Actually Need Right Now
At Cline, we've scaled to 500k+ users and raised significant funding from top-tier VCs. As Head of AI, I recently interviewed a strong ML engineer candidate. Despite their solid background, I voted "no hire." Let me explain why - it reveals a broader pattern about what AI companies actually need right now, and getting this wrong can be a $200k+ mistake. The $200k Mistake: Why Hiring MLEs Too Early Kills AI Startups Here's a pattern I see repeatedly in well-funded AI startups: 1. Raise a sub
It's a trap
That memvid thing that
2025-06-17
この記事は、mastra-aiのリリースに関するもので、主にエージェントの改善や新機能の追加について述べています。具体的には、エージェントストリームの型定義を改善し、出力処理の実験的な導入、引数の再構成、古い引数形式の非推奨化などが行われました。また、CLIやプレイグラウンドの改善、Denoサポートの進行中、Vercelデプロイメントプロセスの修正、RAG LaTeXサポートの追加、MCP接続の改善なども含まれています。これにより、開発者はより使いやすく、エラーの理解と解決が容易になることが期待されます。 • エージェントストリームの型定義を改善し、出力処理を実験的に導入した。 • 引数の再構成により、エージェントの関数がより明確になり、古い引数形式は非推奨となった。 • CLIのエラーメッセージを改善し、開発者が問題を理解しやすくした。 • Denoサポートが進行中で、互換性を持たせるためにglobalThisを使用している。 • Vercelデプロイメントプロセスを修正し、関数のデプロイにVercelのビルド出力を使用するようにした。
Release v3.21.0
RooCodeIncのRoo-Codeのリリースv3.21.0では、Roo Marketplaceが追加され、MCPやモードの発見とインストールが容易になりました。また、Gemini 2.5モデル(Pro、Flash、Flash Lite)が追加され、Excel(.xlsx)ファイルのサポートがツールに追加されました。OpenAI互換プロバイダー用の最大トークンチェックボックスオプションも追加され、GroqおよびMistralのプロバイダーモデルと価格が更新されました。APIの会話履歴に関するエラー処理が適切に行われ、モデルIDの曖昧さに関するエラーが修正されました。さらに、プロンプト設定の保存/破棄/復元フローや、MCP変数注入におけるWindowsパスの正規化も修正されました。 • Roo Marketplaceの追加により、MCPやモードの発見とインストールが容易になった。 • Gemini 2.5モデル(Pro、Flash、Flash Lite)が新たに追加された。 • Excel(.xlsx)ファイルのサポートがツールに追加された。 • OpenAI互換プロバイダー用の最大トークンチェックボックスオプションが追加された。 • APIの会話履歴に関するエラー処理が改善された。 • モデルIDの曖昧さに関するエラーが修正された。 • プロンプト設定の保存/破棄/復元フローが修正された。 • Windowsパスの正規化に関する問題が修正された。

Trying out the new Gemini 2.5 model family
After many months of previews, Gemini 2.5 Pro and Flash have reached general availability with new, memorable model IDs: gemini-2.5-pro and gemini-2.5-flash. They are joined by a new preview model …
langchain-openai==0.3.24
この記事は、GitHub上でのlangchain-openaiのバージョン0.3.24のリリースに関する情報を提供しています。このリリースでは、Responses APIに関連する属性が追加され、BaseChatOpenAIに対する改良が行われました。また、AzureChatOpenAIにおいてResponsesのストリーミングがサポートされるようになりました。さらに、Responses APIの処理方法がリファクタリングされ、より効率的な動作が期待されます。これらの変更は、開発者がOpenAIの機能をより効果的に利用できるようにすることを目的としています。 • langchain-openaiのバージョン0.3.24がリリースされた • Responses APIに関連する属性がBaseChatOpenAIに追加された • AzureChatOpenAIでResponsesのストリーミングがサポートされた • Responses APIの処理方法がリファクタリングされた • これによりOpenAIの機能をより効果的に利用できるようになる

A Practical Guide to Multimodal Data Analytics
BigQuery's ObjectRef unifies structured and unstructured data, enabling multimodal analytics via SQL and Python.
DeepNVMe: Affordable I/O scaling for Deep Learning Applications

Claude streamlines task management across your favorite tools
Claude turns a product requirements doc into into structured Asana tasks, automatically assigning them to the right team members and setting deadlines.

Gemini 2.5: Updates to our family of thinking models
Explore the latest Gemini 2.5 model updates with enhanced performance and accuracy: Gemini 2.5 Pro and Flash generally available and stable, and the new Flash-Lite in preview.

We’re expanding our Gemini 2.5 family of models
Gemini 2.5 Flash and Pro are now generally available, and we’re introducing 2.5 Flash-Lite, our most cost-efficient and fastest 2.5 model yet.

NotebookLM + Deep Research: The Ultimate Learning Hack
Let’s unlock smarter, faster learning by combining NotebookLM with deep research strategies.

Claude Code turns your ideas into working prototypes
Claude Code autonomously handles complex development tasks, turning your ideas into working prototypes.

We’re expanding our Gemini 2.5 family of models
Gemini 2.5 Flash and Pro are now generally available, and we’re introducing 2.5 Flash-Lite, our most cost-efficient and fastest 2.5 model yet.

Claude for research: Creating an organized daily overview
Claude connects the dots between your emails, meetings, and the internet to help you work strategically.

How Anomalo solves unstructured data quality issues to deliver trusted assets for AI with AWS
In this post, we explore how you can use Anomalo with Amazon Web Services (AWS) AI and machine learning (AI/ML) to profile, validate, and cleanse unstructured data collections to transform your data lake into a trusted source for production ready AI initiatives.

An innovative financial services leader finds the right AI solution: Robinhood and Amazon Nova
In this post, we share how Robinhood delivers democratized finance and real-time market insights using generative AI and Amazon Nova.

Build conversational interfaces for structured data using Amazon Bedrock Knowledge Bases
This post provides instructions to configure a structured data retrieval solution, with practical code examples and templates. It covers implementation samples and additional considerations, empowering you to quickly build and scale your conversational data interfaces.

Deploying the Magistral vLLM Server on Modal
A guide for Python beginners to build, deploy, and test a Magistral reasoning model.

The OpenHands CLI: AI-Powered Development in Your Terminal
Experience the full power of OpenHands development agents directly from your command line. No Docker required, just install and start coding with AI assistance in seconds.
Quoting Donghee Na
The Steering Council (SC) approves PEP 779 [Criteria for supported status for free-threaded Python], with the effect of removing the “experimental” tag from the free-threaded build of Python 3.14 [...] …

Advancing healthcare AI innovation for global impact at HLTH Europe 2025
At HLTH Europe 2025, Microsoft will showcase our commitment to move forward the next frontier of health AI innovation. Learn more.

Agentic AI: A Self-Study Roadmap
A comprehensive guide to building AI systems that can plan, reason, and act autonomously — from basic tool-using agents to sophisticated multi-agent collaborations.
checkpoint==2.1.0
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるリリースチェックポイント2.1.0について説明しています。このリリースは、バージョン2.0.26からの変更点を含んでおり、主に0.5リリースの準備が行われています。具体的には、以前のバージョンで作成されたカスタムチェックポインタークラスとの互換性を復元し、pandasのシリアライズ/デシリアライズにpickleフォールバックを追加しています。また、JsonPlusSerializerでのnumpy配列のシリアライズをサポートし、ormsgpackの更新が行われています。さらに、PEP 604のユニオン構文とPEP 585のジェネリック構文を使用するようにlintが更新され、Checkpoint.writesとCheckpoint.pending_sendsが削除されています。CIはuvへの移行が行われています。 • リリースバージョンは2.1.0で、2.0.26からの変更点が含まれている。 • 0.5リリースの準備が行われている。 • カスタムチェックポインタークラスとの互換性が復元された。 • pandasのシリアライズ/デシリアライズにpickleフォールバックが追加された。 • JsonPlusSerializerでのnumpy配列のシリアライズがサポートされた。 • ormsgpackが更新された。 • PEP 604のユニオン構文とPEP 585のジェネリック構文が使用されるようにlintが更新された。 • Checkpoint.writesとCheckpoint.pending_sendsが削除された。

MCP will be the death of low-code automation, and other spooky stories
Explore the state and future of MCP in AI agents—from vendor security and model risks to cost and orchestration. MCP shows promise but faces adoption hurdles due to immaturity, security flaws, and backward compatibility challenges.

4 ways Microsoft Copilot empowers financial services employees
In the rapidly evolving landscape of financial services, staying ahead of the curve with technological innovation is not simply an advantage—it's a necessity.

AI in sales: Applying historical lessons to modern challenges
See the latest AI sales transformation offering from Microsoft and agents to help sales teams nurture and close deals.

How and when to build multi-agent systems
Late last week two great blog posts were released with seemingly opposite titles. “Don’t Build Multi-Agents” by the Cognition team, and “How we built our multi-agent research system” by the Anthropic team. Despite their opposing titles, I would argue they actually have a lot in common and contain some

The Model Context Protocol (MCP)
Theo Chu, David Soria Parra and Alex Albert dive into the Model Context Protocol (MCP), the standard that's changing how AI applications connect with external data and tools. Anthropic open-sourced MCP in November 2024. Learn more about MCP: https://modelcontextprotocol.io Read the initial announcement: https://anthropic.com/news/model-context-protocol 0:00 Introduction 0:35 MCP and core components 3:13 How it started 6:22 Launching MCP and reception 8:12 Making it open source 9:55 Current state 13:23 Tips for getting started 14:57 Favorite MCP servers 16:23 Claude 4 improvements 18:18 What's next

Deploying DeepSeek on GB200 NVL72 with PD and Large Scale EP (Part I): 2.7x Higher Decoding Throughput
<p>The GB200 NVL72 is the world's most advanced hardware for AI training and inference. In this blog post, we're excited to share early results from running ...

Groq on Hugging Face Inference Providers 🔥
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

🥇Top AI Papers of the Week
The Top AI Papers of the Week (June 9 - 15)
Why PLAID Japan builds agents on their Google Cloud infrastructure with Mastra
How PLAID Japan migrated from GUI-based AI tools to Mastra for better collaboration and productivity for their engineering team building on Google Cloud.

🤖AI Agents Weekly: Magistral, Agent Bricks, Code Researcher, Automating Workflow Generation, Verified Superintelligence
Magistral, Agent Bricks, Code Researcher, Automating Workflow Generation, Verified Superintelligence

The Last AI Coding Agent
It feels like every month there's a new "must-have" AI coding tool. The FOMO is real; but so is the fatigue of constantly switching, learning new workflows, and migrating settings. It’s exhausting, but that's the price for developers who want to be armed with the greatest leverage powered by AI. The magic of AI coding isn't just in the tool itself; it's in the power of the underlying model. And the "best" model is a moving target. One year ago, GPT-4o led the way. Then Anthropic's Claude 3.5 So
cli==0.3.3
この記事は、GitHub上で公開されているlangchain-aiのlanggraphリポジトリにおけるcliのバージョン0.3.3のリリースについて説明しています。このリリースは2023年6月13日に行われ、前のバージョン0.3.2からの変更点が含まれています。具体的な変更内容や新機能については記載されていませんが、リリースノートにはバージョン番号とリリース日が明記されています。GitHubのインターフェースを通じて、ユーザーはリリースの詳細を確認することができます。 • cliのバージョン0.3.3が2023年6月13日にリリースされた • 前のバージョン0.3.2からの変更点は具体的に記載されていない • リリースノートにはバージョン番号とリリース日が含まれている • GitHub上でのリリース情報の確認が可能
ParetoQ: Scaling Laws in Extremely Low-bit LLM Quantization
cli==0.3.2
この記事は、GitHub上で公開されているlangchain-aiのlanggraphリポジトリにおけるcli==0.3.2のリリースについて説明しています。このリリースは2023年6月13日に行われ、主な変更点としてカスタマイズ可能なPipインストーラーの機能が追加されました。また、ドキュメントの更新として、サポートされていないモデルを構造化出力に対応したモデルに置き換える作業が行われています。これにより、ユーザーはより柔軟にインストールを行うことができ、サポートされるモデルの選択肢が広がります。 • カスタマイズ可能なPipインストーラーの追加 • サポートされていないモデルの置き換え • 構造化出力に対応したモデルの導入 • リリース日は2023年6月13日 • バージョンはcli==0.3.2

Get an audio overview of Search results in Labs, then click through to learn more.
Today, we’re launching a new Search experiment in Labs – Audio Overviews, which uses our latest Gemini models to generate quick, conversational audio overviews for certa…

The creative process with AI
Designer Ryan Mather on the creative process with AI.

Behind “ANCESTRA:” combining Veo with live-action filmmaking
We partnered with Darren Aronofsky, Eliza McNitt and a team of more than 200 to make ANCESTRA.

Claude Code による技術的特異点を見届けろ
Mastra Changelog 2025-06-13
Cross-thread memory recall, universal schema support, and enhanced workflow observability.

Lesson 11: Conclusion | AI Fluency: Framework & Foundations Course
This concluding video is part of Lesson 11 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It revisits the AI Fluency Framework and brings together the key concepts explored throughout the course. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 10: A closer look at Diligence | AI Fluency: Framework & Foundations Course
This video is part of Lesson 10 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It explores the core competency of Diligence: taking responsibility for what we do with AI and how we do it. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 8: A closer look at Discernment | AI Fluency: Framework & Foundations Course
This video is part of Lesson 8 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It explores the core competency of Discernment: accurately assessing the usefulness of Al outputs and behaviors.. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 7: Effective prompting techniques (Deep Dive) | AI Fluency: Framework & Foundations Course
This video is part of Deep Dive 2 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It explores practical skills for crafting effective prompts when working with AI assistants like Claude. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 6: A closer look at Description | AI Fluency: Framework & Foundations Course
This video is part of Lesson 6 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It explores the core competency of Description: effectively describing goals to prompt useful Al behaviors and outputs. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 4: A closer look at Delegation | AI Fluency: Framework & Foundations Course
This video is part of Lesson 4 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It explores the core competency of Delegation: setting goals and deciding whether, when and how to engage with Al. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 3B: Capabilities & limitations | AI Fluency: Framework & Foundations Course
This video is part of Deep Dive 1 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It examines what generative AI can and cannot do effectively at this point in time. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 3A: What is generative AI? (Deep Dive) | AI Fluency: Framework & Foundations Course
This video is part of Deep Dive 1 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It introduces the concept of generative AI, focusing on its ability to create new content rather than just analyzing what already exists. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 2B: The 4D Framework | AI Fluency: Framework & Foundations Course
This video is part of Lesson 2 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It introduces the four core competencies of AI fluency, or the "4Ds": Delegation, Description, Discernment, and Diligence. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

Lesson 2A: Why do we need AI Fluency? | AI Fluency: Framework & Foundations Course
This video is part of Lesson 2 of AI Fluency: Framework & Foundations, a course developed by Anthropic, Prof. Rick Dakan (Ringling College of Art and Design) and Prof. Joseph Feller (University College Cork). It explores what it really means to be "fluent" with AI and why this matters. View the full free course, including all videos, exercises, and resources, at https://www.anthropic.com/ai-fluency This video is copyright 2025 Rick Dakan, Joseph Feller, and Anthropic PBC. Released under the CC BY-NC-SA 4.0 license. Are you using AI Fluency in your life, work, or classes? Let us know in the comments!

The Hidden Metric That Determines AI Product Success
Co-authored by Assaf Elovic and Harrison Chase. You can also find a version of this post published on Assaf's Medium. Why do some AI products explode in adoption while others struggle to gain traction? After a decade of building AI products and watching hundreds of launches across the industry, we’

Building efficient MCP servers
MCP is becoming the standard for building AI model integrations. See how you can use Vercel's open-source MCP adapter to quickly build your own MCP server, like the teams at Zapier, Composio, and Solana.

Claude Code 版 Orchestaror で複雑なタスクをステップ実行する

The Complete MCP Experience: Full Specification Support in VS Code
VS Code now supports the complete Model Context Protocol specification, including authorization, prompts, resources, and sampling.

Featherless AI on Hugging Face Inference Providers 🔥
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Enhance Your Models in 5 Minutes with the Hugging Face Kernel Hub
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Don’t Build Multi-Agents
Frameworks for LLM Agents have been surprisingly disappointing. I want to offer some principles for building agents based on our own trial & error, and explain why some tempting ideas are actually quite bad in practice.

Deploying AI: How businesses worldwide are succeeding with OpenAI
See how leading companies are using OpenAI in production and driving results across industries.

Google for Nonprofits will expand to 100+ new countries and launch 10+ new no-cost AI features
Google for Nonprofits is expanding to 100 more countries, and introducing new Workspace for Nonprofits and Ad Grants AI features.

Get started with agents for finance: Learnings from 2025 Gartner® CFO & Finance Executive Conference
Based on conversations at the 2025 Gartner CFO Conference, here are three things finance leaders should know about getting started with agents and AI. Learn more.
V-JEPA 2 (based on v4.52.4)
V-JEPA 2は、MetaのFAIRによって開発された自己教師あり学習アプローチを用いたビデオエンコーダーであり、v4.52.4リリースに基づいて追加された新しいモデルです。このモデルは、インターネット規模のビデオデータを使用して、動きの理解や人間の行動予測タスクにおいて最先端の性能を達成します。V-JEPA 2は、ビデオ分類や検索、VLMのためのビデオエンコーダーとして機能します。インストールは、指定されたコマンドを使用して行うことができ、次のマイナーリリースであるv4.53.0に含まれる予定です。V-JEPA 2-ACは、ロボットの操作タスクを解決するためにV-JEPA 2から後処理された潜在アクション条件付きの世界モデルです。 • V-JEPA 2は自己教師あり学習を用いたビデオエンコーダーである。 • インターネット規模のビデオデータを使用して、動きの理解や人間の行動予測タスクで最先端の性能を達成。 • インストールはpipコマンドを使用して行うことができ、安定した改善が期待される。 • V-JEPA 2はビデオ分類や検索、VLMのためのエンコーダーとして機能する。 • V-JEPA 2-ACはロボット操作タスクを解決するための後処理されたモデルである。
2025-06-10
この記事は、Mastraの2025年6月10日のリリースに関するもので、主にエージェントの構造化出力処理の改善や、CLI/Playgroundのユーザーインターフェースの向上について述べています。具体的には、@mastra/schema-compatユーティリティを使用して、任意のスキーマタイプをサポートするようにエージェントの出力処理を改善しました。また、Playgroundのレイアウトを簡素化し、サイドバーの幅の応答性を向上させ、チャットタイトルの可読性を高めるなどの変更が行われました。開発サーバーのポート選択が動的に行われるようになり、コード変更時にリトライカウントがリセットされるように修正されました。さらに、MCPプロンプトのサポートや、メモリモジュールの構成オプションの追加なども行われています。 • エージェントの出力処理を改善し、任意のスキーマタイプをサポートするようにした。 • Playgroundのレイアウトを簡素化し、ユーザーインターフェースを向上させた。 • 開発サーバーが動的にポートを選択できるようになった。 • MCPプロンプトのサポートが追加された。 • メモリモジュールに構成オプションを追加し、スレッド間でのメモリの取得を可能にした。

Benchmarking Multi-Agent Architectures
By Will Fu-Hinthorn In this blog, we explore a few common multi-agent architectures. We discuss both the motivations and constraints of different architectures. We benchmark their performance on a variant of the Tau-bench dataset. Finally, we discuss improvements we made to our “supervisor” implementation that yielded a nearly 50% increase
Why Vetnio powers their AI veterinary technician with Mastra
How Vetnio uses Mastra's workflow orchestrator to build specialized veterinary AI assistants

Introducing Training Cluster as a Service - a new collaboration with NVIDIA
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
0.42.0 - 2025-06-10
この記事は、OpenHandsのバージョン0.42.0のリリースノートを提供しています。このリリースでは、新しいAPIエンドポイントが追加され、ユーザーが会話を明示的に開始および停止できるようになりました。また、VSCODEを新しいタブで開くための機能フラグが追加され、ユーザーがメールアドレスを変更できるようになりました。WebSocketのエラーハンドリングが改善され、信頼性とユーザー体験が向上しました。さらに、新しい接続のイベントストリームの再生中に新しいイベントがクライアントに送信されない問題が修正され、エージェントによって開かれたPRが会話のメタデータに正しく追跡されるようになりました。初期設定中にページがフォーカスを失った際にLLM設定がリセットされないようにする修正も行われました。 • 新しいAPIエンドポイントが追加され、ユーザーが会話を開始・停止できるようになった • VSCODEを新しいタブで開くための機能フラグが追加された • ユーザーがメールアドレスを変更できるようになった • WebSocketのエラーハンドリングが改善され、信頼性が向上した • 新しい接続のイベントストリーム再生中に新しいイベントが送信されない問題が修正された • エージェントによって開かれたPRが会話のメタデータに正しく追跡されるようになった • 初期設定中にページがフォーカスを失った際にLLM設定がリセットされないように修正された

How we used generative media at I/O 2025
From the keynote countdown to speaker title cards and beyond, generative AI took the stage at I/O 2025.

Empower your teams to grow their AI skills and boost adoption
Microsoft has developed a series of best practices and resources that now guide our employee AI skill-building initiatives. Learn more.

How we’re adapting SEO for LLMs and AI search
AI is changing how content gets discovered. Now, SEO ranking ≠ LLM visibility. No one has all the answers, but here's how we're adapting our approach to SEO for LLMs and AI search.

Apple Machine Learning Research at CVPR 2025
Apple researchers are advancing AI and ML through fundamental research, and to support the broader research community and help accelerate…
v0.17.1 Patch Release
DeepSpeedのv0.17.1パッチリリースに関する記事です。このリリースでは、いくつかの重要な更新が行われました。具体的には、v0.17.0リリース後のversion.txtの更新、Ulysses Plusドキュメントの改善、config_utils.pyの更新、pytestのバージョンを8.3.5に固定する修正、symint入力に関する問題の修正、fp16オプティマイザのタイマー修正、DeepNVMeの更新、topkgating関数の修正、LoRAのarxiv参照の修正、ZeROのオーバーフロー処理の改善、ドキュメントのレンダリングの修正などが含まれています。また、新しい貢献者も数名参加しています。 • v0.17.0リリース後のversion.txtの更新 • Ulysses Plusドキュメントの改善 • config_utils.pyの更新 • pytestのバージョンを8.3.5に固定する修正 • symint入力に関する問題の修正 • fp16オプティマイザのタイマー修正 • DeepNVMeの更新 • topkgating関数の修正 • LoRAのarxiv参照の修正 • ZeROのオーバーフロー処理の改善 • ドキュメントのレンダリングの修正 • 新しい貢献者の参加
cli==0.3.1
この記事は、GitHub上で公開されているlangchain-aiのlanggraphリポジトリにおけるCLI(コマンドラインインターフェース)のバージョン0.3.1のリリースについて説明しています。このリリースは2023年6月9日に行われ、主な変更点として、CLIに依存関係を構築するためのuvサポートが追加されました。これにより、ユーザーはより効率的に依存関係を管理できるようになります。リリースノートには、前のバージョン0.2.12からの変更点が記載されています。 • CLIのバージョン0.3.1が2023年6月9日にリリースされた。 • 新機能として、依存関係を構築するためのuvサポートが追加された。 • この変更により、依存関係の管理が効率化される。 • 前のバージョン0.2.12からの変更点が含まれている。

How we built one of the most ambitious datasets in brain activity research
Learn how Google Research’s team worked with collaborators at HHMI Janelia and Harvard University to build a dataset that tracks both the neural activity and nanoscale s…

4 ways Microsoft Copilot empowers financial services employees
Read the latest news and posts about Financial services from Microsoft's team of experts at Microsoft Industry Blogs.

Here’s the next cohort of the Google.org Accelerator: Generative AI
Meet the 20 organizations using generative AI to address tough societal issues.

typescript-mcp で AI に LSP のリファクタリング機能を与える
v0-1.5-md & v0-1.5-lg now in beta on the Models API
Try v0-1.5-md and v0-1.5-lg in beta on the v0 Models API, now offering two new model sizes for more flexible performance and accuracy. Ideal for everything from quick responses to deep analysis.

Observability added to AI Gateway alpha
Vercel Observability now includes a dedicated AI section to surface metrics related to the AI Gateway.

Building secure AI agents
Learn how to design secure AI agents that resist prompt injection attacks. Understand tool scoping, input validation, and output sanitization strategies to protect LLM-powered systems.

Updates to Apple's On-Device and Server Foundation Language Models
With Apple Intelligence, we're integrating powerful generative AI right into the apps and experiences people use every day, all while…

🥇Top AI Papers of the Week
The Top AI Papers of the Week (June 2 - 8)

claude code でローカルなMCPサーバーを叩けるようにする

🤖 AI Agents Weekly: Self-Improving Agents, Eleven v3, /Search, Deep Research Updates, Top AI Devs News, Agents SDK for TypeScript
Self-Improving Agents, Eleven v3, /Search, Deep Research Updates, Top AI Devs News, Agents SDK for TypeScript

Why Human Intent Matters More as AI Capabilities Grow
Remember when AI coding meant tab autocomplete? The human did 95% of the work: navigating the codebase, finding the right files, locating the exact spot to edit, beginning to type, and only then could AI offer a helpful suggestion. The human was the driver, AI was barely a passenger. Today's agentic AI can search codebases, read files, write entire modules, refactor systems, and orchestrate complex changes across multiple files. With tools like Cline, AI has eaten up nearly the entire coding pi

Newsroom
Discover Claude 4's breakthrough AI capabilities. Experience more reliable, interpretable assistance for complex tasks across work and learning.
HuggingFace Safetensors Support in PyTorch Distributed Checkpointing

Introducing Evaluations for AI workflows
Distilling the complexity of AI Evaluations frameworks into a practical paradigm

Optimizing LLM-based trip planning
Mastra Changelog 2025-06-06
Mastra 101, Mastra Auth, and more

ScreenSuite - The most comprehensive evaluation suite for GUI Agents!
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Introducing the PyTorch Ecosystem Working Group and Project Spotlights

Try new data visualizations and graphs for finance queries in AI Mode.
Today, we’re starting to roll out interactive chart visualizations in AI Mode in Labs to help bring financial data to life for questions on stocks and mutual funds.Now, …

The latest AI news we announced in May
Here are Google’s latest AI updates from May 2025

Portraits: personalized AI coaching built alongside real experts
Our first Portrait features Kim Scott, bestselling author of “Radical Candor.”
0.41.0 - 2025-06-04
この記事は、OpenHandsのバージョン0.41.0のリリースノートを提供しています。このリリースでは、Cloud GitLab Resolverのサポートが追加され、HTTP MCPのストリーミング機能が実装されました。また、WSLなしでのWindowsサポートが強化され、CLIモードの設定フローが改善されました。さらに、エージェントがMCPツールを使用してPR/MRを開くことを保証する修正や、LocalRuntimeのリソースリークの修正、GitLabサーバートークンの検証に関する修正も行われました。新しい貢献者も数名参加しています。 • Cloud GitLab Resolverのサポートが追加された • HTTP MCPのストリーミング機能が実装された • WSLなしでのWindowsサポートが強化された • CLIモードの設定フローが改善された • エージェントがMCPツールを使用してPR/MRを開くことを保証する修正が行われた • LocalRuntimeのリソースリークが修正された • GitLabサーバートークンの検証に関する修正が行われた • 新しい貢献者が参加した

Zooming in: Efficient regional environmental risk assessment with generative AI

What was the last thing you ChatGPT'd?
🎥: @Under25

Try the latest Gemini 2.5 Pro before general availability.
We’re introducing an upgraded preview of Gemini 2.5 Pro, our most intelligent model yet. Building on the version we released in May and showed at I/O, this model will be…

The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
Recent generations of frontier language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes…

Proxy-FDA: Proxy-Based Feature Distribution Alignment for Fine-Tuning Vision Foundation Models Without Forgetting
Vision foundation models pre-trained on massive data encode rich representations of real-world concepts, which can be adapted to downstream…

Voice Quality Dimensions as Interpretable Primitives for Speaking Style for Atypical Speech and Affect
Perceptual voice quality dimensions describe key characteristics of atypical speech and other speech modulations. Here we develop and…

Improve Vision Language Model Chain-of-thought Reasoning
Chain-of-thought (CoT) reasoning in vision language models (VLMs) is crucial for improving interpretability and trustworthiness…

Beyond Text Compression: Evaluating Tokenizers Across Scales
Tokenizer design significantly impacts language model performance, yet evaluating tokenizer quality remains challenging. While text…
cli==0.2.12
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるCLIのバージョン0.2.12のリリースについて説明しています。このリリースでは、docker buildコマンドにおいて各依存関係に対して1つの--build-context引数を生成する機能が追加されました。これにより、依存関係の管理がより効率的になることが期待されます。リリース日は2022年6月4日で、前のバージョン0.2.11からの変更点が記載されています。 • CLIのバージョン0.2.12がリリースされた • docker buildコマンドにおいて各依存関係に対して1つの--build-context引数を生成する機能が追加された • 依存関係の管理が効率的になることが期待される • リリース日は2022年6月4日 • 前のバージョン0.2.11からの変更点がある
Open Source AI is Transforming the Economy—Here’s What the Data Shows
2025-06-03
この記事は、Mastraの2025年6月3日のリリースに関するもので、主にバグ修正や新機能の追加が含まれています。具体的には、getTaskの未定義問題を解決するために正しいエージェントIDを使用する修正、generateTitle関数にランタイムコンテキストを追加することで発生したバグの修正、MCPサーバーでのエージェントとワークフローのツールを視覚的に区別するためのアイコンの追加、PDFおよびTXTファイルのマルチモーダル機能のサポートなどが挙げられます。また、CLIコマンド「mastra start」を追加し、認証ミドルウェアを使用するクラウド環境での動作を可能にするために、プレイグラウンドUIが認証ヘッダーを適切に渡すように修正されています。 • getTaskの未定義問題を解決するために正しいエージェントIDを使用する修正 • generateTitle関数にランタイムコンテキストを追加することで発生したバグの修正 • MCPサーバーでのエージェントとワークフローのツールを視覚的に区別するためのアイコンの追加 • PDFおよびTXTファイルのマルチモーダル機能のサポート • CLIコマンド「mastra start」を追加し、プレイグラウンドUIが認証ヘッダーを適切に渡すように修正

AI breakthroughs are bringing hope to cancer research and treatment
Read Ruth Porat's remarks on AI and cancer research at the American Society of Clinical Oncology.

ChatGPT for Business Updates
Nate Gonzalez, Preeti Iyer, Neel Ajjarapu, Sondra Batbold, and Dibya Bhattacharjee introduce and demo several updates to ChatGPT business plans—including connectors to your company knowledge, custom connectors through MCP, record mode, and flexible pricing.
Build Responsible AI Products with your own Yellow Teaming LLM

The no-nonsense approach to AI agent development
Learn how to build reliable, domain-specific AI agents by simulating tasks manually, structuring logic with code, and optimizing with real-world feedback. A clear, hands-on approach to practical automation.
cli==0.2.11
この記事は、GitHub上のlangchain-ai/langgraphリポジトリにおけるcliのバージョン0.2.11のリリースについて説明しています。このリリースでは、dockerfileの生成ロジックの更新、wolfiにおけるpipの削除の修正、image_distro設定に関する警告の追加、ユニットテストの追加、設定ファイルにおけるimage_distroのサポートが含まれています。また、CIの移行も行われています。これにより、より安定した動作と設定の柔軟性が向上しています。 • cliのバージョン0.2.11がリリースされた • dockerfile生成ロジックが更新された • wolfiにおけるpipの削除が修正された • image_distro設定に関する警告が追加された • ユニットテストが追加された • 設定ファイルにimage_distroのサポートが追加された • CIがuvに移行された

Cline 3.17.9: Enhanced Claude 4 Support (Experimental), Upgraded Task Timeline & CSV/XLSX Support
Hello Cline community 🫡 We've been burning the candle at both ends to make Cline work as well as possible with the new Claude 4 family of models, and we're excited to share that Cline 3.17.9 includes experimental Claude 4 support that addresses reliability issues, an upgraded task timeline with scrolling navigation, and expanded file upload capabilities for data analysis. Experimental Claude 4 Support If you've been using Claude 4 with Cline, you've probably noticed some frustrating edit fai

Why We Built Cline to Never Hold You Hostage
Yesterday, Windsurf users lost access to Claude 3.x models with five days' notice. OpenAI's acquisition of Windsurf created competitive tensions with Anthropic, and developers got caught in the crossfire. Picture this: you're deep into a critical project, and suddenly your AI coding assistant is crippled by corporate politics. Free tier users lost access entirely; paid subscribers face severe capacity constraints. This validates why we built Cline differently from day one. When Corporate War

What Makes a Coding Agent?
When developers first encounter Cline, they often describe it as their "AGI moment" – that pivotal instant when they realize AI has crossed from helpful suggestion tool to genuine coding partner. But what exactly separates a true coding agent from the growing crowd of AI-powered development tools? The answer lies in understanding what the word "agent" actually means. Defining the Agent OpenAI defines an agent as "a system that independently accomplishes tasks on your behalf." Anthropic takes

Analyzing the Effect of Linguistic Similarity on Cross-Lingual Transfer: Tasks and Input Representations Matter
Cross-lingual transfer is a popular approach to increase the amount of training data for NLP tasks in a low-resource context. However, the…

IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2025
Apple is sponsoring the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), which will take place in person from June…

KV Cache from scratch in nanoVLM
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

All the Azure news you don’t want to miss from Microsoft Build 2025
We’ve pulled together the top 25 announcements at Microsoft Build 2025 across the Azure business—spanning Azure AI Foundry, Azure infrastructure, Azure app platform, Azure databases and Microsoft Fabric, and our GitHub family. Learn more.

NotebookLM is adding a new way to share your own notebooks publicly.
Many people who use NotebookLM already share their notebooks with classmates, coworkers, students and friends. Today, we're making sharing and curation easier — with pub…

Statement on Anthropic Model Availability
Anthropic deciding to cut off capacity does not change our commitment to providing the best product for our users.

Learning to clarify: Multi-turn conversations with Action-Based Contrastive Self-Training

Distillation Scaling Laws
We propose a distillation scaling law that estimates distilled model performance based on a compute budget and its allocation between the…

No GPU left behind: Unlocking Efficiency with Co-located vLLM in TRL
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

SmolVLA: Efficient Vision-Language-Action Model trained on Lerobot Community Data
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
0.4.8
この記事は、LangchainのLanggraphライブラリのバージョン0.4.8のリリースノートを提供しています。このリリースでは、いくつかの機能が削除され、コードのクリーンアップが行われました。具体的には、未使用の非推奨デコレーターや警告の削除、StateGraph.__init__でのstate_schemaの必須化、MessageGraphの削除、Channelノードビルダーの更新などが含まれています。また、Checkpoint関連の機能や、ManagedValuesが静的クラスとして扱われるように変更されました。これにより、ライブラリのパフォーマンスと可読性が向上しています。 • 未使用の非推奨デコレーターや警告を削除した • StateGraph.__init__でstate_schemaを必須にした • MessageGraphを削除した • Channelノードビルダーを更新した • Checkpoint関連の機能を削除した • ManagedValuesを静的クラスとして扱うように変更した
DeepSpeed v0.17.0
DeepSpeed v0.17.0がリリースされ、いくつかの重要な修正と更新が行われました。主な変更点には、AutoTPのパラメータ収集の修正、ZeRO-OffloadのGPUメモリ使用量の改善、CPUオフロードのための勾配ノルム計算の更新が含まれています。また、CI環境でのbf16の優先設定や、テスト実行時にローカルのDeepSpeedリポジトリを自動的に追加する機能も実装されました。新しいコントリビューターも数名参加し、全体的なパフォーマンスと安定性が向上しています。 • DeepSpeed v0.17.0のリリースに伴う修正と更新が行われた。 • AutoTPのパラメータ収集に関する問題が修正された。 • ZeRO-OffloadのGPUメモリ使用量が改善された。 • CPUオフロードのための勾配ノルム計算が更新された。 • CI環境でbf16を優先する設定が追加された。 • テスト実行時にローカルのDeepSpeedリポジトリを自動的に追加する機能が実装された。 • 新しいコントリビューターが参加し、プロジェクトが活性化している。
ColQwen2 (based on v4.52.4)
ColQwen2は、Hugging Faceのtransformersライブラリに追加された新しいモデルで、v4.52.4を基にしています。このモデルは、視覚的特徴を分析することで文書を取得するために設計されており、従来のテキスト抽出やOCRに依存するのではなく、各ページを画像として扱います。ColQwen2はQwen2-VLバックボーンを使用し、テキストだけでなくレイアウト、表、チャートなどの視覚要素を捉え、詳細なマルチベクトル埋め込みを生成します。これにより、文書の理解が深まり、より効率的かつ正確な取得が可能になります。インストールは特定のコマンドを使用し、Hugging Face Hubで利用可能です。 • ColQwen2は文書の視覚的特徴を分析して取得する新しいモデルである。 • 従来のテキスト抽出やOCRに依存せず、各ページを画像として扱う。 • Qwen2-VLバックボーンを使用し、テキスト、レイアウト、表、チャートなどを捉える。 • 詳細なマルチベクトル埋め込みを生成し、効率的かつ正確な文書取得を実現する。 • インストールは特定のコマンドを使用し、Hugging Face Hubで利用可能。

拡散言語モデルの推論過程を眺めてみる
AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
0.40.0 - 2025-05-28
この記事は、OpenHandsのバージョン0.40.0のリリースノートを提供しています。このリリースでは、GitHubとGitLabでのプルリクエストやマージリクエストを開くために、社内のMCPを使用する機能が追加されました。また、LocAgentがOpenHandsに統合され、検索APIのサポートが初めて追加されました。開発用のコンテナセットアップも導入され、インタラクティブなSWE-Benchベンチマークが追加されました。UIにおけるMCPツールの使用状況の視覚化が改善され、いくつかのバグ修正も行われました。新しい貢献者も数名加わっています。 • GitHubとGitLabでのPR/MRを開くために社内MCPを使用する機能の追加 • LocAgentのOpenHandsへの統合 • 初の検索APIサポートの追加 • 開発用コンテナセットアップの導入 • インタラクティブなSWE-Benchベンチマークの追加 • UIにおけるMCPツール使用状況の視覚化改善 • いくつかのバグ修正の実施 • 新しい貢献者の追加

🥇Top AI Papers of the Week
The Top AI Papers of the Week (May 26 - June 1)

Introducing the v0 composite model family
Learn how v0's composite AI models combine RAG, frontier LLMs, and AutoFix to build accurate, up-to-date web app code with fewer errors and faster output.

⚡AI Agents Weekly: Mistral Agents API, FLUX.1 Kontext, DeepSeek-R1 Update, Codestral Embed, AgentSeek
Mistral Agents API, FLUX.1 Kontext, DeepSeek-R1 Update, Codestral Embed, AgentSeek
1.0.12
この記事は、Chromaのバージョン1.0.12のリリースに関するもので、主に新機能の追加やバグ修正について説明しています。新たにRustログサービスのメンバーリストが追加され、複数のバグが修正されました。特に、コレクションの重複セグメント作成の防止や、ガーベジコレクターによるコレクションのハード削除の実装が強化されています。また、ドキュメントの修正や、エラーハンドリングの改善も行われています。全体として、システムの安定性とパフォーマンス向上を目指した更新が含まれています。 • Rustログサービスのメンバーリストが追加された • コレクションの重複セグメント作成を防ぐ修正が行われた • ガーベジコレクターによるコレクションのハード削除が実装された • エラーハンドリングの改善が行われた • ドキュメントの修正が行われた

State-Of-The-Art Prompting For AI Agents
Best prompting techniques for building AI agents

How Google is driving a new era of American innovation in Iowa.
Google is investing an additional $7 billion in Iowa within the next two years in cloud and AI infrastructure, as well as in expanded workforce development programs, mea…

Fluid compute: Evolving serverless for AI workloads
Fluid, our newly announced compute model, eliminates wasted compute by maximizing resource efficiency. Instead of launching a new function for every request, it intelligently reuses available capacity, ensuring that compute isn’t sitting idle.
Patch release: v4.52.4
この記事は、Hugging FaceのTransformersライブラリのバージョン4.52.4のパッチリリースについて説明しています。このリリースには、316のコミットが含まれており、特に以下の修正が行われました:テキスト設定における語彙サイズの検索、VLMの元の状態辞書への変換の修正、フレーム数によるグループ化と再配置、サフィックスを持つプロセッサの修正、torchバージョン2.3未満のデフォルトデバイスの保護、注意スケーリングの修正など。これらの修正は、ライブラリの機能性と安定性を向上させることを目的としています。 • Hugging FaceのTransformersライブラリのバージョン4.52.4のパッチリリース • 316のコミットが含まれている • テキスト設定における語彙サイズの検索機能の追加 • VLMの元の状態辞書への変換の修正 • フレーム数によるグループ化と再配置の修正 • torchバージョン2.3未満のデフォルトデバイスの保護 • 注意スケーリングの修正

E2E音声対話API・構築プラットフォーム最新動向の調査と自律型音声対話システムの展望
AI ShiftのTECH BLOGです。AI技術の情報や活用方法などをご案内いたします。
2025-05-27
この記事は、Mastraの2025年5月27日のリリースに関するもので、主にバグ修正やユーザーエクスペリエンスの向上に焦点を当てています。AGUIAdapterがツールコールのストリーミング中に結果メッセージを送信しない問題を解決し、getAGUI関数を修正して抽象エージェントを返すようにしました。また、プレイグラウンドの機能を改善し、未定義の値をサポートするようにしました。さらに、エージェントやワークフローのための空の状態UIコンポーネントを追加し、マルチモーダルプレイグラウンド実験を導入しました。MCPサーバーへのエージェントの直接渡しや、MongoDBをストレージバックエンドとして使用するサポートも追加されました。 • AGUIAdapterのバグ修正により、ツールコールのストリーミング中に結果メッセージが正しく送信されるようになった。 • getAGUI関数が具体的な実装ではなく抽象エージェントを返すように修正された。 • プレイグラウンドが未定義の値をサポートするように改善された。 • エージェントやワークフローのための空の状態UIコンポーネントが追加され、ユーザーエクスペリエンスが向上した。 • マルチモーダルプレイグラウンド実験が導入され、画像や音声認識機能が追加された。 • MCPサーバーにエージェントを直接渡す機能が追加され、ドキュメントが更新された。 • MongoDBをストレージバックエンドとして使用するサポートが追加された。

An Inflection Point for U.S. Government
Windsurf is uniquely positioned to address the U.S. Government’s challenges

Highlights from the Dialogues stage at I/O 2025
The Dialogues stage at Google I/O 2025 brought together Google leaders and visionaries.
prebuilt==0.2.2
この記事は、GitHub上で公開されたlangchain-aiのlanggraphリポジトリにおけるprebuilt==0.2.2のリリースについて説明しています。このリリースは2023年5月28日に行われ、主な変更点として、post_model_hookが必要に応じてツール呼び出しに状態とストアを注入するように修正されたことが挙げられています。また、リリースはGitHubの検証済み署名で作成されており、バージョン0.2.1からの変更点が記載されています。 • リリース日: 2023年5月28日 • バージョン: prebuilt==0.2.2 • 主な修正: post_model_hookがツール呼び出しに状態とストアを注入するように修正 • リリースはGitHubの検証済み署名で作成された

CodeAgents + Structure: A Better Way to Execute Actions
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
PyTorch Hangzhou Meetup Recap: Exploring the AI Open Source Ecosystem and Cutting-Edge Technology Practices

🥇Top AI Papers of the Week
The Top AI Papers of the Week (May 19 - 25)

🐯 Liger GRPO meets TRL
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🤖AI Agents Weekly: Gemini 2.5 Updates, Claude 4, II-Agent, Gemma 3n, MCIP, Veo 3
Gemini 2.5 Updates, Claude 4, II-Agent, Gemma 3n, MCIP, Veo 3

Mastra の A2A プロトコルサポート
Mastra は A2A プロトコルをサポートしています。Mastra サーバーを構築することで A2A プロトコルに準拠したサーバーが立ち上がります。この記事では Mastra を使用して A2A プロトコルに準拠したサーバーを構築し、Mastra のクライアント SDK を使用して A2A プロトコルの仕様に従い通信を行う方法を紹介します。
0.4.7
この記事は、GitHub上のlangchain-ai/langgraphリポジトリのバージョン0.4.7のリリースノートについて説明しています。このリリースでは、サブグラフにおけるストリームモードの不具合が修正され、テストの安定性が向上しました。また、命令型APIを使用する際のstream_eventsに関するテストが追加されました。これにより、開発者はより信頼性の高い動作を期待できるようになります。 • サブグラフにおけるストリームモードの不具合が修正された • テストの安定性が向上した • 命令型APIを使用する際のstream_eventsに関するテストが追加された • 開発者はより信頼性の高い動作を期待できる
0.4.6
この記事は、LangchainのLanggraphライブラリのバージョン0.4.6のリリースノートを提供しています。このリリースでは、いくつかのバグ修正と新機能が追加されました。具体的には、命令タスクの例外処理の修正、メッセージを状態に直接書き込むためのpush_messagesメソッドの追加、メッセージストリームへの手動プッシュ機能の追加が含まれています。また、ストリームモードにおける条件の適用や、キャッシュされたタスク関数の出力を印刷する機能も強化されています。ドキュメントの修正やテストの追加も行われ、全体的に安定性と機能性が向上しています。 • バージョン0.4.6では、命令タスクの例外処理が修正された。 • push_messagesメソッドが追加され、メッセージを状態に直接書き込むことが可能になった。 • メッセージストリームへの手動プッシュ機能が追加された。 • ストリームモードにおける条件が適用され、冗長なキャストが削除された。 • キャッシュされたタスク関数の出力を印刷する機能が強化された。
prebuilt==0.2.1
この記事は、GitHub上で公開されたlangchain-aiのlanggraphリポジトリにおけるprebuilt==0.2.1のリリースについて説明しています。このリリースは2023年5月23日に行われ、主な変更点として、prebuilt==0.2.0からの更新が含まれています。特に、create_react_agentにおいて、プロバイダーのビルトインツールをサポートする機能が追加されました。リリースはGitHubの検証済み署名で作成されており、ユーザーはこの新しいバージョンを利用することで、Reactエージェントの作成においてより多くのツールを活用できるようになります。 • prebuilt==0.2.1のリリース日: 2023年5月23日 • 主な変更点はcreate_react_agentにおけるプロバイダーのビルトインツールのサポート • リリースはGitHubの検証済み署名で作成された • 新バージョンによりReactエージェント作成時のツール活用が向上

Fine-tuning LLMs with user-level differential privacy

Build an AI Agent Powered by MongoDB Atlas for Memory and Vector Search (+ Free Workflow Template)
Build context-aware AI agents in n8n using MongoDB Vector Store & Chat Memory—no code needed. Power assistants with search + memory in one flow.

Tiny Agents in Python: a MCP-powered agent in ~70 lines of code
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Dell Enterprise Hub is all you need to build AI on premises
We’re on a journey to advance and democratize artificial intelligence through open source and open science.