
この記事では、AIスキルの管理と共有について考察されています。スキルはAIが自動的に起動し、プロンプトに従って動作する機能であり、特にチームでの開発においてスキルの共有が重要です。スキルは「知識系」と「ワークフロー系」に分類され、知識系スキルは共有に適し、ワークフロー系スキルは個人ごとにカスタマイズが求められます。スキルのモジュラー化が理想とされますが、AIの指示追随能力の限界から、実際にはうまく機能しないことが多いと述べられています。最終的には、知識系スキルを全社で共有し、ワークフロー系スキルを個人で管理する運用が現実的であると結論づけています。 • AIスキルは自然言語で条件を示すことで自動的に起動する機能である。 • スキルの共有はチーム開発において重要であり、リポジトリや社内マーケットプレイスを通じて行われる。 • スキルには「知識系」と「ワークフロー系」の2種類があり、知識系は共有に適し、ワークフロー系は個人のカスタマイズが求められる。 • 知識系スキルの例として、チケット管理システムの操作方法が挙げられる。 • ワークフロー系スキルの例として、PRを作成する手順があり、個人の要望に応じてカスタマイズされる。 • スキルのモジュラー化が理想だが、AIの指示追随能力の限界から実現が難しい。 • スキル名を明示することで、AIが必要なスキルを呼び出す確率が上がる。 • 全社的な知識は知識系スキルとして共有し、個人のワークフローはワークフロー系スキルとして管理する運用が望ましい。

この記事では、ClaudeとGPTのReact習熟度を測定する実験の結果が報告されています。これまでの6つの仕様から13に増やし、Claude Codeの3モデル(Sonnet、Opus、Haiku)とGPT-5.4を評価しました。各モデルのスコアが示され、特にGPT-5.4がアクセシビリティに強みを持つことが確認されました。SonnetとOpusは状態設計やEffect衛生の理解度が高いとされ、全体的に新しいReact APIの使用においては大きな差は見られませんでした。新規スペックの分析も行われ、特にuseOptimisticやuseActionStateの実装においてモデル間の知識の差が浮き彫りになりました。 • Reactアプリの習熟度を測るために、13の仕様に基づいて4つのモデルを評価した。 • GPT-5.4はアクセシビリティにおいて高いスコアを記録し、SonnetとOpusは状態設計に強みを持つ。 • 新しいReact APIの使用においては、モデル間で大きな差は見られなかった。 • useOptimisticやuseActionStateの実装において、モデル間の知識の差が明らかになった。 • 新規スペックの追加により、Reactの多様なスキルを測定することができた。

この記事では、GPT-4.1とGPT-5.4のReactに対する習熟度を評価するためのベンチマーク結果が示されています。前回のClaude Codeモデルに続き、これらのOpenAIモデルがどのようにReactのタスクをこなすかを比較しました。結果として、GPT-4.1は全体的に低いスコアを記録し、特にコンポーネントの統合に問題がありました。一方、GPT-5.4はClaudeモデルと同等のスコアを示し、特にアクセシビリティやTypeScriptの品質で優れた結果を残しました。両モデルの強みと弱みが明確に異なり、GPT-5.4は特にアクセシビリティにおいて優位性を持っています。 • GPT-4.1は全モデル中最低のスコアを記録し、コンポーネント統合に問題があった。 • GPT-5.4はClaudeモデルと同等のスコアを示し、特にアクセシビリティで優れた結果を残した。 • GPT-5.4はTypeScriptの品質が高く、特に型安全性において優れている。 • 両モデルの評価はClaude Sonnetによって行われ、一貫性が保たれた。 • GPT-5.4はコンポーネント設計にばらつきがあり、冗長な実装が見られた。

この記事では、Claude CodeのReact習熟度を測るためのベンチマークを作成し、その結果を共有しています。ベンチマークは、Claude Codeの3つのモデル(Haiku, Sonnet, Opus)を対象に、6つのテストケースを用いて実施されました。各モデルは同一のプロンプトで実装され、評価者モデル(Claude Sonnet 4.6)が定義された観点に基づいてコードを採点しました。結果として、SonnetとOpusは高いスコアを記録し、Haikuは明らかに劣ることが示されました。特に、Reactのベストプラクティスや新しいAPIの使用において、SonnetとOpusは一貫して高い評価を得ましたが、全体的に高い習熟度には達していないことが指摘されています。 • Claude CodeのReact習熟度を測るためのベンチマークを作成した。 • 対象モデルはClaude Codeの3つのモデル(Haiku, Sonnet, Opus)。 • 6つのテストケースを用意し、同一のプロンプトで実装させた。 • 評価者モデル(Claude Sonnet 4.6)が観点に基づいてコードを採点した。 • SonnetとOpusは高いスコアを記録し、Haikuは明らかに劣る結果となった。 • Reactのベストプラクティスや新しいAPIの使用において、SonnetとOpusは高評価を得た。 • 全体的に高い習熟度には達していないことが示された。