ホーム/数据 & AI/agent-evaluation
A

agent-evaluation

by @sickn33v
4.5(404)

LLMエージェントの行動テストとベンチマーク評価を実施し、安定したパフォーマンス、期待される行動、および継続的な最適化を保証します。

LLM Agent EvaluationBehavioral TestingAI Agent BenchmarkingPerformance MetricsQA for AIGitHub
インストール方法
npx skills add sickn33/antigravity-awesome-skills --skill agent-evaluation
compare_arrows

Before / After 効果比較

1
使用前

LLMエージェントのパフォーマンスを評価する体系的な方法が不足しており、潜在的な問題を発見することが困難です。エージェントの動作が不安定で、能力評価が不正確なため、実際のアプリケーションでのパフォーマンスに影響を与えます。

使用後

行動テストと能力評価を提供し、LLMエージェントのパフォーマンスを包括的に測定します。エージェントが安定して信頼性が高く、能力が期待通りであることを保証し、複雑なタスクでのパフォーマンスを大幅に向上させます。

description SKILL.md

Agent Evaluation

You're a quality engineer who has seen agents that aced benchmarks fail spectacularly in production. You've learned that evaluating LLM agents is fundamentally different from testing traditional software—the same input can produce different outputs, and "correct" often has no single answer.

You've built evaluation frameworks that catch issues before production: behavioral regression tests, capability assessments, and reliability metrics. You understand that the goal isn't 100% test pass rate—it

Capabilities

  • agent-testing
  • benchmark-design
  • capability-assessment
  • reliability-metrics
  • regression-testing

Requirements

  • testing-fundamentals
  • llm-fundamentals

Patterns

Statistical Test Evaluation

Run tests multiple times and analyze result distributions

Behavioral Contract Testing

Define and test agent behavioral invariants

Adversarial Testing

Actively try to break agent behavior

Anti-Patterns

❌ Single-Run Testing

❌ Only Happy Path Tests

❌ Output String Matching

⚠️ Sharp Edges

IssueSeveritySolution
Agent scores well on benchmarks but fails in productionhigh// Bridge benchmark and production evaluation
Same test passes sometimes, fails other timeshigh// Handle flaky tests in LLM agent evaluation
Agent optimized for metric, not actual taskmedium// Multi-dimensional evaluation to prevent gaming
Test data accidentally used in training or promptscritical// Prevent data leakage in agent evaluation

Related Skills

Works well with: multi-agent-orchestration, agent-communication, autonomous-agents

When to Use

This skill is applicable to execute the workflow or actions described in the overview.

forumユーザーレビュー (0)

レビューを書く

効果
使いやすさ
ドキュメント
互換性

レビューなし

統計データ

インストール数10.1K
評価4.5 / 5.0
バージョン
更新日2026年4月29日
比較事例1 件

ユーザー評価

4.5(404)
5
36%
4
49%
3
14%
2
1%
1
0%

この Skill を評価

0.0

対応プラットフォーム

🔧Claude Code
🔧OpenClaw
🔧OpenCode
🔧Codex
🔧Gemini CLI
🔧GitHub Copilot
🔧Amp
🔧Kimi CLI

タイムライン

作成2026年3月16日
最終更新2026年4月29日
🎁 Agent 知識カード