VLA-expert-skill
VLA Expert Skill transforms AI programming assistants into VLA domain experts. It injects compressed knowledge such as engineering details, architectural choices, and training recipes from over 328 papers, and enforces a three-perspective adversarial debate (🔴 bullish/🔵 bearish/🟢 arbitrage) to address the AI assistant's lack of depth and judgment, providing professional and in-depth insights.
git clone https://github.com/sou350121/VLA-expert-skill.gitBefore / After Comparison
1 组Before use, the AI assistant's analysis of VLA papers was limited to abstracts, lacking engineering details and architectural insights, and its judgment on development directions was ambiguous.
After use, the AI assistant provides engineering details and training recipes for 328+ VLA papers, enforces a three-perspective adversarial debate, and delivers in-depth and insightful analysis.
description SKILL.md
为什么需要这个?
你让 AI 助手帮你分析 VLA 论文,它给你一堆正确但没用的废话。你问它方向判断,它两边都说好。
问题不是 AI 不够聪明,是它没有领域知识 + 没有判断框架。
VLA Expert Skill 解决这两件事:
- 注入 328+ 篇论文的压缩知识——不是摘要,是拆解后的工程细节、架构选择、训练配方
- 强制三视角对抗辩论——🔴 看多 / 🔵 看空 / 🟢 套利,每个判断都被交叉攻击
研究表明(AI-Augmented Predictions, 2024):即使有偏差的 AI 也能让人类预测准确率 +29%。机制不是"AI 更准",而是强制你重新思考。
Demo:安装前 vs 安装后
你问:「Diffusion Policy 和 Flow Matching 哪个更好?」
| 普通 AI 助手 | 装了 VLA Expert Skill | |
|---|---|---|
| 回答 | "两者各有优劣,Diffusion 更成熟,Flow Matching 更新…"(正确的废话) | 🔴 Bull:FM 在 π0 上 5-20 步推理达 50Hz,工程上已胜出 [信号: §2]🔵 Bear:FM 在高维双臂任务上的多模态覆盖不如 Diffusion [推断]🟢 Arbiter:79% 置信度选 FM(校准后 71%)。致命实验:如果 6 个月内出现 Diffusion 在 bimanual 上显著胜出的对比实验,降至 60%。 |
它能做什么
| 你的问题 | 回应模式 | AI 做什么 |
|---|---|---|
| "π0.6 用了什么架构?" | 🔍 事实查询 | 直接从 328 篇论文记忆中查找,2-5 句 |
| "Diffusion vs Flow Matching?" | ⚖️ 对比 | 对比表格 + Bull/Bear 辩论 + 校准判断 |
| "帮我看这篇 VLA 论文" | 📄 论文评估 | 信息价值快筛 → 三视角辩论 → 信念更新 |
| "VLA 下一步该投什么方向?" | 🎯 方向判断 | 完整辩论 + 致命实验 + 逆共识 + 时间套利 |
| "怎么在 FR3 上部署 π0?" | 🔧 部署 | 步骤 + 硬件选型 + 常见坑(来自 300+ 社区笔记) |
| "Physical Intelligence 怎么样?" | 💼 产业 | 竞争定位 + 护城河 + 风险矩阵 |
| "VLA 面试怎么准备?" | 🎤 面试 | 结构化答案 + 高频考点 |
| "我半年没关注了,有什么变化?" | 📰 追赶 | 时间线叙事:旧共识 → 新共识 |
知识覆盖
知识来自 VLA-Handbook(⭐100+)——全中文、工程实战导向的 VLA 知识库。
模型架构演化 RT-1 → RT-2 → Octo → OpenVLA → π0 → π0.5 → π0.6
动作生成三范式 Diffusion Policy · Flow Matching · FAST Tokenization · 自回归
训练范式 Behavior Cloning · Co-training · RL Post-training · 自我改进闭环
World Model Cosmos · 视频预测 · 物理仿真 · 决策辅助
触觉 & 多模态 TacVLA · 视触融合 · 力反馈 · 本体感觉
部署实战 300+ 中英文社区踩坑笔记 · 真机部署指南 · Sim-to-Real
产业格局 PI($2.4B) · Figure · Tesla Optimus · NVIDIA GR00T · 智元 · 宇树 · Rhoda AI($4.5B)
信念追踪系统 10 条校准信念(含逆共识) · 5 个收敛 Phase · 致命实验截止日
内置的纪律(不只是知识库)
普通 RAG 只是"检索+回答"。这个 Skill 有严格的认知纪律:
| 机制 | 做什么 | 为什么 |
|---|---|---|
| 来源分级 | 每个论点标 [信号] / [推断] / [投注] | 你知道哪些是硬数据、哪些是推测 |
| 谦逊折扣 | >80% 置信度自动 ×0.9 | LLM 在高确定性区间系统性过度自信 (ForecastBench) |
| 保守偏误修正 | 强证据最小更新 ±5%,共识更新 ±10% | LLM 信念更新幅度系统性不足 (EvolveCast) |
| 推翻条件 | 每个判断附带"什么能推翻 + 截止日期" | 不可证伪 = 无效判断 |
| 防幻觉 | 记忆中没有就说"未记录",不编造 | 具体的错误数字比承认不知道更有害 |
安装
Note: 安装方式因平台而异。Claude Code 和 Cursor 通过文件复制,Codex 和 OpenCode 通过让 AI 自行获取指令。
Claude Code / Cowork
git clone https://github.com/sou350121/VLA-expert-skill.git
cp -r VLA-expert-skill/skill/ your-project/.claude/skills/vla-expert/
Cursor
git clone https://github.com/sou350121/VLA-expert-skill.git
mkdir -p .cursor/rules
cp VLA-expert-skill/platforms/cursor/.cursorrules .cursor/rules/vla-expert.md
cp VLA-expert-skill/skill/references/VLA_EXPERT_MEMORY.md docs/
Codex
告诉 Codex:
Fetch and follow instructions from https://raw.githubusercontent.com/sou350121/VLA-expert-skill/main/platforms/codex/SYSTEM_PROMPT.md
详细文档:platforms/codex/SYSTEM_PROMPT.md
OpenCode
告诉 OpenCode:
Fetch and follow instructions from https://raw.githubusercontent.com/sou350121/VLA-expert-skill/main/platforms/codex/SYSTEM_PROMPT.md
或手动安装:
git clone https://github.com/sou350121/VLA-expert-skill.git
mkdir -p .opencode
cp VLA-expert-skill/platforms/codex/SYSTEM_PROMPT.md .opencode/instructions.md
其他 AI 工具
将 platforms/codex/SYSTEM_PROMPT.md 的内容作为 system prompt,并附加 skill/references/VLA_EXPERT_MEMORY.md 作为上下文。
验证安装
启动一个新会话,问:
"Diffusion Policy 和 Flow Matching 哪个更好?"
如果回答中出现 🔴 Bull / 🔵 Bear / 🟢 Arbiter 三视角辩论,安装成功。
独立模式 vs 深度模式
| 模式 | 条件 | 深度 |
|---|---|---|
| 独立模式 | 只装 VLA Expert Skill | 压缩记忆覆盖 90% 场景 |
| 深度模式 | 同时 clone VLA-Handbook | 按需读取原始论文拆解,信息量 5-20× |
🔗 推荐搭配 VLA-Handbook(⭐100+)使用以获得深度模式。
每日更新
知识库由自动化 pipeline 每日同步,追踪:新论文与突破、信念网络置信度变化、收敛 Phase 转移、产业动态与融资、社区部署经验。
保持最新:
cd VLA-expert-skill && git pull
文件结构
VLA-expert-skill/
├── skill/
│ ├── SKILL.md # 完整 Skill 定义(意图路由 + 8 种模式 + 辩论协议)
│ └── references/
│ └── VLA_EXPERT_MEMORY.md # 压缩知识库(328+ 论文,每日更新)
├── platforms/
│ ├── cursor/.cursorrules # Cursor Rules 适配
│ └── codex/SYSTEM_PROMPT.md # Codex / OpenCode / 通用 system prompt
├── INSTALL.md # LLM 可读的自助安装指南
├── .github/workflows/ # GitHub Actions 自动化
└── README.md / README_EN.md
相关项目
| 项目 | 描述 |
|---|---|
| VLA-Handbook ⭐100+ | 本 Skill 的知识来源。全中文 VLA 知识库:70+ 论文深度拆解、300+ 社区踩坑笔记、每日自动更新。推荐搭配使用获得深度模式。 |
License
MIT — 随意使用、修改、分发。
Contributing
欢迎贡献!论文分析、部署经验、Bug 报告,请开 Issue 或 PR。
forumUser Reviews (0)
Write a Review
No reviews yet
Statistics
User Rating
Rate this Skill