ホーム/数据 & AI/tavily-extract
T

tavily-extract

by @tavily-aiv
4.7(11)

指定されたURLからクリーンで邪魔のないMarkdownまたはプレーンテキストコンテンツを抽出し、読み取り、分析、またはさらなる処理を容易にし、情報取得効率を向上させることに特化しています。

Data ExtractionContent ParsingMarkdown ConversionInformation RetrievalText ExtractionGitHub
インストール方法
npx skills add tavily-ai/skills --skill tavily-extract
compare_arrows

Before / After 効果比較

1
使用前

過去、ウェブページからコンテンツをコピーする際、大量の広告、ナビゲーション、乱雑なレイアウトが頻繁に持ち込まれ、後で手動でクリーンアップするために多大な時間を費やす必要がありました。

使用後

Tavily Extractスキルは、指定されたURLからクリーンなMarkdownまたはテキストコンテンツをインテリジェントに抽出し、煩雑な後処理のクリーンアップ作業を省きます。

description SKILL.md

tavily-extract

tavily extract

Extract clean markdown or text content from one or more URLs.

Before running any command

If tvly is not found on PATH, install it first:

curl -fsSL https://cli.tavily.com/install.sh | bash && tvly login

Do not skip this step or fall back to other tools.

See tavily-cli for alternative install methods and auth options.

When to use

  • You have a specific URL and want its content

  • You need text from JavaScript-rendered pages

  • Step 2 in the workflow: search → extract → map → crawl → research

Quick start

# Single URL
tvly extract "https://example.com/article" --json

# Multiple URLs
tvly extract "https://example.com/page1" "https://example.com/page2" --json

# Query-focused extraction (returns relevant chunks only)
tvly extract "https://example.com/docs" --query "authentication API" --chunks-per-source 3 --json

# JS-heavy pages
tvly extract "https://app.example.com" --extract-depth advanced --json

# Save to file
tvly extract "https://example.com/article" -o article.md

Options

Option Description

--query Rerank chunks by relevance to this query

--chunks-per-source Chunks per URL (1-5, requires --query)

--extract-depth basic (default) or advanced (for JS pages)

--format markdown (default) or text

--include-images Include image URLs

--timeout Max wait time (1-60 seconds)

-o, --output Save output to file

--json Structured JSON output

Extract depth

Depth When to use

basic Simple pages, fast — try this first

advanced JS-rendered SPAs, dynamic content, tables

Tips

  • Max 20 URLs per request — batch larger lists into multiple calls.

  • Use --query + --chunks-per-source to get only relevant content instead of full pages.

  • Try basic first, fall back to advanced if content is missing.

  • Set --timeout for slow pages (up to 60s).

  • If search results already contain the content you need (via --include-raw-content), skip the extract step.

See also

Weekly Installs280Repositorytavily-ai/skillsGitHub Stars95First Seen2 days agoSecurity AuditsGen Agent Trust HubFailSocketPassSnykFailInstalled oncodex275opencode274cursor274kimi-cli273gemini-cli273amp273

forumユーザーレビュー (0)

レビューを書く

効果
使いやすさ
ドキュメント
互換性

レビューなし

統計データ

インストール数514
評価4.7 / 5.0
バージョン
更新日2026年3月18日
比較事例1 件

ユーザー評価

4.7(11)
5
0%
4
0%
3
0%
2
0%
1
0%

この Skill を評価

0.0

対応プラットフォーム

🔧Claude Code

タイムライン

作成2026年3月18日
最終更新2026年3月18日