firecrawl-download
ウェブサイト全体をローカルファイルとしてダウンロードし、Markdownおよびスクリーンショット形式をサポートします。オフラインでの閲覧、分析、コンテンツアーカイブに便利です。
npx skills add firecrawl/cli --skill firecrawl-downloadBefore / After 効果比較
1 组Firecrawl Downloadがない場合、ウェブサイト全体のコンテンツをダウンロードするには、通常、手動でページごとに保存するか、簡単なダウンロードツールを使用する必要がありました。しかし、リンク切れ、フォーマットの不統一、ウェブサイト構造の保持不能などの問題に頻繁に直面しました。これにより、オフラインでの閲覧やバックアップは非常に時間がかかり、不完全なものとなっていました。
Firecrawl Downloadを使用すると、ウェブサイト全体をワンクリックでローカルファイルとしてダウンロードできます。Markdown、スクリーンショットなど複数の形式をサポートし、ウェブサイトの元の構造を維持できます。これにより、コンテンツ取得の効率と品質が大幅に向上し、オフラインでの利用やドキュメントのアーカイブが容易になります。
description SKILL.md
name: firecrawl-download description: | Download an entire website as local files — markdown, screenshots, or multiple formats per page. Use this skill when the user wants to save a site locally, download documentation for offline use, bulk-save pages as files, or says "download the site", "save as local files", "offline copy", "download all the docs", or "save for reference". Combines site mapping and scraping into organized local directories. allowed-tools:
- Bash(firecrawl *)
- Bash(npx firecrawl *)
firecrawl download
Experimental. Convenience command that combines
map+scrapeto save an entire site as local files.
Maps the site first to discover pages, then scrapes each one into nested directories under .firecrawl/. All scrape options work with download. Always pass -y to skip the confirmation prompt.
When to use
- You want to save an entire site (or section) to local files
- You need offline access to documentation or content
- Bulk content extraction with organized file structure
Quick start
# Interactive wizard (picks format, screenshots, paths for you)
firecrawl download https://docs.example.com
# With screenshots
firecrawl download https://docs.example.com --screenshot --limit 20 -y
# Multiple formats (each saved as its own file per page)
firecrawl download https://docs.example.com --format markdown,links --screenshot --limit 20 -y
# Creates per page: index.md + links.txt + screenshot.png
# Filter to specific sections
firecrawl download https://docs.example.com --include-paths "/features,/sdks"
# Skip translations
firecrawl download https://docs.example.com --exclude-paths "/zh,/ja,/fr,/es,/pt-BR"
# Full combo
firecrawl download https://docs.example.com \
--include-paths "/features,/sdks" \
--exclude-paths "/zh,/ja" \
--only-main-content \
--screenshot \
-y
Download options
| Option | Description |
|---|---|
--limit <n> | Max pages to download |
--search <query> | Filter URLs by search query |
--include-paths <paths> | Only download matching paths |
--exclude-paths <paths> | Skip matching paths |
--allow-subdomains | Include subdomain pages |
-y | Skip confirmation prompt (always use in automated flows) |
Scrape options (all work with download)
-f <formats>, -H, -S, --screenshot, --full-page-screenshot, --only-main-content, --include-tags, --exclude-tags, --wait-for, --max-age, --country, --languages
See also
- firecrawl-map — just discover URLs without downloading
- firecrawl-scrape — scrape individual pages
- firecrawl-crawl — bulk extract as JSON (not local files)
forumユーザーレビュー (0)
レビューを書く
レビューなし
統計データ
ユーザー評価
この Skill を評価