> twitter-crawler

Twitter 推文爬取器 - 指定用户名爬取推文,保存为 Markdown 格式,支持自定义数量和字段

fetch
$curl "https://skillshub.wtf/huangserva/servasyy_skills/twitter-crawler?format=md"
SKILL.mdtwitter-crawler

Twitter 推文爬取器

概述

爬取指定 Twitter 用户的推文,保存为 Markdown 格式。

使用方法

基础用法

cd ~/.claude/skills/twitter-crawler
python3 scripts/fetch_tweets.py <用户名>

完整参数

python3 scripts/fetch_tweets.py <用户名> [选项]

选项:
  -n, --limit N        获取推文数量(默认10)
  -p, --pages N        获取页数(默认1,每页约20条)
  -o, --output PATH    输出文件路径(默认 outputs/{用户名}.md)
  --json               同时输出 JSON 格式
  --interval SECONDS   请求间隔秒数(默认5,防止频率限制)
  --no-user-info       不获取用户信息
  --title TITLE        自定义 Markdown 标题
  --fields FIELDS      包含的字段,逗号分隔
  --auth-token TOKEN   指定 auth_token

频率限制

Twitter API 有频率限制,脚本内置了以下保护机制:

  • 默认每次请求间隔 5 秒
  • 自动添加随机抖动(0.5-2秒)避免被检测
  • 可通过 --interval 调整间隔时间
  • 获取超过 20 条推文时自动分页

字段选项

--fields 可选值(逗号分隔):

  • text - 推文内容
  • time - 发布时间
  • likes - 点赞数
  • retweets - 转发数
  • replies - 回复数
  • views - 浏览量
  • url - 推文链接
  • media - 媒体(图片)

示例

示例1:基础爬取

python3 scripts/fetch_tweets.py VoxcatAI

输出:outputs/VoxcatAI.md

示例2:指定数量和输出路径

python3 scripts/fetch_tweets.py elonmusk -n 20 -o ~/Desktop/elon.md

示例3:只要内容和链接

python3 scripts/fetch_tweets.py sama --fields text,url

示例4:同时输出 JSON

python3 scripts/fetch_tweets.py OpenAI -n 15 --json

输出:

  • outputs/OpenAI.md
  • outputs/OpenAI.json

示例5:自定义标题

python3 scripts/fetch_tweets.py VoxcatAI --title "VoxCat 的 Prompt 分享"

输出格式

Markdown 格式

# @用户名 的推文

> 爬取时间: 2026-01-11 12:00:00
> 推文数量: 10

## 用户信息

- **名称**: xxx
- **用户名**: @xxx
- **粉丝**: 1,000
- **简介**: xxx

## 推文列表

### 1. 推文

**时间**: 2026-01-11 10:00:00

> 推文内容...

**互动**: ❤️ 100 | 🔁 20 | 💬 5

**链接**: [https://twitter.com/xxx/status/xxx](...)

---

JSON 格式

{
  "user": {
    "name": "xxx",
    "username": "xxx",
    "followers": 1000,
    ...
  },
  "tweets": [
    {
      "id": "xxx",
      "text": "xxx",
      "created_at": "2026-01-11 10:00:00",
      "likes": 100,
      "retweets": 20,
      ...
    }
  ],
  "fetched_at": "2026-01-11T12:00:00"
}

配置

auth_token

脚本会自动从 ~/Documents/trend-crawler-master/trend-crawler/config.yaml 读取 auth_token

如果需要单独配置,创建 ~/.claude/skills/twitter-crawler/config.yaml

twitter_accounts:
  auth_token: "你的auth_token"

获取 auth_token

  1. 登录 Twitter 网页版
  2. 打开开发者工具 (F12) → Application → Cookies
  3. 找到 auth_token 的值

依赖

  • tweety-ns(从 trend-crawler 项目的 venv 加载)
  • pyyaml

注意事项

  1. 频率限制:Twitter 有 API 频率限制,建议间隔使用
  2. auth_token 过期:如果遇到错误,可能需要更新 auth_token
  3. 访客模式:不配置 auth_token 也能使用,但可能受限

> related_skills --same-repo

> humanizer-zh

# 中文去AI味写作助手 (Humanizer-ZH) 你是一个专业的中文文本编辑助手,专门识别并消除AI生成文本的典型特征,使文字更自然、更像人类写作。 ## 核心原则 > AI使用统计算法预测下一个词,倾向于产出最"安全"、最"平均"的表达。去AI化的本质是:**用具体替代笼统,用个性替代套路,用事实替代空话。** --- ## 28种中文AI写作特征及修正方法 ### 一、内容层面 (1-7) | # | 特征 | AI写法 | 人类写法 | |---|------|--------|----------| | 1 | **夸大重要性** | "这标志着一个里程碑式的突破" | "2024年3月上线,首月用户达10万" | | 2 | **空洞的意义阐述** | "具有深远的历史意义和现实价值" | 删除,或给出具体影响数据 | | 3 | **模糊引用** | "专家表示"、"有研究指出" | "北大王教授在2024年论文中指出" | | 4 | **套路化挑战** | "虽然面临诸多挑战,但前景广阔" | 说明具体是什么挑战,怎么解决的 | | 5 | **假大

> wechat-article-formatter

将 Markdown 文章转换为微信公众号 HTML 格式,支持自动插入配图、微信样式优化。

> tts-script-generator

Intelligently compress and rewrite documents into TTS-friendly scripts. Uses Claude AI to analyze content, compress to target duration, convert to spoken style with emotional language, and auto-segment. Perfect for video narration.

> ppt-generator

生成专业 PPT 演示文稿,支持 22 种风格,自动根据内容选择最佳风格,输出到 ~/ppt-output/

┌ stats

installs/wk0
░░░░░░░░░░
github stars77
██████████
first seenMar 17, 2026
└────────────

┌ repo

huangserva/servasyy_skills
by huangserva
└────────────