小红书笔记 | 评论爬虫、抖音视频 | 评论爬虫、快手视频 | 评论爬虫、B 站视频 | 评论爬虫、微博帖子 | 评论爬虫
Go to file
Relakkes aba9f14f50 refactor: 规范日志打印
feat: B站指定视频ID爬取(bvid)
2023-12-23 01:04:08 +08:00
base feat: 代理IP功能 Done 2023-12-08 00:10:04 +08:00
config refactor: 规范日志打印 2023-12-23 01:04:08 +08:00
docs refactor: delete account_config.py 2023-12-09 13:56:18 +08:00
libs feat: 小红书笔记搜索,评论获取done 2023-06-12 20:37:24 +08:00
media_platform refactor: 规范日志打印 2023-12-23 01:04:08 +08:00
models refactor: 规范日志打印 2023-12-23 01:04:08 +08:00
proxy refactor: 规范日志打印 2023-12-23 01:04:08 +08:00
static/images doc: update README.md 2023-12-09 23:49:19 +08:00
test feat: 代理IP功能 Done 2023-12-08 00:10:04 +08:00
tools feat: B站爬虫签名实现 2023-12-03 00:30:10 +08:00
.gitattributes feat: 小红书笔记搜索,评论获取done 2023-06-12 20:37:24 +08:00
.gitignore feat: 代理IP缓存到redis中 2023-12-06 23:49:56 +08:00
LICENSE Initial commit 2023-06-09 20:14:34 +08:00
README.md doc: update README.md 2023-12-22 23:04:08 +08:00
db.py refactor: 规范日志打印 2023-12-23 01:04:08 +08:00
main.py feat: 代理IP功能 Done 2023-12-08 00:10:04 +08:00
mypy.ini feat: 完善类型注释,增加 mypy 类型检测 2023-07-16 17:57:18 +08:00
recv_sms_notification.py fix: issue #22 2023-07-30 20:43:02 +08:00
requirements.txt doc: fixed pydantic version 2023-12-09 13:31:53 +08:00
var.py feat: 快手视频评论爬取done;数据保存到DB、CSV done 2023-11-26 21:43:39 +08:00

README.md

免责声明:

本仓库的所有内容仅供学习和参考之用,禁止用于商业用途。任何人或组织不得将本仓库的内容用于非法用途或侵犯他人合法权益。本仓库所涉及的爬虫技术仅用于学习和研究,不得用于对其他平台进行大规模爬虫或其他非法行为。对于因使用本仓库内容而引起的任何法律责任,本仓库不承担任何责任。使用本仓库的内容即表示您同意本免责声明的所有条款和条件。

仓库描述

小红书爬虫抖音爬虫 快手爬虫 B站爬虫...。
目前能抓取小红书、抖音、快手、B站的视频、图片、评论、点赞、转发等信息。

原理:利用playwright搭桥保留登录成功后的上下文浏览器环境通过执行JS表达式获取一些加密参数 通过使用此方式免去了复现核心加密JS代码逆向难度大大降低。 爬虫技术交流群:949715256,同时欢迎大家贡献代码提交PR

SPONSORED BY

目前爬虫正在用的IP代理极速HTTP代理 新用户注册认证最高送12000IP0元试用
极速HTTP代理-官网图

功能列表

平台 Cookie 登录 二维码登录 手机号登录 关键词搜索 指定视频/帖子 ID 爬取 登录状态缓存 数据保存 IP 代理池 滑块验证码
小红书
抖音
快手
B 站
微博

使用方法

  1. 创建 python 虚拟环境

    python3 -m venv venv
    
  2. 安装依赖库

    pip install -r requirements.txt
    
  3. 安装playwright浏览器驱动

    playwright install
    
  4. 是否保存数据到DB中

    如果选择开启,则需要配置数据库连接信息,config/db_config.py 中的 IS_SAVED_DATABASEDRELATION_DB_URL 变量。然后执行以下命令初始化数据库信息,生成相关的数据库表结构:

    python db.py
    
  5. 运行爬虫程序

    # 从配置文件中读取关键词搜索相关的帖子并爬去帖子信息与评论
    python main.py --platform xhs --lt qrcode --type search
    
    # 从配置文件中读取指定的帖子ID列表获取指定帖子的信息与评论信息
    python main.py --platform xhs --lt qrcode --type detail
    
    # 其他平台爬虫使用示例, 执行下面的命令查看
     python3 main.py --help
    
    
  6. 打开对应APP扫二维码登录

  7. 等待爬虫程序执行完毕,数据会保存到 data/xhs 目录下

如何使用 IP 代理

➡️➡️➡️ IP代理使用方法

运行报错常见问题Q&A

➡️➡️➡️ 常见问题

项目代码结构

➡️➡️➡️ 项目代码结构说明

手机号登录说明

➡️➡️➡️ 手机号登录说明

打赏

如果觉得项目不错的话可以打赏哦。您的支持就是我最大的动力!

打赏时您可以备注名称,我会将您添加至打赏列表中。

打赏-微信 打赏-支付宝

捐赠信息

PS如果打赏时请备注捐赠者如有遗漏请联系我添加有时候消息多可能会漏掉十分抱歉

捐赠者 捐赠金额 捐赠日期
50chen 50 元 2023-12-22
xiongot 20 元 2023-12-17
atom.hu 20 元 2023-12-16
一呆 20 元 2023-12-01
坠落 50 元 2023-11-08

star 趋势图

  • 如果该项目对你有帮助star一下 ❤️❤️❤️

Star History Chart

参考