MediaCrawler/config/base_config.py

143 lines
3.7 KiB
Python
Raw Normal View History

# 基础配置
PLATFORM = "xhs"
2024-08-06 20:13:15 +00:00
KEYWORDS = "编程副业,编程兼职"
LOGIN_TYPE = "qrcode" # qrcode or phone or cookie
COOKIES = ""
# 具体值参见media_platform.xxx.field下的枚举值暂时只支持小红书
2024-06-12 02:17:37 +00:00
SORT_TYPE = "popularity_descending"
# 具体值参见media_platform.xxx.field下的枚举值暂时只支持抖音
PUBLISH_TIME_TYPE = 0
2024-04-05 02:44:05 +00:00
CRAWLER_TYPE = "search" # 爬取类型search(关键词搜索) | detail(帖子详情)| creator(创作者主页数据)
# 是否开启 IP 代理
2023-12-08 16:06:57 +00:00
ENABLE_IP_PROXY = False
2023-12-07 16:10:04 +00:00
# 代理IP池数量
IP_PROXY_POOL_COUNT = 2
2024-04-05 02:44:05 +00:00
# 代理IP提供商名称
2024-04-17 15:12:05 +00:00
IP_PROXY_PROVIDER_NAME = "kuaidaili"
2024-04-05 02:44:05 +00:00
2024-05-12 15:28:50 +00:00
# 设置为True不会打开浏览器无头浏览器
# 设置False会打开一个浏览器
# 小红书如果一直扫码登录不通过,打开浏览器手动过一下滑动验证码
# 抖音如果一直提示失败,打开浏览器看下是否扫码登录之后出现了手机号验证,如果出现了手动过一下再试。
HEADLESS = False
# 是否保存登录状态
SAVE_LOGIN_STATE = True
# 数据保存类型选项配置,支持三种类型csv、db、json
2024-08-08 06:19:32 +00:00
SAVE_DATA_OPTION = "csv" # csv or db or json
# 用户浏览器缓存的浏览器文件配置
USER_DATA_DIR = "%s_user_data_dir" # %s will be replaced by platform name
# 爬取开始页数 默认从第一页开始
START_PAGE = 1
# 爬取视频/帖子的数量控制
2024-08-06 11:21:34 +00:00
CRAWLER_MAX_NOTES_COUNT = 100
2023-07-15 14:25:56 +00:00
# 并发爬虫数量控制
2024-07-24 16:44:46 +00:00
MAX_CONCURRENCY_NUM = 1
# 是否开启爬图片模式, 默认不开启爬图片
ENABLE_GET_IMAGES = False
# 是否开启爬评论模式, 默认不开启爬评论
2024-08-08 06:19:32 +00:00
ENABLE_GET_COMMENTS = False
2024-07-11 09:53:04 +00:00
# 是否开启爬二级评论模式, 默认不开启爬二级评论
# 老版本项目使用了 db, 则需参考 schema/tables.sql line 287 增加表字段
2024-08-08 06:19:32 +00:00
ENABLE_GET_SUB_COMMENTS = False
# 指定小红书需要爬虫的笔记ID列表
2023-11-18 07:53:10 +00:00
XHS_SPECIFIED_ID_LIST = [
2023-12-09 13:10:01 +00:00
"6422c2750000000027000d88",
# ........................
]
# 指定抖音需要爬取的ID列表
DY_SPECIFIED_ID_LIST = [
2023-12-09 13:10:01 +00:00
"7280854932641664319",
"7202432992642387233"
# ........................
2023-12-07 16:10:04 +00:00
]
# 指定快手平台需要爬取的ID列表
KS_SPECIFIED_ID_LIST = [
"3xf8enb8dbj6uig",
"3x6zz972bchmvqe"
]
2023-12-07 16:10:04 +00:00
# 指定B站平台需要爬取的视频bvid列表
2023-12-09 13:10:01 +00:00
BILI_SPECIFIED_ID_LIST = [
"BV1d54y1g7db",
"BV1Sz4y1U77N",
"BV14Q4y1n7jz",
2023-12-09 13:10:01 +00:00
# ........................
]
# 指定微博平台需要爬取的帖子列表
WEIBO_SPECIFIED_ID_LIST = [
"4982041758140155",
# ........................
2024-01-15 16:40:07 +00:00
]
2024-08-23 21:52:11 +00:00
# 指定weibo创作者ID列表
WEIBO_CREATOR_ID_LIST = [
"5533390220",
# ........................
]
2024-08-05 10:51:51 +00:00
# 指定贴吧需要爬取的帖子列表
TIEBA_SPECIFIED_ID_LIST = [
]
2024-08-08 06:19:32 +00:00
# 指定贴吧名称列表,爬取该贴吧下的帖子
TIEBA_NAME_LIST = [
# "盗墓笔记"
]
2024-08-05 10:51:51 +00:00
# 指定小红书创作者ID列表
XHS_CREATOR_ID_LIST = [
"63e36c9a000000002703502b",
# ........................
]
2024-05-27 17:07:19 +00:00
# 指定Dy创作者ID列表(sec_id)
DY_CREATOR_ID_LIST = [
"MS4wLjABAAAATJPY7LAlaa5X-c8uNdWkvz0jUGgpw4eeXIwu_8BhvqE",
# ........................
]
2024-06-12 07:18:55 +00:00
# 指定bili创作者ID列表(sec_id)
BILI_CREATOR_ID_LIST = [
"20813884",
# ........................
]
2024-06-12 13:53:41 +00:00
# 指定快手创作者ID列表
KS_CREATOR_ID_LIST = [
"3x4sm73aye7jq7i",
# ........................
2024-06-13 06:54:01 +00:00
]
2024-08-08 06:19:32 +00:00
# 词云相关
# 是否开启生成评论词云图
ENABLE_GET_WORDCLOUD = False
# 自定义词语及其分组
2024-08-08 06:19:32 +00:00
# 添加规则xx:yy 其中xx为自定义添加的词组yy为将xx该词组分到的组名。
CUSTOM_WORDS = {
'零几': '年份', # 将“零几”识别为一个整体
'高频词': '专业术语' # 示例自定义词
}
2024-08-08 06:19:32 +00:00
# 停用(禁用)词文件路径
STOP_WORDS_FILE = "./docs/hit_stopwords.txt"
2024-08-08 06:19:32 +00:00
# 中文字体文件路径
FONT_PATH = "./docs/STZHONGS.TTF"