MediaCrawler/proxy/base_proxy.py

76 lines
2.5 KiB
Python
Raw Normal View History

# 声明:本代码仅供学习和研究目的使用。使用者应遵守以下原则:
# 1. 不得用于任何商业用途。
# 2. 使用时应遵守目标平台的使用条款和robots.txt规则。
# 3. 不得进行大规模爬取或对平台造成运营干扰。
# 4. 应合理控制请求频率,避免给目标平台带来不必要的负担。
# 5. 不得用于任何非法或不当的用途。
#
# 详细许可条款请参阅项目根目录下的LICENSE文件。
# 使用本代码即表示您同意遵守上述原则和LICENSE中的所有条款。
2024-04-05 02:44:05 +00:00
# -*- coding: utf-8 -*-
# @Author : relakkes@gmail.com
# @Time : 2023/12/2 11:18
# @Desc : 爬虫 IP 获取实现
2024-06-02 11:57:13 +00:00
# @Url : 快代理HTTP实现官方文档https://www.kuaidaili.com/?ref=ldwkjqipvz6c
2024-04-05 02:44:05 +00:00
import json
from abc import ABC, abstractmethod
2024-06-02 11:57:13 +00:00
from typing import List
2024-04-05 02:44:05 +00:00
import config
2024-06-02 11:57:13 +00:00
from cache.abs_cache import AbstractCache
from cache.cache_factory import CacheFactory
from tools.utils import utils
2024-04-05 02:44:05 +00:00
from .types import IpInfoModel
class IpGetError(Exception):
""" ip get error"""
class ProxyProvider(ABC):
@abstractmethod
2024-04-06 02:57:42 +00:00
async def get_proxies(self, num: int) -> List[IpInfoModel]:
2024-04-05 02:44:05 +00:00
"""
获取 IP 的抽象方法不同的 HTTP 代理商需要实现该方法
:param num: 提取的 IP 数量
:return:
"""
raise NotImplementedError
2024-04-05 02:44:05 +00:00
2024-06-02 11:57:13 +00:00
class IpCache:
2024-04-05 02:44:05 +00:00
def __init__(self):
2024-06-02 11:57:13 +00:00
self.cache_client: AbstractCache = CacheFactory.create_cache(cache_type=config.CACHE_TYPE_MEMORY)
2024-04-05 02:44:05 +00:00
def set_ip(self, ip_key: str, ip_value_info: str, ex: int):
"""
设置IP并带有过期时间到期之后由 redis 负责删除
:param ip_key:
:param ip_value_info:
:param ex:
:return:
"""
2024-06-02 11:57:13 +00:00
self.cache_client.set(key=ip_key, value=ip_value_info, expire_time=ex)
2024-04-05 02:44:05 +00:00
def load_all_ip(self, proxy_brand_name: str) -> List[IpInfoModel]:
"""
redis 中加载所有还未过期的 IP 信息
:param proxy_brand_name: 代理商名称
:return:
"""
all_ip_list: List[IpInfoModel] = []
2024-06-02 11:57:13 +00:00
all_ip_keys: List[str] = self.cache_client.keys(pattern=f"{proxy_brand_name}_*")
2024-04-05 02:44:05 +00:00
try:
for ip_key in all_ip_keys:
2024-06-02 11:57:13 +00:00
ip_value = self.cache_client.get(ip_key)
2024-04-05 02:44:05 +00:00
if not ip_value:
continue
all_ip_list.append(IpInfoModel(**json.loads(ip_value)))
except Exception as e:
2024-06-02 11:57:13 +00:00
utils.logger.error("[IpCache.load_all_ip] get ip err from redis db", e)
2024-04-05 02:44:05 +00:00
return all_ip_list