Wang's blog Wang's blog
首页
  • 前端文章

    • HTML教程
    • CSS
    • JavaScript
  • 前端框架

    • Vue
    • React
    • VuePress
    • Electron
  • 后端技术

    • Npm
    • Node
    • TypeScript
  • 编程规范

    • 规范
  • 我的笔记
  • Git
  • GitHub
  • VSCode
  • Mac工具
  • 数据库
  • Google
  • 服务器
  • Python爬虫
  • 前端教程
更多
收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Wang Mings

跟随大神,成为大神!
首页
  • 前端文章

    • HTML教程
    • CSS
    • JavaScript
  • 前端框架

    • Vue
    • React
    • VuePress
    • Electron
  • 后端技术

    • Npm
    • Node
    • TypeScript
  • 编程规范

    • 规范
  • 我的笔记
  • Git
  • GitHub
  • VSCode
  • Mac工具
  • 数据库
  • Google
  • 服务器
  • Python爬虫
  • 前端教程
更多
收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • Python爬虫

    • 爬虫的基础知识

    • 请求的发送方法

    • 数据提取方法

    • 高性能爬虫

    • selenium

    • 反爬以及解决方案

      • 常见反爬手段
        • 常见的反爬手段和解决思路
          • 学习目标
          • 1 明确反反爬的主要思路
          • 2 通过headers字段来反爬
          • 2.1 通过headers中的User-Agent字段来反爬
          • 2.2 通过referer字段或者是其他字段来反爬
          • 2.3 通过cookie来反爬
          • 3 通过js来反爬
          • 3.1 通过js实现跳转来反爬
          • 3.2 通过js生成了请求参数
          • 3.3 通过js实现了数据的加密
          • 4 通过验证码来反爬
          • 5 通过ip地址来反爬
          • 6 通过用户行为来反爬
          • 7 其他的反爬方式
          • 7.1 通过自定义字体来反爬
          • 7.2 通过css来反爬
          • 小结
      • 打码平台的使用
      • chrome在爬虫中的使用
      • JS的解析
      • 小结
    • MONGODB数据库

    • scrapy框架

    • scrapy_redis

    • 爬虫的部署

    • 爬虫框架开发分析

    • 框架雏形实现

    • 框架功能完善

    • 框架功能升级

    • 项目实战

    • pywin32介绍

  • 前端教程

  • 教程
  • Python爬虫
  • 反爬以及解决方案
wangmings
2022-07-19
目录

常见反爬手段

# 常见的反爬手段和解决思路

# 学习目标
  1. 了解 通过headers反爬以及对应的解决方法
  2. 了解 通过js反爬以及对应的解决方法
  3. 了解 通过验证码反爬以及对应的解决方法
  4. 了解 通过IP反爬以及对应的解决方法
  5. 了解 通过用户行为反爬以及对应的解决方法

# 1 明确反反爬的主要思路

反反爬的主要思路就是:尽可能的去模拟浏览器,浏览器在如何操作,代码中就如何去实现。

例如:浏览器先请求了地址url1,保留了cookie在本地,之后请求地址url2,带上了之前的cookie,代码中也可以这样去实现。

# 2 通过headers字段来反爬

headers中有很多字段,这些字段都有可能会被对方服务器拿过来进行判断是否为爬虫

# 2.1 通过headers中的User-Agent字段来反爬
  • 反爬原理:爬虫默认情况下没有User-Agent
  • 解决方法:请求之前添加User-Agent即可;更好的方式是使用User-Agent池来解决(收集一堆User-Agent的方式,或者是随机生成User-Agent)
import random

def get_ua():
    first_num = random.randint(55, 62)
    third_num = random.randint(0, 3200)
    fourth_num = random.randint(0, 140)
    os_type = [
        '(Windows NT 6.1; WOW64)', '(Windows NT 10.0; WOW64)', '(X11; Linux x86_64)',
        '(Macintosh; Intel Mac OS X 10_12_6)'
    ]
    chrome_version = 'Chrome/{}.0.{}.{}'.format(first_num, third_num, fourth_num)

    ua = ' '.join(['Mozilla/5.0', random.choice(os_type), 'AppleWebKit/537.36',
                   '(KHTML, like Gecko)', chrome_version, 'Safari/537.36']
                  )
    return ua 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# 2.2 通过referer字段或者是其他字段来反爬
  • 反爬原理:爬虫默认情况下不会带上referer字段
  • 解决方法:添加referer字段(例如豆瓣美剧爬虫,详见课程1.3.2小节)
# 2.3 通过cookie来反爬
  • 如果目标网站不需要登录 每次请求带上前一次返回的cookie,比如requests模块的session

  • 如果目标网站需要登录 准备多个账号,通过一个程序获取账号对应的cookie,组成cookie池,其他程序使用这些cookie

# 3 通过js来反爬

普通的爬虫默认情况下无法执行js,获取js执行之后的结果,所以很多时候对方服务器会通过js的技术实现反爬

# 3.1 通过js实现跳转来反爬
  • 反爬原理:js实现页面跳转,肉眼不可见
  • 解决方法: 在chrome中点击perserve log按钮实现观察页面跳转情况

在这些请求中,如果请求数量很多,一般来讲,只有那些response中带cookie字段的请求是有用的,意味着通过这个请求,对方服务器有设置cookie到本地

# 3.2 通过js生成了请求参数
  • 反爬原理:js生成了请求参数
  • 解决方法:分析js,观察加密的实现过程,通过js2py获取js的执行结果,或者使用selenium来实现
# 3.3 通过js实现了数据的加密
  • 反爬原理:js实现了数据的加密
  • 解决方法:分析js,观察加密的实现过程,通过js2py获取js的执行结果,或者使用selenium来实现

# 4 通过验证码来反爬

  • 反爬原理:对方服务器通过弹出验证码强制验证用户浏览行为
  • 解决方法:打码平台或者是机器学习的方法识别验证码,其中打码平台廉价易用,更值得推荐

# 5 通过ip地址来反爬

  • 反爬原理:正常浏览器请求网站,速度不会太快,同一个ip大量请求了对方服务器,有更大的可能性会被识别为爬虫
  • 解决方法:对应的通过购买高质量的ip的方式能够解决问题

# 6 通过用户行为来反爬

  • 反爬原理:通过浏览器请求数据,很多用户行为会在浏览器中是很容易实现或者无法实现.比如浏览器请求额外的图片地址,服务端进行记录,出现意味着不是爬虫(爬虫中不会主动请求图片)
  • 解决方法:通过获取数据的情况来观察请求,寻找异常出现的可能请求

# 7 其他的反爬方式

# 7.1 通过自定义字体来反爬

下图来自猫眼电影电脑版

解决思路:切换到手机版

# 7.2 通过css来反爬

下图来自猫眼去哪儿电脑版

解决思路:计算css的偏移


# 小结

  • 反爬的手段非常多,但是一般而言,完全的模仿浏览器的行为即可
编辑 (opens new window)
小结
打码平台的使用

← 小结 打码平台的使用→

最近更新
01
theme-vdoing-blog博客静态编译问题
09-16
02
搜索引擎
07-19
03
友情链接
07-19
更多文章>
Theme by Vdoing | Copyright © 2019-2022 Evan Xu | MIT License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式