百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

教你用 Python 爬取 Baidu 文库全格式文档

cac55 2025-03-24 14:17 30 浏览 0 评论

考虑到现在大部分小伙伴使用 Python 主要因为爬虫,那么为了更好地帮助大家巩固爬虫知识,加深对爬虫的理解,选择了爬取百度文库作为我们的目标。

废话不多说,我们开始。

TXT、DOCX 爬取与保存

这是小编准备的python基础学习资料,关注,转发,私信小编“01”即可免费领取!

在爬取任何东西之前,我们都要先确认需要爬取的数据是不是异步加载的;如果是异步加载的直接爬取网页是爬不到的。

要知道是不是异步加载其实很简单,就用requests 对网页发起请求,看看 response 是什么就可以了

url = 'https://wenku.baidu.com/view/4e29e5a730126edb6f1aff00bed5b9f3f90f72e7.html?rec_flag=default'
header = {'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
res = requests.get(url , headers = header)
res.text

很明显,返回的东西,并不是我们所需要的内容; 根据常理来说,我们就可以认为该网页是异步加载的。

但是,从常识来讲,如果网页的内容是异步加载的,那么直接通过百度搜索,是搜索不到网页内部的内容的,但是很显然,我们每次通过百度搜索都是可以直接找到文库中的文本内容的。

如下:

那么这就有意思了,明明直接发起请求是获取不到网页内容的,但是为什么通过百度搜索就可以找到呢? 关键肯定在于百度搜索 上面。

这个时候通过查阅资料,我们了解到,最主要的问题出在我们的 headers

在爬取网页时,headers 通常是作为身份证,让网页不看出我们是爬虫;如果不加 headers,网页直接就会看出我们是爬虫,就会拒绝访问

再深入了解一下 headers 的识别机理,我们发现了叫做 Robot 协议的东西。

它规定了什么样的 headers 可以访问网页内部内容,除了指定 headers 之外的 headers,都是无法请求页面内容的。

比如说百度文库的 Robot 协议就是下面这样的:

User-agent: Baiduspider

Disallow: /w?

Disallow: /search?

Disallow: /submit

Disallow: /upload

Disallow: /cashier/   

而我们需要爬取的内容 url 格式为

https://wenku.baidu.com/view/?.html

这代表 Baiduspider 应该可以爬取文库内容;大致猜测这是因为百度搜索时需要根据文本内容匹配搜索选项,所以放行。

因此我们尝试伪装 UA 为 Baiduspider

url = 'https://wenku.baidu.com/view/4e29e5a730126edb6f1aff00bed5b9f3f90f72e7.html?rec_flag=default'
header = {'User-agent': 'Googlebot'}
res = requests.get(url , headers = header)
res.text

果然不出所料,我们成功地获取到了目标内容

既然已经成功获取到了网页的正确源代码,那么下一步就是去解析网页获取内容。

解析网页源代码的库有很多,这里我们使用 BeautifulSoup

plist = []
soup = BeautifulSoup(r, "html.parser")
plist.append(soup.title.string)
for div in soup.find_all('div', attrs={"class": "bd doc-reader"}):
    plist.extend(div.get_text().split('\n'))
plist = [c.replace(' ', '') for c in plist]
plist = [c.replace('\x0c', '') for c in plist]
plist

整个解析是非常容易的,都是很标准的操作。

在这里就不多加叙述了,最终的效果如下:

当然爬取到东西了只是万里长征的第一步,就这样是肯定不行的,我们还需要将爬取的内容保存起来,通常是保存为 txt 文件

file = open('test.txt', 'w',encoding='utf-8')
for str in plist:
    file.write(str)
    file.write('\n')
file.close()

但是为了美观起见,我们在这里选择使用 python-docx 库将内容保存为 docx 文件

with open('test.txt', encoding='utf-8') as f:
    docu = Document()
    docu.add_paragraph(f.read())
    docu.save('test.docx')

PPT、PDF 爬取与保存

有了之前的经验教训,在爬取的时候我们首先就尝试了使用爬取 TXT、DOCX 的方法,尝试是否可以爬到内容

url = 'https://wenku.baidu.com/view/a4ac1b57dd88d0d232d46a0f.html?fr=search'
header = {'User-agent': 'Googlebot'}
res = requests.get(url , headers = header)
res.text

很可惜的是,我们并没有访问到

原因仔细想想也很简单,在百度搜索的时候,直接搜索是搜不到 PPT 或者 PDF 的内容的

那么很显然,PPT 和 PDF 是通过异步的方法进行内容加载的

对待异步加载的数据,我们通常采取的策略有两种

1、第一个就是直接找到发起异步请求的接口,自己构造请求头,发起请求

2、第二个就是通过 Selenium 这样的自动化测试工具去爬取

百度文库的接口太难找了,请求头的构造也很麻烦,找了很久也没有很满意。

所以在本次爬取中,我们使用的是第二种方法,使用 Selenium 这样的自动化测试工具

这里我们需要下载 ChromeDriver 这个插件,当然这里是默认大家使用的是 Chrome 浏览器,如果是其他的浏览器,firefox,safari 等等,直接去网上找到相应 Driver 就可以了。

这里给出 ChromeDriver 的下载地址

http://npm.taobao.org/mirrors/chromedriver/

大家一定要下载和自己 Chrome 浏览器版本一致的 ChromeDriver,不然程序是运行会报错

我们先不急着马上开始爬取,我们先来尝试使用一下Selenium调用ChromeDriver

import requests
from selenium import webdriver
url = 'https://wenku.baidu.com/view/5292b2bc0166f5335a8102d276a20029bd64638c.html?fr=search'
driver = webdriver.Chrome(r'F:\driver\chromedriver.exe')
driver.get(url)

怎么样,是不是浏览器自动打开了? 现在我们尝试输出这个 driver,就可以看见,网页的正确源代码已经在里面了

现在我们仔细研究一下源代码就可以看到,我们需要的内容在下面这个位置

现在正确的源代码也有了,内容的位置也知道了,直接解析,爬取,完事就好了。

想得美,经过这样的爬取之后,对内容进行解析,让我们看看究竟爬到没有

from lxml import etree
import re
html=etree.HTML(driver.page_source)
links=html.xpath("//div[@class='reader-pic-item']/@style")
part = re.compile(r'url[(](.*?)[)]')
qa="".join(links)
z=part.findall(qa)
z

我们可以知道,其实我们只爬到 3 张 PDF,其他的都没有爬到。

这是为什么呢?

这是百度文库为了防止大家去爬,专门设置的一个小机关

返回百度文库,我们仔细看看源代码,其实我们可以发现,随着页面的变化,源代码是不断改变的,每次都只有 3 张图片的 url。

并且这个页码数也有一定的规律,如果在第二页,那么图片就是 1,2,3,如果在第三页,图片就是 2,3,4

那么我们的疑惑一下就解决了,只需要不断地进行换页的爬取,就可以了

接下来就是如何实现换页的操作了

这个需要两个步骤,先是点击继续阅读,然后进行页面输入实现换页。

先实现点击的操作,代码如下:

button = driver.find_element_by_xpath("//*[@id='html-reader-go-more']/div[2]/div[1]/span")
button.click()
driver.execute_script("arguments[0].click();", button)

整个操作是通过 JS 来进行的,大家可以把这个记住,以后需要点击的时候直接用就可以

然后就是输入页面实现换页,这个其实涉及的比较多,细分的话,步骤分为获取总页数,依次输入页面并点击。

import re
# 寻找页面
source = re.compile(r'/(.*?)')
number = int(source.findall(driver.page_source)[0])
# 输入页面并点击
driver.find_element_by_class_name("page-input").clear()
driver.find_element_by_class_name("page-input").send_keys('2')
driver.find_element_by_class_name("page-input").send_keys(Keys.ENTER)

如果小伙伴成功实现了上面的操作,其实大体的爬取工作已经差不多了,接下来就是保存我们的 PPT 和 PDF了

因为爬取 PDF 和 PPT 的时候,我们是爬取的图片的源地址,那么我们要获得这张图片并保存下来就必须对这个地址发起请求,然后将返回头以二进制保存下来。

for m in range(3):
    pic = requests.get(z[m]).content
    # 方法一
#     file = open(f'./照片/{m+1}.jpg','wb')
#     file.write(pic)
#     file.close()
    # 方法二
    with open(f'./照片/{m+1}.jpg','wb') as f:
        f.write(pic)
        f.close()

在这里,提醒大家一下一定要按照对图片用正确顺序进行命名,因为后面保存为 PDF 的时候,需要排序

在 py 文件的目录下,大家就可以看见保存下来的图片了

最后一步,将图片保存为 PDF

from PIL import Image
import os
folderPath = "F:/TEST"
filename = "test"
files = os.listdir(folderPath)
jpgFiles = []
sources = []
for file in files:
    if 'jpg' in file:
        jpgFiles.append(file)
tep = []
for i in jpgFiles:
    ex = i.split('.')
    tep.append(int(ex[0]))
tep.sort()
jpgFiles=[folderPath +'/'+ str(i) + '.jpg' for i in tep]
output = Image.open(jpgFiles[0])
jpgFiles.pop(0)
for file in jpgFiles:
   img = Image.open(file)
   img = img.convert("P")
   sources.append(img)
output.save(f"./{filename}.pdf","PDF",save_all=True,append_images=sources)

最终的结果就是生成了咱们的 PDF 文件

上述的操作看起来很多,很麻烦,其实并不是的,因为大部分的操作都是固定的,大家只需要记熟就可以了。

简单的 GUI 制作

GUI 这块,我们整了点新活儿,用 C# 编写 winform 简易的 GUI,调用爬虫的 Py thon 代码

C# 调用 python 项目的方式我简单用 Process 类执行,通过执行 python.exe 执行代码

public static void RunPythonScript(string sArgName, string py, string args = "", params string[] teps)
{
    Process p = new Process();

    //(没放debug下,写绝对路径)
    //string path = @"C:\Users\zll\Desktop\baidu\CSharpCallPython\bin\Debug\" + sArgName;
    // 获得python文件的绝对路径(将文件放在c#的debug文件夹中可以这样操作)
    string path = System.AppDomain.CurrentDomain.SetupInformation.ApplicationBase + sArgName;

    //没有配环境变量的话,可以像我这样写python.exe的绝对路径。如果配了,直接写"python.exe"即可
    //p.StartInfo.FileName = @"C:\Users\zll\AppData\Local\Programs\Python\Python37-32\python.exe";
    p.StartInfo.FileName = @py;
    string sArguments = path;

    foreach (string sigstr in teps)
    {
        sArguments += " " + sigstr;//传递参数
    }

    sArguments += " " + args;

    p.StartInfo.Arguments = sArguments;
    p.StartInfo.UseShellExecute = false;
    p.StartInfo.RedirectStandardOutput = true;
    p.StartInfo.RedirectStandardInput = true;
    p.StartInfo.RedirectStandardError = true;
    p.StartInfo.CreateNoWindow = true;

    p.Start();
    p.BeginOutputReadLine();
    p.OutputDataReceived += new DataReceivedEventHandler(p_OutputDataReceived);
    Console.ReadLine();
    p.WaitForExit();
}

对输入 的内容进行简单判断,如果不是百度文库地址或不是 python.exe 地址,报错

if (!url.Contains("https://wenku.baidu.com/view/"))
{
    MessageBox.Show("请输入正确的百度文库网址!");
    lbl_state.Text = "请重新输入。";
}
else if (!py.Contains("python.exe"))
{
    MessageBox.Show("请输入正确的python.exe路径!");
    lbl_state.Text = "请重新输入。";
}
else
{
    //输入参数列表
    String[] strArr = new String[] { url, istxt };
    string sArguments = @"src\wenku.py";//这里是python的文件名字
    RunPythonScript(sArguments, py, "-u", strArr);
    if(result.Contains("0"))
        lbl_state.Text = "对不起,爬取失败。";
    else if (result.Contains("1"))
        lbl_state.Text = "爬取成功!";
}

因为 GUI 部分比较简单,这里就不过多描述了。

相关推荐

上网行为管理有什么用,行为审计软件解决方案?

上网行为管理有什么用,行为审计软件解决方案?我们生活在互联网的时代,网络是比较复杂的,有时候经常会出现一些网络违规现象,这时候就可以进行上网行为管理了,现在有很多的公司都会进行上网行为管理,因为这样可...

上网行为管理软件如何监控员工访问网址信息

上网行为管理软件可以通过域之盾软件来监控员工访问的网址信息:主要方式↓1、网页日志记录上网行为管理软件可以通过网页日志记录功能,完整地记录员工在工作中访问的所有网站,包括访问时间、访问页面、访问方式等...

企业如何确保上网行为管理顺利进行?

企业的稳定长久发展离不开对员工的上网行为管理,因为员工的上网行为关乎到工作效率、生产效率、以及重要的数据信息安全问题。一旦有不规范的上网行为,便容易造成企业终端数据泄密事件,对企业造成重大的财产损失以...

员工上网行为监控如何实现?六个妙招!帮你轻松管理员工上网!

员工上网行为不仅关乎个人工作效率,更直接影响到企业的信息安全和整体运营。不当的上网行为,如访问非法网站、泄露公司机密、长时间闲聊等,都可能给企业带来不可估量的损失。因此,监控员工上网行为,不仅是为了提...

终端管理系统规范企业上网行为管理

企业内部经常会遇到不同的上网行为管理问题,如职员在上班时间炒股、打游戏、上网聊天等不正当的上网行为,用U盘、硬盘等移动设备随意拷贝资料,终端资产难以管理等,降低办公效率的同时,也增加了企业内部泄密风...

企业如何进行上网行为管理?_如何管理企业网络

企业如何进行上网行为管理?为了保障网络安全,提高员工工作效率,企业有必要部署上网行为管理。上网行为管理可对企业内部员工的上网行为进行全方位有效管理,保护Web访问安全,降低互联网使用风险,避免机密信息...

演员赵露思的官方微博注销的原因是什么?

根据多方权威媒体报道及平台验证,演员赵露思的微博账号已于2025年8月19日正式注销。目前搜索该账号显示“因用户自行申请关闭,现已无法查看”。这一结果源于她8月13日在直播中宣布的注销决定,当时她直言...

分手传闻仅4月,关晓彤的一张海边亲吻照,撕碎了鹿晗最后的体面

“原来八年真能被四个月的‘海边吻照’一键清空。”热搜上那张模糊的侧脸一贴,评论瞬间爆炸:关晓彤亲的是李昀锐,鹿晗的生日祝福还停留在去年。八年,够让一部剧从开播到大结局,也够让一对顶流情侣把微博背景换成...

计算机基础知识(五)(3)_计算机基础知识100道

四、如何使用计算机4、软件的通用使用方法计算机发展到现在,正常使用时均采用窗口式界面。我们的介绍不涉及苹果机。操作系统从DOS(DOS阶段有两类,一类是微软的,称为MS—DOS;另一类称为PC—DOS...

笔记本的这些基础知识,你再不知道,就真的被社会淘汰了!

请您在阅读前点击上面的“关注”二字,后续会为您提供更多有价值的电脑知识,感谢每一位朋友的支持!这篇文章依然是给大家讲讲关于笔记本电脑的基础知识,新手小白可一定要收藏起来,以后想看的时候可以找出来就看,...

电脑基础知识,引起电脑故障的原因

引起电脑出现故障的原因非常多,概括来说主要包括以下几个方面的问题。操作不当:操作不当是指误删除文件或非法关机等不当操作。操作不当通常会造成电脑程序无法运行或电脑无法启动,修复此类故障,只要将删除或损坏...

笔记本电脑新手使用教程,笔记本电脑使用技巧

学电脑能够快速入门是每个新手梦寐以求的事情,但是不是每个人都能快速入门的。但是如果定制好合理计划,循序渐进,就会收到非常好的效果。今天小编来跟大家说说笔记本电脑新手教程的详细介绍-装机吧,大家一起...

电脑基础知识:(二)电脑主机_电脑主机组成图解

你好!我是麦秋~前言现代生活随着互联网通讯的快速发展,通讯技术日趋完美,应用软件日益普及,电脑的使用与维护则成为人们日常生活中密不可分的、重要的生活内容。电脑恐怕是中老年人的短板,然而又是急需解决的问...

电脑基础知识:(六)电脑应用程序_电脑的应用程序是什么意思

你好!我是麦秋~应用软件是专为解决一些具体问题的软件,是体现电脑用途的部分,种类繁多,如:办公软件、游戏软件、杀毒软件等;自媒体平台上的西瓜、头条、抖音、剪映等,对于上述软件主要是操作和使用上的问题,...

键盘操作方法大全_键盘操作教程

【键盘操作方法大全】键盘可不仅仅能帮我们打字哦,还有很多快捷的操作你都知道吗?除了Ctrl+C、Ctrl+V以外,再多学几种吧,让你用起电脑来十指如飞~别再慢慢用鼠标点了,用开始键+Tab键切换程序让...

取消回复欢迎 发表评论: