开启辅助访问 切换到宽版

精易论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

用微信号发送消息登录论坛

新人指南 邀请好友注册 - 我关注人的新帖 教你赚取精币 - 每日签到


求职/招聘- 论坛接单- 开发者大厅

论坛版规 总版规 - 建议/投诉 - 应聘版主 - 精华帖总集 积分说明 - 禁言标准 - 有奖举报

查看: 15190|回复: 2
收起左侧

[源码分享] Python 网络爬虫,小说下载

[复制链接]
结帖率:100% (13/13)
发表于 2020-4-28 19:16:39 | 显示全部楼层 |阅读模式   江苏省淮安市
第一次写爬虫,代码还是有点小问题,就是写入文件那块,写了一半的时候,出现编码无法转换的问题,有能力的可自行修改,修改好后记得通知我一下哦!

 1from bs4 import BeautifulSoup 2import requests,os,re 3 4 5 6 7#获取小说章节与链接 8if name == "main": 9    server = "https://www.abcxs.com"</span><br><span class="linenum hljs-number" style="font-size: inherit; line-height: inherit; margin: 0px; padding: 0px; color: rgb(174, 135, 250); padding-right: 20px; word-spacing: 0px; word-wrap: inherit !important; word-break: inherit !important;">10    url = "https://www.abcxs.com/book/13417/#main"</span><br><span class="linenum hljs-number" style="font-size: inherit; line-height: inherit; margin: 0px; padding: 0px; color: rgb(174, 135, 250); padding-right: 20px; word-spacing: 0px; word-wrap: inherit !important; word-break: inherit !important;">11    r = requests.get(url)12    html = r.text1314    #获取书名15    title_bf = BeautifulSoup(html)16    title = title_bf.find_all(property = 'og:title')17    print(title)18    #data =  re.search( '?)" property=', title, re.M|re.I)19    searchObj = re.search( '?)" property=', str(title), re.M|re.I)20    if searchObj:21        print ("searchObj.group(1) : ", searchObj.group(1))22        ShuMing = searchObj.group(1)23    else:24        print ("Nothing found!!")2526    #获取小说目录2728    div_bf = BeautifulSoup(html)29    div = div_bf.findall('div',class="listmain")30    #print(div[0])31    a_bf = BeautifulSoup(str(div[0]))32    a = a_bf.find_all('a')33    for each in a:34        print(each.string, server + each.get('href'))3536        #创建文件目录37        path = "J:/python/Python/我的Python学习/爬虫及文件写入/" + ShuMing38        if not os.path.exists(path):39            os.mkdir(path)40        #获取正文内容41        if name == "main":42            r = requests.get(server + each.get('href'))43            html = r.text44            bf = BeautifulSoup(html)45            tetx_content = bf.findall('div', class = 'showtxt')46            print(tetx_content[0].text.replace('\xa0'*8,'\n'))47            #tetx_content = bf.replace(u'\xa0', u' ')4849            #写入文件50            with open(path + "/" + each.string + '.txt''w'as f:51                #f.file.write(tetx_content[0].content.replace(u'\xa0,u'))52                f.write(tetx_content[0].text.replace(u'\xa0'u' '))

结帖率:95% (150/158)

签到天数: 6 天

发表于 2021-8-19 22:38:14 | 显示全部楼层   江西省上饶市
什么鬼阿
回复 支持 反对

使用道具 举报

结帖率:100% (13/13)

签到天数: 2 天

 楼主| 发表于 2020-4-28 19:17:34 | 显示全部楼层   江苏省淮安市

 1from bs4 import BeautifulSoup 2import requests,os,re 3 4 5 6 7#获取小说章节与链接 8if name == "main": 9    server = "https://www.abcxs.com"</span><br><span class="linenum hljs-number" style="font-size: inherit; line-height: inherit; margin: 0px; padding: 0px; color: rgb(174, 135, 250); padding-right: 20px; word-spacing: 0px; word-wrap: inherit !important; word-break: inherit !important;">10    url = "https://www.abcxs.com/book/13417/#main"</span><br><span class="linenum hljs-number" style="font-size: inherit; line-height: inherit; margin: 0px; padding: 0px; color: rgb(174, 135, 250); padding-right: 20px; word-spacing: 0px; word-wrap: inherit !important; word-break: inherit !important;">11    r = requests.get(url)12    html = r.text1314    #获取书名15    title_bf = BeautifulSoup(html)16    title = title_bf.find_all(property = 'og:title')17    print(title)18    #data =  re.search( '?)" property=', title, re.M|re.I)19    searchObj = re.search( '?)" property=', str(title), re.M|re.I)20    if searchObj:21        print ("searchObj.group(1) : ", searchObj.group(1))22        ShuMing = searchObj.group(1)23    else:24        print ("Nothing found!!")2526    #获取小说目录2728    div_bf = BeautifulSoup(html)29    div = div_bf.findall('div',class="listmain")30    #print(div[0])31    a_bf = BeautifulSoup(str(div[0]))32    a = a_bf.find_all('a')33    for each in a:34        print(each.string, server + each.get('href'))3536        #创建文件目录37        path = "J:/python/Python/我的Python学习/爬虫及文件写入/" + ShuMing38        if not os.path.exists(path):39            os.mkdir(path)40        #获取正文内容41        if name == "main":42            r = requests.get(server + each.get('href'))43            html = r.text44            bf = BeautifulSoup(html)45            tetx_content = bf.findall('div', class = 'showtxt')46            print(tetx_content[0].text.replace('\xa0'*8,'\n'))47            #tetx_content = bf.replace(u'\xa0', u' ')4849            #写入文件50            with open(path + "/" + each.string + '.txt''w'as f:51                #f.file.write(tetx_content[0].content.replace(u'\xa0,u'))52                f.write(tetx_content[0].text.replace(u'\xa0'u' '))

回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则 致发广告者

发布主题 收藏帖子 返回列表

sitemap| 易语言源码| 易语言教程| 易语言论坛| 易语言模块| 手机版| 广告投放| 精易论坛
拒绝任何人以任何形式在本论坛发表与中华人民共和国法律相抵触的言论,本站内容均为会员发表,并不代表精易立场!
论坛帖子内容仅用于技术交流学习和研究的目的,严禁用于非法目的,否则造成一切后果自负!如帖子内容侵害到你的权益,请联系我们!
防范网络诈骗,远离网络犯罪 违法和不良信息举报电话0663-3422125,QQ: 793400750,邮箱:wp@125.la
Powered by Discuz! X3.4 揭阳市揭东区精易科技有限公司 ( 粤ICP备12094385号-1) 粤公网安备 44522102000125 增值电信业务经营许可证 粤B2-20192173

快速回复 返回顶部 返回列表