思路

先从唐诗300首页面获取所有唐诗详情页的链接; 
再从每一首唐诗的详情页提取标题、作者、朝代、内容等信息。

源码

# !/usr/bin/env python# -*- coding:utf-8 -*-import reimport requestsdef crawl(start_url):base_url='http://www.xzslx.net'req_headers={        'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}res=requests.get(start_url,headers=req_headers)    if res.status_code==requests.codes.ok:html=res.text        # 获取所有诗的链接parttern_href=re.compile(r'<span><a href="(.*?)".*?</span>',flags=re.DOTALL)hrefs=re.findall(parttern_href,html)        # 获取每一首诗的内容,并保存到本地with open('唐诗300首.txt',mode='a',encoding='utf-8') as f:            for href in hrefs:href=base_url+hrefres=requests.get(href,headers=req_headers)                if res.status_code == requests.codes.ok:html = res.text                    # 标题parttern_title = re.compile(r'<div class="cont">.*?<h1 .*?>(.*?)</h1>', re.DOTALL)title=re.search(parttern_title,html).group(1)                    # 朝代parttern_dynasty = re.compile(r'<div class="cont">.*?<p class="source"><a href=".*?">(.*?)</a><span>:.*?</p>', re.DOTALL)dynasty=re.search(parttern_dynasty,html).group(1)                    # 诗人parttern_author = re.compile(r'<div class="cont">.*?<p class="source">.*?:</span><a href=".*?">(.*?)</a> </p>', re.DOTALL)author=re.search(parttern_author,html).group(1)                    # 内容parttern_content = re.compile(r'<div class="cont">.*?<div class="contson" id=".*?">(.*?)</div>', re.DOTALL)content=re.search(parttern_content,html).group(1)content=re.sub(r'<br />','\n',content)content=re.sub(r'<p>','',content)content=re.sub(r'</p>','',content)print('正在获取 {title}'.format(title=title))f.write('{title}\n{dynasty}:{author}\n{content}\n'.format(title=title,dynasty=dynasty,author=author,content=content))if __name__ == '__main__':start_url='https://www.xzslx.net/gushi/0/0/0/68/0/0/'crawl(start_url)

运行结果

Screen Shot 2018-08-08 at 12.24.59.png