爬虫工作量由小到大的思维转变---<第十一章 Scrapy之sqlalchemy模版和改造(番外)>

本文主要是介绍爬虫工作量由小到大的思维转变---<第十一章 Scrapy之sqlalchemy模版和改造(番外)>,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:

正常的pymysql当然问题不大,但是我个人还是建议:sqlalchemy!  因为他更能让我们把精力放在表单设计上,而不执着于代码本身了.

(-----版权所有。未经作者书面同意,不得转载或用于任何商业用途!----)

正文:

先提供一个基础模版:

表图:
创建表的sql:
CREATE TABLE match_info (id INT PRIMARY KEY,home_team VARCHAR(30), full_score VARCHAR(8),  half_score VARCHAR(8), away_team VARCHAR(30),  match_time DATETIME,   
#比赛时间如 '2023-12-15 14:30:00'包括年、月、日、时、分、秒league VARCHAR(10),   corners VARCHAR(10),   zhuangtai INT,    #状态,1(完成收录) 0(未开始) -1(数据待补)created_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,updated_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP#修改时间
);
代码:
from datetime import datetime
from sqlalchemy import create_engine, Table, Column, Integer, String, MetaData, DateTime
from sqlalchemy.exc import SQLAlchemyError
from sqlalchemy.orm import sessionmakerclass MatchInfoCRUD:# 初始化类并建立数据库连接def __init__(self):self.db_uri = 'mysql+pymysql://user:password@localhost/mydatabase'  #填入自己的信息:user:password@localhost/mydatabaseself.engine = create_engine(self.db_uri)  # 使用数据库URI创建引擎self.metadata = MetaData()  # 元数据对象用于收集表对象# 定义match_info表结构self.match_info = Table('match_info', self.metadata,Column('id', Integer, primary_key=True),  # 主键不自增Column('zhuangtai', Integer),  # 整型状态列Column('league', String(10)),  # 长度为10的字符串类型的联赛列Column('match_time', DateTime),  # 日期时间类型的比赛时间列Column('home_team', String(30)),  # 长度为30的字符串类型的主队列Column('full_score', String(8)),  # 长度为8的字符串类型的全场比分列Column('half_score', String(8)),  # 长度为8的字符串类型的半场比分列Column('away_team', String(30)),  # 长度为30的字符串类型的客队列Column('corners', String(10)),  # 长度为10的字符串类型的角球数列)self.metadata.create_all(self.engine)  # 在数据库中创建表self.Session = sessionmaker(bind=self.engine)  # 创建与数据库会话的会话工厂# 创建新的比赛记录def create_match(self, match_data):session = self.Session()  # 开启新的会话try:# 创建插入对象并插入数据insert_object = self.match_info.insert().values(match_data)session.execute(insert_object)  # 执行插入操作session.commit()  # 提交事务print("数据插入成功。")except SQLAlchemyError as e:  # 捕获并处理SQLAlchemy异常print(f"插入数据时出现问题: {e}")finally:session.close()  # 关闭会话# 读取比赛记录def read_match(self, match_id):session = self.Session()  # 开启新的会话try:query = session.query(self.match_info).filter_by(id=match_id)  # 创建查询对象match = query.first()  # 获取查询结果的第一条记录if match:return match  # 返回那条记录else:return None  # 如果没找到记录,返回Noneexcept SQLAlchemyError as e:print(f"读取数据时出现问题: {e}")finally:session.close()  # 关闭会话# 更新比赛记录def update_match(self, match_id, update_data):session = self.Session()  # 开启新的会话try:query = session.query(self.match_info).filter_by(id=match_id)  # 创建查询对象query.update(update_data)  # 执行更新操作session.commit()  # 提交事务print("数据更新成功。")except SQLAlchemyError as e:print(f"更新数据时出现问题: {e}")finally:session.close()  # 关闭会话# 删除比赛记录def delete_match(self, match_id):session = self.Session()  # 开启新的会话try:query = session.query(self.match_info).filter_by(id=match_id)  # 创建查询对象match = query.first()  # 获取查询结果的第一条记录if match:query.delete()  # 如果找到记录则执行删除操作session.commit()  # 提交事务print("数据删除成功。")else:print("未找到相应比赛。")except SQLAlchemyError as e:print(f"删除数据时出现问题: {e}")finally:session.close()  # 关闭会话# 创建MatchInfoCRUD的一个实例
crud = MatchInfoCRUD()# 创建并插入新的比赛记录
match_data = {'id': 1,'zhuangtai': 1,'league': '联赛数据','match_time': datetime(2023, 12, 15, 14, 30),'home_team': 'Team A','full_score': '2-1','half_score': '1-0','away_team': 'Team B','corners': '5-4',
}
crud.create_match(match_data)# 读取id为1的比赛记录
match_record = crud.read_match(1)
if match_record:print(f"读取到比赛记录: {match_record}")
else:print("没有找到对应的比赛记录。")
说明:

这里是4个基本属性,增删改查!!!  直接调用就好了...

潜在改进点,往下看


优化方案:

  • 1. 异常处理:
    •    - 可以更精细地管理异常。目前代码中出现任何错误都执行同样的处理,实际应用中可能需要对不同的异常类型进行不同的处理。
  • 2. 封装会话管理:
    •    - 代码中反复出现创建和关闭会话的模式,这可以通过上下文管理器或装饰器来优化,减少代码重复并自动管理资源。
  • 3. 返回信息:
    •    - `create_match` 方法和其他修改操作只是简单地打印了结果,现实场景中可能需要将操作结果(如新创建的对象)返回给调用者。
  • 4. 优化查询:
    •    - 在 `delete_match` 方法中,无需先查询再删除。可以直接使用 `.delete()`,如果有必要确保记录存在,可以在删除后检查 `result.rowcount`。
  • 5. 输入检验:
    •    - 创建和更新数据前进行输入有效性检查,防止无效或恶意数据被写入数据库。
  • 6. 代码组织:
    •    - 根据 Python 的约定,长的导入语句可以分行。
    •    - ORM 映射通常使用更高级的 `declarative_base` 系统进行,这有助于简化模型定义。
  • 7. SQLAlchemy ORM 的使用:
    •    - 目前代码使用了 `Table` 对象和底层的 `insert` 方法。可以让SQLAlchemy ORM 的能力进行映射,并且允许使用会话直接操作对象模型!
案例:
from datetime import datetime
from sqlalchemy import create_engine, Column, Integer, String, DateTime
from sqlalchemy.ext.declarative import declarative_base
from sqlalchemy.exc import SQLAlchemyError
from sqlalchemy.orm import sessionmaker, scoped_session# 定义基类
Base = declarative_base()# 定义 MatchInfo ORM 模型
class MatchInfo(Base):__tablename__ = 'match_info'id = Column(Integer, primary_key=True)home_team = Column(String(30))full_score = Column(String(8))half_score = Column(String(8))away_team = Column(String(30))match_time = Column(DateTime)league = Column(String(10))corners = Column(String(10))zhuangtai = Column(Integer)created_time = Column(DateTime, default=datetime.now)updated_time = Column(DateTime, default=datetime.now, onupdate=datetime.now)# MatchInfoCRUD 类使用 ORM 模型和会话管理
class MatchInfoCRUD:def __init__(self):self.db_uri = 'mysql+pymysql://user:password@localhost/mydatabase'self.engine = create_engine(self.db_uri)Base.metadata.create_all(self.engine)self.Session = scoped_session(sessionmaker(bind=self.engine))def create_match(self, match_data):"""创建新的比赛记录"""try:match = MatchInfo(**match_data)self.Session.add(match)self.Session.commit()print("数据插入成功。")except SQLAlchemyError as e:self.Session.rollback()print(f"插入数据时出现问题: {e}")finally:self.Session.remove()def read_match(self, match_id):"""读取比赛记录"""try:match = self.Session.query(MatchInfo).get(match_id)return matchexcept SQLAlchemyError as e:print(f"读取数据时出现问题: {e}")finally:self.Session.remove()def update_match(self, match_id, update_data):"""更新比赛记录"""try:match = self.Session.query(MatchInfo).get(match_id)for key, value in update_data.items():setattr(match, key, value)self.Session.commit()print("数据更新成功。")except SQLAlchemyError as e:self.Session.rollback()print(f"更新数据时出现问题: {e}")finally:self.Session.remove()def delete_match(self, match_id):"""删除比赛记录"""try:match = self.Session.query(MatchInfo).get(match_id)if match:self.Session.delete(match)self.Session.commit()print("数据删除成功。")else:print("未找到相应比赛记录。")except SQLAlchemyError as e:self.Session.rollback()print(f"删除数据时出现问题: {e}")finally:self.Session.remove()
  1. 使用 declarative_base 来创建 ORM 基础类并定义表结构;
  2. 采用了 scoped_session 以自动管理会话的生命周期,避免手动关闭会话;
  3. 更新 delete_match 方法,现在它会首先尝试获取记录,如果找到则删除,这样还是需要先查询再删除,但这确保了操作的准确性;
  4. 删掉了直接操作 Table 对象,改为使用 ORM 映射的类和实例来管理数据。

接下来对提供的MatchInfoCRUD类进行几个关键方面的优化,包括封装会话管理、优化查询处理,以及使用 SQLAlchemy ORM 更优雅地定义和交互数据库模型。这里需要使用 SQLAlchemy 的声明式基类declarative_base来简化模型定义,以及使用上下文管理器来自动化会话的生命周期管理。

from datetime import datetime
from sqlalchemy import create_engine, Column, Integer, String, DateTime
from sqlalchemy.ext.declarative import declarative_base
from sqlalchemy.exc import SQLAlchemyError
from sqlalchemy.orm import sessionmaker, scoped_session# 使用declarative_base创建ORM模型的基类
Base = declarative_base()# 定义MatchInfo ORM模型
class MatchInfo(Base):__tablename__ = 'match_info'id = Column(Integer, primary_key=True)zhuangtai = Column(Integer)league = Column(String(10))match_time = Column(DateTime)home_team = Column(String(30))full_score = Column(String(8))half_score = Column(String(8))away_team = Column(String(30))corners = Column(String(10))created_time = Column(DateTime)updated_time = Column(DateTime)# 自定义上下文管理器,管理数据库会话的生命周期
class DBSessionManager:def __init__(self, db_uri):self.engine = create_engine(db_uri)self.Session = scoped_session(sessionmaker(bind=self.engine, autocommit=False, autoflush=False))def __enter__(self):self.session = self.Session()return selfdef __exit__(self, exc_type, exc_val, exc_tb):self.session.close()class MatchInfoCRUD:# 初始化类并建立数据库连接def __init__(self, db_uri):self.db_manager = DBSessionManager(db_uri)Base.metadata.create_all(self.db_manager.engine)# 创建新的比赛记录def create_match(self, match_data):with self.db_manager as db:try:match = MatchInfo(**match_data)db.session.add(match)db.session.commit()print("数据插入成功。")except SQLAlchemyError as e:db.session.rollback()print(f"插入数据时出现了问题: {e}")# 查询等其他方法同理可以通过db_manager动态管理会话# 使用新的CRUD接口进行操作
db_uri = 'mysql+pymysql://user:password@localhost/mydatabase'  # 请填入数据库URI
crud = MatchInfoCRUD(db_uri)match_data = {'id': 1,'zhuangtai': 1,'league': '联赛数据','match_time': datetime(2023, 12, 15, 14, 30),'home_team': 'Team A','full_score': '2-1','half_score': '1-0','away_team': 'Team B','corners': '5-4','created_time': datetime.now(),'updated_time': datetime.now(),
}crud.create_match(match_data)# 后续其他增删改查操作可以类似地实现
  1. 封装会话管理:通过DBSessionManager上下文管理器类来管理会话的开启和关闭,使得对于每个数据库会话,无需重复编写打开和关闭的代码。
  2. 优化查询:利用ORM的能力来直接添加、查询和更新数据,没有使用底层的表和查询语句。
  3. SQLAlchemy ORM 的使用:使用了declarative_base来定义SQLAlchemy ORM模型,从而提供ORM的完全功能,并写了一个ORM类MatchInfo来映射match_info表。

总结:

    一个强大的 Python SQL 工具包和 ORM(对象关系映射器),来改善数据库操作的效率和代码的整洁性。首先定义了一个 ORM 模型来映射数据库表,然后构建了一个管理数据库会话生命周期的上下文管理器。在实际的 CRUD(创建、读取、更新、删除)操作中,直接对 ORM 对象进行操作,而不是执行原始 SQL 语句。这样使得代码更加简洁、容易理解和维护,也更加面向对象。通过这种方式,我们将耗时的数据库管理工作交给 SQLAlchemy,自己就能专注于业务逻辑和数据的设计上了。简而言之,就是让代码更加简洁、高效,同时也降低了出错的几率。

(-----版权所有。未经作者书面同意,不得转载或用于任何商业用途!----)

这篇关于爬虫工作量由小到大的思维转变---<第十一章 Scrapy之sqlalchemy模版和改造(番外)>的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/503871

相关文章

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

模版方法模式template method

学习笔记,原文链接 https://refactoringguru.cn/design-patterns/template-method 超类中定义了一个算法的框架, 允许子类在不修改结构的情况下重写算法的特定步骤。 上层接口有默认实现的方法和子类需要自己实现的方法

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

Golang 网络爬虫框架gocolly/colly(五)

gcocolly+goquery可以非常好地抓取HTML页面中的数据,但碰到页面是由Javascript动态生成时,用goquery就显得捉襟见肘了。解决方法有很多种: 一,最笨拙但有效的方法是字符串处理,go语言string底层对应字节数组,复制任何长度的字符串的开销都很低廉,搜索性能比较高; 二,利用正则表达式,要提取的数据往往有明显的特征,所以正则表达式写起来比较简单,不必非常严谨; 三,使

Golang网络爬虫框架gocolly/colly(四)

爬虫靠演技,表演得越像浏览器,抓取数据越容易,这是我多年爬虫经验的感悟。回顾下个人的爬虫经历,共分三个阶段:第一阶段,09年左右开始接触爬虫,那时由于项目需要,要访问各大国际社交网站,Facebook,myspace,filcker,youtube等等,国际上叫得上名字的社交网站都爬过,大部分网站提供restful api,有些功能没有api,就只能用http抓包工具分析协议,自己爬;国内的优酷、

Golang网络爬虫框架gocolly/colly(三)

熟悉了《Golang 网络爬虫框架gocolly/colly 一》和《Golang 网络爬虫框架gocolly/colly 二》之后就可以在网络上爬取大部分数据了。本文接下来将爬取中证指数有限公司提供的行业市盈率。(http://www.csindex.com.cn/zh-CN/downloads/industry-price-earnings-ratio) 定义数据结构体: type Zhj

014.Python爬虫系列_解析练习

我 的 个 人 主 页:👉👉 失心疯的个人主页 👈👈 入 门 教 程 推 荐 :👉👉 Python零基础入门教程合集 👈👈 虚 拟 环 境 搭 建 :👉👉 Python项目虚拟环境(超详细讲解) 👈👈 PyQt5 系 列 教 程:👉👉 Python GUI(PyQt5)文章合集 👈👈 Oracle数据库教程:👉👉 Oracle数据库文章合集 👈👈 优

urllib与requests爬虫简介

urllib与requests爬虫简介 – 潘登同学的爬虫笔记 文章目录 urllib与requests爬虫简介 -- 潘登同学的爬虫笔记第一个爬虫程序 urllib的基本使用Request对象的使用urllib发送get请求实战-喜马拉雅网站 urllib发送post请求 动态页面获取数据请求 SSL证书验证伪装自己的爬虫-请求头 urllib的底层原理伪装自己的爬虫-设置代理爬虫coo

颠覆你的开发模式:敏捷思维带来的无限可能

敏捷软件开发作为现代软件工程的重要方法论,强调快速响应变化和持续交付价值。通过灵活的开发模式和高效的团队协作,敏捷方法在应对动态变化和不确定性方面表现出色。本文将结合学习和分析,探讨系统变化对敏捷开发的影响、业务与技术的对齐以及敏捷方法如何在产品开发过程中处理持续变化和迭代。 系统变化对敏捷软件开发的影响 在敏捷软件开发中,系统变化的管理至关重要。系统变化可以是需求的改变、技术的升级、

Python 爬虫入门 - 基础数据采集

Python网络爬虫是一种强大且灵活的工具,用于从互联网上自动化地获取和处理数据。无论你是数据科学家、市场分析师,还是一个想要深入了解互联网数据的开发者,掌握网络爬虫技术都将为你打开一扇通向丰富数据资源的大门。 在本教程中,我们将从基本概念入手,逐步深入了解如何构建和优化网络爬虫,涵盖从发送请求、解析网页结构到保存数据的全过程,并讨论如何应对常见的反爬虫机制。通过本教程,你将能够构建有效的网络爬