大专学历,转行两年的 Python 开发者故事

2024-03-07 23:59

本文主要是介绍大专学历,转行两年的 Python 开发者故事,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

我毕业六年了,但与技术和 Python 相关的工作经验也就两年。今天我想跟大家分享自己转行的故事,希望能够鼓励那些跟我一样的朋友共同前行。

我们将会聊到我个人的经历和入行故事,个人的技术成就,我 2019 年上半年和下半年的工作重点,讨论快速学习的方法,最后推荐一些学习资源。

01

个人简介和经历

我叫韦世东,是一名 Python 开发者,同时也正在学习 Rust 语言。我并没有大厂履历,也没有太多的 IT 工作经历。

我喜欢用文章的方式向周边的人分享知识,也热衷于开源项目。在 2018 年以前,我并不是一个专业的研发,工作内容甚至与技术没有太多关联。

我所学的专业是“软件开发”,但大专念书的时候没有好好学习,导致毕业后四处碰壁。毕业后的第一年辗转进入了一个互联网金融企业,在技术部里面担任最小的小弟。随着公司的发展和人数增加,我从小弟变成了小哥,后来成为了连接技术部和公司高层的纽带。

从这个时候起,我离技术越来越远,后来慢慢转到了运营岗,并通过努力从运营小弟变成了运营小哥。2013 年毕业,到 2018 年转技术,中间 5 年时间里我也只有第一年呆在技术岗位,其他几年都与技术无关。

这几年我待过的岗位有:信息安全员、技术组长、运营专员、运营指导、副总经理、运营总监。

互联网金融倒闭和跑路潮爆发,我感到行业岌岌可危,而且我觉得就我这点运营水平也蹦哒不起来(说成一事无成也不为过)。

恰好那段时间我了解到 Python 语言,了解到爬虫对于企业运营和发展的重要性,还有 Python 易学的特点。于是我下班后看 Python 的入门教程,并根据网上文章尝试运行自己编写的代码。

念书的时候,学校教的是 C 语言、C# 和 PHP,但我都没有学会。唯独这一次,我感觉我能够学会 Python

在家看 Python 入门文章、Python3 入门教程文章和爬虫入门视频。跟着教程学习了大概 3 个月,我就尝试自己接一些小需求来做,例如爬取一些公开数据、编写 Python 程序等。那时候一两天才能完成任务,得到的报酬通常是 30~300,有时候甚至靠回答群有的问题领几块钱小红包。

自学阶段,我的 Python 水平已经达到了初级,还学会了很多爬虫相关的技术,例如网页解析、数据存储、定时调度、去重和增量爬取等,对于常见的一些反爬虫措施也略有了解。

从零基础到这个阶段,我大概花了 7 个月。这时候,我觉得我能够胜任一个初级爬虫工程师的工作了,于是便在省会城市的人才网找了一些招爬虫或 Python 研发的公司,投了简历。三天内,接到了 5 个面试,然后也顺利的找到了一份爬虫组长的工作。

工作期间,我们爬虫组的任务就是完成技术负责人分配的数据爬取任务,目标分为网站和 APP 两大类。我们公司是体育行业,所以数据的变动是常有的事,这就要求爬虫组能够高频的爬取数据。

为了省事,我参考 Scrapyd 和 Celery 用 Django 编写了一套支持 Crontab 规则的调度平台,这样我们编写的爬虫就可以集中在这个调度平台上进行管理。

在反爬虫方面,对于那些用 JavaScript 保护数据的网站,我们最开始采取的是 Selenium 或者 Splash 这种自动渲染工具来应对。但后来考虑到高频、时效性和资源占用等问题,便硬着头皮去解目标网站中的 JS 算法,再用 Python 模拟实现同样的算法。

这样,将爬取速度和资源占用都调整到了最优的状态。

我认为我进入了技术领域,就应该踏踏实实的呆在这个领域里,想办法扎根。所以我一直在寻找除了工作和外包以外的副业。我希望这个副业,既能够帮助我技术成长、提高个人水平,又能够帮助我在技术领域扎根。

2018 年是知识付费蓬勃发展的一年,所以我也加入了这个行列。

我写了一个《Python 实战:用 Scrapyd 打造个人化的爬虫部署管理控制台》的电子小册。

我发现在编写小册的过程中,我不得不逼迫自己弄清楚细节,这使我的技术能力得到了进步。于是,我便开启了写文章之路,一方面作为自己的“笔记”,一方面逼迫自己完善细节。其实一开始我有写博客,但没有系统化的写过完整文章,

后来崔庆才崔哥跟我说有优质文章可以在他的公众号上投稿,于是我就将一些文章搬到公众号上。接着崔哥又邀请我做公众号的管理员,可以自由发文。这对我来说简直就是雪中送炭,给了我一个很大的展示平台。

在此,感谢崔哥对我的照顾

这一切看起来都是机缘巧合,但又不乏努力争取和主动出击。就这样,一边工作一边发文,我的技术水平呈直线上升态势。故事太多,我就不一一列举了。

02

个人成就

不提工作上的成果,单说在技术领域的成就。由于得到了崔哥的照顾,在大平台的光芒之下,我也认识了很多朋友,包括技术圈的朋友、媒体圈朋友和一些后来私交甚好的朋友。作为一个刚转行不久的“新人”,我自知难以与高学历、大厂履历或者多年工作经验的朋友相比较。大城市和大厂对于学历的要求近乎苛刻:第一学历 985/211、名校研究生或领域极客。

在学历上,我已经没有办法努力了。我选择的是“曲线行驶”的方式,争取在其他方面能够赶上这些大佬。我在技术领域或媒体圈获得了一些“名头”:

比如在技术领域或媒体圈获得的一些“名头:

  • GitChat 认证作者

  • 图灵教育签约作者

  • 电子工业出版社约稿作者

  • 华为云认证云享专家

这些“名头”看似“虚名”,但对我而言却十分重要。虽然它们并不是什么高级的荣耀,但这都是我努力的成果,是我日日夜夜刻苦学习的证明,是广大读者和媒体朋友对韦世东的认可,是我最宝贵的财富之一。

03

快速学习的方法

对于转行的朋友,或者刚接触 IT 技术的朋友来说,最重要的是两件事:

  • 如何保持专注,能够坚持

  • 找到快速学习的方法


第一件事其实并不难,保持专注并能够坚持的原因通常有二:有经济收入或者极大的兴趣爱好。纵观我的成长经历,其实这也是我坚持下来的原因。学习之初,完全是出于兴趣和转行的压力。在 3 个月的阶段,有一些小小的收入也是支撑我继续前行的主要原因。

第二件事,找到快速学习的方法。我可以说,我的进步速度非常快,而且很稳固。我深深的知道“浮沙之上难驻高台”的道理,所以我在学习的过程中,通过写文章来巩固所学,并且我只专注于一个领域(爬虫)。

Python 可以发展的方向非常多,例如 WEB、爬虫、数据分析和深度学习,我自知想要扎根就必须专注一个领域。我从最初的网络请求、网页解析到数据存储,爬虫部署调度,再到异步、多线程多进程、去重和增量,甚至是反爬虫的研究,都属于爬虫这个领域。

为了保持专注,我改变了我的作息时间,从原来的“早上八九点起床,凌晨一两点睡”改成了“早上六七点起,晚上十一点睡”。周末亦是如此,早睡早起使我有充沛的精力保持工作和学习。

选好某个领域,并保持足够的时间后,能够让人快速进步的因素还有:读源码,造轮子。读源码可以让我们从更高的的角度理解程序的设计,并学到很多平时难以见到的骚操作。而造轮子,则是考验我们将知识转换成代码的能力

我读/研究过源码的项目有:

  • Scrapyd

  • Scrapy

  • Celery

  • Gerapy

  • SpiderKeeper

  • SpiderWeb

  • WebSockets

  • WebsocketClient

  • Parsel

  • apscheduler

  • Job_Spider,Rust 语言编写的定时任务库

自己造过的轮子有:

  • aiowebsocket,Python 编写的异步 WebSocekt 客户端

  • Gerapy 2.0 后端(未发布),使用 Tornado 框架编写的爬虫项目部署调度平台

  • django_cron_scheduler,工作期间编写的爬虫项目部署调度平台

这里有个建议,读源码、查资料的时候我们必定会用到搜索引擎,搜索引擎列出的文章并不一定是准确的。有些文章甚至是缺头缺尾,所以最好是直接翻文档或者找一些知名作者写的文章来学习

04

上半年与下半年

2019 年上半年,我主要的精力就是放在书籍撰写上。这是我与图灵教育签约的一本反爬虫专题的书,书本从网络协议和网页结构等基础开始,通过实际的案例和现象说明其中用到的原理和技术,并将市面上常见的反爬虫手段纳入其中,作为示例。

书中对 JavaScript 代码混淆、加密和验证码破解都有深入的介绍,我希望这本书能够帮助爬虫工程师和爱好者了解反爬虫的手段和原理,同时也能够帮助到前端、后端开发者了解爬虫工程师常用的技巧和原理。这本反爬虫专题的书还没有印刷出版,但相信很快就会跟大家见面了。

上半年我发布了很多内容质量很高的文章

640?wx_fmt=png

下半年,我的主要精力依旧是放在书籍的撰写上。这一本是与电子工业出版社约定的爬虫相关书籍,具体内容这里不便透露,但也会是一本高质量的书,希望大家多关注。

同时,还会兼顾其他技术内容的输出,例如这次与 GitChat 编辑策划的 MongoDB 系列教程。这个教程目前只出了第一期《MongoDB 实战教程:数据库与集合的 CRUD 操作篇》,大体内容如下:

  • NoSQL 的概念

  • 认识 MongoDB

  • 在 Ubuntu 和 macOS 上安装 MongoDB

  • 交互式接口 MongoShell的使用

  • MongoDB 数据类型

  • 数据库和集合的 CRUD 操作


这只是开胃菜,后面发布的内容才是重点:

  • 文档的 CRUD 操作和 Cursor 对象

  • 掌握流式聚合操作

  • 了解 MongoDB 的查询效率和优化

  • 如何提高 MongoDB 的可用性

  • 如何应对数据服务故障

  • 理解 MongoDB 的访问控制

  • 学会用数据模型降低数据冗余,提高效率

  • 掌握 mongodump 数据备份与还原方法

这是写给 0 基础同学的 MongoDB 快速入门文章。内容从文档 CRUD 到流式聚合操作;从执行计划、索引、数据模型到复制集;从分片、访问控制到数据备份与还原。6 篇近 5 万字的内容覆盖了 MongoDB 的大部分知识点,完全满足日常开发的要求

05

学习资源推荐

学习资源是学习质量和速度的保证,因此找到高质量的学习资源对我们来说也是非常重要的。

如果大家感兴趣,可以扫描下方二维码入群获取和交流

640?wx_fmt=png

大家也可以加我微信:zenrusts

我们一起探讨技术知识、共同进步


点击阅读原文,查看我发布过的 Chat 文章。

这篇关于大专学历,转行两年的 Python 开发者故事的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/785276

相关文章

Python脚本实现自动删除C盘临时文件夹

《Python脚本实现自动删除C盘临时文件夹》在日常使用电脑的过程中,临时文件夹往往会积累大量的无用数据,占用宝贵的磁盘空间,下面我们就来看看Python如何通过脚本实现自动删除C盘临时文件夹吧... 目录一、准备工作二、python脚本编写三、脚本解析四、运行脚本五、案例演示六、注意事项七、总结在日常使用

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Python进阶之Excel基本操作介绍

《Python进阶之Excel基本操作介绍》在现实中,很多工作都需要与数据打交道,Excel作为常用的数据处理工具,一直备受人们的青睐,本文主要为大家介绍了一些Python中Excel的基本操作,希望... 目录概述写入使用 xlwt使用 XlsxWriter读取修改概述在现实中,很多工作都需要与数据打交

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

利用Python编写一个简单的聊天机器人

《利用Python编写一个简单的聊天机器人》这篇文章主要为大家详细介绍了如何利用Python编写一个简单的聊天机器人,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 使用 python 编写一个简单的聊天机器人可以从最基础的逻辑开始,然后逐步加入更复杂的功能。这里我们将先实现一个简单的

基于Python开发电脑定时关机工具

《基于Python开发电脑定时关机工具》这篇文章主要为大家详细介绍了如何基于Python开发一个电脑定时关机工具,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. 简介2. 运行效果3. 相关源码1. 简介这个程序就像一个“忠实的管家”,帮你按时关掉电脑,而且全程不需要你多做

Python实现高效地读写大型文件

《Python实现高效地读写大型文件》Python如何读写的是大型文件,有没有什么方法来提高效率呢,这篇文章就来和大家聊聊如何在Python中高效地读写大型文件,需要的可以了解下... 目录一、逐行读取大型文件二、分块读取大型文件三、使用 mmap 模块进行内存映射文件操作(适用于大文件)四、使用 pand

python实现pdf转word和excel的示例代码

《python实现pdf转word和excel的示例代码》本文主要介绍了python实现pdf转word和excel的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价... 目录一、引言二、python编程1,PDF转Word2,PDF转Excel三、前端页面效果展示总结一