Python工具箱系列(五十一)

2024-03-29 22:36

本文主要是介绍Python工具箱系列(五十一),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

九宫格与词云

对图片进行九宫格切割,并且放到微信朋友圈曾经风靡一时。对于python来说,这个也非常简单。

from PIL import Image
import mathdef ninerectanglegrid(inputfilename):"""实现九宫格切割Args:inputfilename (string): 输入文件名称"""cols = 3rows = 3# 原图im = Image.open(inputfilename)# 计算缩放比例width, height = im.size# 选取原图片长、宽中较大值作为新图片的九宫格半径new_image_length = width if width > height else height# 产生一张白底新图,并且是正方形new_image = Image.new(im.mode, (new_image_length, new_image_length), color='white')# 将原图粘贴在新图上,位置为居中if width > height:new_image.paste(im, (0, int((new_image_length - height) / 2)))else:new_image.paste(im, (int((new_image_length - width) / 2), 0))targetwidth = math.ceil(new_image_length/cols)targetheight = math.ceil(new_image_length/rows)# cutfor row in range(rows):for col in range(cols):box = (targetwidth*col,targetheight*row,targetwidth*(col+1),targetheight*(row+1))out = new_image.crop(box)out.save(f'{row*cols+col}.png')ninerectanglegrid(r'd:\test\girl.png')

运行后会将源图片直接切割成为9个图片文件。将它们上传到微信后,就可以组成九宫格图片了,其效果如下图所示。

从效果图中可以看出,如果切割点在头部附近会有一些失真的感觉。所以九宫格这种形式还是适合于二次元图片。

词云

在数据可视化方面,词云一直是一种视觉冲击力很强的方式。对输入的一段文字进行语义分割,得到不同频度的词汇,然后以正比于词频的字体大小无规则的集中显示高频词,简洁直观高效。如果仅仅是偶然一用,使用在线的词云生成工具即可。网上搜索词云在线生成工具,会得到很多结果,包括国内外的网站平台都有。对比了搜索较为靠前的几款在线工具,但或多或少都存在一些使用上瑕疵,有的是网页加载慢,有的是要注册后方可使用,有的是字体支持较差,还有的是要付费使用。尤其是各类注册,更是让人担心个人信息安全的问题。所以,坐而论道,不如起而行之,自己制作词云。主要工具有以下:

•wordcloud

•PyEcharts

•stylecloud

以下代码演示了词云生成。

import osimport jieba
import numpy as np
from PIL import Image
from wordcloud import WordCloud# 写入用户定义的词,主要是人名/地名等专用的词
userdict_list = ['洛迦诺','莱茵兰','苏台德','特申','卢西尼亚']def jieba_processing_txt(text,stopwordsfilename):"""使用jieba进行更好的分词Args:text (string): 要处理的文本Returns:string: 分好的词"""for word in userdict_list:jieba.add_word(word)mywordlist = []seg_list = jieba.cut(text, cut_all=False)liststr = "/ ".join(seg_list)with open(stopwords_path, encoding='utf-8') as f_stop:f_stop_text = f_stop.read()f_stop_seg_list = f_stop_text.splitlines()for myword in liststr.split('/'):if not (myword.strip() in f_stop_seg_list) and len(myword.strip()) > 1:mywordlist.append(myword)return ' '.join(mywordlist)def create_wordcloud(inputfilelist=None,backimg=None,fontname=None,stopwordsfilename=None):"""生成词云Args:inputfile (string, optional): 要处理的文档backimg (string, optional): 背景图fontname (string, optional): 字体文件stopwordsfilename (string, optional): 停词表outputfilename (string, optional): 要输出的词云图片"""for index,inputfile in enumerate(inputfilelist):text = open(inputfile,encoding='utf-8').read()keywords = jieba_processing_txt(text,stopwordsfilename)shape_mask = np.array(Image.open(backimg))wc = WordCloud(background_color="white",max_words=2000,font_path=fontname,  # 设置字体格式,如不设置显示不了中文mask=shape_mask)wc.generate(keywords)wc.to_file(f'd:\\test\\wordcloud-{index}.png')startdir = r'd:\test'back_image = f'{startdir}\\black.jpg'
textfilename1 = f'{startdir}\\alice.txt'
textfilename2 = f'{startdir}\\历史的抉择.txt'
cn_font = f'{startdir}\\SourceHanSerifK-Light.otf'
stopwords_path = f'{startdir}\\stopwords_cn_en.txt'inputlist = [textfilename1,textfilename2]
create_wordcloud(inputlist,back_image,cn_font,stopwords_path)

词云的效果如下图所示。

其中:

•black.jpg提供背景,随意替换

•alice.txt是英文小说,随意替换

•历史的抉择.txt是一个中文的政论文,随意替换

•SourceHanSerifK-Light.otf是一个中文字体文件,可以随意替换为自己喜欢的字体文件

•stopwords_cn_en.txt是一个包含了中英文的停词表,用于分词,在网上可以查到​​​​

这篇关于Python工具箱系列(五十一)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/859819

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

flume系列之:查看flume系统日志、查看统计flume日志类型、查看flume日志

遍历指定目录下多个文件查找指定内容 服务器系统日志会记录flume相关日志 cat /var/log/messages |grep -i oom 查找系统日志中关于flume的指定日志 import osdef search_string_in_files(directory, search_string):count = 0