2018“达观杯” TF-IDF实践

2023-10-12 22:48
文章标签 实践 tf 2018 idf 达观

本文主要是介绍2018“达观杯” TF-IDF实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

TF-IDF(term frequency–inverse document frequency)

TF-IDF是一种用于资讯检索与资讯探勘的常用加权技术。TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随著它在文件中出现的次数成正比增加,但同时会随著它在语料库中出现的频率成反比下降。TF-IDF加权的各种形式常被搜寻引擎应用,作为文件与用户查询之间相关程度的度量或评级。除了TF-IDF以外,因特网上的搜寻引擎还会使用基于连结分析的评级方法,以确定文件在搜寻结果中出现的顺序。

在文本挖掘中,要对文本库分词,而分词后需要对个每个分词计算它的权重,而这个权重可以使用TF-IDF计算。

TF(term frequency)

TF就是分词出现的频率:该分词在该文档中出现的频率,算法是:(该分词在该文档出现的次数)/ (该文档分词的总数),这个值越大表示这个词越重要,即权重就越大。

例如:一篇文档分词后,总共有500个分词,而分词”Hello”出现的次数是20次,则TF值是: tf =20/500=2/50=0.04

IDF(inversedocument frequency)

IDF逆向文件频率,一个文档库中,一个分词出现在的文档数越少越能和其它文档区别开来。算法是:log((总文档数/出现该分词的文档数)+0.01) ;(注加上0.01是为了防止log计算返回值为0)。

例如:一个文档库中总共有50篇文档,2篇文档中出现过“Hello”分词,则idf是: Idf = log(50/2 + 0.01) = log(25.01)=1.39811369 TF-IDF结合计算就是 tfidf,比如上面的“Hello”分词例子中: TF-IDF = tf idf = (20/500)* log(50/2 + 0.01)= 0.04*1.39811369=0.0559245476


sklearn-API

Examples:

from sklearn.feature_extraction.text import TfidfVectorizer
corpus = ['This is the first document.','This document is the second document.','And this is the third one.','Is this the first document?',
]
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(corpus)
print(vectorizer.get_feature_names())
print(X.shape)
print(X)
OUTPUT:
['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']
(4, 9)(0, 8)	0.38408524091481483(0, 3)	0.38408524091481483(0, 6)	0.38408524091481483(0, 2)	0.5802858236844359(0, 1)	0.46979138557992045(1, 8)	0.281088674033753(1, 3)	0.281088674033753(1, 6)	0.281088674033753(1, 1)	0.6876235979836938(1, 5)	0.5386476208856763(2, 8)	0.267103787642168(2, 3)	0.267103787642168(2, 6)	0.267103787642168(2, 0)	0.511848512707169(2, 7)	0.511848512707169(2, 4)	0.511848512707169(3, 8)	0.38408524091481483(3, 3)	0.38408524091481483(3, 6)	0.38408524091481483(3, 2)	0.5802858236844359(3, 1)	0.46979138557992045

Task2.1

代码示例:将属性 “article” 转化为 tf-idf 特征矩阵,调用的sklearn接口,我只读取了训练集前500条数据进行尝试以高效地进行代码测试。

train_data = pd.read_csv('../dataSet/train_set.csv', encoding='utf-8', nrows=500, usecols=[1])
train_data['article_list'] = train_data['article'].map(lambda index: index.split(' '))
train_data['length'] = train_data['article_list'].map(lambda index: len(index))
print(train_data['length'].max())# calc length of set[all words]
temp = set([])
train_data['max_name'] = train_data['article_list'].map(lambda index: set(index))
for i in range(len(train_data)):temp = temp | train_data.loc[i, 'max_name']
print(len(temp))vectorizer = TfidfVectorizer(encoding='utf-8', )
result = vectorizer.fit_transform(train_data['article'])
print(type(result))    # <class 'scipy.sparse.csr.csr_matrix'>
result = result.A      # convert csr_matrix to ndarray matrix
print(result.shape)
print(result)          # features matrix

样例输出:

8453
4484
<class 'scipy.sparse.csr.csr_matrix'>
(500, 4484)
[[0.         0.         0.         ... 0.         0.         0.        ][0.00819422 0.         0.         ... 0.         0.         0.        ][0.00591508 0.         0.         ... 0.         0.         0.        ]...[0.01155529 0.         0.         ... 0.         0.         0.        ][0.03134187 0.         0.         ... 0.         0.         0.0174317 ][0.         0.         0.         ... 0.         0.         0.        ]]

结果分析:

  1. article属性中包含相同的字,即有重复数字。
  2. TfidfVectorizer.fit_transform 输出类型为 ‘scipy.sparse.csr.csr_matrix’
  3. 可通过 ‘.A’ 将 ‘scipy.sparse.csr.csr_matrix’ 转化为 ‘ndarray’ 类型
  4. 最后地输出即为每个样本的 tf-idf 特征值

这篇关于2018“达观杯” TF-IDF实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/198965

相关文章

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

BUUCTF靶场[web][极客大挑战 2019]Http、[HCTF 2018]admin

目录   [web][极客大挑战 2019]Http 考点:Referer协议、UA协议、X-Forwarded-For协议 [web][HCTF 2018]admin 考点:弱密码字典爆破 四种方法:   [web][极客大挑战 2019]Http 考点:Referer协议、UA协议、X-Forwarded-For协议 访问环境 老规矩,我们先查看源代码

Prometheus与Grafana在DevOps中的应用与最佳实践

Prometheus 与 Grafana 在 DevOps 中的应用与最佳实践 随着 DevOps 文化和实践的普及,监控和可视化工具已成为 DevOps 工具链中不可或缺的部分。Prometheus 和 Grafana 是其中最受欢迎的开源监控解决方案之一,它们的结合能够为系统和应用程序提供全面的监控、告警和可视化展示。本篇文章将详细探讨 Prometheus 和 Grafana 在 DevO

springboot整合swagger2之最佳实践

来源:https://blog.lqdev.cn/2018/07/21/springboot/chapter-ten/ Swagger是一款RESTful接口的文档在线自动生成、功能测试功能框架。 一个规范和完整的框架,用于生成、描述、调用和可视化RESTful风格的Web服务,加上swagger-ui,可以有很好的呈现。 SpringBoot集成 pom <!--swagge

vue2实践:el-table实现由用户自己控制行数的动态表格

需求 项目中需要提供一个动态表单,如图: 当我点击添加时,便添加一行;点击右边的删除时,便删除这一行。 至少要有一行数据,但是没有上限。 思路 这种每一行的数据固定,但是不定行数的,很容易想到使用el-table来实现,它可以循环读取:data所绑定的数组,来生成行数据,不同的是: 1、table里面的每一个cell,需要放置一个input来支持用户编辑。 2、最后一列放置两个b

【HarmonyOS】-TaskPool和Worker的对比实践

ArkTS提供了TaskPool与Worker两种多线程并发方案,下面我们将从其工作原理、使用效果对比两种方案的差异,进而选择适用于ArkTS图片编辑场景的并发方案。 TaskPool与Worker工作原理 TaskPool与Worker两种多线程并发能力均是基于 Actor并发模型实现的。Worker主、子线程通过收发消息进行通信;TaskPool基于Worker做了更多场景化的功能封装,例

vue2实践:第一个非正规的自定义组件-动态表单对话框

前言 vue一个很重要的概念就是组件,作为一个没有经历过前几代前端开发的我来说,不太能理解它所带来的“进步”,但是,将它与后端c++、java类比,我感觉,组件就像是这些语言中的类和对象的概念,通过封装好的组件(类),可以通过挂载的方式,非常方便的调用其提供的功能,而不必重新写一遍实现逻辑。 我们常用的element UI就是由饿了么所提供的组件库,但是在项目开发中,我们可能还需要额外地定义一

《C++中的移动构造函数与移动赋值运算符:解锁高效编程的最佳实践》

在 C++的编程世界中,移动构造函数和移动赋值运算符是提升程序性能和效率的重要工具。理解并正确运用它们,可以让我们的代码更加高效、简洁和优雅。 一、引言 随着现代软件系统的日益复杂和对性能要求的不断提高,C++程序员需要不断探索新的技术和方法来优化代码。移动构造函数和移动赋值运算符的出现,为解决资源管理和性能优化问题提供了有力的手段。它们允许我们在不进行不必要的复制操作的情况下,高效地转移资源

2018秋招C/C++面试题总结

博主从8月中旬开始大大小小面试了十几家公司,至今也许是告一段落吧,希望后面会有好结果,因此总结记录一些C/C++方向常见的问题。和大家一起学习! 参考了互联网的各种资源,自己尝试归类整理,谢谢~ 一、C和C++的区别是什么? C是面向过程的语言,C++是在C语言的基础上开发的一种面向对象编程语言,应用广泛。 C中函数不能进行重载,C++函数可以重载 C++在C的基础上增添类,C是一个结构