python实现fasttext

2023-12-01 14:28
文章标签 python 实现 fasttext

本文主要是介绍python实现fasttext,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、用开源库

import fasttext# 准备训练数据
# 数据应该是一个文本文件,其中每一行表示一个样本,每行以一个标签开头,然后是文本内容。
# 标签的格式为:__label__<your-label>,例如:__label__positive I love this movie!train_data = 'path/to/your/training/data.txt'# 训练模型
model = fasttext.train_supervised(train_data)# 保存模型
model.save_model('fasttext_model.bin')# 加载模型
model = fasttext.load_model('fasttext_model.bin')# 使用模型进行预测
text = 'This is an example sentence.'
prediction = model.predict(text)print(f'Text: {text}')
print(f'Prediction: {prediction}')# 计算模型在测试数据上的精度
test_data = 'path/to/your/test/data.txt'
result = model.test(test_data)print(f'Precision: {result[1]}')
print(f'Recall: {result[2]}')

2、用TensorFlow

import tensorflow as tf
import numpy as np
import re
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_reportdef tokenize(text):return re.findall(r'\w+', text.lower())def preprocess_data(data):sentences = []labels = []for line in data:label, text = line.split(' ', 1)sentences.append(tokenize(text))labels.append(label)return sentences, labelsdef build_vocab(sentences, min_count=5):word_counts = defaultdict(int)for sentence in sentences:for word in sentence:word_counts[word] += 1vocab = {word: idx for idx, (word, count) in enumerate(word_counts.items()) if count >= min_count}return vocabdef sentence_to_vector(sentence, vocab):vector = np.zeros(len(vocab))for word in sentence:if word in vocab:vector[vocab[word]] += 1return vector# 示例数据
data = ["__label__positive I love this movie!","__label__negative This movie is terrible!","__label__positive This is a great film.","__label__negative I didn't enjoy the movie."
]sentences, labels = preprocess_data(data)
vocab = build_vocab(sentences)
label_encoder = LabelEncoder().fit(labels)X = np.array([sentence_to_vector(sentence, vocab) for sentence in sentences])
y = label_encoder.transform(labels)# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建模型
model = tf.keras.Sequential([tf.keras.layers.Dense(len(set(labels)), input_shape=(len(vocab),), activation='softmax')
])# 编译模型
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])# 训练模型
model.fit(X_train, y_train, epochs=10, validation_data=(X_test, y_test))# 预测
test_sentence = "This is an amazing movie!"
prediction = model.predict(np.array([sentence_to_vector(tokenize(test_sentence), vocab)]))
predicted_label = label_encoder.inverse_transform([np.argmax(prediction)])
print(f'Text: {test_sentence}')
print(f'Prediction: {predicted_label}')# 评估
y_pred = model.predict(X_test)
y_pred = label_encoder.inverse_transform(np.argmax(y_pred, axis=1))
y_true = label_encoder.inverse_transform(y_test)
print(classification_report(y_true, y_pred))

3、用python实现

import numpy as np
import re
from collections import defaultdict
from sklearn.preprocessing import normalize
from sklearn.metrics import classification_reportdef tokenize(text):return re.findall(r'\w+', text.lower())def preprocess_data(data):sentences = []labels = []for line in data:label, text = line.split(' ', 1)sentences.append(tokenize(text))labels.append(label)return sentences, labelsdef build_vocab(sentences, min_count=5):word_counts = defaultdict(int)for sentence in sentences:for word in sentence:word_counts[word] += 1vocab = {word: idx for idx, (word, count) in enumerate(word_counts.items()) if count >= min_count}return vocabdef build_label_index(labels):label_index = {}for label in labels:if label not in label_index:label_index[label] = len(label_index)return label_indexdef sentence_to_vector(sentence, vocab):vector = np.zeros(len(vocab))for word in sentence:if word in vocab:vector[vocab[word]] += 1return vectordef train_fasttext(sentences, labels, vocab, label_index, lr=0.01, epochs=10):W = np.random.randn(len(label_index), len(vocab))for epoch in range(epochs):for sentence, label in zip(sentences, labels):vector = sentence_to_vector(sentence, vocab)scores = W.dot(vector)probs = np.exp(scores) / np.sum(np.exp(scores))target = np.zeros(len(label_index))target[label_index[label]] = 1W -= lr * np.outer(probs - target, vector)return Wdef predict_fasttext(sentence, W, vocab, label_index):vector = sentence_to_vector(sentence, vocab)scores = W.dot(vector)probs = np.exp(scores) / np.sum(np.exp(scores))max_index = np.argmax(probs)return list(label_index.keys())[list(label_index.values()).index(max_index)]# 示例数据
data = ["__label__positive I love this movie!","__label__negative This movie is terrible!","__label__positive This is a great film.","__label__negative I didn't enjoy the movie."
]sentences, labels = preprocess_data(data)
vocab = build_vocab(sentences)
label_index = build_label_index(labels)# 训练模型
W = train_fasttext(sentences, labels, vocab, label_index)# 预测
test_sentence = "This is an amazing movie!"
prediction = predict_fasttext(tokenize(test_sentence), W, vocab, label_index)
print(f'Text: {test_sentence}')
print(f'Prediction: {prediction}')# 评估
y_true = labels
y_pred = [predict_fasttext(sentence, W, vocab, label_index) for sentence in sentences]
print(classification_report(y_true, y_pred))

这篇关于python实现fasttext的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/441514

相关文章

Springboot处理跨域的实现方式(附Demo)

《Springboot处理跨域的实现方式(附Demo)》:本文主要介绍Springboot处理跨域的实现方式(附Demo),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录Springboot处理跨域的方式1. 基本知识2. @CrossOrigin3. 全局跨域设置4.

Spring Boot 3.4.3 基于 Spring WebFlux 实现 SSE 功能(代码示例)

《SpringBoot3.4.3基于SpringWebFlux实现SSE功能(代码示例)》SpringBoot3.4.3结合SpringWebFlux实现SSE功能,为实时数据推送提供... 目录1. SSE 简介1.1 什么是 SSE?1.2 SSE 的优点1.3 适用场景2. Spring WebFlu

基于SpringBoot实现文件秒传功能

《基于SpringBoot实现文件秒传功能》在开发Web应用时,文件上传是一个常见需求,然而,当用户需要上传大文件或相同文件多次时,会造成带宽浪费和服务器存储冗余,此时可以使用文件秒传技术通过识别重复... 目录前言文件秒传原理代码实现1. 创建项目基础结构2. 创建上传存储代码3. 创建Result类4.

SpringBoot日志配置SLF4J和Logback的方法实现

《SpringBoot日志配置SLF4J和Logback的方法实现》日志记录是不可或缺的一部分,本文主要介绍了SpringBoot日志配置SLF4J和Logback的方法实现,文中通过示例代码介绍的非... 目录一、前言二、案例一:初识日志三、案例二:使用Lombok输出日志四、案例三:配置Logback一

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专

Python中随机休眠技术原理与应用详解

《Python中随机休眠技术原理与应用详解》在编程中,让程序暂停执行特定时间是常见需求,当需要引入不确定性时,随机休眠就成为关键技巧,下面我们就来看看Python中随机休眠技术的具体实现与应用吧... 目录引言一、实现原理与基础方法1.1 核心函数解析1.2 基础实现模板1.3 整数版实现二、典型应用场景2

Python实现无痛修改第三方库源码的方法详解

《Python实现无痛修改第三方库源码的方法详解》很多时候,我们下载的第三方库是不会有需求不满足的情况,但也有极少的情况,第三方库没有兼顾到需求,本文将介绍几个修改源码的操作,大家可以根据需求进行选择... 目录需求不符合模拟示例 1. 修改源文件2. 继承修改3. 猴子补丁4. 追踪局部变量需求不符合很

idea中创建新类时自动添加注释的实现

《idea中创建新类时自动添加注释的实现》在每次使用idea创建一个新类时,过了一段时间发现看不懂这个类是用来干嘛的,为了解决这个问题,我们可以设置在创建一个新类时自动添加注释,帮助我们理解这个类的用... 目录前言:详细操作:步骤一:点击上方的 文件(File),点击&nbmyHIgsp;设置(Setti

SpringBoot实现MD5加盐算法的示例代码

《SpringBoot实现MD5加盐算法的示例代码》加盐算法是一种用于增强密码安全性的技术,本文主要介绍了SpringBoot实现MD5加盐算法的示例代码,文中通过示例代码介绍的非常详细,对大家的学习... 目录一、什么是加盐算法二、如何实现加盐算法2.1 加盐算法代码实现2.2 注册页面中进行密码加盐2.