DeepFM算法代码

2024-09-05 02:52
文章标签 deepfm 算法 代码

本文主要是介绍DeepFM算法代码,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

以下代码均采用Tensorflow1.15版本

数据集私聊我
import tensorflow as tf
import numpy as np
import pandas as pd# 定义特征列
def get_feature_columns():# 假设 Criteo 数据集有 10 个数值特征和 10 个类别特征numerical_feature_columns = [tf.feature_column.numeric_column("num_feature_{}".format(i)) for i in range(10)]categorical_feature_columns = [tf.feature_column.categorical_column_with_hash_bucket("cat_feature_{}".format(i), hash_bucket_size=100) for i in range(10)]return numerical_feature_columns + categorical_feature_columns# 定义 DeepFM 模型
def deep_fm_model(features, labels, mode):# 嵌入层embedding_list = []for column in get_feature_columns():if isinstance(column, tf.feature_column.categorical_column_with_hash_bucket):embedding = tf.feature_column.embedding_column(column, dimension=8)embedding_list.append(embedding)# FM 部分fm_input = tf.concat([tf.feature_column.input_layer(features, column) for column in get_feature_columns()], axis=1)linear_part = tf.layers.dense(fm_input, 1)sum_square = tf.square(tf.reduce_sum(fm_input, axis=1))square_sum = tf.reduce_sum(tf.square(fm_input), axis=1)fm_part = 0.5 * tf.reduce_sum(sum_square - square_sum, axis=1, keepdims=True)# Deep 部分deep_input = tf.concat([tf.feature_column.input_layer(features, column) for column in get_feature_columns()], axis=1)deep_hidden_1 = tf.layers.dense(deep_input, 128, activation=tf.nn.relu)deep_hidden_2 = tf.layers.dense(deep_hidden_1, 64, activation=tf.nn.relu)deep_output = tf.layers.dense(deep_hidden_2, 1)# 合并combined_output = linear_part + fm_part + deep_output# 预测和损失if mode == tf.estimator.ModeKeys.PREDICT:predictions = {'predictions': combined_output}return tf.estimator.EstimatorSpec(mode=mode, predictions=predictions)loss = tf.losses.mean_squared_error(labels, combined_output)# 优化器optimizer = tf.train.AdamOptimizer(learning_rate=0.001)# 训练和评估操作if mode == tf.estimator.ModeKeys.TRAIN:train_op = optimizer.minimize(loss, global_step=tf.train.get_global_step())return tf.estimator.EstimatorSpec(mode=mode, loss=loss, train_op=train_op)if mode == tf.estimator.ModeKeys.EVAL:eval_metric_ops = {'mse': tf.metrics.mean_squared_error(labels, combined_output)}return tf.estimator.EstimatorSpec(mode=mode, loss=loss, eval_metric_ops=eval_metric_ops)# 输入函数
def input_fn(data_path, batch_size):data = pd.read_csv(data_path)labels = data['label']features = data.drop('label', axis=1)dataset = tf.data.Dataset.from_tensor_slices((dict(features), labels))dataset = dataset.shuffle(buffer_size=1000).batch(batch_size).repeat()iterator = dataset.make_one_shot_iterator()features, labels = iterator.get_next()return features, labels# 训练和评估
def train_and_evaluate():# 创建 Estimatorestimator = tf.estimator.Estimator(model_fn=deep_fm_model,model_dir='your_model_dir')# 训练estimator.train(input_fn=lambda: input_fn('train_data_path.csv', batch_size=128),steps=1000)# 评估estimator.evaluate(input_fn=lambda: input_fn('eval_data_path.csv', batch_size=128))if __name__ == '__main__':train_and_evaluate()

这篇关于DeepFM算法代码的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1137770

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

poj 3974 and hdu 3068 最长回文串的O(n)解法(Manacher算法)

求一段字符串中的最长回文串。 因为数据量比较大,用原来的O(n^2)会爆。 小白上的O(n^2)解法代码:TLE啦~ #include<stdio.h>#include<string.h>const int Maxn = 1000000;char s[Maxn];int main(){char e[] = {"END"};while(scanf("%s", s) != EO

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

dp算法练习题【8】

不同二叉搜索树 96. 不同的二叉搜索树 给你一个整数 n ,求恰由 n 个节点组成且节点值从 1 到 n 互不相同的 二叉搜索树 有多少种?返回满足题意的二叉搜索树的种数。 示例 1: 输入:n = 3输出:5 示例 2: 输入:n = 1输出:1 class Solution {public int numTrees(int n) {int[] dp = new int