发家致富靠 AI ?使用 keras 预测NBA比赛赚钱,回报率达136%……

2023-11-08 19:30

本文主要是介绍发家致富靠 AI ?使用 keras 预测NBA比赛赚钱,回报率达136%……,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

作者 | Caleb Cheng

译者 | Deephub翻译组

来源 | DeepHub IMBA

投注者和博彩者没有太多共同点——人们可以把他们的关系描述为一场竞争、决斗、战争。但在梦中,他们却为同样的幻想而垂涎三尺:一个完美的预测模型,使用它能够精确地预测出未来游戏的结果。通过深入学习,这或许是可能的——或者至少比以前的数据科学技术更容易。

基本假设是NBA市场效率低下(价格或投注线并不能反映出所有可用信息),而且可能比大多数市场效率更低,因为铁杆球迷倾向于只赌他们最喜欢的球队。如果你能对市场的低效率下赌注,你就能赚钱。我们识别低效率的方法之一是通过数据分析。

尽管许多尝试这一挑战的模型都是准确的,但大多数模型离盈利还差得很远。原因很简单:博彩公司也非常准确。即使你能达到博彩公司的准确性,你也会因为5%的投注费而失败。

https://www.football-data.co.uk/blog/nba_pinnacle_efficiency.php

图表是365net的预测线与实际的赢取百分比。一个成功的模型必须能够通过完美的回归分析预测博彩公司的微小波动。

我的模型是用带有Tensorflow的Python构建的,它分析了过去11个NBA赛季,并且在很多方面与其他的深度学习模型相似(后者经常被试图用于解决这个问题)。但是我们的模型有一个关键的区别——它使用了一个自定义的损失函数来剔除与博彩公司的相关性。我们正在挑选博彩公司错误预测获胜百分比的游戏。  

去相关损失公式-这很重要!!!!!!!

源码

模型结构

我用nba_api Python库抓取了得分记录。数据存储在MongoDB集合中。在过去的11个赛季中,每名球员每局共存储42个统计数据,从罚球率到防守得分再到偷球次数不等。下注数据是从betexplorer中收集的。找到高质量的投注线比训练模型困难得多。你可以向斯洛文尼亚卢布雅那大学的什特鲁姆贝尔教授寻求帮助。

对于每一场比赛,样本是用赛季初每名球员最近8场比赛的平均数计算出来的。根据平均比赛时间选出前8名选手。

模型

预处理

  import os  import numpy as np  from tqdm import tqdm  from pymongo import MongoClient  bookies = {  "44":"Betfair",  "16":"bet365",  "18":"Pinnacle",  "5":"Unibet"  }  client = MongoClient()  db = client.nba  games = db.gamesseasons = [f"002{str(i).zfill(2)}" for i in range(8, 20)]  # load the samples into memory  x, y = [], []  def normalize_sample(nparr):  for feature in range(nparr.shape[-1]): # iterate over the features  f = np.nan_to_num(nparr[:, :, feature])  nparr[:, :, feature] = (f-f.min())/(f.max()-f.min())  return nparrfor season in seasons:  for filename in tqdm(os.listdir(f"samples/{season}")[120:]):  if ".npy" in filename:  game = list(games.find({"GAME_ID":filename.strip(".npy"), "bet365":{"$exists":"True"}}))  if not game:  continue  game = game[0]  closing_odds = 1/float(game["bet365"].split()[1].split("v")[0])  home_win = int(game["HOME"] == game["WINNER"])  sample = np.load(f"samples/{season}/{filename}")  x.append((normalize_sample(sample), closing_odds))  y.append(home_win)  x = np.array(x)  y = np.array(y)import random  print(x.shape, y.shape)  diff = len(y)//2 - np.count_nonzero(y == 0)  for i in tqdm(range(diff)):  while True:  a = random.randint(1, len(y)-1)  if y[a] == 1:  x = np.delete(x, a, 0)  y = np.delete(y, a, 0)  break  print(len(x), len(y))

模型

from keras import backend as K  
from keras.models import Model  
from keras.models import Sequential  
from keras.layers import Input, Dense, Dropout, Conv2D, Flatten, Activation, concatenate  
from keras.optimizers import Adamc = 0.6  
def decorrelation_loss(neuron):  def loss(y_actual, y_predicted):  return K.mean(  K.square(y_actual-y_predicted) - c * K.square(y_predicted - neuron))  return loss# split the two input streams  box_scores_train, odds_train = map(list, zip(*x_train))  box_scores_test, odds_test = map(list, zip(*x_test))# box model turns stats into a vector  box_model = Sequential()  shape = box_scores_train[0].shape  print(shape)  box_model.add(Conv2D(filters=32, kernel_size=(1, 8), input_shape=shape,  data_format="channels_first", activation="relu"))  box_model.add(Flatten())box_input = Input(shape=shape)  box_encoded = box_model(box_input)odds_input = Input(shape=(1,), dtype="float32") #(opening or closing weight)  merged = concatenate([odds_input, box_encoded])  output = Dense(32, activation="relu")(merged)  output = Dropout(0.5)(output)  output = Dense(8, activation="relu")(output)  output = Dropout(0.5)(output)  signal = Dense(1, activation="sigmoid")(output)opt = Adam(lr=0.0001)  nba_model = Model(inputs=[box_input, odds_input], outputs=signal)  print(nba_model.summary())nba_model.compile(optimizer=opt,  #loss="binary_crossentropy",  loss=decorrelation_loss(odds_input), # Call the loss function with the selected layer  metrics=['accuracy'])  nba_model.fit([box_scores_train, odds_train], y_train,  batch_size=16,validation_data=([box_scores_test, odds_test], y_test), verbose=1,epochs=20)

该模型是Conv2D和稠密层的组合,具有大量的dropout。模型独一无二的部分是去相关性损失函数,在我的第一篇论文中提到过。尽管Keras本身并不支持具有神经元值的损失函数,但将函数包装在函数中是一种有用的解决方法。我在GTX 1660Ti上训练了20个世代的网络,直到网络收敛。

结果

使用一种非常原始的赌博策略,即10%的平衡*模型置信度,并且仅在模型的置信度大于0.6的游戏上赌博,我们就产生了向上的平衡趋势。有趣的是,这个模型只赌了大约10%的游戏。除了整个2017-18赛季的惨败,我们的模型表现非常好,从最初的100美元投资到现在的136美元,峰值为292美元。

展望与未来

这只是这个模型的开始。有了令人鼓舞的结果,我想制定一个更具活力的投注策略。            

唯一有用的可能是下注代码和模型。             

使用NoSQL是一个错误,我应该坚持使用SQLite,但是学习一种新技术是很好的。编写一个自定义损失函数是一个非常宝贵的经验,并将在未来的深入学习项目中派上用场。

代码地址:https://github.com/calebcheng00/nba_predictions/blob/master/nba.ipynb

推荐阅读

  • 真没想到,Python还能实现5毛特效

  • 作词家下岗系列:教你用 AI 做一个写歌词的软件!

  • AI修复100年前晚清影像喜提热搜,这两大算法立功了

  • 阿里云自研数据仓库 AnalyticDB 再捧 TPC 全球冠军

  • 调查了 17,000 多位程序员,当前的云原生开发现状究竟如何?

  • CSW:惊天巨骗 or 比特币“图腾”中本聪?

  • 从 0 到 70%:Chrome 上位揭秘!

  • 你点的每个“在看”,我都认真当成了AI

这篇关于发家致富靠 AI ?使用 keras 预测NBA比赛赚钱,回报率达136%……的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/372010

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G