AI游戏设计的半年度复盘;大模型+智能音箱再起波澜;昇思大模型技术公开课第2期;出海注册经验分享;如何使用LoRA微调Llama 2 | ShowMeAI日报

本文主要是介绍AI游戏设计的半年度复盘;大模型+智能音箱再起波澜;昇思大模型技术公开课第2期;出海注册经验分享;如何使用LoRA微调Llama 2 | ShowMeAI日报,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!

🔥 进步or毁灭:Nature 调研显示 1600+ 科学家对AI的割裂态度

国际顶级期刊 Nature 最近一项调研很有意思,全球 1600 多名科研人员对AI工具的态度非常「割裂」:部分认为AI对科研帮助颇多,另一部分人则充满深深的忧虑;部分人的日常工作已经离不开AI,有些则完全不使用。这其实也是社会公众对AI工具的观点缩影。

例如,AI带来的积极影响被广泛认可,比如更快地处理数据、加速海量计算能力、节约时间和经费;但是负面影响也让科研人员们警惕,比如导致了依赖模式识别而不是深刻理解、在数据中强化偏见或歧视、增加欺诈概率、研究无法重现等等。更多组的数据分析可以前往 ⋙ 阅读原文

🏆 PICO 2023 首届 XR 开发者挑战赛

https://www.picoxr.com/cn/2023picodevjam

PICO 2023 首届 XR 开发者大赛,是 PICO 公司举办的内容生态开发者大赛,通过比赛形式以促进 PICO MR/VR 内容生态繁荣,以及拉动更多开发者关注 MR/VR 领域。

本次比赛面向消费者&行业,提供了开发工具、指导、投资机会、面试直通、获奖激励等多方位的支持。以下是比赛关键时间节点,感兴趣可以前往主页了解更多信息:

  • 9月25日:系统开放报名

  • 10月2日:作品提报开启

  • 11月10日:作品提报截止

  • 11月13日-30日:评委评选

  • 12月5日:颁奖仪式

🧩 LLM for GamePlay:LLM 大模型驱动玩法设计的福与祸

这是一位AI游戏一线研发者的半年度总结,从技术应用的角度拆解了 LLM for gameplay 课题,是一篇非常真实朴素的行业实践分享,有很多金句和闪光的观点。

从最初的兴奋或无限遐想,到现在感受到的骨感现实,「屠龙刀并不一定合适所有的舞台」逐步成为行业新共识。以下是文章核心观点,推荐读一读原文,所有行业的发展都会经历这样U型转弯的过程:

  1. LLM 是万能的映射,而非万能的生成:LLM 并不能带来无限的游戏表现力,除文本外它依旧几乎完全依赖于资产开发本身

  2. LLM 尝试理解一切,但游戏无法包含一切:只有当游戏内状态的复杂度到一定规模,且能比较自然地转译 (encode) 成语义表达,LLM 的屠龙技才算是有用武之地

  3. LLM 正在努力变得万能,但游戏不一定需要万能:LLM 的映射能力也有侧重点,可量化的最优化问题也许其他AI技术会是更合理的选型

作者还分享了一个系统架构图,来讨论 LLM 如何用于构建角色和赋能场景:

  • Humanity:建模角色的人格、思维过程、情绪认知等脑内信息和过程

  • Speaker:建模角色的对话行为,也包括角色的心理活动、剧情旁白等文字表现

  • Evolver:角色对外界的行为决策及其具体执行 (action),和对应结果的结算 (resolving) ⋙ 阅读原文

👀 大模型有能力打穿「智能音箱/硬件」的市场壁垒么?

2023年上半年,国内智能音箱市场由小度、小米和天猫精灵三强鼎立,并先后宣布接入大模型。正当智能音箱又一轮激烈竞争来临之际,百度系却临阵换帅,景鲲辞职创业为这个「AGI产品必争之地」的战争再添变数。

为什么智能音箱是 AGI 产品路线图上的兵家必争之地?大模型能撑起来智能硬件这个巨大的想象空间么?我们距离智能印象打穿应用壁垒还有多长时间? 这篇文章给出了详细的解释和预判 ⋙ 阅读原文

👩‍💻 出海注册经验分享,搞定英国公司、Wise银行账号、苹果开发者和Stripe

这是一篇即刻上的经验分享贴,作者 @Junping1 全程在国内搞注册好了英国公司、Wise银行账号,Stripe和苹果开发者,并分享了非常详细的操作攻略。总体来说,操作成本不高、流程也不复杂,总共花费不到两千人民币,用时两三周。

扫码即可前往星球查看全部分享内容,以及操作建议帖的链接,也可以前往作者账号评论区互动 ⋙ 即刻@Junping1

📚 如何使用 LoRA 微调 Llama 2

这是一篇技术分享贴,讨论了使用LoRA 对大语言模型 Llama 2进行微调的过程,以及微调的好处。以下是文章要点,可以定位感兴趣的内容并前往阅读原文:

  1. 为什么微调:大语言模型微调后可以减少幻觉,使模型适应于特定的用例,并去除不希望的行为或者或添加希望的行为

  2. 微调与提示工程:微调比提示工程的成本更低,因为在硬件加速方面没有前期成本,还可以在微调过程中将更多数据适应到模型

  3. 大语言模型微调策略:已经提出了几种用于微调大语言模型的方法,其中之一就是 LoRA

  4. 使用LoRA微调大语言模型:LoRA 的工作原理是冻结语言模型的权重,并在变压器层中引入新的矩阵,从而减少了可训练参数的数量,并使得在较少的GPU计算下进行微调成为可能

  5. LoRA的好处:通过交换 LoRA 权重,可以使用同一模型进行不同的任务,从而减少了存储不同模型所需的存储空间;并且只有LoRA矩阵正在优化,因此能训练得更快 ⋙ 阅读原文

📋 通过 LLMs 实现需求的背后逻辑

这篇文章以「通过 LangChain 实现文档问答机器人」示例,清楚地说了使用 AI 构建一个应用背后的逻辑。不同于一般的实战教程分享,这篇内容对于我们思考和设计AI产品会非常有帮助。

当然作者并没有回避技术方向的信息,如果感兴趣可以跟随作者提供的链接前往了解更多代码、框架等内容。以下是文章的关键知识点,可以阅读全文查看作者更详细的解释:

  1. LangChain是基于大语言模型的应用框架,降低了开发成本,减少了单一模型对产品的风险

  2. 使用LangChain可以实现文档问答机器人,包括数据清洗、向量存储和LLMs的优化

  3. 向量是降低AI使用费用的工具,常用的向量数据库有Pincone、Redis、Chroma、PostgreSQL等

  4. 微调是让GPT模型更好理解特定领域内容的技术,需要大量训练文本,训练文本越多,微调的价格越高

  5. OpenAI的API更新新增了函数调用功能,让GPT根据用户问题匹配函数并准备入参,降低了应用构建的成本 ⋙ 阅读原文

📺 昇思 MindSpore技术公开课第二期,大模型专题即将开始

https://xihe.mindspore.cn/course/foundation-model-v2/introduction

昇思MindSpore技术公开课大模型专题第二期课程来了!自10月14日起,每双周六14:00-15:30在B站 @MindSpore官方 账号直播开课。本期课程紧跟「大模型」技术热点,并且手把手教你构建大模型,讲师团也非常强大。

这是课程安排,有感兴趣的话题,可以在官网报名,当然可以关注 ShowMeAI 社区通知,记得一起来听课:

  • [课前学习] MindSpore Transformers大模型套件:架构讲解与使用入门:介绍 MindSpore Transformers 大模型套件现状,讲解套件架构及高阶接口设计,走读工程架构模块代码,学习基本使用方式

  • ChatGLM:介绍技术公开课整体课程安排;ChatGLM模型结构,走读代码演示ChatGLM推理部署

  • 多模态遥感智能解译基础模型:介绍多模态遥感智能解译基础模型的原理、训推等相关技术,以及模型相关行业应用

  • ChatGLM2:介绍ChatGLM2模型结构,走读代码演示ChatGLM推理部署

  • 文本生成解码原理:介绍Beam search和采样的原理及代码实现

  • LLAMA:介绍LLAMA模型结构,走读代码演示推理部署,介绍Alpaca

  • LLAMA2:介绍LLAMA2模型结构,走读代码演示LLAMA2 chat部署

  • CPM:介绍CPM-Bee预训练、推理、微调及代码现场演示

  • 高效参数微调:介绍Lora、(P-Tuning)原理及代码实现

  • 量化:介绍低比特量化等相关模型量化技术

  • 框架LangChain模块解析:解析Models、Prompts、Memory、Chains、Agents、Indexes、Callbacks模块,及案例分析

  • LangChain对话机器人综合案例MindSpore Transformers本地模型与LangChain框架组合使用,通过LangChain框架管理向量库并基于向量库对MindSpore Transformers本地模型问答进行优化 ⋙ 了解更多

感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!

◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ 点击 🎡生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!

这篇关于AI游戏设计的半年度复盘;大模型+智能音箱再起波澜;昇思大模型技术公开课第2期;出海注册经验分享;如何使用LoRA微调Llama 2 | ShowMeAI日报的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/195307

相关文章

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

SpringBoot快速接入OpenAI大模型的方法(JDK8)

《SpringBoot快速接入OpenAI大模型的方法(JDK8)》本文介绍了如何使用AI4J快速接入OpenAI大模型,并展示了如何实现流式与非流式的输出,以及对函数调用的使用,AI4J支持JDK8... 目录使用AI4J快速接入OpenAI大模型介绍AI4J-github快速使用创建SpringBoot

Python3脚本实现Excel与TXT的智能转换

《Python3脚本实现Excel与TXT的智能转换》在数据处理的日常工作中,我们经常需要将Excel中的结构化数据转换为其他格式,本文将使用Python3实现Excel与TXT的智能转换,需要的可以... 目录场景应用:为什么需要这种转换技术解析:代码实现详解核心代码展示改进点说明实战演练:从Excel到

Python中常用的四种取整方式分享

《Python中常用的四种取整方式分享》在数据处理和数值计算中,取整操作是非常常见的需求,Python提供了多种取整方式,本文为大家整理了四种常用的方法,希望对大家有所帮助... 目录引言向零取整(Truncate)向下取整(Floor)向上取整(Ceil)四舍五入(Round)四种取整方式的对比综合示例应

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Go路由注册方法详解

《Go路由注册方法详解》Go语言中,http.NewServeMux()和http.HandleFunc()是两种不同的路由注册方式,前者创建独立的ServeMux实例,适合模块化和分层路由,灵活性高... 目录Go路由注册方法1. 路由注册的方式2. 路由器的独立性3. 灵活性4. 启动服务器的方式5.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

linux进程D状态的解决思路分享

《linux进程D状态的解决思路分享》在Linux系统中,进程在内核模式下等待I/O完成时会进入不间断睡眠状态(D状态),这种状态下,进程无法通过普通方式被杀死,本文通过实验模拟了这种状态,并分析了如... 目录1. 问题描述2. 问题分析3. 实验模拟3.1 使用losetup创建一个卷作为pv的磁盘3.