首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
奥斯汀专题
德克萨斯大学奥斯汀分校自然语言处理硕士课程汉化版(第八周) - 现代大语言模型
现代大语言模型 1. GPT-32. 上下文学习 2.1. 零样本提示2.2. 少样本提示2.3. 归纳头 3. 对齐 3.1. 指令微调3.2. 基于人类反馈的强化学习3.3. 事实与幻觉 1. GPT-3 GPT系列论文 GPT-1(2018): Improving Language Understanding by Generative Pre-TrainingGPT-2(20
阅读更多...
德克萨斯大学奥斯汀分校自然语言处理硕士课程汉化版(第十周) - 自然语言处理应用
自然语言处理应用 1. 问答系统 1.1. 信息检索1.2. 机器阅读理解1.3. 多跳问答 2. 对话系统3. 机器翻译4. 文本摘要 1. 问答系统 在自然语言处理领域,问答系统(Question Answering,QA)是一个广泛且重要的研究方向,其目的是让计算机根据给定的上下文或者无上下文的情况下,回答用户提出的问题。QA系统广泛应用于搜索引擎、虚拟助手、在线客服等场景。
阅读更多...
德克萨斯大学奥斯汀分校自然语言处理硕士课程汉化版(第九周) - 可解释性
可解释性 1. NLP中的可解释性 1.1. 局部解释1.2. 文本解释1.3. 模型探测 2. 标注伪影3. 思维链 1. NLP中的可解释性 在自然语言处理领域,可解释性是指理解和揭示NLP模型如何做出决策的能力。一些模型本身是自然透明的,我们可以理解它们为何做出这样的决策(例如,一个小于10个结点的决策树)。随着NLP模型(尤其是基于深度学习的模型,如Transformer、BE
阅读更多...
德克萨斯大学奥斯汀分校自然语言处理硕士课程汉化版(第六周) - 预训练模型
预训练模型 1. 预训练模型介绍 1.1. ELMo1.2. GPT1.3. BERT 2. Seq2Seq 2.1. T52.2. BART 3. Tokenization 1. 预训练模型介绍 在预训练语言模型出现之前,统计语言模型(如N-gram模型)是主流方法。这些模型利用统计方法来预测文本中的下一个词,但它们对长距离依赖和上下文理解能力有限。 2013年,Google提出的
阅读更多...
德克萨斯大学奥斯汀分校自然语言处理硕士课程汉化版(第五周) - Transformer
Transformer 1. 注意力机制 在语言建模中,注意力(attention)是一个关键机制,用于在给定上下文中访问相关信息以进行预测。注意力机制允许模型根据输入上下文中的重要信息来加权关注不同的部分,并根据其重要性来决定对不同部分的关注程度。 例如,对于一个给定的输入句子,语言模型可以使用注意力机制来确定在生成下一个单词时应该关注句子中的哪些部分。当模型预测下一个单词时,它可以
阅读更多...
全新体验|德克萨斯州奥斯汀市登陆 The Sandbox
以前所未有的方式探索德克萨斯州奥斯汀——The Sandbox迎来虚拟旅游,新体验由Smobler工作室打造。 我们的使命是为虚拟旅游创造新机遇,让每个人都能更方便地游览城市和国家。我们非常兴奋地宣布:Cobbleland:Austin,这款由 Smobler Studios 打造的身临其境的首创游戏体验让您可以探索德克萨斯州奥斯汀这座充满活力的城市。在这个引人入胜的虚拟世界中,您可
阅读更多...
《桑迪顿》:简·奥斯汀遗作改编,四星推荐!
1、主题/领域: 4星 :题材新鲜,涉及的专业知识与事实相符,思想内涵丰富。 ITV的新剧《桑迪顿》依然是英剧拿手的历史题材,改编自简·奥斯汀未完成的同名遗作《沙地屯(即桑迪顿)》。 本剧以打造海边渡假村为背景,将关注点聚焦在一座名为“桑迪顿”的海边庄园,以一位善于观察的乡下少女的视角,呈现庄园中形形色色的人物百态和利益冲突,同时谈一场简·奥斯汀式的恋爱——即看你不爽不爽不爽不爽但是爱
阅读更多...