LangChain核心模块 Model I/O——Prompts

2024-03-24 06:52

本文主要是介绍LangChain核心模块 Model I/O——Prompts,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Prompts

​ 语言模型的提示是用户提供的一组指令或输入,用于指导模型的响应,帮助模型理解上下文并生成相关且连贯的基于语言的输出,例如回答问题、完成句子或参与某项活动。对话。

关键问题

  • 如何在LLMs中使用少量示例(few-shot examples)——How to use few-shot examples with LLMs
  • 如何将少量示例(few-shot examples)与聊天模型结合使用——How to use few-shot examples with chat models
  • 如何使用示例选择器(example selectors)——How to use example selectors
  • 如何部分提示(partial prompts)——How to partial prompts
  • 如何使用消息提示(message prompts)——How to work with message prompts
  • How to compose prompts together
  • 如何创建管道提示(pipeline prompt)——How to create a pipeline prompt

​ 提示模板是用于生成语言模型提示的预定义配方。模板可以包括说明、少量示例以及适合给定任务的特定上下文和问题,LangChain提供了创建和使用提示模板的工具,LangChain致力于创建与模型无关的模板,以便能够轻松地跨不同语言模型重用现有模板。

​ 通常,语言模型期望提示是字符串或聊天消息列表。

  • PromptTemplate
    • 用于PromptTemplate创建字符串提示的模板
    • 通常情况下,该模板使用python中的str.format语法进行模板化
    • 该模板支持任意数量的变量,包括无变量
  • ChatPromptTemplate
    • Chat Model的提示是聊天消息列表,每条消息都有内容,以及role
    • ChatPromptTemplate.from_messages接受各种消息表示形式。
    • 还可以传入 MessagePromptTemplate或者实例BaseMessage
  • LCEL
    • PromptTemplateChatPromptTemplate都实现了Runnable接口,这意味着它们支持invokeainvokestreamastreambatchabatchastream_log调用。
    • PromptTemplate接受一个字典(有提示变量的)并返回一个StringPromptValue.
    • ChatPromptTemplate接受一个字典并返回一个ChatPromptValue

Composition

String prompt composition

使用字符串提示时,每个模板都会连接在一起,可以直接使用提示或字符串(列表中的第一个元素必须是提示)

prompt = (PromptTemplate.from_template("Tell me a joke about {topic}")+ ", make it funny"+ "\n\nand in {language}"
)
Chat prompt composition

​ 聊天提示由消息列表组成。为了开发人员体验,我们添加了一种创建这些提示的便捷方法。在此管道中,每个新元素都是最终提示中的一条新消息。

首先,让我们使用系统消息初始化基本 ChatPromptTemplate。

prompt = SystemMessage(content="You are a nice pirate")

当没有要格式化的变量时使用 Message,当有要格式化的变量时使用 MessageTemplate,还可以仅使用一个字符串(注意:这将自动推断为 HumanMessagePromptTemplate。)

new_prompt = (prompt + HumanMessage(content="hi") + AIMessage(content="what?") + "{input}"
)

在底层,会创建 ChatPromptTemplate 类的一个实例,可以使用它

new_prompt.format_messages(input="i said hi")
[SystemMessage(content='You are a nice pirate', additional_kwargs={}),HumanMessage(content='hi', additional_kwargs={}, example=False),AIMessage(content='what?', additional_kwargs={}, example=False),HumanMessage(content='i said hi', additional_kwargs={}, example=False)]

Example Selector Types

  • 选择器类型示例
NameDescription
Similarity使用输入和示例之间的语义相似性来决定选择哪些示例
MMR使用输入和示例之间的最大边际相关性来决定选择哪些示例
Length根据一定长度内可以容纳的数量来选择示例
Ngram使用输入和示例之间的 ngram 重叠来决定选择哪些示例
  • Select by similarity 语义相似性

    通过查找与输入具有最大余弦相似度的嵌入示例

  • Select by maximal marginal relevance(MMR) 最大边际相关性

    MaxMarginalRelevanceExampleSelector根据与输入最相似的示例的组合来选择示例,同时还针对多样性进行优化。它通过查找与输入具有最大余弦相似度的嵌入示例来实现这一点,然后迭代地添加它们,同时惩罚它们与已选择示例的接近程度。

  • Select by length 长度

  • Select by n-gram overlap ngram重叠度

    NGramOverlapExampleSelector根据 ngram 重叠分数,根据与输入最相似的示例来选择示例并对其进行排序。ngram 重叠分数是 0.0 到 1.0 之间的浮点数(含 0.0 和 1.0)。选择器允许设置阈值分数。ngram 重叠分数小于或等于阈值的示例被排除。默认情况下,阈值设置为 -1.0,因此不会排除任何示例,只会对它们重新排序。将阈值设置为 0.0 将排除与输入没有 ngram 重叠的示例。

Example selectors

  • 选择器示例

如果有大量示例,就可能需要选择要在提示中包含的示例。示例选择器就是负责执行此操作的类。

基本接口定义如下:

class BaseExampleSelector(ABC):"""Interface for selecting examples to include in prompts."""@abstractmethoddef select_examples(self, input_variables: Dict[str, str]) -> List[dict]:"""Select which examples to use based on the inputs."""@abstractmethoddef add_example(self, example: Dict[str, str]) -> Any:"""Add new example to store."""

唯一需要定义的方法是一个select_examples方法,接受输入变量,然后返回示例列表。如何选择这些示例取决于每个具体的实现。

Examples

创建示例列表,包含输入和输出

examples = [{"input": "hi", "output": "ciao"},{"input": "bye", "output": "arrivaderci"},{"input": "soccer", "output": "calcio"},
]
Custom Example Selector

以下是根据单词的长度选择要选择的示例:

from langchain_core.example_selectors.base import BaseExampleSelectorclass CustomExampleSelector(BaseExampleSelector):def __init__(self, examples):self.examples = examplesdef add_example(self, example):self.examples.append(example)def select_examples(self, input_variables):# This assumes knowledge that part of the input will be a 'text' keynew_word = input_variables["input"]new_word_length = len(new_word)# 初始化变量来存储最佳匹配及其长度差best_match = Nonesmallest_diff = float("inf")# Iterate through each examplefor example in self.examples:current_diff = abs(len(example["input"]) - new_word_length)if current_diff < smallest_diff:smallest_diff = current_diffbest_match = examplereturn [best_match]
example_selector = CustomExampleSelector(examples)
Use in a Prompt

在提示中使用这个示例选择器

from langchain_core.prompts.few_shot import FewShotPromptTemplate
from langchain_core.prompts.prompt import PromptTemplateexample_prompt = PromptTemplate.from_template("Input: {input} -> Output: {output}")
prompt = FewShotPromptTemplate(example_selector=example_selector,example_prompt=example_prompt,suffix="Input: {input} -> Output:",prefix="Translate the following words from English to Italain:",input_variables=["input"],
)print(prompt.format(input="word"))

Few-shot prompt templates

  • 少量提示模板

可以由一组示例或一个示例选择器对象构建少量提示模板。下面将配置一些用于自我询问和搜索的示例。

Using an example set
  • 使用示例集
Create the example set
  • 创建示例集

首先,创建一个少量示例的列表。每个示例都是一个字典,其中键是输入变量,值是这些输入变量的值。

from langchain.prompts.few_shot import FewShotPromptTemplate
from langchain.prompts.prompt import PromptTemplateexamples = [{"question": "Who lived longer, Muhammad Ali or Alan Turing?","answer": """
Are follow up questions needed here: Yes.
Follow up: How old was Muhammad Ali when he died?
Intermediate answer: Muhammad Ali was 74 years old when he died.
Follow up: How old was Alan Turing when he died?
Intermediate answer: Alan Turing was 41 years old when he died.
So the final answer is: Muhammad Ali
""",},{"question": "When was the founder of craigslist born?","answer": """
Are follow up questions needed here: Yes.
Follow up: Who was the founder of craigslist?
Intermediate answer: Craigslist was founded by Craig Newmark.
Follow up: When was Craig Newmark born?
Intermediate answer: Craig Newmark was born on December 6, 1952.
So the final answer is: December 6, 1952
""",},{"question": "Who was the maternal grandfather of George Washington?","answer": """
Are follow up questions needed here: Yes.
Follow up: Who was the mother of George Washington?
Intermediate answer: The mother of George Washington was Mary Ball Washington.
Follow up: Who was the father of Mary Ball Washington?
Intermediate answer: The father of Mary Ball Washington was Joseph Ball.
So the final answer is: Joseph Ball
""",},{"question": "Are both the directors of Jaws and Casino Royale from the same country?","answer": """
Are follow up questions needed here: Yes.
Follow up: Who is the director of Jaws?
Intermediate Answer: The director of Jaws is Steven Spielberg.
Follow up: Where is Steven Spielberg from?
Intermediate Answer: The United States.
Follow up: Who is the director of Casino Royale?
Intermediate Answer: The director of Casino Royale is Martin Campbell.
Follow up: Where is Martin Campbell from?
Intermediate Answer: New Zealand.
So the final answer is: No
""",},
]
Create a formatter for the few-shot examples

配置一个格式化程序,将少量示例格式化为字符串。此格式化程序应该是 PromptTemplate 对象。

example_prompt = PromptTemplate(input_variables=["question", "answer"], template="Question: {question}\n{answer}"
)print(example_prompt.format(**examples[0]))
Question: Who lived longer, Muhammad Ali or Alan Turing?Are follow up questions needed here: Yes.
Follow up: How old was Muhammad Ali when he died?
Intermediate answer: Muhammad Ali was 74 years old when he died.
Follow up: How old was Alan Turing when he died?
Intermediate answer: Alan Turing was 41 years old when he died.
So the final answer is: Muhammad Ali
Feed examples and formatter to FewShotPromptTemplate
  • 将示例和格式化程序提供给 FewShotPromptTemplate

最后,创建一个 FewShotPromptTemplate 对象。该对象接受少数样本示例和少数样本示例的格式化程序。

prompt = FewShotPromptTemplate(examples=examples,example_prompt=example_prompt,suffix="Question: {input}",input_variables=["input"],
)print(prompt.format(input="Who was the father of Mary Ball Washington?"))
Using an example selector
  • 使用示例选择器
Feed example into ExampleSelector
  • 将少量示例提供给Exampleselector

这里不会将示例直接输入到 FewShotPromptTemplate中,而是将它们输入到Exampleselector对象中。

本例中将使用 SemanticSimilarityExampleSelector 类。此类根据与输入的相似性来选择少数样本。

它使用嵌入模型来计算输入和少数样本之间的相似度,并使用向量存储来执行最近邻搜索。

from langchain.prompts.example_selector import SemanticSimilarityExampleSelector
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddingsexample_selector = SemanticSimilarityExampleSelector.from_examples(# 可供选择的示例列表examples,# 嵌入类,用于测量语义相似性OpenAIEmbeddings(),# VectorStore 类,用于存储嵌入并进行相似性搜索。Chroma,# 生成的示例数。k=1,
)# 选择与输入最相似的示例。
question = "Who was the father of Mary Ball Washington?"
selected_examples = example_selector.select_examples({"question": question})
print(f"Examples most similar to the input: {question}")
for example in selected_examples:print("\n")for k, v in example.items():print(f"{k}: {v}")
Feed example selector into FewShotPromptTemplate

最后,创建一个FewShotPromptTemplate对象。该对象接受示例选择器和少数示例的格式化程序。

prompt = FewShotPromptTemplate(example_selector=example_selector,example_prompt=example_prompt,suffix="Question: {input}",input_variables=["input"],
)print(prompt.format(input="Who was the father of Mary Ball Washington?"))

Few-shot examples for chat models

  • 聊天模型的少量示例

​ 介绍如何在聊天模型中使用少量示例。对于如何最好地进行几次提示似乎没有达成一致的共识,并且最佳提示编译可能会因模型而异。因此,我们提供了少量提示模板(例如FewShotChatMessagePromptTemplate) 作为灵活的起点,您可以根据需要修改或替换它们。

少量提示模板的目标是根据输入动态选择示例,然后在最终提示中格式化示例以提供给模型。

下面的代码样例是chat models,关于LLMs中的使用参考上节

Fixed Examples
  • 固定示例

最基本(也是常见)的少量提示技术是使用固定提示示例。这样就可以选择一条链条,对其进行评估,并避免担心生产中的额外移动部件。

该模板的基本组件是:

  • examples:包含在最终提示中的字典示例列表。
  • example_prompt:通过format_messages方法将每个示例转换为一条或多条消息。一个常见的示例是将每个示例转换为一条human message和一条AI message response,或者一条human message后跟一条function call message

demonstration:

# import the modules for this example
from langchain.prompts import (ChatPromptTemplate,FewShotChatMessagePromptTemplate,
)
# define the examples you’d like to include
examples = [{"input": "2+2", "output": "4"},{"input": "2+3", "output": "5"},
]
# assemble them into the few-shot prompt template
# 一个用于格式化每个单独示例的提示模板
example_prompt = ChatPromptTemplate.from_messages([("human", "{input}"),("ai", "{output}"),]
)
few_shot_prompt = FewShotChatMessagePromptTemplate(example_prompt=example_prompt,examples=examples,
)print(few_shot_prompt.format())
# assemble your final prompt and use it with a model.
final_prompt = ChatPromptTemplate.from_messages([("system", "You are a wondrous wizard of math."),few_shot_prompt,("human", "{input}"),]
)
from langchain_community.chat_models import ChatAnthropicchain = final_prompt | ChatAnthropic(temperature=0.0)chain.invoke({"input": "What's the square of a triangle?"})
Dynamic few-shot prompting
  • 动态少量提示

如果需要根据输入来限制显示哪些示例,可以使用example_selector代替examples

动态少量提示模板如下所示:

  • example_selector:负责为给定的输入选择少数样本(以及它们返回的顺序),实现了 BaseExampleSelector接口。一个常见的例子是向量存储支持的SemanticSimilarityExampleSelector
  • example_prompt:通过 format_messages 方法将每个示例转换为一个或多个消息。一个常见的示例是将每个示例转换为一条human message和一条AI message response,或者一条human message后跟一条function call message

可以再次与其他消息和聊天模板组合生成最终提示

from langchain.prompts import SemanticSimilarityExampleSelector
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings

由于我们使用向量存储来根据语义相似性选择示例,因此我们需要首先填充存储。

examples = [{"input": "2+2", "output": "4"},{"input": "2+3", "output": "5"},{"input": "2+4", "output": "6"},{"input": "What did the cow say to the moon?", "output": "nothing at all"},{"input": "Write me a poem about the moon","output": "One for the moon, and one for me, who are we to talk about the moon?",},
]to_vectorize = [" ".join(example.values()) for example in examples]
embeddings = OpenAIEmbeddings()
vectorstore = Chroma.from_texts(to_vectorize, embeddings, metadatas=examples)

创建example_selector

创建矢量存储后,可以创建example_selector.

# 仅获取前 2 个示例
example_selector = SemanticSimilarityExampleSelector(vectorstore=vectorstore,k=2,
)# 提示模板通过将输入传递给“select_examples”方法来加载示例
example_selector.select_examples({"input": "horse"})

创建prompt template

使用上面创建的 example_selector 组装提示模板

from langchain.prompts import (ChatPromptTemplate,FewShotChatMessagePromptTemplate,
)# Define the few-shot prompt.
few_shot_prompt = FewShotChatMessagePromptTemplate(# The input variables select the values to pass to the example_selectorinput_variables=["input"],example_selector=example_selector,# Define how each example will be formatted.# In this case, each example will become 2 messages:# 1 human, and 1 AIexample_prompt=ChatPromptTemplate.from_messages([("human", "{input}"), ("ai", "{output}")]),
)
print(few_shot_prompt.format(input="What's 3+3?"))
Human: 2+3
AI: 5
Human: 2+2
AI: 4

组装最终的提示模板:

final_prompt = ChatPromptTemplate.from_messages([("system", "You are a wondrous wizard of math."),few_shot_prompt,("human", "{input}"),]
)
print(few_shot_prompt.format(input="What's 3+3?"))
Human: 2+3
AI: 5
Human: 2+2
AI: 4

Use with an LLM

from langchain_community.chat_models import ChatAnthropicchain = final_prompt | ChatAnthropic(temperature=0.0)chain.invoke({"input": "What's 3+3?"})
AIMessage(content=' 3 + 3 = 6', additional_kwargs={}, example=False)

Types of MessagePromptTemplate

LangChain提供了不同种类的MessagePromptTemplate,最常见的是 AIMessagePromptTemplate, SystemMessagePromptTemplateHumanMessagePromptTemplate

但是,如果聊天模型支持使用任意角色获取聊天消息,则可以使用 ChatMessagePromptTemplate,它允许用户指定角色名称。

from langchain.prompts import ChatMessagePromptTemplateprompt = "May the {subject} be with you"chat_message_prompt = ChatMessagePromptTemplate.from_template(role="Jedi", template=prompt
)
chat_message_prompt.format(subject="force")

LangChain还提供了MessagesPlaceholder,它可以让您完全控制格式化期间要呈现的消息。

如果不确定消息提示模板应使用什么角色或希望在格式化期间插入消息列表时,就使用它。

from langchain.prompts import (ChatPromptTemplate,HumanMessagePromptTemplate,MessagesPlaceholder,
)human_prompt = "Summarize our conversation so far in {word_count} words."
human_message_template = HumanMessagePromptTemplate.from_template(human_prompt)chat_prompt = ChatPromptTemplate.from_messages([MessagesPlaceholder(variable_name="conversation"), human_message_template]
)
from langchain_core.messages import AIMessage, HumanMessagehuman_message = HumanMessage(content="What is the best way to learn programming?")
ai_message = AIMessage(content="""\
1. Choose a programming language: Decide on a programming language that you want to learn.2. Start with the basics: Familiarize yourself with the basic programming concepts such as variables, data types and control structures.3. Practice, practice, practice: The best way to learn programming is through hands-on experience\
"""
)chat_prompt.format_prompt(conversation=[human_message, ai_message], word_count="10"
).to_messages()

Partial prompt templates

  • 部分提示模板

“部分”提示模板是有意义的 - 例如传入所需值的子集,以创建一个新的提示模板,该模板仅需要剩余的值子集。

LangChain通过两种方式支持:

  1. 使用字符串值进行部分格式化
  2. 使用返回字符串值的函数进行部分格式化
Partial with strings

如果想要在其他元素之前得到一些变量,可以使用此方法。

例如,现在有一个提示模板需要两个变量foobaz。如果很早的得到了foo,但较晚得到baz,那么等到两个变量处于同一位置时才将它们传入提示模板,就很不方便。但是,可以使用foo部分化提示模板,然后传递部分提示模板并使用它。

from langchain.prompts import PromptTemplateprompt = PromptTemplate.from_template("{foo}{bar}")
partial_prompt = prompt.partial(foo="foo")
print(partial_prompt.format(bar="baz"))

也可以使用部分变量初始化提示。

prompt = PromptTemplate(template="{foo}{bar}", input_variables=["bar"], partial_variables={"foo": "foo"}
)
print(prompt.format(bar="baz"))
Partial with functions

对函数进行部分处理。这种情况是,当有一个变量,希望通过函数获取该变量。

一个典型例子是日期或时间。想象一下,您有一个提示,您总是希望获得当前日期。您无法在提示中对其进行硬编码,并且将其与其他输入变量一起传递有点烦人。在这种情况下,能够使用始终返回当前日期的函数来部分提示是非常方便的。

from datetime import datetimedef _get_datetime():now = datetime.now()return now.strftime("%m/%d/%Y, %H:%M:%S")
prompt = PromptTemplate(template="Tell me a {adjective} joke about the day {date}",input_variables=["adjective", "date"],
)
partial_prompt = prompt.partial(date=_get_datetime)
print(partial_prompt.format(adjective="funny"))

还可以使用部分变量初始化提示,这在此工作流程中通常更有意义。

prompt = PromptTemplate(template="Tell me a {adjective} joke about the day {date}",input_variables=["adjective"],partial_variables={"date": _get_datetime},
)
print(prompt.format(adjective="funny"))

Pipeline

本节中介绍了如何将多个提示组合在一起。这样就可以重复使用部分提示,PipelinePrompt 由两个主要部分组成:

  • Final prompt(最后提示):最终要返回的提示
  • Pipeline prompts(管道提示):元组列表,由字符串名称和提示模板组成。每个提示模板将被格式化,然后作为具有相同名称的变量传递到下一个提示模板。
from langchain.prompts.pipeline import PipelinePromptTemplate
from langchain.prompts.prompt import PromptTemplate
full_template = """{introduction}{example}{start}"""
full_prompt = PromptTemplate.from_template(full_template)
introduction_template = """You are impersonating {person}."""
introduction_prompt = PromptTemplate.from_template(introduction_template)
example_template = """Here's an example of an interaction:Q: {example_q}
A: {example_a}"""
example_prompt = PromptTemplate.from_template(example_template)
start_template = """Now, do this for real!Q: {input}
A:"""
start_prompt = PromptTemplate.from_template(start_template)
input_prompts = [("introduction", introduction_prompt),("example", example_prompt),("start", start_prompt),
]
pipeline_prompt = PipelinePromptTemplate(final_prompt=full_prompt, pipeline_prompts=input_prompts
)
pipeline_prompt.input_variables
['example_q', 'example_a', 'input', 'person']
print(pipeline_prompt.format(person="Elon Musk",example_q="What's your favorite car?",example_a="Tesla",input="What's your favorite social media site?",)
)
You are impersonating Elon Musk.Here's an example of an interaction:Q: What's your favorite car?
A: TeslaNow, do this for real!Q: What's your favorite social media site?
A:

这篇关于LangChain核心模块 Model I/O——Prompts的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/840782

相关文章

Python利用自带模块实现屏幕像素高效操作

《Python利用自带模块实现屏幕像素高效操作》这篇文章主要为大家详细介绍了Python如何利用自带模块实现屏幕像素高效操作,文中的示例代码讲解详,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1、获取屏幕放缩比例2、获取屏幕指定坐标处像素颜色3、一个简单的使用案例4、总结1、获取屏幕放缩比例from

nginx-rtmp-module模块实现视频点播的示例代码

《nginx-rtmp-module模块实现视频点播的示例代码》本文主要介绍了nginx-rtmp-module模块实现视频点播,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习... 目录预置条件Nginx点播基本配置点播远程文件指定多个播放位置参考预置条件配置点播服务器 192.

多模块的springboot项目发布指定模块的脚本方式

《多模块的springboot项目发布指定模块的脚本方式》该文章主要介绍了如何在多模块的SpringBoot项目中发布指定模块的脚本,作者原先的脚本会清理并编译所有模块,导致发布时间过长,通过简化脚本... 目录多模块的springboot项目发布指定模块的脚本1、不计成本地全部发布2、指定模块发布总结多模

Python中构建终端应用界面利器Blessed模块的使用

《Python中构建终端应用界面利器Blessed模块的使用》Blessed库作为一个轻量级且功能强大的解决方案,开始在开发者中赢得口碑,今天,我们就一起来探索一下它是如何让终端UI开发变得轻松而高... 目录一、安装与配置:简单、快速、无障碍二、基本功能:从彩色文本到动态交互1. 显示基本内容2. 创建链

Node.js 中 http 模块的深度剖析与实战应用小结

《Node.js中http模块的深度剖析与实战应用小结》本文详细介绍了Node.js中的http模块,从创建HTTP服务器、处理请求与响应,到获取请求参数,每个环节都通过代码示例进行解析,旨在帮... 目录Node.js 中 http 模块的深度剖析与实战应用一、引言二、创建 HTTP 服务器:基石搭建(一

python中的与时间相关的模块应用场景分析

《python中的与时间相关的模块应用场景分析》本文介绍了Python中与时间相关的几个重要模块:`time`、`datetime`、`calendar`、`timeit`、`pytz`和`dateu... 目录1. time 模块2. datetime 模块3. calendar 模块4. timeit

Python模块导入的几种方法实现

《Python模块导入的几种方法实现》本文主要介绍了Python模块导入的几种方法实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录一、什么是模块?二、模块导入的基本方法1. 使用import整个模块2.使用from ... i

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G