深究KNIME分析平台上的节点是如何实现推荐原理的

2024-03-25 05:40

本文主要是介绍深究KNIME分析平台上的节点是如何实现推荐原理的,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

kinme节点推荐分为社区推荐和服务器推荐,社区推荐即为官方hub,网址https://hub.knime.com/,这个是knime官方存储节点和流程库的,里面也会时常更新。
社区推荐就根据很多使用社区里面节点的频率。服务器推荐是knime-server上存储的节点,我们在KAP分析平台上可以通过knime-serve的api直接连接到服务器上,可以下载服务器上的节点到KAP分析平台上,它就根据用户在服务上使用的节点频率进行节点推荐,但它推荐的节点只是服务器本地resposity里面现有的节点。
Workspace推荐代码
源码有这么一段话
Frequency of how often the nodes were used in the workflows of your workspace.
在工作区的工作流中使用节点的频率。
在这里插入图片描述

这部分代码是获取节点频率的

    return NodeFrequencies.from(Files.newInputStream(WORKSPACE_NODE_TRIPLES_JSON_FILE)).getFrequencies().stream();

worksapce的节点使用率存在了一个名为workspace_recommendations.json的json文件内,每次更新最自动根据KNIME的工作空间(D:\Users\nn\knime-workspace.metadata\knime)路径找到这个文件,并对其更新,在KAP平台上拖动节点,work coach会自动根据最新的json数据来进行节点推荐。

static {PREFS = new ScopedPreferenceStore(InstanceScope.INSTANCE, FrameworkUtil.getBundle(WorkspaceTripleProvider.class).getSymbolicName());WORKSPACE_NODE_TRIPLES_JSON_FILE = Paths.get(KNIMEConstants.getKNIMEHomeDir(), "workspace_recommendations.json");
}

community推荐机制代码
在这里插入图片描述
CommunityTripleProvider.java

//
// Source code recreated from a .class file by IntelliJ IDEA
// (powered by Fernflower decompiler)
//package org.knime.workbench.workflowcoach.data;import java.util.Collections;
import java.util.List;
import org.eclipse.core.runtime.preferences.InstanceScope;
import org.eclipse.ui.preferences.ScopedPreferenceStore;
import org.osgi.framework.FrameworkUtil;public class CommunityTripleProvider extends AbstractFileDownloadTripleProvider {private static final ScopedPreferenceStore PREFS;static {PREFS = new ScopedPreferenceStore(InstanceScope.INSTANCE, FrameworkUtil.getBundle(CommunityTripleProvider.class).getSymbolicName());}public CommunityTripleProvider() {super("https://update.knime.com/community_recommendations.json", "community_recommendations.json");}public String getName() {return "Community";}public String getDescription() {return "Frequency of how often the KNIME community used this node.";}public boolean isEnabled() {return PREFS.getBoolean("community_node_triple_provider");}public static final class Factory implements NodeTripleProviderFactory {public Factory() {}public List<NodeTripleProvider> createProviders() {return Collections.singletonList(new CommunityTripleProvider());}public String getPreferencePageID() {return "org.knime.workbench.workflowcoach";}}
}

上面代码社区的推荐代码,可以看到推荐的原理是我们请求一个url,这个url返回一个json数据,这个数据是最近社区一些节点的使用频率

 private static void fillRecommendationsMap(Map<String, List<NodeRecommendationManager.NodeRecommendation>> recommendationMap, NodeTriple nf) {if (!nf.getNode().isPresent() && !nf.getPredecessor().isPresent() && isSourceNode(nf.getSuccessor())) {add(recommendationMap, "<source_nodes>", nf.getSuccessor(), nf.getCount());}if (!nf.getPredecessor().isPresent() && nf.getNode().isPresent() && isSourceNode((NodeInfo)nf.getNode().get())) {add(recommendationMap, "<source_nodes>", (NodeInfo)nf.getNode().get(), nf.getCount());}if (nf.getNode().isPresent()) {add(recommendationMap, getKey((NodeInfo)nf.getNode().get()), nf.getSuccessor(), nf.getCount());}if (nf.getPredecessor().isPresent() && nf.getNode().isPresent()) {add(recommendationMap, getKey((NodeInfo)nf.getPredecessor().get()) + "#" + getKey((NodeInfo)nf.getNode().get()), nf.getSuccessor(), nf.getCount());}}

实验
在这里插入图片描述
这里我新建一个流程,其中Data Generator为社区的节点,其功能为数字生成器,Test是我自己自定义开发的节点,其功能是可以调整数据保留几位小数。后面两个分别是画直线图和散点图。
在这里插入图片描述
在这里插入图片描述

一开始我把在eclipse上自定义开发的节点达成jar包放到knime安装目录下的dropin目录下,这样打开KNIME分析平台就可以看到这个节点了。但是当选中此节点时,此时的workflow coach没有任何推荐的节点,我们执行这个流程并保存。
打开workflow coach配置,点击更新,此时会下载更新一个名为workspace_recommendations.json。里面存储了当前工作区每个节点使用的频率。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

可以看到Test节点的前驱为Data Generator,后继为Scatter Plot和Line Plot
此时再查看workflow coach
在这里插入图片描述

可以看出Scatter Plot和Line Plot分别为50%,同理社区的节点推荐元也是如此,不过这个每次更新都能远程下载一个节点使用频率的json文件,还有在工作区上,分析平台时如何监视节点的,并算出频率的,这些问题还有待研究。

这篇关于深究KNIME分析平台上的节点是如何实现推荐原理的的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/843998

相关文章

Python如何实现读取csv文件时忽略文件的编码格式

《Python如何实现读取csv文件时忽略文件的编码格式》我们再日常读取csv文件的时候经常会发现csv文件的格式有多种,所以这篇文章为大家介绍了Python如何实现读取csv文件时忽略文件的编码格式... 目录1、背景介绍2、库的安装3、核心代码4、完整代码1、背景介绍我们再日常读取csv文件的时候经常

Golang中map缩容的实现

《Golang中map缩容的实现》本文主要介绍了Go语言中map的扩缩容机制,包括grow和hashGrow方法的处理,具有一定的参考价值,感兴趣的可以了解一下... 目录基本分析带来的隐患为什么不支持缩容基本分析在 Go 底层源码 src/runtime/map.go 中,扩缩容的处理方法是 grow

Go 1.23中Timer无buffer的实现方式详解

《Go1.23中Timer无buffer的实现方式详解》在Go1.23中,Timer的实现通常是通过time包提供的time.Timer类型来实现的,本文主要介绍了Go1.23中Timer无buff... 目录Timer 的基本实现无缓冲区的实现自定义无缓冲 Timer 实现更复杂的 Timer 实现总结在

基于Python实现多语言朗读与单词选择测验

《基于Python实现多语言朗读与单词选择测验》在数字化教育日益普及的今天,开发一款能够支持多语言朗读和单词选择测验的程序,对于语言学习者来说无疑是一个巨大的福音,下面我们就来用Python实现一个这... 目录一、项目概述二、环境准备三、实现朗读功能四、实现单词选择测验五、创建图形用户界面六、运行程序七、

Vue中动态权限到按钮的完整实现方案详解

《Vue中动态权限到按钮的完整实现方案详解》这篇文章主要为大家详细介绍了Vue如何在现有方案的基础上加入对路由的增、删、改、查权限控制,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、数据库设计扩展1.1 修改路由表(routes)1.2 修改角色与路由权限表(role_routes)二、后端接口设计

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

Spring Cloud Hystrix原理与注意事项小结

《SpringCloudHystrix原理与注意事项小结》本文介绍了Hystrix的基本概念、工作原理以及其在实际开发中的应用方式,通过对Hystrix的深入学习,开发者可以在分布式系统中实现精细... 目录一、Spring Cloud Hystrix概述和设计目标(一)Spring Cloud Hystr

Qt实现发送HTTP请求的示例详解

《Qt实现发送HTTP请求的示例详解》这篇文章主要为大家详细介绍了如何通过Qt实现发送HTTP请求,文中的示例代码讲解详细,具有一定的借鉴价值,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1、添加network模块2、包含改头文件3、创建网络访问管理器4、创建接口5、创建网络请求对象6、创建一个回复对

Go使用pprof进行CPU,内存和阻塞情况分析

《Go使用pprof进行CPU,内存和阻塞情况分析》Go语言提供了强大的pprof工具,用于分析CPU、内存、Goroutine阻塞等性能问题,帮助开发者优化程序,提高运行效率,下面我们就来深入了解下... 目录1. pprof 介绍2. 快速上手:启用 pprof3. CPU Profiling:分析 C

C++实现回文串判断的两种高效方法

《C++实现回文串判断的两种高效方法》文章介绍了两种判断回文串的方法:解法一通过创建新字符串来处理,解法二在原字符串上直接筛选判断,两种方法都使用了双指针法,文中通过代码示例讲解的非常详细,需要的朋友... 目录一、问题描述示例二、解法一:将字母数字连接到新的 string思路代码实现代码解释复杂度分析三、