Kafka streams报错:Caused by: java.lang.ClassNotFoundException

2024-02-26 01:30

本文主要是介绍Kafka streams报错:Caused by: java.lang.ClassNotFoundException,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述


1.场景

在实时流处理工程里,既有spark代码,又有kafka代码,二者之间的依赖,依赖的依赖,把idea搞蒙了。
依赖也正确写了,就是找不到类,清除缓存反复加载,也解决不了。
Caused by: java.lang.ClassNotFoundException。。。。
在这里插入图片描述


2.代码如下

import com.tk.dwd.etltools.DateJudge;
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.streams.StreamsConfig;
import org.apache.kafka.streams.processor.Processor;
import org.apache.kafka.streams.processor.ProcessorContext;
import org.apache.kafka.streams.processor.ProcessorSupplier;
import org.apache.kafka.streams.processor.TopologyBuilder;import com.alibaba.fastjson.JSONArray;
import com.alibaba.fastjson.JSONObject;import java.util.ArrayList;
import java.util.List;
import java.io.BufferedReader;
import java.io.FileReader;
import java.io.IOException;
import java.io.Reader;
import java.text.ParseException;
import java.util.Properties;public class ODS2DWD_ETL_TOPIC_5T_TCDS_M_RT_EVENT_DATA {public static void main(String[] args) throws IOException, ParseException {String str = "!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!============!!!!!!!!!!!!=============!!!!!!!!!!!=======!!!!!!!!!!!!\n" +"!!!!!!!==========!!!!!!!!!!!!===!!!==!!===!!!!!!!!!!!!!===!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!!!===!!!!!!!!!!!==!!!!==!!!==!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!!!!==!!!!!!!!!!!==!!!!==!!!!=!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!!=!!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!==!!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!========!!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!==!!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!!=!!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!\n" +"!!!!!!!==!!!!!=!!!!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!=!!!!!!\n" +"!!!!!!!==!!!!!!!==!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!!=!!!!!!\n" +"!!!!!!!==!!!!!!!==!!!!!!!!!!!!!!!!!==!!!!!!!!!!!!!!!!!!!==!!!!!!==!!!!!!\n" +"!!!!!!!===!!!!====!!!!!!!!!!!!!!!!===!!!!!!!!!!!!!!!!!!====!!!====!!!!!!\n" +"!!!!!============!!!!!!!!!!!!!!!=======!!!!!!!!!!!!!!=============!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!\n" +"!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!";System.out.println(str);System.out.println("================================================etl beginning ================================================");// 定义输入的topicString from = "EVENT_DATA";// 定义输出的topicString to = "DWD_EVENT_DATA";// 设置参数Properties props = new Properties();props.put(StreamsConfig.APPLICATION_ID_CONFIG, "logFilter");props.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "hadoop104:9092");System.out.println("condfig:" + props);// StreamsConfig config = new StreamsConfig(props);System.out.println("0001");// 构建拓扑TopologyBuilder builder = new TopologyBuilder();builder.addSource("SOURCE", from).addProcessor("PROCESS", new ProcessorSupplier<byte[], byte[]>() {@Overridepublic Processor<byte[], byte[]> get() {// 具体分析处理return new LogProcessor();}}, "SOURCE").addSink("SINK", to, "PROCESS");//// 创建kafka streamKafkaStreams streams = new KafkaStreams(builder, props);streams.start();}}class LogProcessor implements Processor<byte[], byte[]> {private ProcessorContext context;@Overridepublic void init(ProcessorContext context) {this.context = context;}@Overridepublic void process(byte[] key, byte[] value) {String input = new String(value);System.out.println(input);JSONArray jarr = JSONArray.parseArray(input);JSONObject json = jarr.getJSONObject(0);System.out.println(json);// 如果包含“>>>”则只保留该标记后面的内容if (input.contains(">>>")) {input = input.split(">>>")[1].trim();// 输出到下一个topiccontext.forward("logProcessor".getBytes(), input.getBytes());} else {context.forward("logProcessor".getBytes(), input.getBytes());}}@Overridepublic void punctuate(long timestamp) {}@Overridepublic void close() {}
}

3.解决方案

将kafka streams的代码,移动到单独的模块里,与spark模块独立开来,这样就可以正确的加载各种类了。

在这里插入图片描述

这篇关于Kafka streams报错:Caused by: java.lang.ClassNotFoundException的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/747295

相关文章

JVM 的类初始化机制

前言 当你在 Java 程序中new对象时,有没有考虑过 JVM 是如何把静态的字节码(byte code)转化为运行时对象的呢,这个问题看似简单,但清楚的同学相信也不会太多,这篇文章首先介绍 JVM 类初始化的机制,然后给出几个易出错的实例来分析,帮助大家更好理解这个知识点。 JVM 将字节码转化为运行时对象分为三个阶段,分别是:loading 、Linking、initialization

Spring Security 基于表达式的权限控制

前言 spring security 3.0已经可以使用spring el表达式来控制授权,允许在表达式中使用复杂的布尔逻辑来控制访问的权限。 常见的表达式 Spring Security可用表达式对象的基类是SecurityExpressionRoot。 表达式描述hasRole([role])用户拥有制定的角色时返回true (Spring security默认会带有ROLE_前缀),去

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

Spring Security--Architecture Overview

1 核心组件 这一节主要介绍一些在Spring Security中常见且核心的Java类,它们之间的依赖,构建起了整个框架。想要理解整个架构,最起码得对这些类眼熟。 1.1 SecurityContextHolder SecurityContextHolder用于存储安全上下文(security context)的信息。当前操作的用户是谁,该用户是否已经被认证,他拥有哪些角色权限…这些都被保

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

Java架构师知识体认识

源码分析 常用设计模式 Proxy代理模式Factory工厂模式Singleton单例模式Delegate委派模式Strategy策略模式Prototype原型模式Template模板模式 Spring5 beans 接口实例化代理Bean操作 Context Ioc容器设计原理及高级特性Aop设计原理Factorybean与Beanfactory Transaction 声明式事物

Java进阶13讲__第12讲_1/2

多线程、线程池 1.  线程概念 1.1  什么是线程 1.2  线程的好处 2.   创建线程的三种方式 注意事项 2.1  继承Thread类 2.1.1 认识  2.1.2  编码实现  package cn.hdc.oop10.Thread;import org.slf4j.Logger;import org.slf4j.LoggerFactory

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3