java 统计10000篇文章中不同单词出现的次数并以次序排序

2024-03-27 17:18

本文主要是介绍java 统计10000篇文章中不同单词出现的次数并以次序排序,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

统计10000篇文章中不同单词出现的次数并以次序排序

此次统计从两方面入手:一是单线程读取10000个文件;二是打开10000个线程,每个线程读取一个文件


单线程程序

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.util.ArrayList;
import java.util.Collections;
import java.util.Comparator;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.TreeMap;public class CountLetters {
//	public static String FILE_NAME = "/home/taohao/temp/english.txt";public static String FILE_PATH = "/home/taohao/temp/test";private String[] readFromeFile(String[] fileNames){String lineString = new String();StringBuilder line = new StringBuilder();BufferedReader bufferedReader = null;for(String name : fileNames){try {name = FILE_PATH + "/" + name;File file = new File(name);bufferedReader = new BufferedReader(new FileReader(file));while((lineString=bufferedReader.readLine())!=null){line.append(lineString);}bufferedReader.close();} catch (Exception e) {// TODO: handle exceptionSystem.out.println(e);}}
//		System.out.println(line.toString());String[] letters = line.toString().split("\\W+");return letters;}private HashMap<String, Integer> countMap(String[] string){HashMap<String, Integer> hashMap = new HashMap<String, Integer>();Integer integer = new Integer(1);int newIntValue;Integer newInteger = null;Integer value = null;for(String item : string){if((value=hashMap.get(item))==null){hashMap.put(item, integer);}else {newIntValue = value.intValue() + 1;newInteger = new Integer(newIntValue);hashMap.put(item, newInteger);}}return hashMap;}// treemap 的key 不能重复,否则会被覆盖,因此此处的转换有问题
//	private TreeMap<Integer, String>hashMapToTreeMap(HashMap<String, Integer> hashMap){
//		TreeMap<Integer, String> treeMap = new TreeMap<Integer, String>(new Comparator<Integer>() {
//
//			@Override
//			public int compare(Integer o1, Integer o2) {
//				// TODO Auto-generated method stub
//				return ~o1.compareTo(o2)+1;
//			}
//		});
//		for(String letter : hashMap.keySet()){
//			treeMap.put(hashMap.get(letter), letter);
//		}
//		return treeMap;
//	}public static void main(String[] args){/** 单线程*/long start = System.currentTimeMillis();  //msCountLetters countLetters = new CountLetters();File file = new File(CountLetters.FILE_PATH);String[] fileNames = file.list();String[] letters = countLetters.readFromeFile(fileNames);System.out.println(letters.length);HashMap<String, Integer> hashMap = countLetters.countMap(letters);System.out.println(hashMap.size());SortByValues sortByValues = new SortByValues();List<Map.Entry<String, Integer>> mapItemList = new ArrayList<>(hashMap.entrySet());Collections.sort(mapItemList, sortByValues);System.out.println(mapItemList.size());System.out.println(mapItemList.toString());long end = System.currentTimeMillis();System.out.println("start-end=" + (end-start));}
}


多线程程序

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.util.ArrayList;
import java.util.Collections;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;public class CountLettersThreads {public static String FILE_PATH = "/home/taohao/temp/test";
//	private String[] fileLiStrings = null;public HashMap<String, Integer> hashMap = new HashMap<String, Integer>();class countThread implements Runnable{private String fileName = null;private String[] letterStrings = null;public countThread(String fileName) {// TODO Auto-generated constructor stubthis.fileName = FILE_PATH + "/" + fileName;}@Overridepublic void run() {// TODO Auto-generated method stubletterStrings = readFromeFile(fileName);synchronized (hashMap) {Integer integer = new Integer(1);int newIntValue;Integer newInteger = null;Integer value = null;for(String item : letterStrings){if((value=hashMap.get(item))==null){hashMap.put(item, integer);}else {newIntValue = value.intValue() + 1;newInteger = new Integer(newIntValue);hashMap.put(item, newInteger);}}}}public String[] readFromeFile(String fileName){String lineString = new String();StringBuilder line = new StringBuilder();File file = new File(fileName);BufferedReader bufferedReader = null;try {bufferedReader = new BufferedReader(new FileReader(file));while((lineString=bufferedReader.readLine())!=null){line.append(lineString);}bufferedReader.close();} catch (Exception e) {// TODO: handle exceptionSystem.out.println("readfile exception " + e);}System.out.println(line.toString());String[] letters = line.toString().split("\\W+");return letters;}}public static void main(String[] args) throws Exception{long start = System.currentTimeMillis();  // msFile file = new File(CountLettersThreads.FILE_PATH);CountLettersThreads countLettersThreads = new CountLettersThreads();String[] fileList = file.list();int fileCount = fileList.length;for(int i=0; i<fileCount; i++){CountLettersThreads.countThread runnaThread = countLettersThreads.new countThread(fileList[i]);Thread thread = new Thread(runnaThread);thread.start();thread.join();}HashMap<String, Integer> hashMap = countLettersThreads.hashMap;System.out.println(hashMap.size());SortByValues sortByValues = new SortByValues();List<Map.Entry<String, Integer>> mapItemList = new ArrayList<>(hashMap.entrySet());Collections.sort(mapItemList, sortByValues);System.out.println(mapItemList.toString());long end = System.currentTimeMillis();System.out.println("start-end=" + (end-start));}
}


另外用到的一个比较类

import java.awt.List;
import java.util.Comparator;
import java.util.HashMap;
import java.util.Map;
import java.util.Map.Entry;public class SortByValues implements Comparator<Map.Entry<String, Integer>>{@Overridepublic int compare(Entry<String, Integer> o1, Entry<String, Integer> o2) {// TODO Auto-generated method stubreturn ~o1.getValue().compareTo(o2.getValue()) + 1;}
}


得到的统计数据为:

单线程用时84537ms, 差不多是多线程的三倍多。

多线程用时31516ms

由上可知两者的差别只有三倍左右的差别,我觉得可能的原因是在最后排序都是统一排序的,

多线程只负责了读文件和区分不同的单词及单词出现的数量,并没有进行局部排序。

如果在每个线程里面进行了局部排序应该两者所用的时间还会继续拉大。


另外本程序中对hashmap的value进行排序,此时是将hashmap的entry作为list的元素,通过collection的sort()函数进行排序的。

collection的sort()函数怎样排序的,我还要进一步查阅资料学习。????







这篇关于java 统计10000篇文章中不同单词出现的次数并以次序排序的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/852857

相关文章

Java实现检查多个时间段是否有重合

《Java实现检查多个时间段是否有重合》这篇文章主要为大家详细介绍了如何使用Java实现检查多个时间段是否有重合,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录流程概述步骤详解China编程步骤1:定义时间段类步骤2:添加时间段步骤3:检查时间段是否有重合步骤4:输出结果示例代码结语作

Java中String字符串使用避坑指南

《Java中String字符串使用避坑指南》Java中的String字符串是我们日常编程中用得最多的类之一,看似简单的String使用,却隐藏着不少“坑”,如果不注意,可能会导致性能问题、意外的错误容... 目录8个避坑点如下:1. 字符串的不可变性:每次修改都创建新对象2. 使用 == 比较字符串,陷阱满

Java判断多个时间段是否重合的方法小结

《Java判断多个时间段是否重合的方法小结》这篇文章主要为大家详细介绍了Java中判断多个时间段是否重合的方法,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录判断多个时间段是否有间隔判断时间段集合是否与某时间段重合判断多个时间段是否有间隔实体类内容public class D

IDEA编译报错“java: 常量字符串过长”的原因及解决方法

《IDEA编译报错“java:常量字符串过长”的原因及解决方法》今天在开发过程中,由于尝试将一个文件的Base64字符串设置为常量,结果导致IDEA编译的时候出现了如下报错java:常量字符串过长,... 目录一、问题描述二、问题原因2.1 理论角度2.2 源码角度三、解决方案解决方案①:StringBui

Java覆盖第三方jar包中的某一个类的实现方法

《Java覆盖第三方jar包中的某一个类的实现方法》在我们日常的开发中,经常需要使用第三方的jar包,有时候我们会发现第三方的jar包中的某一个类有问题,或者我们需要定制化修改其中的逻辑,那么应该如何... 目录一、需求描述二、示例描述三、操作步骤四、验证结果五、实现原理一、需求描述需求描述如下:需要在

Java中ArrayList和LinkedList有什么区别举例详解

《Java中ArrayList和LinkedList有什么区别举例详解》:本文主要介绍Java中ArrayList和LinkedList区别的相关资料,包括数据结构特性、核心操作性能、内存与GC影... 目录一、底层数据结构二、核心操作性能对比三、内存与 GC 影响四、扩容机制五、线程安全与并发方案六、工程

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

Java调用DeepSeek API的最佳实践及详细代码示例

《Java调用DeepSeekAPI的最佳实践及详细代码示例》:本文主要介绍如何使用Java调用DeepSeekAPI,包括获取API密钥、添加HTTP客户端依赖、创建HTTP请求、处理响应、... 目录1. 获取API密钥2. 添加HTTP客户端依赖3. 创建HTTP请求4. 处理响应5. 错误处理6.

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2