千万数据量秒级查询

2023-12-14 06:20
文章标签 查询 千万 数据量 秒级

本文主要是介绍千万数据量秒级查询,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

**

详情见我的博客小生博客

**

双链表应用——千万数据量秒级查询

原理

利用双链表,
将数据全部读入内存,将读到的数据头插插入双链表,
因为链表头插效率高
然后在内存中检索数据,检索到就输出

代码片段

// 读取文件
file,_ := os.Open(path) // 打开文件
br := bufio.NewReader(file) // 读出文件对象
for{line,_,end := br.ReadLine()if end == io.EOF{break  //文件结束跳出循环}linestr := string(line) 
}

代码

package mainimport ("bufio""fmt""io""os""strings""time"
)type DoubleLinkNode struct{Value interface{}Next *DoubleLinkNodePre *DoubleLinkNode
}type MyDoubleLinkList struct{Lens intHead *DoubleLinkNode
}func NewDoubleLinkNode(value interface{})*DoubleLinkNode{return &DoubleLinkNode{Value: value,Next:  nil,Pre:   nil,}
}//func (DoubleLinkNode)func Constructor()*MyDoubleLinkList{return &MyDoubleLinkList{Lens: 0,Head: nil,}
}// GetLength 获取长度
func (this *MyDoubleLinkList)GetLength()int{return this.Lens
}// InsertHead 头插
func (this *MyDoubleLinkList)InsertHead(node *DoubleLinkNode){bak := this.Headthis.Head = nodethis.Head.Pre = nilthis.Head.Next = bakif this.Head.Next!=nil{this.Head.Next.Pre = this.Head}this.Lens++
}func (this *MyDoubleLinkList)toString(){node := this.Headstr := ""fmt.Println("lens:", this.Lens)for node != nil{str += fmt.Sprintf("%v-->", node.Value)node = node.Next}str += fmt.Sprintf("nil")fmt.Println(str)
}func (this *MyDoubleLinkList)FindStr(value string)interface{}{node := this.Headfor node!= nil{if strings.Contains(node.Value.(string), value){fmt.Println("找到:", node.Value.(string))}node = node.Next}return false
}func main() {l := Constructor()startTime := time.Now()pathList := []string{"D:\\itcast\\社工\\压缩\\猴岛游戏社区\\houdao\\1_1.txt","D:\\itcast\\社工\\压缩\\猴岛游戏社区\\houdao\\1_2.txt","D:\\itcast\\社工\\压缩\\猴岛游戏社区\\houdao\\1_3.txt",}for i:=0; i<len(pathList);i++{path := pathList[i]file,_ := os.Open(path) // 打开文件br := bufio.NewReader(file) // 读出文件对象for{line,_,end := br.ReadLine()if end == io.EOF{break  //文件结束跳出循环}linestr := string(line) //转化为字符串node := NewDoubleLinkNode(linestr) //新建节点l.InsertHead(node)}}fmt.Printf("内存载入完成, 数据量:%d, 用时:%v", l.GetLength(), time.Since(startTime))for;;{fmt.Println("\n请输入要查询的信息:")var str stringfmt.Scanln(&str)startTime2 := time.Now()l.FindStr(str)fmt.Printf("查询完成,用时:%v", time.Since(startTime2))}
}

这篇关于千万数据量秒级查询的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/491445

相关文章

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

ural 1026. Questions and Answers 查询

1026. Questions and Answers Time limit: 2.0 second Memory limit: 64 MB Background The database of the Pentagon contains a top-secret information. We don’t know what the information is — you

Mybatis中的like查询

<if test="templateName != null and templateName != ''">AND template_name LIKE CONCAT('%',#{templateName,jdbcType=VARCHAR},'%')</if>

京东物流查询|开发者调用API接口实现

快递聚合查询的优势 1、高效整合多种快递信息。2、实时动态更新。3、自动化管理流程。 聚合国内外1500家快递公司的物流信息查询服务,使用API接口查询京东物流的便捷步骤,首先选择专业的数据平台的快递API接口:物流快递查询API接口-单号查询API - 探数数据 以下示例是参考的示例代码: import requestsurl = "http://api.tanshuapi.com/a

DAY16:什么是慢查询,导致的原因,优化方法 | undo log、redo log、binlog的用处 | MySQL有哪些锁

目录 什么是慢查询,导致的原因,优化方法 undo log、redo log、binlog的用处  MySQL有哪些锁   什么是慢查询,导致的原因,优化方法 数据库查询的执行时间超过指定的超时时间时,就被称为慢查询。 导致的原因: 查询语句比较复杂:查询涉及多个表,包含复杂的连接和子查询,可能导致执行时间较长。查询数据量大:当查询的数据量庞大时,即使查询本身并不复杂,也可能导致

oracle11.2g递归查询(树形结构查询)

转自: 一 二 简单语法介绍 一、树型表结构:节点ID 上级ID 节点名称二、公式: select 节点ID,节点名称,levelfrom 表connect by prior 节点ID=上级节点IDstart with 上级节点ID=节点值 oracle官网解说 开发人员:SQL 递归: 在 Oracle Database 11g 第 2 版中查询层次结构数据的快速

ElasticSearch的DSL查询⑤(ES数据聚合、DSL语法数据聚合、RestClient数据聚合)

目录 一、数据聚合 1.1 DSL实现聚合 1.1.1 Bucket聚合  1.1.2 带条件聚合 1.1.3 Metric聚合 1.1.4 总结 2.1 RestClient实现聚合 2.1.1 Bucket聚合 2.1.2 带条件聚合 2.2.3 Metric聚合 一、数据聚合 聚合(aggregations)可以让我们极其方便的实现对数据的统计、分析、运算。例如:

MySQL基础(7)- 多表查询

目录 一、笛卡尔积的错误与正确的多表查询 1.出现笛卡尔积错误 2.正确的多表查询:需要有连接条件 3.查询多个表中都存在的字段 4.SELECT和WHERE中使用表的别名 二、等值连接vs非等值连接、自连接vs非自连接 1.等值连接  vs  非等值连接 2.自连接  vs  非自连接 3.内连接  vs  外连接 4.UNION  和 UNION ALL的使用 5.7种J

面对Redis数据量庞大时的应对策略

面对Redis数据量庞大时的应对策略,我们可以从多个维度出发,包括数据分片、内存优化、持久化策略、使用集群、硬件升级、数据淘汰策略、以及数据结构选择等。以下是对这些策略的详细探讨: 一、数据分片(Sharding) 当Redis数据量持续增长,单个实例的处理能力可能达到瓶颈。此时,可以通过数据分片将数据分散存储到多个Redis实例中,以实现水平扩展。分片的主要策略包括: 一致性哈希:使用一

Hbase Filter+Scan 查询效率优化

Hbase Filter+Scan 查询效率问题 众所周知,Hbase利用filter过滤器查询时候会进行全表扫描,查询效率低下,如果没有二级索引,在项目中很多情况需要利用filter,下面针对这种情况尝试了几种优化的方案,仅供参考,欢迎交流。 根据业务要求,作者需要根据时间范围搜索所需要的数据,所以作者设计的rowKey是以时间戳为起始字符串的。 正确尝试: 1.scan 设置 开始行和结