Ethereum 源码分析之ethdb

2023-11-10 20:59
文章标签 分析 源码 ethereum ethdb

本文主要是介绍Ethereum 源码分析之ethdb,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. ethdb(ethereum数据库)源码分析以及levelDB

ethdb package 存放在位置 go-ethereum/ethdb中

根据分析ethdb的接口Database:

//Database接口位置: go-ethereum/ethdb/database.go
type Database interface{Reader  //读取器:从数据库中读取数据Writer  //写入器:向数据库中写入数据Batcher //支持数据存储的接口,将多个操作合并到一个批处理任务中,然后一次性提交给数据库执行.//减少I/O次数Iterator //创建数据库内容的二进制字母排序迭代器的方法.Stater   //提供了各种从键值数据库和不可改变的原始数据中检索到状态的方法Compacter //方法用于给定键范围的底层数据存储进行压缩。它的作用是丢弃已删除和被覆盖的版本,//并重新排列数据,以减少访问它们所需的操作成本.Snapshotter //基于当前状态创建一个数据库快照,所创建的快照将
}
//上述中都是接口,那么ethdb的数据库必须要实现上述接口中的所有方法.

底层数据库支持leveldb(kv键值存储库),memorydb(内存数据库)以及pebble(kv键值存储库)三种数据库. leveldb是最常用和成熟的选项,而memorydb则适用于对速度要求较高且数据不需要持久化的场景.
在这里插入图片描述

接下来我们将会介绍leveldb的底层数据库实现下的ethdb:

1.1 go-ethereum/leveldb package

package location: go-ethereum/ethdb/leveldb

实际底层数据库是:GitHub - syndtr/goleveldb: LevelDB key/value database in Go. 即go-ethereum/leveldb是对goleveldb的一层封装.go-etheruem/ethdb/leveldb的结构体如下:

type Database struct {fn string      // filename for reportingdb *leveldb.DB // LevelDB instance(leveldb实例)//下面的字段都是测量数据库性能的meter.compTimeMeter       metrics.Meter // Meter for measuring the total time spent in database compactioncompReadMeter       metrics.Meter // Meter for measuring the data read during compactioncompWriteMeter      metrics.Meter // Meter for measuring the data written during compactionwriteDelayNMeter    metrics.Meter // Meter for measuring the write delay number due to database compactionwriteDelayMeter     metrics.Meter // Meter for measuring the write delay duration due to database compactiondiskSizeGauge       metrics.Gauge // Gauge for tracking the size of all the levels in the databasediskReadMeter       metrics.Meter // Meter for measuring the effective amount of data readdiskWriteMeter      metrics.Meter // Meter for measuring the effective amount of data writtenmemCompGauge        metrics.Gauge // Gauge for tracking the number of memory compactionlevel0CompGauge     metrics.Gauge // Gauge for tracking the number of table compaction in level0nonlevel0CompGauge  metrics.Gauge // Gauge for tracking the number of table compaction in non0 levelseekCompGauge       metrics.Gauge // Gauge for tracking the number of table compaction caused by read optmanualMemAllocGauge metrics.Gauge // Gauge to track the amount of memory that has been manually allocated (not a part of runtime/GC)levelsGauge [7]metrics.Gauge // Gauge for tracking the number of tables in levelsquitLock sync.Mutex      // Mutex protecting the quit channel accessquitChan chan chan error // Quit channel to stop the metrics collection before closing the databaselog log.Logger // Contextual logger tracking the database path
}

我们从go-etheruem/ethdb/leveldb/leveldb_test.go中BenchmarkLevelDB中开始

func BenchmarkLevelDB(b *testing.B) {dbtest.BenchDatabaseSuite(b, func() ethdb.KeyValueStore {db, err := leveldb.Open(storage.NewMemStorage(), nil)if err != nil {b.Fatal(err)}return &Database{db: db,}})
}
//storage.NewMemStorage()
1.2 leveldb feature
  1. 支持基本操作:Put(key,value),Get(key),Delete(key)

    1. key和value都可以是任意的字节数组
  2. Data是按照key排序的,且排序的顺序是可以自定义的.

  3. 批处理(batcher): 多个改变都可以放在一个具有原子性的批处理

  4. 支持向前和向后的迭代器(iteration)

  5. 支持瞬间快照来获得一致性视图

  6. 支持数据自动压缩.

1.2.1 API
创建数据库:
db, err := leveldb.OpenFile(file, options)读取Get和写入Put操作:
dat, err := db.Get(key, nil) //返回的切片只是拷贝,是可以修改的.
err:=db.Put(key, value, nil)
删除操作:
err:=db.Delete(key, nil)批量处理
leveldb.Batch{}.
1.2.2 leveldb.batch(原子批量化)的源码分析

github.com/syndtr/goleveldb/leveldb/batch.go文件

leveldb提供的批处理创建的方法有:

func leveldb.MakeBatch(n int) *leveldb.Batch
//实际上就是对data切片设置为n,实际上可以减少cpu开销.ethdb中的实现Batch方法:
func (db *Database) NewBatch() ethdb.Batch {return &batch{db: db.db,b:  new(leveldb.Batch),}
}
ethdb中的batch结构体:创建的时候为一个db绑定一个batch.
type batch struct {db   *leveldb.DBb    *leveldb.Batchsize int
}

leveldb的批量处理化(加入操作)如何实现?

批量处理支持Put和Delete操作,那么就需要对外开放Put,Delete操作以及执行(Replay)的操作.

1. 结构体:
type Batch struct{data  []byte //存放批量操作的切片index []batchIndex //存放每个批量操作在data中的末尾位置// internalLen is sums of key/value pair l5. Put和Delete操作ength plus 8-bytes internal key.internalLen int
}2. batchIndex数据类型:
type batchIndex struct{keyType            keyTypekeyPos, keyLen     int //一个数组中的实例的位置1. pos+len 或者2. startPos+endPosvaluePos, valueLen int
}
batchIndex中需要记录一个Put/Delete请求的放在batch中需要记录Key和Value的位置keyType的表示:
type keyType uint
keyTypeDel=keyType(0)
keyTypeVal=keyType(1)3. 重置Batch
func (b *Batch) Reset() {b.data = b.data[:0]b.index = b.index[:0]b.internalLen = 0
}4. Batch长度:
func (b *Batch) Len() int {return len(b.index)
}5. Put和Delete操作
func (b *Batch) Put(key, value []byte) 
func (b *Batch) Delete(key []byte)上面两个实际调用的是appendRec方法

appendRec方法:

import "encoding/binary"func (b *Batch) appendRec(kt keyType, key, value []byte) {//binary.MaxVarintLen32:32位整数经过Varint编码后的最大长度,此时是5.//binary.MaxVarintlen32n := 1 + binary.MaxVarintLen32 + len(key)if kt == keyTypeVal { //如果是put操作则需要加value的长度n += binary.MaxVarintLen32 + len(value)}b.grow(n) //扩展空间index := batchIndex{keyType: kt}o := len(b.data) //在leveldb中key,value都是[]byte数组.data := b.data[:o+n] //data的len长度增加从o变为o+ndata[o] = byte(kt)//每一个batch中的操作第一个字节表示操作类型,o++//binary.PutUvarint把uint64编码加入到data切片中o += binary.PutUvarint(data[o:], uint64(len(key)))index.keyPos = o //记录key存放的开始位置index.keyLen = len(key) //记录key存放的长度o += copy(data[o:], key) //把key复制到data[0:]if kt == keyTypeVal { //put方法,那么就还需要存放val值o += binary.PutUvarint(data[o:], uint64(len(value)))index.valuePos = oindex.valueLen = len(value)o += copy(data[o:], value)}b.data = data[:o]b.index = append(b.index, index)//我觉得应该b.internalLen += index.keyLen + index.valueLen + 8
} 调用grow方法(切片是由len,cap以及底层数组的指针三元组表示):
func (b *Batch) grow(n int) {o := len(b.data) //data的数组长度if cap(b.data)-o < n {div := 1if len(b.index) > batchGrowRec { div = len(b.index) / batchGrowRec}ndata := make([]byte, o, o+n+o/div) //还会额外增加一部分空间:o+n+o*(batchGrowRec)/(b.index)//copy(ndata, b.data)b.data = ndata}
}

leveldb的批量处理化(重现Replay操作)的如何实现?

//批处理就是遍历batch的index数组(数组中的每个元素记录了每一条记录)
func (b *Batch)Replay(r BatchReplay)error{for _,index:=range b.index{switch index.keytype{case keyTypeVal: //put操作,返回key和value的[]byter.Put(index.k(b.data), index.v(b.data))case keyTypeDel://delete操作,返回key的[]byter.Delete(index.k(b.data))}}
}
1.2.3 go-ethereum的leveldb中iterator.Iterator(迭代器)源码分析

leveldb实现的迭代器可以向前向后(forward and backward)

以太坊ethdb底层数据库如果使用的是leveldb,那么对外提供了一个接口来创建leveldb的迭代器,接口如下:

//为满足key的前缀prefix的数据库内容子集创建一个迭代器
func (db *Database) NewIterator(prefix []byte, start []byte) ethdb.Iterator{return db.db.NewIterator(bytesPrefixRange(prefix, start), nil)//bytesPrefixRange()返回满足的键范围.    //return的类型是leveldb包中iterator.Iterator
}上述bytesPrefix

我们可以根据上述发现,leveldb中的迭代器实例可以赋值给ethdb.Iterator说明该迭代器实例实现了ethdb.Iterator的方法. ethdb.Iterator的接口如下:

type Iterator interface {// 移动迭代器到下一个kv对,返回该迭代器是否是饥饿的(exhausted)Next() bool// Error returns any accumulated error. Exhausting all the key/value pairs// is not considered to be an error.Error() error// 返回当前迭代器指向的key/value对的key或者nil,且不要对返回的切片的值进行更改// 如果需要对切片的值更改,需要用copy方式Key() []byte//返回当前迭代器指向的key/value对的value或者nil,且不要对返回的切片的值进行更改\//如果需要对切片的值更改,需要用copy方式Value() []byte//Release是释放相关的资源,Release是可以被调用多次的且不会返回error.Release()
}
1.2.4 go-ethereum的leveldb中snapshot(快照)

在以太坊go-ethereum/ethdb/snapshot.go中定义了快照接口的类型:

type Snapshot interface{//检索键值存储数据存储支持的快照中是否存在Has(key []byte)(bool,error)// 检索键值存储数据存储支持的快照中并返回key所对应的valueGet(key []byte)([]byte,error)//释放资源Release()
}        

这篇关于Ethereum 源码分析之ethdb的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/385199

相关文章

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

如何在Visual Studio中调试.NET源码

今天偶然在看别人代码时,发现在他的代码里使用了Any判断List<T>是否为空。 我一般的做法是先判断是否为null,再判断Count。 看了一下Count的源码如下: 1 [__DynamicallyInvokable]2 public int Count3 {4 [__DynamicallyInvokable]5 get

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

MOLE 2.5 分析分子通道和孔隙

软件介绍 生物大分子通道和孔隙在生物学中发挥着重要作用,例如在分子识别和酶底物特异性方面。 我们介绍了一种名为 MOLE 2.5 的高级软件工具,该工具旨在分析分子通道和孔隙。 与其他可用软件工具的基准测试表明,MOLE 2.5 相比更快、更强大、功能更丰富。作为一项新功能,MOLE 2.5 可以估算已识别通道的物理化学性质。 软件下载 https://pan.quark.cn/s/57

工厂ERP管理系统实现源码(JAVA)

工厂进销存管理系统是一个集采购管理、仓库管理、生产管理和销售管理于一体的综合解决方案。该系统旨在帮助企业优化流程、提高效率、降低成本,并实时掌握各环节的运营状况。 在采购管理方面,系统能够处理采购订单、供应商管理和采购入库等流程,确保采购过程的透明和高效。仓库管理方面,实现库存的精准管理,包括入库、出库、盘点等操作,确保库存数据的准确性和实时性。 生产管理模块则涵盖了生产计划制定、物料需求计划、

衡石分析平台使用手册-单机安装及启动

单机安装及启动​ 本文讲述如何在单机环境下进行 HENGSHI SENSE 安装的操作过程。 在安装前请确认网络环境,如果是隔离环境,无法连接互联网时,请先按照 离线环境安装依赖的指导进行依赖包的安装,然后按照本文的指导继续操作。如果网络环境可以连接互联网,请直接按照本文的指导进行安装。 准备工作​ 请参考安装环境文档准备安装环境。 配置用户与安装目录。 在操作前请检查您是否有 sud

线性因子模型 - 独立分量分析(ICA)篇

序言 线性因子模型是数据分析与机器学习中的一类重要模型,它们通过引入潜变量( latent variables \text{latent variables} latent variables)来更好地表征数据。其中,独立分量分析( ICA \text{ICA} ICA)作为线性因子模型的一种,以其独特的视角和广泛的应用领域而备受关注。 ICA \text{ICA} ICA旨在将观察到的复杂信号

Spring 源码解读:自定义实现Bean定义的注册与解析

引言 在Spring框架中,Bean的注册与解析是整个依赖注入流程的核心步骤。通过Bean定义,Spring容器知道如何创建、配置和管理每个Bean实例。本篇文章将通过实现一个简化版的Bean定义注册与解析机制,帮助你理解Spring框架背后的设计逻辑。我们还将对比Spring中的BeanDefinition和BeanDefinitionRegistry,以全面掌握Bean注册和解析的核心原理。