本文主要是介绍Ethereum 源码分析之ethdb,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1. ethdb(ethereum数据库)源码分析以及levelDB
ethdb package 存放在位置 go-ethereum/ethdb中
根据分析ethdb的接口Database:
//Database接口位置: go-ethereum/ethdb/database.go
type Database interface{Reader //读取器:从数据库中读取数据Writer //写入器:向数据库中写入数据Batcher //支持数据存储的接口,将多个操作合并到一个批处理任务中,然后一次性提交给数据库执行.//减少I/O次数Iterator //创建数据库内容的二进制字母排序迭代器的方法.Stater //提供了各种从键值数据库和不可改变的原始数据中检索到状态的方法Compacter //方法用于给定键范围的底层数据存储进行压缩。它的作用是丢弃已删除和被覆盖的版本,//并重新排列数据,以减少访问它们所需的操作成本.Snapshotter //基于当前状态创建一个数据库快照,所创建的快照将
}
//上述中都是接口,那么ethdb的数据库必须要实现上述接口中的所有方法.
底层数据库支持leveldb(kv键值存储库),memorydb(内存数据库)以及pebble(kv键值存储库)三种数据库. leveldb是最常用和成熟的选项,而memorydb则适用于对速度要求较高且数据不需要持久化的场景.
接下来我们将会介绍leveldb的底层数据库实现下的ethdb:
1.1 go-ethereum/leveldb package
package location: go-ethereum/ethdb/leveldb
实际底层数据库是:GitHub - syndtr/goleveldb: LevelDB key/value database in Go. 即go-ethereum/leveldb是对goleveldb的一层封装.go-etheruem/ethdb/leveldb的结构体如下:
type Database struct {fn string // filename for reportingdb *leveldb.DB // LevelDB instance(leveldb实例)//下面的字段都是测量数据库性能的meter.compTimeMeter metrics.Meter // Meter for measuring the total time spent in database compactioncompReadMeter metrics.Meter // Meter for measuring the data read during compactioncompWriteMeter metrics.Meter // Meter for measuring the data written during compactionwriteDelayNMeter metrics.Meter // Meter for measuring the write delay number due to database compactionwriteDelayMeter metrics.Meter // Meter for measuring the write delay duration due to database compactiondiskSizeGauge metrics.Gauge // Gauge for tracking the size of all the levels in the databasediskReadMeter metrics.Meter // Meter for measuring the effective amount of data readdiskWriteMeter metrics.Meter // Meter for measuring the effective amount of data writtenmemCompGauge metrics.Gauge // Gauge for tracking the number of memory compactionlevel0CompGauge metrics.Gauge // Gauge for tracking the number of table compaction in level0nonlevel0CompGauge metrics.Gauge // Gauge for tracking the number of table compaction in non0 levelseekCompGauge metrics.Gauge // Gauge for tracking the number of table compaction caused by read optmanualMemAllocGauge metrics.Gauge // Gauge to track the amount of memory that has been manually allocated (not a part of runtime/GC)levelsGauge [7]metrics.Gauge // Gauge for tracking the number of tables in levelsquitLock sync.Mutex // Mutex protecting the quit channel accessquitChan chan chan error // Quit channel to stop the metrics collection before closing the databaselog log.Logger // Contextual logger tracking the database path
}
我们从go-etheruem/ethdb/leveldb/leveldb_test.go中BenchmarkLevelDB
中开始
func BenchmarkLevelDB(b *testing.B) {dbtest.BenchDatabaseSuite(b, func() ethdb.KeyValueStore {db, err := leveldb.Open(storage.NewMemStorage(), nil)if err != nil {b.Fatal(err)}return &Database{db: db,}})
}
//storage.NewMemStorage()
1.2 leveldb feature
-
支持基本操作:Put(key,value),Get(key),Delete(key)
- key和value都可以是任意的字节数组
-
Data是按照key排序的,且排序的顺序是可以自定义的.
-
批处理(batcher): 多个改变都可以放在一个具有原子性的批处理
-
支持向前和向后的迭代器(iteration)
-
支持瞬间快照来获得一致性视图
-
支持数据自动压缩.
1.2.1 API
创建数据库:
db, err := leveldb.OpenFile(file, options)读取Get和写入Put操作:
dat, err := db.Get(key, nil) //返回的切片只是拷贝,是可以修改的.
err:=db.Put(key, value, nil)
删除操作:
err:=db.Delete(key, nil)批量处理
leveldb.Batch{}.
1.2.2 leveldb.batch(原子批量化)的源码分析
github.com/syndtr/goleveldb/leveldb/batch.go文件
leveldb提供的批处理创建的方法有:
func leveldb.MakeBatch(n int) *leveldb.Batch
//实际上就是对data切片设置为n,实际上可以减少cpu开销.ethdb中的实现Batch方法:
func (db *Database) NewBatch() ethdb.Batch {return &batch{db: db.db,b: new(leveldb.Batch),}
}
ethdb中的batch结构体:创建的时候为一个db绑定一个batch.
type batch struct {db *leveldb.DBb *leveldb.Batchsize int
}
leveldb的批量处理化(加入操作)如何实现?
批量处理支持Put和Delete操作,那么就需要对外开放Put,Delete操作以及执行(Replay)的操作.
1. 结构体:
type Batch struct{data []byte //存放批量操作的切片index []batchIndex //存放每个批量操作在data中的末尾位置// internalLen is sums of key/value pair l5. Put和Delete操作ength plus 8-bytes internal key.internalLen int
}2. batchIndex数据类型:
type batchIndex struct{keyType keyTypekeyPos, keyLen int //一个数组中的实例的位置1. pos+len 或者2. startPos+endPosvaluePos, valueLen int
}
batchIndex中需要记录一个Put/Delete请求的放在batch中需要记录Key和Value的位置keyType的表示:
type keyType uint
keyTypeDel=keyType(0)
keyTypeVal=keyType(1)3. 重置Batch
func (b *Batch) Reset() {b.data = b.data[:0]b.index = b.index[:0]b.internalLen = 0
}4. Batch长度:
func (b *Batch) Len() int {return len(b.index)
}5. Put和Delete操作
func (b *Batch) Put(key, value []byte)
func (b *Batch) Delete(key []byte)上面两个实际调用的是appendRec方法
appendRec方法:
import "encoding/binary"func (b *Batch) appendRec(kt keyType, key, value []byte) {//binary.MaxVarintLen32:32位整数经过Varint编码后的最大长度,此时是5.//binary.MaxVarintlen32n := 1 + binary.MaxVarintLen32 + len(key)if kt == keyTypeVal { //如果是put操作则需要加value的长度n += binary.MaxVarintLen32 + len(value)}b.grow(n) //扩展空间index := batchIndex{keyType: kt}o := len(b.data) //在leveldb中key,value都是[]byte数组.data := b.data[:o+n] //data的len长度增加从o变为o+ndata[o] = byte(kt)//每一个batch中的操作第一个字节表示操作类型,o++//binary.PutUvarint把uint64编码加入到data切片中o += binary.PutUvarint(data[o:], uint64(len(key)))index.keyPos = o //记录key存放的开始位置index.keyLen = len(key) //记录key存放的长度o += copy(data[o:], key) //把key复制到data[0:]if kt == keyTypeVal { //put方法,那么就还需要存放val值o += binary.PutUvarint(data[o:], uint64(len(value)))index.valuePos = oindex.valueLen = len(value)o += copy(data[o:], value)}b.data = data[:o]b.index = append(b.index, index)//我觉得应该b.internalLen += index.keyLen + index.valueLen + 8
} 调用grow方法(切片是由len,cap以及底层数组的指针三元组表示):
func (b *Batch) grow(n int) {o := len(b.data) //data的数组长度if cap(b.data)-o < n {div := 1if len(b.index) > batchGrowRec { div = len(b.index) / batchGrowRec}ndata := make([]byte, o, o+n+o/div) //还会额外增加一部分空间:o+n+o*(batchGrowRec)/(b.index)//copy(ndata, b.data)b.data = ndata}
}
leveldb的批量处理化(重现Replay操作)的如何实现?
//批处理就是遍历batch的index数组(数组中的每个元素记录了每一条记录)
func (b *Batch)Replay(r BatchReplay)error{for _,index:=range b.index{switch index.keytype{case keyTypeVal: //put操作,返回key和value的[]byter.Put(index.k(b.data), index.v(b.data))case keyTypeDel://delete操作,返回key的[]byter.Delete(index.k(b.data))}}
}
1.2.3 go-ethereum的leveldb中iterator.Iterator(迭代器)源码分析
leveldb实现的迭代器可以向前向后(forward and backward)
以太坊ethdb底层数据库如果使用的是leveldb,那么对外提供了一个接口来创建leveldb的迭代器,接口如下:
//为满足key的前缀prefix的数据库内容子集创建一个迭代器
func (db *Database) NewIterator(prefix []byte, start []byte) ethdb.Iterator{return db.db.NewIterator(bytesPrefixRange(prefix, start), nil)//bytesPrefixRange()返回满足的键范围. //return的类型是leveldb包中iterator.Iterator
}上述bytesPrefix
我们可以根据上述发现,leveldb中的迭代器实例可以赋值给ethdb.Iterator说明该迭代器实例实现了ethdb.Iterator的方法. ethdb.Iterator的接口如下:
type Iterator interface {// 移动迭代器到下一个kv对,返回该迭代器是否是饥饿的(exhausted)Next() bool// Error returns any accumulated error. Exhausting all the key/value pairs// is not considered to be an error.Error() error// 返回当前迭代器指向的key/value对的key或者nil,且不要对返回的切片的值进行更改// 如果需要对切片的值更改,需要用copy方式Key() []byte//返回当前迭代器指向的key/value对的value或者nil,且不要对返回的切片的值进行更改\//如果需要对切片的值更改,需要用copy方式Value() []byte//Release是释放相关的资源,Release是可以被调用多次的且不会返回error.Release()
}
1.2.4 go-ethereum的leveldb中snapshot(快照)
在以太坊go-ethereum/ethdb/snapshot.go中定义了快照接口的类型:
type Snapshot interface{//检索键值存储数据存储支持的快照中是否存在Has(key []byte)(bool,error)// 检索键值存储数据存储支持的快照中并返回key所对应的valueGet(key []byte)([]byte,error)//释放资源Release()
}
这篇关于Ethereum 源码分析之ethdb的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!