unordered_map、unordered_set底层封装

2024-05-14 20:36
文章标签 封装 set 底层 map unordered

本文主要是介绍unordered_map、unordered_set底层封装,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 一、先实现哈希桶
      • 1.1哈希桶的实现方法
      • 1.2日常普遍的哈希桶存放的数据有两种:字符串和整形
      • 1.3哈希桶的实现代码+详解
        • 1.3.1哈希桶的两种仿函数(int和string)
        • 1.3.2哈希桶的节点(如果桶非常深,这里考虑挂红黑树)
        • 1.3.3哈希表的构造函数、析构函数
        • 1.3.4哈希表的查找和删除(和析构函数的原理类似)
        • 1.3.5哈希表的插入(这里插入需要判断总共桶的深度是否大于桶的长度,大于就扩容,桶太深不易于查找)
      • 1.4哈希桶的测试
    • 二、unordered_map、unordered_set的仿函数封装
      • 2.1先封装仿函数
      • 2.2加入迭代器(迭代器里面要存这张表,还有这个这个节点,然后还有对应的桶的序号)
      • 2.3哈希桶改造(加入迭代器,为了使迭代器能够访问到表里面的私有成员,我们加了一个友元)
      • 2.4unordered_map、unordered_set的内部封装
      • 2.5const迭代器的改造
    • 三、封装代码(比库里面的快一些,因为(在VS编辑器下)库里面的unordered_map、unordered_set里面需要多维护维护一个指针,这个指针是从插入第一个节点开始维护的)

在这里插入图片描述

一、先实现哈希桶

1.1哈希桶的实现方法

在这里插入图片描述

1.2日常普遍的哈希桶存放的数据有两种:字符串和整形

为了减少字符串的误判(比如"abcd" 和 “acbd”),我们每次加上一个字符串乘以一个数(这里我们可以查看字符串哈希算法)
在这里插入图片描述
这里我们每次就乘以31。

1.3哈希桶的实现代码+详解

1.3.1哈希桶的两种仿函数(int和string)

在这里插入图片描述

1.3.2哈希桶的节点(如果桶非常深,这里考虑挂红黑树)

在这里插入图片描述

1.3.3哈希表的构造函数、析构函数

在这里插入图片描述

1.3.4哈希表的查找和删除(和析构函数的原理类似)

在这里插入图片描述
这里有一点点的细节处理:需要判断该桶删除的位置到底是头,还是其他位置,分一下类

1.3.5哈希表的插入(这里插入需要判断总共桶的深度是否大于桶的长度,大于就扩容,桶太深不易于查找)

在这里插入图片描述

1.4哈希桶的测试

在这里插入图片描述
在这里插入图片描述

二、unordered_map、unordered_set的仿函数封装

2.1先封装仿函数

在这里插入图片描述

2.2加入迭代器(迭代器里面要存这张表,还有这个这个节点,然后还有对应的桶的序号)

在这里插入图片描述

2.3哈希桶改造(加入迭代器,为了使迭代器能够访问到表里面的私有成员,我们加了一个友元)

在这里插入图片描述

2.4unordered_map、unordered_set的内部封装

在这里插入图片描述
在这里插入图片描述

2.5const迭代器的改造

在这里插入图片描述

三、封装代码(比库里面的快一些,因为(在VS编辑器下)库里面的unordered_map、unordered_set里面需要多维护维护一个指针,这个指针是从插入第一个节点开始维护的)

unordered_map.h#pragma once
#include"HashTable.h"
namespace SF
{template<class K,class V,class Hash = HashFunc<K>>class unordered_map{struct KeyOfMap{const K& operator()(const pair<K, V>& kv){return kv.first;}};public://HashTable<K, pair<const K, V>, Hash, KeyOfMap>typedef typename hash_bucket::HashTable<K, pair<const K, V>, Hash, KeyOfMap>::iterator iterator;iterator begin(){return _ht.begin();}iterator end(){return _ht.end();}V& operator[](const K& key){pair<iterator, bool> ret = _ht.Insert(make_pair(key, V()));return ret.first->second;}const V& operator[](const K& key) const{pair<iterator, bool> ret = _ht.Insert(make_pair(key,V()));return ret.first->second;}pair<iterator, bool> insert(const pair<K,V>& data){return _ht.Insert(data);}iterator find(const K& key){return _ht.Find(key);}bool erase(const K& key){return _ht.Erase(key);}private:hash_bucket::HashTable<K, pair<const K,V>, Hash, KeyOfMap> _ht;};void test_map(){unordered_map<string, string> dict;dict.insert(make_pair("sort",""));dict.insert(make_pair("string","ַ"));dict.insert(make_pair("insert",""));auto iter = dict.begin();for (auto& kv : dict){//kv.first += 'x';kv.second += 'x';cout << kv.first << ":" << kv.second << endl;}cout << endl;string arr[] = { "苹果", "苹果","苹果", "苹果", "香蕉", "香蕉", "香蕉", "西瓜", "西瓜", "桂林米粉", "桂林米粉", "桂林米粉", "北京烤鸭" };unordered_map<string, int> count_map;for (auto& e : arr){count_map[e]++;}for (auto& kv : count_map){cout << kv.first << ":" << kv.second << endl;}cout << endl;}
}
unordered_set.h#pragma once
#include"HashTable.h"
namespace SF
{template<class K,class Hash = HashFunc<K>>class unordered_set{struct KeyOfSet{const K& operator()(const K& key){return key;}};public:typedef typename hash_bucket::HashTable<K,K, Hash, KeyOfSet>::iterator iterator;typedef typename hash_bucket::HashTable<K,K, Hash, KeyOfSet>::const_iterator const_iterator;iterator begin() {return iterator(_ht.begin());}iterator end() {return iterator(_ht.end());}const_iterator begin()const{return const_iterator(_ht.begin());}const_iterator end() const{return const_iterator(_ht.end());}pair<const_iterator, bool> insert(const K& key){auto ret = _ht.Insert(key);return pair<const_iterator, bool>(const_iterator(ret.first._pht,ret.first._node, ret.first._hashi),ret.second);}bool find(const K& key){return _ht.Find(key);}bool erase(const K& key){return _ht.Erase(key);}private:hash_bucket::HashTable<K,K, HashFunc<K>, KeyOfSet> _ht;};void test_set(){unordered_set<int> us;us.insert(5);us.insert(15);us.insert(52);us.insert(3);unordered_set<int>::iterator it = us.begin();while (it != us.end()){//*it += 5;cout << *it << " ";++it;}cout << endl;for (auto e : us){cout << e << " ";}cout << endl;}
}
HashTable.h#pragma once
#include<iostream>
#include<vector>
#include<string>
using namespace std;template<class K>
struct HashFunc
{size_t operator()(const K& key){return key;}
};template<>
struct HashFunc<string>//显示实例化
{size_t operator()(const string& kv){size_t hashi = 0;for (auto e : kv){hashi *= 31;hashi += e;}return hashi;}
};namespace hash_bucket
{template<class T>struct HashNode{T _data;HashNode<T>* _next;HashNode(const T& data):_data(data),_next(nullptr){}};template<class K,class T,class Hash,class KeyOfT>class HashTable;//声明类template<class K,class T,class Ptr,class Ref,class KeyOfT,class Hash>struct _HTIterator{typedef HashNode<T> Node;public://迭代器里面需要指向该位置的节点,然后还需要这张表,不然无法判断下一个位置,// 然后还需要该节点处于哪一个位置typedef _HTIterator<K, T, Ptr, Ref, KeyOfT, Hash> Self;typedef _HTIterator<K, T, T*, T&, KeyOfT, Hash> iterator;size_t _hashi;//该节点在哪一个桶Node* _node;const HashTable<K, T, Hash, KeyOfT>* _pht;_HTIterator(HashTable<K, T, Hash, KeyOfT>* pht,Node* node,size_t hashi):_pht(pht),_node(node),_hashi(hashi){}_HTIterator(const HashTable<K, T, Hash, KeyOfT>* pht, Node* node, size_t hashi):_pht(pht)//避免权限放大的影响, _node(node), _hashi(hashi){}_HTIterator(const iterator& iter) :_pht(iter._pht), _node(iter._node), _hashi(iter._hashi){}bool operator!=(const Self& s){return _node != s._node;}Ptr operator->(){return &_node->_data;}Ref operator*(){return _node->_data;}Self& operator++(){if (_node->_next){// 当前桶还有节点,走到下一个节点_node = _node->_next;}else{// 当前桶已经走完了,找下一个桶开始//KeyOfT kot;//Hash hf;//size_t hashi = hf(kot(_node->_data)) % _pht._tables.size();++_hashi;while (_hashi < _pht->_tables.size()){if (_pht->_tables[_hashi]){_node = _pht->_tables[_hashi];break;}++_hashi;}if (_hashi == _pht->_tables.size()){_node = nullptr;}}return *this;}};template<class K,class T,class Hash,class KeyOfT>class HashTable{public:typedef HashNode<T> Node;template<class K,class T,class Ptr,class Ref,class KeyOfT,class Hash>friend struct _HTIterator;typedef _HTIterator<K, T, T*, T&, KeyOfT, Hash> iterator;typedef _HTIterator<K, T,const T*, const T&, KeyOfT, Hash> const_iterator;public:iterator begin(){for (size_t i = 0; i < _tables.size(); i++){if (_tables[i])return iterator(this, _tables[i], i);}return end();}iterator end(){return iterator(this, nullptr, -1);}const_iterator begin() const{for (size_t i = 0; i < _tables.size(); i++){if (_tables[i])return const_iterator(this, _tables[i], i);}return end();}const_iterator end()const{return const_iterator(this, nullptr, -1);}HashTable(){_tables.resize(10, nullptr);}~HashTable(){for (size_t i = 0; i < _tables.size(); i++){Node* cur = _tables[i];if (cur){Node* next = cur->_next;delete cur;cur = next;}_tables[i] = nullptr;}}iterator Find(const K& key){Hash hf;KeyOfT kot;size_t hashi = hf(key) % _tables.size();Node* cur = _tables[hashi];while (cur){if (kot(cur->_data) == key){return iterator(this, cur, hashi);}cur = cur->_next;}return end();}bool Erase(const K& key){Hash hf;KeyOfT kot;size_t hashi = hf(key) % _tables.size();Node* prev = nullptr;Node* cur = _tables[hashi];while (cur){if (kot(cur->_data) == key){if (prev == nullptr){_tables[hashi] = cur->_next;}else{prev->_next = cur->_next;}delete cur;return true;}prev = cur;cur = cur->_next;}return false;}pair<iterator,bool> Insert(const T& data){Hash hf;KeyOfT kot;iterator it = Find(kot(data));if (it != end())return make_pair(it,false);if (_n == _tables.size()){HashTable<K, T, Hash,KeyOfT> newtable;newtable._tables.resize(2 * _tables.size(), nullptr);for (size_t i = 0; i < _tables.size(); i++){Node* cur = _tables[i];while (cur){size_t hashi = hf(kot(cur->_data)) % newtable._tables.size();newtable._tables[hashi] = cur;cur = cur->_next;}_tables[i] = nullptr;}_tables.swap(newtable._tables);//转移资源}_n++;size_t hashi = hf(kot(data)) % _tables.size();Node* newnode = new Node(data);//头插newnode->_next = _tables[hashi];_tables[hashi] = newnode;return make_pair(iterator(this,newnode,hashi), true);}void Some(){size_t bucketSize = 0;size_t maxBucketLen = 0;size_t sum = 0;double averageBucketLen = 0;for (size_t i = 0; i < _tables.size(); i++){Node* cur = _tables[i];if (cur){++bucketSize;}size_t bucketLen = 0;while (cur){++bucketLen;cur = cur->_next;}sum += bucketLen;if (bucketLen > maxBucketLen){maxBucketLen = bucketLen;}}averageBucketLen = (double)sum / (double)bucketSize;printf("all bucketSize:%d\n", _tables.size());printf("bucketSize:%d\n", bucketSize);printf("maxBucketLen:%d\n", maxBucketLen);printf("averageBucketLen:%lf\n\n", averageBucketLen);}private:size_t _n = 0;vector<Node*> _tables;};
}

测试代码

#include"unorderset.h"
#include"unordermap.h"
int main()
{SF::test_map();SF::test_set();return 0;
}

在这里插入图片描述
在这里插入图片描述

这篇关于unordered_map、unordered_set底层封装的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/989783

相关文章

poj 3050 dfs + set的妙用

题意: 给一个5x5的矩阵,求由多少个由连续6个元素组成的不一样的字符的个数。 解析: dfs + set去重搞定。 代码: #include <iostream>#include <cstdio>#include <set>#include <cstdlib>#include <algorithm>#include <cstring>#include <cm

【编程底层思考】垃圾收集机制,GC算法,垃圾收集器类型概述

Java的垃圾收集(Garbage Collection,GC)机制是Java语言的一大特色,它负责自动管理内存的回收,释放不再使用的对象所占用的内存。以下是对Java垃圾收集机制的详细介绍: 一、垃圾收集机制概述: 对象存活判断:垃圾收集器定期检查堆内存中的对象,判断哪些对象是“垃圾”,即不再被任何引用链直接或间接引用的对象。内存回收:将判断为垃圾的对象占用的内存进行回收,以便重新使用。

Collection List Set Map的区别和联系

Collection List Set Map的区别和联系 这些都代表了Java中的集合,这里主要从其元素是否有序,是否可重复来进行区别记忆,以便恰当地使用,当然还存在同步方面的差异,见上一篇相关文章。 有序否 允许元素重复否 Collection 否 是 List 是 是 Set AbstractSet 否

哈希表的底层实现(1)---C++版

目录 哈希表的基本原理 哈希表的优点 哈希表的缺点 应用场景 闭散列法 开散列法 开放定值法Open Addressing——线性探测的模拟实现 超大重点部分评析 链地址法Separate Chaining——哈希桶的模拟实现 哈希表(Hash Table)是一种数据结构,它通过将键(Key)映射到值(Value)的方式来实现快速的数据存储与查找。哈希表的核心概念是哈希

JavaSE——封装、继承和多态

1. 封装 1.1 概念      面向对象程序三大特性:封装、继承、多态 。而类和对象阶段,主要研究的就是封装特性。何为封装呢?简单来说就是套壳屏蔽细节 。     比如:对于电脑这样一个复杂的设备,提供给用户的就只是:开关机、通过键盘输入,显示器, USB 插孔等,让用户来和计算机进行交互,完成日常事务。但实际上:电脑真正工作的却是CPU 、显卡、内存等一些硬件元件。

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

多路转接之select(fd_set介绍,参数详细介绍),实现非阻塞式网络通信

目录 多路转接之select 引入 介绍 fd_set 函数原型 nfds readfds / writefds / exceptfds readfds  总结  fd_set操作接口  timeout timevalue 结构体 传入值 返回值 代码 注意点 -- 调用函数 select的参数填充  获取新连接 注意点 -- 通信时的调用函数 添加新fd到

哈希表的封装和位图

文章目录 2 封装2.1 基础框架2.2 迭代器(1)2.3 迭代器(2) 3. 位图3.1 问题引入3.2 左移和右移?3.3 位图的实现3.4 位图的题目3.5 位图的应用 2 封装 2.1 基础框架 文章 有了前面map和set封装的经验,容易写出下面的代码 // UnorderedSet.h#pragma once#include "HashTable.h"

TL-Tomcat中长连接的底层源码原理实现

长连接:浏览器告诉tomcat不要将请求关掉。  如果不是长连接,tomcat响应后会告诉浏览器把这个连接关掉。    tomcat中有一个缓冲区  如果发送大批量数据后 又不处理  那么会堆积缓冲区 后面的请求会越来越慢。

封装MySQL操作时Where条件语句的组织

在对数据库进行封装的过程中,条件语句应该是相对难以处理的,毕竟条件语句太过于多样性。 条件语句大致分为以下几种: 1、单一条件,比如:where id = 1; 2、多个条件,相互间关系统一。比如:where id > 10 and age > 20 and score < 60; 3、多个条件,相互间关系不统一。比如:where (id > 10 OR age > 20) AND sco