【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP

文章目录

一、unordered 系列关联式容器

在 C++98 中,STL 提供了底层为红黑树结构的一些列关联式容器,在查询时效率可以达到 O ( l o g 2 N ) O(log2^N) O(log2N),即最差情况下需要比较红黑树高度次,当树中的结点非常多的时候,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到,因此在 C++11 中,STL 又提供了4个 unordered 系列的关联式容器,这四个容器与红黑树结构的关联式容器使用方法基本类似,只是其底层结构不同,本文中只对 unordered_map 和 unordered_set 进行介绍,unordered_multimap 和 unordered_multiset 感兴趣的小伙伴可以自行查阅文档。

二、unordered_map

1.1 unordered_map 介绍

  • unordered_map 是存储 <key,value> 键值对的关联式容器,其允许通过 key 快速的索引到与其对应的 value。

  • 在 unordered_map 中,键值通常用于唯一的标识元素,而映射值是一个对象,其内容与此键值关联。键和映射值的类型可能不同。

  • 在内部,unordered_map 没有对 <key,value> 按照任何特定的顺序排序,为了能在常数范围内找到 key 所对应的 value,unordered_map 将相同哈希值的键值放在相同的桶中。

  • unordered_map 容器通过 key 访问单个元素要比 map 快,但它通常在遍历元素子集的范围迭代方面效率较低。

  • unordered_map 实现了直接访问操作符(operator[ ]),它允许使用 key 作为参数直接访问 value。

  • 它的迭代器至少是前向迭代器(单向迭代器)。

1.2 unordered_map 的接口说明

1.2.1 unordered_map 的构造

1.2.2 unordered_map 的容量

1.2.3 unordered_map 的迭代器

1.2.4 unordered_map 的元素访问

小Tips:该函数中实际调用哈希桶的插入操作,用参数 key 与 V() 构造一个默认值往底层哈希桶中插入,如果 key 不在哈希桶中,插入成功,返回 V()。插入失败,说明 key 已经在哈希桶中,将 key 对应的 value 返回。

1.2.5 unordered_map 的查询

小Tips:unordered_map 中 key 是不能重复的,因此 count 函数的返回值最大为1。

1.2.6 unordered_map 的修改操作

1.2.7 unordered_map 的桶操作

三、底层结构

unordered 系列的关联式容器之所以效率比较高,是因为其底层使用了哈希结构。

3.1 哈希概念

顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为 O ( N ) O(N) O(N),平衡树中为树的高度,即 O ( l o g 2 N ) O(log2^N) O(log2N),搜索的效率取决于搜索过程中关键码的比较次数。

理想的搜索方法:可以在不经过任何比较,一次直接从表中得到要搜索的元素。如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。在结构中:

  • 插入元素:根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放。

  • 搜索元素:对元素的关键码进行相同的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜素成功。

该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)(或者散列表)

【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP

小Tips:用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快。但是也会出现问题,以上图为例,再向集合中插入44,计算出来的哈希函数值是4,但是下标为4的位置已经存储的有值了。

3.2 哈希冲突

对于两个数据元素的关键字 k_ik_j (i != j),有 k_i != k_j,但有:Hash(k_i) == Hash(k_j),即:不同的关键字通过相同的哈希函数计算出相同的哈希值,该种现象称为哈希冲突或哈希碰撞。把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”。

3.3 哈希函数

引起哈希冲突的一个原因可能是:哈希函数设计不够合理。设计哈希函数应该遵循以下原则:

  • 哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有 m 个地址时,其值域必须在 0~m-1 之间。

  • 哈希函数计算出来的地址能均匀分布在整个空间中。

  • 哈希函数应该比较简单。

下面给大家列举一些常见的哈希函数。

3.3.1 直接定值法----(常用)

取关键字的某个线性函数为散列地址:
H a s h ( K e y ) = A ∗ K e y + B Hash(Key) = A*Key +B Hash(Key)=AKey+B
小Tips:此方法的优点是简单、均匀。但是需要事先知道关键字的分布情况。适合查找比较小且连续的情况。

3.3.2 除留余数法----(常用)

设散列表中允许的地址数为 m,取一个不大于 m,但最接近或者等于 m 的质数 p 作为除数,按照哈希函数:
H a s h ( K e y ) = K e y % p ( p < = m ) Hash(Key) = Key \% p(p <= m) Hash(Key)=Key%p(p<=m)

3.3.3 平方取中法----(了解)

假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址;再比如关键字为4321,对它的平方就是18671041,抽取中间的3位671(或710)作为哈希地址。平方取中法适合于不知道关键字的分布,而位数又不是很大的情况。

3.3.4 折叠法----(了解)

折叠法是将关键字从左到右分割成位数相等的几部分(最后一部分位数可以短一些),然后将这几部分叠加求和,并按散列表表长,取后几位作为散列地址。

3.3.5 随机数法----(了解)

选择一个随机数,取关键字的随机函数值为它的哈希地址,即:
H a s h ( K e y ) = r a n d o m ( k e y ) Hash(Key) = random(key) Hash(Key)=random(key)
小Tips:其中 random 为随机数函数。

3.3.6 数学分析法----(了解)

设有 n 个d 位数,每一位可能有 r 种不同的符号在各个位上出现的频率不一定相同,可能在某些位上分布比较均匀,每种符号出现的机会均等,在某些位上分布不均匀只有几种符号经常出现。可根据散列表的大小,选择其中各种符号分布均匀的若干位作为散列地址。例如:
【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP
假设要存储某家公司员工登记表,如果用手机号作为关键字,那么极有可能前7位都是 相同的,那么我们可以选择后面的四位作为散列地址,如果这样的抽取工作还容易出现 冲突,还可以对抽取出来的数字进行反转(如1234改成4321)、右环位移(如1234改成4123)、左环移位、前两数与后两数叠加(如1234改成12+34=46)等方法。

小Tips:数学分析法通常适合处理关键字位数比较大的情况,如果事先知道关键字的分布且关键字的若干位分布较均匀的情况。

注意:哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突。

3.4 哈希冲突解决

解决哈希冲突的两种常见方法是:闭散列和开散列。

3.4.1 闭散列

闭散列也叫开放定址法,当发生哈希冲突时,如果哈希表未被填满,说明在哈希函数表中必然还有空位置,那么可以把 Key 对应的元素存放到冲突位置中的下一个空位置中去。那如何寻找下一个空位置呢?

3.4.1.1 线性探测

从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。

插入

  • 通过哈希函数获取待插入元素在哈希表中的位置。

  • 如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突,使用线性探测找到下一个空位置,插入新元素。

【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP
查找

  • 通过哈希函数获取待查找元素在哈希表中的位置。

  • 看该位置的值是否是我们要查找的值,如果不是,从当前位置依次往后进行比较,找到就结束,如果遇到空还没有找到,说明当前待查找的元素不在哈希表中。

小Tips:这里简介反映出哈希表中的元素不能太满了,如果太满,那么它的查找效率有可能就变成了 O ( N ) O(N) O(N)

删除:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其它元素的搜索。比如上图中,删除元素24,如果直接删掉,54查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。

扩容:散列表的载荷因子定义为:
α = 填入表中的元素个数 / 散列表的长度 α = 填入表中的元素个数 / 散列表的长度 α=填入表中的元素个数/散列表的长度

α α α 是散列表装满成都的标志因子。由于表长是定值, α α α 与“填入表中的元素个数”成正比,所以, α α α 越大,表明填入表中的元素越多,产生冲突的可能性就越大,但是空间利用率越高;反之, α α α 越小,表明填入表中的元素越少,产生冲突的可能性就越小,但是空间浪费会比较多。实际上,散列表的平均查找长度是载荷因子 α α α 的函数,只是不同处理冲突的方式有不同的函数。

对于闭散列(开放定址法),载荷因子是特别重要的因素,应严格限制在 0.7 − 0.8 0.7-0.8 0.70.8以下。超过 0.8 0.8 0.8,查表时的 CPU 缓存不命中按照指数曲线上升。因此,一些曹勇开放定址法的 hash 库,如 Java 的系统库限制了载荷因子为 0.75,超过此值将 resize 散列表。

小Tips:扩容后,元素的映射关系会发生变化,所以我们需要重新建立映射,即重新计算元素对应的存储位置。原来冲突的,现在不一定冲突了,原来不冲突的,现在可能冲突了,因此扩容后需要对原来表中的元素重新走一遍插入逻辑。

3.4.1.2 闭散列(开放定址法)模拟实现
enum STATE
{
	EXIST,
	EMPTY,
	DELETE
};

//存储元素的结点
template<class K, class V>
struct HashData
{
	pair<K, V> _kv;
	STATE _state = EMPTY;
};

//哈希表
template<class K, class V>
class HashTable
{
public:
	HashTable()
	{
		_table.resize(10);
	}

	bool Insert(const pair<K, V>& kv)
	{
		//检查负载因子,扩容
		/*if ((double)_n / _table.size() >= 0.7)
		{

		}*/
		if (_n * 10 / _table.size() >= 7)
		{
			size_t newsize = _table.size() * 2;

			//重新建立映射关系
			//vector<HashData<K, V>> tmp;
			//tmp.resize(newsize);
			//for (const auto& e : _table)
			//{
			//	if (e._state == EXIST)
			//	{
			//		size_t hashi = e._kv.first % tmp.size();

			//		while (tmp[hashi]._state == EXIST)
			//		{
			//			++hashi;

			//			//当hashi == size 的时候要让它从 0 开始继续找。
			//			/*if (hashi >= _table.size())
			//			{
			//				hashi = 0;
			//			}*/

			//			hashi %= _table.size();
			//		}

			//		tmp[hashi] = e;
			//	}
			//	
			//}

			//std::swap(tmp, _table);

			HashTable<K, V> newHT;
			newHT._table.resize(newsize);

			//遍历旧表的数据插入到新表即可
			for (size_t i = 0; i < _table.size(); ++i)
			{
				if (_table[i]._state == EXIST)
				{
					newHT.Insert(_table[i]._kv);
				}
			}

			_table.swap(newHT._table);
		}

		//线性探测
		size_t hashi = kv.first % _table.size();//注意这里

		//如果下标为hashi的地方没有存元素,那么就可以直接在hashi进行插入
		//如果下标为hashi的地方存的有元素,就需要进行线性探测
		//EMPTY、DELETE都可存储元素
		while (_table[hashi]._state == EXIST)
		{
			++hashi;

			//当hashi == size 的时候要让它从 0 开始继续找。
			/*if (hashi >= _table.size())
			{
				hashi = 0;
			}*/

			hashi %= _table.size();
		}
		 
		//注意方括号访问,底层会去断言,下标必须小于size,所以上面模的是size。
		_table[hashi]._kv = kv;
		_table[hashi]._state = EXIST;

		++_n;

		return true;
	}

	HashData<const K, V>* Find(const K& key)
	{
		//线性探测
		size_t hashi = key % _table.size();//注意这里

		//如果下标为hashi的地方没有存元素,那么就可以直接在hashi进行插入
		//如果下标为hashi的地方存的有元素,就需要进行线性探测
		//EMPTY、DELETE都可存储元素
		while (_table[hashi]._state != EMPTY)
		{
			if (_table[hashi]._state == EXIST && _table[hashi]._kv.first == key)
			{
				return (HashData<const K, V>*)&_table[hashi];//这里会涉及类型转化,有的编译器可能不支持,所以这里最好自己强转一下
			}

			++hashi;
			hashi %= _table.size();
		}

		return nullptr;
	}

	bool Erase(const K& key)
	{
		HashData<const K, V>* ret = Find(key);
		if (ret)
		{
			ret->_state = DELETE;
			--_n;
			return true;
		}

		return false;
	}
private:
	vector<HashData<K, V>> _table;
	size_t _n = 0;//因为数据是分散存储的,所以不能用vector中的size去计算哈希表中元素的数量,这个_n存储的就是哈希表中有效数据的个数
};

小Tips:线性探测的优点是:实现起来非常简单。缺点是:一旦发生哈希冲突,所有的冲突连在一起,容易产生数据“堆积”,即:不同关键码占据了可利用的空位置,使得寻找某关键码的位置需要许多次比较,导致搜索效率降低。可以利用下面的二次探测来解决该问题。

3.4.1.3 二次探测

线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为: H i H_i Hi = ( H 0 H_0 H0 + i 2 i^2 i2 )% m 或者: H i H_i Hi = ( H 0 H_0 H0 - i 2 i^2 i2 )% m。其中:i = 1,2,3…, H 0 H_0 H0是通过散列函数 Hash(x) 对元素的关键码 key 进行计算得到的位置,m是表的大小。

研究表明:当表的长度为质数且表装载因子 α α α 不超过 0.5 时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表满的情况,但在插入时必须确保表的装载因子 α α α 不超过 0.5,如果超出,必须考虑增容。因此,闭散列最大的缺陷局势空间利用率比较低,这也是哈希的缺陷。

3.4.2 开散列

开散列又叫拉链法,首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP
小Tips:从上图中可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。

3.4.2.1 开散列模拟实现
template<class K, class V>
struct HashNode
 {
	 pair<K, V> _kv;
	 HashNode<K, V>* _next;

	 HashNode(const pair<K, V>& kv = pair<K, V>())
		 :_kv(kv)
		 ,_next(nullptr)
	 {}
 };

 template<class K, class V, class HashFunc = DefaultHasFunc<K>>
 class HashTable
 {
	 typedef HashNode<K, V> Node;
 private:
	 void swap(HashTable<K, V, HashFunc>& hbt)
	 {
		 std::swap(hbt._table, this->_table);
		 std::swap(hbt._n, this->_n);
	 }
 public:
	 HashTable(size_t size = 10)
	 {
		 _table.resize(size, nullptr);
	 }

	 //拷贝构造
	 HashTable(const HashTable<K, V, HashFunc>& htb)
	 {
		 _table.resize(htb._table.size());
		 for (size_t i = 0; i < htb._table.size(); ++i)
		 {
			 Node* cur = htb._table[i];
			 while (cur)
			 {
				 Insert(cur->_kv);
				 cur = cur->_next;
			 }
		 }


		/* HashTable<K, V, HashFunc> tmp;
		 tmp._table = htb._table;//这里现代写法行不通,因为_table里面存的是指针,属于内置类型,进行的是浅拷贝。
		 tmp._n = htb._n;

		 swap(tmp);*/
	 }

	 bool Insert(const pair<K, V>& kv)
	 {
		 //HashFunc hf;
		 //先检查哈希桶中是否有这个元素,有就不能插入
		 if (Find(kv.first))
		 {
			 return false;
		 }
		 //不扩容,不断插入,某些桶会越来越长,效率得不到保证
		 //因此还是需要进行适当的扩容
		 //这里一般把负载因子控制在1
		 //这样,在理想状态下,平均每个桶一个数据
		 if (_n == _table.size())
		 {
			 //扩容 方法一:会去创建新节点,然后还要把旧结点释放,效率低下
			 /*HashTable<K, V, HashFunc> newTable(_table.size() * 2);
			 for (size_t i = 0; i < _table.size(); ++i)
			 {
				 if (_table[i] != nullptr)
				 {
					 Node* cur = _table[i];
					 while (cur)
					 {
						 newTable.Insert(cur->_kv);
						 cur = cur->_next;
					 }
				 }
			 }

			 _table.swap(newTable._table);*/

			 //扩容 方法二:
			 vector<Node*> newtable;
			 newtable.resize(_table.size() * 2, nullptr);
			 for (size_t i = 0; i < _table.size(); ++i)
			 {
					 Node* cur = _table[i];
					 while (cur)
					 {
						 Node* next = cur->_next;
						 size_t hashi = hf(cur->_kv.first) % newtable.size();
						 cur->_next = newtable[hashi];
						 newtable[hashi] = cur;
						 cur = next;
					 }

					 _table[i] = nullptr;
			 }

			 _table.swap(newtable);
		 }

		 size_t hashi = hf(kv.first) % _table.size();

		 //检查当前桶里面是否已经有该元素
		 Node* cur = _table[hashi];

		 while (cur)
		 {
			 if (cur->_kv.first == kv.first)
			 {
				 return false;
			 }

			 cur = cur->_next;
		 }

		 //到这里说明当前桶里没有该元素,可以插入
		 Node* newnode = new Node(kv);
		 newnode->_next = _table[hashi];
		 _table[hashi] = newnode;
		 ++_n;

		 return true;
	 }

	 //打印哈希桶
	 void Print()
	 {
		 for (size_t i = 0; i < _table.size(); ++i)
		 {
			 printf("Hash[%d]:", i);
			 Node* cur = _table[i];
			 while (cur)
			 {
				 cout << cur->_kv.first << ':' << cur->_kv.second <<  "--->";
				 cur = cur->_next;
			 }

			 cout << "nullptr" << endl;
		 }
	 }

	 //查找
	 Node* Find(const K& key)
	 {
		 size_t hashi = hf(key) % _table.size();
		 Node* cur = _table[hashi];
		 while (cur)
		 {
			 if (cur->_kv.first == key)
			 {
				 return cur;
			 }

			 cur = cur->_next;
		 }

		 return nullptr;
	 }

	 //删除
	 bool erase(const K& key)
	 {
		 size_t hashi = hf(key) % _table.size();
		 Node* cur = _table[hashi];
		 Node* prev = nullptr;
		 while (cur)
		 {
			 
			 if (cur->_kv.first == key)
			 {
				 if (prev == nullptr)
				 {
					 _table[hashi] = cur->_next;
				 }
				 else
				 {
					 prev->_next = cur->_next;
				 }

				 delete cur;
				 cur = nullptr;
				 --_n;
				 return true;
			 }
			 prev = cur;
			 cur = cur->_next;
		 }

		 return false;
	 }

	 ~HashTable()
	 {
		 for (size_t i = 0; i < _table.size(); ++i)
		 {
			 Node* cur = _table[i];

			 while (cur)
			 {
				 Node* next = cur->_next;
				 delete cur;
				 cur = next;
			 }

			 _table[i] = nullptr;
		 }
	 }
 private:
	 vector<Node*> _table;//指针数组
	 //这里的_table属于自定义类型,如果我们不写析构函数,编译器会去调用vector自己的析构函数
	 //对于vector的析构函数来说,Node* 是一个指针,属于内置类型
	 //因此vector的析构函数不会对 Node* 做任何处理
	 //因此这里我们需要自己写析构函数,去释放哈希桶中的结点
	 size_t _n = 0;//记录存储的有效数据个数
	 HashFunc hf;
 };

四、模拟实现 unordered_set 和 unordered_map

4.1 哈希表的改造

这里我们使用开散列的方法来实现 unordered_setunordered_map

4.1.1 模板参数列表的改造

 //哈希表
template<class K, class T, class KeyOfT, class HashFunc = DefaultHasFunc<K>>//K的作用是为了方便查找和删除
class HashTable

小Tips

  • K:关键码类型。

  • T:不同容器 T 的类型不同,如果是 unordered_map,T 代表一个键值对,如果是 unordered_set,V 为 K。

  • KeyOfT:因为 T 的类型不同,通过 value 取 key 的方式就不同,详细代码参考下面 unordered_set/map 的实现。

  • HashFunc:哈希函数仿函数对象类型,哈希函数使用除留余数法,需要将 key 转换为整形数字才能取模。

4.1.2 增加迭代器操作

//HashTable.h
//哈希桶的迭代器
 template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc>
 struct HTIterator
 {
	 typedef HashNode<T> Node;
	 typedef HTIterator<K, T, Ptr, Ref, KeyOfT, HashFunc> Self;
	 typedef HashTable<K, T, KeyOfT, HashFunc> Ht;
	 typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;

	 Node* _node;
	 const Ht* _pht;

	 HTIterator(Node* node = nullptr, const Ht* pht = nullptr)
		 :_node(node)
		 ,_pht(pht)
	 {}

	 HTIterator(const iterator& it)//如果是普通迭代器,这里就是拷贝构造函数
		 :_node(it._node)		   //如果是 const 迭代器,这里就是用一个普通迭代器来构造一个 const 迭代器。
		 , _pht(it._pht)
	 {}

	 Self& operator++()
	 {
		 if (_node->_next)
		 {
			 _node = _node->_next;
		 }
		 else
		 {
			 //如果_node->_next == nullptr
			 //说明要到下一个桶去,因此迭代器类里面需要一个哈希表的指针,指向当前迭代器维护的哈希表
			 //这样才能找到下一个桶

			 //先找到我当前在那个桶
			 KeyOfT kot;
			 HashFunc hf;
			 size_t hashi = hf(kot(_node->_data)) % _pht->_table.size();

			 //从下一个位置开始查找下一个不为空的桶
			 ++hashi;
			 while (hashi < _pht->_table.size())
			 {
				 if (_pht->_table[hashi])
				 {
					 _node = _pht->_table[hashi];
					 return *this;
				 }
				 else
				 {
					 ++hashi;
				 }
			 }
		
			 _node = nullptr;
		 }

		 return *this;
	 }

	 bool operator != (const Self& s) const
	 {
		 return _node != s._node;
	 }

	 Ref operator*() const
	 {
		 return _node->_data;
	 }

	 Ptr operator->() const
	 {
		 return &(_node->_data);
	 }
 };

小Tips:因为哈希表本质上是由一个个哈希桶组成,迭代器走完当前桶,需要跳到下一个桶,迭代器要能指向下一个哈希桶,最简单的做法就是在迭代器里面存一份哈希表。实际代码中我们在迭代器中增加了一个哈希表类型的指针,指向当前迭代器维护的哈希表,又因为该指针会去访问哈希表里面的成员变量数组,所以该迭代器类必须是哈希表的友元类,关于友元类的具体声明参考下面修改后的哈希表。这里还有一个问题,迭代器里面使用了哈希表类型,哈希表里面又实用的迭代器类型,这里就会涉及到谁先谁后的问题,我这里的解决方法是将迭代器类定义在哈希表的前面,然后在迭代器的前面对哈希表的类做一个前置声明。其次,因为哈希桶在底层是单链表结构,所以哈希桶的迭代器不需要 - - 操作。

4.1.3 修改后的哈希表

//HashTable.h
//哈希表
 template<class K, class T, class KeyOfT, class HashFunc = DefaultHasFunc<K>>//K的作用是为了方便查找和删除
 class HashTable
 {
	 //模板的友元
	 template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc>
	 friend struct HTIterator;

	 typedef HashNode<T> Node;
 private:
	 void swap(HashTable<K, T, HashFunc>& hbt)
	 {
		 std::swap(hbt._table, this->_table);
		 std::swap(hbt._n, this->_n);
	 }
 public:
	 typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;
	 typedef HTIterator<K, T, const T*, const T&, KeyOfT, HashFunc> const_iterator;

	 iterator begin()
	 {
		 //找第一个桶
		 for (size_t i = 0; i < _table.size(); ++i)
		 {
			 if (_table[i])
			 {
				 return iterator(_table[i], this);
			 }
		 }

		 return iterator(nullptr, this);
	 }

	 iterator end()
	 {
		 return iterator(nullptr, this);
	 }

	 const_iterator begin() const
	 {
		 //找第一个桶
		 for (size_t i = 0; i < _table.size(); ++i)
		 {
			 if (_table[i])
			 {
				 return const_iterator(_table[i], this);
			 }
		 }

		 return const_iterator(nullptr, this);
	 }

	 const_iterator end() const
	 {
		 return const_iterator(nullptr, this);
	 }

	 HashTable(size_t size = 10)
	 {
		 _table.resize(size, nullptr);
	 }

	 //拷贝构造
	 HashTable(const HashTable<K, T, HashFunc>& htb)
	 {
		 _table.resize(htb._table.size());
		 for (size_t i = 0; i < htb._table.size(); ++i)
		 {
			 Node* cur = htb._table[i];
			 while (cur)
			 {
				 Insert(cur->_data);
				 cur = cur->_next;
			 }
		 }


		/* HashTable<K, T, HashFunc> tmp;
		 tmp._table = htb._table;//这里现代写法行不通,因为_table里面存的是指针,属于内置类型,进行的是浅拷贝。
		 tmp._n = htb._n;

		 swap(tmp);*/
	 }

	 pair<iterator, bool> Insert(const T& data)
	 {
		 HashFunc hf;
		 KeyOfT kt;
		 //HashFunc hf;
		 //先检查哈希桶中是否有这个元素,有就不能插入
		 if (Find(kt(data)) != end())
		 {

			 return make_pair(Find(kt(data)), false);
		 }

		 //扩容
		 if (_n == _table.size())
		 {
			 vector<Node*> newtable;
			 newtable.resize(_table.size() * 2, nullptr);
			 for (size_t i = 0; i < _table.size(); ++i)
			 {
					 Node* cur = _table[i];
					 while (cur)
					 {
						 Node* next = cur->_next;
						 size_t hashi = hf(kt(cur->_data)) % newtable.size();
						 cur->_next = newtable[hashi];
						 newtable[hashi] = cur;
						 cur = next;
					 }

					 _table[i] = nullptr;
			 }

			 _table.swap(newtable);
		 }

		 size_t hashi = hf(kt(data)) % _table.size();

		 //到这里说明当前桶里没有该元素,可以插入
		 Node* newnode = new Node(data);
		 newnode->_next = _table[hashi];
		 _table[hashi] = newnode;
		 ++_n;

		 return make_pair(iterator(newnode, this), true);
	 }

	 //查找
	 iterator Find(const K& key)const
	 {
		 HashFunc hf;
		 KeyOfT kt;
		 size_t hashi = hf(key) % _table.size();
		 Node* cur = _table[hashi];
		 while (cur)
		 {
			 if (kt(cur->_data) == key)
			 {
				 return iterator(cur, this);
			 }

			 cur = cur->_next;
		 }

		 return iterator(nullptr, this);
	 }

	 //删除
	 bool erase(const K& key)
	 {
		 HashFunc hf;
		 KeyOfT kt;
		 size_t hashi = hf(key) % _table.size();
		 Node* cur = _table[hashi];
		 Node* prev = nullptr;
		 while (cur)
		 {
			 
			 if (kt(cur->_data) == key)
			 {
				 if (prev == nullptr)
				 {
					 _table[hashi] = cur->_next;
				 }
				 else
				 {
					 prev->_next = cur->_next;
				 }

				 delete cur;
				 cur = nullptr;
				 --_n;
				 return true;
			 }
			 prev = cur;
			 cur = cur->_next;
		 }

		 return false;
	 }

	 ~HashTable()
	 {
		 for (size_t i = 0; i < _table.size(); ++i)
		 {
			 Node* cur = _table[i];

			 while (cur)
			 {
				 Node* next = cur->_next;
				 delete cur;
				 cur = next;
			 }

			 _table[i] = nullptr;
		 }
	 }
 private:
	 vector<Node*> _table;//指针数组
	 //这里的_table属于自定义类型,如果我们不写析构函数,编译器会去调用vector自己的析构函数
	 //对于vector的析构函数来说,Node* 是一个指针,属于内置类型
	 //因此vector的析构函数不会对 Node* 做任何处理
	 //因此这里我们需要自己写析构函数,去释放哈希桶中的结点
	 size_t _n = 0;//记录存储的有效数据个数
 };

小Tips:哈希表的修改主要体现在增加通过 key 获取 value 的操作。

4.2 unordered_set 模拟实现

//unorderedset.h
#include "HashTable.h"

template<class K, class HashFunc = DefaultHasFunc<K>>
class unordered_set
{
private:
	struct SetKeyOfT
	{
		const K& operator()(const K& key)
		{
			return key;
		}
	};
public:
	typedef typename HashTable<K, K, SetKeyOfT, HashFunc>::const_iterator iterator;
	typedef typename HashTable<K, K, SetKeyOfT, HashFunc>::const_iterator const_iterator;

	iterator begin() const
	{
		return _ht.begin();
	}

	iterator end() const
	{
		return _ht.end();
	}

	pair<iterator, bool> insert(const K& key)
	{
		/*pair<typename HashTable<K, K, SetKeyOfT, HashFunc>::iterator, bool> ret = _ht.Insert(key);

		return make_pair(iterator(ret.first._node, ret.first._pht), ret.second);*/
		return _ht.Insert(key);//这种写法如果编译器检查的严格可能过不了

		//上面两种插入方法都可以,这一块是精华,好好品味
	}

	K& operator[](const K& key)
	{
		pair<typename HashTable<K, K, SetKeyOfT, HashFunc>::iterator, bool> ret = _ht.Insert(key);

		return *(ret.first);
	}

private:
	HashTable<K, K, SetKeyOfT, HashFunc> _ht;
};

小Tips:unordered_set 是一种 key 结构,所以它的普通迭代器和 const 迭代器都是不允许被修改的。因此 unordered_set 中的普通迭代器本质上还是 HashTable 中的 const 迭代器。此时就会出现一个问题,插入调用的是 HashTable 中的 Insert,其返回值是一个 pair,其中 first 是一个普通迭代器,而在 unordered_set 这一层,insert 的返回值也是一个 pair,它的 first 看起来是一个普通迭代器,但本质上是用 HashTable 中的 const 迭代器进行封装的,因此这里涉及到从普通迭代器转换成 const 迭代器,随然普通迭代器和 const 迭代器共用同一个类模板,但是它们的模板参数不同,所以普通迭代器和 const 迭代器本质上属于两种不同类型。因此要将一个普通迭代器转化成 const 迭代器本质上涉及类型转换。要用一个 A 类型的对象去创建一个 B 类型的对象 ,可以在 A 类里面增加一个构造函数,该构造函数的参数是 B 类型。因此,这里我们需要在迭代器类里面增加一个用普通迭代器构造 const 迭代器的构造函数。除了这种方法外,上面我还提供了一种方法,即先用 HashTable 中的普通迭代器创建一个 pair 对象 ret 接收 HashTable 中 Insert 的返回值,然后再去取出 pair 里面迭代器中的成员变量,用取出来的成员变量去构造一个 const 迭代器,然后再用这个 const 迭代器去构建一个 pair,最后返回这个 pair。这种方法的前提是迭代器类中的成员变量是 public,否则就不能再迭代器类的外面拿到其成员变量。

4.3 unordered_map 模拟实现

template<class K, class V, class HashFunc = DefaultHasFunc<K>>
class unordered_map
{
private:
	struct MapKeyOfT
	{
		const K& operator()(const pair<K, V>& kv)
		{
			return kv.first;
		}
	};
public:
	typedef typename HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc>::iterator iterator;
	typedef typename HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc>::const_iterator const_iterator;

	iterator begin()
	{
		return _ht.begin();
	}

	iterator end()
	{
		return _ht.end();
	}

	const_iterator begin() const
	{
		return _ht.begin();
	}

	const_iterator end() const
	{
		return _ht.end();
	}

	pair<iterator, bool> insert(const pair<K, V>& kv)
	{
		return _ht.Insert(kv);
	}

	V& operator[](const K& key)
	{
		pair<iterator, bool> ret = _ht.Insert(make_pair(key, V()));

		return ret.first->second;
	}
private:
	HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc> _ht;
};

小Tips:对 unordered_map 结构来说无论是普通迭代器还是 const 迭代器,它的 key 永远都不能被修改。这里的解决方案是在 unordered_map 中用 pair<cons K, V> 去实例化出一个哈希表的模板,此时哈希表的节点中存的就是 pair<const K, V> _data;,此时无论是普通迭代器还是 const 迭代器去解引用该结点,返回的 _data,它里面的 key 是 const K 类型,是不支持修改的,这样以来问题就解决了。由于这里我们是用 pair<cons K, V> 去实例化的模板,所以 unordered_map 中的哈希表本质上存的就是 pair<cons K, V>,但是在用户层我们插入的是 pair<K, V>,这是两种不同的类型,和上面的普通迭代去创建 const 迭代器一样,这里还是需要通过构造函数来解决,但是这里不需要我们自己来解决,因为 pair 是库中的内容,库中已经帮我们实现好啦,所以这里我们无需做任何处理。这里本质上会去调用下面这个构造函数。

【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP

五、结语

今天的分享到这里就结束啦!如果觉得文章还不错的话,可以三连支持一下,春人的主页还有很多有趣的文章,欢迎小伙伴们前去点评,您的支持就是春人前进的动力!

【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列-LMLPHP

10-13 18:23