mirror of
https://github.com/krahets/hello-algo.git
synced 2026-02-03 19:03:42 +08:00
157
codes/java/chapter_hashing/hash_map_chaining.java
Normal file
157
codes/java/chapter_hashing/hash_map_chaining.java
Normal file
@@ -0,0 +1,157 @@
|
||||
/**
|
||||
* File: hash_map_chaining.java
|
||||
* Created Time: 2023-06-13
|
||||
* Author: Krahets (krahets@163.com)
|
||||
*/
|
||||
|
||||
package chapter_hashing;
|
||||
|
||||
import java.util.ArrayList;
|
||||
import java.util.List;
|
||||
|
||||
/* 键值对 */
|
||||
class Pair {
|
||||
public int key;
|
||||
public String val;
|
||||
|
||||
public Pair(int key, String val) {
|
||||
this.key = key;
|
||||
this.val = val;
|
||||
}
|
||||
}
|
||||
|
||||
/* 链式地址哈希表 */
|
||||
class HashMapChaining {
|
||||
int size; // 键值对数量
|
||||
int capacity; // 哈希表容量
|
||||
double loadThres; // 触发扩容的负载因子阈值
|
||||
int extendRatio; // 扩容倍数
|
||||
List<List<Pair>> buckets; // 桶数组
|
||||
|
||||
/* 构造方法 */
|
||||
public HashMapChaining() {
|
||||
size = 0;
|
||||
capacity = 4;
|
||||
loadThres = 2 / 3.0;
|
||||
extendRatio = 2;
|
||||
buckets = new ArrayList<>(capacity);
|
||||
for (int i = 0; i < capacity; i++) {
|
||||
buckets.add(new ArrayList<>());
|
||||
}
|
||||
}
|
||||
|
||||
/* 哈希函数 */
|
||||
int hashFunc(int key) {
|
||||
return key % capacity;
|
||||
}
|
||||
|
||||
/* 负载因子 */
|
||||
double loadFactor() {
|
||||
return (double) size / capacity;
|
||||
}
|
||||
|
||||
/* 查询操作 */
|
||||
String get(int key) {
|
||||
int index = hashFunc(key);
|
||||
List<Pair> bucket = buckets.get(index);
|
||||
// 遍历桶,若找到 key 则返回对应 val
|
||||
for (Pair pair : bucket) {
|
||||
if (pair.key == key) {
|
||||
return pair.val;
|
||||
}
|
||||
}
|
||||
// 若未找到 key 则返回 null
|
||||
return null;
|
||||
}
|
||||
|
||||
/* 添加操作 */
|
||||
void put(int key, String val) {
|
||||
// 当负载因子超过阈值时,执行扩容
|
||||
if (loadFactor() > loadThres) {
|
||||
extend();
|
||||
}
|
||||
int index = hashFunc(key);
|
||||
List<Pair> bucket = buckets.get(index);
|
||||
// 遍历桶,若遇到指定 key ,则更新对应 val 并返回
|
||||
for (Pair pair : bucket) {
|
||||
if (pair.key == key) {
|
||||
pair.val = val;
|
||||
return;
|
||||
}
|
||||
}
|
||||
// 若无该 key ,则将键值对添加至尾部
|
||||
Pair pair = new Pair(key, val);
|
||||
bucket.add(pair);
|
||||
size++;
|
||||
}
|
||||
|
||||
/* 删除操作 */
|
||||
void remove(int key) {
|
||||
int index = hashFunc(key);
|
||||
List<Pair> bucket = buckets.get(index);
|
||||
// 遍历桶,从中删除键值对
|
||||
for (Pair pair : bucket) {
|
||||
if (pair.key == key)
|
||||
bucket.remove(pair);
|
||||
}
|
||||
size--;
|
||||
}
|
||||
|
||||
/* 扩容哈希表 */
|
||||
void extend() {
|
||||
// 暂存原哈希表
|
||||
List<List<Pair>> bucketsTmp = buckets;
|
||||
// 初始化扩容后的新哈希表
|
||||
capacity *= extendRatio;
|
||||
buckets = new ArrayList<>(capacity);
|
||||
for (int i = 0; i < capacity; i++) {
|
||||
buckets.add(new ArrayList<>());
|
||||
}
|
||||
size = 0;
|
||||
// 将键值对从原哈希表搬运至新哈希表
|
||||
for (List<Pair> bucket : bucketsTmp) {
|
||||
for (Pair pair : bucket) {
|
||||
put(pair.key, pair.val);
|
||||
}
|
||||
}
|
||||
}
|
||||
|
||||
/* 打印哈希表 */
|
||||
void print() {
|
||||
for (List<Pair> bucket : buckets) {
|
||||
List<String> res = new ArrayList<>();
|
||||
for (Pair pair : bucket) {
|
||||
res.add(pair.key + " -> " + pair.val);
|
||||
}
|
||||
System.out.println(res);
|
||||
}
|
||||
}
|
||||
}
|
||||
|
||||
public class hash_map_chaining {
|
||||
public static void main(String[] args) {
|
||||
/* 初始化哈希表 */
|
||||
HashMapChaining map = new HashMapChaining();
|
||||
|
||||
/* 添加操作 */
|
||||
// 在哈希表中添加键值对 (key, value)
|
||||
map.put(12836, "小哈");
|
||||
map.put(15937, "小啰");
|
||||
map.put(16750, "小算");
|
||||
map.put(13276, "小法");
|
||||
map.put(10583, "小鸭");
|
||||
System.out.println("\n添加完成后,哈希表为\nKey -> Value");
|
||||
map.print();
|
||||
|
||||
/* 查询操作 */
|
||||
// 向哈希表输入键 key ,得到值 value
|
||||
String name = map.get(13276);
|
||||
System.out.println("\n输入学号 13276 ,查询到姓名 " + name);
|
||||
|
||||
/* 删除操作 */
|
||||
// 在哈希表中删除键值对 (key, value)
|
||||
map.remove(12836);
|
||||
System.out.println("\n删除 12836 后,哈希表为\nKey -> Value");
|
||||
map.print();
|
||||
}
|
||||
}
|
||||
Reference in New Issue
Block a user