欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Jdk1.8 HashMap實現(xiàn)原理詳細介紹

 更新時間:2016年12月22日 17:13:52   投稿:lqh  
這篇文章主要介紹了Jdk1.8 HashMap實現(xiàn)原理詳細介紹的相關資料,需要的朋友可以參考下

HashMap概述

HashMap是基于哈希表的Map接口的非同步實現(xiàn)。此實現(xiàn)提供所有可選的映射操作,并允許使用null值和null鍵。此類不保證映射的順序,特別是它不保證該順序恒久不變。

HashMap的數(shù)據(jù)結構

在Java編程語言中,最基本的結構就是兩種,一個是數(shù)組,另外一個是模擬指針(引用),所有的數(shù)據(jù)結構都可以用這兩個基本結構來構造的,HashMap也不例外。HashMap實際上是一個“鏈表散列”的數(shù)據(jù)結構,即數(shù)組和鏈表的結構,但是在jdk1.8里

加入了紅黑樹的實現(xiàn),當鏈表的長度大于8時,轉換為紅黑樹的結構。

這里寫圖片描述

從上圖中可以看出,java中HashMap采用了鏈地址法。鏈地址法,簡單來說,就是數(shù)組加鏈表的結合。在每個數(shù)組元素上都一個鏈表結構,當數(shù)據(jù)被Hash后,得到數(shù)組下標,把數(shù)據(jù)放在對應下標元素的鏈表上。

 */
 static class Node<K,V> implements Map.Entry<K,V> {
  final int hash;//用于定位數(shù)組索引的位置
  final K key;
  V value;
  Node<K,V> next;//鏈表的下一個Node

  Node(int hash, K key, V value, Node<K,V> next) {
   this.hash = hash;
   this.key = key;
   this.value = value;
   this.next = next;
  }

Node是HashMap的一個內部類,實現(xiàn)了Map.Entry接口,本質是就是一個映射(鍵值對)。

有時兩個key會定位到相同的位置,表示發(fā)生了Hash碰撞。當然Hash算法計算結果越分散均勻,Hash碰撞的概率就越小,map的存取效率就會越高。

HashMap類中有一個非常重要的字段,就是 Node[] table,即哈希桶數(shù)組,明顯它是一個Node的數(shù)組。

如果哈希桶數(shù)組很大,即使較差的Hash算法也會比較分散,如果哈希桶數(shù)組數(shù)組很小,即使好的Hash算法也會出現(xiàn)較多碰撞,所以就需要在空間成本和時間成本之間權衡,其實就是在根據(jù)實際情況確定哈希桶數(shù)組的大小,并在此基礎上設計好的hash算法減少Hash碰撞。那么通過什么方式來控制map使得Hash碰撞的概率又小,哈希桶數(shù)組(Node[] table)占用空間又少呢?答案就是好的Hash算法和擴容機制。

在理解Hash和擴容流程之前,我們得先了解下HashMap的幾個字段。從HashMap的默認構造函數(shù)源碼可知,構造函數(shù)就是對下面幾個字段進行初始化,源碼如下:

 int threshold;    // 所能容納的key-value對極限 
 final float loadFactor; // 負載因子
 int modCount; 
 int size;

首先,Node[] table的初始化長度length(默認值是16),Load factor為負載因子(默認值是0.75),threshold是HashMap所能容納的最大數(shù)據(jù)量的Node(鍵值對)個數(shù)。threshold = length * Load factor。也就是說,在數(shù)組定義好長度之后,負載因子越大,所能容納的鍵值對個數(shù)越多。

結合負載因子的定義公式可知,threshold就是在此Load factor和length(數(shù)組長度)對應下允許的最大元素數(shù)目,超過這個數(shù)目就重新resize(擴容),擴容后的HashMap容量是之前容量的兩倍。默認的負載因子0.75是對空間和時間效率的一個平衡選擇,建議大家不要修改,除非在時間和空間比較特殊的情況下,如果內存空間很多而又對時間效率要求很高,可以降低負載因子Load factor的值;相反,如果內存空間緊張而對時間效率要求不高,可以增加負載因子loadFactor的值,這個值可以大于1。

size這個字段其實很好理解,就是HashMap中實際存在的鍵值對數(shù)量。注意和table的長度length、容納最大鍵值對數(shù)量threshold的區(qū)別。而modCount字段主要用來記錄HashMap內部結構發(fā)生變化的次數(shù),主要用于迭代的快速失敗。強調一點,內部結構發(fā)生變化指的是結構發(fā)生變化,例如put新鍵值對,但是某個key對應的value值被覆蓋不屬于結構變化。

在HashMap中,哈希桶數(shù)組table的長度length大小必須為2的n次方(一定是合數(shù)),這是一種非常規(guī)的設計,常規(guī)的設計是把桶的大小設計為素數(shù)。相對來說素數(shù)導致沖突的概率要小于合數(shù),具體證明可以參考http://www.dbjr.com.cn/article/100911.htm,Hashtable初始化桶大小為11,就是桶大小設計為素數(shù)的應用(Hashtable擴容后不能保證還是素數(shù))。HashMap采用這種非常規(guī)設計,主要是為了在取模和擴容時做優(yōu)化,同時為了減少沖突,HashMap定位哈希桶索引位置時,也加入了高位參與運算的過程。

這里存在一個問題,即使負載因子和Hash算法設計的再合理,也免不了會出現(xiàn)拉鏈過長的情況,一旦出現(xiàn)拉鏈過長,則會嚴重影響HashMap的性能。于是,在JDK1.8版本中,對數(shù)據(jù)結構做了進一步的優(yōu)化,引入了紅黑樹。而當鏈表長度太長(默認超過8)時,鏈表就轉換為紅黑樹,利用紅黑樹快速增刪改查的特點提高HashMap的性能,其中會用到紅黑樹的插入、刪除、查找等算法

確定哈希桶數(shù)組索引位置

代碼實現(xiàn):

//方法一:
static final int hash(Object key) { //jdk1.8 & jdk1.7
  int h;
  // h = key.hashCode() 為第一步 取hashCode值
  // h ^ (h >>> 16) 為第二步 高位參與運算
  return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//方法二:
static int indexFor(int h, int length) { //jdk1.7的源碼,jdk1.8沒有這個方法,但是實現(xiàn)原理一樣的
  return h & (length-1); //第三步 取模運算
}

這里的Hash算法本質上就是三步:取key的hashCode值、高位運算、取模運算。

對于任意給定的對象,只要它的hashCode()返回值相同,那么程序調用方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對數(shù)組長度取模運算,這樣一來,元素的分布相對來說是比較均勻的。但是,模運算的消耗還是比較大的,在HashMap中是這樣做的:調用方法二來計算該對象應該保存在table數(shù)組的哪個索引處。

這個方法非常巧妙,它通過h & (table.length -1)來得到該對象的保存位,而HashMap底層數(shù)組的長度總是2的n次方,這是HashMap在速度上的優(yōu)化。當length總是2的n次方時,h& (length-1)運算等價于對length取模,也就是h%length,但是&比%具有更高的效率。

在JDK1.8的實現(xiàn)中,優(yōu)化了高位運算的算法,通過hashCode()的高16位異或低16位實現(xiàn)的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這么做可以在數(shù)組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。

下面舉例說明下,n為table的長度。

這里寫圖片描述

HashMap的put方法實現(xiàn)

put函數(shù)大致的思路為:

  1. 對key的hashCode()做hash,然后再計算index;
  2. 如果沒碰撞直接放到bucket里;
  3. 如果碰撞了,以鏈表的形式存在buckets后;
  4. 如果碰撞導致鏈表過長(大于等于TREEIFY_THRESHOLD),就把鏈表轉換成紅黑樹;
  5. 如果節(jié)點已經存在就替換old value(保證key的唯一性)
  6. 如果bucket滿了(超過load factor*current capacity),就要resize。

具體代碼實現(xiàn)如下:

 public V put(K key, V value) {

  return putVal(hash(key), key, value, false, true);
 }
 /**
 *生成hash的方法
 */
 static final int hash(Object key) {
  int h;
  return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
 }

 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
  Node<K,V>[] tab; Node<K,V> p; int n, i;
  //判斷table是否為空,
  if ((tab = table) == null || (n = tab.length) == 0)
   n = (tab = resize()).length;//創(chuàng)建一個新的table數(shù)組,并且獲取該數(shù)組的長度
  //根據(jù)鍵值key計算hash值得到插入的數(shù)組索引i,如果table[i]==null,直接新建節(jié)點添加 
  if ((p = tab[i = (n - 1) & hash]) == null)
   tab[i] = newNode(hash, key, value, null);
  else {//如果對應的節(jié)點存在
   Node<K,V> e; K k;
   //判斷table[i]的首個元素是否和key一樣,如果相同直接覆蓋value
   if (p.hash == hash &&
    ((k = p.key) == key || (key != null && key.equals(k))))
    e = p;
   //判斷table[i] 是否為treeNode,即table[i] 是否是紅黑樹,如果是紅黑樹,則直接在樹中插入鍵值對
   else if (p instanceof TreeNode)
    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
   // 該鏈為鏈表
   else {
   //遍歷table[i],判斷鏈表長度是否大于TREEIFY_THRESHOLD(默認值為8),大于8的話把鏈表轉換為紅黑樹,在紅黑樹中執(zhí)行插入操作,否則進行鏈表的插入操作;遍歷過程中若發(fā)現(xiàn)key已經存在直接覆蓋value即可;
    for (int binCount = 0; ; ++binCount) {
     if ((e = p.next) == null) {
      p.next = newNode(hash, key, value, null);
      if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
       treeifyBin(tab, hash);
      break;
     }
     if (e.hash == hash &&
      ((k = e.key) == key || (key != null && key.equals(k))))
      break;
     p = e;
    }
   }
   // 寫入
   if (e != null) { // existing mapping for key
    V oldValue = e.value;
    if (!onlyIfAbsent || oldValue == null)
     e.value = value;
    afterNodeAccess(e);
    return oldValue;
   }
  }
  ++modCount;
  // 插入成功后,判斷實際存在的鍵值對數(shù)量size是否超多了最大容量threshold,如果超過,進行擴容
  if (++size > threshold)
   resize();
  afterNodeInsertion(evict);
  return null;
 }

HashMap的get方法實現(xiàn)

思路如下:

1.bucket里的第一個節(jié)點,直接命中;

2.如果有沖突,則通過key.equals(k)去查找對應的entry

若為樹,則在樹中通過key.equals(k)查找,O(logn);
若為鏈表,則在鏈表中通過key.equals(k)查找,O(n)。

public V get(Object key) {
  Node<K,V> e;
  return (e = getNode(hash(key), key)) == null ? null : e.value;
 }

final Node<K,V> getNode(int hash, Object key) {
  Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
  if ((tab = table) != null && (n = tab.length) > 0 &&
   (first = tab[(n - 1) & hash]) != null) {
   // 直接命中
   if (first.hash == hash && // 每次都是校驗第一個node
    ((k = first.key) == key || (key != null && key.equals(k))))
    return first;
   // 未命中
   if ((e = first.next) != null) {
   // 在樹中獲取
    if (first instanceof TreeNode)
     return ((TreeNode<K,V>)first).getTreeNode(hash, key);
    // 在鏈表中獲取
    do {
     if (e.hash == hash &&
      ((k = e.key) == key || (key != null && key.equals(k))))
      return e;
    } while ((e = e.next) != null);
   }
  }
  return null;
 }

擴容機制

擴容(resize)就是重新計算容量,向HashMap對象里不停的添加元素,而HashMap對象內部的數(shù)組無法裝載更多的元素時,對象就需要擴大數(shù)組的長度,以便能裝入更多的元素。當然Java里的數(shù)組是無法自動擴容的,方法是使用一個新的數(shù)組代替已有的容量小的數(shù)組,就像我們用一個小桶裝水,如果想裝更多的水,就得換大水桶。

我們分析下resize的源碼,鑒于JDK1.8融入了紅黑樹,較復雜,為了便于理解我們仍然使用JDK1.7的代碼,好理解一些,本質上區(qū)別不大,具體區(qū)別后文再說。

void resize(int newCapacity) { //傳入新的容量
  Entry[] oldTable = table; //引用擴容前的Entry數(shù)組
  int oldCapacity = oldTable.length;   
  if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的數(shù)組大小如果已經達到最大(2^30)了
   threshold = Integer.MAX_VALUE; //修改閾值為int的最大值(2^31-1),這樣以后就不會擴容了
   return;
  }

  Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數(shù)組
  transfer(newTable);       //?。?shù)據(jù)轉移到新的Entry數(shù)組里
  table = newTable;       //HashMap的table屬性引用新的Entry數(shù)組
 threshold = (int)(newCapacity * loadFactor);//修改閾值
}

這里就是使用一個容量更大的數(shù)組來代替已有的容量小的數(shù)組,transfer()方法將原有Entry數(shù)組的元素拷貝到新的Entry數(shù)組里。

void transfer(Entry[] newTable) {
  Entry[] src = table;     //src引用了舊的Entry數(shù)組
  int newCapacity = newTable.length;
  for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數(shù)組
   Entry<K,V> e = src[j];    //取得舊Entry數(shù)組的每個元素
   if (e != null) {
    src[j] = null;//釋放舊Entry數(shù)組的對象引用(for循環(huán)后,舊的Entry數(shù)組不再引用任何對象)
    do {
     Entry<K,V> next = e.next;
     int i = indexFor(e.hash, newCapacity); //??!重新計算每個元素在數(shù)組中的位置
     e.next = newTable[i]; //標記[1]
     newTable[i] = e;  //將元素放在數(shù)組上
     e = next;    //訪問下一個Entry鏈上的元素
    } while (e != null);
   }
  }
 }

newTable[i]的引用賦給了e.next,也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在鏈表的頭部位置;這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(如果發(fā)生了hash沖突的話),這一點和Jdk1.8有區(qū)別,下文詳解。在舊數(shù)組中同一條Entry鏈上的元素,通過重新計算索引位置后,有可能被放到了新數(shù)組的不同位置上。

下面舉個例子說明下擴容過程。假設了我們的hash算法就是簡單的用key mod 一下表的大?。ㄒ簿褪菙?shù)組的長度)。其中的哈希桶數(shù)組table的size=2, 所以key = 3、7、5,put順序依次為 5、7、3。在mod 2以后都沖突在table[1]這里了。這里假設負載因子 loadFactor=1,即當鍵值對的實際大小size 大于 table的實際大小時進行擴容。接下來的三個步驟是哈希桶數(shù)組 resize成4,然后所有的Node重新rehash的過程。

這里寫圖片描述

下面我們講解下JDK1.8做了哪些優(yōu)化。經過觀測可以發(fā)現(xiàn),我們使用的是2次冪的擴展(指長度擴為原來2倍),所以,元素的位置要么是在原位置,要么是在原位置再移動2次冪的位置??聪聢D可以明白這句話的意思,n為table的長度,圖(a)表示擴容前的key1和key2兩種key確定索引位置的示例,圖(b)表示擴容后key1和key2兩種key確定索引位置的示例,其中hash1是key1對應的哈希與高位運算結果。

hashMap 1.8 哈希算法例圖1

元素在重新計算hash之后,因為n變?yōu)?倍,那么n-1的mask范圍在高位多1bit(紅色),因此新的index就會發(fā)生這樣的變化:

hashMap 1.8 哈希算法例圖2

因此,我們在擴充HashMap的時候,不需要像JDK1.7的實現(xiàn)那樣重新計算hash,只需要看看原來的hash值新增的那個bit是1還是0就好了,是0的話索引沒變,是1的話索引變成“原索引+oldCap”,可以看看下圖為16擴充為32的resize示意圖:

jdk1.8 hashMap擴容例圖

這個設計確實非常的巧妙,既省去了重新計算hash值的時間,而且同時,由于新增的1bit是0還是1可以認為是隨機的,因此resize的過程,均勻的把之前的沖突的節(jié)點分散到新的bucket了。這一塊就是JDK1.8新增的優(yōu)化點。有一點注意區(qū)別,JDK1.7中rehash的時候,舊鏈表遷移新鏈表的時候,如果在新表的數(shù)組索引位置相同,則鏈表元素會倒置,但是從上圖可以看出,JDK1.8不會倒置。有興趣的同學可以研究下JDK1.8的resize源碼,寫的很贊,如下:

final Node<K,V>[] resize() {
 Node<K,V>[] oldTab = table;
 int oldCap = (oldTab == null) ? 0 : oldTab.length;
 int oldThr = threshold;
 int newCap, newThr = 0;
 if (oldCap > 0) {
  // 超過最大值就不再擴充了,就只好隨你碰撞去吧
  if (oldCap >= MAXIMUM_CAPACITY) {
   threshold = Integer.MAX_VALUE;
   return oldTab;
  }
  // 沒超過最大值,就擴充為原來的2倍
  else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
     oldCap >= DEFAULT_INITIAL_CAPACITY)
   newThr = oldThr << 1; // double threshold
 }
 else if (oldThr > 0) // initial capacity was placed in threshold
  newCap = oldThr;
 else {    // zero initial threshold signifies using defaults
  newCap = DEFAULT_INITIAL_CAPACITY;
  newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
 }
 // 計算新的resize上限
 if (newThr == 0) {

  float ft = (float)newCap * loadFactor;
  newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
     (int)ft : Integer.MAX_VALUE);
 }
 threshold = newThr;
 @SuppressWarnings({"rawtypes","unchecked"})
  Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
 table = newTab;
 if (oldTab != null) {
  // 把每個bucket都移動到新的buckets中
  for (int j = 0; j < oldCap; ++j) {
   Node<K,V> e;
   if ((e = oldTab[j]) != null) {
    oldTab[j] = null;
    if (e.next == null)
     newTab[e.hash & (newCap - 1)] = e;
    else if (e instanceof TreeNode)
     ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
    else { // preserve order
     Node<K,V> loHead = null, loTail = null;
     Node<K,V> hiHead = null, hiTail = null;
     Node<K,V> next;
     do {
      next = e.next;
      // 原索引
      if ((e.hash & oldCap) == 0) {
       if (loTail == null)
        loHead = e;
       else
        loTail.next = e;
       loTail = e;
      }
      // 原索引+oldCap
      else {
       if (hiTail == null)
        hiHead = e;
       else
        hiTail.next = e;
       hiTail = e;
      }
     } while ((e = next) != null);
     // 原索引放到bucket里
     if (loTail != null) {
      loTail.next = null;
      newTab[j] = loHead;
     }
     // 原索引+oldCap放到bucket里
     if (hiTail != null) {
      hiTail.next = null;
      newTab[j + oldCap] = hiHead;
     }
    }
   }
  }
 }
 return newTab;
}

總結

我們現(xiàn)在可以回答開始的幾個問題,加深對HashMap的理解:

1.什么時候會使用HashMap?他有什么特點?

是基于Map接口的實現(xiàn),存儲鍵值對時,它可以接收null的鍵值,是非同步的,HashMap存儲著Entry(hash, key, value, next)對象。

2.你知道HashMap的工作原理嗎?

通過hash的方法,通過put和get存儲和獲取對象。存儲對象時,我們將K/V傳給put方法時,它調用hashCode計算hash從而得到bucket位置,進一步存儲,HashMap會根據(jù)當前bucket的占用情況自動調整容量(超過Load Facotr則resize為原來的2倍)。獲取對象時,我們將K傳給get,它調用hashCode計算hash從而得到bucket位置,并進一步調用equals()方法確定鍵值對。如果發(fā)生碰撞的時候,Hashmap通過鏈表將產生碰撞沖突的元素組織起來,在Java 8中,如果一個bucket中碰撞沖突的元素超過某個限制(默認是8),則使用紅黑樹來替換鏈表,從而提高速度。

3.你知道get和put的原理嗎?equals()和hashCode()的都有什么作用?

通過對key的hashCode()進行hashing,并計算下標( n-1 & hash),從而獲得buckets的位置。如果產生碰撞,則利用key.equals()方法去鏈表或樹中去查找對應的節(jié)點

4.你知道hash的實現(xiàn)嗎?為什么要這樣實現(xiàn)?

在Java 1.8的實現(xiàn)中,是通過hashCode()的高16位異或低16位實現(xiàn)的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這么做可以在bucket的n比較小的時候,也能保證考慮到高低bit都參與到hash的計算中,同時不會有太大的開銷。

5.如果HashMap的大小超過了負載因子(load factor)定義的容量,怎么辦?

如果超過了負載因子(默認0.75),則會重新resize一個原來長度兩倍的HashMap,并且重新調用hash方法。
關于Java集合的小抄中是這樣描述的:
以Entry[]數(shù)組實現(xiàn)的哈希桶數(shù)組,用Key的哈希值取模桶數(shù)組的大小可得到數(shù)組下標。
插入元素時,如果兩條Key落在同一個桶(比如哈希值1和17取模16后都屬于第一個哈希桶),Entry用一個next屬性實現(xiàn)多個Entry以單向鏈表存放,后入桶的Entry將next指向桶當前的Entry。
查找哈希值為17的key時,先定位到第一個哈希桶,然后以鏈表遍歷桶里所有元素,逐個比較其key值。
當Entry數(shù)量達到桶數(shù)量的75%時(很多文章說使用的桶數(shù)量達到了75%,但看代碼不是),會成倍擴容桶數(shù)組,并重新分配所有原來的Entry,所以這里也最好有個預估值。
取模用位運算(hash & (arrayLength-1))會比較快,所以數(shù)組的大小永遠是2的N次方, 你隨便給一個初始值比如17會轉為32。默認第一次放入元素時的初始值是16。
iterator()時順著哈希桶數(shù)組來遍歷,看起來是個亂序。

6.當兩個對象的hashcode相同會發(fā)生什么?

因為hashcode相同,所以它們的bucket位置相同,‘碰撞'會發(fā)生。因為HashMap使用鏈表存儲對象,這個Entry(包含有鍵值對的Map.Entry對象)會存儲在鏈表中。

7.如果兩個鍵的hashcode相同,你如何獲取值對象?

找到bucket位置之后,會調用keys.equals()方法去找到鏈表中正確的節(jié)點,最終找到要找的值對象。因此,設計HashMap的key類型時,如果使用不可變的、聲明作final的對象,并且采用合適的equals()和hashCode()方法的話,將會減少碰撞的發(fā)生,提高效率。不可變性能夠緩存不同鍵的hashcode,這將提高整個獲取對象的速度,使用String,Interger這樣的wrapper類作為鍵是非常好的選擇

8.如果HashMap的大小超過了負載因子(load factor)定義的容量,怎么辦?

默認的負載因子大小為0.75,也就是說,當一個map填滿了75%的bucket時候,和其它集合類(如ArrayList等)一樣,將會創(chuàng)建原來HashMap大小的兩倍的bucket數(shù)組,來重新調整map的大小,并將原來的對象放入新的bucket數(shù)組中。這個過程叫作rehashing,因為它調用hash方法找到新的bucket位置

9.你了解重新調整HashMap大小存在什么問題嗎?

當重新調整HashMap大小的時候,確實存在條件競爭,因為如果兩個線程都發(fā)現(xiàn)HashMap需要重新調整大小了,它們會同時試著調整大小。在調整大小的過程中,存儲在鏈表中的元素的次序會反過來,因為移動到新的bucket位置的時候,HashMap并不會將元素放在鏈表的尾部,而是放在頭部,這是為了避免尾部遍歷(tail traversing)。如果條件競爭發(fā)生了,那么就死循環(huán)了。因此在并發(fā)環(huán)境下,我們使用CurrentHashMap來替代HashMap

10.為什么String, Interger這樣的wrapper類適合作為鍵?

因為String是不可變的,也是final的,而且已經重寫了equals()和hashCode()方法了。其他的wrapper類也有這個特點。不可變性是必要的,因為為了要計算hashCode(),就要防止鍵值改變,如果鍵值在放入時和獲取時返回不同的hashcode的話,那么就不能從HashMap中找到你想要的對象。不可變性還有其他的優(yōu)點如線程安全。如果你可以僅僅通過將某個field聲明成final就能保證hashCode是不變的,那么請這么做吧。因為獲取對象的時候要用到equals()和hashCode()方法,那么鍵對象正確的重寫這兩個方法是非常重要的。如果兩個不相等的對象返回不同的hashcode的話,那么碰撞的幾率就會小些,這樣就能提高HashMap的性能

感謝閱讀,希望能幫助到大家,謝謝大家對本站的支持!

相關文章

  • 探索Java分布式限流技術

    探索Java分布式限流技術

    探索Java分布式限流技術,讓你的系統(tǒng)遠離流量過載的煩惱,本指南將帶你了解如何使用Java實現(xiàn)高效的限流策略,幫助你輕松應對高并發(fā)場景,讓我們一起開啟這段精彩的技術之旅,打造更加穩(wěn)定可靠的系統(tǒng),需要的朋友可以參考下
    2024-03-03
  • java單例模式學習示例

    java單例模式學習示例

    java中單例模式是一種常見的設計模式,單例模式分三種:懶漢式單例、餓漢式單例、登記式單例三種,下面提供了單例模式的示例
    2014-01-01
  • Java事件處理機制(自定義事件)實例詳解

    Java事件處理機制(自定義事件)實例詳解

    這篇文章主要介紹了Java事件處理機制(自定義事件)實例詳解的相關資料,需要的朋友可以參考下
    2016-12-12
  • spring boot tomcat版本升級的實現(xiàn)示例

    spring boot tomcat版本升級的實現(xiàn)示例

    本文主要介紹了spring boot tomcat版本升級的實現(xiàn)示例,將tomcat升級一個小版本升級到9.0.44版本,文中通過圖文介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2024-11-11
  • java.lang.ArrayStoreException異常的解決方案

    java.lang.ArrayStoreException異常的解決方案

    這篇文章主要介紹了java.lang.ArrayStoreException異常的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-12-12
  • Spring Boot+Mybatis+Pagehelper分頁實現(xiàn)

    Spring Boot+Mybatis+Pagehelper分頁實現(xiàn)

    本篇文章主要講述的是Spring Boot+Mybatis+Pagehelper分頁實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-04-04
  • Springboot項目的搭建教程(分離出common父依賴)

    Springboot項目的搭建教程(分離出common父依賴)

    這篇文章主要介紹了Springboot項目的搭建教程(分離出common父依賴),具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-01-01
  • java實現(xiàn)文件下載的兩種方式

    java實現(xiàn)文件下載的兩種方式

    這篇文章主要為大家詳細介紹了java實現(xiàn)文件下載的兩種方式,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2017-11-11
  • SpringBoot 整合Tess4J庫實現(xiàn)圖片文字識別案例詳解

    SpringBoot 整合Tess4J庫實現(xiàn)圖片文字識別案例詳解

    Tess4J是一個基于Tesseract OCR引擎的Java接口,可以用來識別圖像中的文本,說白了,就是封裝了它的API,讓Java可以直接調用,今天給大家分享一個SpringBoot整合Tess4j庫實現(xiàn)圖片文字識別的小案例
    2023-10-10
  • SpringBoot指標監(jiān)控功能實現(xiàn)

    SpringBoot指標監(jiān)控功能實現(xiàn)

    這篇文章主要介紹了SpringBoot指標監(jiān)控功能實現(xiàn),本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2023-06-06

最新評論