int threshold; // 所能容納的key-value對極限 final float loadFactor; // 負(fù)載因子 int modCount; int size;首先,Node[] table的初始化長度length(默認(rèn)值是16),Load factor為負(fù)載因子(默認(rèn)值是0.75),threshold是HashMap所能容納的最大數(shù)據(jù)量的Node(鍵值對)個數(shù)。threshold = length * Load factor。也就是說,在數(shù)組定義好長度之后,負(fù)載因子越大,所能容納的鍵值對個數(shù)越多。
結(jié)合負(fù)載因子的定義公式可知,threshold就是在此Load factor和length(數(shù)組長度)對應(yīng)下允許的最大元素數(shù)目,超過這個數(shù)目就重新resize(擴(kuò)容),擴(kuò)容后的HashMap容量是之前容量的兩倍。默認(rèn)的負(fù)載因子0.75是對空間和時間效率的一個平衡選擇,建議大家不要修改,除非在時間和空間比較特殊的情況下,如果內(nèi)存空間很多而又對時間效率要求很高,可以降低負(fù)載因子Load factor的值;相反,如果內(nèi)存空間緊張而對時間效率要求不高,可以增加負(fù)載因子loadFactor的值,這個值可以大于1。
size這個字段其實很好理解,就是HashMap中實際存在的鍵值對數(shù)量。注意和table的長度length、容納最大鍵值對數(shù)量threshold的區(qū)別。而modCount字段主要用來記錄HashMap內(nèi)部結(jié)構(gòu)發(fā)生變化的次數(shù),主要用于迭代的快速失敗。強(qiáng)調(diào)一點,內(nèi)部結(jié)構(gòu)發(fā)生變化指的是結(jié)構(gòu)發(fā)生變化,例如put新鍵值對,但是某個key對應(yīng)的value值被覆蓋不屬于結(jié)構(gòu)變化。
在HashMap中,哈希桶數(shù)組table的長度length大小必須為2的n次方(一定是合數(shù)),這是一種非常規(guī)的設(shè)計,常規(guī)的設(shè)計是把桶的大小設(shè)計為素數(shù)。相對來說素數(shù)導(dǎo)致沖突的概率要小于合數(shù),具體證明可以參考http://blog.csdn.net/liuqiyao_01/article/details/14475159,Hashtable初始化桶大小為11,就是桶大小設(shè)計為素數(shù)的應(yīng)用(Hashtable擴(kuò)容后不能保證還是素數(shù))。HashMap采用這種非常規(guī)設(shè)計,主要是為了在取模和擴(kuò)容時做優(yōu)化,同時為了減少沖突,HashMap定位哈希桶索引位置時,也加入了高位參與運(yùn)算的過程。
這里存在一個問題,即使負(fù)載因子和Hash算法設(shè)計的再合理,也免不了會出現(xiàn)拉鏈過長的情況,一旦出現(xiàn)拉鏈過長,則會嚴(yán)重影響HashMap的性能。于是,在JDK1.8版本中,對數(shù)據(jù)結(jié)構(gòu)做了進(jìn)一步的優(yōu)化,引入了紅黑樹。而當(dāng)鏈表長度太長(默認(rèn)超過8)時,鏈表就轉(zhuǎn)換為紅黑樹,利用紅黑樹快速增刪改查的特點提高HashMap的性能,其中會用到紅黑樹的插入、刪除、查找等算法
確定哈希桶數(shù)組索引位置
代碼實現(xiàn):
//方法一:static final int hash(Object key) { //jdk1.8 & jdk1.7 int h; // h = key.hashCode() 為第一步 取hashCode值 // h ^ (h >>> 16) 為第二步 高位參與運(yùn)算 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}//方法二:static int indexFor(int h, int length) { //jdk1.7的源碼,jdk1.8沒有這個方法,但是實現(xiàn)原理一樣的 return h & (length-1); //第三步 取模運(yùn)算}
12345678910111234567891011這里的Hash算法本質(zhì)上就是三步:取key的hashCode值、高位運(yùn)算、取模運(yùn)算。
對于任意給定的對象,只要它的hashCode()返回值相同,那么程序調(diào)用方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對數(shù)組長度取模運(yùn)算,這樣一來,元素的分布相對來說是比較均勻的。但是,模運(yùn)算的消耗還是比較大的,在HashMap中是這樣做的:調(diào)用方法二來計算該對象應(yīng)該保存在table數(shù)組的哪個索引處。
這個方法非常巧妙,它通過h & (table.length -1)來得到該對象的保存位,而HashMap底層數(shù)組的長度總是2的n次方,這是HashMap在速度上的優(yōu)化。當(dāng)length總是2的n次方時,h& (length-1)運(yùn)算等價于對length取模,也就是h%length,但是&比%具有更高的效率。
在JDK1.8的實現(xiàn)中,優(yōu)化了高位運(yùn)算的算法,通過hashCode()的高16位異或低16位實現(xiàn)的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質(zhì)量來考慮的,這么做可以在數(shù)組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。
下面舉例說明下,n為table的長度。

HashMap的put方法實現(xiàn)
put函數(shù)大致的思路為:
對key的hashCode()做hash,然后再計算index;如果沒碰撞直接放到bucket里;如果碰撞了,以鏈表的形式存在buckets后;如果碰撞導(dǎo)致鏈表過長(大于等于TREEIFY_THRESHOLD),就把鏈表轉(zhuǎn)換成紅黑樹;如果節(jié)點已經(jīng)存在就替換old value(保證key的唯一性)如果bucket滿了(超過load factor*current capacity),就要resize。具體代碼實現(xiàn)如下:
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } /** *生成hash的方法 */ static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //判斷table是否為空, if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length;//創(chuàng)建一個新的table數(shù)組,并且獲取該數(shù)組的長度 //根據(jù)鍵值key計算hash值得到插入的數(shù)組索引i,如果table[i]==null,直接新建節(jié)點添加 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else {//如果對應(yīng)的節(jié)點存在 Node<K,V> e; K k; //判斷table[i]的首個元素是否和key一樣,如果相同直接覆蓋value if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //判斷table[i] 是否為treeNode,即table[i] 是否是紅黑樹,如果是紅黑樹,則直接在樹中插入鍵值對 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); // 該鏈為鏈表 else { //遍歷table[i],判斷鏈表長度是否大于TREEIFY_THRESHOLD(默認(rèn)值為8),大于8的話把鏈表轉(zhuǎn)換為紅黑樹,在紅黑樹中執(zhí)行插入操作,否則進(jìn)行鏈表的插入操作;遍歷過程中若發(fā)現(xiàn)key已經(jīng)存在直接覆蓋value即可; for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } // 寫入 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeaccess(e); return oldValue; } } ++modCount; // 插入成功后,判斷實際存在的鍵值對數(shù)量size是否超多了最大容量threshold,如果超過,進(jìn)行擴(kuò)容 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606112345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061HashMap的get方法實現(xiàn)
思路如下:
bucket里的第一個節(jié)點,直接命中;如果有沖突,則通過key.equals(k)去查找對應(yīng)的entry 若為樹,則在樹中通過key.equals(k)查找,O(logn); 若為鏈表,則在鏈表中通過key.equals(k)查找,O(n)。public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; }final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { // 直接命中 if (first.hash == hash && // 每次都是校驗第一個node ((k = first.key) == key || (key != null && key.equals(k)))) return first; // 未命中 if ((e = first.next) != null) { // 在樹中獲取 if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); // 在鏈表中獲取 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
1234567891011121314151617181920212223242526272812345678910111213141516171819202122232425262728擴(kuò)容機(jī)制
擴(kuò)容(resize)就是重新計算容量,向HashMap對象里不停的添加元素,而HashMap對象內(nèi)部的數(shù)組無法裝載更多的元素時,對象就需要擴(kuò)大數(shù)組的長度,以便能裝入更多的元素。當(dāng)然Java里的數(shù)組是無法自動擴(kuò)容的,方法是使用一個新的數(shù)組代替已有的容量小的數(shù)組,就像我們用一個小桶裝水,如果想裝更多的水,就得換大水桶。
我們分析下resize的源碼,鑒于JDK1.8融入了紅黑樹,較復(fù)雜,為了便于理解我們?nèi)匀皇褂肑DK1.7的代碼,好理解一些,本質(zhì)上區(qū)別不大,具體區(qū)別后文再說。
void resize(int newCapacity) { //傳入新的容量 Entry[] oldTable = table; //引用擴(kuò)容前的Entry數(shù)組 int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { //擴(kuò)容前的數(shù)組大小如果已經(jīng)達(dá)到最大(2^30)了 threshold = Integer.MAX_VALUE; //修改閾值為int的最大值(2^31-1),這樣以后就不會擴(kuò)容了 return; } Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數(shù)組 transfer(newTable); //!!將數(shù)據(jù)轉(zhuǎn)移到新的Entry數(shù)組里 table = newTable; //HashMap的table屬性引用新的Entry數(shù)組 threshold = (int)(newCapacity * loadFactor);//修改閾值}
1234567891011121312345678910111213這里就是使用一個容量更大的數(shù)組來代替已有的容量小的數(shù)組,transfer()方法將原有Entry數(shù)組的元素拷貝到新的Entry數(shù)組里。
void transfer(Entry[] newTable) { Entry[] src = table; //src引用了舊的Entry數(shù)組 int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數(shù)組 Entry<K,V> e = src[j]; //取得舊Entry數(shù)組的每個元素 if (e != null) { src[j] = null;//釋放舊Entry數(shù)組的對象引用(for循環(huán)后,舊的Entry數(shù)組不再引用任何對象) do { Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); //!!重新計算每個元素在數(shù)組中的位置 e.next = newTable[i]; //標(biāo)記[1] newTable[i] = e; //將元素放在數(shù)組上 e = next; //訪問下一個Entry鏈上的元素 } while (e != null); } } }
12345678910111213141516171234567891011121314151617newTable[i]的引用賦給了e.next,也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在鏈表的頭部位置;這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(如果發(fā)生了hash沖突的話),這一點和Jdk1.8有區(qū)別,下文詳解。在舊數(shù)組中同一條Entry鏈上的元素,通過重新計算索引位置后,有可能被放到了新數(shù)組的不同位置上。
下面舉個例子說明下擴(kuò)容過程。假設(shè)了我們的hash算法就是簡單的用key mod 一下表的大小(也就是數(shù)組的長度)。其中的哈希桶數(shù)組table的size=2, 所以key = 3、7、5,put順序依次為 5、7、3。在mod 2以后都沖突在table[1]這里了。這里假設(shè)負(fù)載因子 loadFactor=1,即當(dāng)鍵值對的實際大小size 大于 table的實際大小時進(jìn)行擴(kuò)容。接下來的三個步驟是哈希桶數(shù)組 resize成4,然后所有的Node重新rehash的過程。

下面我們講解下JDK1.8做了哪些優(yōu)化。經(jīng)過觀測可以發(fā)現(xiàn),我們使用的是2次冪的擴(kuò)展(指長度擴(kuò)為原來2倍),所以,元素的位置要么是在原位置,要么是在原位置再移動2次冪的位置。看下圖可以明白這句話的意思,n為table的長度,圖(a)表示擴(kuò)容前的key1和key2兩種key確定索引位置的示例,圖(b)表示擴(kuò)容后key1和key2兩種key確定索引位置的示例,其中hash1是key1對應(yīng)的哈希與高位運(yùn)算結(jié)果。

元素在重新計算hash之后,因為n變?yōu)?倍,那么n-1的mask范圍在高位多1bit(紅色),因此新的index就會發(fā)生這樣的變化:

因此,我們在擴(kuò)充HashMap的時候,不需要像JDK1.7的實現(xiàn)那樣重新計算hash,只需要看看原來的hash值新增的那個bit是1還是0就好了,是0的話索引沒變,是1的話索引變成“原索引+oldCap”,可以看看下圖為16擴(kuò)充為32的resize示意圖:

這個設(shè)計確實非常的巧妙,既省去了重新計算hash值的時間,而且同時,由于新增的1bit是0還是1可以認(rèn)為是隨機(jī)的,因此resize的過程,均勻的把之前的沖突的節(jié)點分散到新的bucket了。這一塊就是JDK1.8新增的優(yōu)化點。有一點注意區(qū)別,JDK1.7中rehash的時候,舊鏈表遷移新鏈表的時候,如果在新表的數(shù)組索引位置相同,則鏈表元素會倒置,但是從上圖可以看出,JDK1.8不會倒置。有興趣的同學(xué)可以研究下JDK1.8的resize源碼,寫的很贊,如下:
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { // 超過最大值就不再擴(kuò)充了,就只好隨你碰撞去吧 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 沒超過最大值,就擴(kuò)充為原來的2倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 計算新的resize上限 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SupPRessWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { // 把每個bucket都移動到新的buckets中 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; // 原索引 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } // 原索引+oldCap else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 原索引放到bucket里 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } // 原索引+oldCap放到bucket里 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab;}
1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677787980818212345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182總結(jié)
我們現(xiàn)在可以回答開始的幾個問題,加深對HashMap的理解:
什么時候會使用HashMap?他有什么特點?
是基于Map接口的實現(xiàn),存儲鍵值對時,它可以接收null的鍵值,是非同步的,HashMap存儲著Entry(hash, key, value, next)對象。
你知道HashMap的工作原理嗎?
通過hash的方法,通過put和get存儲和獲取對象。存儲對象時,我們將K/V傳給put方法時,它調(diào)用hashCode計算hash從而得到bucket位置,進(jìn)一步存儲,HashMap會根據(jù)當(dāng)前bucket的占用情況自動調(diào)整容量(超過Load Facotr則resize為原來的2倍)。獲取對象時,我們將K傳給get,它調(diào)用hashCode計算hash從而得到bucket位置,并進(jìn)一步調(diào)用equals()方法確定鍵值對。如果發(fā)生碰撞的時候,Hashmap通過鏈表將產(chǎn)生碰撞沖突的元素組織起來,在Java 8中,如果一個bucket中碰撞沖突的元素超過某個限制(默認(rèn)是8),則使用紅黑樹來替換鏈表,從而提高速度。
你知道get和put的原理嗎?equals()和hashCode()的都有什么作用?
通過對key的hashCode()進(jìn)行hashing,并計算下標(biāo)( n-1 & hash),從而獲得buckets的位置。如果產(chǎn)生碰撞,則利用key.equals()方法去鏈表或樹中去查找對應(yīng)的節(jié)點
你知道hash的實現(xiàn)嗎?為什么要這樣實現(xiàn)?
在Java 1.8的實現(xiàn)中,是通過hashCode()的高16位異或低16位實現(xiàn)的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質(zhì)量來考慮的,這么做可以在bucket的n比較小的時候,也能保證考慮到高低bit都參與到hash的計算中,同時不會有太大的開銷。
如果HashMap的大小超過了負(fù)載因子(load factor)定義的容量,怎么辦?
如果超過了負(fù)載因子(默認(rèn)0.75),則會重新resize一個原來長度兩倍的HashMap,并且重新調(diào)用hash方法。 關(guān)于Java集合的小抄中是這樣描述的: 以Entry[]數(shù)組實現(xiàn)的哈希桶數(shù)組,用Key的哈希值取模桶數(shù)組的大小可得到數(shù)組下標(biāo)。 插入元素時,如果兩條Key落在同一個桶(比如哈希值1和17取模16后都屬于第一個哈希桶),Entry用一個next屬性實現(xiàn)多個Entry以單向鏈表存放,后入桶的Entry將next指向桶當(dāng)前的Entry。 查找哈希值為17的key時,先定位到第一個哈希桶,然后以鏈表遍歷桶里所有元素,逐個比較其key值。 當(dāng)Entry數(shù)量達(dá)到桶數(shù)量的75%時(很多文章說使用的桶數(shù)量達(dá)到了75%,但看代碼不是),會成倍擴(kuò)容桶數(shù)組,并重新分配所有原來的Entry,所以這里也最好有個預(yù)估值。 取模用位運(yùn)算(hash & (arrayLength-1))會比較快,所以數(shù)組的大小永遠(yuǎn)是2的N次方, 你隨便給一個初始值比如17會轉(zhuǎn)為32。默認(rèn)第一次放入元素時的初始值是16。 iterator()時順著哈希桶數(shù)組來遍歷,看起來是個亂序。
當(dāng)兩個對象的hashcode相同會發(fā)生什么?
因為hashcode相同,所以它們的bucket位置相同,‘碰撞’會發(fā)生。因為HashMap使用鏈表存儲對象,這個Entry(包含有鍵值對的Map.Entry對象)會存儲在鏈表中。
如果兩個鍵的hashcode相同,你如何獲取值對象?
找到bucket位置之后,會調(diào)用keys.equals()方法去找到鏈表中正確的節(jié)點,最終找到要找的值對象。因此,設(shè)計HashMap的key類型時,如果使用不可變的、聲明作final的對象,并且采用合適的equals()和hashCode()方法的話,將會減少碰撞的發(fā)生,提高效率。不可變性能夠緩存不同鍵的hashcode,這將提高整個獲取對象的速度,使用String,Interger這樣的wrapper類作為鍵是非常好的選擇
如果HashMap的大小超過了負(fù)載因子(load factor)定義的容量,怎么辦?
默認(rèn)的負(fù)載因子大小為0.75,也就是說,當(dāng)一個map填滿了75%的bucket時候,和其它集合類(如ArrayList等)一樣,將會創(chuàng)建原來HashMap大小的兩倍的bucket數(shù)組,來重新調(diào)整map的大小,并將原來的對象放入新的bucket數(shù)組中。這個過程叫作rehashing,因為它調(diào)用hash方法找到新的bucket位置
你了解重新調(diào)整HashMap大小存在什么問題嗎?
當(dāng)重新調(diào)整HashMap大小的時候,確實存在條件競爭,因為如果兩個線程都發(fā)現(xiàn)HashMap需要重新調(diào)整大小了,它們會同時試著調(diào)整大小。在調(diào)整大小的過程中,存儲在鏈表中的元素的次序會反過來,因為移動到新的bucket位置的時候,HashMap并不會將元素放在鏈表的尾部,而是放在頭部,這是為了避免尾部遍歷(tail traversing)。如果條件競爭發(fā)生了,那么就死循環(huán)了。因此在并發(fā)環(huán)境下,我們使用CurrentHashMap來替代HashMap
為什么String, Interger這樣的wrapper類適合作為鍵?
因為String是不可變的,也是final的,而且已經(jīng)重寫了equals()和hashCode()方法了。其他的wrapper類也有這個特點。不可變性是必要的,因為為了要計算hashCode(),就要防止鍵值改變,如果鍵值在放入時和獲取時返回不同的hashcode的話,那么就不能從HashMap中找到你想要的對象。不可變性還有其他的優(yōu)點如線程安全。如果你可以僅僅通過將某個field聲明成final就能保證hashCode是不變的,那么請這么做吧。因為獲取對象的時候要用到equals()和hashCode()方法,那么鍵對象正確的重寫這兩個方法是非常重要的。如果兩個不相等的對象返回不同的hashcode的話,那么碰撞的幾率就會小些,這樣就能提高HashMap的性能
轉(zhuǎn)載自:http://blog.csdn.net/fjse51/article/details/53811465