您好,登錄后才能下訂單哦!
這篇文章主要介紹了HashMap和HashTable的區別,具有一定借鑒價值,需要的朋友可以參考下。下面就和我一起來看看HashMap和HashTable具體有什么區別吧。
1.首先來看下繼承結構:
HashMap
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable
Hashtable
public class Hashtable<K,V> extends Dictionary<K,V> implements Map<K,V>, Cloneable, java.io.Serializable
1、首先通過名字我們可以看出HashMap符合駝峰命名規則,Hashtable不符合駝峰命名規則,通過繼承結構我們發現HashMap繼承自AbstractMap<K,V>,而Hashtable繼承自Dictionnary<K,V>,Dictionary是一個已經被廢棄的類,所有Hashtable一般不推薦使用,多線程環境下可以使用同步容器ConcurrentHashMap<K,V>類。
2、通過類的屬性可以發現,在jdk1.8,當HashMap中的某條鏈中存儲的結點數大于等于8時并且鏈表數組長度大于64時轉化為紅黑樹,而Hashtable并不會轉化為紅黑樹。
3、Hashtable的put()與HashMap的put()
Hashtable的put操作:
public synchronized V put(K key, V value) { // Make sure the value is not null if (value == null) { throw new NullPointerException(); } // Makes sure the key is not already in the hashtable. Entry<?,?> tab[] = table; int hash = key.hashCode(); int index = (hash & 0x7FFFFFFF) % tab.length; @SuppressWarnings("unchecked") Entry<K,V> entry = (Entry<K,V>)tab[index]; for(; entry != null ; entry = entry.next) { if ((entry.hash == hash) && entry.key.equals(key)) { V old = entry.value; entry.value = value; return old; } } addEntry(hash, key, value, index); return null; }
Hashtable中的方法添加了synchronized 關鍵字,所以它是一個同步方法。
通過 if (value == null) throw new NullPointerException();} 可以看出他不允許value的值為空,而當key為null時,調用key.hashCode();會拋出null指針異常,所以Hashtable中存儲的Entry中的key和值都不能為空。還有Hashtable取鏈表下標是通過%運算來取的。
下面看HashMap
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
可以看到HashMap中key可以有一個null,當key為null空時它的hash值為0,而且HashMap獲取鏈表數組下標的方法與Hashtable不同,它是使用(n-1)&hash來計算,因為HashMap的數組鏈表長度為2的n次方。
總結:HashMap中的key可以有一個null,值可以有多個null,Hashtable中的key和value都不能為空。定位鏈的方式不同,HashMap通過&運算來獲取下標,而Hashtable通過%來獲取下標,&運算更快。
4、HashMap和Hashtable的擴容方式不同。
Hashtable擴容:
@SuppressWarnings("unchecked") protected void rehash() { int oldCapacity = table.length; Entry<?,?>[] oldMap = table; // overflow-conscious code int newCapacity = (oldCapacity << 1) + 1; //MAX_ARRAY_SIZE = int的最大值-8 if (newCapacity - MAX_ARRAY_SIZE > 0) { if (oldCapacity == MAX_ARRAY_SIZE) // Keep running with MAX_ARRAY_SIZE buckets return; newCapacity = MAX_ARRAY_SIZE; } Entry<?,?>[] newMap = new Entry<?,?>[newCapacity]; modCount++; threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1); table = newMap; //從鏈表數組尾到頭遍歷 for (int i = oldCapacity ; i-- > 0 ;) { for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) { Entry<K,V> e = old; old = old.next; //從新定位鏈位置 int index = (e.hash & 0x7FFFFFFF) % newCapacity; e.next = (Entry<K,V>)newMap[index]; newMap[index] = e; } } }
通過源碼我們發現Hashtable鏈表數組的最大長度為int類型的最大值-8,Hashtable的擴容會把長度變為原來的二倍加1,而且擴容后需要從新定位鏈表。而且擴容后數組鏈表的順序變成了原順序的倒序。
HashMap的擴容:
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; //如果遠鏈表數組長度大于零 if (oldCap > 0) { //如果原長度大于或等于MAXIMUM_CAPACITY(2^30),則將threshold(閘值)設為Integer.MAX_VALUE大約為MAXIMUM_CAPACITY(2^30)的二倍 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } //讓新的容量變為舊的二倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) //新的閘值也變為原來的二倍 newThr = oldThr << 1; // double threshold } //老的鏈表數組長度小于等于0,老的閘值大于零,這種情況是初始化時傳入一個map導致的構造器為public HashMap(Map<? extends K, ? extends V> m) else if (oldThr > 0) // initial capacity was placed in threshold //讓新的容量等于舊的閘值 newCap = oldThr; //下面的else是默認的構造器,即public HashMap() else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } //新的閘值為零時(也就是(newCap = oldCap << 1) >= MAXIMUM_CAPACITY的情況),這時需要賦予newThr正確的值。 if (newThr == 0) { float ft = (float)newCap * loadFactor; //閘值=鏈表數組長度*加載因子。 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; //擴容,如果原來的鏈表數組中有數據,就復雜到table中 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { //遍歷老的鏈表數組 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; //當oldTab[j]這條鏈不為空時 if ((e = oldTab[j]) != null) { oldTab[j] = null; //如果這條鏈只有首節點有數據,把它添加進新鏈表數組中 if (e.next == null) //因為數組的容量時2的n次方,所以使用hash&(newCap-1)來計算出在那條鏈中。 newTab[e.hash & (newCap - 1)] = e; //如果老的鏈在紅黑樹中,使用split()方法來復制 else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); //當前鏈中不只只有一個鏈表頭數據時,遍歷鏈表來復制 else { // preserve order //數據的復制有兩種情況,第一種是原位置不變,第二種是位置改變 loHead代表和原鏈相同位置的鏈,hiHead代表是原鏈加上原容量的鏈,因為擴容后長度為原長度的二倍,一個鏈中的節點要不在原位置的鏈中,要么在原位置加原容量的鏈中 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; //通過e.hash和oldCap進行&運算來得出位置是否需要改變。 比如原數組容量為16(10000)和hash值進行&運算,如果高位1未參加運算,則為0即位置不變,如果高位參加了運算值不等于0,需要改變位置。 //loHead和hiHead分別代表原位置的鏈和新位置的鏈 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; //原位置為j newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; //新位置為j+oldCap newTab[j + oldCap] = hiHead; } } } } } return newTab; }
可以看到HashMap的擴容容量變為原來的二倍,而且它不需要從新定位鏈表,因為擴容后的位置要么在原位置,要么在原位置+原容量,通過hash和鏈表數組的長度進行與運算即可判斷,如果數組長度的高位參加了運算就在原位置+原容量,高位沒參加運算在原位置。而且HashMap擴容后鏈表數據順序不變。
5.HashMap和Hashtable的初始容量不同。
Hashtable的初始容量為11,HashMap的初始容量為16.
以上就是HashMap和HashTable的區別是什么的詳細內容了,看完之后是否有所收獲呢?如果想了解更多相關內容,歡迎來億速云行業資訊!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。