谨慎处理 遍历ConcurrentHashMap

最近发现内存中WriteThroughEntry数量突然很巨大,经过反复分析查找,发现是由于遍历ConcurrentHashMap不当导致的,遍 历时尽量使用values(),使用ConcurrentHashMap的entrySet()遍历会产生大量WriteThroughEntry对象, 从源码中可以看到ConcurrentHashMap中的EntryIterator对象重载的next()方法里每次都会创建一个 WriteThroughEntry对象返回,而HashMap、TreeMap则不会出现这种情况。

 

原文地址:http://hi.baidu.com/fallen9/blog/item/690e963d56471209bba1670a.html

文章来源于网络或者作者投稿,若有侵权请联系删除,作者:老钟,如若转载,请注明出处:https://www.laoz.net/124.html

(0)
上一篇 2011 年 08 月 30 日
下一篇 2011 年 09 月 06 日

相关推荐