[TOC]
JAVA并发基础 一、多线程基础 1. 多线程的风险
安全性问题:竞态条件race condition、指令重排序等
活跃性问题:死锁、饥饿、活锁
性能问题:上下文切换、同步机制抑制编译器优化,使内存缓存数据无效,增加共享内存总线的同步流量
2. 线程安全性 线程安全本质上就是对共享且可变的状态进行安全的访问,共享指可以被多个线程访问,可变指状态可以被修改。线程安全有以下特性:
无状态的对象一定是线程安全的
不可变对象一定是线程安全的
有状态的可变对象在并发情况下存在竞态条件,即多个线程可能同时修改同一个变量,可通过原子操作或锁实现线程安全
原子性 :对状态的原子性操作可以保证线程安全,例如jdk自带的原子类,或者加锁
锁:通过加锁/解锁操作避免竞态条件,保证原子性,java中的锁有:内部锁/监视器锁(synchronized关键字),监视器锁是可重入的,通过在锁对象上的一个计数器实现;显式锁
2.1 原子性、可见性、顺序性
原子性上面已经提到过,主要是解决了并发情况下的竞态条件
可见性:同步带来的另一个好处是内存可见性,可以避免并发情况下的过期数据、非原子的64位操作等问题
过期数据问题:例如,指令指令重排序会造成一个线程读取到的共享变量是过期的,指令重排序本质上是一个顺序性 问题;还有一种可能是CPU多级缓存和内存间的不一致造成读到过期数据
非原子的64位操作问题:当读写非volatile的double或long时,若处理器不支持64位算数原子操作,JVM允许将其分为两个32位的操作,如果没有通过加volatile关键字或没有加同步锁保护,那么可能得到一个值的高32位和另一个值的低32位
volatile只能保证可见性,加锁可以保证可见性与原子性
以上提到的原子性、可见性、顺序性问题,会在下一节对JMM的描述中展开来说
2.2 对象的发布publish与逸出escape 一个对象能被外部代码使用称为发布,未准备好的对象被发布称为逸出,例如,未构造完毕的对象被传递给外部引用,对象的发布需要注意以下问题:
不要让this引用在构造期间逸出,this引用在构造期间逸出可能导致对象未构造完毕即能被使用
局部创建对象:例如,多线程共享的对象,构造时由于可见性的问题,可能只完成了部分创建,即其他线程看见的是未完成构造的对象,例如:在double-check-locking(DCL)机制实现的懒汉单例模式中,如果instance变量不加volatile关键字,那么由于步骤(5)对象初始化并赋值给引用过程的指令重排序,可能造成instance指向的是未创建完成的对象时被另一个线程使用,代码如下^5 :
1 public class LazySingleton {2 private int id; 3 private static LazySingleton instance; 4 private LazySingleton () { 5 this .id= new Random().nextInt(200 )+1 ; 6 } 7 public static LazySingleton getInstance () { 8 if (instance == null ) { 9 synchronized (LazySingleton.class ) { 10 if (instance == null ) { 11 instance = new LazySingleton(); 12 } 13 } 14 } 15 return instance; 16 } 17 public int getId () { 18 return id; 19 } 20 }
2.3 变量的线程封闭 不需要共享的变量可通过线程封闭来实现线程安全,这样对象不会被其他线程访问到,即不发布对象。
规范的方式是使用ThreadLocal:线程首次调用ThreadLocal.get方法时,会请求initialValue提供一个初始值
2.4 不可变性
不可变对象的条件:不可修改的状态,所有field都是final类型的,正确的构造(没有在构造时发生this引用的逸出)。不可变对象天生是线程安全的。
不可变对象保证了初始化安全性,因为final关键字确保了初始化安全性,即对象发布时不会发生局部创建对象的问题,即保证了可见性
使用volatile发布不可变对象,可实现线程安全,即使用一个不可变对象保存所有变量,而用一个volatile引用指向不可变对象,当需要更新时,直接替换不可变对象,保证了可见性与原子性
2.5 对象的安全发布 非不可变对象需要被安全的发布,对象的安全发布意味着对象的状态必须在被其他线程(除发布线程)引用的同时可见,一个正确创建的对象可以通过以下方式安全发布:
通过静态初始化器初始化对该对象的引用,利用JVM在类加载时的同步机制保证安全发布
将该对象的引用存储到volatile域或AutomicReference:volatile保证了对象的可见性,AutomicReference保证对该对象的操作满足原子性,即存在同步机制,这里说下个人理解:原子性保证了可见性,如果可见性无法保证,那么原子性也无法实现
将该对象的引用存储到正确创建的对象的final域中:final保证了不可变性
将该对象的引用存储到由锁正确保护的域中,例如线程安全的容器类,其他线程在获取放入容器的对象时可以通过同步机制保证对象的安全发布
3. 基本组件 3.1 同步容器
Vector、HashTable、Collections.synchronizedXxx
对同步容器的复合操作,例如,put-if-abscent语义的手动实现是不保证线程安全的
迭代器使用过程中如果容器被修改会抛出ConcurrentModificationException,它是fail-fast的,通过维护一个计数器,当计数器被修改则抛出异常
隐藏迭代器:容器的toString、hashCode、equals的方法,容器本身作为元素或作为另一个容器的key时,containsAll、removeAll、retainAll方法以及把容器做为构造函数参数,都会隐式迭代,可能抛出异常
3.2 并发容器
ConcurrentHashMap:提供了不会抛出ConcurrentModificationException的迭代器;附加了put-if-abscent、remove-if-equal、replace-if-equal的原子操作
ConcurrentSkipListMap, ConcurrentSkipListSet
CopyOnWriteArrayList, CopyOnWriteArraySet:copy-on-write容器在每次需要修改时创建并重新发布一个新的容器拷贝
ConcurrentLinkedQueue
3.3 阻塞队列与生产者-消费者模式
LinkedBlockingQueue, ArrayBlockingQueue
PriorityBlockingQueue
SynchronousQueue:不存储队列元素,适合消费者充足的场景
3.4 双端队列与工作窃取 这个在Fork/Join框架中展开。
3.5 阻塞和可中断的方法 线程阻塞挂起时,被设置成某个状态(BLOCKED, WAITING, TIMED_WAITING)。
BlockingQueue的put和take方法会抛出一个InterruptedException,Thread.sleep也会抛出这个异常,当一个方法能够抛出这个异常,说明这是一个可阻塞的方法,并且如果被中断,可以提前结束阻塞状态。Thread提供interrupt方法,用来中断一个线程或者查询某线程是否已被中断,具体实现是:线程维护一个bool类型属性,代表中断状态,中断时设置这个值。
3.6 Synchronizer
latch闭锁:用于保证特定活动直到其他活动结束后才开始。CountDownLatch是一个实现。
FutureTask:描述一个可携带结果的计算,通过Callable执行计算,通过Future.get获取结果或者异常,异常统一封装为ExecutionException,如果计算被取消,返回CancellationException。
信号量Semaphore:用来控制能够同时访问某资源的并发数量,可用于实现资源池或者给容器限定边界
关卡barrier:用于限制所有线程同时到达关卡点。CyclicBarrier,Exchanger是具体实现。
CountDownLatch基于AQS实现,CyclicBarrier基于ReentrantLock,而ReentrantLock基于AQS实现。AQS提供了一个基于队列的同步器框架,许多同步器可以基于AQS实现,AQS的原理在第五节详细展开描述。
二、Java内存模型 (Java Memory Model) 在可共享内存的多处理器架构中,存在CPU多级缓存与内存的缓存一致性问题,不同的架构由不同的缓存一致性协议,本质上是通过内存屏障来实现。另外还有指令重排序问题,指令重排序提升了性能,然而在多线程环境中如果无法确认代码的执行顺序,就无法确认代码的正确性。
JMM(Java Memory Model)通过提供自己的存储模型,屏蔽了java虚拟机与底层硬件存储模型的差异化,在语言层面定义了内存屏障 ,用来屏蔽不同硬件存储模型的内存屏障的不同实现。
1. 从硬件平台的存储模型到Java存储模型 1.1 缓存一致性问题 cache coherence
CPU一般有多级缓存,与主内存之间通过同步协议保证一致性,比较经典的是MESI协议,参考https://blog.csdn.net/muxiqingyang/article/details/6615199、https://www.cnblogs.com/yanlong300/p/8986041.html。
1.2 指令重排序 指令重排序可能是编译器指令重排序(编译器级别)或CPU指令重排序(处理器级别,out-of-order execution),指令重排序可以使计算性能得到提升。 即使指令没有重排序,由于CPU缓存的存在,缓存刷新至内存的时许不同也会导致重排序问题。
1.3 memory barrier 内存屏障 内存屏障(Memory Barrier,或有时叫做内存栅栏,Memory Fence)是一种CPU指令,用于控制特定条件下的重排序和内存可见性问题。Java编译器也会根据内存屏障的规则禁止重排序。
内存屏障可以被分为以下几种类型:
LoadLoad屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
StoreStore屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
LoadStore屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。
StoreLoad屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能。
以上关于指令重排序、内存屏障的描述参考了https://tech.meituan.com/2014/09/23/java-memory-reordering.html,希望深入的了解的可直接阅读原文。
1.4 Java存储模型的happens-before法则^4 JMM为程序中的所有动作定义了一种happens-before关系,两个操作如果满足happens-before关系,则前者的结果一定对后者可见,保证了顺序性及可见性,而不满足happens-before关系的动作之间可以任意重排序。
程序次序法则:同一线程中,代码中先出现的动作happens-before代码中后出现的动作,这只保证最终执行结果与顺序执行一致,并不能保证指令不重排序,只是结果上表现为happens-before。这个可以解释为,同一线程中前面的写操作对后面操作可见。
监视器锁法则:对同一个监视器锁的解锁happens-before后续对该锁的加锁,显式锁同样适用。
volatile法则:对volatile修饰的域的写happens-before后续对其的读操作,原子变量同样适用。
线程启动法则:一个线程内,对Thread.start的调用happens-before每一个被启动线程中的动作。
线程终结法则:线程中的任何动作happens-before其他线程监测到这个线程已经终结,或者从Thread.join调用中成功返回,或者Thread.isAlive返回false
中断法则:一个线程调用另一个线程的interrupt happens-before被中断的线程发现中断
终结法则:一个对象的构造函数的结束happens-before这个对象的finalizer的开始
传递性:如果A happens-before B,且B happens-before C,则A happens-before C
基于happens-before可以推断出多线程情况下代码的执行顺序,当然如果正确没有使用相应的同步机制,大部分操作是无法推断的😣。
1.5 volatile、synchorized、final^3
volatile关键字:volatile关键字可以保证直接从主存中读取一个变量,如果这个变量被修改后,总是会被写回到主存中去。普通变量与volatile变量的区别是:volatile的特殊规则保证了新值能立即同步到主内存,以及每个线程在每次使用volatile变量前都立即从主内存刷新。因此我们可以说volatile保证了多线程操作时变量的可见性,而普通变量则不能保证这一点。
synchorized关键字:同步块的可见性是由以下机制保证的: “如果对一个变量执行lock操作,将会清空工作内存中变量的值,在执行引擎使用这个变量前需要重新执行load或assign操作初始化变量的值” “对一个变量执行unlock操作之前,必须先把此变量的值同步到主内存中(执行store和write操作)
final关键字:final关键字的可见性是指,被final修饰的字段在构造器中一旦被初始化完成,并且构造器没有把“this”的引用传递出去(this引用逃逸是一件很危险的事情,其他线程有可能通过这个引用访问到“初始化了一半”的对象),那么在其他线程就能看见final字段的值(无须同步)
2. CPU缓存的伪共享问题 CPU缓存的最小单位是缓存行 (Cache Line) ,一个缓存行的大小通常是 64 字节(取决于 CPU),它有效地引用主内存中的一块地址。一个 Java 的 long 类型是 8 字节,因此在一个缓存行中可以存 8 个 long 类型的变量。
假设两个线程A和B运行在两个CPU上,每个CPU都有一个缓存行中存放了两个volatile long类型的变量X和Y,A更新X后,由于X是volatile的,B所在CPU的缓存行就失效了,需要重新加载,即使B想要更新的是Y,两者逻辑上不存在竞争关系,但在缓存行这个层次上发生了冲突。这是一个伪共享问题的典型场景。
上述场景中,假如A和B交替执行,那么伪共享问题一直发生,对性能影响会很大。
2.1 @sun.misc.Contended注解 在Java 7之前,可以在属性的前后进行padding来避免伪共享问题。
在Java 8中,提供了@sun.misc.Contended注解来避免伪共享,原理是在使用此注解的对象或字段的前后各增加128字节大小的padding,使用2倍于大多数硬件缓存行的大小来避免相邻扇区预取导致的伪共享冲突。
以上关于伪共享问题的内容参考了https://www.jianshu.com/p/c3c108c3dcfd。
3. 重新理解对象的安全发布与初始化安全性 在了解了JMM之后,可以回顾一下之前提到的对象的安全发布以及初始化安全性。
理解对象安全发布的一个很好的例子就是懒汉单例模式(当然现在已经不推荐使用懒汉单例模式了,它复杂且节约的性能有限),理解为何instance变量必须被volatile修饰才能保证安全。推荐思考一下。
三、原子变量类 1. CAS Java内部很多机制以及很多标准类库中都用到了CAS机制,Java的CAS操作依赖硬件对CAS的支持,主流处理器基本都有自己的CAS实现。使用CAS相比于使用锁,可以减少线程上下文切换,减小竞争的颗粒度,一般来说性能优于锁,但是基于CAS的无锁算法实现上会更复杂,相关例子可以参考ConcurrentLinkedQueue的算法。
2. 原子变量类 原子变量类保证了可见性与原子性,相比volatile只能保证可见性,功能更为强大。以下是一些常用的原子变量类。
原子变量类
详情
AtomicBoolean
原子化的boolean
AtomicInteger、AtomicLong
原子化的int、long
AtomicIntegerArray、AtomicLongArray
数组内的元素可以原子化的更新
AtomicReference
可以被原子化更新的对象引用
AtomicReferenceArray
AtomicStampedReference、AtomicMarkableReference
支持原子化的更新引用及附带的stamp integer或mark bit,相当于版本号,可防止ABA问题
DoubleAccumulator、LongAccumulator
DoubleAdder、LongAdder
另外还要介绍一下原子化的域更新器:
原子化的域更新器
作用
AtomicIntegerFieldUpdater
原子化的更新指定类的volatile int 变量
AtomicLongFieldUpdater
原子化的更新指定类的volatile long 变量
AtomicReferenceFieldUpdater
原子化的更新指定类的volatile引用的field
四、锁 1. synchronized关键字 关于synchronized关键字的文章已经比较多了,可参考以下文章:
2. Lock 2.1 ReentrantLock ReentrantLock是Lock接口的实现,ReentrantLock支持与synchronized一样的语义,包括可重入性,之所以创建ReentrantLock这么一个显式锁机制,主要是synchronized存在一些局限性,例如:无法在获取锁时取消或设置超时或获取失败立即返回,不支持公平锁(虽然绝大多数情况下出于性能考虑使用非公平锁)等。需要注意的是ReentrantLock和synchronized的性能上差距很小,因此出于简化程序的目的,应尽量避免使用ReentrantLock。
Lock的使用规范如下,一定要在finally块中释放锁,否则可能由于异常导致锁无法释放。
1 class ReentrantLockDemo {2 private final ReentrantLock lock = new ReentrantLock(); 3 public void demoMethod () { 4 lock.lock(); 5 try { 6 7 } finally { 8 lock.unlock() 9 } 10 } 11 }
ReentrantLock底层是基于AQS实现的,具体在第五节中描述。
2.2 ReadWriteLock与ReentrantReadWriteLock ReentrantReadWriteLock是ReadWriteLock接口的实现,是一个读写锁,在读多写少的并发场景下,使用读写锁可以提升性能。ReentrantReadWriteLock有以下特性:
写锁可以降级为读锁,读锁不能升级为写锁
写锁是互斥的,读锁是共享的
ReentrantReadWriteLock底层是基于AQS实现的,它使用AQS的state变量的高16位用作读锁,低16位用作写锁。
3. 条件队列 线程在某个条件不满足的情况下进入条件队列并释放锁,由另一个线程在某个条件满足的情况下唤醒处于条件队列中的线程。类似于提供了synchronized和Lock两种锁的实现,Java也提供了两种条件队列的实现。
Object的内部条件队列
Lock的Condition
Object的wait、notify、notifyAll方法
Condition的await、signal、signalAll方法
一个对象只有一个内部条件队列,多个条件的情况下使用一个对象进行wait、notify、notifyAll操作
一个Lock可以new多个Condition,对应不同的条件,分别进行await、signal、signalAll操作
注意Condition只是一个接口,需要Lock的具体实现类的newCondition方法提供实现。ReentrantLock的newCondition方法返回的是一个AQS中的ConditionObject类型的对象,第五节中会对ConditionObject的原理有解释,可以看到是通过一个链表实现的条件队列。
Condition的官方使用示例如下:
1 class BoundedBuffer {2 final Lock lock = new ReentrantLock(); 3 final Condition notFull = <b>lock.newCondition(); 4 final Condition notEmpty = <b>lock.newCondition(); 5 6 final Object[] items = new Object[100 ]; 7 int putptr, takeptr, count; 8 9 public void put (Object x) throws InterruptedException { 10 lock.lock(); 11 try { 12 while (count == items.length) 13 <b>notFull.await(); 14 items[putptr] = x; 15 if (++putptr == items.length) putptr = 0 ; 16 ++count; 17 notEmpty.signal(); 18 } finally { 19 lock.unlock(); 20 } 21 } 22 23 public Object take () throws InterruptedException { 24 lock.lock(); 25 try { 26 while (count == 0 ) 27 notEmpty.await(); 28 Object x = items[takeptr]; 29 if (++takeptr == items.length) takeptr = 0 ; 30 --count; 31 notFull.signal(); 32 return x; 33 } finally { 34 lock.unlock(); 35 } 36 } 37 }
4. 关于锁的总结 参考文献【1】^1 做了非常好的总结,推荐直接阅读该文章。
五、AQS(AbstractQueuedSynchronizer)原理及应用 1. AQS原理
上面在讲ReentrantLock等的过程中说到它是基于AQS实现的。AQS提供了一个框架,该框架可用于实现基于FIFO队列的阻塞锁或相关同步器(semaphores, events, etc)。由于只是提供了一个框架,其子类需要提供具体实现,一般来说子类应该被定义为non-public的内部辅助类(例如ReentrantLock类内部的Sync类,如上面类图所示),用于实现其外部类的同步性质。AQS框架支持独占模式和共享模式,供具体实现来选择。下面列出其子类需要具体实现的方法列表。
需要子类实现的方法
作用
tryAcquire
尝试在互斥模式下acquire
tryRelease
尝试在互斥模式下release
tryAcquireShared
尝试在共享模式下acquire
tryReleaseShared
尝试在共享模式下acquire
isHeldExclusively
判断是否被当前线程独占
子类通过实现上面这些方法决定了同步器在获取同步时的行为。
下面来解释一下AQS的运行机制。
1.1 Node类 从上面的类图可以看到AQS类内部有一个Node类,该类用于实现一个双向链表,表示等待获取的线程队列,该类有5个成员变量 | 变量 | 含义 | | —————– | ———————– | | waitStatus | 该节点的状态:CANCELLED(acquire取消,在锁的场景下可以理解为取消加锁), SIGNAL(等待唤醒), CONDITION(等待一个condition的唤醒), PROPAGATE(共享模式下), 0(初始状态) | | thread | 该等待节点对应的线程 | | prev | 等待队列的前一个节点 | | next | 等待队列的后一个节点 | | nextWaiter | 若该节点在等待一个condition,则nextWaiter指向等待该condition的下一个节点 |
1.2 ConditionObject类 ConditionObject类实现了Condition接口,Condition一般是配合Lock使用,这里ConditionObject用于配合AQS实现类似的效果,例如,可以创建多个ConditionObject类表示不同的条件,满足某一个条件则唤醒该ConditionObject对应的等待队列中的节点,并将其加入AQS的等待队列,去尝试获取锁。
变量
含义
firstWaiter
该ConditionObject的等待队列的头节点
nextWaiter
该ConditionObject的等待队列的尾节点
1.3 AQS类 有3个成员变量
变量
含义
state
保存状态的变量,在锁的场景下可以是锁的状态,如0表示未加锁,1表示加锁;或者可重入锁的情况下保存锁重入的次数,0表示未加锁,3表示已加锁并重入了3次
head
等待获取锁的队列的头节点
tail
等待获取锁的队列的尾节点
通过上面对3个类以及AQS源码的分析,我们可以得出AQS的运行时数据结构,当尝试获取锁时,将对应线程加入等待队列,释放锁时,将其移出队列。若要支持Condition,则可以利用ConditionObject,ConditionObject实现了条件队列。
1.4 基于AQS实现的锁及其他同步器 基于AQS实现的锁及其他同步器如下:
使用了AQS的同步器实现
使用场景
ReentrantLock
可重入锁,类似synchronized
ReentrantReadWriteLock
读写锁,适用于需要加锁的读多写少的场景
Semaphore
信号量,用于控制并发量
CountdownLatch
闭锁,让线程等待其他线程的完成
2. ReentrantLock ReentrantLock的特性如下:
ReentrantLock是利用AQS实现的,具体的分析可以查看美团技术团队的这篇文章
https://tech.meituan.com/2019/12/05/aqs-theory-and-apply.html[^2]
非常详细,示意图清晰。
六、多线程框架 1. Executor框架(JAVA 5)
Executor接口提供了execute方法,该方法将任务提交,并在之后的某个时间点执行该任务,具体执行策略取决于其具体实现。ExecutorService在Executor的基础上提供了管理Executor生命周期的方法,如shutDown, shutDownNow方法。ThreadPoolExecutor是Executor的实现类,实现了基于线程池的Executor框架。
1.1 线程池 Executors类提供了生成ThreadPoolExecutor,ScheduledThreadPoolExecutor,ForkJoinPool的工厂方法:
生成线程池方法
描述
newFixedThreadPool
new ThreadPoolExecutor(nThreads, nThreads, 0L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>());
newSingleThreadExecutor
new FinalizableDelegatedExecutorService (new ThreadPoolExecutor(1, 1, 0L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>()));
newCachedThreadPool
new ThreadPoolExecutor(0, Integer.MAX_VALUE, 60L, TimeUnit.SECONDS, new SynchronousQueue<Runnable>());
newScheduledThreadPool
new ScheduledThreadPoolExecutor(corePoolSize);
newSingleThreadScheduledExecutor
new DelegatedScheduledExecutorService (new ScheduledThreadPoolExecutor(1));
newWorkStealingPool
new ForkJoinPool (Runtime.getRuntime().availableProcessors(), ForkJoinPool.defaultForkJoinWorkerThreadFactory, null, true);
可以看到newFixedThreadPool,newSingleThreadExecutor,newCachedThreadPool方法返回的都是ThreadPoolExecutor对象,只不过配置不同;newScheduledThreadPool,newSingleThreadScheduledExecutor方法返回的都是ScheduledThreadPoolExecutor对象;newWorkStealingPool返回的是ForkJoinPool。
1.2 线程池配置 1.2.1 ThreadPoolExecutor ForkJoinPool这个后面单独讲,先讲一下ThreadPoolExecutor,其构造函数即配置参数如下:
1 public ThreadPoolExecutor (int corePoolSize, 2 int maximumPoolSize, 3 long keepAliveTime, 4 TimeUnit unit, 5 BlockingQueue<Runnable> workQueue, 6 ThreadFactory threadFactory, 7 RejectedExecutionHandler handler)
参数
含义
corePoolSize
线程池中的最小线程数,线程池初始化后核心线程并不开始,除非调用了prestartAllCoreThreads
maximumPoolSize
最大线程数
keepAliveTime
超过corePoolSize数量的线程的最长空闲时间
workQueue
任务的排队队列:有限队列、无限队列、同步移交
threadFactory
创建线程的工厂方法,一般直接采用默认的Executors类提供的DefaultThreadFactory
handler
当线程池已满且队列已满时的任务提交时的处理策略,有CallerRunsPolicy、AbortPolicy、DiscardPolicy、DiscardOldestPolicy
1.2.2 最佳的线程池大小 首先,如果存在不同类型的任务,且差别很大,比如计算密集型和I/O密集型任务,那么最好使用多个线程池。
最佳线程池大小的配置可以根据任务的类型大致如下计算:
计算密集型任务线程池大小:CPU个数+1
I/O密集型任务线程池大小:CPU个数 * CPU目标使用率 * (1+等待时间与计算时间的比)
其他比如连接池大小、内存、文件句柄、套接字句柄等都会限制线程池大小
1.3 Future, Callable
Runnable提供了run方法用于执行计算,Callable的call方法可以返回计算的执行结果。
Future描述了任务的生命周期,提供了方法获取任务执行的结果,取消任务、检查任务是否完成或取消。ExecutorService的submit方法接受Runnable或Callable并返回一个Future。FutureTask是Future的具体实现。
1.4 CompletionService及其实现ExecutorCompletionService CompletionService整合了Executor和BlockingQueue的功能,ExecutorCompletionService是其具体实现。提交到ExecutorCompletionService的任务被包装为一个QueueingFuture,覆盖了done方法,该方法在任务完成时将结果放入其BlockingQueue中。
1.5 线程取消、线程池关闭、JVM关闭 1.5.1 线程取消 线程取消有以下方式:
循环检查取消标志
中断:对于处于阻塞状态中的线程无法通过设置取消标志实现取消,中断机制提供了这种情况下的取消机制。每个线程有一个boolean类型的中断状态,中断时设置为true,即线程B调用线程A的interrupt方法时,线程A的中断状态被设置为true。阻塞库函数,例如,Thread.sleep或Object.wait通过native方法检测线程是否被中断,其对中断的响应表现为:清除中断状态并抛出异常InterruptedException,表示阻塞操作因中断提前结束
通过Future.cancel取消
1.5.2 线程异常处理
可以在线程内部catch异常
线程API提供了UncaughtExceptionHandler,当线程因为未捕获异常退出时,该handler处理异常,如果handler不存在,默认行为是像System.err打印stack trace
只有通过execute方法提交的任务才能将抛出的异常传给异常处理器,通过submit方法提交的任务,只会被Future.get方法重新抛出为ExecutionException
1.5.3 JVM的关闭
Shutdown Hook
Shutdown Hook是通过Runtime.addShutdownHook方法注册的尚未开始的线程。如果是通过调用Runtime.halt或者kill -9的方式强行关闭JVM,那么除了关闭JVM之外不需要完成任何其他动作,也不会运行Shutdown Hook;
Shutdown Hook之间并发执行,不保证顺序,Shutdown Hook之行结束后,如果runFinalizersOnExit为true,JVM可以选择运行finalizer,之后停止;
JVM不会停止或者中断应用线程,应用线程在JVM停止时强制退出。
daemon线程
当只有daemon线程时,JVM会发起退出,daemon线程会被抛弃,不会执行finally块,也不会释放栈
Finalizer
参见我的文章《Object.finalize()方法与Finalizer类浅析》,推荐的操作是:不要使用Finalier
2. Fork/Join框架 原本想在此针对Fork/Join框架写一小节的,由于源码阅读工作量较大,暂时搁置,以后再说。
3. CompletableFuture(JAVA 8) CompletableFuture相关可先参考以下文章:
https://colobu.com/2016/02/29/Java-CompletableFuture/
https://www.nurkiewicz.com/2013/05/java-8-definitive-guide-to.html
七、活跃性问题、性能问题 1. 死锁 死锁最常见的场景是出现了环路的锁依赖关系。在数据库系统中,一般设计了死锁监测,通过检查表示锁依赖关系的有向图上是否存在环路,如果存在死锁,会选择一个事务退出。
不光是锁的使用会造成死锁,资源的使用也可能造成死锁,例如有两个数据库D1、D2的连接池,线程A持有到数据库D1的连接,等待D2的连接,线程B持有到数据库D2的连接,等待D1的连接,这就有可能造成死锁,若连接池大小为1,则一定发生死锁。
通过使用显示Lock的tryLock方法的带有timeout的版本,能够一定程度上避免死锁,至少在死锁发生的情况下能够通过超时进行回退。
thread dump能够进行死锁检测,可用于线上诊断。
2. 饥饿 饥饿问题是指当线程访问它需要的资源时被拒绝,不能继续进行,常见的是CPU资源的饥饿问题。线程优先级的使用不当、死循环都会造成CPU资源的饥饿问题
非公平锁也会造成线程的饥饿问题,特殊情况下,先尝试获取锁的线程反而没法抢到锁。
3. 其他
3. 性能
线程上下文切换:包括线程调度的花费、线程换入后CPU缓存数据的加载都是线程上下文切换带来的花费。
内存同步:synchronized、volatile等提供的可见性保证是通过使用内存屏障使CPU缓存无效化实现的,不能使用CPU缓存使得性能下降,并且内存屏障还能防止指令重排序,这就导致了编译器不能对代码执行进行优化。
现在JVM中的JIT编译器通过逃逸分析能够实现锁消除的优化,如果一个变量不从线程内逸出,对其的加锁操作会被省略,或者通过锁粗化,即将邻近的synchronized块用相同的锁合并起来。这些JVM的优化机制表明对于没有竞争的同步代码,其开销已经经过很好的优化了,真正影响性能的是真正发生了锁竞争的代码。
阻塞
获取锁的时候如果存在竞争会发生阻塞,这时候可以选择自旋或者线程挂起,取决于具体的场景。
如何减少锁的竞争
缩小锁的范围:避免很大的同步块
减小锁的粒度:通过锁的分拆或分离,将一个粗粒度的锁拆分为多个锁,例如ConcurrentHashMap相比HashTable通过更细粒度的锁提升了性能
使用非独占锁:读写锁相比独占锁带来了性能提升
参考文献