Skip to content

Latest commit

 

History

History
503 lines (341 loc) · 29.3 KB

thread-base-1.md

File metadata and controls

503 lines (341 loc) · 29.3 KB

1.并行的世界

并行在图像处理和服务端程序中有着广泛的应用

2.你必须知道的几个概念

同步: 买空调,买完之后在商店等待,知道商家把你和空调一起送回家,愉快的结束了
异步: 买空调,在网上下单,支付完成后,对你来说整个的过程便已经结束了,虽然没收到货但是你的任务完成了,剩下的时候你就等待收获即可以了
      这期间你想干什么就干什么
并发:偏重与多个任务交替执行,而多个任务有可能还是串行的,一会运行A任务一会运行B任务,系统会在俩者之间不停的切换
并行: 真正意义上的"同时执行" , 类似于 旅游景点的缆车

整体流程

临界区:共享数据,可以被多个线程使用,但是每一次,只能有一个线程使用它,一旦临界区资源被占用,其他线程想要使用这个资源,就必须等待
阻塞: 形容多线程之间的相互影响,比如一个线程占用了临界区资源,那么其他的资源线程必须在这个临界取进行等待,导致线程挂起,这种情况就是
线程阻塞
非阻塞:强调没有一个线程可以妨碍其他的线程执行,多有线程都在不断前进

死锁:

整体流程

饥饿锁:某一个或者多个的线程因为种种原因无法获取所需要的资源导致一直无法执行,比如他的线程优先级可能太低,而高优先级不断的抢占他的资源导致低优先级的线程无法工作
活锁:谦让原则,主动将资源释放给他人使用,那么就会出现资源不断的在俩个线程之间不断的跳动,而没有一个线程可以同时的拿到所有资源而正常执行

3.并发级别

由于临界区的存在,多线程之间的并发必须受到控制,根据控制并发的策略,可以把级别进行分类,大致上分为:
阻塞: 一个线程是阻塞的,那么在其他线程释放资源之前,当前线程无法继续执行,当我们使用synchronized关键字时,或者重入锁的时候
我们得到的就是阻塞的线程

无饥饿:如果线程之间有优先级,那么线程调度的时候总会倾向与满足高优先级的线程也就是说对于同一个资源的分配是不公平的,对于非
公平的锁来说,系统允许高优先级的线程插队,这样就有可能导致低优先级的线程产生饥饿

整体流程

无障碍:都可以进入临界区,如果一起修改数据的话,检测到则会立刻回滚修改

无锁:
无等待:要求有一个线程可以在有限的步内完成操作

4.JMM

原子性:一个操作是不可中断的,即使在多个线程一起执行的时候,一个操作一旦开始就不会别其他线程打扰  
对于一个静态的全局变量来说 int i 两个线程同时对它赋值,线程A给他复制1,线程B给他复制-1,不管他们
以何种方式运行之间都是没有干扰的

可见性:如图所示,如果一个线程修改了某一个全局变量,那么其他线程未必可以马上知道这个改动

整体流程

有序性:可能回进行指令重排序,重排序后的先后顺序不一定一致

指令重排序原则:

整体流程

---------------图图图  内存可见 指令重排

5.并行的程序基础

进程+线程:进程是一个容器,比如一个漂亮的小别墅,别墅有电视一类的,还有一家三口,爸爸一个人在家,
爱上哪上哪就是一个线程(这个进程只有一个活动的线程),小别墅就像一个进程,电视,厨房
书房就是这个进程占有的资源,当你三个人住在一起就是三个进程,又有时候还会有点小冲突,但是大部分时间还是协作关系

线程关系图:

整体流程

线程枚举类

整体流程

NEW状态标识刚刚创建的线程,这种线程还没有执行,等待线程调用start()方法的时候才表示线程开始执行
当线程执行的时候处于RUNNABLE的状态,表示线程所有的一切资源都已经准备好了,如果在线程执行的过程当中
遇到了synchronized同步块,就会进入BLOCKED阻塞状态,这是线程就会暂停执行,知道获取请求的锁,WAITING
和TIMED_WAITING都表示等待的状态,他们的区别是WAITIING会进入一个时间的等待限制,TIMED_WAITING会进入
一个有限的时间等待,那么他们一般在等什么---一般来说是一些特殊的事件,比如通过wait()方法等待的线程
在等待notify()的方法,而通过join()方法等待的线程就会等待目标程序种植,当线程完毕后,则会进入TERMINATED
状态,表示结束

新建线程:
请看ThreadBase , 注意不要用run来启动开启新的线程,他只会在当前线程中,串行的执行run的代码, 默认情况下Thread中的run是什么都不做
的,如果想让他干点什么请重载run方法把任务填进去

runnable接口实现,将实例传入Thread避免重载Thread.run().单纯的使用接口来定义Thread

终止线程:

stop已被废弃:当你调用stop方法的时候,会立刻释放锁,就会导致数据不一致

整体流程

线程中断:线程中断并不会使线程立即退出,而是给线程一个通知,告诉目标线程有人希望你退出,至于目标线程接到通知后如何处理,则完全由目标线程自行决定
线程中断的三个方法:

整体流程

并发下的ArrayList ArrayListMutiThread 按理说t1,t2两个线程同时向一个ArrayList容器添加1000000个元素,按理说应该有20000000个元素在ArrayList 

可能会出现三种结果: 正常 , 
异常 :

整体流程

比想象的小:
由于多线程访问冲突,使得保存容器大小的变量被多线程不正常的访问,同时两个线程也同时对ArrayList中的同一个位置进行赋值导致错误


 hashmap与ArrayList 的前两个问题相似,第三种hashmap有可能成环状 key1 key2互为next元素

整体流程

      https://coolshell.cn/articles/9606.html hashmap 死循环案例  酷壳
      
重入锁:ReentrantLock  ReentrantLockBase 使用重入锁保护临界取资源确保多线程对i操作的安全 , 与synchronized相比,重入锁有着明显显示的操作过程
灵活性远好于与synchronized相比 而且他可以多次获取同一把锁
对于与synchronized相比,如果一个线程在等待锁,要么获取锁继续执行要么保持等待,而ReentrantLock 提供了另外一种可能就是可以中断,在等待锁的
过程中程序可以根据要求取消对锁的请求

整体流程

1.主要集中在Java层面 原子状态使用CAS操作来存储当前锁的状态,判断锁是否被别的线程持有
2.等待队列 所有没有请求到锁的线程,会进入等待队列进行等待,带有线程释放锁后,系统就能从等待队列唤醒一个线程,继续工作
3.线程阻塞类工具 LockSupport

重入锁的好搭档:Condition条件

通过Lock接口的Condition new Condition()方法可以生成一个与当前重入锁绑定的Condition实例,利用Condition对象,
我们可以让线程在合适的时间等待或者在某一个特定的时刻得到通知,继续执行

整体流程

允许多个线程同时访问:信号量(Semaphore)
无论是内部锁sunchronized 还是 reentrantLock 一次都只允许一个线程访问资源,但是信号量可以指定多个线程同时访问某一个资源
申请信号量使用acquire操作,在离开的时候务必释放信号量release

整体流程

   读写锁:readwritelock
   读写分离锁,有效的减少了所得竞争 A1,A2,A3三个线程进行写操作,B1,B2,B3进行读操作,如果使用重入锁或者内部所,则理论上所有
   读之间,读与写之间,写与写之间都是串行的操作,当B1进行读取时,B2,B3则需要等待锁,由于读操作并不会对数据的完整性进行破坏
   等待就不合理,因此产生了读写锁

整体流程

 倒计时器(CountDownLatch):控制线程等待,它可以让某一个线程等待直到倒计时结束,在开始执行
   例如: 火箭发射,在火箭发射前为了保证ok必须等到所有的检查完毕后,才开始点火,这种场景很适合countdownlatch 他可以
   是的点火线程等待线程全部完工后,在执行

整体流程

   循环栅栏(CyclicBarrier):司令下达命令,要求10名士兵一起去完成一项任务,这个就会要求士兵先集合报道,接着,一起去执行任务
   当10个士兵把自己手头的任务都执行完成后,司令才能对外宣布,任务完成 比CountDownLatch强大的是CyclicBarrier可以接受一个参数作为
   barrierAction 

整体流程

整体流程

线程池-------------->>>>>>>>>>

整体流程

Executors类扮演着线程池工厂的角色,通过Excutors可以获取一个拥有特定功能的线程池,ThreadPoolExcutor类实现了Excutor接口
因此通过这个接口,任何Runnable的对象都可以被ThreadPoolExcutor线程池调度

整体流程

五种线程池:

整体流程

调度任务

整体流程

核心参数意义

整体流程

整体流程

ThreadPoolExecutor 的任务调度逻辑

整体流程

超负载如何处理

拒绝策略可以说是系统超负荷运行时的补救措施,通常是因为压力太大引起,也就是线程池用完了无法继续未新任务服务
同时,等待队列中也已经排满,再也塞不下新的任务,这时候我们需要一套机制,合理处理问题

JDK四种拒绝策略:

整体流程

也可以自己扩展

扩展线程池

Fork/Join框架使用

分而治之 是有效处理大数据的方法 简单的说如果你要处理1000个数据,但是你并不具备1000个数据处理的能力,那么你可以
处理其中的10个,然后分阶段处理100次,将100次处理的结果进行合成,那么就是最终想要的结果

实际过程中,毫无顾忌的使用fork()开启线程很有可能导致过多的线程来严重影响性能,JDK中给出了一个ForkJoinPool线程池,对于
fork()方法并不着急开启线程,而是提交给ForkJoinPool线程池来进行处理,以节省资源

线程A已经把自己的任务执行完成了,而线程B还有一堆的任务等待处理,而线程A就会帮助线程B,
从线程B的任务队列中哪一个任务过来处理经可能达到平衡 注意---->>>>>>> 当线程试图帮助别人的时候,总是从任务的底部开始拿数据
而线程试图执行自己的任务时,则是相反的从顶部开始拿,十分利于避免数据竞争

整体流程

两个重要的子类

RecursiveAction 和 RecursiveTask  他们分别表示没有返回值的任务和可以携带返回值的任务

整体流程

实例请看 countfiletask , counttask

高效读写的队列   深度解析ConcurrentLinkedQueue ------->>可以用来实现高并发队列

队列使用链表作为其数据结构

ConcurrentLinkedQueue 的非阻塞算法实现非常精巧,也非常复杂。它使用 CAS 原子指令来处理对数据的并发访问。
同时,它允许队列处于不一致状态。这个特性分离了入队 / 出队操作中包含的两个需要一起原子执行的步骤,
从而有效的缩小了入队 / 出队时的原子化(更新值的)范围为唯一变量。由于队列可能处于不一致状态
,为此 ConcurrentLinkedQueue 使用三个不变式来维护非阻塞算法的正确性


https://www.ibm.com/developerworks/cn/java/j-lo-concurrent/

锁偏向 , 轻量级锁 , 自旋锁 ,锁消除 


ThreadLocal 线程的局部变量 只有当前线程可以访问


无锁:---------------------------------------------------- AtomicInteger 等 都是无锁类 靠的CAS
对于并发而言锁是一种悲观的策略,他总是假设每一次的临界取操作会产生冲突,因此必须每次都小心翼翼,如果多个线程同时需要访问临界区资源
就宁可牺牲性能来让线程进行等待,而无锁是一种乐观的策略,它会假设对资源的访问是没有冲突的,既然没有冲突也就不需要等待,无锁的策略使用、
的是一种比较交换技术(CAS compare and swap )来鉴别线程冲突,一旦检测到冲突产生,就重试当前的操作直到没有冲突!!!!

与锁相比,使用比较交换回事程序看起来复杂一些,但是由于非阻塞的性质,他对死锁的问题天生免疫,并且,线程间的相互影响也远远的比基于锁的
方式要小,因为省去了系统开销他比锁拥有更加优越的性能

CAS算法过程是这样:

包含三个参数(V,E,N),V表示更新的变量,E表示预期值,N表示新值,仅当V等于E的时候,才会将V值设为N,如果V值和E值不同,则说明有其他的线程
进行了更新,则当前线程什么都不做,最后CAS返回当前V的真实值,CAS操作是抱着乐观的态度进行的,他总是认为自己可以成功的完成操作,当多个线程
同时使用CAS操作一个变量时,只会有一个胜出,并成功更新,其余均会失败,失败的线程不会被挂起,仅仅时被告知失败并允许再次重试,当然也允许失败
的线程放弃操作


CAS给你一个期望值,如果变量不是 你想象的哪个样子,那么说明他已经被别人修改过了,你重新读取再次修改就好了!!!!

死锁: 两个或者两个以上的线程互相占用对方的资源

整体流程

生产者---消费者

整体流程

Future 模式 

核心:异步调用 对于future模式虽然他无法立刻给返回结果但是他给你一个契约,你可以凭借这个契约来获取你想要的信息


比如一个非常耗时的程序,客户端发出call的请求,这个请求需要相当长的时间才能返回,客户端一致等待直到数据返回随后进行其他的处理

整体流程

整体流程

6.JDK并发包

线程可见性 volatile 和 synchronized 的区别和内容

volatile 强制线程到共享内存中读取数据,而不从线程工作内存中读取,从而使变量在多个线程中可见
volatile无法保证原子性,volatile属于轻量级的同步,性能比synchronized强很多(不加锁),但是只保证线程见的可见性,
并不能替代synchronized的同步功能,netty框架中大量使用了volatile
====================================================================================================
Static保证唯一性, 不保证一致性,多个实例共享一个静态变量。
Volatile保证一致性,不保证唯一性,多个实例有多个volatile变量
====================================================================================================
1.共享变量在线程间的可见性 
2.synchronized 实现可见性 
3.volitile 实现可见性 
  指令重排序 
  as-if-serial语义     
  volatile使用注意事项 
synchronized和volitile比较 

线程池讲解

1.线程池的好处: 减少对象的开销,消亡的开销,性能提高 
2.可以控制最大并发线程数,提高资源利用率,同时可以避免过多资源竞争,避免阻塞 
3.提供定时执行,定期执行,并发数控制等 

线程安全-并发容器JUC--原理以及分析

1.arrayList --copyonWriteArraylist 优缺点 
2.HashSet,TreeSet -- CopyONWriteArraySet,ConcurrentSkipListSet 
3.hashMap , treeMap -- ConcurrentHashMap,ConcurentSkipListMap(key有序,支持更高并发) 

Concurrent同步工具类

countDownLatch 
CyclicBarrier 
Semaphore 
Exchanger 
ReenTrantLock 
ReentrantReadWriteLock 

四种线程池与自定义线程池,底层代码

设计模式: 单例Future Master-Worker,Producer-Consumer的模式原理和实现

CountDownLatch

CountDownLatch是一个辅助的工具类,它允许一个或者多个线程等待一系列指定的操作的完成 
以一个给定的数量初始化,countDown()每被调用一次,这一数量就减一.通过调用await()方法之一 
线程可以阻塞等待这一数量到达0 
三辆危险燃品汽车全部检查完毕后在发车, countdownlatch 初始值为3 每检查一辆减一 如果三辆车 
都没有问题则发车  三辆车会等待 都检查完毕后才可以发车 

CyclicBarrier

CyclicBarrier一个同步辅助类,它允许一组线程互相等待,直到到达某 
个公共屏障点 (common barrier point)。在涉及一组固定大小的线程的 
程序中,这些线程必须不时地互相等待,此时 CyclicBarrier 很有用。 
因为该 barrier 在释放等待线程后可以重用,所以称它为循环的barrier 
起跑例子 :  有两种用法 一种必须全部等待 另一种有超时时间  在等待某个时间后 
可以独自起跑  

Semaphore

Semaphore一个计数信号量。信号量维护了一个许可集合; 通过acquire() 
和release()来获取和释放访问许可证。只有通过acquire获取了许可证的线 
程才能执行,否则阻塞。通过release释放许可证其他线程才能进行获取. 
公平性:没有办法保证线程能够公平地可从信号量中获得许可。也就是 
说,无法担保掉第一个调用 acquire() 的线程会是第一个获得一个许可的 
线程。如果第一个线程在等待一个许可时发生阻塞,而第二个线程前来 
索要一个许可的时候刚好有一个许可被释放出来,那么它就可能会在第 
一个线程之前获得许可。如果你想要强制公平,Semaphore 类有一个具 
有一个布尔类型的参数的构造子,通过这个参数以告知 Semaphore 是否 
要强制公平。强制公平会影响到并发性能,所以除非你确实需要它否则 
不要启用它 

Exchanger

Exchanger Exchanger 类表示一种两个线程可以进行互相交换对象的会 
和点。 
只能用于两个线程之间,并且两个线程必须都到达汇合点才会进行数 
据交换 

ReentrantLock

ReentrantLock可以用来替代Synchronized,在需要同步的代码块加上 
锁,最后一定要释放锁,否则其他线程永远进不来。 
 可以使用Condition来替换wait和notify来进行线程间的通讯, 
Condition只针对某一把锁。 
 一个Lock可以创建多个Condition,更加灵活 
ReentrantLock的构造函数可以如传入一个boolean参数,用来指定公平 
非公平模式,默认是false非公平的。非公平的效率更高。 
 Lock的其他方法: 
tryLock():尝试获得锁,返回true/false 
tryLock(timeout, unit):在给定的时间内尝试获得锁 
isFair():是否为公平锁 
isLocked():当前线程是否持有锁 
lock.getHoldCount():持有锁的数量,只能在当前调用线程内部使用,不能再其他 
线程中使用 

ReentrantReadWriteLock

ReentrantReadWriteLock读写所,采用读写分离机制,高并发下读多写 
少时性能优于ReentrantLock。 
读读共享,写写互斥,读写互斥 

ThreadPool

newCachedThreadPool 具有缓存性质的线程池,线程最大空闲时间60s,线程 
可重复利用(缓存特性),没有最大线程数限制。任务耗时端,数量大。 
newFixedThreadPool 具有固定数量的线程池,核心线程数等于最大线程数, 
线程最大空闲时间为0,执行完毕即销毁,超出最大线程数进行等待。高并 
发下控制性能。 
newScheduledThreadPool 具有时间调度特性的线程池,必须初始化核心线 
程数,底层使用DelayedWorkQueue实现延迟特性。 
newSingleThreadExecutor 核心线程数与最大线程数均为1,用于不需要并发 
顺序执行。 
四种线程池都是通过Executors类创建的, 底层创建的都是 
ThreadPoolExecutor类, 可以构建自己需要的线程类 

设计模式:单例模式

饿汉模式: 类加载的时候,就进行对象的创建,系统开销较大,但是 
不存在线程安全问题 
懒汉模式: 多数采用饿汉模式,在使用时才真正的创建单例对象,但 
是存在线程安全问题 
静态内部类单例:兼具懒汉模式和饿汉模式的优点 
饿汉示例: DemoThread22 
懒汉示例: DemoThread23(线程安全问题和解决方案) 
懒汉模式: DemoThread24(线程安全的性能优化) 
静态内部类单例: DemoThread25 

设计模式:future

简单来说,客户端请求之后,先返回一个应答结果,然后异步的去准 
备数据,客户端可以先去处理其他事情,当需要最终结果的时候再来 
获取, 如果此时数据已经准备好,则将真实数据返回;如果此时数据 
还没有准备好,则阻塞等待 

 JDK的Concurrent包提供了Futrue模式的实现,可以直接使用。
 使用Futrue模式需要实现Callable接口,并使用FutureTask进行封装,
使用线程池进行提

设计模式-producer-consumer

 Producer-Consumer称为生产者消费者模式,是消息队列中间件的核心
实现模式, ActiveMQ、 RocketMQ、 Kafka、 RabbitMQ

设计模式: Master-Worker

Master-Worker模式是一种将串行任务并行化的方案,被分解的子任务在
系统中可以被并行处理,同时,如果有需要, Master进程不需要等待所
有子任务都完成计算,就可以根据已有的部分结果集计算最终结果集。
客户端将所有任务提交给Master, Master分配Worker去并发处理任务,并
将每一个任务的处理结果返回给Master,所有的任务处理完毕后,由
Master进行结果汇总再返回给Clien

使用Atomic类

使用AtomicInteger等原子类可以保证共享变量的原子性。 
使用Atomic类不能保证成员方法的原子性。 
Atomic类采用了CAS非锁机制(Check And Set)

ThreadLocal

使用ThreadLocal维护变量时,ThreadLocal为每个使用该变量的线程提供独立的变量副本,所以每一个线程都可以独立地改变自己的副本,而不会影响其它线程所对应的副本

同步类容器

古老的实现方法
Vector、HashTable等古老的并发容器,都是使用Collections.synchronizedXXX等工厂方法创建的,并发状态下只能有一个线程访问容器对象,性能很低

先进的实现方法
JDK5.0之后提供了多种并发类容易可以替代同步类容器,提升性能、吞吐量
ConcurrentHashMap替代HashMap、HashTable
ConcurrentSkipListMap替代TreeMap
ConcurrentHashMap将hash表分为16个segment,每个segment单独进行锁控制,从而减小了锁的粒度,提升了性能

并发类容器

Copy On Write容器,简称COW;写时复制容器,向容器中添加元素时,先将容器进行Copy出一个新容器,
然后将元素添加到新容器中,再将原容器的引用指向新容器。并发读的时候不需要锁定容器,
因为原容器没有变化,使用的是一种读写分离的思想。由于每次更新都会复制新容器,所以如果数据量较大,
并且更新操作频繁则对内存消耗很高,建议在高并发读的场景下使用
============================================================
CopyOnWriteArraySet基于CopyOnWriteArrayList实现,其唯一的不同是
在add时调用的是CopyOnWriteArrayList的addIfAbsent方法, 
adIfAbsent方法同样采用锁保护,并创建一个新的大小+1的Object数组。
遍历当前Object数组,如Object数组中已有了当前元素,则直接返回,如果没有则放入Object数组的尾部,
并返回。从以上分析可见,CopyOnWriteArraySet在add时每次都要进行数组的遍历,因此其性能会低于CopyOnWriteArrayList.

并发无阻塞式队列

ConcurrentLinkedQueue

无阻塞、无锁、高性能、无界、线程安全,性能优于BlockingQueue、不允许null值
单生产者,单消费者  用 LinkedBlockingqueue
多生产者,单消费者   用 LinkedBlockingqueue
单生产者 ,多消费者   用 ConcurrentLinkedQueue
多生产者 ,多消费者   用 ConcurrentLinkedQueue

并发阻塞式队列

ArrayBlockingQueue

ArrayBlockingQueue:基于数组实现的阻塞有界队列、
创建时可指定长度,内部实现维护了一个定长数组用于缓存数据,
内部没有采用读写分离,写入和读取数据不能同时进行,不允许null值

LinkedBlockingQueue

基于链表的阻塞队列,内部维护一个链表存储缓存数据,支持写入和读取的并发操作,
创建时可指定长度也可以不指定,不指定时代表无界队列,不允许null值

SynchronousQueue

没有任何容量,必须现有线程先从队列中take,才能向queue中add数据
否则会抛出队列已满的异常。不能使用peek方法取数据,此方法底层没有实现,会直接返回null

PriorityBlockingQueue

一个无界阻塞队列,默认初始化长度11,也可以手动指定,但是队列会自动扩容。
资源被耗尽时导致OutOfMemoryError。不允许使用null元素。不允许插入不可比较的对象
(导致抛出ClassCastException), 加入的对象实现Comparable接口

DelayQueue

DelayQueue:Delayed 元素的一个无界阻塞队列,只有在延迟期满时才能从中提取元素。
该队列的头部是延迟期满后保存时间最长的Delayed 元素。如果延迟都还没有期满,则队列没有头部,
并且poll 将返回null。当一个元素的getDelay(TimeUnit.NANOSECONDS) 方法返回一个小于等于0 的值时
,将发生到期。即使无法使用take 或poll 移除未到期的元素,也不会将这些元素作为正常元素对待。
例如,size 方法同时返回到期和未到期元素的计数。此队列不允许使用null 元素。内部元素需实现Delayed接口
场景:缓存到期删除、任务超时处理、空闲链接关闭等