极客时间已完结课程限时免费阅读

第29讲 | Java内存模型中的happen-before是什么?

第29讲 | Java内存模型中的happen-before是什么?-极客时间

第29讲 | Java内存模型中的happen-before是什么?

讲述:黄洲君

时长10:18大小4.71M

Java 语言在设计之初就引入了线程的概念,以充分利用现代处理器的计算能力,这既带来了强大、灵活的多线程机制,也带来了线程安全等令人混淆的问题,而 Java 内存模型(Java Memory Model,JMM)为我们提供了一个在纷乱之中达成一致的指导准则。
今天我要问你的问题是,Java 内存模型中的 happen-before 是什么?

典型回答

Happen-before 关系,是 Java 内存模型中保证多线程操作可见性的机制,也是对早期语言规范中含糊的可见性概念的一个精确定义。
它的具体表现形式,包括但远不止是我们直觉中的 synchronized、volatile、lock 操作顺序等方面,例如:
线程内执行的每个操作,都保证 happen-before 后面的操作,这就保证了基本的程序顺序规则,这是开发者在书写程序时的基本约定。
对于 volatile 变量,对它的写操作,保证 happen-before 在随后对该变量的读取操作。
对于一个锁的解锁操作,保证 happen-before 加锁操作。
对象构建完成,保证 happen-before 于 finalizer 的开始动作。
甚至是类似线程内部操作的完成,保证 happen-before 其他 Thread.join() 的线程等。
这些 happen-before 关系是存在着传递性的,如果满足 a happen-before b 和 b happen-before c,那么 a happen-before c 也成立。
前面我一直用 happen-before,而不是简单说前后,是因为它不仅仅是对执行时间的保证,也包括对内存读、写操作顺序的保证。仅仅是时钟顺序上的先后,并不能保证线程交互的可见性。

考点分析

今天的问题是一个常见的考察 Java 内存模型基本概念的问题,我前面给出的回答尽量选择了和日常开发相关的规则。
JMM 是面试的热点,可以看作是深入理解 Java 并发编程、编译器和 JVM 内部机制的必要条件,但这同时也是个容易让初学者无所适从的主题。对于学习 JMM,我有一些个人建议:
明确目的,克制住技术的诱惑。除非你是编译器或者 JVM 工程师,否则我建议不要一头扎进各种 CPU 体系结构,纠结于不同的缓存、流水线、执行单元等。这些东西虽然很酷,但其复杂性是超乎想象的,很可能会无谓增加学习难度,也未必有实践价值。
克制住对“秘籍”的诱惑。有些时候,某些编程方式看起来能起到特定效果,但分不清是实现差异导致的“表现”,还是“规范”要求的行为,就不要依赖于这种“表现”去编程,尽量遵循语言规范进行,这样我们的应用行为才能更加可靠、可预计。
在这一讲中,兼顾面试和编程实践,我会结合例子梳理下面两点:
为什么需要 JMM,它试图解决什么问题?
JMM 是如何解决可见性等各种问题的?类似 volatile,体现在具体用例中有什么效果?
注意,专栏中 Java 内存模型就是特指 JSR-133 中重新定义的 JMM 规范。在特定的上下文里,也许会与 JVM(Java)内存结构等混淆,并不存在绝对的对错,但一定要清楚面试官的本意,有的面试官也会特意考察是否清楚这两种概念的区别。

知识扩展

为什么需要 JMM,它试图解决什么问题?
Java 是最早尝试提供内存模型的语言,这是简化多线程编程、保证程序可移植性的一个飞跃。早期类似 C、C++ 等语言,并不存在内存模型的概念(C++ 11 中也引入了标准内存模型),其行为依赖于处理器本身的内存一致性模型,但不同的处理器可能差异很大,所以一段 C++ 程序在处理器 A 上运行正常,并不能保证其在处理器 B 上也是一致的。
即使如此,最初的 Java 语言规范仍然是存在着缺陷的,当时的目标是,希望 Java 程序可以充分利用现代硬件的计算能力,同时保持“书写一次,到处执行”的能力。
但是,显然问题的复杂度被低估了,随着 Java 被运行在越来越多的平台上,人们发现,过于泛泛的内存模型定义,存在很多模棱两可之处,对 synchronized 或 volatile 等,类似指令重排序时的行为,并没有提供清晰规范。这里说的指令重排序,既可以是编译器优化行为,也可能是源自于现代处理器的乱序执行等。
换句话说:
既不能保证一些多线程程序的正确性,例如最著名的就是双检锁(Double-Checked Locking,DCL)的失效问题,具体可以参考我在第 14 讲对单例模式的说明,双检锁可能导致未完整初始化的对象被访问,理论上这叫并发编程中的安全发布(Safe Publication)失败。
也不能保证同一段程序在不同的处理器架构上表现一致,例如有的处理器支持缓存一致性,有的不支持,各自都有自己的内存排序模型。
所以,Java 迫切需要一个完善的 JMM,能够让普通 Java 开发者和编译器、JVM 工程师,能够清晰地达成共识。换句话说,可以相对简单并准确地判断出,多线程程序什么样的执行序列是符合规范的。
所以:
对于编译器、JVM 开发者,关注点可能是如何使用类似内存屏障(Memory-Barrier)之类技术,保证执行结果符合 JMM 的推断。
对于 Java 应用开发者,则可能更加关注 volatile、synchronized 等语义,如何利用类似 happen-before 的规则,写出可靠的多线程应用,而不是利用一些“秘籍”去糊弄编译器、JVM。
我画了一个简单的角色层次图,不同工程师分工合作,其实所处的层面是有区别的。JMM 为 Java 工程师隔离了不同处理器内存排序的区别,这也是为什么我通常不建议过早深入处理器体系结构,某种意义上来说,这样本就违背了 JMM 的初衷。
JMM 是怎么解决可见性等问题的呢?
在这里,我有必要简要介绍一下典型的问题场景。
我在第 25 讲里介绍了 JVM 内部的运行时数据区,但是真正程序执行,实际是要跑在具体的处理器内核上。你可以简单理解为,把本地变量等数据从内存加载到缓存、寄存器,然后运算结束写回主内存。你可以从下面示意图,看这两种模型的对应。
看上去很美好,但是当多线程共享变量时,情况就复杂了。试想,如果处理器对某个共享变量进行了修改,可能只是体现在该内核的缓存里,这是个本地状态,而运行在其他内核上的线程,可能还是加载的旧状态,这很可能导致一致性的问题。从理论上来说,多线程共享引入了复杂的数据依赖性,不管编译器、处理器怎么做重排序,都必须尊重数据依赖性的要求,否则就打破了正确性!这就是 JMM 所要解决的问题。
JMM 内部的实现通常是依赖于所谓的内存屏障,通过禁止某些重排序的方式,提供内存可见性保证,也就是实现了各种 happen-before 规则。与此同时,更多复杂度在于,需要尽量确保各种编译器、各种体系结构的处理器,都能够提供一致的行为。
我以 volatile 为例,看看如何利用内存屏障实现 JMM 定义的可见性?
对于一个 volatile 变量:
对该变量的写操作之后,编译器会插入一个写屏障
对该变量的读操作之前,编译器会插入一个读屏障
内存屏障能够在类似变量读、写操作之后,保证其他线程对 volatile 变量的修改对当前线程可见,或者本地修改对其他线程提供可见性。换句话说,线程写入,写屏障会通过类似强迫刷出处理器缓存的方式,让其他线程能够拿到最新数值。
如果你对更多内存屏障的细节感兴趣,或者想了解不同体系结构的处理器模型,建议参考 JSR-133相关文档,我个人认为这些都是和特定硬件相关的,内存屏障之类只是实现 JMM 规范的技术手段,并不是规范的要求。
从应用开发者的角度,JMM 提供的可见性,体现在类似 volatile 上,具体行为是什么样呢?
我这里循序渐进的举两个例子。
首先,前几天有同学问我一个问题,请看下面的代码片段,希望达到的效果是,当 condition 被赋值为 false 时,线程 A 能够从循环中退出。
// Thread A
while (condition) {
}
// Thread B
condition = false;
这里就需要 condition 被定义为 volatile 变量,不然其数值变化,往往并不能被线程 A 感知,进而无法退出。当然,也可以在 while 中,添加能够直接或间接起到类似效果的代码。
第二,我想举 Brian Goetz 提供的一个经典用例,使用 volatile 作为守卫对象,实现某种程度上轻量级的同步,请看代码片段:
Map configOptions;
char[] configText;
volatile boolean initialized = false;
// Thread A
configOptions = new HashMap();
configText = readConfigFile(fileName);
processConfigOptions(configText, configOptions);
initialized = true;
// Thread B
while (!initialized)
sleep();
// use configOptions
JSR-133 重新定义的 JMM 模型,能够保证线程 B 获取的 configOptions 是更新后的数值。
也就是说 volatile 变量的可见性发生了增强,能够起到守护其上下文的作用。线程 A 对 volatile 变量的赋值,会强制将该变量自己和当时其他变量的状态都刷出缓存,为线程 B 提供可见性。当然,这也是以一定的性能开销作为代价的,但毕竟带来了更加简单的多线程行为。
我们经常会说 volatile 比 synchronized 之类更加轻量,但轻量也仅仅是相对的,volatile 的读、写仍然要比普通的读写要开销更大,所以如果你是在性能高度敏感的场景,除非你确定需要它的语义,不然慎用。
今天,我从 happen-before 关系开始,帮你理解了什么是 Java 内存模型。为了更方便理解,我作了简化,从不同工程师的角色划分等角度,阐述了问题的由来,以及 JMM 是如何通过类似内存屏障等技术实现的。最后,我以 volatile 为例,分析了可见性在多线程场景中的典型用例。

一课一练

关于今天我们讨论的题目你做到心中有数了吗?今天留给你的思考题是,给定一段代码,如何验证所有符合 JMM 执行可能?有什么工具可以辅助吗?
请你在留言区写写你对这个问题的思考,我会选出经过认真思考的留言,送给你一份学习奖励礼券,欢迎你与我一起讨论。
你的朋友是不是也在准备面试呢?你可以“请朋友读”,把今天的题目分享给好友,或许你能帮到他。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 18

提建议

上一篇
第28讲 | 谈谈你的GC调优思路?
下一篇
第30讲 | Java程序运行在Docker等容器环境有哪些新问题?
unpreview
 写留言

精选留言(34)

  • clz1341521
    置顶
    2018-08-10
    杨老师,请教一个问题,望答复。 volatile boolean和atomicboolean 一样是原子性的吗?

    作者回复: volatile只保证可见性

    共 6 条评论
    34
  • - -
    2018-07-19
    个人觉得happens-before原则最难理解的就是和时间次序上的关系,就比如volatile变量的写操作happens-before其后的读操作,之前很难理解“其后”的含义,一直认为既然是先发生的操作,结果肯定对后续的操作可见啊,以至于认为这个原则是不是多余的。结合了jmm内存模型来看的话就很好理解了,一个操作完成,其结果只是在线程内可见的,在结果写回主存并被其他线程读取前,即使其他线程操作靠后,也无法看见其操作结果。所以才会有volatile、锁等一系列可见性原则的约束
    展开
    共 2 条评论
    61
  • Ab
    2018-07-18
    jmm可以从两个方面理解,一是抽象内存结构,jmm把内存结构抽象成主内存和线程本地内存两种,在计算时,从主内存中加载数据,在本地内存计算,然后在刷新到主内存,但这种模型有明显的一致性问题,二是jmm可以理解我一组保住内存可见性及成正确性的规范,因为这种模型存在明显的一致性问题,同时,由于java编译器指令重排序优化和cpu乱序执行优化的存在,使问题变得更加复杂,所以jmm基于内存屏障提供了类似sa if serial以及happens before的保障。从使用者的角度理解,jmm平衡了jvm工程师以及cpu工程师在性能上的需求和java程序员在简单性上的渴望,所以jmm在保证正确性的同时会最大限度的放宽对指令重排和乱序执行的限制。对于java程序员,jmm提供了如volatile和synchronized这样的顶层机制为程序员提供简单的编程模型。(参考老师的文章及java并发编程艺术 理解)
    展开
    20
  • 李二木
    2018-07-12
    刚看完文章,在看了下《深入JAVA虚拟机》的java内存模型章节,又加深点印象。这本书真不能像小说一样读!
    共 1 条评论
    14
  • 蠢蠢欲动的腹肌
    2018-08-14
    在网上看了下让双检锁生效的方法,除了用volatile修饰变量外,还有其他两种方式 1、用final 修饰变量 2、用本地线程的方式修复,即在创建对象时存取本地线程(final的),在get的时候再从本地取

    作者回复: 对,这里有各种tricky的技巧

    8
  • 张三
    2020-06-02
    volitaile的意义在于禁用缓存
    8
  • Ab
    2018-07-18
    jmm可以从两个方面理解,第一个方面是jmm规范了一个抽象的内存结构,jmm运行时内存进行简化抽象得到了主内存和本地内存两块内存区域,在线程运行时,从主内存中加载数据到本地内存,在本地内存中完成计算后,在刷新到主内存。第二个方面是jmm可以理解我一组保证数据内存可见性和程序正确性的规则,由于这种内存模型存在很明显的数据一致性问题,再加上编译器的指令重排序和cpu乱序执行优化,使问题更加复杂了,而jmm就是通过类似内存屏障等手段保证了内存可见性问题以及在多线程环境下乱序优化和指令重排序带来的线程安全性问题。从使用者的角度理解,jmm实际上平衡了java程序员对简单性的渴望和jvm工程师cpu工程师对性能的追求的平衡,面向底层时,jmm在保证正确性的同时最大限度的放宽了对指令重排序和乱序执行优化的限制,面向上层jmm通过内存屏障实现了volatile和synchronized等内存语意,使程序员可以简单方便的应用这些特性来保证程序的程序的正确性。
    展开
    8
  • 风轨
    2018-08-14
    先看了两遍,始终处于懵逼的状态,后来去把《深入理解java虚拟机》相关部分仔细阅读一下,再回来看终于看懂了!
    7
  • 随心而至
    2021-01-06
    我之前翻译过JSR-133 Cookbook, 是中英文对照版的,英文不好的同学可以对照看看。 https://yellowstar5.cn/direct/The%20JSR-133%20Cookbook-chinese.html
    3
  • clz1341521
    2018-08-10
    1,验证出 “可见性问题”,这个很容复现 2,验证出“cpu指令优化重排”导致的如 双检锁 中对象未初始化完毕,即被使用问题。这个对象构造要慢,才容易复现
    2
  • 随心而至
    2019-09-20
    配合深入理解Java虚拟机第12章食用,效果更佳
    1
  • 甲韭
    2018-07-12
    老师🙋‍♂️我有个问题: 有一个全局的ConcurrentHashMap<String,Set<Foo>> Key是Foo的一个字符串属性 然后有一个方法 通过Foo.getStr() 以此为key判断是否存在map 中如果不存在就创建一个set添加到map 现在这个方法并发情况下第一次创建Set时会出现替换Set的问题,我想如何通过volitile解决?原谅学生愚钝.
    展开
    1
  • 剑八
    2021-10-10
    jmm就是java内存模型规范,解决问题- 让程序员不需要特别关心底层cpu架构对于并发的影响。 jmm抽象了共享内存与工作内存,包含了一系列规则,如happen befor,只要遵循这个规范就可以解决多线程并发问题
  • 贝氏倭狐猴
    2021-08-15
    "你可以简单理解为,把本地变量等数据从内存加载到缓存、寄存器,然后运算结束写回主内存。"这句话有点疑问,因为从汇编指令来说,处理器也是可以接受主存作为单个操作数的。难道JVM的操作都是把主存拷入寄存器之后再操作,不用主存当成单个操作符的汇编指令?
  • 不归橙
    2021-08-04
    二刷,感觉对“克制住对“秘籍”的诱惑”的描述不是很理解,老师可以举个例子吗?
    共 1 条评论
  • 🐟🐙🐬🐆🦌...
    2021-06-09
    老师,线程在自己的工作内存中读写变量,变量是通过read load操作从主内存到工作内存的,在read原子操作说把变量从主内存读取到工作内存,以便随后的load操作,而load原子操作定为把从主内存read的变量load 工作内存的变量副本,这里read和load如何理解,实际上不就是吧内存的变量放入CPU高速缓存么,怎么就有2个操作,read和load
  • 2021-03-07
    请问内存屏障和CPU fence指令是一个概念吗?看了好几篇文档,没有把两者区分开来。
  • 随心而至
    2021-01-06
    为什么需要JMM? 不同CPU架构提供不同的内存屏障指令和内存一致性模型(主要由硬件工程师实现);为了对上层隐藏各种CPU架构的不同,Doug Lea基于此又提出了JVM层面的LoadLoad,StoreStore等内存屏障(由JVM实现者实现);然后JVM实现者则提供统一的Java内存模型(比如Java语言规范 第八版 17章);然后我们这些普通的Java开发者就在这统一的Java内存模型上写跨平台的应用。
    展开
  • 护爽使者
    2020-03-22
    volatile 保证可见性,volatile 的 happens-before 怎么理解?
  • S
    2020-02-02
    杨老师,请教个问题: 在说volatile可见性举的两个例子中,针对第一个,为什么在死循环中添加了一个System.out就会使死循环退出?这个System.out为啥会起到作用
    共 2 条评论
    1