Skip to content

Latest commit

 

History

History
339 lines (222 loc) · 39.4 KB

File metadata and controls

339 lines (222 loc) · 39.4 KB

原文链接:A Java Fork/Join Framework(PDF) - Doug Lea
基于并发编程网 – ifeve.comAlex/萧欢 翻译、方腾飞 校对的译文稿:Java Fork Join 框架
译文发在并发编程网 – ifeve.comJava Fork/Join框架, 2017-11-02

Java Fork/Join框架

🍎 译序

Doug Lea 大神关于Java 7引入的他写的Fork/Join框架的论文。

反应式编程Reactive Programming / RP)作为一种范式在整个业界正在逐步受到认可和落地,是对过往系统的业务需求理解梳理之后对系统技术设计/架构模式的提升总结。Java作为一个成熟平台,对于趋势一向有着稳健的接纳和跟进能力,有着令人惊叹的生命活力:

  1. Java 7提供了ForkJoinPool,支持了Java 8提供的Stream
    更准确地说是,支持Java 8Parallel Stream(并行流)。
  2. 另外Java 8还提供了Lambda(有效地表达和使用RP需要FP的语言构件和理念)。
  3. 有了前面的这些稳健但不失时机的准备,在Java 9中提供了面向RP的官方Flow API,实际上是直接把Reactive Streams的接口加在Java标准库中,即Reactive Streams规范转正了。
    Reactive StreamsRP的基础核心组件,Java提供了Flow API 标志着 RP完成了由 集市式的自由探索阶段 向 教堂式的规范统一阶段 的转变。

通过上面这些说明,可以看到ForkJoinPool的基础重要性。

对了,另外提一下Java 9Flow API@author也是 Doug Lee 哦~

PS:
自己理解粗浅,翻译中肯定会有不少不足和不对之处,欢迎建议(提交Issue)和指正(Fork后提交代码)! 💕



0. 摘要

本论文描述了一个Java框架的设计、实现以及性能,这个框架了一种并行编程风格(a style of parallel programming):解决问题的方式是通过把问题(递归地)分拆为子任务,并行地解决这些子任务,等这些子任务完成,然后合并子任务的结果。总体的设计代签自为Cilk设计的work-stealing框架。在主要的实现技术(implementation techniques)上是围绕如何高效地构建和管理任务队列(tasks queues)和工作线程(worker threads)展开的。测量到的性能数据即显示出了对于多数据程序都有良好的并行加速效果,同时也给出了一些后续可能的优化。

【译注】: Cilk是英特尔Cilk语言。英特尔C++编辑器的新功能Cilk语言扩展技术,为C/C++语言增加了细粒度任务支持,使其为新的和现有的软件增加并行性来充分发掘多处理器能力变得更加容易。

1. 简介

Fork/Join并行方式是获取良好的并行计算性能的一种最简单同时也是最有效的设计技术。fork/join并行算法是我们所熟悉的分治算法的并行版本,典型的用法如下:

Result solve(Problem problem) {
    if (problem is small) {
        directly solve problem
    } else {
        split problem into independent parts
        fork new subtasks to solve each part
        join all subtasks
        compose result from subresults
    }
}

fork操作将会启动一个新的并行fork/join子任务。join操作会一直等待直到所有的子任务都结束。fork/join算法,如同其他分治算法一样,总是会递归的、反复的划分子任务,直到这些子任务可以用足够简单的、短小的顺序方法来执行。

一些相关的编程技术和实例在Java并发编程 —— 设计原则与模式 第二版》[7] 4.4章节中已经讨论过。这篇论文将讨论FJTask的设计(第2节)、实现(第3节)以及性能(第4节),它是一个支持并行编程方式的Java™框架。FJTask 作为util.concurrent软件包的一部分,目前可以在 http://gee.cs.oswego.edu/ 获取到。

2. 设计

fork/join程序可以在任何支持以下特性的框架之上运行:框架能够让构建的子任务并行执行,并且拥有一种等待子任务运行结束的机制。然而,java.lang.Thread类(同时也包括POSIX pthread,这些也是Java线程所基于的基础)对fork/join程序来说并不是最优的选择:

  • fork/join任务对同步和管理有简单的和常规的需求。相对于常规的线程来说,fork/join任务所展示的计算布局将会带来更加灵活的调度策略。例如,fork/join任务除了等待子任务外,其他情况下是不需要阻塞的。因此传统的用于跟踪记录阻塞线程的代价在这种情况下实际上是一种浪费。
  • 对于一个合理的基础任务粒度来说,构建和管理一个线程的代价甚至可以比任务执行本身所花费的代价更大。尽管粒度是应该随着应用程序在不同特定平台上运行而做出相应调整的。但是超过线程开销的极端粗粒度会限制并行的发挥。

简而言之,Java标准的线程框架对fork/join程序而言太笨重了。但是既然线程构成了很多其他的并发和并行编程的基础,完全消除这种代价或者为了这种方式而调整线程调度是不可能(或者说不切实际的)。

尽管这种思想已经存在了很长时间了,但是第一个发布的能系统解决这些问题的框架是Cilk[5]Cilk和其他轻量级的框架是基于操作系统的基本的线程和进程机制来支持特殊用途的fork/join程序。这种策略同样适用于Java,尽管Java线程是基于低级别的操作系统的能力来实现的。创造这样一个轻量级的执行框架的主要优势是能够让fork/join程序以一种更直观的方式编写,进而能够在各种支持JVM的系统上运行。

figure2-0

FJTask框架是基于Cilk设计的一种演变。其他的类似框架有Hood[4]Filaments[8]Stackthreads[10]以及一些依赖于轻量级执行任务的相关系统。所有这些框架都采用和操作系统把线程映射到CPU上相同的方式来把任务映射到线程上。只是他们会使用fork/join程序的简单性、常规性以及一致性来执行这种映射。尽管这些框架都能适应不同形式的并行程序,他们优化了fork/join的设计:

  • 一组工作者线程池是准备好的。每个工作线程都是标准的(『重量级』)处理存放在队列中任务的线程(这地方指的是Thread类的子类FJTaskRunner的实例对象)。通常情况下,工作线程应该与系统的处理器数量一致。对于一些原生的框架例如说Cilk,他们首先将映射成内核线程或者是轻量级的进程,然后再在处理器上面运行。在Java中,虚拟机和操作系统需要相互结合来完成线程到处理器的映射。然后对于计算密集型的运算来说,这种映射对于操作系统来说是一种相对简单的任务。任何合理的映射策略都会导致线程映射到不同的处理器。
  • 所有的fork/join任务都是轻量级执行类的实例,而不是线程实例。在Java中,独立的可执行任务必须要实现Runnable接口并重写run方法。在FJTask框架中,这些任务将作为子类继承FJTask而不是Thread,它们都实现了Runnable接口。(对于上面两种情况来说,一个类也可以选择实现Runnable接口,类的实例对象既可以在任务中执行也可以在线程中执行。因为任务执行受到来自FJTask方法严厉规则的制约,子类化FJTask相对来说更加方便,也能够直接调用它们。)
  • 我们将采用一个特殊的队列和调度原则来管理任务并通过工作线程来执行任务。这些机制是由任务类中提供的相关方式实现的:主要是由forkjoinisDone(一个结束状态的标示符),和一些其他方便的方法,例如调用coInvoke来分解合并两个或两个以上的任务。
  • 一个简单的控制和管理类(这里指的是FJTaskRunnerGroup)来启动工作线程池,并初始化执行一个由正常的线程调用所触发的fork/join任务(就类似于Java程序中的main方法)。

作为一个给程序员演示这个框架如何运行的标准实例,这是一个计算法斐波那契函数的类。

class Fib extends FJTask {
    static final int threshold = 13;
    volatile int number; // arg/result

    Fib(int n) {
        number = n;
    }

    int getAnswer() {
        if (!isDone())
            throw new IllegalStateException();
        return number;
    }

    public void run() {
        int n = number;
        if (n <= threshold) // granularity ctl
            number = seqFib(n);
        else {
            Fib f1 = new Fib(n - 1);
            Fib f2 = new Fib(n - 2);
            coInvoke(f1, f2);
            number = f1.number + f2.number;
        }
    }

    public static void main(String[] args) {
        try {
            int groupSize = 2; // for example
            FJTaskRunnerGroup group = new FJTaskRunnerGroup(groupSize);
            Fib f = new Fib(35); // for example
            group.invoke(f);
            int result = f.getAnswer();
            System.out.println("Answer: " + result);
        } catch (InterruptedException ex) {
        }
    }

    int seqFib(int n) {
        if (n <= 1) return n;
        else return seqFib(n1) + seqFib(n2);
    }
}

这个版本在第4节中所提到的平台上的运行速度至少比每个任务都在Thread类中运行快30倍。在保持性能的同时这个程序仍然维持着Java多线程程序的可移植性。对程序员来说通常有两个参数值的他们关注:

  • 对于工作线程的创建数量,通常情况下可以与平台所拥有的处理器数量保持一致(或者更少,用于处理其他相关的任务;或者有些情况下更多,来提升非计算密集型任务的性能)。
  • 一个粒度参数代表了创建任务的代价会大于并行化所带来的潜在的性能提升的临界点。这个参数更多的是取决于算法而不是平台。通常在单处理器上运行良好的临界点,在多处理器平台上也会发挥很好的效果。作为一种附带的效益,这种方式能够与Java虚拟机的动态编译机制很好的结合,而这种机制在对小块方法的优化方面相对于单块的程序来说要好。这样,加上数据本地化的优势,fork/join算法的性能即使在单处理器上面的性能都较其他算法要好。

2.1 work−stealing

fork/join框架的核心在于轻量级调度机制。FJTask采用了Cilkwork-stealing所采用的基本调度策略:

  • 每一个工作线程维护自己的调度队列中的可运行任务。
  • 维护队列是用双端队列(即deques,通常读作『decks』),同时支持LIFO(后进先出)的pushpop操作和FIFO(先进先出)的take操作。
  • 在工作线程中运行任务所产生的子任务将会被push到工作者自己的deque中。
  • 工作线程使用LIFO(最新的元素优先)的顺序,通过pop任务来处理队列中的任务。
  • 当工作线程的本地没有任务去运行的时候,它将使用FIFO(最旧的元素优先)的规则尝试从另一个随机挑选的工作线程中take(『窃取(steal』)一个任务去运行。
  • 当工作线程碰到join操作时,如果可能的话它将处理其他任务,直到目标任务被告知已经结束(通过isDone)。所有的任务都会无阻塞的完成。
  • 当工作线程无法再从其他线程中获取任务和失败处理的时候,它就会退出(通过yieldsleep和/或者优先级调整,参考第3节)并经过一段时间之后再度尝试直到所有的工作线程都被告知他们都处于空闲的状态。在这种情况下,他们都会阻塞直到其他的任务再度被上层调用。

正如参考文献[5]中的更详细的讨论,使用LIFO(后出先出)规则来处理各个工作线程的自己任务,而用于steal其它任务的FIFO(先进先出)规则是在递归fork/join设计中广泛使用的一个优化。这样的方案有2个的优势,用不太正式的方式表述如下:

窃取任务的线程,相对队列拥有者,操作的是队列的另一头,这样减少了竞争。这样的做法也充分利用了会先产生『大』任务的递归分治算法的特点。也就是,被窃取的更早生成的任务可能包含更大的任务单元,能够让窃取线程在进行进一步的递归分解处理。

应用上述规则的一个效果是:相比对基础操作仅仅使用粗任务粒度分片的程序或没有使用递归分解的程序,使用相对较小任务粒度的程序倾向于运行得更快。尽管对于多数的fork/join程序只有相对少数任务会被其他工作线程窃取,但是创建很多粒度合适(fine-grained)的任务意味着:只要有工作线程处于可运行任务的状态,那么一个任务就有可能被执行。

3. 实现

这个框架是由大约800行纯Java代码组成,主要的类是FJTaskRunner,它是java.lang.Thread的子类。FJTask自己仅仅维持一个关于结束状态的布尔值,所有其他的操作都是通过当前的工作线程来代理完成的。JFTaskRunnerGroup类用于创建工作线程,维护一些共享的状态(例如:所有工作线程的标示符,在窃取操作时需要),同时还要协调启动和关闭。

更多实现的细节文档可以在util.concurrent并发包中查看。这一节只着重讨论两类问题以及在实现这个框架的时候所形成的一些解决方案:如何支持高效的deque操作(pushpoptake), 和当工作线程在尝试获取新的任务时如何维护窃取协议。

3.1 deque

【校注】:deque即是双端队列,其中的元素可以从两端弹出,其限定插入和删除操作在队列的两端进行。

为了能够获得高效以及可扩展的执行任务,任务管理需要越快越好。创建(creating)、push以及之后的pop(或是使用频率更低的take)任务操作就像是在顺序程序(sequential programs)中的过程调用(procedure call)这样的额外开销(overhead)。更低的开销可以使得程序员能够构建更小的任务粒度,进而反进来也能更好的充分利用并行。

任务的分配由Java虚拟机会负责。Java的垃圾回收使我们不再需要去编写专用的内存分配器去维护任务。相比于其他语言的类似框架,这使实现FJTask的复杂性以及所需的代码行数大大减少。

deque的基本结构采用了很常规的结构 —— 每个队列使用一个数组(尽管是可变长的),同时附带两个索引:top索引就类似于数组中的栈指针,通过pushpop操作来改变。base索引只能通过take操作来改变。鉴于FJTaskRunner操作都是无缝的绑定到deque的细节之中(例如,fork直接调用push),所以这个数据结构直接放在类之中,而不是作为一个单独的组件。

由于deque中的数组会被多线程并发的访问,在缺乏足够同步的情况下,而且单个的Java数组元素也不能声明为volatile变量(【译注】:声明成volatile的数组,其元素并不具备volatile语意),每个数组元素实际上都是一个固定的引用,这个引用指向了一个维护着单个volatile引用的转发对象。一开始做出这个决定主要是考虑到Java内存模型的一致性。但是在这个级别它所需要的间接寻址被证明在一些测试过的平台上能够提升性能。可能是因为访问邻近的元素而降低了缓存争用,这样内存里面的间接寻址会更快一点。

实现deque的主要挑战来自于同步和他的撤销。尽管在Java虚拟机上使用经过优化过的同步工具,对于每个pushpop操作都需要获取锁还是让这一切成为性能瓶颈。然后根据以下的观察结果我们可以修改Clik中的策略,从而为我们提供一种可行的解决方案:

  • pushpop操作仅可以被工作线程的拥有者所调用。
  • 通过一把在take操作上入口锁(an entry lock)可以很容易限制,对take操作的访问一次只有一个stealing线程(【译注】:即take操作执行通过一把锁序列化而不会并发,一个时间点至多只有1个在执行)。(这把deque的锁在必要时也可以用于禁止take操作。)这样,冲突控制被简化成了两方参与的同步问题。
  • 只有在deque为空时,poptake操作候才会发生冲突;其它时候,这2个操作肯定在不同的数组元素上。

topbase索引定义为volatile变量可以保证当队列中元素不止一个时,poptake操作可以在不加锁的情况下进行。这是通过类似于Dekker的算法来实现的,对于push操作预先递减top

if (--top >= base) ...

对于take操作预先递增base

if (++base < top) ...

在上述每种情况下他们都通过比较两个索引来检查这样是否会导致deque变成一个空队列。一个不对称的规则将用于防止潜在的冲突:pop会重新检查状态并在获取锁之后继续(对take所持有的也一样),直到队列真的为空才退出。而take操作会立即退出,特别是当尝试去获得另外一个任务。与其他类似使用ClikTHE协议一样,这种不对称性是唯一重要的改变。

使用volatile变量索引push操作在队列没有满的情况下不需要同步就可以进行。如果队列将要溢出,那么它首先必须要获得队列锁来重新设置队列的长度。其他情况下,只要确保top操作排在队列数组槽盛在抑制干涉带之后更新。

在随后的初始化实现中,发现有好几种JVM并不符合Java内存模型中正确读取写入的volatile变量的规则。作为一个工作区,pop操作在持有锁的情况下重试的条件已经被调整为:如果有两个或者更少的元素,并且take操作加了第二把锁以确保内存屏障效果,那么重试就会被触发。只要最多只有一个索引被拥有者线程丢失这就是满足的,并且只会引起轻微的性能损耗。

3.2 抢断和闲置

在抢断式工作框架中,工作线程对于他们所运行的程序对同步的要求一无所知。他们只是产生(generate)、pushpoptake任务、管理任务状态和执行任务。这种简单的方案使得当所有的线程都拥有很多任务需要去执行的时候,它的效率很高。然而这种方式是有代价的,当没有足够的工作的时候它将依赖于试探法。比如,在启动主任务的过程,直到主任务完成,以及一些fork/join算法中用到的全局的全停止(full−stop)同步指针所涉及整个过程。

主要的问题在于当一个工作线程既无本地任务也不能从别的线程中抢断任务时怎么办。如果程序运行在专业的多核处理器上面,那么可以依赖于硬件的忙等待自旋循环的去尝试抢断一个任务。然而,即使这样,尝试抢断还是会增加竞争,甚至会导致那些不是闲置的工作线程降低效率(由于锁协议,3.1节中)。除此之外,在一个更适合此框架运行的场景中,操作系统应该能够很自信的去运行那些不相关并可运行的进程和线程。

Java中并没有十分健壮的工作来保证这个,但是在实际中它往往是可以让人接受的。一个抢断失败的线程在尝试另外的抢断之前会降低自己的优先级,在尝试抢断之间执行Thread.yeild操作,然后将自己的状态在FJTaskRunnerGroup中设置为不活跃的。他们会一直阻塞直到有新的主线程。其他情况下,在进行一定的自旋次数之后,线程将进入休眠阶段,他们会休眠而不是放弃抢断。强化的休眠机制会给人造成一种需要花费很长时间去划分任务的假象。但是这似乎是最好的也是通用的折中方案。框架的未来版本也许会支持额外的控制方法,以便于让程序员在感觉性能受到影响时可以重写默认的实现。

4. 性能

如今,随着编译器与Java虚拟机性能的不断提升,性能测试结果也仅仅只能适用一时。但是,本节中所提到的测试结果数据却能揭示fork/join框架的基本特性。

下面表格中简单介绍了在下文将会用到的一组fork/join测试程序。这些程序是从util.concurrent包里的示例代码改编而来,用来展示fork/join框架在解决不同类型的问题模型时所表现的差异,同时得到该框架在一些常见的并行测试程序上的测试结果。

程序 描述
Fib(菲波那契数列) 如第2节所描述的Fibonnaci程序,其中参数值为47阀值为13
Integrate(求积分) 使用递归高斯求积对公式 (2 \cdot i - 1) \cdot x ^ {(2 \cdot i - 1)} 求-47到48的积分,i 为1到5之间的偶数
Micro(求微分) 对一种棋盘游戏寻找最好的移动策略,每次计算出后面四次移动
Sort(排序) 使用合并/快速排序算法对1亿数字进行排序(基于Cilk算法)
MM(矩阵相乘) 2048 X 2048的double类型的矩阵进行相乘
LU(矩阵分解) 4096 X 4096的double类型的矩阵进行分解
Jacobi(雅克比迭代法) 对一个4096 X 4096的double矩阵使用迭代方法进行矩阵松弛,迭代次数上限为100

下文提到的主要的测试,其测试程序都是运行在Sun Enterprise 10000服务器上,该服务器拥有30个CPU,操作系统为Solaris 7系统,运行Solaris商业版1.2 JVM2.2.2_05发布版本的一个早期版本)。同时,Java虚拟机的关于线程映射的环境参数选择为『bound threads』(【译注】:XX:+UseBoundThreads,绑定用户级别的线程到内核线程,只与Solaris有关),而关于虚拟机的内存参数设置在4.2章节讨论。另外,需要注意的是下文提到的部分测试则是运行在拥有4 CPUSun Enterprise 450服务器上。

figure4-1

为了降低定时器粒度以及Java虚拟机启动因素对测试结果的影响,测试程序都使用了数量巨大的输入参数。而其它一些启动因素我们通过在启动定时器之前先运行初始化任务来进行屏蔽。所得到的测试结果数据,大部分都是在三次测试结果的中间值,然而一些测试数据仅仅来自一次运行结果(包括4.2 ~ 4.4章节很多测试),因此这些测试结果会有噪音表现。

4.1 加速效果

通过使用不同数目(1 ~ 30)的工作线程对同一问题集进行测试,用来得到框架的扩展性测试结果。虽然我们无法保证Java虚拟机是否总是能够将每一个线程映射到不同的空闲CPU上,同时,我们也没有证据来证明这点。有可能映射一个新的线程到CPU的延迟会随着线程数目的增加而变大,也可能会随不同的系统以及不同的测试程序而变化。但是,所得到的测试结果的确显示出增加线程的数目确实能够增加使用的CPU的数目。

figure4-2

加速比通常表示为 Timen / Time1。如上图所示,其中求积分的程序表现出最好的加速比(30个线程的加速比为28.2),表现最差的是矩阵分解程序(30线程是加速比只有15.35)

另一种衡量扩展性的依据是:任务执行率,及执行一个单独任务(这里的任务有可能是递归分解节点任务也可能是根节点任务)所开销的平均时间。下面的数据显示出一次性执行各个程序所得到的任务执行率数据。很明显,单位时间内执行的任务数目应该是固定常量。然而事实上,随着线程数目增加,所得到的数据会表现出轻微的降低,这也表现出其一定的扩展性限制。这里需要说明的是,之所以任务执行率在各个程序上表现的巨大差异,是因其任务粒度的不同造成的。任务执行率最小的程序是Fib(菲波那契数列),其阀值设置为13,在30个线程的情况下总共完成了280万个单元任务。

figure4-3

导致这些程序的任务完成率没有表现为水平直线的因素有四个。其中三个对所有的并发框架来说都是普遍原因,所以,我们就从对FJTask框架(相对于Cilk等框架)所特有的因素说起,即垃圾回收。

4.2 垃圾回收

总的来说,现在的垃圾回收机制的性能是能够与fork/join框架所匹配的:fork/join程序在运行时会产生巨大数量的任务单元,然而这些任务在被执行之后又会很快转变为内存垃圾。相比较于顺序执行的单线程程序,在任何时候,其对应的fork/join程序需要最多p倍的内存空间(其中p为线程数目)。基于分代的半空间拷贝垃圾回收器(也就是本文中测试程序所使用的Java虚拟机所应用的垃圾回收器)能够很好的处理这种情况,因为这种垃圾回收机制在进行内存回收的时候仅仅拷贝非垃圾内存单元。这样做,就避免了在手工并发内存管理上的一个复杂的问题,即跟踪那些被一个线程分配却在另一个线程中使用的内存单元。这种垃圾回收机制并不需要知道内存分配的源头,因此也就无需处理这个棘手的问题。

这种垃圾回收机制优势的一个典型体现:使用这种垃圾回收机制,四个线程运行的Fib程序耗时仅为5.1秒钟,而如果在Java虚拟机设置关闭代拷贝回收(这种情况下使用的就是标记清除(mark−sweep)垃圾回收机制了),耗时需要9.1秒钟。

figure4-4

然而,只有内存使用率只有达到一个很高的值的情况下,垃圾回收机制才会成为影响扩展性的一个因素,因为这种情况下,虚拟机必须经常停止其他线程来进行垃圾回收。以下的数据显示出在三种不同的内存设置下(Java虚拟机支持通过额外的参数来设置内存参数),加速比所表现出的差异:默认的4M的半空间,64M的半空间,另外根据线程数目按照公式(2 + 2p)M设置半空间。使用较小的半空间,在额外线程导致垃圾回收率攀高的情况下,停止其他线程并进行垃圾回收的开销开始影响加封。

鉴于上面的结果,我们使用64M的半空间作为其他测试的运行标准。其实设置内存大小的一个更好的策略就是根据每次测试的实际线程数目来确定。(正如上面的测试数据,我们发现这种情况下,加速比会表现的更为平滑)。相对的另一方面,程序所设定的任务粒度的阀值也应该随着线程数目成比例的增长。

4.3 内存分配和字宽

在上文提到的测试程序中,有四个程序会创建并操作数量巨大的共享数组和矩阵:数字排序,矩阵相乘/分解以及松弛。其中,排序算法应该是对数据移动操作(将内存数据移动到CPU缓存)以及系统总内存带宽,最为敏感的。为了确定这些影响因素的性质,我们将排序算法sort改写为四个版本,分别对byte字节数据,short型数据,int型数据以及long型数据进行排序。这些程序所操作的数据都在0 ~ 255之间,以确保这些对比测试之间的平等性。理论上,操作数据的字宽越大,内存操作压力也相应越大。

测试结果显示,内存操作压力的增加会导致加速比的降低,虽然我们无法提供明确的证据来证明这是引起这种表现的唯一原因。但数据的字宽的确是影响程序的性能的。比如,使用一个线程,排序字节byte数据需要耗时122.5秒,然而排序long数据则需要耗时242.5秒。

figure4-5

4.4 任务同步

正如3.2章节所讨论的,任务窃取模型经常会在处理任务的同步上遇到问题,如果工作线程获取任务的时候,但相应的队列已经没有任务可供获取,这样就会产生竞争。在FJTask框架中,这种情况有时会导致线程强制睡眠。

Jacobi程序中我们可以看到这类问题。Jacobi程序运行100步,每一步的操作,相应矩阵点周围的单元都会进行刷新。程序中有一个全局的屏障分隔。为了明确这种同步操作的影响大小。我们在一个程序中每10步操作进行一次同步。如图中表现出的扩展性的差异说明了这种并发策略的影响。也暗示着我们在这个框架后续的版本中应该增加额外的方法以供程序员来重写,以调整框架在不同的场景中达到最大的效率。(注意,这种图可能对同步因素的影响略有夸大,因为10步同步的版本很可能需要管理更多的任务局部性)

4.5 任务局部性

FJTask,或者说其他的fork/join框架在任务分配上都是做了优化的,尽可能多的使工作线程处理自己分解产生的任务。因为如果不这样做,程序的性能会受到影响,原因有二:

  1. 从其他队列窃取任务的开销要比在自己队列执行pop操作的开销大。
  2. 在大多数程序中,任务操作操作的是一个共享的数据单元,如果只运行自己部分的任务可以获得更好的局部数据访问。

figure4-6

如上图所示,在大多数程序中,窃取任务的相对数据都最多维持在很低的百分比。然后其中LUMM程序随着线程数目的增加,会在工作负载上产生更大的不平衡性(相对的产生了更多的任务窃取)。通过调整算法我们可以降低这种影响以获得更好的加速比。

4.6 与其他框架比较

与其他不同语言的框架相比较,不太可能会得到什么明确的或者说有意义的比较结果。但是,通过这种方法,最起码可以知道FJTask在与其他语言(这里主要指的是CC++)所编写的相近框架比较所表现的优势和限制。下面这个表格展示了几种相似框架(CilkHoodStackthreads以及Filaments)所测试的性能数据。涉及到的测试都是在4 CPUSun Enterprise 450服务器运行4个线程进行的。为了避免在不同的框架或者程序上进行重新配置,所有的测试程序运行的问题集都比上面的测试稍小些。得到的数据也是取三次测试中的最优值,以确保编译器或者说是运行时配置都提供了最好的性能。其中Fib程序没有指定任务粒度的阀值,也就是说默认的1。(这个设置在Filaments版的Fib程序中设置为1024,这样程序会表现的和其它版本更为一致)。

在加速比的测试中,不同框架在不同程序上所得到的测试结果非常接近,线程数目1 ~ 4,加速比表现在(3.0 ~ 4.0之间)。因此下图也就只聚焦在不同框架表现的不同的绝对性能上,然而因为在多线程方面,所有的框架都是非常快的,大多数的差异更多的是有代码本身的质量,编译器的不同,优化配置项或者设置参数造成的。实际应用中,根据实际需要选择不同的框架以弥补不同框架之间表现的巨大差异。

figure4-7

FJTask在处理浮点数组和矩阵的计算上性能表现的比较差。即使Java虚拟机性能不断的提升,但是相比于那些CC++语言所使用的强大的后端优化器,其竞争力还是不够的。虽然在上面的图表中没有显示,但FJTask版本的所有程序都要比那些没有进行编译优化的框架还是运行的快的。以及一些非正式的测试也表明,测试所得的大多数差异都是由于数组边界检查,运行时义务造成的。这也是Java虚拟机以及编译器开发者一直以来关注并持续解决的问题。

相比较,计算敏感型程序因为编码质量所引起的性能差异却是很少的。

5. 结论

本论文阐述了使用纯Java实现支持可移植的(portable)、高效率的(efficient)和可伸缩的(scalable)并行处理的可能性,并提供了便利的API让程序员可以遵循很少几个设计规则和模式(参考资料[7]中有提出和讨论)就可以利用好框架。从本文的示例程序中观察分析到的性能特性也同时为用户提供了进一步的指导,并提出了框架本身可以潜在改进的地方。

尽管所展示的可伸缩性结果针对的是单个JVM,但根据经验这些主要的发现在更一般的情况下应该仍然成立:

  • 尽管分代GCgenerational GC)通常与并行协作得很好,但当垃圾生成速度很快而迫使GC很频繁时会阻碍程序的伸缩性。在这样的JVM上,这个底层原因看起来会导致为了GC导致停止线程的花费的时间大致与运行的线程数量成正比。因为运行的线程越多那么单位时间内生成的垃圾也就越多,开销的增加大致与线程数的平方。即使如此,只有在GC频度相对高时,才会对性能有明显的影响。当然,这个问题需要进一步的研究和开发并行GC算法。本文的结果也说明了,在多处理器JVM上提供优化选项(tuning options)和适应机制(adaptive mechanisms)以让内存可以按活跃CPU数目扩展是有必要的。
  • 大多数的伸缩性问题只有当运行的程序所用的CPU多于多数设备上可用CPU时,才会显现出来。FJTask(以及其它fork/join框架)在常见的2路、4路和8路的SMP机器上表现出接近理想情况加速效果。对于为stock multiprocessor设计的运行在多于16个CPU上的fork/join框架,本文可能是第一篇给出系统化报告结果的论文。在其它框架中这个结果中的模式是否仍然成立需要进一步的测量。
  • 应用程序的特征(包括内存局部性、任务局部性和全局同步的使用)常常比框架、JVM或是底层OS的特征对于伸缩性和绝对性能的影响更大。举个例子,在非正式的测试中可以看到,精心避免deques上同步操作(在3.1节中讨论过)对于生成任务相对少的程序(如LU)完全没有改善。然而,把任务管理上开销减至最小却可以拓宽框架及其相关设计和编程技巧的适用范围和效用。

除了对于框架做渐进性的改良,未来可以做的包括在框架上构建有用的应用(而不是Demo和测试)、在生产环境的应用负载下的后续评估、在不同的JVM上测量以及为搭载多处理器的集群的方便使用开发扩展。

6. 致谢

本文的部分工作受到来自Sun实验室的合作研究资助的支持。感谢Sun实验室Java课题组的 Ole AgesenDave DetlefsChristine FloodAlex GarthwaiteSteve Heller 的建议、帮助和评论。David HolmesOle AgesenKeith RandallKenjiro Taura 以及哪些我不知道名字的审校人员为本论文的草稿提供的有用的评论。Bill Pugh 指出了在3.1节讨论到的JVM的写后读的局限(read−after−write limitations)。特别感谢 Dave Dice 抽出时间在30路企业机型上执行了测试。

7. 参考文献

  • [1] Agesen, Ole, David Detlefs, and J. Eliot B. Moss. Garbage Collection and Local Variable Type−Precision and Liveness in Java Virtual Machines. In Proceedings of 1998 ACM SIGPLAN Conference on Programming Language Design and Implementation (PLDI), 1998.
  • [2] Agesen, Ole, David Detlefs, Alex Garthwaite, Ross Knippel, Y.S. Ramakrishna, and Derek White. An Efficient Meta−lock for Implementing Ubiquitous Synchronization. In Proceedings of OOPSLA ’99, ACM, 1999.
  • [3] Arora, Nimar, Robert D. Blumofe, and C. Greg Plaxton. Thread Scheduling for Multiprogrammed Multiprocessors. In Proceedings of the Tenth Annual ACM Symposium on Parallel Algorithms and Architectures (SPAA), Puerto Vallarta, Mexico, June 28 − July 2, 1998.
  • [4] Blumofe, Robert D. and Dionisios Papadopoulos. Hood: A User−Level Threads Library for Multiprogrammed Multiprocessors. Technical Report, University of Texas at Austin, 1999.
  • [5] Frigo, Matteo, Charles Leiserson, and Keith Randall. The Implementation of the Cilk−5 Multithreaded Language. In Proceedings of 1998 ACM SIGPLAN Conference on Programming Language Design and Implementation (PLDI), 1998.
  • [6] Gosling, James, Bill Joy, and Guy Steele. The Java Language Specification, Addison−Wesley, 1996.
  • [7] Lea, Doug. Concurrent Programming in Java, second edition, Addison−Wesley, 1999.
  • [8] Lowenthal, David K., Vincent W. Freeh, and Gregory R. Andrews. Efficient Fine−Grain Parallelism on Shared−Memory Machines. Concurrency−Practice and Experience, 10,3:157−173, 1998.
  • [9] Simpson, David, and F. Warren Burton. Space efficient execution of deterministic parallel programs. IEEE Transactions on Software Engineering, December, 1999.
  • [10] Taura, Kenjiro, Kunio Tabata, and Akinori Yonezawa. "Stackthreads/MP: Integrating Futures into Calling Standards." In Proceedings of ACM SIGPLAN Symposium on Principles & Practice of Parallel Programming (PPoPP), 1999.