Spark on Angel的算法实现与纯Spark的实现非常接近,因此大部分的Spark ML算法仅需要修改一小部分代码就能将算法跑到Spark on Angel上。
该版本的Spark on Angel是基于Spark 2.1.0和Scala 2.11.8,因此建议大家在该环境下开发。
开发者接触到的类主要有PSContext,PSModelPool,PSVectorProxy,BreezePSVector/RemotePSVector。目前我们的编程接口以Scala为主,下面我们都将已Scala的编程方式介绍Spark on Angel的编程接口。
- Maven工程的pom依赖
<dependency>
<groupId>com.tencent.angel</groupId>
<artifactId>spark-on-angel-core</artifactId>
<version>${angel.version}</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>com.tencent.angel</groupId>
<artifactId>spark-on-angel-mllib</artifactId>
<version>${angel.version}</version>
<scope>provided</scope>
</dependency>
- import package
import com.tencent.angel.spark.PSContext
首先必须启动Spark、初始化SparkSession,然后用SparkSession启动PSContext。 所有Spark、Angel PS相关的配置参数都set到builder,Angel PS会从SparkConf中得到用户的配置信息。
// 初始化Spark
val builder = SparkSession.builder()
.master(master)
.appName(appName)
.config("spark.ps.num", "x")
.config("B", "y")
val spark = builder.getOrCreate()
// 初始化Angel
val context = PSContext.getOrCreate(spark.sparkContext)
系统将Angel PS的所有操作都封装到PSContext中,PSContext的操作主要包括以下几部分
- 初始化、终止PS node 如下的接口设计与Spark的SparkSession/sparkContext很接近。
// 第一次启动时,需要传入SparkContext
val context = PSContext.getOrCreate(spark.sparkContext)
// 此后,直接通过PSContext.instance()获取context
val context = PSContext.instance()
// 终止PSContext
PSContext.stop()
PSVector是PSModel的子类,同时PSVector有DensePSVector/SparsePSVector和BreezePSVector/CachedPSVector四种不同的实现。DensePSVector/SparsePSVector是两种不同数据格式的PSVector,而BreezePSVector/CachedPSVector是两种不同功能的PSVector。
在介绍PSVector之前,需要先了解一下PSVectorPool的概念;PSVectorPool在Spark on Angel的编程接口中不会显式地接触到,但需要了解其概念。
-
PSVectorPool
PSVectorPool本质上是Angel PS上的一个矩阵,矩阵列数是dim
,行数是capacity
。 PSVectorPool负责PSVector的申请、自动回收。自动回收类似于Java的GC功能,PSVector对象使用后不用手动delete。 同一个PSVectorPool里的PSVector的维度都是dim
,同一个Pool里的PSVector才能做运算。 -
PSVector的申请和初始化
PSVector第一次申请的时候,必须通过PSVector的伴生对象中dense/sparse方法申请。 dense/sparse方法会创建PSVectorPool,因此需要传入dimension和capacity参数。通过duplicate方法可以申请一个与已有psVector对象同Pool的PSVector。
// 第一次申请DensePSVector和SparsePSVector // capacity提供了默认参数 val dVector = PSVector.dense(dim, capacity) val sVector = PSVector.sparse(dim, capacity) // 从现有的psVector duplicate出新的PSVector val samePoolVector = PSVector.duplicate(dVector) // 初始化 // fill with 1.0 dVector.fill(1.0) // 初始化dVector,使dVector的元素服从[-1.0, 1.0]的均匀分布 dVector.randomUniform(-1.0, 1.0) // 初始化dVector,使dVector的元素服从N(0.0, 1.0)的正态分布 dVector.randomNormal(0.0, 1.0)
-
DensePSVector VS. SparsePSVector
顾名思义,DensePSVector和SparsePSVector是针对稠密和稀疏两种不同的数据形式设计的PSVector -
BreezePSVector VS. CachedPSVector
BreezePSVector和CachedPSVector是封装了不同运算功能的PSVector装饰类。BreezePSVector面向于Breeze算法库,封装了同一个PSVectorPool里PSVector之间的运算。包括常用的math运算和blas运算,BreezePSVector实现了Breeze内部的NumbericOps操作,因此BreezePSVector支持+,-,* 这样的操作
val brzVector1 = brzVector2 :* 2.0 + brzVector3
也可以显式地调用Breeze.math和Breeze.blas里的操作。
CachedPSVector为Pull、increment/mergeMax/mergeMin提供了Cache的功能,减少这些操作和PS交互的次数。 如,pullWithCache会加Pull下来的Vector缓存到本地,下次Pull同一个Vector时,直接读取缓存的Vector; incrementWithCache会将多次的increment操作在本地聚合,最后通过flush操作,将本地聚合的结果increment到PSVector。
val cacheVector = PSVector.dense(dim).toCache rdd.map { case (label , feature) => // 并没有立即更新psVector cacheVector.incrementWithCache(feature) } // flushIncrement会将所有executor上的缓存的cacheVector的increment结果,累加到cacheVector cacheVector.flushIncrement
PSMatrix是Angel PS上的矩阵,其有DensePSMatrix和SparsePSMatrix两种实现。
- PSMatrix的创建和销毁
PSMatrix通过伴生对象中的dense/sparse方法申请对应的matrix。 PSVector会有PSVectorPool自动回收、销毁无用的PSVector,而PSMatrix需要手动调用destroy方法销毁PS上的matrix
如果需要对指定PSMatrix的分区参数,通过rowsInBlock/colsInBlock指定每个分区block的大小。
// 创建、初始化
val dMatrix = DensePSMatrix.dense(rows, cols, rowsInBlock, colsInBlock)
val sMatrix = SparsePSMatrix.sparse(rows, cols)
dMatrix.destroy()
// Pull/Push操作
val array = dMatrix.pull(rowId)
dMatrix.push(rowId, array)
- 支持PSF(PS Function)自定义函数,继承MapFunc、MapWithIndexFunc等接口实现用户自定义的PSVector运算函数
val result = brzVector.map(func)
val result = brzVector.mapWithIndex(func)
val result = brzVector.zipMap(func)
以上的func必须继承MapFunc、MapWithIndexFunc,并实现用户自定义的逻辑和函数序列化接口。
public class MulScalar implements MapFunc {
private double multiplier;
public MulScalar(double multiplier) {
this.multiplier = multiplier;
}
public MulScalar() {
}
@Override
public double call(double value) {
return value * multiplier;
}
@Override
public void serialize(ByteBuf buf) {
buf.writeDouble(multiplier);
}
@Override
public void deserialize(ByteBuf buf) {
multiplier = buf.readDouble();
}
@Override
public int bufferLen() {
return 8;
}
}
- Example 1: PSVector的更新方式
下面是将RDD[(label, feature)]中的所有feature都累加到PSVector中。
val dim = 10
val capacity = 40
val psVector = PSVector.dense(dim, capacity).toCache
rdd.foreach { case (label , feature) =>
psProxy.incrementWithCache(feature)
}
psVector.flushIncrement
println("feature sum:" + psVector.pull().mkString(" "))
- Example 2: Gradient Descent实现
下面是一个简单版本的Gradient Descent的PS实现, 注:这个例子里的instance的label是-1和1。
val w = PSVector.dense(dim).fill(initWeights)
for (i <- 1 to ITERATIONS) {
val gradient = PSVector.duplicate(w)
val nothing = instance.mapPartitions { iter =>
val brzW = new DenseVector(w.pull())
val subG = iter.map { case (label, feature) =>
feature * (1 / (1 + math.exp(-label * brzW.dot(feature))) - 1) * label
}.reduce(_ + _)
gradient.increment(subG.toArray)
Iterator.empty
}
nothing.count()
w.toBreeze :+= gradent.toBreeze :* -1.0
}
println("w:" + w.pull().mkString(" "))