这篇文章将为大家详细讲解有关Spark中怎么实现矩阵相乘操作,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。
我们提供的服务有:成都网站制作、网站设计、微信公众号开发、网站优化、网站认证、和县ssl等。为上千家企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的和县网站制作公司
1,Pom.xml引入 Spark-Mllib 类库
org.apache.spark spark-mllib_2.11 2.3.1 runtime
这里需要注意,因为我们需要使用相关API,所以这里
org.apache.spark spark-mllib_2.11 runtime
2,代码
public static void main(String[] args) { SparkConf sparkConf = new SparkConf().setAppName("Mllib-test").setMaster("local"); JavaSparkContext jpc = new JavaSparkContext(sparkConf); double[][] data = new double[4][4] ; data[0][0] = 0.0; data[0][1] = 2.0; data[0][2] = 3.0; data[0][3] = 4.0; data[1][0] = 1.0; data[1][1] = 3.0; data[1][2] = 4.0; data[1][3] = 5.0; data[2][0] = 2.0; data[2][1] = 4.0; data[2][2] = 5.0; data[2][3] = 6.0; data[3][0] = 3.0; data[3][1] = 5.0; data[3][2] = 6.0; data[3][3] = 7.0; JavaRDDrdd=jpc.parallelize(Arrays.asList(data)).map(f->{ long key = new Double(f[0]).longValue(); double[] value = new double[f.length-1]; for(int i = 1;i rdd1 = jpc.parallelize(Arrays.asList(data1)).map(f->{ long key = new Double(f[0]).longValue(); double[] value = new double[f.length-1]; for(int i = 1;i 关于Spark中怎么实现矩阵相乘操作就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
分享名称:Spark中怎么实现矩阵相乘操作
文章网址:http://cdweb.net/article/jccigi.html