×

scala

Spark入门——Spark运行环境(spark环境搭建方式)

福缘创业网 福缘创业网 发表于2024-04-20 浏览4920 评论0
参考链接 https://www.bilibili.com/video/BV11A411L7CK?p=11 Spark运行环境 Spark作为一个数据处理框架和计算引擎,被设计在所有常见的集群环境中运行,在国内工作中主流的环境为Yarn,不过逐渐容器式环境也慢慢流行起来 Local模式 所谓的Local模式,就是不需要其他任何节点资源就可以在本地执行Spark代码的环境,一般用于教学,调试,演示等。在IDEA中运行代码的环境称为开发环境,不一样 可以在命令行中输入spar

Ruby教程

Centos7.7升级Ruby版本(centos7更新yum)

零距离 零距离 发表于2024-04-20 浏览3462 评论0
今天搭建redis-4.0.1版本的集群时,提示ruby的版本需要高于2.2.2,于是进行了升级,这里记录一下,方便你我。 第一步:安装ruby环境 第二步:查看版本 第三步:删除原来的rubygems仓库 [root@qianfeng04 ~]# gem sources --remove https://rubygems.org/ https://rubygems.org/ removed from sources 第四步: 添加aliyun的rubygems仓库并查看

scala

scala----列表、元祖、集合相关知识(scala数组集合的操作)

Aclitan Aclitan 发表于2024-04-20 浏览5080 评论0
1、数组 1.1 概述 数组就是用来存储多个同类型元素的容器, 每个元素都有编号(也叫: 下标, 脚标, 索引), 且编号都是从0开始数的. Scala中, 有两种数组,一种是定长数组,另一种是变长数组. 1.2定长数组 1.2.1特点 1. 数组的长度不允许改变. 2. 数组的内容是可变的 1.2.2 语法 val/var 变量名 = new Array[元素类型](数组长度) val/var 变量名 = Array(元素1, 元素2, 元素3...) 注意:

scala

spark入门案例以及sbt安装与打包(Linux环境)

梦无双 梦无双 发表于2024-04-20 浏览3328 评论0
创作初衷:由于在这上面翻过太多的烂文章(博主自己都没搞懂就“写作抄袭”),才写下此文(已从重装系统做过3次测试,没有问题才下笔),文章属于保姆级别。 ~~~~~~~~~~~~~~~~~~~~~~~~~创作不易,转载请说明~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 本文相关的版本信息(没部署Hadoop,本文环境基于Linux的,且文件和程序全是root用户组) 操作系统:Centos 7.4 sbt 打包插件:1.7.1      官链:sbt - The interac

MSSQL教程

[大数据、Hadoop、数据采集、MySQL、计算机基础、Windows、练习题库、面试](hadoop大数据开发基础实训答案)

小朱朱 小朱朱 发表于2024-04-20 浏览4574 评论0
1. 下列哪种行为符合使用计算机的道德规范() A.利用网络公布他人隐私 B.利用网络歪曲他人私人信息 C.利用网络破坏他人计算机 D.删除自己计算机中不用的软件 正确答案:D 2. 创建用户时,需要赋予新用户( )权限才能使它联上数据库 A.connect B.source C.table D.role 正确答案:A 3. 公司中有多个部门和多名职员,每个职员只能属于一个部门,一个部门可以有多名职员,从部门到职员的联系类型是( ) A.多对多 B.一对一 C.多对

scala

Spark05:【案例】单词计数:Scala代码和Java代码实现以及任务提交的几种方式

?俊码 ?俊码 发表于2024-04-20 浏览4186 评论0
一、单词计数 首先看来一个快速入门案例,单词计数 这个需求就是类似于我们在学习MapReduce的时候写的案例 需求这样的:读取文件中的所有内容,计算每个单词出现的次数 这个需求就没什么好分析的了,咱们之前在学习MapReduce的已经分析过了,接下来就来看一下使用Spark需要如何实现。 注意:由于Spark支持Java、Scala这些语言,目前在企业中大部分公司都是使用Scala语言进行开发,个别公司会使用java进行开发,为了加深大家对Spark的理解,也满足java老程序员的需

scala

PySpark集群完全分布式搭建(pyspark 连接集群)

大胜DSCAO 大胜DSCAO 发表于2024-04-20 浏览4228 评论0
PySpark集群完全分布式搭建 本文的目的是使读者对spark的安装流程有一个清晰的认识,并且能根据本文的内容搭建一个属于自己的完全分布式Spark集群,并在此基础上增加pyspark的分布式环境。 阅读本文前,有几个点需要注意: 本文假设读者有Hadoop的搭建基础,并且成功搭建了完全分布式的Hadoop集群,因此本文不会对该方面的知识进行铺垫。 本文假设读者有在Linux上安装anaconda或者minconda的基础,并且成功的在每一个节点上的相同路径下配置好了相