xml地图|网站地图|网站标签 [设为首页] [加入收藏]

其中的文件或者文件夹已在另一个程序中打开,

必威 1

第5章:SparkCore源码剖析
任务156: 如何去找源代码
任务157: 如何关联源码
任务158: Master启动流程
任务159: Master和Worker的启动流程
任务160: Sparak-submit提交流程
任务161: SparkContext初始化
任务162: 创建TaskScheduler
任务163: DAGScheduelr初始化
任务164: TaskSchedulerImp启动
任务165: Master资源调度算法
任务166: TaskSchedulerImlUML图
任务167: Executor注册
任务168: Executor的启动UML图
任务169: Spark任务提交
任务170: Task任务运行
任务171: Spark任务提交详细流程
任务172: Spark任务提交流程画图总结
任务173: BlockManager深入剖析
任务174: CacheManager深入剖析

任务关卡

爆炒江湖任务大全

任务1-5

任务6-10

任务11-15

任务16-20

任务21

任务22

任务23

任务24

任务25

任务26

任务27

任务28

任务29

任务30

任务31

任务32

任务33

任务34

任务35

任务36

任务37

任务38

任务39

任务40

任务41

任务42

任务43

任务44

任务45

任务46

任务47

任务48

任务49

任务50

任务51

任务52

任务53

任务54

任务55

任务56

任务57

任务58

任务59

任务60

任务61

任务62

任务63

任务64

任务65

任务66

任务67

任务68

任务69

任务70

任务71

任务72

任务73

任务74

任务75

任务76

任务77

任务78

任务79

任务80

任务81

任务82

任务83

任务84

任务85

任务86

任务87

任务88

任务89

任务90

任务91

任务161: SparkContext初始化

3.搜索任务,结束任务(可能会死机)

第3章:Spark调优
任务112: 避免创建重复的RDD
任务113: 尽可能复用同一个RDD
任务114: 对多次使用的RDD进行持久化
任务115: 尽量避免使用shuffle类算子
任务116: 使用map-side预聚合的shuffle操作
任务117: 使用高性能的算子
任务118: 广播大变量
任务119: 使用Kryo优化序列化性能
任务120: 优化数据结构
任务121: 数据本地化
任务122: 数据倾斜的原理和如何定位数据倾斜
任务123: 使用Hive ETL预处理数据
任务124: 过滤少数导致倾斜的key
任务125: 提高shuffle操作的并行度
任务126: 两阶段聚合(局部聚合+全局聚合)
任务127: 将reduce join转为map join
任务128: 采样倾斜key并分拆join操作
任务129: 使用随机前缀和扩容RDD进行join
任务130: 综合运用各种解决方案
任务131: 各种shuffle版本
任务132: Shuffle调优
任务133: Spark资源调优
任务134: Spark一点五版本内存模型
任务135: Spark二的内存模型
任务136: Whole-stageCodeGeneration

必威 2

任务215: SocketStreaming案例演示

  1. 右键点击任务管理器

第7章:kafka
任务197: 为什么会有kafka出现
任务198: kafka的核心概念
任务199: kafka核心概念再次梳理
任务200: 对各种语言的介绍
任务201: 消息系统的好处
任务202: 消息系统的分类和(pull,push)的区别
任务203: kafka集群的架构
任务204: kafka集群的搭建
任务205: 集群测试演示
任务206: kafka数据的HA
任务207: kafka的设计
任务208: kafak代码测试
任务209: 作业
任务210: kafka的offset

立即下载

任务128: 采样倾斜key并分拆join操作

 

第10章:streaming源码
任务235: 1SparkStreaming源码导读前言
任务236: SparkStreaming运行原理
任务237: SparkStreaming通信模型原理
任务238: StremaingContext的初始化
任务239: Receiver启动流程导读
任务240: Receiver启动流程UML总结
任务241: Block生成原理解析
任务242: Block生成和存储原理剖析
任务243: 责任链模式
任务244: BlockRDD生成和Job任务提交
任务245: BlockRDD生成和Job任务提交总结

标签: 动漫 养成 3D 模拟

任务278: 需求二城市信息表和商品信息表join

2.打开资源监视器

全面深度剖析Spark2--知识点,源码,调优,JVM,图计算,项目 

必威 3 爆炒江湖 安卓版v1.1

深入浅出Spark机器学习实战(用户行为分析)

必威 4

第14章:DMP用户画像系统
任务293: 项目背景
任务294: DSP流程
任务295: 项目流程说明
任务296: Utils工具类开发
任务297: 需求一功能开发
任务298: 打包把代码提交到集群运行
任务299: 需求二说明
任务300: 报表需求说明
任务301: 统计各省市数据量分布
任务302: 定义字表统计函数
任务303: 省份城市报表统计
任务304: App报表统计
任务305: 用户画像需求
任务306: 打标签
任务307: 合并上下文标签
任务308: 上下文标签测试运行
任务309: 我们为什么需要图计算
任务310: 图的基本概念
任务311: 简单案例演示
任务312: 合并上下文标签的思路
任务313: 简单案例演示说明
任务314: 继续梳理思路
任务315: 生成用户关系表
任务316: 合并标签

爆炒江湖是一款中餐厅美食游戏,游戏中的厨师要进行各个美食的做法,想要制作美味的食物就要获得食材,听说只要解决了爆炒江湖所有任务,就可以获得新鲜的食材,快去解锁吧!

任务178: Spark的版本说明

第1章:Scala
任务1: java和scala对比
任务2: 为什么学习scala
任务3: Scala编译器安装
任务4: 第一个scala程序编写
任务5: Scala工具安装
任务6: 使用IDEA编程
任务7: idea打jar包
任务8: 变量的声明
任务9: Scala数据类型
任务10: if表达式
任务11: 代码块
任务12: 循环-while
任务13: 循环-for
任务14: Scala操作符
任务15: 方法的定义
任务16: 定义函数
任务17: 装饰设计
任务18: Java去解释函数式编程
任务19: 知识回顾
任务20: 定长数组和边长数组
任务21: 数组的转换和遍历
任务22: 数组常用的算法
任务23: Map集合
任务24: 元组操作
任务25: List集合操作
任务26: Scala实现单词计数
任务27: Set集合操作
任务28: lazy特性
任务29: Scala课程说明
任务30: 类的定义
任务31: 查看定的class文件
任务32: 主构造函数和辅助构造函数
任务33: 早上知识回顾
任务34: 对象
任务35: apply方法
任务36: Trait(特质)
任务37: 扩展应用程序
任务38: 继承
任务39: 抽象类
任务40: 模式匹配
任务41: Scala字符串打印
任务42: 样例类
任务43: Option(Some,None)
任务44: 偏函数
任务45: 闭包
任务46: curring
任务47: 隐士参数
任务48: 隐士转换
任务49: 隐士转换时机2案例演示
任务50: 隐士转换案例1
任务51: 隐士转换案例2
任务52: 上下界
任务53: 上界
任务54: 下界案例
任务55: 视图边界
任务56: 协变
任务57: 逆变
任务58: 知识总结
任务59: Socket作业
任务60: 作业需求分析
任务61: 作业代码实现
任务62: 关于Actor知识说明
任务63: Actor基本概念解释
任务64: Actor案例演示
任务65: 案例二需求分析
任务66: 案例代码演示(上)
任务67: 案例代码演示(下)

任务类型

必威 5

1.经营

在《爆炒江湖》中,最主要的主线任务就是需要“经营”饭店,需要玩家制作某道菜,几个品级的菜,或者是使用某种技能炒菜,使用特定的厨师做菜……经营内容丰富多样,帮助玩家进一步提升自己的技能,吸引客人来客栈吃饭。

2探索食材

经营一家饭店,没有食材怎么行?《爆炒江湖》游戏中,也需要玩家去探索食材,这也是主线人任务之一。在自己的“后花园”里,有菜棚、鸡舍、作坊等,在里面玩家可能派出厨师去探索菜品(白菜、西红柿、鸡蛋等),然后用收获的菜品为客人做菜。

3.升级/进化厨师

《爆炒江湖》里的厨师技能丰富,不仅会采集食材、烧菜,在烧菜时还可以和你唠唠嗑,让你在干游戏时不会孤单,提高厨师的技能,就需要给厨师升级和进化,厨师进化到二阶时会获得一个技能,厨师进化到三阶时可以装备一个厨具,这样厨师的做法技法提高,客户的满意度也会提升。

4集市购买

在《爆炒江湖》中,初始集市不解锁,随着主线任务再慢慢解锁,随着客人越来越多,客栈越来越红火,有些食材是需要在集市上去购买的,这时候你就可以用客栈挣得的金币在集市上购买需要的食材,满足客人的需求,同时还能获取更丰富的奖励哦!

以上就是小编给大家介绍的主线任务,感觉都可以通关了,更多爆炒江湖攻略尽在当游网,可以来这里寻找你所需要的游戏和攻略,谢谢关注,思密达~~~

任务8: 变量的声明

第4章:JVM调优
任务137: JVM的架构
任务138: 三大区域是如何配合工作的
任务139: 堆结构
任务140: jdk八内存模型
任务141: 堆内存溢出案例演示
任务142: MA工具简单介绍
任务143: GC日志格式说明
任务144: 堆内存配置演示
任务145: 栈参数配置
任务146: 垃圾回收算法介绍
任务147: stop-the-world
任务148: 垃圾回收算法
任务149: 垃圾回收器简介
任务150: 常见的回收器配置演示
任务151: CMS垃圾回收器
任务152: hadoopJVM调优演示
任务153: 垃圾回收器简介
任务154: 性能监控工具简介
任务155: 大对象直接进入老年代

类型: 模拟经营 | 大小: 44.3 MB

任务280: 需求二把结果持久化导数据库

第6章:SparkSQL
任务175: 关于默认的分区数说明
任务176: SparkCore官方案例演示
任务177: Spark的前世今生
任务178: Spark的版本说明
任务179: 什么是DataFrame
任务180: DataFrame初体验
任务181: RDD转DataFrame方式一
任务182: RDD转换为DataFrame方式二
任务183: RDD VS DataFrame
任务184: SparkSQL数据源之-load
任务185: SparkSQL数据源之-save
任务186: SparkSQL数据源之json和parquet
任务187: SparkSQL数据源之jdbc
任务188: Spark数据源之Hive
任务189: ThriftServer
任务190: SparkSQL案例演示
任务191: SparkSQL与Hive整合
任务192: SparkSQL之UDF
任务193: SparkSQL之UDAF
任务194: SparkSQL之窗口函数
任务195: GoupBy和agg
任务196: 知识总结

任务252: RDD&DataFrame&DataSet

第12章:Spark2VSSpark1
任务251: Spark新特性
任务252: RDD&DataFrame&DataSet
任务253: RDD&DataFrame&DataSet
任务254: SparkSession访问Hive补充说明
任务255: DataFrame和DataSetAPI合并

任务60: 作业需求分析

课程学习地址:
课程出自学途无忧网:

任务18: Java去解释函数式编程

课程共14章,316节,课程从Spark相关的各个技术点进行全方位剖析,最后结合实际项目:用户交互式行为分析系统、DMP用户画像系统,对Spark做了综合性的应用讲解,可以说一套在手,打遍天下无敌手!

基于Python Spark的大数据分析

第8章:SparkStreaming
任务211: 简谈SparkStreaming的未来
任务212: SparkStreaming的运行流程
任务213: DStream画图详解
任务214: 流式计算的流程
任务215: SocketStreaming案例演示
任务216: HDFSDStream案例演示
任务217: UpdateStateBykey案例演示
任务218: transform之黑名单过滤演示
任务219: Window操作案例演示
任务220: transform之黑名单过滤演示补充
任务221: ForeachRDD案例演示
任务222: kafka-sparkStreaming整合演示
任务223: kafka 多线程消费数据
任务224: kafka使用线程池的方式并行消费数据

课程观看地址:

第2章:SparkCore
任务68: 应该如何学习开源技术
任务69: 什么是Spark
任务70: Spark的四大特性
任务71: 4spark快速使用(上)
任务72: Spark快速使用(下)
任务73: 什么是RDD
任务74: 演示什么是RDD
任务75: Spark任务的运行流程
任务76: 9hadoop集群搭建
任务77: Spark集群搭建
任务78: SparkHA集群搭建
任务79: Scala开发Spark程序演示
任务80: java7开发spark程序
任务81: Java8开发spark程序
任务82: IDEA如何打Maven包
任务83: 提交任务到Spark集群
任务84: RDD的创建方式
任务85: 关于Spark脚本的说明
任务86: Transformation和action原理
任务87: 广播变量
任务88: 累加变量
任务89: 共享变量使用演示
任务90: 持久化
任务91: checkpoint
任务92: 关于持久化补充说明
任务93: standalone运行模式
任务94: Spark-on-yarn
任务95: Spark-on-yarn原理说明
任务96: HistoryServer服务配置
任务97: map-flatMap-filter
任务98: sortBykey-reduceBykey
任务99: join-union-cogroup
任务100: intersection-distinct-cartes
任务101: mapPartitions-repartition-coal
任务102: coalesce和repartition区别补充
任务103: aggregateByKey-mapPartitionsWi
任务104: 关于Action算子的说明
任务105: 关于collect算子的说明
任务106: Spark二次排序
任务107: 窄依赖和宽依赖
任务108: 窄依赖和宽依赖例子分析
任务109: 名词解释
任务110: stage划分算法
任务111: Spark任务的调度

任务83: 提交任务到Spark集群

第11章:sparkgraphx
任务246: 图计算引入
任务247: 图计算案例演示
任务248: 图的基本组成
任务249: 图存储
任务250: 找好友案例演示

任务193: SparkSQL之UDAF

第9章:streaming调优
任务225: SparkStreaming的容错性
任务226: SparkStreaming VS Storm
任务227: SparkStremiang和Kafka整合(手动控制偏移量
任务228: SparkStreaming调优之并行度
任务229: SparkStreaming调优之内存
任务230: SparkStreaming调优之序列化
任务231: SparkStreaming调优之JVM&GC
任务232: SparkStreaming调优之个别task运行慢
任务233: SparkStreaming调优之资源不稳定
任务234: SparkStreaming之数据量暴增

任务151: CMS垃圾回收器

第13章:综合项目:用户交互式行为分析系统
任务256: 项目流程介绍
任务257: 项目整体概况
任务258: 大数据项目的数据来源
任务259: 项目背景
任务260: 常见概念
任务261: 项目需求
任务262: 项目整理流程
任务263: 从表的设计引发的思考
任务264: 获取任务参数
任务265: 需求一数据信息
任务266: 需求一根据条件筛选会话
任务267: 需求一举例说明
任务268: 需求一点击下单支付品类TopN(上)
任务269: 需求一点击下单支付品类TopN(下)
必威,任务270: 需求二需求分析
任务271: 需求二数据信息
任务272: 需求二获取用户行为数据
任务273: 需求二用户表和信息表join
任务274: 需求二再次需求分析
任务275: 需求二自定义UDF函数
任务276: 需求二自定义UDAF函数
任务277: 需求二各区域商品点击次数统计
任务278: 需求二城市信息表和商品信息表join
任务279: 需求二各区域热门商品统计
任务280: 需求二把结果持久化导数据库
任务281: 需求二总结
任务282: 需求三需求分析
任务283: 需求三数据信息
任务284: 需求三思路梳理
任务285: 需求三从kafka获取数据
任务286: 需求三对数据进行黑名单过滤
任务287: 需求三动态生成黑名单(上)
任务288: 需求三动态生成黑名单(下)
任务289: 需求三实时统计每天各省份各城市广告点击
任务290: 需求三实时统计各省份流量点击
任务291: 需求三实时统计广告点击趋势
任务292: 需求三总结

任务295: 项目流程说明

任务57: 逆变

DMP用户画像系统(SparkGraphX SparkCore SparkSQL)

任务238: StremaingContext的初始化

任务28: lazy特性

任务112: 避免创建重复的RDD

任务294: DSP流程

课程观看地址:http://www.xuetuwuyou.com/course/220

任务205: 集群测试演示

任务78: SparkHA集群搭建

任务102: coalesce和repartition区别补充

任务52: 上下界

任务1: java和scala对比

任务246: 图计算引入

任务267: 需求一举例说明

任务120: 优化数据结构

任务87: 广播变量

任务190: SparkSQL案例演示

任务255: DataFrame和DataSetAPI合并

任务73: 什么是RDD

任务66: 案例代码演示(上)

任务219: Window操作案例演示

任务59: Socket作业

任务170: Task任务运行

任务187: SparkSQL数据源之jdbc

任务163: DAGScheduelr初始化

任务76: 9hadoop集群搭建

任务181: RDD转DataFrame方式一

任务121: 数据本地化

任务22: 数组常用的算法

任务283: 需求三数据信息

任务6: 使用IDEA编程

任务86: Transformation和action原理

课程观看地址:

任务7: idea打jar包

任务253: RDD&DataFrame&DataSet

任务91: checkpoint

任务297: 需求一功能开发

任务134: Spark一点五版本内存模型

任务218: transform之黑名单过滤演示

任务210: kafka的offset

任务133: Spark资源调优

Spark+Kafka实时流机器学习实战

任务63: Actor基本概念解释

任务108: 窄依赖和宽依赖例子分析

任务140: jdk八内存模型

全面深度剖析Spark2--知识点,源码,调优,JVM,图计算,项目

任务79: Scala开发Spark程序演示

任务101: mapPartitions-repartition-coal

任务260: 常见概念

任务35: apply方法

任务211: 简谈SparkStreaming的未来

任务145: 栈参数配置

任务312: 合并上下文标签的思路

任务54: 下界案例

任务111: Spark任务的调度

任务232: SparkStreaming调优之个别task运行慢

任务174: CacheManager深入剖析

任务201: 消息系统的好处

第9章:streaming调优

任务116: 使用map-side预聚合的shuffle操作

任务31: 查看定的class文件

任务309: 我们为什么需要图计算

任务20: 定长数组和边长数组

任务272: 需求二获取用户行为数据

任务249: 图存储

任务157: 如何关联源码

第10章:streaming源码

任务55: 视图边界

任务293: 项目背景

任务68: 应该如何学习开源技术

任务143: GC日志格式说明

任务286: 需求三对数据进行黑名单过滤

任务166: TaskSchedulerImlUML图

任务273: 需求二用户表和信息表join

任务256: 项目流程介绍

第5章:SparkCore源码剖析

任务103: aggregateByKey-mapPartitionsWi

任务122: 数据倾斜的原理和如何定位数据倾斜

任务227: SparkStremiang和Kafka整合(手动控制偏移量

任务308: 上下文标签测试运行

任务217: UpdateStateBykey案例演示

任务82: IDEA如何打Maven包

任务162: 创建TaskScheduler

任务92: 关于持久化补充说明

任务51: 隐士转换案例2

任务314: 继续梳理思路

课程出自学途无忧网:

任务271: 需求二数据信息

任务279: 需求二各区域热门商品统计

任务118: 广播大变量

学途无忧网Spark课程汇总:

任务200: 对各种语言的介绍

任务310: 图的基本概念

任务292: 需求三总结

任务233: SparkStreaming调优之资源不稳定

任务269: 需求一点击下单支付品类TopN(下)

任务155: 大对象直接进入老年代

任务53: 上界

第12章:Spark2VSSpark1

任务131: 各种shuffle版本

任务247: 图计算案例演示

任务33: 早上知识回顾

任务49: 隐士转换时机2案例演示

任务23: Map集合

任务123: 使用Hive ETL预处理数据

任务42: 样例类

任务71: 4spark快速使用(上)

任务270: 需求二需求分析

任务41: Scala字符串打印

任务115: 尽量避免使用shuffle类算子

任务153: 垃圾回收器简介

任务274: 需求二再次需求分析

任务126: 两阶段聚合(局部聚合+全局聚合)

任务311: 简单案例演示

任务207: kafka的设计

任务306: 打标签

任务245: BlockRDD生成和Job任务提交总结

任务10: if表达式

任务184: SparkSQL数据源之-load

第11章:sparkgraphx

任务127: 将reduce join转为map join

任务316: 合并标签

任务158: Master启动流程

任务3: Scala编译器安装

任务110: stage划分算法

任务220: transform之黑名单过滤演示补充

任务186: SparkSQL数据源之json和parquet

任务47: 隐士参数

任务125: 提高shuffle操作的并行度

任务64: Actor案例演示

任务26: Scala实现单词计数

任务100: intersection-distinct-cartes

任务106: Spark二次排序

任务303: 省份城市报表统计

任务84: RDD的创建方式

任务264: 获取任务参数

任务315: 生成用户关系表

任务147: stop-the-world

任务224: kafka使用线程池的方式并行消费数据

任务74: 演示什么是RDD

任务67: 案例代码演示(下)

任务237: SparkStreaming通信模型原理

任务132: Shuffle调优

任务114: 对多次使用的RDD进行持久化

任务221: ForeachRDD案例演示

任务235: 1SparkStreaming源码导读前言

任务99: join-union-cogroup

任务50: 隐士转换案例1

任务11: 代码块

课程观看地址:

任务189: ThriftServer

任务38: 继承

任务164: TaskSchedulerImp启动

任务107: 窄依赖和宽依赖

任务17: 装饰设计

任务216: HDFSDStream案例演示

任务80: java7开发spark程序

任务173: BlockManager深入剖析

任务40: 模式匹配

任务239: Receiver启动流程导读

任务248: 图的基本组成

第6章:SparkSQL

任务24: 元组操作

任务300: 报表需求说明

任务185: SparkSQL数据源之-save

任务257: 项目整体概况

任务240: Receiver启动流程UML总结

任务302: 定义字表统计函数

讲师:西瓜老师

任务225: SparkStreaming的容错性

任务39: 抽象类

任务175: 关于默认的分区数说明

任务29: Scala课程说明

任务124: 过滤少数导致倾斜的key

任务282: 需求三需求分析

第8章:SparkStreaming

任务48: 隐士转换

任务231: SparkStreaming调优之JVM&GC

任务97: map-flatMap-filter

第2章:SparkCore

任务230: SparkStreaming调优之序列化

任务96: HistoryServer服务配置

任务144: 堆内存配置演示

任务199: kafka核心概念再次梳理

任务268: 需求一点击下单支付品类TopN(上)

任务177: Spark的前世今生

任务285: 需求三从kafka获取数据

第7章:kafka

任务168: Executor的启动UML图

任务117: 使用高性能的算子

任务94: Spark-on-yarn

任务113: 尽可能复用同一个RDD

任务287: 需求三动态生成黑名单(上)

任务19: 知识回顾

任务258: 大数据项目的数据来源

任务179: 什么是DataFrame

任务65: 案例二需求分析

任务191: SparkSQL与Hive整合

任务195: GoupBy和agg

课程观看地址:

任务4: 第一个scala程序编写

课程观看地址:

任务298: 打包把代码提交到集群运行

任务98: sortBykey-reduceBykey

任务14: Scala操作符

课程观看地址:

任务254: SparkSession访问Hive补充说明

任务61: 作业代码实现

任务196: 知识总结

任务165: Master资源调度算法

任务75: Spark任务的运行流程

任务209: 作业

任务15: 方法的定义

任务69: 什么是Spark

任务137: JVM的架构

任务32: 主构造函数和辅助构造函数

任务142: MA工具简单介绍

任务148: 垃圾回收算法

任务180: DataFrame初体验

任务226: SparkStreaming VS Storm

任务9: Scala数据类型

任务203: kafka集群的架构

任务169: Spark任务提交

任务141: 堆内存溢出案例演示

任务154: 性能监控工具简介

任务89: 共享变量使用演示

任务198: kafka的核心概念

任务12: 循环-while

任务88: 累加变量

任务149: 垃圾回收器简介

任务171: Spark任务提交详细流程

任务167: Executor注册

任务307: 合并上下文标签

任务183: RDD VS DataFrame

任务192: SparkSQL之UDF

任务146: 垃圾回收算法介绍

任务288: 需求三动态生成黑名单(下)

第3章:Spark调优

任务16: 定义函数

任务236: SparkStreaming运行原理

任务152: hadoopJVM调优演示

任务284: 需求三思路梳理

任务204: kafka集群的搭建

任务213: DStream画图详解

任务5: Scala工具安装

任务72: Spark快速使用(下)

任务27: Set集合操作

任务277: 需求二各区域商品点击次数统计

任务21: 数组的转换和遍历

任务30: 类的定义

任务46: curring

任务139: 堆结构

任务95: Spark-on-yarn原理说明

任务37: 扩展应用程序

任务13: 循环-for

任务242: Block生成和存储原理剖析

任务281: 需求二总结

任务25: List集合操作

任务70: Spark的四大特性

任务45: 闭包

第4章:JVM调优

Spark从入门到上手实战

任务212: SparkStreaming的运行流程

任务77: Spark集群搭建

任务276: 需求二自定义UDAF函数

任务43: Option(Some,None)

任务160: Sparak-submit提交流程

任务130: 综合运用各种解决方案

任务296: Utils工具类开发

任务223: kafka 多线程消费数据

任务58: 知识总结

任务229: SparkStreaming调优之内存

任务34: 对象

任务135: Spark二的内存模型

任务104: 关于Action算子的说明

任务261: 项目需求

课程观看地址:

任务243: 责任链模式

任务214: 流式计算的流程

任务2: 为什么学习scala

任务206: kafka数据的HA

全面深度剖析Spark2--知识点,源码,调优,JVM,图计算,项目

任务188: Spark数据源之Hive

任务81: Java8开发spark程序

任务289: 需求三实时统计每天各省份各城市广告点击

第14章:DMP用户画像系统

任务244: BlockRDD生成和Job任务提交

任务304: App报表统计

任务197: 为什么会有kafka出现

第13章:综合项目:用户交互式行为分析系统

任务202: 消息系统的分类和(pull,push)的区别

任务208: kafak代码测试

任务228: SparkStreaming调优之并行度

第1章:Scala

任务259: 项目背景

Spark全面精讲(基于Spark2版本+含Spark调优+超多案例)

任务136: Whole-stageCodeGeneration

任务172: Spark任务提交流程画图总结

任务313: 简单案例演示说明

任务36: Trait(特质)

任务56: 协变

任务251: Spark新特性

任务275: 需求二自定义UDF函数

任务299: 需求二说明

任务105: 关于collect算子的说明

任务138: 三大区域是如何配合工作的

任务176: SparkCore官方案例演示

任务291: 需求三实时统计广告点击趋势

任务263: 从表的设计引发的思考

任务129: 使用随机前缀和扩容RDD进行join

任务182: RDD转换为DataFrame方式二

任务234: SparkStreaming之数据量暴增

任务194: SparkSQL之窗口函数

任务241: Block生成原理解析

任务222: kafka-sparkStreaming整合演示

任务109: 名词解释

任务90: 持久化

课程共14章,316节,课程从Spark相关的各个技术点进行全方位剖析,最后结合实际项目:用户交互式行为分析系统、DMP用户画像系统,对Spark做了综合性的应用讲解,可以说一套在手,打遍天下无敌手!

任务156: 如何去找源代码

任务250: 找好友案例演示

任务301: 统计各省市数据量分布

任务265: 需求一数据信息

任务93: standalone运行模式

任务262: 项目整理流程

任务305: 用户画像需求

任务290: 需求三实时统计各省份流量点击

任务119: 使用Kryo优化序列化性能

任务150: 常见的回收器配置演示

任务62: 关于Actor知识说明

任务44: 偏函数

任务159: Master和Worker的启动流程

任务266: 需求一根据条件筛选会话

任务85: 关于Spark脚本的说明

本文由必威发布于操作系统,转载请注明出处:其中的文件或者文件夹已在另一个程序中打开,