×
>>
视频信息:不能播放?点击修复
  • 01、Scala解释器本地安装
  • 02、IDEA安装
  • 03、安装IDEA的Scala插件
  • 04、创建maven项目
  • 05、关于IDEA中maven仓库的配置
  • 06、安装ScalaSDK、创建类
  • 07、Scala简介
  • 08、Scala编译
  • 09、注释、命名规范
  • 10、变量的声明
  • 11、多变量的定义
  • 12、数据类型
  • 13、表达式
  • 14、关于变量的扩展内容
  • 15、Scala的输入和输出
  • 16、循环
  • 17、关于循环的扩展:map、foreach
  • 18、声明方法
  • 19、声明函数、方法和函数的转换
  • 20、回顾
  • 21、集合简介
  • 22、数组-定长数组和变长数组
  • 23、Map-不可变和可变Map
  • 24、元组
  • 25、zip拉链
  • 26、List列表
  • 27、Set集合
  • 28、lazy修饰符
  • 29、集合练习
  • 30、实现单词计数
  • 31、实现单词计数
  • 32、常用方法练习:flatMap、reduce、fold、aggregate、par
  • 33、默写题
  • 34、回顾
  • 35、oop-类和属性
  • 36、主构造器和辅助构造器
  • 37、单例对象
  • 38、伴生对象
  • 39、apply和unapply方法
  • 40、特质、继承、实现
  • 41、模式匹配-String、数组、元组、集合
  • 42、模式匹配-匹配类型
  • 43、模式匹配-样例类
  • 44、Option类型结合模式匹配
  • 45、模式匹配-偏函数
  • 46、scala的输入输出
  • 47、高阶函数-作为值的函数
  • 48、闭包
  • 49、回顾
  • 50、private关键字
  • 51、柯里化介绍和练习
  • 52、隐式转换函数
  • 53、Scala泛型的定义
  • 54、泛型demo
  • 55、泛型-上界
  • 56、泛型-视界
  • 57、泛型-上下文界定
  • 58、创建线程池-固定线程数量和可复用线程的线程池
  • 59、创建有返回值的线程:Future
  • 60、回顾
  • 61、Netty的几个重要的组件
  • 62、实现Server
  • 63、实现ServerHandler
  • 64、实现Client
  • 65、实现ClientHandler
  • 66、本地测试运行
  • 67、Akka简介
  • 68、用Akka实现通信Demo
  • 69、用Akka实现WordCount
  • 70、Scala回顾
  • 71、大数据架构体系介绍
  • 72、Spark的特性和优点
  • 73、官网介绍
  • 74、Spark集群安装、启动
  • 75、Spark的几个重要的组件
  • 76、关于Hadoop客户端
  • 77、提交任务到Spark集群
  • 78、Spark-Shell启动(local模式和集群模式)
  • 79、Spark实现WordCount
  • 80、Spark实现WordCount
  • 81、打包并提交作业到集群
  • 82、用Java api实现WordCount
  • 83、Java Lambda表达式实现WordCount
  • 84、关于IDEA调试
  • 85、RDD的概念
  • 86、回顾
  • 87、RDD的概念增强
  • 88、生成RDD的两种方式
  • 89、RDD的两种算子:transformation和action
  • 90、简单算子练习
  • 91、groupByKey和reduceByKey的区别
  • 92、算子进阶-map、mapPartitions、mapPartitionsWithIndex
  • 93、算子进阶-重分区算子
  • 94、算子进阶-aggregate
  • 95、算子进阶-aggregate
  • 96、算子进阶-aggregateByKey
  • 97、算子进阶-combineByKey
  • 98、算子进阶-Action算子、foreach和foreachPartition
  • 99、算子进阶-其他算子
  • 100、pvuv
  • 101、textFile分区过程
  • 102、统计广告点击量top3需求分析
  • 103、统计广告点击量top3需求实现
  • 104、统计各省各小时的广告点击量的top3
  • 105、基站停留时间top2需求分析
  • 106、基站停留时间top2需求实现
  • 107、RDD对象的传递和序列化
  • 108、RDD的宽依赖和窄依赖
  • 109、DAG概念
  • 110、回顾
  • 111、DAG、Application、Job、Stage、Task
  • 112、Stage划分过程
  • 113、任务管理器中Stage划分过程
  • 114、task的生成过程
  • 115、RDD分多个类型
  • 116、shuffle、shuffle write、shuffle read
  • 117、血统
  • 118、学科模块访问量top3需求分析
  • 119、学科模块访问量top3需求实现
  • 120、缓存和缓存级别
  • 121、缓存案例的练习
  • 122、checkpoint
  • 123、集群启动流程
  • 124、任务提交流程
  • 125、回顾
  • 126、今天的知识点
  • 127、自定义排序1
  • 128、自定义排序2
  • 130、自定义排序3
  • 131、自定义排序4
  • 132、自定义排序5
  • 133、Spark的分区器
  • 134、自定义分区器
  • 135、回顾
  • 136、今天课程内容
  • 137、Accumulator累加器的应用场景和简单使用
  • 138、LongAccumulator、DoubleAccumulator累加器的使用
  • 139、自定义Accumulator累计器实现聚合过程
  • 140、自定义Accumulator实现单词计数
  • 141、总结Accumulator的应用场景和使用步骤
  • 142、广播变量的应用场景
  • 143、广播变量的使用过程
  • 144、广播变量总结
  • 145、文件的输入输出
  • 146、IP所属区域访问量需求分析
  • 147、IP所属区域访问量需求实现
  • 148、IP所属区域访问量需求实现
  • 149、JdbcRDD
  • 150、Spark作业提交的4个阶段
  • 151、回顾
  • 152、SparkSQL简介
  • 153、DataFrame概念
  • 154、DataSet概念和DataFrame的区别
  • 155、SparkShell操作SparkSQL
  • 156、初始化环境创建的几种方式
  • 157、RDD转换为DataFarme的过程
  • 158、通过反射的方式生成Schema的过程
  • 159、通过StructType的方式生成Schema
  • 160、RDD转换为DataSet及RDD、DataFrame、DataSet互相转换
  • 161、用DSL语言风格操作
  • 162、用DSL语言风格实现小需求
  • 163、用SQL语言风格进行操作
  • 164、创建临时表和全局表的区别和作用域
  • 165、自定义函数-实现UDF
  • 166、自定义函数-实现UDAF(弱类型)
  • 167、回顾
  • 168、实现UDAF-强类型
  • 169、开窗函数练习
  • 170、集成外部Hive
  • 171、用代码操作Hive
  • 172、用代码链接元数据库进行操作
  • 173、输入输出api
  • 174、jdbc-获取数据
  • 175、jdbc-写入数据
  • 176、Kafka简介
  • 177、Kafka的应用场景
  • 178、JMS规范
  • 179、Kafka主要组件介绍
  • 180、Kafka集群配置和启动
  • 181、回顾
  • 182、kafka常用命令
  • 183、kafka常用命令
  • 184、kafka的存储
  • 185、如何消费已经消费过的数据
  • 186、kafka分区和消费者的关系和isr同步机制
  • 187、kafka设置生存周期和动态选举
  • 188、kafkaapi练习-实现producer
  • 189、kafkaapi练习-实现consumer
  • 190、本地测试
  • 191、Streaming简介
  • 192、DStream的概念
  • 193、DStream的概念补充和transformations、outputoperations
  • 194、StreamingWordCount
  • 195、回顾kafka
  • 196、回顾Streaming
  • 197、补充Kafka的同步flush过程
  • 198、updateStateByKey实现批次累加功能
  • 199、消费kafka数据
  • 200、消费kafka数据
  • 201、transform的使用
  • 202、窗口操作的应用背景和概念
  • 203、窗口操作的使用
  • 204、回顾
  • 205、streaming消费kafka的两种方式
  • 206、直连方式怎么维护offset
  • 207、streaming清洗数据案例实现过程
  • 208、生产环境中存在问题分析
  • 209、streaming消费数据的语义(保证数据一致性)
  • 210、Spark-On-Yarn的应用场景
  • 211、Cluster模式和Client模式的区别
  • 212、提交应用程序到Yarn
  • 213、总结Spark-On-Yarn的执行过程
  • 214、总结Driver端初始化过程的内容
  • 215、解压导入工程
  • 216、观察脚本的调用过程
  • 217、集群启动流程-Master服务启动过程
  • 218、集群启动流程-Worker服务启动过程
  • 219、回顾
  • 220、SparkSubmit执行过程
  • 221、SparkContext初始化主要过程
  • 222、后端调度器创建了两个endpoint
  • 223、总结SparkContext和后端调度器创建了两个endpoint
  • 224、时序图表示SparkContext初始化过程
  • 225、Driver向Master发送(注册)任务描述过程、Master生成任务信息过程
  • 226、资源调度的方式
  • 227、Master通知Worker启动Executor的过程
  • 228、Executor向Driver进行反向注册过程
  • 229、RDD的生成过程
  • 230、stage划分并生成TaskSet的过程
  • 231、TaskScheduler的任务调度过程以及将task发送给Execuotr的过程
  • 232、Executor开始执行task-ShuffleMapTask、ResultTask
  • 233、总结任务提交流程
  • 234、回顾
  • 235、触发shuffle的算子
  • 236、spark shuffle过程
  • 237、shuffle参数调优
  • 238、关于spark优化总结
  • 239、Spark基础阶段总结
  • 240、Redis介绍
  • 241、Redis的应用场景
  • 242、Redis安装和启动
  • 243、Redis的客户端
  • 244、数据结构-string
  • 245、回顾
  • 246、数据结构-hash
  • 247、数据机构-list
  • 248、数据结构-set
  • 249、jedis-string
  • 250、jedis-hash
  • 251、jedis-list
  • 252、jedis-set
  • 253、keys命令,数据的生命周期
  • 254、两种持久化机制
  • 255、主从复制
  • 256、集群搭建
  • 257、ES介绍
  • 258、ES集群搭建和启动介绍
  • 259、ik分词器配置过程
  • 260、ES的检索
  • 261、关于ES优化的重点
  • 262、日志生成过程
  • 263、项目技术架构介绍
  • 264、数据对接
  • 265、需求描述
  • 266、esRDD
  • 267、其他指标
  • 猜你喜欢
  • 视频介绍
  • 分集列表
  • 视频下载