手机访问

手机扫一扫

|投诉/建议
400-888-4846

全国统一学习专线 8:30-21:00

北京大数据开发培训价格

北京大数据开发培训价格

上课方式:直播,面授
班级类型:小班
上课时段:白天班,晚班
价       格:¥询价

北京大数据开发培训价格课程详情

学习大数据首先要了解它的培训课程,只有了解了大数据培训课程,学习起来才会得心应手,为了更好的学习大数据,先来学习培训课程吧。

大数据给大多数人的感觉是,专业性强,操作繁琐,完全属于“高大上”的技术。好奇的人或许只会通过网络搜索了解了一些甚至都谈不上皮毛的东西连概念都说不上来,而有一些人则看到了大数据带来的机遇,想通过专业的培训来学习大数据,投身大数据行业让大数据为自己所用为自己带来利益和价值。

大数据介绍

“大数据”(Big Data)指一般的软件工具难以捕捉、管理和分析的大容量数据。“大数据”之“大”,并不仅仅在于“容量之大”,更大的意义在于:**对海量数据的交换、整合和分析,发现新的知识,创造新的价值,带来“大知识”、“大科技”、“大利润”和“大发展”。

大数据技术的战略意义不在于掌握庞大的数据信息,而在于对这些含有意义的数据进行专业化处理。换而言之,如果把大数据比作一种产业,那么这种产业实现盈利的关键,在于提高对数据的“加工能力”,**“加工”实现数据的“增值”。

课程介绍

Spark生态体系 01Spark简介 - 什么是Spark - Spark大数据处理框架 - Spark的特点与应用场景 - Spark SQL原理和实践 - Spark Streaming原理和实践 - GraphX SparkR入门 - Spark的监控和调优 02Spark部署和运行 - 部署准备与下* - Spark生态和安装部署 - Local YARN模式部署 - Local模式运行 - Spark Standalone HA安装 - YARN模式运行Spark - Spark应用程序部署工具spark-submit 03Spark程序开发 - 启动Spark Shell - 加载text文件 - RDD操作及其应用 - RDD缓存 - 构建Eclipse开发环境 - 构建IntelliJ IDEA开发环境 - 创建SparkContext对象 - 编写编译并提交应用程序 04Spark编程模型 - RDD特征与依赖 - 集合(数组)创建RDD - 存储创建RDD - RDD转换 执行 控制操作 - 广播变量 - 累加器 05作业执行解析 - Spark组件 - RDD视图与DAG图 - 基于Standalone模式的Spark架构 - 基于YARN模式的Spark架构 - 作业事件流和调度分析 - 构建应用程序运行时环境 - 应用程序转换成DAG 06Spark SQL与DataFrame - Spark SQL架构特性 - DataFrame和RDD的区别 - 创建操作DataFrame - RDD转化为DataFrame - 加载保存操作与Hive表 - Parquet文件JSON数据集 - 分布式的SQL Engine - 性能调优 数据类型 07深入Spark Streaming - Spark Streaming工作原理 - DStream编程模型 - Input DStream - DStream转换 状态 输出 - 优化运行时间及内存使用 - 文件输入源 - 基于Receiver的输入源 - 输出操作 08Spark MLlib与机器学习 - 机器学习分类级算法 - Spark MLlib库 - MLlib数据类型 - MLlib的算法库与实例 - ML库主要概念 - 算法库与实例 09GraphX与SparkR - Spark GraphX架构 - GraphX编程与常用图算法 - GraphX应用场景 - SparkR的工作原理 - R语言与其他语言的通信 - SparkR的运行与应用 - R的DataFrame操作方法 - SparkR的DataFrame 10spark项目实战 - 大数据分析系统 - 系统资源分析平台 - 在Spark上训练LR模型 - 获取二级邻居关系图 11scala编程 - scala编程介绍 - Scala基本语法 - Scala开发环境搭建 - Scala开发Spark应用程序 12Python编程 - Python编程介绍 - Python的基本语法 - Python开发环境搭建 - Pyhton开发Spark应用程序 Hadoop生态体系 01Hadoop起源与安装 - 大数据概论 - Google与Hadoop模块 - Hadoop生态系统 - Hadoop常用项目介绍 - Hadoop环境安装配置 - Hadoop安装模式 - Hadoop配置文件 02MapReduce**入门 - WordCount准备开发环境 - MapReduce编程接口体系结构 - MapReduce通信** - 导入Hadoop的JAR文件 - MapReduce代码的实现 - 打包、部署和运行 - 打包成JAR文件 03Hadoop分布式文件系统 - 认识HDFS及其HDFS架构 - Hadoop的RPC机制 - HDFS的HA机制 - HDFS的Federation机制 - Hadoop文件系统的访问 - JavaAPI接口与维护HDFS - HDFS权限管理 04Hadoop文件I/O详解 - Hadoop文件的数据结构 - HDFS数据完整性 - 文件序列化 - Hadoop的Writable类型 - Hadoop支持的压缩格式 - Hadoop中编码器和解码器 - gzip、LZO和Snappy比较 05MapReduce工作原理 - MapReduce函数式编程概念 - MapReduce框架结构 - MapReduce运行原理 - Shuffle阶段和Sort阶段 - 任务的执行与作业调度器 - 自定义Hadoop调度器 - YARN架构及其工作流程 06MapReduce编程开发 - WordCount案例分析 - 输入格式与输出格式 - 压缩格式与MapReduce优化 - 辅助类与Streaming接口 - MapReduce二次排序 - MapReduce中的Join算法 - 从MySQL读写数据 - Hadoop系统调优 07Hive数据仓库工具 - Hive工作原理、类型及特点 - Hive操作及Hive复合类型 - Hive的JOIN详解 - Hive优化策略 - Hive内置操作符与函数 - Hive用户自定义函数接口 - Hive的权限控制 08开源数据库HBase - HBase的特点 - HBase访问接口 - HBase存储结构与格式 - HBase设计 - 关键算法和流程 - HBase的Shell操作 - HBase客户端 09Sqoop与Oozie - 安装部署Sqoop - Sqoop数据迁移 - Sqoop使用案例 - Oozie简介 - Oozie与Hive - Azkaban工作流

第1阶段、Linux&&Hadoop生态体系 课程名称 重点内容 目标 一、Linux大纲 1) 第四层负载均衡

2) 了解机架服务器,采用真实机架服务器部署linux

3) Linux的常用命令:常用命令的介绍、常用命令的使用和练习;

4) Linux系统进程管理基本原理及相关管理工具如ps、pkill、top、htop等的使用;

5) Linux启动流程,运行级别详解,chkconfig详解;

6) VI、VIM编辑器:VI、VIM编辑器的介绍、VI、VIM扥使用和常用快捷键;

7) Linux用户和组账户管理:用户的管理、组管理;

8) Linux磁盘管理,lvm逻辑卷,nfs详解;

9) Linux系统文件权限管理:文件权限介绍、文件权限的操作;

10) Linux的RPM软件包管理:RPM包的介绍、RPM安装、卸载等操作;

11) yum命令,yum源搭建;

12) Linux网络:Linux网络的介绍、Linux网络的配置和维护;

13) Shell编程:Shell的介绍、Shell脚本的编写;

14) Linux上常见软件的安装:安装JDK、安装Tomcat、安装mysql,web项目部署;

这章是基础课程,帮大家进入大数据领域打好Linux基础,以便更好地学习Hadoop,hbase,NoSQL,Spark,Storm,docker,kvm,openstack等众多课程。因为企业中无一例外的是使用Linux来搭建或部署项目。 二、大型网站高并发处理 1) 第四层负载均衡

a) Lvs负载均衡

i. 负载算法,NAT模式,直接路由模式(DR),隧道模式(TUN)

b) F5负载均衡器介绍

2) 第七层负载均衡

a) Nginx

b) Apache

3) Tomcat、jvm优化提高并发量

4) 缓存优化

a) Java缓存框架

i. Oscache,ehcache

b) 缓存数据库

i. Redis,Memcached

5) Lvs nginx tomcat redis|memcache构建二层负载均衡千万并发处理

6) Haproxy

7) Fastdfs小文件独立存储管理

8) Redis缓存系统

a) Redis基本使用

b) Redis sentinel高可用

c) Redis好友推荐算法

本章的学习大家将会了解大数据的源头,数据从何而来,继而更好的了解大数据。并且经过学习何果处理大型网站高并发问题反向更深入的学习了Linux,同时站在了更高的角度去触探了架构。 三、Lucene课程 1) Lucene介绍

2) Lucene 倒排索引原理

3) 建索引 IndexWriter

4) 搜索 IndexSearcher

5) Query

6) Sort和 过滤 (filter)

7) 索引优化和高亮

在大数据里面文本数据的搜索是很重要的一块,特别是里面的分词技术,是后面机器学习里面文本挖掘的基石,我们需要深入学习java领域里面的搜索核心技术lucene,同时也可以了解到百度 google这样的搜索系统是怎么架构实现的。 四、Solr课程 1) 什么是solr

2) 为什么工程中要使用solr

3) Solr的原理

4) 如何在tomcat中运行solr

5) 如何利用solr进行索引与搜索

6) solr的各种查询

7) solr的Filter

8) solr的排序

9) solr的高亮

10) solr的某个域统计

11) solr的范围统计

12) solrcloud集群搭建

接着前面lucene技术搜索,如果把lucene技术比如为发动机,那solr就是一两成型的汽车了。学习完solr可以帮助你在企业里面**的架构搜索系统。首先Solr是基于Lucene做的,Lucene是一套信息检索工具包,但并不包含搜索引擎系统,它包含了索引结构、读写索引工具、相关性工具、排序等功能,因此在使用Lucene时你仍需要关注搜索引擎系统,例如数据获取、解析、分词等方面的东西。而Solr的目标是打造一款企业级的搜索引擎系统,因此它更接近于我们认识到的搜索引擎系统,它是一个搜索引擎服务,经过各种API可以让你的应用使用搜索服务,而不需要将搜索逻辑耦合在应用中。而且Solr可以根据配置文件定义数据解析的方式,更像是一个搜索框架,它也支持主从、热换库等操作。还添加了飘红、facet等搜索引擎常见功能的支持。 五、Hadoop离线计算大纲 一、

1) Hadoop生态环境介绍

2) Hadoop云计算中的位置和关系

3) 国内外Hadoop应用案例介绍

4) Hadoop 概念、版本、历史

5) Hadoop 核心组成介绍及hdfs、mapreduce 体系结构

6) Hadoop 的集群结构

7) Hadoop 伪分布的详细安装步骤

8) 经过命令行和浏览器观察hadoop

二、

1) HDFS底层工作原理

2) HDFS datanode,namenode详解

3) Hdfs shell

4) Hdfs java api

三、

1) Mapreduce四个阶段介绍

2) Writable

3) InputSplit和OutputSplit

4) Maptask

5) Shuffle:Sort,Partitioner,Group,Combiner

6) Reducer

四、Mapreducer案例

1) 二次排序

2) 倒排序索引

3) zui优路径

4) 电信数据挖掘之-----移动轨迹预测分析(中国棱镜计划)

5) 社交好友推荐算法

6) 互联网精准广告推送 算法

7) 阿里巴巴天池大数据竞赛 《天猫推荐算法》案例

8) Mapreduce实战pagerank算法

五、

1) Hadoop2.x集群结构体系介绍

2) Hadoop2.x集群搭建

3) NameNode的高可用性(HA)

4) HDFS Federation

5) ResourceManager 的高可用性(HA)

6) Hadoop集群常见问题和解决方法

7) Hadoop集群管理

一、初识hadoop听过大数据,必听过hadoop,此部分带领大家了解hadoop的用途,在大数据中的用途,以及**搭建一个hadoop的实验环境,在本过程中不仅将用到前面的Linux知识,而且会对hadoop的架构有深入的理解,并为你以后架构大数据项目打下坚实基础。 二、HDFS体系结构和shell以及java操作详细剖析HDFS,从知晓原理到开发网*的项目让大家打好学习大数据的基础,大数据之于分布式,分布式学习从学习分布式文件系统(HDFS)开始。 三、 详细讲解MapreduceMapreduce可以说是任何一家大数据公司都会用到的计算框架,也是每个大数据工程师应该熟练掌握的。 五、 Hadoop2.x集群搭建前面带领大家开发了大量的MapReduce程序 六、分布式数据库Hbase 1) HBase与RDBMS的对比

2) 数据模型

3) 系统架构

4) HBase上的MapReduce

5) 表的设计

6) 集群的搭建过程讲解

7) 集群的监控

8) 集群的管理

9) HBase Shell以及演示

10) Hbase 树形表设计

11) Hbase 一对多 和 多对多 表设计

12) Hbase 微博 案例

13) Hbase 订单案例

14) Hbase表级优化

15) Hbase 写数据优化

16) Hbase 读数据优化

大数据中使用Hbase的案例多的举不胜举,也可凸显大家学习的必要性。即使工作多年的大数据工程师Hbase的优化也是需要好好学习的重点。 七、数据仓库Hive 1) 数据仓库基础知识

2) Hive定义

3) Hive体系结构简介

4) Hive集群

5) 客户端简介

6) HiveQL定义

7) HiveQL与SQL的比较

8) 数据类型

9) 外部表和分区表

10) ddl与CLI客户端演示

11) dml与CLI客户端演示

12) select与CLI客户端演示

13) Operators 和 functions与CLI客户端演示

14) Hive server2 与jdbc

15) 用户自定义函数(UDF 和 UDAF)的开发与演示

16) Hive 优化

Hive是使用sql进行计算的hadoop框架,工作中常用到的部分,也是面试的重点,此部分大家将从方方面面来学习Hive的应用,任何细节都将给大家涉及到。 八、数据迁移工具Sqoop 1) 介绍 和 配置Sqoop

2) Sqoop shell使用

3) Sqoop-import

a) DBMS-hdfs

b) DBMS-hive

c) DBMS-hbase

4) Sqoop-export

sqoop适用于关系型数据库和HDFS分布式数据系统之间进行数据转换,在企业中,是构建数据仓库的一大工具。 九、Flume分布式日志框架 1) flume简介-基础知识

2) flume安装与测试

3) flume部署方式

4) flume source相关配置及测试

5) flume sink相关配置及测试

6) flume selector 相关配置与案例分析

7) flume Sink Processors相关配置和案例分析

8) flume Interceptors相关配置和案例分析

9) flume AVRO Client开发

10) flume 和kafka 的整合

Flume是Cloudera提供的日志收集系统,目前是Apache下的一个孵化项目,Flume支持在日志系统中定制各类数据发送方,用于收集数据。大家学习完此节后不但可以掌握Flume的使用,而且可以进行对于Flume的开发。 十、Zookeeper开发 1) Zookeeper java api开发

2) Zookeeper rmi高可用分布式集群开发

3) Zookeeper redis高可用监控实现

4) Netty 异步io通信框架

5) Zookeeper实现netty分布式架构的高可用

Zookeeper在分布式集群(Hadoop生态圈)中的地位越来越突出,对分布式应用的开发也提供了极大便利,这也是这里我们带领大家深初入学习 Zookeeper的原因。本课程主要内容包括Zookeeper深入、客户端开发(Java编程,案例开发)、日常运维、Web界面监控。大家这里学好Zookeeper,对后面学习其他技术至关重要。 十一、某一线公司的真实项目 项目技术架构体系:

a) Web项目和云计算项目的整合

b) Flume经过avro实时收集web项目中的日志

c) 数据的ETL

d) Hive 批量 sql执行

e) Hive 自定义函数

f) Hive和hbase整合。

g) Hbase 数据支持 sql查询分析

h) Mapreduce数据挖掘

i) Hbase dao处理

j) Sqoop 在项目中的使用。

k) Mapreduce 定时调用和监控

某大型的一线网站的日志分析和订单管理在实战中学习,技术点非常多,怎么样实际运用这些点是我们在自学过程中体验不到的。Cookie日志分析包括:pv、uv,跳出率,二跳率、广告转化率、搜索引擎优化等,订单模块有:产品推荐,商家排名,历史订单查询,订单报表统计等。

校区环境:

千锋互联

欢迎您访问到我们网站如果想了解更多北京软件系统类别课程请访问:北京大数据开发培训课程汇总

课程定制与: : 金老师

相关新闻 更多 >