《大数据、云计算系统架构师顶级课程》课程大纲(V1.0)

《大数据、云计算系统架构师顶级课程》课程大纲(V1.0)


2024年1月14日发(作者:)

北风大阶段阶段一、大数据、云计算 -Hadoop大数据开发技术课程名课程一、大数据运维之Linux基础(必修)课程二、大数据开发核心技术 -Hadoop 2.x从入门到精通

课程三、大数据开发核心技术 - 大数据仓库Hive精讲课程四、大数据协作框架 -Sqoop/Flume/Oozie精讲

课程五、大数据Web开发框架 -大数据WEB 工具Hue精讲课程六、大数据核心开发技术 - 分布式数据库HBase从入门到精通

课程六、大数据开发核心技术 -Hadoop 2.x从入门到精通

课程七、大数据核心开发技术 -Storm实时数据处理

课程八、Spark技术实战之基础篇-Scala语言从入门到精通课程九、大数据核心开发技术 -内存计算框架Spark精讲

课程十、大数据核心开发技术 -Spark深入剖析课程十一、企业大数据平台高级应用

课程十二、项目实战:驴妈妈旅游网大型离线数据电商分析平台课程十三、项目实战:基于1号店的电商实时数据分析系统课程十四、项目实战:基于美团网的大型离线电商数据分析平台

课程十五、大数据高薪面试剖析阶段二、阿里云企业级大数课程十六、ACP11003全面理解阿据认证技术培训里云上的数据处理和分析课程十七、深入Java性能调优阶段三、大数据、云计算 -Java企业级核心应用课程十八、JAVA企业级开放必备高级技术(Weblogic Tomcat集群 Apach集群)

课程十九、大数据高并发系统架构实战方案(LVS负载均衡、Nginx、共享存储、海量数据、队列缓存 )阶段四、大数据、云计算 -分布式集群、PB级别网站性能优化课程二十、大数据高并发服务器实战教程(Linux+Nginx+Java+Memcached+Redis)项目实战:PB级通用电商网站性能优化解决方案

阶段五、大数据、云计算 -数据挖掘、分析 & 机器学习课程二十一、玩转大数据:深入浅出大数据挖掘技术(Apriori算法、Tanagra工具、决策树)课程二十二、Lucene4.X实战类baidu搜索的大型文档海量搜索系统课程二十三、快速上手数据挖掘之solr搜索引擎高级教程(Solr集群、KI分词、项目实战)

课程二十四、项目实战:SPSSModeler数据挖掘项目实战培训课程二十五、数据层交换和高性能并发处理(开源ETL大数据治理工具)

课程二十六、零基础数据分析与挖掘R语言实战

课程二十七、深入浅出HadoopMahout数据挖掘实战(算法分析、项目实战、中文分词技术)

课程二十八、大数据项目实战之Python金融应用编程(数据分析、定价与量化投资)课程二十九、项目实战:云计算处理大数据深度、智能挖掘技术+地震数据挖掘分析

阶段六、大数据、云计算 -大数据运维 & 云计算技术篇课程三十、Zookeeper从入门到精通(开发详解,案例实战,Web界面监控)课程三十一、云计算Docker从零基础到专家实战教程

课程三十二、项目实战:云计算Docker全面项目实战(Maven+Jenkins、日志管理ELK、WordPress博客)课程三十三、深入浅出OpenStack云计算平台管理

北风大数据、云计算系统架构师顶级课程课程简介 本部分是基础课程,帮大家进入大数据领域打好Linux基础,以便更好地学习Hadoop,hbase,NoSQL,Spark,Storm,docker,,openstack等众多课程。因为企业中的项目基本上都是使用Linux环境下搭建或部署的。 本课程是整套大数据课程的基石:其一,分布式文件系统HDFS用于存储海量数据,无论是Hive、HBase或者Spark数据存储在其上面;其二是分布式资源管理框架YARN,是Hadoop 云操作系统(也称数据系统),管理集群资源和分布式数据处理框架MapReduce、Spark应用的资源调度与监控; 分布式并行计算框架MapReduce目前是海量数据并行处理的一个最常用的框架。Hadoop 2.x的编译、环境搭建、HDFS Shell使用,YARN 集群资源管理与任务监控,MapReduce编程,分布式集群的部署管理(包括高可用性HA)必须要掌握的。

hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。其优点是学习成本低,可以通类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。 Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到关系型数据库中。Sqoop项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目。

Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python Web框架Django实现的。通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等。 HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。HBase在Hadoop之上提供了类似于Bigtable的能力,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PCServer上搭建起大规模结构化存储集群。

本课程是整套大数据课程的基石:其一,分布式文件系统HDFS用于存储海量数据,无论是Hive、HBase或者Spark数据存储在其上面;其二是分布式资源管理框架YARN,是Hadoop 云操作系统(也称数据系统),管理集群资源和分布式数据处理框架MapReduce、Spark应用的资源调度与监控; 分布式并行计算框架MapReduce目前是海量数据并行处理的一个最常用的框架。Hadoop 2.x的编译、环境搭建、HDFS Shell使用,YARN 集群资源管理与任务监控,MapReduce编程,分布式集群的部署管理(包括高可用性HA)必须要掌握的。

Storm是Twitter开源的分布式实时大数据处理框架,被业界称为实时版Hadoop。 随着越来越多的场景对Hadoop的MapReduce高延迟无法容忍,比如网站统计、推荐系统、预警系统、金融系统(高频交易、股票)等等, 大数据实时处理解决方案(流计算)的应用日趋广泛,目前已是分布式技术领域最新爆发点,而Storm更是流计算技术中的佼佼者和主流。 按照storm作者的说法,Storm对于实时计算的意义类似于Hadoop对于批处理的意义。Hadoop提供了map、reduce原语,使我们的批处理程序变得简单和高效。 同样,Storm也为实时计算提供了一些简单高效的原语,而且Storm的Trident是基于Storm原语更高级的抽象框架,类似于基于Hadoop的Pig框架, 让开发更加便利和高效。本课程会深入、全面的讲解Storm,并穿插企业场景实战讲述Storm的运用。 淘宝双11的大屏幕实时监控效果冲击了整个IT界,业界为之惊叹的同时更是引起对该技术的探索。 学完本课程你可以自己开发升级版的“淘宝双11”,还等什么?

为什么要学习Scala?源于Spark的流行,Spark是当前最流行的开源大数据内存计算框架,采用Scala语言实现,各大公司都在使用Spark:IBM宣布承诺大力推进Apache Spark项目,并称该项目为:在以数据为主导的,未来十年最为重要的新的开源项目。这一承诺的核心是将Spark嵌入IBM业内领先的分析和商务平台,Scala具有数据处理的天然优势,Scala是未来大数据处理的主流语言 Spark是UC Berkeley AMP lab所开源的类HadoopMapReduce的通用并行框架,Spark,拥有HadoopMapReduce所具有的优点。启用了内存分布数据集, 除了能够提供交互式查询外,它还可以优化迭代工作负载。 Spark Streaming: 构建在Spark上处理Stream数据的框架,基本的原理是将Stream数据分成小的时间片断(几秒),以类似batch批量处理的方式来处理这小部分数据。

本课程主要讲解目前大数据领域最热门、最火爆、最有前景的技术——Spark。在本课程中,会从浅入深,基于大量案例实战,深度剖析和讲解Spark,并且会包含完全从企业真实复杂业务需求中抽取出的案例实战。课程会涵盖Scala编程详解、Spark核心编程、Spark SQL和Spark Streaming、Spark内核以及源码剖析、性能调优、企业级案例实战等部分 本阶段主要就之前所学内容完成大数据相关企业场景与解决方案的剖析应用及结合一个电子商务平台进行实战分析,主要包括有: 企业大数据平台概述、搭建企业大数据平台、真实服务器手把手环境部署、使用CM 5.3.x管理CDH 5.3.x集群

离线数据分析平台是一种利用hadoop集群开发工具的一种方式,主要作用是帮助公司对网站的应用有一个比较好的了解。尤其是在电商、旅游、银行、证券、游戏等领域有非常广泛,因为这些领域对数据和用户的特性把握要求比较高,所以对于离线数据的分析就有比较高的要求了。 本课程讲师本人之前在游戏、旅游等公司专门从事离线数据分析平台的搭建和开发等,通过此项目将所有大数据内容贯穿,并前后展示!课程基于1号店的业务及数据进行设计和讲解的,主要涉及1、课程中完整开发3个Storm项目,均为企业实际项目,其中一个是完全由Storm Trident开发。 项目源码均可以直接运行,也可直接用于商用或企业。2、每个技术均采用最新稳定版本,学完后会员可以从Kafka到Storm项目开发及HighCharts图表开发一个人搞定!让学员身价剧增!3、搭建CDH5生态环境完整平台,且采用ClouderaManager界面化管理CDH5平台。让Hadoop平台环境搭建和维护都变得轻而易举。4、分享实际项目的架构设计、优劣分析和取舍、经验技巧,陡直提升学员的经验值 本项目使用了Spark技术生态栈中最常用的三个技术框架,Spark Core、Spark SQL和Spark Streaming,进行离线计算和实时计算业务模块的开发。实现了包括用户访问session分析、页面单跳转化率统计、热门商品离线统计、广告点击流量实时统计4个业务模块。过合理的将实际业务模块进行技术整合与改造,该项目完全涵盖了Spark Core、Spark SQL和Spark Streaming这三个技术框架中几乎所有的功能点、知识点以及性能优化点。仅一个项目,即可全面掌握Spark技术在实际项目中如何实现各种类型的业务需求!在项目中,重点讲解了实际企业项目中积累下来的宝贵的性能调优、troubleshooting以及数据倾斜解决方案等知识和技术

本阶段通过对历来大数据公司企业真实面试题的剖析,讲解,让学员真正的一个菜鸟转型为具有1年以上的大数据开发工作经验的专业人士,也是讲师多年来大数据企业开发的经验之谈。 如何快速有效的处理海量数据,并从中分析出宝贵的信息内容是每一个架构师和开发者梦寐以求的目标;对于运维人员来说,怎样部署维护庞大复杂的集群系统也是一个非常现实的问题。本课程将向您详细介绍阿里云的DRDS、RDS、OTS、ODPS、ADS及DPC等相关数据处理和分析服务。课程由专业的阿里云讲师主讲,结合丰富的实验资源,对阿里云产品、技术、解决方案等进行专业讲解和引导。 国内关于Java性能调优的课程非常少,如此全面深入介绍Java性能调优,北风算是独家,Special讲师,十余年Java方面开发工作经验,资深软件开发系统架构师,本套课程系多年工作经验与心得的总结,课程有着很高的含金量和实用价值,本课程专注于java应用程序的优化方法,技巧和思想,深入剖析软件设计层面、代码层面、JVM虚拟机层面的优化方法,理论结合实际,使用丰富的示例帮助学员理解理论知识。 Java自面世后就非常流行,发展迅速,对C++语言形成有力冲击。在全球云计算和移动互联网的产业环境下,Java更具备了显著优势和广阔前景,那么滋生的基于java项目也越来越多,对java运行环境的要求也越来越高,很多java的程序员只知道对业务的扩展而不知道对java本身的运行环境的调试,例如虚拟机调优,服务器集群等,所以也滋生本门课程的产生。

随着互联网的发展,高并发、大数据量的网站要求越来越高。而这些高要求都是基础的技术和细节组合而成的。本课程就从实际案例出发给大家原景重现高并发架构常用技术点及详细演练。通过该课程的学习,普通的技术人员就可以快速搭建起千万级的高并发大数据网站平台,课程涉及内容包括:LVS实现负载均衡、Nginx高级配置实战、共享存储实现动态内容静态化加速实战、缓存平台安装配置使用、mysql主从复制安装配置实战等。 随着Web技术的普及,Internet上的各类网站第天都在雪崩式增长。但这些网站大多在性能上没做过多考虑。当然,它们情况不同。有的是Web技术本身的原因(主要是程序代码问题),还有就是由于Web服务器未进行优化。不管是哪种情况,一但用户量在短时间内激增,网站就会明显变慢,甚至拒绝放访问。要想有效地解决这些问题,就只有依靠不同的优化技术。本课程就是主要用于来解决大型网站性能问题,能够承受大数据、高并发。主要涉及技术有:nginx、tomcat、memcached、redis缓存、负载均衡等高级开发技术 本部分通过一个通用电商订单支付模块,外加淘宝支付接口的实现(可用于实际项目开发),剖析并分析过程中可能遇到的各种性能瓶颈及相关的解决方案与优化技巧。最终目标,让有具有PHP基础或Java基础的学员迅速掌握Linux下的开发知识,并对涉及到nginx、tomcat、memcached、redis缓存、负载均衡等高级开发技术有一个全面的了解

本课程名为深入浅出数据挖掘技术。所谓“深入”,指得是从数据挖掘的原理与经典算法入手。其一是要了解算法,知道什么场景应当应用什么样的方法;其二是学习算法的经典思想,可以将它应用到其他的实际项目之中;其三是理解算法,让数据挖掘的算法能够应用到您的项目开发之中去。所谓“浅出”,指得是将数据挖掘算法的应用落实到实际的应用中。课程会通过三个不同的方面来讲解算法的应用:一是微软公司的SQL Server与Excel等工具实现的数据挖掘;二是著名开源算法的数据挖掘,如Weka、KNIMA、Tanagra等开源工具;三是利用C#语言做演示来完成数据挖掘算法的实现。 根据实际的引用场景,数据挖掘技术通常分为分类器、关联分析、聚类算法等三大类别。本课程主要介绍这三大算法的经典思想以及部分著名的实现形式,并结合一些商业分析工具、开源工具或编程等方式来讲解具体的应用方法。 本课程由浅入深的介绍了Lucene4的发展历史,开发环境搭建,分析lucene4的中文分词原理,深入讲了lucenne4的系统架构,分析lucene4索引实现原理及性能优化,了解关于lucene4的搜索算法优化及利用java结合lucene4实现类百度文库的全文检索功能等相对高端实用的内容,市面上一般很难找到同类具有相同深度与广度的视频,集原理、基础、案例与实战与一身,不可多得的一部高端视频教程。 本教程从最基础的solr语法开始讲解,选择了最新最流行的开源搜索引擎服务框架solr5.3.1,利用Tomcat8搭建了solr的集群服务;本教程可以帮助学员快速上手solr的开发和二次开发,包括在hadoop集群的是利用,海量数据的索引和实时检索,通过 了解、学习、安装、配置、集成等步骤引导学员如何将solr集成到项目中。

SS Modeler是业界极为著名的数据挖掘软件,其前身为SPSS Clementine。SPSS Modeler内置丰富的数据挖掘模型,以其强大的挖掘功能和友好的操作习惯,深受用户的喜爱和好评,成为众多知名企业在数据挖掘项目上的软件产品选择。 本课程以SPSS Modeler为应用软件,以数据挖掘项目生命周期为线索,以实际数据挖掘项目为例,讲解了从项目商业理解开始,到最后软件实现的全过程。 ETL是数据的抽取清洗转换加载的过程,是数据进入数据仓库进行大数据分析的载入过程,目前流行的数据进入仓库的过程有两种形式,一种是进入数据库后再进行清洗和转换,另外一条路线是首先进行清洗转换再进入数据库,我们的ETL属于后者。 大数据的利器大家可能普遍说是hadoop,但是大家要知道如果我们不做预先的清洗和转换处理,我们进入hadoop后仅通过mapreduce进行数据清洗转换再进行分析,垃圾数据会导致我们的磁盘占用量会相当大,这样无形中提升了我们的硬件成本(硬盘大,内存小处理速度会很慢,内存大cpu性能低速度也会受影响),因此虽然hadoop理论上解决了烂机器拼起来解决大问题的问题,但是事实上如果我们有更好的节点速度必然是会普遍提升的,因此ETL在大数据环境下仍然是必不可少的数据交换工具。

本课程面向从未接触过数据分析的学员,从最基础的R语法开始讲起,逐步进入到目前各行业流行的各种分析模型。整个课程分为基础和实战两个单元。 基础部分包括R语法和统计思维两个主题,R语法单元会介绍R语言中的各种特色数据结构,以及如何从外部抓去数据,如何使用包和函数,帮助同学快速通过语法关。统计思维单元会指导如何用统计学的思想快速的发现数据特点或者模式,并利用R强大的绘图能力做可视化展现。 在实战部分选择了回归、聚类、数据降维、关联规则、决策树这5中最基础的数据分析模型,详细介绍其思想原理,并通过案例讲解R中的实现方案,尤其是详细的介绍了对各种参数和输出结果的解读,让学员真正达到融会贯通、举一反三的效果。并应用到自己的工作环境中

Mahout 是 Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序 课程包括:Mahout数据挖掘工具 及Hadoop实现推荐系统的综合实战,涉及到MapReduce、Pig和Mahout的综合实战

近年来,金融领域的量化分析越来越受到理论界与实务界的重视,量化分析的技术也取得了较大的进展,成为备受关注的一个热点领域。所谓金融量化,就是将金融分析理论与计算机编程技术相结合,更为有效的利用现代计算技术实现准确的金融资产定价以及交易机会的发现。量化分析目前已经涉及到金融领域的方方面面,包括基础和衍生金融资产定价、风险管理、量化投资等。随着大数据技术的发展,量化分析还逐步与大数据结合在一起,对海量金融数据实现有效和快速的运算与处理。 在量化金融的时代,选用一种合适的编程语言对于金融模型的实现是至关重要的。在这方面,Python语言体现出了不一般的优势,特别是它拥有大量的金融计算库,并且可以提供与C++,java等语言的接口以实现高效率的分析,成为金融领域快速开发和应用的一种关键语言,由于它是开源的,降低了金融计算的成本,而且还通过广泛的社交网络提供大量的应用实例,极大的缩短了金融量化分析的学习路径。本课程在量化分析与Python语言快速发展的背景下介绍二者之间的关联,使学员能够快速掌握如何利用Python语言进行金融数据量化分析的基本方法。 本课程介绍了基于云计算的大数据处理技术,重点介绍了一款高效的、实时分析处理海量数据的强有力工具——数据立方。数据立方是针对大数据处理的分布式数据库,能够可靠地对大数据进行实时处理,具有即时响应多用户并发请求的能力,通过对当前主流的大数据处理系统进行深入剖析,阐述了数据立方产生的背景,介绍了数据立方的整体架构以及安装和详细开发流程,并给出了4个完整的数据立方 综合应用实例。所有实例都经过验证并附有详细的步骤说明,无论是对于云计算的初学者还是想进一步深入学习大数据处理技术的研发人员、研究人员都有很好的参 考价值。

ZooKeeper是Hadoop的开源子项目(Google Chubby的开源实现),它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、命名服务、分布式同步、组服务等。 Zookeeper的Fast Fail 和 Leader选举特性大大增强了分布式集群的稳定和健壮性,并且解决了Master/Slave模式的单点故障重大隐患,这是越来越多的分布式产品如HBase、Storm(流计算)、S4(流计算)等强依赖Zookeeper的原因。 Zookeeper在分布式集群(Hadoop生态圈)中的地位越来越突出,对分布式应用的开发也提供了极大便利,这是迫切需要深入学习Zookeeper的原因。本课程主要内容包括Zookeeper深入、客户端开发(Java编程,案例开发)、日常运维、Web界面监控,“一条龙”的实战平台分享给大家。 Docker是一种开源的应用容器引擎,使用Docker可以快速地实现虚拟化,并且实现虚拟化的性能相对于其他技术来说较高。并且随着云计算的普及以及对虚拟化技术的大量需求,使得云计算人才供不应求,所以一些大型企业对Docker专业技术人才需求较大。本教程从最基础的Dokcer原理开始讲起,深入浅出,并且全套课程均结合实例实战进行讲解,让学员可以不仅能了解原理,更能够实际地去使用这门技术。

2013年,云计算领域从此多了一个名词“Docker”。以轻量著称,更好的去解决应用打包和部署。之前我们一直在构建Iaas,但通过Iaas去实现统一功 能还是相当复杂得,并且维护复杂。将特殊性封装到镜像中实现几乎一致得部署方法,它就是“Docker”,以容器为技术核心,实现了应用的标准化。企业可 以快速生成研发、测试环境,并且可以做到快速部署。实现了从产品研发环境到部署环境的一致化。Docker让研发更加专注于代码的编写,并且以“镜像”作为交付。极大的缩短了产品的交付周期和实施周期。 OpenStack是 一个由Rackspace发起、全球开发者共同参与的开源项目,旨在打造易于部署、功能丰富且易于扩展的云计算平台。OpenStack企图成为数据中心 的操作系统,即云操作系统。从项目发起之初,OpenStack就几乎赢得了所有IT巨头的关注,在各种OpenStack技术会议上人们激情澎湃,几乎所有人都成为OpenStack的信徒。 这个课程重点放在openstack的部署和网络部分。课程强调实际的动手操作,使用vmware模拟实际的物理平台,让大家可以自己动手去实际搭建和学习openstack。课程内容包括云计算的基本知识,虚拟网络基础,openstack部署和应用,openstack网络详解等。

课程课程内容1)Linux系统概述2)系统安装及相关配置3)Linux网络基础4)OpenSSH实现网络安全连接5)vi文本编辑器6)用户和用户组管理7)磁盘管理8)Linux文件和目录管理9)Linux终端常用命令10)linux系统监测与维护一、初识Hadoop 2.x1)大数据应用发展、前景2)Hadoop 2.x概述及生态系统3)Hadoop 2.x环境搭建与测试二、深入Hadoop 2.x1)HDFS文件系统的架构、功能、设计2)HDFS Java API使用3)YARN 架构、集群管理、应用监控4)MapReduce编程模型、Shuffle过程、编程调优三、高级Hadoop 2.x1)分布式部署Hadoop 2.x2)分布式协作服务框架Zookeeper3)HDFS HA架构、配置、测试4)HDFS 2.x中高级特性5)YARN HA架构、配置6)Hadoop 主要发行版本(CDH、HDP、Apache)四、实战应用备注必修必修

一、Hive 初识入门1)Hive功能、体系结构、使用场景2)Hive环境搭建、初级使用3)Hive原数据配置、常见交互方式二、Hive深入使用1)Hive中的内部表、外部表、分区表2)Hive 数据迁移3)Hive常见查询(select、where、distinct、join、group by)4)Hive 内置函数和UDF编程三、Hive高级进阶1)Hive数据的存储和压缩2)Hive常见优化(数据倾斜、压缩等)四、结合【北风网用户浏览日志】实际案例分析1)依据业务设计表2)数据清洗、导入(ETL)3)使用HiveQL,统计常见的网站指标一、数据转换工具Sqoop1)Sqoop功能、使用原则2)将RDBMS数据导入Hive表中(全量、增量)3)将HDFS上文件导出到RDBMS表中二、文件收集框架Flume1)Flume 设计架构、原理(三大组件)2)Flume初步使用,实时采集数据3)如何使用Flume监控文件夹数据,实时采集录入HDFS中4)任务调度框架Oozie三、Oozie功能、安装部署1)使用Oozie调度MapReduce Job和HiveQL2)定时调度任务使用必修必修

1)Hue架构、功能、编译2)Hue集成HDFS3)Hue集成MapReduce4)Hue集成Hive、DataBase5)Hue集成Oozie一、HBase初窥使用1)HBase是什么、发展、与RDBMS相比优势、企业使用2)HBase Schema、表的设计3)HBase 环境搭建、shell初步使用(CRUD等)二、HBase 深入使用1)HBase 数据存储模型2)HBase Java API使用(CRUD、SCAN等)3)HBase 架构深入剖析4)HBase 与MapReduce集成、数据导入导出三、HBase 高级使用1)如何设计表、表的预分区(依据具体业务分析讲解)2)HBase 表的常见属性设置(结合企业实必修必修

一、初识Hadoop 2.x1)大数据应用发展、前景2)Hadoop 2.x概述及生态系统3)Hadoop 2.x环境搭建与测试二、深入Hadoop 2.x1)HDFS文件系统的架构、功能、设计2)HDFS Java API使用3)YARN 架构、集群管理、应用监控4)MapReduce编程模型、Shuffle过程、编程调优三、高级Hadoop 2.x1)分布式部署Hadoop 2.x2)分布式协作服务框架Zookeeper3)HDFS HA架构、配置、测试4)HDFS 2.x中高级特性5)YARN HA架构、配置6)Hadoop 主要发行版本(CDH、HDP、Apache)四、实战应用1)以【北风网用户浏览日志】数据进行实际的分析2)原数据采集3)数据的预处理(ETL)4)数据的分析处理(MapReduce)必修

1)Storm简介和课程介绍2)Storm原理和概念详解3)Zookeeper集群搭建及基本使用4)Storm集群搭建及测试5)API简介和入门案例开发6)Spout的Tail特性、storm-starter及maven使用、Grouping策略7)实例讲解Grouping策略及并发8)并发度详解、案例开发(高并发运用)9)案例开发——计算网站PV 通过2种方式实现汇总型计算。10)案例优化引入Zookeeper锁控制线程操作11)计算网站UV(去重计算模式)12)【运维】集群统一启动和停止shell脚本开发13)Storm事务工作原理深入讲解14)Storm事务API及案例分析15)Storm事务案例实战之ITransactionalSpout16)Storm事务案例升级之按天计算17)Storm分区事务案例实战18)Storm不透明分区事务案例实战19)DRPC精解和案例分析20)Storm Trident 入门21)Trident API和概念22)Storm Trident实战之计算网站PV23)ITridentSpout、FirstN(取Top N)实现、流合并和Join24)Storm Trident之函数、流聚合及核心概念State25)Storm Trident综合实战一(基于HBase的State)26)Storm Trident综合实战二27)Storm Trident综合实战三28)Storm集群和作业监控告警开发必修

1) kafka是什么2) kafka体系结构3) kafka配置详解4) kafka的安装5) kafka的存储策略6)6)kafka分区特点7) kafka的发布与订阅8)java编程操作kafka9) scala编程操作kafka10) flume 和kafka 的整合11) Kafka 和storm 的整合1)Spark 初识入门2)Spark 概述、生态系统、与MapReduce比较3)Spark 编译、安装部署(StandaloneMode)及测试4)Spark应用提交工具(spark-submit,spark-shell)5)Scala基本知识讲解(变量,类,高阶函数)6)Spark 核心RDD7)RDD特性、常见操作、缓存策略8)RDD Dependency、Stage常、源码分析9)Spark 核心组件概述10)案例分析11)Spark 高阶应用12)Spark on YARN运行原理、运行模式及测试13)Spark HistoryServer历史应用监控14)Spark Streaming流式计算15)Spark Streaming 原理、DStream设计16)Spark Streaming 常见input、out17)Spark Streaming 与Kafka集成18)使用Spark对【北风网用户浏览日志】进必修必修

1)Scala编程、Hadoop与Spark集群搭建、Spark核心编程、Spark内核源码深度剖析、Spark性能调优、Spark SQL、SparkStreaming。2)Spark源码剖析3)基于排序的wordcount,Spark二次排序,Spark分组取topn,DataFrame与RDD的两种转换方式,Spark SQL的内置函数、开窗函数、UDF、UDAF,Spark Streaming的Kafka Direct API、updateStateByKey、transform、滑动窗口、foreachRDD性能优化、与Spark SQL整合使用、持久化、checkpoint、容错与事务4)项目实战:多个从企业实际需求抽取出的复杂案例实战:每日uv和销售额统计案例、top3热卖商品统计案例、每日top3热点搜索词统计、广告计费日志实时黑名单过滤案例、热点搜索词滑动统计案例、top3热门商品实时统计案例1)企业大数据平台概述2)大数据平台基本组件3)Hadoop 发行版本、比较、选择4)集群环境的准备(系统、基本配置、规划等)5)搭建企业大数据平台6)以实际企业项目需求为依据,搭建平台7)需求分析(主要业务)8)框架选择(HiveHBaseSpark等)9)真实服务器手把手环境部署10)安装Cloudera Manager 5.3.x11)使用CM 5.3.x安装CDH 5.3.x12)如何使用CM 5.3.x管理CDH 5.3.x集群13)基本配置,优化14)基本性能测试15)各个组件如何使用必修必修

1)Flume、Hadoop、Hbase、Hive、Oozie、Sqoop、离线数据分析,SpringMVC,Highchat2)Flume+Hadoop+Hbase+SpringMVC+MyBatis+MySQL+Highcharts实现的电商离线数据分析3)日志收集系统、日志分析、数据展示设计必修学完本课程,学员可以实现以下目标: 1、全面掌握Storm完整项目开发思路和架构设计 2、掌握Storm Trident项目开发模式 3、掌握Kafka运维和API开发、与Storm接口开发 4、掌握HighCharts各类图表开发和实时无刷新加载数据 5、熟练搭建CDH5生态环境完整平台 6、灵活运用HBase作为外部存储1)真实还原完整的企业级大数据项目开发流程:项目中采用完全还原企业大数据项目开发场景的方式来讲解,每一个业务模块的讲解都包括了数据分析、需求分析、方案设计、数据库设计、编码实现、功能测试、性能调优、troubleshooting与解决数据倾斜(后期运维)等环节,真实还原企业级大数据项目开发场景。让学员掌握真实大数据项目的开发流程和经验!2)现场Excel手工画图与写笔记:所有复杂业务流程、架构原理、Spark技术原理、业务需求分析、技术实现方案等知识的讲解,采用Excel画图或者写详细比较的方式进行讲解与分析,细致入微、形象地透彻剖析理论知识,帮助学员更好的理解、记忆与复习巩固。必修必修

1)大数据项目2)企业大数据项目的类型3)技术架构(如何使用各框架处理数据)4)冲刺高薪面试5)面试简历编写(把握重点要点)6)面试中的技巧7)常见面试题讲解8)如何快速融入企业进行工作(对于大数据公司来说非常关键)9)学员答疑10)针对普遍问题进行公共解答11)一对一的交流必修一、课程价值:1)架构师和开发人员:如何快速有效的处理海量数据,并从中分析出宝贵的信息内容2)运维人员:怎样部署维护庞大复杂的集群系统必修二、课程内容:1)详细介绍阿里云的DRDS、RDS、OTS、ODPS、ADS及DPC等相关数据处理和分析服务。2)真实客户案例:报表场景的实现1)阿姆达尔定律、2)缓存组件3)并行开发4)线程池5)JVM调优6)NIO7)动态代理8)享元模式1)java虚拟机的调优2)apache+tomcat整合的集群3)weblogic12C与SSH框架的整合4)分布式运用的发布订阅5)weblogic12C的安装和调试赠送赠送

1)主流高并发大数据应对技术介绍2)CDN镜像技术介绍3)静态化技术介绍4)库表水平及垂直拆分技术介绍5)虚拟化云计算体系介绍6)高并发系统架构规划7)高并发大型网站高可靠架构图8)LVS实现负载均衡软交换实战9)Nginx高级配置实战10)基于共享存储实现动态内容静态化加速实战11)缓存平台安装配置使用12)mysql主从复制安装配置实战13)海量数据平台安装配置实战14)队列缓存平台安装配置实战1)Linux系统与Shell命令篇:快速帮助windows下的工程师转入到Linux开发环境,并能掌握常用shell命令,vi编辑器,软件安装卸载等。2)LNMP及Nginx篇:主要介绍Linux下PHP开发环境的搭建,apache、nginx、反向代理、负载均衡、动静分离、TP框架的rewrite配置等等。3)Memcached:包括memcached简介,Linux下的安装和配置, 工作原理实现机制,PHP如何调用memcache以实现缓存的效果等。4)Redis:redis介绍,快速入门,环境安装和配置,数据类型,redis命令,redis键,redis字符串、哈希、列表和集合,redis客户端连接,Redis PHP连接操作和Java连接操作。5)Linux下的Java部分:包括ngxin与tomcat集成、负载均衡和集群配置,与1)nginx2)tomcat3)memcached4)redis缓存5)负载均衡等高级开发技术赠送赠送赠送

1)数据挖掘概述与数据2)可视化与多维数据分析(实践课)3)分类器与决策树4)基于规则的分类器与基于距离的分类器5)贝叶斯分类器、人工神经网络、支持向量机与组合方法6)C4.5决策树、KNIME决策树、简单贝叶斯分类、组合方法(装袋)、人工神经网络、基于规则的分类7)Apriori算法与FP增长算法8)购物车数据分析(实践课)9)包含K均值算法、层次聚类、基于密度的聚类算法10)聚类算法C#/Java源代码实现(实践课)赠送1)Lucene、全文搜索、中文分词、全文检索引擎 、文本分析、网页爬虫、网络小偷2)倒排索引,各种文档格式的万能解析,文档上传下载等3)国内决无仅有的万能文档格式解析教程,以及类似baidu搜索的全文检索功能实现4)项目实战赠送1)最基础的solr语法,2)开源搜索引擎服务框架solr5.3.13)利用Tomcat8搭建了solr的集群服务;4)solr的二次开发,5)Solr在hadoop集群的使用6)海量数据的索引和实时检索7)项目实战之比比看架构设计8)项目实战之比比看索引设计9)项目实战之比比看目录树实现10)项目实战之比比看商品筛选实现11)项目实战之比比看商品搜索实现赠送

1)熟悉数据挖掘项目的生命周期,培养数据挖掘项目的管理思想,融入每一次项目实际。2)培养对数据挖掘项目的统筹、接口、把控能力。3)培养数据挖掘模型的数学思想,学会根据实际的项目情况,对模型进行管理。4)熟练SPSS MODELER软件工具的应用。5)结合自身特点与兴趣,找准定位,做好职业规划。赠送一、课程目标:1)KETTLE应用广泛,仅仅学会使用就可以找到一份不错的工作。2)本课程不仅讲解简单实用,同时讲解二次开发并且配有开发模板,提升工作质量。3)渗透了大数据的一些处理方法,与目前流行的hadoop配合使用。4)分析KETTLE源码,即使对ETL兴趣不大,至少可以了解国外开源项目的一些源码,并且KETTLE本身也使用了很多开源项目,因此可以从该工具上学到更多东西。二、通过课程可以学到什么:1)ETL过程原理2)数据流引擎的原理3)元数据和数据进行动态数据交换的设计4)并发运算的原理赠送

一、R语法详解:1)R的核心数据结构之向量、因子的区别和使用技巧2)R的核心数据结构之矩阵、数据框、数组、列表的区别和使用技巧3)R的控制结构(包括分支结构和循环结构)、函数和包、以及向量化计算二、数据组织和整理:1)数据导入,从多种数据源导入数据2)数据预处理之缺失值的处理3)数据预处理之数据转换,数据筛选三、建立数据分析的统计思维和可视化探索:四、用回归预测未来:1)线性回归的思想,代码、结果的详细解读;2)多项式回归、多元线性回归五、聚类方法:1)层次聚类和k-means聚类方法六、数据降维——主成分分析和因子分析:七、关联规则:1)用关联规则做购物车分析八、决策树:1)决策树算法ID.3、C4.5、CART算法区别和演示2)分类效果的评价方式赠送

一、Mahout数据挖掘工具1)数据挖掘概念、系统组成2)数据挖掘常用方法及算法(回归分析、分类、聚类等)3)数据挖掘分析工具4)Mahout支持的算法5)Mahout起源和特点6)Mahout安装、配置及测试7)实战:Mahout K-means聚类分析8)Mahout实现Canopy算法9)Mahout实现分类算法10)实战:Mahout逻辑回归分类预测11)实战:Mahout朴素贝叶斯分类12)推荐系统的概念及分类13)协同过滤推荐算法概念、分类及应用14)实战:实现基于Mahout的电影推荐系统二、Hadoop综合实战-文本挖掘项目1)文本挖掘的概念及应用场景2)项目背景3)项目流程4)中文分词技术5)庖丁分词器的使用6)MapReduce并行分词程序的设计与实现7)Pig划分数据集8)Mahout构建朴素贝叶斯文本分类器9)模型应用-计算用户偏好类别赠送

1)Python与金融应用概述2)Python的基本数据类型与数据结构3)Python数据可视化4)金融时间序列分析5)输入输出操作6)提升Python效率7)数学工具8)随机分析9)统计分析10)数值分析技术11)使用Python操作Excel12)Python面向对象编程与图形用户界面13)金融中的大数据技术概述14)案例1:使用Python构建期权分析系统15)案例2:使用Python构建简单的算法交易系统赠送1)大数据深度挖掘2)大数据存储3)大数据处理解决方案4)纯分布式数据库:Cassandra5)云计算与数据库相结合的技术6)HDFS7)GANGLIA8)交通数据处理实例9)数据入库接口开发10)SQOOP命令11)dfsadmin命令12)Sqoop的常见问题及其解决方法13)NameNode单点问题14)SecondaryNameNode机制15)Avatar元数据同步机制16)数据立方17)存储内存优化18)性能测试19)CDR数据文件的检测与索引创建任务调度20)地震数据实时存储处理以及优化赠送


发布者:admin,转转请注明出处:http://www.yc00.com/web/1705224808a1400165.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信