教育部2017年产学合作协同育人项目
全国高校大数据专业师资培训班(邀请函)
2017年4月18日,教育部高教司官网发布,北京奇观技术携手博创智联成为的产学合作协同育人项目的合作企业。这次与教育部、全国高校联合共建的项目包括教学内容和课程体系改革,创新创业教育改革,实践条件建设,师资培训,大学生实习实训基地五个方面,深入推进科教合作、产教融合、校企合作,深化高校创新创业教育改革,将社会优质资源转化为育人资源,为企业和高校合作搭建平台。
本期全国高校大数据暑期师资培训班即将在北京举办。本期培训由中国电子学会嵌入式系统与机器人分会主办,国内大数据知名企业一线研发人员亲自授课。本期培训课程内容是针对全国高校计算机方向量身定制的,涵盖了系统安装配置、提供上层编程API、二次开发、提供上层应用开发者二次开发的接口,可以基于底层现有平台开发多样化的管理系统等内容,其中包括OpenStack、Marvel Sky Cloud和Hadoop工程师等技术。课程结合Hadoop集群及运算环境,实践感知理论,案例生动丰富,力求使学员能够在短时间内掌握大数据的基本知识,提高实践指导能力。
现诚邀全国高校计算机方向的相关专业(计算机科学与技术、软件工程、信息工程、大数据、通信工程、电子工程等专业)学科带头人、一线教学实验骨干教师参加。
主办单位:中国电子学会嵌入式系统与机器人分会
承办单位: 中原工学院
协办单位:北京奇观技术有限责任公司
北京博创智联科技有限公司
一、培训时间:2017年7月6日 至 7月12日(7天)
二、培训地点: 中原工学院
三、培训资料:提供全套大数据课程教学课程包,包括:
①全套理论PPT讲稿、教材、授课大纲、教师参考手册;
②全套实验用PPT讲稿、实验指导书;
③全部实验源代码光盘、设计型实验案例及综合实验案例源代码。
四、报名安排:
Ø 报名时间:即日起 至 2017年6月30日截止报名。
Ø 我们会于2017年6月30日前下发确认通知(培训地点、用餐、住宿、乘车路线等信息);
Ø 培训费用:4800元/人,含内部培训资料、上机费用、工信部颁发的结业证书费。食宿统一安排,费用自理;
Ø 学员限额:30人;
五、师资证书:
1、 教育部2017年产学合作协同育人项目---大数据师资培训证书
2、 工业和信息化部中国电子学会颁发的培训结业证书;证书信息会在中国电子学会备案并可在中国电子学会官网教育培训处查询!
3、 培训教师可以申请加入嵌入式系统与机器人分会,成为会员。
4、培训院校可以申请与嵌入式系统与机器人分会联合共建实验室。
六、报名方式:
填写“报名回执表”并发送至邮@
负责人:付老师 010-82177260
七、汇款方式:
报名学员请于培训前将培训费用汇款至以下账户,培训学员于培训当天领取发票。
汇款账户信息如下:(以下是唯一指定汇款账户)
开户名称:北京奇观技术有限责任公司
银行帐号:0200004509201181780
开户银行:中国工商银行股份有限公司北京海淀西区支行
中国电子学会嵌入式系统与机器人分会
2017年5月25日
附件1:课程安排(上课时间:上午9:00-12:00;下午14:00-17:00)
大数据 | |||||||||
阶段1 | Hadoop基础实战 | 周期 | 7天 | ||||||
综合项目 | 1、基于Ubuntu的Hadoop集群安装、配置及管理 (高可用HA) 2、Eclipse连接HDFS进行文件操作 3、HBase分布式数据库的安装、配置及应用开发 4、MapReduce编程模型实践(数据排序、数据去重、数据统计) 5、分布式文件系统HDFS命令操作。 6、Hive数据仓库应用实践 | ||||||||
阶段目标 | 1、掌握Hadoop原理机制,熟悉Hadoop集群体系结构、核心技术。 2、掌握基本的Hadoop管理方式方法 3、掌握HDFS API开发技能。 4、掌握非关系数据库HBase的基本安装管理管理。 5、掌握MapReduce并行计算模型的原理与实践。 6、掌握Hive数据仓库工作原理及HiveQL应用 7、掌握Spark生态系统及Spark Streaming、Spark MLlib的原理与实践 | ||||||||
日期 | 内容 | 时间 | 目标/知识点 | 实战演示 | |||||
第一天 | Hadoop入门 | 9:00-12:00AM | 1、Hadoop概述 2、Hadoop的功能与作用 3、Hadoop应用现状及发展趋势 4、Hadoop项目及其结构 5、Hadoop体系结构 6、Hadoop与分布式开发 7、Hadoop计算模型 | ||||||
14:00-17:00PM | 8、HDFS的数据管理 9、HBase的数据管理 10、Hive的数据管理 11、Hadoop集群安全策略 12、本章小结 | ||||||||
第二天 | Hadoop的安装与配置 | 9:00-12:00AM | 13、Hadoop平台搭建技术依赖 14、JDK安装与配置 15、tzseleck的功能介绍 16、ntp时间同步服务器的描述 17、SSH安全外壳协议 18、SSH免密登陆验证 19、Hadoop集群配置文件 20、Hadoop集群配置参数 21、Hadoop集群搭建帮助文档 22、Hadoop分布式集群搭建的运行方式 23、搭建Hadoop集群的基本流程 | ||||||
14:00-17:00PM | 24、集群网络拓扑 25、定义集群拓扑 26、基于Ubuntu环境分布式集群设计 27、Ubuntu权限用户root登陆设置 28、集群服务器网络设置 29、集群服务器主机名设置 30、集群服务器IP地址解析设置 31、Ubuntu下JDK的安装 32、Ubuntu下SSH免密登陆验证安装设置 33、zseleck的时区时间设置 34、集群ntp时间同步服务器的安装与设置 35、Hadoop基本文件的配置 36、Hadoop环境变量的配置 37、Hadoop基本配置的分发 38、Hadoop集群启动 39、Hadoop集群测试 40、Hadoopfs帮助命令 41、Hadoopdfsadmin帮助命令 42、Hadoop集群状态查看管理帮助命令 43、本章小结 | ||||||||
第三天 | 实验 | 9:00-12:00AM | 44、基于Ubuntu的Hadoop集群安装与配置 | ||||||
Hbase分布式数据存储原理 | 14:00-17:00PM | 45、大数据数据存储的类型 46、HBase概念 47、HBase体系结构 48、HBase数据存储原理 49、HBase数据模型 50、HBase与Hadoop关系 51、HBase与HDFS关系 52、Hregion概念与HRegion服务器 53、HMaster概念与HMaster服务器 54、ROOT表与METE表 55、Hbase的表结构 56、行、列、列族、时间戳 57、逻辑视图与物理视图 | |||||||
第四天 |
Hbase分布式数据存储实践
| 9:00-12:00AM
| 58、Zookeeper概念 59、Zookeeper在Hadoop中的工作原理 60、Zookeeper与Hbase的关系 61、Zookeeper的安装与配置 62、Hbase的搭建与部署 63、Hbase Shell简介 64、Hbase Shell的基本用法 65、create创建表命令 66、list查询表命令 67、describe描述表结构命令 68、put增加记录命令 69、get查询记录命令 70、scan遍历表命令 71、其他命令 72、Hbase API简介 73、HBaseAdmin、HBaseConfiguration类的使用 74、HTable、HTableDescriptor、HColumnDescriptor类的使用 75、Put、Get、Scanner 类的使用 | ||||||
14:00-17:00PM | 76、Eclipse开发HBase编程实例(学生成绩管理) | ||||||||
第五天 | MapReduce核心技术 | 9:00-12:00AM | 77、MapReduce编程模型介绍 78、MapReduce的执行过程 79、MapReduce在数据流和控制流 80、MapReduce编程接口体系结构 81、MapReduce API基本概念 82、序列化和回调机制 83、Reporter参数 84、Mapper、Reducer、Partition接口的使用 85、InputFormat、OutputFormat接口的使用 86、MapReduce内置数据类型 87、MapReduce的开发流程 88、MapReduce开发环境配置 89、MapReduce任务调度 90、数据预处理与InputSplit的大小 | ||||||
实验 | 14:00-17:00PM | 91、案例实战:MapReduce编程模型实践(数据排序、数据去重、数据统计) | |||||||
第六天 |
Hive数据仓库实践
| 9:00-12:00AM | 91、数据仓库的概念、特点 92、Hive数据仓库的概述 93、Hive体系结构 94、Hive的基本组成 95、Hive与MapReduce的关系简述 96、Hive工作原理 97、Hive的元数据存储 98、Hive数据仓库的搭建与部署 99、Hive访问方式 100、Hive的数据类型 101、Hive表的创建、数据的加载 102、Hive表的修改与删除 103、内部表与外部表 104、表的分区与桶的建立 105、Hive SQL简单查询语句 106、Hive SQL查询语句 107、HiveQL视图 108、Hive索引使用 109、Hive的存储类型和复合数据类型 110、Hive函数的使用 | ||||||
14:00-17:00PM | 111、案例实战:Hive数据仓库基本操作、查询。 112、案例实战:基于Hive的Hadoop日志分析 | ||||||||
第七天 | 大数据处理挖掘技术 | 9:00-12:00AM | 113、Spark及其生态系统 114、Spark简介与原理 115、Spark Core、Spark SQL介绍 116、Spark Streaming、MLib、GraphX 117、Spark编译与部署 118、Spark编程模型(一)编程模型及SparkShell实战 119、Spark编程模型(二)IDEA搭建及实战 120、Spark运行架构分析 | ||||||
14:00-17:00PM | 121、SparkSQL(一)SparkSQL简介 122、SparkSQL(二)深入理解运行计划及调优 123、SparkSQL(三)Spark实战应用 124、Spark Streaming实时流计算原理与实践 125、Spark MLlib(一)机器学习库SparkMLlib介绍 126、Spark MLlib(二)机器学习库SparkMLib实战 127、Spark图计算GraphX | ||||||||
附件2:大数据师资培训班
报 名 回 执 表
为使报名程序顺利完成,请完整提供以下信息并发送至:xiaoyao.fu@
学 校 | 院 系 | ||||
地 址 | 邮 编 | ||||
电 话 | 传 真 | ||||
报名人员信 息 | 姓 名 | 性别 | 手 机 | 职务/职位 | 邮 箱 |
发票信息 | 发票抬头: 发票内容:培训费 (还可提供 会务费、会议费,可在”培训费”处修改) 发票金额: 元 ;发票数量: 张 (1人以上交费的,可开一张总额发票,或单笔开数张发票;根据自身情况自由改写。) | ||||
住 宿 | 入住日期: 月 日; 退房日期: 月 日 房间数量: 间;(标间 或 大床) |
姓名 | 身份证号码 |
如需要培训结业证书请提供身份证号码:
- 郑州铁路局信息化上“云”,管理走上快车道 2017-04-18
- 深圳巨鼎医疗影像设备腾“云”直上 2017-04-18
- 奇观云教室打造财政局专业标准化考场 2017-04-18
- 北京奇观技术与“甲骨文”签署大数据战略合作框架协议 2016-12-19
- “共同发展,互利共赢,协同创新” 校企合作模式 2016-12-12
- 北京奇观技术有限责任公司发布“奇”步计划 2016-12-12
- 奇观与山西财专云计算大数据综合实训室方案论证会 2016-11-11
联系方式
- 地址:北京 北京市海淀区上地信息路1号1号楼1003
- 邮编:430000
- 电话:010-82177260
- 联系人:李军
- 手机:18210229721
- Email:l19891223j@126.com