这份简历专注于展示个人在大数据领域内的丰富经验和专业技能,特别强调了与数据处理、分析相关的项目经历。适合寻求大数据相关职位的专业人士使用。
大数据详细项目简历:
离线项目:用户行为标签的智能气象服务系统
个人职责:
1. 运用Flume采集源数据,并将其存放于Kafka消息队列中。
2. 采用Kstream框架对数据进行初步清洗与变换,使用Java API将数据导入HBase。
3. 使用Hive集成Hbase,执行ETL操作以进一步处理和清理数据。
4. 协助团队成员利用Hive提取特征值,并运用Spark ML构建预测模型。
5. 参与模型检验及随机森林算法的调优工作。
6. 编写脚本段落件将数据导出至MySQL数据库中,使用Tableau工具进行可视化分析。同时参与编写Oozie任务调度脚本,实现自动化的工作流调控。
实时项目:实时气象数据展示大屏搭建
个人职责:
1. 与客户沟通确定需要在显示屏上展示的指标、计算逻辑及对应的数据源情况,并明确更新频率要求。
2. 根据客户需求使用Flume进行日志信息的实时采集,将收集到的信息存储于Kafka消息队列中。
3. 利用Spark Streaming对数据执行清洗、加工和处理操作,形成最终展示指标并将其存入MySQL数据库供前端开发团队使用。
4. 分析数据结果以提取有效信息,并提出书面或口头形式的指导性意见与结论。此外还参与小型气象站及自动化监测系统的安装工作,在现场负责布置传感器和其他设备布点任务。