AnalyticDB MySQL湖仓版的用户运营分析实践

方案介绍
AnalyticDB MySQL湖仓版的用户运营分析实践

本架构将Kafka数据实时同步到云原生数据仓库AnalyticDB MySQL湖仓版,在AnalyticDB MySQL湖仓版中进行数据清洗、分库分表、与云数据库RDS MySQL同步到AnalyticDB MySQL湖仓版的用户维度表进行多表关联聚合分析。最终在Quick BI呈现可视化的用户运营分析看板。

解决问题:数据一致性差

数据多次在实例间同步,存在一定的延时,造成数据存在时效性问题,有数据不一致风险。

解决问题:数据冗余

同一份数据保存在多个实例中,数据存储成本高。

方案优势
实时入湖
海量Kafka数据通过APS链路实时入湖。
湖仓一体
数据可自由在湖仓和数仓之间流转。既具备湖仓的灵活性,又具有数仓的规范性、高效性。
资源隔离与弹性伸缩
离线资源与在线资源隔离,且支持自动灵活伸缩。
应用场景
大数据分析
快速处理海量的数据,支持多维度的复杂数据分析,适用于大数据分析场景。
数据集成
覆盖日志、消息、数据库、HDFS等结构化和非结构化的数据源,可以将多个数据源的数据进行整合,形成更为全面的数据视图。
即席查询与自助分析
实时数据可直接接入BI工具,实现实时自主分析,快速洞察数据,可帮助企业优化业务流程,提高效率,降低成本,同时增强企业在市场竞争中的竞争力。
方案部署
01部署准备
完成账号申请、服务开通、网络规划、资源规划等准备工作。
02部署资源
根据规划,完成AnalyticDB MySQL湖仓版、RDS MySQL等产品部署。
03配置业务
完成数据同步以及数据链路等配置,实现聚合分析以及可视化分析报告。
04完成及清理
查看分析报告验证方案,然后释放资源。
高价值用户挖掘及触达
高价值用户挖掘及触达方案实现营销触达全链路。本方案使用阿里云机器学习平台PAI的强大算法能力,通过对用户数据的计算和预测,辅助客户对人群营销决策的判断,在用户召回,流失预测,高价值用户寻找等多个运营场景,帮助客户降低成本,提高效率;客户可通过短信的方式触达用户,完成营销触达的全链路操作。
Flink+Hologres搭建实时数仓
Flink+Hologres搭建实时数仓解决方案将Hologres与Flink深度集成,提供一体化的实时数仓联合解决方案,实现了数仓分层之间实时数据的高效流动,解决实时数仓分层问题。本方案支撑各个业务方的报表查询(交易大屏、行为数据分析、用户画像标签)以及个性化推荐等多个业务场景,具有中间层数据可查、支持数仓分层复用和架构简单等优势。