[帮助文档] AnalyticDB PostgreSQL读写HDFS、Hive或MySQL外部数据

若您需要通过AnalyticDB PostgreSQL版访问外部异构数据源(HDFS、Hive和JDBC)时,可以使用异构数据源访问功能将外部数据转换为AnalyticDB PostgreSQL版数据库优化后的格式进行查询和分析。

[帮助文档] 如何使用AnalyticDB MySQL湖仓版(3.0)Spark访问Hive数据

AnalyticDB MySQL湖仓版(3.0)支持访问Hive数据源。本文以E-MapReduce集群的Hive服务为例,介绍使访问Hive数据的方法。

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

RDS MySQL 高效设计及性能调优

1 课时 |
802 人已学 |
免费
开发者课程背景图

[帮助文档] 如何把MySQL整个数据库的数据离线同步到Hive

本文以MySQL为源端,Hive为目标端场景为例,为您介绍如何把MySQL整个数据库的数据离线同步到Hive。

[帮助文档] 如何将Hive数据导入AnalyticDB MySQL湖仓

云原生数据仓库AnalyticDB MySQL版湖仓版(3.0)支持通过Hive数据迁移将Hive数据迁移至OSS。本文介绍如何添加Hive数据源,新建Hive迁移链路并启动任务,以及数据迁移后如何进行数据分析和管理数据迁移任务。

使用Sqoop导出Mysql数据到Hive(实战案例)

使用Sqoop导出Mysql数据到Hive(实战案例)

0x00 教程内容SQL文件准备导出Mysql数据到Hive前提:安装好了Hive安装好了Sqoop0x01 SQL文件准备1. 准备sql脚本a. 准备建表与添加数据sql文件2. 执行sql脚本source /home/hadoop/scripts/sql/init_exec.sqlPS:文件多...

[帮助文档] 集成任务从Hive集成到MySQL运行有很多Speed0B/S的记录

问题描述本文主要描述了Dataphin集成任务从Hive集成到MySQL运行很慢 ,有很多Speed 0 B/S的记录的解决方法。问题原因数据源负载高、内存配置不合理导致速率慢解决方案配置的内存为1024 ,建议翻倍 。适用于Dataphinv2.9.4-3

Sqoop从mysql抽取数据到hive中

应用场景 当我们部署搭建完sqoop后,之前的数据都放到了mysql中,现在我们需要把mysql中的数据抽取到hive中,那通过sqoop该如何操作呢? 操作步骤 1. 准备mysql上需要抽取的数据 比如test库中的test表 2. 在主节点连接hive,并在其中创建库名【以test举例】 3....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云数据库
阿里云数据库
让用户数据永远在线,让数据无缝的自由流动
279456+人已加入
加入
相关电子书
更多
PolarDB-X:更具性价比的 MySQL替换
2023云栖大会:AnalyticDB MySQL新特性介绍
2023云栖大会:云数据库RDS - 年度产品发布与最佳实践
立即下载 立即下载 立即下载
相关镜像