Catalog概述

目前支持创建以下数据源的External Catalog:Hive数据源:用于查询Hive数据。Iceberg数据源:用于查询Iceberg数据。Hudi数据源:用于查询Hudi数据。使用External Catalog查询数据时,StarRocks会用到外部数据源的两个组件:元数据服务:...

查询Delta表数据

如果需要向Delta表中添加字段(使用ADD COLUMN),为了避免Hive查询数据异常的情况,建议将新增字段追加到分区字段之前。更多详细信息,请查看 ALTER TABLE。执行以下命令,进入Hive命令行。hive 执行以下命令,在Hive中查看Delta表的数据...

常见问题

Hive查询Hudi数据重复,如何处理?Spark查询Hudi表分区裁剪不生效?使用Spark的alter table语句时,报错xxx is only supported with v2 tables,如何处理?Spark查询Hudi数据重复,如何处理?问题原因:出现Spark查询hudi数据重复,通常是...

Flink Table Store与Hive集成

E-MapReduce的Flink Table Store服务支持在Hive查询数据。本文通过示例为您介绍如何在Hive中查询Flink Table Store中的数据。使用限制 仅EMR-3.45.0版本、EMR-5.11.0版本的集群,支持在Hive中查询Flink Table Store中的数据。操作步骤 ...

创建EMR Hive节点

使用EMR Hive节点查询数据时,返回的查询结果最大支持10000条数据,并且数据总量不能超过10M。如果您的工作空间绑定多个EMR引擎,则需要根据业务需求选择合适的引擎。如果仅绑定一个EMR引擎,则无需选择。如果您需要修改代码中的参数赋值,...

Hive数据

通过Hive Catalog,您可以直接查询Hive中的数据。本文为您介绍如何创建和查看Hive Catalog。创建Hive Catalog 语法 ​ CREATE EXTERNAL CATALOG<catalog_name>PROPERTIES("key"="value",.);参数说明 catalog_name:Hive Catalog的名称,必...

Hive数据

通过Hive Catalog,您可以直接查询Hive中的数据。本文为您介绍如何在E-MapReduce的StarRocks集群上创建和查看Hive Catalog。前提条件 已创建包含Hive服务的集群,例如DataLake或Custom集群,详情请见 创建集群。已创建包含StarRocks服务的...

Paimon与Hive集成

E-MapReduce支持在Hive查询Paimon数据。本文通过示例为您介绍如何在Hive查询Paimon中的数据。使用限制 EMR-3.46.0及后续版本、EMR-5.12.0及后续版本的集群,支持在Hive查询Paimon中的数据。操作步骤 查询Hive Catalog与DLF Catalog中...

Dataphin将csv文件同步到hive库,目标hive库字段值为...

产品名称 Dataphin 产品模块 数据集成 概述 通过该问题的分析处理过程,提供以下场景问题处理排查思路和注意点:管道任务数据集成到hive之后,hive查询集成数据为空 问题描述 将本地csv文件数据集成到hive库中,任务运行成功,但是查询...

EMR-4.5.x版本说明

修复Hive和Presto查询数据的问题。Impala 支持在EMR控制台自定义配置 catalogd.flgs、impalad.flgs 和 statestored.flgs。Tez Tez UI的autoDeploy相关漏洞修复。OpenLDAP 增加10389端口等待的判断。Hue MySQL Backend安全漏洞修复。...

使用Hive查询JindoFS上的数据

例如,创建名为database_on_jindofs,location为 jfs:/emr-jfs/warehouse/database_on_jindofs 的Hive数据库。CREATE DATABASE database_on_jindofs LOCATION 'jfs:/emr-jfs/hive/warehouse/database_on_jindofs';修改Database的Location到...

Hive访问EMR Phoenix数据

在阿里云E-MapReduce(EMR)中,Hive支持通过配置...如果可以正常查询数据,说明Hive已经成功访问了Phoenix的数据。相关文档 Phoenix更多的介绍,请参见 Phoenix。Phoenix接入Hive的内容,请参见 Phoenix Storage Handler for Apache Hive

配置连接器

连接器 功能 对应文档 hive 使用Hive连接器可以查询存储在Hive数据仓库中的数据。Hive连接器 kudu 使用Kudu连接器可以查询、插入和删除存储在Kudu里的数据。Kudu连接器 iceberg 使用Iceberg连接器可以查询Iceberg格式的数据文件。Iceberg...

配置连接器

连接器 功能 hive 使用Hive连接器可以查询存储在Hive数据仓库中的数据。kudu 使用Kudu连接器可以查询、插入和删除存储在Kudu里的数据。mysql 使用MySQL连接器可以在外部MySQL实例中查询和创建表。iceberg 使用Iceberg连接器可以查询Iceberg...

配置连接器

连接器 功能 对应文档 Hive 使用Hive连接器可以查询存储在Hive数据仓库中的数据。Hive连接器 Kudu 使用Kudu连接器可以查询、插入和删除存储在Kudu里的数据。Kudu连接器 MySQL 使用MySQL连接器可以在外部MySQL实例中查询和创建表。MySQL连接...

快速使用数据湖分析版实例

步骤四、查询数据 查看Catalog中的所有数据库 SHOW DATABASES FROM hive_catalog;可能的结果如下所示。Database|+-+|default|test_db|+-+查看Catalog中的所有数据表 SHOW TABLES FROM hive_catalog.test_db;可能的结果如下所示。Tables_in_...

Dataphin中从SAP HANA向Hive同步数据数据精度丢失

问题描述 Dataphin中从SAP HANA...问题原因 从Hive中表结构可以看出,字段定义的是decimal(10,0)格式,因此同步到Hive数据只有整数。解决方案 修改Hive中对应字段格式,需要具有小数位数。适用于 适用产品:Dataphin 适用版本:独立部署3.9.1

HDFS数据

类型分类 数据集成column配置类型 Hive数据类型 整数类 long tinyint、smallint、int和bigint 浮点类 double float和double 字符串类 string string、char、varchar、struct、map、array、union和binary 日期时间类 date date和timestamp ...

使用Presto访问

Presto支持在线数据查询,包括Hive、Cassandra、关系数据库以及专有数据存储。说明 本文中Presto是通过连接Hive的元数据服务来读取文件存储HDFS上的数据,在文件引擎上使用Presto时需要额外配置一些依赖包,详细操作步骤请参见 配置Presto...

配置Hive输出组件

Hive输出组件用于向Hive数据源写入数据。同步其他数据源的数据至Hive数据源的场景中,完成源数据源的信息配置后,需要配置Hive输出组件写入数据的目标数据源。本文为您介绍如何配置Hive输出组件。使用限制 Hive输出组件支持写入文件格式为 ...

使用Spark处理JindoFS上的数据

scala>a.collect().saveAsTextFile("jfs:/emr-jfs/output")SparkSQL 创建数据库、数据表以及分区时指定Location到JindoFS即可,SparkSQL处理JindoFS上的数据与HiveSQL类似,详情请参见 使用Hive查询JindoFS上的数据。对于已经创建好的存储...

Hive访问Delta Lake和Hudi数据

Hive不支持写入数据到...Hive查询Hudi 说明 Hudi仅支持Spark或者Flink建表和写入数据,Hive仅支持查询。直接输入 hive 命令进入Hive CLI命令行或者通过Beeline连接Hive ThriftServer,然后执行SQL语句即可。示例如下。select select*from h0;

SQL

查询类SQL任务 以Hive数据源为例,演示如何创建一个查询类的SQL任务。该示例查询了上述示例中创建的hive_table表中的数据。SQL任务节点设置中,数据源类型选择为 HIVE数据源实例 选择已添加的HIVE数据源(与上述非查询类SQL任务示例中...

Ambari与文件引擎集成

执行以下命令,查询Hive上的数据。0:jdbc:hive2:/ambaritest1:2181,ambaritest2:>select*from foo;若返回结果如下,则表示Hive服务安装并启动成功。安装Spark服务 登录 Ambari管理系统,单击Services旁边的 图标,单击 Add Service,并将 ...

MMA概述

数据迁移原理 Hive数据迁移原理 Hive数据迁移包含通过Hive UDTF迁移数据到MaxCompute、通过OSS迁移Hive数据到MaxCompute,本文为您介绍两种数据迁移方式的原理。通过Hive UDTF迁移数据到MaxCompute。该场景通过Hive的分布式能⼒,实现Hive...

配置Hive输入组件

Hive输入组件用于读取Hive数据源的数据。同步Hive数据源的数据至其他数据源的场景中,您需要先配置Hive输入组件读取的数据源,再配置数据同步的目标数据源。本文为您介绍如何配置Hive输入组件。使用限制 Hive输入组件支持数据格式为 orc、...

Dataphin集成任务同步数据Hive报错“GSS initiate ...

问题描述 Dataphin集成任务同步数据到Hive报错“GSS initiate failed”。问题原因 Hive数据源kerberos认证没有成功。解决方案 检查Hive数据源的连通性以及集群认证的相关票证是否正常。适用于 Dataphin

使用SQL管理外部项目

基于Hadoop外部数据源的外部项目操作 按照如下命令,查询Hadoop中Hive数据。执行作业需要在普通项目下,不能是外部项目。use;访问阿里云E-MapReduce表必须设置,访问MaxCompute内部表不需要。set odps.sql.hive.compatible=true;指定写出...

数据Hive

前提条件 请确保您的网络连通性:您通过公网连接Quick BI与Hive数据库,请添加 Quick BI的IP地址 至数据库白名单,请参见 添加安全组规则。您通过内网连接Quick BI与Hive数据库,请搭建跳板机,并通过SSH隧道访问登录并访问数据库。已创建...

JindoTable表或分区访问热度收集

数据查询 JindoTable提供了命令方式查询热度信息。语法 jindo table-accessStat[days]>[topNums]>days 和 topNums 为正整数。当只设置天数为1时,表示查询从本地时间当天0:00开始到现在的所有访问记录。功能 查询在指定时间范围内,访问最...

JindoTable表或分区访问热度收集

数据查询 JindoTable提供了命令方式查询热度信息。语法 jindo table-accessStat[days]>[topNums]>days 和 topNums 为正整数。当只设置天数为1时,表示查询从本地时间当天0:00开始到现在的所有访问记录。功能 查询在指定时间范围内,访问最...

JindoTable表或分区访问热度收集

数据查询 JindoTable提供了命令方式查询热度信息。语法 jindo table-accessStat[days]>[topNums]>days 和 topNums 为正整数。当只设置天数为1时,表示查询从本地时间当天0:00开始到现在的所有访问记录。功能 查询在指定时间范围内,访问最...

JindoTable表或分区访问热度收集

数据查询 JindoTable提供了命令方式查询热度信息。语法 jindo table-accessStat[days]>[topNums]>days 和 topNums 为正整数。当只设置天数为1时,表示查询从本地时间当天0:00开始到现在的所有访问记录。功能 查询在指定时间范围内,访问最...

JindoTable表或分区访问热度收集

数据查询 JindoTable提供了命令方式查询热度信息。语法 jindo table-accessStat[days]>[topNums]>days 和 topNums 为正整数。当只设置天数为1时,表示查询从本地时间当天0:00开始到现在的所有访问记录。功能 查询在指定时间范围内,访问最...

JindoTable表或分区访问热度收集

数据查询 JindoTable提供了命令方式查询热度信息。语法 jindo table-accessStat[days]>[topNums]>days 和 topNums 为正整数。当只设置天数为1时,表示查询从本地时间当天0:00开始到现在的所有访问记录。功能 查询在指定时间范围内,访问最...

Quick BI新建hive数据源后将简单SQL放到数据集中运行...

问题描述 Quick BI新建hive数据源后将简单SQL放到数据集中运行报错io.grpc.StatusRuntimeException:INTERNAL:java.sql.SQLException:org.apache.spark.sql.catalyst.parser.ParseException,错误情况如下:问题原因 将spark数据源当作hive...

Hive数据按行过滤

Ranger支持对Hive数据按行进行过滤(Row Level Filter),即可以对Select返回的结果按行进行过滤,只显示满足指定条件的行。本文介绍如何将Hive数据按行进行过滤。前提条件 已创建集群,并选择了Ranger服务,详情请参见 创建集群。已创建按...

元数据管理常见问题

mysql-h${DBConnectionURL}-u${ConnectionUserName}-p 登录Hive数据库后,修改Location为该Region真实存在的OSS路径即可。如何登录内置的MySQL?通过SSH方式连接集群。详情请参见 登录集群。执行以下命令,登录内置的MySQL。mysql-uroot-...

Hive数据脱敏

Ranger支持对Hive数据的脱敏处理(Data Masking),即可以对Select的返回结果脱敏,以屏蔽敏感信息。背景信息 该功能只针对HiveServer2的场景(例如,Beeline、JDBC和Hue等途径执行的Select语句)。操作步骤 说明 本文Ranger截图以2.1.0...

API概览

DescribeColumnsV2 查询数据资产表中列的数据V2 调用DescribeColumns接口查询数据安全中心连接授权的MaxCompute、RDS等数据资产表中列的数据。DescribeOssObjects 查询OSS的存储对象列表 调用本接口查询连接授权的OSS的存储对象列表。...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用