在 PolarDB-X 的AUTO模式数据库中,所有表都从属且只属于一个表组,同一个表组内的表分区方式一致,同一表组内的表之间的关联查询可以下推到存储节点执行,执行效率得到了很大的提高。本语法仅适用于AUTO模式数据库。为了方便将表关联到同...
TABLE bar 1 row(s)Took 0.0138 seconds 退出HBase Shell后,执行以下命令验证表数据。命令格式如下。hadoop fs-ls oss:/${OSS-HDFS服务的域名}/{dir} 例如,执行以下命令。hadoop fs-ls oss:/test_bucket....
如果表非Transactional表,您可以通过如下方法删除:执行 drop 命令删除表,达到删除数据的目的。如果是非分区表,您可以执行 truncate table table_name;命令清空表数据或通过 insert overwrite 命令实现类似的功能。示例一:删除TableA表...
MaxCompute基于阿里云云命令行,为您提供云上客户端环境,您无需手动安装即可通过云命令行工具使用客户端(odpscmd)。本文为您介绍MaxCompute的云命令行(odpscmd)的使用注意事项和简单示例。前提条件 若通过RAM用户登录MaxCompute的云...
ALTER TABLE…ADD PARTITION命令用于将分区添加到现有的分区表中。语法介绍 使用ALTER TABLE…ADD PARTITION命令把分区添加到现有的分区表中。语法如下:ALTER TABLE table_name ADD PARTITION partition_definition;其中 partition_...
ALTER TABLE…EXCHANGE PARTITION命令可以用一个分区或子分区交换现有的表。语法介绍 如果您打算添加大量的数据到分区表中,可以使用ALTER TABLE…EXCHANGE PARTITION命令来进行批量加载。您也可以使用ALTER TABLE…EXCHANGE PARTITION命令...
缺点:每一个表都要用命令同步一次,如果表很多的话操作比较繁琐。参数说明 参数 说明-initially-drop-old-table 检查并删除已经存在的旧表。initially-drop-ghost-table 检查并删除已经存在的ghost中间表。aliyun-rds 在阿里云RDS上执行。...
您可以在已经创建好的E-MapReduce(简称EMR)集群中,直接使用Alluxio Shell命令来对Alluxio中的文件进行操作,也可以使用Hadoop Shell命令操作Alluxio中的文件。本文为您介绍Alluxio的常见命令。前提条件 已创建集群,并选择了Alluxio服务...
命令查看分区表或非分区表的行数。创建的表为什么在DataWorks上看不到?如果表不是通过 DataWorks可视化创建方式 创建的,而是通过SQL语句创建,DataWorks界面不会立即显示创建的表,会存在2~3个小时的延时。分区和分区列的区别是什么?...
常用命令 本文以Linux系统的Shell命令为例,介绍运维的常用命令,具体命令如下表所示。说明 命令中使用自定义参数可提高命令的适用性。以下示例命令中{{key}}格式的参数为自定义参数,执行命令时打开 使用参数,在 命令参数 中输入参数的值...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示表。show tables;执行如下命令显示分区。show ...
创建索引 您可以使用 CREATE INDEX 命令在表上创建索引,创建索引示例如下:B-Tree索引 在employee表的gender列上创建一个B-Tree索引。CREATE INDEX gender_idx ON employee(gender);位图索引 在films表中的title列上创建一个位图索引。...
使用Tunnel Upload命令向表wc_in中插入数据。命令示例如下。tunnel upload data.txt wc_in;更多Tunnel信息,请参见 Tunnel。使用 jar 命令调用生成的JAR包,运行MapReduce作业。命令示例如下。jar-resources mapreduce-1.0-SNAPSHOT.jar-...
MaxCompute支持在项目级别为用户设置访问许可等级标签,为表或表的列设置敏感等级标签(Label),用户仅可以访问MaxCompute项目中敏感等级小于等于自身访问许可等级的表或列数据。本文为您介绍Label授权操作并提供示例供参考。背景信息 ...
本文主要为您介绍如何使用Hive或者HadoopMR访问表格存储中的表。数据准备 在表格存储中准备一张数据表pet,name是唯一的一列主键,数据示例请参见下表。说明 表中空白部分无需写入,因为表格存储是schema-free的存储结构,没有值也无需写入...
单击 刷新源表和MaxCompute表映射 将根据您在步骤三配置的目标文件映射规则来生成目标表,若步骤三未配置映射规则,将默认写入与源表同名的目标表,若目标端不存在该同名表,将默认新建。同时,您可以修改表建立方式、为目标表在源有表字段...
注意事项 显式授予用户的表的列Label权限,会覆盖显式授予用户的表的Label权限。命令格式 grant Label<number>on table[()]to {USER|ROLE}[with exp];参数说明 参数名称 是否必填 说明 number 是 指定用户或角色可访问的最高数据敏感等级。...
命令获取表或视图名称。资源名称:您可以通过 MaxCompute客户端 执行 list resources;命令获取资源名称。函数名称:您可以通过 MaxCompute客户端 执行 list functions;命令获取函数名称。实例名称:您可以通过 MaxCompute客户端 执行 show ...
背景信息 HDFS常见命令如下表所示。命令 功能 mkdir 在HDFS文件系统中创建目录。touchz 在HDFS文件系统中新建一个空文件。ls 在文件或者目录创建完之后,您可以查看指定路径下的文件或目录信息。在查看文件或目录信息的时候需要给出绝对...
Impala集成Kudu后,您可以使用Impala访问Kudu的数据表。本文为您介绍Impala如何集成Kudu。前提条件 已创建集群,并且选择了Impala和Kudu服务,详情请参见 创建集群。操作步骤 控制台方式 在Impala服务的 配置 页面,新增以下配置项,具体...
使用MySQL连接器能够让您在外部MySQL实例中查询和创建表。该连接器可以用于不同系统(例如,MySQL和Hive),或者两个不同MySQL实例间的数据进行JOIN操作。背景信息 本文为您介绍MySQL连接器相关的内容和操作,具体如下:配置MySQL连接器 ...
查看表的文件数 命令语法 您可以通过如下命令查看表的文件数:desc extended[partition()];参数说明 table_name:必填。待查看表的名称。pt_spec:可选。待查看分区表的指定分区。格式为(partition_col1=partition_col_value1,partition_...
MaxCompute支持在项目级别为用户设置访问许可等级标签,为表或表的列设置敏感等级标签(Label),用户仅可以访问MaxCompute项目中敏感等级小于等于自身访问许可等级的表或列数据。背景信息 Label权限控制即LabelSecurity,是项目级别的一种...
PolarDB-X 新增支持变更表的类型(即在单表、拆分表和广播表三者间进行相互转换),和变更拆分表的拆分规则(包括拆分函数或拆分列)。本文介绍相关语法和示例,本语法仅适用于DRDS模式数据库。前提条件 仅内核小版本为5.4.8或以上的 ...
谷歌BigQuery不提供 show create table 等命令查看表的DDL脚本,但谷歌BigQuery允许您使用内置的用户自定义函数UDF来查询特定数据集中表的DDL脚本。通过bq命令行工具,执行 bq extract 命令,将谷歌BigQuery数据集中的表依次导出至谷歌...