变更组(AUTO模式)

在 PolarDB-X 的AUTO模式数据库中,所有都从属且只属于一个组,同一个组内的分区方式一致,同一组内的之间的关联查询可以下推到存储节点执行,执行效率得到了很大的提高。本语法仅适用于AUTO模式数据库。为了方便将关联到同...

使用OSS-HDFS作为HBase的底层存储

TABLE bar 1 row(s)Took 0.0138 seconds 退出HBase Shell后,执行以下命令验证数据。命令格式如下。hadoop fs-ls oss:/${OSS-HDFS服务的域名}/{dir} 例如,执行以下命令。hadoop fs-ls oss:/test_bucket....

DML操作常见问题

如果非Transactional,您可以通过如下方法删除:执行 drop 命令删除,达到删除数据的目的。如果是非分区,您可以执行 truncate table table_name;命令清空数据或通过 insert overwrite 命令实现类似的功能。示例一:删除TableA...

使用云命令行(odpscmd)连接

MaxCompute基于阿里云云命令行,为您提供云上客户端环境,您无需手动安装即可通过云命令行工具使用客户端(odpscmd)。本文为您介绍MaxCompute的云命令行(odpscmd)的使用注意事项和简单示例。前提条件 若通过RAM用户登录MaxCompute的云...

ALTER TABLE…ADD PARTITION

ALTER TABLE…ADD PARTITION命令用于将分区添加到现有的分区中。语法介绍 使用ALTER TABLE…ADD PARTITION命令把分区添加到现有的分区中。语法如下:ALTER TABLE table_name ADD PARTITION partition_definition;其中 partition_...

ALTER TABLE…EXCHANGE PARTITION

ALTER TABLE…EXCHANGE PARTITION命令可以用一个分区或子分区交换现有的。语法介绍 如果您打算添加大量的数据到分区中,可以使用ALTER TABLE…EXCHANGE PARTITION命令来进行批量加载。您也可以使用ALTER TABLE…EXCHANGE PARTITION命令...

【停售/下线】TokuDB引擎转换为InnoDB引擎

缺点:每一个都要用命令同步一次,如果很多的话操作比较繁琐。参数说明 参数 说明-initially-drop-old-table 检查并删除已经存在的旧。initially-drop-ghost-table 检查并删除已经存在的ghost中间。aliyun-rds 在阿里云RDS上执行。...

常见命令

您可以在已经创建好的E-MapReduce(简称EMR)集群中,直接使用Alluxio Shell命令来对Alluxio中的文件进行操作,也可以使用Hadoop Shell命令操作Alluxio中的文件。本文为您介绍Alluxio的常见命令。前提条件 已创建集群,并选择了Alluxio服务...

DDL操作常见问题

命令查看分区或非分区的行数。创建的为什么在DataWorks上看不到?如果不是通过 DataWorks可视化创建方式 创建的,而是通过SQL语句创建,DataWorks界面不会立即显示创建的,会存在2~3个小时的延时。分区和分区列的区别是什么?...

新建命令

常用命令 本文以Linux系统的Shell命令为例,介绍运维的常用命令,具体命令如下所示。说明 命令中使用自定义参数可提高命令的适用性。以下示例命令中{{key}}格式的参数为自定义参数,执行命令时打开 使用参数,在 命令参数 中输入参数的值...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

AuditLog使用说明

export JINDO_SPARK_OPTS="-conf spark.driver.memory=4G-conf spark.executor.instances=20-conf spark.executor.cores=5-conf spark.executor.memory=20G"示例如下:执行如下命令显示。show tables;执行如下命令显示分区。show ...

索引管理

创建索引 您可以使用 CREATE INDEX 命令上创建索引,创建索引示例如下:B-Tree索引 在employee的gender列上创建一个B-Tree索引。CREATE INDEX gender_idx ON employee(gender);位图索引 在films中的title列上创建一个位图索引。...

快速入门

使用Tunnel Upload命令wc_in中插入数据。命令示例如下。tunnel upload data.txt wc_in;更多Tunnel信息,请参见 Tunnel。使用 jar 命令调用生成的JAR包,运行MapReduce作业。命令示例如下。jar-resources mapreduce-1.0-SNAPSHOT.jar-...

Label权限控制

MaxCompute支持在项目级别为用户设置访问许可等级标签,为的列设置敏感等级标签(Label),用户仅可以访问MaxCompute项目中敏感等级小于等于自身访问许可等级的或列数据。本文为您介绍Label授权操作并提供示例供参考。背景信息 ...

使用教程

本文主要为您介绍如何使用Hive或者HadoopMR访问表格存储中的。数据准备 在表格存储中准备一张数据pet,name是唯一的一列主键,数据示例请参见下。说明 中空白部分无需写入,因为表格存储是schema-free的存储结构,没有值也无需写入...

MySQL一键实时同步至MaxCompute

单击 刷新源和MaxCompute映射 将根据您在步骤三配置的目标文件映射规则来生成目标,若步骤三未配置映射规则,将默认写入与源同名的目标,若目标端不存在该同名,将默认新建。同时,您可以修改建立方式、为目标在源有表字段...

GRANT LABEL

注意事项 显式授予用户的的列Label权限,会覆盖显式授予用户的的Label权限。命令格式 grant Label<number>on table[()]to {USER|ROLE}[with exp];参数说明 参数名称 是否必填 说明 number 是 指定用户或角色可访问的最高数据敏感等级。...

REVOKE

命令获取或视图名称。资源名称:您可以通过 MaxCompute客户端 执行 list resources;命令获取资源名称。函数名称:您可以通过 MaxCompute客户端 执行 list functions;命令获取函数名称。实例名称:您可以通过 MaxCompute客户端 执行 show ...

HDFS常见命令介绍

背景信息 HDFS常见命令如下所示。命令 功能 mkdir 在HDFS文件系统中创建目录。touchz 在HDFS文件系统中新建一个空文件。ls 在文件或者目录创建完之后,您可以查看指定路径下的文件或目录信息。在查看文件或目录信息的时候需要给出绝对...

Impala集成Kudu

Impala集成Kudu后,您可以使用Impala访问Kudu的数据。本文为您介绍Impala如何集成Kudu。前提条件 已创建集群,并且选择了Impala和Kudu服务,详情请参见 创建集群。操作步骤 控制台方式 在Impala服务的 配置 页面,新增以下配置项,具体...

MySQL连接器

使用MySQL连接器能够让您在外部MySQL实例中查询和创建。该连接器可以用于不同系统(例如,MySQL和Hive),或者两个不同MySQL实例间的数据进行JOIN操作。背景信息 本文为您介绍MySQL连接器相关的内容和操作,具体如下:配置MySQL连接器 ...

合并小文件

查看的文件数 命令语法 您可以通过如下命令查看的文件数:desc extended[partition()];参数说明 table_name:必填。待查看的名称。pt_spec:可选。待查看分区的指定分区。格式为(partition_col1=partition_col_value1,partition_...

SET LABEL

MaxCompute支持在项目级别为用户设置访问许可等级标签,为的列设置敏感等级标签(Label),用户仅可以访问MaxCompute项目中敏感等级小于等于自身访问许可等级的或列数据。背景信息 Label权限控制即LabelSecurity,是项目级别的一种...

变更类型及拆分规则(DRDS模式)

PolarDB-X 新增支持变更的类型(即在单、拆分和广播三者间进行相互转换),和变更拆分的拆分规则(包括拆分函数或拆分列)。本文介绍相关语法和示例,本语法仅适用于DRDS模式数据库。前提条件 仅内核小版本为5.4.8或以上的 ...

谷歌BigQuery数据迁移至AnalyticDB PostgreSQL版

谷歌BigQuery不提供 show create table 等命令查看的DDL脚本,但谷歌BigQuery允许您使用内置的用户自定义函数UDF来查询特定数据集中的DDL脚本。通过bq命令行工具,执行 bq extract 命令,将谷歌BigQuery数据集中的依次导出至谷歌...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
OpenAPI Explorer 云数据库Cassandra版 弹性公网IP 短信服务 人工智能平台 PAI 金融分布式架构
新人特惠 爆款特惠 最新活动 免费试用