跨地域备份

为避免地域性灾害发生影响业务连续性,建议您为备份库创建异地镜像备份,备份中的数据将会自动复制到镜像备份中,实现跨地域异地备份。前提条件 备份的 存储类型 为 通用备份,并且该备份未开启KMS加密功能。您可以通过存储...

Gateway实例说明

创建Gateway集群 集群类型 文档链接 Hadoop 创建Gateway集群 DataLake、DataFlow和OLAP 使用EMR-CLI自定义部署Gateway环境 创建Gateway节点组 仅EMR-5.10.1及以上版本的DataLake和DataFlow集群,支持增加Gateway类型的节点组,详情请参见 ...

创建数据库

您可以使用DMS(Data Management Service)、客户端(Navicat for MySQL、DBeaver、DBVisualizer、SQL WorkBench/J)、业务系统中的程序代码或者MySQL命令行工具连接 云原生数据仓库AnalyticDB ...,然后通过CREATE DATABASE语句创建数据...

创建数据库

在进行数据写入和查询前,您需要先创建数据。本文介绍如何使用DMS(Data Management Service)创建数据。使用限制 每个 云数据ClickHouse 集群最多可以创建256个数据。前提条件 已完成快速入门的如下步骤。新建集群 创建账号 设置...

Dataphin中执行hadoop fs-ls命令方法

概述 Dataphin中执行hadoop fs-ls命令的方法。详细信息 创建HADOOP_MR任务,可以执行hadoop fs-ls/命令。适用于 Dataphin

CREATE DATABASE

CREATE DATABASE 用于创建数据创建数据 说明 每个集群最多可以创建2048个数据。语法 CREATE DATABASE[IF NOT EXISTS]db_name 参数 db_name:数据名。密码规则如下:长度不超过64个字符。以小写字符开头。可包含字母、数字以及...

访问控制

RDS提供如下两种方式创建数据账号:通过RDS控制台或者API来 创建普通数据账号,并设置数据级别的只读、读写、DDL、DML权限。如果您需要更细粒度的权限控制,例如表、视图、字段级别的权限,也可以通过控制台或者API先创建高权限数据...

访问控制

RDS提供如下两种方式创建数据账号:通过RDS控制台或者API来 创建普通数据账号,并设置数据级别的只读、读写、DDL、DML权限。如果您需要更细粒度的权限控制,例如表、视图、字段级别的权限,也可以通过控制台或者API先创建高权限数据...

访问控制

RDS提供如下两种方式创建数据账号:通过RDS控制台或者API来 创建普通数据账号,并设置数据级别的只读、读写、DDL、DML权限。如果您需要更细粒度的权限控制,例如表、视图、字段级别的权限,也可以通过控制台或者API先创建高权限数据...

访问控制

RDS提供如下两种方式创建数据账号:通过RDS控制台或者API来 创建普通数据账号,并设置数据级别的只读、读写、DDL、DML权限。如果您需要更细粒度的权限控制,例如表、视图、字段级别的权限,也可以通过控制台或者API先创建高权限数据...

访问控制

RDS提供如下两种方式创建数据账号:通过RDS控制台或者API来 创建普通数据账号,并设置数据级别的只读、读写、DDL、DML权限。如果您需要更细粒度的权限控制,例如表、视图、字段级别的权限,也可以通过控制台或者API先创建高权限数据...

CREATE DATABASE

CREATE DATABASE语句用于创建数据,并可以指定数据的默认属性(如数据默认字符集,校验规则等)。语法 create_database_stmt:CREATE {DATABASE|SCHEMA}[IF NOT EXISTS]database_name[database_option_list]database_option_list:...

Hadoop Streaming

hadoop jar/usr/lib/hadoop-current/share/hadoop/tools/lib/hadoop-streaming-X.X.X.jar-file/home/hadoop/mapper.py-mapper mapper.py-file/home/hadoop/reducer.py-reducer reducer.py-input/tmp/hosts-output/tmp/output 参数 描述 ...

概述

创建PolarDB for MySQL数据集群 设置集群白名单 创建数据账号 创建数据 连接数据 创建数据表 本示例在-PolarDB中创建 test_ads 数据和 login_info 表,login_info 表存储5条数据。CREATE TABLE `login_info`(`id` int(11)NOT ...

计算源概述

Hadoop 计算设置为Hadoop的租户支持创建以下计算源:离线计算源 Hadoop计算源:绑定Hadoop计算源的项目,支持规范建模、即席查询、Hive SQL任务、通用脚本等功能。创建Hadoop计算源,请参见 创建Hadoop计算源。实时计算源 Flink 计算源:...

AUTO模式数据库与DRDS模式数据库

Locality 静态隔离 支持,创建库、表和分区时指定物理存储资源。支持,创建库、表时指定物理存储资源。动态隔离 支持,动态调整库表所在的物理存储资源。不支持。是否与扩缩容兼容 是。否。分区裁剪 前缀分区裁剪 支持。例如,按 PARTITION...

数据共享

开通后,为实例A的源库创建一个Share,并将测试表加入Share,然后将Share授权给实例B的目标。实例B的目标在订阅Share后,可以查询源测试表的数据。操作步骤 将Serverless版本实例加入数据共享。登录 云原生数据仓库AnalyticDB ...

自建Hadoop数据迁移到阿里云E-MapReduce

低成本 在阿里云创建Hadoop类型的EMR集群和自建Hadoop集群相比有一定成本优势,同时阿里云EMR可以使用OSS作为底层存储空间,进一步降低成本。架构图 方案详情 请参见 阿里云自建Hadoop数据迁移到阿里云E-MapReduce。icmsDocProps={'...

Dataphin中将文件上传到HDFS的方法

概述 Dataphin中将文件上传到HDFS的方法介绍。详细信息 1.创建资源,类型选择“file”,...2.创建HADOOP_MR任务,引用资源,执行以下命令从本地系统拷贝文件到HDFS。resource_reference{"tttt.xlsx"} hadoop fs-put tttt.xlsx/适用于 Dataphin

管理用户账号和数据库

选择 时序数据管理>数据管理,在 数据管理 页面单击 创建。在 创建 页面后,输入数据名,单击 确定。重要 数据分片过多会导致内存资源占用高,影响查询性能,建议合理规划数据的数量,最好10个以内。删除数据 登录 TSDB控制台。...

多租户管理使用说明

在系统租户下管理数据 创建数据 连接数据,在系统租户下创建数据。示例如下:CREATE database 'db1@tenant_1';删除数据 连接数据,在系统租户下删除数据。示例如下:DROP database 'db1@tenant_1';在普通租户下管理数据 ...

导入数据

本文以导入On Time数据集至clickhouse_demo数据的分布式表ontime_local_distributed为例,介绍如何使用客户端clickhouse-client工具导入数据到 云数据ClickHouse。前提条件 已完成快速入门系列的如下步骤。新建集群 创建账号 设置白...

跨实例查询

\c db02 在实例A的db01和实例B的db02库创建查询插件greenplum_fdw和gp_parallel_retrieve_cursor。具体操作,请参见 安装、升级与卸载插件。获取实例A的内网IP地址,并IP地址添加到实例B的白名单中。如何设置白名单,请参见 设置白...

用户管理

LIST USERS 数据库创建者也可以查询指定数据中的所有用户(包括子账号)LIST USERS ON db_name.*示例 数据库创建者通过 LIST USERS 查看用户列表。LIST USERS+-+|USERS|+-+|ALIYUN$dt*_docs|RAM$dt*_docs:adb_account|新增用户 注意:...

创建数据库

说明 创建实例时所选择的存储类型将决定您在创建数据时所使用的存储类型,例如您在创建实例时选择的是 RDS MySQL,则您在创建数据时存储类型即固定为 RDS for MySQL 不可变更。PolarDB-X 1.0 存储层 私有定制RDS 与计算层 PolarDB-X 1....

创建数据库账号

前提条件 已为 专属集群MyBase 创建实例。MySQL、SQL Server、PostgreSQL 登录 云数据专属集群控制台。在页面左上角,选择目标地域。在目标专属集群的 操作 列,单击 详情。在左侧导航栏,单击 实例列表,然后单击目标实例。在左侧导航栏...

逻辑订阅

本文简单介绍逻辑订阅的使用流程,示例的流程如下:源实例的数据src创建发布,发布表public.t1,然后在目的实例的数据dst创建订阅sub1_from_pub1,订阅源表public.t1。更多详情请参见 逻辑订阅原理与最佳实践。注意事项 您可以在单个...

自建MySQL迁移至PolarDB MySQL版

数据库 库表结构迁移 全量迁移 增量迁移 自建MySQL数据库 SELECT权限 SELECT权限 增量数据迁移:待迁移对象的SELECT权限 REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW 建库建表的权限,以允许DTS创建库dts,用于记录迁移期间的心跳...

从Amazon RDS for PostgreSQL全量迁移至阿里云

准备工作二:在阿里云RDS实例中创建数据和schema 根据待迁移对象所属的数据和schema信息,在阿里云RDS PostgreSQL中创建相应数据和schema(schema名称须一致),详情请参见 创建数据 和 schema管理。操作步骤 登录 数据传输控制台...

UserGroupsMapping

前提条件 已创建Hadoop环境、Hadoop集群或者Hadoop客户端。具体操作,请参见 创建Hadoop运行环境。已开通OSS-HDFS服务。具体操作,请参见 开通并授权访问OSS-HDFS服务。已配置4.5.0及以上版本JindoSDK。具体操作,请参见 非EMR集群接入OSS-...

通过RootPolicy访问

前提条件 已创建Hadoop环境、Hadoop集群或者Hadoop客户端。具体操作,请参见 创建Hadoop运行环境。已开通OSS-HDFS服务。具体操作,请参见 开通并授权访问OSS-HDFS服务。已配置4.5.0及以上版本JindoSDK。具体操作,请参见 非EMR集群接入OSS-...

管理节点组(Hadoop、Data science和EMR Studio集群)

前提条件 已在EMR控制台创建Hadoop、Data science或EMR studio集群,详情请参见 创建集群。使用限制 支持新增Core和Task节点组。最多支持新增10个节点组。仅支持删除Task节点组,不支持删除Core节点组。注意事项 当待操作节点组的节点数...

ProxyUser

前提条件 已创建Hadoop环境、Hadoop集群或者Hadoop客户端。具体操作,请参见 创建Hadoop运行环境。已开通OSS-HDFS服务。具体操作,请参见 开通并授权访问OSS-HDFS服务。已配置4.5.0及以上版本JindoSDK。具体操作,请参见 非EMR集群接入OSS-...

Spark使用JindoSDK查询OSS-HDFS服务中的数据

JindoSDK是一个面向Hadoop、Spark生态且简单易用的OSS客户端,为OSS提供高度优化的Hadoop FileSystem实现。相对于Hadoop社区OSS客户端,Spark使用JindoSDK查询OSS-HDFS服务中的数据时,可以获得更好的性能。前提条件 已创建ECS实例。具体...

Hadoop使用JindoSDK访问OSS-HDFS服务

vim/etc/profile export HADOOP_HOME=usr/local/hadoop export PATH=$HADOOP_HOME/bin:$PATH source/etc/profile 更新Hadoop配置文件中的 HADOOP_HOME。cd$HADOOP_HOME vim etc/hadoop/hadoop-env.sh 将${JAVA_HOME} 替换为实际路径。...

从自建MySQL迁移至RDS MySQL实例

数据库 库表结构迁移 全量迁移 增量迁移 自建MySQL数据库 SELECT权限 SELECT权限 增量数据迁移:待迁移对象的SELECT权限 REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW 建库建表的权限,以允许DTS创建库dts,用于记录迁移期间的心跳...

RDS PostgreSQL通过公网访问外部数据库

CREATE FOREIGN TABLE<外表名>(id int,name varchar(10))SERVER<已创建的服务名>OPTIONS(dbname '<开通公网的目标数据的数据名>',table_name '<开通公网的目标数据的表名>');命令实例如下:CREATE FOREIGN TABLE mysql_fdw_test(id ...

Trino使用JindoSDK查询OSS-HDFS服务中的数据

创建Hadoop环境。具体步骤,请参见 创建Hadoop运行环境。已部署Trino。具体操作,请参见 部署Trino。已开通并授权访问OSS-HDFS服务。具体操作,请参见 开通并授权访问OSS-HDFS服务。操作步骤 连接ECS实例。具体操作,请参见 连接ECS实例...

Flume使用JindoSDK写入OSS-HDFS服务

创建Hadoop环境。具体步骤,请参见 创建Hadoop运行环境。已部署Apache Flume。具体步骤,请参见 Apache Flume。已开通并授权访问OSS-HDFS服务。具体操作,请参见 开通并授权访问OSS-HDFS服务。操作步骤 连接ECS实例。具体操作,请参见 ...

Snapshot(试用)

前提条件 已创建Hadoop环境、Hadoop集群或者Hadoop客户端。具体操作,请参见 创建Hadoop运行环境。已开通OSS-HDFS服务。具体操作,请参见 开通并授权访问OSS-HDFS服务。已配置4.5.0及以上版本JindoSDK。具体操作,请参见 非EMR集群接入OSS-...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云数据库 RDS 数据库备份 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用