查询Profile

本文介绍 云数据库 SelectDB 版 的Profile功能和使用方式,为查询性能分析提供参考和依据。打开查询Profile 通过如下命令打开会话变量 is_report_success。SET enable_profile=true;打开查询Profile后,执行查询时,SelectDB会产生该查询的...

配置ArgoDB输出组件

配置ArgoDB输出组件,可以将外部数据中读取数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...

配置DM(达梦)输出组件

配置DM(达梦)输出组件,可以将外部数据中读取数据写入到DM(达梦),或从大数据平台对接的存储系统中将数据复制推送至DM(达梦),进行数据整合和再加工。本文为您介绍如何配置DM(达梦)输出组件。前提条件 已创建DM(达梦)数据源...

缓冲区管理

例如,只读节点将数据页回放到LSN为200的WAL日志,但该数据页在从Buffer Pool淘汰之后,再次从共享存储中读取数据页中没有包含LSN为200的WAL日志的改动,此类数据页被称为过去页。对于只读节点而言,只需要访问与其回放位点相对应的数据...

配置DM(达梦)输出组件

配置DM(达梦)输出组件,可以将外部数据中读取数据写入到DM(达梦),或从大数据平台对接的存储系统中将数据复制推送至DM(达梦),进行数据整合和再加工。本文为您介绍如何配置DM(达梦)输出组件。前提条件 已创建DM(达梦)数据源...

配置Greenplum输出组件

配置Greenplum输出组件,可以将外部数据中读取数据写入到Greenplum,或从大数据平台对接的存储系统中将数据复制推送至Greenplum,进行数据整合和再加工。本文为您介绍如何配置Greenplum输出组件。前提条件 已创建Greenplum数据源。具体...

通过外表导入至湖仓版

常规导入在计算节点中读取数据,然后在存储节点中构建索引,消耗计算资源和存储资源。弹性导入在Serverless Spark Job中读取数据和构建索引,消耗Job型资源组的资源。仅内核版本3.1.10.0及以上且已创建Job型资源组的 湖仓版(3.0)集群...

配置Greenplum输出组件

配置Greenplum输出组件,可以将外部数据中读取数据写入到Greenplum,或从大数据平台对接的存储系统中将数据复制推送至Greenplum,进行数据整合和再加工。本文为您介绍如何配置Greenplum输出组件。前提条件 已创建Greenplum数据源。具体...

事务隔离

即便是对只读事务也是如此,除了在一个 可推迟的 只读事务中读取数据是读出以后立刻有效的,因为这样的一个事务在开始读取任何数据之前会等待,直到它能获得一个快照保证来避免这种问题为止。在所有其他情况下,应用不能依靠在一个后来被...

MongoDB只读节点简介

为了分担主从节点的读取压力,您可以根据业务需求创建一个或多个只读节点,来满足大量的数据读取需求,增加应用的吞吐量。只读节点架构 只读节点(ReadOnly)的特点如下:只读节点(ReadOnly)通过操作日志(Oplog)从延迟最低的主节点...

开启透明数据加密(内测

在解密过程读取数据密钥密文,通过主密钥来解密数据密钥密文得到数据密钥明文,再通过数据密钥明文来解密数据。KMS提供的主密钥是通过API创建的,如果您提供了密码还可以对主密钥进行加密,保证主密钥的安全性。注意事项 开通TDE的过程...

通过默认角色读取Logstore数据

MaxCompute投递任务(新版)运行时,需要读取Logstore数据,您可以使用默认角色(AliyunLogDefaultRole角色)完成该操作。本文介绍如何生成默认角色。操作步骤 您只需使用当前账号完成云资源访问授权,生成AliyunLogDefaultRole角色。...

使用二级索引读取数据

表格存储 提供了单行读取和范围读取的查询方式用于读取索引表中数据。当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。前提条件 已初始化Client。具体操作,请参见 初始化OTSClient。已创建二级...

使用二级索引读取数据

表格存储 提供了单行读取和范围读取的查询方式用于读取索引表中数据。当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。前提条件 已初始化Client。具体操作,请参见 初始化OTSClient。已创建二级...

RDS(MySQL)

本文介绍如何使用Databricks 读写阿里云RDS(MySQL)数据数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建 MySQL实例,具体参见 创建 MySQL实例。已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问...

ORC文件

它针对大型流式数据读取进行了优化,但集成了对快速查询所需要行的相关支持。ORC和Parquet文件格式的区别:本质上Parquet针对Spark进行了优化,而ORC针对Hive进行的优化。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建集群,...

使用二级索引读取数据

表格存储 提供了单行读取和范围读取的查询方式用于读取索引表中数据。当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。前提条件 已初始化Client。具体操作,请参见 初始化OTSClient。已创建二级...

实时研发基本流程概述

步骤三:创建实时计算表 实时任务 通过创建Flink_SQL流任务,读取或写入元表映射的数据的表数据。步骤四:开发FLINK_SQL实时任务 任务运维 完成实时研发后,任务提交至运维中心,可以对实时任务进行启动、停止、查看任务日志、任务运行...

实时研发基本流程概述

步骤三:创建实时计算表 实时任务 通过创建Flink_SQL流任务,读取或写入元表映射的数据的表数据。步骤四:开发FLINK_SQL实时任务 任务运维 完成实时研发后,任务提交至运维中心,可以对实时任务进行启动、停止、查看任务日志、任务运行...

使用二级索引读取数据

表格存储 提供了单行读取和范围读取的查询方式用于读取索引表中数据。当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。前提条件 已初始化Client。具体操作,请参见 初始化Client。已创建二级...

使用二级索引读取数据

表格存储 提供了单行读取和范围读取的查询方式用于读取索引表中数据。当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。前提条件 已初始化Client。具体操作,请参见 初始化OTSClient。已创建二级...

使用二级索引读取数据

表格存储 提供了单行读取和范围读取的查询方式用于读取索引表中数据。当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。说明 二级索引包括全局二级索引和本地二级索引。关于二级索引的更多信息,...

归档直读

归档直读数据取回量取决于与HTTP建立连接时请求头指定的数据读取范围。传输连接的提前断开不会影响已发起请求的归档直读数据取回量。功能对比 开启归档直读的前后对比如下:项目 未开启归档直读(默认)开启归档直读 取回方式 先解冻,再...

配置API输入组件

配置API输入组件后,可以读取API数据数据至Dataphin,进行数据集成与数据开发。本文为您介绍如何配置API输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建API数据源。具体操作,请参见 创建API数据源。进行API...

配置API输入组件

配置API输入组件后,可以读取API数据数据至Dataphin,进行数据集成与数据开发。本文为您介绍如何配置API输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建API数据源。具体操作,请参见 创建API数据源。进行API...

配置Salesforce输入组件

配置Salesforce输入组件后,可以读取Salesforce数据数据至Dataphin,进行数据集成与数据开发。本文为您介绍如何配置Salesforce输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Salesforce数据源。具体操作,请...

配置Salesforce输入组件

配置Salesforce输入组件后,可以读取Salesforce数据数据至Dataphin,进行数据集成与数据开发。本文为您介绍如何配置Salesforce输入组件。前提条件 在开始执行操作前,请确认您已完成以下操作:已创建Salesforce数据源。具体操作,请...

添加数据源概述

文件类 说明 DataV目前不支持从其他文件存储中读取大型的数据文件。CSV文件 无。静态JSON 无。API类 添加API数据源 您可以在组件配置页面的 数据 面板中选择一种GET或POST任意一种请求方式,并将API地址直接粘贴到 URL 字段中。添加Open ...

数据建模

本文介绍Lindorm时序引擎数据建模的过程。创建时序数据库 Lindorm实例创建成功后,系统会默认创建default数据库,将数据默认...时序引擎底层数据存储实现了对多值模型数据的存储优化,建议您将单值模型更改为多值模型,让数据读取更加高效。

概述

应用程序只需连接读写分离地址进行数据读取及写入操作,读写分离程序会自动将写入请求发往主实例,而将读取请求按照权重发往各个只读实例。用户只需通过添加只读实例的个数,即可不断扩展系统的处理能力,应用程序上无需做任何修改。什么是...

读写Elasticsearch数据

云原生数据湖分析DLA(Data Lake Analytics)中支持接入Elasticsearch,通过标准SQL语句读取Elasticsearch中的数据,从而实现Elasticsearch中的数据与其他...例如通过 SELECT 在DLA中读取 product_info 表中的数据。select*from product_info;

数据传输与迁移概述

离线数据批量数据读取(外部表-湖仓一体)场景特征:主要用于数据联邦查询分析,偶尔需要对数据进行搬运。典型场景。类型 典型场景 OSS数据与MaxCompute数据下载 UNLOAD命令。外部表,湖仓一体。Hologres读取MaxCompute数据 Hologres外部表...

BLOB数据类型(邀测

} 数据读取 Lindorm支持以下两种方式读取BLOB列的数据:方式一:一次性读取一行数据中整个BLOB列的全部内容,并保存至一个字节数组中。直接读取整个BLOB列的完整内容 ResultSet resultSet=stmt.executeQuery("select*from"+tableName+...

JindoFS实战演示

Fluid+JindoFS对HDFS上的数据进行训练加速 Fluid+JindoFS对HDFS上的数据进行训练加速 2021-07-13 在AI训练场景处理HDFS数据面临很多问题,例如计算存储分离,数据读取性能较差,无法满足AI训练作业的IO性能、很多深度学习训练框架并不...

通过SDK使用二级索引

} 步骤三:读取索引表中数据 从索引表中单行或者范围读取数据,当返回的属性列在索引表中时,您可以直接读取索引表获取数据,否则请自行反查数据表获取数据。您可以通过 Java SDK、Go SDK、Python SDK、Node.js SDK、.NET SDK 和 PHP SDK ...

权限列表

工作组成员管理角色包括:工作组管理员、工作组开发者、工作组分析员、元数据读取、数据读取、数据变更。全局成员管理配置角色包括:租户管理员、租户访客、租户数据资产管理员、租户运维人员、租户一般用户。对号(√)表示支持,叉号(X...

权限列表

工作组成员管理角色包括:工作组管理员、工作组开发者、工作组分析员、元数据读取、数据读取、数据变更。全局成员管理配置角色包括:租户管理员、租户访客、租户数据资产管理员、租户运维人员、租户一般用户。对号(√)表示支持,叉号(X...

快速入门

PyODPS可在DataWorks等数据开发平台作为数据开发节点调用。这些平台提供了PyODPS运行环境和调度执行的能力,无需您手动创建ODPS入口对象。PyODPS支持类似Pandas的快速、灵活和富有表现力的数据结构。您可以通过PyODPS提供的DataFrame API...

数据加工快速入门

授权方式 您可以通过如下方式授予数据加工任务读取源Logstore中数据的权限。默认角色:授予数据加工任务使用阿里云系统角色AliyunLogETLRole来读取源Logstore中的数据。单击 授权系统角色AliyunLogETLRole,根据页面提示完成授权。更多信息...

授权概述

操作 授权方式 说明 读Logstore的权限配置 通过默认角色读取Logstore数据 授权MaxCompute投递任务使用阿里云系统角色AliyunLogDefaultRole读取源Logstore数据。通过自定义角色读取Logstore数据 授权MaxCompute投递任务使用自定义角色...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据传输服务 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用