简介

数据工作站可以结合语言模型给业务开发、数据开发、分析师和数据运营同学赋能,提升数据交付效率和数据自助分析的效率。当您需要将查询的数据、测试的数据、以及数据变化趋势等信息,以文档的形式进行交付,并在交付后,希望有可以替您...

通过DataV展示数据

通过DataV的SQL语句功能,处理数据,并将结果展示在大屏上。添加DataV数据源。参考 配置数据库白名单,根据您数据库的网络类型,将DataV的白名单添加到您的RDS数据库中。登录 DataV控制台。选择 我的数据>添加数据。填写RDS实例的相关信息...

使用Big Data Tools连接JetBrains IDE与OSS

您可以在JetBrains IDE中通过Big Data Tools插件直接管理OSS的Bucket和文件。什么是Big Data Tools Big Data Tools是一款JetBrains IDE插件,可以提供以下扩展功能:便于使用远程文件系统(包括OSS)的用户界面。与文件管理器类似的文件...

配置DataV数据

本文档为您介绍在DataV中使用RDS MySQL数据源的方法。操作步骤 登录 Datav控制台。选择 我的数据>添加数据。填写您已经创建完成的数据库的相关信息,单击 确定。说明 进入 云数据库RDS控制台,单击RDS MySQL实例链接,进入实例的 基本信息 ...

阶段一:基础防护建设

在该阶段,DataWorks为您提供了数据分类分级、规范数据开发流程、企业级身份认证、开源身份隔离等多个场景的最佳实践,帮助企业做好数据安全治理的相关基础防护工作。场景一:数据分级分类 无论在任何行业,数据分级分类都是监管首要检查的...

数据表-数据概况

功能说明 在数据表详情的数据概况标签页,基于对元数据及存储数据的统计,为您提供了数据表更加详细的指标信息,比如表存储大小、表文件总数、DDL最后更新时间、数据最后更新时间、访问次数、分区存储大小,分区文件数,分区最后更新时间等...

DataHub通过数据集成批量导入数据

本文以Stream同步数据至DataHub的脚本模式为例,为您介绍如何通过数据集成导入离线DataHub数据。前提条件 准备阿里云账号,并创建账号的访问密钥。详情请参见 开通DataWorks服务。开通MaxCompute,自动产生一个默认的MaxCompute数据源,并...

DataHub数据

DataHub数据源作为数据中枢,为您提供读取和写入DataHub数据库的双向通道,能够快速解决海量数据的计算问题。本文为您介绍DataWorks的DataHub数据同步的能力支持情况。支持的版本 DataHub Reader通过DataHub的Java SDK读取DataHub中的数据...

ListDoctorHDFSDirectories-批量获取HDFS目录分析结果

smallFileCount 返回参数 名称 类型 描述 示例值 object 返回数据 Data object[]HDFS 批量目录分析数据。DirPath string 目录名称。tmp/test Depth integer 目录层级。2 User string 目录属主。DW Group string 目录属组。DW Metrics ...

ListDoctorHiveTables-批量获取Hive表分析结果

totalFileCount 返回参数 名称 类型 描述 示例值 object 返回数据 Data object[]Hive 批量表分析数据。TableName string 表名称,表名称遵循 Hive 通用写法,以{库名称.表名称}唯一确定。dw.dwd_creta_service_order_long_renew_long_da ...

OGG for Big Data

一、环境要求 Oracle数据库,19c及以下数据库,版本不可高于源端OGG 源端,Oracle GoldenGate 19.1.0.0 目标端,Oracle GoldenGate for Big Data 19.1.0.0 OGG官方下载地址 备注:本文示例均已OGG19.1为例,其他支持版本可参看文末版本说明 ...

外部表常见问题

add jar/Users/gary/big_data/odps/text_extractor/target/text_extractor-1.0-SNAPSHOT.jar/Users/gary/big_data/odps/text_extractor/target/text_extractor-1.0-SNAPSHOT.jar 为生成JAR包的本地保存路径。通过MaxCompute客户端上传Joda-...

GetDoctorHDFSDirectory-获取HDFS特定目录分析结果

通过EMR Doctor获取集群HDFS特定目录数据分析结果,目录不超过5级。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权信息透出...

GetDoctorHDFSCluster-获取HDFS分析结果

通过EMR Doctor获取集群HDFS数据分析结果。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权信息透出。请求参数 名称 类型 必...

GetDoctorHiveTable-获取Hive表分析结果

dw.dwd_creta_service_order_long_renew_long_da 返回参数 名称 类型 描述 示例值 object 返回数据 Data object Hive 表分析数据。Formats object[]表格式数据。FormatName string 存储格式名称。TextInputFormat FormatSize long 格式数据...

GetDoctorHiveDatabase-获取Hive库信息

db1 返回参数 名称 类型 描述 示例值 object 返回数据 Data object Hive 库分析数据。Formats object[]存储格式信息。FormatName string 存储格式名称。TextInputFormat FormatSize long 格式数据量。1000 FormatSizeUnit string 格式数据...

ListDoctorHiveDatabases-批量获取 Hive 库信息

tableCount 返回参数 名称 类型 描述 示例值 object 返回数据 Data object[]Hive 批量库分析数据。DatabaseName string 库名称 db1 Formats object[]存储格式信息。FormatName string 存储格式名称。TextInputFormat FormatSize long 格式...

GetDoctorHiveCluster-获取 Hive 集群信息

2023-01-01 返回参数 名称 类型 描述 示例值 object 返回数据 Data object Hive 分析数据。Formats object[]存储格式信息。FormatName string 存储格式名称。TextInputFormat FormatSize long 格式大小。100 FormatSizeUnit string 格式...

分区热力图

只合并热力统计信息),仅当被合并分区属于同一DN节点且属于同一逻辑表时才能进行合并,数据量越小的分区合并范围越,当合并后的总分区数仍然超过3200时,也被认为分区数量过从而显示 TOO BIG 图像。当鼠标悬浮到热力图某一点时,会...

分区热力图

只合并热力统计信息),仅当被合并分区属于同一DN节点且属于同一逻辑表时才能进行合并,数据量越小的分区合并范围越,当合并后的总分区数仍然超过3200时,也被认为分区数量过从而显示 TOO BIG 图像。当鼠标悬浮到热力图某一点时,会...

USER_TAB_COLS

data_length NUMERIC 列中数据的最大长度(以字节为单位)。data_precision NUMERIC NUMBER列的精度(位数)。data_scale NUMERIC NUMBER列的小数位数。nullable CHARACTER(1)列是否可为空,可能值包括:Y:列可为空。N:列不可为空。...

DBA_TAB_COLS

您可以通过DBA_TAB_COLS查看数据库中所有的表和视图,以及对应的列信息。说明 DBA_TAB_COLS视图内容与DBA_TAB_COLUMNS视图内容一致。仅V1.1.7及以后版本新建的PolarDB集群支持查询DBA_TAB_COLS视图。如何查看当前版本,请参见 发布记录。V1...

ALL_TAB_COLS

data_length NUMERIC 列中数据的最大长度(以字符为单位)。data_precision NUMERIC NUMBER列的精度(位数)。data_scale NUMERIC NUMBER列的小数位数。nullable CHARACTER(1)列是否可为空。值如下:Y:列可为空。N:列不可为空。column_id...

ST_ImportFrom

从一个OSS、MinIO或HDFS文件导入到数据库。语法 raster ST_ImportFrom(cstring chunkTableName,cstring url,cstring storageOption default '{}',cstring importOption default '{}');参数 参数名称 描述 chunkTableName 块表的名称,名称...

MongoDB实例空间使用率高问题

执行compact指令导致数据量过 compact期间对实例的影响 由于compact执⾏的时间与集合的数据量相关,如果数据量过,则会使compact的执行时间很长,所以为避免影响业务的读写,建议在业务低峰期执⾏compact。compact⽅法 首先在备库上...

ST_ImportFrom

从一个OSS、MinIO或HDFS文件导入到数据库。语法 raster ST_ImportFrom(cstring chunkTableName,cstring url,cstring storageOption default '{}',cstring importOption default '{}');参数 参数名称 描述 chunkTableName 块表的名称,名称...

X-Engine简介

因为目标是面向规模的海量数据存储,提供高并发事务处理能力和降低存储成本,在部分大数据量场景下,数据被访问的机会是不均等的,访问频繁的热数据实际上占比很少,X-Engine根据数据访问频度的不同将数据划分为多个层次,针对每个层次...

ST_ImportFrom

从一个OSS、MinIO或HDFS文件导入到数据库。语法 raster ST_ImportFrom(cstring chunkTableName,cstring url,cstring storageOption default '{}',cstring importOption default '{}');参数 参数名称 描述 chunkTableName 块表的名称,名称...

Tunnel常见错误

DataVersionConflict The specified table has been modified since the upload or download initiated and table data is being replicated at this time.Please initiate another download or upload later 当前集群上的数据处于复制状态...

监控大盘

当您需要自定义数据库监控或者比较不同实例的运行情况时,通过监控大盘,您可以自由选择监控的实例和指标,实现自定义指标监控、不同实例间的性能对比,以及进行多指标联动分析,从而全面把握数据库的健康状况。前提条件 RDS PostgreSQL...

0006-00000112

问题描述 PostObject请求中file表单域之前的数据大小超出限制。问题原因 您发起了PostObject请求上传文件,但是请求体中file之前的表单域value总大小超过8 MB,导致请求报错。问题示例 以下请求中前五个表单域的value大小共计10 MB。POST/...

DBMS_METADATA

DBMS_METADATA提供了获取数据库对象的元数据信息的方法,用于重建数据库中的对象。元数据信息以XML形式或者DDL语句的形式返回。DBMS_METADATA子程序总览 子程序 说明 GET_DDL Function 获取对象的DDL。GET_DDL 该函数用于获取对象的DDL...

常见问题

造成服务不稳定的情况可能有很多,最常见的情况是znode数量过或者snapshot过,由于ZooKeeper将所有的znode维护在内存中,并且需要在节点间进行数据同步,因此过的znode数量或者容量会对服务稳定性造成影响。ZooKeeper的定位是一个...

时空分析

空间/时空数据(Spatial/Spatio-temporal Data,以下统称时空数据)是带有时间/空间位置信息的图形图像数据,用来表示事物的位置、形态、变化及大小分布等多维信息。早期业内按矢量/栅格二元分类方法来划分时空数据,并在3S等传统行业默默...

DBMS_METADATA

PolarDB 通过DBMS_METADATA提供的方法获取数据库对象的元数据信息,用于重建数据库中的对象。元数据信息以XML形式或者DDL语句的形式返回。DBMS_METADATA函数/存储过程 执行以下命令安装polar_dbms_metadata插件:create extension if not ...

pg_dump

pg_dump是 PolarDB PostgreSQL版(兼容Oracle)提供的一种逻辑备份工具,用于将集群中的单个数据库备份为脚本文件或其他存档文件。简介 pg_dump用于备份单个数据库。即使当前数据库正在被访问,也会对正在访问的数据进行一致的备份,并且在...

HTTP

args description client_data 用户字段指针 content_disposition 待添加的内容地址 content_type 内容类型 name 名称的地址 data 表单数据地址 data_len 表单数据长度 添加文件表单数据 int httpclient_formdata_addfile(httpclient_data_...

Data API功能简介

功能优势 降低数据库使用门槛 通过使用RDS Data API Service,用户无需再配置数据库相关的连接信息、连接池等信息,使用简单的RDS Data API即可将数据存储和业务逻辑结合在一起,初级开发人员也可快速上手业务逻辑开发,大大缩短开发周期。...

数据Data Lake Analytics

添加Data Lake Analytics数据源用于连通阿里云Data Lake Analytics数据库与Quick BI,连接成功后,您可以在Quick BI上进行数据的分析与展示。Quick BI支持以公网连接阿里云Data Lake Analytics,本文为您介绍如何添加阿里云Data Lake ...

Data Copilot智能助手

DMS Data Copilot是 DMS 基于阿里云模型构建的数据智能助手。其结合了 DMS 熟练的数据管理、数据使用能力,可帮助开发、运维、产品、运营、分析师和数据库管理员,更高效、规范地使用和管理数据。本文为您介绍如何使用DMS Data Copilot。...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库备份 DBS 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用