数据统计

发送数据 在邮件推送控制台左侧导航栏,单击 发送数据,进入发送数据展示页面。查看发送数据 选择 邮件标签、发信地址、起始时间 和 结束时间,然后单击 查询。说明:最多可查询7天的发信统计。您可以从邮件发送数据中,查看最多连续 7 天...

数据库代理主机监控详情

本文介绍数据库代理主机监控的详细信息。查看数据库代理主机监控数据 说明 数据库代理主机监控目前仅针对白名单用户开放,如需开通请咨询技术支持。进入 OceanBase 管理控制台...每秒发送数据量 net_send 每秒发送数据量,单位:百分比(%)。

教程概述

本案例的原理如下:在设备端模拟两个字段,通过MQTT协议向阿里云物联网平台设备(高级版)发送数据。物联网平台接收到数据后通过规则引擎转发至DataHub。在DataHub中通过DataConnector将数据同步到RDS MySQL数据库中。使用DataV将RDS MySQL...

使用SDK示例代码消费PolarDB-X 1.0订阅数据

完成数据订阅任务后,您可以使用DTS提供的SDK示例代码来订阅数据变更信息。本文介绍通过SDK示例代码消费分布式订阅数据,支持的数据源包括PolarDB-X 1.0和DMS LogicDB。前提条件 已安装JDK 1.8版本。已安装IntelliJ IDEA软件。注意事项 ...

使用SDK示例代码消费PolarDB-X 1.0订阅数据

完成数据订阅任务后,您可以使用DTS提供的SDK示例代码来订阅数据变更信息。本文介绍通过SDK示例代码消费分布式订阅数据,支持的数据源包括PolarDB-X 1.0和DMS LogicDB。前提条件 已安装JDK 1.8版本。已安装IntelliJ IDEA软件。注意事项 ...

配置数据

使用数据服务创建API前,需先将您的数据库或数据仓库添加为DataWorks数据源,以此作为数据服务API的数据来源。开发数据服务API时,数据服务将访问该数据源获取数据表的Schema信息,帮助您进一步设置请求和返回参数。本文为您介绍如何配置...

教程概述

本文为您介绍当需要通过DataV展示海量数据的分析结果时,如何使用DataWorks的数据服务开发数据API,并快速在DataV中调用API,最终将来自MaxCompute的数据成果展示在DataV大屏中,数据开发到数据服务再到数据分析展现一气呵成。注意 本案例...

入门概览

本文介绍 云原生多模数据库 Lindorm 时序引擎的使用流程...对于通过行协议发送数据的应用或设备,都可以将数据写入Lindorm时序引擎中。行协议写入 应用开发,包括数据建模、写入、数据查询、预降采样、机器学习等。具体操作请参见 开发指南。

修改实例参数

sink.batch.enable 增量同步 增量迁移 是否以batch(批量提交)的方式发送数据,取值为:true:是,以batch的方式发送数据。false(默认值):否,不以batch的方式发送数据。source.filter.ddl.enable 增量同步 增量迁移 是否过滤DDL,取值...

组复制简介

备节点在发送数据时,必须向主节点请求一个发送信息的位置,如上图中的,1>,并使用这个位置向全集群发送自己的数据。这种发送方式效率低、时延高,但由于集群管理信息发送的频率很低,并不会对性能造成影响。组复制层 组复制层的主要工作是...

Tunnel命令常见问题

使用Tunnel Upload命令上传数据时,默认逗号进行列分割,但是数据中有逗号,这种情况如何分割?使用Tunnel Upload命令上传数据时,如果数据使用空格作为列分隔符,或需要对数据做正则表达式过滤时,如何解决?Tunnel Upload完成后,存在...

全景视角

数据使用视角:在数据分析、发布或使用数据服务等数据使用场景下,建议您使用数据使用视角,关注查看数据使用过程中,浏览、访问过的表列表、拥有权限的数据服务等方面的情况。详情请参见:数据使用视角。数据生产视角:在数据开发场景下,...

使用须知

本文介绍使用Lindorm计算引擎SQL语句访问数据库的数据时,需要提前了解的相关内容。了解开源Spark SQL 通过开源Spark SQL访问数据库的数据分为以下三个级别:Catalog:用来标识用户不同的数据源。Namespace:与数据库中的Database或者...

集群自定义监控报表

集群主机 memory_free 可用物理内存大小 集群主机 memory_used 使用物理内存大小 集群主机 net_recv 每秒接收数据量 集群主机 net_send 每秒发送数据量 集群主机 net_throughput 网络吞吐率 集群主机 ntp_offset_milliseconds ntp时钟偏移 ...

同步数据

分析型数据库MySQL版支持多种数据加载方式,包括但不限于:通过阿里云数据传输服务DTS将MySQL/DRDS中的数据导入分析型数据库MySQL版,其中MySQL可为RDS for MySQL、其他云厂商或线上IDC的自建MySQL以及ECS自建MySQL。详细操作步骤请参见 ...

数据订阅操作指导

数据订阅功能可以帮助您获取数据库的实时增量数据,适用于缓存更新策略、业务异步解耦、异构数据源的数据实时同步和复杂ETL的数据实时同步等多种业务场景。本文介绍数据订阅功能的具体使用流程,帮助您快速掌握创建、监控、管理数据订阅...

常见问题

数据湖后端存储使用OSS,用户使用数据湖构建面向大数据分析和机器学习场景可以获得集中式权限管理和统一的元数据视图,更容易对接云上大数据和分析产品。什么情况下我需要使用数据湖构建?在云上有数据分析和机器学习需求,希望构建云上的...

数据标准

数据标准使用 数据标准创建完成后,需要将数据标准导入DataWorks,再使用建模工具DDM客户端同步导入DataWorks中的数据标准,以供后续数据建模使用,具体请参见 入门实践。说明 目前使用DDM进行数据建模可以进行逻辑建模和物理建模,但物理...

创建Hologres数据

进行数据同步:DataWorks的数据集成模块为您提供读取和写入数据至Hologres的能力,您可将其他数据源的数据同步至当前Hologres数据源,或将当前Hologres数据源的数据同步至其他数据源。同时,可根据需要选择离线同步、实时同步、同步解决...

MongoDB 3.4(已停止新购)

使用MongoDB工具将自建数据库迁移至副本集实例 使用MongoDB工具将自建数据库迁移至分片集群实例 使用NimoShake工具将Amazon DynamoDB数据库迁移至阿里云数据库MongoDB 使用MongoDB工具将MongoDB Atlas数据库迁移至阿里云数据库MongoDB 使用...

使用SDK示例代码消费订阅数据

完成数据订阅通道的配置后,您可以使用DTS提供的SDK示例代码来订阅数据变更信息,本文介绍该示例代码的使用说明。操作步骤 重要 若数据源是PolarDB-X 1.0或DMS LogicDB,消费订阅数据的操作步骤请参见 使用SDK示例代码消费PolarDB-X 1.0...

数据同步操作指导

数据同步功能可以帮助您实现数据源之间的数据实时同步,适用于数据异地多活、数据异地灾备、本地数据灾备、跨境数据同步、查询与报表分流、云BI及实时数据仓库等多种业务场景。本文介绍数据同步功能的具体使用流程,帮助您快速掌握创建、...

简介

数据工作站可以结合大语言模型给业务开发、数据开发、分析师和数据运营同学赋能,提升数据交付效率和数据自助分析的效率。当您需要将查询的数据、测试的数据、以及数据变化趋势等信息,以文档的形式进行交付,并在交付后,希望有可以替您...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

使用SDK示例代码消费订阅数据

在完成数据订阅通道的配置(创建好订阅任务和消费组)后,您可以自行编写SDK示例代码或使用DTS提供的SDK示例代码来订阅数据变更信息,本文介绍示例代码的使用方法。操作步骤 重要 如果数据源是PolarDB-X 1.0或DMS LogicDB,消费订阅数据的...

数据脱敏能力概述

DataWorks支持通过配置脱敏规则将敏感数据进行脱敏,保障数据查询或存储安全。当前DataWorks支持多种脱敏场景,同时您还可根据需要自定义脱敏场景,以满足不同数据脱敏场景下的脱敏需求。本文为您介绍DataWorks数据脱敏能力及操作引导。...

内置检测模型说明

数据安全中心DSC(Data Security Center)通过内置的行为异常自学习模型和流转异常自学习模型,能够高效地分析审计日志,以识别与敏感数据相关的异常行为及攻击行为。当这些模型检测到潜在的风险活动时,会自动触发告警。支持的数据库 RDS...

运营

运营主要面向租户资产管理员,为用户提供数据资产编目、数据资产上线、数据资产下线等能力。通过获取资产元数据信息,并同步到数据资产目录完成数据资产注册。数据资产管理涉及三种用户角色,包括资产使用方、租户资产管理员、工作组管理员...

功能简介

资产使用方:主要进行数据查找和使用申请,目标是找到需要使用数据资产,进行权限获取以完成后续业务使用。资产管理员:对所有可对外服务的高价值数据资产进行管理维护与编目上线,进行资产对外服务的生命周期维护,同时针对申请使用进行...

功能简介

资产使用方:主要进行数据查找和使用申请,目标是找到需要使用数据资产,进行权限获取以完成后续业务使用。资产管理员:对所有可对外服务的高价值数据资产进行管理维护与编目上线,进行资产对外服务的生命周期维护,同时针对申请使用进行...

数据传输服务(上传)场景与工具

本文为您介绍如何将数据上传至MaxCompute或从MaxCompute下载数据,包括服务连接、SDK、工具和数据导入导出、上云等常见操作。背景信息 MaxCompute提供了多种数据上传下载的通道支持,方便您在各种场景下进行技术方案选型时参考。批量数据...

数据服务概述

DMS数据服务支持将企业托管在DMS上的数据快速迁移至外部。设计理念 数据服务作为DMS的模块,其基于DMS上受控的数据定义API,与SQL Console中执行SQL时的权限控制、数据脱敏等功能检查保持一致。数据服务基于Serverless架构,您无需关注...

行协议写入

对于通过行协议发送数据的应用或设备,都可以将数据写入Lindorm时序引擎中。支持的数据类型 行协议写入语法的数据类型包括Float、Integer、String、Boolean和Timestamp。数据类型说明参见下表。数据类型 说明 Float 默认解析类型,例如:1...

SDK接口

本文为您介绍流式数据通道SDK接口的使用方法。使用说明 您可以基于MaxCompute Studio通过Java SDK使用MaxCompute流式数据通道服务。您可以使用以下配置在MaxCompute Studio上添加指定版本的pom依赖。groupId>...

概览

AnalyticDB PostgreSQL版 提供多种数据迁移方案,可满足不同的数据同步或迁移的业务需求,您可以在不影响业务的情况下,平滑地与各种类型的数据库实例进行迁移或数据同步。迁移数据到AnalyticDB PostgreSQL版 迁移类型 文档 简介 是否支持...

概述

DataHub数据同步功能 DataHub提供数据Sink/Source功能,即数据同步功能,DataHub支持将对应Topic中的数据 实时/准实时 的同步到第三方阿里云产品中,打通阿里云产品间的数据流通。目前支持MaxCompute(原ODPS)、分析型数据库MySQL(ADS)、...

引擎功能

高效时序存储技术 时序数据压缩 Lindorm时序引擎使用高效的数据压缩技术,将单个数据点的平均使用存储空间降为1~2个字节,可以降低90%存储使用空间,同时加快数据写入的速度。冷数据归档能力 Lindorm时序引擎支持将长期存储的冷数据归档到...

数据服务概述

DataWorks数据服务模块是一个灵活轻量、安全稳定的数据API构建平台,作为数据库和数据应用之间的“桥梁”,DataWorks数据服务旨在为个人、团队和企业提供全面的数据服务和共享能力,帮助用户统一管理面向内外部的API服务。例如,您可以将...

场景管理器

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

概述

随着业务的快速发展,企业数据呈几何倍增长,数据量庞大、复杂、各类数据间标准不一致,往往会出现数据难以管理的现象。DataWorks智能数据建模服务,将无序、杂乱、繁琐、庞大且难以管理的数据,进行结构化有序的管理。使企业中的数据产生...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用