DataWorks数据集成

对于数据导出,请登录 AnalyticDB PostgreSQL版 的管理控制台进行IP 白名单设置,详情请参见 添加白名单 数据导入 源端的数据源需要在DataWorks管理控制台进行添加,数据源添加的详细步骤请参考 配置AnalyticDB for PostgreSQL数据源 配置...

实时数据消费概述

实时数据消费功能包含高速数据导入API实时数据源消费两部分,可实现数据直接写入Segment(分片单元),避免通过COPY或INSERT方式造成的Master写入负载高的问题,也可实现使用 AnalyticDB PostgreSQL版 单产品直接消费Kafka数据。...

BI分析模式数据面板功能介绍

使用BI分析模式配置组件数据是一个全新的数据配置功能,需要与您准备的数据集内容相结合,您可以使用BI分析模式,为组件自由分配所需数据集的字段内容,合理配置图表数据映射其他数据筛选等功能。本文介绍BI分析模式下组件数据配置面板...

计算层高可用

任意节点宕机导致当前节点上的计算任务失败,可依赖计算任务间的血缘关系,找到上一次持久化的中间数据结果,对失败任务进行重新调度计算,而且仅重新计算失败的任务。对于Coordinator前端节点,通过持久化查询的元数据,通过调度新的...

数据上传

DataWorks的数据上传功能支持将本地文件、数据分析的电子表格、OSS文件等数据上传至MaxCompute、EMR Hive、Hologres等引擎进行分析及管理,为您提供便捷的数据传输服务,助力您快速实现数据驱动业务。本文为您介绍如何使用数据上传功能上传...

数据治理中心概述

量化评估:健康分 健康分是依据数据资产在数据生产、数据流通及数据管理中的用户行为、数据特性、任务性质等元数据,使用数据处理及机器学习等技术,对各类型数据进行综合处理和评估,通过个人、工作空间维度客观呈现数据资产状态的综合...

流程控制

配置项说明 参数 说明 处理方法 通过新增数据过滤器的方法编写处理方法,返回结果为Boolean型。return true为满足该处理方法的条件,return false为不满足该处理方法的条件,可叠加多个,每个处理方法独立计算,输入均为上一个节点的输出...

HikariCP 连接池连接 OceanBase 数据库示例程序

本文将介绍如何使用 HikariCP 连接池、MySQL Connector/J OceanBase 数据库构建一个应用程序,实现基本的数据库操作,包括创建表、插入、删除、更新查询数据等。点击下载 hikaricp-mysql-client 示例工程 前提条件 您已安装 OceanBase...

OSS数据安全防护最佳实践

DSC 在您完成数据源识别授权后,从您存储在OSS的海量数据中快速发现定位敏感数据,对敏感数据分类分级并统一展示,同时追踪敏感数据的使用情况,并根据预先定义的安全策略,对数据进行保护审计,以便您随时了解OSS数据资产的安全状态。...

配置任务时测试连接失败的排查及解决方法

概述 配置数据迁移任务时,可以进行数据库连接测试,很多时候会遇到测试连接失败。本文根据不同的实例类型介绍可能失败的原因及对应的解决方案。详细信息 当连接性预检查失败时,可能是由于如下原因:诊断内容 可能原因 解决方法 JDBC 数据...

基本概念

数据资产:数据资源平台中存在大量的数据表、标签、API等各类数据资产,数据管理者通过数据汇聚、数据治理、数据分析后,需要对整个平台数据进行统一管控,了解平台的核心数据资产,提供对应的数据资产管理规范。统一服务 应用:是调用API...

设置数据时效

设置数据时效 请求路径和方法 请求路径 请求方法 描述/api/ttl POST 设置 TTL 请求内容 名称 类型 是否必需 描述 举例 val Integer 是 设置 ttl 的值,以秒为单位,大于等于1,小于等于2147483647(Integer.MAX_VALUE)高可用版本中允许...

LogHub(SLS)实时ETL同步至Hologres

数据输出预览 窗口,您可以根据需要修改输入数据,或单击 手工构造数据 按钮自定义输入数据,再单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点对输入数据处理异常,或产生脏数据时,也会反馈出异常信息,能够...

功能简介

空间数据支持单文件、多文件、数据库等多种形态,矢量、栅格、瓦片、倾斜摄影等多种类型,不同格式的多源异构空间数据的接入管理;支持本地上传、从OSS导入等多种方式添加数据;添加数据的同时支持各类型空间数据的元信息自动解析,支持...

空间数据(邀测中)

空间数据支持单文件、多文件、数据库等多种形态,矢量、栅格、倾斜摄影等多种类型,不同格式的多源异构空间数据的接入管理;支持本地上传、从OSS导入等多种方式添加数据;添加数据的同时支持各类型空间数据的元信息自动解析,支持按空间...

产品概述

阿里云流数据处理平台数据总线DataHub是流式数据(Streaming Data)的处理平台,提供对流式数据的发布(Publish),订阅(Subscribe)分发功能,让您可以轻松构建基于流式数据的分析应用。数据总线 DataHub服务可以对各种移动设备,应用...

查看数据处理任务运维信息

您可以通过查看数据处理任务运维信息,快速定位任务失败的原因。本文以倾斜数据处理后为例,介绍如何查看数据处理任务运维信息。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择...

功能简介

洞察是一款自助式数据挖掘分析型,面向业务管理者、运营、业务分析师等人员提供低使用门槛的智能、自动化、全面、精准的数据诊断分析能力,智能发现数据规律或异常,实现从数据到知识的提取,辅助业务决策。几乎每个业务每天都存在业务...

创建数据

数据管理DMS离线集成中,可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。本文介绍创建数据配置的方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB...

引擎简介

云原生多模数据库 Lindorm 流引擎面向实时数据处理场景,支持使用标准的SQL及熟悉的数据库概念完成一站式的实时数据处理,适用于车联网、物联网互联网中常见的ETL、实时异常检测实时报表统计等场景。本文介绍Lindorm流引擎的应用场景...

数据安全

云原生多模数据库 Lindorm 提供SSL加密透明数据加密,可有效降低数据在云端的潜在安全风险。同时支持数据备份与恢复,避免数据丢失。设置SSL加密 为了提高访问链路的安全性,您可以启用SSL(Secure Sockets Layer)加密,并安装CA证书到...

产品安全能力

PolarDB 产品的安全能力可以从访问安全、数据传输安全、数据安全、数据脱敏安全审计5个方面体现。访问安全 PolarDB 提供的集群白名单功能实现了集群访问安全,集群白名单功能包括集群IP白名单安全组,创建 PolarDB MySQL版 集群后,您...

外部表概述

外部表示例 您可以通过以下示例,深入了解通过MaxCompute外部表功能处理各种非结构化数据方法:访问OSSTableStore(OTS)非结构化数据,请参见 访问OSS非结构化数据 访问OTS非结构化数据。外部表访问OSS的账号,在RAM中自定义授权...

Windows

RTC SDK提供了获取音频数据的功能,您可以将获取到的语音数据根据实际需求进行处理。通过阅读本文,您可以了解到获取音频数据方法。使用场景 您可以将本地发布端或订阅端的音频数据通过阿里云语音识别服务转换成文字,实现流程如下所示:...

Oracle同步至Tablestore

数据输出预览 窗口,您可以根据需要修改输入数据,或者单击 手工构造数据 按钮自定义输入数据,然后单击 预览 按钮,查看当前数据处理节点对数据处理结果,当数据处理节点处理异常,或者产生脏数据时,也会实时反馈异常信息,能够帮助...

Windows系统实例的宕机问题排查

更多信息,请参见 常见宕机原因和解决方案。方式二:通过系统事件定位 登录 ECS管理控制台,左侧导航栏单击 事件。在左侧导航栏单击 非预期运维事件。单击发生宕机运维事件实例右侧的 诊断操作系统错误根因,诊断实例宕机原因。根据返回的...

Android

RTC SDK提供了获取音频数据的功能,您可以将获取到的语音数据根据实际需求进行处理。通过阅读本文,您可以了解到获取音频数据方法。使用场景 您可以将本地发布端或订阅端的音频数据通过阿里云语音识别服务转换成文字,实现流程如下所示:...

功能特性

时空索引 AI引擎 模型创建 Lindorm AI引擎支持在数据库中导入预训练AI模型,对数据库内的数据进行分析和处理或对时序数据进行建模,执行时序分析类任务。模型创建 模型管理 管理Lindorm AI引擎内已导入或已创建的模型。模型管理 模型推理 ...

计费说明-全托管

000 4500 60C240G 101,500 5000 60C240G 110,000 数据处理单元统计规则:数据处理单元总量=(数据同步任务数+数据集成任务数)/3+计算任务数(离线实时)+明细逻辑表总数+[向上取整(指标数/10)]其中:前200个数据集成任务不纳入统计,...

合规&认证

用户应对业务数据来源、内容及处理数据的合法性负责,请谨慎判断数据来源、内容及处理数据的合法性,依法获得处理此类数据所需的个人同意或政府部门许可、备案或评估。因用户业务数据的来源、内容及对用户业务数据处理活动违反法律法规、...

Flink数据导入

数据和数据表的创建方法,请参见 CREATE DATABASE CREATE TABLE。说明 本文示例中创建的数据库名称为 tpch,建库语句如下:CREATE DATABASE IF NOT EXISTS tpch;本文示例中创建的数据表名为 person,建表语句如下:CREATE TABLE IF ...

集成与开发概览

您可以通过流批一体的数据集成对在线数据进行入仓、加工处理,通过数据开发模块对数仓数据进行分层开发,之后结合数据服务可视化能力对外提供数据使用分析服务。您也可以将这些功能作为基础能力集成到您自己的数据平台中使用,建设属于...

如何恢复数据到其它数据库实例

数据库备份DBS 支持恢复已有备份数据到源备份数据库实例上,同时也支持恢复到其它已有数据库实例上,包括RDS实例、ECS上的自建数据库等,可用于误操作后恢复以及分析历史数据等场景。本文以恢复到已有RDS实例为例介绍恢复操作。前提条件 已...

他云/自建数据库录入

SSL(Secure Sockets Layer)能在传输层对网络连接进行加密,提升通信数据的安全性完整性,但会增加网络连接响应时间。实例DBA 选择一个DBA角色进行后续权限申请等流程。查询超时时间(s)设定安全策略,当达到设定的时间后,SQL窗口执行...

云数据库录入

SSL(Secure Sockets Layer)能在传输层对网络连接进行加密,提升通信数据的安全性完整性,但会增加网络连接响应时间。实例DBA 选择一个DBA角色进行后续权限申请等流程。查询超时时间(s)设定安全策略,当达到设定的时间后,SQL窗口执行...

云数据库录入

SSL(Secure Sockets Layer)能在传输层对网络连接进行加密,提升通信数据的安全性完整性,但会增加网络连接响应时间。使用该参数的前提是数据库已开启SSL连接,当前支持如下选项:默认(DMS与数据库服务自动协商是否开启):系统将自动...

功能特性

日志数据导入 通过数据同步功能同步SLS至湖仓版 Kafka数据源 AnalyticDB for MySQL支持通过Logstash插件、Dataworks和数据同步三种方法将Kafka数据导入到数仓版或湖仓版集群。Kafka 通过数据同步功能同步Kafka至湖仓版 OSS数据源 ...

企业版标准版功能对比

PolarDB MySQL版 企业版标准版在功能上有很多差异,可分为集群管理、弹性管理、高性能、备份与恢复、高可用性、高安全、连接管理、高性价比、监控与优化、DB for AI、数据迁移&同步等11个类别。本文为您介绍这两个版本的功能区别,帮助您...

测试数据构建

数据管理DMS的测试数据构建功能拥有强大的算法引擎,支持批量生成各类随机值、地区名、虚拟IP地址等信息,可以大大减轻准备测试数据的负担。本文介绍构建测试数据方法。前提条件 支持的数据库类型:MySQL:RDS MySQL、PolarDB MySQL版、...

减灾与应急时空解决方案与案例

数据与系统上云过程前,遇到了如下挑战:长期积累的时空数据类型多、数据量巨大,包括中国全球地震、地质、台风、洪水、高温、低温、暴雨、雪灾、森林草原火灾等灾种中高精度风险地图数据,台风、地震、滑坡、森林草原火灾等全球准...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 数据库审计 云数据库 RDS 数据传输服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用