从RDS MariaDB迁移至RDS MySQL

注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,...

权限说明

数据湖构建(DLF)产品的权限体系主要分为RAM权限以及DLF数据权限控制两大类,如果您要访问DLF的页面或数据,一般都需要通过这两层权限校验,才可以正确的访问到数据资源。RAM 权限:主要控制DLF所有OpenAPI的访问权限,决定RAM用户是否...

从自建Db2迁移至RDS MySQL

本文介绍如何使用数据传输服务DTS(Data Transmission Service),将自建的Db2数据库迁移至RDS MySQL。DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成Db2数据库的...

按扫描量付费

按扫描量付费是一种先使用后付费的计费方式,即根据扫描的字节(Byte)数收费,不收取其他任何费用。当您通过DLA对本地或第三方数据源中的数据进行关联分析,DLA会根据扫描的数据量进行计费。本文主要介绍按扫描量付费DLA的计费规则 和计费...

从自建MySQL迁移至PolarDB-X

根据自建MySQL数据库中待迁移数据表的数据结构,在目标 PolarDB-X 中创建相应的数据库和数据表,详情请参见 创建数据库 和 SQL基本操作。操作步骤 登录 数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角...

新增授权

本文档主要为您说明如何进行新增数据授权。说明 目前支持的引擎:E-MapReduce产品(EMR-3.40.0及后续版本或EMR-5.6.0及后续版本),包括的计算引擎如下:Spark Hive Presto(目前仅限EMR-3.40.0及EMR-5.6.0版本支持,其他版本暂不支持)...

从MaxCompute迁移至RDS MySQL

费用说明 迁移类型 链路配置费用 公网流量费用 结构迁移和全量数据迁移 不收费 通过公网将数据迁移出阿里云时将收费,详情请参见 计费概述。迁移类型说明 迁移类型 说明 结构迁移 DTS将待迁移对象的结构定义迁移到目标库。目前DTS支持结构...

RDS实例间的数据迁移

本文介绍如何使用数据传输服务(Data Transmission Service,简称DTS),实现RDS实例间的数据迁移。DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成数据库的迁移。...

续费说明

手动续费 云数据库SelectDB控制台手动续费 登录 云数据库SelectDB控制台。在页面左上角,选择目标实例所在的地域。在 实例列表 页面,单击目标实例 操作 列的 更多,展开下拉菜单,单击 续费。在 续费 页面,设置 购买时长。勾选《云数据库...

释放实例

根据实例类型,在左侧导航栏单击 数据迁移、数据同步 或 数据订阅。在页面顶部选择实例所属地域。选中目标实例并释放。说明 数据同步和数据订阅实例还可以通过单击 操作 列的 更多,然后选择对应的选项来释放实例。在弹出的 释放实例 提示...

产品简介

阿里云数据湖构建(Data Lake Formation,简称 DLF)是一款全托管的快速帮助用户构建云上数据湖及Lakehouse的服务,为客户提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力。DLF可以帮助用户快速...

应用场景

隐私保护下的数据交叉核验 网络货运平台,将业务订单中的货源、运单、轨迹、支付订单数据上传到数字物流区块平台,将下的加密数据输入至 C3S 计算平台,通过比对第三方轨迹信息、云资金支付信息,数字物流平台对业务订单中时间...

转换计费方式

您可以根据业务需求,将数据同步任务或数据订阅任务的付费方式转换为按量付费或者包年包月,转换付费方式对DTS实例的正常运行无影响。注意事项 新版控制台付费方式支持按量付费和包年包月相互转换,旧版控制台付费方式只支持由按量付费转为...

成员接入

本文介绍了成员接入流程,管理方可以邀请其它成员共同使用IoT区块Hub,成员接受邀请之后,管理方可以授予该成员相应的区块访问权限,以使成员可以在被授权的业务上进行数据。进入成员接入授权页 1.登录 IoT安全中心控制台。2.在...

常见问题

通过 云原生数据仓库AnalyticDB MySQL控制台 湖仓版集群的数据同步和数据迁移功能实现数据入湖,会产生以下费用:AnalyticDB for MySQL 的ACU弹性资源费用计费项详情,请参见 湖仓版(3.0)计费项。OSS 的存储费用、GET类请求次数以及PUT...

安全基线检查

数据安全中心通过动态检测数据资产配置的方式,以数据为落脚点检测阿里云上数据库资产是否存在配置风险,例如身份验证、访问控制、加密、备份和恢复等方面的配置是否安全,这些检查策略和检查项统称为安全基线检查。安全基线检查功能可以帮...

EMR+DLF数据湖解决方案

通过EMR+DLF数据湖方案,可以为企业提供数据湖内的统一的元数据管理,统一的权限管理,支持数据湖的多种管理如数据生命周期,湖格式自动优化,存储分析等。同时支持多源数据入湖以及一站式数据探索的能力。本文为您介绍EMR+DLF数据湖方案...

产品优势

异构兼容 UDAG全栈跨协议对异构兼容性友好,支持蚂蚁区块与其他类型联盟,私有,公双向互通,促进多机构跨行业的生态融合 互操作性强 远程与其他同构/异构区块进行双向消息通讯,通过叠加业务中间层协议,完成之间的...

产品计费

数据安全中心DSC(Data Security Center)采用包年包月(预付费)的计费方式。本文介绍 DSC 的计费情况。新用户7天免费试用 数据安全中心支持7天免费试用企业版(含全部功能)。阿里云账号和RAM用户均可申请免费试用,且申请时需要使用中文...

DLF+EMR之统一权限最佳实践

DLF 数据权限:DLF所提供的数据湖的数据权限体系,支持配置数据库、数据表、数据列、函数四种维度细粒度权限控制。详见 数据权限概述。业务场景说明 某公司有一个EMR集群,期望Hive/Spark/Presto/Impala引擎可以通过统一的数据权限,控制...

产品简介

产品介绍 蚂蚁存证合约服务,是基于区块技术下存证场景的解决方案,提供标准灵活的存证合约模板,支持结构化存证、文本存证等功能,实现 更规范、更高效、高通用性、高性能、高安全 的存证合约服务,在更规范更便捷的管理和保护存证...

访问控制权限概述

数据管理DMS提供了全方位细粒度的数据安全管理功能,支持对实例、数据库、表、数据列、数据行等进行权限管理,可按需给授权对象登录、查询、导出、变更等权限类型。权限类别说明 权限分类 权限类别 权限说明 实例是否开启安全托管 操作权限...

DataWorks On Hologres使用说明

数据地图概述 安全中心 数据保护伞 审批中心 安全中心是集数据资产分级分类、敏感数据识别、数据授权管理、敏感数据脱敏、敏感数据访问审计、风险识别与响应于一体的一站式数据安全治理界面,帮助用户落地数据安全治理事项。安全中心概述 ...

功能特性

通过OpenTelemetry上报Go应用数据 通过Jaeger上报Go应用数据 通过Zipkin上报Go应用数据 通过SkyWalking上报Go应用数据 接入Python应用 支持通过OpenTelemetry、Skywalking、Jaeger上报Python应用性能数据。通过OpenTelemetry上报Python应用...

功能特性

通过OpenTelemetry上报Go应用数据 通过Jaeger上报Go应用数据 通过Zipkin上报Go应用数据 通过SkyWalking上报Go应用数据 接入Python应用 支持通过OpenTelemetry、Skywalking、Jaeger上报Python应用性能数据。通过OpenTelemetry上报Python应用...

【通知】控制台全新升级

为了提供更好的数据安全服务使用体验,从2022年07月29日起,阿里云数据安全中心控制台全新升级,基于感知、治理到防护的业务逻辑,助力企业建立标准化数据安全管理流程、提升数据安全治理效率。本文介绍本次控制台升级主要的功能变更和如何...

数据源概述

说明 数据同步基于数据控制任务读写端数据库,您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库或数据仓库的相关信息,以便在同步过程中,可通过选择数据源名称来控制同步读取和写入的数据库或数据仓库。数据源...

DataWorks On CDP/CDH使用说明

一、数据集成 DataWorks的数据集成模块为您提供读取和写入数据至CDP/CDH Hive、CDP/CDH HBase的能力,您需要将Hive或HBase组件创建为 DataWorks的 Hive或HBase数据源,实现将其他数据源的数据同步至Hive或HBase数据源,或将Hive或HBase数据...

添加DataWorks数据服务数据

本文介绍在DataV中添加DataWorks数据服务数据源,并将通过DataWorks数据表生成的API,快速地展示在DataV可视化大屏中的方法。前提条件 已准备好待添加的DataWorks数据服务数据源。背景信息 DataWorks数据服务生成的API默认不支持HTTPS协议...

计费方式

数据传输服务DTS(Data Transmission Service)不同实例支持的计费方式不同,本文详细介绍了DTS产品的计费方式。说明 DTS产品的计费项,请参见 计费项。计费方式 支持的实例 说明 包年包月 数据订阅实例 数据同步实例 也称为预付费,即在...

数据扫描和识别

支持扫描的数据源类型如下:结构化数据:RDS、PolarDB、PolarDB-X、MongoDB、OceanBase、自建数据库 非结构化数据:OSS 大数据:TableStore、MaxCompute、ADB-MYSQL、ADB-PG 数据源授权完成后需要多长时间完成扫描?DSC 完成数据源授权后,...

源库连接性检查

在预检查阶段,系统会检查DTS服务器是否能够连通源端数据库。本文将介绍源库连接性检查失败的可能原因及修复方法。当源库连接性预检查失败时,可能是以下几种原因。数据库账号名或密码不正确 报错示例 Access denied for user 'XXX'@'XXX'...

查看历史任务

数据集成任务会在每个调度时间点生成一个数据迁移任务,通过DTS控制台您可以查看所有已经运行完成的数据迁移任务,了解该任务的执行情况。前提条件 已创建数据集成任务,相关案例请参见 配置RDS MySQL间的数据集成任务。操作步骤 登录 数据...

目标数据库连接性检查

为保障数据迁移任务的顺利执行,在预检查阶段检查DTS服务器是否能够连通要迁移的目标数据库。本文将介绍目标数据库连接性检查失败可能的原因及修复方法。当目标数据库连接性预检查失败时,可能是以下几种原因。数据库账号或数据库密码不...

添加DataWorks数据服务数据

本文介绍在DataV中添加DataWorks数据服务数据源,并将通过DataWorks数据表生成的API,快速地展示在DataV可视化大屏中的方法。前提条件 已准备好待添加的DataWorks数据服务数据源。背景信息 DataWorks数据服务生成的API默认不支持HTTPS协议...

折线柱状图

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

基本散点图

图表样式 基本散点图是使用散点来展示数据的一种图表,适用于展示不同时间下离散数据的差异。基本散点图支持自定义x轴、y轴以及散点的样式,支持多系列数据配置,支持提示框交互和动画效果展示。样式面板 搜索配置:单击 样式 面板右上角的...

添加Spark数据

添加Spark数据源可以实现批量快速导入数据功能,本文介绍添加Spark数据源的方法。前提条件 已购买引擎类型为LTS的Lindorm实例。已创建Lindorm实例并开通计算引擎服务,创建方法请参见 创建实例。添加方式 通过 云原生多模数据库 Lindorm ...

3D柱状图

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

数据归档OSS

该功能允许用户在控制数据库管理页面或通过API将不经常访问的在线数据库转为冷存数据库,而冷数据会存储在低成本的对象存储OSS中,以此实现数据的冷热分离,帮助用户节约存储成本。功能简介 RDS SQL Server基于SQL Server内核原生的数据...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库备份 DBS 云数据库 RDS 云数据库 Redis 版 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用