产品简介

大数据专家服务 大数据专家服务(Bigdata Expert Service)是由阿里云大数据专家基于阿里云多年大数据架构、应用、运维、AI算法建模等最佳实践经验及方法论为用户提供全方位的大数据产品技术、咨询服务及售后专家服务运维保障,帮助用户...

实施步骤

本文主要介绍搭建DataV数据大屏的操作步骤步骤一:购买DataV基础版 登录 DataV管理控制台,本教程使用 兼容MySQL 方式连接DLA服务,所以购买DataV基础版即可满足要求。步骤二:添加DLA数据源 在添加数据源之前,您必须先为您的DLA配置白...

步骤

使用说明 在某个容器内或整个页面内支持拖入 步骤 组件,步骤数据绑定动态值时,您需要绑定一个类型为List类型的变量,其中Structure为步骤组件中每项数据对应的类型。使用示例 从 组件面板 拖拽 步骤 组件至画布。在右侧属性面板中,设置...

快速体验

DataWorks为您提供智能建模、数据清洗、周期调度运维、数据治理等一站式大数据开发管理能力,本文以一个零售电商行业的数仓搭建实验为例,为您介绍DataWorks在数仓搭建过程中的技术选型、技术流程以及流程实现,帮助您深入了解阿里云...

使用Spark Structured Streaming实时处理Kafka数据

本文介绍如何使用阿里云 Databricks 数据洞察创建的集群去访问外部数据源 E-MapReduce,并运行Spark Structured Streaming作业以消费Kafka数据。前提条件 已注册阿里云账号,详情请参见 阿里云账号注册流程。已开通 E-MapReduce服务。已...

场景:跨账号创建数据

详情请参见 创建MaxCompute数据源、...后续步骤 数据源创建后,您可执行如下操作:基于该数据源进行数据集成同步操作。详情请参见 数据集成概述。进入运维中心、数据地图,查看数据源的更多详细信息。详情请参见 运维中心概述、数据地图概述。

使用阿里云实时计算Flink实现MySQL至StarRocks的数据...

操作流程 步骤一:准备测试数据 步骤二:通过VVP创建自定义Connector 步骤三:通过VVP创建MySQL的Catalog 步骤四:通过VVP创建StarRocks结果表 步骤五:通过VVP启动作业 步骤六:场景演示 步骤一:准备测试数据 创建测试的数据库和账号,...

手动添加数据

您可以通过 数据库备份DBS 的手动添加数据源功能,将...后续步骤 数据源添加成功后,您可以开始备份数据。具体操作,请参见 备份数据库。相关文档 支持的数据源 变更数据源的账号与密码 添加数据源的更多方式:批量添加数据源 自动添加数据源

数据处理

操作步骤 数据导入。进入GDB Automl。在页面顶端,单击 数据,选择数据导入方式。说明 目前版本支持从图数据库GDB导入数据、从文件中导入(包括从CSV文件和压缩包文件)、从数据库SQL表导入。数据解析。数据导入后,GDB Automl提供数据解析...

Databricks Delta Lake数据入湖最佳实践

使用Spark Structured Streaming完成客户日志数据写入Delta Lake。本章架构图 步骤一:创建Kafka集群和Databricks 数据洞察集群 1.登录 阿里云E-MapReduce控制台。2.创建Kafka集群,详情参见 创建集群 3.登录 Databricks数据洞察控制台。4....

配置资源组与网络连通

数据同步任务配置前,您需要确保用于执行同步任务的独享数据集成资源组与您将要同步的数据来源端与目的端数据库的网络连通性,您可以根据数据库所在网络环境,选择合适的网络解决方案来实现网络连通。本文为您介绍数据库在不同网络环境中...

步骤六:可视化分析

本文将使用Quick BI指导您完成本教程的可视化分析步骤,包括数据源、数据集的创建和数据大屏图表的配置。步骤一:创建数据源 登录 Quick BI控制台。按照下图操作指引,进入 创建数据源 对话框。在 MySQL-阿里云 区域,配置连接参数。参数 ...

步骤六:可视化分析

本文将使用Quick BI指导您完成本教程的可视化分析步骤,包括数据源、数据集的创建和数据大屏图表的配置。步骤一:创建数据源 登录 Quick BI控制台。按照下图操作指引,进入 创建数据源 对话框。在 MySQL-阿里云 区域,配置连接参数。参数 ...

将云消息队列 Kafka 版的数据迁移至MaxCompute

本文介绍如何使用DataWorks数据同步功能,将 云消息队列 Kafka 版 集群上的数据迁移至阿里云大数据计算服务MaxCompute,方便您对离线数据进行分析加工。前提条件 在开始本教程前,确保您在同一地域中已完成以下操作:云消息队列 Kafka 版 ...

Quick BI数据可视化

Quick BI支持连接 云数据库 SelectDB 版 实例,连接成功后,您可以在Quick BI上进行数据的分析与展示。本文为您介绍如何为Quick BI添加 云数据库 SelectDB 版 数据源。前提条件 已为 云数据库 SelectDB 版 实例 申请公网地址。具体操作,请...

概述

本章节以搭建 碧玺绿地球通用模板 数据看板为例,为您演示如何使用DataV提供的模板来开发可视化数据看板。操作步骤 创建数据看板 配置组件样式 适配组件数据 预览并发布数据看板

导入数据字典

为了创建完整的字段标准,需要先完善数据字典的管理,创建好数据字典后,可以用来规范数据标准字段的值域范围,保证关联了字段标准的表及字段可以自动设置数据质量规则,规范数据质量。通过导入数据字典可以实现批量创建数据字典。本文介绍...

步骤三:创建实时计算表

本文为实时研发基本流程的创建实时计算表步骤,在准备工作中,订单系统MySQL中的oms_order包含了订单的信息,实时任务就需要从这张表中实时的抽取增量数据来计算GMV。现在我们需要创建一个订单表对应的实时元表,可以从订单表中读取增量...

步骤三:创建实时计算表

本文为实时研发基本流程的创建实时计算表步骤,在准备工作中,订单系统MySQL中的oms_order包含了订单的信息,实时任务就需要从这张表中实时的抽取增量数据来计算GMV。现在我们需要创建一个订单表对应的实时元表,可以从订单表中读取增量...

数据保护伞入门

数据保护伞 是一款数据安全管理产品,提供数据发现、数据脱敏、数据水印、访问控制、风险识别、数据溯源等功能,帮助您快速梳理敏感数据并进行安全管控,保障数据安全。本文示例使用内置规则对 xc_dpe_e2_dev 项目的 phone 数据脱敏,并...

数据

本文介绍如何查看我的数据表资产。...操作步骤 登录 数据资源平台控制台。在顶部菜单栏,单击(我的资产)。在左侧导航栏,选择 资产明细>我可使用的,在 我可使用的 页面,选择 数据表>申请授权。预期结果 展示已授权成功的数据表。

实时研发基本流程概述

以下为数据流向的示意图:订单系统MySQL的数据通过Ververica Flink任务进行实时计算,实时汇总各产品类型的销售数量并写入另一个用于OLAP分析的MySQL数据库。通过BI工具(Quick BI等)读取MySQL中的数据,进行可视化分析。流程指引 使用...

实时研发基本流程概述

以下为数据流向的示意图:订单系统MySQL的数据通过Ververica Flink任务进行实时计算,实时汇总各产品类型的销售数量并写入另一个用于OLAP分析的MySQL数据库。通过BI工具(Quick BI等)读取MySQL中的数据,进行可视化分析。流程指引 使用...

数据

本文介绍如何进行我的数据表资产授权管理。前提条件 使用工作组管理员账号登录。已获取数据表资产“dws_ren_kh_demo_di(银行客户信息表)”,具体操作,请参见 数据表。操作步骤 登录 数据资源平台控制台。在顶部菜单栏,单击(我的资产)...

导出数据字典

通过导出数据字典功能,搭配导入功能,您可以快速实现工作组间的数据字典迁移。本文介绍如何导出数据字典。前提条件 已导入或新建完成数据字典。具体操作,请参见 新建数据字典 和 导入数据字典。操作步骤 登录 数据资源平台控制台。在页面...

步骤二:规划数仓

数仓规划是基于Dataphin建设数据中台的第一步,同时也是数据体系的顶层设计中至关重要的一步。在开始数据开发前,需要完成数据仓库的规划,包括定义数据板块、项目、数据源、计算源和统计周期。本文将指导您完成本教程的规划数仓。背景信息...

步骤二:规划数仓

数仓规划是基于Dataphin建设数据中台的第一步,同时也是数据体系的顶层设计中至关重要的一步。在开始数据开发前,需要完成数据仓库的规划,包括定义数据板块、项目、数据源、计算源和统计周期。本文将指导您完成本教程的规划数仓。背景信息...

导出数据

您可以通过导出数据元功能,搭配导入功能,快速实现工作组间的数据元数据迁移。本文介绍如何导出数据元。前提条件 已完成数据元导入或新建,具体操作,请参见 新建数据元 或者 导入数据元。操作步骤 登录 数据资源平台控制台。在页面左上角...

获取物理表

数据同步支持获取、更新当前云计算资源下最新物理表及元数据Meta信息,以便进行数据源之间的数据同步。本文介绍如何在数据同步中获取物理表。前提条件 已准备好相应的数据源,具体操作,请参见 新建数据源。操作步骤 登录 数据资源平台控制...

新建数据目录

您可以通过新建数据目录,对数据进行分类管理。本文介绍如何新建数据目录。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择目标工作组,单击 资产加工。在左侧导航栏,单击 图标,...

移动数据

当需要变更数据元所属目录时,您可以通过移动数据元,实现数据元所属目录的修改。本文介绍如何修改数据元目录。前提条件 已存在1个及以上(不包含默认类目)的数据元目录。已完成数据元创建或者导入,具体操作,请参见 新建数据元 或者 ...

Quick BI

您可以使用外网或VPC网络连接 云数据库ClickHouse,在Quick BI中添加 云数据库ClickHouse 数据源并通过Quick BI构建BI系统。本文介绍如何在Quick BI中添加 云数据库ClickHouse 数据源。前提条件 已创建 云数据库ClickHouse 集群。具体操作...

查询任务日志

数据传输服务DTS(Data Transmission Service)支持在任务日志页签查看任务时间轴和运行日志信息。任务时间轴以时间线的维度展示购买、配置、运行、故障、运行完成等关键节点的任务状态信息;运行日志可根据时间范围或任务的状态信息进行...

从MaxCompute迁移至RDS MySQL

确保您已完成以下操作:开通MaxCompute 创建项目空间 设置阿里云产品访问MaxCompute白名单 注意事项 DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较的...

查看数据元详情

通过查看数据元详情,您可查看数据元的基本信息以及值域设置、引用的数据字典、关联字段以及操作日志等详细信息。本文介绍如何查看数据元详情。前提条件 已存在数据元,具体操作,请参见 新建数据元 或者 导入数据元。操作步骤 登录 数据...

新建数据

通过新建数据域,实现对数据域的定义与管理,便于从数据域维度对数据模型进行分类管理,方便逻辑表设计时使用。本文介绍如何新建数据域。操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标...

新增消费组

一个消费组只能创建一个消费(consumer),并通过该消费执行数据消费。若DTS增量数据采集模块或者客户端切换,则可能会导致数据重复。操作步骤 登录 数据传输控制台。在左侧导航栏,单击 数据订阅。在 数据订阅列表 页面上方,选择订阅...

机器学习开发示例

本文介绍如何使用阿里云 Databricks 数据洞察的Notebook进行机器学习开发。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建集群,具体请参见 创建集群。已使用OSS管理控制台创建 非系统目录存储空间,详情请参见 控制台创建存储...

业务切换流程

为最大化地减少数据迁移对业务的影响,您可以参照本文的流程执行业务切换并建立回退方案。前提条件 已配置数据迁移任务,且数据迁移任务处于 迁移中 或 已完成 状态,配置案例请参见 迁移方案概览。注意事项 由于执行业务切换操作需要停止...

查看数据字典详情

通过查看数据字典详情信息,可以查看数据字典的编码、值编码和关联数据元等信息。本文介绍如何查看数据字典详情。前提条件 已存在数据字典,具体操作,请参见 新建数据字典 和 导入数据字典。操作步骤 登录 数据资源平台控制台。在页面左上...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云数据库 Redis 版 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用