应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

通用属性

举例:DLA的表名是 person,底层数据的表名是 staff。​​​​​​​create external table person(id int,name string,age int)tblproperties(table_mapping='staff');​ column_mapping 当DLA中的列名跟底层数据中的列名不一致的时候,...

什么是DataWorks

从2009年起,DataWorks不断沉淀阿里巴巴大数据建设方法论,支撑数据中台建设,同时与数万政务、央国企、金融、零售、互联网、能源、制造、工业等行业的客户携手,不断提升数据应用效率,助力产业数字化升级。产品架构 DataWorks十多年...

互联网、电商行业离线大数据分析

概述 电商网站的销售数据通过大数据进行分析后,可以在屏幕展示销售指标、客户指标、销售排名和订单地区分布等业务指标数据。DataV大屏支持可视化动态展示销售数据,触控大屏支持您自助查询数据,极地提高数据的可读性。应用场景 电商...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

常见问题

数据同步过程中如果源实例中的数据、表或者列中含有划线(-)会报错吗?由于ADB中不允许数据、表或者列中含有划线(-),为保证数据同步成功,系统会将中划线(-)映射为下划线(_)。如果在数据同步过程中遇到其他因数据...

受众与核心能力

产品定位 DataWorks致力于为数据开发者、数据分析师、数据资产管理者,打造一个具备开放自主开发与全栈数据研发能力的一站式、标准化、可视化、透明化的智能大数据全生命周期云研发平台。DataWorks赋予用户仅通过单一平台,即可实现数据...

典型场景

基于湖构建数据平台,支持BI、挖掘等业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

创建ClickHouse数据

背景信息 如果您使用的是数据库ClickHouse,引入ClickHouse的业务数据至Dataphin中或将Dataphin数据导出至ClickHouse的场景中,您需要先完成ClickHouse数据源的创建。阿里云数据库ClickHouse的更多信息,请参见 什么是云数据库ClickHouse。...

通过数据同步功能同步SLS数据至湖仓版

通过 AnalyticDB for MySQL 的数据同步功能,您可以将SLS中指定时间点之后产生的数据实时同步至 湖仓版(3.0)集群,以满足日志数据实时分析的需求。前提条件 湖仓版(3.0)集群与日志服务SLS的 Project和 Logstore位于同一地域。具体操作...

通过数据同步功能同步SLS数据至数仓版

通过 AnalyticDB for MySQL 的数据同步功能,您可以将SLS中指定时间点之后产生的数据实时同步至 数仓版(3.0)集群,以满足日志数据实时分析的需求。前提条件 数仓版(3.0)集群与日志服务SLS的 Project和 Logstore位于同一地域。具体操作...

使用DataWorks同步数据

本文以MaxCompute为例介绍如何将数据通过DataWorks同步至 云数据库ClickHouse。背景信息 您可以通过DataWorks,将支持的各种数据数据离线同步至 云数据库ClickHouse。离线同步支持的数据源类型,具体请参见 支持的数据源与读写插件。前提...

Tunnel操作

MaxCompute通过Tunnel实现上传下载数据功能。本文为您介绍如何通过Tunnel上传、下载数据。Tunnel操作详情请参见 Tunnel命令。Tunnel操作常用命令如下。类型 功能 角色 操作入口 上传数据 将本地文件的数据上传至MaxCompute的表中,以追加...

概述

AnalyticDB PostgreSQL版 向量分析可以通过AI算法提取非结构化数据的特征,并利用特征向量作为非结构化数据的唯一标识,帮您快速且低成本地实现对非结构化数据检索和对结构化数据关联分析。向量数据库简介 在现实世界中,绝多数的数据都...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。权限说明 仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多信息,请参见 Apache Hudi官网。权限说明 仅支持 超级管理员、数据源管理员、...

JindoFS实战演示

使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...

概述

创建数据迁移项目时,您可以指定的最大迁移范围是数据库级别,最小迁移范围是表级别。详情请参见 数据迁移 模块的内容。说明 目前数据迁移项目仅支持后付费模式,即按量付费计费模式。当前为限时免费阶段,具体收费时间另行通知。详情请...

IoT数据自动化同步至云端解决方案

大数据分析是大数据完成数据价值化的重要手段之一,而进行大数据分析的第一步是让数据成功上云。解决方案 IoT数据自动化同步至云端解决方案主要包括存储原始数据和同步数据至分析系统两部分。IoT设备大量的数据通常以半结构化的形式存储。...

大数据安全治理的难点

这些链路都是数据机密性受损的直接渠道,数据流转安全策略定义不清楚或未定义、底层链路未禁用、API安全防护缺失、人员行为未做风控 都会导致数据安全事件发生。例如,非法出境(出域)、脱库、泄露等。交付 数据系统负责每日产出用于...

从自建Oracle迁移至PolarDB MySQL版

PolarDB MySQL版 集群对表名的英文大小写不敏感,如果使用大写英文建表,PolarDB MySQL版 会先把表转为小写再执行建表操作。如果源Oracle数据库中存在表相同仅小写不同的表,可能会导致迁移对象重并在结构迁移中提示“对象已经存在...

Delta Lake概述

Delta Lake以数据为中心,围绕数据流走向(数据从流入数据湖、数据组织管理和数据查询到流出数据湖)推出了一系列功能特性,协助您搭配第三方上下游工具,搭建快捷、易用和安全的数据湖。背景信息 通常的数据湖方案是选取大数据存储引擎...

ListDoctorHiveTables-批量获取Hive表分析结果

数据指的是 7 日内没有访问的数据,但是 30 日以内有访问的数据。coldDataSize:冷数据数据量大小。冷数据指的是 30 日内没有访问的数据,但是 90 日以内有访问的数据。freezeDataSize:极冷数据数的据量大小。极冷数据指的是 90 日以内...

数据源中心

HIVE/IMPALA数据源 参数 是否必选参数 说明 数据源 数据源类型。数据源名称 是 输入数据源的名称。描述 否 输入数据源的描述。IP主机 输入连接HIVE/IMPALA的IP地址。端口 是 HIVE/IMPALA 数据源类型对应的端口为10000。用户 ...

修改名单抽奖数据

您还可以在组件 设置数据源 页面中,选择 数据源 类型为您自定义添加的动态数据源类型(如数据库、API等),使得数据接口获得的是整个抽奖池数据,即所有能参与抽奖的人员名单。通过配置动态数据源内容,可动态获取抽奖名单数据,实现公平...

修改名单抽奖数据

您还可以在组件 设置数据源 页面中,选择 数据源 类型为您自定义添加的动态数据源类型(如数据库、API等),使得数据接口获得的是整个抽奖池数据,即所有能参与抽奖的人员名单。通过配置动态数据源内容,可动态获取抽奖名单数据,实现公平...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据数据来源上包含数据数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

配置SQLServer数据

SQLServer数据源为您提供读取和写入SQLServer双向通道的功能,您可以通过向导模式和脚本模式配置同步任务。前提条件 在配置SQLServer数据源之前,您需要在RDS for SQLServer端做好以下准备工作。创建RDS for SQLServer实例,请参见 快速...

数据源权限管理

本文为您汇总数据源权限管理相关的问题。哪些角色可以管理数据源的权限?是否支持再次分享已被分享的数据源?数据源的创建者是否有权控制该数据源?什么是私有模式的数据源?哪些用户能够收回数据源的分享权限?如何检查数据源分享关系的...

用户价值

数据资源平台为用户提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

步骤六:可视化分析

本文将使用Quick BI指导您完成本教程的可视化分析步骤,包括数据源、数据集的创建和数据大屏图表的配置。步骤一:创建数据源 登录 Quick BI控制台。按照下图操作指引,进入 创建数据源 对话框。在 MySQL-阿里云 区域,配置连接参数。参数 ...

修改组件数据

如果您的数据源为CSV文件、数据库等其他类型的数据,需要首先添加数据源,详情请参见 添加数据源。如果您需要使用数据源为API,直接在数据配置栏输入API即可。具体配置API数据源时,是否勾选 服务器代理请求 等操作,详情请参见 跨域数据...

设计阶段

设计工作包含数据探查和系分设计两部分:数据探查旨在了解来源数据数据形态,例如数据质量、数据分布等。结合业务场景,帮助分析和判断需求实现的可行性以及找出潜在的数据问题和风险。系分设计则包括表设计、Mapping设计和调度设计等最...

修改组件数据

如果您的数据源为CSV文件、数据库等其他类型的数据,需要首先添加数据源,详情请参见 添加数据源。如果您需要使用数据源为API,直接在数据配置栏输入API即可。具体配置API数据源时,是否勾选 服务器代理请求 等操作,详情请参见 跨域数据...

数据脱敏

数据安全中心(Data Security Center,简称DSC)支持静态脱敏和动态脱敏,可以脱敏数据库中的敏感数据。本文介绍如何使用静态脱敏和动态脱敏。脱敏方式 静态脱敏:通过新增脱敏任务,使用脱敏算法对敏感数据进行遮盖、加密或替换,并将脱敏...

概述

随着业务的快速发展,企业数据呈几何倍增长,数据量庞大、复杂、各类数据间标准不一致,往往会出现数据难以管理的现象。DataWorks智能数据建模服务,将无序、杂乱、繁琐、庞大且难以管理的数据,进行结构化有序的管理。使企业中的数据产生...

数据导入方式介绍

为满足多样化的数据导入需求,云原生数据仓库AnalyticDB MySQL版 提供了多种数据导入方式,包括:通过外表导入数据、使用DataWorks导入数据和利用JDBC通过程序导入数据等。本文介绍各导入方式的特性及适用场景,帮助您选择正确的数据导入...

数据质量教程概述

数据质量是数据分析结论有效性和准确性的基础。本文为您介绍数据质量保障教程的业务场景以及如何衡量数据质量的高低。前提条件 在开始本教程前,请您首先完成 搭建互联网在线运行分析平台 教程,详情请参见 业务场景与开发流程。业务场景 ...

数据质量教程概述

数据质量是数据分析结论有效性和准确性的基础。本文为您介绍数据质量保障教程的业务场景以及如何衡量数据质量的高低。前提条件 在开始本教程前,请您首先完成 搭建互联网在线运行分析平台 教程,详情请参见 业务场景与开发流程。业务场景 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据传输服务 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用