创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

读写RDS MySQL数据

更多的场景是在DLA中对存储在OSS、Tablestore中的大数据进行分析,分析完成之后把结果数据回写到RDS中,供前台业务使用。DLA如何读取OSS中的数据,请参见 操作步骤。以 person 表为例,通过以下SQL语句把 oss_db 中customer的十条记录进行...

数据分析概述

功能概述 SQL查询 SQL查询是使用标准的SQL语句,来查询和分析存储在MaxCompute中的大数据,详情请参见 SQL查询。您可以通过编写SQL语句,对有查询权限的数据源进行快速的数据查询与分析操作,详情请参见 功能概览。DataWorks SQL查询提供了...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

区域热力层

无值:系统在获取区域热力边界数据时,如果缺少了某个区域的数据(当区域热力图数据中没有对应的地理边界数据中的adcode值时),这个区域的颜色就会展示为无值的颜色。面透明度:区域面的透明度。边线颜色:区域边界线的颜色,请参见 颜色...

区域热力层

数据源 单击 配置数据源,可在 设置数据源 面板修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

创建HBase数据

通过创建HBase数据源能够实现Dataphin读取HBase的业务数据或向HBase写入数据。本文为您介绍如何创建HBase数据源。背景信息 HBase是用于处理存储在Hadoop集群大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您...

配置数据网络

本文主要介绍Serverless Spark如何配置数据网络来访问用户VPC网络中的数据。这些数据包括RDS系列、ADB系列、PolarDB系列、MongoDB、Elasticsearch、HBase、E-MapReduce、Kafka以及用户在ECS上自建的各种数据服务等。背景信息 Serverless ...

大数据安全治理的难点

通常,大数据系统中的工作流涉及多部门、多责任人且跨系统的数据,如何才能协调好这些业务系统准时、保质保量地产出数据,避免出现因业务系统宕机/脏数据导致数据延时产出、产出脏数据,关乎到企业数据业务的连续性问题甚至高层的信任问题...

功能特性

索引加速 文件分析 云数据库 SelectDB 版支持表函数功能(Table-Value-Function或TVF),可以将S3、HDFS等常见远端存储中的文件数据,映射成云数据库 SelectDB 版中的表,从而对这些文件数据进行分析 文件分析 数据湖分析 Hive数据源 通过...

基本概念

数据资产:数据资源平台存在大量的数据表、标签、API等各类数据资产,数据管理者通过数据汇聚、数据治理、数据分析后,需要对整个平台数据进行统一管控,了解平台的核心数据资产,提供对应的数据资产管理规范。统一服务 应用:是调用API...

数据质量保障原则

一致性 一致性通常体现在跨度很大的数据仓库。例如,某公司有很多业务数仓分支,对于同一份数据,在不同的数仓分支必须保证一致性。例如,从在线业务库加工到数据仓库,再到各个数据应用节点,用户ID必须保持同一种类型,且长度也要...

区域热力层

无值 系统在获取区域热力边界数据时,如果缺少了某个区域的数据(当区域热力图数据中没有对应的地理边界数据中的adcode值时),这个区域的颜色就会显示为 无值 的颜色。边线配置 参数 说明 颜色 区域边界线的颜色。宽度 区域边界线的宽度。...

EMR Hive数据整库离线同步至MaxCompute

背景信息 Hive是基于Hadoop的一个数据仓库工具,用来进行数据的提取、转化、加载,可以存储、查询和分析存储在Hadoop中的大规模数据。Hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成...

EMR Hive数据整库离线同步至MaxCompute

背景信息 Hive是基于Hadoop的一个数据仓库工具,用来进行数据的提取、转化、加载,可以存储、查询和分析存储在Hadoop中的大规模数据。Hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成...

南京银行

在踏入“万亿俱乐部”之后,南京银行主动拥抱互联网金融大数据,将金融科技作为转型发展的突破口。转型过程遇到如下挑战:新业务的指数级发展,导致高并发的需求和大数据量的管理对系统提出了越来越高的要求,需要在最短的时间内提高...

技术架构选型

数据模型设计之前,您需要首先完成技术架构的选型。本教程中使用阿里云大数据产品MaxCompute配合...MaxCompute作为整个大数据开发过程中的离线计算引擎。DataWorks则包括数据开发、数据质量、数据安全、数据管理等在内的一系列功能。

技术架构选型

数据模型设计之前,您需要首先完成技术...MaxCompute作为整个大数据开发过程中的离线计算引擎。DataWorks则包括数据开发、数据质量、数据安全、数据管理等在内的一系列功能。icmsDocProps={'productMethod':'created','language':'zh-CN',};

互联网金融

架构优势:便捷的架构部署 云产品弹性升级扩容 完善的同城高可用设计 强大抗DDoS攻击能力 互联网金融安全方案 搭建成熟稳定的安全体系适用于发展中的互联网金融公司,可保障网络安全、主机安全、移动安全,并结合安全大数据分析技术对未知...

轮播页面

数据源 单击 配置数据源,可在 设置数据源 面板修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

OSS数据安全防护最佳实践

DSC 在您完成数据源识别授权后,从您存储在OSS的海量数据中快速发现和定位敏感数据,对敏感数据分类分级并统一展示,同时追踪敏感数据的使用情况,并根据预先定义的安全策略,对数据进行保护和审计,以便您随时了解OSS数据资产的安全状态。...

路网轨迹层

最大宽度:路网轨迹层线的最大宽度,通过数据中的value字段来控制轨迹线的粗细。轨迹长度:运动轨迹线的长度。速度:轨迹线的运动速度。最大值颜色:数据中value值最大的线的颜色,请参见 颜色选择器说明 进行修改。最小值颜色:数据中...

热力线层

无需修改数据中的字段,就可以实现数据的实时匹配。也可以单击 图标对字段分别样式配置。过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应...

路网轨迹层

数据源 单击 配置数据源,可在 设置数据源 面板修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

热力线层

数据源 单击 配置数据源,可在 设置数据源 面板修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

DataWorks数据服务对接DataV最佳实践

注意事项 DataWorks数据服务与DataV进行无缝对接后,无需使用DataV中的API数据源去填写一个URL调用API,直接新建一个DataWorks数据服务作为数据源,便可直接选用数据服务中的API。无需每个API都设置AppKey和AppSecret认证信息,且支持通过...

功能特性

配置管理 数据保护 敏感数据管理 DMS的敏感数据保护能力能根据所选的敏感数据扫描模板、敏感数据识别模型以及脱敏算法对数据进行脱敏处理,以避免敏感数据滥用,有效保护企业的敏感数据资产,防止数据泄露造成企业经营资金损失或罚款。...

表设计规范

单个分区中数据量较大的情况下,MaxCompute执行任务时会进行分片处理而不影响分区裁剪的优势。单个分区中文件数较多时,会影响MaxCompute Instance数量,造成资源浪费和SQL性能的下降。采用多级分区时,建议先按日期分区,然后按交易类型...

构建数据仓库

DataWorks具有通过可视化方式实现数据开发、治理全流程相关的核心能力,本文将为您介绍DataWorks在构建云上大数据仓库和构建智能实时数据仓库两个典型应用场景下的应用示例。构建云上大数据仓库 本场景推荐的架构如下。适用行业:全行业...

基于MaxCompute进行大数据BI分析

本实践以电商行业为例,通过MaxCompute、DataWorks对业务数据和日志数据进行ETL处理,并同步至分析型数据库MySQL(AnalyticDB MySQL)进行实时分析,再通过Quick BI进行可视化展示。背景信息 MaxCompute:用于进行规模数据计算,详情请...

功能特性

Datahub数据总线 功能集 功能 功能描述 参考文档 数据接入 API接入 使用REST API方式,将数据写入Datahub API参考 SDK接入 使用SDK将数据传入Datahub Java SDK C++ SDK Go SDK Python SDK 插件接入 使用插件将数据传入Datahub LogStash插件...

主备方案介绍

A:存储的是数据D1和数据D2时间戳更大的数据数据在LTS同步过程不会改变数据原有的时间戳,一般情况下存储的是数据D2,但是由于主备实例不同可能存在时间戳毫秒级的时间差异造成数据D2的时间戳比数据D1的时间戳小,在这种情况下存储的...

概述

数据湖构建可以帮助用户快速构建云上数据湖,采用统一的管理视角治理数据湖。本产品目前处于公测阶段,您可以随时开通使用,目前数据湖构建所有功能均为免费使用阶段。用户使用流程 数据湖构建将帮助您快速简洁抽取源数据到统一数据湖的...

数据仓库研发规范概述

大数据时代,规范地进行数据资产管理已成为推动互联网大数据、人工智能和实体经济深度融合的必要条件。贴近业务属性、兼顾研发各阶段要点的研发规范,可以切实提高研发效率,保障数据研发工作有条不紊地运作。而不完善的研发流程,会...

查看同步任务

DataHub DataConnector是把DataHub服务中的流式数据同步到其他云产品中的功能,目前支持将Topic中的数据实时/准实时同步到MaxCompute(ODPS)、OSS、ElasticSearch、RDS Mysql、ADS、TableStore中。用户只需要向DataHub中写入一次数据,并在...

数据迁移与同步FAQ

数据迁移:将Redis数据中的数据(即键值对)迁移至另一个Redis数据库中。通常迁移完成后即可停止该任务,属于一次性任务。数据同步:将Redis数据中的数据(即键值对)实时同步至另一个Redis数据库中。通常会持续运行该任务,用于保持源...

Github实时数据同步与分析

教程简介 本教程基于GitHub Archive公开数据集,通过DataWorks将GitHub中的项目、行为等20多种事件类型数据实时采集至Hologres进行分析,同时使用DataV内置模板,快速搭建实时可视化数据大屏,从开发者、项目、编程语言等多个维度了解...

散点层

数据分级:根据数据中的value字段值大小划分(自然分割)成2~7个数据大小级别,解决value值相差太导致的渲染问题。散点贴图:散点层贴图样式,可黏贴贴图URL链接获取。散点大小(从小到):单击右侧的 或 图标,添加或删除一个散点大小...

步骤二:规划数仓

数据源:业务数据中读取原始数据和写入数据仓库过程中的数据。步骤一:创建数据板块 在Dataphin首页,单击顶部菜单栏的 规划。按照下图操作指引,进入 新建数据板块 对话框。在 生产开发类型 步骤中选择 Basic模式 并单击 下一步。在 板块...

步骤二:规划数仓

数据源:业务数据中读取原始数据和写入数据仓库过程中的数据。步骤一:创建数据板块 在Dataphin首页,单击顶部菜单栏的 规划。按照下图操作指引,进入 新建数据板块 对话框。在 生产开发类型 步骤中选择 Basic模式 并单击 下一步。在 板块...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 MongoDB 版 云数据库 Redis 版 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用