技术发展趋势

消费者和企业将持续在不同设备和云之间产生、分享和访问数据,增长速度也将超出此前的预期。生产处理实时化 从数据的3V特性(体积,速度和变化)来看,大数据强调数据量,PB级以上,是静态数据;而Fast Data在数据量的基础上,意味着速度和...

DTS订阅通道

单击目标DTS任务在 数据消费 页面获取以下参数:sid:消费组ID(图示中③)。username:消费组的账号(图示中④)。password:消费组账号对应的密码,如果您忘记密码,可以单击 操作 列的 修改密码 重新设置密码。单击 添加。

【通知】2021年12月01日PolarDB-X 1.0数据订阅(旧版...

相关代码参考,请参见 分布式订阅任务对应的数据消费代码。注意 由于切换过程中,涉及部分消费代码的修改,因此为保证业务正常运行,请您尽快切换至 PolarDB-X 1.0 的新版订阅功能。如您需要或已经使用 PolarDB-X 1.0 订阅(新版)任务。...

前言

数据模块为您提供一套数据处理工具,覆盖数据接入到数据消费的全流程,旨在为基于交通云控平台的交通业务应用提供融合的、统一表达的、高质量的交通参数服务。如下图所示,当前版本为您提供“数字化评估”“数据接入任务”“数据服务”...

数据格式描述文件

dataSchema是固定的,不随数据消费方式改变。是 ioConfig JSON对象 待消费数据的来源和消费去向。数据消费方式不同,ioConfig也不相同。是 tuningConfig JSON对象 调节数据消费时的参数。数据消费方式不同,可以调节的参数也不相同。否 ...

产品概述

什么是E-MapReduce 开源大数据开发平台E-MapReduce(简称EMR),是运行在阿里云平台上的一种大数据处理的系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理...

DataWorks on EMR数据安全方案

大数据领域,阿里云为企业用户提供了一整套数据安全方案,包含用户认证、数据权限、大数据作业管理体系等。本文以联合使用DataWorks与EMR为例,为您介绍DataWorks on EMR场景下的数据安全方案。背景信息 DataWorks on EMR目前支持LDAP...

自媒体:易撰

所属行业:自媒体 网站地址:易撰 客户介绍 长沙营智信息技术有限公司是专业的新媒体大数据服务商,其旗下知名品牌易撰,基于新媒体大数据挖掘技术及NLP算法分析,为各内容创客、广告主提供全面、科学、精准的大数据分析服务以及大数据架构...

案例介绍

数据域 维度 消费者消费者、性别、年龄层、职业等 商品域 商品、类目 门店域 门店 供应链域 供应商、仓库、承运商 确定业务过程 通常,业务分析只需要关注业务活动的关键节点,这些关键节点可以设置为业务过程(如果后面业务需要,可以...

产品优势

数据安全中心DSC(Data Security Center)可扫描和识别海量数据,帮您实时获取数据的安全状态。本文介绍 数据安全中心 的产品优势。合规性 使用数据安全中心产品,可以帮助企业满足等保2.0对“云计算环境下安全审计”及“个人信息保护”的...

修改订阅对象

DTS支持在数据消费的过程中动态增加或减少订阅对象,本文将介绍修改订阅对象的操作流程。注意事项 执行了增加订阅对象操作后,订阅通道会从当前时间拉取该对象的增量数据。执行了移除订阅对象操作后,如果数据订阅的客户端还能订阅到该对象...

DMS支持的数据库

关系型数据库 MySQL SQL Server PostgreSQL MariaDB OceanBase MySQL模式 OceanBase Oracle模式 OceanBase ODP Oracle DB2 达梦数据库 OpenGauss 数据仓库 ClickHouse SelectDB NoSQL数据库 Redis MongoDB 大数据 Hive 录入他云/自建数据库...

通用数据开发

通常数据开发的总体流程包括数据产生、数据收集与存储、数据分析与处理、数据提取和数据展现与分享。说明 上图中,虚线框内的开发流程均可基于阿里云大数据平台完成。数据开发的流程如下所示:数据产生:业务系统每天会产生大量结构化的...

相关的云服务

DataWorks作为阿里云一站式大数据开发与治理平台,通常会与计算引擎产品联合使用,此外使用DataWorks进行数据集成时通常联合进行数据传输的数据源产品一起使用。本文为您介绍典型场景下,使用DataWorks时通常会使用到的其他云产品。计算...

用户洞察概述

随着互联网技术的发展,企业通过各种途径积累了消费者资产,Quick Audience用户洞察模块旨在通过丰富的用户洞察模型和便捷的策略配置,帮助企业完成消费者多维洞察分析,为后续的消费者运营和触达奠定人群基础。功能简介 用户洞察模块提供...

通过DataWorks数据集成迁移日志数据至MaxCompute

日志开始时间 数据消费的开始时间位点,为时间范围(左闭右开)的左边界,为 yyyyMMddHHmmss 格式的时间字符串(例如 20180111013000)。该参数可以和DataWorks的调度时间参数配合使用。日志结束时间 数据消费的结束时间位点,为时间范围...

日志服务通过数据集成投递数据

日志结束时间 数据消费的结束时间位点,为时间范围(左闭右开)的右边界,为 yyyyMMddHHmmss 格式的时间字符串(例如 20180111013010)。该参数可以和DataWorks的调度时间参数配合使用。批量条数 一次读取的数据条数,默认为256。说明 您...

数据集成概述

背景信息 面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。...

快速体验

DataWorks为您提供智能建模、数据清洗、周期调度运维、数据治理等一站式大数据开发管理能力,本文以一个零售电商行业的数仓搭建实验为例,为您介绍DataWorks在数仓搭建过程中的技术选型、技术流程以及流程实现,帮助您深入了解阿里云...

概述

解决方案 T+1全量同步一键建仓是指通过DLA控制台配置数据源(RDS、PolarDB for MySQL、MongoDB数据源、ECS自建数据数据)和目标OSS数据仓库,系统按照您设定的数据同步时间自动、无缝的帮您把数据源中的数据同步到目标数据仓库OSS中,...

DataWorks模块使用说明

使用流程概览:参考文档:数据集成概述 数据建模与开发 子模块:数据建模 功能说明:数据建模是全链路数据治理的第一步,沉淀阿里巴巴数据中台建模方法论,从数仓规划、数据标准、维度建模、数据指标四个方面,以业务视角对业务的数据进行...

如何对JSON类型进行高效分析

因此,数据仓库往往需要同时维护ETL作业逻辑和业务表结构,而频繁发布ETL作业常常会影响上游数据消费和下游结果入仓,且在不支持INSTANT DDL时修改表结构代价相对比较高,容易影响正常查询业务。总体来说,传统数仓解决方案虽然能够提供...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 GreenPlum 支持 支持 TDengine 不...

典型场景

基于湖构建数据平台,支持BI、挖掘等业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

通过数据订阅实现缓存更新策略

消费位点必须在订阅实例的数据范围(如图示)之内,并需转化为Unix时间戳。说明 Unix时间戳转换工具可用搜索引擎获取。ConsumerContext.ConsumerSubscribeMode subscribeMode SDK客户端的使用模式,取值为:ConsumerContext....

轮播页面

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

从Kafka同步数据

当您需要将消息队列Kafka的数据实时同步至云数据库ClickHouse中时,本文档为您提供了详细的解决方案,以满足您的数据实时处理需求。说明 云数据库ClickHouse 集群从Kafka进行数据同步目前仅支持云消息队列Kafka和部署在ECS上的自建Kafka。...

使用Kafka客户端消费订阅数据

说明 如果发生故障没有提交成功,重启客户端后会从上一个记录的位点进行数据消费,期间会有部分重复数据,您需要手动过滤。数据以Avro序列化存储,详细格式请参见 Record.avsc 文档。警告 如果您使用的不是本文提供的Kafka客户端,在进行反...

排查订阅任务问题

消费位点必须在订阅实例的数据范围(如图示)之内,并需转化为Unix时间戳。说明 Unix时间戳转换工具可用搜索引擎获取。subscribeMode SDK客户端的使用模式,取值为 ASSIGN:ASSIGN模式,即一个消费组下仅支持一个SDK客户端消费订阅数据。...

核心能力

数据资源平台提供了一站式数据资产定义、生产、管理与服务平台,提供企业级数据资产构建能力和一致性使用体验,助力客户快速构建数据智能平台,实现数据资源统一管理,挖掘潜在规律,优化业务决策,让大数据真正的驱动客户业务。...

EMR+DLF数据湖解决方案

通过EMR+DLF数据湖方案,可以为企业提供数据湖内的统一的元数据管理,统一的权限管理,支持数据湖的多种管理如数据生命周期,湖格式自动优化,存储分析等。同时支持多源数据入湖以及一站式数据探索的能力。本文为您介绍EMR+DLF数据湖方案...

数据可视化展现

本文将以场景示例形式,为您介绍如何用DataWorks完成用户画像数据的可视化展示。前提条件 在开始示例前,请确认您已经完成了 加工数据。即已通过数据开发DataStudio将数据加工为用户画像基本数据。数据分析场景 本案例通过数据分析对用户...

数据导入概览

从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据导入至图数据库GDB实例。步骤 步骤说明 ① 将需要...

数据集成支持的数据

离线集成支持的数据数据源 读取 写入 大数据存储型数据源 MaxCompute 支持 支持 Hive 支持 支持 Hologres 支持 支持 IMPALA 支持 支持 TDH Inceptor 支持 支持 Kudu 支持 支持 StarRocks 支持 支持 Hudi 支持 支持 Doris 支持 支持 ...

使用Kafka客户端消费订阅数据

说明 如果发生故障没有提交成功,重启客户端后会从上一个记录的位点进行数据消费,期间会有部分重复数据,您需要手动过滤。数据以Avro序列化存储,详细格式请参见 Record.avsc 文档。警告 如果您使用的不是本文提供的Kafka客户端,在进行反...

概述

数据内容安全管理 安全中心提供的数据分级分类、敏感数据识别、数据访问审计、数据源可追溯等功能,在处理业务流程的过程中,能够快速及时识别存在安全隐患的数据,保障了数据内容的安全可靠,详情请参见 数据保护伞。安全诊断的最佳实践 ...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

创建GreenPlum数据

通过创建GreenPlum数据源能够实现Dataphin读取GreenPlum的业务数据或向GreenPlum写入数据。本文为您介绍如何创建GreenPlum数据源。背景信息 Greenplum是一款大数据分析引擎,作用于分析、机器学习和AI等领域。其架构主要针对管理规模分析...

MaxFrame概述

您可以用更熟悉、高效、便捷的方式利用MaxCompute的海量计算资源及数据进行规模数据处理、可视化数据探索分析以及科学计算、ML/AI开发等工作。本文为您介绍MaxFrame背景信息、功能介绍及使用场景。版本说明 当前MaxCompute MaxFrame功能...

创建MaxCompute数据

背景信息 MaxCompute即阿里云大数据计算服务,适用于数据分析场景的企业级SaaS(Software as a Service)模式云数据仓库,以Serverless架构提供快速、全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 数据库备份 DBS 数据传输服务 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用