互联网、电商行业离线大数据分析

概述 电商网站的销售数据通过大数据进行分析后,可以在屏幕展示销售指标、客户指标、销售排名和订单地区分布等业务指标数据。DataV大屏支持可视化动态展示销售数据,触控大屏支持您自助查询数据,极地提高数据的可读性。应用场景 电商...

客户案例

客户简介 快狗打车则一直坚持通过“连接网络化”、“运力共享化”、“过程数据化”、“匹配智能化”等数字信息化解决方案,将闲散运力统一整合到平台上,通过大数据将运力精准匹配市场需求,实现运力的节能减排,降低空驶率,有效提升行业...

文档修订记录

附录:DataWorks访问其他引擎产品的服务关联角色 2023.5.11 新增功能 数据开发 您可通过关联远程仓库云效的方式,将Function Studio上的代码迁移至一站式BizDevOps平台云效统一管理。为您介绍如何将Function Studio中的代码迁移至云效服务...

应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

常见问题

MaxCompute支持通过什么方式运行SQL语句?数据导入方式有哪些?误删除表数据如何恢复?不同项目的表是否可以相互引用?新创建的MaxCompute项目为什么不支持数据类型自动隐式转换呢?当MaxCompute项目打开2.0新数据类型开关(odps.sql.type....

数据引入概述

Dataphin支持通过数据集成和数据同步的方式,将业务数据源的数据引入Dataphin平台。背景信息 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单...

数据引入概述

Dataphin支持通过数据集成和数据同步的方式,将业务数据源的数据引入Dataphin平台。背景信息 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单...

产品简介

适用场景 如果您在大数据业务场景中遇到如下问题,可以通过阿里云大数据专家获取专属服务:受限于传统数据工作开展方式及组织管理模式,数字化转型中遇难到大数据各方面瓶颈;根据业务发展,难以从全局构建稳定的、变化的、集成的大数据...

访问数据可视化功能

方式一:通过顶部菜单栏进入数据可视化 登录 数据管理DMS 5.0。进入数据可视化功能。旧版数据可视化功能:在顶部菜单栏中,选择 集成与开发(DTS)>数据应用>数据可视化(老)。新版数据可视化功能:在顶部菜单栏中,选择 集成与开发(DTS...

数据同步概述

Dataphin支持通过数据同步的方式,将业务数据源的数据引入Dataphin平台。背景说明 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单高效、安全...

数据同步概述

Dataphin支持通过数据同步的方式,将业务数据源的数据引入Dataphin平台。背景说明 如果您是在 2020年4月之后 购买的Dataphin,则数据同步能力通过数据集成功能实现(即系统 不再提供数据同步的功能入口)。数据集成为您提供简单高效、安全...

快速开始

DataV-Card可视分析创作间是一款面向高频数据处理的业务人员、零代码的数据可视分析产品,提供简单、直观、易于使用的数据准备、洞察发现、可视化分析工具,通过具象、生动、有趣的方式快速理解数据,让更多用户能便捷高效地利用数据可视化...

概述

数据湖构建可以帮助用户快速构建云上数据湖,采用统一的管理视角治理数据湖。本产品目前处于公测阶段,您可以随时开通使用,目前数据湖构建所有功能均为...入湖模板 用户创建入湖模板将数据源中的数据通过手动或者定时的方式抽取到数据湖中。

数据集成支持的数据

数据集成支持离线集成、整库迁移集成方式。本文为您介绍离线集成、整库迁移支持的数据源类型。不同集成类型适用场景 集成类型 适用场景 离线集成 适用于数据上云、云上数据迁移到本地业务系统等场景。例如,将本地数据库MySQL的数据迁移至...

观远BI连接MaxCompute

MaxCompute支持您将MaxCompute项目数据接入观远BI,帮助企业的业务人员和数据分析师开展以问题为导向的探索式分析工作以及制作数据卡片和数据看板。本文为您介绍如何通过MaxCompute JDBC驱动,连接观远BI和MaxCompute项目,并进行可视化...

创建Kafka数据

通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。背景信息 Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在...

创建Kafka数据

通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。背景信息 Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在...

产品更新动态

2023年4月 发布时间 2023-04-25 功能名称 功能描述 相关文档 支持数据更新——实现卡片内容的动态数据呈现 通过数据库连接方式数据源,可以设置数据更新频率,手动/周期完成数据内容的更新,目前支持的可更新数据源是:MySQL、ADB MySQL...

数据导入概览

本文介绍两种导入方式数据格式和导入服务)。从阿里云对象存储OSS导入数据至图数据库GDB实例 图数据库GDB服务端集成有数据导入模块,可以获取您提供的.csv格式的OSS数据文件,并将其解析为图中的点数据和边数据,然后将点数据和边数据...

数据集成支持的数据

数据集成支持离线集成、实时集成、整库迁移集成方式。本文为您介绍离线集成、实时集成、整库迁移支持的数据源类型。不同集成类型适用场景 集成类型 适用场景 离线集成 适用于数据上云、云上数据迁移到本地业务系统等场景。例如,将本地数据...

什么是DataWorks

产品架构 DataWorks十多年沉淀数百项核心能力,通过 智能数据建模、全域数据集成、高效数据生产、主动数据治理、全面数据安全、数据分析服务六全链路数据治理的能力,帮助企业治理内部不断上涨的“数据悬河”,释放企业的数据生产力。...

Flink_SQL任务开发方式

Dataphin的Flink_SQL任务支持多种开发方式,包括原生DDL+DML开发、基于Catalog开发、使用Dataphin元表进行开发、使用Dataphin数据源表进行开发、以及使用计算源物理表进行开发,且不同开发方式所创建的表支持任意混用,包括镜像表。...

Flink_SQL任务开发方式

Dataphin的Flink_SQL任务支持多种开发方式,包括原生DDL+DML开发、使用Dataphin元表进行开发、使用Dataphin数据源表进行开发、以及使用计算源物理表进行开发,且不同开发方式所创建的表支持任意混用,包括镜像表。不同开发方式的使用方法、...

数据导入方式介绍

为满足多样化的数据导入需求,云原生数据仓库AnalyticDB MySQL版 提供了多种数据导入方式,包括:通过外表导入数据、使用DataWorks导入数据和利用JDBC通过程序导入数据等。本文介绍各导入方式的特性及适用场景,帮助您选择正确的数据导入...

配置数据质量监控

3、规则关联调度节点 数据质量通过关联调度的方式及时感知源端数据的变更与ETL(Extract Transformation Load)中产生的脏数据,即通过关联调度节点触发数据质量校验规则执行,本案例中,当 dws_user_info_all_di 节点对用户信息及当日网站...

配置数据质量监控

表的行数非0校验(强规则)主键唯一性校验(弱规则)3、规则关联调度节点 数据质量通过关联调度的方式及时感知源端数据的变更与ETL(Extract Transformation Load)中产生的脏数据,即通过关联调度节点触发数据质量校验规则执行。...

支持的数据

当前DBS支持如下三种方式添加数据源:手动添加数据源 批量添加数据源 自动添加数据源 DBS支持的数据源类型请参见下表。数据源类别 数据库类型 阿里云数据库 RDS MySQL RDS SQL Server RDS PostgreSQL RDS MariaDB PolarDB MySQL版 PolarDB ...

数据源概述

数据源特殊认证方式 部分数据源支持通过第三方身份认证机制访问数据源,您可以提前在DataWorks的认证文件管理页面上传认证文件,并在配置数据源时开启第三方认证功能,使得只有可信的应用和服务才能访问数据资源。关于第三方身份认证详情请...

支持的数据

类别 数据源 导入方式 文档链接 消息队列 Kafka 数据同步 通过数据同步功能同步Kafka至湖仓版(推荐)日志类数据 日志服务(SLS)数据同步 通过数据同步功能同步SLS至湖仓版(推荐)大数据 Hive 数据迁移 Hive数据导入 相关文档 AnalyticDB...

数据类型版本说明

MaxCompute目前提供了三种不同类型的数据类型版本,包括1.0数据类型、2.0数据类型以及Hive兼容数据类型,您可以根据业务需求选择合适的数据类型版本。本文为您介绍三种数据类型版本、选择数据类型版本以及查看和修改项目的数据类型版本。...

创建并管理数据

若您想在DataWorks操作您的数据库或数据仓库(例如,MaxCompute项目数据),需先在DataWorks的数据源管理页面,将数据库或数据仓库创建为DataWorks的数据源,并将该数据源绑定至DataWorks相应的功能模块使用。例如,同步MaxCompute数据前,...

产品架构

数据源地址动态适配 对于数据订阅及同步链路,容灾系统还会监测数据源的连接地址切换等变更操作,一旦发现数据源发生连接地址变更,它会动态适配数据源新的连接方式,在数据源变更的情况下,保证链路的稳定性。数据迁移工作原理 数据迁移...

云数据库录入

本文介绍如何通过数据管理DMS录入阿里云数据库。前提条件 支持录入的云数据库类型,请参见 支持的云数据库。系统角色为DBA或管理员。查看系统角色的操作,请参见 查看我的系统角色。已在云数据库的白名单中添加DMS的服务器访问地址。详细...

Oracle逻辑备份

数据库所在位置 需要备份的数据库所在位置,支持的选项:有公网IP:Port的自建数据库 ECS上的自建数据通过专线/VPN网关/智能网关接入的自建数据库 POLARDB实例 说明 如果选择POLARDB实例,具体操作步骤请参见 PolarDB O引擎逻辑备份。...

Oracle同步至Tablestore

本实践以Oracle作为来源数据源,以Tablestore作为去向数据源,因此您需要在DataWorks的工作空间的 数据源管理 页面新增Oracle数据源和Tablestore数据源,两个数据源支持的数据同步能力请参见 Oracle数据源、Tablestore数据源。已购买独享...

数据库库表重命名

适用场景 默认情况下,被迁移或同步的对象(例如数据库、表等)在源端和目标端的名称相同,您可以通过数据传输提供的对象名称重命名功能,设置被迁移或同步的对象在目标端的名称,实现源端和目标端之间数据库的库名、表名的映射。...

创建Redis数据

通过创建Redis数据源能够实现Dataphin向Redis写入业务数据。本文为您介绍如何创建Redis数据源。背景信息 Redis一个高性能的key-value数据库,多用于缓存,事件发布或订阅,高速队列等场景。更多学信息,请参见 Redis官网。权限说明 ...

创建OpenGauss数据

通过创建OpenGauss数据源能够实现Dataphin读取OpenGauss的业务数据或向OpenGauss写入数据。本文为您介绍如何创建OpenGauss数据源。使用限制 Dataphin仅支持超级管理员、数据源管理员、板块架构师、项目管理员角色创建数据源。操作步骤 在...

配置同步任务

数据库类型 数据源 关系型数据库 MySQL、Oracle、Microsoft SQL Server、PostgreSQL、AnalyticDB for PostgreSQL 开源大数据数仓存储 Hive、TDH Inceptor 说明 HBase作为数据源或者目标数据源,支持的版本为HBase V1.1.x、HBase V0.94.x。...

创建Lindorm数据

通过创建Lindorm数据源能够实现Dataphin读取Lindorm的业务数据或向Lindorm写入数据。本文为您介绍如何创建Lindorm数据源。背景信息 Lindorm是阿里云推出的自研数据库,提供宽表、时序、文件、搜索等多种数据模型,支持毫秒级在线数据处理、...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 数据传输服务 数据库备份 DBS 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用