数据元数据管理

Databricks 数据洞察DBR 7.3,Spark 3.0.1,Scala 2.12及之后版本,在创建集群选择元数据类型时支持数据湖元数据作为Hive数据数据元数据是服务化高可用并且可扩展的元数据库,您无需额外购买独立的元数据库,就可以实现多个引擎计算,...

元数据仓库共享模型概述

仓共享模型是基于Dataphin内部的系统元数据表,通过任务加工生成的可以被稳定、标准化访问的开放元数据表,可降低对系统元数据表的依赖,提升系统稳定性。基于开放的元数据信息,您可以结合业务场景进行二次开发,以更好地满足对下游业务...

Hive统一元数据

EMR-2.4.0之前版本,所有集群采用的是集群本地的MySQL数据库作为Hive元数据库;EMR-2.4.0及后续版本,E-MapReduce(简称EMR)支持统一的高可靠的Hive元数据库。背景信息 因为元数据库需要使用公网IP来连接,所以集群必须要有公网IP,同时请...

EMR+DLF数据湖解决方案

操作流程 具体操作 步骤一:创建采用DLF为元数据服务的EMR DataLake集群 步骤二:在DLF中创建元数据库元数据步骤三:通过DLF入湖功能创建RDS到数据湖的入湖流程 步骤四:通过EMR的Spark、Presto引擎查询DLF表 步骤一:创建DLF统一...

数据存储冷热分层

云原生数据仓库AnalyticDB PostgreSQL版 支持冷热分层存储,可以将访问频次低的热表转换为冷表存储到OSS中,以降低存储成本。本文介绍数据存储冷热分层的使用限制和使用方法。说明 本文中将存储在本地磁盘的数据表称为热表,将存储在远端...

配置自建RDS

数据库名称>:步骤一:元数据库准备 中设置的数据库名称。javax.jdo.option.ConnectionUserName RDS用户名 填写 步骤一:元数据库准备 中账号的用户名。javax.jdo.option.ConnectionPassword RDS密码 填写 步骤一:元数据库准备 中账号的...

Napatech案例

云原生多模数据库 Lindorm 助力Napatech大幅提升存储、索引性能。生态合作伙伴介绍 Napatech公司(OSE:NAPA.OL)是一家提供FPGA解决方案的丹麦公司,成立于2003年。公司总部位于丹麦,销售和支持的区域包括美国,亚太地区,欧洲,中东和...

使用星环TDH作为仓计算引擎进行仓初始化

Dataphin元数据仓库(简称:仓),是统一管理Dataphin内部业务元数据和相应计算引擎元数据数据仓库,存在于Dataphin仓租户中(OPS租户)的一个Dataphin项目空间中,由一系列的周期性数据集成节点、SQL脚本节点、Shell节点组成。仓...

典型场景

基于湖构建数据平台,支持BI、挖掘业务 对象存储OSS可以作为湖存储,DLA基于OSS构建一站式的大数据平台。具体包括构建数据湖、数据ETL、交互式查询、机器学习等功能。构建数据湖 实时数据湖:支持DB的CDC与消息数据(如Kafka)入湖,构建...

产品简介

阿里云数据湖构建(Data Lake Formation,简称 DLF)是一款全托管的快速帮助用户构建云上数据湖及Lakehouse的服务,为客户提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力。DLF可以帮助用户快速...

元数据抽取

业务运行中,经常会沉淀到大量数据数据湖中这部分数据可能是没有像数据仓库一样经过严格的数据管理流程或沉淀规范明确的元数据信息。元数据抽取可以分析数据湖中特定格式的数据,并自动生成元数据信息,通过周期性或手动执行,实现数据...

元数据采集

DataWorks数据地图为您提供 元数据采集 功能,方便您将不同系统中的元数据进行统一汇总管理,您可以在数据地图查看从各数据源汇集而来的元数据信息。本文为您介绍如何创建采集器,将各数据源的元数据信息汇集至DataWorks。前提条件 您需要...

业务切换流程

后续步骤 业务切换至目标数据库并稳定运行一段时间,测试所有业务涉及的功能并确认无问题,可结束反向数据迁移的任务,详情请参见 结束数据迁移任务。警告 用于数据迁移的数据库账号拥有读写权限,为保障数据库安全性,请在数据迁移完成后...

业务切换流程

后续步骤 业务切换至目标数据库并稳定运行一段时间,测试所有业务涉及的功能并确认无问题,可结束反向数据迁移的任务,详情请参见 结束数据迁移任务。警告 用于数据迁移的数据库账号拥有读写权限,为保障数据库安全性,请在数据迁移完成后...

功能特性

通过DLA控制台配置数据源(RDS数据源、ECS自建数据库数据)和目标OSS数据仓库,系统按照您设定的数据同步时间自动、无缝的帮您把数据源中的数据同步到目标数据仓库OSS中,同时在数据仓库和DLA中创建与数据源表相同的表结构,基于目标数据...

快速使用TPC-DS测试数据

TPC-DS是一套决策支持系统测试基准,提供99个SQL查询(SQL99或2003),分析数据量大,测试数据与实际商业数据高度相似,同时具有各种业务模型(分析报告型,数据挖掘型等等)。使用DLF数据探索,可以便捷地快速创建TPC-DS数据集,便于用户...

通过DTS实现数据库的垂直拆分

保持源实例数据库B与应用程序的断开状态,验证源和目标实例的数据库B数据一致后,将应用程序的相关数据库服务切换至目标实例的数据库B并恢复业务。登录目标实例数据库B,根据数据库类型选择下述命令查看会话信息,确保有新的会话执行写入...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

使用Hadoop作为仓计算引擎进行仓初始化

Dataphin元数据仓库(简称:仓),是统一管理Dataphin内部业务元数据和相应计算引擎元数据数据仓库,存在于Dataphin仓租户中(OPS租户)的一个Dataphin项目空间中,由一系列的周期性数据集成节点、SQL脚本节点、Shell节点组成。仓...

API概览

本产品(数据湖构建/2020-07-10)的...GetDatabaseProfile 获取库数据概况 获取库数据概况的详细信息。GetLifecycleRule 获取库表生命周期规则 获取库表生命周期规则。ListPartitionsProfile 获取分区数据概况 获取分区数据概况的详细信息。

EMR元数据迁移DLF最佳实践

通过EMR+DLF数据湖方案,可以为企业提供数据湖内的统一的元数据管理,统一的权限管理,支持多源数据入湖以及一站式数据探索的能力。本方案支持已有EMR集群元数据库使用RDS或内置MySQL数据库迁移DLF,通过统一的元数据管理,多种数据源入湖...

创建Impala数据

通过创建Impala数据源能够实现Dataphin读取Impala的业务数据或向Impala写入数据。本文为您介绍如何创建Impala数据源。背景信息 Impala是用于处理存储在Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。权限说明 仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据...

创建TDH Inceptor数据

通过创建TDH Inceptor数据源能够实现Dataphin读取TDH Inceptor的业务数据或向TDH Inceptor写入数据。本文为您介绍如何创建TDH Inceptor数据源。使用限制 Dataphin仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据源...

创建Hudi数据

背景信息 Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多信息,请参见 Apache Hudi官网。权限说明 仅支持 超级管理员、数据源管理员、...

基于DLF、RDS或Flink、OSS支持Delta Lake或Hudi存储...

元数据库名称前缀:元数据库是根据来源库名自动建立,但是可以手工指定元数据库的名称前缀。指定的前缀,将会应用到所有库中。数据湖格式:选择 Hudi。分区信息 设置数据入湖存储时的分区,后续入湖同步写入数据时,根据来源端数据的写入...

Hive概述

Hive是一个基于Hadoop的数据仓库框架,在大数据业务场景中,主要用来进行数据提取、转化和加载(ETL)以及元数据管理。背景信息 E-MapReduce(简称EMR)版本中,Hadoop、Hive版本和EMR集群的配套情况,请参见 版本概述。Hive结构 名称 说明...

新建ArgoDB数据

通过创新建ArgoDB数据源能够实现Dataphin读取ArgoDB的业务数据或向ArgoDB写入数据。本文为您介绍如何新建ArgoDB数据源。权限说明 Dataphin仅支持 超级管理员、数据源管理员、板块架构师、项目管理员 角色创建数据源。操作步骤 在Dataphin...

EMR元数据迁移公告

本文为您介绍迁移E-MapReduce(简称EMR)元数据数据元数据DLF(Data Lake Formation)中的原因及迁移流程。迁移原因 2020年阿里云EMR推出全新的数据湖构建和统一元数据服务,为EMR用户提供了更好的统一元数据服务方案。阿里云EMR团队...

MySQL整实时同步至OSS数据

元数据库名称前缀:元数据库是根据来源库名自动建立,但是可以手工指定元数据库的名称前缀。指定的前缀,将会应用到所有库中。比如,定义的前缀为“abc_”,那么来源库名在数据湖中的元数据库就会自动加上此前缀,如"abc_my_db",“abc_test...

基于Delta lake的一站式数据湖构建与分析实战

数据湖作为一个集中化的数据存储仓库,支持的数据类型具有多样性,包括结构化、半结构化以及非结构化的数据,数据来源上包含数据库数据、binglog 增量数据、日志数据以及已有数仓上的存量数据等。数据湖能够将这些不同来源、不同格式的数据...

E-MapReduce数据迁移方案

Hive元数据同步 概述 Hive元数据,一般存在MySQL里,与一般MySQL同步数据相比,要注意两点:Location变化 Hive版本对齐 E-MapReduce支持Hive Meta DB:统一元数据库,E-MapReduce管控RDS,每个用户一个Schema 用户自建RDS 用户ECS自建MySQL...

产品和业务限制

限制项 描述 例外申请方式 购买分析数据库MySQL版的限制 账户余额大于等于500现金 请联系技术支持 开通分析数据库MySQL版的用户限制 用户需实名认证 无 可创建的最大分析数据库MySQL版数 3个 联系技术支持申请更多 单个分析数据...

使用独立的Trino集群

创建完独立的Trino集群后,您需要进行以下配置:配置连接器 可选:配置数据元数据 如果数据集群的元数据选择的不是 数据元数据,则可以忽略此配置。配置连接器 在待使用的连接器中配置查询对象。本文以Hive连接器为例介绍。进入集群...

新建ArgoDB计算源

能够使用标准的SQL语法进行业务的建设,并且能够给用户提供多模型数据分析、实时数据处理、存储与计算模块解耦、异构服务器混合部署等先进技术能力。更多详情,请参见 ArgoDB官网。操作步骤 请参见 数仓规划入口,进入数仓 规划 页面。在数...

什么是ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...

流式ETL

数据传输服务DTS提供的流式数据ETL(Extract Transform Load)功能是一种高效的实时数据加工工具。ETL支持通过可视化拖拉拽操作、Flink SQL语句配置任务,并结合DTS的高效流数据复制能力,可以实现流式数据的抽取、数据转换和加工、数据...

新用户必读

通过元数据发现导入至湖仓版:元数据发现功能可以自动发现与 云原生数据仓库AnalyticDB MySQL版 湖仓版(3.0)集群相同地域下OSS的Bucket和数据文件,并自动创建和更新数据元数据。作业开发:云原生数据仓库AnalyticDB MySQL版 湖仓版(3...

数据分析整体趋势

技术发展趋势 商业数据库起步于二十世纪八十年代,主要代表为Oracle,SQL Server,DB2等结构化数据在线处理的关系型数据库,而以MySQL,PostgreSQL为代表的开源关系型数据库也在二十世纪九十年代得到了发展。近些年来,随着业务数据量的...

概述

背景信息 Flink核心是一个流式的数据流执行引擎,其针对数据流的分布式计算提供了数据分布、数据通信以及容错机制等功能。基于流执行引擎,Flink提供了更高抽象层的API以便您编写分布式任务。Flink(VVR)完全兼容开源Flink,相关内容请...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 MongoDB 版 云数据库 RDS 数据库备份 DBS 云数据库 Redis 版 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用