准备工作

本章节主要为您介绍使用表格存储搭建海量智能元数据管理系统前的准备工作。开通表格存储 已开通表格存储服务。具体操作,请参见 开通表格存储服务。创建表格存储实例 实例 是您使用和管理表格存储服务的实体,每个实例相当于一个数据库。...

准备工作

开始使用表格存储搭建亿量级店铺搜索系统前,您需要完成以下准备工作。开通表格存储 已开通表格存储服务。具体操作,请参见 开通表格存储服务。创建表格存储实例 实例 是您使用和管理表格存储服务的实体,每个实例相当于一个数据库。表格...

准备工作

开始使用表格存储搭建订单系统前,您需要完成以下准备工作。开通表格存储 已开通表格存储服务。具体操作,请参见 开通表格存储服务。创建表格存储实例 实例 是您使用和管理表格存储服务的实体,每个实例相当于一个数据库。表格存储对应用...

基于Hadoop集群支持Delta Lake或Hudi存储机制

涉及模块 对应阿里云产品 说明 开源Hadoop 本地机房搭建Hadoop集群 云上虚拟机搭建Hadoop集群 阿里云E-MapReduce 原始数据存储在Hadoop集群中。基于Hadoop集群支持Delta Lake或Hudi湖仓一体架构 前提条件 已创建MaxCompute项目(非External...

方案背景

本文主要为您介绍搭建海量智能元数据管理系统的技术点以及使用表格存储搭建智能元数据管理系统的方案。用户存储海量的文档、媒体文件等数据的同时,对文件元数据(Meta)的管理不可或缺。元数据拥有多维度的字段信息,基本信息包含文件大小...

方案背景

基于表格存储搭建的店铺搜索系统页面一览,样例内嵌在表格存储控制台中,用户可登录控制台体验系统(若为表格存储的新用户,需要单击开通服务后体验,开通免费,订单数据存储在公共实例中,体验不消耗用户存储、流量、CU)。表格存储方案 ...

搭建订单系统

本章节主要为您介绍如何使用表格存储搭建亿量级订单管理系统。前提条件 您已经完成了 准备工作。步骤一:创建数据表 创建四张表:订单表、消费者表、售货员表、产品表。您仅需将四张表创建在同一个实例,您可以通过控制台、命令行工具或SDK...

搭建Hadoop环境

本文介绍如何在Linux操作系统的ECS实例上快速搭建Hadoop分布式环境。前提条件 搭建Hadoop环境时,已有的ECS实例必须满足以下条件:公网IP:实例已分配公网IP地址或绑定弹性公网IP(EIP)。操作系统:Linux操作系统。实例安全组的入方向规则...

在文件存储 HDFS 版上使用Presto

搭建Hadoop集群并且所有集群节点已安装JDK,JDK版本不低于1.8。建议您使用的Hadoop版本不低于2.7.2,本文档中使用的Hadoop版本为Apache Hadoop 2.8.5。已在集群中安装Hive。本文使用的Hive版本为2.3.7。已 下载Presto安装包 和presto-cli...

文件存储 HDFS 版和对象存储OSS双向数据迁移

搭建Hadoop集群并且所有集群节点已安装JDK,JDK版本不低于1.8。建议您使用的Hadoop版本不低于2.7.2,本文档中使用的Hadoop版本为Apache Hadoop 2.8.5。已开通对象存储OSS服务并创建存储空间(Bucket)。具体操作,请参见 对象存储OSS快速...

方案实现

本文主要为您介绍如何使用表格存储搭建亿量级店铺搜索系统。前提条件 已完成 准备工作。步骤一:创建数据表 通过控制台、命令行工具或者SDK方式创建一张店铺信息表。具体操作,请参见 数据表操作。步骤二:创建数据表索引 表格存储自动进行...

方案实现

本文主要介绍如何使用表格存储搭建海量智能元数据管理系统。前提条件 已完成 准备工作。步骤一:创建数据表 通过以下两种方式创建一张店铺信息表:通过控制台创建和管理数据表。具体操作,请参见 创建数据表。通过SDK直接创建和管理数据表...

迁移开源HDFS的数据到文件存储 HDFS 版

基于阿里云ECS搭建Hadoop集群(下称"迁移集群"),用于访问 文件存储 HDFS 版 实例和迁移数据,并满足以下条件:迁移集群与 文件存储 HDFS 版 实例在相同区域、相同可用区。迁移集群与 文件存储 HDFS 版 实例的挂载点使用相同阿里云VPC网络...

方案选择

方案样例 基于表格存储搭建的订单系统样例内嵌在表格存储控制台中,您可登录控制台体验系统。该样例提供了亿量级订单数据,详细信息请参见 项目样例。说明 若为表格存储的新用户,需要单击开通服务后体验,开通免费,订单数据存储在公共...

从OSS迁移数据

搭建Hadoop集群。建议您使用的Hadoop版本不低于2.7.3,本文档中使用的Hadoop版本为Apache Hadoop 2.7.3,修改Hadoop 配置信息,详情参见 使用开源HDFS客户端访问。在Hadoop集群所有节点上安装JDK,本操作要求JDK版本不低于1.8。在Hadoop...

文件存储 HDFS 版和数据库MySQL双向数据迁移

搭建Hadoop集群。建议您使用的Hadoop版本不低于2.7.2,本文使用的Hadoop版本为Apache Hadoop 2.8.5。已为Hadoop集群所有节点安装JDK,且JDK版本不低于1.8。更多信息,下载JDK。背景信息 Sqoop 是一款开源的工具,主要用于在Hadoop和结构...

自助建站方式汇总

搭建Hadoop环境 Hadoop是一款由Apache基金会用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力进行高速运算和存储。环境类型 部署方式 说明 搭建Hadoop环境 手动搭建...

2023年

迁移服务(MMA)2023-11-10 新增分层存储 新说明 MaxCompute分层存储支持标准存储、低频存储和长期存储,默认情况下为标准存储。您可以根据数据的访问频率,将某些表或分区的存储类型设置为低频存储或长期存储,以降低数据存储费用。分层...

最佳实践

容器与云原生 如何利用云存储网关作为Windows Docker存储访问OSS 在Linux Docker容器中挂载使用云存储网关 Windows应用 利用云存储网关搭建Windows文件共享服务器 利用云存储网关的SMB共享搭建windows FTP服务器访问对象存储OSS 如何基于云...

搭建与管理(基于Hadoop

通过MaxCompute与Hadoop构建湖仓一体方案旨在实现对海量数据的统一管理、存储和分析,提供了一个既能处理结构化、半结构化数据,又能满足高并发分析需求的一体化数据平台。本文为您介绍如何通过MaxCompute与Hadoop构建湖仓一体,以及管理湖...

从自建HDFS迁移数据

背景介绍 在某些场景下面,我们需要从自建的Hadoop存储的数据迁移到Lindorm的文件引擎当中。适用范围 阿里云ECS自建Hadoop集群中的数据迁移到文件引擎。准备工作 开通文件引擎,详情请参见 开通指南。修改Hadoop 配置信息,详情请参见 ...

Credential Provider使用说明

使用Hadoop Credential Providers存储AccessKey信息 说明 Hadoop Credential Provider详情的使用方法,请参见 CredentialProvider API Guide。fs.jfs.cache.oss.accessKeyId、fs.jfs.cache.oss.accessKeySecret 和 fs.jfs.cache.oss....

成本

AnalyticDB PostgreSQL版 采用计算节点本地存储的模式,支持行式存储和列式存储,支持非易失存储、固态硬盘、机械硬盘等多种存储介质,支持单节点最大10TB存储空间。在此基础之上,AnalyticDB PostgreSQL版 进一步提供了存储压缩能力、OSS...

方案背景

本文以车联网场景中车辆轨迹数据为例介绍基于设备接入平台与表格存储Tablestore搭建车辆轨迹数据平台的场景需求以及方案架构。场景需求 在车联网场景中,车辆通过传感器上报时序数据到云端。通过存储、查询和分析这些时序数据,用户可以...

方案背景

本文以车联网场景中车辆元数据为例介绍基于设备接入平台与表格存储Tablestore搭建车辆元数据管理平台的场景需求以及方案架构。场景需求 车辆在行驶的过程中会定时上报大量的状态数据,例如车辆识别代码、行驶速度、发动机转速、车内温度等...

配置OSS/OSS-HDFS Credential Provider

使用Hadoop Credential Providers存储AccessKey信息 上面基本配置方式中的 fs.oss.accessKeyId 和 fs.oss.accessKeySecret 将会明文配置在 core-site.xml 中,您可以将其以加密对方式存储Hadoop Credential Providers文件中。使用Hadoop...

配置OSS/OSS-HDFS Credential Provider

使用Hadoop Credential Providers存储AccessKey信息 上面基本配置方式中的 fs.oss.accessKeyId 和 fs.oss.accessKeySecret 将会明文配置在 core-site.xml 中,您可以将其以加密对方式存储Hadoop Credential Providers文件中。使用Hadoop...

Node Labels特性使用

主备切换后,新的Active节点无法读到本地存储的Node Labels信息,所以必须将 yarn.node-labels.fs-store.root-dir 配置为分布式存储路径,例如/tmp/node-labels 或者${fs.defaultFS}/tmp/node-labels(EMR Hadoop默认文件系统为分布式HDFS...

JindoFS实战演示

OSS访问加速 文档链接 视频链接 视频发布时间 描述 访问OSS这类对象存储最快的方式 访问OSS这类对象存储最快的方式 2021-05-25 JindoFS SDK是一个简单易用,面向Hadoop或Spark生态的OSS客户端,为阿里云OSS提供高度优化的HadoopFileSystem...

存储说明

存储价格估算如下:本地盘实例存储为0.04 元/GB/月 OSS标准型存储为0.12 元/GB/月 OSS归档型存储为0.033 元/GB/月 OSS深度归档型存储为0.015 元/GB/月 高效云盘存储为0.35 元/GB/月 SSD云盘存储为1.00 元/GB/月 说明 实际价格请以控制台...

HDFS数据源

支持的版本 目前不支持阿里云文件存储HDFS版。使用限制 离线读 使用HDFS Reader时,请注意以下事项:由于连通默认资源组到HDFS的网络链路比较复杂,建议您使用 独享数据集成资源组 完成数据同步任务。您需要确保您的独享数据集成资源组具备...

创建HBase数据源

背景信息 HBase是用于处理存储Hadoop集群中大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您需要先完成HBase数据源的创建。更多HBase信息,请参见 HBase官网。使用限制 Dataphin仅支持超级管理员、数据源管理...

Hive连接器

背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储Hadoop分布式文件系统(HDFS)或对象存储系统(例如,阿里云OSS)中。存储着数据文件到Schema和Table映射的元数据。该元数据存储在数据库(例如,MySQL)中,并...

创建Impala数据源

背景信息 Impala是用于处理存储Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至Impala,您需要先完成Impala数据源的创建。更多Impala信息,请参见 Impala官网。权限说明 Dataphin仅支持 超级管理员、...

创建Impala数据源

背景信息 Impala是用于处理存储Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至Impala,您需要先完成Impala数据源的创建。更多Impala信息,请参见 Impala官网。权限说明 Dataphin仅支持 超级管理员、...

Hive连接器

背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储Hadoop分布式文件系统(HDFS)或对象存储系统(例如,阿里云OSS)中。存储着数据文件到Schema和Table映射的元数据。该元数据存储在数据库(例如,MySQL)中,并...

使用Fuse-DFS挂载文件存储 HDFS 版

vim hadoop-2.8.5-src/hadoop-hdfs-project/hadoop-hdfs-native-client/src/main/native/fuse-dfs/fuse_options.c 执行以下命令编译Hadoop源码中hadoop-hdfs-project模块下的hadoop-hdfs-native-client子模块。cd hadoop-2.8.5-src/mvn ...

在文件存储 HDFS 版上使用Apache Tez

./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/hdfs/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/hdfs/lib/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/yarn/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/yarn/lib/*:./...

设置Dataphin实例的计算引擎为Hadoop

集群存储根目录 计算引擎类型为E-MapReduce 5.x Hadoop且集群存储类型为OSS-HDFS时,需填写集群存储根目录。可以通过查看E-MapReduce 5.x Hadoop集群信息获取进行。如下图所示:执行引擎 根据实际业务情况,选择计算执行引擎。包括...

在文件存储 HDFS 版上使用Apache HBase

步骤一:Hadoop集群挂载 文件存储 HDFS 版 实例 在Hadoop集群中配置 文件存储 HDFS 版 实例。具体操作,请参见 挂载文件存储 HDFS 版文件系统。步骤二:配置Apache HBase 将Hadoop中配置的core-site.xml复制到${HBASE_HOME}/conf目录下。cp...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
对象存储 文件存储 CPFS 开源大数据平台 E-MapReduce 轻量应用服务器 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用