自建Hive数据仓库迁移到阿里云E-MapReduce

客户在IDC或者公有云环境自建Hadoop集群,数据集中保存在HDFS文件系统,同时借助Hive进行常见的ETL任务。客户在决策上云之后,会将自建Hadoop集群的数据迁移到阿里云自建Hadoop或者EMR。方案优势 易用性 您可以简单选择所需ECS机型(CPU、...

云资产全景

安全评分、安全产品和云产品三个维度全面展示您资产的安全态势,帮助您统一管控云上资产,提升安全运营的效率。版本限制 仅云安全中心的企业版和旗舰版支持该功能,其他版本不支持。购买和升级云安全中心服务的具体操作,请参见 购买云...

云防火墙和运维安全中心(堡垒机)联合部署访问策略的...

本文为您介绍如何配置云防火墙和运维安全中心(堡垒机)联合部署时的访问策略,避免运维安全中心(堡垒机)访问被云防火墙误拦截,影响业务运行。应用场景 云防火墙可以联合运维安全中心(堡垒机)共同部署,防护互联网的访问流量,为您的...

JindoFS实战演示

OSS访问加速 文档链接 视频链接 视频发布时间 描述 访问OSS这类对象存储快的方式 访问OSS这类对象存储快的方式 2021-05-25 JindoFS SDK是一个简单易用,面向Hadoop或Spark生态的OSS客户端,为阿里云OSS提供高度优化的HadoopFileSystem...

Hive

您可以前往 ECS管理控制台-网络与安全-安全组 按照专有网络(VPC)ID搜索该VPC下的安全组,任意选择一个安全组ID即可。如果您的Hive服务有 白名单 控制,需要您将交换机网段加入到您Hive服务的 白名单 中。操作步骤 如果您的Hive元数据使用...

安全组检查

安全组是一种虚拟防火墙,能够控制ECS实例的出入站流量。安全组规则设置不当可能会导致严重的安全问题。您可以使用云防火墙的安全组检查功能,快速识别及修复ECS安全组潜在的风险规则,以便您更安全、高效地管理安全组。安全组检查功能同时...

使用说明

本文介绍如何在E-MapReduce上配置及访问Hue,通过使用Hue可以在浏览器端与Hadoop集群进行交互来分析处理数据。前提条件 已设置安全组访问。重要 设置安全组规则时要针对有限的IP范围。禁止在配置的时候对0.0.0.0/0开放规则。已打开8888端口...

文件存储 HDFS 版和对象存储OSS双向数据迁移

{HADOOP_HOME}/bin/hadoop jar \${HADOOP_HOME}/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar \ randomtextwriter \-D mapreduce.randomtextwriter.totalbytes=107374182400 \-D mapreduce.randomtextwriter.bytespermap=...

创建Hadoop计算源

Hadoop计算源用于绑定Dataphin项目空间与Hadoop项目,为Dataphin项目提供处理离线计算任务的计算源。如果Dataphin系统的计算引擎设置为Hadoop,则只有项目空间添加了Hadoop计算源,才支持规范建模、即席查询、Hive任务、通用脚本等功能。...

自助审核

内容安全控制台中呈现了内容检测API检测出的数据结果。针对您的业务场景,您可以对机器的检测结果进行二次人工审核。人工审核后,下次同样的检测内容识别出的结果会与您设置的结果保持一致。本文介绍了使用自助审核的具体操作。背景信息 ...

项目管理

在开启安全模式的项目中提交作业时,阿里云账号以默认hadoop用户执行,RAM用户则默认以当前RAM用户同名的EMR用户执行作业。进入数据开发的项目列表页面。通过阿里云账号登录 阿里云E-MapReduce控制台。在顶部菜单栏处,根据实际情况选择...

管理节点组(Hadoop、Data science和EMR Studio集群)

多支持新增10个节点组。仅支持删除Task节点组,不支持删除Core节点组。注意事项 当待操作节点组的节点数大于0时,需要先释放节点组中的ECS实例才能删除节点组。新增节点组 进入节点管理页面。登录EMR on ECS控制台。在顶部菜单栏处,根据...

配置TLS

为了保障互联网通信的安全性和数据完整性,SCDN提供TLS版本控制功能。您可以根据不同域名的需求,灵活地配置TLS协议版本。本文为您介绍TLS协议的配置方法。前提条件 您已成功配置HTTPS证书,具体操作请参见 HTTPS配置。背景信息 TLS...

Hadoop使用JindoSDK访问OSS-HDFS服务

vim/etc/profile export HADOOP_HOME=usr/local/hadoop export PATH=$HADOOP_HOME/bin:$PATH source/etc/profile 更新Hadoop配置文件中的 HADOOP_HOME。cd$HADOOP_HOME vim etc/hadoop/hadoop-env.sh 将${JAVA_HOME} 替换为实际路径。...

Lindorm文件引擎

spark.hadoop.dfs.client.failover.proxy.provider.<dfs.nameservices>":"org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider","spark.hadoop.dfs.ha.namenodes.<dfs.nameservices>":"nn1,nn2","spark.hadoop....

功能特性

文件存储 HDFS 版 具有无缝集成、共享访问、安全控制、线性扩展等多种特性。无缝集成 文件存储 HDFS 版 允许您就像在Hadoop分布式文件系统(HDFS)中一样管理和访问数据。文件存储 HDFS 版 SDK可在所有Apache Hadoop 2.x环境中使用,包括...

如何兼容Hbase 1.0以前的版本

Connection 接口 HBase 1.0.0 及以上的版本中废除了 HConnection 接口,并推荐使用 org.apache.hadoop.hbase.client.ConnectionFactory 类,创建一个实现 Connection 接口的类,用 ConnectionFactory 取代已经废弃的 ConnectionManager 和 ...

处理挖矿程序最佳实践

开启恶意主机行为防御的操作入口如下所示:下图是被云安全中心自动拦截的挖矿程序告警详情页:提升主机安全性 重装系统:服务器被挖矿后,由于系统可能存在遗留的安全威胁,往往系统文件会被更改和替换,此时系统已经变得不可信,最好的...

安全众测常见问题

通用化的检测技术暂时还无法实现紧贴业务的安全检测,特别是一些权限或业务逻辑的安全问题,自动化的安全工具很难发现,只能依靠人工检测。白帽子利用攻击者的思维,可以更全面地发现潜在的安全问题。如何获得阿里安全团队的技术支持?在白...

Spark访问OSS

以AccessKey ID和AccessKey Secret方式访问OSS,需要明文将AccessKey ID和AccessKey Secret写在配置中,存在一定的安全风险。因此建议您以StsToken的方式访问OSS。单击 一键授权,将当前云账号的OSS资源通过StsToken的方式授权给MaxCompute...

快捷模式与安全模式差异比对

DataWorks支持使用快捷模式及安全模式绑定EMR引擎,本文为您介绍快捷模式及安全模式的差异。EMR快捷模式及安全模式的差异如下表。模式类别 描述 权限管控 适用场景 快捷模式 用于快速开展各类数据工作。使用该模式绑定EMR引擎时,阿里云主...

在文件存储 HDFS 版上使用Apache Tez

./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/hdfs/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/hdfs/lib/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/yarn/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/yarn/lib/*:./...

Dataphin在Hadoop环境上传的资源JAR包,存放的HDFS...

概述 本文主要介绍Dataphin在Hadoop环境上传的资源JAR包,存放的HDFS路径是什么。详细信息 Dataphin在Hadoop环境上传的资源JAR包,存放的HDFS路径是什么?介绍如下:所有用户上传的资源JAR包,以及安全包的资源,都是默认放在/tmp/dataphin...

安装文件系统SDK

WordCount样例${HADOOP_HOME}/bin/hadoop jar \${HADOOP_HOME}/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount \ inputDir outputDir Grep样例${HADOOP_HOME}/bin/hadoop jar \${HADOOP_HOME}/share/hadoop/...

通过ES-Hadoop实现Hive读写阿里云Elasticsearch数据

ES-Hadoop是Elasticsearch推出的专门用于对接Hadoop生态的工具,可以让数据在Elasticsearch和Hadoop之间双向移动,无缝衔接Elasticsearch与Hadoop服务,充分使用Elasticsearch的快速搜索及Hadoop批处理能力,实现交互式数据处理。...

使用Flink访问

export HADOOP_HOME=usr/local/hadoop-2.7.3 export HADOOP_CLASSPATH=usr/local/hadoop-2.7.3/etc/hadoop:/usr/local/hadoop-2.7.3/share/hadoop/common/lib/*:/usr/local/hadoop-2.7.3/share/hadoop/common/*:/usr/local/hadoop-2.7.3/...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

使用Spark访问

export HADOOP_HOME=usr/local/hadoop-2.7.3 export HADOOP_CLASSPATH=usr/local/hadoop-2.7.3/etc/hadoop:/usr/local/hadoop-2.7.3/share/hadoop/common/lib/*:/usr/local/hadoop-2.7.3/share/hadoop/common/*:/usr/local/hadoop-2.7.3/...

通过CDH5 Hadoop读取和写入OSS数据

CDH(Cloudera's Distribution,including Apache Hadoop)是众多Hadoop发行版本中的一种,最新版本CDH6.0.1中的Hadoop3.0.0版本已经支持OSS,但CDH5中的Hadoop2.6版本不支持OSS。本文介绍如何配置CDH5支持OSS读写。前提条件 拥有一个已搭建...

使用Hadoop作为元仓计算引擎进行元仓初始化

本文将为您介绍如何使用Hadoop作为元仓计算引擎进行元仓初始化。前提条件 以Hadoop作为元仓时,需开放元数据库或提供Hive Metastore服务,用于获取元数据。背景信息 Dataphin支持通过直连元数据库或Hive Metastore Service服务方式获取...

在文件存储 HDFS 版上使用Apache Flink

export HADOOP_HOME=usr/local/hadoop-2.7.2 export HADOOP_CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath)export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 执行如下命令使配置...

Hadoop Streaming

hadoop jar/usr/lib/hadoop-current/share/hadoop/tools/lib/hadoop-streaming-X.X.X.jar-file/home/hadoop/mapper.py-mapper mapper.py-file/home/hadoop/reducer.py-reducer reducer.py-input/tmp/hosts-output/tmp/output 参数 描述 ...

Spark Load

spark.hadoop.dfs.ha.namenodes.myha"="mynamenode1,mynamenode2","spark.hadoop.dfs.namenode.rpc-address.myha.mynamenode1"="nn1_host:rpc_port","spark.hadoop.dfs.namenode.rpc-address.myha.mynamenode2"="nn2_host:rpc_port",...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数字证书管理服务(原SSL证书) 云安全中心 内容安全 Web应用防火墙 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用