[帮助文档] 售电子商务数仓搭建环境准备

为保证您可以顺利完成本次教程,您需要准备教程所需的MaxCompute引擎、DataWorks工作空间,并做好相关的环境配置。本文为您介绍进行本次实验所需的必要环境。

[帮助文档] 使用DataWorks进行任务开发前的环境准备工作

DataWorks是为您提供专业高效、安全可靠的一站式大数据开发与治理平台,使用其进行数据开发前,您需做好相关准备工作,保障后续开发任务可顺利执行。本文为您介绍DataWorks的购买及环境准备流程,帮助您快速开通DataWorks并准备所需开发环境。

阿里云大数据工程师ACA认证(2023版)

21 课时 |
807 人已学 |
免费

基于MaxCompute的热门话题分析

8 课时 |
329 人已学 |
免费

独家揭秘当下大数据体系

4 课时 |
331 人已学 |
免费
开发者课程背景图

[帮助文档] PySpark中的Python环境介绍

EMR DataLake和自定义集群安装的Spark版本对Python环境的依赖各不相同。本文以Python3为例,介绍不同Spark版本所对应的Python版本,以及安装Python第三方库的方法。

【大数据环境准备】(五)kafka安装

1、解压复制文件 [centos@hadoop10 module]$ mv kafka_2.12-3.0.0/ /data/module/kafka [centos@hadoop10 kafka]$ vim ./config/server.properties 设置文件目录 [centos@hado...

大数据平台搭建(容器环境)——Kafka安装配置

大数据平台搭建(容器环境)——Kafka安装配置

Kafka安装配置 需要配置好zookeeper,其中zookeeper使用集群模式,分别在master,slave1,slave2作为其节点(若zookpeer已安装配置好,则无需再次配置) 一、解压 1. 将kafka安装包解压到/opt/module目录下 tar -zxvf /opt/sof...

[帮助文档] 如何实现开发生产等多套环境隔离

使用DataWorks进行大数据开发时,支持对开发、测试、生产等环境进行隔离,当您联合使用了其他阿里云产品时,也可根据环境隔离诉求进行对应业务的环境设置与隔离,本文以DataWorks联合EMR、OSS等产品为例,为您介绍如何实现开发生产等多套环境隔离。

[帮助文档] 如何在本地搭建Spark的调试环境(以IDEA为例)

本文为您介绍如何在本地搭建Spark的调试环境(以IDEA为例)。

基于mac构建大数据伪分布式学习环境(九)-部署Kafka

1.解压2.修改配置broker.id:单机不修改listeners:默认9092端口log.dirs:注意:这个目录不是存储日志的,是存储Kafka中核心数据的目录,这个目录默认是指向的tmp目录,所以建议修改一下zookeeper.connect:kafka依赖的zookeeper如果kafka...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里巴巴大数据计算
阿里巴巴大数据计算
阿里大数据官方技术圈
347750+人已加入
加入
相关电子书
更多
Lindorm一站式车联网数据平台
Lindorm一站式AI数据平台实战
Lindorm:打造AI时代的 一体化数据平台
立即下载 立即下载 立即下载