部署LAMP环境(Ubuntu)

Apache网站根目录创建测试网页。运行以下命令,查看Apache网站根目录的路径信息。sudo cat/etc/apache2/sites-available/000-default.conf 命令行返回结果中的 DocumentRoot/var/www/html 一行,即表示网站根目录为/var/www/html 。...

部署LAMP环境(Ubuntu)

Apache网站根目录创建测试网页。运行以下命令,查看Apache网站根目录的路径信息。sudo cat/etc/apache2/sites-available/000-default.conf 命令行返回结果中的 DocumentRoot/var/www/html 一行,即表示网站根目录为/var/www/html 。...

在Linux实例的Apache中进行ab压力测试时,提示“apr_...

在Linux实例的Apache中进行ab压力测试时,提示“apr_pollset_poll:The timeout specified has expired”错误时的问题原因、解决方案。问题描述 在Linux实例的Apache中进行ab压力测试时(如:ab-c 10-n 5000 http://192.168.XXX.XXX/ )提示...

Apache限制IP并发连接数

概述 本文主要讲述在Apache中如何 限制 IP 并发连接数的方法。详细信息 阿里云提醒您:如果您对实例或数据有修改、变更等风险操作,务必注意实例的容灾、容错能力,确保数据安全。如果您对实例(包括但不限于ECS、RDS)等进行配置与数据...

新建AnalyticDB For PostgreSQL计算源

如需配置任务队列的优先级,需在AnalyticDB For PostgreSQL中创建所需优先级的资源队列,并将用户分配至带有优先级的队列中。此处用户也需要具备元数据权限、写入表和创建表的权限。使用AnalyticDB For PostgreSQL作为元仓,有如下前置要求...

Hive访问EMR Phoenix数据

操作步骤 如果已经在Phoenix中创建了表 phoenix_hive_create_internal,想通过Hive访问,则可以使用Hive外表的方式与Phoenix中的表建立映射关系,进而通过Hive访问Phoenix中已经存在的表。执行以下命令,进入Hive命令行。hive 执行以下命令...

触发器管理

您可以在指定函数中创建触发器,使用触发器描述一组规则,当某个事件满足这些规则,事件源就会触发关联的函数。本文列举 函数计算 支持的所有触发器。前提条件 创建函数 创建触发器 重要 单个函数下最多允许创建10个触发器。双向集成触发器...

在文件存储 HDFS 版上使用Presto

presto-server-0.265.1/bin/presto-server localhost:8080-catalog hive 通过Presto在Hive中创建数据库。在 文件存储 HDFS 版 实例上创建测试目录。hadoop fs-mkdir dfs:/f-xxxxxx.cn-zhangjiakou.dfs.aliyuncs.com:10290/tmp/presto_test ...

在文件存储 HDFS 版上使用Apache HBase

create 'dfs_test','cf' for i in Array(0.9999)put 'dfs_test','row'+i.to_s,'cf:a','value'+i.to_s end list 'dfs_test' scan 'dfs_test',{LIMIT=>10,STARTROW=>'row1'} get 'dfs_test','row1' 执行以下命令,在HBase中创建表并写入10000...

Flink Table Store与Spark集成

在Hive Catalog中创建的表可以直接在Hive中查询。Hive查询Flink Table Store,详情请参见 Flink Table Store与Hive集成。spark-sql-conf spark.sql.catalog.tablestore=org.apache.flink.table.store.spark.SparkCatalog-conf spark.sql....

触发器管理

您可以在指定函数中创建触发器,使用触发器描述一组规则,当某个事件满足这些规则,事件源就会触发关联的函数。本文列举 函数计算 支持的所有触发器。前提条件 创建服务 创建函数 创建触发器 重要 单个函数下最多允许创建10个触发器。双向...

自定义事件源API网关

步骤三:创建API 在 分组列表 页面找到 步骤二:创建API分组 中创建好的API分组,单击右侧 操作 列的 API管理,然后单击 创建API。在 基本信息 页签,配置以下参数,然后单击 下一步。在 定义API请求 页签,设置以下参数,然后单击 下一步...

从Spark导入

yourTableName 云数据库ClickHouse 中创建的表名。yourFilePath 导入数据文件的存储路径,包含文件地址和文件名。colName1,colName2,colName3 云数据库ClickHouse 表的列名。编译打包。sbt package 运行。{SPARK_HOME}/bin/spark-submit-...

Kudu

准备工作 通过DLA读写Kudu数据前,需要在Kudu中创建测试表。关于Kudu的表设计请参见:https://kudu.apache.org/docs/schema_design.html说明 目前DLA不支持通过SQL在Kudu中创建新表,仅支持关联已有的表。如果需要新增一张表,需要先在...

元数据仓库共享模型标准访问方式

如元仓项目的计算源为MaxCompute,则在业务租户中创建元仓项目的MaxCompute数据源。检查最新数据是否产出。您可以通过元仓共享模型通信表以检查最新数据是否产出,每天元仓共享模型产出后,将更新通信表数据。通信表说明如下:data_share_...

创建和部署应用概述(K8s)

EDAS支持使用ECS环境和K8s环境托管应用,当您选择K8s环境托管应用时,EDAS支持托管Java应用与多语言(包含Node.js、Go和Python等多种语言)...说明 如果您想同时在K8s环境中创建多个多语言应用,可以调用InsertK8sApplication接口创建应用。

使用Hive访问

nohup/usr/local/apache-hive-2.3.7-bin/bin/hive-service metastore&nohup/usr/local/apache-hive-2.3.7-bin/bin/hive-service hiveserver2&验证Apache Hive 在hive Shell中创建一张表。create table test(f1 INT,f2 STRING);在表中写入...

Paimon与Hive集成

执行以下Spark SQL语句,在Catalog中创建一张表,并写入数据。在已创建的catalog创建并使用一个测试database。CREATE DATABASE paimon.test_db;USE paimon.test_db;创建Paimon表。CREATE TABLE test_tbl(uuid int,name string,price ...

Flink Table Store与Hive集成

在之前创建的Catalog创建并使用一个测试database。CREATE DATABASE tablestore.test_db;USE tablestore.test_db;创建Flink Table Store表。CREATE TABLE test_tbl(uuid int,name string,price double)TBLPROPERTIES('primary-key'='...

细粒度配置RAM子账号权限

这个值就是步骤2中创建的角色的 ARN 值。示例如下:{"name":"SparkPi","file":"oss:/sparkRoleTest/original-spark-examples_2.11-2.4.5.jar","className":"org.apache.spark.examples.SparkPi","args":["10"],"conf":{"spark.dla.roleArn...

Hive访问Delta Lake和Hudi数据

spark-sql 在Spark中创建并查询表数据。执行以下命令,在Spark中创建Delta表。create table delta_table(id int)using delta;执行以下命令,向表中插入数据。insert into delta_table values 0,1,2,3,4;执行以下命令,查看表数据。select*...

使用API创建应用(ECS)

本文介绍如何使用EDAS提供的Java SDK调用API在EDAS ECS环境中创建应用。前提条件 在EDAS ECS环境中创建应用前,您必须提前完成以下准备工作:安装EDAS的Java SDK。更多信息,请参见 Java SDK接入指南。确定创建应用的地域,假设为 ...

Flink_SQL任务开发方式

例如,在Flink_SQL任务中创建 Catalog01 并建表 t1 后,在新的Flink_SQL任务中再次创建 Catalog01,可以直接访问表 t1。重要 仅支持 开源Flink 实时计算引擎。不支持在Catalog中创建物理表(仅支持创建内存临时表)。不支持 USE CATALOG/...

新建标签

完成公共日历创建后,您可在该日历中创建对应标签。操作步骤 在Dataphin首页,单击 规划。在数仓 规划 页面,按照下图操作指引,进入 新建标签 对话框。说明 您也可单击日历中某一天,并在展开的对话框中单击 添加标签,为该日快速创建对应...

新建标签

完成公共日历创建后,您可在该日历中创建对应标签。操作步骤 在Dataphin首页,单击 规划。在数仓 规划 页面,按照下图操作指引,进入 新建标签 对话框。说明 您也可单击日历中某一天,并在展开的对话框中单击 添加标签,为该日快速创建对应...

通过Filebeat采集Apache日志数据

说明 选择准备工作中创建和配置的ECS实例。启动采集器并查看采集器安装情况。单击 启动。启动成功后,系统弹出 启动成功 对话框。单击 前往采集中心查看,返回 Beats数据采集中心 页面,在 采集器管理 区域中,查看启动成功的Filebeat采集...

数据源白名单配置

若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。下表为阿里云数据库IP白名单设置的操作指引,您可根据阿里云的产品名称查看对应操作...

创建Redis数据源

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 附录:数据源白名单配置。权限说明 Dataphin仅支持 超级...

流式数据湖仓Paimon

语法结构 如果您在 Paimon Catalog 中创建Paimon表,则无需指定 connector 参数,此时创建Paimon表的语法结构如下。CREATE TABLE `<your-paimon-catalog>`.`<your-db>`.paimon_table(id BIGINT,data STRING,PRIMARY KEY(id)NOT ENFORCED)...

基于Paimon的Hologres Serverless数据湖解决方案

使用DLF default catalog,在Hologres共享集群中创建Foreign Server时,无需指定 dlf_catalog 参数。集群存储根路径 选择一个开通了OSS-HDFS服务的Bucket路径。构建数据源。以TPC-H 10GB数据为例,使用EMR Hive构建textfile格式的数据源,...

步骤三:调用SDK收发消息

groupId>org.apache.rocketmq</groupId><artifactId>rocketmq-client-java</artifactId><version>5.0.4</version></dependency>生产消息 在已创建的Java工程创建发送普通消息程序并运行,示例代码如下:package doc;...

授权与回收变量权限

前提条件 已在全局变量中创建变量组。如何创建,请参见 新建全局变量。授权变量权限 在Dataphin首页,单击顶部菜单栏的 管理中心。按照下图指引,进入 变量授权 对话框。根据变量授权对话框提示,配置参数。参数 描述 账号类型 根据业务...

授权与回收变量权限

前提条件 已在全局变量中创建变量组。如何创建,请参见 新建全局变量。授权变量权限 在Dataphin首页,单击顶部菜单栏的 管理中心。按照下图指引,进入 变量授权 对话框。根据变量授权对话框提示,配置参数。参数 描述 账号类型 根据业务...

Hive开发手册

本文介绍如何在E-MapReduce集群中开发Hive作业流程。...在E-MapReduce中创建Hive作业,详情请参见 Hive作业配置。运行作业 单击 运行 以运行作业。您可以关联一个已有的集群,也可以自动按需创建一个,然后关联上创建的作业。

创建Aliyun HBase数据源

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 附录:数据源白名单配置。权限说明 仅支持 超级管理员、...

数据集成概述

支持将Dataphin中创建的逻辑表快速地同步到目标库。支持用户自定义系统不支持的组件,以满足不同业务场景数据同步的需求。RDBMS数据库组件通过JDBC链接,非RDBMS数据库组件需要自行上传JAR包。数据集成支持多种类型组件,通过简单的拖拽、...

引入预制模型

由于模板导入将在计算源(MaxCompute项目)中创建表,可能造成冲突及覆盖已有表,建议使用空白的MaxCompute项目。Endpoint 计算设置中的Endpoint,可点击 去修改Endpoint 按钮进行修改,详情请参见 设置Dataphin实例的计算引擎为MaxCompute...

创建Elasticsearch数据源

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 附录:数据源白名单配置。权限说明 Dataphin仅支持 超级...

创建MongoDB数据源

若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 附录:数据源白名单配置。操作步骤 请参参见 数据源管理入口,进入...

创建AnalyticDB for MySQL 2.0数据源

前提条件 若您需在Dataphin中创建基于阿里云产品的数据源,创建数据源前,需确保Dataphin的IP已添加至数据库白名单(或安全组)中,使数据源与Dataphin网络互通。具体操作,请参见 数据源白名单配置。权限说明 Dataphin仅支持 超级管理员、...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
实时计算 Flink版 企业级分布式应用服务 云消息队列 Kafka 版 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用