管理存储过程

概述 在 OceanBase 开发者中心(OceanBase Developer Center,ODC)首页单击连接名进入连接后,在左导航栏中单击 存储过程 标签可查看存储过程列表,在存储过程列表中显示当前连接的数据库中存在的存储过程对象。在存储过程列表中,可查看...

存储过程

您在使用存储过程时,可以指定存储过程的名字并使用参数(parameters),并在合适的时候调用存储过程实现相同或者不同的业务。本文将介绍存储过程的使用方法。背景信息 AnalyticDB PostgreSQL 6.0版 中,函数(Function)虽然可以实现大...

新建存储过程

概述 存储过程是一条或多条语句的集合,对数据库进行一系列复杂操作时,存储过程可以在数据库内将这类复杂操作封装成一个代码块,以便重复使用,从而减少数据库开发人员的工作量。存储过程旨在完成特定功能的 SQL 语句集,经编译创建并保存...

创建存储过程

存储过程是作为单个 SPL 程序语句调用的独立 SPL 程序。调用时,存储过程可选择以输入参数的形式从调用方接收值,并可选择以输出参数的形式向调用方返回值。CREATE PROCEDURE 命令可定义并命名一个将存储在数据库中的独立存储过程。如果...

概述

通过将SPL代码组织为子存储过程和子函数,可以有利地运用SPL存储过程和函数程序的能力和功能来构建结构良好且易于维护的程序。通过在SPL程序中声明子存储过程和子函数,可从相对较大的SPL程序中的不同位置多次调用相同的SPL代码。子存储...

DROP PROCEDURE

删除存储过程。语法 DROP PROCEDURE[IF EXISTS]name[([[argmode][argname]argtype][,.])][CASCADE|RESTRICT]说明 DROP PROCEDURE 删除现有程序的定义。要执行该命令,您必须是超级用户或存储过程的所有者。如果这是一个重载存储过程,则...

CREATE PROCEDURE

定义新存储过程。语法 CREATE[OR REPLACE]PROCEDURE name[(parameters)][IMMUTABLE|STABLE|VOLATILE|DETERMINISTIC|[NOT]LEAKPROOF|CALLED ON NULL INPUT|RETURNS NULL ON NULL INPUT|STRICT|[EXTERNAL]SECURITY INVOKER|[EXTERNAL]...

调用存储过程

您可从另一个 SPL 程序调用存储过程,只需指定该存储过程名称,后跟其参数(如果有),最后以分号结尾。name[([parameters])];其中:name 是存储过程的标识符。parameters 是实参的列表。说明 如果没有要传递的实参,则可以用空参数列表...

功能特性

服务器端加密 客户端加密 OSS客户端加密是在数据上传至OSS之前,由用户在本地对数据进行加密处理,确保只有密钥持有者才能解密数据,增强数据在传输和存储过程中的安全性。客户端加密 合规保留策略 OSS保留策略具有WORM(Write Once Read ...

Credential Provider使用说明

使用Hadoop Credential Providers存储AccessKey信息 说明 Hadoop Credential Provider详情的使用方法,请参见 CredentialProvider API Guide。fs.jfs.cache.oss.accessKeyId、fs.jfs.cache.oss.accessKeySecret 和 fs.jfs.cache.oss....

功能特性

数据库文件存储 功能集 功能 功能描述 参考文档 DBFS特性 原子写 支持DIRECT IO的原子写,需按4K,8K,16K对齐-共享读写 一份数据可共享式多点挂载并进行读写,读写可线性扩展-存储加密 通过对数据库文件存储实施加密,可以确保数据库文件...

成本

AnalyticDB PostgreSQL版 采用计算节点本地存储的模式,支持行式存储和列式存储,支持非易失存储、固态硬盘、机械硬盘等多种存储介质,支持单节点最大10TB存储空间。在此基础之上,AnalyticDB PostgreSQL版 进一步提供了存储压缩能力、OSS...

配置OSS/OSS-HDFS Credential Provider

使用Hadoop Credential Providers存储AccessKey信息 上面基本配置方式中的 fs.oss.accessKeyId 和 fs.oss.accessKeySecret 将会明文配置在 core-site.xml 中,您可以将其以加密对方式存储Hadoop Credential Providers文件中。使用Hadoop...

配置OSS/OSS-HDFS Credential Provider

使用Hadoop Credential Providers存储AccessKey信息 上面基本配置方式中的 fs.oss.accessKeyId 和 fs.oss.accessKeySecret 将会明文配置在 core-site.xml 中,您可以将其以加密对方式存储Hadoop Credential Providers文件中。使用Hadoop...

Node Labels特性使用

主备切换后,新的Active节点无法读到本地存储的Node Labels信息,所以必须将 yarn.node-labels.fs-store.root-dir 配置为分布式存储路径,例如/tmp/node-labels 或者${fs.defaultFS}/tmp/node-labels(EMR Hadoop默认文件系统为分布式HDFS...

使用表格存储过程中返回503错误码

问题描述 在使用表格存储过程中,偶尔会出现503错误,详细错误信息请参见下表。HTTPStatus ErrorCode ErrorMsg 503 OTSPartitionUnavailable The partition is not available.503 OTSServerUnavailable Server is not available.503 ...

操作指南FAQ

本文介绍使用云存储网关过程中的常见问题。云上部署FAQ 创建网关时找不到可用交换机如何处理?云存储网关升级失败了该如何处理?本地部署FAQ 如何检测网关网络的联通性?如何在本地数据中心部署云存储网关?云存储网关升级失败了该如何处理...

计费概述

文件存储NAS支持创建不同类型的NAS文件系统,不同类型的文件系统计费标准不同,本文介绍文件存储NAS的计费情况。付费方式 付费模式 说明 按量付费 默认付费方式。先使用,后付费,适用于业务用量经常有变化的场景。通用型NAS按照各计费项的...

为什么使用表格存储过程中会有少量的500错误

不少用户在使用表格存储过程中偶尔会接到一些500错误,主要错误码如下。HTTPStatus ErrorCode ErrorMsg 503 OTSPartitionUnavailable The partition is not available.503 OTSServerUnavailable Server is not available.503 ...

计费概述

在使用文件存储CPFS过程中,除了文件存储CPFS收费的计费项之外,还可能涉及以下费用支出。CPFS-POSIX管理节点费用 在文件存储控制台为CPFS文件系统添加POSIX挂载点时创建的3个用于客户端管理的ECS实例,将根据云服务器ECS的产品价格计费。...

创建HBase数据源

背景信息 HBase是用于处理存储Hadoop集群中大量数据的SQL查询引擎。如果您使用的是HBase,在导出Dataphin数据至HBase,您需要先完成HBase数据源的创建。更多HBase信息,请参见 HBase官网。使用限制 Dataphin仅支持超级管理员、数据源管理...

产品计费

其他费用 在使用云存储网关过程中,除了云存储网关收费的计费项之外,还有其他费用支出。OSS使用费用 云存储网关中的OSS资源归您所有,网关访问OSS产生的费用由OSS产品向您收取,这些费用包括存储费用、流量费用、请求费用和数据取回费用,...

Hive连接器

背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储Hadoop分布式文件系统(HDFS)或对象存储系统(例如,阿里云OSS)中。存储着数据文件到Schema和Table映射的元数据。该元数据存储在数据库(例如,MySQL)中,并...

通用型NAS计费

低频存储读流量 1 GiB×0.06元/GiB=0.06元 低频存储写流量 2 GiB×0.06元/GiB=0.12元 存储包+按量计费 假设张先生在华北2(北京)地域购买了500 GiB的存储包,需支付总费用165.195元,计费明细如下:计费项 费用 说明 通用型存储容量(容量...

创建Impala数据源

背景信息 Impala是用于处理存储Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至Impala,您需要先完成Impala数据源的创建。更多Impala信息,请参见 Impala官网。权限说明 Dataphin仅支持 超级管理员、...

创建Impala数据源

背景信息 Impala是用于处理存储Hadoop集群中大量数据的SQL查询引擎。如果您使用的是Impala,在导出Dataphin数据至Impala,您需要先完成Impala数据源的创建。更多Impala信息,请参见 Impala官网。权限说明 Dataphin仅支持 超级管理员、...

Hive连接器

背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储Hadoop分布式文件系统(HDFS)或对象存储系统(例如,阿里云OSS)中。存储着数据文件到Schema和Table映射的元数据。该元数据存储在数据库(例如,MySQL)中,并...

使用Fuse-DFS挂载文件存储 HDFS 版

vim hadoop-2.8.5-src/hadoop-hdfs-project/hadoop-hdfs-native-client/src/main/native/fuse-dfs/fuse_options.c 执行以下命令编译Hadoop源码中hadoop-hdfs-project模块下的hadoop-hdfs-native-client子模块。cd hadoop-2.8.5-src/mvn ...

在文件存储 HDFS 版上使用Apache Tez

./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/hdfs/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/hdfs/lib/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/yarn/*:./hadoop-mapreduce/hadoop-2.8.5/share/hadoop/yarn/lib/*:./...

设置Dataphin实例的计算引擎为Hadoop

集群存储根目录 计算引擎类型为E-MapReduce 5.x Hadoop且集群存储类型为OSS-HDFS时,需填写集群存储根目录。可以通过查看E-MapReduce 5.x Hadoop集群信息获取进行。如下图所示:执行引擎 根据实际业务情况,选择计算执行引擎。包括...

在文件存储 HDFS 版上使用Apache HBase

步骤一:Hadoop集群挂载 文件存储 HDFS 版 实例 在Hadoop集群中配置 文件存储 HDFS 版 实例。具体操作,请参见 挂载文件存储 HDFS 版文件系统。步骤二:配置Apache HBase 将Hadoop中配置的core-site.xml复制到${HBASE_HOME}/conf目录下。cp...

在文件存储 HDFS 版上使用Presto

Presto使用maven-shade-plugin插件打包,对引入的Hadoop依赖进行了重命名,文件存储 HDFS 版 Java SDK和Hadoop共用了protobuf-xxx.jar包,Presto通过Hive Metastore读取 文件存储 HDFS 版 上的数据时,文件存储 HDFS 版 获取不到Presto重...

基于Hadoop集群支持Delta Lake或Hudi存储机制

涉及模块 对应阿里云产品 说明 开源Hadoop 本地机房搭建Hadoop集群 云上虚拟机搭建Hadoop集群 阿里云E-MapReduce 原始数据存储Hadoop集群中。基于Hadoop集群支持Delta Lake或Hudi湖仓一体架构 前提条件 已创建MaxCompute项目(非External...

测试环境

本次测试采用3种不同的测试场景,针对开源自建的Hadoop+Spark集群与阿里云云原生数据湖分析DLA Spark在执行Terasort基准测试的性能做了对比分析。本文档主要介绍了3种不同测试场景下的测试环境配置要求。环境配置要求 测试环境总体要求:自...

挂载文件存储 HDFS 版文件系统

本文介绍挂载及卸载 文件存储 HDFS 版 文件系统的操作。前提条件 已为ECS实例安装JDK,且JDK版本不低于1.8。已创建 文件存储 HDFS 版 文件系统并添加挂载点。具体操作,请参见 创建文件系统 和 添加挂载点。已安装Hadoop客户端,建议您使用...

在文件存储 HDFS 版上使用Apache Flink

export HADOOP_HOME=usr/local/hadoop-2.7.2 export HADOOP_CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath)export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 执行如下命令使配置...

在文件存储 HDFS 版上使用Apache Spark

export HADOOP_HOME=usr/local/hadoop-2.7.2 export HADOOP_CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath)export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 执行如下命令使配置...

快速入门

文件存储 HDFS 版 适用于互联网行业、金融行业等有大数据计算与存储分析需求的行业客户进行海量数据存储和离线计算的业务场景,充分满足以Hadoop为代表的分布式计算业务类型对分布式存储性能、容量和可靠性的多方面要求。开通 文件存储 ...

安装文件系统SDK

WordCount样例${HADOOP_HOME}/bin/hadoop jar \${HADOOP_HOME}/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount \ inputDir outputDir Grep样例${HADOOP_HOME}/bin/hadoop jar \${HADOOP_HOME}/share/hadoop/...

搭建Hadoop环境

Hadoop是由Apache基金会使用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力进行高速运算和存储。本文介绍如何在Linux操作系统的ECS实例上快速搭建Hadoop分布式环境。前提...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
文件存储 CPFS 对象存储 开源大数据平台 E-MapReduce 商标服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用