UTL_RAW

语法 UTL_RAW.CONCAT(r1 IN RAW DEFAULT NULL,r2 IN RAW DEFAULT NULL,r3 IN RAW DEFAULT NULL,r4 IN RAW DEFAULT NULL,r5 IN RAW DEFAULT NULL,r6 IN RAW DEFAULT NULL,r7 IN RAW DEFAULT NULL,r8 IN RAW DEFAULT NULL,r9 IN RAW DEFAULT ...

节点类型说明

本文按照节点离线、在线流式的分类,分别介绍各节点类型对应能处理数据类型以及运行引擎。计算类节点 计算类节点分为离线类、在线流式类节点主要用于处理各种不同的数据。节点分类 节点说明 离线节点 更多详细信息,请参见 离线类...

数据类型版本说明

odps.sql.hive.compatible:MaxCompute Hive兼容模式(即部分数据类型和SQL行为兼容Hive)数据类型版本的开关,属性值为True或False。在新增项目时MaxCompute可以对3个版本的数据类型进行选择,各个版本默认设置如下:1.0数据类型版本 ...

数据类型转换

本文为您介绍迁移 MySQL 数据库的数据至 OceanBase 数据库 MySQL 租户时,数据类型转换的支持范围。支持的转换类型 数值类型 分类 MySQL 数据库 OceanBase 数据库 MySQL 租户 整型 支持指定字段长度,SIGNED、UNSIGNED、ZEROFILL。INT INT ...

定义敏感数据

更多敏感数据类型及其SQL算子请参见 支持的数据类型和相关算子。全新定义敏感数据 您需要根据业务场景特性,判断哪些数据属于敏感数据,哪些数据属于普通数据,对于敏感数据,在库表结构中将数据类型定义为对应的敏感数据类型。以如下数据...

定义敏感数据

更多敏感数据类型及其SQL算子请参见 支持的数据类型和相关算子。全新定义敏感数据 您需要根据业务场景特性,判断哪些数据属于敏感数据,哪些数据属于普通数据,对于敏感数据,在库表结构中将数据类型定义为对应的敏感数据类型。以如下数据...

定义敏感数据

更多敏感数据类型及其SQL算子请参见 支持的数据类型和相关算子。全新定义敏感数据 您需要根据业务场景特性,判断哪些数据属于敏感数据,哪些数据属于普通数据,对于敏感数据,在库表结构中将数据类型定义为对应的敏感数据类型。以如下数据...

功能支持

支持的数据类型和相关算子 全密态数据库定义并新增了以下数据类型,这些数据类型及其相应算子的范围内,支持SQL查询与事务,兼容标准SQL语法。数据类型 说明 支持密文计算 enc_int4 加密后的整型数,对应的明文数据为4字节整型数。...

使用场景

包含但不限于如下场景:数据迁移与同步 使用DMS任务编排配置管理数据迁移或数据同步任务,将数据从一个数据源迁移到另一个数据源,或实现同数据源、不同数据源之间的数据实时同步。数据清洗与加工 DMS任务编排可以用于数据清洗加工任务...

UDF示例:复杂数据类型

本文为您介绍如何在Java UDF和Python UDF中使用复杂数据类型。命令说明 本示例将注册一个名称为 UDF_COMPLEX_DATA 的自定义函数。说明 本示例将介绍array、map、struct三种复杂数据类型的使用。Java UDF通过重载的方式使用同一个自定义函数...

创建RDS MySQL数据订阅通道

配置需要订阅的数据类型和订阅对象。配置 说明 需要订阅的数据类型 数据更新 订阅已选择对象的增量数据更新,包含数据的INSERT、DELETE和UPDATE操作。结构更新 订阅整个实例所有对象的结构创建、删除及修改,您需要使用数据订阅客户端过滤...

数据页面管理

在管理数据页面中,数据的类型分为 ...上传数据 管理数据页面中的数据类型有 矢量、栅格、地理服务、三维模型、三维瓦片 业务数据 六类,不同类型的数据可上传的数据格式互不相同,具体三种类型数据上传数据的详细说明请参见 上传数据。

数据页面管理

在管理数据页面中,数据的类型分为 ...上传数据 管理数据页面中的数据类型有 矢量、栅格、地理服务、三维模型、三维瓦片 业务数据 六类,不同类型的数据可上传的数据格式互不相同,具体三种类型数据上传数据的详细说明请参见 上传数据。

操作流程

新建开发节点流程图 流程说明 操作 说明 新建开发节点 根据待处理的数据类型,选择对应的节点类型,新建开发节点处理该类数据。具体操作,请参见 步骤一:选择节点类型并配置基本属性。写SQL语句 通过写算法语句或者引用自定义函数处理数据...

操作流程

新建开发节点流程图 流程说明 操作 说明 新建开发节点 根据待处理的数据类型,选择对应的节点类型,新建开发节点处理该类数据。具体操作,请参见 步骤一:选择节点类型并配置基本属性。写SQL语句 通过写算法语句或者引用自定义函数处理数据...

典型场景

大数据分析平台 对于MaxCompute、HadoopSpark中保存的海量数据,可通过采用数据集成服务(DataX)或通过对象存储服务(OSS),快速批量导入到 云原生数据仓库AnalyticDB PostgreSQL版,帮助您实现高性能分析处理和在线数据探索。数据湖...

开发PyODPS脚本

PyODPS是MaxCompute Python版本的SDK,提供对MaxCompute对象的基本操作DataFrame框架,通过PyODPS,您可以在MaxCompute上进行数据分析。本文为您介绍如何开发PyODPS脚本,以实现与MaxCompute的高效交互和数据处理。前提条件 已配置Python...

MaxCompute作业概述

数据类型 MaxCompute数据开发支持三个数据类型版本:1.0数据类型版本、MaxCompute 2.0推出了兼容开源主流产品的 2.0数据类型版本 Hive兼容数据类型版本。您可以根据您MaxCompute作业的实际情况选用合适的数据类型版本,详情请参见 数据...

新建数据处理任务

系统提供数据处理能力,包括倾斜数据处理、地形数据处理、三维模型处理、影像优化处理。本文以新建倾斜数据处理任务为例,介绍如何新建数据处理任务。前提条件 已添加空间元数据,具体操作,请参见 添加数据。已添加OSS类型云计算资源。...

新建Flink SQL类型的公共节点

Flink SQL节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQLDataHub Service等类型数据进行处理。本文介绍如何新建Flink SQL类型的公共节点。背景信息...

新建Flink Vvp SQL类型的公共节点

Flink Vvp SQL节点是流式节点,运行于Flink云计算资源之上,支持对ApsaraDB for RDS、Table Store、Hive、Kafka、Hbase、Phoenix、AnalyticDB MySQL、AnalyticDB_PostgreSQLDataHub Service等类型数据进行处理。本文介绍如何新建Flink ...

新建Hive类型的公共节点

Hive类型的节点是离线节点,运行在Hive云计算资源之上,支持处理Hive、HbasePhoenix类型数据。本文介绍如何新建Hive类型的公共节点。前提条件 已新建Hive类型云计算资源,具体操作,请参见 新建云计算资源。背景信息 Hive节点运行于...

与Hive、MySQL、Oracle数据类型映射表

正确的数据类型映射关系可以确保数据在不同数据库中能够正确地存储、处理和查询,避免数据丢失或损坏,并且提高工作效率。本文为您介绍MaxCompute与Hive、Oracle、MySQL之间数据类型的映射关系。数据类型映射表 MaxCompute与Hive、Oracle、...

创建集群

版本详情请参见 Databricks Runtime版本说明 Python版本 默认版本为Python 3 付费类型 Databricks数据洞察支持包年包月按量付费两种付费类型 可用区 可用区为在同一地域下的不同物理区域,可用区之间内网互通。一般选择默认的可用区即可...

2.0数据类型版本

本文为您介绍MaxCompute 2.0数据类型版本的定义、使用场景、支持的数据类型以及与其它数据类型版本的差异。定义 项目空间选择数据类型版本为2.0数据类型版本时,项目空间的数据类型属性参数定义如下。setproject odps.sql.type.system.odps...

查看资源用量大盘

资源用量大盘为您展示当前租户下已使用的数据处理单元总量按任务类型分别统计的消耗趋势以及按项目粒度统计的消耗增量排行,帮助您了解数据处理单元的消耗情况以及时调整资源规格配置。本文为您介绍如何查看资源用量大盘。前提条件 需...

创建数据

数据管理DMS离线集成中,可以组合各类任务节点,形成数据流,通过周期调度运行达到数据加工、数据同步的目的。本文介绍创建数据配置的方法。前提条件 支持的数据类型:MySQL:RDS MySQL、PolarDB MySQL版、MyBase MySQL、PolarDB...

什么是Databricks数据洞察

Databricks数据洞察(简称DDI)是基于Apache Spark的全托管大数据分析平台。产品内核引擎使用Databricks Runtime,并针对阿里云平台进行了优化。DDI为您提供了高效稳定的阿里云Spark服务,您无需关心集群服务,只需专注在Spark作业的开发上...

Python

前提条件 确保本地已部署 Python 语言运行环境。Python 3.x 连接 OceanBase 数据库 Python 3.x 需要 PyMySQL 驱动进行 OceanBase 数据库连接及使用。步骤一:获取数据库连接参数 参考 获取连接参数 文档,获取相应的租户连接参数,例如:$...

整体架构

技术架构 AnalyticDB MySQL版 采用云原生架构,计算存储分离、冷热数据分离,支持高吞吐实时写入和数据强一致,兼顾高并发查询和大吞吐批处理的混合负载。AnalyticDB MySQL 数仓版(3.0)主要用来处理高性能在线分析场景的数据。随着数据...

数据科学计算概述

为满足用户基于MaxCompute进行规模数据处理、分析、挖掘及模型训练的需求,MaxCompute提供了一套Python开发生态,让用户通过统一的Python编程接口一站式、高效地完成数据处理、加工及挖掘工作。发展路径 MaxCompute提供的Python开发生态...

管理数据库资产

在进行数据库审计前,您必须在数据库审计系统中添加要审计的数据库。本文介绍了在数据库审计系统中添加、编辑、删除数据库的具体操作。背景信息 关于数据库审计服务支持审计的数据类型,请参见 支持的数据类型。重要 数据库审计仅支持...

ip4r

本文介绍了 ip4r 插件的背景信息、数据类型以及使用方法等内容。前提条件 支持的 PolarDB PostgreSQL版 的版本如下:PostgreSQL 14(内核小版本14.9.13.0及以上)PostgreSQL 11(内核小版本1.1.36及以上)说明 您可通过如下语句查看 ...

数据类型

本文为您介绍Dataphin支持的MaxCompute 2.0的数据类型。适用场景 适用于在2020年04月之前无存量数据的MaxCompute项目,且该项目依赖的产品组件支持2.0数据类型版本。基础数据类型 类型 常量示例 描述 TINYINT 1Y、-127Y 8位有符号整型。...

数据类型

本文为您介绍Dataphin支持的MaxCompute 2.0的数据类型。适用场景 适用于在2020年04月之前无存量数据的MaxCompute项目,且该项目依赖的产品组件支持2.0数据类型版本。基础数据类型 类型 常量示例 描述 TINYINT 1Y、-127Y 8位有符号整型。...

表概述

本文为您介绍表的基本概念、数据类型和使用限制。系统架构 您可以通过如下系统架构图了解MaxCompute数据的处理流程。MaxCompute中表的类型如下。基本概念 项目 项目(Project)是MaxCompute的基本组织单元,类似于传统数据库的Database或...

中文时间

因此,您需要在代码的开头部分加入字符编码的声明,例如:#-*-coding:utf-8-*-数据类型 Python 2.x支持以下两种数据类型数据类型 描述 str 字符串。对应Python 3.x中的bytes类型。unicode unicode流。其长度是字符数,如 u'中文' 的长度...

1.0数据类型版本

MaxCompute 1.0数据类型版本是MaxCompute三种数据类型版本之一,该数据类型版本仅支持1.0数据类型。本文为您介绍1.0数据类型版本的设置方法、支持的数据类型以及与其它数据类型版本的差异。定义 项目空间选择数据类型版本为1.0数据类型版本...

CREATE TYPE

一般而言,这些函数需要使用C语言或其他低级语言编写,因为他们必须能够在底层与数据库系统紧密配合,以处理数据类型的输入、输出、接收、发送分析等操作。这些函数的编写注册是创建新基础类型过程中最为技术性的部分,他们确保了新...

CREATE TYPE

一般而言,这些函数需要使用C语言或其他低级语言编写,因为他们必须能够在底层与数据库系统紧密配合,以处理数据类型的输入、输出、接收、发送分析等操作。这些函数的编写注册是创建新基础类型过程中最为技术性的部分,他们确保了新...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云原生大数据计算服务 MaxCompute 云数据库 RDS 云数据库 Redis 版 数据库备份 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用