如何对JSON类型进行高效分析

PolarDB 列存索引(In Memory Column Index,IMCI)功能推出了完备的虚拟列与列式JSON功能等,可以快速处理大数据和多种数据类型(包括结构化数据与半结构化数据等),并提供高效的数据分析、查询与流计算能力,适用于数据分析、数据仓库与...

提交物模型消息解析脚本

本文以解析上、下行属性消息数据的脚本为例,介绍在数据格式为透传或自定义的产品下,如何编写并提交物模型消息解析脚本。前提条件 创建产品时已定义数据格式为 透传/自定义。具体操作,请参见 创建产品。背景信息 数据格式为 ICA标准数据...

2021年

本文介绍 PolarDB PostgreSQL版(兼容Oracle)的产品功能动态,分别为内核小版本、控制台、时空数据库和API的更新说明。说明 您可通过如下语句查看 PolarDB PostgreSQL版(兼容Oracle)的内核小版本的版本号:show polar_version;2021年12...

数据类型转换

功能说明 数据类型转换组件是将输入数据的数据类型转换成指定的数据类型,支持 int、double、string、datetime 四种类型转换。计算逻辑原理 int:将输入数据的类型转换成int类型。double:将输入数据的类型转换成double类型。string:将...

CREATE TABLE

AnalyticDB MySQL版 支持的数据类型,请参见 基础数据类型 和 复杂数据类型。COMMENT 为列或表添加备注信息。column_attributes(默认值与自增列)DEFAULT {constant|CURRENT_TIMESTAMP} 定义列的默认值。仅支持 常量 或 CURRENT_TIMESTAMP...

迁移评估概述

目前支持进行对象评估的数据类型及版本如下:Oracle 数据库:11g/12c/18c/19c MySQL 数据库:5.6/5.7/8.0 DB2 LUW 数据库(仅支持采集文件上传评估)云数据库 RDS PolarDB MySQL 引擎 支持对 Oracle 和 MySQL 数据库的 DDL 语句进行兼容...

Oracle数据

准备工作5:检查数据库表的数据类型 您可以使用查看表的SQL相关语句(SELECT)查询数据库表的数据类型。示例查看 'tablename' 表数据类型的语句如下。select COLUMN_NAME,DATA_TYPE from all_tab_columns where TABLE_NAME='tablename';...

概述

当源端数据库非 OceanBase 数据库时,会依据目标 OceanBase 租户类型的语法定义标准进行数据类型和 SQL 语法的自动转换和拼装,然后复制至目标库中。全量迁移 迁移源库表的存量数据至目标库对应的表中。您可以在 全量迁移 页面,根据源库和...

自建Oracle迁移至RDS MySQL

警告 此场景属于异构数据库间的数据迁移,DTS在执行结构迁移时数据类型无法完全对应,请谨慎评估数据类型的映射关系对业务的影响,详情请参见 异构数据库间的数据类型映射关系。全量数据迁移 DTS会将自建Oracle数据库迁移对象的存量数据,...

迁移 RDS PostgreSQL 实例的数据至 OceanBase 数据库 ...

本文为您介绍如何使用数据传输迁移 RDS PostgreSQL 实例 的数据至 OceanBase 数据库 Oracle 租户。重要 如果数据迁移项目长期处于非活跃状态(项目状态为 失败、已暂停 或 已完成),受增量日志保留时长等影响,项目可能无法恢复。数据传输...

自建Oracle迁移至PolarDB MySQL版

警告 此场景属于异构数据库间的数据迁移,DTS在执行结构迁移时数据类型无法完全对应,请谨慎评估数据类型的映射关系对业务的影响,详情请参见 异构数据库间的数据类型映射关系。全量数据迁移 DTS会将自建Oracle数据库迁移对象的存量数据,...

Tunnel命令常见问题

当值为True时,会将不符合表定义的数据全部忽略。详情请参见 Upload。使用Tunnel Upload命令上传数据时,报错You cannot complete the specified operation under the current upload or download status,如何解决?问题现象 使用Tunnel ...

版本发布记录

Bug修复 修复数据类型DateTime64与Datetime/Date字段的类型转换问题和值比较问题。修复“Invalid number of rows in Chunk”报错问题。从MaxCompute导入 社区兼容版21.8 新特性 引入ClickHouse与ZooKeeper连接的 fallback session lifetime...

附录:DataHub消息格式

本文为您介绍DataHub不同数据类型对应操作的支持情况,不同数据类型的分片策略、数据格式及相关消息示例。不同数据类型对应操作的支持情况 Topic是DataHub订阅和发布的最小单位,用户可以用Topic来表示一类或者一种流数据。目前支持Tuple与...

连接方式概述

ORM 框架 ORM 对象关系映射(Object Relational Mapping,简称 ORM),是一种程序技术,用于实现面向对象编程语言里不同类型系统的数据之间的转换。从效果上说,它其实是创建了一个可在编程语言里使用的"虚拟对象数据库。在连接 OceanBase ...

分区

为避免因数据类型转换导致的异常,建议在设计分区字段时使用STRING类型。MaxCompute 1.0数据类型版本支持的分区字段仅有STRING。虽然可以指定分区列的类型为BIGINT,但是除了表的字段显示为BIGINT类型,任何其他情况(例如,字段的计算和...

通过 HyperLoglog 实现高性能多维数据透视

t3(uid,-用户 ID tag1,-标签1,如兴趣 tag2,-标签2,如性别 tag3,-标签3,如年龄段.,)基于已定义的数据结构,可以按照品牌、销售区域、标签、日期进行透视。例如,select '兴趣' as tag,t3.tag1 as tag_value,count(1)as cnt from t1,t2,t3...

2.0数据类型版本

本文为您介绍MaxCompute 2.0数据类型版本的定义、使用场景、支持的数据类型以及与其它数据类型版本的差异。定义 项目空间选择数据类型版本为2.0数据类型版本时,项目空间的数据类型属性参数定义如下。setproject odps.sql.type.system.odps...

约束

打破此假设的常见方法的一个示例是在 CHECK 表达式中引用用户定义的函数,然后更改该函数的行为。本数据库不会禁止那样,但它不会注意到现在表中是否有行违反了 CHECK 约束。这将导致后续数据库转储和重新加载失败。处理此类更改的建议方法...

新功能发布记录

ALTER TABLE 数据类型变更 支持将整型数据类型(TINYINT、SMALLINT、INT、BIGINT、SHORT、LONG)变更为浮点类型(FLOAT、DOUBLE)和DECIMAL类型。ALTER TABLE PARTITION 支持修改分区函数。优化 优化器优化:支持Eager AGG和自动两阶段AGG...

同步 OceanBase 数据库的数据至 Kafka

目前使用 LOB 列进行存储的数据类型包括 JSON、GIS、XML、UDT(用户定义类型),以及 LONGTEXT、MEDIUMTEXT 等各类 TEXT。如果 LOB 列为非更新列,LOB 列在 UPDATE 或 DELETE 操作前或操作后的值均为 NULL。节点之间的时钟不同步,或者电脑...

内建函数概述

order by 的列支持的数据类型为:TINYINT、SMALLINT、INT、BIGINT、FLOAT、DOUBLE、DECIMAL、DATETIME、DATE、TIMESTAMP。日期类型数据的 offset 语法如下:N:表示N天或N秒。非负整数。对于DATETIME和TIMESTAMP,表示N秒;对于DATE,表示N...

离线同步常见问题

目标端的数据类型定义的大小需要可以接收源端映射字段实际数据大小,源端是long、varchar、double等类型的数据,目的端均可用string、text等大范围类型接纳。脏数据报错不清晰时,需要复制出打印出的脏数据的一整条,观察其中的数据,和...

Hive兼容数据类型版本

本文为您介绍Hive兼容数据类型版本的定义、支持的数据类型以及与其他数据类型版本的差异。定义 项目空间选择数据类型版本为Hive兼容数据类型版本时,项目空间的数据类型属性参数定义如下。setproject odps.sql.type.system.odps2=true;打开...

pg_transform

trffromsql regproc 一个函数的OID,该函数用来将数据类型转换为过程语言的输入(例如函数参数)。如果不支持这种操作,这里存储零。trftosql regproc 一个函数的OID,该函数被用来转换过程语言的输出(例如返回值)为该数据类型。如果不...

函数说明

Cast Cast函数用于数据类型的转换,支持将一种本机数据类型转换为另一种。数据类型 Cast函数支持转换的数据类型如下:转换前 转换后 ascii text bigint tinyint,smallint,int,float,double,decimal,varint,text boolean text ...

迁移 Oracle 数据库的数据至 OceanBase 数据库 Oracle...

如果源端存在包含时区信息的数据类型(例如 TIMESTAMP WITH TIME ZONE),请您确保目标端数据库支持并存在源端对应的时区,否则将导致数据迁移过程中产生数据不一致的问题。库表汇聚场景下:建议您使用导入对象或匹配规则的方式映射源端和...

一键实时同步至MaxCompute

DEST:目的端数据库名称 TABLE_NAME_DEST:目的端表名称 TABLE_NAME_SRC:源端表名称 编辑目标表结构 目前 自动建表 生成的MaxCompute表生命周期默认只有30天,并且可能存在字段类型映射,即若目标端数据库中没有与源端一致的数据类型时,...

一键实时同步至MaxCompute

DEST:目的端数据库名称 TABLE_NAME_DEST:目的端表名称 TABLE_NAME_SRC:源端表名称 编辑目标表结构 目前 自动建表 生成的MaxCompute表生命周期默认只有30天,并且可能存在字段类型映射,即若目标端数据库中没有与源端一致的数据类型时,...

1.0数据类型版本

本文为您介绍1.0数据类型版本的设置方法、支持的数据类型以及与其它数据类型版本的差异。定义 项目空间选择数据类型版本为1.0数据类型版本时,项目的数据类型属性定义如下。setproject odps.sql.type.system.odps2=false;关闭MaxCompute 2....

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

JindoCube使用说明

可选 JindoCube通过用户指定的Dimension和Measure信息来构建Cube,对于上图的示例,创建的Cube Cache可以用SQL表示为:SELECT c_city,c_nation,c_region,MAX(lo_quantity),SUM(lo_tax)FROM lineorder_flatten GROUP BY c_city,c_nation,c_...

Kafka数据

Kafka记录数据模块 处理后的数据类型 key 取决于数据同步任务配置的 keyType 配置项,keyType 参数介绍请参见下文的全量参数说明章节。value 取决于数据同步任务配置的 valueType 配置项,valueType 参数介绍请参见下文的全量参数说明章节...

分层存储

设置存储类型 说明 存储类型之间可以相互转换,且修改存储类型不会影响数据访问。命令格式 ALTER TABLE[partition(PARTITION_SPEC)]SET|PARTITIONPROPERTIES>("storagetier"="standard|lowfrequency|longterm");参数说明 TABLE_NAME:必填...

通过Flink SQL模式配置ETL任务

数据库传输服务DTS为数据同步过程提供了流式的ETL功能,您可以在源库和目标库之间添加各种转换组件,实现丰富的转换操作,并将处理后的数据实时写入目标库。例如将两张流表做JOIN操作后形成一张大表,写入目标库;或者给源表新增一个字段,...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 RDS 云数据库 Redis 版 数据库备份 DBS 弹性公网IP 短信服务 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用