Faster TRUNCATE/DROP TABLE

取值范围如下:ON:开启Faster TRUNCATE/DROP TABLE功能 OFF:关闭Faster TRUNCATE/DROP TABLE功能(默认值)性能测试 本文档以TRUNCATE TABLE操作为例,对比了不同规格的集群下,开启和关闭Faster TRUNCATE/DROP TABLE功能对表执行...

OSS Foreign Table使用技巧

本文介绍OSS Foreign Table相关的使用技巧,例如查看执行计划、收集统计信息、切分大文件以及查看OSS文件信息。查看执行计划 AnalyticDB PostgreSQL版 支持通过EXPLAIN查看OSS Foreign Table查询语句的执行计划。查看执行计划的示例语句...

高性能Flink SQL优化技巧

execution.checkpointing.interval:180s table.exec.state.ttl:129600000 table.exec.mini-batch.enabled:true table.exec.mini-batch.allow-latency:5s table.optimizer.distinct-agg.split.enabled:true 参数解释如下表所示。参数 说明 ...

使用OSS Foreign Table进行数据湖分析

本文介绍如何使用OSS Foreign Table(OSS外表,简称OSS FDW)导入OSS中的数据并进行数据分析。功能介绍 OSS FDW基于PG FDW(PostgreSQL Foreign Data Wrapper)框架进行开发,通过OSS FDW,您可以进行如下操作:将OSS数据导入本地表(行存...

基础使用

CREATE TABLE IF NOT EXISTS kafka_topic USING kafka OPTIONS(kafka.bootstrap.servers="${BOOTSTRAP_SERVERS}",subscribe="${TOPIC_NAME}");说明 上述代码中的 kafka.bootstrap.servers 为Kafka集群中任一Kafka Broker组件的内网IP地址和...

Table Group管理

注意事项 仅Superuser可以查看并管理所有Table Group Table Group管理详情请参见 Table Group与Shard Count操作指南。Table Group管理 进入HoloWeb开发页面,详情请参见 连接HoloWeb。在HoloWeb开发页面的顶部菜单栏,单击 诊断与优化。在 ...

Kafka数据源

建表语法 CREATE TABLE tbName[(columnName dataType[,columnName dataType]*)]USING kafka OPTIONS(propertyName=propertyValue[,propertyName=propertyValue]*);配置参数说明 参数 描述 是否必选 subscribe 关联的Kafka Topic名称。是 ...

使用Kafka(离线与实时)

CREATE TABLE IF NOT EXISTS table_flatten(topic STRING,`partition` BIGINT,`offset` BIGINT,A BIGINT,B STRING,C JSON)PARTITIONED BY(pt STRING);配置并启动Kafka-connector服务 以Linux环境为例,在命令窗口执行以下命令或 下载链接,...

数仓场景:增量数据实时统计

前提条件 已创建DataFlow或自定义集群,具体操作请参见 创建集群。已创建EMR Serverless StarRocks实例,具体操作请参见 创建实例。已创建RDS MySQL,具体操作请参见 创建RDS MySQL实例。说明 本文示例中DataFlow集群为EMR-3.40.0版本、...

数仓场景:增量数据实时统计

前提条件 已创建DataFlow或自定义集群,具体操作请参见 创建集群。已创建StarRocks集群,具体操作请参见 创建StarRocks集群。已创建RDS MySQL,具体操作请参见 创建RDS MySQL实例。说明 本文示例中DataFlow集群为EMR-3.40.0版本、StarRocks...

区域统计

create area table CREATE TABLE regions(`rID` INT,`rName` STRING,`fence` GEOMETRY,PRIMARY KEY(`rID`)NOT ENFORCED)WITH('connector'='lindorm','seedServer'='宽表HBase Java API访问地址>','userName'='root','password'='test_...

Table/SQL JAR迁移至SQL

本文为您介绍如何将Table/SQL JAR作业迁移至Flink全托管的SQL作业中。背景信息 本文将使用开源JDBC Connector写阿里云RDS的方式进行Table/SQL JAR迁移至SQL,因此需要额外配置附加依赖文件选项。实时计算Flink全托管版集群内置了商业化的...

数据保护机制

create table project2.table2 as select*from project1.table1;基于上述示例可知,同时在多个MaxCompute项目中拥有访问权限的用户,可以执行在权限范围内允许的跨项目数据操作来流出项目的数据。MaxCompute已提供数据保护机制能力,如果...

流式入库

use-emr-datasource SQL CREATE TABLE IF NOT EXISTS kafka_table USING kafka OPTIONS(kafka.bootstrap.servers='192.168.XX.XX:9092',subscribe='delta_stream_sample');CREATE TABLE IF NOT EXISTS delta_table(id LONG,`date` DATE,...

访问Kafka数据

CREATE TEMPORARY TABLE kafka_src_tbl USING kafka OPTIONS("kafka.bootstrap.servers"="kafka_addr:9092","subscribe"="topic1","startingTimestamp"=1682406000000,"endingTimestamp"=1682409600000);参数的详细说明,请参见 参数说明。...

GraphCompute数据导出MaxCompute表

1、创建table成功后,使用alter方法添加对应分区:alter table 输入MaxComputeProjec名字.table名字 add partition(ds='2023032302')如果该分区已存在历史数据,导出的数据会直接追加入表,不做历史数据的清理;2、进行导出相关检查,如...

电子围栏

操作步骤 使用lindorm-cli创建地理围栏表regions和结果表fresult,更多信息请参见 通过Lindorm-cli连接宽表引擎。regions建表语句:CREATE TABLE regions(rID INT,rName VARCHAR,fence GEOMETRY,PRIMARY KEY(rID));插入地理围栏数据:...

管理Kafka JSON Catalog

CREATE TABLE IF NOT EXISTS `some_catalog`.`some_database`.`some_table1` AS TABLE `kafka-catalog`.`kafka`.`topic1`/*+OPTIONS('scan.startup.mode'='earliest-offset')*/;CREATE TABLE IF NOT EXISTS `some_catalog`.`some_database`...

使用Flink SQL消费实时变更数据示例

create print table tableEnvironment.executeSql("CREATE TABLE test_table_copy("+"c1 INT,"+"`f:col1` STRING,"+"`f:col2` STRING,"+"`f:col3` STRING"+")WITH("+"'connector'='print'"+")");Table testTable=tableEnvironment.from(...

同步EMR Kafka数据至HBase

操作步骤 创建HBase表。通过SSH方式连接DataServing集群,详情请参见 登录集群。执行以下命令,连接HBase。hbase shell 创建名为 flume_test 的HBase表,表中包含一个列簇column。create 'flume_test','column' 配置Flume。进入Flume的配置...

Maxwell

CREATE TABLE KafkaTable(origin_database STRING METADATA FROM 'value.database' VIRTUAL,origin_table STRING METADATA FROM 'value.table' VIRTUAL,origin_primary_key_columns ARRAY<STRING>METADATA FROM 'value.primary-key-columns...

轨迹生成

因为位置点是实时上传的且数据量较大,所以数据库在处理追加数据的操作时通常会消耗大量的IO。为解决这一问题,Lindorm Ganos时空服务结合Lindorm流引擎的实时计算能力,提供了轨迹生成方案。本文介绍轨迹生成的技术实现和实际操作步骤。...

Table/SQL JAR迁移至JAR

本文为您介绍如何将自建Flink集群上的Table/SQL JAR作业,迁移至实时计算Flink全托管的JAR作业。背景信息 本文将使用开源JDBC Connector写阿里云RDS的方式进行作业迁移,因此需要额外配置附加依赖文件选项。实时计算Flink全托管版集群内置...

快速入门

create stream table CREATE TABLE carData(`uID` STRING,`x` DOUBLE,`y` DOUBLE,`proctime` AS PROCTIME())WITH('connector'='kafka','topic'='logVehicle','scan.startup.mode'='earliest-offset','properties.bootstrap.servers'='地址>...

Canal

CREATE TABLE KafkaTable(origin_database STRING METADATA FROM 'value.database' VIRTUAL,origin_table STRING METADATA FROM 'value.table' VIRTUAL,origin_sql_type MAP,INT>METADATA FROM 'value.sql-type' VIRTUAL,origin_pk_names ...

盲区会车

create result table CREATE TABLE warns(cid INT,ts TIMESTAMP(0),alert BOOLEAN,PRIMARY KEY(cid,ts)NOT ENFORCED)WITH('connector'='lindorm','seedServer'='ld-*-proxy-lindorm.lindorm.rds.aliyuncs.com:30020','userName'='root','...

MaxCompute分区表数据导入

OSS上传操作请参见 控制台上传文件,获取OSS下载链接请参见 分享文件。备注 对导入任务进行简单描述。单击 确认,进入 导入任务设置 页面,设置匹配关系。单击右上方的 开始导入,在 请确认 对话框中,单击 确认。导入成功后,在您的数据...

通过实时计算Flink集成向量数据

具体操作,请参见 创建实例。已创建Flink全托管工作空间,且与 AnalyticDB PostgreSQL版 实例位于同一VPC下。具体操作,请参见 开通Flink全托管。若实时计算Flink端使用开源自建版,请确保 flink-adbpg-connector 已安装在$FLINK_HOME/lib ...

通过实时计算Flink集成向量数据

具体操作,请参见 创建实例。已创建Flink全托管工作空间,且与 AnalyticDB PostgreSQL版 实例位于同一VPC下。具体操作,请参见 开通Flink全托管。若实时计算Flink端使用开源自建版,请确保 flink-adbpg-connector 已安装在$FLINK_HOME/lib ...

通过流引擎实现地理围栏监控

CREATE External Table gps_data WITH(table_type='lindorm.table',table_name='route_table',endpoint='ld-bp128rpk35sh1*-proxy-lindorm.lindorm.rds.aliyuncs.com:30020');参数说明如下:参数 是否必选 描述 table_type 是 表示将宽表...

通过Kafka写入数据

创建Topic./kafka-topics.sh-bootstrap-server地址>-topic log_topic-create#写入数据./kafka-console-producer.sh-bootstrap-server地址>-topic log_topic {"loglevel":"INFO","thread":"thread-1","class":"com.alibaba.stream.test",...

Rails应用

Buckets</h1><table class="table table-striped"><tr><th>Name</th><th>Location</th><th>CreationTime</th></tr>|bucket|%><tr><td>,bucket_objects_path(bucket.name)%></td><td><%= bucket.location %></td><td><%bucket.creation_...

日志实时入仓快速入门

CREATE TABLE IF NOT EXISTS holo.flink_test_db.sync_kafka_users WITH('connector'='hologres')AS TABLE kafka_users;说明 为了避免作业Failover后,作业重启将重复数据写入到Hologres中,您可以添加相关主键从而唯一地标识数据。当数据...

同步EMR Kafka数据至Hive

Hive的基础操作,请参见 Hive基础操作。配置Flume。进入Flume的配置页面。登录EMR on ECS控制台。在顶部菜单栏处,根据实际情况选择地域 和资源组。在 集群管理 页面,单击目标集群操作列的 集群服务。在 集群服务 页面,单击 FLUME 服务...

通过Kafka导入数据

database.server.name=test123#需要同步的数据库和表,默认是同步所有数据库和表 database.include.list=test table.include.list=test.test_table database.history.kafka.bootstrap.servers=localhost:9092#用于存储数据库表结构变化的 ...

Hudi

增加并发可以加快bootstrap阶段的效率,bootstrap阶段会阻塞checkpoint,因此需要设置多一些的checkpoint失败容忍次数。read.tasks 流和批读算子的并发。4 无。compaction.tasks online compaction算子的并发。4 online compaction比较耗费...

使用Kafka Connect将SQL Server数据同步至云消息队列 ...

前提条件 在开始本教程前,请确保您已完成以下操作:已下载SQL Server Source Connector。具体信息,请参见 SQL Server Source Connector。已下载Kafka Connect。具体信息,请参见 Kafka Connect。说明 SQL Server Source Connector目前只...

试用实例应用到生产环境指南

因此在您完成实例升配后,请按照以下步骤修改Shard数,更多相关操作请参见 Table Group与Shard Count操作指南。说明 下述操作步骤同样支持通过HoloWeb进行可视化操作,详情请参见 Table Group管理。新建Table Group并设置合适的Shard数。...

将时空数据写入宽表引擎

CREATE External Table gps_data WITH(table_type='lindorm.table',table_name='gps_data',endpoint='ld-bp128rpk35sh1*-proxy-lindorm.lindorm.rds.aliyuncs.com:30020');参数说明如下:参数 是否必选 描述 table_type 是 表示将宽表数据...

消息队列Kafka

CREATE TABLE AS(CTAS)的使用 仅Flink计算引擎vvr-4.0.12-flink-1.13及以上版本支持Kafka作为CREATE TABLE AS(CTAS)的同步数据源。仅支持JSON格式的类型推导和schema变更,其它数据格式暂不支持。仅支持Kafka中value部分的类型推导和表...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
号码认证服务 智能商业分析 Quick BI 数据库自治服务 运维安全中心(堡垒机) 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用