Druid连接池配置

UseCount:0,#连接被获取使用的次数,所有UseCount加起来等于上面的ConnectCount LastActiveTime:"2022-06-01 15:28:11"#连接最后被取出来使用的时间,未使用等于ConnectTime },{ID:1263877414,ConnectTime:"2022-06-01 15:28:11",UseCount:...

DST 埋点上报

分布式链路跟踪 DST 的服务端目前已不提供服务,使用实时监控 RMS 的分布式链路服务代替。埋点上报依然使用 SOFATracer 里的 DST 上报插件。操作步骤 引入依赖。您需要在工程中引入 SOFATracer 依赖:<dependency><groupId>...

Routine Load

创建导入任务 语法 CREATE ROUTINE LOAD<database>.<job_name>ON[COLUMNS TERMINATED BY"column_separator",][COLUMNS(col1,col2,.),][WHERE where_condition,][PARTITION(part1,part2,.)][PROPERTIES("key"="value",.)]FROM[DATA_SOURCE]...

私密配置项

LABEL}.properties)中的环境变量占位符使用环境变量中的值替换,从而变成私密配置项中配置的值 perl-pe 's/\$\{(.*)}/$ENV{$1}/e'${PACKAGE_LABEL}.properties>config/application.properties/打印出生成的配置文件的内容,用于调试。...

手动集成Ranger Kafka插件

当E-MapReduce(简称EMR)的DataFlow集群没有安装Ranger Kafka插件,或当前集群中的Ranger Kafka插件版本与实际使用的Ranger服务不兼容时,您需要进行手动集成。本文介绍如何手动安装Ranger Kafka插件以及配置生效Ranger Kafka插件。前提...

ACM Java Native SDK概述

您可以使用ACM Java Native SDK来获取、监听、发布和删除配置。添加依赖 在 pom.xml 文件中添加以下依赖,即可开始使用ACM Java Native SDK。groupId>...

开发HSF应用(Pandora Boot)

如果注解和 resources/application.properties 文件中都没有配置,则会使用注解中的默认值。在 resources 目录下的 application.properties 文件中配置应用名和监听端口号。spring.application.name=hsf-pandora-boot-provider server.port...

开发HSF应用(Pandora Boot)

如果注解和 resources/application.properties 文件中都没有配置,则会使用注解中的默认值。在 resources 目录下的 application.properties 文件中配置应用名和监听端口号。spring.application.name=hsf-pandora-boot-provider server.port...

MQTT协议规范

使用MQTT协议,消息发送者与接收者不受时间和空间的限制。物联网平台支持设备使用MQTT协议接入。支持版本 目前物联网平台支持MQTT标准协议接入,兼容5.0、3.1.1和3.1版本协议,具体的协议请参见 MQTT 5.0、MQTT 3.1.1 和 MQTT 3.1 协议文档...

支持的示例查询模板

SELECT resource_id,resource_name,properties->>'Status' AS"实例状态",properties->>'InstanceNetworkType' AS"网络类型",properties->>'Memory' AS"内存",properties->>'Cpu' AS Cpu,properties->>'InstanceType' AS"规格",CASE ...

模块激活

可部署模块指的是使用 spring-boot-maven-plugin 打包出 fat jar 的模块,例如 SOFABoot Web 工程中的 Web 模块。各个模块自己的 sofa-module.properties 文件。更多详情,参见 模块配置文件。模块激活 激活步骤 模块通过配置文件进行激活...

通过RAM角色实现跨云账号授权

STS Token配置示例 初始化 云消息队列 RocketMQ 版 的客户端时,您只需将获取到的AccessKey ID、AccessKey Secret和SecurityToken填入到以下属性中即可:Properties properties=new Properties();请确保环境变量ALIBABA_CLOUD_ACCESS_KEY_...

Hive连接器

使用Hive连接器可以查询和分析存储在Hive数据仓库中的数据。本文为您介绍Hive连接器相关的内容和操作。背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储在Hadoop分布式文件系统(HDFS)或对象存储系统(例如,...

Nacos Client访问鉴权

本文介绍如何在MSE上为Nacos实例配置鉴权访问以及如何使用Nacos Client进行鉴权访问。前提条件 开通MSE。创建Nacos引擎。访问方式 本文使用 引擎直连链路 的方式配置鉴权访问。授权成功后,Nacos Client可以通过RAM用户或RAM角色访问MSE的...

Nacos Client访问鉴权

本文介绍如何在MSE上为Nacos实例配置鉴权访问以及如何使用Nacos Client进行鉴权访问。前提条件 开通MSE。创建Nacos引擎。访问方式 本文使用 引擎直连链路 的方式配置鉴权访问。授权成功后,Nacos Client可以通过RAM用户或RAM角色访问MSE的...

示例代码

Serverless版实例公网访问版本说明 Serverless版实例使用公网访问接入 云消息队列 RocketMQ 版 时,需要保证使用的Java ONS 1.x SDK版本为1.9.0.Final及以上版本,并在消息收发代码中补充如下内容:properties.setProperty...

使用Kafka连接器进行Kerberos认证

CREATE TEMPORARY TABLE kafka_kerberos(.)WITH('connector'='kafka',/必须使用Kafka在Kerberos中注册的域名 'properties.bootstrap.servers'='broker1.example.com:9092',/本文以SASL_PLAINTEXT为例 'properties.security.protocol'='SASL...

常见问题

可以从sdk.properties配置文件中查看节点信息,然后使用telnet命令判断网络是否连通。其次检查sdk.properties配置文件中关于私钥、证书、trust.keystore等文件的路径配置是否正确。Windows下怎么创建私钥和证书请求?答:Windows环境下使用...

通过外表导入至数仓版

创建HDFS外表 创建文件格式为CSV的外表 语句如下:CREATE TABLE IF NOT EXISTS hdfs_import_test_external_table(uid string,other string)ENGINE='HDFS' TABLE_PROPERTIES='{"format":"csv","delimiter":",","hdfs_url":"hdfs:/172.17.*.*...

通过外表导入至数仓版

详情请参见 AnalyticDB MySQL数仓版(3.0)使用流程。AnalyticDB MySQL 数仓版(3.0)弹性模式集群,您需要在 集群信息 页面的 网络信息 区域,打开启用 ENI网络 的开关。示例数据说明 本示例将 oss_import_test_data.csv 文件上传至OSS中...

导出至MaxCompute

project_name":"test","table_name":"odps_table","partition_column":"ds"}' 参数 说明 ENGINE=’ODPS’表示该表是外部表,使用的存储引擎是MaxCompute。TABLE_PROPERTIES 用于告知 AnalyticDB MySQL版 如何访问MaxCompute,并向其写入...

导入数据并查询

说明 TABLE_PROPERTIES 中的 partition_column 属性必须声明分区列(本例中的p1、p2、p3)且 partition_column 属性里必须严格按照第1级、第2级、第3级的顺序声明(本例中p1为第1级分区,p2为第2级分区,p3为第3级分区)。列定义中必须定义...

实例化支持

本文提供相关更新说明,帮助您更顺畅地使用 云消息队列 RocketMQ 版。说明 为兼容新老资源配置,建议您将ons-client客户端升级到最新版本。资源隔离优化(实例化支持)云消息队列 RocketMQ 版 开放实例化功能,解决多租户之间的隔离问题,...

使用Java JDBC接口的应用开发

本文介绍通过Java语言的标准JDBC接口使用SQL开发Lindorm宽表应用的方法和示例。前提条件 已安装Java环境,要求安装JDK 1.8及以上版本。已将客户端IP地址添加至Lindorm白名单,具体操作请参见 设置白名单。使用限制 本文操作仅适用于Lindorm...

基于Java JDBC接口的应用开发

本文介绍通过Java语言的标准JDBC接口使用SQL开发Lindorm宽表应用的方法和示例。前提条件 已安装Java环境,要求安装JDK 1.8及以上版本。已将客户端IP地址添加至Lindorm白名单,具体操作请参见 设置白名单。使用限制 本文操作仅适用于Lindorm...

打印UDF日志

执行SQL时使用set语句进行设置 set odps.user.properties.mylogger.debug=true;调试代码 您可以在本地使用以下代码测试上述Logger类和UDF的执行结果是否符合预期,具体如下:测试代码1:执行结果中只打印INFO信息和报错栈信息,不打印DEBUG...

SOFAArk 升级 2.0

升级版本时,您只需要将如下配置:<properties><sofa.ark.version>1.1.6</sofa.ark.version></properties>改为:<properties><sofa.ark.version>2.0.0</sofa.ark.version></properties>打包插件 在 SOFAArk 1.0 中使用 sofa-ark-maven-...

Flink Connector

则可以考虑使用JSON格式,但是会有一定的性能损失,使用方法:用以下参数替换flink.starrocks.sink.properties.column_separator和flink.starrocks.sink.properties.row_delimiter参数。flink.starrocks.sink.properties.strip_outer_array...

常见问题

本文汇总了Spark使用时的常见问题。Spark Core 在哪里可以查看Spark历史作业?是否支持Standalone模式提交Spark作业?如何减少Spark2命令行工具的日志输出?Spark SQL 如何使用Spark3的小文件合并功能?如何处理SparkSQL数据倾斜?PySpark ...

Flink Connector

ms'='5000',"+"'sink.properties.column_separator'='\\x01',"+"'sink.properties.row_delimiter'='\\x02',"+"'sink.max-retries'='3'"+"'sink.properties.*'='xxx'"+stream load properties like `'sink.properties.columns'='k1,v1'`")")...

Nacos Spring

本文说明如何使用 Nacos Spring SDK 管理 ACM 配置。前提条件 登录 ACM控制台,并创建一个示例配置。Data ID:com.alibaba.nacos.example.properties Group:不填写,即使用默认的 DEFAULT_GROUP。配置格式:Properties 配置内容:...

单机部署

job.cfg配置的数据迁移任务,包括启动、迁移、校验、重试├─logs#日志目录└─README.md#说明文档,强烈建议使用前仔细阅读 根据需求编辑 conf/sys.properties、conf/local_job.cfg 文件。注意不要修改以下内容:conf/sys.properties 中的...

订阅关系一致

消费者 1-1:Properties properties=new Properties();properties.put(PropertyKeyConst.GROUP_ID,"GID_jodie_test_1");Consumer consumer=OMS.builder().driver("sofamq").createConsumer(properties);consumer.subscribe("jodie_test_A",...

alicloud_ecd_custom_properties

This data source provides the Ecd Custom Properties of the current Alibaba Cloud user.->NOTE:Available in v1.176.0+.Example Usage Basic Usage data"alicloud_ecd_custom_properties""ids"{ ids=["example_id"]} output"ecd_custom...

ListResourceTypes-列举资源类型

updateOnlyProperties":["/properties/DryRun"],"getOnlyProperties":["/properties/DryRun"],"listOnlyProperties":["/properties/DryRun"],"deleteOnlyProperties":["/properties/ForceDelete"],"getResponseProperties":["/properties...

增加列和列属性

varray_col_properties }[nested_table_col_properties|LOB_storage_clause|varray_col_properties].[(SUBPARTITION subpartition { nested_table_col_properties|LOB_storage_clause|varray_col_properties }[nested_table_col_properties...

GetResourceType-查询资源类型的详情

["/properties/DryRun"],"getOnlyProperties":["/properties/DryRun"],"listOnlyProperties":["/properties/DryRun"],"deleteOnlyProperties":["/properties/ForceDelete"],"getResponseProperties":["/properties/NetworkInterfaces/items...

Hudi数据源

创建Hudi Catalog 语法 ​ CREATE EXTERNAL CATALOG<catalog_name>PROPERTIES("key"="value",.);参数说明 catalog_name:Hudi Catalog的名称,必选参数。命名要求如下:必须由字母(a~z或A~Z)、数字(0~9)或下划线(_)组成,且只能以...

Hive数据源

创建Hive Catalog 语法 ​ CREATE EXTERNAL CATALOG<catalog_name>PROPERTIES("key"="value",.);参数说明 catalog_name:Hive Catalog的名称,必选参数。命名要求如下:必须由字母(a~z或A~Z)、数字(0~9)或下划线(_)组成,并且只能以...

Hudi数据源

DLF 使用DLF查看数据源,详情请参见 使用DLF元数据。示例 以下示例创建了一个名为 hudi_catalog 的Hudi Catalog。CREATE EXTERNAL CATALOG hudi_catalog PROPERTIES("type"="hudi","hudi.catalog.uris"="thrift:/xx.xx.xx.xx:9083");查看...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
对象存储 共享流量包 轻量应用服务器 数字证书管理服务(原SSL证书) 短信服务 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用