使用DBLink跨库查询数据

PolarDB PostgreSQL版(兼容Oracle)提供了DBLink功能,您可以通过DBLink功能实现跨库查询数据。本文介绍如何通过DBLink跨库查询数据。前提条件 已创建源集群和目标集群。具体操作,请参见 创建PolarDB PostgreSQL版(兼容Oracle)集群。...

CREATE[PUBLIC]DATABASE LINK

语法 CREATE[PUBLIC]DATABASE LINK<name>CONNECT TO { CURRENT_USER|<username>IDENTIFIED BY"<password>"} USING {()|'<oracle_connection_string>' } 参数说明 参数 说明 PUBLIC 创建任何用户都可以使用的公共数据库连接。如果省略此参数...

PolarDB PostgreSQL版(Oracle语法兼容1.0)

本文为您介绍如何使用PolarDB PostgreSQL版(Oracle语法兼容1.0)连接器。背景信息 PolarDB PostgreSQL版(兼容Oracle)是阿里巴巴自研的新一代 云原生数据库,在存储计算分离架构下,利用了软硬件结合的优势,为您提供具备极致弹性、高...

执行在线评估

连接类型 仅选择评估模式为 Oracle>>OceanBase Oracle Mode 时,需要配置该参数。连接类型包括 SERVICE-NAME 和 SID,请根据业务需求选择,并输入连接名称。连接名称 备注(可选)数据源的备注信息。单击 测试连通性,验证 OMA 和数据源的...

PolarDB PostgreSQL版(兼容Oracle)迁移至自建Oracle

通过使用数据传输服务DTS(Data Transmission Service),您可以实现 PolarDB PostgreSQL版(兼容Oracle)集群迁移至自建Oracle。前提条件 已创建源 PolarDB PostgreSQL版(兼容Oracle)集群,详情请参见 创建PolarDB PostgreSQL版(兼容...

账号相关操作

登录连接串 用于建立应用程序与 OceanBase 数据库之间连接的字符串,从而能够执行各种数据库操作,如查询、插入和更新数据。备注 备注长度不能超过 30 个字符,单击编辑图标可修改备注。操作 锁定:锁定账号后将暂时不能使用关联数据库,...

配置连接

连接器名称 配置文件 hive-hadoop2 hive.properties kudu kudu.properties mysql mysql.properties iceberg iceberg.properties hudi hudi.properties delta delta.properties jmx jmx.properties 示例:修改Hive连接器 在EMR控制台的...

2021年

2021-12 功能名称 功能描述 发布时间 发布地域 相关文档 支持向导式开通MaxCompute到VPC中Hadoop Hive 和数据湖构建DLF+OSS的连接 支持一站式创建到VPC的网络连接、数据源连接以及湖仓一体外部项目,代替原有的工单开通方式,时间从天级别...

快速入门

快速入门旨在介绍如何创建 PolarDB PostgreSQL版(兼容Oracle)集群、进行基本设置以及连接数据库集群,使您能够了解从购买 PolarDB PostgreSQL版(兼容Oracle)到开始使用的流程。使用流程 通常,从购买 PolarDB PostgreSQL版(兼容Oracle...

搭建Hadoop环境

sudo sh-c 'echo"export JAVA_HOME=usr/java8">>/opt/hadoop/etc/hadoop/yarn-env.sh' sudo sh-c 'echo"export JAVA_HOME=usr/java8">>/opt/hadoop/etc/hadoop/hadoop-env.sh' 执行以下命令,测试Hadoop是否安装成功。hadoop version 返回...

Hive Metastore使用加密文件访问RDS

Hadoop集群类型 操作 Key Value 说明 修改 javax.jdo.option.ConnectionPassword 设置为空 表示连接Hive Metastore时不需要提供密码。新增 hadoop.security.credential.provider.path jceks:/file/etc/ecm/hive-conf/hive.jceks 用于指定...

创建Hadoop计算源

Hadoop计算源用于绑定Dataphin项目空间与Hadoop项目,为Dataphin项目提供处理离线计算任务的计算源。如果Dataphin系统的计算引擎设置为Hadoop,则只有项目空间添加了Hadoop计算源,才支持规范建模、即席查询、Hive任务、通用脚本等功能。...

MySQL连接

背景信息 本文为您介绍MySQL连接器相关的内容和操作,具体如下:配置MySQL连接器 类型映射 示例:查询MySQL 下推(Pushdown)前提条件 已创建DataLake集群或Hadoop集群,并选择了Presto服务,或者创建单独的Presto集群,详情请参见 创建...

数据库采集

Oracle 10g collect_10g[.sh|.bat]-h-u-p-d<service_name>Oracle 11g Oracle 11g R1 collect_11gR1[.sh|.bat]-h-u-p-d<service_name>Oracle 11g R2 collect_11gR2[.sh|.bat]-h-u-p-d<service_name>Oracle 12c 18c 19c 说明 针对Oracle 12c...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

Jindo DistCp场景化使用指导

说明 如您在开源Hadoop集群环境中使用LZO压缩功能,则您需要安装gplcompression的native库和hadoop-lzo包,场景十:如果需要把本次Copy中符合特定规则或者同一个父目录下的部分子目录作为Copy对象,该使用哪些参数?如果您需要将Copy列表中...

获取连接参数

当以云部署的方式连接 OceanBase 数据库时,每个租户都有独立的数据库连接地址和端口等参数信息,可以登录 OceanBase 控制台获取。背景信息 以 OBClient 客户端为例,连接数据库命令行为$obclient-hxxx.xxx.xxx.xxx-P3306-ua*-p*-Dtest ...

访问Hive数据源

spark.hadoop.javax.jdo.option.ConnectionDriverName 是 连接驱动程序名称。登录EMR on ECS控制台,在 集群服务 页面的Hive配置中查看 hivemetastore-site.xml 中的 javax.jdo.option.ConnectionDriverName 对应的配置值。spark.hadoop....

测试方法

在DLA Spark上运行测试程序 说明 通过DLA Spark访问自建Hadoop集群需要配置打通VPC网络,具体DLA Spark连接VPC网络下的HDFS相关参数的含义和配置步骤,请参见 Hadoop。登录 Data Lake Analytics管理控制台,在 Serverless Spark>作业管理 ...

通过HDP 2.6 Hadoop读取和写入OSS数据

client/hadoop-aliyun-2.7.3.2.6.1.0-129.jar hadoop/share/hadoop/tools/lib/sudo cp/usr/hdp/current/hadoop-client/lib/aliyun-*hadoop/share/hadoop/tools/lib/sudo cp/usr/hdp/current/hadoop-client/lib/jdom-1.1.jar hadoop/share/...

Dataphin集成任务同步失败报错:"Operation category ...

问题描述 Dataphin集成任务运行失败...06],Description:[与HDFS建立连接时出现IO异常.].-org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException):Operation category READ is not supported in state standby.Visit ...

银泰商业

PolarDB PostgreSQL版(兼容Oracle)具有容量大、高性价比、分钟级弹性、读一致性、毫秒级延迟(物理复制)、无锁备份等优点,为您解决业务上的难点和痛点。本文介绍银泰商务如何通过 PolarDB PostgreSQL版(兼容Oracle)解决自身业务上的...

Hive连接

使用Hive连接器可以查询和分析存储在Hive数据仓库中的数据。本文为您介绍Hive连接器相关的内容和操作。背景信息 Hive数仓系统由以下三部分内容组成:不同格式的数据文件,通常存储在Hadoop分布式文件系统(HDFS)或对象存储系统(例如,...

通过CDH5 Hadoop读取和写入OSS数据

CDH(Cloudera's Distribution,including Apache Hadoop)是众多Hadoop发行版本中的一种,最新版本CDH6.0.1中的Hadoop3.0.0版本已经支持OSS,但CDH5中的Hadoop2.6版本不支持OSS。本文介绍如何配置CDH5支持OSS读写。前提条件 拥有一个已搭建...

高度兼容性

PolarDB PostgreSQL版(兼容Oracle)提供全面的Oracle语法兼容性,采用share everything架构,与Oracle保持一致文件组织架构与多版本并发控制,提供常用Oracle语法支持及Oracle常用特性支持以及OCI原生接口,全面支持助力一键从Oracle迁移...

作业配置指南

参数名称 默认值 参数说明 spark.dla.connectors 无 启用DLA Spark内置的连接器,连接器名称以逗号隔开,目前可选的连接器有 oss、hbase1.x、tablestore。spark.hadoop.job.oss.fileoutputcommitter.enable false 开启parquet格式写入优化...

Hadoop Streaming

hadoop jar/usr/lib/hadoop-current/share/hadoop/tools/lib/hadoop-streaming-X.X.X.jar-file/home/hadoop/mapper.py-mapper mapper.py-file/home/hadoop/reducer.py-reducer reducer.py-input/tmp/hosts-output/tmp/output 参数 描述 ...

作业配置说明

如果为OSS路径,您需要配置对应的配置项,包括:spark.hadoop.fs.oss.endpoint、spark.hadoop.fs.oss.accessKeyId、spark.hadoop.fs.oss.accessKeySecretspark.hadoop.fs.oss.impl。重要 通过JDBC方式连接计算引擎时,JAR包仅支持上传至...

读写分离

PolarDB PostgreSQL版(兼容Oracle)集群自带读写分离功能。应用程序只需连接一个集群地址,写请求会自动发往主节点,读请求会自动根据各节点的负载(当前未完成的请求数)发往主节点或只读节点。功能优势 统一读写分离地址,方便维护。您...

Hive

thrift:/${ip}:${port},thrift:/${ip}:${port}","spark.hadoop.dfs.nameservices":"{您的nameservices名称}","spark.hadoop.dfs.client.failover.proxy.provider.${nameservices}":"{您的failover proxy provider实现类全路径名称}",...

Python内置资源包

使用示例 Hadoop计算引擎 通常在非Dataphin环境下,需要通过安装PyHive后,使用 import 导入 hive 包来连接操作Hive。示例代码如下:#加载包 from pyhive import hive#建立连接 conn=hive.connect(host='100.100.*.100',#HiveServer port=...

Python内置资源包

使用示例 Hadoop计算引擎 通常在非Dataphin环境下,需要通过安装PyHive后,使用 import 导入 hive 包来连接操作Hive。示例代码如下:#加载包 from pyhive import hive#建立连接 conn=hive.connect(host='100.100.*.100',#HiveServer port=...

产品介绍

PolarDB PostgreSQL版(兼容Oracle)高度兼容Oracle语法,包括Oracle数据库用户常用的内置数据类型、内置存储过程语法、常用系统视图,重要特性DBLINK、分区表和分区索引等特性,配合ADAM智能评估工具助力企业智能存量Oracle数据库业务迁移...

Hadoop使用JindoSDK访问OSS-HDFS服务

vim/etc/profile export HADOOP_HOME=usr/local/hadoop export PATH=$HADOOP_HOME/bin:$PATH source/etc/profile 更新Hadoop配置文件中的 HADOOP_HOME。cd$HADOOP_HOME vim etc/hadoop/hadoop-env.sh 将${JAVA_HOME} 替换为实际路径。...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
物联网无线连接服务 开源大数据平台 E-MapReduce 云原生数据仓库 AnalyticDB PostgreSQL版 VPN网关 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用