使用AAP进行访问控制

RAMRole:当您应用程序的运行环境是ECS实例、ACK集群或函数计算并绑定了RAM角色,且需要通过KMS服务Endpoint获取凭据值时,可使用本方式。KMS将通过访问控制RAM对OpenAPI请求者进行委托认证。使用应用接入点进行网络访问限制 AAP支持设置...

凭据JDBC客户端

支持的访问凭证:AccessKey、RAM角色、ECS RAM角色、STS、ClientKey 步骤一:创建访问凭证 重要 AccessKey、RAM角色、ECS RAM角色、STS仅支持通过KMS服务Endpoint获取凭据值,ClientKey既支持通过KMS服务Endpoint,也支持通过KMS实例...

网络开通流程

获取方式如下:连接HBase、Hadoop集群时:您可以在对应控制台的网络连接信息处获取该信息。其他情况:登录 专有网络管理控制台,在 专有网络 页面即可获取VPC ID。交换机 VPC网络绑定的交换机ID。获取方式如下:连接HBase、Hadoop集群时:...

初始化Client

获取实例Endpoint 创建实例后,您需要获取实例域名地址(Endpoint)用于后续通过Endpoint访问实例。Endpoint是阿里云 表格存储 服务各个实例的域名地址,例如 https://sun.cn-hangzhou.ots.aliyuncs.com ,表示使用HTTPS协议通过公网网络...

初始化OTSClient

获取 实例Endpoint 创建实例后,您需要获取实例域名地址(Endpoint)用于后续通过Endpoint访问实例。Endpoint是阿里云 表格存储 服务各个实例的域名地址,例如 https://sun.cn-hangzhou.ots.aliyuncs.com ,表示使用HTTPS协议通过公网网络...

初始化OTSClient

获取实例Endpoint 创建实例后,您需要获取实例域名地址(Endpoint)用于后续通过Endpoint访问实例。Endpoint是阿里云 表格存储 服务各个实例的域名地址,例如 https://sun.cn-hangzhou.ots.aliyuncs.com ,表示使用HTTPS协议通过公网网络...

初始化OTSClient

获取实例Endpoint 创建实例后,您需要获取实例域名地址(Endpoint)用于后续通过Endpoint访问实例。Endpoint是阿里云 表格存储 服务各个实例的域名地址,例如 https://sun.cn-hangzhou.ots.aliyuncs.com ,表示使用HTTPS协议通过公网网络...

初始化OTSClient

获取实例Endpoint 创建实例后,您需要获取实例域名地址(Endpoint)用于后续通过Endpoint访问实例。Endpoint是阿里云 表格存储 服务各个实例的域名地址,例如 https://sun.cn-hangzhou.ots.aliyuncs.com ,表示使用HTTPS协议通过公网网络...

通过Zipkin上报 .NET应用数据

在可观测链路 OpenTelemetry 版控制台获取Zipkin Endpoint,注意Endpoint中不包含“/api/v2/spans”。var httpSender=new HttpZipkinSender("http://tracing-analysis-dc-hz.aliyuncs.com/adapt_your_token","application/json");var tracer...

初始化OTSClient

获取实例Endpoint 创建实例后,您需要获取实例域名地址(Endpoint)用于后续通过Endpoint访问实例。Endpoint是阿里云 表格存储 服务各个实例的域名地址,例如 https://sun.cn-hangzhou.ots.aliyuncs.com ,表示使用HTTPS协议通过公网网络...

Endpoint

说明 通过MaxCompute服务动态获取到的Tunnel Endpoint包括长期可用Tunnel Endpoint和短期可用Tunnel Endpoint。短期可用Tunnel Endpoint是MaxCompute服务高可用能力的一部分,创建和销毁这类Endpoint是系统自动行为,请勿保存短期可用...

MaxCompute数据源

说明 AccessKey ID、AccessKey Secret和Endpoint获取方式,请参见 查看AccessKey和Endpoint。查看AccessKey和Endpoint 登录 DataWorks管理控制台。单击 AccessKey 管理,进入 AccessKey 页面。在 AccessKey ID 列,获取AccessKey ID。...

添加MaxCompute数据源

说明 AccessKey ID、AccessKey Secret和Endpoint获取方式,请参见 查看AccessKey和Endpoint。查看AccessKey和Endpoint 登录 DataWorks管理控制台。单击 AccessKey 管理,进入 AccessKey 页面。在 AccessKey ID 列,获取AccessKey ID。...

Hologres数据源

endpoint 包括经典网络、公网和VPC三种网络类型,请根据数据集成资源组和Hologres实例所在的网络环境选择正确的 endpoint 类型,否则会出现网络不通或者性能受限的情况:经典网络示例:instance-id-region-endpoint-internal.hologres....

获取存储空间信息

print('intranet_endpoint:'+bucket_info.intranet_endpoint)#获取Bucket外网Endpoint。print('extranet_endpoint '+bucket_info.extranet_endpoint)#获取拥有者信息。print('owner:'+bucket_info.owner.id)#获取Bucket读写权限ACL。print...

API概览

ListExecutionRiskyTasks 获取模版中的高风险任务 获取模版中的高风险任务。ValidateTemplateContent 校验一个模版是否合法 校验一个模版是否合法。执行 API 标题 API概述 DeleteExecutions 删除执行 删除执行。StartExecution 启动一个...

接入小程序

说明 请将以下代码中的 pid 和 endpoint 替换为控制台获取的当前应用对应的pid和endpoint地址。import ArmsRum from '@arms/rum-miniapp';ArmsRum.init({ pid:"your app id",endpoint:"your endpint"});设置安全域名。将当前应用对应的...

云消息队列 RocketMQ 版

公网服务MQ接入地址:在MQ控制台目标实例详情中,选择 接入点>TCP协议>客户端接入点>公网访问,获取对应的EndPoint。重要 由于阿里云网络安全策略动态变化,实时计算连接公网服务MQ时可能会出现网络连接问题,推荐您使用内网服务MQ。内网...

使用Hadoop作为元仓计算引擎进行元仓初始化

如何获取,请参见 DLF Region和Endpoint对照表。AccessKey ID、AccessKey Secret 填写集群所在账号的AccessKey ID和AccessKey Secret。您可在 用户信息管理 页面,获取账号的AccessKey ID和AccessKey Secret。元数据生产项目 参数 描述 ...

创建Hive数据源

如何获取,请参见 DLF Region和Endpoint对照表。AccessKey ID、AccessKey Secret 填写集群所在账号的AccessKey ID和AccessKey Secret。您可在 用户信息管理 页面,获取账号的AccessKey ID和AccessKey Secret。hive-site.xml 上传Hive的hive...

使用OSS加速器

} else if(objectName.startsWith("hot_data")){ endpoint=acclerator_oss_endpoint;} GetObjectRequest getObjectRequest=new GetObjectRequest(bucketName,objectName);如果不显式设置Endpoint,将使用ossclient初始化时设置的值。...

接入iOS App监控数据

credentials.endpoint="your endpoint;credentials.project="your project;credentials.accessKeyId="your access key id;credentials.accessKeySecret="your access key secret;credentials.instanceId="your instance id;[[SLSCocoa ...

MaxCompute如何访问Hologres

需配置以下配置项 spark.hadoop.odps.project.name=<MaxCompute_Project_Name>spark.hadoop.odps.end.point=<Endpoint>spark.hadoop.odps.runtime.end.point=<VPC_Endpoint>spark.hadoop.odps.access.id=<AccessKey_ID>spark.hadoop.odps....

lrb(列举地域级别下的Bucket)

您可以通过 lrb 命令获取单个或多个地域(Region)下存储空间(Bucket)的基本信息,包括Bucket的名称、创建时间、存储类型以及个数等。注意事项 要列举存储空间,您必须具有oss:ListBuckets权限。具体操作,请参见 为RAM用户授权自定义的...

基于OSS-HDFS构建数据湖

说明 原生OSS存储推荐使用OSS的内网Endpoint,以获得更好的访问性能,如您需要同Hologres、DLF跨Region交互,则需使用公网Endpoint,详情请参见 OSS访问域名使用规则。cn-hangzhou.oss-dls.aliyuncs.com 创建外部表并读写存储于OSS-HDFS上...

接入Android App监控数据

credentials.endpoint="your endpoint;credentials.project="your project;credentials.accessKeyId="your access key id;credentials.accessKeySecret="your access key secret;SLSAndroid.initialize(this,credentials,configuration->{/...

搭建Windows开发环境

spark.hadoop.odps.runtime.end.point=<VPC_endpoint>#Spark运行环境Endpoint,所在Region的MaxCompute VPC网络的Endpoint。您可以根据自己情况进行修改。spark 2.3.0请将spark.sql.catalogImplementation设置为odps,spark 2.4.5请将spark...

0015-00000101

获取临时访问凭证时endpoint使用了OSS域名。问题示例 访问not-exist这个不存在的Bucket中的某个文件,会报此错误。GET/test.jpg HTTP/1.1 Host: not-exist.oss-cn-hangzhou.aliyuncs.com Date: Fri,24 Feb 2012 06:38:30 GMT Authorization...

创建Foreign Server

说明 OSS Endpoint:可通过 访问域名和数据中心 获取。OSS-HDFS Endpoint:可以在OSS控制台中,已开通OSS-HDFS服务的Bucket 概览 页获取。单击 提交,完成Foreign Server的创建。Foreign Server相关操作 创建成功后,您可通过SQL语句对已...

通过OpenTelemetry上报Ruby应用数据

添加导出观测数据的组件,将<endpoint>替换成前提条件中获取的对应地域的Endpoint。require 'opentelemetry/sdk' require 'opentelemetry-exporter-otlp' OpenTelemetry:SDK.configure do|c|c.add_span_processor(OpenTelemetry:SDK:Trace:...

图片审核增强版接入指南

获取文件上传token if(uploadToken=null|uploadToken.expiration()/1000){ DescribeUploadTokenResponse tokenResponse=client.describeUploadToken();uploadToken=tokenResponse.getBody().getData();bucketName=uploadToken....

部署及微调Qwen-72B-Chat模型

请注意替换为使用服务的Endpoint和Token export API_ENDPOINT="<ENDPOINT>"export API_TOKEN="<TOKEN>"#查看模型list curl$API_ENDPOINT/v1/models \-H"Content-Type:application/json"\-H"Authorization:Bearer$API_TOKEN"#调用通用的文本...

DashVector+DashScope升级多模态检索

dashvector client client=Client(api_key='{your-dashvector-api-key}',endpoint='{your-dashvector-cluster-endpoint}')#获取上述入库的集合 collection=client.get('imagenet1k_val_embedding')#获取文本 query 的 Embedding 向量 input...

DashVector+DashScope升级多模态检索

dashvector client client=Client(api_key='{your-dashvector-api-key}',endpoint='{your-dashvector-cluster-endpoint}')#获取上述入库的集合 collection=client.get('imagenet1k_val_embedding')#获取文本 query 的 Embedding 向量 input...

使用Java SDK管理投递任务

已从MaxCompute获取对应地域的MaxCompute Endpoint。更多信息,请参见 各地域Endpoint对照表(阿里云VPC网络连接方式)。创建或更新MaxCompute投递任务时,您需要配置MaxCompute Endpoint。注意事项 本示例以华东1(杭州)的公网Endpoint为...

访问域名和数据中心

公共云下OSS Region和Endpoint对照表 重要 使用OSS的公共云内网Endpoint时,必须使用阿里云的云上私网DNS地址(100.100.2.136和100.100.2.138),否则可能获取不到正确的内网Endpoint对应的VIP地址,导致您无法访问OSS。公共云下OSS各地域...

迁移服务(MMA)

步骤一:安装UDTF 使用MaxCompute迁移功能时,需要在Hive服务器上安装UDTF(Unified Data Transfer Service)并自定义Hive UDTF函数,利用Hive UDTF函数来获取、转换、上传数据到MaxCompute,以实现复杂数据的迁移。关于Hive UDTF详情,请...

Iceberg

oss.endpoint 阿里云对象存储服务OSS的Endpoint String 否 无 请详情参见 访问域名和数据中心。说明 推荐您为 oss.endpoint 参数配置OSS的VPC Endpoint。例如,如果您选择的地域为cn-hangzhou地域,则 oss.endpoint 需要配置为oss-...

基于Flink创建MaxCompute Paimon外表

'maxcompute.endpoint'='<maxcomputeendpoint>','maxcompute.accessid'='<maxcompute access id>','maxcompute.accesskey'='<maxcompute access key>','maxcompute.project'='<maxcompute project>','maxcompute.oss.endpoint'='<maxcompute oss...

部署弹性伸缩的Kohya训练服务

sinkQueue=QueueClient(endpoint,sink_name)sinkQueue.set_token(token)sinkQueue.init()其中:endpoint:替换为上述步骤已获取的服务访问地址。token:替换为上述步骤已获取的服务Token。input_name:配置为弹性Job服务名称。向输入队列...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云监控 机器翻译 弹性公网IP 短信服务 人工智能平台 PAI 金融分布式架构
新人特惠 爆款特惠 最新活动 免费试用