功能特性

通过DataX导入数据 OSS Load 云数据库 SelectDB 版结合OSS对象存储提供了内网高速导入功能,且单次导入数据量可达百GB级别。本文介绍如何通过OSS Load导入数据至云数据库 SelectDB 版实例中。OSS Load Stream Load 本文介绍如何通过Stream ...

概述

大部分阿里云用户以CSV格式将数据存储在OSS上,若要提高数据扫描性能,需要借助第三方工具对文件进行格式转换,然后将转换后的数据上传至OSS,整个过程比较繁琐。为减轻用户工作量,您可以直接使用DLA来转换文件格式。假设将1.2GB的数据以...

概述

您可以调用存储过程 dbms_oss.delete_table_file 进行删除。详情请参见 删除OSS上对应的文件。联系我们 若您对冷数据归档功能有任何问题,可通过钉钉搜索群号入群咨询。您可以直接@群内专家,并附上您要咨询的问题;同时群内也有 PolarDB ...

从OSS导入数据

您可以通过表引擎或表函数将数据从OSS中导入至 云数据库ClickHouse,实现日志查询分析和加工等操作。本文介绍如何将OSS数据导入至 云数据库ClickHouse。前提条件 已开通OSS服务。如何开通,请参见 开通OSS服务。已创建存储空间(Bucket),...

COPY

说明 PSQL客户端支持使用STDIN导入数据,HoloWeb暂不支持使用命令行方式通过STDIN导入CSV格式的文件。导入本地文件至Hologres,命令如下。psql-U<username>-p<port>-h<endpoint>-d<databasename>-c"COPY<table>FROM STDIN WITH DELIMITER '...

通过历史数据启动实例

历史数据导入MaxCompute 历史数据导入MaxCompute的步骤,此处以导入csv格式的历史数据为例,如需其他方式可参考MaxCompute官方文档 用MaxCompute上传CSV文件格式的历史数据 如果您有CSV格式的历史数据需要导入,可以参考如下步骤:1、创建...

存储空间标签

您可以通过存储空间(Bucket)的标签功能,对Bucket进行分类管理,例如ListBucket时只显示带有指定标签的Bucket。注意事项 本文以华东1(杭州)外网Endpoint为例。如果您希望通过与OSS同地域的其他阿里云产品访问OSS,请使用内网Endpoint。...

OSS有哪些批量操作?

您可以通过 存储空间清单 筛选出符合您预期的文件清单,然后再使用以下方法批量下载。您可以使用以下方法,批量下载文件:ossutil工具 使用ossutil工具的 cp 命令,结合-r(-recursive)选项,将指定文件目录内的文件批量下载到本地。详情...

文件分析

示例 读取并访问HDFS存储上的CSV格式文件:MySQL[(none)]>SELECT*FROM hdfs("uri"="hdfs:/127.0.0.1:842/user/doris/csv_format_test/student.csv","fs.defaultFS"="hdfs:/127.0.0.1:8424","hadoop.username"="doris","format"="csv");...

功能特性

玄武分析型存储 AnalyticDB for MySQL数据湖存储 Hudi存储 OLTP数据源、日志数据源均可以通过AnalyticDB for MySQL导入至OSS并以Hudi格式存储导入后可使用XIHE或Spark引擎进行后续分析。Hudi存储 数据导入与导出 功能集 功能 功能描述 ...

通过外表导入至数仓版

本文介绍如何通过外表查询OSS数据文件,并将OSS中的数据文件导入 AnalyticDB MySQL 数仓版(3.0)。目前支持的OSS数据文件格式有Parquet、CSV和ORC。前提条件 已开通OSS服务并创建存储空间和项目。具体操作,请参见 开通OSS服务、控制台...

0014-00000044

问题描述 PutBucketLifecycle请求的请求体XML中通过 Transition 节点指定的存储类型不合法。问题原因 您发起了PutBucketLifecycle请求,但是请求体XML中通过 Transition 节点指定的存储类型与该接口支持转换的存储类型不相符。问题示例 ...

功能概述

表格存储 面向海量结构化数据提供Serverless表存储服务,适用于海量账单、IM消息、物联网、车联网、风控、推荐等场景中的结构化数据存储,提供海量数据低成本存储、毫秒级的在线数据查询和检索以及灵活的数据分析能力。基本概念 在使用 ...

create_external_store

通过CLI关联本地CSV文件外部数据源 创建 external_store_config_local.json 文件,用于指定关联本地CSV外部数据源,其内容示例如下:{"externalStoreName":"doctest-local-csvfile","storeType":"csv","parameter":{"endpoint":...

安全合规概述

阿里云表格存储Tablestore具有丰富的安全防护能力,通过多项合规认证,支持服务器端加密、数据传输加密、细粒度权限管控、日志审计、数据监控等特性。表格存储为您的云端数据安全进行全方位的保驾护航,并满足您企业数据的安全与合规要求。...

获取存储空间的地域信息

当您在多个地域创建了大量存储空间(Bucket)时,您可以通过指定存储空间名称的方式,快速获取该存储空间所属的地域信息。使用场景 数据访问优化:了解Bucket所在地域有助于确定最优的数据访问路径。例如,如果您的应用部署在同一地域或...

用户验证

表格存储通过对称签名的方法来验证某个请求是其拥有者发送,以及应答是表格存储所发送。当用户在阿里云注册账号之后,可以在AccessKey控制台上创建AccessKey。AccessKey ID用来标识用户,AccessKey Secret是对请求和响应进行签名和验证的...

简介

日志服务提供外部存储功能,可用于日志服务与MySQL数据库、阿里云对象存储OSS、托管的CSV文件进行关联。本文介绍日志服务外部存储功能的应用场景、功能优势等信息。应用场景 在日志分析场景中,您可能经常遇到数据分散存储的问题,例如用户...

导入中特殊符号处理

AnalyticDB PostgreSQL版 支持多种数据导入方法,在通过OSS高速并行导入通过\COPY命令导入数据的过程中,经常因为存在特殊字符导致导入失败。本文将介绍预先处理导入数据中的特殊字符的方法,从而消除特殊字符带来的问题。更多导入数据到...

产品优势

本文介绍了 表格存储 的优势,包括多模型数据存储、多元化数据索引、多计算生态接入、访问安全性等。多模型数据存储 表格存储 支持宽表(WideColumn)模型、时序(TimeSeries)模型、消息(Timeline)等多种数据存储模型,能实现多种类型...

控制台上传

智能媒体服务控制台提供本地上传、URL拉取和OSS导入的媒资上传方式,可以快速便捷地将媒资上传到智能媒体服务系统中。通过阅读本文,您可以了解控制台上传媒资的方法。前提条件 您已经了解支持上传的文件格式,详情请参见 支持上传的文件...

从OSS导入数据

图数据库GDB导入程序检查参数无误后,将返回导入任务ID loadId,示例如下:{"status":"200 OK","payload":{"loadId":"552617AF-4F1E-4CD8-9533-*"} } 成功上传后,您可以通过 loadId 查看导入任务的任务状态,示例如下:curl-u gdb_user:...

常见问题

本文列举了阿里云 表格存储 的常见问题,帮助您快速了解 表格存储。一般性常见问题 什么是 表格存储?表格存储 面向海量结构化数据提供Serverless表存储服务,同时针对物联网场景深度优化提供一站式的IoTstore解决方案。适用于海量账单、IM...

0014-00000045

问题描述 ...取值如下:IA:低频访问 Archive:归档存储 ColdArchive:冷归档存储 DeepColdArchive:深度冷归档存储 通过OSS管理控制台配置生命周期规则,避免手动构造请求体。相关文档 PutBucketLifecycle 生命周期规则介绍

表格存储

表格存储(Tablestore)是阿里云自研的结构化数据存储,提供海量结构化数据存储以及快速的查询和分析服务。表格存储提供兼容HBase的WideColumn模型、消息模型Timeline以及时空模型Timestream,实现PB级存储、千万TPS以及毫秒级延迟的服务...

0014-00000009

取值如下:IA:低频访问 Archive:归档存储 ColdArchive:冷归档存储 DeepColdArchive:深度冷归档存储 通过 Amazon S3 兼容的SDK发起请求。通过OSS管理控制台配置生命周期规则,避免手动构造请求体。相关文档 PutBucketLifecycle 使用...

如何批量创建/导出账号?

4、部门创建:账号导入过程中可批量创建多级子部门,子部门层级创建关系,需要按照 A/B/C 的格式填写部门(如:云邮箱/开发/开发工程师),相关人员批量创建到指定部门。5、若导入的账号需要在主部门(一级部门下面)导入CSV表格中,部门...

SQL查询

通过SQL查询功能,您可以对表格存储中数据进行复杂的查询和高效的分析。SQL查询在车联网场景中作为不同类型数据的统一查询接口。说明 关于SQL查询的更多信息,请参见 SQL查询。概述 SQL查询兼容MySQL的查询语法,同时提供基础的SQL DDL建表...

Stream Load

本文介绍如何通过Stream Load导入数据至 云数据库 SelectDB 版 实例中。背景信息 Stream Load 是属于同步接口的导入方式,用户通过发送HTTP请求将本地文件或数据流导入到 云数据库 SelectDB 版 实例中。Stream load执行并返回导入结果,...

数据导入概述

Quick Audience接入数据源后,您就可以将要导入的数据表存储在计算源,然后在Quick Audience声明数据表的表结构,执行调度任务,将表中的数据导入到Quick Audience,准备用于后续的分析、应用。数据导入流程 进行 ID类型管理,设置Quick ...

OSS Load

云数据库 SelectDB 版 结合OSS对象存储提供了内网高速导入功能,且单次导入数据量可达百GB级别。本文介绍如何通过OSS Load导入数据至 云数据库 SelectDB 版 实例中。前提条件 已获取AccessKey信息。具体操作,请参见 创建AccessKey。已开通...

通过存储网关挂载OSS

通过存储网关挂载OSS,您可以将OSS映射为一个共享的文件存储系统,实现多个用户在不同地点和设备上共享访问OSS数据。挂载完成后,您可以像使用本地文件夹和磁盘一样操作OSS资源。前提条件 已开通 云存储网关服务,并授予访问OSS、ECS及...

备份下载的常见问题

通过数据传输服务DTS将 本地数据库迁移到新的RDS实例 上,或者使用RDS MySQL的 全量备份导入功能,将对象存储OSS中的MySQL备份数据导入至RDS并恢复至新实例。下载的备份文件大小为什么小于RDS实例存储空间大小?RDS实例 基本信息 页面显示...

Routine Load

Routine Load是一种例行导入方式,StarRocks通过该方式支持从Kafka持续不断的导入数据,并且支持通过SQL控制导入任务的暂停、重启和停止。本文为您介绍Routine Load导入的基本原理、导入示例以及常见问题。基本概念 RoutineLoadJob:提交的...

将Excel的数据导入数据库

您可以将Excel的数据通过数据管理服务DMS(Data Management Service)导入到RDS MySQL数据库中。操作步骤 将Excel文件另存为.csv格式,并将中文或不符合数据库要求的列名修改为英文。说明 如果您的数据没有唯一的ID列,建议在最前方添加一...

备份集下载功能概览

功能介绍 数据库备份DBS 会将备份文件进行打包、压缩并转换为可下载的CSV文件,整个过程需要15分钟左右,您可以选择手动下载备份文件,或者通过DBS备份网关来实现自动下载。具体操作,请参见 手动下载备份集 和 配置自动下载备份集。功能...

通过SQL导入向量数据

在进行向量分析前,您需要在数据库中导入数据,本教程将指导您如何通过SQL导入数据至 AnalyticDB PostgreSQL版 实例。前提条件 已开启向量检索引擎功能,目前已支持如下两种方式开启:在创建实例时开启向量引擎优化,更多信息,请参见 创建...

Serverless模式

AnalyticDB PostgreSQL版 全新推出Serverless模式,利用云基础设施提供的资源池化和海量存储能力,结合传统MPP数据库技术、离在线一体化技术和Serverless技术,实现了计算存储分离、秒级扩缩容和多实例数据实时共享的特性。简介 AnalyticDB...

基于OSS外表的单表多文件查询

一般情况下,OSS外表存储的数据是冷数据,数据量比较大,当单个CSV格式的数据文件过大时,对其进行查询会非常耗时。因此 PolarDB 支持单表多文件查询功能,您可以将单个OSS外表的数据文件拆分为多个小的数据文件,以加快查询速度。本文介绍...

概述

基于Tablestore Sink Connector,您可以将Apache Kafka中的数据批量导入到表格存储(Tablestore)的数据表或者时序表中。背景信息 Kafka是一个分布式消息队列系统,不同的数据系统可以通过Kafka Connect工具将数据流输入Kafka和从Kafka获取...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云存储网关 文件存储 CPFS 对象存储 混合云存储 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用