通过上传本地数据新建数据集

上传本地文件的方式导入业务所需的数据集,以便在模型画布中编辑业务模型时使用导入的数据集。本文介绍如何通过上传本地数据新建数据集。前提条件 已创建云计算资源作为存储数据源,具体操作,请参见 新建计算资源。已准备好待上传的数据表...

导入中特殊符号处理

以下命令将空格作为null的匹配字符,如果该列为空格,则在使用OSS文件导入的数据中该列值为null。FORMAT 'text'(null ' ')列中存在转义字符。您可以在转义字符前增加ESCAPE符。ESCAPE符在创建外表时指定,CSV模式缺省值为双引号(”),...

个人版实例镜像导入企业版实例

相关操作 查看导入详情 在 镜像导入 页面单击导入任务右侧 操作 列下 详情,可以在导入任务详情页面查看本次导入总数据存储量(GB)、当前迁移速度(MBps)、总镜像数量、每个仓库下导入的总镜像数、成功镜像数、失败镜像数及失败原因。...

概览

暂不支持 使用COPY ON CONFLICT覆盖导入数据 使用COPY命令快速导入数据的过程中,如果数据与表的约束冲突,会导致COPY命令报错退出。AnalyticDB PostgreSQL版 提供了COPY ON CONFLICT功能,可以让数据COPY不会因为约束冲突导致失败。暂不...

CDH6数据迁移

背景信息 CDH(Cloudera's Distribution,including Apache Hadoop)是众多Hadoop发行版本中的一种,您可以使用 文件存储 HDFS 版 替换CDH6原有的本地HDFS服务,通过CDH6和 文件存储 HDFS 版 实现大数据计算在云上的存储与计算分离,应对...

使用SQL导入MaxCompute的数据至Hologres

解决方案:在V1.1之前版本,可以通过并发度通过参数 hg_experimental_foreign_table_executor_max_dop 控制,默认为实例的Core数,在导入时设置更小的 hg_experimental_foreign_table_executor_max_dop 参数,降低导入的内存使用,解决出现...

使用mysqldump导入导出数据

导入的时候,由于某些 PolarDB-X 1.0 和MySQL实现上的不同,可能会报错(如 ERROR 1231(HY000):[a29ef6461c00000][10.117.207.130:3306][*]Variable@saved_cs_client can't be set to the value of@character_set_client)。此类错误信息并...

Routine Load

背景信息 Routine Load 支持提交一个常驻的导入任务,通过不断地从指定的数据源读取数据,将数据持续地导入到 云数据库 SelectDB 版 中。Routine Load 功能只支持从Kafka数据源读取数据。首先需要创建一个Routine Load作业,作业会通过例行...

通过模板安装中心应用

本文介绍如何通过已有的模板安装中心应用,模板来源支持两种选择:企业应用模板和导入模板。前提条件 已开通BizWorks公有云版本服务。已有可用模板。关于如何创建应用模板,请参见 创建和管理中心应用模板。关于如何新增订阅连接,请参见 ...

对接MaxCompute常见问题与诊断

降低导入并发度,也会有效减少导入过程中的内存开销,并发度通过参数 hg_foreign_table_executor_max_dop 控制,默认为实例的Core数,可以在导入时设置更小的参数,降低导入的内存使用。set hg_foreign_table_executor_max_dop=8;insert ...

日志服务(SLS)增量导入

本文主要介绍日志服务(SLS)增量导入的操作过程。注意事项 日志服务(SLS)增量导入功能于2023年3月10日下线。2023年3月10日后购买的LTS 将无法使用日志服务(SLS)增量导入功能,2023年3月10日前购买的LTS仍可正常使用此功能。前提条件 ...

数据导入概览

步骤 步骤说明 ① 将需要导入的点数据和边数据分别转换为.csv格式的文件,并上传至OSS(存储对象)的Bucket中。② 创建对该Bucket有读取和列表访问权限的RAM角色。③ 发送HTTP请求至图数据库GDB实例以启动图数据库GDB加载程序。④ 图数据库...

查看我的导入记录

您可以查看数据导入的记录,包括数据字典、变量映射、资源管理、算子和模型的导入。本文主要介绍如何查看我的导入记录。操作步骤 登录 数据资源平台控制台。在页面左上角单击 图标,选择 探索。在页面右上角,单击 图标,选择 我的导入记录...

OSS Load

已开通OSS服务,并创建与 云数据库 SelectDB 版 实例位于相同地域的存储空间(Bucket)。具体操作,请参见 开通OSS服务和创建存储空间。请确保OSS存储空间(Bucket)与 云数据库 SelectDB 版 实例在同一地域,并使用阿里云VPC网络访问OSS。...

持续的存储优化

维护一个规模适中且价格合理的存储架构是一个持续的过程。为了更有效地利用存储支出,您每个月都应该进行存储优化工作。您可以通过以下方式简化这项工作:建立用于优化存储和设置存储策略的持续机制。通过监控服务和账单密切监控存储成本。...

管理导入任务

导入任务是EMR StarRocks Manager中的一个功能模块,旨在降低用户在导入任务管理方面的运维成本,提供可视化的导入任务管理能力。本文为您介绍如何使用EMR StarRocks Manager管理导入任务。背景信息 该页面的数据来自于使用StarRocks内核...

导入

DataWorks智能数据建模的导入工具,为您提供了数据模型、数据标准等多种类型的对象模板,您可基于不同模板批量创建相应对象。该功能无需多次重复执行创建操作,即可快速生成多个对象,节省大量时间成本。本文为您介绍如何通过批量导入功能...

Jira 两种导入方式说明

jira 的数据导入提供了两种方式,你...全量导入 将配置及数据全部一次性导入到 projex 中,覆盖之前的多次导入数据,以最后一次的导入为准。增量导入 仅导入与前一次导入新增的项目及工作项数据(包含工作项条目、附件、评论),不做覆盖。

支持 Word/Markdown 文件导入

为了帮助你更好的衔接云效知识库与本地文档工具的使用体验,我们一直致力于更强大的导入和导出功能。继 Confluence 之后,我们的导入源新增了 Word(.docx)和 Markdown(.md)文档,快把你的本地文档迁移至云效知识库,与团队成员开展线上...

支持的数据源

AnalyticDB for MySQL 支持导入RDS MySQL、MongoDB、OSS、MaxCompute、Kafka等多种数据源至数据仓库或数据湖中,各数据源支持的导入方案也不同,您可以参考本文档,选择合适的导入方案。数据入仓 类别 数据源 导入方式 产品系列 文档链接 ...

导入概述

导入的原子性保证 Doris的每一个导入作业,不论是使用Broker Load进行批量导入,还是使用INSERT语句进行单条导入,都是一个完整的事务操作。导入事务可以保证一批次内的数据原子生效,不会出现部分数据写入的情况。每个导入作业都会有一个...

需求导入

除手动新建外,我们支持已有需求的导入。入口:展开新建按钮,展现导入数据入口。首先,选择导入数据的模板。Projex支持根据导入类型匹配下载模板的能力。按照模板编辑数据后,进行文件上传。上传后支持在批量操作中查看导入结果。如果存在...

导入原始定义指标

物联网数据服务的数据指标中默认存在原始定义的指标,完成数据存储备份后,如果没有原始定义指标,您需手动为产品数据添加原始定义的指标,用于指标的衍生和数据洞察分析业务。前提条件 已完成产品数据备份。具体操作,请参见 数据备份。...

导入/导出任务

本文介绍如何查看 AnalyticDB MySQL 数仓版(3.0)集群的导入或导出任务的信息。查看导入或导出任务信息 登录 云原生数据仓库AnalyticDB MySQL控制台。在页面左上角,选择集群所在地域。在左侧导航栏,单击 集群列表。在 数仓版(3.0)页签...

Stream Load

本文为您介绍Stream Load导入的基本原理、使用示例和最佳实践。背景信息 Stream Load是一种同步的导入方式,通过发送HTTP请求将本地文件或数据流导入到StarRocks中。Stream Load同步执行导入并返回导入结果。您可以直接通过请求的返回值...

导入开源引擎任务

如果您导入的是其他类型的对象,请在 导入对象 下拉列表中进行筛选。可选:单击右侧 高级设置,设置节点类型和计算引擎的映射关系,配置完成后单击 确认。如果目标工作空间有多个计算引擎,请通过 高级设置 选择任务的映射关系。单击页面右...

数据流动概述

文件存储CPFS与对象存储OSS之间已实现数据流动。您可以通过创建数据流动任务实现不同源端的数据同步。背景信息 当CPFS Fileset 与OSS Bucket创建数据流动后,CPFS文件系统会自动同步OSS Bucket中的对象元数据。同步完成后您能通过高性能且...

术语提取

使用场景 当您对术语准确性的要求较高,就可以在平台中储存您的术语。如果本身已有很多文档或者翻译后的文档,可以通过术语提取的能力,对已有文档中的术语进行提取,提取后导入到术语库中,以丰富术语库中的术语量 使用方式 点击工具箱->...

导入云监控数据

查看导入配置 创建导入配置成功后,您可以在控制台中查看已创建 导入配置 以及生成的 统计报表。在Project列表区域,单击目标Project。在 日志存储>日志库 页签中,单击目标Logstore下的 数据接入>数据导入,然后单击目标配置名称。在 ...

导入云监控数据

采集限制 限制项 说明 采集起始时间 创建导入配置时,默认采用的起始时间为 now()-30 分钟,即针对新建的导入任务,最多只导入30分钟的历史数据。采集周期 导入任务每分钟为导入的每个指标拉取一次新数据。如果数据量较大,1分钟无法完成...

导入数据

在 导入数据 右面板,选择待导入的工作组,云计算资源,新增目标数据表或者拖入需要导入的文件,单击 下一步。选择清理规则 当选中 写入前清理已有数据 前面的复选框时,则导入数据时会清理已有数据,只保留最新导入的。当取消选中 写入前...

通过外表导入至数仓版

已创建HDFS集群并在HDFS文件夹中准备需要导入的数据,本文示例中所用文件夹为 hdfs_import_test_data.csv。已在HDFS集群中为 AnalyticDB MySQL 集群配置如下服务访问端口:namenode:用于读写文件系统元信息。您可以在 fs.defaultFS 参数中...

小区快速迁移指引

房屋状态,非必填项,填写1:自住2:出租3:空置 上传文件,将您编辑好的Excel进行导入 进入小区住户管理进行人员信息的导入 选择批量导入,注意右上角的小区名称,请选择您需要导入的小区进行操作 下载批量导入的模板 模板文件说明 模板...

导入数据至电子表格

导入数据 在电子表格的编辑页面,鼠标悬停至右上方 导入,支持导入 电子表格、本地CSV文件 和 本地Excel文件 三种类型的文件。若您选择 电子表格:仅支持导入电子表格。若您选择 本地CSV文件:仅支持导入本地CSV文件。若您选择 本地Excel...

导入结构和数据

创建导入任务时在面板中 导入内容 项中选择了 ZIP 压缩文件 后还需在 数据格式 项中选择压缩包中的数据格式是 CSV 格式 或 SQL 格式。批量导入时支持导入 SQL 文件,SQL 文件是以.sql 结尾包含可直接在数据库中执行的 SELECT、INSERT、...

Stream Load

本文为您介绍Stream Load导入的基本原理、使用示例和最佳实践。背景信息 Stream Load是一种同步的导入方式,通过发送HTTP请求将本地文件或数据流导入到StarRocks中。Stream Load同步执行导入并返回导入结果。您可以直接通过请求的返回值...

导入云监控数据

查看导入配置 创建导入配置成功后,您可以在控制台中查看已创建的导入配置及生成的统计报表。在Project列表区域,单击目标Project。在 时序存储>时序库 页签中,单击目标Metricstore下的 数据接入>数据导入。单击目标配置名称。在 导入配置...

从OSS批量导入导出

HybridDB for MySQL支持直接从OSS中导入和导出数据,这也是HybridDB for MySQL的功能之一。将数据从OSS导入到HybridDB for MySQL中需要如下四个步骤...OSS的存储目录下的文件数目影响HybridDB for MySQL的导入并发度,默认是64或者128比较好。

数据导出到OSS概述

5 数据迁移结果验证 完成数据导出操作后,在OSS控制台查看导入的数据。增量同步流程 增量同步的主要步骤说明请参见下表。步骤 操作 说明 1 新增来源数据源 用于指定要同步数据的表所属实例信息。来源数据源为表格存储数据源。如果已有表格...

导入数据至维表

在维表的编辑页面,单击右上方 导入。在 导入 对话框中,单击需要导入的文件类型,配置相应的参数。说明 维表仅支持STRING类型的数据。如果导入的数据中存在非STRING类型,会被自动转义为STRING类型。电子表格 参数 描述 电子表格 从 ...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
对象存储 云存储网关 文件存储NAS 商标服务 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用