数据解析概述

配置数据解析配置源节点 配置数据计算和数据过滤(可选)配置值转化(可选)配置数据聚合(可选)配置超时插值(可选)配置相邻消息计算 配置目标节点 启动数据解析任务:完成数据解析配置后,您可以启动并发布数据解析任务。后续步骤 ...

创建数据解析任务

物联网数据服务支持数据解析功能,对数据源数据进行预处理,用于更深层次地挖掘数据价值。本文介绍创建数据解析的具体...具体操作,请参见 配置数据解析配置解析任务前,请先了解数据解析工作台功能,更多信息,请参见 数据解析工作台说明。

数据解析工作台说明

背景信息 您可以使用数据解析工作台,配置数据解析任务分析处理接入数据服务的数据源。更多信息,请参见 使用说明。进入数据解析工作台 在 物联网平台控制台 的 实例概览 页面,单击目标企业版实例 ID 或备注名称。在左侧导航栏,选择 数据...

配置源节点

创建数据解析任务后,您可在数据解析工作台,配置数据解析任务的源节点,以作为后续数据解析的数据源。本文介绍配置源节点的操作步骤。前提条件 已创建数据解析任务,具体操作,请参见 创建数据解析任务。背景信息 数据解析功能说明,请...

数据处理

数据导入后,GDB Automl提供数据解析器对数据进行解析,可以自动配置解析数据源,解析器(支持CSV、ARFF、XLS、XLSX、ORC等多种数据格式的解析)。在 数据解析器 页面,选择导入数据对应的 解析器、分离、列标题 和 选项。单击 解析 以生成...

数据接入概述

可通过数据解析配置后,输出仅含所需数据的自定义存储表。数据指标 对设备数据源中的物模型数据,从指标和域维度管理数据指标,优化改进相关配置,从而提升业务效率。分析洞察 将产品的时序表和快照表的数据作为查询对象,使用SQL语句配置...

产品功能

数据解析 GDB Automl将导入和上传的数据进行自动解析,您可以自动配置解析数据源和解析器(支持CSV、ARFF、XLS、ORC等多种数据格式的解析),解析后可查看数据的样本量,并查看样本特征摘要,解析特征分布情况。数据切分 支持按照自定义...

启动数据解析任务

前提条件 已配置数据解析任务,具体操作请参见,配置源节点、配置目标节点。背景信息 您可以配置、调试、启动或删除 待上线 和 离线 状态的数据解析任务。您可以查看但不可删除 启动中、停止中 和 在线 状态的数据解析任务。数据解析的更多...

2023-07-31

数据解析控制台体验优化 数据服务的数据解析功能大幅优化控制台体验,并新增数据解析日志查询和细化错误提示,提升数据解析任务配置效率。数据解析脚本支持Python和PHP 数据服务的数据解析功能在配置自定义节点的解析脚本时,新增支持...

系统架构

系统架构 系统组成 内网DNS解析(PrivateZone)是由管控层和解析层两部分组成:管控层:管控层通过控制台和OpenAPI对外提供服务,主要实现了域名解析数据、配置数据、日志数据等的增删改查功能和存储功能。管控层位于【中国内地-华北3...

配置解析

云产品流转功能通过配置数据流转解析器关联数据源(设备Topic消息)和数据目的(其他Topic、业务服务器或其他阿里云产品),使用解析脚本实现设备消息转发。本文介绍设置数据流转解析器的完整操作步骤,依次是创建解析器、关联数据源和数据...

Kafka实时入湖建仓分析

进行数据源的 基础配置、增量同步配置数据解析配置、生成目标数据规则配置。基础配置 的参数说明如下:参数名称 参数说明 名称 工作负载的名称。选择湖仓 下拉选择已经创建的湖仓,工作负载将数据输出到所选的湖仓内。数据存储格式 数据...

什么是PrivateZone

系统架构 云解析PrivateZone是由管控层和解析层两部分组成:管控层:管控层通过控制台和OpenAPI对外提供服务,主要实现了域名解析数据、配置数据、日志数据等的增删改查功能和存储功能。管控层位于【中国内地-华北3(张家口)】。解析层:...

解析DNS

系统架构 云解析DNS是由管控层和解析层两部分组成:管控层:管控层通过控制台和OpenAPI对外提供服务,主要实现了域名解析数据、配置数据、日志数据等的增删改查功能和存储功能。管控层位于【中国内地-华北3(张家口)】解析层:解析层通过...

配置目标节点

完成数据解析的处理配置后,您可根据处理节点的输出字段,完成Topic解析任务最终的输出配置。本文介绍配置目标节点的具体操作。前提条件 已配置源节点,具体操作,请参见 配置源节点。背景信息 数据解析功能说明,请参见 使用说明。数据...

配置数据聚合

前提条件 已配置数据计算的表达式或数据过滤的筛选器,具体操作,请参见 配置数据计算和数据过滤。背景信息 数据解析功能说明,请参见 使用说明。数据解析工作台的使用说明,请参见 数据解析工作台说明。操作步骤 进入数据解析工作台。在...

配置相邻消息计算

前提条件 已配置数据计算的表达式或数据过滤的筛选器,具体操作,请参见 配置数据计算和数据过滤。背景信息 数据解析功能说明,请参见 使用说明。数据解析工作台的使用说明,请参见 数据解析工作台说明。操作步骤 进入数据解析工作台。在...

基本散点图

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

配置数据计算和数据过滤

完成数据解析的源节点配置后,您可根据源节点的数据,配置字段和表达式,添加数据过滤的筛选器。通过解析生成多样化的数据,可用于后续分析或输出。前提条件 已配置源节点,具体操作,请参见 配置源节点。背景信息 数据解析功能说明,请...

概述

数据源为数据服务中数据解析后的数据:数据解析任务可以对设备原始数据进行一些更复杂的加工计算,具体操作,请参见 数据解析。如需加工计算设备原始数据,可以先将设备数据转入到数据分析任务中进行更复杂的处理,并将数据解析的目标节点...

云产品流转概述

配置并启动解析器:创建解析器,关联已添加的数据源和数据目的,配置解析器脚本,加工处理数据源并实现数据流转。相关文档 脚本语法:解析器脚本的编辑和语法说明。函数列表:解析器脚本中支持的函数列表。数据格式:基础通信Topic、物模型...

配置值转化

前提条件 已配置数据计算的表达式或数据过滤的筛选器,具体操作,请参见 配置数据计算和数据过滤。背景信息 数据解析功能说明,请参见 使用说明。数据解析工作台的使用说明,请参见 数据解析工作台说明。操作步骤 进入数据解析工作台。在...

绑定域名/更换域名/解绑域名FAQ

所以当原域名与DNS实例解绑后,如果原域名下的解析记录使用了DNS付费版的解析配置,则该条记录会被暂停。为了避免原域名下的解析记录受到影响,您可以在更换域名前,将原域名下的解析记录配置都更新为免费DNS版的配置,具体步骤如下。检查...

新建自定义数据

如果开发模式是Dev-Prod模式,则可以通过以下方式配置数据源:单击 生产+开发数据源,配置生产环境和开发环境的数据源。单击 生产数据源,配置生产数据源。完成生产数据源的创建后,单击 开发数据源,配置开发环境的数据源。说明 系统支持...

新建自定义数据

如果开发模式是Dev-Prod模式,则可以通过以下方式配置数据源:单击 生产+开发数据源,配置生产环境和开发环境的数据源。单击 生产数据源,配置生产数据源。完成生产数据源的创建后,单击 开发数据源,配置开发环境的数据源。说明 系统支持...

创建Log Service数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建RocketMQ数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建Log Service数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建OpenGauss数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建OpenGauss数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建MongoDB数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建DataHub数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建Teradata数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

新建TDengine数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

新建TDengine数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建PostgreSQL数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建MongoDB数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建PostgreSQL数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建Vertica数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....

创建Vertica数据

数据源编码 配置数据源编码后,您可以在Flink_SQL任务中通过 数据源编码.表名称 或 数据源编码.schema.表名称 的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table 或${数据源编码}.schema....
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据库审计 数据库备份 DBS 云数据库 RDS 云解析DNS 云服务器 ECS 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用