轮播页面

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

级联选择器

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

地理搜索框

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

非结构化分析

AnalyticDB PostgreSQL版 的向量分析旨在帮助您实现非结构化数据的近似检索和分析,具备丰富功能和优异性能。功能说明 向量分析实现原理是通过AI算法提取非结构化数据的特征,然后利用特征向量唯一标识非结构化数据,向量间的距离用于衡量...

HDFS数据

是 无 column 读取字段列表,type指定源数据的类型,index指定当前列来自于文本第几列(以0开始),value指定当前类型为常量。不从源头文件读取数据,而是根据value值自动生成对应的列。默认情况下,您可以全部按照STRING类型读取数据,...

Hive数据

Hive数据源为您提供读取和写入Hive双向通道的功能,本文为您介绍DataWorks的Hive数据同步的能力支持情况。背景信息 Hive是基于Hadoop的数据仓库工具,用于解决海量结构化日志的数据统计。Hive可以将结构化的数据文件映射为一张表,并提供...

下拉框选择器

图表样式 下拉框选择器是控件组件的一种,可以作为下拉框表单在可视化应用中使用,将用户选择的数据提交到后端进行处理或者通过交互配置,在其他组件上显示用户选择的内容。样式面板 搜索配置:单击 样式 面板右上角的搜索配置项图标,可在...

多选框

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

阶段三:数据安全持续运营

spmfactzg","spjym","dwbfye","grbfye","spmend","bchjny"],"tableComment":"智慧城市人口财产主题分析-公积金信息数据","table":"ods_t_ss_persons_delta_d"},"name":"Reader","gui":{"x":100,"y":100 },"category":"reader"},{"stepType...

附录:DataHub消息格式

变更操作包括数据库对数据的更改(新增、删除及修改)和数据库表结构等变更。name:列名 type:列类型 primaryKey List类型,主键信息。pk:主键名。source Object 类型,源端数据库或表信息。dbType:String类型,数据库类型 dbVersion:...

精模

精模是三维城市构建器的基底图层,支持独立的样式和数据配置,包括精模的阴影设置和精模的动效效果等。本文介绍精模配置项的含义。在场景编辑器左侧图层列表中,单击 精模 图层,进入配置面板配置 精模 图层的配置和数据面板。说明 如果...

概述

AnalyticDB PostgreSQL版 向量分析可以通过AI算法提取非结构化数据的特征,并利用特征向量作为非结构化数据的唯一标识,帮您快速且低成本地实现对非结构化数据检索和对结构化数据关联分析。向量数据库简介 在现实世界中,绝多数的数据都...

MongoDB数据

MongoDB数据源为您提供读取和写入MongoDB双向通道的功能,本文为您介绍DataWorks的MongoDB数据同步的能力支持情况。支持的版本 仅支持4.x、5.x版本的MongoDB。使用限制 数据集成支持使用MongoDB数据库对应账号进行连接,如果您使用的是云...

公交出行:启迪公交

解决方案 启迪公交采用 PolarDB-X 分布式数据库方案构建了全部业务系统,既支持海量大数据的处理能力,又支持高并发、高可用和很强的弹性伸缩能力。票务管理工作台通过用户检录数据,实时同步到阿里云AnalyticDB分析型数据库,分析出实时...

多选下拉框

图表样式 多选下拉框是控件组件的一种,可以作为下拉框表单在可视化应用中使用,将用户选择的数据提交到后端进行处理或者通过交互配置,在其他组件上显示用户选择的内容。配置面板 搜索配置:单击 配置 面板右上角的 搜索配置,可在 搜索...

应用场景

通过本文档,您可以了解工业大脑开放平台的应用场景,作为您初次使用工业大脑产品的参考。工业大脑的使用场景如下图所示。良率提升 您可以使用工业大脑平台,提升生产良品率,具体应用场景如下。光伏行业:企业借助工业大脑的人工智能技术...

发展历程

本文为您介绍了MaxCompute从诞生到成熟的发展历程。关键性里程碑 2009年9月,ODPS(即现在的MaxCompute)大数据平台飞天项目正式启动。2010年10月,阿里巴巴集团自主研发的第一代云计算平台稳定运行。2013年8月,平台的单集群规模已达到...

下拉框选择器

图表样式 下拉框选择器是控件组件的一种,可以作为下拉框表单在可视化应用中使用,将用户选择的数据提交到后端进行处理或者通过交互配置,在其他组件上显示用户选择的内容。配置面板 搜索配置:单击 配置 面板右上角的 搜索配置,可在 搜索...

地理搜索框

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

轮播列表

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

Memcache(OCS)数据

Memcache(原名OCS)数据源为您提供其它数据源向Memcache写入数据的功能,目前仅支持脚本模式配置同步任务,本文为您介绍DataWorks的Memcache(OCS)数据同步的能力支持情况。使用限制 当前仅支持使用脚本模式将数据写入Memcache(OCS)。...

轮播页面

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

HBase数据

multiVersionFixedColumn 模式 name指定读取的HBase列,除rowkey外,必须为 列族:列名 的格式,type指定源数据的类型,format指定日期类型的格式。multiVersionFixedColumn 模式下不支持常量列。配置格式如下所示:"column":[{"name":...

导航菜单栏

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

Tablestore数据

Tablestore Reader会根据一张表中待读取的数据的范围,按照数据同步并发的数目N,将范围等分为N份Task。每个Task都会有一个Tablestore Reader线程来执行。支持的字段类型 目前Tablestore Reader和Tablestore Writer支持所有Tablestore类型...

JSON格式导入

fuzzy_parse 参数 在 Stream Load 中,可以添加 fuzzy_parse 参数来加速JSON数据的导入效率。这个参数通常用于导入以Array表示的多行数据这种格式,所以一般要配合 strip_outer_array=true 使用。这个功能要求Array中的每行数据的字段顺序...

Kafka数据

offset Long timestamp Long headers String partition Long 离线写数据 DataWorks将数据写入Kafka时,支持写入JSON格式或text格式的数据,不同的数据同步方案往Kafka数据源中写入数据时,对数据的处理策略不一致,详情如下。重要 写入text...

地理围栏

数据源 单击 配置数据源,可在 设置数据源 页面中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果。详情请参见 配置组件数据数据过滤器 单击 添加过滤器,可在 设置数据源 页面中配置数据过滤器,详情请参见 组件...

倒计时

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

MaxCompute数据

MaxCompute数据作为数据中枢,为您提供读取和写入数据至MaxCompute的双向通道。使用限制 说明 DataWorks的MaxCompute数据源可使用 Tunnel Endpoint 地址访问相应MaxCompute项目的Tunnel服务,从而通过上传、下载等方式同步该项目的数据。...

捷顺

客户简介 捷顺科技是一家智慧停车、智慧社区综合服务提供商,集研、产、销于一体,公司的产品线涵盖各类软硬件产品,包括捷停车及捷生活APP、停车场智能硬件、智能门禁、通道闸、城市级智能一卡通系统、停车场智能管理平台、智慧商业O2O...

DataHub数据

DataHub数据源作为数据中枢,为您提供读取和写入DataHub数据库的双向通道,能够快速解决海量数据的计算问题。本文为您介绍DataWorks的DataHub数据同步的能力支持情况。支持的版本 DataHub Reader通过DataHub的Java SDK读取DataHub中的数据...

事件仪表盘

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

状态卡片

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

RestAPI Reader最佳实践

数据集成RestAPI Reader插件提供了读取RESTful接口数据的能力,通过配置HTTP请求地址,可获取RestAPI类型的数据源数据(例如获取时间范围内的数据、获取分页数据、循环请求参数获取数据等),并转换为数据集成支持的数据类型,传递下游...

文字标签

过滤器 打开 过滤器,选择已创建的数据过滤器或新建数据过滤器,并配置数据过滤器脚本,实现数据的筛选功能。详情请参见 管理数据过滤器。数据响应结果 实时展示了组件所使用的数据。当组件数据源发生变化时,数据响应结果会对应展示最新的...

附录:消息格式

为确保消费Kafka中数据时能够准确判断同步任务进度,同步任务还将定时产生op字段作为MHEARTBEAT的同步任务心跳记录写入Kafka的topic中。以下为您介绍写入Kafka的 消息总体格式、同步任务心跳消息格式 及 源端更改数据对应的消息格式,关于...

地图容器

地图容器是三维城市地图中用于承载地图本身和各子组件的容器,支持添加地理围栏、文字标签等子组件,支持配置地图的基础属性和快速样式,能够多角度、多形式地渲染城市地理的3D效果。本文介绍三维城市地图容器各配置项的含义。说明 三维...

Redis数据

DataWorks数据集成支持使用Redis Writer将数据写至Redis,本文为您介绍DataWorks的Redis数据离线写入能力。使用限制 数据导入过程仅支持使用 独享数据集成资源组。使用Redis Writer向Redis写入数据时,如果Value类型是List,重跑同步任务的...

Tablestore Stream配置同步任务

} } } } 关于运行时间参数和结束时间参数,有以下两种表现形式(配置任务时选择其中一种):"startTimeString":"${startTime}":增量数据的时间范围(左闭右开)的左边界,格式为 yyyymmddhh24miss,单位为毫秒。endTimeString":"${...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
弹性伸缩 云安全中心 弹性公网IP 短信服务 人工智能平台 PAI 金融分布式架构
新人特惠 爆款特惠 最新活动 免费试用