从 PI Event Frame 到 AI 时代,这个问题终于被重新看见了|TDengine IDMP 的事件化启示

张开发
2026/4/13 0:32:19 15 分钟阅读

分享文章

从 PI Event Frame 到 AI 时代,这个问题终于被重新看见了|TDengine IDMP 的事件化启示
标题从 PI Event Frame 到 AI 时代这个问题终于被重新看见了工业系统持续不断地产生时间序列数据。每一秒钟传感器都在记录温度、压力、流量、振动等各种信号。在过去几十年里这一直是工业数据系统和工业实时数据库的基础采集信号高效存储并通过可视化观察它们随时间的变化。这种方式是有效的但它存在一个根本性的局限。时间序列数据只能告诉我们“发生了变化”却无法告诉我们“发生了什么”。趋势图上可能会看到一次压力突升但它无法解释这次变化发生在开机阶段、稳定运行阶段还是异常工况下。温度的下降也许是正常调节也可能是故障的早期信号。如果缺乏工业上下文不同工程师面对同一段数据可能会得出完全不同的判断。这就是数据与理解之间的鸿沟。工程师并不是按“时序数据”来思考问题的也不仅仅是按“趋势”来思考。他们更习惯按“事件”来理解系统开机、停机、批次运行、工况切换、异常发生。这些才是工业运行的基本单位也是最有意义的分析对象。从时序数据到事件工业实时数据库做对了什么而现代数据平台忽略了什么数据与理解之间的鸿沟并不是最近才出现的问题也不是因为行业没有意识到这个问题。事实上工业数据领域早就给出了一个非常重要的答案。PI System 提出了 Event Frame 的概念从根本上改变了工程师使用时间序列数据的方式。它不再把数据视为无穷无尽的数值流而是允许工程师定义有明确起止时间的“有意义区间”例如开机、停机、批次运行或异常状态并将这些事件与设备、属性以及上下文关联起来。这是一个非常重要的进步。它承认工业运行并不是连续信号的简单叠加而是由一系列具有明确意义的事件构成。它让数据模型开始贴近工程师的思维方式也让工程师能够从“看数据”转向“理解运行过程”。对于很多用户来说Event Frame 是 PI System 中最有价值的能力之一。从这个角度看以 PI 为代表的工业实时数据库并没有忽视这个问题反而在很早期就给出了一个非常正确的建模方向。但真正值得思考的是接下来发生的事情。随着行业向现代数据基础设施演进像 Snowflake、Databricks 这样的系统在存储、计算和扩展性方面取得了巨大突破。它们可以处理海量数据支持复杂分析并与现代数据生态系统高度集成。但在这个过程中一个关键能力被忽略了。这些系统的核心抽象仍然是表、文件以及通用的数据处理模型它们并没有提供类似 Event Frame 的原生概念。系统中并不存在“开机”“批次”“异常”这样的第一类实体工程师只能通过 SQL、数据管道或自定义逻辑去重建这些语义。这就带来了一个明显的错位。基础设施变得更强大了但数据在操作层面的可理解性却下降了。数据更容易被存储和计算但更难回答工程师真正关心的问题发生了什么从什么时候开始与其他类似情况相比如何因此即便拥有强大且可扩展的基础设施真正以事件为核心的分析仍然很难实现。问题不在于计算能力而在于缺乏一个以操作语义为核心的数据模型。事件建模与事件分析之间的鸿沟尽管 Event Frame 是一个非常强大的概念但它在实际系统中的落地方式也暴露出了一些局限性。在 PI System 中Event Frame 是在 Asset Framework 中定义和管理的它可以将事件与设备、时间区间以及相关属性关联起来为工业操作行为提供了结构化的建模方式。这一能力非常重要它使工程师可以明确地定义出诸如批次、开停机过程或异常工况等关键运行阶段。然而当真正进入“分析”环节时情况就开始变得分散。在大多数情况下工程师需要通过 PI Vision 等工具在选定的时间窗口内查看数据变化。这种方式适用于基础的排查和可视化但对于更深层次的事件分析来说能力是有限的。在实际工业场景中很多关键分析本质上都是围绕“事件”展开的。以批次生产为例工程师往往需要对多个批次进行对比去理解什么是“好的运行状态”。他们会将不同批次按开始时间对齐生成所谓的“黄金曲线golden profile”然后分析某一个异常批次在各个阶段是如何偏离这一基准的。这类分析对于质量优化、根因定位以及工艺改进至关重要。Event Frame 让这些批次可以被清晰地定义和组织起来但真正的分析过程——包括时间对齐、归一化处理、统计对比以及模式识别——却并没有在核心系统中得到深入支持。因此很多企业不得不引入 Seeq、TrendMiner 等专门的分析工具来完成这些以事件为中心的分析任务。这实际上揭示了一个非常关键的架构问题。事件建模是存在的但事件分析并没有与之深度融合。事件被定义出来了但并没有成为分析的核心单位。工程师在从事件中提取洞察时往往需要跨多个系统、搬运数据并在不同工具之间重复构建分析逻辑。如果事件是工业运行的基本单位那么它也应该成为分析的基本单位。从资产结构到运行行为在上一篇关于“以资产为核心的数据建模”的讨论中我们关注的是结构——数据如何围绕设备和系统进行组织这解决了“系统是什么”的问题。而事件建模则是在此基础上引入“行为”。如果说资产描述的是系统本身那么事件描述的是系统在时间维度上的运行过程。开机过程、批次运行、异常状态这些都不是静态结构能够表达的内容而是运行行为的体现。两者结合才能构成对工业系统更完整的表达。以资产为核心的建模定义结构。以事件为核心的建模定义行为。如果没有事件数据只是连续的数值流仍然需要人工去解释。而有了事件系统本身就开始具备表达运行过程的能力。为什么在 AI 时代事件变得更加重要在 AI 时代事件的重要性被进一步放大。很多 AI 应用直接作用于时间序列数据但这种方式存在天然局限。原始信号缺乏清晰的边界也缺乏上下文信息。如果不知道数据所处的运行状态很难正确理解其中的模式。事件为 AI 提供了一种天然的结构。它将数据切分为有意义的单元使得系统可以对相似事件进行对比、按事件起点对齐数据、分析正常与异常之间的差异。更重要的是它为 AI 提供了理解数据所必需的上下文。一个 AI 模型如果不知道设备是在开机、停机还是稳定运行状态仅仅分析振动数据很容易得出错误结论。而如果在清晰定义的事件范围内进行分析就能够显著提高结果的准确性与可解释性。没有事件AI 看到的是数据有了事件AI 才能理解行为。走向以事件为核心的工业数据底座要真正释放工业数据的价值事件必须成为工业数据底座的一部分而不是附加在上层的功能。这也是为什么今天的工业数据平台不能只停留在“存储 计算”层面而需要同时具备事件建模、事件分析和 AI 理解能力。以 TDengine IDMP 为例它正在把数据目录、数据标准化、数据情景化、事件、分析与 AI 能力放在同一个平台框架中让事件不再只是附着在时序数据上的标签而开始成为贯穿数据治理、业务分析和智能决策的核心对象。这样的平台方向才更接近 AI 时代工业数据底座真正应有的形态。这意味着事件的定义、存储和分析不应该分散在不同系统之中而应该与时间序列数据和资产模型一起构成统一的工业数据平台基础。PI System 提出的 Event Frame是一个非常重要的起点。但在 AI 时代这一能力需要被进一步提升从“重要功能”变为“基础能力”。事件不再只是分析的一种方式而是构建智能工业系统所必需的组成部分。时序数据描述变化资产描述结构事件描述行为。三者结合才能真正理解工业运行也才能支撑下一代以 AI 为驱动的工业系统。

更多文章