最强表格AI问世 结构化表格也成模态!浙大TableGPT2开源

机器之心报道

:Panda、杜伟

现在正是多模态大模型的时代,图像、视频、音频、3D、甚至气象运动都在纷纷与大型语言模型的原生文本模态组合。而浙江大学及其计算机创新技术研究院的一个数十人团队也将结构化数据(包括数据库、数仓、表格、json 等)视为了一种独立模态。

基于这一视角,依托 Qwen,他们研发了 TableGPT 系列模型。现如今,这个模型已经更新到了第 2 代,性能表现较之前代已有大幅提升: 在某些基准上,TableGPT2 能够媲美甚至优于 GPT-4o! 或者按团队负责人赵俊博博士的说法:「目前通用大模型在许多结构化数据相关的任务上的表现仍然较弱,TableGPT2 在相关任务的榜单上铁腕刷榜 —— 各类相关任务刷出去平均 40 个点。」

该团队表示:「提出 TableGPT2 的关键动机是解决当前 LLM 在数据驱动型真实世界应用中的限制。」

当今的许多 LLM 的设计目标就是以端到端的方式运行,而没有整合外部数据。但该团队认为这种方法存在固有缺陷。 举个例子,如果你想用 LLM 来帮助你挑选股票,但如果不给它提供实时的市场信息,它的建议就根本不可能靠谱;更别说必需病人病历和各类过往的指标数据才能做出准确判断的医疗 AI 应用了。具身智能中的灵巧手的触觉信号以及多个传感器中的各类 「觉」 也都是结构化信息。

同时,即便 LLM 已经整合了外部数据源(如数据库),其性能也往往无法达到最优。目前常见的整合思路包括通过工具(如 natural-language-to-sql / NL2SQL)来调用外部数据源以及通过更长的长下文和新架构来纳入外部数据源。但这些方法要么难以用于复杂场景,要么就效率低下,不实用。

基于这些思考,该团队认为在整合外部数据源时需要根本上的范式转变。TableGPT2 也由此而生,该模型的设计目标是直接且高效地整合和处理表格数据,克服当前 LLM 的固有限制,进而实现生产级部署。

之前 LLM 和 VLM 方面的研究已经证明了大规模多样化数据集的重要性。其实表格数据也同样多,并且也同样重要。据估计,全球超过 70% 的数据都是以结构化的表格形式存储的,包括数据库和电子表格。

所以,资源浩瀚,也因此,开发大规模表格模型极具潜力!该团队表示:「通过使用大规模表格及其 schema 元数据的数据集,我们的目标是探索能否有效地建模这些数据格式,从而得到可用于商业智能等应用的功能强大的模型。」

TableGPT2 的表格数据编码器是该团队全新设计的,其重在建模表格数据的结构和内容。这让 TableGPT2 可以捕获 schema 层面和单元格层面的信息,从而有望为表格大模型带来文本模型和视觉模型所经历过的那种巨大提升。

TableGPT2 是什么

从名称也能看出,TableGPT2 是 TableGPT 的新一代版本。初始版本的 TableGPT 就已经引入了结构化特定领域语言(DSL)和专用表格编码器等方法,可以管理复杂的基于表格的查询。在此基础上,TableGPT2 实现了巨大的改进。他们不仅扩大了数据和训练协议的规模,还重新设计了每个组件,同时也引入了一些提升稳健性、扩大适用性以及优化商业智能应用性能的技术。

最终,大规模多模态模型 TableGPT2 诞生了!它有两种配置:7B 和 72B 版本。它们全都基于 Qwen2.5 系列模型。训练过程中,该团队使用了超过 860 亿 token 来进行持续预训练(CPT)、超过 43.75 万个表格 - 语言交织的样本来训练编码器、236 万多个高质量「查询 - 表格 - 输出」元组来进行监督式微调。

在相关研究中,这种规模是前所未有的,足以保证 TableGPT2 满足涉及结构化或表格数据的现代应用的严格要求。

TableGPT2 经历的持续预训练(CPT)、监督式微调(SFT)和支持生产级能力的智能体框架不同于传统 LLM,因为这里的预训练和微调更加注重编程、多轮推理和工具使用。这些特点可确保模型不仅擅长自然语言处理,而且能够很好地处理与表格相关的复杂任务。

此外,该团队还初步探索了表格数据的多模态对齐。具体来说,TableGPT2 创新性地加入了一个单独的模态模块,专门用于读取和解释表格数据。类似于视觉 - 语言模型(VLM),TableGPT2 包含一个表格数据读取模块,其作用是生成与来自文本输入的 token 嵌入相连接的专用嵌入。这个新增模块可让 TableGPT2 更好地捕获表格数据的结构和语义,从而在复杂的商业智能场景中实现更准确的表格理解。图 1 描绘了其整体模型框架。

TableGPT2 是如何炼成的

持续预训练

为了实现 TableGPT2 的目标,该团队首先是通过持续预训练(CPT)来提升模型的编程和推理能力。

具体来说,80% 的 CPT 数据都是标注良好的代码,从而确保 TableGPT2 具有稳健的编程能力,这与 DeepSeek-v2 采用的方法是一致的。此外,该团队还做了补充;他们收集整理了大量包含多种领域知识(如金融、制造业、生物技术、市场技术)的推理数据和一般教科书,以保持数据比例平衡,增强推理能力。表 1 展示 CPT 过程中使用的数据分布和总 token 数。

在数据处理方面,他们采用了一种两级过滤策略。

在文档层面,他们使用 54 个不同的类别对数据进行了标注,以确保全面覆盖不同的文档类型。下表展示了一些重要的过滤标签。

在 token 层面,则是利用了 RHO-1 来微调对高质量 token 的选择。

此外,他们还引入了一种可将代码长度和上下文窗口设置纳入考虑的新方法,这可优化模型有效处理多种不同代码段的能力。

经过彻底过滤后,最终的 CPT 数据包含 86B token,这种稳健强大的预训练可确保 TableGPT2 具备必要的编程和推理能力,足以应对复杂的商业智能和其他相关任务。

有监督微调

在 TableGPT2 中,监督式微调(SFT)的作用是解决在用于商业智能任务和场景时的局限。

为此,该团队编排了一个数据集,其中包含范围广泛的近乎现实的关键场景,包括多轮对话、复杂推理、工具使用和针对具体业务的查询。

这个数据集的构建过程既包括人工标注,也包含一个专家驱动的自动化标注流程,从而可以保证数据的质量和相关性。总体而言,SFT 过程涉及 236 万个样本, token 数量达数十亿,足可用于进一步微调模型,使其满足商业智能和其他涉及表格的环境的特定需求。

更具体地说,TableGPT2 的 SFT 流程有一个关键差异,即这 236 万个指令样本的组成非常平衡且多样化。如此一来,就可以满足表格相关任务的需求:既需要通用的模型能力,也需要针对表格的技能。

该数据集包含的表格专有任务包括代码生成(Python 和 SQL)、表格查询、数据可视化、统计测试和预测建模。此外,其中还有表格理解、表格生成、缺失值插补和基于表格的问答等多种任务,几乎涵盖了表格使用的所有阶段。输入格式加上随机排列的表格元数据(如字段描述、schema 信息和值枚举),可以产生超过 20 种不同的「表格 - 信息」输入组合,组可确保全面覆盖。

为了保证数据质量,他们还实施了一个多步骤的数据过滤流程:

用于表格数据的数据增强

为了提升 TableGPT2 的性能(尤其是商业智能任务性能),该团队采用了多种查询增强技术,包括

语义表格编码器

由于 NL2SQL 等传统工作流程存在局限性,该团队为 TableGPT2 设计了新的语义编码器。

这种新的表格编码器的输入是整张表格。基于此,它可为每一列生成一组紧凑的嵌入。

该架构是根据表格数据的独特属性专门设计的,毕竟表格与文本、图像和其它数据类型存在根本性差异。

表格的语义来自四个关键维度:单元格、行、列和表格整体结构。这些维度都存在排列不变性(permutation invariance)。基于这一观察,该团队实现了一个没有位置嵌入的二维注意力机制以及一个分层特征提取过程。这能确保行方向和列方向的关系都被捕获并被有效理解。

此外,他们还采用了一种逐列式对比学习方法,以鼓励模型学习有意义的、对结构有感知的表格语义表征。

该团队使用了 Q-former 式的适应器(配备了一组可学习的查询)来将列嵌入与文本嵌入对齐。

他们还引入了两个特殊 token ,以区分表格特征和原生文本,让模型可以同时处理这两种模态,并且不产生混淆。

为进一步增强文本信息、列嵌入和 schema 元数据之间的对齐程度,他们还使用了联合指令微调。此过程有助于优化模型对表格数据的理解,使其能够更有效地集成和解读各种输入。

顺带一提,目前这个编码器部分还尚未开源。至于原因,赵俊博博士表示:「一方面保护下团队学生们未来的小论文,另外一方面确实 VLM 和特定领域的适配没弄好,解码器可以独立使用,效果仍在。」

智能体框架

该团队在开源库中提供了一个全面的智能体工作流程运行时间框架,其设计目标是将 TableGPT2 无缝地集成到企业级数据分析工具中。该框架包含三个核心组件:

它们加在一起,可以提升智能体的能力和可靠性。这个工作流程具有模块化的步骤,因此可支持复杂的数据分析。这些步骤包括输入规范化、智能体执行(可选择 VLM 支持)、工具调用。

再结合检索增强式生成(RAG,用于高效上下文检索)和代码沙箱(用于安全执行),该框架可确保 TableGPT2 为实际问题提供准确、与上下文相关的见解。

下图展示了智能体的完整工作流程:首先通过一个提示词工程模块来准备和处理输入查询。再基于一个外部知识库使用 RAG 模块后,将经过处理的输入送入主模型。然后,TableGPT2 会与一个视觉 - 语言模型(VLM)合作生成工具调用、代码等相关动作。通过观察中间结果,可以根据需求选择是否迭代,以利用该智能体的反思能力。通过智能体与工具之间的无缝交互,这个迭代过程最终可得到最终输出。

TableGPT2 效果怎么样

在实验部分,团队此次针对表格相关任务进行了全面的基准测试,不仅涵盖了已有的一些数据集,还加入了一个新收集的、面向真实任务的复杂表格数据集,从而提供了一个严格的评估平台。

为了进行全面的比较,团队选择了多样化的基线大语言模型。第一类是 最先进的开源通用 LLM ,包括 DeepSeek-Coder-V2-Lite-16B、 YiCoder-9B-Chat 以及 Qwen2.5-Coder-7B-Instruct、Qwen2.5-7B-Instruct。

第二类是 针对表格相关任务进行微调或专门开发的模型 ,比如针对表格分析设计和优化的 TableLLM、为处理电子表格和文档设置中各种真实表格操作而微调的 CodeLlama-13B。

基准概览

下表 4 汇总了现有的表格理解和推理基准,共涵盖了 27.7K 个表格和 88.9K 个测试样本。团队将这些基准划分为了 以下 6 项主要的表格分析任务 ,以全方位评估模型在不同类型任务中的性能:

除了表 4 中已有的基准,团队构建了一个 新基准 RealTabBench 。现有基准大多侧重于简单的任务,不符合实际使用场景。为了克服这一局限性,团队构建了这个更具挑战性、更能反映实际应用场景的新基准,从商业智能(BI)场景中的真实表格中收集了 360 个复杂数据表格,并在此基础上制定了 6000 个真实、复杂的查询语句。

在评估模型性能时,团队采用了两个在实际应用中特别难处理的表格特征,分别是:

同时,针对新基准 RealTabBench,团队又从三个关键维度对生成的结果进行了评估,即 一致性、信息完整性和安全性

为了保证权威性,团队采用人工评审员与评估 LLM 结合的混合系统来生成最终的分数,并已经公开了整个评估流程中的部分样本。

评估结果

下表 5 展示了 TableGPT2 (7B 和 72B 版本)与最先进基线模型的比较结果。值得注意的是,在没有对任何特定基准训练集进行大量训练的情况下,TableGPT2 显著优于几乎所有其他 LLM 方法。并且 在某些基准上,TableGPT2 能够媲美甚至优于 GPT-4o。

另外,在涉及分层结构表格的复杂数据基准(如 HiTab)上,当前大多数 LLM 方法表现不佳。相反,TableGPT2 有了明显改进,与 Qwen2.5 系列模型相比,执行准确率实现了 60% 以上的绝对增长。

同样地,对于 RealTabBench 数据集,TableGPT2(7B)在多项任务上均达到了新 SOTA。

为了更直观地展示 TableGPT2 的效果,团队选择了几个比较案例(vs Qwen2.5 系列模型),涵盖了不规则表格、一般表格和模糊表格的场景。具体结果如下图 4 所示。

最后, 针对表格相关任务对 LLM 微调不应损害其整体性能 。为了验证这一观点,团队在下表 7 中对流行的基准展开评估,包括 MBPP、HumanEval、CMMLU 和 MMLU。

结果显示,TableGPT2 在这些基准上保持了强大的性能,并没有出现通用能力的下降。

未来改进方向

不过,团队也表示,尽管 TableGPT2 在评估中实现了 SOTA,但尚未完全解决在实际 BI 环境中部署 LLM 的挑战。因此距离将该模型可靠地用于生产系统仍有一些差距。团队提出可以采用以下几种关键的技术与方法来解决。

一是针对 特定领域进行编码

团队虽然利用 Python 和 SQL 数据对 TableGPT2 进行了微调,但考虑到安全和效率等因素,特定领域通常需要专门的编码。这就面临一个关键挑战:如何使 LLM 能够快速适应企业特定的 DSL 或伪代码?拿 TableGPT2 来说,虽然它可以生成代码,但问题在于如何有效地弥合这些代码与企业数据基础设施特定需求之间的差距?

在 TableGPT2 中,团队采用了一种混合输出方法,结合使用了结构 DSL 输出和标准编程代码。这使得模型流畅地生成结构化和非结构化代码,在提供灵活性的同时可以保持领域特定应用所需的结构。

这些领域特定语言可以提供更好的可解释性,允许通过用户友好的界面更直接地与 LLM 输出进行交互。同时,这些语言可以最大限度地减少潜在的安全风险和错误,从而带来更安全、更强大的解决方案。

团队认为,生产环境中的编码不单单是简单的代码生成,需要仔细考虑领域特定的需求、基础设施兼容性以及灵活性与安全性之间的平衡,在混合使用 DSL 和通用代码时更要如此。

二是 多智能体设计

尽管 TableGPT2 在表格相关任务中取得了 SOTA 性能,但仍然不能指望单个端到端 LLM 能够独立地完全解决复杂的真实任务。因此,团队最近在密切关注一项新的研究 —— 自动化智能体系统设计,它遵循了 LLM 工作流的自动化编排原则。

其中多个 LLM 被组织成有向无环图(DAG)结构,这样输入查询可以根据图的拓扑顺序自动路由到一系列 LLM 中。每个 LLM 执行一项专门的功能。DAG 流程由系统本身决定,并根据手头任务决定要用到哪些 LLM。这种自动化流程工程创建了一个灵活的模块化工作流程,并根据问题需求动态调整,正如 AutoML 系统自动配置机器学习模型以获得最佳性能一样。

这样的例子还有很多,比如用于股票和基金推荐的小型自然语言应用,它需要将 LLM 与实时市场数据连接起来。在这种多智能体架构中,通常需要为不同的 LLM 分配不同的角色,每个 LLM 都要在针对其功能专门定制的数据上进行微调。每个 LLM 还要根据输入来配置不同的提示词模版和 RAG 设置,并在输出阶段应用不同的编码和对话逻辑。这样一来,每个阶段的定制微调可以确保整个 pipeline 提供精准和上下文感知的响应,从而解决真实应用的复杂性。

一个足够先进的单一基础模型最终能不能取代链接多个模型的需要呢?团队认为这在很大程度上仍是理论上可行。这种模型需要拥有足够的通用智能来处理统一框架内的各种任务。但从自身经验出发,团队表示通常需要两个以上的 LLM 才能解决真实应用的全部复杂性。因此,团队认为,单一模型何时能够熟练、无缝地解决跨多个领域的问题仍不确定,在生产阶段尤为如此。

三是 充分利用表格的多功能性

这些表格与数据库等基础设施中的表格往往差异巨大,因为人们日常使用的表格常常并不规则。举个例子,Pages 或 Excel 中的表格常常有合并单元格、不一致的行列结构、非标准的数据格式。这些不规则会让此类表格的处理复杂度更高。另外,不同组织机构使用的表格形式差异也很大,比如有些单元格可能会包含自由形式的文本、有些单元格没有填充等等。

在 TableGPT2 模型所在的智能体工作流程中,该团队还专门为规范不规则表格微调了一个单独的 LLM,并将其集成到一个整体系统中。然而,处理不规则表格仍有很大的改进空间,尤其是考虑到其巨大的商业生产潜力。

因此,该团队猜想,要处理这种不规范,就应该从预训练阶段开始,以确保模型能够熟练处理表格的各种格式。

当前的许多 LLM 以及 RAG 过程都无法充分地处理这些非标准表格结构。此外,许多现有的语料库也常常忽视这类数据。这一有待填补的空白是值得研究者未来探索的宝贵机会。


超长慎入!2024值得尝试的50个AI应用 (文末彩蛋,不要错过)

无论你是打工人、创业者还是学生,AI工具正以不可思议的方式改变工作、学习和生活。 从设计师自动生成创意草图,到自媒体好手轻松跨越创意障碍,再到市场营销精准预测趋势,AI应用无所不在。 2024年的AI神器有哪些值得尝试?美国知名科技风投公司a16z于今年9月公布了面向C端用户的50款流量最高的AI产品排名,基于SimilarWeb截至2023年6月的数据,揭示了AI技术的最新动向。 在AI对话工具方面,ChatGPT、Google Bard、Quora Poe、Claude和Bing Chat(以Copilot形式)脱颖而出。 ChatGPT基于OpenAI的GPT架构,提供流畅自然的对话体验,覆盖文本生成、问答、语言翻译和编程辅助。 Google Bard结合搜索技术与语言理解能力,提供深度、有趣的回答。 Quora Poe根据提问提供专业准确的回复,模拟不同风格和专业知识水平。 Claude专注于高质量、可靠且易理解的对话,适应多种应用场景。 Bing Chat作为Microsoft Edge浏览器内置功能,提供便利和创新搜索体验。 文心一言是网络公司的聊天机器人,与国际知名聊天机器人ChatGPT竞争。 它支持文本生成、中文理解和多模态生成,特别适用于处理中文语境和文化细节。 文心千帆则包括网络全套文心大模型和开发工具链,拓展了应用范围。 AI写作工具方面,Notion AI、AI小说故事创作工具、AI语法检查写作助手和AI智能文本校对工具缺毁等脱颖而出。 Notion AI整合云端协作功能与自然语言处理技术,简化用户操作。 AI小说故事创作工具能够自动生成小说、诗歌等文本,提供定制化建袭银议。 AI语法检查写作助手如Grammarly,提供在线语法检查和写作辅助,帮助用户避免错误。 AI智能文本校对工具如讯飞智检,专注于检查和纠正语法、拼写和标点错误。 AI办公工具包括强大AI内容检测解决方案、准确的人工智能翻译工具、AI幻灯片展示生成工具和AI生成Excel表格工具。 这些工具通过AI技术实现高效、准确的信息管理和内容生成。 AI设计工具如Magic Design、Midjourney、Stable Diffusion、Dall-E 3和Leonardo AI等提供从设计想法拍扮宴到实现的全面支持。 Magic Design通过AI辅助快速定制设计,Midjourney提供先进图像生成,Stable Diffusion基于深度学习生成图像,Dall-E 3专长于准确图像生成,Leonardo AI则提供人像处理、修复和增强功能。 AI视频工具如HeyGen、Pika、自研Gen-2模型和Fliki等,通过AI技术将文本或图片转化为视频内容。 HeyGen支持数字人生成与语音驱动,Pika提供多种风格的视频生成,自研Gen-2模型实现文本到视频流畅生成,Fliki则能将文本转化为自然语音配音的视频。 AI工具正以革命性的方式改变我们的工作、学习和生活,从设计到写作,从办公到视频创作,AI为用户提供前所未有的便利与创新体验。 无论是数据分析、创意表达还是日常生活的便利,AI技术都能成为你的得力助手。 更多AI资讯,点击链接了解。

全面对标OpenAI生态!智谱AI推出GLM-4大模型全家桶,GLMs上线,不会编程也能创建Agent

智能革命新纪元,智谱AI引领潮流!

智谱AI以卓越的创新力,推出了GLM-4大模型全家桶,犹如一颗璀璨的明珠,挑战OpenAI生态的前沿。 这款新一代模型性能提升高达60%,在多项关键指标上逼近GPT-4,堪称技术里程碑。 GLM-4不仅支持长文本处理、多模态交互,还具备快速推理和并发执行的能力,大大降低了推理成本,让技术触手可及。

CEO张鹏强调,智谱AI构建了全方位的技术架构,涵盖了多模态、代码生成等多个领域,致力于追赶并超越OpenAI的技术深度。 GLM-4的亮点在于其个性化定制和智能体功能的整合,通过MaaS平台提供API,让非程序员也能轻松创建高效Agent。 开源内核模型的引入,促进了技术共享和创新探索。

在实际应用中,GLM-4展现了卓越的性能。 在评测中,它在语言理解、数学问题解决和跨语言任务上超越GPT-3.5,甚至在专业领域的中文对齐和特定能力上世大灶超越了GPT-4。 从生成连续故事到执行复杂计算,GLM-4在网页浏览的准确度上更是超越了GPT-4,展示了强大的联网和Function Call能力,中文理解的深度更是超越了国际同行。

特别是,智谱AI的创新之作如CogView3和GLM-4V,分别在手部图像生成、语义理解以及表格转换等方面展现了仿燃令人瞩目的能力。 通过它们,用户可以轻松地进行数据可视化,从屏幕内容中提取信息并执行任务,向着多模态智能助手的目标稳步迈进。

为了推动科技进步,智谱AI积极设立大模型基金,包括CCF-智谱和SMP-智谱,总额超过10亿元,支持科研与创业的创新实践。 通过开源,智谱AI与全球2000多家伙伴紧密合作,从Transformer架构的开源到GLM-130B的发布,持续推动AI技术的开放与共享。

尽管起步相对较晚,但智谱AI的GLM系列凭借卓越搜扮的性能和广泛的商业应用,已成为亚洲在国际舞台上的重要代表。 2023年,ChatGLM-130B的迭代升级和开源下载量突破千万,彰显了公司在开源与商业化领域的实力。 面对国际竞争的焦点,智谱AI坚定走MaaS路径,呼吁全球伙伴共同构建自主可控的AI未来,以开放创新的姿态迎接新的挑战和机遇。

浙大这项新技术让人工智能更“聪明”

电信诈骗为何能在第一时间被识别并拦截?

杭州日报讯 电信诈骗频发,有没有办法在第一时间识别并及时阻拦?这个反欺诈案件中遇到的难题,正在被破解。 数据显示,经过技术干预,欺诈案件的识别准确率比碰贺以往提升了20多倍,每个月有效阻止100多件电信诈骗案,有的案件甚至在打款前一分钟被成功拦截。

昨天上午,浙江大学披露了这项技术——OpenKS(知目)知识计算引擎开源项目,目前项目已被广泛应用到安防、金融风控、智慧城市、工程教育等领域。 例如,引入OpenKS后,相关企业将100多种反欺诈的专家规则、600多个欺诈案例、20多类欺诈行为,与行业数据结合进行建模应用,使反欺诈案件被实时识别得以侦破。

将大数据转化成结构化信息

在录入一些个人信息的时候,可以在表格中设计好表头,按条目分别输入姓名、年龄、出生地等信息,计算机能够很容易地读取这些信息并加以整合、应用。 而如果用一段文字“小A于1982年出生在杭州”来描述的话,计算机读取信息的时候可能就会“懵圈”。

为什么?因为表格是有结构的,而文字是非结构性的。 对于目前的人工智能来说,非结构性数据只是数据,还不是知识,更不能被用于决策了。

其中关键的原因就是数据与知识之间的转化还不是很顺畅。 在没有“学习”之前,计算机不知道西湖区是杭州的一个城区,无法判断一个名词是人名、产品名抑或是公司名,而视频也只是一段数据流。

为了解决这个难题,2019年12月,以浙江大学计算机学院庄越挺教授作为首席科学家的 科技 创新2030“新一代人工智能”首批重大项目——“可泛化的领域知识学习与计算引擎”正式启动。

其中,知识图谱作为最重要的知识表示方式,成为研究热点。 “简单地说,知识图谱就是对信息的结构化表达,比如把一篇文章‘改成’一个表格。 ”庄越挺说,“目前OpenKS已基本支持知识学习与计算全流程主要任务,涉及多模态数据知识抽取、知识表征、分布式知识学习与计算、知识服务与智能应用等环节。 ”

为多个行业构建知识图谱

如果你输入一段文字“我喜欢小米”,计算机能分析出“小米”指的是手机还是一个人吗?

计算机能根据高中生历年成绩与特点,提供填报高考志愿的建议吗?

计算机能提供购房、买车的建议吗?能帮人打官司吗?

这些年来,人工智能的迅速发展改变着人类的 社会 生活,但是当下的人工智能还有很多不够“聪明”的地方,在应用中往往得不到想要的结果。 此次,浙大与合作单位研发的OpenKS知识计算引擎,正是指向解决“人工智能不够智能”的这个问题。

目前,项目由浙江大学牵头,联合北京大学、北京航空航天大学、哈尔滨工业大学、西北工业大学、之江实验室等顶尖学术机构,以及网络、海康威视、同盾 科技 、科大讯飞等行业领军企业,帮助知识密集型行业快速地构建行业知识图谱,提供行业相关的智能规划与决策支持。

中国工程院院士、国家新一代人工智能战略咨询委员会组长、浙江大学计算机学院教授潘云鹤说,OpenKS作为态碧知识计算引擎项目中的基础软件架构,定义并丰富了知识计算的内涵,这种从跨领域知识自动归纳与迁移,到可泛化的知识演化与协同推理,再到永不停息的自主知识学习与计算服务的思路,将会加速众多知识密集型行业向智能化过度的过程,是我国在大数据人工智能方向的又一次有益尝试。

如何运用大数据智能手段助力区域产业发展升级及 科技 创新决策? OpenKS给出了新路径新方法。 杭州量知数据 科技 有限公司以OpenKS知识计算引擎为内核,研制了SuperMind智能计算平台。 相较于传统人工方式,通过这个平台,最快只需一周即可构建完成高质量的产业链及创新链知识图谱。 目前已服务于浙江省全球产业链精准合作招商平台、浙江省产业链数据中心和浙江省三大科创高地关键核心技术攻关笑闭派数字化平台等项目。

老行当激发新活力 广东 小家政撬动大产业 南粤家政
看到我头皮发麻! 第一次听详细的顺产过程 宝妈们分享自己经历