Graphon AI 结束隐身状态并推出全新的“智能层”,声称该技术能提高大语言模型的效率,使其能够处理几乎无限的数据。
Graphon AI 结束隐身状态并推出全新的“智能层”,声称该技术能提高大语言模型的效率,使其能够处理几乎无限的数据。

人工智能初创公司 Graphon AI 已获得 830 万美元的种子轮融资,旨在解决当前人工智能的核心局限:理解海量且相互关联的数据集所需的高昂计算负荷。该公司的“智能层”旨在大型语言模型之外映射数据间的关系,此举有望降低处理成本并释放此前难以触及的信息洞察力。
Novera Ventures 的 Arvind Gupta 是本轮融资的领投方,他表示:“这是一种全新的基础技术,而非仅仅是稍微提高 AI 效率的工具。”
该公司指出,即使是最先进的大语言模型,一次也只能处理数百万个标记(tokens),而各机构在文档、视频、日志和数据库中却拥有“数万亿个标记”。Graphon 的 830 万美元种子轮融资获得了 Perplexity Fund、Samsung Next、GS Futures、Hitachi Ventures 等机构的参与,将用于构建其旨在弥合这一差距的 AI 基础设施级别产品。
该技术的成功可能通过提供一种比现有方法更高效、更具扩展性的替代方案,从而影响 AI 基础设施格局。对于坐拥海量非结构化数据集的公司而言,它提供了一种更廉价地提取价值的潜在途径。这可能会影响未来的投资趋势,并影响那些依赖大规模大语言模型的公司的竞争地位。
这家总部位于旧金山的公司由亚马逊前高级应用科学家 Arbaaz Khan 创立,他目前担任首席执行官。Khan 表示,其核心思路是在数据接触大语言模型之前,为组织的整个数据宇宙(从文档和视频到系统日志)创建一个关系图谱。这种预处理旨在提高效率,避免让庞大的模型反复分析所有数据以寻找关联。
Khan 从他在宾夕法尼亚大学攻读机器人学博士的工作中汲取了灵感。他解释说,机器人在定义的空间内操作时,可以利用对该结构的了解来减少其计算需求。他将类似的思路应用于数据,利用了“graphon”(图形极限)这一数学概念,该概念可以基于共享的关系属性识别并将不同的用户或数据点分组为“邻域”。虽然大语言模型中的 Transformer 技术需要消耗巨大的能量来弄清楚哪些词相关,但 Khan 的智能层则独立完成这项工作。Khan 表示:“我们将构建这种大型关系表示……并将其馈送给模型,而不是让模型承担所有繁重的工作。”他认为这将带来巨大的成本节约,并指出“运行这个 2 亿参数的模型一千次,比尝试运行一个 5 万亿参数的模型一小时要高效得多。”
韩国企业集团 GS 已通过其 GS Futures 部门投资并开始使用该技术。GS 负责 52g 数字转型计划的副总裁 Ally Kim 表示,团队使用 Graphon 来改进对监控施工现场安全合规性的闭路电视录像的分析。该公司还利用该技术更高效地分析足球运动员的视频,以便为 GS 赞助的球队挖掘人才,评估球员的动作、优势和劣势。Kim 说:“我们确实需要将知识范围扩展到多模态,如语音、视频或其他语境。Graphon 可以提供很好的支持。”
本文仅供参考,不构成投资建议。