7 月 25 日,Memories.ai 正式发布了世界上第一个大型视觉记忆模型(Large Visual Memory Model,LVMM),号称是一种让 AI 拥有「人类式记忆」的底层能力产品。

据介绍,LVMM 不只是处理视频,而是将海量视觉内容压缩、索引、存储为可检索的语义记忆,让 AI 能像人一样「记住」过去看到的东西,并在需要时迅速调用、理解、推理。

Memories AI携全球首个人工智能视觉记忆模型亮相第一张图

官方表示,无论是从数月监控视频中快速定位异常事件,还是跨数百万条社交视频追踪品牌趋势,LVMM 都能帮助 AI 建立起持久的视觉上下文,使其不仅能看,还能记、能懂、能用,最终成为真正理解世界的智能体。

Memories AI携全球首个人工智能视觉记忆模型亮相第二张图

据了解,Memories.ai 创始人沈俊潇为剑桥大学计算机科学博士,曾在 Meta 担任研究员。目前 Memories.ai 已完成了 800 万美元的种子轮融资,由风投机构 Susa Ventures 领投,用于为 AI 构建视觉记忆层。

声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。