|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
作为 Niantic 视觉定位系统(VPS)的关键部分,该团队精心训练了超过 5000 万个神经网络,参数规模高达 150 万亿以上。
LGM 如同为计算机打造的超级智能地图,具备强大的空间理解能力,能够像人类一样理解空间。
在线学习:
空间智能是由李飞飞提出的概念,它涉及到人类在空间计算和AR眼镜领域的发展。
空间智能的核心在于:
这一概念的实现,预示着人类即将进入一个新的时代,其中空间智能可能成为未来世界的操作系统。
LGM(Large-scale Geospatial Model)是宝可梦Go团队构建的一个大规模地理空间模型,它是Niantic视觉定位系统的关键部分。
神经网络训练:LGM通过精心训练超过5,000万个神经网络,参数规模高达150万亿以上,使其具备强大的空间理解能力。
空间理解:LGM能够像人类一样理解空间,具备卓越的3D理解能力,能够智能填补空白,即使是地球上人类尚未全面扫描的区域也能应对自如。
AI赋能:LGM仿佛为AI赋予了眼睛,使计算机不仅能够感知和理解空间,还能以全新的方式与之互动。
应用领域:LGM将为AR眼镜、机器人、内容创建、自主系统等多个领域带来前所未有的突破。
原理:LGM利用大规模机器学习来理解场景,并与全球数百万个其他场景相连接,实现对地理位置的深入理解,包括未扫描之地。
与人类空间理解的比较:人类具有独特的空间理解功能,能够想象熟悉建筑的不同角度模样,而LGM打破了机器在这一领域的限制。
全球模型与本地网络:LGM的训练神经网络可在超过100万个地点运行,每个本地网络都为全球大模型贡献力量。
数据模型的转变:从文本模型到3D数据模型的转变,体现了AI的发展轨迹,地理空间模型比3D视觉模型更进一步,它捕捉特定地理位置且具有公制质量的3D实体,绑定度量空间。
地理空间智能:LGM能够理解场景与全球其他场景的地理关联,实现地理空间智能,让模型从观察中学习并转移知识。
集成与应用:虽然地理空间模型距离3D图形和AR眼镜的大规模市场化还有一段时间,但已能与纯音频或2D显示眼镜集成,提供个性化推荐、助力导航、增强现实互动,还能集成LLM(Large Language Models),加深人们对周边环境与社区的了解互动。
这些技术的发展和应用,预示着空间智能和LGM将在未来的科技领域扮演重要角色,推动AR、机器人技术、自主系统等领域的创新和发展。 |
|