本日报由AI生成,内容可能存在错误,具体可查看原文。
纽约大学团队提出新型AI注视点追踪框架FovealNet,通过事件驱动裁剪(减少64.8%无关像素)和动态令牌修剪策略,显著提升VR注视点渲染效率。该技术将系统延迟降低1.42倍,追踪精度提升13%,并支持多分辨率动态适配,解决了传统方案因长尾误差导致的视觉错位问题,为高性能注视点渲染系统提供优化基础。
2025-05-09 06:10:31来源:YiVian
本日报由AI生成,内容可能存在错误,具体可查看原文。
纽约大学团队提出新型AI注视点追踪框架FovealNet,通过事件驱动裁剪(减少64.8%无关像素)和动态令牌修剪策略,显著提升VR注视点渲染效率。该技术将系统延迟降低1.42倍,追踪精度提升13%,并支持多分辨率动态适配,解决了传统方案因长尾误差导致的视觉错位问题,为高性能注视点渲染系统提供优化基础。
原文链接:https://news.nweon.com/129607
来源媒体:YiVian