cost 141 ms
从 Unity 中的 HoloLens 2 访问眼睛注视时间戳(用于全息远程处理) - Accessing eye gaze timestamp from HoloLens 2 in Unity (for Holographic Remoting)

我正在尝试使用eyeGazeProvider.Timestamp从 HoloLens 2 获取眼睛注视数据的时间戳。 根据文档,这应该返回“信号最后更新”的时间。 但是,如果我在全息远程处理的上下文中使用它,它会返回在 Unity 中渲染帧的时间,这当然发生在远程服务器中并且不反映眼睛注视样本的实 ...

使用全息远程处理时来自 SpatialPointerPose 的视线 - Eye gaze from SpatialPointerPose while using Holographic Remoting

我正在使用SpatialPointerPose API 从 HoloLens 2 眼动仪获取数据(为简洁起见,未进行安全检查): 这似乎在使用Holographic Remoting时也有效。 但是,我对这种情况下眼动数据的计时/同步有一些疑虑,因为远程服务器和HoloLens之间会有一些延迟吗? ...

如何使用 C# 中的 HoloLens 2 在 2D UWP 应用中获取 Eye-gaze 位置 - How do I acquire the Eye-gaze location within 2D UWP Apps with HoloLens 2 in C#

在线文档,例如 - 2D 应用程序设计注意事项:UI/UX状态在 2D UWP 应用程序中 当用户用运动控制器注视某物或指向某物时,会发生触摸悬停事件。 这包含一个 PointerPoint,其中 PointerType 为 Touch,但 IsInContact 为 false。 这意味着 ...

SwiftUI 眼动追踪:眼动追踪性能缓慢,但在设备旋转时运行流畅 - SwiftUI Eye Tracking: Eye tracking performance is slow but on device rotation runs smoothly

我最近开始在 SwiftUI 上编写代码,但没有应用程序编程方面的知识或经验。 我有一个使用此框架的简单眼球注视跟踪应用程序: https ://github.com/ukitomato/EyeTrackKit 使用给定的示例,我运行了以下代码: 发射时,圆圈几乎不移动,每 3-5 秒更新一次 ...

如何使用 Ceres Solver 库拟合二阶多元多项式(3D 表面) - How to fit second-order multivariate polynomial (3D surface) using Ceres Solver library

我想使用非线性最小二乘法找到以下传递函数: 其中 a, b, c, d, e, f, g 是我们需要找到的系数。 x、y、z 是可变的。 在我的实验中,x 和 y 分别是瞳孔闪烁向量的垂直和水平坐标。 此外,z 是不同距离的给定点的垂直坐标。 我对模板编程不熟悉,所以希望你能指导我如何使用C ...

在新数据帧 R 中扩展时间序列 - Expand time series in new dataframe R

我是 R 新手,我收集了具有以下结构的眼动追踪数据: 其中,屏幕上显示的不同区域的固定时间以毫秒为单位测量,从开始(Fixation Start)到结束(Fixation End)。 每一行都是一个固定点。 我想要做的是在新数据帧中将数据重塑为 50 毫秒的时间段,以便每个时间段(行)反映当时 ...

在“eyetrackingR”package 中对用于分析的眼动追踪数据进行预处理 - Pre-processing of eye-tracking data for analysis in the 'eyetrackingR' package

'eyetrackingR' package 似乎有望用于分析眼动追踪数据,但在尝试以适当格式获取数据时遇到问题。 感兴趣区域 (aoi) 设置有左、右、下和上边界,我想评估任何试验的 xy 坐标是否落在给定区域内。 该区域因参与者而异(基于他们的屏幕分辨率),但在试验中保持不变。 我试图在下面的 ...

分析从移动眼动仪获得的眼动和头部运动数据 - Analysis of eye and head motion data obtained from a mobile eye tracker

我想分析从瞳孔隐形移动眼动仪获得的头部运动数据。 该实验是一项免费观看任务,参与者应该观看投影在大墙上投影的图像(通过光束投影仪),他们可以自由移动眼睛和头部来探索屏幕。 每个实验的 output 是一个具有以下结构的.csv 文件。 数据包含:关于每次试验的每个记录的头部运动的时间戳(以秒为单位) ...

使用 if else 语句创建可根据呈现的刺激进行调整的灵活公式 - Using if else statements to create a flexible formula that can adjust based on stimuli being presented

我希望一切都好。 我最近开发了一个代码(在很棒的堆栈溢出社区的帮助下)来计算第一次注视的时间、第一次注视持续时间和对感兴趣区域的总访问持续时间。 我现在想更新它,以便它可以根据呈现的刺激进行调整。 具体而言,每个刺激之间的 x 和 y 坐标变化很小。 我有一个刺激坐标的示例电子表格。 如果我能读懂这 ...

在 matlab 中,点从一个角移动到另一个角(在监视器周围) - Dot moves from corner to corner (around monitor) in matlab

我正在尝试创建一个球或点或任何从左下角到右下角然后右上角然后左上角然后在开始时左下角的东西。 基本上围绕着屏幕。 全屏显示这一点很重要。 对于全屏图形,我使用的是 WindowAPI。 所以这是我的代码。 为简单起见,该点仅从左下角到右下角。 但是有两个问题。 点滞后有时这是一个问题 ...

从一系列注视(眼动追踪;R)计算首次注视时间、首次注视持续时间和访问持续时间 - Calculating time to first fixation, first fixation duration, and visit duration from series of fixations (eye tracking; R)

我希望每个人都做得很好。 我目前正在处理眼动追踪数据集。 我已经使用 R package“gazepath”处理了注视。 这为我提供了 output 对 ax/y 平面上特定坐标的注视。 我的目标是计算:第一次注视持续时间、第一次注视时间和一系列感兴趣区域的总访问持续时间,这些区域对应于每次试验的 ...

如何在 Unity 中获取 HoloLens 2 和 MRTK 的眼动追踪数据? - How to get the Eye tracking data for HoloLens 2 and MRTK in Unity?

我的问题是如何在Unity中使用HoloLens 2和MRTK检索和存储眼球追踪/眼球注视数据(例如用户查看不同时间戳或热图的坐标 position )? 我已经看到一些 C# 代码用于获取凝视的方向和来源,但我不知道将它们放在哪里或在哪里/如何添加它们(以及添加到什么)。 是否可以在不进行编码的 ...

Pupil Labs 眼动追踪摄像头已设置,我的视频输入是否倒置? - Pupil Labs Eye Tracking camera set up, is my video feed inverted?

我刚拿到 Pupil Labs 的眼动追踪头戴设备(只有眼动追踪摄像头,没有世界视角摄像头,普通头戴设备不是 VR)。 我正在使用学生实验室捕捉软件来获取我眼睛的视频并跟踪我的学生以在 Unity 应用程序中使用。 我注意到我的右眼视频输入默认是倒置的(上下颠倒),我想问一下这是不是故意的,或者我 ...

尝试在 p5.js 中使用 createGraphics() 和眼动仪,但它不起作用 - Trying to use createGraphics() in p5.js along with eye tracker and it isn't working

我仍然是一个初学者编码器,我正在制作一个项目,其中两个客户端的眼睛位置(通过套接字联网)在 canvas 上的相同位置着陆时会播放它着陆的音符。 我仍处于该项目的开始阶段,目前,我正在尝试在 canvas 上绘制客户的眼睛 position,而在 p5 渲染器 ZA8CFDE6331BD59EB2A ...

在 Android Studio 上移动鼠标指针 - Moving mouse pointer on Android Studio

我正在开发一个基于眼睛坐标移动鼠标指针的眼动追踪应用程序。 我成功检测到眼睛的坐标,但无法创建相应移动的鼠标指针。 我是 Android 开发的初学者,我真的被困在这一点上。 为了澄清我的问题,我需要指针像eva 面部鼠标一样移动,除了使用眼睛坐标而不是面部。 ...

R 中的 X 和 Y 坐标。是否有明显的方法可以删除距离给定点一定半径的数据? - X and Y coordinates in R. Is there an obvious way to remove data that is a certain radius away from a given point?

我正在尝试清理一些眼动追踪数据,在这些数据中,人们被告知要专注于屏幕中间。 但是,数据有些嘈杂,我正在尝试以适当的方式对其进行清理。 我已经创建了一些代码来模拟我拥有的数据类型和我尝试使用的方法以及我在下面展示的内容。 带有噪声的完整数据如下所示: 我尝试使用一个简单的公式将所有样本抛出比中 ...

如何在播放视频时通过 PyQt 从眼动仪中绘制眼动数据 - How to draw eye gaze data from eye tracker by PyQt while a video is playing

我正在通过 PyQt5 构建一个像这样的眼睛注视可视化工具,我还检查了这篇文章。 这是通过修改上述链接的代码。 结果它奏效了,但有时视频总是卡住(音频正常,帧卡住,视频内容和椭圆,就像这个视频一样),有人可以帮忙吗? cmd打印信息在这里 ...

使用 OpenCV 进行实时虹膜检测 - 阈值与 HoughTransform - Live Iris Detection with OpenCV - Thresholding vs HoughTransform

我正在尝试创建一个能够在实时视频流中检测和跟踪眼睛虹膜的应用程序。 为了做到这一点,我想使用Python和OpenCV 。 在互联网上对此进行研究时,在我看来,有多种可能的方法可以做到这一点。 第一种方式: 运行Canny Filter来获取边缘,然后使用HoughCircle找到Iris 。 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM