我正在尝试使用eyeGazeProvider.Timestamp从 HoloLens 2 获取眼睛注视数据的时间戳。 根据文档,这应该返回“信号最后更新”的时间。 但是,如果我在全息远程处理的上下文中使用它,它会返回在 Unity 中渲染帧的时间,这当然发生在远程服务器中并且不反映眼睛注视样本的实 ...
我正在尝试使用eyeGazeProvider.Timestamp从 HoloLens 2 获取眼睛注视数据的时间戳。 根据文档,这应该返回“信号最后更新”的时间。 但是,如果我在全息远程处理的上下文中使用它,它会返回在 Unity 中渲染帧的时间,这当然发生在远程服务器中并且不反映眼睛注视样本的实 ...
我正在使用SpatialPointerPose API 从 HoloLens 2 眼动仪获取数据(为简洁起见,未进行安全检查): 这似乎在使用Holographic Remoting时也有效。 但是,我对这种情况下眼动数据的计时/同步有一些疑虑,因为远程服务器和HoloLens之间会有一些延迟吗? ...
在线文档,例如 - 2D 应用程序设计注意事项:UI/UX状态在 2D UWP 应用程序中 当用户用运动控制器注视某物或指向某物时,会发生触摸悬停事件。 这包含一个 PointerPoint,其中 PointerType 为 Touch,但 IsInContact 为 false。 这意味着 ...
我最近开始在 SwiftUI 上编写代码,但没有应用程序编程方面的知识或经验。 我有一个使用此框架的简单眼球注视跟踪应用程序: https ://github.com/ukitomato/EyeTrackKit 使用给定的示例,我运行了以下代码: 发射时,圆圈几乎不移动,每 3-5 秒更新一次 ...
我想使用非线性最小二乘法找到以下传递函数: 其中 a, b, c, d, e, f, g 是我们需要找到的系数。 x、y、z 是可变的。 在我的实验中,x 和 y 分别是瞳孔闪烁向量的垂直和水平坐标。 此外,z 是不同距离的给定点的垂直坐标。 我对模板编程不熟悉,所以希望你能指导我如何使用C ...
我是 R 新手,我收集了具有以下结构的眼动追踪数据: 其中,屏幕上显示的不同区域的固定时间以毫秒为单位测量,从开始(Fixation Start)到结束(Fixation End)。 每一行都是一个固定点。 我想要做的是在新数据帧中将数据重塑为 50 毫秒的时间段,以便每个时间段(行)反映当时 ...
所以我正在尝试使用WebGazer ,但我已经被困在加载 js 文件上。 webgazer.js 文件包含 140k 行代码,但是当我加载我的页面时,js 文件只加载到第 94k 行。 我不想使用 NPM,因为它给我安装和运行 NPM 带来了很多麻烦。 我该如何解决这个问题? 提前致谢 ...
'eyetrackingR' package 似乎有望用于分析眼动追踪数据,但在尝试以适当格式获取数据时遇到问题。 感兴趣区域 (aoi) 设置有左、右、下和上边界,我想评估任何试验的 xy 坐标是否落在给定区域内。 该区域因参与者而异(基于他们的屏幕分辨率),但在试验中保持不变。 我试图在下面的 ...
我想分析从瞳孔隐形移动眼动仪获得的头部运动数据。 该实验是一项免费观看任务,参与者应该观看投影在大墙上投影的图像(通过光束投影仪),他们可以自由移动眼睛和头部来探索屏幕。 每个实验的 output 是一个具有以下结构的.csv 文件。 数据包含:关于每次试验的每个记录的头部运动的时间戳(以秒为单位) ...
我希望一切都好。 我最近开发了一个代码(在很棒的堆栈溢出社区的帮助下)来计算第一次注视的时间、第一次注视持续时间和对感兴趣区域的总访问持续时间。 我现在想更新它,以便它可以根据呈现的刺激进行调整。 具体而言,每个刺激之间的 x 和 y 坐标变化很小。 我有一个刺激坐标的示例电子表格。 如果我能读懂这 ...
我正在尝试创建一个球或点或任何从左下角到右下角然后右上角然后左上角然后在开始时左下角的东西。 基本上围绕着屏幕。 全屏显示这一点很重要。 对于全屏图形,我使用的是 WindowAPI。 所以这是我的代码。 为简单起见,该点仅从左下角到右下角。 但是有两个问题。 点滞后有时这是一个问题 ...
我希望每个人都做得很好。 我目前正在处理眼动追踪数据集。 我已经使用 R package“gazepath”处理了注视。 这为我提供了 output 对 ax/y 平面上特定坐标的注视。 我的目标是计算:第一次注视持续时间、第一次注视时间和一系列感兴趣区域的总访问持续时间,这些区域对应于每次试验的 ...
我的问题是如何在Unity中使用HoloLens 2和MRTK检索和存储眼球追踪/眼球注视数据(例如用户查看不同时间戳或热图的坐标 position )? 我已经看到一些 C# 代码用于获取凝视的方向和来源,但我不知道将它们放在哪里或在哪里/如何添加它们(以及添加到什么)。 是否可以在不进行编码的 ...
我刚拿到 Pupil Labs 的眼动追踪头戴设备(只有眼动追踪摄像头,没有世界视角摄像头,普通头戴设备不是 VR)。 我正在使用学生实验室捕捉软件来获取我眼睛的视频并跟踪我的学生以在 Unity 应用程序中使用。 我注意到我的右眼视频输入默认是倒置的(上下颠倒),我想问一下这是不是故意的,或者我 ...
似乎只有在使用 Apple 的 ARKit 检测到整个面部时,注视跟踪才有效。 有没有办法解决这个问题,仍然可以跟踪眼睛的特写? ...
我仍然是一个初学者编码器,我正在制作一个项目,其中两个客户端的眼睛位置(通过套接字联网)在 canvas 上的相同位置着陆时会播放它着陆的音符。 我仍处于该项目的开始阶段,目前,我正在尝试在 canvas 上绘制客户的眼睛 position,而在 p5 渲染器 ZA8CFDE6331BD59EB2A ...
我正在开发一个基于眼睛坐标移动鼠标指针的眼动追踪应用程序。 我成功检测到眼睛的坐标,但无法创建相应移动的鼠标指针。 我是 Android 开发的初学者,我真的被困在这一点上。 为了澄清我的问题,我需要指针像eva 面部鼠标一样移动,除了使用眼睛坐标而不是面部。 ...
我正在尝试清理一些眼动追踪数据,在这些数据中,人们被告知要专注于屏幕中间。 但是,数据有些嘈杂,我正在尝试以适当的方式对其进行清理。 我已经创建了一些代码来模拟我拥有的数据类型和我尝试使用的方法以及我在下面展示的内容。 带有噪声的完整数据如下所示: 我尝试使用一个简单的公式将所有样本抛出比中 ...
我正在通过 PyQt5 构建一个像这样的眼睛注视可视化工具,我还检查了这篇文章。 这是通过修改上述链接的代码。 结果它奏效了,但有时视频总是卡住(音频正常,帧卡住,视频内容和椭圆,就像这个视频一样),有人可以帮忙吗? cmd打印信息在这里 ...
我正在尝试创建一个能够在实时视频流中检测和跟踪眼睛虹膜的应用程序。 为了做到这一点,我想使用Python和OpenCV 。 在互联网上对此进行研究时,在我看来,有多种可能的方法可以做到这一点。 第一种方式: 运行Canny Filter来获取边缘,然后使用HoughCircle找到Iris 。 ...