是否可以使用 pykinect2 使用多个(两个)kinect2 设备? 我没有找到有关如何调用第二个设备的任何信息。 默认情况下,图像来自主 kinect。 我很乐意为您提供任何建议,谢谢! 我的 kinect 初始化代码 kinect = PyKinectRuntime.PyKinectRunt ...
是否可以使用 pykinect2 使用多个(两个)kinect2 设备? 我没有找到有关如何调用第二个设备的任何信息。 默认情况下,图像来自主 kinect。 我很乐意为您提供任何建议,谢谢! 我的 kinect 初始化代码 kinect = PyKinectRuntime.PyKinectRunt ...
pykinect 和一般 kinect 的新手——试图简单地获取当前被跟踪的物体的数量。 不需要骨骼或关节数据。 只是想获得当前框架中的物体的运行计数。 我正在使用 kinect-v2 和 pykinect2。 更具体地说,我正在尝试跟踪框架中有多少物体以及自该值更改以来经过的时间。 (0 人对 ...
这是在 Unity 项目中完成的。 我目前正在尝试创建一个新的 Azure Kinect Capture 对象,并用来自 K2 创建的颜色、深度和 IR 帧的数据填充它。 由于当时不应该使用 Azure Kinect 摄像头,因此我创建了一个假的 Azure Kinect Calibration, ...
我正在为 XBOX 和 windows 使用 Kinect V2 UWP C#。 为此,我关注了Kinect UWP 演示。 我能够读取和显示帧,如相机帧示例中所示,但我注意到深度和红外图像是彩色的,例如: Kinect studio 和 UWP 应用程序 output 我是新来的,并试图搜索但没 ...
我一直在使用新的 Azure Kinect DK 制作一系列教程,我偶然发现了一些让我难过的东西。 It's a WPF app with an MvvM pattern that takes the output from the Kinect and has a combobox to al ...
我正在尝试从 Kinect 获取 png 格式的头部/面部图像,以便稍后处理面部图像。 我可以使用以下方法计算人脸颜色坐标: 我使用返回的值来裁剪 colorBitmap 并将其存储在我的驱动器上。 当我尝试类似获取红外人脸图像时,它无法正常工作。 我得到一个黑色的图像。 ...
我在哪里可以找到有关可能影响使用 Kinect v2 进行骨骼跟踪效率的表面的资源? ...
我试图让身体跟踪记录在大约 12 英寸高的小型动作玩偶上。我尝试使用其他深度传感器,如 Zed2 和 D435i,它们的骨骼 SDK 将玩具识别为“类人动物”并尝试跟踪骨骼。 是否可以更改世界比例或过滤选项,以便 Azure Kinect 或 Kinect v2 不会忽略玩具? ...
我有一个捕捉深度图像的 kinect (v2)。 在深度图像中,我在桌子上有一些物体; 我想要从 kinect 传感器到桌子上的物体的距离。 如何计算桌子上物体到 kinect 传感器的距离(米或厘米)? 我不知道我是否可以使用图像像素的强度值来进行一些图像处理。 任何帮助表示赞赏。 ...
我正在尝试使用我要移动的对象的实时坐标来移动机械臂。 该物体是由两个彩色的乒乓球制成的,它们由20厘米的杆相连。 我正在尝试使用PCL库和Kinect v2来获取球的坐标(XYZ)。 为了移动机械臂,我尝试使用Kinect SDK的联合数据,但是我还需要确定机械臂末端执行器的方向。 ...
我有一个 Kinect v2 的项目。 我已经从 kinect sdk 下载了 kinect fusion explorer - wpf 示例。 在这个例子中,我得到了一个像图片中左边的网格。 我想让它像正确的一样,没有颜色。 有没有人给我建议可以帮助我弄清楚如何去做? 我只想从流中删除深度颜色。 ...
我使用Kinect SDK 2,C#。 我想用.AVI格式保存颜色流。 我得到每一帧,并用.jpeg格式保存序列号。 我不确定用.png或.jpeg做它更好。 我需要在我的代码中将这些图像转换为.AVI文件。 这是我如何保存颜色流的图像。 你能给我任何建议吗? 我在其中一 ...
我想用来自 kinectV2 的麦克风在 Unity 中录制音频。 我试过:audio.clip = Microphone.Start(null, true, 200, 22050) 但这不起作用。 https://imgur.com/Fh5AaHB 我唯一的输入是 Kinect NUI ...
我开始使用像 intel realsense 这样的相机,并试图了解什么是深度数据? 有一个基本的例子,它给出了每个像素的距离,渲染的视频在更近的地方显示亮,在更远的地方显示更暗。 现在我想知道 1) 那是所有的深度数据吗? 像素 (x, y) - 以毫米为单位的距离。 或者还有更多的深度数据 ...
我是 EmguCv 和 kinect v2 开发的新手。 我正在尝试绘制在空白灰度图像上检测到的手的轮廓。 我遇到了这个总是在代码行之后发生的异常: 这是我的 function 用于绘制轮廓: 这是异常消息: 我正在使用 Visual Studio 2017、Emgu Cv 3.x 并使用 n ...
我目前正在使用kinect V2来访问深度图像。 我使用python PyKinect2中的库来帮助我拥有此图像。 我的第一个问题是: ->我运行KinectStudio 2,并寻找深度图像,我寻找PyKinect2的实现,并且我有不同的图像。 那怎么可能呢? -&g ...
我目前正在使用Pygame和pykinect2从Kinect2相机获取实时RGB视频。 我想将其转换为一个开放的简历图像,以便在以后的计算中对我有所帮助。 ...
我是编程方面的新手,而且在计算机视觉方面非常。 我在大学里分配了一个项目,以使用Kinect2传感器检测物体。 我正在尝试使用VideoCapture方法通过opencv 3.1.0打开Kinect 2传感器。 我正在使用device.open(CAP_OPENNI2)方法打开Kine ...
我正在做一个项目,要求以25 fps捕获,处理和传输来自Kinect v2传感器的所有三个流(RGB,深度和骨架)。 我的程序使用默认设置,所有三个流似乎都以30fps的速度运行。 有没有一种方法可以将其降低到25 fps? 我正在C ++环境中工作。 ...
我最近完成了基于SDK示例CameraFrames的UWP的开发。 在此示例的第二个屏幕上(以及在我的应用程序中),您可以选择预览Kinect v2.0拍摄的帧,如下所示。 在“ Grupo de fontes”(来源组)右侧图像的顶部,我可以在连接到PC的不同摄像机之间进行选择。 ...