这是一段代码,用于设置Gstreamer管道以从iPhone麦克风接收音频并将其发送到已配置的udpsink。 请注意,由于我尚未找到适用于iOS的更具体的音源,所以我正在使用“ autoaudiosrc”作为音频源(请告知我您是否可以使用针对iOS的更特定的元素):

...

// create the elements 
source = gst_element_factory_make ("autoaudiosrc", "audiosrc");
codec = gst_element_factory_create (factories->encoder, "codec");
payload = gst_element_factory_create (factories->payloader, "payload");
udpsink = gst_element_factory_make ("udpsink", "sink");

// add elements to the bin and establish links
gst_bin_add_many (GST_BIN (self->sm_pipeline), source, codec, payload, udpsink, NULL);
gst_element_link_many (source, codec, payload, udpsink, NULL);

...

重要说明:我已经在Linux上测试了完全相同的代码,并以ALSA为源(显然不适用于iOS),并且可以正常工作。

谢谢安东尼

  ask by atsakiridis translate from so

本文未有回复,本站智能推荐:

2回复

在iOS中通过蓝牙播放时从内置麦克风录音

是否可以从 iPhone 的内置麦克风接收音频输入,并同时通过蓝牙耳机播放该音频? 我的目标是始终使用内置麦克风作为输入设备,即使输出设备是耳机,因为内置麦克风在我的用例中更方便。 当输出设备是有线耳机时,我知道如何实现我的目标,比如与 iPhone 捆绑在一起的耳机。 我只需插入有线耳机,然后调用
1回复

iOS10.2上的Swift3:如何从麦克风订阅单个样本?需要实时处理音频

我正在尝试为iOS 10.2构建一个应用程序,该应用程序通过实时处理麦克风输入来工作。 出于本应用程序的目的,我需要能够在每次麦克风接收到PCM音频的每个样本后,对每个样本进行计算。 我有一个用于AudioUnits和AVAudioSession的麦克风的原型,该原型使用AURenderC
1回复

iOS-可以录制蓝牙耳机麦克风的音频并播放设备扬声器

我正在尝试通过蓝牙耳机麦克风录制音频并通过设备扬声器播放。 我看到很少有堆栈溢出后重新编写相同的但仍然没有得到这是否可能? 如果可能的话怎么做? 如果有人有任何想法请通知我。
2回复

仅使用iPhone中的顶级麦克风

据我所知,iPhone上有2个麦克风。 1位于音频插孔旁边的顶部附近,另一个是您要讲话的麦克风。 默认麦克风似乎是您要讲话的麦克风。 如何通过编程选择使用哪种麦克风? 我正在为我的应用程序使用Core Audio。 基本上,我想使用顶级麦克风进行录音。 目前,当我录制底部麦克风时
1回复

iOS中的GStreamerAAC音频流延迟

我正在使用GStreamer SDK在iOS设备上播放aac音频流 ,其工作正常,但延迟超过2.0秒。 我可以将延迟降低到2.0秒以下吗? 可能存在一些缓冲问题。 这就是我创建管道的方式
1回复

麦克风输入到iOS设备上的扬声器输出?

如何将麦克风输入重定向到iOS设备上的扬声器输出? 我知道它反馈超时,但我怎么能在代码中做到呢?
3回复

使用GStreamer(或其他库)检测麦克风上的吹气[关闭]

我可以使用GStreamer(或其他兼容Linux的声音库)检测麦克风上的吹气吗? 我可以得到一些有关声音的信息: 我用它来检测鼓掌,但我不知道我是否可以使用这些信息来检测吹气,而不会让我的电脑混淆吹嘘和说话。 另外,我不知道是否有另一种方法可以使用GStreamer或其他兼容Linu
1回复

Gstreamer一次不播放多个流

我正在开发一个应用程序,它需要使用Gstreamer一次播放多个RTSP流,它可以正常工作,单个流,因为我添加第二个流,第一个流停止和第二个开始播放,几秒后,它也停止和应用程序崩溃。 这是APP流视图的屏幕截图 当APP崩溃时,这个截图 我更新了Gstreamer.framework