我们有一个通信应用程序已经在 IOS 平台上发布了 8 年多,最近我们在新 iPhone 14 上遇到了问题。 我们将音频 session 类别 AVAudioSessionCategoryPlayAndRecord 与 AVAudioSessionModeVoiceChat 一起使用。 我们还使 ...
我们有一个通信应用程序已经在 IOS 平台上发布了 8 年多,最近我们在新 iPhone 14 上遇到了问题。 我们将音频 session 类别 AVAudioSessionCategoryPlayAndRecord 与 AVAudioSessionModeVoiceChat 一起使用。 我们还使 ...
我正在尝试使用AVAudioRecorder或AUAudioUnit录制语音音频。 在两者中,开始录制后,每当调用AVCaptureDevice.showSystemUserInterface(.microphoneModes)并选择语音隔离时,都会出现以下错误: “语音隔离和广谱目前不可用” ...
我正在尝试从 AudioUnit 读取信息: 它总是让我想起一个错误:kAudioUnitErr_InvalidElement(错误代码:-10877) 你能告诉我吗? ...
我目前正在研究AUAudioUnit (AUv3),它需要加载位于主机应用程序包中的文件。 这需要将文件路径(即:字符串值)作为参数传递给音频单元,但我看不到如何使用AUParameter执行此操作,因为它似乎只支持浮点值( AUValue )。 有谁知道这是否可能? 如何? 非常感谢 ! ...
我正在为 iPad 开发一个语音通信应用程序,具有播放和录制功能,并使用类型为 kAudioUnitSubType_VoiceProcessingIO 的 AudioUnit 来消除回声。 在初始化录音音频单元之前播放音频时,音量很高。 但是,如果我在初始化音频单元后播放音频,或者在切换到 remo ...
我目前有一个 RemoteIO 音频单元配置和工作,它只是接收输入,并将其传递给输出,所以当我对着它的麦克风说话时,我可以通过我的 iPhone 耳机听到自己的声音。 我想要做的下一步是添加可选效果并创建一个链。 我知道AUGraph已被弃用,我需要使用kAudioUnitProperty_Mak ...
我正在使用Audio Unit RemoteIO实时音频渲染,我需要进行采样率转换以确保我的渲染与硬件规范的采样率相同。 例如。 iPhone 12 的采样率为 48khz,但 iPhone 8 的采样率为 44.1khz。 为了进行这种采样率转换,我使用了AudioConverterFillC ...
我正在使用 Audio Unit RemoteIO 来获得低延迟的音频输出。 我的问题是 AFAIK 音频单元只接受几种音频格式,具体取决于硬件。 我的问题是我有一个 C++ DSP 声音引擎,它适用于浮动交错 PCM。 我不想实现格式转换器,因为它会减慢远程 IO 回调的速度。 我尝试使用以下格式 ...
我想在 ios 中使用 AUGraph 使用 Audiounit 播放立体声,但我面临的问题是“当我想以 48000 采样率以立体声模式播放时,我的声音播放速度很快”。但它适用于单声道声音(单声道) )。 这是我的代码。 在这堂课中,我只是播放立体声的波形文件。 在这方面的任何帮助将不胜感激。 ...
音频单元子类型为 kAudioUnitSubType_VoiceProcessingIO,并使用 kAudioOutputUnitProperty_CurrentDevice 设置音频单元的设备 ID 线程跟踪: ...
我正在尝试使用 iOS 中的音频单元播放音频缓冲区。 音频缓冲区来自 C 库,该库从 Playstation 4 接收音频并使用 Opus 对其进行解码。 音频缓冲区的格式是 PCM int16_t。 使用 Audio Unit 和 TPCircularBuffer,我已经完成了播放声音。 然而,它 ...
我有一个应用程序也应该作为 AudioUnit 插件工作。 在 Xcode,我 go 到文件 > 新建 > 目标,select AudioUnit 并确保选择的语言是“Swift”。 不过,在生成的代码中,我知道插件的实际代码在 "h"、"m" 目标 C 文件中: 如何在 Swift ...
我正在维护一键通 VoIP 应用程序。 当 PTT 呼叫运行时,应用程序创建音频 session 使用 OutputAudioQueue 播放接收到的音频,并使用 Voice-Processing I 捕获麦克风音频(如 Apple 文档中所述: https://developer.apple.c ...
当我使用 XCode 中的模板构建音频单元扩展(乐器/aumu)时(新项目→应用程序,然后新目标→音频单元扩展),然后使用 Logic Pro X 或 Garage Band 构建并运行它,插件仅起作用当它插入的轨道被选中时。 如果选择了任何其他轨道,例如,断点。 process 或 handle ...
我正在使用音频单元生成器AudioFilePlayer在 MacOS 中读取和播放音频文件AudioComponentDescription fileplayercd = {0}; fileplayercd.componentType = kAudioUnitType_Generator; file ...
我在生产中有一个 Xamarin.iOS 应用程序,它使用大量带有声音字体的 MIDI。 我正在使用 appcenter.ms 来捕获崩溃和记录事件。 我的用户偶尔会(而且很少)发生一次崩溃,我无法重新创建和排除故障。 根据崩溃报告,它发生在许多不同的设备和 iOS 版本上。 似乎是随机的。 我还在 ...
我在使用 iOS 14.2 引入的应用程序中遇到了非常一致的崩溃。 我们正在使用 Crashlytics 来跟踪崩溃,并且可以确认 100% 的这些新崩溃发生在 14.2 及更高版本上。 我还能够在 14.2 和 14.3 的当前第二个 beta 版本上重新创建我无法在 14.1 上重新创建它。 此 ...
我可能在这里做一些非常愚蠢的事情,但这让我陷入困境。 我正在尝试显示音频单元的视图(如果有的话)。 我的理解是 AU 工厂 class 应该返回一个 NSView (我不担心某些 v3 单元返回 ViewController 的选项)。 我有这个方法: 直到最终尝试强制转换为 NSView 之前, ...
我在 macOS 上开发 VoIP 应用程序,并使用 VoiceProcessingIO 音频单元进行音频处理,如回声消除和自动增益控制。 问题是,当我初始化音频单元时,核心音频设备列表会发生变化 - 不仅是通过添加 VP 音频单元满足其需求的新聚合设备,还因为内置输出设备(即“内置 - 在 Ma ...
我使用音频单元(子类型:VPIO)来播放音频。 网络发送的音频有抖动 问题: 1 .音频单元的启动时间不固定,有时是250MS,有时是400MS(在不同的iPhone iPad 中) 2 . 播放回调周期甚至不是某个时间。例如我们 8K Sample_rate,大部分时间在 23milliseco ...