WebAudio 从波点发声
WebAudio sounds from wave point
假设我制作了一个简单的 canvas 绘图应用程序,如下所示:
我现在有一系列的观点。我如何将它们提供给某些 WebAudio 对象(振荡器或字节数组或其他东西发出的声音)以实际生成并播放它们的波(在本例中为正弦波)?它背后的理论是什么?
如果您将图形中的数据存储在数组 y 中,您可以执行以下操作
var buffer = context.createBuffer(1, y.length, context.sampleRate);
buffer.copyToChannel(y);
var src = context.createBufferSource();
src.buffer = buffer;
src.start()
您可能需要将 context.createBuffer
中的采样率设置为 context.sampleRate
以外的值,具体取决于图表中的数据。
假设我制作了一个简单的 canvas 绘图应用程序,如下所示:
我现在有一系列的观点。我如何将它们提供给某些 WebAudio 对象(振荡器或字节数组或其他东西发出的声音)以实际生成并播放它们的波(在本例中为正弦波)?它背后的理论是什么?
如果您将图形中的数据存储在数组 y 中,您可以执行以下操作
var buffer = context.createBuffer(1, y.length, context.sampleRate);
buffer.copyToChannel(y);
var src = context.createBufferSource();
src.buffer = buffer;
src.start()
您可能需要将 context.createBuffer
中的采样率设置为 context.sampleRate
以外的值,具体取决于图表中的数据。