需先用 getUserMedia 获取媒体流并确保含音视频轨道,再创建 MediaRecorder;播放须用户手势触发;音频分析需通过 MediaElementSourceNode 接入 AnalyserNode;getSettings() 可能返回空对象,应优先用 getCapabilities() 探测能力。

怎么用 MediaRecorder 录制麦克风或摄像头流?
直接调用 MediaRecorder 前必须先拿到媒体流(MediaStream),否则会报 TypeError: Failed to construct 'MediaRecorder': No media tracks provided。
常见错误是只调用了 navigator.mediaDevices.getUserMedia() 却没等它 resolve 就初始化 MediaRecorder。
- 必须确保
stream.getAudioTracks().length> 0或stream.getVideoTracks().length> 0,否则MediaRecorder构造失败 - 录制前要调用
mediaRecorder.start();不传参数默认每秒触发一次dataavailable事件,传毫秒数(如1000)可控制分片间隔 - Chrome 和 Edge 支持
audio/webm、video/webm;Safari 仅支持audio/mp4(且需 iOS 16.4+ / macOS 13.3+)
const stream = await navigator.mediaDevices.getUserMedia({audio: true, video: true}); const mediaRecorder = new MediaRecorder(stream); const chunks = []; mediaRecorder.ondataavailable = e => chunks.push(e.data); mediaRecorder.onstop = () => {const blob = new Blob(chunks, { type: 'video/webm'}); const url = URL.createObjectURL(blob); // 可赋给
HTMLMediaElement 的 play() 为什么经常失败?
现代 浏览器 强制要求用户手势(click/tap)触发播放,否则 play() 返回 Promise 并 reject:DOMException: play() failed because the user didn't interact with the document first.
- 不能在页面加载完成(
DOMContentLoaded)或定时器(setTimeout)里直接调用play() - 自动播放策略还跟媒体是否含音频有关:静音视频(
muted+autoplay)通常允许,但带声音的必须由用户显式触发 - 检查
video.readyState≥ 2(HAVE_ENOUGH_DATA)再调用play(),避免因未加载完而失败
const video = document.getElementById('myVideo'); document.getElementById('playBtn').addEventListener('click', async () => {try { await video.play(); // 必须在用户 click 内调用 } catch (e) {console.error('播放失败:', e.message); } });
如何用 Web Audio API 实时分析音频频谱?
核心是把 HTMLMediaElement 接入 AudioContext,再用 AnalyserNode 提取频率数据。跳过 MediaElementAudioSourceNode 直接连 AudioContext 会报错:InvalidStateError: Cannot use a source node after it has been disconnected or destroyed.
立即学习“Java 免费学习笔记(深入)”;
- 必须用
context.createMediaElementSource(video)创建源节点,不能用context.createBufferSource() -
analyser.fftSize决定频点数量(必须是 2 的幂,如 256/512/1024),越大分辨率越高但开销越大 - 调用
analyser.getByteFrequencyData(array)前,array 长度必须等于analyser.frequencyBinCount - 注意内存泄漏:监听
requestAnimationFrame时,若视频销毁未清理,analyser仍会持续运行
const context = new (window.AudioContext || window.webkitAudioContext)(); const analyser = context.createAnalyser(); analyser.fftSize = 512; const source = context.createMediaElementSource(video); source.connect(analyser); analyser.connect(context.destination); const bufferLength = analyser.frequencyBinCount; const dataArray = new Uint8Array(bufferLength); function draw() { analyser.getByteFrequencyData(dataArray); // dataArray[0] 是最低频,dataArray[bufferLength-1] 是最高频 requestAnimationFrame(draw); } draw();
为什么 MediaStreamTrack.getSettings() 返回空对象?
该方法返回的是轨道实际生效的设置,不是请求时传的约束(constraints)。如果浏览器无法满足约束(比如请求 1080p 但摄像头只支持 720p),它会降级并返回最终使用的值——但某些旧版本 Chrome 或 Safari 会直接返回空对象而非真实配置。
- 应优先用
track.getCapabilities()查看硬件支持范围,再用track.applyConstraints()尝试设置 -
getSettings()在track.enabled === false时可能不可靠,建议在track.onstarted后调用 - 部分 安卓 WebView 不支持
getSettings(),需降级为检测track.kind和粗略分辨率(如track.label.includes('1080p'))
真正稳定的设备能力探测,得组合使用 getCapabilities()、applyConstraints() 的 Promise 状态、以及 fallback 到 getSettings() 之后的兜底逻辑。






























