前言

之前我们已经了解了PCM音频数据,我们理解为最原始的数据,虽然他的音质是最棒的,但是同时也暴露出两个很重要的问题:

  1. 普通播放器无法播放,数据里不包含任何跟音频格式有关的信息(声道,采样率等等);
  2. 体积过大,传输效率低;

为了解决上面的两个问题,出现了更多的音频格式。例如常见的:wav,mp3,aac等等。这一篇主要的内容就是了解wav。

正文

如果你想要录制音频并且输入wav格式的文件,你会发现mediaCodec中并没有这个格式。于是打开浏览器一顿操作,你会搜索到很多的资料,你会发现原来WAV和PCM原来这么接近。

WAV主要解决了播放器无法播放的问题,体积上并没有太大的优势。WAV可以直接包含PCM,我们只需要在PCM的前面加入WAV的头文件,就完成转换了,所以我们首先要了解WAV的头文件的内容。、

WAV头文件

android wav 解析 安卓播放wav文件_PCM


上图是一个完整的WAV头文件的结构,其中一部分fact(压缩编码)在包含PCM是不需要的,因为PCM的无损无压缩的。

android wav 解析 安卓播放wav文件_WAV_02


上图是官方对于wav的头文件描述图,虽然是英文的,但是我们依次了解每一位表达的意义:

  1. ChunkID:固定RIFF的ACSⅡ码,占4位;
  2. ChunkSize:文件的总长度,占4位,因为不包含ChunkID和ChunkSize的长度,所以要需要减8;
  3. Format:固定WAVE的ASCⅡ码,占4位;
  4. Subchunk1 ID:fmt块,占4位,如果不足4位,补空格,所以是‘fmt ’;
  5. Subchunk Size:fmt块的总长度,pcm固定16,表示从当前位置到描述fmt信息的长度,从上图计算AudioFormat到BitsPerSample的长度,长度确实是16,如果不是PCM长度可能会发生变化,占4位:
  6. AudioFormat:音频格式,PCM固定是1,占2位;
  7. NumChannels:声道数,占2位;
  8. SampleRate:采样率,占4位;
  9. ByteRate:比特率,占4位;
  10. BlockAlign:计算方法为 NumChannels * BitsPerSample/8,占两位;
  11. BitsPerSample:我们录制的格式,一个采样占几个byte,占2位;
  12. Subchunk2ID:固定保存‘data’,占4位;
  13. Subchunk2Size:音频数据的长度,如果你知道,计算方法为: NumSamples * NumChannels * BitsPerSample/8;

经过计算,当WAV包含PCM数据时,头文件的总长度为44位。

PCM转WAV

我们已经把WAV头文件了解的轻轻楚楚,接下来就可以把PCM格式转成WAV格式。
首次我们录制一份PCM文件,并在文件的头部提前预留了44byte的位置:

// 创建AudioRecord
AudioRecord(
	MediaRecorder.AudioSource.MIC,
    11025,
    AudioFormat.CHANNEL_IN_MONO,
    AudioFormat.ENCODING_PCM_16BIT,
    getMinBufferSize()
)

// 创建wav文件,并预留wav头文件的位置
val mWavFile = File(mFile.absolutePath)
mWriter = FileOutputStream(mWavFile).channel
val fakehead = ByteArray(44)
mWriter?.write(ByteBuffer.wrap(fakehead))

// 写入录制音频
while (isRecording) {
      val resultRead = audioRecord.read(byteArray, 0, byteArray.size)
      for (i in 0 until result) {
         mWriter.write(ByteBuffer.wrap(recordedBytes, 0, resultRead))
     }
}

上面是一份伪代码,我们录制了一份音频,并预留了wav头文件的位置,接下来我们根据之前的理解,填入wav的信息:

fun getWaveFileHeader(
        totalAudioLen: Long,
        totalDataLen: Long, 
        longSampleRate: Long, 
        channels: Int, 
        byteRate: Long,
        bitsPerSample: Int
    )
{

  val header = ByteArray(44)
  // 1. ChunkID:固定RIFF的ACSⅡ码,占4位;
  header[0] = 'R'.toByte() // RIFF/WAVE header
  header[1] = 'I'.toByte()
  header[2] = 'F'.toByte()
  header[3] = 'F'.toByte()
  //2. ChunkSize:文件的总长度,占4位,因为不包含ChunkID和ChunkSize的长度,所以要需要减8;
  // 因为int类型,所以我们需要对每一位byte对别保存int,跟之前的PCM的声道转换类似
  header[4] = (totalDataLen and 0xff).toByte()
  header[5] = (totalDataLen shr 8 and 0xff).toByte()
  header[6] = (totalDataLen shr 16 and 0xff).toByte()
  header[7] = (totalDataLen shr 24 and 0xff).toByte()	
  // 3. Format:固定WAVE的ASCⅡ码,占4位;
  header[8] = 'W'.toByte()  //WAVE
  header[9] = 'A'.toByte()
  header[10] = 'V'.toByte()
  header[11] = 'E'.toByte()
  // 4. Subchunk1 ID:fmt块,占4位,如果不足4位,补空格,所以是‘fmt ’;
  header[12] = 'f'.toByte()  // 'fmt ' chunk
  header[13] = 'm'.toByte()
  header[14] = 't'.toByte()
  header[15] = ' '.toByte()
 // 5. Subchunk Size:fmt块的总长度,pcm固定16,表示从当前位置到描述fmt信息的长度
 // 同理是int值,占4位
  header[16] = 16
  header[17] = 0
  header[18] = 0
  header[19] = 0
 // 6. AudioFormat:音频格式,PCM固定是1,占2位;
  header[20] = 1 // format = 1
  header[21] = 0
 // 7. NumChannels:声道数,占2位;
  header[22] = channels.toByte()
  header[23] = 0
 // 8. SampleRate:采样率,占4位;
  header[24] = (longSampleRate and 0xff).toByte()
  header[25] = (longSampleRate shr 8 and 0xff).toByte()
  header[26] = (longSampleRate shr 16 and 0xff).toByte()
  header[27] = (longSampleRate shr 24 and 0xff).toByte()	
 // 9. ByteRate:比特率,占4位;
  header[28] = (byteRate and 0xff).toByte()
  header[29] = (byteRate shr 8 and 0xff).toByte()
  header[30] = (byteRate shr 16 and 0xff).toByte()
  header[31] = (byteRate shr 24 and 0xff).toByte()
  //10.	BlockAlign:计算方法为 NumChannels * BitsPerSample/8,占两位;
  header[32] = (channels * 16 / 8).toByte()
  header[33] = 0
 //11.	BitsPerSample:我们录制的格式,一个采样占几个byte,占2位;
  header[34] = bitsPerSample// bits per sample
  header[35] = 0
 //12.	Subchunk2ID:固定保存‘data’,占4位;
  header[36] = 'd'.toByte()  //data
  header[37] = 'a'.toByte()
  header[38] = 't'.toByte()
  header[39] = 'a'.toByte()
 //14.	Subchunk2Size:音频数据的长度
  header[40] = (totalAudioLen and 0xff).toByte()
  header[41] = (totalAudioLen shr 8 and 0xff).toByte()
  header[42] = (totalAudioLen shr 16 and 0xff).toByte()
  header[43] = (totalAudioLen shr 24 and 0xff).toByte()
}

根据我们录制的配置,我们可以对getWaveFileHeader方法传入一下参数:

Util.getWaveFileHeader(
          mWriter.size() - 44, // totalAudioLen, 音频数据不包含wav头文件,所以减44
          mWriter.size() - 8, //  totalDataLen总长度,记得减8
          mediaFormat.getInteger(MediaFormat.KEY_SAMPLE_RATE).toLong(), // SampleRa
          mediaFormat.getInteger(MediaFormat.KEY_CHANNEL_COUNT), // channels
          mediaFormat.getInteger(MediaFormat.KEY_BIT_RATE).toLong(), // byteRate
          16, // AudioFormat.ENCODING_PCM_16BIT = 16, AudioFormat.ENCODING_PCM_8BIT = 8
)

到此,我们录制的PCM数据已经变成了播放器可播的WAV格式。

总结

这一篇我们理解了WAV和PCM的区别以及转换方法,下一篇我们继续学习新的音频格式AAC。