国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 系統(tǒng) > Android > 正文

Android錄音并且輸出為Mp4文件的方法教程

2019-10-21 21:42:55
字體:
供稿:網(wǎng)友

前言

錄音采用的是AudioRecord,通過MediaCodec進(jìn)行編碼,用MediaMuxer合成輸出MP4文件。

1.

這里用AudioRecord來得到從麥克風(fēng)錄制的聲音,AudiorRecord的用法還是比較簡(jiǎn)單的,首先初始化AudioRecord

fun prepare(file: File?, outputFormat: Int = MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4, audioSource: Int = MediaRecorder.AudioSource.MIC, sampleRateInHz: Int = 44100, channelConfig: Int = AudioFormat.CHANNEL_IN_STEREO, audioFormat: Int = AudioFormat.ENCODING_PCM_16BIT, bufferSizeInBytes: Int = AudioRecord.getMinBufferSize(sampleRateInHz, channelConfig, audioFormat)){ //初始化AudioRecord prepareAudioRecord(audioSource, sampleRateInHz, channelConfig, audioFormat, bufferSizeInBytes) //初始化輸出文件 prepareOutputFile(file) //初始化AudioEncoder prepareAudioEncoder(sampleRateInHz, outputFormat)}private fun prepareAudioRecord(audioSource: Int, sampleRateInHz: Int, channelConfig: Int, audioFormat: Int, bufferSizeInBytes: Int){ minSize = AudioRecord.getMinBufferSize(sampleRateInHz, channelConfig, audioFormat) audioRecord = AudioRecord(audioSource, sampleRateInHz, channelConfig, audioFormat, bufferSizeInBytes)}

AudioRecord的構(gòu)造函數(shù)需要出入幾個(gè)參數(shù)。

(1).

audioSource代表音頻來源,這里傳入MediaRecorder.AudioSource.MIC,代表音頻來源于麥克風(fēng)。

(2).

sampleRateInHz代表以赫茲表示的采樣率,傳入44100,這個(gè)數(shù)值可以保證所有設(shè)備都正常工作。

(3).

channelConfig代表聲道配置,AudioFormat.CHANNEL_IN_STEREO代表傳入立體聲。

(4).

audioFormat代表音頻數(shù)據(jù)將被返回的格式。傳入AudioFormat.ENCODING_PCM_16BIT。

(5).

bufferSizeInBytes寫入音頻數(shù)據(jù)的緩沖區(qū)的總大小(以字節(jié)為單位)這里默認(rèn)傳入getMinBufferSize,這個(gè)方法返回成功創(chuàng)建AudioRecord實(shí)例所需的緩沖區(qū)大小的最小值。

開始錄音時(shí),啟動(dòng)一個(gè)線程

private val recordRunnable = Runnable { val data = ByteArray(minSize) //AudioRecord開始錄音 audioRecord?.startRecording() while (isRecording) {  //將音頻數(shù)據(jù)寫入ByteArray  audioRecord?.read(data, 0, data.size)  audioEncoder.start()  audioEncoder.drainEncoder(data) } audioEncoder.release() audioRecord?.stop() audioRecord?.release() audioRecord = null}

這樣就把音頻數(shù)據(jù)寫入一個(gè)bytearray,然后將數(shù)據(jù)傳入AudioEncoder進(jìn)行編碼輸出。

2.

AudioRecord得到的音頻數(shù)據(jù)格式是pcm的,一般情況下無法bofang(可以通過AudioTrack播放),所以我們需要一次編碼轉(zhuǎn)換,這里用到的就是MediaCodec,MediaCodec這里我封裝在AudioEncoder里。
我們首先要初始化MediaCodec:

private fun prepareAudioCodec(bitrate: Int, sampleRate: Int){ bufferInfo = MediaCodec.BufferInfo() val mediaFormat = MediaFormat() mediaFormat.setInteger(MediaFormat.KEY_AAC_PROFILE, MediaCodecInfo.CodecProfileLevel.AACObjectLC) mediaFormat.setString(MediaFormat.KEY_MIME, MediaFormat.MIMETYPE_AUDIO_AAC) mediaFormat.setInteger(MediaFormat.KEY_BIT_RATE, bitrate) mediaFormat.setInteger(MediaFormat.KEY_CHANNEL_COUNT, 2) mediaFormat.setInteger(MediaFormat.KEY_SAMPLE_RATE, sampleRate) audioCodec = MediaCodec.createEncoderByType(MediaFormat.MIMETYPE_AUDIO_AAC) audioCodec.configure(mediaFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE)}

這里需要?jiǎng)?chuàng)建一個(gè)MediaFormat,具體需要傳入的參數(shù)大家可以參考開發(fā)者文檔,需要注意的是音頻和視頻的MediaFormat設(shè)置的參數(shù)是不一樣的,接著調(diào)用MediaCodec的configure,此時(shí)MediaCodec已經(jīng)進(jìn)入了configured的狀態(tài),可以開始進(jìn)行編碼了。

這里說到MediaCodec的狀態(tài),大家可以看來自開發(fā)者文檔的MediaCodec的狀態(tài)機(jī)圖片。

Android,錄音,Mp4

看一下MediaCodec的工作過程:

Android,錄音,Mp4

可以將MediaCodec理解為傳送帶,將空的buffers傳給audiorecord,audiorecord將得到的bytearray放入空的buffers,然后傳入MediaCodec,mediaCodec編碼后,傳入MediaMuxer,MediaMuxer寫入編碼后的數(shù)據(jù)再講buffers傳給MediaCodec,MediaCodec清空使用過的Buffers,再傳給AudioRecord。buffer是java nio庫里的類,這里就不詳述了,不清楚的請(qǐng)自行g(shù)oogle。

調(diào)用configure后,我們就進(jìn)入了configred狀態(tài),之后當(dāng)audiorecord得到數(shù)據(jù)后,當(dāng)MediaCodec調(diào)用start方法后,將ByteArray傳入MediaCodec,進(jìn)行編碼:

 fun drainEncoder(data: ByteArray){  val inIndex = audioCodec.dequeueInputBuffer(0)  if (inIndex > 0)  {    val inBuffer = getInBuffer(inIndex)    inBuffer.clear()    inBuffer.put(data)    if (!isEncoding)    {      audioCodec.queueInputBuffer(inIndex, 0, 0, System.nanoTime() / 1000, BUFFER_FLAG_END_OF_STREAM)    } else    {      audioCodec.queueInputBuffer(inIndex, 0, data.size, System.nanoTime() / 1000, 0)    }  }  do  {    val outIndex = audioCodec.dequeueOutputBuffer(bufferInfo, 0)    when    {      outIndex > 0 ->      {        if (bufferInfo.size != 0)        {          val outBuffer = getOutBuffer(outIndex)          outBuffer.position(bufferInfo.offset)          outBuffer.limit(bufferInfo.offset + bufferInfo.size)          mediaMuxer.writeSampleData(trackIndex, outBuffer, bufferInfo)        }        audioCodec.releaseOutputBuffer(outIndex, false)      }      outIndex == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED ->      {        trackIndex = mediaMuxer.addTrack(audioCodec.outputFormat)        mediaMuxer.start()      }    }  } while (outIndex > 0)  if (bufferInfo.flags and MediaCodec.BUFFER_FLAG_END_OF_STREAM != 0)  {    isEncoding = false  }}

這個(gè)方法就對(duì)應(yīng)了MediaCodec對(duì)應(yīng)的工作過程。

3.

MediaMuxer用來合成并輸出音頻,MediaMuxer用法還是比較簡(jiǎn)單的,這里就不詳述了,需要注意的是,MediaMuxer只能合并一個(gè)音頻軌道和一個(gè)視頻軌道,還要注意的是要在addTrack調(diào)用之后再調(diào)用star方法。

最后附上項(xiàng)目地址

gitlab

總結(jié)

以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,如果有疑問大家可以留言交流,謝謝大家對(duì)VEVB武林網(wǎng)的支持。


注:相關(guān)教程知識(shí)閱讀請(qǐng)移步到Android開發(fā)頻道。
發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 图们市| 那坡县| 万载县| 睢宁县| 大田县| 伊川县| 通河县| 湟源县| 车致| 秀山| 克拉玛依市| 武强县| 齐齐哈尔市| 额济纳旗| 陆良县| 庆阳市| 桐梓县| 呼图壁县| 清丰县| 沁源县| 正阳县| 华安县| 息烽县| 鄄城县| 饶河县| 扶沟县| 惠安县| 千阳县| 永顺县| 潢川县| 新和县| 玉龙| 霍林郭勒市| 郯城县| 仁寿县| 黄龙县| 沅陵县| 长沙县| 高唐县| 望谟县| 马山县|