2024年1月31日发(作者:巧乐悦)
直接给上个详细的使用Android MediaRecorder进行手机录音解说代码:
package eng_;
import ption;
import ty;
import ecorder;
import ;
public class MediaRecordActivity extends Activity {
MediaRecorder mediaRecorder ;
@Override
public void onCreate(Bundle savedInstanceState) {
te(savedInstanceState);
setContentView();
mediaRecorder = new MediaRecorder();
record();
}
/**
* 开始录制
*/
private void record(){
/**
* ioSource设置声音来源。
* ource这个内部类详细的介绍了声音来源。
* 该类中有许多音频来源,不过最主要使用的还是手机上的麦克风,
*/
ioSource();
/**
* putFormat代表输出文件的格式。该语句必须在setAudioSource之后,在prepare之前。
* OutputFormat内部类,定义了音频输出的格式,主要包含MPEG_4、THREE_GPP、RAW_AMR……等。
*/
putFormat(_GPP);
/**
* ioEncoder()方法可以设置音频的编码
* AudioEncoder内部类详细定义了两种编码:T、_NB
*/
ioEncoder(T);
/**
* 设置录音之后,保存音频文件的位置
*/
putFile("file:///sdcard/myvido/a.3pg");
/**
* 调用start开始录音之前,一定要调用prepare方法。
*/
try {
e();
();
}
catch (IllegalStateException e) {
tackTrace();
}
catch (IOException e) {
tackTrace();
}
}
/***
* 此外,还有和MediaRecorder有关的几个参数与方法,我们一起来看一下:
* sampleRateInHz :音频的采样频率,每秒钟能够采样的次数,采样率越高,音质越高。
* 给出的实例是44100、22050、11025但不限于这几个参数。例如要采集低质量的音频就可以使用4000、8000等低采样率
*
* channelConfig :声道设置:android支持双声道立体声和单声道。MONO单声道,STEREO立体声
*
* ();停止录音
* (); 重置录音 ,会重置到setAudioSource这一步
* e(); 解除对录音资源的占用
*/
}
android中AudioRecord采集音频的参数说明
在android中采集音频的api是ecord类
其中构造器的几个参数就是标准的声音采集参数
以下是参数的含义解释
public AudioRecord (int audioSource, int sampleRateInHz, int channelConfig, int
audioFormat, int bufferSizeInBytes)
Since: API Level 3
Class constructor.
Parameters
the recording source. See ource for
recording source definitions.
audioSource
音频源:指的是从哪里采集音频。这里我们当然是从麦克风采集音频,所以此参数的值为MIC
the sample rate expressed in Hertz. Examples of rates are (but not
limited to) 44100, 22050 and 11025.
sampleRateInHz
采样率:音频的采样频率,每秒钟能够采样的次数,采样率越高,音质越高。给出的实例是44100、22050、11025但不限于这几个参数。例如要采集低质量的音频就可以使用4000、8000等低采样率。
channelConfidescribes the configuration of the audio channels.
g SeeCHANNEL_IN_MONO and CHANNEL_IN_STEREO
声道设置:android支持双声道立体声和单声道。MONO单声道,STEREO立体声
the format in which the audio data is represented.
SeeENCODING_PCM_16BIT and ENCODING_PCM_8BIT
编码制式和采样大小:采集来的数据当然使用PCM编码(脉冲代码调制编audioFormat
码,即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。) android支持的采样大小16bit 或者8bit。当然采样大小越大,那么信息量越多,音质也越高,现在主流的采样大小都是16bit,在低质量的语音传输的时候8bit 足够了。
the total size (in bytes) of the buffer where audio data is written to
during the recording. New audio data can be read from this buffer
in smaller chunks than this size. See getMinBufferSize(int, int, int) to
bufferSizeInBytes
determine the minimum required buffer size for the successful
creation of an AudioRecord instance. Using values smaller than
getMinBufferSize() will result in an initialization failure.
采集数据需要的缓冲区的大小,如果不知道最小需要的大小可以在getMinBufferSize()查看。
采集到的数据保存在一个byteBuffer中,可以使用流将其读出。亦可保存成为文件的形式
Android 使用AudioRecord录音相关和音频文件的封装
分类: Android流媒体学习
在Android中录音可以用MediaRecord录音,操作比较简单。但是不够专业,就是不能对音频进行处理。如果要进行音频的实时的处理或者音频的一些封装
就可以用AudioRecord来进行录音了。
这里给出一段代码。实现了AudioRecord的录音和WAV格式音频的封装。
用AudioTrack和AudioTrack类可以进行边录边播,可以参考:/s/blog_
我们这里的代码没有播放。但是有封装和详解,如下:
package ;
import ;
import putStream;
import tFoundException;
import tputStream;
import ption;
import ty;
import ormat;
import ormat;
import ecord;
import ecorder;
import ;
import ;
import kListener;
import ;
import Manager;
import ;
/**
* class name:TestAudioRecord
* class description:用AudioRecord来进行录音
* PS:
*
* @version 1.00 2011/09/21
* @author CODYY)peijiangping
*/
public class TestAudioRecord extends Activity {
// 音频获取源
private int audioSource = ;
// 设置音频采样率,44100是目前的标准,但是某些设备仍然支持22050,16000,11025
private static int sampleRateInHz = 44100;
// 设置音频的录制的声道CHANNEL_IN_STEREO为双声道,CHANNEL_CONFIGURATION_MONO为单声道
private static int channelConfig = L_IN_STEREO;
// 音频数据格式:PCM 16位每个样本。保证设备支持。PCM 8位每个样本。不一定能得到设备支持。
private static int audioFormat = NG_PCM_16BIT;
// 缓冲区字节大小
private int bufferSizeInBytes = 0;
private Button Start;
private Button Stop;
private AudioRecord audioRecord;
private boolean isRecord = false;// 设置正在录制的状态
//AudioName裸音频数据文件
private static final String AudioName = "/sdcard/";
//NewAudioName可播放的音频文件
private static final String NewAudioName = "/sdcard/";
public void onCreate(Bundle savedInstanceState) {
te(savedInstanceState);
getWindow().setFormat(UCENT);// 让界面横屏
requestWindowFeature(E_NO_TITLE);// 去掉界面标题
getWindow().setFlags(_FULLSCREEN,
_FULLSCREEN);
// 重新设置界面大小
setContentView();
init();
}
private void init() {
Start = (Button) ewById();
Stop = (Button) ewById();
lickListener(new TestAudioListener());
lickListener(new TestAudioListener());
creatAudioRecord();
}
private void creatAudioRecord() {
// 获得缓冲区字节大小
bufferSizeInBytes =
BufferSize(sampleRateInHz,
channelConfig, audioFormat);
// 创建AudioRecord对象
audioRecord = new AudioRecord(audioSource, sampleRateInHz,
channelConfig, audioFormat, bufferSizeInBytes);
}
class TestAudioListener implements OnClickListener {
@Override
public void onClick(View v) {
if (v == Start) {
startRecord();
}
if (v == Stop) {
stopRecord();
}
}
}
private void startRecord() {
ecording();
// 让录制状态为true
isRecord = true;
// 开启音频文件写入线程
new Thread(new AudioRecordThread()).start();
}
private void stopRecord() {
close();
}
private void close() {
if (audioRecord != null) {
n("stopRecord");
isRecord = false;//停止文件写入
();
e();//释放资源
audioRecord = null;
}
}
class AudioRecordThread implements Runnable {
@Override
public void run() {
writeDateTOFile();//往文件中写入裸数据
copyWaveFile(AudioName, NewAudioName);//给裸数据加上头文件
}
}
/**
* 这里将数据写入文件,但是并不能播放,因为AudioRecord获得的音频是原始的裸音频,
* 如果需要播放就必须加入一些格式或者编码的头信息。但是这样的好处就是你可以对音频的 裸数据进行处理,比如你要做一个爱说话的TOM
* 猫在这里就进行音频的处理,然后重新封装 所以说这样得到的音频比较容易做一些音频的处理。
*/
private void writeDateTOFile() {
// new一个byte数组用来存一些字节数据,大小为缓冲区大小
byte[] audiodata = new byte[bufferSizeInBytes];
FileOutputStream fos = null;
int readsize = 0;
try {
File file = new File(AudioName);
if (()) {
();
}
fos = new FileOutputStream(file);// 建立一个可存取字节的文件
} catch (Exception e) {
tackTrace();
}
while (isRecord == true) {
readsize = (audiodata, 0, bufferSizeInBytes);
if (_INVALID_OPERATION != readsize) {
try {
(audiodata);
} catch (IOException e) {
tackTrace();
}
}
}
try {
();// 关闭写入流
} catch (IOException e) {
tackTrace();
}
}
// 这里得到可播放的音频文件
private void copyWaveFile(String inFilename, String outFilename) {
FileInputStream in = null;
FileOutputStream out = null;
long totalAudioLen = 0;
long totalDataLen = totalAudioLen + 36;
long longSampleRate = sampleRateInHz;
int channels = 2;
long byteRate = 16 * sampleRateInHz * channels / 8;
byte[] data = new byte[bufferSizeInBytes];
try {
in = new FileInputStream(inFilename);
out = new FileOutputStream(outFilename);
totalAudioLen = nnel().size();
totalDataLen = totalAudioLen + 36;
WriteWaveFileHeader(out, totalAudioLen, totalDataLen,
longSampleRate, channels, byteRate);
while ((data) != -1) {
(data);
}
();
();
} catch (FileNotFoundException e) {
tackTrace();
} catch (IOException e) {
tackTrace();
}
}
/**
* 这里提供一个头信息。插入这些信息就可以得到可以播放的文件。
* 为我为啥插入这44个字节,这个还真没深入研究,不过你随便打开一个wav
* 音频的文件,可以发现前面的头文件可以说基本一样哦。每种格式的文件都有
* 自己特有的头文件。
*/
private void WriteWaveFileHeader(FileOutputStream out, long
totalAudioLen,
long totalDataLen, long longSampleRate, int channels, long
byteRate)
throws IOException {
byte[] header = new byte[44];
header[0] = 'R'; // RIFF/WAVE header
header[1] = 'I';
header[2] = 'F';
header[3] = 'F';
header[4] = (byte) (totalDataLen & 0xff);
header[5] = (byte) ((totalDataLen >> 8) & 0xff);
header[6] = (byte) ((totalDataLen >> 16) & 0xff);
header[7] = (byte) ((totalDataLen >> 24) & 0xff);
header[8] = 'W';
header[9] = 'A';
header[10] = 'V';
header[11] = 'E';
header[12] = 'f'; // 'fmt ' chunk
header[13] = 'm';
header[14] = 't';
header[15] = ' ';
header[16] = 16; // 4 bytes: size of 'fmt ' chunk
header[17] = 0;
header[18] = 0;
header[19] = 0;
header[20] = 1; // format = 1
header[21] = 0;
header[22] = (byte) channels;
header[23] = 0;
header[24] = (byte) (longSampleRate & 0xff);
header[25] = (byte) ((longSampleRate >> 8) & 0xff);
header[26] = (byte) ((longSampleRate >> 16) & 0xff);
header[27] = (byte) ((longSampleRate >> 24) & 0xff);
header[28] = (byte) (byteRate & 0xff);
header[29] = (byte) ((byteRate >> 8) & 0xff);
header[30] = (byte) ((byteRate >> 16) & 0xff);
header[31] = (byte) ((byteRate >> 24) & 0xff);
header[32] = (byte) (2 * 16 / 8); // block align
header[33] = 0;
header[34] = 16; // bits per sample
header[35] = 0;
header[36] = 'd';
header[37] = 'a';
header[38] = 't';
header[39] = 'a';
header[40] = (byte) (totalAudioLen & 0xff);
header[41] = (byte) ((totalAudioLen >> 8) & 0xff);
header[42] = (byte) ((totalAudioLen >> 16) & 0xff);
header[43] = (byte) ((totalAudioLen >> 24) & 0xff);
(header, 0, 44);
}
@Override
protected void onDestroy() {
close();
roy();
}
}
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Android入门(9)AudioRecord和AudioTrack类的使用
(2010-05-07 09:07:05
AudioRecord和AudioTrack类是Android获取和播放音频流的重要类,放置在包中。与该包中的MediaRecorder和MediaPlayer类不同,AudioRecord和AudioTrack类在获取和播放音频数据流时无需通过文件保存和文件读取,可以动态地直接获取和播放音频流,在实时处理音频数据流时非常有用。
当然,如果用户只想录音后写入文件或从文件中取得音频流进行播放,那么直接使用MediaRecorder和MediaPlayer类是首选方案,因为这两个类使用非常方便,而且成功率很高。而AudioRecord和AudioTrack类的使用却比较复杂,我们发现很多人都不能成功
地使用这两个类,甚至认为Android的这两个类是不能工作的。
其实,AudioRecord和AudioTrack类的使用虽然比较复杂,但是可以工作,我们不仅可以很好地使用了这两个类,而且还通过套接字(Socket)实现了音频数据的网络传输,做到了一端使用AudioRecord获取音频流然后通过套接字传输出去,而另一端通过套接字接收后使用AudioTrack类播放。
下面是我们对AudioRecord和AudioTrack类在使用方面的经验总结:
(1)创建AudioRecord和AudioTrack类对象:创建这两个类的对象比较复杂,通过对文档的反复和仔细理解,并通过多次失败的尝试,并在北理工的某个Android大牛的网上的文章启发下,我们也最终成功地创建了这两个类的对象。创建AudioRecord和AudioTrack类对象的代码如下:
AudioRecord类:
m_in_buf_size =BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_in_rec = new AudioRecord(,
8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_in_buf_size) ;
AudioTrack类:
m_out_buf_size = BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_out_trk = new AudioTrack(_MUSIC, 8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_out_buf_size,
_STREAM);
(2)关于AudioRecord和AudioTrack类的监听函数,不用也行。
(3)调试方面,包括初始化后看logcat信息,以确定类的工作状态,初始化是否成功等。
编写好代码,没有语法错误,调用模拟器运行、调试代码时,logcat发挥了很好的功用。刚调试时,经常会出现模拟器显示出现异常,这时我们可以在代码的一些关键语句后添加如Log.d("test1","OK");这样的语句进行标识,出现异常时我们就可以在logcat窗口观察代码执行到哪里出现异常,然后进行相应的修改、调试。模拟器不会出现异常时,又遇到了录放音的问题。录音方面,刚开始选择将语音编码数据存放在多个固定大小的文件中进行传送,但是这种情况下会出现声音断续的现象,而且要反复的建立文件,比较麻烦,后来想到要进行网上传输,直接将语音编码数据以数据流的形式传送,经过验证,这种方法可行并且使代码更加简洁。放音方面,将接收到的数据流存放在一个数组中,然后将数组中数据写
到AudioTrack中。刚开始只是“嘟”几声,经过检查发现只是把数据写一次,加入循环,让数据反复写到AudioTrack中,就可以听到正常的语音了。接下来的工作主要是改善话音质量与话音延迟,在进行通话的过程中,观察logcat窗口,发现向数组中写数据时会出现Bufferflow的情况,于是把重心转移到数组大小的影响上,经过试验,发现 AudioRecord一次会读640个数据,然后就对录音和放音中有数组的地方进行实验修改。AudioRecord和AudioTrack进行实例化时,参数中各有一个数组大小,经过试验这个数组大小和AudioRecord和AudioTrack能正常实例化所需的最小Buffer大小(即上面实例化时的m_in_buf_size和m_out_buf_size参数)相等且服务器方进行缓存数据的数组尺寸是上述数值的2倍时,语音质量最好。由于录音和放音的速度不一致,受到北理工大牛的启发,在录音方面,将存放录音数据的数组放到LinkedList中,当LinkedList中数组个数达到2(这个也是经过试验验证话音质量最好时的数据)时,将先录好的数组中数据传送出去。经过上述反复试验和修改,最终使双方通话质量较好,且延时较短(大概有2秒钟)。
(4)通过套接字传输和接收数据
数据传送部分,使用的是套接字。通信双方,通过不同的端口向服务器发送请求,与服务器连接上后,开始通话向服务器发送数据,服务器通过一个套接字接收到一方的数据后,先存在一个数组中,然后将该数组中数据以数据流的形式再通过另一个套接字传送到另一方。这样就实现了双方数据的传送。
(5)代码架构
为避免反复录入和读取数据占用较多资源,使程序在进行录放音时不能执行其他命令,故将录音和放音各写成一个线程类,然后在主程序中,通过MENU控制通话的开始、停止、结束。
最后说明,AudioRecord和AudioTrack类可以用,只是稍微复杂些。以下贴出双方通信的源码,希望对大家有所帮助:
主程序Daudioclient:
package client;
import ty;
import ;
import ;
import em;
public class Daudioclient extends Activity {
public static final int MENU_START_ID = ;
public static final int MENU_STOP_ID = + 1 ;
public static final int MENU_EXIT_ID = + 2 ;
protected Saudioserver m_player ;
protected Saudioclient m_recorder ;
@Override
public void onCreate(Bundle savedInstanceState) {
te(savedInstanceState);
setContentView();
}
public boolean onCreateOptionsMenu(Menu aMenu)
{
boolean res = teOptionsMenu(aMenu) ;
(0, MENU_START_ID, 0, "START") ;
(0, MENU_STOP_ID, 0, "STOP") ;
(0, MENU_EXIT_ID, 0, "EXIT") ;
return res ;
}
public boolean onOptionsItemSelected(MenuItem aMenuItem)
{
switch (mId()) {
case MENU_START_ID:
{
m_player = new Saudioserver() ;
m_recorder = new Saudioclient() ;
m_() ;
m_() ;
m_() ;
m_() ;
}
break ;
case MENU_STOP_ID:
{
m_() ;
m_() ;
m_player = null ;
m_recorder = null ;
}
break ;
case MENU_EXIT_ID:
{
int pid = () ;
ocess(pid) ;
}
break ;
default:
break ;
}
return onsItemSelected(aMenuItem);
}
}
录音程序Saudioclient:
package client;
import tputStream;
import ption;
import ;
import nHostException;
import List;
import ormat;
import ecord;
import ecorder;
import ;
public class Saudioclient extends Thread
{
protected AudioRecord m_in_rec ;
protected int m_in_buf_size ;
protected byte [] m_in_bytes ;
protected boolean m_keep_running ;
protected Socket s;
protected DataOutputStream dout;
protected LinkedList
public void run()
{
try
{
byte [] bytes_pkg ;
m_in_ecording() ;
while(m_keep_running)
{
m_in_(m_in_bytes, 0, m_in_buf_size) ;
bytes_pkg = m_in_() ;
if(m_in_() >= 2)
{
(m_in_First()
m_in_First() .length);
}
m_in_(bytes_pkg) ;
}
m_in_() ;
, 0,
m_in_rec = null ;
m_in_bytes = null ;
();
}
catch(Exception e)
{
tackTrace();
}
}
public void init()
{
m_in_buf_size = BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_in_rec = new AudioRecord(,
8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_in_buf_size) ;
m_in_bytes = new byte [m_in_buf_size] ;
m_keep_running = true ;
m_in_q=new LinkedList
try
{
s=new Socket("192.168.1.100",4332);
dout=new DataOutputStream(putStream());
//new Thread(R1).start();
}
catch (UnknownHostException e)
{
// TODO Auto-generated catch block
tackTrace();
}
catch (IOException e)
{
// TODO Auto-generated catch block
tackTrace();
}
}
public void free()
{
m_keep_running = false ;
try {
(1000) ;
} catch(Exception e) {
Log.d("","") ;
}
}
}
放音程序Saudioserver:
package client;
import putStream;
import ption;
import ;
import ormat;
import anager;
import rack;
import ;
public class Saudioserver extends Thread
{
protected AudioTrack m_out_trk ;
protected int m_out_buf_size ;
protected byte [] m_out_bytes ;
protected boolean m_keep_running ;
private Socket s;
private DataInputStream din;
public void init()
{
try
{
s=new Socket("192.168.1.100",4331);
din=new DataInputStream(utStream());
m_keep_running = true ;
m_out_buf_size = BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_out_trk = new AudioTrack(_MUSIC, 8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_out_buf_size,
_STREAM);
m_out_bytes=new byte[m_out_buf_size];
// new Thread(R1).start();
}
catch(Exception e)
{
tackTrace();
}
}
public void free()
{
m_keep_running = false ;
try {
(1000) ;
} catch(Exception e) {
Log.d("","") ;
}
}
public void run()
{
byte [] bytes_pkg = null ;
m_out_() ;
while(m_keep_running) {
try
{
(m_out_bytes);
bytes_pkg = m_out_() ;
m_out_(bytes_pkg, 0, bytes_) ;
}
catch(Exception e)
{
tackTrace();
}
}
m_out_() ;
m_out_trk = null ;
try {
();
} catch (IOException e) {
// TODO Auto-generated catch block
tackTrace();
}
}
}
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Android AudioRecord 实现音频录制
//由于程序可能用到对手机SD卡的读取,所以在里需要配置对sd卡存取的权限:
// android:name="_EXTERNAL_STORAGE" /> // android:name="_UNMOUNT_FILESYSTEMS"/> import edInputStream; import edOutputStream; import putStream; import tputStream; import ; import putStream; import tputStream; import ption; import ty; import t; import ormat; import anager; import ecord; import rack; import ecorder; import ask; import ; import nment; import ; import ; import kListener; import ; import ew; import d.R; /** * 该实例中,我们使用AudioRecord类来完成我们的音频录制程序 * AudioRecord类,我们可以使用三种不同的read方法来完成录制工作, * 每种方法都有其实用的场合 * 一、实例化一个AudioRecord类我们需要传入几种参数 * 1、AudioSource:这里可以是 * 2、SampleRateInHz:录制频率,可以为8000hz或者11025hz等,不同的硬件设备这个值不同 * 3、ChannelConfig:录制通道,可以为L_CONFIGURATION_MONO和L_CONFIGURATION_STEREO * 4、AudioFormat:录制编码格式,可以为NG_16BIT和BIT,其中16BIT的仿真性比8BIT好,但是需要消耗更多的电量和存储空间 * 5、BufferSize:录制缓冲大小:可以通过getMinBufferSize来获取 * 这样我们就可以实例化一个AudioRecord对象了 * 二、创建一个文件,用于保存录制的内容 * 同上篇 * 三、打开一个输出流,指向创建的文件 * DataOutputStream dos = new DataOutputStream(new BufferedOutputSream(new FileOutputStream(file))) * 四、现在就可以开始录制了,我们需要创建一个字节数组来存储从udioRecorder中返回的音频数据,但是 * 注意,我们定义的数组要小于定义AudioRecord时指定的那个ufferSize * short[]buffer = new short[BufferSize/4]; * startRecording(); * 然后一个循环,调用AudioRecord的read方法实现读取 * 另外使用MediaPlayer是无法播放使用AudioRecord录制的音频的,为了实现播放,我们需要 * 使用AudioTrack类来实现 * AudioTrack类允许我们播放原始的音频数据 * * * 一、实例化一个AudioTrack同样要传入几个参数 * 1、StreamType:在AudioManager中有几个常量,其中一个是TREAM_MUSIC; * 2、SampleRateInHz:最好和AudioRecord使用的是同一个值 * 3、ChannelConfig:同上 * 4、AudioFormat:同上 * 5、BufferSize:通过AudioTrack的静态方法getMinBufferSize来获取 * 6、Mode:可以是_STREAM和MODE_STATIC,关于这两种不同之处,可以查阅文档 * 二、打开一个输入流,指向刚刚录制内容保存的文件,然后开始播放,边读取边播放 * * 实现时,音频的录制和播放分别使用两个AsyncTask来完成 */ public class PCMRecordActivity extends Activity implements OnClickListener{ private TextView stateView; private Button btnStart,btnStop,btnPlay,btnFinish; private RecordTask recorder; private PlayTask player; private File fpath; private File audioFile; private Context context; private boolean isRecording=true, isPlaying=false; //标记 private int frequence = 16000;//8000; //录制频率,单位hz.这里的值注意了,写的不好,可能实例化AudioRecord对象的时候,会出错。我开始写成11025就不行。这取决于硬件设备 private int channelConfig = L_CONFIGURATION_MONO; private int audioEncoding = NG_PCM_16BIT; public void onCreate(Bundle savedInstanceState){ te(savedInstanceState); setContentView(_audio_record); stateView = (TextView)ewById(_state); t("start recording.."); btnStart = (Button)ewById(_start); t("start"); lickListener(this); btnStop = (Button)ewById(_stop); t("stop"); lickListener(this); btnPlay = (Button)ewById(_play); t("play"); lickListener(this); btnFinish = (Button)ewById(_finish); t("finish"); lickListener(this); bled(false); bled(false); bled(false); if(ernalStorageState().equals(_MOUNTED))//手机有SD卡的情况 { //在这里我们创建一个文件,用于保存录制内容 fpath = new File(ernalStorageDirectory().getAbsolutePath()+"/data/files/"); ();//创建文件夹 }else//手机无SD卡的情况 { fpath = heDir(); } try { //创建临时文件,注意这里的格式为.pcm audioFile = TempFile("recording", ".pcm", fpath); } catch (IOException e) { // TODO Auto-generated catch block tackTrace(); } } public void onClick(View v){ int id = (); switch(id){ case _start: //开始录制 //这里启动录制任务 recorder = new RecordTask(); e(); break; case _stop: //停止录制 rding = false; //更新状态 //在录制完成时设置,在RecordTask的onPostExecute中完成 break; case _play: player = new PlayTask(); e(); break; case _finish: //完成播放 ing = false; break; } } class RecordTask extends AsyncTask @Override protected Void arg0) { isRecording = true; try { //开通输出流到指定的文件 DataOutputStream dos = new DataOutputStream(new BufferedOutputStream(new FileOutputStream(audioFile))); //根据定义好的几个配置,来获取合适的缓冲大小 int bufferSize = BufferSize(frequence, channelConfig, audioEncoding); //实例化AudioRecord AudioRecord record = new AudioRecord(, frequence, channelConfig, audioEncoding, bufferSize); //定义缓冲 short[] buffer = new short[bufferSize]; //开始录制 ecording(); int r = 0; //存储录制进度 //定义循环,根据isRecording的值来判断是否继续录制 while(isRecording){ //从bufferSize中读取字节,返回读取的short个数 //这里老是出现buffer overflow,不知道是什么原因,试了好几个值,都没用,TODO:待解决 int bufferReadResult = (buffer, 0, ); //循环将buffer中的音频数据写入到OutputStream中 for(int i=0; i hort(buffer[i]); } publishProgress(new Integer(r)); //向UI线程报告当前进度 r++; //自增进度值 } //录制结束 (); Log.v("The DOS available:", "::"+()); (); } catch (Exception e) { // TODO: handle exception } return null; } //当在上面方法中调用publishProgress时,该方法触发,该方法在I线程中被执行 protected void progress){ t(progress[0].toString()); } protected void onPostExecute(Void result){ bled(false); bled(true); bled(true); bled(false); } protected void onPreExecute(){ //t("正在录制"); bled(false); bled(false); bled(false); bled(true); } } class PlayTask extends AsyncTask @Override protected Void arg0) { isPlaying = true; int bufferSize = BufferSize(frequence, channelConfig, audioEncoding); short[] buffer = new short[bufferSize/4]; try { //定义输入流,将音频写入到AudioTrack类中,实现播放 DataInputStream dis = new DataInputStream(new BufferedInputStream(new FileInputStream(audioFile))); //实例AudioTrack AudioTrack track = new AudioTrack(_MUSIC, frequence, channelConfig, audioEncoding, bufferSize, _STREAM); //开始播放 (); //由于AudioTrack播放的是流,所以,我们需要一边播放一边读取 while(isPlaying && ble()>0){ int i = 0; while(ble()>0 && i<){ buffer[i] = ort(); i++; } //然后将数据写入到AudioTrack中 (buffer, 0, ); } //播放结束 (); (); } catch (Exception e) { // TODO: handle exception } return null; } protected void onPostExecute(Void result){ bled(true); bled(false); bled(true); bled(false); } protected void onPreExecute(){ bled(false); bled(false); bled(false); bled(true); } } } +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ Android多媒体学:利用AudioRecord类实现自己的音频录制程序 . 博客分类: android AudioRecord类相对于MediaRecorder来说,更加接近底层,为我们封装的方法也更少。然而实现一个AudioRecord的音频录制程序也很 简单。本实例代码如下: 可惜,本实例测试时有个问题,在录制的时候,会出现buffer over。缓存泄露,待解决。 package ; import edInputStream; import edOutputStream; import putStream; import tputStream; import ; import putStream; import tputStream; import ption; import ty; import tValues; import ; import cusCallback; import ormat; import anager; import ecord; import rack; import layer; import ecorder; import ; import ask; import ; import nment; import tore; import ; import ; import ; import ew; /** 2024年1月31日发(作者:巧乐悦)
直接给上个详细的使用Android MediaRecorder进行手机录音解说代码:
package eng_;
import ption;
import ty;
import ecorder;
import ;
public class MediaRecordActivity extends Activity {
MediaRecorder mediaRecorder ;
@Override
public void onCreate(Bundle savedInstanceState) {
te(savedInstanceState);
setContentView();
mediaRecorder = new MediaRecorder();
record();
}
/**
* 开始录制
*/
private void record(){
/**
* ioSource设置声音来源。
* ource这个内部类详细的介绍了声音来源。
* 该类中有许多音频来源,不过最主要使用的还是手机上的麦克风,
*/
ioSource();
/**
* putFormat代表输出文件的格式。该语句必须在setAudioSource之后,在prepare之前。
* OutputFormat内部类,定义了音频输出的格式,主要包含MPEG_4、THREE_GPP、RAW_AMR……等。
*/
putFormat(_GPP);
/**
* ioEncoder()方法可以设置音频的编码
* AudioEncoder内部类详细定义了两种编码:T、_NB
*/
ioEncoder(T);
/**
* 设置录音之后,保存音频文件的位置
*/
putFile("file:///sdcard/myvido/a.3pg");
/**
* 调用start开始录音之前,一定要调用prepare方法。
*/
try {
e();
();
}
catch (IllegalStateException e) {
tackTrace();
}
catch (IOException e) {
tackTrace();
}
}
/***
* 此外,还有和MediaRecorder有关的几个参数与方法,我们一起来看一下:
* sampleRateInHz :音频的采样频率,每秒钟能够采样的次数,采样率越高,音质越高。
* 给出的实例是44100、22050、11025但不限于这几个参数。例如要采集低质量的音频就可以使用4000、8000等低采样率
*
* channelConfig :声道设置:android支持双声道立体声和单声道。MONO单声道,STEREO立体声
*
* ();停止录音
* (); 重置录音 ,会重置到setAudioSource这一步
* e(); 解除对录音资源的占用
*/
}
android中AudioRecord采集音频的参数说明
在android中采集音频的api是ecord类
其中构造器的几个参数就是标准的声音采集参数
以下是参数的含义解释
public AudioRecord (int audioSource, int sampleRateInHz, int channelConfig, int
audioFormat, int bufferSizeInBytes)
Since: API Level 3
Class constructor.
Parameters
the recording source. See ource for
recording source definitions.
audioSource
音频源:指的是从哪里采集音频。这里我们当然是从麦克风采集音频,所以此参数的值为MIC
the sample rate expressed in Hertz. Examples of rates are (but not
limited to) 44100, 22050 and 11025.
sampleRateInHz
采样率:音频的采样频率,每秒钟能够采样的次数,采样率越高,音质越高。给出的实例是44100、22050、11025但不限于这几个参数。例如要采集低质量的音频就可以使用4000、8000等低采样率。
channelConfidescribes the configuration of the audio channels.
g SeeCHANNEL_IN_MONO and CHANNEL_IN_STEREO
声道设置:android支持双声道立体声和单声道。MONO单声道,STEREO立体声
the format in which the audio data is represented.
SeeENCODING_PCM_16BIT and ENCODING_PCM_8BIT
编码制式和采样大小:采集来的数据当然使用PCM编码(脉冲代码调制编audioFormat
码,即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。) android支持的采样大小16bit 或者8bit。当然采样大小越大,那么信息量越多,音质也越高,现在主流的采样大小都是16bit,在低质量的语音传输的时候8bit 足够了。
the total size (in bytes) of the buffer where audio data is written to
during the recording. New audio data can be read from this buffer
in smaller chunks than this size. See getMinBufferSize(int, int, int) to
bufferSizeInBytes
determine the minimum required buffer size for the successful
creation of an AudioRecord instance. Using values smaller than
getMinBufferSize() will result in an initialization failure.
采集数据需要的缓冲区的大小,如果不知道最小需要的大小可以在getMinBufferSize()查看。
采集到的数据保存在一个byteBuffer中,可以使用流将其读出。亦可保存成为文件的形式
Android 使用AudioRecord录音相关和音频文件的封装
分类: Android流媒体学习
在Android中录音可以用MediaRecord录音,操作比较简单。但是不够专业,就是不能对音频进行处理。如果要进行音频的实时的处理或者音频的一些封装
就可以用AudioRecord来进行录音了。
这里给出一段代码。实现了AudioRecord的录音和WAV格式音频的封装。
用AudioTrack和AudioTrack类可以进行边录边播,可以参考:/s/blog_
我们这里的代码没有播放。但是有封装和详解,如下:
package ;
import ;
import putStream;
import tFoundException;
import tputStream;
import ption;
import ty;
import ormat;
import ormat;
import ecord;
import ecorder;
import ;
import ;
import kListener;
import ;
import Manager;
import ;
/**
* class name:TestAudioRecord
* class description:用AudioRecord来进行录音
* PS:
*
* @version 1.00 2011/09/21
* @author CODYY)peijiangping
*/
public class TestAudioRecord extends Activity {
// 音频获取源
private int audioSource = ;
// 设置音频采样率,44100是目前的标准,但是某些设备仍然支持22050,16000,11025
private static int sampleRateInHz = 44100;
// 设置音频的录制的声道CHANNEL_IN_STEREO为双声道,CHANNEL_CONFIGURATION_MONO为单声道
private static int channelConfig = L_IN_STEREO;
// 音频数据格式:PCM 16位每个样本。保证设备支持。PCM 8位每个样本。不一定能得到设备支持。
private static int audioFormat = NG_PCM_16BIT;
// 缓冲区字节大小
private int bufferSizeInBytes = 0;
private Button Start;
private Button Stop;
private AudioRecord audioRecord;
private boolean isRecord = false;// 设置正在录制的状态
//AudioName裸音频数据文件
private static final String AudioName = "/sdcard/";
//NewAudioName可播放的音频文件
private static final String NewAudioName = "/sdcard/";
public void onCreate(Bundle savedInstanceState) {
te(savedInstanceState);
getWindow().setFormat(UCENT);// 让界面横屏
requestWindowFeature(E_NO_TITLE);// 去掉界面标题
getWindow().setFlags(_FULLSCREEN,
_FULLSCREEN);
// 重新设置界面大小
setContentView();
init();
}
private void init() {
Start = (Button) ewById();
Stop = (Button) ewById();
lickListener(new TestAudioListener());
lickListener(new TestAudioListener());
creatAudioRecord();
}
private void creatAudioRecord() {
// 获得缓冲区字节大小
bufferSizeInBytes =
BufferSize(sampleRateInHz,
channelConfig, audioFormat);
// 创建AudioRecord对象
audioRecord = new AudioRecord(audioSource, sampleRateInHz,
channelConfig, audioFormat, bufferSizeInBytes);
}
class TestAudioListener implements OnClickListener {
@Override
public void onClick(View v) {
if (v == Start) {
startRecord();
}
if (v == Stop) {
stopRecord();
}
}
}
private void startRecord() {
ecording();
// 让录制状态为true
isRecord = true;
// 开启音频文件写入线程
new Thread(new AudioRecordThread()).start();
}
private void stopRecord() {
close();
}
private void close() {
if (audioRecord != null) {
n("stopRecord");
isRecord = false;//停止文件写入
();
e();//释放资源
audioRecord = null;
}
}
class AudioRecordThread implements Runnable {
@Override
public void run() {
writeDateTOFile();//往文件中写入裸数据
copyWaveFile(AudioName, NewAudioName);//给裸数据加上头文件
}
}
/**
* 这里将数据写入文件,但是并不能播放,因为AudioRecord获得的音频是原始的裸音频,
* 如果需要播放就必须加入一些格式或者编码的头信息。但是这样的好处就是你可以对音频的 裸数据进行处理,比如你要做一个爱说话的TOM
* 猫在这里就进行音频的处理,然后重新封装 所以说这样得到的音频比较容易做一些音频的处理。
*/
private void writeDateTOFile() {
// new一个byte数组用来存一些字节数据,大小为缓冲区大小
byte[] audiodata = new byte[bufferSizeInBytes];
FileOutputStream fos = null;
int readsize = 0;
try {
File file = new File(AudioName);
if (()) {
();
}
fos = new FileOutputStream(file);// 建立一个可存取字节的文件
} catch (Exception e) {
tackTrace();
}
while (isRecord == true) {
readsize = (audiodata, 0, bufferSizeInBytes);
if (_INVALID_OPERATION != readsize) {
try {
(audiodata);
} catch (IOException e) {
tackTrace();
}
}
}
try {
();// 关闭写入流
} catch (IOException e) {
tackTrace();
}
}
// 这里得到可播放的音频文件
private void copyWaveFile(String inFilename, String outFilename) {
FileInputStream in = null;
FileOutputStream out = null;
long totalAudioLen = 0;
long totalDataLen = totalAudioLen + 36;
long longSampleRate = sampleRateInHz;
int channels = 2;
long byteRate = 16 * sampleRateInHz * channels / 8;
byte[] data = new byte[bufferSizeInBytes];
try {
in = new FileInputStream(inFilename);
out = new FileOutputStream(outFilename);
totalAudioLen = nnel().size();
totalDataLen = totalAudioLen + 36;
WriteWaveFileHeader(out, totalAudioLen, totalDataLen,
longSampleRate, channels, byteRate);
while ((data) != -1) {
(data);
}
();
();
} catch (FileNotFoundException e) {
tackTrace();
} catch (IOException e) {
tackTrace();
}
}
/**
* 这里提供一个头信息。插入这些信息就可以得到可以播放的文件。
* 为我为啥插入这44个字节,这个还真没深入研究,不过你随便打开一个wav
* 音频的文件,可以发现前面的头文件可以说基本一样哦。每种格式的文件都有
* 自己特有的头文件。
*/
private void WriteWaveFileHeader(FileOutputStream out, long
totalAudioLen,
long totalDataLen, long longSampleRate, int channels, long
byteRate)
throws IOException {
byte[] header = new byte[44];
header[0] = 'R'; // RIFF/WAVE header
header[1] = 'I';
header[2] = 'F';
header[3] = 'F';
header[4] = (byte) (totalDataLen & 0xff);
header[5] = (byte) ((totalDataLen >> 8) & 0xff);
header[6] = (byte) ((totalDataLen >> 16) & 0xff);
header[7] = (byte) ((totalDataLen >> 24) & 0xff);
header[8] = 'W';
header[9] = 'A';
header[10] = 'V';
header[11] = 'E';
header[12] = 'f'; // 'fmt ' chunk
header[13] = 'm';
header[14] = 't';
header[15] = ' ';
header[16] = 16; // 4 bytes: size of 'fmt ' chunk
header[17] = 0;
header[18] = 0;
header[19] = 0;
header[20] = 1; // format = 1
header[21] = 0;
header[22] = (byte) channels;
header[23] = 0;
header[24] = (byte) (longSampleRate & 0xff);
header[25] = (byte) ((longSampleRate >> 8) & 0xff);
header[26] = (byte) ((longSampleRate >> 16) & 0xff);
header[27] = (byte) ((longSampleRate >> 24) & 0xff);
header[28] = (byte) (byteRate & 0xff);
header[29] = (byte) ((byteRate >> 8) & 0xff);
header[30] = (byte) ((byteRate >> 16) & 0xff);
header[31] = (byte) ((byteRate >> 24) & 0xff);
header[32] = (byte) (2 * 16 / 8); // block align
header[33] = 0;
header[34] = 16; // bits per sample
header[35] = 0;
header[36] = 'd';
header[37] = 'a';
header[38] = 't';
header[39] = 'a';
header[40] = (byte) (totalAudioLen & 0xff);
header[41] = (byte) ((totalAudioLen >> 8) & 0xff);
header[42] = (byte) ((totalAudioLen >> 16) & 0xff);
header[43] = (byte) ((totalAudioLen >> 24) & 0xff);
(header, 0, 44);
}
@Override
protected void onDestroy() {
close();
roy();
}
}
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Android入门(9)AudioRecord和AudioTrack类的使用
(2010-05-07 09:07:05
AudioRecord和AudioTrack类是Android获取和播放音频流的重要类,放置在包中。与该包中的MediaRecorder和MediaPlayer类不同,AudioRecord和AudioTrack类在获取和播放音频数据流时无需通过文件保存和文件读取,可以动态地直接获取和播放音频流,在实时处理音频数据流时非常有用。
当然,如果用户只想录音后写入文件或从文件中取得音频流进行播放,那么直接使用MediaRecorder和MediaPlayer类是首选方案,因为这两个类使用非常方便,而且成功率很高。而AudioRecord和AudioTrack类的使用却比较复杂,我们发现很多人都不能成功
地使用这两个类,甚至认为Android的这两个类是不能工作的。
其实,AudioRecord和AudioTrack类的使用虽然比较复杂,但是可以工作,我们不仅可以很好地使用了这两个类,而且还通过套接字(Socket)实现了音频数据的网络传输,做到了一端使用AudioRecord获取音频流然后通过套接字传输出去,而另一端通过套接字接收后使用AudioTrack类播放。
下面是我们对AudioRecord和AudioTrack类在使用方面的经验总结:
(1)创建AudioRecord和AudioTrack类对象:创建这两个类的对象比较复杂,通过对文档的反复和仔细理解,并通过多次失败的尝试,并在北理工的某个Android大牛的网上的文章启发下,我们也最终成功地创建了这两个类的对象。创建AudioRecord和AudioTrack类对象的代码如下:
AudioRecord类:
m_in_buf_size =BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_in_rec = new AudioRecord(,
8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_in_buf_size) ;
AudioTrack类:
m_out_buf_size = BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_out_trk = new AudioTrack(_MUSIC, 8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_out_buf_size,
_STREAM);
(2)关于AudioRecord和AudioTrack类的监听函数,不用也行。
(3)调试方面,包括初始化后看logcat信息,以确定类的工作状态,初始化是否成功等。
编写好代码,没有语法错误,调用模拟器运行、调试代码时,logcat发挥了很好的功用。刚调试时,经常会出现模拟器显示出现异常,这时我们可以在代码的一些关键语句后添加如Log.d("test1","OK");这样的语句进行标识,出现异常时我们就可以在logcat窗口观察代码执行到哪里出现异常,然后进行相应的修改、调试。模拟器不会出现异常时,又遇到了录放音的问题。录音方面,刚开始选择将语音编码数据存放在多个固定大小的文件中进行传送,但是这种情况下会出现声音断续的现象,而且要反复的建立文件,比较麻烦,后来想到要进行网上传输,直接将语音编码数据以数据流的形式传送,经过验证,这种方法可行并且使代码更加简洁。放音方面,将接收到的数据流存放在一个数组中,然后将数组中数据写
到AudioTrack中。刚开始只是“嘟”几声,经过检查发现只是把数据写一次,加入循环,让数据反复写到AudioTrack中,就可以听到正常的语音了。接下来的工作主要是改善话音质量与话音延迟,在进行通话的过程中,观察logcat窗口,发现向数组中写数据时会出现Bufferflow的情况,于是把重心转移到数组大小的影响上,经过试验,发现 AudioRecord一次会读640个数据,然后就对录音和放音中有数组的地方进行实验修改。AudioRecord和AudioTrack进行实例化时,参数中各有一个数组大小,经过试验这个数组大小和AudioRecord和AudioTrack能正常实例化所需的最小Buffer大小(即上面实例化时的m_in_buf_size和m_out_buf_size参数)相等且服务器方进行缓存数据的数组尺寸是上述数值的2倍时,语音质量最好。由于录音和放音的速度不一致,受到北理工大牛的启发,在录音方面,将存放录音数据的数组放到LinkedList中,当LinkedList中数组个数达到2(这个也是经过试验验证话音质量最好时的数据)时,将先录好的数组中数据传送出去。经过上述反复试验和修改,最终使双方通话质量较好,且延时较短(大概有2秒钟)。
(4)通过套接字传输和接收数据
数据传送部分,使用的是套接字。通信双方,通过不同的端口向服务器发送请求,与服务器连接上后,开始通话向服务器发送数据,服务器通过一个套接字接收到一方的数据后,先存在一个数组中,然后将该数组中数据以数据流的形式再通过另一个套接字传送到另一方。这样就实现了双方数据的传送。
(5)代码架构
为避免反复录入和读取数据占用较多资源,使程序在进行录放音时不能执行其他命令,故将录音和放音各写成一个线程类,然后在主程序中,通过MENU控制通话的开始、停止、结束。
最后说明,AudioRecord和AudioTrack类可以用,只是稍微复杂些。以下贴出双方通信的源码,希望对大家有所帮助:
主程序Daudioclient:
package client;
import ty;
import ;
import ;
import em;
public class Daudioclient extends Activity {
public static final int MENU_START_ID = ;
public static final int MENU_STOP_ID = + 1 ;
public static final int MENU_EXIT_ID = + 2 ;
protected Saudioserver m_player ;
protected Saudioclient m_recorder ;
@Override
public void onCreate(Bundle savedInstanceState) {
te(savedInstanceState);
setContentView();
}
public boolean onCreateOptionsMenu(Menu aMenu)
{
boolean res = teOptionsMenu(aMenu) ;
(0, MENU_START_ID, 0, "START") ;
(0, MENU_STOP_ID, 0, "STOP") ;
(0, MENU_EXIT_ID, 0, "EXIT") ;
return res ;
}
public boolean onOptionsItemSelected(MenuItem aMenuItem)
{
switch (mId()) {
case MENU_START_ID:
{
m_player = new Saudioserver() ;
m_recorder = new Saudioclient() ;
m_() ;
m_() ;
m_() ;
m_() ;
}
break ;
case MENU_STOP_ID:
{
m_() ;
m_() ;
m_player = null ;
m_recorder = null ;
}
break ;
case MENU_EXIT_ID:
{
int pid = () ;
ocess(pid) ;
}
break ;
default:
break ;
}
return onsItemSelected(aMenuItem);
}
}
录音程序Saudioclient:
package client;
import tputStream;
import ption;
import ;
import nHostException;
import List;
import ormat;
import ecord;
import ecorder;
import ;
public class Saudioclient extends Thread
{
protected AudioRecord m_in_rec ;
protected int m_in_buf_size ;
protected byte [] m_in_bytes ;
protected boolean m_keep_running ;
protected Socket s;
protected DataOutputStream dout;
protected LinkedList
public void run()
{
try
{
byte [] bytes_pkg ;
m_in_ecording() ;
while(m_keep_running)
{
m_in_(m_in_bytes, 0, m_in_buf_size) ;
bytes_pkg = m_in_() ;
if(m_in_() >= 2)
{
(m_in_First()
m_in_First() .length);
}
m_in_(bytes_pkg) ;
}
m_in_() ;
, 0,
m_in_rec = null ;
m_in_bytes = null ;
();
}
catch(Exception e)
{
tackTrace();
}
}
public void init()
{
m_in_buf_size = BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_in_rec = new AudioRecord(,
8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_in_buf_size) ;
m_in_bytes = new byte [m_in_buf_size] ;
m_keep_running = true ;
m_in_q=new LinkedList
try
{
s=new Socket("192.168.1.100",4332);
dout=new DataOutputStream(putStream());
//new Thread(R1).start();
}
catch (UnknownHostException e)
{
// TODO Auto-generated catch block
tackTrace();
}
catch (IOException e)
{
// TODO Auto-generated catch block
tackTrace();
}
}
public void free()
{
m_keep_running = false ;
try {
(1000) ;
} catch(Exception e) {
Log.d("","") ;
}
}
}
放音程序Saudioserver:
package client;
import putStream;
import ption;
import ;
import ormat;
import anager;
import rack;
import ;
public class Saudioserver extends Thread
{
protected AudioTrack m_out_trk ;
protected int m_out_buf_size ;
protected byte [] m_out_bytes ;
protected boolean m_keep_running ;
private Socket s;
private DataInputStream din;
public void init()
{
try
{
s=new Socket("192.168.1.100",4331);
din=new DataInputStream(utStream());
m_keep_running = true ;
m_out_buf_size = BufferSize(8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT);
m_out_trk = new AudioTrack(_MUSIC, 8000,
L_CONFIGURATION_MONO,
NG_PCM_16BIT,
m_out_buf_size,
_STREAM);
m_out_bytes=new byte[m_out_buf_size];
// new Thread(R1).start();
}
catch(Exception e)
{
tackTrace();
}
}
public void free()
{
m_keep_running = false ;
try {
(1000) ;
} catch(Exception e) {
Log.d("","") ;
}
}
public void run()
{
byte [] bytes_pkg = null ;
m_out_() ;
while(m_keep_running) {
try
{
(m_out_bytes);
bytes_pkg = m_out_() ;
m_out_(bytes_pkg, 0, bytes_) ;
}
catch(Exception e)
{
tackTrace();
}
}
m_out_() ;
m_out_trk = null ;
try {
();
} catch (IOException e) {
// TODO Auto-generated catch block
tackTrace();
}
}
}
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Android AudioRecord 实现音频录制
//由于程序可能用到对手机SD卡的读取,所以在里需要配置对sd卡存取的权限:
// android:name="_EXTERNAL_STORAGE" /> // android:name="_UNMOUNT_FILESYSTEMS"/> import edInputStream; import edOutputStream; import putStream; import tputStream; import ; import putStream; import tputStream; import ption; import ty; import t; import ormat; import anager; import ecord; import rack; import ecorder; import ask; import ; import nment; import ; import ; import kListener; import ; import ew; import d.R; /** * 该实例中,我们使用AudioRecord类来完成我们的音频录制程序 * AudioRecord类,我们可以使用三种不同的read方法来完成录制工作, * 每种方法都有其实用的场合 * 一、实例化一个AudioRecord类我们需要传入几种参数 * 1、AudioSource:这里可以是 * 2、SampleRateInHz:录制频率,可以为8000hz或者11025hz等,不同的硬件设备这个值不同 * 3、ChannelConfig:录制通道,可以为L_CONFIGURATION_MONO和L_CONFIGURATION_STEREO * 4、AudioFormat:录制编码格式,可以为NG_16BIT和BIT,其中16BIT的仿真性比8BIT好,但是需要消耗更多的电量和存储空间 * 5、BufferSize:录制缓冲大小:可以通过getMinBufferSize来获取 * 这样我们就可以实例化一个AudioRecord对象了 * 二、创建一个文件,用于保存录制的内容 * 同上篇 * 三、打开一个输出流,指向创建的文件 * DataOutputStream dos = new DataOutputStream(new BufferedOutputSream(new FileOutputStream(file))) * 四、现在就可以开始录制了,我们需要创建一个字节数组来存储从udioRecorder中返回的音频数据,但是 * 注意,我们定义的数组要小于定义AudioRecord时指定的那个ufferSize * short[]buffer = new short[BufferSize/4]; * startRecording(); * 然后一个循环,调用AudioRecord的read方法实现读取 * 另外使用MediaPlayer是无法播放使用AudioRecord录制的音频的,为了实现播放,我们需要 * 使用AudioTrack类来实现 * AudioTrack类允许我们播放原始的音频数据 * * * 一、实例化一个AudioTrack同样要传入几个参数 * 1、StreamType:在AudioManager中有几个常量,其中一个是TREAM_MUSIC; * 2、SampleRateInHz:最好和AudioRecord使用的是同一个值 * 3、ChannelConfig:同上 * 4、AudioFormat:同上 * 5、BufferSize:通过AudioTrack的静态方法getMinBufferSize来获取 * 6、Mode:可以是_STREAM和MODE_STATIC,关于这两种不同之处,可以查阅文档 * 二、打开一个输入流,指向刚刚录制内容保存的文件,然后开始播放,边读取边播放 * * 实现时,音频的录制和播放分别使用两个AsyncTask来完成 */ public class PCMRecordActivity extends Activity implements OnClickListener{ private TextView stateView; private Button btnStart,btnStop,btnPlay,btnFinish; private RecordTask recorder; private PlayTask player; private File fpath; private File audioFile; private Context context; private boolean isRecording=true, isPlaying=false; //标记 private int frequence = 16000;//8000; //录制频率,单位hz.这里的值注意了,写的不好,可能实例化AudioRecord对象的时候,会出错。我开始写成11025就不行。这取决于硬件设备 private int channelConfig = L_CONFIGURATION_MONO; private int audioEncoding = NG_PCM_16BIT; public void onCreate(Bundle savedInstanceState){ te(savedInstanceState); setContentView(_audio_record); stateView = (TextView)ewById(_state); t("start recording.."); btnStart = (Button)ewById(_start); t("start"); lickListener(this); btnStop = (Button)ewById(_stop); t("stop"); lickListener(this); btnPlay = (Button)ewById(_play); t("play"); lickListener(this); btnFinish = (Button)ewById(_finish); t("finish"); lickListener(this); bled(false); bled(false); bled(false); if(ernalStorageState().equals(_MOUNTED))//手机有SD卡的情况 { //在这里我们创建一个文件,用于保存录制内容 fpath = new File(ernalStorageDirectory().getAbsolutePath()+"/data/files/"); ();//创建文件夹 }else//手机无SD卡的情况 { fpath = heDir(); } try { //创建临时文件,注意这里的格式为.pcm audioFile = TempFile("recording", ".pcm", fpath); } catch (IOException e) { // TODO Auto-generated catch block tackTrace(); } } public void onClick(View v){ int id = (); switch(id){ case _start: //开始录制 //这里启动录制任务 recorder = new RecordTask(); e(); break; case _stop: //停止录制 rding = false; //更新状态 //在录制完成时设置,在RecordTask的onPostExecute中完成 break; case _play: player = new PlayTask(); e(); break; case _finish: //完成播放 ing = false; break; } } class RecordTask extends AsyncTask @Override protected Void arg0) { isRecording = true; try { //开通输出流到指定的文件 DataOutputStream dos = new DataOutputStream(new BufferedOutputStream(new FileOutputStream(audioFile))); //根据定义好的几个配置,来获取合适的缓冲大小 int bufferSize = BufferSize(frequence, channelConfig, audioEncoding); //实例化AudioRecord AudioRecord record = new AudioRecord(, frequence, channelConfig, audioEncoding, bufferSize); //定义缓冲 short[] buffer = new short[bufferSize]; //开始录制 ecording(); int r = 0; //存储录制进度 //定义循环,根据isRecording的值来判断是否继续录制 while(isRecording){ //从bufferSize中读取字节,返回读取的short个数 //这里老是出现buffer overflow,不知道是什么原因,试了好几个值,都没用,TODO:待解决 int bufferReadResult = (buffer, 0, ); //循环将buffer中的音频数据写入到OutputStream中 for(int i=0; i hort(buffer[i]); } publishProgress(new Integer(r)); //向UI线程报告当前进度 r++; //自增进度值 } //录制结束 (); Log.v("The DOS available:", "::"+()); (); } catch (Exception e) { // TODO: handle exception } return null; } //当在上面方法中调用publishProgress时,该方法触发,该方法在I线程中被执行 protected void progress){ t(progress[0].toString()); } protected void onPostExecute(Void result){ bled(false); bled(true); bled(true); bled(false); } protected void onPreExecute(){ //t("正在录制"); bled(false); bled(false); bled(false); bled(true); } } class PlayTask extends AsyncTask @Override protected Void arg0) { isPlaying = true; int bufferSize = BufferSize(frequence, channelConfig, audioEncoding); short[] buffer = new short[bufferSize/4]; try { //定义输入流,将音频写入到AudioTrack类中,实现播放 DataInputStream dis = new DataInputStream(new BufferedInputStream(new FileInputStream(audioFile))); //实例AudioTrack AudioTrack track = new AudioTrack(_MUSIC, frequence, channelConfig, audioEncoding, bufferSize, _STREAM); //开始播放 (); //由于AudioTrack播放的是流,所以,我们需要一边播放一边读取 while(isPlaying && ble()>0){ int i = 0; while(ble()>0 && i<){ buffer[i] = ort(); i++; } //然后将数据写入到AudioTrack中 (buffer, 0, ); } //播放结束 (); (); } catch (Exception e) { // TODO: handle exception } return null; } protected void onPostExecute(Void result){ bled(true); bled(false); bled(true); bled(false); } protected void onPreExecute(){ bled(false); bled(false); bled(false); bled(true); } } } +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ Android多媒体学:利用AudioRecord类实现自己的音频录制程序 . 博客分类: android AudioRecord类相对于MediaRecorder来说,更加接近底层,为我们封装的方法也更少。然而实现一个AudioRecord的音频录制程序也很 简单。本实例代码如下: 可惜,本实例测试时有个问题,在录制的时候,会出现buffer over。缓存泄露,待解决。 package ; import edInputStream; import edOutputStream; import putStream; import tputStream; import ; import putStream; import tputStream; import ption; import ty; import tValues; import ; import cusCallback; import ormat; import anager; import ecord; import rack; import layer; import ecorder; import ; import ask; import ; import nment; import tore; import ; import ; import ; import ew; /**