国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 系統 > Android > 正文

Android中的人臉檢測的示例代碼(靜態和動態)

2019-10-22 18:17:10
字體:
來源:轉載
供稿:網友

(1)背景。

Google 于2006年8月收購Neven Vision 公司 (該公司擁有10多項應用于移動設備領域的圖像識別的專利),以此獲得了圖像識別的技術,并加入到android/225048.html">android中。Android 中的人臉識別技術,用到的底層庫:android/external/neven/,framework 層:frameworks/base/media/java/android/media/FaceDetector.java。

Java 層接口的限制:A,只能接受Bitmap 格式的數據;B,只能識別雙眼距離大于20 像素的人臉像(當然,這個可在framework層中修改);C,只能檢測出人臉的位置(雙眼的中心點及距離),不能對人臉進行匹配(查找指定的臉譜)。

人臉識別技術的應用:A,為Camera 添加人臉識別的功能,使得Camera 的取景器上能標識出人臉范圍;如果硬件支持,可以對人臉進行對焦。B,為相冊程序添加按人臉索引相冊的功能,按人臉索引相冊,按人臉分組,搜索相冊。

(2)Neven庫給上層提供的主要方法:

A,android.media.FaceDetector .FaceDetector(int width, int height, int maxFaces):Creates a FaceDetector, configured with the size of the images to be analysed and the maximum number of faces that can be detected. These parameters cannot be changed once the object is constructed.

B,int android.media.FaceDetector .findFaces(Bitmap bitmap, Face [] faces):Finds all the faces found in a given Bitmap . The supplied array is populated with FaceDetector.Face s for each face found. The bitmap must be in 565 format (for now).

(3) 靜態圖片處理代碼實例:

通過對位圖的處理,捕獲位圖中的人臉,并以綠框顯示,有多個人臉就提示多個綠框。首先新建一個activity,由于位圖資源會用代碼顯示出來,所以不需在layout中使用widget。

package com.example.mydetect2; import android.os.Bundle; import android.app.Activity; import android.util.Log; import android.view.Menu; import android.content.Context;  import android.graphics.Bitmap;  import android.graphics.BitmapFactory;  import android.graphics.Canvas;  import android.graphics.Color;  import android.graphics.Paint;  import android.graphics.PointF;  import android.media.FaceDetector; //人臉識別的關鍵類 import android.media.FaceDetector.Face;  import android.view.View;   public class MainActivity2 extends Activity {    @Override   protected void onCreate(Bundle savedInstanceState) {     super.onCreate(savedInstanceState);     //setContentView(R.layout.activity_main_activity2);     setContentView(new myView(this));  //使用自建的view來顯示     Log.i("zhangcheng","MainActivity2 run here");   }    private class myView extends View{     private int imageWidth, imageHeight;     private int numberOfFace = 5;    //最大檢測的人臉數     private FaceDetector myFaceDetect; //人臉識別類的實例     private FaceDetector.Face[] myFace; //存儲多張人臉的數組變量     float myEyesDistance;      //兩眼之間的距離     int numberOfFaceDetected;    //實際檢測到的人臉數     Bitmap myBitmap;      public myView(Context context){   //view類的構造函數,必須有       super(context);        BitmapFactory.Options BitmapFactoryOptionsbfo = new BitmapFactory.Options();        BitmapFactoryOptionsbfo.inPreferredConfig = Bitmap.Config.RGB_565; //構造位圖生成的參數,必須為565。類名+enum       myBitmap = BitmapFactory.decodeResource(getResources(), R.drawable.baby, BitmapFactoryOptionsbfo);         imageWidth = myBitmap.getWidth();        imageHeight = myBitmap.getHeight();        myFace = new FaceDetector.Face[numberOfFace];    //分配人臉數組空間       myFaceDetect = new FaceDetector(imageWidth, imageHeight, numberOfFace);        numberOfFaceDetected = myFaceDetect.findFaces(myBitmap, myFace);  //FaceDetector 構造實例并解析人臉       Log.i("zhangcheng","numberOfFaceDetected is " + numberOfFaceDetected);     }          protected void onDraw(Canvas canvas){      //override函數,必有       canvas.drawBitmap(myBitmap, 0, 0, null);  //畫出位圖        Paint myPaint = new Paint();        myPaint.setColor(Color.GREEN);        myPaint.setStyle(Paint.Style.STROKE);        myPaint.setStrokeWidth(3);     //設置位圖上paint操作的參數        for(int i=0; i < numberOfFaceDetected; i++){         Face face = myFace[i];         PointF myMidPoint = new PointF();          face.getMidPoint(myMidPoint);          myEyesDistance = face.eyesDistance();  //得到人臉中心點和眼間距離參數,并對每個人臉進行畫框         canvas.drawRect(      //矩形框的位置參數             (int)(myMidPoint.x - myEyesDistance),              (int)(myMidPoint.y - myEyesDistance),              (int)(myMidPoint.x + myEyesDistance),              (int)(myMidPoint.y + myEyesDistance),              myPaint);       }     }   } } 

以上為activity,工程的xml文件沒有什么特殊地方。最后得到的結果如下,圖片資源是png的也可以。

Android,人臉檢測,靜態人臉檢測,動態人臉檢測

(4) 動態預覽識別人臉代碼實例

該過程用于后臺工作,沒有界面也沒有預覽。所以沒有采用上面那種處理位圖資源的方式。Import的類就不列出了,核心的代碼和流程如下:

A,打開攝像頭,獲得初步攝像頭回調數據,用到是setpreviewcallback

protected Camera mCameraDevice = null;// 攝像頭對象實例private long mScanBeginTime = 0;  // 掃描開始時間private long mScanEndTime = 0;  // 掃描結束時間private long mSpecPreviewTime = 0;  // 掃描持續時間private int orientionOfCamera ;  //前置攝像頭layout角度int numberOfFaceDetected;  //最終識別人臉數目
public void startFaceDetection() {     try {         mCameraDevice = Camera.open(1);   //打開前置         if (mCameraDevice != null)           Log.i(TAG, "open cameradevice success! ");       } catch (Exception e) {       //Exception代替很多具體的異常         mCameraDevice = null;         Log.w(TAG, "open cameraFail");         mHandler.postDelayed(r,5000);  //如果攝像頭被占用,人眼識別每5秒檢測看有沒有釋放前置         return;     }             Log.i(TAG, "startFaceDetection");     Camera.Parameters parameters = mCameraDevice.getParameters();     setCameraDisplayOrientation(1,mCameraDevice);       //設置預覽方向             mCameraDevice.setPreviewCallback(new PreviewCallback(){       public void onPreviewFrame(byte[] data, Camera camera){         mScanEndTime = System.currentTimeMillis();  //記錄攝像頭返回數據的時間         mSpecPreviewTime = mScanEndTime - mScanBeginTime; //從onPreviewFrame獲取攝像頭數據的時間         Log.i(TAG, "onPreviewFrame and mSpecPreviewTime = " + String.valueOf(mSpecPreviewTime));         Camera.Size localSize = camera.getParameters().getPreviewSize(); //獲得預覽分辨率         YuvImage localYuvImage = new YuvImage(data, 17, localSize.width, localSize.height, null);         ByteArrayOutputStream localByteArrayOutputStream = new ByteArrayOutputStream();         localYuvImage.compressToJpeg(new Rect(0, 0, localSize.width, localSize.height), 80, localByteArrayOutputStream);  //把攝像頭回調數據轉成YUV,再按圖像尺寸壓縮成JPEG,從輸出流中轉成數組         byte[] arrayOfByte = localByteArrayOutputStream.toByteArray();         CameraRelease();  //及早釋放camera資源,避免影響camera設備的正常調用         StoreByteImage(arrayOfByte);       }     });      mCameraDevice.startPreview();     //該語句可放在回調后面,當執行到這里,調用前面的setPreviewCallback     mScanBeginTime = System.currentTimeMillis();// 記錄下系統開始掃描的時間   } 

B,設置預覽方向的函數說明,該函數比較重要,因為方向直接影響bitmap構造時的矩陣旋轉角度,影響最終人臉識別的成功與否

public void setCameraDisplayOrientation(int paramInt, Camera paramCamera){     CameraInfo info = new CameraInfo();     Camera.getCameraInfo(paramInt, info);     int rotation = ((WindowManager)getSystemService("window")).getDefaultDisplay().getRotation(); //獲得顯示器件角度     int degrees = 0;     Log.i(TAG,"getRotation's rotation is " + String.valueOf(rotation));     switch (rotation) {       case Surface.ROTATION_0: degrees = 0; break;       case Surface.ROTATION_90: degrees = 90; break;       case Surface.ROTATION_180: degrees = 180; break;       case Surface.ROTATION_270: degrees = 270; break;     }      orientionOfCamera = info.orientation;   //獲得攝像頭的安裝旋轉角度     int result;     if (info.facing == Camera.CameraInfo.CAMERA_FACING_FRONT) {       result = (info.orientation + degrees) % 360;       result = (360 - result) % 360; // compensate the mirror     } else { // back-facing       result = (info.orientation - degrees + 360) % 360;     }     paramCamera.setDisplayOrientation(result); //注意前后置的處理,前置是映象畫面,該段是SDK文檔的標準DEMO   } 

C,對攝像頭回調數據進行轉換并最終解成BITMAP后再人臉識別的過程

public void StoreByteImage(byte[] paramArrayOfByte){     mSpecStopTime = System.currentTimeMillis();     mSpecCameraTime = mSpecStopTime - mScanBeginTime;                 Log.i(TAG, "StoreByteImage and mSpecCameraTime is " + String.valueOf(mSpecCameraTime));      BitmapFactory.Options localOptions = new BitmapFactory.Options();       Bitmap localBitmap1 = BitmapFactory.decodeByteArray(paramArrayOfByte, 0, paramArrayOfByte.length, localOptions);       int i = localBitmap1.getWidth();       int j = localBitmap1.getHeight();  //從上步解出的JPEG數組中接出BMP,即RAW->JPEG->BMP       Matrix localMatrix = new Matrix();       //int k = cameraResOr;       Bitmap localBitmap2 = null;       FaceDetector localFaceDetector = null;      switch(orientionOfCamera){  //根據前置安裝旋轉的角度來重新構造BMP       case 0:         localFaceDetector = new FaceDetector(i, j, 1);             localMatrix.postRotate(0.0F, i / 2, j / 2);             localBitmap2 = Bitmap.createBitmap(i, j, Bitmap.Config.RGB_565);         break;       case 90:         localFaceDetector = new FaceDetector(j, i, 1);  //長寬互換             localMatrix.postRotate(-270.0F, j / 2, i / 2); //正90度的話就反方向轉270度,一樣效果             localBitmap2 = Bitmap.createBitmap(i, j, Bitmap.Config.RGB_565);         break;                  case 180:         localFaceDetector = new FaceDetector(i, j, 1);             localMatrix.postRotate(-180.0F, i / 2, j / 2);             localBitmap2 = Bitmap.createBitmap(i, j, Bitmap.Config.RGB_565);         break;       case 270:         localFaceDetector = new FaceDetector(j, i, 1);             localMatrix.postRotate(-90.0F, j / 2, i / 2);             localBitmap2 = Bitmap.createBitmap(j, i, Bitmap.Config.RGB_565); //localBitmap2應是沒有數據的         break;     }      FaceDetector.Face[] arrayOfFace = new FaceDetector.Face[1];       Paint localPaint1 = new Paint();       Paint localPaint2 = new Paint();     localPaint1.setDither(true);       localPaint2.setColor(-65536);       localPaint2.setStyle(Paint.Style.STROKE);       localPaint2.setStrokeWidth(2.0F);       Canvas localCanvas = new Canvas();       localCanvas.setBitmap(localBitmap2);       localCanvas.setMatrix(localMatrix);       localCanvas.drawBitmap(localBitmap1, 0.0F, 0.0F, localPaint1); //該處將localBitmap1和localBitmap2關聯(可不要?)      numberOfFaceDetected = localFaceDetector.findFaces(localBitmap2, arrayOfFace); //返回識臉的結果       localBitmap2.recycle();       localBitmap1.recycle();  //釋放位圖資源      FaceDetectDeal(numberOfFaceDetected);   } 

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持VEVB武林網。


注:相關教程知識閱讀請移步到Android開發頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 东平县| 新化县| 洪泽县| 绥宁县| 永州市| 丹江口市| 东莞市| 卢氏县| 阳原县| 乃东县| 四会市| 隆尧县| 唐河县| 金湖县| 海口市| 赤水市| 南投县| 沙雅县| 三原县| 垫江县| 高唐县| 白城市| 孟连| 宁陵县| 镇雄县| 开化县| 和龙市| 丹东市| 吉首市| 云安县| 富源县| 新河县| 香港 | 平遥县| 德清县| 南宁市| 绥德县| 甘南县| 梓潼县| 深水埗区| 广灵县|