轉自:http://www.jianshu.com/p/4646894245ba
在看這篇之前,如果您還不了解直播原理,請查看這篇文章如何快速的開發一個完整的iOS直播app(原理篇)
開發一款直播app,美顏功能是很重要的,如果沒有美顏功能,可能分分鐘鐘掉粉千萬,本篇主要講解直播中美顏功能的實現原理,并且實現美顏功能。
如果喜歡我的文章,可以關注我微博:袁崢Seemygo,也可以來小碼哥,了解下我們的iOS培訓課程。后續還會更新更多內容,有任何問題,歡迎簡書留言袁崢Seemygo。。。
美顏原理.pngGPU:(Graphic PRocessor Unit圖形處理單元)手機或者電腦用于圖像處理和渲染的硬件
GPU工作原理:采集數據-> 存入主內存(RAM) -> CPU(計算處理) -> 存入顯存(VRAM) -> GPU(完成圖像渲染) -> 幀緩沖區 -> 顯示器
GPU工作原理.jpgOpenGL ES:(Open Graphics Library For Embedded(嵌入的) Systems 開源嵌入式系統圖形處理框架),一套圖形與硬件接口,用于把處理好的圖片顯示到屏幕上。
GPUImage:是一個基于OpenGL ES 2.0圖像和視頻處理的開源iOS框架,提供各種各樣的圖像處理濾鏡,并且支持照相機和攝像機的實時濾鏡,內置120多種濾鏡效果,并且能夠自定義圖像濾鏡。
濾鏡處理的原理:就是把靜態圖片或者視頻的每一幀進行圖形變換再顯示出來。它的本質就是像素點的坐標和顏色變化
從外界傳來光線,會經過墨鏡過濾,在傳給我們的眼睛,就能感受到大白天也是烏黑一片,哈哈。一般的target可分為兩類中間環節的target, 一般是各種filter, 是GPUImageFilter或者是子類.最終環節的target, GPUImageView:用于顯示到屏幕上, 或者GPUImageMovieWriter:寫成視頻文件。GPUImage處理主要分為3個環節source(視頻、圖片源) -> filter(濾鏡) -> final target (處理后視頻、圖片)GPUImaged的Source:都繼承GPUImageOutput的子類,作為GPUImage的數據源,就好比外界的光線,作為眼睛的輸出源GPUImageVideoCamera:用于實時拍攝視頻GPUImageStillCamera:用于實時拍攝照片GPUImagePicture:用于處理已經拍攝好的圖片,比如png,jpg圖片GPUImageMovie:用于處理已經拍攝好的視頻,比如mp4文件GPUImage的filter:GPUimageFilter類或者子類,這個類繼承自GPUImageOutput,并且遵守GPUImageInput協議,這樣既能流進,又能流出,就好比我們的墨鏡,光線通過墨鏡的處理,最終進入我們眼睛GPUImage的final target:GPUImageView,GPUImageMovieWriter就好比我們眼睛,最終輸入目標。
GPUImage處理原理.png磨皮(GPUImageBilateralFilter):本質就是讓像素點模糊,可以使用高斯模糊,但是可能導致邊緣會不清晰,用雙邊濾波(Bilateral Filter) ,有針對性的模糊像素點,能保證邊緣不被模糊。美白(GPUImageBrightnessFilter):本質就是提高亮度。關注效果,忽悠本人
GPUImage原生.gif
美顏濾鏡處理.gif亮度(GPUImageBrightnessFilter)和雙邊濾波(GPUImageBilateralFilter)這兩個濾鏡達到美顏效果.步驟五:設置濾鏡組鏈步驟六:設置GPUImage處理鏈,從數據源 => 濾鏡 => 最終界面效果步驟七:開始采集視頻注意點:
sessionPreset最好使用AVCaptureSessionPresetHigh,會自動識別,如果用太高分辨率,當前設備不支持會直接報錯GPUImageVideoCamera必須要強引用,否則會被銷毀,不能持續采集視頻.必須調用startCameraCapture,底層才會把采集到的視頻源,渲染到GPUImageView中,就能顯示了。GPUImageBilateralFilter的distanceNormalizationFactor值越小,磨皮效果越好,distanceNormalizationFactor取值范圍: 大于1。- (void)viewDidLoad { [super viewDidLoad]; // 創建視頻源 // SessionPreset:屏幕分辨率,AVCaptureSessionPresetHigh會自適應高分辨率 // cameraPosition:攝像頭方向 GPUImageVideoCamera *videoCamera = [[GPUImageVideoCamera alloc] initWithSessionPreset:AVCaptureSessionPresetHigh cameraPosition:AVCaptureDevicePositionFront]; videoCamera.outputImageOrientation = UIInterfaceOrientationPortrait; _videoCamera = videoCamera; // 創建最終預覽View GPUImageView *captureVideoPreview = [[GPUImageView alloc] initWithFrame:self.view.bounds]; [self.view insertSubview:captureVideoPreview atIndex:0]; // 創建濾鏡:磨皮,美白,組合濾鏡 GPUImageFilterGroup *groupFilter = [[GPUImageFilterGroup alloc] init]; // 磨皮濾鏡 GPUImageBilateralFilter *bilateralFilter = [[GPUImageBilateralFilter alloc] init]; [groupFilter addTarget:bilateralFilter]; _bilateralFilter = bilateralFilter; // 美白濾鏡 GPUImageBrightnessFilter *brightnessFilter = [[GPUImageBrightnessFilter alloc] init]; [groupFilter addTarget:brightnessFilter]; _brightnessFilter = brightnessFilter; // 設置濾鏡組鏈 [bilateralFilter addTarget:brightnessFilter]; [groupFilter setInitialFilters:@[bilateralFilter]]; groupFilter.terminalFilter = brightnessFilter; // 設置GPUImage響應鏈,從數據源 => 濾鏡 => 最終界面效果 [videoCamera addTarget:groupFilter]; [groupFilter addTarget:captureVideoPreview]; // 必須調用startCameraCapture,底層才會把采集到的視頻源,渲染到GPUImageView中,就能顯示了。 // 開始采集視頻 [videoCamera startCameraCapture];}- (IBAction)brightnessFilter:(UISlider *)sender { _brightnessFilter.brightness = sender.value;}- (IBAction)bilateralFilter:(UISlider *)sender { // 值越小,磨皮效果越好 CGFloat maxValue = 10; [_bilateralFilter setDistanceNormalizationFactor:(maxValue - sender.value)];}注意:
切換美顏效果原理:移除之前所有處理鏈,重新設置處理鏈- (void)viewDidLoad { [super viewDidLoad]; // Do any additional setup after loading the view. // 創建視頻源 // SessionPreset:屏幕分辨率,AVCaptureSessionPresetHigh會自適應高分辨率 // cameraPosition:攝像頭方向 GPUImageVideoCamera *videoCamera = [[GPUImageVideoCamera alloc] initWithSessionPreset:AVCaptureSessionPresetHigh cameraPosition:AVCaptureDevicePositionFront]; videoCamera.outputImageOrientation = UIInterfaceOrientationPortrait; _videoCamera = videoCamera; // 創建最終預覽View GPUImageView *captureVideoPreview = [[GPUImageView alloc] initWithFrame:self.view.bounds]; [self.view insertSubview:captureVideoPreview atIndex:0]; _captureVideoPreview = captureVideoPreview; // 設置處理鏈 [_videoCamera addTarget:_captureVideoPreview]; // 必須調用startCameraCapture,底層才會把采集到的視頻源,渲染到GPUImageView中,就能顯示了。 // 開始采集視頻 [videoCamera startCameraCapture];}- (IBAction)openBeautifyFilter:(UISwitch *)sender { // 切換美顏效果原理:移除之前所有處理鏈,重新設置處理鏈 if (sender.on) { // 移除之前所有處理鏈 [_videoCamera removeAllTargets]; // 創建美顏濾鏡 GPUImageBeautifyFilter *beautifyFilter = [[GPUImageBeautifyFilter alloc] init]; // 設置GPUImage處理鏈,從數據源 => 濾鏡 => 最終界面效果 [_videoCamera addTarget:beautifyFilter]; [beautifyFilter addTarget:_captureVideoPreview]; } else { // 移除之前所有處理鏈 [_videoCamera removeAllTargets]; [_videoCamera addTarget:_captureVideoPreview]; }}源碼注意:第一次打開需要 pod install
后續還會講解GPUImage原理openGL ES,視頻編碼,推流,聊天室,礼物系統等更多功能,敬請關注!!!
新聞熱點
疑難解答