原来用GPUImage实现,采用的这篇博客介绍的方法,但是有两个比较严重的问题:

App启动后第一次使用播放器时会造成主线程卡住1~5秒,越老的机型越长,第二次和以后就完全不卡,直到下次启动。这应该是GPUImage某处初始化造成的,我没有找到具体位置。

播放某些视频时,画面中亮白色的位置会出现“过曝”导致看不清细节,原视频是正常的,我看了下着色器里面并没有调整颜色或者亮度,所以这应该是GPUImageMovie视频解码造成的。

我只好搜了一下国外的做法,找到了medium上的这篇文章,它使用iOS自带的CoreImage处理每一帧图像,通过AVVideoComposition合成视频,滤镜用metal实现,性能和显示效果都很好。我将这篇文章翻译一下。


1 首先,我们需要一个视频

通用的视频格式,至少AVPlayer能解码的视频格式不带Alpha透明通道,我们需要普通的视频能带Alpha透明信息。有两种方法:最常见的是“绿幕”,如果不限制颜色就用另一种不常见的方法,如下图:

ios metal使用indice ios9 metal_ide

一些软件如 Autodesk 3ds Max 或 Adobe After Effects 能输出带Alpha透明通道的视频,用 Adobe Premiere 创建这种视频也很简单,不需要太多知识。

2 播放视频

熟悉AVFoundation的可以跳过这部分。

在一个单页面的工程ViewController中,添加一个视频播放器。

import AVFoundation
// ...
  override func viewDidLoad() {
// ...
    let videoUrl = Bundle.main.url(forResource: "playdoh-bat", withExtension: "mp4")!
    let playerItem = AVPlayerItem(url: videoUrl)
    let player = AVPlayer(playerItem: playerItem)
    let playerLayer = AVPlayerLayer(player: player)
    playerLayer.bounds = view.bounds
    playerLayer.position = view.center
    view.layer.addSublayer(playerLayer)

    player.play()
  }

3 用CoreImage给视频添加filter

CoreImage最酷的一点是它能处理多种格式的图像:CoreGraphics里的CGImage、UIKit里的UIImage,甚至CoreVideo里的CVImageBuffer和CVPixelBuffers。

AVFoundation真的很方便。如果你跟我一样听过AVVideoComposition但从未实际使用,这部分就很有趣。

注意:听起来难以置信AVVideoComposition并不是AVComposition的子类。后者用于合并多个文件中的媒体数据。AVVideoComposition用来合并帧。

苹果官方提供了一系列CIFilters。如何在我们的视频中应用CIFilter如下:

override func viewDidLoad() {
    // ...
    playerItem.videoComposition = createVideoComposition(for: playerItem)
    player.play()
  }

  func createVideoComposition(for playerItem: AVPlayerItem) -> AVVideoComposition {
    let composition = AVVideoComposition(asset: playerItem.asset, applyingCIFiltersWithHandler: { request in
      // Here we can use any CIFilter
      guard let filter = CIFilter(name: "CIColorPosterize") else {
        return request.finish(with: NSError())
      }
      filter.setValue(request.sourceImage, forKey: kCIInputImageKey)
      return request.finish(with: filter.outputImage!, context: nil)
    })
    return composition
  }

然而我们的视频并不需要“色调分离”效果……所以让我们看下一步。

4 创建自己的CoreImage filter

下面的代码很清楚地描述了怎么实现一个CIFilter。

import CoreImage

class AlphaFrameFilter: CIFilter {
  static var kernel: CIColorKernel? = {
    return CIColorKernel(source: """
kernel vec4 alphaFrame(__sample s, __sample m) {
  return vec4( s.rgb, m.r );
}
""")
  }()

  var inputImage: CIImage?
  var maskImage: CIImage?
  
  override var outputImage: CIImage? {
    let kernel = AlphaFrameFilter.kernel!

    guard let inputImage = inputImage, let maskImage = maskImage else {
      return nil
    }
    
    let args = [inputImage as AnyObject, maskImage as AnyObject]
    return kernel.apply(extent: inputImage.extent, arguments: args)
  }
}

CoreImage里面的kernel是一个着色器(Shader)类型的代码片段,里面至少有一个方法返回vec4格式的值。着色器看起来比较复杂,因为它是一种低级语言。它可以用很少的代码实现很炫酷的效果。简单说明一下:着色器在GPU处理像素时并行工作——因此速度超级快。

在Swift里实现时,我们只需要简单地用一个static var创建CIKernel实例。kernel的代码很简单:

  • 方法参数接收两个samples(两个像素),每个来自不同的图像或者纹理,但是坐标相同。
  • 每个sample的值表示像素颜色rgba(红绿蓝和透明),我们可以直接取想要的值。比如:sample.ra 返回一个长度2的向量,表示红色值和透明度。
  • 我们要做的就是返回一个长度4的向量。从图像中取出颜色rgb,从mask图像中取出a透明度,由于mask图像是灰阶图,它的rgb是相同的(且介于0~1之间),我们任选一个就行,这里选r。

5 运行起来

接下来的部分对某些人来说很新颖,也很有意思。我们还不知道怎么把两张图像传给我们的filter。

我们用createVideoComposition(for:)方法实例化一个我们的filter。

注意我没有检查我们需要的CIFilter是否存在,创建我们的filter很简单。

我们需要将request里面的sourceImage分成两部分,上面部分是颜色信息,下面部分是透明度信息。我并没有深入了解CoreImage的坐标系以及cropped(to:)方法怎么实现的。我只知道当前视频的尺寸比实际需要播放的大。在苹果框架里试了后,得到了正确的AVVideoComposition来渲染我们的透明视频。

func createVideoComposition(for playerItem: AVPlayerItem) -> AVVideoComposition {
  let videoSize = CGSize(width: 460, height: 572 / 2.0)
  let composition = AVMutableVideoComposition(asset: playerItem.asset, applyingCIFiltersWithHandler: { request in
    let sourceRect = CGRect(origin: .zero, size: videoSize)
    let alphaRect = sourceRect.offsetBy(dx: 0, dy: sourceRect.height)
    let transform = CGAffineTransform(translationX: 0, y: -sourceRect.height)
    let filter = AlphaFrameFilter()
    filter.inputImage = request.sourceImage.cropped(to: alphaRect).transformed(by: transform)
    filter.maskImage = request.sourceImage.cropped(to: sourceRect)
    return request.finish(with: filter.outputImage!, context: nil)
  })

  composition.renderSize = videoSize
  return composition
}

完成了,我们的透明视频播放得很不错!

ios metal使用indice ios9 metal_着色器_02

……还没那么快,视频在iOS模拟器上正常,但是真机有问题。因为AVPlayerLayer并不知道我们给它提供了透明的pixel buffer。我们用下面的一行代码修复一下。

override func viewDidLoad() {
    // ...
    playerLayer.pixelBufferAttributes = [(kCVPixelBufferPixelFormatTypeKey as String): kCVPixelFormatType_32BGRA]
    // ...
  }

Github上展示了完整的用自定义filter渲染透明视频的例子。代码上有一个改进是自定义了AVPlayerView类,就不需要硬编码视频尺寸了。


原文没有提到Xcode里的metal配置,不配置的话编译会报错。

Xcode配置

配置里搜索metal,在

Metal Compiler -> Other Metal Compiler Flags 添加 -fcikernel
Metal Linker -> Other Metal Linker Flags 添加 -cikernel

ios metal使用indice ios9 metal_ide_03

视频与遮罩左右排列

原文Demo的视频与遮罩是上下排列的,如果需要左右排列,稍微修改图像变换即可,我实现了一下,按下面方法修改。

import CoreImage

extension CIImage {

    typealias VerticalSplit = (topImage: CIImage, bottomImage: CIImage)

    func verticalSplit() -> VerticalSplit {
        let outputExtent = self.extent.applying(CGAffineTransform(scaleX: 1.0, y: 0.5))

        // Get the top region according to Core Image coordinate system, (0,0) being bottom left
        let translate = CGAffineTransform(translationX: 0, y: outputExtent.height)
        let topRegion = outputExtent.applying(translate)
        var topImage = self.cropped(to: topRegion)
        // Translate topImage back to origin
        topImage = topImage.transformed(by: translate.inverted())

        let bottomRegion = outputExtent
        let bottomImage = self.cropped(to: bottomRegion)

        return (topImage, bottomImage)
    }
    
    
    typealias HorizontalSplit = (leftImage: CIImage, rightImage: CIImage)

    func horizontalSplit() -> VerticalSplit {
        let outputExtent = self.extent.applying(CGAffineTransform(scaleX: 0.5, y: 1.0))

        // Get the top region according to Core Image coordinate system, (0,0) being bottom left
        let translate = CGAffineTransform(translationX: outputExtent.width, y: 0)
        let rightRegion = outputExtent.applying(translate)
        var rightImage = self.cropped(to: rightRegion)
        // Translate topImage back to origin
        rightImage = rightImage.transformed(by: translate.inverted())

        let leftRegion = outputExtent
        let leftImage = self.cropped(to: leftRegion)

        return (leftImage, rightImage)
    }
}
func createVideoComposition(for asset: AVAsset) -> AVVideoComposition {
        let filter = AlphaFrameFilter(renderingMode: .builtInFilter)
        let composition = AVMutableVideoComposition(asset: asset, applyingCIFiltersWithHandler: { request in
            do {
//                let (inputImage, maskImage) = request.sourceImage.verticalSplit()
                let (inputImage, maskImage) = request.sourceImage.horizontalSplit()
                let outputImage = try filter.process(inputImage, mask: maskImage)
                return request.finish(with: outputImage, context: nil)
            } catch {
//                os_log("Video composition error: %s", String(describing: error))
                return request.finish(with: error)
            }
        })

//        composition.renderSize = asset.videoSize.applying(CGAffineTransform(scaleX: 1.0, y: 0.5))
        composition.renderSize = asset.videoSize.applying(CGAffineTransform(scaleX: 0.5, y: 1.0))
        return composition
    }