NSFWDetector是一个小的( 17 kB )CoreML模型,用于扫描图像是否裸露。 使用CreateML对它进行了训练,以区分色情/裸露图像和适当的图片。 主要侧重于区分图片和色情等instagram模型。 用法 guard #available ( iOS 12.0 , * ), let detector = NSFWDetector. shared else { return } detector. check ( image : image, completion : { result in switch result { case let . success ( nsfwConfidence : confidence) : if confidence > 0.9 { // :face_screaming_in_fear::see-no-evil_monkey::smirking_face: } else { // ̄\_(ツ)_/ ̄ } de