NSFWetector:使用CoreML的NSFW(又名色情)检测器 源码
NSFWDetector是一个小的( 17 kB )CoreML模型,用于扫描图像是否裸露。 使用CreateML对它进行了训练,以区分色情/裸露图像和适当的图片。 主要侧重于区分图片和色情等instagram模型。 用法 guard #available ( iOS 12.0 , * ), let detector = NSFWDetector. shared else { return } detector. check ( image : image, completion : { result in switch result { case let . success ( nsfwConfidence : confidence) : if confidence > 0.9 { // :face_screaming_in_fear::see-no-evil_monkey::smirking_face: } else { // ̄\_(ツ)_/ ̄ } de
文件列表
NSFWDetector-master.zip
(预估有个61文件)
NSFWDetector-master
NSFWDetector
Assets
.gitkeep
0B
Classes
NSFW.mlmodel
17KB
NSFWDetector.swift
3KB
.gitkeep
0B
NSFWDetector.podspec
792B
assets
暂无评论