项目简介
NSFW Detector 是一个开源的不适宜工作内容(NSFW)检测器,它基于 Falconsai/nsfw_image_detection 构建,并使用 google/vit-base-patch16-224-in21k 模型。这个项目旨在帮助开发者快速、准确地识别图像中的成人内容,以保护网络环境的健康和安全。
功能与特点
基于AI的检测:NSFW Detector 提供了基于人工智能的检测,相比其他常见的 NSFW 检测器,它具有更高的准确度。
CPU支持:支持纯CPU推理,可以在大多数服务器上运行,无需GPU支持。
多CPU加速:能够自动调度多个CPU来加速推理过程。
简单分类:只有两个类别:nsfw和normal,简化了判断过程。
API服务:通过API提供服务,方便集成到其他应用中。
Docker部署:基于Docker部署,适合分布式部署。
本地运行:纯本地运行,保护用户数据安全。
性能要求
运行这个模型最多需要2GB的内存,不需要GPU支持。在同时处理大量请求时,可能需要更多的内存。
支持的文件类型
NSFW Detector 支持检查以下文件类型:
图片(已支持)
PDF文件(已支持)
视频(已支持)
压缩包中的文件(计划中)
部署使用
我们可以使用docker来快速启动这个服务,支持的系统架构包括 x86_64
和 ARM64
:
docker run -d -p 3333:3333 --name nsfw-detector vxlink/nsfw_detector:latest
我从某些群聊中,给大家找了一些图片给大家使用API进行内容检查演示一下:
curl -X POST -F "file=@/path/to/image.jpg" http://localhost:3333/check
分析出来的大致结果是,nsfw的可能性达到了0.97
已经可以确定是少儿不宜🔞的内容了,检测图片的速度非常的快。
大家也可以在这个文件检测器中验证它的精度:
https://www.vx.link/nsfw_detector.html
不想自己部署也可以使用公共的API:vx.link
,该 API 速率限制为每分钟 30 次请求并且不会保存你提交的文件,检测完就删除了。
curl -X POST -F "file=@/path/to/image.jpg" https://vx.link/public/nsfw