在原图像审核中,我们将色情识别结果分为:色情、性感、正常三大类。但由于在不同场景下,对这三类的标准界定不同,审核过滤的需求也就不同。比如性爱玩具图片在某些电商网站是属于“正常”,但在母婴论坛中就属于“色情”。为满足不同场景下,对色情识别的不同审核标准需求,我们通过海量数据分析和大量客户的反馈调研,现将图片的色情识别升级至11分类模型:
一般色情
卡通色情
SM
男性性感
女性性感
一般正常
卡通正常
特殊类
低俗
性玩具
亲密行为
通过对图像进行细粒度的拆分,您可以根据实际需求灵活配置审核策略,满足不同标准的色情识别审核需求。
百度AI将持续为您提供维度全面的内容审核服务,包含图像审核、文本审核,视频内容审核,并支持审核阈值、黑库的自定义配置,制定最贴合业务需求的审核策略,提升审核效率,解放审核人力。
点击了解内容审核产品详情:https://ai.baidu.com/tech/contentcensoring
收藏
点赞
0
个赞
请登录后评论
TOP
切换版块
默认标签分类是三类,但如果对具体标签的判断和上述默认分类不一致,可使用"result_fine"中的细粒度标签进行违规判断。
具体介绍可见技术文档 https://ai.baidu.com/docs#/ImageCensoring-API/top
变分类 变相减少额度么?
没有任何违禁词 居然敏感 服了
非常抱歉,评论未通过百度文本审核原因:政治敏感
垃圾
功能越来越强大
请问如果在没有充值的情况下,最新的色情识别接口是不能单独调用吗?(放在了图像审核的接口下)我在你们的文档下没有看到单独色情识别的调用文档,在控制台中显示开通付费,只有开通付费后才能享受每天的2000张额度吗?
并且后四个是怎么定义的呢?
但是鉴黄介绍里面依旧是正常 色情 性感的3分类啊?
越来越多能力