奥观海同志的低分辨率马赛克照片总被还原成白人。
有人指责AI算法有种族歧视。LeCun帮研究者辩解,也让人给争议了一番。
还没玩到那里。
我在网上搜了下,这种扭曲特种空间的方法弄的styleGAN看上去比利用互信息的infoGAN效果更好啊。
LZ有PP上的styleGan模型吗?
我觉的这个争论不是技术争论,而是以伦理为出发点的。尤其是在当前美国的舆论环境下,媒体把这个话题带着大众给咀嚼了一番而已。
也有人提出是“模式崩溃”导致的。正好我前两天发GAN“出坑指南”类项目,特意了解了下“模式崩溃”的原因。模式崩溃确实可能导致只能生成训练集中某部分类别的图片。但数据量太少和数据分布不平衡也是导致模式崩溃的原因。所以,根源还是数据集。
LeCun的大意是,导致这个现象的原因是训练数据的问题,更多是工程部署的问题,而非算法问题。我也倾向这么理解。
想贴张图,结果社区的图片审核系统给了我个惊喜。它竟然检测出了奥观海同志的低分辨率马赛克照片为“政治人物”图片而禁止贴出。这说明,社区的图片检测的分类器是把马赛克图片分类正确了。
还没玩到那里。
我在网上搜了下,这种扭曲特种空间的方法弄的styleGAN看上去比利用互信息的infoGAN效果更好啊。
LZ有PP上的styleGan模型吗?
我觉的这个争论不是技术争论,而是以伦理为出发点的。尤其是在当前美国的舆论环境下,媒体把这个话题带着大众给咀嚼了一番而已。
也有人提出是“模式崩溃”导致的。正好我前两天发GAN“出坑指南”类项目,特意了解了下“模式崩溃”的原因。模式崩溃确实可能导致只能生成训练集中某部分类别的图片。但数据量太少和数据分布不平衡也是导致模式崩溃的原因。所以,根源还是数据集。
LeCun的大意是,导致这个现象的原因是训练数据的问题,更多是工程部署的问题,而非算法问题。我也倾向这么理解。
想贴张图,结果社区的图片审核系统给了我个惊喜。它竟然检测出了奥观海同志的低分辨率马赛克照片为“政治人物”图片而禁止贴出。这说明,社区的图片检测的分类器是把马赛克图片分类正确了。