#人工智能 Stability AI 最新的 SD3 Medium 模型存在严重问题,只要生成人物就会出现躯体错乱,这似乎是该公司刻意规避生成裸体图片的结果。目前猜测他们可能在训练过程中就剔除了 NSFW 内容,同时在训练时规避裸体内容进而导致模型也会刻意将人体结果去除。查看全文:https://ourl.co/104479
昨天人工智能初创公司 Stability AI 推出 Stable Diffusion 3 Medium 版,该模型是个精简版可以在普通的笔记本电脑和台式机上使用,并且 Stability AI 还强调在虽然模型规模较小但精度依然很高。
然而在生成某些特定内容时 SD3 Medium 版存在严重的问题,例如当生成的内容是人物时渲染人体部分就会错乱,包括手、脚和躯干部分等。
在这种错乱情况下生成的照片看着令人不适,为了避免亮瞎各位这里就不直接放图片了,如果觉得这都是小意思你可以点击这里查看图片。
为什么如此先进的模型还会在手指等部分出现低级错误呢?这种错误在文本生成图像模型刚问世的时候常见,现在这种问题按理说早就应该被解决了。
在 Reddit 论坛的讨论中,网友倾向于这是 Stability AI 在模型训练过程中产生的问题,Stability AI 可能在训练的数据中就过滤了 NSFW 图片,同时在模型训练时尽可能避免出现裸体内容,这导致模型在生成图像时可能会刻意将人体结构去除。
测试还发现只要使用模型生成的图片中不包含人,那就可以生成比较完美的图片,只有存在人物时才会出现各种躯体错乱的问题,这似乎也可以说明 Stability AI 刻意处理了某些内容。
对 Stability AI 以及所有 AI 公司来说,模型都需要规避生成可能存在冒犯性的内容,其中裸体内容也在审查范围内,这些问题可能都会阻碍 AI 技术的发展。
尤其是最近一年 Stability AI 出现比较糟糕的财务问题,在 3 月份其创始人兼首席执行官已经离开公司,之前也有 3 名关键工程师离职,现在模型效果比较糟糕可能会对 Stability AI 的财务问题造成更大的影响。