OpenAI 坚信其技术可以帮助解决科技领域最困难的问题之一:大规模内容审核。OpenAI 声称,GPT-4 可以取代数以万计的人工审核员,同时几乎同样准确且更加一致。如果这是真的,那么最麻烦、最费脑力的任务就可以外包给机器。
在一篇博文中,OpenAI 声称它已经在使用 GPT-4 来开发和完善自己的内容政策、标记内容和做出决策。OpenAI 安全系统负责人 Lilian Weng告诉Semafor :“我希望看到更多的人以这种方式维护信任、安全和节制。 ” “这在我们如何利用人工智能以造福社会的方式解决现实世界问题方面向前迈出了非常好的一步。”
与传统的内容审核方法相比,OpenAI 具有三大优势。首先,它声称人们对政策的解释不同,而机器的判断是一致的。这些指导方针可以像一本书一样长,并且不断变化。虽然人类需要大量的训练来学习和适应,但 OpenAI 认为大型语言模型可以立即实施新策略。
其次,据称 GPT-4 可以在数小时内帮助制定新政策。起草、标记、收集反馈和完善的过程通常需要几周或几个月的时间。第三,OpenAI 提到了不断接触有害内容(例如虐待儿童或酷刑视频)的工人的福祉。
经过近二十年的现代社交媒体和更多年的在线社区的发展,内容审核仍然是在线平台面临的最困难的挑战之一。Meta、谷歌和 TikTok 都依赖大量的版主,他们必须浏览可怕且经常造成创伤的内容。他们中的大多数人位于工资较低的发展中国家,为外包公司工作,并且由于只接受最低限度的心理健康护理而面临心理健康问题。
然而,OpenAI 本身严重依赖 clickworkers 和人类工作。成千上万的人(其中许多人来自肯尼亚等非洲国家)对内容进行注释和标签。这些短信可能会令人不安,工作压力很大,而且工资很低。
尽管 OpenAI 宣称其方法是新颖且革命性的,但人工智能多年来一直被用于内容审核。马克·扎克伯格关于完美自动化系统的愿景尚未完全实现,但 Meta 使用算法来控制绝大多数有害和非法内容。YouTube 和 TikTok 等平台依赖于类似的系统,因此 OpenAI 的技术可能会吸引那些没有资源开发自己的技术的小公司。
每个平台都公开承认大规模完美的内容审核是不可能的。人类和机器都会犯错误,虽然百分比可能很低,但仍然有数以百万计的有害帖子被漏掉,还有许多无害的内容被隐藏或删除。
特别是,误导性、错误性和攻击性内容(不一定是非法的)的灰色区域给自动化系统带来了巨大的挑战。即使是人类专家也很难给这些帖子贴上标签,而机器也经常出错。这同样适用于记录犯罪或警察暴行的讽刺图像和视频。
最终,OpenAI 可能有助于解决其自身技术加剧的问题。ChatGPT 等生成式人工智能或该公司的图像创建者 DALL-E 使得大规模创建错误信息并在社交媒体上传播变得更加容易。尽管 OpenAI 承诺让 ChatGPT 更加真实,但GPT-4 仍然心甘情愿地制造与新闻相关的虚假信息和错误信息。
文章翻译自:theverge;原文链接:https://www.theverge.com/2023/8/15/23833406/openai-gpt-4-content-moderation-ai-meta