0
0

思考 | AI内容的伦理、识别与监管

非凡产研
2024-12-31
13
shoptop 【建站扶持计划】

免订阅费,免费SEO与代建站,16大主流媒体免费开户

   立即查看>>

大数跨境
导读:思考 | AI内容的伦理、识别与监管

在过去的一年里,你可能已经读过或看过一些非人类创作的作品。人工智能(AI)在包括文本、图像和视频创作在内的各行各业中越来越普及。自2022年11月OpenAI的ChatGPT推出以来,AI的使用急剧增加,且势头丝毫未减。根据欧盟执法机构欧洲刑警组织创新实验室的一份报告,到2026年,高达90%的在线内容可能将由AI合成生成。
面对AI生成内容如此惊人的预计增长,了解哪些内容是合成的、这意味着什么以及未来趋势变得比以往任何时候都更加重要。

如何识别AI生成的文本

俄亥俄大学英语助理教授兼AI专家保罗·肖夫林表示,检测AI生成的文本颇具挑战性,尤其是在不同类型的写作中。教师可能会因为学生的作业没有展现出他们对该学生特有的具体性和用词习惯,而认定其是AI生成的。当写作不够个性化、缺乏个人风格时,这一点就很难判断。
肖夫林说:“问题在于,[教授]用于直观判断的特征在不同类型的写作中并不一定稳定。例如,科学报告中就不会有可辨识的、古怪的个人风格。”
同时,也存在不使用AI写作却被标记为AI生成作品的情况。
肖夫林强调:“有报告称,一些神经多样性作家的作品被标记为很可能是AI生成的,而这些作家根本没有使用任何AI辅助。”
专注于分析、生成和理解文本的大型语言模型(LLM)有时会有“破绽”。俄亥俄大学计算机科学助理教授兼AI与机器学习专家查德·莫宁表示,LLM通常通过预测下一个最佳用词来发挥作用。这可能会导致某些在训练数据中过度表示但在日常口语中不常用的“破绽”词汇。
“一个经常出现的词,特别是在学术环境中是‘探究’,”莫宁解释说,“我看到很多学生的论文都用了这个词,但他们不会口头上这么说。这让人怀疑。”
莫宁补充道,早期的LLM模型往往冗长啰嗦,似乎不知道何时结束。然而,更新的模型却可能加剧混淆,因为它们能够更好地复制有机生成的文本。
肖夫林说:“先进的提示工程和机器人程序编程可以使AI生成的写作看起来更像‘有机生成的文本’,而不是许多人用作AI生成文本首选解决方案的通用ChatGPT模型。”

如何识别AI生成的图像

在图像方面,AI在生成独特的人类特征(如面部和手指)时往往力不从心。一个快速识别图像是否可能经过合成创建的方法是数一数人物的手指,或者看看他们的脸是否看起来扭曲。
即使图像中确实包含人物,也可能需要采取额外步骤来区分图像是否为AI生成。任何看起来极不协调的扭曲或比例都可能是红色警报。为了更客观地判断,可以使用应用程序甚至AI本身来检测AI生成的图像。
莫宁说:“理论上,用AI生成的任何图像都可以用AI来检测,但在生成方面的投入远多于检测。‘事实上,这项任务本身就是我们称之为生成对抗网络(GANs)的一种技术。你训练一个生成器,然后告诉它哪些是假的以制作一个判别器,然后排除判别器检测到的内容以训练一个更好的生成器,这个生成器可用于训练一个更好的检测器。’”

数据和互联网如何影响AI生成的内容

人工智能和LLM深受其训练内容的影响。莫宁表示,AI取得的诸多进展都基于训练数据。
莫宁解释说:“这些生成算法中的大多数基本上都是训练数据中事物的加权组合,万分之一的这个,万分之一的那个。如果每张标记为蝴蝶的图片都有某种对称性,那么它生成的蝴蝶图片也会具有对称性。”
由于像ChatGPT这样的LLM依赖于其训练数据,如果训练内容存在偏见或问题,生成的内容也可能如此。包含意外错误信息或故意误导信息的用户生成内容也可能构成问题。
莫宁强调:“如果有足够的故意误导信息进入训练模型,它就会在输出中显示出来。曾出现过AI生成的搜索结果建议,告诉人们咀嚼石头可以治疗某些疾病,这是基于Reddit上的一个幽默回复。我认为它并不构成真正危险,但也可能有一些不那么明显的情况。”
肖夫林表示,在使用AI生成内容时,有方法可以避免一些虚假信息和错误信息。
他说:“你可以提示ChatGPT和其他AI工具专注于你输入给它们的特定文本,并且仅限于这些文本。在程序化机器人不访问更广泛网络的情况下,你可以合理地确信,它生成的回复仅来自你加载到其中的特定来源。”

AI的使用是否合乎道德?

简而言之,这完全取决于具体情境。Mourning和Shovlin均认为,使用生成式人工智能本身并无不道德之处,但欺骗性和隐私方面的问题却可能构成更为复杂的灰色地带。Shovlin鼓励生成式人工智能的用户培养修辞意识——即对他们正在创作的文本以及目标受众进行批判性思考。
Shovlin说:“一个值得自问的问题是:‘如果我的受众知道我是用人工智能生成这段文本的,他们会怎么想?’另一个问题是:‘我的组织对于隐私、版权以及人工智能生成文本与人类生成文本有何期望?’”

AI如何受到监管?

Mourning认为,最大的伦理问题涉及欺骗和未经授权使用训练数据。欺骗问题可以通过增加披露信息来轻松解决,而数据问题则更为复杂。一些大型语言模型(LLM)是使用YouTube的文字记录进行训练的,而这些内容的创作者并未明确授权。
如果公司被迫披露其所有数据,那么他们的方法就会成为公开的秘密,但披露数据来源或许是一个不错的折衷方案。
Mourning解释道:“如果要求人们披露实际的训练数据,那就像是强迫他们公开商业机密。但是,从总体上看,如果必须列出数据来源,人们至少可以检查自己的权利是否被侵犯,无论是艺术家的版权还是YouTube的服务条款。”
Shovlin对人工智能的监管持更为悲观的态度,并认为生成式工具不会受到有意义的监管。
Shovlin强调说:“这些公司势力强大,技术繁多且丰富,而政客们似乎对技术知之甚少,从他们对社交媒体争议的回应来看便是如此。有一种强有力的观点是,人工智能监管会阻碍创新,而且考虑到人工智能的巨大潜力,政客们可能会犹豫是否要为其制定指导原则。”

AI会取代作家和其他创意行业吗?

Shovlin表示,AI已经在一定程度上取代了某些作家。例如,ESPN因使用人工智能生成的报道来取代本应由人类记者报道的一些“冷门”体育赛事而备受争议。
他说:“虽然时代在变,工作也在变,但重要的是,我们要仔细考虑人工智能对劳动力产生的影响,并记住,我们拥有发言权,并在必要时行使它。”
创意工作者已经在被取代,而人工智能只会越来越强大,但根据Mourning的说法,一些创意工作者或许能够利用这项新技术。
他说:“虽然总会有一些创意工作者的空间,但人数会减少。现有的作家可能会成为首批‘提示工程师’中的佼佼者。这是一场变革,而非灭绝。”
- END -
文章来源:【非凡产研】公众号
【声明】该内容为作者个人观点,大数跨境仅提供信息存储空间服务,不代表大数跨境观点或立场。版权归原作者所有,未经允许不得转载。如发现本站文章存在版权问题,请联系:contact@10100.com
0
0
非凡产研
非凡产研是非凡资本旗下全球数智商业研究中心。非凡产研专注于商业场景下国内、出海及全球化企业服务生态领域的研究,团队成员来自知名研究咨询公司、私募基金和科技体等,是一支具有深入洞察、专业知识和丰富资源的分析师团队。
内容 1187
粉丝 1
咨询
关注
非凡产研 非凡产研是非凡资本旗下全球数智商业研究中心。非凡产研专注于商业场景下国内、出海及全球化企业服务生态领域的研究,团队成员来自知名研究咨询公司、私募基金和科技体等,是一支具有深入洞察、专业知识和丰富资源的分析师团队。
总阅读57.6k
粉丝1
内容1.2k
咨询
关注