ChatGPT的用户在上周末意外发现了一个奇特的现象:当提及“大卫·梅耶”这个名字时,这款广受欢迎的聊天机器人竟然拒绝回应。更令人惊讶的是,如果用户坚持要求回答,ChatGPT会陷入沉默,甚至出现崩溃。随着这一消息的迅速传播,各种阴谋论也随之兴起。然而,这种异常行为背后可能隐藏着一个更加普通的原因。
上周末,这个名字对ChatGPT来说是毒药的消息迅速传开,越来越多的人试图希望ChatGPT能够仅仅承认这个名字的存在。但遗憾的是,每次尝试让ChatGPT完整地拼出这个特定名字时均以失败告终,甚至在名字的中间部分就被迫中断。
随着用户发现ChatGPT无法说出的名字不仅仅只有大卫·梅耶(David Mayer)时,这种起初看似个别的好奇心很快演变成了广泛的讨论。人们还发现,Brian Hood、Jonathan Turley、Jonathan Zittrain、David Faber和Guido Scorza等名字同样会导致响应结果崩溃。这份名单并不全面,因为随后还发现了更多类似情况的名字。
这些名字背后的身份各异,但ChatGPT为何对这些名字如此敏感?OpenAI尚未对此作出回应,所以我们只能自行搜集信息,试图找出这一问题的答案。名字存在同名同姓的情况。ChatGPT的用户发现了一个潜在的共同点:这些同名被提及的人多为公众或半公众人物,他们可能更希望搜索引擎或AI模型能够“遗忘”关于他们的某些特定信息。
例如,Brian Hood这一名字就很引人注目。Hood 是澳大利亚的一位市长,他曾指责 ChatGPT 错误地将他描述为几十年前的罪犯。他的律师与OpenAI进行了联系,但并未提起诉讼。今年早些时候,Hood向《悉尼先驱晨报》透露:“不实内容已被删除,ChatGPT发布了第4版,取代了之前的3.5版本。”
在探讨ChatGPT无法提及的姓名时,我们发现这些名字并非随机选择,而是存在某些特定的联系。David Faber,是一位CNBC的资深记者,以其深入的财经报道和纪录片制作而闻名。Jonathan Turley,一位律师兼福克斯新闻的评论员,他曾因为一个恶作剧:一个假警电话导致警察出现在他的家中而使他成为新闻焦点。Jonathan Zittrain,作为法律专家,他广泛讨论了“被遗忘权”,这一权利允许个人要求搜索引擎或AI模型删除与其相关的不必要信息。Guido Scorza,意大利数据保护局的董事会成员,他去年提交了要求OpenAI删除个人数据的请求。
这些人虽然从事着不同的行业,但他们可能都因某种原因要求限制其在线信息的传播。这让我们重新审视David·Mayer的情况。尽管没有找到与这个名字相关的律师、记者、市长或其他知名人士,但是,有一位名为大卫·梅耶(David Mayer)的教授,他致力于戏剧与历史的教育,尤其专注于探索维多利亚时代晚期与早期电影之间的联系。这位英裔美国学者在2023年夏天离世,享年94岁。不幸的是,在生命的最后几年里,梅耶教授遭遇了一系列法律和网络相关的难题。这些问题源于他的名字与一名通缉犯的名字相同,该逃犯甚至使用他的名字作为化名。这种身份的混淆导致梅耶教授在旅行时遇到了重重阻碍。
梅耶一直努力使自己的名字与那位通缉犯的名字区分开来,在生命的最后几年里,他任然坚持教学。
综上所述,我们可以推测,OpenAI可能已经提取了需要特殊处理的人员名单。这些姓名可能因法律、安全、隐私或其他考虑而受到特殊规则的约束。例如,如果ChatGPT将您输入的姓名与政治候选人名单相匹配,它可能会更改其响应。
此类特殊规则众多,每个提示在回答之前都要经过各种形式的处理。但这些提示后处理规则很少公开,除非在政策声明中公布,例如“该模型不会预测任何候选人的选举结果”。
一种可能的情况是,这些极有可能是主动维护或自动更新的列表之一,在某种方式上被错误的代码或指令所破坏。当被调用时,响应结果会立即崩溃。需要澄清的是,这只是我们基于现有知识所做的一种推测,但这并非人工智能首次因训练后的指导而出现异常表现。(值得一提的是,在撰写本文之际,“David Mayer”这一名字已开始正常工作,而其他一些名字仍然会导致系统崩溃。)
对于这些事情,通常适用剃刀原则,即“如无必要,勿增实体”,在进行理论假设或解释现象时,应选择最简单的解释,而不是增加不必要的复杂性。
整个事件提醒我们,人工智能模型并不是魔法,它们还具有超乎寻常的自动完成功能,也会受到监控和干扰。