随着人工智能聊天机器人ChatGPT的流行和越来越高的需求,微软和谷歌等科技巨头纷纷涌入,将人工智能整合到他们的搜索引擎中。上周微软宣布了OpenAI和Bing之间的这种配对,尽管人们很快指出现在增压的搜索引擎存在严重的错误信息问题。
独立AI研究员和博主DmitiriBerton撰写了一篇博文,其中他剖析了微软产品在演示过程中犯下的几个错误。其中一些包括人工智能编造自己的信息,引用不存在的酒吧和餐馆的描述,并在回复中报告实际上不正确的财务数据。
例如,在Berton搜索宠物真空吸尘器的博文中,收到了一份“BisselPetHairEraserHandheldVacuum”的优缺点列表,其中有一些相当尖锐的缺点,指责它噪音大、电源线短且令人痛苦由于吸力有限。问题是,它们都是编造的。Berton指出,Bing的人工智能“非常友善”地提供了资源,而且在检查实际文章时没有提到吸力或噪音,亚马逊对该产品的顶级评论谈到了它的安静程度。
此外,评论中没有关于“短线长度”的任何内容,因为……它是无绳的。这是一个有把手的真空吸尘器。
Berton并不是唯一指出BingAI似乎正在犯的许多错误的人。Reddit用户SeaCream8095发布了一张他们与BingAI的对话截图,其中聊天机器人向用户询问了一个“浪漫”的谜语,并表示答案有八个字母。用户猜对了,说“亲爱的”。但在谈话中多次指出sweetheart有十个字母而不是八个之后,BingAI加倍努力甚至展示了它的工作原理,揭示它不算两个字母并坚持认为它仍然是正确的。
有很多用户无意中“破坏”BingAi并导致聊天机器人崩溃的例子。Reddit用户Jobel发现Bing有时认为用户也是聊天机器人,而不是人类。最有趣(也许有点悲伤)的例子是,在有人问聊天机器人“你认为你有知觉吗?”之后,Bing陷入了恶性循环,导致聊天机器人重复“我没有”超过五十次作为回应。
Bing升级后的搜索体验作为一种工具向用户推广,提供完整的答案,总结您正在寻找的内容,并提供整体更具交互性的体验。虽然它可能在基本层面上实现了这一点,但它仍然多次无法生成正确的信息。
互联网上可能有数百个像上面的例子,我想随着越来越多的人使用聊天机器人,还会有更多的例子。到目前为止,我们已经看到它对用户感到沮丧、沮丧,甚至与用户调情,同时仍然提供错误信息。Apple联合创始人SteveWozniak甚至警告人们,像ChatGPT这样的聊天机器人可以提供看似真实但并非事实的答案。
糟糕的第一印象
虽然我们刚刚涉足如此大规模、商业化的人工智能集成世界,但我们已经可以看到将如此庞大的语言模型引入我们日常生活的后果。
与其清楚地思考把它交到公众手中并将不完美的人工智能聊天机器人引入我们的生活可能会产生什么影响,我们将继续看着系统失败。就在最近,用户已经能够“越狱”ChatGPT,并让聊天机器人使用诽谤和仇恨语言,这在上线一周后就会产生大量潜在问题。通过在未完成的AI聊天机器人准备就绪之前匆匆推出,存在这样一种风险,即公众总是会将它们与这些早期步履蹒跚的步骤联系起来。第一印象很重要,尤其是新技术。
BingAI的演示以及随后发生的一切进一步证明了搜索引擎和聊天机器人还有很长的路要走,看起来我们不是在为未来做计划,而是在做最坏的打算。