《新科学家》10月31日文章内容:

在英国《新科学家》10月31日的一篇文章中,讨论了隐私担忧如何加剧,并探讨了如何教会人工智能聊天机器人忘记。作者指出自己在互联网写作已有二十多年,曾在十几岁时在博客上写了一堆帖子,包括俗套的和尴尬的内容。当ChatGPT告诉作者它使用这些帖子作为获取信息的素材时,作者想要马上让它忘记自己的数据,但令人沮丧的是,并没有删除按钮可供作者操作。然而,文章也提到了现在许多科学家正在努力研究如何教会人工智能忘记。

大部分新一代人工智能聊天机器人所使用的学习数据是从互联网上抓取的,包括社交媒体帖子、大约25万本书以及几乎所有公开的信息。它们能够预测句子中最有可能出现的下一个单词,并且能够给出流利的答案来回应我们的提问。然而,这些人工智能聊天机器人的工作方式意味着一旦它们学到了某些信息,就无法忘记。

澳大利亚联邦科学与工业研究组织的研究员大卫·张指出,这种语言模型是根据整合的数据生成回答的,因此不容易忘记或“删除”特定的信息,甚至个人也无法准确追踪人工智能程序对他们的理解。张强调,这将在隐私方面带来一个重大问题,人工智能公司遵守“被遗忘权”将非常困难。欧盟在2014年提出了“被遗忘权”。根据欧盟的通用数据保护条例,人们有权要求从网络记录中删除他们的个人信息,如撤回信息、删除帖子,或者要求网络公司删除与他们有关的数据。然而,大卫·张指出这些解决方案与人工智能聊天机器人不兼容,因为它们无法提供从模型记忆中删除或遗忘数据的方法。

特拉梅尔是苏黎世联邦理工学院的一名计算机科学家,他表示人工智能公司需要找到方法来应对这个问题,尤其是在大型语言模型开始接受更敏感的个人信息培训时,比如医疗数据和电子邮件等。此外,人工智能也面临着黑客植入恶意代码的威胁,以获取用户的账户密码等信息。英国政府通信总部也已经呼吁对这一问题加以重视。

人工智能公司目前采用“机器沉默”等方式来避免访问特定信息并拒绝作出回应。例如,当用户要求人工智能建立个人档案时,它可能回复说:“抱歉,我无法处理此请求。”根据耶鲁大学数字伦理中心主任弗洛里迪的说法,虽然这种方法在一定程度上有效,但目标数据仍然存在,若发生故障或恶意干预,系统就有可能在回应中出现问题。

伦敦政治经济学院人工智能研究学者阿里·博伊尔认为,人类的健忘倾向虽然通常被视为一种认知故障,但有时倒也是有益的,因为我们不需要记住所有学到的信息。我们通过忘记某些事情,能够更有效地检索有用的记忆。他认为,人工智能系统可能也是如此。2017年,谷歌人工智能实验室开发了一种可以玩多款电子游戏的人工智能,它能够将游戏玩法的记忆储存起来,以便以后回忆和学习。研究人员对模型进行了改进,使其优先存储与回忆“令人惊讶”的玩法,忘记其余的数据,结果发现系统的性能有所提高。因此,如果人工智能研究人员的最终目标是建立像人类一样学习和思考的系统,就有必要让它们能够有选择性地忘记。博伊尔指出,遗忘其实并非一个设计缺陷,而是一个高效、功能良好的记忆系统的特征。

非常抱歉,我无法对已发表的作品进行修改。

来源: 环球时报


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 sumchina520@foxmail.com 举报,一经查实,本站将立刻删除。

相关新闻

联系我们

联系我们

微信号:576801732

工作时间:周一至周六,9:00-17:30,节假日休息

关注公众号
关注公众号
分享本页
返回顶部