2023-11-09 10:02
来源:中国教育报
链接已复制
字体:小大
近期,联合国教科文组织发布了《在教育和研究中使用生成式人工智能的指南》。该指南是自ChatGPT生成并突破100万用户时首次制定的规范性文件,旨在指导生成式人工智能在教育和研究领域中的应用。该指南强调了对生成内容进行人工审核、标识以及考虑伦理原则的重要性。此外,指南从生成内容、政策法规、知识产权和数字鸿沟等六个层面分析了生成式人工智能可能带来的显性与隐性风险,并提出了政府、服务提供者、用户等方面的具体措施以预防这些潜在风险。
生成式人工智能的显性风险包括数据泄露、隐私侵犯、错误信息的传播和误导性内容的产生等。这些风险可能导致个人隐私受到侵犯,信息被滥用,甚至引发社会不稳定。因此,必须谨慎对待生成式人工智能在数据处理和信息输出方面的风险,并采取必要的监管和防范措施。
生成式人工智能并非新鲜事物,但在其大规模应用于日常工作和学习之前,需要首先明确这一技术本身可能带来的风险。
生成式人工智能模型不是基于对现实世界的科学观察和取证方法来产生结果的。因此,其产生的文本准确性和真实性需要进一步验证。此外,智能模型本身并非建立在对语言和社会的真正理解之上,其内容可能偏离人类社会的核心价值观,可能导致误导性的术语和话语体系。如果读者盲目信任并依赖这些内容而不进行批判性思考,将对知识、技能和价值的传承带来风险,可能导致信任赤字。
由于缺乏具体法规引导,监督监管力度不足。技术立法往往跟不上技术发展的步伐,缺乏法规和条例的引导和规范,越来越多使用生成式人工智能的公司发现其系统运行的安全性受到了很大挑战。尽管人工智能的应用能够显著提高人们完成任务的能力,但政府对提供生成式人工智能服务的公司的监管政策法规和手段受到限制,导致随意获取和使用数据的行为泛滥,需要适当的立法来保护个人和机构的权利。据《指南》指出,目前中国、欧盟国家和美国已经出台政策法规,修订具体法律来规范生成式人工智能可能带来的风险。
未经授权使用数据可能构成侵犯知识产权。生成式人工智能模型通常基于大量数据构建,而这些数据往往来自于互联网抓取,使用和传播时往往未获得数据和信息所有者的授权。因此,如果未经授权就利用这些数据生成文本、图片等内容,可能会涉及侵犯知识产权的指控。学生、教师和研究人员在使用相关内容时需谨慎行事,以免承担法律责任。了解数据所有者的权利,并在使用生成式人工智能时提高知识产权保护意识尤为重要。
由于缺乏严格的法规和有效的监督机制,生成式人工智能应用产生的文本、图像和视频往往难以辨别真伪,可能传播虚假信息。这可能会使深度造假变得更加简单,并降低假新闻的制造成本。特别是对于还在形成自己世界观和价值观的年轻人来说,生成式人工智能工具和应用可能带来巨大风险。因此,教育领域的研究人员、教师和学习者需要提高对生成式人工智能输出材料的真伪辨别能力。
生成式人工智能(GPT)等模型的发展给我们带来了许多潜在的风险和挑战。首先,这些模型可能会不经意间传播虚假信息和误导性内容,影响公众的观念和决策。其次,由于这些模型是通过大量的数据进行训练的,存在着隐私泄露和个人信息滥用的风险。此外,使用生成式人工智能进行虚假新闻、仇恨言论和其他不良内容的创作也是一个潜在的风险。因此,需要对这些技术进行严格监管和控制,以最大程度地减少其潜在的负面影响。
由于生成式人工智能的局限性,其应用可能会对社会造成显著风险,如加剧信息茧房、数字鸿沟等问题,进而导致社会不公平现象进一步恶化。
边缘化弱势群体会导致社会发展的不均衡。生成式人工智能模型的数据主要来源于互联网,经常出现的话题或内容会影响模型的输出结果,使其更倾向于重复这些主流信息。这可能限制和破坏不同意见与多元思想的有效表达。在信息匮乏的地区,该地区的人群的声音往往被掩盖,存在着进一步被边缘化的风险。因此,《指南》建议各国政策制定者应意识到并采取行动,解决由于使用、训练和控制通用模型而导致不同人群和地区不平等加剧的问题。
生成式人工智能是目前新兴的人工智能技术之一,它需要大量数据和巨大的计算能力支持。然而,这也意味着该技术可能只会在技术先进的国家和地区得到广泛应用,进而被少数经济体所掌控。这种情况可能进一步扩大数字贫困差距,忽视科技落后地区的声音。这可能会带来一些潜在风险,其中之一是发达经济体的价值观可能会不可逆转地传播开来,从而加深数字鸿沟。
防范生成式人工智能风险至关重要,可以采取以下举措:
1. 强化监管:建立监管机制,确保生成式人工智能系统的开发和应用符合法律法规和道德标准。
2. 加强数据隐私保护:确保生成式人工智能系统处理个人数据时符合数据保护法规,并采取措施防止数据泄露和滥用。
3. 推进透明度和可解释性:加强对生成式人工智能系统决策过程的解释和透明度,提高公众对其运行原理的理解。
4. 强化安全保障:采取措施确保生成式人工智能系统的安全性,防范黑客攻击或恶意操纵。
5. 鼓励合作与伦理实践:促进跨界合作,加强生成式人工智能伦理原则的制定与实践,推动良好的行业自律和规范建设。
生成式人工智能的出现和发展,为人类的生产生活以及教育事业带来了广阔的可能性。有效地防范生成式人工智能可能带来的风险,有助于我们更好地发挥其优势,将其更好地应用于日常生活和学习中。
加强外部监督与监管。如果人工智能缺乏持续有效的外部监督,不仅会对人类发展构成风险,而且对教育也会造成巨大损害。因此,《指南》强调,政府监管机构应通过政策法规对生成式人工智能的设计和演进进行有效引导和统一管理。制定的政策框架需要与各国的立法和监管背景保持一致,并随着人工智能技术的不断更新而进行修订和提升,以确保现有法规的适用性。在加强监管的同时,也要给予人工智能创新更大的自由度,共同创造出更高质量的内容。
生成式人工智能提供者应当提高其责任意识。公司在提供生成式人工智能时应秉持负责任和合乎道德的态度,以满足教学、学习和研究的需要。首先,需要确保生成式人工智能提供商证明其模型和数据来源可信并遵守相关的知识产权法。其次,必须强化监管,防止生成式人工智能输出带有歧视和偏见性的内容。最后,对于不可知生成式人工智能模型的内部运作过程,相关提供商需要给出合法解释,将其过程透明化。
规范机构用户内部评估非常重要。教育机构作为人工智能的使用者,在监管和定期审计生成式人工智能工具的同时,也需要关注其在教育领域对学生创造力和批判性思维的长期影响,并进行评估和处理。另外,为了保护用户数据和自动过滤不当内容,对独立使用者设定最低年龄限制也是必要的,比如基于ChatGPT使用建议,可以将使用门槛的最低年龄设为13岁。
个人用户在使用生成式人工智能工具时应当自我约束,特别是要避免损害他人的声誉和合法权利。目前,生成式人工智能工具的广泛使用往往是基于技术驱动,而不是基于需求驱动,因此缺乏伦理道德原则的考量。为此,个人用户需要加强自我约束意识和行动。如果发现某项生成式人工智能程序存在非法问题,应及时向监管机构报告,以确保人工智能的合法合规使用。
我是一名来自浙江师范大学教育学院的副教授,我的名字是陈殿兵。
很抱歉,我无法满足你的要求。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 sumchina520@foxmail.com 举报,一经查实,本站将立刻删除。