流行的AIGC项目构成了重大的安全威胁
发布时间:2023-08-10 13:37:42 所属栏目:安全 来源:
导读:大型语言模型的进步
随着时间的推移,AIGC变得非常流行,这使得用户可以按需定制并创作不同的素材以及参与其中。随着大型语言模型(例如GPT)的显著进步,AIGC系统现在拥有生成类似人类的文本、图像甚至代码的能力。
随着时间的推移,AIGC变得非常流行,这使得用户可以按需定制并创作不同的素材以及参与其中。随着大型语言模型(例如GPT)的显著进步,AIGC系统现在拥有生成类似人类的文本、图像甚至代码的能力。
大型语言模型的进步 随着时间的推移,AIGC变得非常流行,这使得用户可以按需定制并创作不同的素材以及参与其中。随着大型语言模型(例如GPT)的显著进步,AIGC系统现在拥有生成类似人类的文本、图像甚至代码的能力。集成了这些技术的开源项目的数量正在呈指数级增长。 例如,自从OpenAI公司七个月前首次推出ChatGPT以来,GitHub上现在有30000多个开源项目使用GPT-3.5系列的LLM。 尽管用户对这些技术的需求激增,但GPT和LLM项目给使用它们的用户带来了各种安全风险,其中包括信任边界风险、数据管理风险、固有模型风险以及一般安全问题。 AIGC安全风险 早期采用AIGC或任何新生技术(特别是LLM),需要在整个软件开发生命周期中进行全面的风险评估并遵守稳健的安全实践。通过对安全风险给予应有的关注,企业可以就是否以及如何采用AIGC解决方案做出明智的决定,同时坚持最高标准的审查和保护。 Rezilion公司漏洞研究总监Yotam Perkal表示:“AIGC的应用越来越普遍,但它还不成熟,而且极易存在风险。除了固有的安全问题之外,个人和企业在没有适当安全护栏的情况下为这些AI模型提供了过度的访问和授权。通过我们进行的研究,旨在传达使用不安全的AIGC和LLM的开源项目也具有较差的安全态势。这些因素导致企业面临重大风险。” 从安全教育到安全意识 Rezilion公司的研究团队调查了GitHub上50个最受欢迎的AIGC项目的安全状况。该研究利用开源安全基金会记分卡客观地评估了LLM开源生态系统,并强调了许多基于LLM的项目缺乏成熟度、基本安全最佳实践的差距以及潜在的安全风险。 这一令人惊讶的调查结果突出了一些人们的可靠性的担忧,尤其是揭示了那些得分可靠性较低的非常新的和受欢迎的项目: 非常受欢迎,平均有15909颗星。 极度不成熟,平均时间为3.77个月。 安全状况非常差,平均得分为4.60分(满分为10分),以任何标准衡量都很低。例如,GitHub上最受欢迎的基于GPT的项目Auto-GPT,拥有超过13.8万颗星,不到三个月的时间,记分卡得分为3.7。 对于AIGC系统的安全部署和操作,Rezilion公司建议采用以下最佳实践和指南:教育团队了解采用任何新技术相关的风险;评估和监控与LLM和开源生态系统相关的安全风险;实施稳健的安全实践,进行彻底的风险评估,并培养安全意识的企业文化。 虽然在采用AIGC模型及其生态系统方面存在重大的安全挑战,但AI技术具有强大的功能和能力,并且将会继续发展下去。我们相信,ai技术的未来将是一个巨大的机遇,而我们正在努力实现这一目标。” (编辑:聊城站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐