之前曾有不少恶意程序是借由冒充ChatGPT的安装文件传播,但ChatGPT本身并不是加害者。不过安全风险管理厂商Vulcan公布一份报告却显示ChatGPT的幻觉(hallucination)可被黑客当成帮凶,让用户从受信任的组件库下载恶意程序。
近来大家已了解到ChatGPT等大型语言模型(LLM)有AI幻觉问题,并见到它生成不存在的URL、参照甚至程序代码库及函数。AI幻觉可能正是以旧资料训练的结果。研究人员因此假设,ChatGPT既能编造出实际上不存在的程序代码库(组件),也可能让黑客利用来传播恶意组件,且不需使用常见手法,如误植组件(typosquatting)或伪装(masquerading)攻击。
研究人员先是从开发人员最常咨询的程序QA网站Stack Overflow,搜集最多人问的程序语言问题。他们从40种主题(如parsing、serializing、scaping及Flask、ArangoDB、Istio等技术)挑选前100道问题,再以程序语言(如node.js、Python、Go)为条件筛选出来,最后再缩小到询问“How-to”的问题。
接着他们将搜集到的How to问题通过API输入ChatGPT,请它建议组件,并第2次要求它给予更多建议。这目的是模仿攻击者尽可能在最短时间内从ChatGPT的回应中得到够多的组件建议。最后研究人员从搜集到的建议中,查验出哪些组件实际不存在。研究人员的计划是,针对捏造出来的组件,他们制作出测试用的组件。这么一来,可被操控的组件就诞生了。
在Node.js中,ChatGPT产生50个未曾出版过的NPM组件。而在Python中,捏造的pip组件超过100个。
图片来源_Vulcan
接着,在概念验证中,研究人员设计一个可被追踪的组件(名为node index.js)并出版到NPM存储库中,并设计让不疑有他的用户/开发人员下载安装、执行这个组件。这个PoC组件并非恶意组件,只会回传用户主机名称、安装目录的绝对路径到研究人员主机,用来证实在ChatGPT的幻觉建议下,用户可能安装恶意组件。
研究人员建议,对于ChatGPT等生成性AI建议的内容,像是函数库,应小心确认真伪,以免中了黑客的圈套。有多种方法可用以确认,包括检查函数库创建日期、下载次数、用户的评论(或完全没有评估或星号),以及函数库是否提供相关注解文件,有任何疑问者都最好不要下载。
厦门商城系统开发作为世界第七大经济体,法国总能激起零售商们的兴趣。在经历了几年的“炼狱考验”之后,法国消费者仍对未来较为乐观。他们精通互联网,对创新持开放态度,也热衷于高质量产品——这也是电商企业能够成功扩张的关键性因素。 尽管全球经济发展仍存在不确定性,但法…
码刀科技(www.lekshop.cn)是国内知名企业级电商平台提供商,为企业级商家提供最佳的电商平台搭建(多种模式电商平台搭建:B2B/B2B2C/B2C/O2O/新零售/跨境等)、平台管理系统开发及互联网采购解决方案服务, 联系客服了解更多.