(原标题:从ChatGPT的网络风险看人工智能下的保险风控新挑战)
文/张晋
ChatGPT风险引关注
近几个月,关于人工智能聊天机器人ChatGPT的热议愈演愈烈,通过自然语言处理, ChatGPT不仅可以理解命令和读取代码,还可以提供实际的见解和补救建议。强大的信息数据处理能力在大幅提高工作效率的同时,也带来了难以预料的风险。先是马斯克、图灵奖得主等一众大佬签署公开信、联名呼吁暂停大型AI研究。之后,欧洲执法机构和消费者保护组织也先后拉响对ChatGPT潜在危害的警报。意大利个人数据保护局也宣布,暂时禁止使用ChatGPT,并表示已对开发该产品的OpenAI公司展开调查。韩国三星公司更是要求员工向 ChatGPT 提问的上传容量限制在 1024 字节以内。
上述一系列事件的起因可能是ChatGPT发生了数据泄露事件,例如三星声称,在引入 ChatGPT的不到20天内,发生了 3 起机密数据泄漏事件,其中涉及三星半导体设备测量资料、产品良率等信息。此外,OpenAI对使用者并未设置严格的门槛,任何人都可以使用ChatGPT,有监管者担心其内容会对未成年产生不良诱导。
国外有研究报告表明,已经出现了网络犯罪分子使用OpenAI开发恶意工具的实例。事实上,许多使用 OpenAI 的网络犯罪分子根本没有开发技能。但是通过ChatGPT,他们或许能够轻而易举的获得篡改程序、泄露数据、恶意攻击的开发代码,甚至可以获取地下暗网的加密货币价格,用于毒品、枪支武器等市场交易。
人工智能可以用来尝试识别新的风险威胁对象,但技术本身也可能成为风险的来源。
AI的潜在风险
近年来随着数据质量和数量的极速增加,以机器学习(Machine Learning)为代表的AI技术被广泛应用在自然语言处理、视觉语音识别、多媒体处理等多个领域,与机械制造业、通信业、服务业深度融合。然而,在实际落地场景中,机器学习模型逐渐暴露出各种的不确定性,导致难以预知的风险。
机器学习范式下AI应用存在的结构性缺陷,这一缺陷可以说贯穿于AI全生命周期。通过数据污染、恶意样本攻击等方式对算法进行深层次攻击已经成为“常用手段”。除了这一类算法漏洞,隐私数据的暴露也带来不可忽视的风险。事实上,AI和机器学习系统比我们想象的更容易被愚弄,也就是人们经常吐槽的“人工智能变成人工智障”,具体来看,这其中包含“攻击风险”和“非攻击风险”。
攻击风险
“攻击风险”是指人为主动破坏人工智能学习规则的事件发生,包括窃取攻击、药饵攻击、闪避攻击、逆向攻击、模仿攻击等,导致窃取底层算法、扰乱系统、个人获利等。
例如,前不久全球最大轻博客app Tumblr宣布通过AI系统来识别和管控黄暴内容,就有用户将身体染成绿色,并添加猫头鹰图片以干扰人工智能对图片内容的识别,以此来逃逸平台审核。
有黑客曾在地下论坛中分享了如何在ChatGPT帮助下获得基于 Python 的窃取程序的代码,该窃取程序首先搜索常见的文件类型,并复制到 Temp 文件夹中任意文件夹,压缩后上传至FTP 服务器。这种行为可将任意文件复制到临时目录,压缩后通过 Web 发送至任何人、任何公司。