今日热闻!ChatGPT一路狂飙,银行如何安全驾驭?

业界 | 2023-02-14 11:48:15
时间:2023-02-14 11:48:15   /   来源: 中国电子银行网      /   点击数:()

春节刚过,打工人还没彻底从节后综合症里走出来,人工智能领域的ChatGPT就已经火遍全网。智能银行一直是银行数字化转型的重点方向,银行自然也会密切关注这一冉冉升起的AI明星。

2月6日,招商银行(600036)发布招商银行亲情信用卡(附卡)推文。这篇推文通过与ChatGPT对话的方式对亲情作出解释,引发业界热议。


(资料图片)

2月8日,江苏银行(600919)相关负责人表示,该行已尝试运用ChatGPT 技术提升软件开发生产力,进一步提高科技运营效能。

新技术应用,银行向来是积极的,同时也是谨慎的。从当前的表现来看,银行并未将ChatGPT应用在具体的金融业务上。技术成熟度和可能产生的科技伦理风险是银行对新技术保持谨慎的重要原因。

任何技术的出现所带来的科技伦理问题都会引起监管的注意。ChatGPT一路狂飙,如何才能实现安全驾驭?如何引导技术健康发展,防范潜在风险一直是监管留意和研究的重点课题。

2022年10月9日,中国人民银行就正式发布了《金融领域科技伦理指引》(JR/T0258-2022)标准(以下简称“《指引》)。《指引》明确,科技伦理即开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范。

今年1月,中国人民银行印发《金融科技发展规划(2022-2025年)》(以下简称《规划》)。《规划》提出了八个方面的重点任务。其中,第一条便是强化金融科技治理,全面塑造数字化能力,健全多方参与、协同共治的金融科技伦理规范体系,构建互促共进的数字生态。

除了金融监管,即使是民间科技大佬也在呼吁“对人工智能进行监管”。

2018年3月,马斯克是在接受 HBO 剧集《西部世界》联合导演乔纳森·诺兰的采访时表示,人类需要对人工智能进行监管,以确保人工智能技术发展的安全性,这一点极其重要。

面对以ChatGPT为代表的人工智能应用,银行需要做好哪些风险防范呢?

一是技术风险。ChatGPT主要靠模型训练来丰富自己的对答能力。有技术专家认为,“ChatGPT的输出仍然更偏向于统计学规律,而不是真正的智能。”如果语料信息有误导,那么训练的结果也会产生偏差。有些网友故意对其挖坑,它也善解人意地“跳坑”迎合。如下图:

网友“挖坑”,ChatGPT"跳坑"。

尤其是一些专业业务内容,一般人很难判断ChatGPT是一本正经地胡说八道还是有板有眼地进行合理输出,稍有不慎,就会给银行或客户带来巨大损失。这也是为什么ChatGPT语料审查和标准成本高昂的原因之一。

二是数据泄露风险。AI训练的语料可以是多种多样的。在银行,AI会大量获取银行和客户的敏感数据信息,这些数据如果不加限制,被AI随意输出,必然会带来灾难。数据风控内审变得极为重要,监管审查,包括代码审查也变得十分必要。

三是监管风险。技术的迭代效率大多是渐进式的,但AI的训练和演化可能会不一样。有研发人员表示,他在研究ChatGPT时有一种担忧,如果它越过了某个奇点,那后果或许是十分可怕的。“可能,前几分钟,ChatGPT还是个傻子,但几分钟后,整个人类在它面前都是傻子。”一旦到了那个时候,想管都管不住了。

另外,在电信诈骗方面,很多犯罪分子在直接参与电信诈骗之前,往往有“专业、集中、系统”的电诈话术培训,这些话术若被用于训练ChatGPT,那么ChatGPT成为诈骗犯的日子也就不远了,但我们会很难去抓住其背后的那个真正的诈骗犯。

除伦理风险外,ChatGPT在银行领域的敏感风险还有成本风险。

对于单个金融机构而言,人工智能的研发成本极其高昂。一位长期关注人工智能发展趋势的技术专家向中国电子银行网表示,除了昂贵的软硬件设施外,长周期的语料“训练”是一般企业难以承受的。比如语料审查和标注就是一项庞大的工作,时间成本和金钱成本会很高。

虽然,微软近日提出,计划在今年晚些时候发布软件,帮助大公司创建类似ChatGPT的聊天机器人。这样可以在一定程度上降低企业的成本风险,但各企业的语料训练标准不一,也会导致风险治理难度的增大。

在智能金融创新活动中化解和规避这些风险是银行安全驾驭ChatGPT重要前提条件。

标签: ChatGPT

最近更新