不会错过大模型的vivo,要先做好AI安全

9月8日消息,“百模大战”进行的如火如荼,手机厂商也纷纷来分一杯羹。

继华为、小米、OPPO等厂商之后,vivo的自研大模型也悄然亮相,8月中旬出现在了C-Eval(大语言模型的多层次多学科中文评估套件)排行榜上,以64.4的平均成绩位列第五。

大模型对手机厂商来说,是一块“必争之地”,仅更智能的手机助手这一点,就让厂商们难以拒绝,并不断布局和投入应用。

不过,新技术的应用必然也会带来新的风险,不久前,在2023 亚马逊云科技 re:Inforce 中国站活动上,vivo 首席安全官(CSO)鲁京辉表示,他们看到生成式人工智能首先被应用最好的就是欺诈,vivo已经识别出来深度合成的欺诈行为。

黑灰产是一个长期的话题,中国移动互联网生态的全部产值大概是10万亿,其中有20%到30%最后进入了黑灰产的池。尤其近两年来,行业从业务驱动数据转变成为数据驱动业务,让黑灰产的形态变得更加复杂。

在人工智能时代,数据是基础设施,手机又承载了各式各样的服务,要推动人工智能行业的健康、有序、可持续发展,手机厂商就必须重视数据安全和个人信息保护。

在AIGC时代,作为一个手机厂商必须要做的事情是什么?鲁京辉认为,作为一个终端厂商,对生成式人工智能的应用是两方面:第一个是对自身内部提效的使用,第二个是要构建相关的生成式人工智能的产品和服务去服务用户。

“不管是基于Cloud based这种大模型的交互和人工智能的一些服务产品,还是刚才提到的端侧,我们都在做相应的工作。而且我们不仅是做一个简单的大语言模型的服务提供,还要在基于大语言模型服务提供的同时,做好端侧的内容过滤和生成内容的审核工作。” 鲁京辉说道。

说到AI和安全的关系,过去一般在说两个维度,一个是AI for Security,一个是Security for AI。病毒识别就是典型的AI for Security,隐私数据端侧处理时也会有很多AI相关的技术,比如隐私计算、联邦学习。vivo的“1001个小技巧”,背后也有很多是跟AI For Security相关的。

而Security for AI,一个核心点是,过去的一些安全防护手段,在新的AI时代下不太好用了,要与时俱进有一些新的技术手段去针对。

鲁京辉提出来生成式人工智能要解决四个方面的问题:

  1. 要解决内生安全的问题;
  2. 要解决内容安全的问题;
  3. 要解决运行安全的问题;
  4. 要解决合规性的问题。

对于内生安全的问题,核心是要做好相应管理的基线、管理的流程/制度/规范/工具支撑,从数据源头做到可控,保证数据是无毒无害的,有相关的技术要去支撑保证。

鲁京辉介绍,vivo主要是做好作为一个智能手机厂商,在提供生成式人工智能服务的时候必须做好的工作,其他的有些是通过合作伙伴,包括亚马逊云科技这样的云服务厂商来共同来构建。“因为单纯一个厂商,是无法构建一个健康、有序的生成式人工智能生态的。”

在采访中,鲁京辉强调到:“我们一定不会缺席生成式人工智能这场盛宴的,但是我们希望不是去宣传,而是希望真正给用户提供相应的生成式人工智能产品和服务的同时,一定要做好本分的安全和合规性的工作。”

热门相关:总裁别再玩了   宠物小精灵之庭树   精灵掌门人   重生之将门毒后   重生成偏执霍少的小仙女