2023-05-17 14:20:45 来源:商业新知网
一
安全威胁或正在发生
【资料图】
去年年底ChatGPT爆火之后,某软件商就于今年推出了基于ChatGPT技术开发的聊天机器人, 由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。
ChatGPT通过大量文本语料库进行训练,其深度学习能力很大程度上依赖于背后的数据。
出于对信息泄露的担忧,目前已有多家公司和机构发布“ChatGPT禁令”。
事实上,这些人工智能聊天机器人背后是大型语言模型(LLM),用户的这些查询内容将会被存储起来,并且会在未来某个时候被用于开发LLM服务或模型。
这就意味着,LLM提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。
尽管LLM运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。 因此,企业需要确保他们有严格的政策,提供技术性支持,来监控LLM的使用,以最大限度地降低数据暴露的风险。
此外,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但是由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。
因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。
在自动化、AI、“攻击即服务”等技术和模式加持下,网络安全攻击呈现出暴涨趋势。
另一方面,距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。
二
AI应用要打好安全底座
数据安全合规并不是某个部门的事情,而是整个企业最为重要的事情。
企业要对员工进行培训,让他们意识到每个使用数据的人,都有义务保护数据,包括IT人员、AI部门、数据工程师、开发人员、使用报表的人等,人和技术要结合在一起。
面对前述潜藏风险,监管方和相关企业如何从制度和技术层面加强AIGC领域的数据安全保护?
相较于直接针对用户终端采取限制使用等监管措施,明确要求AI技术研发企业遵循科技伦理原则会更具成效,因为这些企业能够在技术层面限定用户的使用范围。
在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度。
例如,可根据数据主体、数据处理程度、数据权利属性等方面对训练数据集中的数据进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。
在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制。
目光投向企业,还需加快推动“隐私计算”技术在AIGC领域的应用。
这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,在进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。
迦太利华(自由客)是贵州高端灵活用工、服务外包、软件与互联网外包的开创者, 公司始终致力于探索新技术、新模式、新平台、新生态,以满足中国市场不断发展的在软件、互联网及大数据类技术开发与运营的服务外包需求。
三
总结
AI应用的关键在于部署方式与成本间的考量,但必须注意的是,如果没有做好安全合规、隐私保护,对企业来说或将蕴含“更大风险点”。
AI是把双刃剑,用得好让企业如虎添翼;用不好疏忽了安全、隐私和合规,会给企业带来更大损失。 因此,在AI应用前,需要构筑更加稳固的“数据底座”,正所谓,行稳方能致远。
关键词:
速览LADYS前10名持有者:前3名被拉黑,DWFLabs占总量3 5%。
即便如此解释,仍未拉回市场对三六零的信心,4月10日三六零股价一度跌停,周内市值蒸发了百亿。
谷歌此番更新将影响数十亿用户,人工智能正在愈加渗透进我们的日常生活。
总的来说,受算力、合规等因素的影响,“AI办公助手”们距离全面落地,还有很长的路要走。
百度动作频频,都是组合技。