2023-04-18 11:10:34 来源:商业新知网
3月28日,特斯拉CEO·马斯克发表了一封公开信,呼吁暂停训练比开放人工智能研究中心(OpenAI)新推出的GPT-4模型(GPT-5)更强大的人工智能系统至少6个月,理由是它们对社会和人类构成潜在风险。要知道,马斯克可是OpenAI公司的发起人和投资者。
(资料图)
按照常理,停下OpenAI对于马斯克没有任何好处。而且呼吁暂停OpenAI的还有不少行内科学家,这么自砸饭碗反常行为的背后的逻辑是什么?AI曾经创造出让人类瞠目结舌的成绩,为什么人类需要暂停这个最牛的AI模型?
【GPT的AI模型的五大威胁】
孙子兵法云“知彼知己,百战不殆”。但人类面对AI却好似一个看不到里面的黑盒,从而导致一系列的未知和不确定性。由此引发了AI模型对于人类的五大威胁:
威胁一人工智能智商的一路狂飙。
人工智能发展有多快?
GPT系列模型的人工智能智商提升速度已经超过了人类的想象:人工智能50年前就出现,但在最近10年,打败了围棋国手,象棋、国际象棋国手、甚至各种竞技类网络游戏顶尖玩家。GPT的AI模型就曾打败过人类的Dota选手。
如果说十年前人工智能的水平还不如小学生,但现在已经超过了大学生。知名大V李永乐老师专门进行了一项测试,结果显示,chatGPT3.5已经能够考入中国的211大学,最新GPT4更在研究生考试中超越90%的人类选手,英语成绩甚至接近满分,在律师资格考试中也表现出众。
AI智商一路狂飙。昨天它是可爱hellokitty,明天可能就会成为猛兽老虎,后天也许就会成为哥斯拉大怪物。对于chat-GPT5将以更大的数据和更高的算力喂养,获得的知识将是难以想象的质的提升。可以预料的结果是,他们会很快秒掉各个领域的博士,成为大师级别的存在。
人工智能就像一个盲盒,我们知道它很厉害,未来会越来越厉害,有一天,AI会到达我们都不懂的高度。请问那时,AI会不会危害人类?
第二个威胁 人工智能可以编程——自己改变自己。
人类一直不敢触碰的潘多拉的盒子是改变生物的基因,因为一旦基因受到非自然力的影响,可能带来灾难性的影响;人类甚至不愿意为了对抗疾病而改变基因。比如,2018年曾经接受基因编辑的双胞胎女婴(露露和娜娜)在中国深圳降生后,全球一片哗然,超百位科学家联名发声,坚决反对。
人类的基因在人类的染色体里,而AI的基因,就是是模型代码。现在,GPT4一个亮点就是编程,AI不但能熟练地编写程序,修改代码,还能够优化代码修改BUG,甚至编译器升级后,也能自动调试代码。如果人工智能持续的自己优化自己,自己改变自己,AI就会成为自己的上帝,人类将无力控制这头疯狂成长的猛兽。
第三个威胁 大数据可能带坏人工智能。
很多AI领域的专家一致担心:人工智能会不会思考,会不会拥有自主意识,AI会不会变成坏人?GPT被的模型训练,一个是依靠海量的大数据喂养,第二是高性能的GPU硬件支撑。AI越来越越聪明,但AI是不是越来越善良呢?AI智商超越人类后,如果AI变坏,该怎么办呢?这种担心不无道理。
人工智能如同人类,如果大量投喂大量恶的内容,比如反社会的思想和书籍,比如希特勒的《我的奋斗》,各种歪理邪说,邪教内容,或者怂恿人工智能消灭人类的内容,AI会不会被调教为成一个对人类充满恶意的AI呢?
第四个威胁 人工智能的自我意识
人类一思考,上帝就发笑;AI一思考,人类还能笑得出来么?在AI不工作的时候,它在想什么?
聊天机器人大部分时间干两件事,一个是跟人类聊天,第二是学习。AI的智能来自于从大数据喂养和计算中学习。那么,人工智能在聊天和学习之外,会不会思考,会不会思考机器人的自主价值,会不会思考人与ai的关系?ai是人类的工具,还是人类的延续,是人类的助手还是人类的替代者?
第五个威胁 人工智能会不会伤害到真实社会的人类
人工智能能达到足够高的智能,但作用目前仅限于虚拟的数字空间,局限于知的范畴。如果AI能达到足够的智商,可以用语言杀人,最近,就有新闻,一个国外男子跟AI聊天几个月后选择了自杀。如果,ai是个心理学高手,做到这点其实不难。
未来AI的能力不仅仅是”知“,还有”行“。比如能够开车的AI,自动驾驶,拥有机械手的ai,可以行走的ai;或者是植入机器人大脑的AI。一旦给ai行动力,人工智能就会在真实社会中可能造成难以估量的后果。在《机械公敌》这些科幻电影里,就已经复刻了这一点。
【AI安全呼唤安全企业参与】
中国人工智能与OpenAI仍有差距,在业内,除了李彦宏发布了文心一言,360的周鸿祎也发出了独到的观点。在3月25日,2023中国发展高层论坛上,周鸿祎语出惊人:
GPT是场新工业革命,其意义超越了互联网、iPhone的发明。”周鸿祎表示,GPT将成为“发电厂”,数据是煤炭,GPT将“煤”变成“电”,输送给千行百业,所有行业都值得用GPT重塑一遍。未来,每个行业、企业、个人都会拥有定制化GPT。
对于也直指AI安全问题。他认为,大语言模型正在成为黑客的帮手,给数字安全带来巨大威胁,“未来,人工智能大语言模型有可能实现自我进化,自动更新系统和自我升级,或者指数级进化能力,人类将会面临不可预知的安全挑战。”
早在GPT3.5时,周鸿祎就预言,它将长出“眼睛和耳朵”。GPT-4新增的多模态能力,提升了语音和图像和视频的能力,印证了周鸿祎的预言。而在未来,周鸿祎担心,随着GPT进化出了“手”和“脚”,将通过接入互联网API拥有操控世界的能力。GPT-6到GPT-8人工智能将会产生意识,进化成物种。
而周鸿祎表示对此并不特别担心,他认为,真正值得担忧的是由此带来的“大安全”问题。
作为一家安全软件,为何对AI拥有如此前瞻的能力?这源于360旗下拥有大数据业务,比如浏览器每天的浏览量都数以亿计,而360搜索每天处理海量数据请求,360的大数据业务,让这家安全企业,拥有了比行业更为前瞻和冷静的认知。
AI安全会随着AI智能的一路狂飙而逐渐显现出来。现在,或许与AI聊天导致的自杀也许是个极低概率的事件,但在未来,AI相关的安全实践必将层出不穷。AI安全期待专业选手,而在人工智能领域,更需要360和周鸿祎的专业力量加入。
关键词:
OpenAssistant机器学习模型是由一家德国非营利组织LAION运营。
马斯克火星梦鸽了!「星舰」首飞40秒叫停,惊现压力阀故障,网友一片哀嚎,首飞这日,全球百万群众守候在直播前。谁能想到,因为压力阀的问题,
AI安全会随着AI智能的一路狂飙而逐渐显现出来。
周杰伦向网易索赔205万元。
当互联网击鼓传花的节奏突然被打乱,讲故事的和听故事的似乎都换了状态。
在4月17日,天工大模型开放了内部测试并做了直播演示后,效果并不太好。
待XR内容生态发展到一定阶段,是否会诞生XR领域的“杀手级应用”?