2023-01-18 10:12:46 来源:商业新知网
今天,马库斯在个人博客里写道:事情越来越离谱了。
吹之前看看答案对不对
事情的起因,源于Coinbase创始人Fred Ehrsam的一条推文。
(相关资料图)
Ehrsam同时询问ChatGPT和谷歌「1公里用时4分21相当于1英里用时多长时间?」他表示,ChatGPT给出了精确简洁的答案,而谷歌却都做不到。
针对这条帖子,马库斯说:「它不可一世,傲慢自得,仿佛它就是未来世界的标志。但顺便说一句,它的回答是错误的。」
ChatGPT并没有将单位正确转换,作者只是一厢情愿地认为,这个伟大的新工具给出的答案一定准确(甚至精确到秒!),他根本没有进行检查。
这就是问题所在。统计学的单词预测不能替代真正的数学,但很多人却不这么认为。(每公里4分21秒的速度就是每英里7分钟的速度。如果你能好好提问,它会给你正确的答案。)
ChatGPT这种「对了,又没完全对」的答案中,最糟糕的部分不是它错了,而是它看上去信誓旦旦。如此令人信服,推特网友甚至没有想到要怀疑它。
这就是现状:滥用ChatGPT,人们信任它,甚至吹嘘它,哪怕它与正确答案背道而驰。
想知道什么比炒作更糟糕吗?人们开始将ChatGPT视为一个可靠的、有充分资质的科学合作者。
帮帮忙,别把ChatGPT写成共同作者
马库斯说,关于ChatGPT,昨天的头条是炒作其暴虐谷歌的能力。而今天,舆论讨论的是ChatGPT成为论文合著者。
在去年12月发表的一篇预印本论文中,作者一栏中赫然惊现了ChatGPT!
论文地址:
https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v1.full
无独有偶,ChatGPT的名字自去年12月起,频繁地出现在医学领域一些经过同行评审的论文当中:
论文地址:https://www.oncoscience.us/article/571/text/
根据Semantic Scholar的数据,6周大的ChatGPT已经有两份出版物,12个合著者身份和一份引文。
我真诚地希望这种趋势不会持续下去。
马库斯给出了五个原因:
ChatGPT只是一个工具,不是人类。说它是科学家,不如说它充其量更像是一个拼写检查器,一个语法检查器,或者一个统计包。
它无法提供真实的想法,不会设计精心控制的实验,也不能从已有文献中得到启发。你不会让拼写检查器或电子表格成为合著者。
例如,你会在参考文献中引用一些资源,例如像SPM这样的用于大脑分析的软件包。即使这对研究工作很重要,但没人会把SPM列成合著者。
共同作者在不同领域的定义不同,但通常情况下,共同作者需要做出实质性的科学贡献。
ChatGPT根本无法很好地推理来做到这一点;鉴于ChatGPT目前对科学理解的理解水平,赋予其作者身份是对科学过程本身的不尊重。
马库斯在之前的文章中写道,ChatGPT对物理、生物、心理、医学等学科完全不了解,并向大家解释了「又聪明又蠢」是什么样子。
在这个回答中,ChatGPT一本正经地说,科学家发现西班牙油条是居家最好用的手术工具。
ChatGPT已经证明自己既不可靠又不真实。它会产生离谱的计算错误,编造虚假的传记细节,乱用词汇,定义根本不存在的科学现象。
如果你不知道这一点,你就不了解人工智能研究;如果你知道这一点却不在乎,这更糟糕。如果你让它成为合著者,这表明你只是想跟风,而不是真正进行研究。
人们对ChatGPT滤镜太强。
你不会相信一台只有75%正确率的计算器,那么,如果你公然宣称,你对用「劣迹斑斑」的人工智能工具「写」论文感到兴奋,我为什么要信任你?
科学写作的目的,是为了清晰地向他人传授真理。
如果你把ChatGPT视为有知觉的人——虽然显然不是,你就是在误导公众产生同样的感觉;你不是在传播科学观念,只是在炒作废话。请停止这种行为。
最后马库斯总结道:真朋友不会允许ChatGPT成为你论文的共同作者。
如果说马库斯之前与LeCun等人激情辩论关于人工智能前景、AGI的可实现性、以及指责LeCun关于「人工智能路线图」是夺他人之功,多多少少带了个人恩怨的话,那么此次,对ChatGPT表达的担忧和警惕就很切中要害了。
实际上,马库斯上面说的关于ChatGPT与论文造假、和版权争议的问题,在ChatGPT仅推出几周后,就成为了现实。
近日,弗曼大学的一位哲学教授达伦·希克就发现,一名学生交的一篇论文是人工智能生成的。
希克说,当他看到论文中的明显经过精心编排、但却是的错误的信息时,他就开始怀疑了。
他把论文提交Open AI的ChatGPT检测器,结果显示,这篇论文有99%的可能性是由人工智能生成的。
无独有偶,北密歇根大学教授安东尼·奥曼(Antony Aumann)也表示,他也发现两个学生提交了由ChatGPT编写的文章。
在发现这两篇文章的写作风格有点不对劲后,奥曼将文章提交给聊天机器人,问它们是由该程序写的可能性有多大。当聊天机器人说它有99%的把握是由ChatGPT写的,他就把结果转发给了学生。
希克和奥曼都表示,他们与学生对质后,所有学生最终都承认了违规行为。希克的学生没有通过这门课,而奥曼让他的学生从头开始重写论文。
论文虽有错误,但写的不错
两位教授表示,这两篇AI生成的论文中的某些关键之处能看出来比较明显的痕迹。希克说,他发现的这篇论文提到了课堂上没有提到的几个事实,并提出了一个无实际意义的主张。
他说:「从字面上看,这是一篇写得很好的文章,但仔细一看,关于多产的哲学家大卫-休谟的一个说法毫无意义,甚至是完全是错误的。」
这种修饰得很完美的错误,就是AI代笔的最大的破绽。
对奥曼来说,聊天机器人只是写得太完美了。「我认为这个聊天工具写得比我95%的学生都要好。」
「就是突然间,你有一个没有表现出这种水平的思考或写作能力的人,写出了完全符合所有要求的东西,有复杂的语法和复杂的思想,与文章的提示直接相关,一下就感觉很不对劲。」他说。
阿巴拉契亚州立大学的哲学教授克里斯托弗·巴特尔说,虽然AI生成的文章的语法几乎完美,但实质内容往往缺乏细节。
「没有背景,没有深度、没有洞察力。」
难以证实的剽窃:不招供就没辙
不过话说回来,这是几位教授的学生都承认了AI代笔,实际上,如果学生拒不承认使用人工智能写论文,学术界很可能会陷入困境。
巴特尔说,目前一些学术机构的规则还没有发展到打击这种作弊的程度。如果学生挖空心思,否认使用人工智能,那么实际上很难确切证明这种作弊行为。
他还说,OpenAI自家提供的AI检测工具很好,但不完美。
这个工具是对文本是由人工智能生成的可能性进行了统计分析,给出一个概率。
而现行政策一般是,必须有明确和可证实的证据来证明论文是假的,才算石锤,这就使我们处于一个很困难的位置。如果返回结果是95%的可能性是人工智能生成的文章,还有5%的可能性不是。
在希克的案例中,尽管检测网站说「99%确定」这篇论文是由人工智能生成的,但实际上,关键还是在于学生自己承认了,否则仅凭这个概率结果,对确认作弊本身是远远不够的。
希克表示,供词很重要,除此之外,其他一切都是间接证据,对于人工智能生成的内容,一般没有物质证据,而物质证据比间接证据有更大的分量。"
奥曼则说,尽管他认为聊天机器人的分析足以成为采取行动的证据,但利用人工智能抄袭作弊,对高校来说仍然是一个新的挑战。
毕竟,现在凭ChatGPT以假乱真的高超本事,只要用户想,它变成CheatGPT实在是分分钟的事。
声明
来源 :新智元 , RAD极客会推荐阅读,不代表RAD极客会立场,转载请注明,如涉及作品版权问题,请联系我们删除或做相关处理!
1T等于1024G(T是TB的缩写,G是GB的缩写),1TB=1024GB。TB又称太字节(Terabyte),是计算机的存储容量单位,一般内存是不会有TB级别的,TB级
sql insert语句的写法:1、insert into 表名 values (值1,值2 );,将指定的数据插入到现成的表中;2、Insert into 表名1 select
br是Adobe公司开发的一个组织工具程序,其全称是Adobe Bridge;br可以借助于编写ExtendScript脚本或使用内含的工作流程脚本示例将Adobe Cr
融资丨「驯鹿生物」完成近5亿元人民币C1轮融资,国鑫投资、倚锋资本、上海外高桥集团、南京江北国资、厚新健投、宏诚投资等11家投资机构投资,
融资丨「百力司康」完成逾亿元B+轮融资,约印医疗基金领投,本轮融资将用于BB-1701、BB-1705、BB-1709项目的临床研究推进、产品管线其它品种的
发挥在线新经济生态园、数字化转型示范区等载体功能,推动未来智能应用落地,赋能经济社会高质量发展。
21世纪初,蓝牙差点被不合时宜地终结。第一批蓝牙设备曾竭力避免与无线路由器产生冲突。
2022年是中国广电改革发展史上极不平凡、具有里程碑意义的一年。
随着数据中台基础建设的晚上,中台产品的工作重点不仅仅是在功能建设上,更多是侧重提供数据解决方案。
无论是电商业务还是本地生活服务都和社交有着千丝万缕的联系,抖音也正在补上这一环。