2022-10-24 16:55:51 来源:商业新知网
距离正式发布才刚4个月, GitHub Copilot 即将迎来一场 集体诉讼 !
发起人是一位干了20多年的程序员,来自美国的马修·巴特里克 (Matthew Butterick) 。
(相关资料图)
他早在今年6月就“捶”了Copilot的开源许可证问题。
现在,马修终于决定迈出实质性的一步,在迅速激活自己的律师资格证后,和其他几位律师一起合作“声讨”Copilot。
( 这位老哥身兼数职,除了这俩身份还是设计师)
他在一篇专门的个人博客中细究了Copilot涉及的两大法律问题,并指出Copilot 不仅是“偷代码”那么简单 ,还会对整个开源社区造成诸多不良影响:
或许你不介意它未经许可就用了你的开源代码,但如果它也将由此抹去你和开源社区之间的联结呢?
(若不明白这句话具体何义,请接着往下看~)
目前,这篇博客已在推特上得到了不少关注和转发。
相关消息还引爆了Hacker News社区。
先给不熟悉的朋友简单介绍一下Copilot。
它是内嵌在Visual Studio等IDE中的一个代码自动补全工具,支持多种主流编程语言。
根据已写的内容,它可以给出后续代码建议——不过和我们见到的普通自动补全功能不同,它可以生成诸如 整个函数体这样的大段代码 。
今年6月,Copilot在经过一年的免费试用后正式转为付费工具,定价为10美元/月 (人民币约67元) ,年付则是100美元/年 (人民币约669元) 。
它的到来,让很多人都感叹入门级别的程序员没有用了。
不过问题也随之而来。
Copilot强大的编码能力来自于一个叫做Codex的AI,由OpenAI开发并授权给微软。
Codex是怎 么训练的 呢?
尽管微软含糊其辞,表示它的训练源是数亿行公共代码;但Copilot的研究员还是道出了实情,都是出自于Github上的公共仓库。
好了,马修要状告Copilot的 第一个问题 ,也就 跟Copilot的训练过程有关 。
马修表示,微软和OpenAI要想用Github上的开源仓库进行训练,要么遵守它们的开源许可证协议,要么「合理使用」。
如果是前者,微软和OpenAI应该至少发布大量的attribution来获得许可,但是大家没有看到。
他们将自己归到了后者,如GitHub前CEO Nat Friedman在Copilot的技术预览会所说:
在公开数据上训练 (机器学习) 系统属于合理使用。
不过,软件自由保护组织 (Software Freedom Conservancy,SFC) 不同意这一“空口无凭”的说辞,要求他们提供法律依据来支撑自己的立场。
但是迟迟没有得到答案。
马修表示,这就是因为微软和OpenAI给不出来啊。
第二个可能违法的问题,则是关于Copilot的使用 。
马修指出,微软在面对Copilot用户时对自己进行了免责。
微软将Copilot给的代码称为“建议”,称自己不从中主张任何权力,也不对它生成的代码作任何关于正确性、安全性和产权相关的保证。
一旦你接受了Copilot给出的“建议”,如果出了问题都由你自己负责。
乍一听还好,可是不止一人发现Copilot一字不差地把原作者的代码当成“建议”丢给用户,连注释都一并奉送的那种。
这要是直接采纳可就要涉及许可问题了,可是Copilot根本不会注明这些代码的来源,又该让用户如何遵守协议呢?
以上,便是马修要控诉的两大问题。
除此之外,他还表达了对开源社区文化的担忧。
他认为,Copilot的所作所为直接在程序员和开源社区之间 砌起了一堵墙 ,让程序员只管任意享用现成代码,远离源代码本身,失去与源项目的问题讨论、bug跟踪等互动和贡献。
而这对开源社区将是一个永久的、痛苦的损失。
另一边,对于“无故”奉献了训练代码的开源作者来说,他们俨然被当作了资源的生产者。
马修将这类人比喻成奶牛,由于Copilot对他们的项目没有任何贡献,他表示这奶牛是只出奶却不被提供食物和住所的奶牛。
因此,他也将Copilot的本质,比喻为寄生虫。
此外,你可能听闻有人出于愤怒将自己的代码搬出了GitHub。
马修告诉大家:其实微软通过声称训练AI是合理使用,正在搜索网上任何可以使用的公共代码进行训练。
可以说是“逃无可逃”。
于是在避免伤害变得无法弥补之前,马修声称必须弄清Copilot的合法性。
他呼吁以下几类人群加入他们的调查和诉讼队列:
当然在博客最后,马修还是特别声明:
我本身并不反对AI辅助编程工具。
他提到,Copilot本可以也很容易变得“友好”,比如让作者 自愿参与 ,或者 有偿征用 。
这次,看到有人带头牵起对Copilot的集体诉讼,许多程序员以及计算机相关领域的大佬们纷纷表示:
“附议!”
消息出来之后,德克萨斯A&M大学的一位计算机科学教授,并兼任ACM、IEEE和SIAM会员的Tim Davis顺势发推分享了自己的“遭遇”:
Copilot没有拿到LGPL许可证 (函数库公共许可证) ,就擅自发出了大段我的版权代码。
并附上了证据:
△ 左为Copilot给出的代码,右为他自己的代码
有网友表示:
Copilot的这种行为属于是完全不尊重开源社区。
还有网友犀利地指出,在模型训练过程中,所谓的AI“学习”,本身就是一种被勉强挪用过来的概念:
因为据现有法律,人类阅览受版权保护的资料用于自己学习,是合法的;然后各大科技公司说,AI也会“学习”,所以AI也没有违反版权法。
但是AI并不像人类那样自主 (尽管很多公司称AI很自主) ,这些模型其实都被背后的组织或公司等操控着,所以用“学习”来描述AI做的事并不太准确。
而且真人其实也经常出现会违反版权法等问题……
所以,要定义AI在“学习”过程中到底是否“抄袭”了,以及存在具体哪种侵权行为,是一个非常棘手的问题,还需要更多的讨论和明确规定。
诚然,Copilot从去年的内测阶段起,其出色的编程能力确实惊艳了不少人。
而且这个AI后来还学会了“反向输出”:
用“人话”来讲解某一段代码有什么用,帮助屏幕前的人看懂代码。
但另一方面,不只现在,其实 从Copilot刚出来开始,一直就有众多质疑和反对的声音 ,核心都不外乎马修在前文举证的那两点。 (即这个AI的训练和使用)
也正如前文所说,除了个人,还有SFC等组织也在声讨Copilot。
而在今年6月份,GitHub宣布Copilot结束内测,开启收费模式后,更是将大家的不满情绪拔到了最高点。
除了免费引流再收费的商业模式让人反感外,大家一致认为这的AI用开发者写的代码来训练,不应该回过头向再开发者收费:
每一个曾向GitHub提交过代码的人都应免费使用!
于是,Copilot正式版立刻遭到了抵制——
SFC不仅自己要退出GitHub,而且还号召其他软件开发商同样照做。
在VS Code插件市场上,Copilot原本一直是5星好评,也一下子涌入了不少一星差评。
本次事件还让人把目光延伸到了AI绘画领域,有网友认为:
这种工具同样也涉及侵权等问题。
最后,对于“大伙儿现在联合把Copilot告上法庭”这件事,你觉得赢的胜算大吗?
融资丨「井英科技」完成数百万元种子+轮融资,紫竹小苗基金投资,本轮资金将用于人工智能(AI)技术和产品研发,以及场景化数字人的建模与扩展
蔚来回应换电站是否有辐射;iPhone15Ultra或将采用钛金属外壳;大乐透北京单票中奖1 66亿元丨邦早报,24小时创投大事
保安的角色,几乎完全等同于网络中防火墙的角色。
近年来,计算机视觉领域的生成技术越来越强,相应「伪造」技术也越来越成熟。
今年7月谷歌人工智能团队的软件工程师BlakeLemoine被公司解雇,原因是其“违反保密协议”。
由于这些固有的功能,5G被正确地称为促进和加速工业4 0的下一次工业革命。
基于无线电的新业务是否会干扰同频段的现有业务,这似乎纯属物理问题。