copilot要摊官司了,工作20年老程序员重新激活律师证,发起集体诉讼-全讯新

发布时间:2022-10-24 16:12   文章来源:it之家

距离正式发布仅仅4个月,github copilot即将迎来集体诉讼!

copilot要摊官司了,工作20年老程序员重新激活律师证,发起集体诉讼

创始人是一位工作了20多年的程序员,来自美国的马修·布特里克。

他早在今年6月就感叹了copilot的开源许可。

现在,马修终于决定迈出实质性的一步,在迅速激活自己的律师资格证后,与其他几名律师合作声讨副驾驶。

在专门的个人博客中,他研究了copilot涉及的两大法律问题,指出copilot不仅仅是窃取代码这么简单,对整个开源社区也有很多不利影响:

也许你不介意它未经许可使用你的开源代码,但如果它也会抹去你和开源社区之间的联系呢。

目前,这篇博客在推特上获得了大量的关注和转发。

相关新闻也炸了黑客新闻社区。

副驾驶有什么问题。

给不熟悉的朋友简单介绍一下copilot。

它是嵌入在visual studio等ide中的代码自动完成工具,支持多种主流编程语言。

根据已经写好的内容,它可以给出后续的代码建议——但不像我们看到的常见的自动补全功能,它可以生成整个函数体等大段代码。

今年6月,copilot经过一年的免费试用后,正式转为付费工具定价为10美元/月,年付100美元/年

伴随着它的到来,很多人感叹入门级程序员一无是处。

但问题也随之而来。

copilot强大的编码能力来自于一个叫codex的ai,这个ai是openai开发的,授权给微软。

codex是怎么训练出来的。

好了,马修要起诉副驾驶的第一个问题和副驾驶的训练过程有关。

马修说,如果微软和openai想要使用github上的开源库进行训练,他们要么遵守他们的开源许可协议,要么合理使用。

如果是前者,微软和openai至少应该放出很多attribute才能拿到许可证,但是大家都没看到。

正如github前首席执行官nat friedman在copilot的技术预览会上所说,他们将自己归为后者:

在公开数据中使用训练系统是合理的。

可是,软件自由保护组织不同意这种空谈,并要求他们提供法律依据来支持自己的立场。

但是没有人回答。

马修说这是因为微软和openai给不了。

第二个可能违法的问题是关于副驾驶的使用。

马修指出,微软在面对copilot用户时为自己开脱。

微软copilot给出的代码名为建议,称不对其主张任何权力,也不对其生成的代码的正确性,安全性和产权作出任何保证。

一旦你接受了副驾驶给出的建议,你就要对任何错误负责。

这是马修想要抱怨的两个主要问题。

此外,他还表达了对开源社区文化的关注。

他认为,copilot的所作所为直接在程序员和开源社区之间筑起了一堵墙,让程序员只是随意享受现成的代码,远离源代码本身,失去了与源项目的问题讨论和bug追踪的互动和贡献。

这对开源社区来说将是一个永久而痛苦的损失。

马太把这种人比作牛因为副驾驶没有为他们的项目贡献任何东西,所以他说这头牛是只出奶不提供食物和住所的牛

所以他也把副驾驶的本质比作寄生虫。

另外,你可能听说过有人出于愤怒把自己的代码搬出了github。

马修:实际上,微软正在通过声称训练ai是公平使用来搜索任何可以在线用于训练的公共代码。

可以说是无处可逃。

所以在避免伤害变得不可挽回之前,马修声称要找出副驾驶的合法性。

他呼吁以下人群加入他们的调查和诉讼队伍:

当然,在博客的最后,马修特别声明:

我并不反对人工智能辅助编程工具。

怀疑从未停止。

这次看到有人带头对copilot提起集体诉讼,很多计算机相关领域的程序员和老板都纷纷表示:

附议!

消息传出后,德州aampm大学计算机科学教授,acm,ieee和siam成员tim davis借机分享了自己的遭遇:

copilot在没有lgpl许可的情况下发送了我的一大段全讯新的版权代码。

并附证据:

左边是副驾驶给的代码,右边是自己的代码。

有网友表示:

copilot的行为完全是对开源社区的不尊重。

有网友一针见血地指出,在模型训练过程中,所谓的ai学习本身就是一个被勉强挪用的概念:

根据现有法律,人类为了自己的学习阅读有全讯新的版权的资料是合法的,然后各大科技公司都说ai也会学习,所以ai也没有违反全讯新的版权法。

但是ai没有人类那么自主这些模型实际上是由背后的组织或公司控制的,所以用学习来形容ai做什么并不准确

而且真人经常会有违反全讯新的版权法等问题...

因此,界定ai在学习过程中是否抄袭,存在何种侵权行为,是一个非常困难的问题,需要更多的讨论和明确的规定。

诚然,从去年的内测阶段开始,copilot出色的编程能力确实让很多人大吃一惊。

而这个ai后来学会了反向输出:

人话解释某段代码有什么用,帮助屏幕前的人理解代码。

但另一方面,不仅仅是现在,其实从copilot刚出来的时候,就有很多质疑和反对的声音,其核心不外乎matthew引用的两点。

如前所述,除了个人,证监会等机构也在声讨copilot。

今年6月,github宣布copilot结束内测,开启收费模式,将大家的不满带到了最高点。

除了免费引流再收费这种恶心的商业模式,大家一致认为,这里的ai是用开发者写的代码训练出来的,不应该回去收费开发者:

每个向github提交过代码的人都应该免费使用它!

结果正式版的copilot马上就被抵制了——

sfc不仅想退出github本身,还号召其他软件开发商也这样做。

在vs代码插件市场,copilot一直是五星好评,一星差评一下子很多。

还有一点

这件事也让人们的目光延伸到了ai绘画领域。有网友认为:

这个工具还涉及侵权等问题。

最后,你觉得大家现在联合把副驾驶告上法庭这个案子胜诉的几率大吗。

参考链接:

推荐阅读

574
网站地图