今年6月份,在经过近1年的测试以后,微软GitHub AI编程工具Copilot以每月10美元的价格正式上线。

Copilot可以根据上下文自动写代码,包括注释、函数、代码等等,只要你给出提示,就可以写出完整的函数。

在很多场景当中,打上注释,函数就出来了,即便是在一些“稀巴烂”的函数当中,它也能知道你要干啥。

此外,Copilot甚至可以提供关于完整的方法和复杂的算法等建议,以及模板代码和单元测试的协助,这样一来开发效率和工作的幸福感都可以得到很大程度的提高。

但显然,微软的开发团队想让它变得更智能一些。

在近日召开的GitHub Universe 2022活动上,GitHub正在为其Copilot软件测试一种新的基于语音的交互系统——“嘿,GitHub!”,将允许程序员只用声音而不用键盘来写代码,就像对Siri说话一样。

GitHub在一篇博文中解释说:“借助你的声音的力量,我们很高兴有可能把GitHub Copilot的好处带给更多的开发者,包括那些用手打字有困难的开发者。'嘿,GitHub!' 只是减少了在VS Code内编码时对键盘的需求,但我们希望通过进一步的研究和测试扩展其功能。”

借助该功能,程序员能够命令Copilot移动到不同的代码行,或者只用声音导航到方法或块。甚至可以控制Visual Studio Code,使用“运行程序”或“切换禅定模式”等命令。如果想了解某块代码的作用,甚至可以要求进行代码总结。

自动编程+语音输入,两者的结合可能会让很多入门级别的程序员更容易上手。

不过问题也随之而来。

针对这一功能的公布,程序员对此的看法褒贬不一:

图片

有人吐槽:这肯定是某个不懂GitHub也不了解程序员工作流程的高管或投资者想当然的决定。

也有人表示:这种工具实际提升了可访问性,一定会有开发人员从中受益。

还有人提出了细节疑问:很难想象语音识别软件对于变量名的识别可以非常精确。

除此之外,还有很多现实问题需要考虑。

首先就是识别问题,先不说口音的问题,就是同音词、语速、环境音等等,这些都容易造成识别不准的现象,也增加了开发者后期修改的时间成本。

其次,定位比较麻烦。官方的解释“程序员能够命令 Copilot 移动到不同的代码行”,加入在几百行的几几几,这样的操作明显不如鼠标键盘操作起来方便。

最后就是语音也未必有键盘输入快、准,想一想下面的场景:

Hello World!

空格!

左花括号!

右括号!

system!

而且目前大多数人都是用IDE编程,很多代码都是用快捷键、自动填充来完成。在这方面,语音编程或许真的不如敲键盘来的更快捷。

但在程序员当中,有这样一群特殊的群体更依赖语音编程—盲人程序员。

一直以来,盲人程序员依靠屏幕阅读器、盲文显示器等帮助编写代码,因为看不见的缘故,很多的代码都要靠背诵来识记,每写百行代码,可能需要背上万个字符。

所以语音编程的出现,不仅可以降低软件开发的准入门槛,也可以让这些特殊群体受益。

目前语音编程还处于起步阶段,虽说还不完美,但它已经达到了可作为编程选项的地步。

究竟何时能够被广泛采用还是未知,不过可知的是,语音编程给我们的未来带来了更多的可能性,就像GitHub所说的那样:“正如编程语言和开源彻底改变了行业一样,人工智能正在改变软件开发的未来”。

当然不容忽视的是,GitHub Copilot的出现固然是自动化工具的里程碑,但是此前因其采用的代码引发的版权争议依旧悬而未决。在GitHub继续用新功能加强其服务的同时,这一问题也亟待解决。

程序员Matthew Butterick提出“我的代码没经授权出现在了Copilot自动填充的代码行中”。在他发起的集体诉讼中,指出微软、GitHub和OpenAI从网络上抓取受版权保护的材料来训练Copilot,而Copilot在复制代码时没有适当的署名。最终这起诉讼的结果不仅可能影响Copilot的合法性,还可能影响整个生成型AI模型的合法性。

参考链接:https://www.theverge.com/2022/11/9/23449175/hey-github-voice-copilot-code-programming-system