Meta 早前推出羊驼模型的第二个版本:Llama 2,日前 Meta AI 研究院基于 Llama 2 推出编程专用模型 Code Llama,剑指 GitHub Copilot。
Code Llama 接受了超过 5000 亿个代码相关的 tokens 进行训练,旨在通过生成代码和对提示的自然语言响应来帮助软件开发者。
支持的语言包括 Python、JavaScript、Java、C++ 等多种常见的编程语言,并且还可以帮助完成部分代码编写以及参与调试等。
Code Llama 目前有三种模型:7B 版、13B 版和 34B 版,其中 7B/13B 版模型针对低延迟情况例如实时代码编写进行了优化,而 34B 版能力最强,可以提供整体的最佳效果,但运行这个模型需要更强的计算能力。
此外 Meta 还对 Code Llama 的 Python 和 Instruct 变体进行了微调,Python 版本为 Python 代码生成任务增强了功能,Instruct 版本经过微调,可以对自然语言提示生成更安全、更有帮助的响应。
Meta AI 团队表示,Code Llama 有潜力提高专业开发者的生产力,并降低新开发者的入行门槛。Meta 也强调,对于大型语言模型相关的风险,多说无益,只有开源才最适合提升安全性。
所以 Code Llama 可以用于非商用研究,但在开源许可证下也可以用于商业用途。Meta 希望该公司能推出带来人工智能编程模型的同时,让开源社区也能评估功能和发掘漏洞。
代码羊驼模型官网:https://codellama.dev/about
版权声明:感谢您的阅读,除非文中已注明来源网站名称或链接,否则均为蓝点网原创内容。转载时请务必注明:来源于蓝点网、标注作者及本文完整链接,谢谢理解。