Source: The Verge
微软推出了轻量级人工智能模型Phi-3 Mini的新版本,这是该公司计划发布的三个小型模型中的第一个。Phi-3 Mini拥有38亿个参数,并针对一个相对较小的数据集进行训练,与GPT-4等大型语言模型相比更小。它现在可以在Azure、Hugging Face和Ollama上使用。微软计划发布Phi-3 Small(70亿参数)和Phi-3 Medium(140亿参数)。参数指的是模型可以理解多少复杂指令。该公司在去年12月发布了Phi-2,性能与Llama 2等大型模型相当。
微软表示Phi-3的性能优于之前的版本,并且可以提供接近于比它大10倍的模型的响应。微软Azure人工智能平台的公司副总裁Eric Boyd告诉The Verge,Phi-3 Mini与GPT-3.5等LLM一样“只是形式更小。与更大型号的模型相比,小型人工智能模型通常更便宜且在手机和笔记本电脑等个人设备上表现更好。据The Information早些时候报道,微软正在建立一个专注于轻量级人工智能模型的团队。除了Phi,该公司还创建了一个专注于解决数学问题的模型Orca-Math。
微软的竞争对手也拥有自己的小型人工智能模型,其中大多数针对更简单的任务,如文件摘要或编码辅助。谷歌的Gemma 2B和7B适用于简单的聊天机器人和与语言相关的工作。Anthropic的Claude 3 Haiku可以阅读密集的研究论文并快速总结,而Meta最近发布的Llama 3 8B可能可用于一些聊天机器人和编码辅助。Boyd表示,开发人员用“课程”训练了Phi-3。他们受到儿童如何从睡前故事、用更简单的词汇的书籍以及讨论更大主题的句子结构中学习的启发。
Boyd说:“儿童书籍并不够多,因此我们列出了3000多个单词的列表,并要求LLM制作‘儿童书籍’来教Phi。他补充说,Phi-3仅建立在先前版本的基础上学到的东西上。虽然Phi-3系列模型了解一些通用知识,但在广度上无法与GPT-4或另一种LLM相比,一个经过整个互联网培训的LLM和Phi-3这类较小模型之间存在着很大的区别。Boyd说,公司通常发现像Phi-3这样的较小型号对于其定制应用效果更好,因为对于许多公司来说,它们的内部数据集将会比较小。而且由于这些模型使用的计算资源较少,它们往往更加负担得起。
小型人工智能模型的应用前景广阔,不仅在成本上更具优势,而且在个人设备上的表现也更出色,值得产业和消费者关注。" } ```