微软发布了更小更高效的AI模型Phi-3-mini

摘要: 微软的研究表明,可以使AI型号足够小,以便在手机或笔记本电脑上运行,而不会对其智能进行重大妥协。该技术可以为AI打开新的用例。

微软发布了更小更高效的AI模型Phi-3-mini

微软发布了更小更高效的AI模型Phi-3-mini

2023年11月,CHAT GPT发布时,由于其背后的模型庞大,只能通过云进行访问。

如今,我在Macbook Air上运行了一款同样功能强大的AI程序,甚至没有发热。这种缩小显示出研究人员如何不断完善AI模型,使其更精简高效。这也表明,不断扩大规模并非使机器显著智能化的唯一途径。

我现在的笔记本电脑上运行的模型名为Phi-3-mini,它是微软研究人员最近发布的一系列较小的AI模型之一。虽然它足够小,可以在智能手机上运行,但我通过一个名为Enchanted的应用在笔记本电脑上运行它,并从iPhone上访问它,该应用提供了类似官方CHAT GPT应用的聊天界面。

微软研究人员在描述Phi-3系列模型的一篇论文中称,我使用的模型在几个旨在衡量常识和推理能力的标准AI基准测试中表现优异,与CHAT GPT首次发布背后的OpenAI模型GPT-3.5不相上下。在我的测试中,它看起来确实同样出色。

微软在其年度开发者大会Build上宣布了一款新的“多模态”Phi-3模型,能够处理音频、视频和文本。这是在OpenAI和Google都宣布基于云访问的多模态模型构建的革命性新AI助手之后不久。

微软的微型AI模型家族表明,现在可以构建各种不依赖于云的便捷AI应用。这可能打开新的用例,通过使其更具响应性或私密性。但Phi系列也揭示了现代AI的性质,以及如何改进它。微软参与该项目的研究人员Sébastien Bubeck告诉我,这些模型是为了测试是否更加选择性地训练AI系统可以提供一种微调其能力的方法。

像OpenAI的GPT-4或Google的Gemini那样的大型语言模型通常会被喂入大量从书籍、网站和几乎任何其他可访问的来源中提取的文本。尽管这引发了法律问题,但OpenAI和其他人发现,增加喂给这些模型的文本量,以及用于训练它们的计算机功率量,可以释放新的能力。

© 版权声明

相关文章

暂无评论

暂无评论...