站长之家(chinaz.com)5月22日 消息:微软发布了其最新的大型语言模型系列,,包括phi-3vision、phi-3small7b和phi-3medium14b型号。这些模型在性能上与当前领先的大型模型相媲美,同时在特定领域提供了一些独特的优势。
phi-3medium14b 型号的性能与mixtral8x22b和llama370b相当,甚至超过了command r 104b和gpt3.5。这表明微软的这个模型在大型模型领域具有较强的竞争力。
phi-3small7b 型号虽然规模较小,但其性能依然超过了mistral7b和llama38b,这使得它在需要处理大量数据但计算资源有限的场景下具有潜在的应用价值。
phi-3系列模型支持的上下文长度为4k和128k,这为处理长文本数据提供了灵活性。模型规模方面,medium版本为14b参数,small版本为7.5b参数,而vision版本则为4.2b参数。
在训练数据方面,微软使用了4.8t(万亿)令牌对模型进行训练,训练过程持续了42天,使用了512个h100gpu。训练数据集包含了10%的多语言数据,并且采用了经过严格过滤的数据和合成数据,特别是科学和编程教材,这可能有助于模型在这些领域的特定任务上表现更好。
微软还为phi-3系列引入了一个新的分词器,拥有10万词汇量,这有助于模型更好地理解和生成语言。此外,phi-3模型的权重兼容awq、int4、onnx和transformers,这为开发者提供了在不同平台上部署和运行模型的灵活性。
总体而言,微软的phi-3系列模型在大型语言模型领域展现了强大的性能和灵活性,为研究人员和开发者提供了新的工具和可能性。随着这些模型的发布,我们可以期待在自然语言处理和相关领域出现新的创新和应用。
模型地址:https://top.aibase.com/tool/phi-3-vision-128k-instruct