admin管理员组文章数量:1794759
mixtral大模型
简介
Mixtral 是一种具有开放权重的高质量稀疏专家混合模型 (SMoE)。根据 Apache 2.0 许可。 Mixtral 在大多数基准测试中都优于 Llama 2 70B,推理速度提高了 6 倍。它是最强大的开放权重模型,具有宽松的许可证,也是成本/性能权衡方面的最佳模型。特别是,它在大多数标准基准测试中匹配或优于 GPT3.5。
Mixtral 的特点
- 可以优雅地处理 32k 令牌的上下文。
- 可以处理英语、法语、意大利语、德语和西班牙语。
- 在代码生成方面表现出强大的性能。
基于 Hugging Face Transformers 使用 mixtral
代码语言:python代码运行次数:0运行复制## Use a pipeline as a high-level helper
from transformers import pipeline
def test_mixtral():
pipe = pipeline("text-generation", model="mistralai/Mixtral-8x7B-Instruct-v0.1")
pipe("请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest"))
使用 langchain 调用 mixtral
代码语言:python代码运行次数:0运行复制def test_mixtral():
llm = Ollama(model="mixtral", base_url="http://localhost:11434")
r = llm.invoke('请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest')
debug(r)
总结
Mixtral 是一种具有开放权重的高质量稀疏专家混合模型。
本文标签: mixtral大模型
版权声明:本文标题:mixtral大模型 内容由林淑君副主任自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.xiehuijuan.com/baike/1754770489a1706186.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论