admin管理员组文章数量:1794759
浦语·灵笔2(XComposer2)模型部署及使用
官网:/ 论文地址:.03320 项目地址: 体验地址:
InternLM-XComposer-2.5 模型框架
InternLM-XComposer-2.5 主要功能
多轮多图像对话:浦语•灵笔2.5 支持自由形式的多轮多图像对话,使其能够在多轮对话中与人类自然互动。
细粒度视频理解:浦语•灵笔2.5 将视频视为由数十到数千帧组成的超高分辨率复合图像,从而通过密集采样和每帧更高的分辨率捕捉细节。
超高分辨率理解:浦语•灵笔2.5使用560×560分辨率的VT视觉编码器增强了 IXC2-4KHD 中提出的动态分辨率解决方案,支持具有任意纵横比的高分辨率图像。
- 网页制作:浦语•灵笔2.5 可以通过遵循文本-图像指令来创建网页,包括源代码(HTML、CSS和JavaScript)的组合。
高质量文本-图像文章创作:浦语•灵笔2.5利用特别设计的“思维链”(CoT)和“直接偏好优化”(DPO)技术,显著提高了其创作内容的质量
出色的性能:浦语•灵笔2.5 在 28 个基准测试中进行了评估,在16个基准测试上优于现有的开源先进模型。它还在16个关键任务上超越或与 GPT-4V 和 Gemini Pro 表现相近。
浦语·灵笔2(XComposer2)模型部署
打卡开发机 --- share 找到模型
代码语言:javascript代码运行次数:0运行复制conda activate lmdeploy
pip install modelscope==1.9.5 -i /
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b
cd /root/models/
复制
启动API服务器
首先让我们进入创建好的conda环境,并通下命令启动API服务器
代码语言:javascript代码运行次数:0运行复制lmdeploy serve api_server \
/root/models/internlm-xcomposer2-7b \
--model-format hf \
--quant-policy 0 \
--server-name 0.0.0.0 \
--server-port 23333 \
--tp 1
复制
命令解释:
- lmdeploy serve api_server:这个命令用于启动API服务器。
- /root/models/internlm2_5-7b-chat:这是模型的路径。
- --model-format hf:这个参数指定了模型的格式。hf代表“Hugging Face”格式。
- --quant-policy 0:这个参数指定了量化策略。
- --server-name 0.0.0.0:这个参数指定了服务器的名称。在这里,0.0.0.0是一个特殊的IP地址,它表示所有网络接口。
- --server-port 23333:这个参数指定了服务器的端口号。在这里,23333是服务器将监听的端口号。
- --tp 1:这个参数表示并行数量(GPU数量)。
稍待片刻,终端显示如下。
code及技术报告
InternLM/InternLM-XComposer: InternLM-XComposer-2.5: A Versatile Large Vision Language Model Supporting Long-Contextual Input and Output
[2407.03320] InternLM-XComposer-2.5: A Versatile Large Vision Language Model Supporting Long-Contextual Input and Output
本文标签: 浦语灵笔2(XComposer2)模型部署及使用
版权声明:本文标题:浦语·灵笔2(XComposer2)模型部署及使用 内容由林淑君副主任自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.xiehuijuan.com/baike/1754615535a1704410.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论