
🧨 使用LLaMA-Factory微调Qwen3
本文从为什么需要微调开始,详细介绍了微调的作用、工具,数据集的构建、工具,数据集增强,实际微调步骤,微调参数配置。并使用gpt4o生成相关讲解图片。
2025-05-20
39 min
共找到 19 篇文章

本文从为什么需要微调开始,详细介绍了微调的作用、工具,数据集的构建、工具,数据集增强,实际微调步骤,微调参数配置。并使用gpt4o生成相关讲解图片。

本文详细介绍了MCP Server与MCP Client的开发并给出了示例代码,支持将MCP tool转换为OpenAI tool,使其支持了使用VLLM部署的本地大模型Qwen3-32B。并进行了简单的测试验证,完整的完成了数据库查询,文件写入等MCP tool的调用。



该文档介绍了关于LLM模型部署的内容,包括模型选择、模型下载、模型部署方案以及模型使用和加速方法。推荐的部署方案是使用docker部署,同时提供了本地环境部署的方法。模型加速方面介绍了vllm和flash-attention两种方法。embdding模型,rerank模型

在选择大模型之前,需要明确自己对语言、通识、推理、数学、代码、长文本和工具等七大能力的偏好。评测指标包括MMLU、C Eval、ARC-C、BBH、GSM8K、MBPP、Human Eval、L-Eval和T-Eval。常用榜单包括OpenCompass司南榜单、Huggingface榜单和MTEB榜单。


本文介绍了如何修改FastChat以支持工具调用和LangGraph适配FastChat的问题。针对
