--- license: apache-2.0 language: - zh - en - fr - de base_model: - Qwen/Qwen2.5-1.5B tags: - electronic-information - education - ascend - mindspore - edge-computing library_name: transformers pipeline_tag: text-generation --- # EE-Model-1.5B (Electronic Information Discipline Model)
[English](README_EN.md) | [简体中文](README.md) **全球首个电子信息学科轻量化大模型** *赋能高校教研,基于昇腾端边云协同架构*
## 模型概述 (Model Overview) **EE-Model-1.5B** 是"鸿斛"电子信息专业引擎的核心组件之一,专为电子信息学科设计的轻量化语言模型。 针对该学科知识点复杂、技术迭代快、跨学科性强等痛点,我们构建了包含3万余条高质量数据的 **EE-Bench** 评测基准,并基于 **昇腾 (Ascend)** 全栈技术体系(MindSpore + MindIE + CANN)进行了全流程的训练与微调。 EE-Model-1.5B 专为 **端侧/边侧 (Edge)** 部署设计(如昇腾香橙派 OrangePi AIPro),拥有极致的推理速度和极低的资源占用,能够与云端大模型(EE-Model-72B)协同工作,实现智能路由与高效负载均衡。 ## 核心亮点 (Key Features) - **学科专精**:填补了电子信息领域学科大模型的空白,涵盖"信号与系统"、"通信原理"、"数字信号处理"等八大核心课程。 - **端侧优化**:1.5B 参数量经过知识蒸馏与剪枝,适配资源受限的边缘设备,支持快速响应简单任务与路由决策。 - **全栈国产化**:从训练(Ascend 910B + MindSpore)到推理(MindIE),完全基于国产算力底座构建,安全可控。 - **多语言支持**:支持中、英、法、德四国语言,面向全球学术交流场景。 ## 训练数据 (Training Data) 本模型基于全球首个电子信息学科能力评测基准数据集 **EE-Bench** 进行微调。 - **数据规模**:30,000+ 条高质量专业指令数据。 - **覆盖范围**:涵盖 20+ 电子信息核心知识点体系。 - **题型多样**:包含编程、单选、多选、计算、简答、判断、填空、证明、综合九大题型。 - **构建方式**:基于 Mineru 自动化提取教材/真题 + 人工清洗 + 专家校验。 ## 模型训练 (Model Training) EE-Model-1.5B 的训练依托于 **Ascend 910B** 集群,利用 **LLaMA-Factory** 统一训练框架进行微调。 - **基础模型**:Qwen2.5-1.5B (Base) / DeepSeek (Distilled) - **硬件环境**:Huawei Ascend 910B (NPU) - **训练框架**:MindSpore, MindSpeed - **训练方法**: - SFT (Supervised Fine-Tuning) - DPO (Direct Preference Optimization) - Knowledge Distillation (from EE-Model-72B) ## 模型推理 (Inference) 本模型完美适配 **MindIE** 推理加速框架,也可通过 Hugging Face `transformers` 库进行通用推理。 ### 快速开始 (Python) ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch # 加载模型 model_path = "HongHuTeam/EE-Model-1.5B" tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained( model_path, device_map="auto", torch_dtype=torch.float16 ) # 电子信息专业问题示例 prompt = "请解释麦克斯韦方程组在电磁场理论中的物理意义。" messages = [ {"role": "system", "content": "你是一名电子信息学科的专业助教。"}, {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate( **model_inputs, max_new_tokens=512 ) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response) ``` ### 昇腾 MindIE 部署 (Ascend MindIE) 针对昇腾硬件(如 OrangePi AIPro),建议使用 MindIE 进行高性能推理: ```bash # MindIE Service 启动示例 # Coming Soon: 详细的 MindIE 配置文件和启动脚本将在后续更新中提供 ``` ## 模型效果 (Model Performance) EE-Model-1.5B 在 **EE-Bench** 上展现了优秀的性能,特别是在处理基础概念问答和路由判别任务上。 | Model | Parameters | EE-Bench Score | | :--- | :---: | :---: | | **EE-Model-72B** | 72B | **94.70%** | | **EE-Model-1.5B** | 1.5B | **68.35%** | | GPT-4o | - | 71.00% | | Qwen2.5-72B-Instruct | 72B | 70.12% | | Qwen2.5-1.5B-Instruct | 1.5B | 45.28% | *注:EE-Model-1.5B 在同等参数量级下显著超越基座模型,且接近 GPT-4o 水平。1.5B 版本主要侧重于轻量化与边缘端快速响应。* ## 应用场景 (Applications) 基于 **端边云协同智能路由架构**,EE-Model-1.5B 主要承担以下职责: 1. **L3-路由决策**:精准判别用户提问的文本复杂度,决定任务是在本地处理还是上传云端。 2. **简单任务速答**:快速处理概念查询、名词解释等低算力需求任务。 3. **本地隐私保护**:在边缘端处理敏感数据,减少上云需求。 ## 协议与引用 (License & Citation) 本项目遵循 Apache 2.0 开源协议。 如果您在研究中使用了本模型或数据集,请按如下格式引用: ```bibtex @misc{honghu2025eemodel, title={EE-Model: Electronic Information Professional Engine based on Ascend}, author={Honghu Team}, year={2025}, publisher={GitHub/HuggingFace}, howpublished={\url{https://huggingface.co/HongHuTeam/EE-Model-1.5B}} } ``` ## 免责声明 (Disclaimer) 虽然 EE-Model 在电子信息专业数据上进行了深度微调,但作为语言模型,它仍可能产生幻觉或错误信息。涉及电路设计、安全规范等关键决策时,请务必咨询专业人士或参考权威教材。 --- *Last Update: 2025-12-07* *Created by the Honghu Team (鸿斛战队)*