| | --- |
| | license: apache-2.0 |
| | datasets: |
| | - Vikhrmodels/GrandMaster2 |
| | language: |
| | - ru |
| | - en |
| | base_model: |
| | - p-e-w/Qwen3-4B-Instruct-2507-heretic |
| | --- |
| | |
| | # 🧙♂️ LLightPro |
| |
|
| | <div align="center"> |
| |
|
| |  |
| |  |
| |  |
| |  |
| |  |
| |
|
| | ### Компактная модель. Мощная логика. |
| |
|
| | *Высококачественная дообучка экспериментальной модели для продвинутых рассуждений на русском языке* |
| |
|
| | [🤗 Hugging Face](https://huggingface.co/your-username/model-name) • [📊 Dataset](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2) • [🔧 Base Model](https://huggingface.co/p-e-w/Qwen3-4B-Instruct-2507-heretic) |
| |
|
| | </div> |
| |
|
| | --- |
| |
|
| | ## 📖 О модели |
| |
|
| | **LLightPro** — это специализированная дообучка экспериментальной базовой модели `p-e-w/Qwen3-4B-Instruct-2507-heretic`, оптимизированная для **русского языка** и сложных задач рассуждения, программирования и логических головоломок с использованием элитного датасета **GrandMaster2**. |
| |
|
| | В отличие от стандартных LoRA-дообучек, эта модель использует технологию **DoRA** (Weight-Decomposed Low-Rank Adaptation), что позволяет ей изучать тонкие нюансы рассуждений без катастрофического забывания. Обучение проводилось в чистом **bfloat16** (без квантизации) на NVIDIA RTX 4090 для максимальной точности. |
| |
|
| | --- |
| |
|
| | ## ✨ Ключевые особенности |
| |
|
| | | Особенность | Описание | |
| | |-------------|----------| |
| | | 🧠 **Продвинутая архитектура** | Построена на экспериментальной версии Qwen3 "Heretic" | |
| | | 🇷🇺 **Русский язык** | Дообучена для высококачественной работы с русским языком | |
| | | ⚡ **Технология DoRA** | Weight-Decomposed LoRA (r=64, alpha=128) для превосходной способности обучения | |
| | | 💎 **Безкомпромиссное качество** | Обучение в нативной точности bfloat16 без квантизации | |
| | | 📚 **Элитные данные** | Дообучка на оптимизированной версии Vikhrmodels/GrandMaster2 | |
| | | 🎯 **Точная настройка** | Низкая скорость обучения с косинусным планировщиком для предотвращения переобучения | |
| |
|
| | --- |
| |
|
| | ## 🎯 Основные применения |
| |
|
| | - 💬 **Диалоговые системы** на русском языке |
| | - 🧩 **Логические задачи** и головоломки |
| | - 💻 **Генерация кода** с комментариями на русском |
| | - 🎭 **Ролевые игры** (Role-playing) |
| | - 📝 **Сложные рассуждения** и анализ |
| | - 🤖 **Ассистенты** для русскоязычных пользователей |
| |
|
| | --- |
| |
|
| | ## 📊 Технические детали обучения |
| |
|
| | <table> |
| | <tr> |
| | <td width="50%"> |
| |
|
| | **⚙️ Оборудование и время** |
| | - 🖥️ GPU: NVIDIA RTX 4090 (24GB) |
| | - ⏱️ Время обучения: ~30 часов |
| | - 🔢 Эпохи: 1 (для избежания переобучения) |
| |
|
| | </td> |
| | <td width="50%"> |
| |
|
| | **🧬 Архитектура** |
| | - 📦 Базовая модель: Qwen3-4B Heretic |
| | - 🎛️ Метод: DoRA (все линейные слои) |
| | - 📈 Rank: 64 / Alpha: 128 |
| | - 📏 Контекст: 4096 токенов |
| |
|
| | </td> |
| | </tr> |
| | <tr> |
| | <td width="50%"> |
| |
|
| | **🔬 Точность** |
| | - 💾 Precision: bfloat16 |
| | - 🚫 Без квантизации при обучении |
| | - ⚡ Оптимизатор: paged_adamw_8bit |
| |
|
| | </td> |
| | <td width="50%"> |
| |
|
| | **📚 Данные** |
| | - 📖 Датасет: GrandMaster2 (оптимизированный) |
| | - 🎯 Фокус: Русский язык + reasoning |
| | - 🎲 Специализация: Role-playing |
| |
|
| | </td> |
| | </tr> |
| | </table> |
| |
|
| | --- |
| |
|
| | ## 💻 Использование |
| |
|
| | ### 🐍 Python (Transformers) |
| |
|
| | ```python |
| | import torch |
| | from transformers import AutoTokenizer, AutoModelForCausalLM |
| | |
| | # Загрузка модели |
| | model_id = "AugustLight/LLightPro" |
| | tokenizer = AutoTokenizer.from_pretrained(model_id) |
| | model = AutoModelForCausalLM.from_pretrained( |
| | model_id, |
| | torch_dtype=torch.bfloat16, |
| | device_map="auto" |
| | ) |
| | |
| | # Пример использования |
| | messages = [ |
| | {"role": "system", "content": "Ты полезный ассистент, заточенный на помощь в ответах на вопросы на русском языке."}, |
| | {"role": "user", "content": "Напиши функцию на Python для решения задачи о рюкзаке с использованием динамического программирования."} |
| | ] |
| | |
| | text = tokenizer.apply_chat_template( |
| | messages, |
| | tokenize=False, |
| | add_generation_prompt=True |
| | ) |
| | |
| | inputs = tokenizer(text, return_tensors="pt").to(model.device) |
| | |
| | outputs = model.generate( |
| | **inputs, |
| | max_new_tokens=1024, |
| | temperature=0.7, |
| | top_p=0.9, |
| | do_sample=True |
| | ) |
| | |
| | response = tokenizer.decode(outputs[0], skip_special_tokens=True) |
| | print(response) |
| | ``` |
| |
|
| | ### 🦙 llama.cpp (GGUF) |
| |
|
| | ```bash |
| | # Скачайте GGUF версию модели |
| | # Запустите с помощью llama.cpp |
| | ./main -m model.gguf -p "Ты полезный ассистент..." -n 512 |
| | ``` |
| |
|
| | ### 📝 Рекомендуемые параметры генерации |
| |
|
| | ```python |
| | generation_config = { |
| | "max_new_tokens": 1024, |
| | "temperature": 0.7, # Для творческих задач: 0.8-1.0 |
| | "top_p": 0.9, |
| | "top_k": 50, |
| | "repetition_penalty": 1.1, |
| | "do_sample": True |
| | } |
| | ``` |
| |
|
| | --- |
| |
|
| | ## 🎨 Примеры промптов |
| |
|
| | <details> |
| | <summary>💬 Диалоговый ассистент</summary> |
| |
|
| | ```python |
| | messages = [ |
| | {"role": "system", "content": "Ты дружелюбный и полезный ассистент."}, |
| | {"role": "user", "content": "Объясни принцип работы нейронных сетей простыми словами."} |
| | ] |
| | ``` |
| | </details> |
| |
|
| | <details> |
| | <summary>💻 Генерация кода</summary> |
| |
|
| | ```python |
| | messages = [ |
| | {"role": "system", "content": "Ты опытный программист Python."}, |
| | {"role": "user", "content": "Создай класс для работы с двоичным деревом поиска с методами вставки и поиска."} |
| | ] |
| | ``` |
| | </details> |
| |
|
| | <details> |
| | <summary>🎭 Ролевая игра</summary> |
| |
|
| | ```python |
| | messages = [ |
| | {"role": "system", "content": "Ты мудрый волшебник из средневекового фэнтези мира."}, |
| | {"role": "user", "content": "Расскажи мне о древнем артефакте, который я нашел."} |
| | ] |
| | ``` |
| | </details> |
| |
|
| | --- |
| |
|
| | ## 📈 Производительность |
| |
|
| | - ✅ **Русский язык**: Высокое качество генерации текста |
| | - ✅ **Reasoning**: Улучшенные способности к логическим рассуждениям |
| | - ✅ **Coding**: Качественная генерация кода с комментариями |
| | - ✅ **Role-playing**: Глубокая проработка персонажей |
| | - ⚠️ **Размер**: 4B параметров — компактная и быстрая модель |
| |
|
| | --- |
| |
|
| | ## ⚠️ Ограничения |
| |
|
| | - 📏 Контекст ограничен 4096 токенами |
| | - 🔬 Экспериментальная базовая модель может иметь непредсказуемое поведение |
| | - 🌐 Оптимизирована в первую очередь для русского языка |
| | - 📊 Может требовать дополнительной настройки для специфических задач |
| |
|
| | --- |
| |
|
| | ## 📜 Лицензия |
| |
|
| | Эта модель следует лицензированию базовой модели Qwen и датасета GrandMaster. Пожалуйста, обратитесь к оригинальным репозиториям для подробной информации о лицензиях: |
| |
|
| | - [Qwen License](https://huggingface.co/Qwen) |
| | - [GrandMaster2 Dataset](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2) |
| |
|
| | --- |
| |
|
| | ## 🙏 Благодарности |
| |
|
| | - **Base Model**: [p-e-w/Qwen3-4B-Instruct-2507-heretic](https://huggingface.co/p-e-w/Qwen3-4B-Instruct-2507-heretic) |
| | - **Dataset**: [Vikhrmodels/GrandMaster2](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2) |
| | - **Training Framework**: [HuggingFace TRL](https://github.com/huggingface/trl) & [PEFT](https://github.com/huggingface/peft) |
| |
|
| | --- |
| |
|
| | ## 💜 Особая благодарность |
| |
|
| | Огромная благодарность **[AniworldAI](https://t.me/aniworldai)** за предоставленные вычислительные мощности для обучения этой модели! |
| |
|
| | Без их поддержки эта работа была бы невозможна. ❤️ |
| |
|
| | --- |
| |
|
| | <div align="center"> |
| |
|
| | ### Обучено с ❤️ используя TRL и PEFT |
| |
|
| | **Вопросы? Предложения? Создайте Issue!** |
| |
|
| | ⭐ Если модель вам помогла, поставьте звёздочку! |
| |
|
| | </div> |