Hugging Face выкатили бесплатный гайд на 100 страниц по обучению крупных LLM.
В гайде есть буквально всё:
🟢 Много базовой и продвинутой теории с красивыми графиками
🟢 Объяснение последних событий в отрасли: например, как DeepSeek обучила модель за $5M, почему Mistral выбрала структуру Mixture of Experts (MoE).
🟢 Плюс два репозитория для практики — picotron (учебный) и nanotron (готовые реализации).
@xor_journal