R1 — общедоступная языковая модель (LLM) из Китая, которая превосходит ChatGPT-o1 по бенчмаркам в задачах на размышление: математика, программирование и решение сложных задач. оригинальная модель содержит 671 миллиард параметров и занимает 404 ГБ, но после сжатия размер уменьшается до 32 миллиардов параметров или 20 ГБ.
в отличие от традиционных LLM, R1 обучали с использованием reinforcement learning, что дало офигенные результаты при минимальном использовании размеченных данных.
разработка R1 составила менее $5 миллионов тогда как ChatGPT-o1 стоил $100 миллионов. такая разница привела к кровавой реакциям на фондовом рынке, больше всех пострадала Nvidia
модель общедоступна, хоть скачайте бесплатно и используйте оффлайн. модели объёмом 8 ГБ запускаются на обычных устройствах, хотя качество работы будет ниже. или попробуйте на китайских серверах.
эта модель стала прорывом сразу в нескольких аспектах, из-за чего вокруг неё столько шума
лопнул пузырь в AI; DeepSeek продемонстрировали, что возможно создать топовую модель с меньшими затратами и по доступной цене для пользователей. а то что выпустили в open-source это
доп. материалы скину в комментарии, если я забыл что, можете тоже добавить ;)