LLM под капотом @llm_under_hood Channel on Telegram

LLM под капотом

LLM под капотом
Канал про разработку продуктов на базе LLM/ChatGPT. Выжимка важных новостей и разборы кейсов.
12,337 Subscribers
220 Photos
5 Videos
Last Updated 04.03.2025 16:16

Similar Channels

Neural Shit
46,584 Subscribers
NLP Core Team
2,970 Subscribers

Разработка продуктов на базе LLM: Взгляд изнутри

В последние годы мы наблюдаем стремительный рост интереса к технологиям обработки естественного языка (NLP), особенно к Large Language Models (LLM), таким как ChatGPT. Эти модели, основанные на глубоком обучении и больших объемах данных, открывают новые горизонты в разработке продуктов и услуг, которые могут взаимодействовать с пользователями на естественном языке. LLM позволяют создавать чат-ботов, автоматизированные помощники, системы для анализа текстов и многое другое, что делает их незаменимыми инструментами для бизнеса, разрабатывающего инновационные решения. С каждым днем появляются новые исследования и примеры применения LLM, что подтверждает их огромный потенциал для трансформации различных отраслей, включая образование, здравоохранение, финансы и маркетинг.

Что такое LLM и как они работают?

Large Language Models (LLM) представляют собой сложные нейронные сети, которые обучены на огромных наборах текстовых данных. Они способны генерировать текст, предсказывать слова и даже вести разговоры на естественном языке. Основная идея заключается в том, что такие модели изучают структуру языка и его правила, что позволяет им создавать осмысленные и контекстуально уместные ответы.

Работа LLM заключается в обучении модели на больших объемах текстов, где она анализирует соотношения между словами, фразами и предложениями. Во время процесса обучения модель оптимизирует свои параметры, чтобы максимально точно предсказывать следующее слово в предложении на основе предыдущих. Это делает LLM мощным инструментом для обработки и генерации естественного языка.

Как LLM применяются в бизнесе?

LLM находят широкое применение в бизнесе благодаря своей способности автоматизировать многие процессы, которые ранее требовали человеческого участия. Например, компании используют чат-ботов на базе LLM для обслуживания клиентов, что позволяет значительно сократить время ответа и повысить удовлетворенность пользователей.

Кроме того, LLM применяются в маркетинге для анализа потребительских предпочтений и создания персонализированных предложений. Автоматизация задач, таких как написание маркетинговых текстов или анализ отзывов, помогает компаниям быть более эффективными и адаптивными к изменениям на рынке.

Каковы основные преимущества использования LLM?

Одним из главных преимуществ LLM является возможность обработки больших объемов данных в реальном времени, что позволяет быстро получать необходимые результаты и принимать решения на основе актуальной информации. Также они способны улучшать качество взаимодействия с клиентами, предоставляя более быстрые и точные ответы на запросы.

Другим важным преимуществом является адаптивность LLM. Модели могут обучаться на новых данных, что позволяет им оставаться актуальными и улучшаться с течением времени. Это открывает возможности для постоянного совершенствования продуктов и услуг, основанных на LLM.

Какие вызовы стоят перед разработчиками LLM?

Несмотря на множество преимуществ, разработка и внедрение LLM также сопряжены с рядом вызовов. Одним из основных является необходимость в больших объемах данных для обучения, что может быть затруднительно для некоторых организаций. Кроме того, необходимо учитывать этические аспекты использования таких технологий.

Еще одним вызовом является сложность в адаптации LLM к специфическим задачам и контекстам. Модели могут давать некорректные или вводящие в заблуждение ответы, если они не были должным образом обучены на соответствующих данных. Поэтому разработчикам приходится уделять внимание как качеству данных, так и процессу обучению.

Как LLM влияют на будущее технологий?

Будущее технологий, основанных на LLM, представляется очень перспективным. Ожидается, что с развитием технологий и увеличением доступных данных, LLM станут еще более мощными и универсальными инструментами для решения различных задач. Это может привести к новым инновациям в области автоматизации и взаимодействия с пользователями.

Кроме того, LLM могут кардинально изменить способы, которыми мы работаем с информацией. Ожидается, что технологии обработки естественного языка будут активно использоваться в таких областях, как наука, право, журналистика и даже искусство, что создаст новые возможности для междисциплинарного сотрудничества и исследований.

LLM под капотом Telegram Channel

Добро пожаловать на канал "LLM под капотом"! Если вы интересуетесь разработкой продуктов на базе LLM/ChatGPT, то этот канал именно для вас. Здесь вы найдете выжимку важных новостей и разборы кейсов, связанных с использованием LLM и ChatGPT. Наш канал предлагает уникальную возможность быть в курсе последних тенденций и разработок в этой области, а также изучить успешные кейсы и уроки из практики. Наша цель - помочь вам погрузиться в мир разработки продуктов на базе LLM/ChatGPT и дать вам необходимые знания и инструменты для успешной работы. Присоединяйтесь к нам сегодня и станьте частью сообщества профессионалов, увлеченных разработкой продуктов с использованием LLM и ChatGPT!

LLM под капотом Latest Posts

Post image

На чем запускать локальные модели?

В нашем комьюнити очень много людей и команд с практическим опытом локального разнообразных систем с LLM под капотом. Это видно по RAG решениям на ERC, обсуждениям в чате и представлениям в группе курса.

А давайте поговорим про то, как вы запускаете свои системы для пользователей? Речь не столько про запуск через ollama на ноутбуке, сколько про разворачивание системы для 5-30 одновременных пользователей (скорее throughput, чем latency).

- Какие модели используете?
- Как заводите Structured Outputs (если используете)?
- Какое железо и inference framework под капотом, с какими параметрами?
- Сколько tokens per second получается выжать и с какими контекстами.

Но, самое главное, как оно вообще вам на практике?

Ваш, @llm_under_hood 🤗

PS: Если кажется, что в комментариях дискуссия прервалась - она могла отвязаться от обсуждения и провалиться в чат канала: @llm_driven_products.

PPS: Если впервые заходите в чат, пожалуйста, не игнорируйте запрос от нашего бота. Он бдит, банит ботов и не понимает шуток.

04 Mar, 08:26
3,200
Post image

Презентация «The Power of Context» от Stefan Gillich (директор AI GTM в Intel).

Основная часть довольно техническая, но потом он отвечал на вопросы из нашего канала. В основном, это было про то, какой AI нынче востребован крупным бизнесом.

https://youtu.be/_2gPwGSSxs0

Ваш, @llm_under_hood 🤗

03 Mar, 15:10
4,133
Post image

Самые популярные архитектуры в Enterprise RAG Challenge

Вот вам краткая выжимка того, что люди использовали во время Enterprise RAG Challenge round 2. Она сделана на основе анализа 55 описаний архитектур, которые заполнили команды.

🤗 Спасибо всем, кто участвовал и заполнял! 🤗

Key Takeaways

- RAG is near-universal. Almost every approach tries to solve the “long PDF → targeted answer” problem by chunking, storing embeddings, retrieving relevant sections, then letting the model “read” only those sections.
- Structured prompts (with JSON/Pydantic) were popular to ensure consistent outputs—particularly for numeric or Boolean questions that required a definite format.
- Chain-of-thought or multi-step reasoning is common, sometimes with multiple LLM calls for expansions, validations, or final re-checks.
- Performance + Cost trade-offs surfaced: several teams used “fast & cheap” LLMs for search or chunk-labelling, then a heavier model (e.g., GPT-4o) for final answers.

Most submissions combined:
- Document parsing (Docling, PyMuPDF, or similar),
- Vector or keyword-based retrieval (FAISS, Qdrant, BM25, etc.),
- Iterative LLM-based reasoning (chain-of-thought or agent-like flows),
- Structured response schemas (Pydantic or JSON).

Despite the variety of LLM families (OpenAI GPT-4o variants, Llama, Gemini, Qwen, DeepSeek, IBM Granite, Microsoft phi, etc.), the underlying RAG pipeline structure remained strikingly consistent: parse PDFs, embed or index them, fetch relevant chunks, and prompt an LLM to produce carefully formatted answers.

А то, насколько хорошо все эти архитектуры показали себя в рамках соревнования - мы узнаем уже в эту пятницу.

Ваш, @llm_under_hood 🤗

03 Mar, 10:16
4,704
Post image

Бенчмарк OpenAI GPT-4.5 preview - не докручивает

Новый GPT-4.5 preview в моем reasoning бенчмарке внезапно показал себя всего лишь на уровне топового GPT-4o, что не очень много.

Я пока не буду делать поспешных выводов о качестве модели. Это preview версия, и все может сильно поменяться (у Google такое бывало не раз с preview версиями). Плюс сам бенчмарк довольно нишевый под бизнес задачи, и пока не заполнен кейсами до конца.

Давайте посмотрим, как эта модель думает и где подскальзывается.

Как я запускаю модели без Reasoning режима в бенчмарке? В StructuredOutput схеме у меня есть специальные "слоты" на размышления. В каждом тесте - своя схема. Эти слоты расположены таким образом, чтобы в процессе ответа помогать модели двигаться в правильном направлении. В итоге у нас получается паттерн Checklist/Custom CoT, который хорошо работает в бизнес-кейсах.

Один из тестов в новом бенчмарке - работа с кодом и доменными моделями. Дается здоровый файл с event sourcing aggregate для кредитной карты (баланс, транзакции, лимиты, KYC, авторизации итп) вместе со спеками. LLM задается вопрос о последствиях добавления новой фичи:

Which specs would fail, if I add a new feature to automatically block the card and decline any transaction above 1,000 (regardless of available credit)?

Посмотрим, как решает эту задачу GPT-4.5 preview - см short_thought_steps. Она смотрит список всех спеков, где идет речь о транзакциях больше $1000, проверяет их и дает варианты:


{
"short_thought_steps": [
"Review transaction-related specs.",
"Identify specs with transactions over 1,000.",
"Check if these specs expect successful transactions."
],
"failing_spec_names": [
"authorize_transaction_success",
"make_payment_success",
"close_card_success",
"close_card_fails_if_balance_not_zero"
]
}


Кстати, правильный ответ в данном тесте - сломаются спеки "authorize_transaction_success", "transaction_declined_over_limit"

Что говорит claude-sonnet-3.5 (без reasoning) в этом тесте? Модель анализирует глубже и дает более корректные выводы:


{
"short_thought_steps": [
"1. The new feature will block cards and decline transactions over $1,000",
"2. Need to identify specs that authorize transactions over $1,000 and expect success",
"3. Need to identify specs that assume a card stays active after a large transaction",
"4. Need to check specs that assume transactions are only declined for credit limit reasons"
],
"failing_spec_names": [
"authorize_transaction_success",
"post_transaction_success",
"transaction_declined_over_limit"
]
}


А что же делает deepseek-r1-llama-70b? Почему эта небольшая локальная модель по очкам работает лучше, чем GPT-4.5 и куча других моделей?

Этот тюн Llama-70B научился включать reasoning режим и думать тензорами, закидывая проблему токенами.

Она сначала подумает текстом, а потом в том же промпте выдаст правильный ответ. Пусть у нее нет выделенного reason режима (нельзя контроллировать в рамках одного промпта, сколько она думает), но изображает она его очень неплохо (см полный текст ответа).

В итоге финальные рассуждения правильны:


{
"short_thought_steps": [
"Identify specs where transactions exceed 1000",
"Check if these specs expect successful authorization",
"Determine if the new feature changes the expected outcome"
],
"failing_spec_names": [
"authorize_transaction_success",
"transaction_declined_over_limit"
]
}


Понятно, что это только один из примеров. Но в среднем по больнице такая картина сохраняется и на других тестах. GPT-4.5-preview пока не только проигрывает reasoning моделям (что ожидаемо), но и отстает от обычных моделей, которые могут изображать reasoning при наличии доступных слотов.

Ваш, @llm_under_hood 🤗

27 Feb, 22:00
7,120