Machine learning Interview Telegram Gönderileri

Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.
Вопросы - @notxxx1
@itchannels_telegram -🔥лучшие it каналы
РКН: clck.ru/3FmwRz
Вопросы - @notxxx1
@itchannels_telegram -🔥лучшие it каналы
РКН: clck.ru/3FmwRz
23,790 Abone
883 Fotoğraf
55 Video
Son Güncelleme 06.03.2025 12:50
Benzer Kanallar

14,502 Abone

3,667 Abone

1,857 Abone
Machine learning Interview tarafından Telegram'da paylaşılan en son içerikler
Наши друзья из ecom.tech запустили видео-подкаст “AI в действии”. В нем они говорят о свежих новостях в мире DS, о трендах и о том, как наука может найти свое применение в бизнесе.
Ведущий подкаста — Петр Лукьянченко, руководитель ML-департамента в eсom.teсh.
Уже опубликовали два эпизода: в первом гостем был Алексей Масютин, руководитель Центра Искусственного интеллекта НИУ ВШЭ. Порассуждали о том, как сегодня начинать свой путь в data science, что представляет из себя DS в крупных IT-компаниях и даже успели немного погрузиться в специфику разработки и развития мультимодальных архитектур.
Гостем второго выпуска стал Юрий Дорн, руководитель программы AI Masters в Институте ИИ МГУ.
В этой части говорили о том, где заканчивается теория и начинается практика в DS. Когда нужно перестать читать книги и начать писать код? Что нужно знать, чтобы быть классным специалистом? А может быть, теория переоценена и нужно сразу идти соревноваться на kaggle? Постарались сформулировать набор советов для тех, кто думает, с какой стороны подступиться к изучению Data Science и как правильно найти учебный материал, подходящий под конкретную ситуацию.
Первый эпизод:
🙂 Смотреть
🙂 Слушать
Второй эпизод:
🙂 Смотреть
🙂 Слушать
Реклама. ООО «Умное пространство», ИНН: 7811554010. Ерид: 2W5zFJ36FGU
Ведущий подкаста — Петр Лукьянченко, руководитель ML-департамента в eсom.teсh.
Уже опубликовали два эпизода: в первом гостем был Алексей Масютин, руководитель Центра Искусственного интеллекта НИУ ВШЭ. Порассуждали о том, как сегодня начинать свой путь в data science, что представляет из себя DS в крупных IT-компаниях и даже успели немного погрузиться в специфику разработки и развития мультимодальных архитектур.
Гостем второго выпуска стал Юрий Дорн, руководитель программы AI Masters в Институте ИИ МГУ.
В этой части говорили о том, где заканчивается теория и начинается практика в DS. Когда нужно перестать читать книги и начать писать код? Что нужно знать, чтобы быть классным специалистом? А может быть, теория переоценена и нужно сразу идти соревноваться на kaggle? Постарались сформулировать набор советов для тех, кто думает, с какой стороны подступиться к изучению Data Science и как правильно найти учебный материал, подходящий под конкретную ситуацию.
Первый эпизод:
Второй эпизод:
Реклама. ООО «Умное пространство», ИНН: 7811554010. Ерид: 2W5zFJ36FGU
DeepSeek представили Fife-Flyer File System (3FS) – параллельную файловую систему, способную использовать всю пропускную способность современных SSD и RDMA-сетей.
• 6.6 TiB/s – суммарная скорость чтения в 180-узловом кластере
• 3.66 TiB/min – пропускная способность на GraySort в 25-узловом кластере
• 40+ GiB/s – пик производительности KVCache lookup на одном клиентском узле
Архитектура 3FS дезагрегирована и обеспечивает строгую согласованность, что делает её незаменимой для задач предварительной обработки данных, загрузки датасетов, сохранения контрольных точек и быстрого поиска эмбеддингов во время инференса (V3/R1).
Показатели 3FS демонстрируют, что будущее обработки данных лежит в использовании распределенных и дезагрегированных архитектур, где каждая компонента системы работает на максимуме своих возможностей.
В дополнение к Fife-Flyer File System, представлен Smallpond – фреймворк для обработки данных на базе этой системы, который помогает ещё больше упростить рабочие процессы с большими объёмами информации.
▪3FS → github.com/deepseek-ai/3FS
▪Smallpond → github.com/deepseek-ai/smallpond
@ai_machinelearning_big_data
#OpenSourceWee #DeepSeek #Smallpond #3FS #opensource
Авито ищет опытных DS-специалистов — пройдите ускоренный отбор и получите оффер за одни выходные!
Вас ждет:
— конкурентная зарплата и удаленка по всему миру;
— возможность прокачать свой стек – разрабатывать инструменты монетизации, автоматизировать алгоритмы, реализовывать ML-проекты и улучшать пользовательский опыт;
— участие в разработке новых продуктов и сильное IT-комьюнити, которое любит опенсорс.
Успейте присоединиться к Data Science Weekend Offer до 27 февраля и развивайте крупнейший в мире сервис объявлений: https://u.to/g7sDIg
Вас ждет:
— конкурентная зарплата и удаленка по всему миру;
— возможность прокачать свой стек – разрабатывать инструменты монетизации, автоматизировать алгоритмы, реализовывать ML-проекты и улучшать пользовательский опыт;
— участие в разработке новых продуктов и сильное IT-комьюнити, которое любит опенсорс.
Успейте присоединиться к Data Science Weekend Offer до 27 февраля и развивайте крупнейший в мире сервис объявлений: https://u.to/g7sDIg
Какие методы машинного обучения применяются для дизайна белков?
Расскажем на открытом уроке, посвященному курсу «Искусственный интеллект в медицине»
Узнаете, как современные алгоритмы помогают моделировать, предсказывать и оптимизировать структуру и функции белков.
Разберете основные подходы, включая языковые модели для белковых последовательностей и методы генеративного дизайна.
✅ Практика: Знакомство с современными инструментами и библиотеками, используемыми в белковой инженерии
👉 Регистрация и подробности:
https://otus.pw/drg4/?erid=2W5zFJUS6YG
#реклама
О рекламодателе
Расскажем на открытом уроке, посвященному курсу «Искусственный интеллект в медицине»
Узнаете, как современные алгоритмы помогают моделировать, предсказывать и оптимизировать структуру и функции белков.
Разберете основные подходы, включая языковые модели для белковых последовательностей и методы генеративного дизайна.
✅ Практика: Знакомство с современными инструментами и библиотеками, используемыми в белковой инженерии
👉 Регистрация и подробности:
https://otus.pw/drg4/?erid=2W5zFJUS6YG
#реклама
О рекламодателе
✔ MoBA: Mixture of Block Attention for Long-Context LLMs представляет собой революционное решение для обработки длинных контекстов в языковых моделях. Вот что в нём интересно:
• Инновационная архитектура:
- Блочное разреженная внимание: Полный контекст делится на блоки, и каждый токен учится выбирать наиболее релевантные блоки, что позволяет эффективно обрабатывать длинные последовательности.
• Параметрически независимый механизм выбора: Внедрён механизм топ-k без дополнительных параметров, который автоматически переключается между полным и разреженным вниманием, что делает модель гибкой и адаптивной.
• Эффективность и масштабируемость:
MoBA обеспечивает значительное ускорение (например, 6.5x скорость при 1 млн входных токенов) без потери производительности, что особенно важно для задач с длинным контекстом.
• Практическое применение:
Модель уже доказала свою эффективность в продакшене и демонстрирует превосходное качество работы.
Проект MoBA будет полезен всем, работающим над масштабированием LLMs и задачами с длинным контекстом, предоставляя эффективный и гибкий механизм внимания, который можно легко интегрировать в существующие системы.
▪ Github
@machinelearning_interview
• Инновационная архитектура:
- Блочное разреженная внимание: Полный контекст делится на блоки, и каждый токен учится выбирать наиболее релевантные блоки, что позволяет эффективно обрабатывать длинные последовательности.
• Параметрически независимый механизм выбора: Внедрён механизм топ-k без дополнительных параметров, который автоматически переключается между полным и разреженным вниманием, что делает модель гибкой и адаптивной.
• Эффективность и масштабируемость:
MoBA обеспечивает значительное ускорение (например, 6.5x скорость при 1 млн входных токенов) без потери производительности, что особенно важно для задач с длинным контекстом.
• Практическое применение:
Модель уже доказала свою эффективность в продакшене и демонстрирует превосходное качество работы.
Проект MoBA будет полезен всем, работающим над масштабированием LLMs и задачами с длинным контекстом, предоставляя эффективный и гибкий механизм внимания, который можно легко интегрировать в существующие системы.
▪ Github
@machinelearning_interview
🚀 Deep Seek представили NSA – инновационную Sparse Attention технологию для ультрабыстрого обучения и инференса с длинным контекстом!
Основные детали:
• Динамическая иерархическая разреженность – модель умело распределяет внимание, выделяя ключевые моменты в длинных последовательностях.
• Грубое сжатие токенов – снижает объём обрабатываемых данных без потери важной информации.
• Точный выбор токенов – сохраняет критически значимые детали для высокой точности.
Благодаря оптимизации под современное железо NSA не только ускоряет инференс, но и снижает затраты на предобучение, при этом демонстрируя результаты, сравнимые или превосходящие Full Attention модели на общих тестах, задачах с длинным контекстом и инструктивном рассуждении.
Подробности и технические детали в статье: https://arxiv.org/abs/2502.11089
@machinelearning_interview
Основные детали:
• Динамическая иерархическая разреженность – модель умело распределяет внимание, выделяя ключевые моменты в длинных последовательностях.
• Грубое сжатие токенов – снижает объём обрабатываемых данных без потери важной информации.
• Точный выбор токенов – сохраняет критически значимые детали для высокой точности.
Благодаря оптимизации под современное железо NSA не только ускоряет инференс, но и снижает затраты на предобучение, при этом демонстрируя результаты, сравнимые или превосходящие Full Attention модели на общих тестах, задачах с длинным контекстом и инструктивном рассуждении.
Подробности и технические детали в статье: https://arxiv.org/abs/2502.11089
@machinelearning_interview