ML — это ОК @mlvok Channel on Telegram

ML — это ОК

@mlvok


Канал ML-команды ОК. 12 лет делаем крутые вещи и делимся ими здесь

Контакты: @anokhinn

ML — это ОК (Russian)

Канал "ML — это ОК" приглашает вас в мир искусственного интеллекта и машинного обучения! Этот канал создан командой ОК, которая уже 12 лет занимается разработкой крутых проектов и теперь делится своими знаниями и опытом здесь. Если вам интересны последние тенденции в области ML, а также хотите узнать о новейших разработках и инновациях, то этот канал — то, что вам нужно! Наши специалисты постоянно обновляют контент, чтобы вы были в курсе всех событий и тенденций в мире искусственного интеллекта. Здесь вы найдете полезные статьи, видеоуроки, интересные подкасты и многое другое. Канал "ML — это ОК" — это возможность не только получить новейшие знания в области машинного обучения, но и общаться с единомышленниками, делиться своими идеями и опытом. Присоединяйтесь к нам прямо сейчас и станьте частью нашей дружной и профессиональной команды! Для связи с нами вы всегда можете обратиться к администратору канала по имени @netcitizen. Добро пожаловать в мир ML с каналом "ML — это ОК"!

ML — это ОК

14 Jan, 09:44


Data Ёлку в январе заказывали?🎄

Продлеваем праздничное настроение после Нового Года — 18 января вместе с ODS проведем настоящую Data Ёлку в офисе VK.

Что в программе:

📌подведение итогов года по самым разным направлениям современного DS/ML
📌разбор лучших решений соревнования VK RecSys Challenge
📌церемония ODS Awards: узнаем, чьи достижения будут отмечены больше всех

И, конечно, нетворкинг, афтепати и ламповое комьюнити у елочки.

Все детали будут появляться на сайте: регистрируйтесь тут и присоединяйтесь!

ML — это ОК

28 Dec, 11:39


🎉 Редакция канала очень спешит уйти на каникулы, поэтому ниже в двух словах о том, что мы делали в этом году, кроме работы:

1️⃣ Провели 21 публичную ридинг-группу.

2️⃣ Провели эпический разбор конференции RecSys 2024, на котором выступали авторы статей.

3️⃣ Выступали с докладами
- про инференс больших рекомендательных нейросеток
- про MLOps и инфраструктуру
- про удержание пользователей
- про науку и жизнь.

В этом году у нас многое менялось: проекты и продукты, инфраструктура, подходы и даже команды. Изменения — это сложно, но без них не бывает развития (кажется, биологи давно это поняли). Желаем вам, чтобы в 2025 году ваши изменения вели к росту метрик (по A/B), зарплат (после вычета налогов), скилов (которые не стыдно писать в резюме) и долгосрочного счастья. Специалисты по рекомендательным системам знают, что его нельзя измерить, а можно только почувствовать. Несмотря на все изменения, кое-что остается неизменным: мы продолжим делать крутые штуки и обязательно об этом расскажем.🎁🎄🥂

ML — это ОК

25 Dec, 10:26


🎬Запись ридинг-группы от 19 декабря. Обсудили объяснение рекомендаций. Ведущим был Николай Анохин.

ML — это ОК

19 Dec, 15:00


Начинаем

ML — это ОК

16 Dec, 13:32


🪬⚗️Пока мы весь год запускали эксперименты, тюнили модели и двигали метрики, люди решили все проблемы рекомендательных систем раз и навсегда (но это не точно). На прямой линии ридинг-группе 19 декабря обсудим статью Interact with the Explanations: Causal Debiased Explainable Recommendation System. Ведущим будет Николай Анохин, ведущий специалист по машинному обучению AI VK. Встреча начнется в 18:00.

Зум: ссылка

Meeting ID: 882 2722 2727
Passcode: 31337

ML — это ОК

11 Dec, 07:30


Посмотрим «Сквозь VK»? Новый подкаст про сквозные технологии в наших продуктах

Первый выпуск — о рекомендательных системах: насколько это сильное ML-колдунство, как их оценивать и тестировать, стоит ли полагаться на инструменты open source и чего ждать в будущем.

Примерами из жизни наших продуктов поделились Андрей Зимовнов, директор по ML в AI VK, и Андрей Кузнецов, ML-эксперт.

👀 Смотрите и подписывайтесь в 🍿 VK Видео и  Дзене

🎧 Слушайте на всех популярных платформах

#СквозьVK #ML

ML — это ОК

10 Dec, 15:30


📹Запись ридинг-группы от 5 декабря 2024 года. Александр Варламов разобрал несколько статей с ECAI-2024

ML — это ОК

05 Dec, 14:57


Начинаем через 3 минуты

ML — это ОК

02 Dec, 10:00


📄На ридинг-группе 5 декабря снова обзор конференции. На этот раз Александр Варламов сделает разбор нескольких статей с ECAI-2024. Кроме собственной статьи Александра кратко обсудим:

- Improving Calibration by Relating Focal Loss, Temperature Scaling, and Properness [ссылка]

- Is Contrasting All You Need? Contrastive Learning for the Detection and Attribution of AI-generated Text [ссылка]

- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [ссылка]

- DataDetective: Dataset Watermarking for Leaker Identification in ML Training [ссылка]

- Reducing Texture Bias of Deep Neural Networks via Edge Enhancing Diffusion [ссылка]

Ждём всех желающих в 18:00 🌈

Зум: ссылка

Meeting ID: 824 3323 7280
Passcode: rgaivk

ML — это ОК

21 Nov, 15:11


Вторая часть разбора начнется через 5 минут. Ссылка на трансляцию: https://vk.com/video-147415323_456240567

ML — это ОК

14 Nov, 14:51


Начинаем через 10 минут. Ссылка на трансляцию: https://vk.com/video/@vkteam?z=video-147415323_456240566%2Fclub147415323

ML — это ОК

07 Nov, 09:12


⚡️⚡️⚡️Йоу йоу йоу, братья и сестры в рекомендательных системах!
Позвольте зачитать вам наш скромный рэп.

На нашем разборе конференции RecSys
Авторы пейперов мощно зафлексят.
Двадцать докладов, самых лучших статей,
В честь нас называйте ваших детей.

В московском офисе, а не где-то там в Бари,
В ноябре соберёмся типа бояре.
Статейки послушаем, пиццу съедим.
Два дня —
четырнадцать, двадцать один.

Модель мульти-таргет, семантик айди,
LLM-рекомендер приди-обсуди.
К потоку докладов будь морально готов —
Это ридинг-группа выходит из берегов!

Рррраунд!

На все вопросы готовы ответить в комментариях.🦾

ML — это ОК

06 Nov, 08:05


📹Запись ридинг-группы от 31 октября 2024 года. Роман Логойда рассказал про causal рекомендеры

ML — это ОК

31 Oct, 14:58


Через несколько минут начинаем!

ML — это ОК

22 Oct, 12:38


🪢Рекомендательные системы делятся на два типа:

- Causal рекомендеры, побуждающие пользователей к новым открытиям и расширению кругозора.

- Продакшн рекомендеры, предсказывающие неизбежное немного лучше, чем TopPop.

На ридинг-группе 31 октября помечтаем про первые вместе с Романом Логойдой, ML-инженером AI VK. Обсуждение статей (1, 2) по теме causal рекомендаций начнем в 18:00.

Зум: ссылка

Идентификатор конференции: 954 8170 2067
Код доступа: 9HrXbM

ML — это ОК

21 Oct, 09:57


📹Запись ридинг-группы от 17 октября 2024 года. Роман Болозовский рассказал о методах сжатия эмбеддингов в больших рекомендательных сетках

ML — это ОК

15 Oct, 07:19


Коллеги, не можем отвечать пока - наша команда на RecSys в Италии.

ML — это ОК

14 Oct, 08:38


Картинка с тысячей слов вместо тысячи слов. Ридинг-группа 17 октября в 18:00. Ведущий — Роман Болозовский, ML-инженер AI VK. Ждём вас.

Статья

Зум: ссылка
Meeting ID: 777 282 2791
Passcode: 1

ML — это ОК

07 Oct, 09:25


📹Запись ридинг-группы от 10 октября 2024. Дарина Двинских рассказала о том, как использовать схожесть данных для уменьшения сетевых коммуникаций при распределенном обучении.

ML — это ОК

03 Oct, 15:00


начинаем

ML — это ОК

27 Sep, 08:50


📄На ридинг-группе 3 октября гостевой доклад: Дарина Двинских, доцент ФКН ВШЭ, расскажет о том, как использовать сходство данных для сокращения числа коммуникаций в распределённых алгоритмах.

Немного подробностей:
Использование распределённой системы вместо одного вычислительного устройства позволяет обучать современные модели машинного обучения на огромных наборах данных. Однако эта мощь распределённых систем сопряжена с различными трудностями: коммуникации сервера (основного устройства) с вычислительными машинами могут существенно замедлить процесс обучения, особенно для систем, обладающих большими вычислительными ресурсами. Существуют различные методы для уменьшения количества таких коммуникаций. Среди них есть методы, учитывающие структуру задачи, например сходство данных, довольно часто встречающееся в приложениях машинного обучения. В докладе будет показано, как использовать сходство данных в задачах обучения с учителем, для того чтобы более эффективно коммуницировать с сервером.💻🔀🖥

Начало встречи в 18.00.

Зум: ссылка

Meeting ID: 895 0393 9531
Passcode: aivk

ML — это ОК

19 Sep, 18:11


📹Запись ридинг-группы от 19 сентября 2024. Андрей Кузнецов рассказал про архитектуру эффективного подбора кандидатов на GPU.

ML — это ОК

19 Sep, 14:55


Начинаем через 5 минут

ML — это ОК

13 Sep, 08:42


🍿Купили GPU за сорок тысяч долларов, чтобы гонять LLM, но ваш AI-стартап почему-то не взлетел? Не проблема, вы всё ещё можете использовать свое железо с пользой, и это мы не про третьего Ведьмака на максимальных настройках. На ридинг-группе разберём, как на видеокарте построить быстрый и точный подбор кандидатов в рекомендательной системе. Представлять статью авторов из LinkedIn будет Андрей Кузнецов, руководитель команды машинного обучения ОК. Ждём всех желающих 19 сентября в 18:00.

Зум: ссылка
Идентификатор: 763 2575 3645
Код: aivkdsrg

ML — это ОК

06 Sep, 11:20


📹Запись ридинг-группы от 5 сентября 2024. Роман Логойда рассказал про эмбеддинги направленных ациклических графов

ML — это ОК

05 Sep, 14:56


Начинаем через 5 минут

ML — это ОК

02 Sep, 10:40


🕸Мы знаем, в жизни каждого человека наступает момент, когда срочно нужно закодировать в эмбеддинги ориентированный ацикличеcкий граф. Но вариантов так много (VAE, трансформеры, GNN), что хочется закрыть крышку ноутбука и, хохоча, убежать в закат. Не отчаивайтесь, ридинг-группа спешит на помощь! Разобраться в проблеме поможет Роман Логойда, ML-инженер AI VK, на встрече 5 сентября в 18:00. Ждём в зуме всех желающих. 🌄

Зум: ссылка

Идентификатор конференции: 949 6360 9740
Код доступа: 0WGMDM

ML — это ОК

23 Aug, 12:32


📹 Запись ридинг-группы от 22 августа про нейронки для ядер

ML — это ОК

22 Aug, 13:03


Начинаем!

ML — это ОК

15 Aug, 09:22


На ридинг-группе 22 августа обсудим статью, в которой рассказывается, как с помощью нейронных сетей аппроксимировать главные собственные функции интегральных операторов заданных ядер на некоторых вероятностных распределениях без дорогой операции ортогонализации. Просто живите с этим. И приходите послушать в 16:00.
Ведущим будет Александр Тараканов, МЛ-исследователь AI VK.

Зум: ссылка
Meeting ID: 856 0989 2167
Passcode: 433059

ML — это ОК

09 Aug, 13:06


📹 Запись ридинг-группы от 7 августа

ML — это ОК

07 Aug, 13:56


Начинаем через 4 минуты

ML — это ОК

02 Aug, 09:48


0️⃣🅱️1️⃣0️⃣1️⃣0️⃣1️⃣0️⃣ Фильтры Блума — одна из наших любимых структур данных. С их помощью можно, например, приближенно джойнить большие социальные графы на spark ВООБЩЕ БЕЗ ШАФФЛОВ!!!!111 На ридинг-группе 7 августа обсудим модификацию фильтра Блума, которая умеет забывать старые данные. Ведущим будет Роман Болозовский, ML-инженер AI VK. Обратите внимание на перенос встречи: в этот раз собираемся в среду в 17:00.

Зум: ссылка
Meeting ID: 777 282 2791
Passcode: 1
Календарь: ссылка

ML — это ОК

31 Jul, 07:48


📈Жизненная ситуация: есть продакшн-система с входными параметрами X, которые можно менять, и выходными параметрами Y, которые важны для бизнеса. Например, в ленте социальной сети можно настраивать гипер-параметры механизма ранжирования. Это влияет на ключевые метрики сервиса: количество пользовательского фидбэка, таймспент, ретеншн. В статье Towards optimal experimentation in online systems описан алгоритм поиска входных параметров X, которые растят заданную комбинацию выходных параметров Y. Иными словами, ищем конфигурацию X, которая на A/B-эксперименте имеет хороший шанс улучшить систему.

С высоты птичьего полёта алгоритм выглядит так:
1️⃣Запускаем серию A/B-экспериментов, в которых определённым образом “распределяем” по пространству входные параметры X. Эта серия организована так, чтобы, во-первых, собрать данные для следующих шагов и, во-вторых, удобно анализировать параметры Xi по отдельности.
2️⃣Обучаем модели, предсказывающие Yi по X. Авторы утверждают, что в окрестности “контроля” достаточно линейных и квадратичных моделей.
3️⃣Используем полученные модели, чтобы решить задачу квадратичной оптимизации с ограничениями: максимизировать линейную комбинацию Yi, не слишком сильно уронив каждый из них.

Авторы из YouTube не только приводят алгоритм, но и подробно его мотивируют, рассматривают подводные камни и улучшения, дают практические советы. Главный минус — веса компонент Y в задаче оптимизации предлагается спросить у бизнеса, а бизнес не всегда знает, откуда их взять. В любом случае, статья очень глубокая: видно, что авторы применяли описанный алгоритм не раз. Как и другие статьи из The Unofficial Google Data Science Blog, эту статью можно распечатывать и обклеивать стены в дурке использовать как руководство к действию.👨‍💻