Последние посты Data Secrets (@data_secrets) в Telegram

Посты канала Data Secrets  

Data Secrets
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks

По вопросам сотрудничества: @veron_28

https://telega.in/c/data_secrets

Реестр РКН: clck.ru/3FY3GN
54,592 подписчиков
4,873 фото
411 видео
Последнее обновление 01.03.2025 14:38

Последний контент, опубликованный в Data Secrets на Telegram


Наши друзья из ecom.tech запустили видео-подкаст “AI в действии”. В нем они говорят о свежих новостях в мире DS, о трендах и о том, как наука может найти свое применение в бизнесе.

Ведущий подкаста — Петр Лукьянченко, руководитель ML-департамента в eсom.teсh.

Уже опубликовали два эпизода: в первом гостем был Алексей Масютин, руководитель Центра Искусственного интеллекта НИУ ВШЭ. Порассуждали о том, как сегодня начинать свой путь в data science, что представляет из себя DS в крупных IT-компаниях и даже успели немного погрузиться в специфику разработки и развития мультимодальных архитектур.

Гостем второго выпуска стал Юрий Дорн, руководитель программы AI Masters в Институте ИИ МГУ.
В этой части говорили о том, где заканчивается теория и начинается практика в DS. Когда нужно перестать читать книги и начать писать код? Что нужно знать, чтобы быть классным специалистом? А может быть, теория переоценена и нужно сразу идти соревноваться на kaggle? Постарались сформулировать набор советов для тех, кто думает, с какой стороны подступиться к изучению Data Science и как правильно найти учебный материал, подходящий под конкретную ситуацию.

Первый эпизод:
🙂 Смотреть
🙂 Слушать

Второй эпизод: 
🙂 Смотреть
🙂 Слушать

Реклама. ООО «Умное пространство», ИНН: 7811554010. Ерид: 2W5zFJ36FGU

Ух ты: сегодня на первом месте в топе paper of the day на Hugging Face статья от Sber AI и AIRI

Она посвящена новой и первой опенсорсной (!) модели переноса головы с картинки на картинку GHOST 2.0.

Задача похожа на face swap, но немного сложнее: тут нужно адаптировать голову под всю сцену, следить за цветом кожи, контрастом и другими характеристиками. В то же время, решения получаются практичнее. Например, в отличие от face swap, ничего не ломается, если форма лиц source (откуда переносим) и target (куда переносим) разная.

Архитектура GHOST 2.0 похожа на единственное существовавшее до этого момента решение – модель HeSer (Head Swapper), из которой позаимствовали идею двух основных модулей.

1. Aligner – модуль, реконструирующий голову для вставки в таргет. В основе подобие StyleGAN, входной эмбеддинг для которого генерируют три энкодера. Первые два считывают лицо, прическу и другие детали с source изображения. Последний – позу и выражение лица с target изображения, и меняли относительно HeSer именно его.

В старом решении один из энкондеров был избыточен, обучался с ликами и сильно все портил. Пришлось корректировать и архитектуру, и лосс, и датасет, и процесс трейна. На этом этапе уже виден огромный прогресс по сравнению с HeSer (см. картинку 1).

2. Blender – вставка головы в target фон. В оригинале здесь работала связка извлечения цветного референса для раскраски + сама зашивающая в таргет все маски и изображения модель UNet. Однако оказалось, что генератор цвета провоцирует появления серых областей, а из-за UNet вокруг головы образуется белое пространство.

Поэтому в архитектуре заменили принцип работы и того, и другого. Color Creator теперь сам заполняет все серые области на основе общих оттенков изображения, а в UNet добавили механизм экстраполяции маски, который как бы накладывает фон еще раз поверх вставки головы. При этом, чтобы вырезанных областей от маски не оставалось, картинки еще и постобрабатывали с помощью Kandinsky 2.2. Он с помощью простого запроса качественно закрашивал серость без необходимости файнтюнинга.

Результат – на лицо голову. Метрики подросли, да и на глаз качество результатов сильно приятнее предыдущих алгоритмов.

🔥 Страница проекта | Хабр | Статья | Демо

По интернету пролетела новость о том, что в следующем квартале Meta планирует выпустить собственный ИИ-чат. Компания будет тестировать подписочную систему и добавлять в чат инструменты: все, как в популярных ChatGPT, Сlaude и тд.

Тем временем реакция Альтмана: "ок, пойду сделаю соцсеть"

CTO социальных платформ VK Сергей Ляджин в подкасте рассуждал о AI-технологиях в продуктах компании и технологических вызовах, которые в целом нас ожидают.

Это интересно: он говорил не только про улучшение пользовательских сценариев, но и создание новых, которых еще нет. AI меняет нас, мы меняем AI, и каждый раз появляется что-то новое.

Полный выпуск смотрите здесь.

Скрин со вчерашнего стрима OpenAI, но не простой

Кто найдет пасхалку? 🐣

Пятый и последний день опенсорса от DeepSeek (будем скучать)

Сегодня у нас целая файловая система 3FS (Fire-Flyer File System). Она глобально оптимизирует работу с данными и в обучении, и в инференсе. То есть позволяет:

🔵 Быстро загружать и сохранять данные для обучения модели
🔵 Мгновенно получать доступ к нужным частям данных, что очень важно для инференса
🔵 Сокращать повторные вычисления и увеличивать скорость работы

Внутри – умная параллельная сортировка, цепочная репликация, KVCache, параллельный чекпоинтинг и другие хаки, особенно актуальные именно для ML-систем. В общем, достаточно масштабно.

В тестах на чтения вся эта красота достигает пропускной способности 6.6 ТиБ/с на 180 узлах: github.com/deepseek-ai/3FS

✒️ Разбираем тестовое задание в Альфа Банк на позицию Junior Аналитика данных

Чтобы найти работу, мало пройти курс и сделать классное резюме. На практике, чтобы выделиться на собеседовании, нужно понимать, что лежит под капотом каждого инструмента, а не следовать конкретному заученному алгоритму.

Чтобы попрактиковаться в этом, приходите на бесплатный вебинар, где будем разбирать реальное тестовое задание, которое дают аналитикам в Альфа Банке💻

Что будем делать на вебинаре:
🟠 Напишем сложные SQL-запросы для банковских данных;
🟠 Вспомним, как правильно использовать оконные функции;
🟠 Узнаем, как создавать разметку, из чего она состоит и для чего она нужна;
🟠 На реальных данных проведем когортный анализ и сделаем выводы;
🟠 Расскажем, как доставать инсайты из данных.

Вебинар проведет Денис Иванов, ведущий продуктовый аналитик

🏃‍♀️ Зарегистрироваться на бесплатный вебинар

Итак, GPT-4.5 вышла

Еще раз: в сравнении с o1 на математике и кодинге модель хуже (неудивительно, это другой подход). Но нельзя бесконечно скейлить только ризонинг, и, с другой стороны, это самая большая и самая накаченная знаниями о мире модель. Она поглотила МНОГО текста и лучше подходит для простых нетехнических задач, креатива, написания текстов, социального взаимодействия и просто разговоров. То есть, это лучшая модель для НЕайти обывателя.

Отдельно отмечают глубокий элаймент и то, что модель стала безопаснее и этичнее. Ее долго тюнили на предпочтения, и ответы получаются емкие и естественные. Кроме того, в GPT-4.5 сократили процент галлюцинаций.

Пока доступно только Pro, в течение следующей недели добавят в плюс и тим. В API завезут сегодня, цены пока ждем

Блог: openai.com/index/introducing-gpt-4-5/

В твиттер уже утекла системная карта GPT-4.5

«Это наша самая большая модель, которая продолжает парадигму масштабирования претрейна и ризонинга» – пишут в ней

Также в доке есть бенчмарки: много оценок безопасности и чуть-чуть качества. По ощущениям в кодинге хуже, чем o3-mini и даже o1, но отстает не сильно.

Стоит смотреть скорее на приросты относительно GPT-4o (это примерно 10х) + в доке прямо говорят, что это не frontier модель, а новая самая большая модель компании. Она лучше в письме, лучше понимает мир в целом и общение с ней более «человечное».

https://cdn.openai.com/gpt-4-5-system-card.pdf

Я в ожидании стрима OpenAI (он будет тут):

P.S Кстати, сегодня должны были раскатить Advanced Voice на базе GPT-4o mini на всех бесплатных пользователей. У кого появилось?