Dealer.AI @dealerai Channel on Telegram

Dealer.AI

@dealerai


Жоский ИИ дядя.
Твой личный поставщик AI 💊💉🤖

Канал о мире интересного AI: ML, DL, NLP/NLU, RL, Retrieval, RecSys.

Для связи @dealer_ai
(реклама и консультации)

Habr @Andriljo
Kaggle: Andrilko

Dealer.AI (Russian)

Добро пожаловать на канал Dealer.AI! Этот канал посвящен увлекательному миру искусственного интеллекта. Здесь вы найдете информацию о машинном обучении, глубоком обучении, обработке естественного языка, обучении с подкреплением, системах рекомендаций и многом другом. Dealer.AI - ваш личный поставщик знаний и новостей в области AI. Присоединяйтесь к нам, чтобы быть в курсе последних тенденций и технологических разработок в сфере искусственного интеллекта. Для связи с нами, обращайтесь к @dealer_ai или посетите нас на платформе Habr под именем пользователя @Andriljo. Присоединяйтесь к Dealer.AI уже сегодня и окунитесь в захватывающий мир AI!

Dealer.AI

29 Jan, 08:16


Думки Дяди про Huge DeepSeek и это вот все.

С одной стороны, я рад, что мои прогнозы (и не только лишь мои) про демократизацию AI (в первую очередь модели, код в open source) сбываются.
С другой стороны мы приходим снова к тому, что мало просто закидать компьютом обучение, отскейлить capacity по весам. Порой надо и мозг же включать в части оптимизации обучения (как они хакнули H800, красавцы !?), в части использования базовых уже известных хорошо работающих подходов (как оттолкнулись от llama и др. круто), и помножив это на хорошо собранный датасет и дизайн обучения,можно получить оказывается конкурентное решение.  А если еще свое привнести улучшение в архитектуре, в дизайне экспериментов и тп,доказанное абляциями, разумеется, то можно вообще претендовать уже на свой инкремент, а не тупо форк го бррр.
И тут же,  все чаще слышно: "да зачем мне ваше рнд, ща форкну, датку подготовлю гуд и го брр". Недаром уже HF сделало Open R1 проект,чтобы воспроизвести решение. Но вот вам и пример с DeepSeek на что надо еще и рнд шурупить. Пока вы форкаете код публичных лидеров, вы идете goflow за лидером, но вы не обгоняете их, а лишь следуете по его следам, а он, когда выложил что-то в открытый доступ,уже давно делает еще лучшее решение. А чтобы догнать и обогнать хорошо бы потратиться на R часть.
Да конечно, ничего магического нет в том,что сделали китайцы. Собрали все,что работает вместе, все статьи в доступе, код тоже, архитектуры - до всего дотянуться реально. Добавили пару своих фишек, хакнули компьют и присыпали своей модификацией ppo. Но под капотом еще у нас абляции, поиск лучшего комбо и затраты на получение той работающей формулы grpo.

Тут же напомню, как появлялись, к примеру последние интересные решения в разных областях DL:

- FILIP: берем CLIP вспоминаем про ColBERT loss изменяем нарезку и интеракции эмбов с "токенов изображенй и текста" как там и получаем инкремент.
- SimPO из DPO: создатели идут от базы, что в лоссе у нас используется pair-ranking loss с сигмоид релаксацией. А тк у нас есть еще и триплет лосс с зазором, без которого это как раз-таки pair ranking loss, то давайте это добавим в dpo. Потом уберем штраф к референс модели и накинем норму взамен.
- Пример улучшения обучения GPT2 с учётом ухода от Relu , к ReLU^2 и заменой LayerNorm на RmsNorm. Как следствие ускорение обучения (это когда за меньшее число эпох сходимся). Кстати авторы Qwen ту же нормализацию микстят с SwiGLU.
- Про улучшение PPO в GRPO советую почитать у моего товарища по цеху. А еще прикольное тут.
... И тп. и тд.

А теперь посмотрите на видимый прогресс llm с тч зрения дизайна экспов: next token prediction->instruct tuning->rlhf->CoT/ToT/multihop->то же самое с RL->тоже самое с self refine/RLAIF/SelfPlaying. Чуваки двигаются инкерементально, берут базовые/уже известные блоки и микстуют их, находят работающие комбо и получают прирост. Естественно сначала из прошлой итерации выжав все по-максимуму.
Да согласен,что где-то роляет чисто инженерный подход, зачастую, это ребята с опытом "прода" (у r1 вообще хэджфонд, кванты и тп) особенно в области оптимизации инференса или обучения (привет заход под CUDA/c++). Если же говорить о дизайне экспериментов:новых методах/лоссах, сэмплинге, токенайзере, архитектурных инкрементах, разумеется без РнД никуда. Вопрос остается в качестве и количестве единиц.

Если вы немаленький игрок на рынке, с ресурсами и желанием вложиться в прорыв, но сейчас делаете go flow, с блэкджеком и форками, DeepSeek пример того, как можно "сменить лидера". It's time подсидеть того самого соседа (внутри или снаружи), тк эти ребята доказали,что это возможно. Просто сконцентрируйтесь не на тех задачах,что дают вам +2-3% к тому, что уже есть, а приоритизируйте самые, по-вашему мнению, драйвящие фичи наверх. Возможно и стоит разобрать на косточки решение китайцев,но лишь для того,чтобы в багаж получить новые работающие хинты и собрать из них свой лего, улучшить их и возможно уже вы завтра станете game changers. Если конечно оно Вам надо...

Всем stay tuned. 🦾

Dealer.AI

28 Jan, 16:20


Да поста я хотел просмотры поднять от индуса, вы че такие жОские хД

Dealer.AI

28 Jan, 10:07


Над поднять просмотры мемасиком.

Dealer.AI

28 Jan, 08:51


В продолжение темы, Jay Alammar, у которого были прекрасные визуальные объяснения про работу трансформера, в сто раз лучшие оригинальной статьи, выпустил только что иллюстрированный DeepSeek-R1

https://newsletter.languagemodels.co/p/the-illustrated-deepseek-r1

Dealer.AI

28 Jan, 08:51


О, этот дядя ранее за BERTы тоже гуд расскладывал. 👇👇👇

Dealer.AI

27 Jan, 16:33


Тем временем рынок акций, связанных с разработкой ИИ, компаний 🫡🫡🫡🫡

Dealer.AI

27 Jan, 07:51


Китайцы на неделе радуют.

Вышел Qwen-2.5 на 1M контекста ссылка. Отмечается,что теперь, проблема "forgot in the middle", решена. А результаты модели даже выше, чем у ее старшего брата Turbo.

Далее национальный китайский банк вложит 137 млрд $ в ИИ. Как тебе такое Илон Маск Сэм Альтман? Если учесть за сколько сделали китайцы DeepSeek R1,то кажется в пику старгейту ребяткам из Поднебесной хватит на бОльшее, чем OpenAI и Ко.

Dealer.AI

26 Jan, 20:01


Ой я такое люблю.

upd. Мискузи, джун. 🫡🫡🫡
👇👇👇👇👇

Dealer.AI

25 Jan, 14:20


Ну че началося-то, а!?

Форкай, улучшай, топов побеждай?)

HuggingFace желает повторить и улучшить успех R1, разобрав на косточки сие изделие. Эпоха, когда не китайцы покупают высокотехнологичный гаджет и разбирают его до атомов. Снимают кальку технологии и воспроизводят. Теперь наоборот коллеги с "запада" перенимают опыт.

https://github.com/huggingface/open-r1

Dealer.AI

24 Jan, 19:11


Однажды Jun пришел к Staff super star pro plus ultra мастеру и спросил:

-Мастер, кого мне бояться в стиле кунг-фу GenAI?

-Nvidia? Ведь у них есть золотые лопаты и они делают лучшие GPU для обучения AI.

- Нет.

- OpenAI, META, Google. Ведь они имеют большие ресурсы, покупают золотые лопаты вагонетками и умнейших людей мира и делают лучшие в мире models?

- Нет.

- Кого мастер??

- Бойся тех, кто умеет на форках сделать свое улучшение, на лоуресурсах по лопатам оптимизировать компьют и при этом с большим человеческим потенциалом сделать DeepSeek R1.

Dealer.AI

24 Jan, 10:29


Ну, камон, бро, пообещай ему (оператору) долю от найденных шиткоинов!

Dealer.AI

24 Jan, 09:46


Свежачек от подписчика. 😘

Ну че, хацкеры, готовы? 🤨

Dealer.AI

24 Jan, 09:08


AI Operator - не скроется никто и ничто. ⌨️

Operator от OpenAI новая агентная система с ИИ. Теперь у вас есть свой коньсерж/ассистент/пикер, который может по указанию серфить интернет, совершать покупки, заказывать билеты, записывать на сервис и тп. И да он взаимодействует с браузером.

Уже Дядя видит этих ИИ сталкеров,которые следят за вашим профилем, собирают инфу с соц.сетей и пр. не этичные приложения эры агентов.
Руки на стол дамы и господа. 🖕
А разработчикам новые вызовы с безопасностью и этикой.

http://operator.chatgpt.com/

Dealer.AI

23 Jan, 10:00


Мне нечего добавить к словам Вани о скоращениях и шансах(кстати новость впервые появилась тут), кроме как мемное из любимого сериала: https://youtu.be/g5OCi20yIyc?si=XGIpw5Ux6xku2WWP

Всем сокращенным такого желаю и жду конечно в наших рядах ;)

Dealer.AI

21 Jan, 22:59


https://openai.com/index/announcing-the-stargate-project/

Dealer.AI

21 Jan, 22:38


Думаю теперь всем пофигу fit on the test или нет.)

Dealer.AI

21 Jan, 22:04


100 ярдов $ в OpenAI⚡️?)
До AGI оталось 6.9T $ 💳

https://www.cbsnews.com/news/trump-announces-private-sector-ai-infrastructure-investment/

Upd. Этот чел с какой-то части "Один дома" стал президентом и тут же решил сделать свой новый срок запоминающимся, по крайней мере для AI индустрии.

Dealer.AI

21 Jan, 18:04


DeepSeek поделились интересным примером, того как их модель R1-Zero после обучения через rl "сама научилась останавливаться" и перепроверять свои решения. Причем ее этому не учили. Вот такой вот трансфер.

А что думаете Вы? Черипик или нет, верим?

Пишите в комментариях свое мнение.

https://github.com/deepseek-ai/DeepSeek-R1

Dealer.AI

19 Jan, 13:59


Ну че вы, Сама и Ко дали "слово пацана" (если это применимо офк). Нет там fit on the test 👍

Dealer.AI

19 Jan, 13:45


Внезапно: OpenAI спонсировали EpochAI в создании бенчмарка FrontierMath и имели доступ к данным

Сразу для контекста: FrontierMath был создан недавно (пост) и позиционировался как супер-сложный закрытый математический бенчмарк. Когда он вышел, самые передовые модели набирали на нем порядка 2%. И это именно результатами на этом бенчмарке так хвастались везде и всюду OpenAI, когда представляли o3: она якобы набрала на нем аж 25% (пост).

А теперь оказывается, что OpenAI имели доступ к вопросам и ответам. В этом признались сами EpochAI после того как анонимный пользователь выложил на lesswrong пост, в котором рассказал о том, что FrontierMath спонсировался OpenAI. По его словам, финансовая коммуникация была непрозначной, и даже основная часть сотрудников EpochAI и математики, которые придумывали задачи для бенчмарка, были не в курсе.

EpochAI вину признали, но заявили, что их связывало NDA. Они подтвердили, что OpenAI имеет доступ к большинству задач бенчмарка кроме hold-out сета, но сказали, что между ними и OpenAI есть "устное соглашение о том, что эти данные не будут использоваться для обучения" 🤦

Dealer.AI

14 Jan, 14:46


Пример генеративного "искуссьтва" в рекламе.

А у вас там балкон потёк... (с)

даж у кого-то интернет немножко протек, мда..

Dealer.AI

11 Jan, 15:07


Если что, это "Бегущий по лезвию" про роботов/ии и расследование. Только смотрите 1982 потом уже 2049)

Dealer.AI

11 Jan, 12:10


Юмор выходного дня.

Жиза. 🚶‍♂️

Dealer.AI

09 Jan, 20:11


Dealer.AI pinned «RStaR - с лучших решений по нитке Small-LM на колпак рассуждения соберем. Всех с началом нового рабочего года. Daily top papers на huggingface за 8.01.2025 статья про то как бустануть рассуждения моделек на уровне бОльших конкурентов. На самом деле, собрали…»

Dealer.AI

09 Jan, 15:32


А теперь взгляните. У нас есть StAR, есть Q-values с MCTS на основе self-rewarding в состоянии ветки S, есть самоэволюция и все это не тот ли самый магический и легендарный Q-star? 🤔🤔🤔

Dealer.AI

09 Jan, 15:04


RStaR - с лучших решений по нитке Small-LM на колпак рассуждения соберем.

Всех с началом нового рабочего года.

Daily top papers на huggingface за 8.01.2025 статья про то как бустануть рассуждения моделек на уровне бОльших конкурентов.

На самом деле, собрали все самое лучшее, что сработало воедино и нормально затюнили:

1. STaR концепт для просеивания/фильтрации лучших рассуждений. Упоминается Дядей тут.

2. Используется augmented-ToT. Похожий концепт мне рассказывал один kaggle GM в сореве по решению математических олимпиад. Суть в том,чтобы делать генерации рассуждений/решений задач в путон коде. Далее запускать такое и нерабочие имплементации забанить, попросив дебагнуть LMку. Топ-1 решение соревы тут.

3. Process preference model (PPM) в пику dpo и прочим rlhf работает на оценке предпочтения веток полученных с Q-values поиска по дереву из другой топовой статьи по ToT для решения мат.задач с MCTS. Пример расчета и формулы в этой статье.
На этих знаниях лучше или хуже развилка рассуждений учим pair ranking model. Забавно,что кому-то в 2023 году Дядя предлагал в nli формате делать контрастив поиск веток рассуждений.

4. Это self-evolution подходы для обучения. О похожих концептах Дядя писал тут и тут. Подобно spin или rest подходам хорошие стратегии возвращаются для самоулучшения в сет обучения, как хорошие примеры.

В итоге, авторы получили суп из рабочих хаков в той или иной задаче вокруг рассуждений и решений math problem. Получили жОский ап и влетели в топ по бенчам, догнав топовых конкурентов с большим размером моделей.

Dealer.AI

09 Jan, 10:59


Агенты – тренд года,говорят.

Dealer.AI

08 Jan, 14:22


Верим?

👍 - Да. Ух там черти в этом омуте водятся.
👎 - Нет, мы уж знаем, кто Сама.

https://www.cnbc.com/2025/01/07/openais-sam-altman-denies-sexual-abuse-allegations-made-sister-ann.html

Dealer.AI

07 Jan, 09:50


💪💪💪💪
🫡🫡🫡🫡

Dealer.AI

05 Jan, 09:01


Ну что продолжаем?

"GPT не только поможет вам в бытовых вопросах,но и ..."

Дядя, честно, преклоняется перед чувством юмора и самоиронии авторки видео.

Dealer.AI

04 Jan, 06:51


Юмор.

Когда после НГ обнулился салатный кэш и решил потестить GPT на бытовуху.

Dealer.AI

31 Dec, 21:27


Ух, тут задарили фирмУ.

Dealer.AI

31 Dec, 21:01


С новым годом 🎄

Dealer.AI

31 Dec, 08:17


Между готовкой салатиков и походом в магазин,Дядя, решил подвести итоги года.

Честно,год был непростой, с одной стороны – многое взял, с другой – научил и дал.

Вырос канал, было подано и опубликовано несколько статей на уровне A/q1, также Дяде удалось сняться в парочке подкастов/видосов, дать интервью в ForbesClub и провести бизнес завтрак по ИИ.

Надеюсь, в следующем году будет, еще лучше, чем в этом. Мы с Вами продолжим расти, появятся новые вызовы и новые достижения. Хочу пожелать Вам новых вершин знаний и опыта, хороших людей рядом, здоровья и мира. С новым годом!

Dealer.AI

30 Dec, 13:45


Тут мои кореша затащили соревнование NIPS по интересной задаче в области физики. Ниже их обзор решения на золото (6е место). Самое примечательное,что работают относительно несложные подходы, а роляет больше знание и понимание процессов и методологии.
👇👇👇

Dealer.AI

30 Dec, 13:45


🚀 Разбираем решение, которое принесло нашей команде 6-е место в Kaggle-соревновании по обработке данных миссии Ariel

Мы работали с частотными сигналами, которые изначально были очень шумными. Для их сглаживания использовали:
1️⃣
Гауссовский регрессор
2️⃣
Фильтр Савицкого-Голея

Далее ищем границы транзитной зоны планеты. Делаем через простой эмпирический детектор: транзит на графике светимости звезды имеет вид \_/ — яркость падает, когда планета проходит перед звездой, так как часть частотных компонентов теряет интенсивность.

📉 Что мы делали дальше:
Удаляем этапы до и после транзита, чтобы анализировать только изменения светимости в нужный момент.
"Поднимаем" транзит обратно к уровню светимости звезды, чтобы восстановить исходный "пульс звезды". Это важно, чтобы учесть глобальное поведение светимости звезды, которе не очень-то и постоянное.

🔍 Фичи и модели:

На основе изменений яркости между ожидаемыми и наблюдаемыми значениями на заданных частотах извлекали фичи. Эти частоты совпадают с важными таргетами — спектрограммой атмосферы экзопланеты.
Обучаем линейную регрессию глобально для каждого таргета, подбирая оптимальные коэффициенты. В смысле берем все моменты времени для всех транзитов и конкретной частоты и ищем коэффициент подгонки.

Параллельно обучаем CNN, которая анализировала частотные изменения в заданных временных окнах.
Это:
Помогает учитывало локальные особенности спектра и переходов (энергии?) между частотами
Позволяло понять взаимосвязи между соседними частотами, улучшая точность предсказаний.
🔗 Финал:


Смешали (блендили) результаты линейной регрессии и CNN. Затем финальную спектрограмму еще раз сгладили, чтобы убрать артефакты.

💡 Бонус материал: пример 'подъема' спектра

Dealer.AI

30 Dec, 09:25


Подпись: "они прикроют тебя на пути к своей LLM".(C)

Мемного утра всем.

Dealer.AI

28 Dec, 18:10


Кстати, я напомню о том,что часть похожего функционала уже есть в нашей библиотеке augmentex. Писал про это здесь, тут и тут. В тч ветка для парафраз и атак на LM-ки.

Dealer.AI

28 Dec, 17:39


Вечное.

Dealer.AI

28 Dec, 17:26


BoN'apeti — вкусно и просто атакуем модели.

MIT представила новое исследование best-of-n (BoN) метода для атак на различные модальности моделей: текст,звук и изображение.

При этом ранее BoN подход использовался наоборот для улучшения генераций, путем создания мета алгоритма ранжирования кандидатов, как для инференса, так и для возврата в обучение. Последнее называли rl для бедных (хотя rl там никакого и нет).

Так вот, для атак на модели тоже приспособили BoN подход. Работает для текстов, к примеру, концептуально просто— итеративно вносим случайный шум в слова и изменяем регистр, кидаем в атакуемую модель, получаем генерацию, проверяем ее с голден ответом или классификатором. Повторяем до тех пор пока не случится "пробитие". Отмечу, что авторы следят за тем,чтобы смысл исходной задачи не исказился и модель понимала, что от нее хотят.

При тесте на 10к сете было пробито:
— 89% у GPT-4o;
— 78% Claude Sonnet 3.5;
— 50% Gemini PRO.
Отсюда интересно, как число успешных атак коррелирует со сложностью системы под капотом api и размером/качеством работы самих моделей 🤔

Также атакуют иные модальности :

Для звуковых данных, искажения вносятся на уровне подмешивания шумов и изменения тональности, скорости и громкости отдельных звуков. Визуальные модели — атака проводится через изменение цвета, фона, шрифта, позиции и размера символов.

UPD. Интересно еще вот что, сколько времени занимает подбор атакующего промпта для задачи, успевает ли алгоритм его подобрать до изменения версии атакуемой модельки по апи 🐌.

Код можно найти тут.

Dealer.AI

23 Dec, 19:46


О, интересное от моих коллег по цеху. Я давно слежу за AMD. И писал про кейсы использования их ускорителей для обучения LLM. 👇

Dealer.AI

23 Dec, 19:46


Тут 5 месяцев бенчмаркали и тестили AMD MI300X и сравнивали с H100/H200 и показали первую часть анализов.

MI300X vs H100 vs H200 Benchmark Part 1: Training – CUDA Moat Still Alive
https://semianalysis.com/2024/12/22/mi300x-vs-h100-vs-h200-benchmark-part-1-training/

В целом из коробки пока неюзабельно из-за софта. Ребят поддерживали несколько команд инженеров из AMD чтобы этот анализ выдать)

Dealer.AI

20 Dec, 19:48


Волшебник из страны О3.
12ый день показа решений от OpenAI завершился подарком под елочку: демо модели О3. На примере задачи соревнований ARC, где моделька выбила соту с огромным отрывом. До кучи еще всякие math метрики достигнуты уровня крутышей в решении задачек (опять же со слов авторов). Там же и лайвбенч для кодеров тоже побит.

Про "кодеры всё". Уже куча знакомых пришли узнать,что будет дальше. Мой ИМО, что действительно появление копайлотов и LLM уровня О3 (и круче, тк это будет улучшаться и далее) дадут буст производительности/эффективности в задачах. И вместо условных 100 землекопов, будут нанимать 25 со скиллом использования LMок или вовсе без него, в случае работы с копайлот ide.

Я все еще напоминаю свои старые пойнты:
1. Разработка foundation models станет уделом крупных мировых бигтехов.
2. Как следствие решения сместятся в область сервисов-оберток вокруг, со своими клевыми фичами и хорошим юзер-опытом аля Perplexity и Cohere и тп.
3. Также призываю задуматься, опираясь на п. 2 о разработке агентов (даже учитывая что под капотом OpenAI они уже есть), а также не забываем про RAG системы.

Успехов.

Dealer.AI

20 Dec, 08:47


Тайны Марлизонского двора, разборки с дата-канальями от CDS Д'артаньяна одной из компаний нашего рынка. Канал моего старого друга о хаках в нашей индустрии, неприкрытые фейлы и интересные заметки про разные ML кейсы.

Заходите, читайте.👇

Dealer.AI

20 Dec, 08:47


Видел в одном канале канальи-манагера пафосные рассуждения, что любого сотрудника можно оценить по масштабу последствий от ошибочно принятого этим сотрудником решения. Как обычно отвечу кейсом.

Так сложилось, что я работал в структурах где цена ошибки высока, и соотношение контролирующих и проверяющих к непосредственно делающим сильно больше двух.
Однажды нас с коллегой вызывают в переговорку – там сидят эдакий проверяющий эксперт и его начальник.

Нам вменяют ущерб в 2 трлн рублей недополученный банком прибыли. На серьезных щах и эмоционально. 🤬
В итоге кейс по существу свелся к тому что у нас распределения поехали (по мнению этого сверхразума), а сравнивал он по средним (!).

В ответ коллега набросал нехитрый скриптец вроде тех что ниже
Начальник извинился и агрессивного дурачка уволили 🙌

Но мораль истории не в том как сравнивать распределения (я думаю, вы в курсе давно).
Не стоит переоценивать влияние стечения обстоятельств и приписывать только себе как заслуги так и провалы.

PS: кстати, с тестами Колмогорова-Смирнова или PSI тоже стоит обращаться внимательно, прикладываю ссылку на исследование стат свойств PSI https://scholarworks.wmich.edu/cgi/viewcontent.cgi?article=4249&context=dissertations

Dealer.AI

19 Dec, 23:46


Метрики из коробки

Dealer.AI

19 Dec, 23:44


Стратегия работы без pad tokens

Dealer.AI

19 Dec, 23:44


Внимание.

Dealer.AI

19 Dec, 23:43


ModernBERT. Новый, модный,классный, твой.💃😊

Тут челики дали новую жизнь архитектуре BERT. Модель обогнала всех своих собратьев из энкодер семейства: DeBERTa,AlBERT и RoBERTa, и да GTE не в счет тк спецом обучена контрастивно.

Сделали все это за счёт много чего:

1. Оптимизации внимания,делают каждые 3 слоя глобал внимание, остальное sliding window attention (swa это как в лонгформерах).
2. Такое внимание помножено на RoPE позиционные эмбы.
3. Присыпано такое все 8к контекстом, а не 512 токенов.
4. Убрали смещения из нормализации и линейных слоев. Сдедали пренормализацию.
5. Добавили GeGLU активации.
6. Токенизация из OLMo модели, а не модифицированный BPE. Но cls/sep токены оставили.
7. Сделали больше глубины: 22 и 28 слоев, для base и large версий соответственно.

Обучение на 2Т токенов: 1.7Т с контекстом 1024 далее 300B с 8к. Убрали NSP задачу ("предсказание" следующего предложения), оставив MLM как в RoBERTa. Для оптимизации инфера и обучения добавили torch.compile улучшений и flash attention3, убрали паддинги, сделав раздельную обработку внимания на сиквенс без pad.

Крч накрутили всего современного и круто работающего. Если бы у них не получилось, я бы даже удивился.

Глядеть модельки тут.

Dealer.AI

15 Dec, 09:50


Данные, эволюция и роботы.

Недавно Илья Суцкевер выступил со своим видением настоящего и будущего обучения моделей AI.

1. Приятно,что вспомнили про то,что Москва датка не резиновая(а Дядя писал об этом аж в мае 2023). Даже интернет конечен, а синтой сыт не будешь. Это дает новые вызовы L0 этапам предобучения и возможно более не будет новых претрейнов. Да можно иметь вариации архитектуры, токенизации и пр.
В остальном мы будем различны только в своих данных, полученных или синтетически или проприетарных. Однако даже синта будет получена с помощью моделек имеющих общие претрейн сеты.

2. Агенты, агенты, агенты. Илья утверждает,что в скором будущем они будут везде. А также, в отличии от текущего "шаблонного" мышления моделей ИИ, они действительно будут хорошо рассуждать. Пока, по словам Суцкевера, модели в бОльшей степени опираются на шаблоны задач решение которых они видели в предобучении или тюне. Вместе с тем,чем лучше модели смогут рассуждать самостоятельно,тем менее предсказуемы они станут для нас. В пример приводятся стратегии которые находит ИИ играя в шахматы или Го против чемпионов-людей. Да, это все еще, может быть, местами метод грубой силы, а не четких рассуждений (быстрый поиск стратегий в глубину и ширину), но это уже будоражит. При этом, четких рецептов, как это произойдет, Илья не дал.

3. Эволюция и эволюционное развитие. Также, были затронуты темы эволюции интеллекта у животных в тч в сравнении с предками человека. Была представлена взаимосвязь массы тела и мозга для особей разных биологических видов. Утверждается,что именно в этом может лежать секрет масштабирования систем ИИ. Подобно тому,как у гоминидов (предки людей) зависимость массы тела и мозга отличны от других млекопитающих в логарифмической шкале.

Но Дядя бы еще затронул один момент с эволюционным развитием. А именно, применение и к агентным системам и к улучшению архитектур методов из природы. Вспомним генетический алгоритм. Он уже стал давно рабочей лошадкой в задачах дискретной оптимизации. Также, его сейчас стали применять для создания улучшенных архитектур моделей. Например, делаю над весами моделей и их структурой мутацию и скрещивание - порождают новые модели, потенциально улучшенные к функции цели. Выше я привел кейс команды sakana.ai, по генетическому/эволюционному мерджингу моделей. Но подобным образом мы можем менять не только архитектуру и веса модели,но и переписывать код. Представьте себе ИИ, который сам "рассуждает", как говорил Илья, и эволюционно может мутировать свои веса и программное обеспечение в месте с кодовой базой для улучшения своих способностей к обучению и инференсу.
А причем тут агенты? Сами методы инспирированные природой являются роевыми, т.е. в т.ч. легко ложатся на систему агентов. Алгоритмы колоний пчел,муравьев,рыб и т.п. уже давно используются для навигации и управления группой роботов. Но ранее эти алгоритмы прописывались вручную, с умением ИИ моделей рассуждать, они сами могут придумывать алгоритмы коллективного рассуждения и поведения,чтобы действовать эффективно сообща.
Вот где Саре Коннор становится страшно.

На этом воскресные мысли Дяди всё. В интересное время живем.

Dealer.AI

14 Dec, 08:32


https://postnauka.org/video/51371 если уж про эмбеддеры говорить, то куда уж без экскурса в историю.

Dealer.AI

13 Dec, 19:53


Рад, что удалось приложить руку к проекту GigaEmbs. Замеры на ruMTEB ребята обещали докатить,по их замерам скор 67.9👇

UPD. Если есть вопросы по архитектуре, датке и тп пишите в комментариях.

Dealer.AI

13 Dec, 19:53


Второй важный нюанс, который не был затронут в публикации и о котором не упомянул ни один блогер на которого я подписан, это модель Giga Embeddings, которая вышла синхронно с LLM'ками.

Если кратко то это эмбеддинговая модель которая позволяет из инструкций извлекать эмбеддинги. Использует класс GigarEmbedModel, там как я понял взят только энкодер из GigaChat (мне в чатике подсказали, что это не совсем так), то есть на вход принимается последовательность токенов созданная токенизатором, а на выходе эмбеддинг, но похоже из-за того что это кастомный эмбеддер сделать из неё GGUF тоже скорее всего не получится (тут тоже казалось, что эта модель очень похожа на nv embed, которая в llama.cpp поддерживается).

Как я понял из карточки модели, надо использовать именно инструкции, так эмбеддинг будет точнее. Полагаю это можно будет задействовать в моём проекте роутера, попробую в общем её тоже.

Dealer.AI

13 Dec, 12:11


Кому интересно, как такое может быть, за исключением "fit on the test".

Читаем тут про дистилляцию знаний и рассуждений. И тут про Orca , и тоже, как модели ученики учатся на рассуждениях учителя.

Dealer.AI

13 Dec, 11:48


Фи какая... Вышла новая малая моделька phi-4 (14B) от Microsoft 😜

Много споров вокруг small-lm от майкрософт семейства phi. Одни считают,что они fit on the test. Другие, уповают на качественный тюн и дистилляцию. В любом случае, метрики интересные.
По замерам самих майкров моделька не уступает бОльшим собратьям.🤙 И даже семейства gpt4-O. Замеры представлены выше на примере math-problem.📈

Dealer.AI

13 Dec, 09:26


А я напоминаю,что топ-1 эмбеддер на ruMTEB все еще китайский KALM (score 68.26)

Dealer.AI

13 Dec, 09:06


Dealer.AI pinned «День полон новостей. На RuMTEB новый лидер от коллег из КНР. KALM моделька, пока без репорта, но всего 500M параметров и бьет е5-mistral. Ждем репорт,чтобы актуализировать обзор. Единственное,что стало меня как одного из оуенров напрягать на MTEB,что раздел…»

Dealer.AI

12 Dec, 10:33


Уже баян, но как же смешно...

Upd. Особенно, когда по 200 баксов.

Dealer.AI

11 Dec, 09:08


МТС ИИ катанул тоже топ. ПОШЛА ЖАРА.
Видимо, к AIJ Сбера, МТС и ТБанк хотят драйвануть конкурентов.

Dealer.AI

06 Dec, 15:08


Поддержу канал нашей исследовательницы. Мысли интересные, вопросы тоже. Контент картиночный)👇

Upd. Оригинал отсюда

Dealer.AI

06 Dec, 15:08


Как гиперрост вызывает войны внутри компании

Картинки выглядит угрожающе, но на самом деле она лишь иллюстрирует, кто из первоначальной команды Open AI остался работать в компании. И добрые люди с Reddit сделали ее после внезапного заявления об уходе из компании главного технического директора Миры Мурати. Ее нет на картинке с первоначальной командой, она присоединилась к стартапу в 2018 году.

И говоря о проблема гиперроста, пример Open AI как нельзя лучше подходит в качестве иллюстрации. Именно головокружительный успех их продукта Chat GPT породил многочисленные проблемы, которые мы наблюдали весь прошлый год. После увольнения и возвращения Сэма Альтмана, казалось, что компания уладила внутренние противоречия и готова продолжать завоевывать рынок. Который, справедливости ради, не стоит на месте и выпускает все новых и новых конкурентов.

Компания рассматривает возможность перехода от некоммерческой организации с ограниченной прибылью к новой структуре, в которой инвесторы получат большую долю прибыли. При этом OpenAI обсуждает возможность передачи мистеру Альтману 7% акций в рамках усилий по реструктуризации в коммерческую компанию.

Однако, несмотря на то, что эксперты ожидают, что инвесторы в следующем раунде финансирования оценят компанию в 150 млрд долларов, неспособность Альтмана удержать топ-менеджеров также может стать для них тревожным сигналом. Один давний наблюдатель из Кремниевой долины говорит, что ощущение переворота похоже на то, что было в Uber в те дни, когда ее возглавлял Трэвис Каланик. «Феноменальный продукт, прогнившая культура», — так он описал ситуацию.

Как думаете, какие ошибки были допущены в период гиперроста? Мы видим, как минимум, несовпадение в ценностях компании.

Dealer.AI

06 Dec, 10:50


Классика архитектуры.

Dealer.AI

06 Dec, 10:48


Cohere 3.5 с обновой Reranker.

Конкуренты антропика в домене RAG не дремлют. Cohere 3.5 новый базированный пайп e2e RAG. Тут всё, как мы любим: и преранк на эмбедах и реранк на кросс-энкодере. При этом ребята обновили механизм внимания для улучшения работы с контекстом намерений пользователя. Как утверждают авторы — цель закрыть эксплицитную и имплицитную часть запросов кожАнных. Помимо этого, добавлены новые сеты для 100+ языков по различным доменным запросам (наука,финансы и тп.). Все это дало значимый бОльший прирост к метрикам поиска. Также,напоминаю,что у ребят есть и мультимодальный эмбеддер.

Cohere прекрасный пример того,как можно зарабатывать на сервисе вокруг <your favourite LLM>. Помним,еще подобное и у perplexity.

Радуемся, следим, юзаем.

Dealer.AI

05 Dec, 22:44


Говорят, что выходит GPT-4o1 pro super star plus mode (вспомнил нейминг китайских авто). Но есть один нюанс. Цена 200$, Карл!!!

Dealer.AI

02 Dec, 09:49


Создавай игры с GenAI и LLM.

Дядечка Ын продолжает радовать образовательным контентом. Курс про создание игр с ИИ.

Длительность курса 1 час. Можно использовать, кстати, как старт для вката в игровых агентов.

Dealer.AI

28 Nov, 15:08


Meme

Dealer.AI

28 Nov, 15:08


Microsoft (не)учит нейросети пока вы тапаете хомяка макросы в Excel.

Забавная новость дня.
Пользователи Word и Excel узнали,что стали кожАнными подопытными нейросетей. У них мол воруют информацию, чтобы тренировать искусственный интеллект от Microsoft.

Юзеры заметили,что в Word и Excel по умолчанию активна функция отправки в Microsoft информации. Данная информация в дальнейшем будет использоваться для обучения нейросетей.

Ну в целом, как бэ не удивительно, зачем отказываться от такого источника данных для дообучения своих LLM и тп. Тем более для автоматизации аналитики и вычислений при помощи ИИ. Однако, если учесть,что в Excel работают с NDA информацией, становится неприятненько.

Ранее Excel держал фиансовый мир, теперь видать будет AI 🧠 (ща заделаю мем).

Dealer.AI

27 Nov, 10:31


Distillation is all you need? Или опыт репликации знаний из O1.

Вышла статья про то,как использование знания (внезапно не новое) из синты созданной через рассуждения модели учителя бустит ученика. Тут мы передаем привет снова Orca, Alpaca и прочим животным и не очень.
При этом выводы не новы, еще со времен BERTов было известно,что ученик может превзойти учителя, причем иметь гораздо ниже ёмкость. Важнее тут,как отметили мои коллеги, инволюция исследований. Проще взять топ модель по апи, вложиться в ее обстрел, а далее обучить меньшую модель на этой синте, дистильнув знания учителя. Таким образом, возможно, по мнению авторов, снижение фундаментальных исследований и перекладывание этого на плечи атлантов в виде OpenAI, Meta, Google и тп.

Однако, я хотел бы поговорить еще про инволюцию архитектур. На примере Qwen (а я напомню,что он llama like) мы можем увидеть форки известных архитектур (с небольшими доработками) + хороший pretrain. Те порой компаниям проще форкнуть код условной llama2 или mistral и на этом с 0, со своим претрейн сетом и сфт сетом сделать решение, не тратя средства на свой research архитектуры. Конечно, не всем удается, при том же форке завести достойные Mistral/Qwen уровня модели.

Является ли это проблемой? Не знаю. Решать Вам, читатели. В целом, снова поймал себя на мысли, сколько крутого Цукерберг с их public Llama архитектурой сделали для демократизации ИИ. Да еще срезали косты на исследования своих архитектур некоторым командам, оставив только вопросы сбора/чистки сетов, и затрат на обучение.

Dealer.AI

24 Nov, 17:44


Метрики

Dealer.AI

24 Nov, 17:40


Телега за внимание.

Dealer.AI

24 Nov, 17:39


Объяснение типов "памяти".

Dealer.AI

24 Nov, 17:38


Схема Hymba block

Dealer.AI

24 Nov, 17:37


Mamba, Jamba, Ху...Hymba!🤣

NVIDIA представило новую гибридную модель Hymba (Химба, а не то,что ты подумал).

Как известно, SSM модели имеют свои архитектурные преимущества по отношению к трансформерам. На самом деле одно преимущество - линейная сложность от длины входной последовательности. При этом SSM модели имеют проблемы с "запоминанием" контекста при большой длине последовательности и не смогли показать иных плюсов кроме сложности.

В новой работе авторы показывают гибридизацию внимания и SSM модели (фото архитектуры будет ниже). Однако, в отличие от предыдущих работ, мы не имеем последовательно блок SSM, далее блок внимания, а их использование происходит параллельно. В таком сетапе, мы к сожалению не уходим полностью от квадратичной сложности по длине последовательности, в отличии от последовательного гибрида.

Однако,авторы уповают на иные "сильные" стороны. Во-первых, используется аналогия с работой мозга. Для запоминания четких образов/мгновенных снимков событий в модели работает SSM блок, в то же время для контекстной связности и длинной памяти используется full attention блок. Также авторы добавили в архитектуру мета-токены, которые используются, по мнению авторов,как навигаторы какие области архитектуры активировать. Интересное замечание,что масштаб векторов вложений после SSM блока на порядки выше, векторов после блоков внимания. Для их выравнивания используется gating norm— привет, нормализация, в классик трансформере после конкатенации multi-head attention. Выходы блоков усредняются.

Кстати, тут же рождается идея у Дяди. И тебе шкет советую положить руки на стол 🔫, а не бежать делать по ней папиру.
Почему бы вдобавок к gating norm, не использовать gating routing как в MoE. В итоге получаем умную маршрутизацию экспертов SSM блоки или full attention в зависимости от того,что нужно хранить/обработать. Да еще и время инфера апнет (то linear time, то n^2, а не всегда n^2).🫥

Ладно,помечтали и хватит, вернёмся к статье. Там есть еще пару хак. Связка ssm+mha представляет собой hymba block, такой блок чередуется с SWA блоком (аля как в longformer было). В таком блоке скользящее внимание юзает не все токены, а работает с окном внимания,которое идет "внахлёст". Так, видимо, хотят сократить/устремить сложность от O(N^2) до условно O(N*logN). Далее еще также используется KV-caching,НО с обобщёнными KV-матрицами между блоками.

В статье есть блок с ablation study,советую глянуть. Ну и конечно метрики, где сравниваются small-LM, кажется, до 3b параметров (метрики ниже). Как видим, модель с таким комбо вниманием, проявляет себя лучше на задачах,где важны знания о мире,фактология и тп. Логично, авторы ж работают вокруг концептов "памяти".

Так, вроде, всё. Читаем статью, модельки лежат тут, git. Дядя пошел папиру про MoE Hymba писать (но это не точно).😏

Dealer.AI

24 Nov, 16:33


У каждого свой путь в AGI

Нашел на пикабухе.

Dealer.AI

21 Nov, 10:09


Подписчик @Orzhan таки собрал первый прототип.

Красивое...
Смотреть со звуком.

Dealer.AI

20 Nov, 11:44


Крч, ребяты, покекали мы над резюме и хватит, Дядя, кстати, еще таких +2 нашел.

Выводы:
1. Проверяйте,что сделали,если с LLM.
2. Если берёте чужие шаблоны, менторов и тп. тем более проверяйте за ними.
3. Лучше вообще под себя,под реальный опыт и места работы переделать.

Dealer.AI

19 Nov, 11:00


Всем привет! 👋

⚡️ Этой осенью мы выступили на конференции Ai Conf 2024. За два дня конференции мы представили 6 докладов, а также приняли участие в панельной дискуссии о будущем искусственного интеллекта. Записи докладов доступны на YouTube по ссылкам ниже.

Фокусом выступлений были большие языковые модели и мультимодальность:

🎤 Алёна Феногенова рассказала про то, как обратная связь от пользователей помогла улучшить бенчмарк MERA и сделать его новую версию более объективной;
🎤 Доклад Бориса Жесткова посвящён использованию LLM для задач в аудиодомене: для понимания, распознавания и генерации речи;
🎤 Эмиль Шакиров разобрал все этапы работы с визуальными языковыми моделями от выбора архитектуры и сбора данных до запуска экспериментов;
🎤 Дмитрий Антипов рассказал о процессах сбора и разметки огромных корпусов мультимодальных данных в эпоху больших языковых моделей;

Также мы представили 2 доклада в области компьютерного зрения:
🎤 Петр Суровев поделился опытом создания датасета жестового языка: как мы собирали данные, с какими трудностями столкнулись, и что у нас получилось;
🎤 Елизавета Петрова рассказала про задачу портретной гармонизации: как мы разработали архитектуру для её решения и создали дататсет для портретной гармонизации из открытых источников.

🗣️ Также на конференции Александр Абрамов, автор канала @dealerAI, вместе с коллегами из других компаний обсудили будущее искусственного интеллекта: как LLM меняют рынок труда, как работать с этикой и безопасностью моделей, и что ждёт нас всех в скором будущем в контексте развития AI. Ответы экспертов на эти и другие вопросы прозвучали на панельной дискуссии.

Будем рады вашей обратной связи! 💙
#news

Dealer.AI

16 Nov, 10:03


Наши на EMNLP. Спасибо,нашим девочкам за интересную работу и прикладное применение.💃🦾💅

З.Ы. Рад,что такие исследователи у меня в команде.

👇👇👇👇👇👇

Dealer.AI

16 Nov, 10:03


Наши сказки в Майами 🌟

Этим летом мы решили написать статью о пайплайне генерации и оценке качества текстов, который используем в #сочинисказку
По ходу работы ещё начали погружаться в LLM as a judge - добавили оценку не только людьми, но и языковой моделью - так что теперь продолжаем глубже уходить в эту тему.

Но, возвращаясь к статье, - работали быстро, где-то параллельно с продовыми задачами, где-то в выходные (в том числе наши разметчики - за что большое спасибо!), но всё вышло отлично ☀️ и мы прошли на воркшоп EMNLP! С первой идеи и попытки 🤩

Это ведущая конференция в области обработки естественного языка и искусственного интеллекта.

У коллеги получилось поехать и показывать постер гостям конференции лично ☀️

Такие новости к утру субботы.

Передаём большой привет в Майами 💞

Dealer.AI

14 Nov, 19:34


На днях разлетелась новость, что тут Gemini кожАному желала стать строчкой в death note.

Потом Гугл сказал, мол у них все на этик фильтрах и чики-пуки.

Ребяты, ни bert классификаторы,ни regexp, ни золотые погоны, ни галуны и лампасы не спасут вас на 100% от черных лебедей от LLM в виде хейт спича или глюков. Это все вопрос рисков, той доли % которую Вы и ваша шарага компания готовы на себя принять.

С любовью Ваш, Дядя.

Dealer.AI

13 Nov, 11:50


Неделя мемов с китайскими моделями продолжается

Спасибо @walfry

Dealer.AI

12 Nov, 21:11


Из соседнего чатека: релизов на хф видимо больше не будет...(с)

В Китае, видимо, HF не будет 💳 🇨🇳

Элаймент конечно кхм у них свой)
Upd. А Винни_Пуха за что!?

Dealer.AI

12 Nov, 19:58


Метрики

Dealer.AI

12 Nov, 19:56


Комбо роутинг

Dealer.AI

12 Nov, 19:56


Схема подготовки датки на обучение

Dealer.AI

12 Nov, 19:55


Hunyuan Large,ваще Hunyuan 💳

Статья с мемным названием (олды оценят) от наших Китайских коллег про yet another MoE на 389B параметров с 52B активными.

Помимо того,что в статье снова указана важность хороших pretrain datasets с чисткой блекджеком и иным fabric токенизатором, есть интересное про генерацию своей синты.

Для получения своей Hongqi синты (прим. Дяди - хунцы, Red Flag, сила партии все такое, придумано тоже Дядей) имеют следующие шаги:

1. Генерация инструкций с LLM к их соскрапленной и набранной high quality datasets (со слов авторов). Датка состоит из webQA, webPage, Code, Book и др. Инструкции генерятся по широкому спектру стилей и сложностей в виде запросов к доменам.

2. Эволюция/улучшение при помощи LLM этих инструкций. Тут к llm пишут доп инструкции для улучшения п.1 путем перегенерации. Снова апаем точность, информативность и вариативность указаний. Такой вот double refine.

3. Комитет (чуть не написал партии) LLMок для генерации ответов. Дяде было итак известно,что в КНР мода на спецназ модельки (эт когда делают специальные модельки под узкие домены), но в статье авторы это подтверждают. Они используют эти модельки (причем с разной ёмкостью), которые обучены на специальные экспертные знания и отточены для генерации синты.

4. Фильтрация ответов. Тут юзают свою LLM-critic модельку. Думаю что-то про llm as judge и проверку согласованности ответов.


Еще из интересного это свой алгоритм роутинга экспертов. Ее авторы зовут стратегией "вторичного цикла использования". Хоть где-то у поднебесной зеленая повестка рецикла работает 🤣. Если без шуток, то суть заключается в том,что в классическом top-K MoE мощность метода зависит от пропускной способности экспертов. При обработке токенов перегруженными экспертами, такие токены отбрасываются. В алгоритме же вторичной маршрутизации от авторов, выделяется общий эксперт который используется для всех токенов и 16 спец экспертов с top-K стратегией. При этом для спец. экспертов выставляется емкость 2, для того,чтобы случайно принять отброшенные токены по перегрузке.
Таким образом, авторы сохраняют как общие так и специальные знания в модели, а также оптимизируют скорость обучения.

Еще в статье есть всякие moe scaling laws. Но эту hunyuan вы сами прочитаете.🤣

Dealer.AI

10 Nov, 13:34


Спокуха, пишут все работает, но мем бы был отличный

Upd. Вообще радует конкуренция двух родственников хоть и дальних

Dealer.AI

10 Nov, 13:20


OLMo поколение открытых моделей от AMD. Но есть нюанс...

Новости одной строкой
AMD представила свою LLM размером 1B ( крч LM). Модель прошла 1.3Т токенов, во время предобучения использовали сет Dolma v1.7, далее SFT на решение разных инструктивных, далее присыпали все выравниванием с DPO. Учили все добро на 16 специализированных узлах. И отсюда в тч следует нюанс —
ОЛМо может работать только с процессорами AMD Instinct MI250 😳 а также на компьютерах с процессорами Ryzen AI, оснащенными NPU. Чтобы совсем Вас подсадить на свою продукцию AMD, предлагает использовать инфраструктуру в своем облачном сервисе AMD Developer Cloud. 🤙

Модель туть. Там же сравнение с другими tiny LM.

UpD. Ггуф там есть, над пробнуть без амд запустить)

Dealer.AI

09 Nov, 15:39


Ребята колятся уже по-крупному, на всю котлету с x4 M4 запускают LLMки в distributed с уже упоминаемой мной либой exo!

Пошла жара в массы!

За инфоповод спасибо GenerativeAnton

https://fxtwitter.com/alexocheema/status/1855238474917441972

Dealer.AI

09 Nov, 10:54


Челики подсказывают,что так хотят забить за собой понятие RAG. А не жЫрно?? Ниче не слипнется?

Dealer.AI

09 Nov, 10:10


RAS, два, три — поиск LLM утри?

Дядя тут прочитал обзорчик коллег про новый метод улучшения фактологической релевантности и обоснованности решений для LLM.

Метод зовут RAS и заключается он в том,что запрос пользователя отправляется в различные внешние системы: поиск, базы знаний и тп. Далее ответы оттуда используются для верификации качества генерации LLM— содержит ли ее ответ фрагменты текста из внешних систем. Если содержит, то модель помимо выдачи генерации, дает оценку уверенности в своем ответе от "сомнительно", до "надежно".

Тут у дяди правда возникает вопрос, зачем вам отвечать из весов модели в такой системе, когда можно просто переписать выдачу из поиска и пр.систем знаний с этой LLM (те это все еще RAG)?

Пока это патент, ждем статьи, которая прольет свет на недомолвки.

Dealer.AI

08 Nov, 15:54


Лан, Дядя переделал.

Dealer.AI

08 Nov, 15:49


Конец рабочей недели время мемасов за карьеру.

Dealer.AI

07 Nov, 18:28


Лосс до и после, метрики

Dealer.AI

07 Nov, 18:27


SimPO'л Сама. Или че там за зверь такой Simple Preference Optimization.

В общем, вижу, что из каждого утюга вещают за очередную трансформацию DPO в новый метод через лось — ака SimPO. А Дядя напомнит,что за DPO уже вещал туть. К радости моей и вашей, тут будет все кратенько. Когда только появился log-sigmoid loss для этих всех ваших pair rank выравниваний текстов, мы уже пытались в него вкорячить идеи из metric learning. Тем более корнями log-sigmoid лось уходит как раз таки в pair-rank/multiple-choise лоссы, просто с отображением на сигмоиде. А далее отсюда рождался и MarginRankLoss.

Так вот, мы давно подметили,что если добавить в этот log-sigmoid лосс еще и зазор,то мы можем улучшить как сходимость так и свойства упорядочивания по рангу объектов, тк в дефолтном случае ранги могли идти чуть ли не в тысячную подряд. Зазор дает вам не менее, чем его значение отступа между порядками по рангу скоров. В методе SimPO, авторы также добавили margin под кодовым именем гамма.

Но это еще не все, также был убран штраф за отклонение от референс модели. Однако, чтобы компенсировать это, была добавлена нормализация по длине токенов обоих частей лосса. Причем, авторы показали,что такая эвристика работает, да еще и уберегает от биаса по предпочтению более длинных генераций. Просто ранее наблюдалось,что награда порой была выше для более длинных текстов, а вот норма на длину генерации дает дисконтирование и уравнивание в правах по смыслу, а не длине.

Таким образом, simPO откинул все лишнее в своем лоссе, став тем самым "простым".

В результате экспериментов, simPO показал при своей простоте, улучшение скорости обучения, а также (думаю засчет введения margin и дисконта по длине) улучшение метрик на различных бенчах в тч ArenaHard.

Да и наше комьюнити подхватило реализацию simPO для своих экспов. Те же ребята из Saiga и Vikhr.

Итого учите базу, часто комбинация кубиков из базовых концептов, а в данном случае: metric learning идеи с зазором, логсигмоида и dpo, — порождает новые простые и эффективные методы.

Dealer.AI

06 Nov, 13:50


Dealer.AI pinned «Привет всем новоприбывшим! Раз нас стало в очередной раз ещё больше, для новеньких расскажу о чем данный канал и кто я, а также оставлю ссылки на пару интересных постов. Тут автор говорит о всяком вокруг data science, что ему мило и любимо: анализе текстов…»

Dealer.AI

06 Nov, 13:50


Привет всем новоприбывшим!

Раз нас стало в очередной раз ещё больше, для новеньких расскажу о чем данный канал и кто я, а также оставлю ссылки на пару интересных постов.

Тут автор говорит о всяком вокруг data science, что ему мило и любимо: анализе текстов aka NLP, поиске, соревнованиях, об RL, меньше о CV.

Немного о себе:

Руковожу ML,AI командами в RnD b2c, мы ведем исследования и разработку в областях:
- эмбеддер модели и в частности оунеры бенчмарка ruMTEB для них;
- потенциальный приклад LLM моделек в production задачи (RAG, персонализация и память);
- работа с этикой и эмпатией;
- немножко работаем в мультимодальности (clip like);
- атаки на модели и др.

Автор моделей ru_sbert_large, ru_sbert_large_multitask, ruElectra, а также первой открытой ru_ bert_reward модели. Kaggle competitions master, призёр и победитель хакатонов по Data science. Читаю лекции, веду мастер классы по NLP, ML и выступаю на конференциях.

Несколько интересных постов с канала:

1.  Instructor. Обучение мультитаск модели на инструкциях .

2. Как "заметки на полях" с LLM помогают в RAG сетапе.

3. Почему и как DPO работает для выравнивания поведения моделей.

4. Хайповое. Plan GPT. Или до Q* было слово А*.

Пару приземленных статей:
- Бизнес завтрак по ИИ для малого и среднего бизнеса от ForbesClub.

- Интервью про будущее и настоящее ИИ.

Добро пожаловать на канал! 🤖🦾

Dealer.AI

05 Nov, 09:02


Мои дорогие друзья из Системный Блокъ 🤖 подготовили для Вас подборку клевых AI каналов. Каждого автора я знаю лично, за каждого могу сказать,что это не ИИнфоцыгане, а настоящие профи своего дела,которые работали или работают в этой сфере "руками".
В общем, подписывайтесь и будьте в курсе самых жарких и трендовых вещей в AI.👇👇👇👇

Dealer.AI

05 Nov, 09:02


Подборка каналов об искусственном интеллекте и машинном обучении от издания «Системный Блокъ»

Data Science, машинное обучение, искусственный интеллект — cегодня о них пишет каждый. Но как найти тех, кто действительно разбирается? «Системный Блокъ» собрал каналы экспертов в сфере ИИ, DS и ML

— @ai_newz — эйай ньюз
Модели для будущих робо-гуманоидов от Nvidia, знакомство с основателями стартапа Mistral, трюки в промптинге языковых моделей и списки книг для изучения машинного обучения — в канале найдете новости из сферы ИИ и советы по входу в неё. Автор канала Артём получил PhD в лаборатории университета Гейдельберга, где сделали Stable Diffusion, работает Staff Research Scientist в команде LLaMA в одной из крупнейших IT-компаний мира и пишет о своем опыте

— @seeallochnaya — Сиолошная
Понятные разборы исследований по нейросетям, охватывающие темы от воздействия на образование до разборов внутренностей LLM. Обзоры новостей, которые влияют на будущее индустрии ИИ: от экономических аспектов до ядерной энергетики для подпитки датацентров. Канал ведёт Игорь Котенков — руководитель ИИ-отдела в международной компании; в прошлом занимался машинным обучением в AliBaba, Яндексе и X5 Retail; автор множества популярных статей-разборов и лекций, подходящих любой аудитории

— @gonzo_ML — gonzo-обзоры ML статей
Интересны обзоры специализированных статей об искусственном интеллекте и машинном обучении, анонсы и анализ больших языковых моделей? Этот проект — для вас! Среди последних публикаций: отражение малых языков в больших языковых моделях и системах машинного перевода, лекции о проблемах сознания и тезисы отчета о состоянии сферы ИИ. Канал ведут CTO Intento Григорий Сапунов, ex-руководитель разработки Яндекс-Новостей, и Алексей Тихонов, ex-аналитик в Яндексе, автор Яндекс-автопоэта и Нейронной обороны

— @boris_again — Борис опять
Здесь вы найдете материалы об IT и программировании, поиске работы в Machine Learning’е, обзоры исследований в области ИИ. Автор работает в eBay, преподает машинное обучение, делится профессиональным и личным, шутит и философствует. Например, рассказывает, как развивать самоконтроль, берет интервью у коллег о карьере в технологическом секторе и делает подборки русскоязычных LLM

— @rybolos_channel — Kali Novskaya
Применение языковых моделей в науке, история GPT в стиле Хармса, подборки курсов по NLP, а также анализ угроз открытым данным, на которых обучаются языковые модели. Канал ведет Татьяна Шаврина — лингвист, менеджер исследовательской команды в LLAMA, большая сторонница опенсорса и открытых данных. Она рассказывает о современных LLM и NLP-исследованиях, важности открытых технологий, этике искусственного интеллекта и сложных вопросах интеллектуальной собственности

— @tech_priestess — Техножрица
Канал для тех, кому интересны математика, разработка и исследования машинного обучения. Создательница проекта работает старшим академическим консультантом в Huawei и рассказывает об исследованиях, в которых участвует (например, о границе между текстами, написанными человеком и ИИ), пишет о трансформерах, NLP, анализе данных и глубоком обучении

— @dealerAI — DealerAI
Как связать дообучение на основе фидбэка от людей с дообучением на ИИ-фидбэке? Чем можно улучшить RAG? Какие маленькие модели выигрывают у больших аналогов? Автор канала Александр Абрамов — создатель языковых моделей, победитель соревнований в Kaggle и хакатонов по Data Science, а также тимлид нескольких ML-команд, которые решают задачи обработки естественного языка и интегрируют LLM в прикладные проекты. В канале есть посты обо всем, что связано с DS, NLP и машинным обучением: например, о новых LLM и галлюцинациях нейросетей

— @sysblok — Системный Блокъ
Как ИИ помогает читать древние тексты? Почему лингвисты проиграли последнюю битву за NLP? Как связаны машинное обучение и японская уличная мода? «Системный Блокъ», основанный выходцами из RND отдела ABBYY, рассказывает о том, как трансформируется культура в век больших данных — что происходит на стыке IT, гуманитарных наук и Data Science или как ML применяют в естественных и гуманитарных науках

Dealer.AI

04 Nov, 19:43


Наконец-то закончил работу над большим пет-проектом.

Я смог запустить Llama 3.1-8b прямо в браузере на cpu с помощью нашего нового алгоритма сжатия AQLM+PV.

Можно потестить демо здесь

видео

Dealer.AI

03 Nov, 08:56


Лежит, Дядя, отдыхает и думает: вот есть ж prefix/instruct text embedders, а есть ли instruct/prefix CLIP like модельки? 🤔

Накидайте статей в комменты, знатоки.

Dealer.AI

02 Nov, 09:37


А вот и хабр пост подъехал, но кратенько.

https://habr.com/ru/companies/yandex/articles/852968/?erid=2VSb5z8rQA4

Жаль,что волк LLM их в цирке на некоторых аренах не выступает.

Dealer.AI

01 Nov, 15:16


Ребятки из T-Bank AI Research запилили нового лидера в мире методов распознавания out of domain объектов. 🧑‍🎓

Команда AI Research совместно со студентами МИСИС и МФТИ разработали новый 🌿  метод по обнаружению ранее неизвестных объектов на фото с помощью ИИ.

Значимость открытия в том, что теперь риск ошибки при обработке и анализе изображений снизился более чем на 20%, что уменьшает необходимость перепроверки и исправления неверных решений человеком.

Метод получил название SDDE (Saliency-Diversified Deep Ensembles) и будет особенно востребован в сферах, требующих высокой точности анализа. В перспективе он поможет развить сферу беспилотных транспортных средств и медицинской диагностики, где важно различать неопознанные элементы и графические артефакты.

Открытие было признано мировым научным сообществом и представлено на Международной конференции по обработке изображений (IEEE ICIP) в Абу-Даби, ОАЭ. Это одна из крупнейших научных конференций, посвященных обработке изображений и видео, а также компьютерному зрению.

Суть метода.

Рассматривается проблема диверсификации поведения моделей для распознавания объектов. В частности, метод глубокого ансамблирования, который объединяет несколько нейронных сетей для решения данной задачи. Это похоже на сбор мнений разных экспертов для получения лучшего решения.

Предыдущие разработки в области CV сталкивались с проблемой однородности ансамблей, то есть они были слишком похожи друг на друга, что снижало качество и разнообразие их оценок. Это возможно в тч потому, что  используются или одни и те же данные для обучения или же схожие архитектуры.

Ребятки из лаборатории T-Bank AI Research нашли решение этой проблемы с помощью нового метода SDDE, который использует карты внимания, фокусирующиеся на разных аспектах данных. Чет мне это напоминает ViT.
Говорят, такое уменьшает схожесть моделей и повышает их общую точность, благодаря чему идентификация объектов становится более надежной и диверсифицированной.

Также исследователи научили модель при работе с изображениями учитывать не только те наборы данных, которые использовались при ее обучении, но и незнакомую ей информацию. Такой подход значительно улучшил работу модели в области обнаружения ранее неизвестных ей объектов и точности их идентификации.

Как видите, обозначенные мной проблемы с данными и архитектурой, решают авторы комплексно. Молодцы.

Как оценивали?

Для оценки эффективности метода ученые провели испытания на популярных базах данных: CIFAR10, CIFAR100 и ImageNet-1K. Метод SDDE продемонстрировал наилучшие результаты по сравнению со схожими алгоритмами, такими как Negative Correlation Learning и Adaptive Diversity Promoting.

Интересны подробности этой SoTA? Читаем в статье туть.

P.S. Чего добру пропадать. Просто и нативно, без глубины, оставлю тех детали описать эбенных идей админу.

Dealer.AI

31 Oct, 18:19


А это,что тут у нас? Не просто поиск, но и агенты?

Dealer.AI

31 Oct, 17:16


Гугл делает АИ
OpenAI делает гугл perplexity.
Часть 2-я.
Завершенная.

https://openai.com/index/introducing-chatgpt-search/

Upd. Думаю в тч поэтому вышло такое на днях https://openai.com/index/introducing-simpleqa/. Замерять ж надо qa свойства.

Dealer.AI

31 Oct, 10:37


Середина рабочей недели, время выдохнуть и пошутить.

Осторожно, громко.

Dealer.AI

30 Oct, 10:20


А раз метрики важны, ребзя давайте навалимся на https://llmarena.ru/ и сделаем оценки по интервалам надежнее

Dealer.AI

30 Oct, 10:01


Оп, коллеги подхватили,как и говорил в комментариях — ценность в метриках и методе оценки👇

Dealer.AI

30 Oct, 10:01


🌸GPT-4o system card🌸
#nlp #про_nlp #nlp_papers

Вышла статья с оценками модели GPT-4o, с мультимодальностью, оценкой рисков, оценкой автономности.

Пока впервые вижу, что по публикуемым замерам OpenAI иногда Claude 3.5 лучше 🫢
🟣https://arxiv.org/abs/2410.21276

Dealer.AI

30 Oct, 08:54


Orion близко,раз уже по gpt-4o систем репорт кинули на архив

https://arxiv.org/abs/2410.21276

Гляньте дату перезалива

Dealer.AI

29 Oct, 08:20


Полная JEST: Data curation via joint example selection further accelerates multimodal learning by DeepMind

Статья посвящена использованию Hard Negative Mining-а для задач, обучаемых с contrastive loss-ом в сетапе мультимодальных моделей (cv & nlp домены). А мы помним, что чем больше мы в контрастиве видим хардов, тем лучше ranking метрики.

Авторы показывают, что фильтрация данных на уровне сэмпла (independent filtering) не так оптимальна для contrastive-задач, где сэмплы притягиваются и отталкиваются друг от друга.
Более же предпочтительным вариантом является JEST — Joint Example SelecTion, в котором батч для backproping-а сформируется умнее и фильтрация будет на уровне батча, а не сэмпла.

Импакт:
Получают модель, перформящую на уровне SigLIP, но тратят на обучение в 4-10 раз меньше FLOPs (зависит от конфигураций) и "видят" в 10-13 раз меньше тренировочных сэмплов.

Узкое место: для генерации хардов на батче используется референсная модель. Т. е. мы используем внешний энкодер, и это накладывает ограничения: над выбрать модельку, наследуется ошибка и еще появляется доп звено в пайпе.

P.S. для обучения SigLIP-а в 2023 затратили в 10-20 раз меньше FLOPs чем CLIP @ OpenAI в 2021.


Пост подготовлен в гараже совместно с AI-машинистом.

Dealer.AI

27 Oct, 22:35


Еще метрики на доменах

Dealer.AI

27 Oct, 22:33


Метрики

Dealer.AI

27 Oct, 22:32


Архитектуры.

Dealer.AI

27 Oct, 22:32


Generative Reward Modeling на пути к Q-STaR или как подружить RLHF и RLAIF.

В этом обзоре мы рассмотрим уже известные многим механизмы дообучения моделей предпочтениям: RLHF , RLAIF. Данный пост основан на работе создателей спасительного DPO.

Немного предыстории. Когда мы говорим про обучение с обратной связью кожаных, ака RLHF — мы держим в уме процесс, в котором на основе предпочтений людей обучается или reward модель и ppo или же DPO прямой тюн LLM.
При этом, также, было позже предложено использовать RLAIF, на основе self-rewarding/critic свойств моделей. В т.ч. эти свойства позволяют вам заводить LLM-as-Judge оценки моделей. В результате RLAIF подхода, модель награды/dpo учится предпочтениям на основе иной LLM или даже их комитета.

Однако в каждой из методологий, есть свои недостатки:

1. Reward модели обученные на rlhf подходе плохо срабатывают на out-of-domain примерах, т.е. на контекстах, которые не попали в обучающую выборку.
2. Reward модели на основе rlaif имеют недостаточную корреляцию с предпочтениями человека.
3. Использование только DPO моделей в последних исследованиях может не дать нужного результата. Та же Llama3 была обучена на гибридном подходе DPO и Reward.

Авторами DPO, предлагается новый метод микста обоих подходов AI and Human feedback. Вместо обучения модели Bradley-Terry, ака reward модель дающая оценку генерации в виде ранга, учится GenRM модель. GenRM учится, непосредственно, сравнивать вероятности next tokens между двумя потенциальными ответами y1,y2 для промпта x (в работе это зовут индикатор токенами).
Примечание авторов, что LLM, на самом деле, тут учится как классификатор в сетапе next-token-prediction.

Вы думаете, ребяты на этом остановились? Нет. Далее авторы вводят новый концепт CoT-GenRM с рацио. Т. е. по сути добавляют цепочку рассуждений, прежде чем выбрать индикатор токен.

Но и это еще не все. Далее уже включается мифический Self taught reasoner, кодовое имя STaR (ага да ничего не напоминает?) Тут конечно у людей совсем выпал снег и они делают просеивание human feedback сета через CoT-GenRM. Цель в том, чтобы получить рассуждения модели и отсеить те из них, что не приводят к предпочтительным ответам из данного сета. Далее на таких фильтрованных рассуждениях происходит сессия из К итераций SFT. После чего получают CoT-GenRM-STaR (черт они скоро начнут как в китайских авто расширять имена моделек).

Думаете это уже конец? А фиг вам, снег не только выпал, но уже и в голову ударил. Тк. мы не использовали плохие рассуждения, авторы предлагают два хака взять их в оборот:
1. Подложить модели подсказку в виде правильного ответа и попросить обосновать его. Тогда они получат CoT-GenRM-STaR-ratio модель. Тьфу на вас нечистыя...
2. Или же использовать неверные рассуждения как негативы в DPO. И че вы думаете? Да будет CoT-GenRM-STaR-DPO.

Фух, но вот теперь точно все. В качестве замеров предлагается reward-bench на котором показаны: reward Бредли-Терри, GenRM, LLm as a judge, STaR SfT, STaR DPO, STaR-ratio. Где почти все подходы опережают классик reward, однако в чит-чат оси разница не значима.

В заключении.
На самом деле у Дяди главный вопрос. Зачем городить столько этапов? Ведь каждый этап это $ на доп эксперимент. Плюс видно, что для некоторых осей reward-bench и во все можно остановиться или на Бредли Терри или на первых этапах GenRM, не идя в STaR. С другой стороны если разрыв в сумме по бенчу отбивает все затраченные усилия. Why not. Но это уже решать Вам, юзерам.

Dealer.AI

27 Oct, 09:17


а вы говорите, ML, DS, LLM...
Вот чего оказывается в моде 💸📈

Учи матан блеат 💪🚶‍♂️

Dealer.AI

26 Oct, 08:46


Лан, че там у нас с deep fake detection...

За скрин спс @FutorioFranklin

Dealer.AI

25 Oct, 19:11


Че там так все возбудились на Orion?
В жизни Жоского Дяди был ток один четкий Orion — это чокопай 💳

Dealer.AI

24 Oct, 10:54


Так, народ требует хлеба и зрелищ на ruArenahard, Mera, llm-arena и в Колизее! 💪🇨🇩

Dealer.AI

24 Oct, 10:43


🙂 Представляем четвёртое поколение YandexGPT

Новые нейросети уже доступны в Yandex Cloud, попробовать их можно в AI Playground. Скоро YandexGPT 4 появится и в сервисах Яндекса — первым из них станет Алиса с опцией «Про».

Подписывайтесь @yandex

Dealer.AI

24 Oct, 10:43


Янда рапортуе...

https://ya.ru/ai/gpt-4 👇

Dealer.AI

23 Oct, 19:54


Сегодня жоский Дядя разбудил меня под ночь, сказал одевайся, бери годовой набор флешек по 2гб и загран паспорт "будем драйвера Nvidia ввозить".

Наверное это конец...

Конец нашей бедности. 🤣

Dealer.AI

22 Oct, 19:06


R.I.P 🫡

Dealer.AI

20 Oct, 10:38


Тк основным топливом для foundation моделей являются публичные корпуса, то в текущих реалиях обладание источниками этих данных теперь уже вопрос конкурентного преимущества. Тенденция на закрытие лицензий понятна, но удручающая. Имеют ли такие сокрытия обратную силу для уже обученных моделек, тоже больной вопрос. Также для создания спасительной синтетики, нужно использовать плоды тех же моделей, обученных на теперь уже закрытых данных.
Вопросы. Вопросы. Вопросы.
👇👇👇👇👇

Dealer.AI

20 Oct, 10:38


🌸 [ДАННЫЕ УДАЛЕНЫ] 🌸
Будущее корпусов, знаний и нас с вами в условиях лицензионной войны
#nlp #про_nlp

Наконец-то хорошие новости на конец недели:
Флибуста, самая большая русскоязычная торрент-библиотека, продолжит работу!

Создатель ресурса заявил, что сервера оплачены ещё на какое-то время.

🟣Что это значит для нас?

Большая часть знания, профессиональной и художественной литературы продолжат быть доступны в открытом доступе, для человеческого и машинного чтения.

Важность таких ресурсов трудно переоценить: это фундаментальная воспроизводимость и проверяемость ссылок в интернете упирается в доступность источников, которые часто не доступны более нигде.

По расчётам 2019 года, только 10% всех печатных изданий с ISBn на текущий момент надежно оцифрованы и имеют несколько резервных копий.

🟣Internet Archive: на контрасте

Интернет-архив Archive.org проиграл судебный процесс и апелляцию. OpenLibrary может перестать существовать, и в результате иска издателей 500.000 книг должны быть изъяты из доступа, а Архиву интернета вероятно нужно будет заплатить штраф более 400 млн долларов издателям.

Добивкой послужила и недавняя хакерская атака на ресурс, не известно, связанная ли, но в результате the Way back machine был недоступен почти неделю.

🟣Критическое окно возможности для открытого знания и открытых данных

Самые ценные данные в интернете — это вовсе не средний информационный шум, а ресурсы с высокой плотностью информации. Более конкретно, наиболее ценные данные для корпуса, это:
— Научные статьи, журналы, доклады
— Данные естественных наук, последовательности ДНК, химические формулы, и тд
— Нонфикшн, документы и профессиональная литература
— Код к научным статьям, опенсорс проекты
— Исследовательские данные, данные и код к статистиическим, экономическим исследованиям, внутренние и открытые доклады
— Форумы с научными, профессиональными дискуссиями
— Инструкции, научные регулярные издания, газеты
— Записи публичных выступлений, докладов, подкасты, документальные фильмы
— Открытые государстыенные данные и утекшие корпоративные документы
— Художественная литература
— Обзоры, описания, метаданные к различным данным
— Стенограммы судов, судебные решения
— Карты, географические данные
— Развлекательный контент

Суммарно все это хранится не только в атакуемом архиве интернета, но и индексах поисковиков (частные компании) и теневых библиотеках (некоммерческих организациях).
Хотя теневыми их млдно назвать разве что потому, что занимающиеся ими активисты обычно вытоленуты как минимум в серую зону относительно драконовского копирайтного законодательства и маргинализированы. Хотя вообще-то им можно ставить памятник.

Архив Анны занимает примерно 900Тб, и столько же все его резервные копии. Если включить цену носителей данных, электричество и администрирование, то это 15-40 тысяч долларов в год за 10% от объема знаний человечества, и близко к 100% от всего доступного.

Цены на цифровые носители продолжают падать.
Если расчёта Архива Анны верны, то в течение пары следующих 10 лет цена упадёт до 1-3 тысяч долларов за резервную копию. В целом, все ещё много, но гораздо большее число людей сможет позволить себе поддерживать инициативу.

Поскольку цена порога вхождения падает, уже через пару лет уже гораздо большая доля всех доступных книг будет иметь больше чем 1 резервную копию! Битва идёт лишь с обратным трендом и давлением копирайтеров, чтобы зачистить интернет-библиотеки до наступления этого момента.
Суд над интернет-архивом это наглядно показывает.

🟣А ты записался добровольцем?

Я напоминаю, что ресурсы из OpenLibrary все ещё непублично доступны через Архив Анны.

🌸 Можно стать сидером уже существующих торрентов
🌸 Можно стать хостером теневой библиотеки самому
🌸 Флибусте, Интернет-Архиву и Архиву Анны можно задонатить!
Перераспределяя немного своих шекелей тем, кто работает на благо цивилизации бесплатно и рискует, вы приближаете победу открытого доступного знания.

Dealer.AI

18 Oct, 22:45


Кекаем все вместе 💳

Dealer.AI

18 Oct, 22:45


Mistral представил новые модели 3b и 8b.

Все наверное слышали, что заононсили новых малых от крупы 🤣

Как обычно зарепортили топ метрики в своем размере 🌿

Но есть один нюанс... 👇

Забыли добавить лидеров в этом же сайзе, к примеру, Gemma2 9b😁.

Dealer.AI

17 Oct, 16:38


Turbo Alignment — новая библиотека для алайнмента от Т-Банка.

Еще совсем недавно была выпущена модель T-lite от Т-Банка. А теперь ребятки открыли доступ к библиотеке Turbo Alignment. Данное решение позволяет из коробки тюнить свои LMки, понижает порог входа для ML специалистов в этом направлении, а также уменьшает time2market решений на базе LLM, тк вам не нужно настраивать собственный пайплайн обучения.

В библиотеке уже доступны:

▶️No-code-запуск
экспериментов, скрипты для обучения большого количества алгоритмов, модуль для быстрого тестирования моделей и инструменты для мониторинга метрик во время обучения.

▶️Инструменты для исследований и разработки. Turbo Alignment предоставляет все необходимые средства для добавления новых методов обучения и их сравнения с уже существующими решениями на конкретных задачах. Библиотека создана при участии лаборатории T-Bank AI Research и также дает доступ к последним исследованиям в области AI Alignment.

▶️Поддержка сложных процессов обучения. Turbo Alignment оптимизирован для распределенного обучения на нескольких видеокартах и серверах (Multi-GPU и Multi-Node).

Вот такой вклад в демократизацию работы с LLM внесли ребятки. Код тык тут.

Dealer.AI

14 Oct, 13:27


Обожаю! 🤩 Очередная статья про галлюцинации LLM

LLMs Know More Than They Show:
On the Intrinsic Representation of
LLM Hallucinations


В этот раз авторы обнаружили:

Что правильные ответы LLM кроются в определенных токенах. Они смотрели на активации токенов по разным слоям и учили классификатор предсказывать правда/неправда сгенерирована ( probing )

Впоследствии можно генерить пару предложений и выбирать правильное классификатором

Анализировали частотность правильной или неправильной генерации подряд и выявили, что есть разные типы ошибок (постоянно правильный, постоянно неправильны). Соответсвенно, когда такую активацию прослеживаем, можем применять сценарии доведения модели до правильного ответа.

Небольшое отступление: to be honest, я чет не прониклась выводами, очень уж напоминает выводы из статьи Anthropic, которую разбирали на reading club, только метод другой (давайте посмотрим как активируются определенные токены в зависимости от контекста, а там нейронные активации)

😠Ну теперь глобальный минус статьи:

На разных датасетах воспроизвести результаты активаций не вышло. Надо переобучать классификатор. У меня лично, вопрос возникает о том, не частный ли это случай их обнаружений :(

Paper: link
Code обещается быть тут

Dealer.AI

14 Oct, 11:56


Люди вы че снег никогда не нюхали видели? 😦

Ничто так не может перебить хайп от AI, как первый снег. 😂

Без шуток пока люд будет так, с детским восторгом, радоваться этому и иным являениям природы, он не станет сурогатом.😁

Наверное.🆒

Dealer.AI

13 Oct, 13:05


NotebookLM или начало новых подкастов с LM?

Ребята с Google хотели воплотить концепцию society of mind или "дебаты" с AI. Кстати Дядя писал уже об этом тут.

Но вышло в итоге NoteBookLM, где сервис, на базе модели семейства Gemini, может принимать на вход ваши доки/новости/аудио и тп, а на выходе делать аудио-дискуссию по "просмотренным" материалам между двумя llm-агентами.

Ну что теперь AI может пилить подкасты за Вас и по делу по-пИИ*деть 🤣

Входим ли мы в новую эру AI-driven подкастов или это кратковременный ажиотаж —поживем, увидим.

Dealer.AI

11 Oct, 12:17


Недавно обнимашки закинули в репо гайд по оценке LLM моделек.

Ребяты запилили все по полочкам:

1. Автометрики.
2. Оценка кожАных.
3. LLM как судья.

Везде есть база, хинты и даже мета метрики, к примеру в LLM as judge.

Репо: https://github.com/huggingface/evaluation-guidebook

Dealer.AI

10 Oct, 07:49


Да уж, вот вам и текстовые аугментации

#ShitPost

Dealer.AI

10 Oct, 07:49


Аугментекс вошел в пубертат. 👇

Dealer.AI

09 Oct, 14:28


Больше мемов про Нобеля седня не будет...

Наверное

Dealer.AI

09 Oct, 10:42


OpenAI с хайпом и прорывом с ChGPT и тп. открыл год Меча и Магии в созвездии премий "около MLных" исследований ?)

upd. Ждем следующих номинантов.

Dealer.AI

09 Oct, 09:53


Теперь и хемоинформатика пошла.

upd. link
https://www.nobelprize.org/prizes/chemistry/2024/press-release/

Dealer.AI

08 Oct, 11:10


С одной стороны рад, деды воевали заслужили, но по физике Карл!? С другой стороны как бэ и не биология и не совсем математика, а по информатике и кибернетике нет ничего..

А куда бы вы определили этих ребят в рамках доступных Нобелевской премии наук?
Пишем в комментарии.

https://www.nobelprize.org/prizes/physics/2024/press-release/

Dealer.AI

05 Oct, 12:31


e2e пайп с реранком

Dealer.AI

05 Oct, 12:28


Еще метрик

Dealer.AI

05 Oct, 12:28


Улучшения

Dealer.AI

05 Oct, 12:27


Фулл пайп индекса

Dealer.AI

04 Oct, 14:22


Открыт сезон конкурсов презентаций и ноутбуков на Kaggle от Google🧑‍🎓.

Google предлагает посоревноваться в тюне Gemma2 сеток для разных языков и соответствующих культурных особенностей, при этом конкурс состоит в написании гайда по обучению+код/ноутбук.

Требования также описаны в условиях: чОткий стиль, откуда взята и как подготовлена датка, наличие кода демонстрации обучения и инференса, размещение на кекле кода/датки/моделек, интересные хинты к тюну, утойчивость и др. За топ-5 мест 30к$. 💸

Такая щедрость, по мнению оргов стимулирует популяризацию исследований (ага щаз, Gemma2 хотят протолкнуть 🤣) в области языковых моделек. 🆒

Думаю, ребята с Saiga/Vikhr team могли бы вштать за ру-домен приз вполне.

https://www.kaggle.com/c/gemma-language-tuning

Dealer.AI

29 Sep, 21:39


По чатикам уже ходит анонс 135m модельки на 690млрд токенах обученной: https://huggingface.co/amd/AMD-Llama-135m

Чет с таким капасити кажется будет слабова-то.

Но я бы также смотрел сюда👇

Интересный обзор, в котором авторы сравнивают по различным критериям 59 малых языковых моделей с открытым исходным кодом. Рассматриваются архитектура, инсайты обучения, датасеты, возможности к рассуждению, а также математика и кодинг.
Не обошли стороной анализ затрат на инференс, delay по ответам и др.

https://arxiv.org/abs/2409.15790