Derp Learning @derplearning Channel on Telegram

Derp Learning

@derplearning


Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.

Derp Learning (Russian)

Добро пожаловать в Telegram-канал Derp Learning! Если вы увлекаетесь искусственным интеллектом, IT-технологиями, компьютерными играми и инженерными изобретениями, то этот канал для вас. Здесь вы найдете увлекательные заметки о том, как можно использовать искусственный интеллект не по назначению, а также много интересного о последних технологических разработках и инновациях. Derp Learning - это место, где вы узнаете о том, как применять AI в нестандартных ситуациях и какие уникальные возможности он предоставляет. Присоединяйтесь к нам, чтобы быть в курсе самых свежих новостей из мира технологий и получать увлекательные знания о мире искусственного интеллекта.

Derp Learning

21 Nov, 11:10


https://huggingface.co/Efficient-Large-Model/Sana_1600M_512px

вышла

демо: https://nv-sana.mit.edu/

Derp Learning

17 Nov, 11:45


Вчера был большой день в моей карьере артиста.

Моя работа A DREAM стала одним из победителей Artefact AI film Festival.

Был красивый показ и церемония награждения в кинотеатре mk2 bibliothèque в Париже, где я торжественно присутствовала. Прикрепляю фото и видео как это было.

А еще в ближайшем будущем планируется длительный показ в сети кинотеатров mk2, но об этом позже.

#jane

Derp Learning

12 Nov, 11:57


Очередной хайп-тул от китайцев из ByteDance — SeedEdit

По сути, это еще один text2photoshop или по простому текстовый редактор картинок, но качество — моё почтение (судя по черипикам, а демо на Hugging Face у меня пока лежит).

Результаты получаются очень похожими на то, что даёт наш Emu Edit из соседней команды.

Пробежался по тех-репорту. Деталей там зиро, так же как и novelty:
Все таже начинают с обычной pre-trained text2img диффузии и генерят пары синтетических данных - картинка и ее отредактированная версия с инструкцией. Далее это все дело сильно фильтрут, дообучают модель на отфильтрованных парах с инструкциями. Затем опять повторяют по кругу - генерят синтетику, фильтруют и дотренивают модель. Так несколько раз.

По архитектуре: вместо добавления оригинальной картинки на вход с помощью конкатенации дополнительных каналов как в Emu Edit, тут кормят фичи оригинальной картинки в контекст self-attention блоков. Эта фишечка не новая, так делали уже например в Story Diffusion для генерации консистентных кадров.

Иначе говоря, ничего нового в методе нет, челы просто очень хорошо приготовили синтетические данные (data is the king).

Больше примеров ниже.

Демо на Hugging Face
Пейпер
Project page

@ai_newz

Derp Learning

09 Nov, 17:49


Runwayml: анонсирует camera controls, успевает похайповать полчаса.
Опенсорс: hold my beer

DimensionX Lora для Cogvideo. Моё увожение!

Github

Derp Learning

09 Nov, 01:21


Что-то это уже слишком хорошо для липсинка.

У Тиктока 4 месяца назад вышел X-Portrait
https://github.com/bytedance/X-Portrait

Но сейчас они бахнули X-Portrait 2 и это уже запредельно выразительно.
Я прям очень жду код, потому что они похоже могут уделать Runway Act One - и все это будет локально, без подписок и кредитов.

Поглядите вот тут, это стоит того:
https://byteaigc.github.io/X-Portrait2/

@cgevent