CGIT_Vines @cgit_vines Channel on Telegram

CGIT_Vines

@cgit_vines


Канал о сферах CG, Игр и Генератива, все с помощью чего мы генерируем визуальное и интерактивное искусство.
Статистику не предоставляю, смотрите на tgstat.ru

mentorcampus.ru
youtube.com/user/TheThirdDimention
Вопросы и предложения: @Evgeniy_Vegera

CGIT_Vines (Russian)

CGIT_Vines - это канал, посвященный сферам CG, игр и генератива. Здесь вы найдете всю необходимую информацию о создании визуального и интерактивного искусства с использованием различных техник и программ.
На канале @cgit_vines вы сможете узнать о последних тенденциях в мире компьютерной графики, игр и генеративного искусства.
Для более подробной статистики по каналу вы можете обратиться на tgstat.ru.

Помимо канала, вы также можете посетить mentorcampus.ru и youtube.com/user/TheThirdDimention для дополнительной информации и обучающих материалов.
Все вопросы и предложения можно направлять по контакту @Evgeniy_Vegera. Присоединяйтесь к CGIT_Vines и узнавайте новое в мире компьютерной графики, игр и генеративного искусства!

CGIT_Vines

21 Nov, 04:19


Проснулся стартап PimEyes с вирусной рекламной кампанией про определение людей по фотографиям практически в реальном времени.

Конечно, это не немецкий журналист, конечно, его очки не умеют ничего распознавать. Ходит с какими-нибудь Ray-Ban Stories, стримит в соседний фургон, где тип сидит и через сайт PimEyes переходит по ссылкам, смотрит, кто кем работает, имена, фамилии и т. д. В общем, всё то, что вы выкладываете добровольно о себе в интернете. В целом, с саммари по списку ссылок можно даже эффективнее собрать информацию.

Сам стартап имеет мутную историю: зарегистрирован на Георгия Гобронидзе, сама компания оформлена в Дубае. Изначально разрабатывался двумя поляками потом был выкуплен через подставную компанию. В общем, просто не удивляйтесь, если какой-то "журналист" к вам подойдёт и будет рассказывать, что вы megavduvatel3000, и сыпать вашими цитатами из соцсетей. Особенно не говорите ему цифры с обратной стороны карты. It's a trap!

@CGIT_Vines

CGIT_Vines

19 Nov, 04:37


Claude Computer Use прогрессирует и учится взаимодействовать с пользовательскими интерфейсами. В примере показана игра Honkai: Star Rail. На самом деле, любая пошаговая JRPG подойдёт. Я сразу подумал про боёвку в BG3, а в PDF с описанием обновлений модели увидел примеры с Hearthstone. В прошлых постах вы писали про кейсы с покером — возможно, тоже зайдёт, но не играйте на деньги!

В итоге мне, конечно, хотелось бы запустить это всё на песочнице типа Sims и заставить Claude жить его лучшую жизнь😡

Прогрессия в управлении интерфейсами, не сказать, что идёт быстро. Модель всё ещё не умеет скроллить страницы, а без этого понимание того, что происходит на экране, не полное. К тому же разрешение входных скриншотов тоже имеет критическое значение.

Я частенько вижу статьи о том, что скалирование моделей упирается в том числе в нехватку данных. Интерфейсы и игры — это одно из окон возможностей, но куда больше модели смогут получить, если им дадут возможность видеть просто через камеру. В ближайших релизах у OpenAI как раз планируется такой функционал.

Project
Code

CGIT_Vines

18 Nov, 16:54


MagicQuill 🪄 редактор с функцией инпэинта.
Набор из кистей позволяет добавлять, удалять и  перекрашивать отдельные части изображения.

Использовать можно через hugging face или поставить на свою машину локально. Быстро, удобно, бесплатно.

Hardware Requirements
GPU is required to run MagicQuill
Instant prompt guessing ("Draw&Guess") requires ~5GB VRAM
Image editing operations require ~15GB VRAM

@CGIT_Vines

CGIT_Vines

18 Nov, 05:52


Еще одна работа из института Торонто, выполненная во время стажировки в Nvidia.

Подход выбран довольно простой и оптимизированный. Через описание вершин, записанных в obj файл, если кто не знал, obj файл геометрии — это просто описание последовательности точек в виде координат, записанных просто текстом. Используются пространственные данные, которые уже есть в LLM + дополнительное обучение по туторам на ютубе) Так что помните: с каждым новым записанным обучающим видео вы вбиваете гвоздь в крышечку 😈)

В общем, метод рабочий для простых риалтаймовых представлений, для web, например, работать со сложными многосоставными или органическими структурами так не получится. И еще он хорошо пакуется, потому что это просто текст.

Только не просите его сделать что-то слишком сложное, например, дерево, он не сможет.
Сгенерированные координаты потом вставляйте в поле с визуализацией меша, чтобы посмотреть результат.

Проект
Тут поиграться с проектом
Code

CGIT_Vines

16 Nov, 07:45


Я не знаю каждого из вас, но есть одна вещь, в которой я уверен абсолютно: что среди вас не найдется ни одного человека, который не слышал бы о Half-Life.

Последние пару недель очень много отдельных новостей: то сделают бесплатной для скачивания весь набор, deathmatch, первый и второй эпизод, (забрать тут), то гейб делает отсылки к цифре 3 с бочками, то вот выпускают двухчасовой фильм об истории игры к 20 летней годовщине. И я, конечно, не хочу ничего сказать, но мыслишки знаете ли закрадываются.

Если вам тяжко с анг., запускайте через Яндекс браузер с неро переводом, и хорошего просмотра.

20th Anniversary

CGIT_Vines

15 Nov, 06:07


Немного дикого лора из недр 1995 года и Unreal Engine 1.

Чувак удивляется, почему на новостной плашке в Fortnite у него появилась плесень. Sweeney объясняет, что это текстура, которую он в 95 году на 90 мегагерцовом Pentium загрузил в Unreal 1 как дефолтную текстуру, и, когда кто-то из проггеров забывает подгрузить нужную картинку, ставится этот плейсхолдер. ⛔️

CGIT_Vines

14 Nov, 17:37


Nvidia Research расписали довольно интересную статью про проект Edify 3D.

Если коротко, то это генератор 3D-моделей на диффузии и трансформерах, но отличает его от подобных, Meshy и Tripo, в том, что Nvidia собрала довольно много подходов в одном инструменте, и, если они доведут его до релиза и будут поддерживать, это будет реально полезная продакшен-тулза. Но кажется, Nvidia не софтверная компания.

Как и конкуренты, Edify генерирует необходимые карты PBR, умеет создавать представления объектов с разных ракурсов, в дальнейшем используя их же для текстур, а отсутствующие части между ракурсами аппроксимирует. Тут важно сравнивать, как алгоритм работает с задними частями модели, потому что в imgTo3D это обычно является слабым местом. В textTo3D с этим должно быть проще.

Дальше про сетку. В презентации ретопология, по всей видимости, работает по схожим алгоритмам с Houdini и Zbrush, и справляется в целом неплохо для танцующих анимированных болванчиков, в продакшен такое не потащишь, к тому же для статик-мешей гораздо лучше использовать триангулированную сетку, особенно если это не хард-сёрфейс. Надеюсь, они сделают кнопку переключения this, quads.

Самое крутое — это создание сцен из набора ассетов, что-то подобное пробовал сделать Andrey Maximov с Promethean AI, но без генерации ассетов. Надеюсь, у Nvidia получится.

Проект
@cgit_vines

CGIT_Vines

14 Nov, 08:02


Продолжая тему реалистичной мимики робо-лиц.


Инженеры из Колумбийского университета запилили интересную робоголову, естесственно, на нейронках, куда ж сейчас без них. Нужны эти нейронки для того, чтобы предсказывать выражение лица человека, с которым ведется диалог. А предсказывать выражение лица собеседника нужно потому, что замедленная мимика робота выглядит неискренней и кринжовой, а то ж нам эффекта зловещей долины не хватает.

Но больше всего понравился метод обучения этой железной башки эмоциям: её тупо поставили перед камерой и позволили совершать случайные движения своми 26-ю приводами, наблюдая за собой. Через несколько часов робот научился соотносить получившиеся выражения лиц с двигательными командами — так же, как люди тренируют мимику, глядя в зеркало. Затем показали железке различные видосы с разными выражениями лиц людей, чтобы обучить предсказывать эмоции по едва заметным движениям частей лица.

Момент, где он кривляется, глядя на себя в зеркало офигенный.

Тут подробнее:

CGIT_Vines

04 Nov, 12:41


Decart в демку Oasis добавил возможность создавать представления на основе вашей входящей картинки.

Ожидаемо, такой мир довольно быстро начинает деградировать и разваливаться. В следующих версиях обещают сделать его более стабильным. Все инсинуации с будущим оставляю вам в комментариях.

Пробовать всё там же. Свои миры кидайте в комменты — либо картинками, либо видосами.

@CGIT_vines

CGIT_Vines

01 Nov, 16:59


Offline is new luxury
#PIA

CGIT_Vines

01 Nov, 05:24


С каждым месяцем всё лучше и лучше. Геймдев все ближе к точке бифуркации.

Ребята из Etchet в сотрудничестве с Decart, на которой выпустили DoomAI, показали Minecraft, полностью сгенерированный, идущий в 20 fps без инпут-лага.

В эту демку можно поиграть вот тут, дождавшись своей очереди; на момент написания её около 100-200 человек.

Кадры генерируются в зависимости от вашего ввода: из интерактива — повороты, прыжки, строительство и разрушение.

Etchet также представили свой чип, который супербыстр для генерации видео через трансформеры, и предупреждают, что 70% контента уже имеют видеооснову, будут иметь ещё больше, в том числе генеративного формата. Эта демка запускается всё ещё на H100 в разрешении 360, и потом апскейлится; на чипах Sohu будут обслуживаться модели 100B+ и разрешением 4K, которые будут супербыстрыми за счёт распараллеливания.

Подробнее в их блоге.
@cgit_vines

CGIT_Vines

01 Nov, 04:31


Нашёл интересный пример с небольшой перспективой на развитие. Грубо говоря, возможность агента непрерывно смотреть на ваш экран и помогать вам в обучении. В данном случае это десктопная версия ChatGPT с голосовым управлением, но она пока не умеет смотреть на экран.

Прощай, курсы, учившие вас нажимать кнопочки в софте! А потом и в целом курсы, обучающие вас делать что-либо! В который раз убеждаюсь, что не сами знания, а пайплайн получения знаний становится куда важнее.

Мечта интерпренёра — поставить такое в офисе и каждый раз списывать с вас кредиты, когда страдаете херней на работе 🫡. Думаете, не поставят? Конечно, поставят!

Сейчас ещё нет релизнутых моделей (только беты), которые могут просматривать ваше рабочее пространство на компьютере или смартфоне. Claude и ещё пару стартапов пробуют делать это посредством скриншотов, и пока только так. Я думаю, к середине следующего года, но скорее всего раньше, у нас будет что-то наподобие этого концепта, но уже в рабочем состоянии.

CGIT_Vines

31 Oct, 06:17


Спустя примерно полтора года после того, как Wonder Dynamics присоединилась к Autodesk, они запустили бета-версию тулзы Wonder Animation.

Напомню для тех, кто пропустил: вы можете снимать на свой телефон шоты с актёрами и потом переводить их анимацию в готовые трёхмерные представления. Я даже делал стрим на эту тему полтора года назад.

Создатели сами заявляют, что не поддерживают хайп по автоматическим решениям с кнопкой «сделать красиво», понимают, что художникам нужны широкие настройки в инструментах при работе с ИИ, и предоставляют их, давая художникам полный контроль над анимацией движений, мимики, крупности шотов и, по заявлениям, поддержку бесшовного переключения между крупностями кадра. (Интересно посмотреть, как это работает).

CGIT_Vines

30 Oct, 05:17


Сегодня наткнулся на интересное исследование, в котором обсуждается, как крупные языковые модели учатся, используя структуры, схожие со строением человеческого мозга. В работе показано, что концепты в ИИ организованы на трёх уровнях: от «атомных» идей до более сложных «кластеров» с общими смысловыми признаками.

Использование автоэнкодеров для представления концептов в виде трёхуровневой иерархической структуры организовывает данные по принципу, напоминающему когнитивные структуры. Это дает языковым моделям возможность более глубоко понимать и генерировать смысловые связи, улучшая их точность и интерпретируемость. В итоге, это создает предпосылки для развития ИИ, способного обрабатывать сложную иерархическую информацию, типо того как это делает человеческий мозг.

Подробнее читать тут

CGIT_Vines

27 Oct, 06:15


По всей видимости, текущие методы RL не очень подходят для генерации трёхмерных представлений либо тратят слишком много вычислительных ресурсов. Поэтому для новой беты модели Gen-1 RLHF V0.9 использовали Reinforcement Learning with Human Feedback (RLHF): у них, натурально, в штате сидит команда моделлеров, которые раздают вознаграждения.

К слову, генерации на уровне Tripo3D из этого поста — возможно, у Tripo тоже RLHF, но это же не звучит так волшебно, если у тебя разметку делают люди.

На старте дадут 8 бесплатных кредитов, погонять тесты хватит. Для остального есть возобновляемые кредиты у Tripo.

Пробовать тут

CGIT_Vines

25 Oct, 15:29


В Японии освятили Гандама!
Теперь официально, выходные можете проводить спокойно, человечество под защитой.

CGIT_Vines

25 Oct, 12:16


А вот тут чувак поместил старую и обновленные модельки sonnet 3.5 в майнкрафт в качестве агента и попросил отстроить что-нибудь.

Слева — старая модель, справа — новая. Тот самый случай, когда claude строит лучше, чем я.

Майнкрафт — тысяч бенчмарков.

CGIT_Vines

24 Oct, 06:43


Давайте пока охладим траханье на счёт управленческих LLM-систем. Если кто не в курсе, почитайте тут у Дениса.

Если влом читать, то это LLM-агенты, способные "управлять" вашим компом через промпты.

Не знаю, в чём там сложность установки, но я как гуманитарий поставил в течение пары минут.

Попросил создать сферу в Blender — окей, не можешь, давай тогда, может быть, куб? Тоже нет? Окей, я создам сам, просто подвинь его на 5 см вправо. Нет? Бу, испугался?

В общем, моё дело — периодически проверять, теряем ли мы работу или ещё можно пофлексить. И, как видно из видео, для съёмки которого я оплатил API Claude AI, оно того стоило, ага 🤡. Работу пока не теряем.

Блуперы, не попавшие на видео: на просьбу запустить Blender, он настойчиво открывал ZBrush.

Давайте ваши советы, что ещё попробовать! Автору самого интересного и рабочего промпта посвящу пост в канале.

Агента брал с этой репы