Neurogen @neurogen_news Channel on Telegram

Neurogen

@neurogen_news


Популяризатор нейросетей, разработчик-энтузиаст, немного писатель, и просто человек, пытающийся выжить.

По вопросам сотрудничества: @roman_neurogen

Boosty: https://boosty.to/neurogen

Live канал: @neurogen_blog
Реестр РКН: №4777528086

Neurogen (Russian)

Добро пожаловать на канал Neurogen! Этот канал является популяризатором нейросетей, а также местом для обмена идеями и опытом с другими энтузиастами в этой области. У нас вы найдете советы по разработке, новости из мира нейротехнологий, а также интересные статьи от нашего сообщества.

Автор канала - разработчик-энтузиаст, который также любит писать и делиться своими знаниями. Он стремится сделать мир нейросетей доступным для всех и помочь другим узнать больше об этой захватывающей области.

Если у вас есть вопросы или вы хотели бы сотрудничать с нами, не стесняйтесь обращаться к нашему администратору по контакту @roman_neurogen. Мы всегда открыты для новых идей и возможностей сотрудничества.

Также у нас есть платформа Boosty, где вы можете поддержать нас и нашу работу: https://boosty.to/neurogen

Не забудьте заглянуть на наш Live канал @neurogen_blog, где мы проводим трансляции и обсуждаем последние новости и тренды в мире нейросетей. Присоединяйтесь к нам и станьте частью нашего сообщества Neurogen уже сегодня!

Neurogen

16 Feb, 10:12


VisoMaster Portable by Neurogen v 0.1.3 | DeepFake | Nvidia

VisoMaster — мощная и простая в использовании программа для замены лиц (DeepFake) и редактирования видео, которая объединяет современные нейросетевые технологии для создания реалистичных эффектов. Программа разработана для работы с изображениями и видео и включает следующие основные возможности:

Face Swap
• Поддержка нескольких моделей замены лиц, включая модели, обученные с помощью DeepFaceLab (DFM)
• Многолицевая замена с индивидуальными настройками маскирования для каждой части лица
• Поддержка occlusion masking (DFL XSeg Masking)
• Совместимость с популярными детекторами лиц и алгоритмами определения ключевых точек
• Восстановление оригинальных выражений (Expression Restorer)
• Улучшение качества изображений лиц с помощью моделей масштабирования (Face Restoration)

Face Editor (LivePortrait Models)
• Ручная настройка выражений и поз
• Точная корректировка цветовой гаммы для лица, волос, бровей и губ через RGB-редактирование

Другие мощные функции
• Live Playback – предпросмотр видео в реальном времени
• Использование эмбеддингов лиц для повышения точности и сходства при замене
• Возможность живой замены лиц через веб-камеру для стриминга (Twitch, YouTube, Zoom и т.д.)
• Интуитивно понятный интерфейс
• Видео-маркеры для детальной настройки параметров по кадру
• Поддержка TensorRT для ускорения обработки на совместимых GPU
• И многое другое

---

Что нового:
v0.1.3:
- Добавлена поддержка загрузки изображений с путей, содержащих символы Unicode (неанглийские букв, такие как кириллица и др. )
- Добавлены кнопки для загрузки папок с целевыми и входными медиа
- Последние загруженные пути для целевых файлов, входных медиа и эмбеддингов теперь запоминаются
- Параметры сохраняются в файле рабочего пространства даже при отсутствии целевых лиц
- Другие мелкие исправления и улучшения

v0.1.2:
- Исправлены проблемы с невидимыми элементами в Dark-Blue теме
- Устранена проблема с автопрокруткой на списках
- Скорректированы отступы в панели параметров
- Перемещены переключатели «Face Compare» и «Mask View» в видеопанель
- Опция «Save Image» теперь напрямую сохраняет изображение в выходную папку
- Другие незначительные багфиксы и улучшения

Также были обновлены CuDNN и TensorRT до последних версий.

Сборка доступна для поддержавших проект на площадках:

Boosty | Приватный Telegram канал со сборками

#deepfake #portable #rope

Neurogen

15 Feb, 09:49


После увиденного в трендах Reels/Shorts видео с ИИсусом, невольно задумаешься, а тот ли контент ты делаешь...

#ai #юмор

Neurogen

15 Feb, 04:35


🔥 OpenAI объединяет все технологии в GPT‑5: что нас ждёт?

💡 OpenAI меняет стратегию — вместо множества специализированных моделей создаётся единая система GPT‑5, чтобы избавиться от запутанного выбора для пользователей. Сэм Альтман объяснил, что цель – «единственный интеллект, который просто работает».

📌 Новая линейка моделей:

GPT‑4.5 ("Orion")
Это промежуточная версия без технологии «цепочки мыслей». Запуск GPT‑4.5 ожидается уже в ближайшие недели и станет тестом для новых наработок.

GPT‑5
Унифицированная модель, включающая голосовое управление, обработку изображений, улучшенный поиск и алгоритмы рассуждения. Базовая версия будет бесплатной для всех пользователей, а подписчики Plus и Pro получат расширенные возможности. По большинству источников (Reuters, Business Insider, WSJ и др.) GPT‑5 может появиться в ближайшие месяцы, хотя точные даты пока не объявлены. Некоторые публикации отмечают, что проект уже столкнулся с задержками и высокими затратами.

📌 Как будет организован доступ и монетизация?

💰 Бесплатный доступ:
Все пользователи ChatGPT смогут пользоваться GPT‑5 без ограничений на базовом уровне.

💎 Платные подписки:
ChatGPT Plus (~$20/мес.) — доступ к более мощной версии GPT‑5, сниженная задержка ответов, приоритет в нагрузке на серверы.
ChatGPT Pro (~$200/мес) — вероятно, включит доступ к улучшенному голосовому чату, продвинутым инструментам для бизнеса и API без ограничений.

🌍 GPT Store:
OpenAI активно развивает свою экосистему — GPT Store, где разработчики смогут монетизировать кастомные GPT-модели, предлагая их пользователям по подписке или за разовую плату.

📌 Основные плюсы и вызовы:

Преимущества:
– Упрощённый интерфейс и единый API для разработчиков.
– Бесплатный доступ для всех пользователей.
– Возможность зарабатывать на кастомных GPT через GPT Store.

❗️ Проблемы:
– Обучение модели обходится в сотни миллионов долларов.
– Недостаток качественных данных вынуждает создавать синтетические наборы, что замедляет процесс.
– Внутренние перестановки и конкуренция за таланты влияют на сроки разработки.

OpenAI отказывается от разрозненных моделей в пользу единой системы. GPT‑4.5 — запуск в ближайшие недели, а GPT‑5 появится через несколько месяцев. Базовый доступ будет бесплатным, но для продвинутых возможностей потребуется подписка. Новая стратегия упрощает использование ИИ и помогает OpenAI сохранить лидерство на фоне растущей конкуренции.

#chatgpt #gpt-5 #openai #llm

Neurogen

11 Feb, 11:37


Нейросети пока не сделают за вас всё, но сделают многое!

А чтобы найти идеальную нейросеть для ваших задач —
подписывайтесь на GPT DO IT - здесь, ясно, чётко, актуально 💪
@gptdoit

Neurogen

02 Feb, 01:38


VisoMaster Portable by Neurogen | Бывший Rope | DeepFake

VisoMaster - профессиональный DeepFake видеоредактор от разработчиков Rope и RopeMod. Так как оригинальный разработчик Rope уже около полугода не выпускал обновлений, комьюнити решило отделиться и сделать свой "ремастер" для Rope.

Программа практически полностью повторяет функционал RopeMod, такие как тонкая настройка маски и замена видео с вебкамеры, но возможно некоторые функции буду добавлены позже.
Самое главное в программе - что графический интерфейс для пользователя стал еще более удобным и быстрым - теперь все быстро отзывается, вы можете работать не только папками но и единичными файлами, а также подросла скорость работы отдельных элементов.
От себя, я пересобрал сборку на основе Cuda 12.6 и библиотек, а также добавил все необходимые модели.

Сборка доступна для загрузки для поддержавших канал финансово на:

Boosty | Приватный ТГ канал со сборками

#portable #rope #deepfake

Neurogen

31 Jan, 22:07


OpenAI выпустили o3-mini - бесплатно

Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.

Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).

У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.

Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.

Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.

@ai_newz

Neurogen

30 Jan, 09:04


Хотите попробовать передовые нейросети без вложений? BotHub дарит вам 100 000 токенов по нашей ссылке только до 28.02.2025!

BotHub – это:

- Бесплатный доступ к ChatGPT, Claude, Midjourney и другим ИИ-моделям с подарочными токенами;

- Все необходимые нейросети в одном окне;

- Создание контента нового уровня с Easy Writer – мощным визуальным редактором с генерацией тем, планов, SEO-настройками, поддержкой референсов и экспортом в разных форматах;

- Одни из самых низких тарифов в РФ, включая безлимитные пакеты;

- Мгновенный доступ без VPN с оплатой российскими картами, а также быстрым доступом к нейросетям через Telegram-бота;

- А также шифрование чатов, тонкие настройки параметров ИИ, работа с документами, моментальное подключение новых моделей и многое другое.

Успейте забрать свои 100 000 токенов, пока не поздно, и откройте для себя мир возможностей ИИ с BotHub!

Реклама. ООО “БотХаб”. ИНН 6382097218. erid: CQH36pWzJqDgDUbK1CbUbGfqmfJVg3Qi19hfatC16UfxeH

Neurogen

29 Jan, 00:18


Могучий синий кит Китай ронять Запад бесплатно

Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.

Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):

1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .

2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .

3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .

4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .

5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .

6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .

7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .

В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .

Партия давать +100 социальный рейтинг за комментарий про силу Синий Китайский Кит над Запад 😺

#ai #llm #ainews

Neurogen

25 Jan, 04:07


⭐️ OpenAI представили своего AI агента.

Operator — это ИИ-агент, который умеет работать с браузером, заказывать продукты, бронировать билеты и столики в ресторанах искать данные и тп.
Вам нужно просто описать свою задачу, а затем наблюдать в реальном времени, как оператор выполняет её за вас.
Доступ пользователям Pro уже открыт, для остальных обещают в ближайшем времени:
operator

⭐️ Open Operator
В преддверии релиза OpenAI Operator разработчики начали собирать полезные ресурсы, связанные с Operator и другими подобными решениями для автоматизации задач:
Github

⭐️ Новый лидер на Text-to-Image Arena! Imagen 3 от Google DeepMind

Imagen 3 дебютирует на первом месте, обойдя Recraft-v3 с впечатляющим отрывом в +70 очков!
Imagen 3 доступен на сайте .

⭐️ "Последний экзамен человечества"

Это тщательно собранный датасет с 3 000 вопросов, разработанный при участии сотен профильных экспертов, чтобы отразить границы человеческих знаний. Лучше всех справляется с ним DeepSeek R1 от, достигая 9.4%, у o1 отставание с 9.1%.
Dataset

⭐️ Можем ли мы генерировать изображения с помощью цепочки мыслей CoT?

Давайте проверим и улучшим генерацию изображений шаг за шагом.
Авторегрессионная генерация изображений + масштабирование выводов приводят к существенному улучшению генерации изображений на нескольких бенчмарках.
Github Статья HF

⭐️ Pika 2.1

Крутейший генератор видео уже на подходе 😁 Движение в реальном времени стало намного лучше!
Здесь, можно подать заявку на ранний доступ:
Доступ

⭐️ o3-mini станет бесплатной — работать с моделью скоро смогут все желающие!
Новость


⭐️ Anthropic. Представили Citations

Новая функция API, которая позволяет Claude обосновывать свои ответы на предоставленных вами источниках.

Еще Claude может процитировать конкретные предложения и отрывки, которые лежат в основе каждого ответа.
Новость

@ai_machinelearning_big_data


#news #ai #ml #machinelearning #deeplearning #openai #pika #chatgpt #Imagen #cot #Anthropic #Claude

Neurogen

23 Jan, 06:22


🤖 Золотая коллекция авторских каналов про нейросети, сохраняйте!

Собрал для вас редкие и полезные каналы про нейронки:

НейроProfit — авторский канал с проверенными инструментами для бизнеса, учебы и работы. Конкретика, кейсы и пошаговые инструкции – все, чтобы вы смогли использовать ИИ эффективно уже сегодня.

Tips AI | IT & AIпишет про интересные сервисы AI и IT технологий! Всегда актуальное, проверенное и немного с юмором.

Бурый — коллекционер нейросетей, тестит всё на себе и делится лучшими бесплатными нейронками.

Силиконовый Мешок — Авторский канал нейроиспытателя Артема Субботина про искусственный интеллект приносящий прибыль.

Сергей Булаев AI 🤖 - создание полезного контента и продуктов с помощью ИИ. Открываем эру миллиардных компаний из трёх человек.

Neurogen

21 Jan, 16:02


Deepseek выпустила собственные мобильные приложения.

Приложение DeepSeek - AI Assistant доступно для загрузки в Google Play и App Store

В целом, приложение повторяет функционал веб версии чата:

- Веб поиск
- Распознавание текста на изображениях
- Работа с документами

#llm #deepseek

Neurogen

20 Jan, 17:17


Генерация AI видео у себя на ПК: HunyuanVideo.

Из всех open-source моделей - HunyuanVideo наиболее интересная, она может генерировать видео в разрешении 720P и с длиной до 129 кадров.

Рекомендуемые системные требования:
Для более-менее нормальной работы с данной моделью вам потребуется ПК с RTX 4090 или 3090 на борту, а также 64+ Гб оперативной памяти.

Наиболее актуальным решением для работы с моделью является ComfyUI - там больше всего полезных оптимизаций.

Если вы уже разбираетесь в ComfyUI и умеете ставить pip пакеты - то дальше рекомендую ознакомиться с постом от TensorBanana.

Я немного пошел дальше, прикрутил более квантованный text encoder, а также объединил все актуальные способы ускорения инференса:

- За основу взята модель FastHunyuan, которая позволяет сгенерировать нормальный результат за 6-10 шагов вместо 30, а еще она и квантованная до FP8.
- Сборка основана на Cuda 12.6 и torch-nightly 2.7.0
- Используются sage-attn-2 и triton
- Активирован WaveSpeed (он, кстати, еще и генерации Flux ускорять должен)
- Включен TeaCache
- Используется Tiled Vae

В конечном итоге, генерация видео в разрешении 960x544 и длинной в 89 кадров (несколько секунд видео) занимает у меня полторы-две минуты. Результаты генераций вы можете увидеть наверху.

Из минусов, наверное, то что она не умеет в нормальное img2video. По крайней мере - на данный момент.

Да, кстати, совсем забыл. Модель отлично умеет работать с NSFW контентом, есть огромное количество LoRA, которые расширяют эти возможности - позы, действия и прочие непотребности. Вполне достаточно, чтобы наплодить виртуальных онлифанс моделей. ☕️
Искать, разумеется, на civit.ai, примеры тут показывать не буду.

Архив со сборкой получился более чем на 20 гигабайт. Поэтому хотел бы спросить вас - нужна ли вам такая сборка? Достаточно ли среди моих пользователей владельцев карт, которые могут себе позволить работу с данной моделью?

#aivideo #txt2video

Neurogen

20 Jan, 14:15


DeepSeek-R1: Китайский ответ на o1-модели.

Ключевые особенности

Улучшенная версия DeepSeek-R1
Несмотря на успехи Zero-версии, в DeepSeek-R1 добавили холодный SFT, чтобы поднять читабельность ответов и устранить бесконечные повторы. В итоге модель удачно сбалансировала мощное reasoning-ядро, полученное через RL, и аккуратную стилистику «человеческих» ответов. На целой серии бенчмарков (математика, код и логические вопросы) DeepSeek-R1 демонстрирует уровень, сопоставимый с коммерческими системами вроде OpenAI-o1.

Архитектура, параметры и открытость
- DeepSeek-R1-Zero и DeepSeek-R1 строятся на базе DeepSeek-V3-Base.
- По архитектуре это MoE-модель с общим числом параметров около 671B и «активированными» параметрами порядка 37B.
- Поддерживается контекст до 128K
- Обе версии доступны в открытом доступе на HuggingFace


Дистилляция: уменьшенные модели без потери качества
Создатели DeepSeek-R1 не остановились лишь на гигантских вариантах. Они показали, что «умение рассуждать» вполне может быть передано более компактным архитектурам. С помощью ответов, генерируемых DeepSeek-R1, разработчики «дистиллировали» набор меньших dense-моделей: от 1.5B до 70B параметров, основанных на Qwen2.5 и Llama3.

Результаты на бенчмарках
Ниже — некоторые из самых заметных показателей, по которым команда оценивала модели:

- Математика:
- AIME 2024: DeepSeek-R1 достиг 79.8% (pass@1), что выше, чем у конкурирующих решений (к примеру, 79.2% у OpenAI-o1-1217).
- MATH-500: 97.3% pass@1! Это один из лучших результатов среди представленных систем.
- CNMO 2024: прорыв в решении китайских олимпиадных задач — 78.8% pass@1.

- Программирование:
- Codeforces: DeepSeek-R1 «выдаёт» около 96.3% (percentile) и «рейтинг» 2029, сопоставимый с очень сильными ботами (OpenAI-o1-1217 набирает 96.6% и рейтинг 2061).
- LiveCodeBench: 65.9% (pass@1-COT), то есть уверенное решение кода, включая пошаговые рассуждения.

- Общий reasoning:
- MMLU: pass@1 = 90.8%, очень близко к 91.8% у OpenAI-o1-1217.
- GPQA Diamond: DeepSeek-R1 вышел на 71.5% против 75.7% у OpenAI-o1-1217, что всё равно довольно внушительно.

Также впечатляет, что несколько дистиллированных моделей (DeepSeek-R1-Distill) сумели близко приблизиться к этим же результатам и даже обогнать некоторые коммерческие аналоги на отдельных наборах. К примеру, DeepSeek-R1-Distill-Qwen-32B вышел на 62.1% (pass@1) в GPQA Diamond и 57.2% на LiveCodeBench (pass@1), уступая лишь большим моделям, но при этом значительно опережая аналогичные 32B-модели без дистилляции.

Доступные версии
Разработчики открыли исходные веса, а также подготовили удобные точки входа:

1. DeepSeek-R1-Zero и DeepSeek-R1
- Параметров (общее/активные): ~671B / 37B
- Контекст: до 128K

2. DeepSeek-R1-Distill (различные модели на базе Qwen2.5 и Llama3)
- Qwen: 1.5B, 7B, 14B, 32B
- Llama: 8B, 70B

Отдельно стоит отметить, что конфигурации и токенизаторы у дистиллированных моделей немного модифицированы по сравнению с оригиналами (Qwen2.5 и Llama3), поэтому важно использовать именно настройки от команды DeepSeek при запуске.

Официальные ссылки и ресурсы:
- DeepSeek-R1-Zero и DeepSeek-R1 на Hugging Face

Квантованная версия в GGUF формате:
DeepSeek-R1-Distill-Qwen-7B-gguf (Q5_K_M)
DeepSeek-R1-Distill-Qwen-14B-GGUF (Q4_K_M)

Также DeepSeek-R1 доступна бесплатно в официальном чате: https://chat.deepseek.com/

Neurogen

15 Jan, 14:59


Hailuo S2V-01

новая модель видеогенератора Minimax

Основная фишка - консистентность персонажей.
Достаточно всего по одной референсной картинке на каждого персонажа

#text2video #image2video #personalization

Neurogen

15 Jan, 06:03


🤖 Монетизация ИИ за 3 дня: без кода, без сложностей, только практика

Уже научились общаться с ChatGPT и генерировать арты в DALL-E? Отлично! Время пойти дальше и начать зарабатывать на этих навыках.

💥 С 21 по 23 января на интенсиве по разработке ИИ-ассистентов вы:

• Разберетесь, как ИИ становится не просто помощником, а настоящим бизнес-инструментом
• Научитесь создавать собственные GPT для автоматизации рутинных задач (регламенты, планы, стратегии)
• Запустите контент-мейкера на основе Claude, который будет работать за вас
• Соберете универсального продавца на nocode-платформе для создания ИИ-ассистентов, который умеет продавать и закрывать сделки
• Получите новую возможность для заработка в 2025

Звучит круто?

Это ещё не всё.
Средняя стоимость одного такого ассистента на заказ — от 250$. И вы научитесь делать их за 3 дня.

Почему вам это нужно?
ИИ изменил правила игры. Если вы уже освоили базовые навыки, время перейти на следующий уровень: научиться применять их для автоматизации и зарабатывать на этом.

Что будет на интенсиве?

Никакого кода или заумных терминов
Только практические кейсы от людей, которые уже делают деньги на ИИ
Каждый день — максимальная польза и реальные кейсы

🎁 Бонусом получите:

• Видеоурок по автоматизации в Make
• Скидка 50% на платформу для создания GPT-ассистентов
• Доступ к закрытому чату ИИ-энтузиастов

ИИ — это не просто новая технология, это новая эпоха. И вы можете быть среди тех, кто станет ее лидером.

👉 Регистрация по ссылке https://clck.ru/3FiLph

Neurogen

14 Jan, 16:06


⚡️ Codestral 25.01: Новый стандарт автодополнения кода в ИИ ⚡️

В мире искусственного интеллекта продолжаются значимые прорывы, и одним из них стало обновление модели Codestral 25.01 от команды Mistral AI. Данная модель представляет собой мощное решение для автоматической генерации и дополнения кода, устанавливая новые стандарты точности и производительности.

### Ключевые особенности Codestral 25.01
🔹 Повышенная скорость: Благодаря оптимизированной архитектуре и улучшенному токенизатору, модель выполняет задачи автодополнения в 2 раза быстрее своего предшественника.
🔹 Поддержка более 80 языков программирования: Python, JavaScript, SQL, C++, Java, Bash и многие другие.
🔹 Точность в задачах FIM: Codestral 25.01 значительно превосходит конкурентов в задачах дополнения кода внутри существующих блоков (fill-in-the-middle).

### Результаты тестирования
Модель продемонстрировала выдающиеся результаты в ряде тестов:
- В тестах HumanEval FIM средняя точность достигла 95.3%, что делает её лидером среди всех моделей для автодополнения.
- В задачах на дополнение кода в Python, JavaScript и Java она превосходит ближайших конкурентов, включая Codellama и DeepSeek.

### Доступность
Codestral 25.01 уже доступна разработчикам через IDE-плагины, такие как Continue для VS Code и JetBrains. Для корпоративных клиентов предлагается локальное развертывание модели. Кроме того, API модели можно использовать на платформах Google Cloud Vertex AI, а в ближайшем будущем — на Amazon Bedrock.

### Зачем это нужно разработчикам?
Современные разработчики сталкиваются с большими объёмами рутинной работы: исправлением ошибок, написанием тестов и рефакторингом кода. Codestral 25.01 позволяет существенно сократить время на выполнение этих задач, сосредоточив внимание на более сложных и творческих аспектах разработки.

### Мнение экспертов
Тай Данн, сооснователь платформы Continue, подчеркнул: *«Для ассистентов кода автодополнение является ключевой функцией. Codestral 25.01 представляет собой значительный шаг вперёд, обеспечивая более точные и быстрые рекомендации. Именно поэтому мы рекомендуем её всем разработчикам».*

Codestral 25.01 — это инструмент, который меняет подход к программированию, делая процесс разработки более продуктивным и эффективным.

Попробовать модель можно тут: https://chat.mistral.ai/chat

#llm #code #ainews

Neurogen

10 Jan, 09:45


Китайцы из команды Qwen заделали свой чат

Кроме старших моделей из всех линеек опенсорс моделей Qwen, там ещё есть закрытые MoE модели. Qwen2.5-Plus - это самая сильная их general-purpose модель, а Qwen2.5-Turbo - их long-context модель с поддержкой до миллиона токенов контекста. Есть ещё Qwen2-VL-Max, но судя по всему это просто Qwen2-VL 72B (но это не точно).

По фичам всё неплохо для ранней версии - есть артефакты, загрузка документов и картинок. Ну и фича которую нигде, за пределами чатбот арены, я не видел - возможность отправлять один и тот же промпт нескольким (до 3) моделькам сразу. Она ещё сыроватая - хотелось бы иметь возможность продолжить диалог лишь с одной из этих моделей, что их интерфейс не позволяет. Скоро в чат обещают прикрутить поиск и генерацию изображений (интересно, это опять будет FLUX, или натренят что-то своё?), ждём.

Всё полностью бесплатно, так же как и у Mistral с DeepSeek. Цель тут - не получить деньги с подписки, а прорекламировать API и получить дополнительные данные для тюна. Если кому-то из подписчиков хочется приватности, то Anthropic, с их Claude, остаются единственной компанией, которая не тренирует модели на основе данных из чата.

chat.qwenlm.ai

@ai_newz

Neurogen

07 Jan, 16:18


🎙 Fish Speech 1.5 portable by Neurogen
Fish Speech 1.5 – это модель преобразования текста в речь, созданная для генерации естественного и качественного голоса. Она идеально подходит для разработчиков, создателей контента и всех, кто ищет продвинутую TTS-технологию.

🔥 Ключевые особенности:
- Поддержка клонирования голоса – добавь уникальность, просто загрузив референсный аудио-файл.
- Высокое качество генерации – реалистичная речь с интонациями.
- Гибкая настройка – параметры Top-P, Temperature и Seed позволяют контролировать стиль и выразительность голоса.
- Поддержка мультиязычности – используйте модель для различных языков: английский, китайский, японский, немецкий, французский, испанский, корейский, арабский, русский, нидерландский, итальянский, польский и португальский.
- Простой интерфейс – минималистичный и понятный UI через Gradio.

💡 Для кого подходит?
Создатели подкастов, разработчики приложений, голосовые ассистенты, генераторы контента для видео, образовательные платформы.

---

Пошаговый гайд:

1. Ввод текста:
- В поле Input Text напишите текст на любом поддерживаемом языке.

2. Референсное аудио (опционально):
- Для клонирования голоса переключитесь на вкладку Reference Audio и загрузите образец голоса. Без образца голоса будут использоваться рандомные синтезированные голоса.

3. Настройка параметров:
- Используйте Advanced Config, чтобы настроить параметры синтеза под свои нужды.

Расширенные настройки:
- Iterative Prompt Length – определяет длину итерации текста (0 отключает эту функцию).
- Top-P – отвечает за разнообразие текста, чем выше значение, тем более свободной будет речь.
- Temperature – регулирует степень "творчества" в синтезе речи.
- Repetition Penalty – снижает повторяемость слов для более естественного результата.
- Seed – задаёт случайность генерации, 0 для случайного результата, любое число – для детерминированного.

4. Генерация:
- Нажмите Generate. После генерации аудио появится в правой части интерфейса. Вы можете прослушать результат или скачать его.

5. Эксперименты:
- Изменяйте параметры, такие как Top-P и Temperature, чтобы добиться нужного стиля речи.

Программа достаточно неприхотлива к видеопамяти и использует всего несколько гигабайт видеопамяти.

Скачать портативный Fish Speech 1.5 можно:

С моего хранилища | С зеркала (Yandex Disk)

Поддержать финансово: Boosty

#voicecloning #txt2audio #fishspeech

Neurogen

07 Jan, 07:18


🎮 NVIDIA представила серию видеокарт GeForce RTX 50 🎮

На выставке CES 2025 компания NVIDIA анонсировала новую линейку игровых видеокарт GeForce RTX 50 на архитектуре Blackwell.

Модели и характеристики:

- GeForce RTX 5090
- 💰 Цена: $1999
- 🧠 CUDA-ядер: 21 760
- 💾 Память: 32 ГБ GDDR7
- 🔌 TDP: 575 Вт
- 📅 Доступность: с 30 января 2025 года

- GeForce RTX 5080
- 💰 Цена: $999
- 🧠 CUDA-ядер: 10 752
- 💾 Память: 16 ГБ GDDR7
- 🔌 TDP: 360 Вт
- 📅 Доступность: с 30 января 2025 года

- GeForce RTX 5070 Ti
- 💰 Цена: $749
- 🧠 CUDA-ядер: 8 960
- 💾 Память: 16 ГБ GDDR7
- 🔌 TDP: 300 Вт
- 📅 Доступность: в феврале 2025 года

- GeForce RTX 5070
- 💰 Цена: $549
- 🧠 CUDA-ядер: 6 144
- 💾 Память: 12 ГБ GDDR7
- 🔌 TDP: 250 Вт
- 📅 Доступность: в феврале 2025 года

Особенности:

- 🚀 DLSS 4: новая версия технологии суперсэмплинга с использованием ИИ для повышения производительности и качества изображения.
- 🔗 Интерфейсы: поддержка DisplayPort 2.1b, HDMI 2.1a и PCIe 5.0.
- ⚡️ Питание: 16-контактные разъёмы дополнительного питания.

Что касаемо нейронок, компания заявляет о двухкратном приросте при работе с моделью Flux.dev у RTX 5090 по сравнению с 4090, правда нюанс в том, что Flux.dev тестировался в режиме FP8 на 40 серии, в то время как на 50 серии тесты проводились в FP4.

#nvidia #rtx

Neurogen

31 Dec, 09:42


Новогодняя подборка нейросетей для генерации видео и анимации изображений

Друзья, вот и подходит к концу 2024 год!
Самое время подвести итоги и вспомнить самые интересные релизы в мире нейросетей. Если прошлый год был год генерации изображений, то этот год отличился в области генерации видео: вышло огромное количество интересных проектов, которые, в большинстве случаев можно попробовать бесплатно.

Май 2024: Vidu
В мае была представлена Vidu — модель, генерирующая видео с разрешением 1080p и продолжительностью до 16 секунд за одну генерацию.
🔹 Особенности: высокая динамичность и понимание профессиональных фотографических техник.

Попробовать Vidu. В месяц бесплатно дается 80 кредитов, на генерацию одно видео уходит минимум 4.
---

Июнь 2024: Runway Gen-3 Alpha
Летом компания Runway выпустила Gen-3 Alpha, инструмент для профессионального видеопроизводства.
🔹 Особенности: простота создания высококачественных видеороликов на основе текстовых описаний, что особенно полезно для режиссёров и продюсеров.

Попробовать Runway можно бесплатно, на это дается 125 кредитов, но лишь единоразово, дальше только подписка.

---

Июнь 2024: Luma Dream Machine и Kling AI
- Luma Dream Machine: инструмент для создания анимированных видео с разнообразными эффектами, который особенно понравился пользователям соцсетей.

Попробовать Dream Machine. Также есть бесплатный доступ.

- Kling AI: быстро завоевала популярность благодаря доступности и качеству анимации, открывая новые горизонты для творцов.

Попробовать Kling. Выдают бесплатные кредиты для генерации, иногда зачисляют бонусные кредиты в рамках акций.
---

Сентябрь 2024: MiniMax Hailuo AI Video-01
Осенью китайская компания MiniMax выпустила Hailuo AI Video-01 — модель, способную генерировать высококачественные видеоролики на основе текстовых или графических описаний.
🔹 Особенности: простой интерфейс и высокая скорость работы.

Попробовать Hailuo. Как мне показалось, наиболее интересная модель из всех, отличное понимание промпта, но к сожалению хоть и есть бесплатные кредиты - безумные очереди.

---

Октябрь 2024: Pika Labs 1.5
В октябре Pika Labs обновила свою платформу до версии 1.5, добавив больше эффектов и возможностей для создания креативного контента.
🔹 Особенности: идеально подходит для пользователей социальных сетей.

Попробовать Pika Labs.

---

Декабрь 2024: Sora от OpenAI
В конце года OpenAI представила Sora — нейросеть для генерации видео по текстовым описаниям.
🔹 Особенности: высокая точность и качество создаваемого контента, мощный инструмент для креативных индустрий.

В отличие от всех прошлых моделей, Sora доступна только в рамках подписки ChatGPT Plus или Pro.

---

💡 Открытые модели генерации видео:
Помимо коммерческих решений, 2024 год ознаменовался выходом нескольких open-source моделей:

- LTX-Video:
🔹 Разработчик: Lightricks
🔹 Характеристики: по словам разработчиков генерирует 5-секундные видеоролики с разрешением 768×512 пикселей всего за 4 секунды, что быстрее реального времени.

- Mochi 1:
🔹 Разработчик: Genmo
🔹 Характеристики: высокопроизводительная модель на архитектуре AsymmDiT с 10 миллиардами параметров. Поддерживает видео 480p с частотой 30 кадров/сек.

- HunyuanVideo:
🔹 Разработчик: Tencent
🔹 Характеристики: модель на базе архитектуры MoE с 13 миллиардами параметров, обеспечивает временную согласованность и подходит для длинных видеопоследовательностей.

Все эти модели доступны в свободном доступе, и ограничением для работы является лишь видеопамять вашей GPU - должно быть не менее 24 гигабайт для комфортной работы.



Но все это было в 24 году. Я еще не перечислил гигантский прогресс в области LLM, не упомянул про Flux и множество других релизов.

Думаю, что 2025 год будет еще более насыщенным на удивительные релизы и открытия, которые изменят нашу жизнь к лучшему.

С наступающим 2025 годом! ☕️

Neurogen

25 Dec, 23:03


Сделал краткий обзор руссифицированной версии Rope

Neurogen

22 Dec, 09:13


RopeMod Portable by Neurogen v 2.7.1 - Русскоязычная версия

Rope - полноценная DeepFake видеостудия, позволяющая очень тонко работать с процессом замены лица на фото, видео и live потоке с камеры.
Программа поддерживает одновременную замену нескольких лиц в кадре, работу с DFM моделями, а также, что самое важное, все изменения отображаются в режиме реального времени, что делает работу с программой более комфортной.

В данном же случае, за основу был взят последний RopeMod, но при этом была проведена локализация интерфейса.

Лично я не являюсь сторонником локализации подобных программ, так как в любом случае, остается огромное количество терминов, только теперь записанных транслитом, да и обучение я провожу на англоязычных версиях, но если вы только только начинаете работать с Rope, перевод основных элементов, особенно подсказок, будет крайне полезен.

Обзор одной из прошлых версий Rope

Сборка доступна для подписчиков Boosty или приватного Телеграм канала

Скачать с Boosty | Скачать с Telegram

#rope #deepfake #portable

Neurogen

21 Dec, 08:43


FaceFusion 3.2.0 Beta Uncensored Portable | Nvidia | DeepFake, LipSync

Что нового:

- Обновлены библиотеки CuDNN до версии 9.7.0 и TensorRT до версии 10.7
- Заменена модель оклюдера по умолчанию, теперь используется xseg, с возможностью выбора нескольких вариантов.
- CUDA ускорение включено по умолчанию.
- При работе с DFM моделями, появился большой список моделей знаменитостей, доступных для загрузки из программы.
- Возвращена поддержка работы с вебкамерой.
- Мелкие улучшения и дополнения

На данный момент FaceFusion и все его будущие обновления доступны для загрузки только для подписчиков моего приватного Telegram канала, на Boosty, к сожалению, сборок FaceFusion больше не будет из-за правил площадки.

FaceFusion - это некий "комбайн" из различных нейросетевых моделей для работы с видео и фото. Программа включает в себя:

- Возможность замены лица на фото или видео (DeepFake)
- Синхронизацию губ в видео по аудиодорожке (LipSync)
- Колоризацию старых черно-белых видео и фото (Frame Colorizer)
- Улучшение качества лица на фото или видео (Face enhancer)
- Увеличение разрешения видео или фото (Upscale)
- Возможность изменения возраста лица (Age Modifier)
- Редактор эмоций и выражения лица (expression restorer и face editor)

Видеообзор прошлых версий программы: Видео 1, Видео 2

Скачать FaceFusion Portable

#facefusion #deepfake #lipsync #portable

Neurogen

20 Dec, 18:53


🎄 12 дней релизов OpenAI: главное за адвент-календарь

Всего за 12 рабочих дней OpenAI представила множество новинок: от моделей до функций для разработчиков. Вот основные моменты по каждому дню:

День 1: Старт с o1 Pro🔄
Полная версия модели o1 теперь поддерживает работу с изображениями и стала на 30% быстрее своих предшественников. Pro Mode предлагает увеличенную производительность и доступен по подписке за $200 в месяц. Тесты показали, что модель иногда ошибается в сложных моральных ситуациях.

День 2: Тонкая настройка с RFT
Введён новый подход к настройке моделей – Reinforcement Fine-Tuning (RFT). Он позволяет обучать модели узкоспециализированным задачам с минимальным количеством данных. Пока доступен университетам и бизнесу.

День 3: Генератор видео SORA
Обновлённая версия SORA Turbo теперь поддерживает создание видео длиной до 20 секунд (в будущем – до минуты). Возможности: text-to-video, text+image-to-video, text+video-to-video, а также создание кастомного сториборда для редактирования кадров. Поддерживается качество до 1080p.

День 4: Canvas для всех пользователей
Теперь Canvas доступен даже бесплатным пользователям! Этот инструмент позволяет работать с текстом и кодом в отдельном окне, запускать интерпретатор кода и оставлять комментарии, как в Google Docs. Canvas можно интегрировать в пользовательские GPT.

День 5: Интеграция в экосистему Apple

ChatGPT стал частью Siri и Apple Intelligence. Теперь можно анализировать видео, текст и данные прямо на устройствах iPhone и Mac. Поддержка работает на уровне Finder и встроенных приложений.

День 6: Advanced Voice Mode
Голосовой режим теперь поддерживает взаимодействие с видео и экраном в реальном времени. Модель запоминает информацию с экрана и отвечает на её основе. Поддерживается работа на русском языке.

День 7: Организация чатов в папки
Добавлена возможность группировать чаты по проектам, добавлять к ним файлы и общие инструкции. Это обновление, которого пользователи давно ждали, значительно упрощает работу.

День 8: Обновления SearchGPT
Встроенный поисковик стал быстрее и умнее. Теперь он доступен в голосовом режиме, а ссылки и карты можно просматривать прямо в чате. GPT можно настроить как поисковик по умолчанию.

День 9: Новшества в API
Добавлена работа с изображениями, структурированный вывод в формате JSON, тонкая настройка инструкций, а также новые типы fine-tuning: preference и reasoning efforts. Реалтайм API стал быстрее и дешевле.

День 10: Интеграция с WhatsApp
Теперь пользователи могут общаться с ChatGPT через WhatsApp или звонить на специальный номер. Эта функция доступна почти по всему миру, кроме России.

День 11: Работа с приложениями в реальном времени
Теперь данные из приложений можно стримить прямо в чат и сразу работать с ними. Например, генерировать графики или исправлять код без необходимости копировать его в чат.

День 12: Финал – модель o3
Самая мощная модель OpenAI с выдающимися показателями: 88% на тесте ARC AGI (ранее максимум был 50%). Доступ к o3 планируется открыть в январе, пока же доступна только демо-версия.

#openai #chatgpt #o1 #o2 #sora

Neurogen

20 Dec, 18:19


Показали новые o3 и o3-mini модели (o2 уже занятый бренд):

— Модели пока выпустили в Public Safety Tests, то есть ученые смогут помочь их тестировать, а мы не сможем помочь их ломать

— o3 работает на уровне доктора наук и иногда даже лучше в разных бенчмарках

— o3 прошла ARC-бенчмарк на 87.5%, сложный бенчмарк на котором тестируют потенциальные AGI, там много вопросов и некоторые похожие на IQ-тесты или на загадки; кожаные в этом тесте набирают ~85%, прошлый лучший результат был ~50%. То есть ARC-бенчмарк — пал.

— o3 работает также как и o1 в разных режимах: дольше думает, лучше ответ, но при этом и дороже. Пользователь может выбрать один из «думательных» пресетов сам.

Neurogen

19 Dec, 17:30


Gemini 2.0 Flash Thinking Experimental - новая модель-аналог o1 от Google, которая умеет в процесс размышлений.

Модель имеет актуальные знания до августа 2024.

Самое любопытное, что доступ сейчас бесплатный, в Google AI Studio.

Модель поддерживает мультимодальный ввод, бесплатный доступ имеет лимит в 1500 запросов в день, а также контекст в 32 000 токенов.

#gemini #o1 #llm

Neurogen

18 Dec, 20:45


Собрал немного генераций text-to-video нового генератора от Google Veo 2 который показали пару дней назад

Доступ к нему только по спискам, но как же быстро устарела Sora – надеюсь OpenAI покажет v2, иначе смысла в ней пока мало

Neurogen

10 Dec, 07:22


OpenAI представила Sora Turbo — мощную модель для генерации видео

Компания OpenAI объявила о запуске Sora Turbo, модели для генерации видео на основе текста. Новый инструмент позволяет создавать видеоролики в разрешении до 1080p и продолжительностью до 20 секунд. Пользователи могут использовать текстовые описания, изображения и видео, а также настроить отдельные кадры через специальный интерфейс.

Модель доступна подписчикам ChatGPT Plus и Pro.

Для подписчиков Plus доступно 20 генераций в месяц, для уровня Pro - без ограничений.

Из ограничений, модель недоступна в странах, где официально не работает ChatGPT, а также в странах ЕС и Великобритании из-за нюансов в законодательстве.

Начать работать с SORA можно тут.

#sora #txt2video #ainews

Neurogen

08 Dec, 06:56


Главные события в мире ИИ: обновления от OpenAI, X и Meta*

OpenAI представляет ChatGPT Pro
OpenAI анонсировала новый тарифный план ChatGPT Pro стоимостью 200 долларов в месяц. Он предназначен для исследователей, инженеров и других профессионалов, которые ежедневно используют продвинутые ИИ-модели. Тариф включает:

неограниченный доступ к самым мощным моделям OpenAI, таким как o1, o1-mini, GPT-4o и Advanced Voice;
эксклюзивный режим o1 Pro Mode, использующий повышенные вычислительные мощности для более глубокого анализа и предоставления высококачественных решений сложных задач.
Экспертные оценки показали, что режим o1 Pro значительно превосходит предыдущие версии моделей в таких областях, как решение математических задач, программирование и анализ юридических данных. Пользователи ChatGPT Pro смогут активировать этот режим, выбрав его в меню моделей и задав запрос в чате.

X делает Grok бесплатным для всех пользователей
Компания X (ранее Twitter) сделала свой AI-чатбот Grok доступным для всех пользователей без необходимости подписки на X Premium. Основные возможности:

10 бесплатных запросов каждые 2 часа;
генерация 10 изображений каждые 2 часа;
возможность анализировать до 3 изображений в день (дополнительный анализ доступен только по подписке).
Это нововведение направлено на популяризацию использования искусственного интеллекта среди широкой аудитории.

Meta выпускает Llama 3.3
Компания Meta объявила о выпуске Llama 3.3 — новой открытой многоязычной модели искусственного интеллекта (LLM). Новая версия включает:

70 миллиардов параметров, что обеспечивает производительность, сравнимую с моделью Llama 3.1 с 405 миллиардами параметров,
при этом снижая затраты на вычисления и ресурсы.
Эти обновления подтверждают стремление крупнейших технологических компаний сделать ИИ более доступным и эффективным, открывая новые горизонты для разработчиков и пользователей по всему миру.

#llm #chatgpt #groq #llama

*Meta - террористическая организация, запрещённая на территории РФ.

Neurogen

03 Dec, 11:32


Hunyuan Video - новый опенсорс 13B видео генератор от Tencent

Качество офигенное, даже для 13B модели, хоть и генерировать может максимум пять секунд. Но, самое главное - доступны веса.

Генерится 129 кадров, что как раз чуть больше 5 сек в 24 fps.

По архитектуре: используют Temporal VAE с 16 каналами и 4x даунсеплингом по времени, то есть это 32 latent frame'а. То есть автоэнкодер не самый навороченный – в других моделях и видео и 128 каналов и более агрессивный даунсемплинг по времени.

Сама модель очень похожа на Flux, где сначала идут two-stream блоки как в SD3, где картиночные и текстовые токены обрабатываются параллельно, а затем идёт серия обычных DiT блоков.

В качестве текстового энкодера используют Clip и Multimodal LLM (llava-llama-3-8b) вместо традиционного T5. Говорят, что с MLLM у них достигается боле качественный prompt alignment.

Чтобы запустить модель нужно минимум 45 гигабайт видеопамяти для 544x960 видео и 60 гигов для 720p. Умельцы явно подкрутят и оптимизируют модельку, так что запуск на консьюмерских видюхах на низком разрешении не исключён.

Статья занятная, стоит прочитать в деталях.

Я пока сам их моделью ничего не генерил, но предполагаю, что одно видео будет генерится минут 10.

Демка (нужен китайский номер)
Веса
Пейпер

@ai_newz

Neurogen

29 Nov, 08:12


QwQ-32B-Preview : o1-подобная модель из семейства Qwen

Данная модель отличается от базовых моделей Qwen, и является "рассуждающей" моделью.

В целом, по данным тестов, она обходит Qwen2.5-72B, и даже, местами, o1-mini от OpenAI.

Самое главное, что файлы модели уже доступны для загрузки, в том числе, и квантованные варианты.

Протестировать работу онлайн можно тут:

Демо QwQ-32B-preview

Квантованные GGUF версии можно скачать тут:

QwQ-32B-Preview-GGUF

Для работы с моделью с Q4 квантованием, потребуется минимум 20 гигабайт видео или оперативной памяти.

#qwen #o1 #llm

Neurogen

23 Nov, 13:52


NeuroIMG.ART - Персональная галерея пользователя

Вы просили - мы сделали. Теперь у каждого пользователя есть Персональная галерея сгенерированных изображений.

У каждого изображения сохраняется позитивные и негативные промпты так ряд других основных параметров.

Обратите внимание, что в целях оптимизации нагрузки на наш сервер, хранятся лишь последние 50 изображений.

#neuroimg #txt2img #img2img

Neurogen

23 Nov, 08:00


Честно говоря не уверен что имеет смысл делать Portable, так как генерация ролика идет на RTX 4090 около полутора часов. Возможно, когда в будущем добавят дополнительные оптимизации, это и можно будет сделать, но пока проще завести это чудо через Сomfy UI.

Но оказывается есть демка, поэтому можете потестить LTXV тут: https://huggingface.co/spaces/Lightricks/LTX-Video-Playground

Neurogen

18 Nov, 16:03


Выкатили на всех нашу WorldModel Colorization V1, как она работает я напишу чуть позже, но вот пара советов:

— Если цвета вам кажутся неудачными, то можете просто заново поставить колоризацию фото, цвета будут каждый раз разные

— WorldModel Colorization V1 настолько мелкие детали иногда красит, что способна убрать эффект красных фото — который очень тяжело чинится

— Специально тренировали модель, чтобы она работала с любимы видами повреждений фотографий — приложил пару примеров где она различает цвета, хотя я бы не смог заметить объекты

— Если есть на счету кредиты, можете указать сколько версий картинок должно приходить (до 3х)

— Платная фича: за раз можно покрасить 100 фотографий

— Бесплатно генерируется с вотермаркой и лимитами

Планы:

— Через какое-то время можно будет промптом указать какие цвета лучше использовать

— Эта наша первая версия диффузионного колоризатора, мы знаем как его сделать и в разы лучше и точнее, но прежде чем инвестировать в него дальше мы посмотрим насколько он понравится и сколько будет денег приносить, так как тренировки стоят нам денег и это все еще предстоит окупать

Хорошего time-traveling, путник!

Ссылка:
https://neural.love/photo-colorization

Neurogen

17 Nov, 09:59


FaceFusion Portable Uncesored by Neurogen v 3.1.0 Beta / CUDA Version

Что нового

-Поддержка режима deep_swapper, который позволяет использователь модели, обученные в DeepFaceLab (.dfm)
- Появилась новая модель hififace_unoficial_256
- Обновление библиотек для повышение производительности
- Поддержка TensorRT 10.6
- Исправлен ряд ошибок из прошлой сборки

Данная сборка доступна для патронов канала на следующих площадках:

Boosty | Telegram

#deepfake #lipsync #wav2lip #portable #facefusion

Neurogen

16 Nov, 03:33


NeuroIMG.ART - Галерея изображений, Stable Diffusion 3.5 и Upscale

В рамках последних обновлений нашего сервиса, были добавлены новые функции:

- Галерея пользовательских изображений. В данной галерее отображаются примеры изображений, сгенерированных пользователями сервиса, с использованными промптами, моделями и их параметрами генерации.
- Stable Diffusion 3.5 - Было добавлено несколько моделей и Lora SD 3.5 Medium и SD 3.5 Large
- Функция апскейла изображений. Теперь вы можете воспользоваться функцией увеличения разрешения ваших изображений во вкладке Upscale.

А также, были обновлены и добавлены различные новые модели и Loras для Flux, SD и других моделей.

Проверить обновления можно на сайте NeuroIMG.ART

Кстати, бот для генерации изображений @neurogen_artbot тоже обновился и пополнился обновленным списком моделей с NeuroIMG.ART

#neuroimg #sd35 #flux

Neurogen

15 Nov, 15:26


Вышел клиент ChatGPT для Windows

Скачать его можно через Microsoft Store. Если у вас неактивна кнопка загрузки, то попробуйте поменять регион вашего Microsoft аккаунта и Windows на другую страну (к примеру, США).

Локальный клиент повторяет функционал веб версии ChatGPT (такие как GPTs, память ChatGPT и т.д), но при этом имеет поддержку голосового чата.

#chatgpt #gpt

Neurogen - подпишись, тут рассказывают про нейросети

Neurogen

14 Nov, 04:58


DeepFaceLab CUDA Optimized

DeepFaceLab - инструмент, позволяющий создавать DFL модели лиц. В процессе тренировки модели составляется модель головы человека в нескольких проекциях, что позволяет сохранять степень сходства во время замены лица при активных поворотах головы и т.п.

Особенности сборки:

- Используется оптимизированная версия DFL. В конечном итоге было получено повышение производительности в несколько на разных этапах работы.
Из особенностей, если сравнивать с версией для DFL, то выделение лиц идет медленнее, но тренировка быстрее.
- Построена на базе CUDA, использовалась Cuda 11.8 и CuDNN 8.9.7, что позволило поднять производительность на RTX видеокартах (особенно на RTX 40xx)
- Возможность тренировки на видеокартах среднего сегмента, имеющих от 8 гигабайт видеопамяти.
- Графический интерфейс, позволяющий понятно и поэтапно произвести тренировку модели.

DeepFaceLab CUDA Optimized доступен на Boosty.

Сейчас в работе находится еще несколько альтернативных билдов DeepFaceLab (например, где за основу взят уже pytorch, а не tensorflow), поддерживающих дополнительные возможности (обучение дополнительных моделей, различные модификации), их релиз будет позже в рамках обновлений.

#deepfake #portable #dfl #dfm

Neurogen

13 Nov, 06:54


Протестировать работу Qwen 2.5 Coder онлайн можно тут.

Модель генерирует ответы довольно шустро, кроме того, данная демка поддерживает Artifacts, проще говоря, вы можете посмотреть уже готовое веб приложение или страницу прямо в браузере.

#llm #code #qwen

Neurogen

12 Nov, 14:13


Qwen2.5-Coder - лучше чем GPT-4o для кодинга

Qwen2.5-Coder это целое семейство моделей:

Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B

При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.

Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.

Квантованные GGUF версии для локального запуска уже доступны для загрузки:

Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)

#llm #code #qwen

Neurogen

12 Nov, 08:42


GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3.5 и к моделям генерации изображений, таким как Flux, SD 3, SD XL.

Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:

GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5

а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.

Что нового в обновлении, по сравнению с прошлой версией:

- Обновлен код до актуального
- Добавлена поддержка новых моделей:

claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux

И ряда других различных моделей.

Скачать сборку GPT4FREE Portable by Neurogen

Запуск программы:

- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.

Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.

#chatgpt #llm #portable

Neurogen - подпишись, тут рассказывают про нейросети

Neurogen

11 Nov, 10:25


Зачем хакерам данные о движении глаз? Как отличить реальный подкаст, от записанного нейросетью? Безопасно ли добавлять паспортные данные в Google Wallet?

Ответы в новом выпуске «Пункта Выдачи Новостей» — подкаст-шоу от Ozon Tech, в котором обсуждаются новости про IT, технологии, людей и роботов, которые это всё создают.

Слушайте на любимой платформе:
📱YouTube
📱VK Видео
🎧Аудиосервисы

Neurogen

08 Nov, 00:23


Мучаем Mochi.

В прошлом году Genmo не раз мелькали в новостях со своим генератором видео, но в последнее время от них ничего не было слышно.

Недавно они выпустили в опенсорс модель Mochi 1, которую чтобы гонять нужно было 4 H100 или иди к ним на сайт, где фришные генерации уже висят неделю. Следом подтянулись пожатые GGUF версии и vid-2-vid варики.

И вот теперь команды Comfy и Genmo объединись и оптимизировали базовую Mochi 1 для запуска в Comfy на пользовательском железе.

Чтобы начать обновите Comfy, или скачайте последнюю версию с гитхаба. Если у вас Comfy стоит через Pinokio, в боковой панели при старте нажимаете update —> перезагрузите Pinokio —> запустите Comfy —> в боковой панели появится Quick Installers —> выбираете вариант Mochi на 17 ГБ VRAM или 22 ГБ VRAM. Дальше скрипт сам скачает все модели.

Воркфлоу (отсюда или отсюда) в виде видео формата webp сохраняете к себе на комп и вкидываете в открытый интерфейс Comfy. Если делали через Pinokio, все ноды сами встанут как нужно — вам останется только вписать промт и поиграться с настройками. Если через гитхаб, то вручную укажите модель, энкодер, VAE как написано тут.

bf16 версия наиболее качественная и во время генерации будет кушать 21-22 ГБ VRAM при дефолтных настройках: 848х480, 24 fps, 30 шагов, cfg 4.5, качестве 80, и длительности в 37 кадров. На одно видео при этом уходит примерно 1 мин 45 сек на 4090.

fp8 при тех же настройках даёт качество похуже, но занимает 17-18 ГБ при генерации. Однако на последнем этапе, во время декода VAE, потребление VRAM стрельнёт резко вверх, и по факту 24 гигов и то с трудом хватит, может и зависнуть (кратко или с концами). Так что закрывайте все приложения по максимуму, или если у вас 2 GPU юзайте ту, что не подключена к дисплею. Хотя не факт, что это поможет ибо после генерации VRAM целиком не освобождается и для следующего захода памяти остаётся меньше, чем для предыдущего. Время на генерацию кстати меньше особо не становится: ~1 мин 30 сек.

Причём нынешняя модель генерит в 480p, а в конце года обещают выложить веса для вывода в HD... воет по 2х5090'ньи

Про качество: Mochi очень хорошо понимает промт и грамотно выстраивает композицию, что особенно важно с моделью, где на одну генерацию уходят минуты. Ползунок Quality как по мне выкрученный на 100 мало что меняет, максимум видеоряд становится менее шумным и плавнее (но при этом и зависнуть может). Кипение и нестабильность тут есть, но это 480p, а если глянуть HD у них на гитхабе, то там всё красиво. На сайте, кстати, заявленного качества как-то не выцепил (раз и два, остальное зависло).

Если сравнивать с Allegro, который по умолчанию генерит в HD, то у Mochi чувствуется под капотом high quality датасет с киношными кадрами, игровыми синематиками, рекламой, итд, а с Allegro такого нет. Причём по кадрам нередко кажется, что это не генерация, а рандомный выбор видео из каталога, и кто-то вот-вот скажет "Да это же моё видео!". Также в Allegro сложнее промтом добиться нужной и стабильной картинки, а времени на генерацию уходит больше.

Таким образом Mochi 1 это лучший опенсорсный видеогенератор на данный момент.

PS, ещё пара наблюдений: генерация в Comfy с гитхаба занимает 1:45 сек, а в Pinokio 1:55. При этом энергопотребление в родном Comfy доходит до 521 Вт, а в Pinokio значительно ниже, в районе 430 Вт, и я это не раз замечал и с другими моделями. Скорее всего дело в паках-библиотеках-зависимостях, где с Comfy используется что ты сам поставишь в систему и папку с прилой, а Pinokio сам подбирает.

UPDATE: при установке длительности в 25 кадров, вообще никаких проблем не наблюдается на bf16, в том числе и надекоде VAE. Генерация при этом занимает ~1 мин 13 сек или ~2.43s/it на дефолтных настройках. А, да, я ещё качество до 100 поднял.

Анонс
Гитхаб Mochi 1
Comfy воркфлоу
Блогпост про Mochi 1

Neurogen

06 Nov, 07:30


DeepFaceLab Universal Optimized

Добрались руки до DFL. Обновленная сборка DeepFaceLive уже была, теперь подошла очередь до самого интересного, а именно до сборки для обучения DFL моделей.

DeepFaceLab - инструмент, позволяющий создавать DFL модели лиц. В процессе тренировки модели составляется модель головы человека в нескольких проекциях, что позволяет сохранять степень сходства во время замены лица при активных поворотах головы и т.п.

Особенности сборки:

- Используется оптимизированная версия DFL. В конечном итоге было получено повышение производительности от 2 до 10 раз на разных этапах работы.
- Построена на базе DirectML, поэтому совместима со всеми видеокартами - Nvidia, AMD и Intel.
При этом, на видеокартаx Nvidia скорость выше, чем при использовании CUDA.
- Возможность тренировки на видеокартах среднего сегмента, имеющих от 8 гигабайт видеопамяти.
- Графический интерфейс, позволяющий понятно и поэтапно произвести тренировку модели.

DeepFaceLab Optimized доступен на Boosty.

В ближайшее время сделаю детальный обзор, где расскажу от начала и до конца как обучить модель, как подготовить датасет и как использовать ее на практике.

Neurogen

31 Oct, 12:37


Обновленная версия портативной версии программы DeepFaceLive.

Особенности сборки:
- Cuda 12.4
- Torch 2.4.1 Cuda 12.4
- CuDNN 9.5.1
- onnxruntime-gpu 1.19.2

В целом, благодаря обновлению наиболее важных библиотек и пакетов, DeepFaceLive стал намного шустрее работать на видеокартах серии RTX.

Сборка доступна для патронов канала на следующих ресурсах:
Скачать с Boosty | Скачать с TG

RopeMod Portable by Neurogen v 2.7.1 | Nvidia

Небольшое обновление сборки. Был обновлен код до самой актуальной версии, а также были обновлены библиотеки и пакеты:

- torch 2.5.0 Cuda 12.4
- CuDNN 9.5.1
- FFMPEG 7.1

А также были обновлены все модели до актуальных версий.

Скачать с Boosty

Также работаю над ускорением и обновлением DeepFaceLab. Первая версия будет выложена на Boosty в ближайшее время.

#rope #deepfacelive #deepfake #portable

Neurogen

31 Oct, 01:25


Подборка бесплатных онлайн нейронок для работы с фото.

PuLID for FLUX. При помощи данного инструмента вы можете сгенерировать как нейросетевое фото, так и арт с вашим лицом или лицом любого человека. Работает на базе Flux, по этому качество генераций весьма достойное.
Попробовать PuLID for FLUX

Expression Editor. Позволяет менять выражение лица и мимику на фото. Также можно поменять положение головы, направление взгляда. Работает достаточно быстро, но из минусов - кропает картинку до квадрата.
Попробовать Expression Editor

IC-Light V2. Данный инструмент позволяет сделать релайт фотографии - поменять освещение в кадре. Важный момент - также меняется фон, а также нормально работает только с изображениями в портретной ориентации.
Попробовать IC-Light V2

Diffusers Image Outpaint. Позволяет дорисовать фон на изображении, тем самым расширяя его.
Попробовать Diffusers Image Outpaint

Neurogen - подпишись, тут рассказывают про нейросети

Neurogen

24 Oct, 11:59


Приложения Gemini и Copilot - краткий обзор.

Если вы не знакомы, по какой-то причине, что это за приложения, то этот пост для вас.
Оба приложения являются официальными мобильными клиентами для доступа к большим языковым моделям компаний Google и Microsoft.

Gemini

Gemini работает на базе модели Gemini 1.5 Flash, а для генерации изображений используется Imagen 3.
На вход принимаются текст и изображения. Кроме этого, можно активировать при помощи Расширений интеграцию со своим Google аккаунтом и различными сервисами компании. Также Gemini может заменить Google Ассистента в вашем смартфоне, взяв на себя его задачи.

Copilot

Copilot работает на базе GPT-4, а для генерации изображений используется Dall-E 3. В целом, приложение также умеет работать с текстом и фото. Есть платная подписка, которая, разумеется, недоступна в нашем регионе.

Neurogen

24 Oct, 11:25


Используем Copilot от Microsoft и Gemini от Google на Android смартфонах без VPN.

Для этого просто меняем DNS сервер со стандартного на тот, который позволяет обойти ограничения Google и Microsoft.

1) Заходим в Настройки, и пишем в Поиске - "DNS". Нам нужен параметр Частный DNS.
Если искать его самостоятельно, то он должен находиться в настройках интернет подключения, сети или соединения (зависит от вашей прошивки и UI). На скриншотах пример, как это сделать на телефонах Honor.
2) В Частном DNS выбираем пункт "Настройка частного DNS" и вписываем:

comss.dns.controld.com

После чего приложения Copilot и Gemini будут работать без обязательного подключения к VPN, а вы сэкономите заряд батареи вашего смартфона.

К сожалению, ни Copilot, ни Gemini скачать с Play Маркета из РФ нельзя, я скачал их через сторонний портал с приложениями APKPure.

Скачать Gemini | Скачать Copilot

#android #chatgpt #gemini

Neurogen

18 Oct, 05:54


Авторы Chatbot Arena выпустили расширение для VS Code для оценки моделей для кодинга. По сути, это бесплатный копайлот, где предлагают выбирать из нескольких вариантов, сгенеренных разными моделями. Это должно позитивно повлиять на оценку моделей для кода, ведь именно автодополнение никто больше не бенчит. Отдельная арена тут может помочь до какой-то степени, пока разработчики на неё не оверфитнулись. А дальше придётся придумывать новые бенчи.

Если хотите попользоваться, учтите, что ваш код будут отправлять хостерам моделек на арене, что допустимо для опенсорс разработок и каких-то личных проектов. А вот для коммерческой разработки, конечно же, такое использовать не стоит.

Скачать

@ai_newz

Neurogen

13 Oct, 08:44


Окей, начали появляться рабочие проекты на гитхабе по генеративным играм — ловите Diamond.

Там есть список игр, на которых модель натренирована. Двухмерный аналог Pacman с лёту запустился с привычным управлением. А вот как играть в генеративный CS:GO неочевидно. Тем не менее, регистрируем шажок в нейроигровом направлении. Будем следить за развитием событий.

Вполне возможно лавочку быстро прикроют (ибо Габен велик) как было с недавним GameGen0, у которого беспалевно на странице проекта были картинки с подписями о Cyberpunk 2077, Witcher 3, итд. Но в этот раз у нас хотя бы есть код, который, как минимум, можно скачать себе в качестве будущего музейного экспоната. Всё лучше, чем гугл, который только пускает пыль в глаза инвесторам и ничего не релизит (GameNGen и Genie, например).

Спс подписчику @JohnDoe171 за подгон.

Сайт
Гитхаб

Neurogen

09 Oct, 18:27


MiniMax обновились и добавили поддержку генерации с изображением на входе.

При этом, если вы хотите просто "оживить" картинку, то промпт даже писать не обязательно, пример можете посмотреть как раз в прикрепленном видео.

#img2video #video

Neurogen

08 Oct, 11:03


Нобелевскую премию по физике за 2024 год получили Джон Хопфилд и Джеффри Хинтон - за "фундаментальные открытия и изобретения, лежащие в основе машинного обучения с помощью искусственных нейронных сетей".

"Два лауреата Нобелевской премии по физике этого года использовали физические инструменты для разработки методов, которые помогли заложить основу мощных современных технологий машинного обучения. Джон Хопфилд создал ассоциативную память, которая может хранить и реконструировать изображения и другие типы закономерностей в данных. Джеффри Хинтон изобрел метод, который позволяет автономно находить свойства в данных и таким образом выполнять такие задачи, как идентификация определенных элементов на изображениях", — говорится на сайте премии.

Neurogen

05 Oct, 10:47


Теперь к новостям наших проектов. Мы собрали вашу обратную связь по работе с NeuroIMG, и вот что мы сделали:

- Добавлены Превью моделей, по аналогии с CivitAI, то есть также берутся за основу изображения, которые установили для моделей их авторы.
- Добавлен поиск по моделям на основе их названий
- Добавлена возможность закрепления избранных моделей.
- Улучшение работы сервиса и повышение общей стабильности.

Важный нюанс: хранение списка избранных моделей происходит в вашем браузере и при смене браузера или устройства, а также при очистке кэша - список избранных моделей сбросится.

Также, в рамках проекта NeuroAPI мы добавили поддержку моделей o1-mini и o1-preview! Данные модели доступны для работы со скидкой 30% от оригинальной цены. Подробнее о нюансах работы с данными моделями можно узнать в официальном канале проекта.

#neuroapi #neuroimg

Neurogen

05 Oct, 10:27


AI новости последней недели: Вышел Flux 1.1 [pro], OpenAI анонсировала Realtime API для Voice Engine

Flux 1.1

Пока что доступна только Pro версия, речи о dev версии пока не идет. Что же касается Pro версии, то на данный момент она является лучшей моделью для генерации изображений, при этом генерация изображения происходит в несколько раз быстрее, по сравнению с прошлой версией.

Протестировать можно тут. Также бесплатно (пока что) и быстро протестировать модель можно на сервисе BlinkShot.

Realtime API

Realtime API позволяет разработчикам внедрить в свои продукты speech-to-speech, который будет работать с минимальной задержкой, по сравнению с текущими известными решениями. По факту, это позволяет использовать ряд возможностей из нового VoiceEngine, создавая продвинутых голосовых ассистентов. Новый функционал доступен в рамках модели gpt-4o-audio-preview. C документацией уже можно ознакомиться тут.

Цена использования API:
Текст: 5$/1M токенов на вход и 20$/1M токенов на выходе
Аудио: 100$/1M на вход и 200$/1M токенов на выход, или же 0.06$ за 1 минуту аудио на входе и 0.24$ за минуту на выходе.

Пока что для работы будет поддерживаться текст и аудио, но в будущем планируется также добавить поддержку видео. Также планируется выпустить поддержку realtime api на основе gpt-4o-mini

#ainews #chatgpt #flux #txt2img

Neurogen - подпишись, тут рассказывают про нейросети

Neurogen

01 Oct, 09:22


FaceFusion Portable by Neurogen v 3.0.0 | Сuda | Uncensored

Портативная версия FaceFusion 3.0.0, с акцентом на видеокарты Nvidia.

Отличия от публичной сборки:

- Собрана под видеокарты Nvidia, поэтому по умолчанию используется Сuda ускорение
- Поддержка TensorRT
- Cuda 12.4, CuDNN 9.4.0, TensorRT 10.5
- Полностью вырезан модуль цензуры. Так как больше нет анализа видео перед обработкой, то это ускорило общее время работы с длинными видеофайлами.

Данная сборка доступна для патронов канала на следующих площадках:

Boosty | Telegram

#facefusion #deepfake #lipsync #nvida

Neurogen

29 Sep, 15:16


По многочисленным просьбам, кроме авторизации через Telegram, в сервис NeuroIMG.ART, была добавлена также авторизация через Google аккаунт.

Neurogen

28 Sep, 03:38


Мы запустили собственный сервис для генерации изображений - NeuroIMG.ART

Особенности сервиса:

- 50 бесплатных генераций в сутки, с возможностью расширения путем платной подписки.
- Более нескольких сотен моделей различных семейств, таких как: SD 1.5, SD XL, SD 3, Flux, PixArt, Pony, Kolors, PlayGround 2.
- Возможность настройки
- Возможность выбора большого количества LoRA
- Возможность генерации txt2img и img2img
- [экспериментально] возможность создания простых анимаций в режиме txt2video

- Доступ к LLM API: API доступ к таким языковым моделям как Llama-3.2-11B-Vision-Instruct, Llama-3.2-90B-Vision-Instruc, Reflection-Llama-3.1-70B, gemma-2-27b-i, Mixtral-8x22B-v0.1 и ряду других.

Кроме этого, вы можете интегрировать генерацию изображений себе в сервисы, так как мы предоставляем в том числе и API доступ. Подробнее можно ознакомиться в документации.

Сервис доступен по адресу: https://neuroimg.art

Мы уже работает над крупным обновлением, которое добавит как новый функционал, так и сделает сайт более удобным для рядового пользователя.

На данный момент, сервис работает в режиме раннего доступа и активно дорабатывается, поэтому возможны различные проблемы и ошибки.

А если вам удобнее создавать изображения в Telegram боте, то урезанный функционал нашего сервиса есть в @neurogen_artbot

Neurogen

27 Sep, 21:12


neuroimg.art

Neurogen

27 Sep, 17:16


Meta представила передовые AR-очки Orion с искусственным интеллектом

Еще одна интересная новость последних дней: Meta* анонсировала Orion — самые инновационные очки дополненной реальности (AR), которые сочетают стиль обычных очков с возможностями дополненной реальности и искусственного интеллекта.

Ключевые особенности:

Виртуальный Голографический дисплей и ИИ: Orion оснащены контекстным ИИ (Meta AI), который распознает окружающие объекты и предлагает полезные подсказки. Например, ИИ может предложить рецепт на основе продуктов в вашем холодильнике или помочь в управлении цифровым календарем.

Интеграция с мессенджерами и видеозвонками: С помощью ИИ можно отправлять сообщения в WhatsApp и Messenger, а также принимать видеозвонки, не доставая телефон. И всё это — в режиме hands-free.

Стильный и лёгкий дизайн: Очки выглядят как обычные с прозрачными линзами, что позволяет сохранять зрительный контакт и быть полностью вовлечённым в происходящее вокруг.

Хотя Orion — это пока не массовый продукт, Meta активно тестирует очки среди сотрудников и избранных пользователей, чтобы в будущем выпустить потребительскую версию.

Ставь лайк, если тоже узнал музыку из Mass Effect в рекламном ролике очков☕️

*Meta - Признана экстремистской организацией и запрещена на территории РФ

#ar #vr #ainews