Latest Posts from Teslak Notes (@tesnot) on Telegram

Teslak Notes Telegram Posts

Teslak Notes
Обо мне и проектах: t.me/TesNot/777
Второй канал: @Tes404
Истина где-то рядом.
Буст: t.me/boost/TesNot
2,076 Subscribers
644 Photos
52 Videos
Last Updated 01.03.2025 00:18

The latest content shared by Teslak Notes on Telegram


📷 Фото Hubble Ultra-Deep Field с изображением около 10 000 галактик, каждая содержит миллиарды звёзд. Охватывает крошечный участок неба: примерно 1/10 углового диаметра Луны. Эквивалентно просмотру через замочную скважину, держа её на расстоянии вытянутой руки.

Файлом в комментарии.

✡️ Qwen

Набор китайских моделей от Alibaba.
LLM на уровне ДипСика. Есть API, но дорогое.

Отличаются хорошим интерфейсом чата с большим функционалом. Местами работает странно: внутри артефактов генерируется только код, а в режиме ответа от нескольких моделей нельзя выбирать одинаковые модели.
Создаёт изображения, видео (сейчас сломалось), ищет в интернете и смотрит в файлы.
Есть папки и шейринг чата!


⚙️ Модели, их выбирать вверху:

Qwen 2.5 Max
По бенчмаркам соперничает с лучшими. По факту местами косячит.
Хороша в языках, судя по моим опытам, заявлениям о мультиязычности и тренировке на 20 триллионах токенов (это много, у Ламы и ДипСика по 15 трлн. Хотя у Ламы много размечено руками).
Пока контекст маленький — 32 000 токенов.
Количество параметров не нашёл, скорее всего немного из-за традиционного фокуса на балансе.

QVQ 72B
👁 Мультимодальная модель c цепочкой рассуждений, поддерживающая изображения (до 5 за раз). Есть 2.5 VL без цепочки, она быстрее, но в случае мультимодальности цепочка полезна потому, что они могут быть сильно глупее.

Qwen2.5 14B Instruct 1M
Маленькая, зато миллион токенов контекста. Если лень включать американский ВПН для 🍴 AI Studio с бесплатной Gemini, то можно её.

Есть и другие. QwQ 32B — небольшая, но размышляющая и у которой 131 000 контекста, как и у 2.5 Plus.


Весьма нишевая, зато бесплатно.

#нейро

ДипСик дообучили своей R1 моделью Qwen и Llama на 1.5-70 млрд параметров, сделав их умнее

Не хочу заостряться на маленьких нейросетях. Хотя у них много интересных сценариев использования вроде модерации, Mistral сделали готовый 🔨 инструментарий даже

Малышки обещают становиться всё лучше: вот и вот

«История с реакцией рынков на новости о DeepSeek V3 и R1 — пример глупости, помноженной на дилетантизм и истеричную природу массового сознания в эпоху кликбейт-экономики»

Основное:
📈 Близка к лучшим, но близость зависит от задачи, что ясно, если её поюзать. В ряде сценариев будет сильно хуже. Почти не тренировали на русском языке + тренировали недолго, на не самом объёмном и качественном наборе данных, на FP8 вместо FP32/16. Передовые LLM обучались не сильно дороже;
💰 Хороша ценой/качество;
🔓 Опенсорс, который, как и Llama, легче использовать и адаптировать под специфические задачи;
🚫 Не умеет распознавать 🖼 изображения напрямую, только через слабое распознавание символов;
Не были взломаны хакерами, данные не слиты (наверное), уязвимость нашли пентестеры 🥸

В целом ДипСик молодцы, теперь 🤖 Перплексети предлагает использовать R1 бесплатно ‼️ 5 раз в день, а в Про подписку добавили o1, чего раньше не было.

ЧатГПТ, видимо, сделают скидки на подписки.

Кол-во поисков вслед некоторые подняли до 50.

Подняли важную тему неэффективности ряда аспектов обучения моделей.


ДипСик — не полноценная замена лучшим моделям (хотя зависит от ситуации), умеющим размышлять более широко и отлаженно, но хороший бесплатный (или дешевый по API) помощник без необходимости в ВПН для РФ.

#нейро

💡💡💡💡💡💡💡💡

👩‍💻 Мои промптики для LLM

Улучшают опыт от использования языковых моделей.

Better GitHub / GPTs
Дополненный промпт Дениса, включающий лучшие практики улучшения качества ответа большинства мощных моделей.

Инфостиль-редактор GitHub / GPTs
Делает текст больше похожим на инфостиль. Периодически дорабатываю. Далее с ним можно пойти в Главред.

Анализ книг и научных статей GitHub / GPTs
Лучшие практики + оценка аргументации от 1 до 10, что сильно влияет на объективность + критика. Нужно выбрать язык ответа.
Альтернатива для научных статей.

Генератор промптов для картинок GitHub / GPTs
Получает текст на любом языке, выдаёт промпты разной длины и креативности на английском.

💭 Продублирую в комментариях.


#нейро

⚡️ TesTeleStat

Локальный анализ публичных и личных чатов и каналов: подвести 🎄 итоги года и просто поизучать.

В отличие от ботов, охватывает всю историю, а не только после добавления бота.

🏆 Выведет в файл кол-во символов, дни наибольшей активности, топ написавших и используемых слов, чертит графики сообщений.

✏️ В случае каналов — ещё и топ постов по реакциям и кол-во реакций. Если канал коллективный, то кол-во опубликованных постов по автору.

В целом работает, местами кривенько 😛
Относительно легко запускается (инструкция на русском и примеры выдачи там же) и правильно считает.
Может в диапазоны дат.
Ест JSON-импорт любого размера, умеет совмещать миллионные JSON, если есть старый и новый экспорт чата. Всякое настраивается, есть сдвиг часовых поясов, экспорт.


Инструкция
0. Ставим Питон, если нету
1. Через меню десктопного клиента экспортируем историю чата/канала открыв таковой. Убираем галочки, меняем формат на JSON. Если нет пункта, то качаем 64Gram
2. Качаем ZIP с ГитХаба (продублирую в комментарии)
3. Распаковываем и закидываем куда распаковали из экспорта result.json
4. ПКМ в проводнике, открыть терминал (или показать больше и открыть терминал) ИЛИ открываем терминал любым образом и пишем cd путь_до_папки_включительно
5. Пишем pip install -r requirements.txt и можно запускать: python start.py

В комментариях покажу, как выглядит статистика.


#софт

Обновлены:
📼 Ютуб-каналы
✈️ Телеграм-каналы — оказывается, в папке была до сих пор пара кринжовеньких, удалил + есть пара научных папок в комментариях
📰 Новости
💬 Экспресс-вкат в языковые модели
🤖 Продвинутое использование языковых моделей — добавил про код. Про Cursor слышали многие, поменьше про интересные альтернативы с локальным запуском и для больших проектов

DeepSeek обновили тем временем себя до третьей версии, увеличив кол-во параметров модели в три раза. 235 → 671, что больше Llama 405b, хотя далеко не единственный параметр производительности. Бенчмарк и подробности в комментариях.

Пока пилю большие статьи и серию постов, можете почитать про Иисуса и как он мог выглядеть, про Максвелла, на чьих плечах стоял Эйнштейн. Про забавные убеждения Теслы, в конце концов.

#фото