Файлом в комментарии.
Teslak Notes のテレグラム投稿

Обо мне и проектах: t.me/TesNot/777
Второй канал: @Tes404
Истина где-то рядом.
Буст: t.me/boost/TesNot
Второй канал: @Tes404
Истина где-то рядом.
Буст: t.me/boost/TesNot
2,076 人の購読者
644 枚の写真
52 本の動画
最終更新日 01.03.2025 00:18
類似チャンネル

17,532 人の購読者

2,944 人の購読者

1,869 人の購読者
Teslak Notes によってTelegramで共有された最新のコンテンツ
📷 Фото Hubble Ultra-Deep Field с изображением около 10 000 галактик, каждая содержит миллиарды звёзд. Охватывает крошечный участок неба: примерно 1/10 углового диаметра Луны. Эквивалентно просмотру через замочную скважину, держа её на расстоянии вытянутой руки.
Файлом в комментарии.
Файлом в комментарии.
Набор китайских моделей от Alibaba.
LLM на уровне ДипСика. Есть API, но дорогое.
Отличаются хорошим интерфейсом чата с большим функционалом. Местами работает странно: внутри артефактов генерируется только код, а в режиме ответа от нескольких моделей нельзя выбирать одинаковые модели.
Создаёт изображения, видео (сейчас сломалось), ищет в интернете и смотрит в файлы.
Есть папки и шейринг чата!
Qwen 2.5 Max
По бенчмаркам соперничает с лучшими. По факту местами косячит.
Хороша в языках, судя по моим опытам, заявлениям о мультиязычности и тренировке на 20 триллионах токенов (это много, у Ламы и ДипСика по 15 трлн.
Пока контекст маленький — 32 000 токенов.
Количество параметров не нашёл, скорее всего немного из-за традиционного фокуса на балансе.
QVQ 72B
Qwen2.5 14B Instruct 1M
Маленькая, зато миллион токенов контекста. Если лень включать американский ВПН для
Есть и другие. QwQ 32B — небольшая, но размышляющая и у которой 131 000 контекста, как и у 2.5 Plus.
Весьма нишевая, зато бесплатно.
#нейро
ДипСик дообучили своей R1 моделью Qwen и Llama на 1.5-70 млрд параметров, сделав их умнее
Не хочу заостряться на маленьких нейросетях. Хотя у них много интересных сценариев использования вроде модерации, Mistral сделали готовый🔨 инструментарий даже
Малышки обещают становиться всё лучше: вот и вот
Не хочу заостряться на маленьких нейросетях. Хотя у них много интересных сценариев использования вроде модерации, Mistral сделали готовый
Малышки обещают становиться всё лучше: вот и вот
«История с реакцией рынков на новости о DeepSeek V3 и R1 — пример глупости, помноженной на дилетантизм и истеричную природу массового сознания в эпоху кликбейт-экономики»
Основное:
📈 Близка к лучшим, но близость зависит от задачи, что ясно, если её поюзать. В ряде сценариев будет сильно хуже. Почти не тренировали на русском языке + тренировали недолго, на не самом объёмном и качественном наборе данных, на FP8 вместо FP32/16. Передовые LLM обучались не сильно дороже;
💰 Хороша ценой/качество;
🔓 Опенсорс, который, как и Llama, легче использовать и адаптировать под специфические задачи;
🚫 Не умеет распознавать 🖼 изображения напрямую, только через слабое распознавание символов;
✋ Не были взломаны хакерами, данные не слиты (наверное), уязвимость нашли пентестеры 🥸
В целом ДипСик молодцы, теперь🤖 Перплексети предлагает использовать R1 бесплатно ‼️ 5 раз в день, а в Про подписку добавили o1, чего раньше не было.
ЧатГПТ, видимо, сделают скидки на подписки.
Кол-во поисков вслед некоторые подняли до 50.
Подняли важную тему неэффективности ряда аспектов обучения моделей.
ДипСик — не полноценная замена лучшим моделям (хотя зависит от ситуации), умеющим размышлять более широко и отлаженно, но хороший бесплатный (или дешевый по API) помощник без необходимости в ВПН для РФ.
#нейро
Основное:
В целом ДипСик молодцы, теперь
ЧатГПТ, видимо, сделают скидки на подписки.
Кол-во поисков вслед некоторые подняли до 50.
Подняли важную тему неэффективности ряда аспектов обучения моделей.
ДипСик — не полноценная замена лучшим моделям (хотя зависит от ситуации), умеющим размышлять более широко и отлаженно, но хороший бесплатный (или дешевый по API) помощник без необходимости в ВПН для РФ.
#нейро
Улучшают опыт от использования языковых моделей.
Better GitHub / GPTs
Дополненный промпт Дениса, включающий лучшие практики улучшения качества ответа большинства мощных моделей.
Инфостиль-редактор GitHub / GPTs
Делает текст больше похожим на инфостиль. Периодически дорабатываю. Далее с ним можно пойти в Главред.
Анализ книг и научных статей GitHub / GPTs
Лучшие практики + оценка аргументации от 1 до 10, что сильно влияет на объективность + критика. Нужно выбрать язык ответа.
Альтернатива для научных статей.
Генератор промптов для картинок GitHub / GPTs
Получает текст на любом языке, выдаёт промпты разной длины и креативности на английском.
#нейро
Локальный анализ публичных и личных чатов и каналов: подвести
В отличие от ботов, охватывает всю историю, а не только после добавления бота.
В целом работает, местами кривенько
Относительно легко запускается (инструкция на русском и примеры выдачи там же) и правильно считает.
Может в диапазоны дат.
Ест JSON-импорт любого размера, умеет совмещать миллионные JSON, если есть старый и новый экспорт чата. Всякое настраивается, есть сдвиг часовых поясов, экспорт.
Инструкция
0. Ставим Питон, если нету
1. Через меню десктопного клиента экспортируем историю чата/канала открыв таковой. Убираем галочки, меняем формат на JSON. Если нет пункта, то качаем 64Gram
2. Качаем ZIP с ГитХаба (продублирую в комментарии)
3. Распаковываем и закидываем куда распаковали из экспорта result.json
4. ПКМ в проводнике, открыть терминал (или показать больше и открыть терминал) ИЛИ открываем терминал любым образом и пишем
cd путь_до_папки_включительно
5. Пишем
pip install -r requirements.txt
и можно запускать: python start.py
В комментариях покажу, как выглядит статистика.
#софт
Обновлены:
📼 Ютуб-каналы
✈️ Телеграм-каналы — оказывается, в папке была до сих пор пара кринжовеньких, удалил + есть пара научных папок в комментариях
📰 Новости
💬 Экспресс-вкат в языковые модели
🤖 Продвинутое использование языковых моделей — добавил про код. Про Cursor слышали многие, поменьше про интересные альтернативы с локальным запуском и для больших проектов
DeepSeek обновили тем временем себя до третьей версии, увеличив кол-во параметров модели в три раза. 235 → 671, что больше Llama 405b, хотя далеко не единственный параметр производительности. Бенчмарк и подробности в комментариях.
📰 Новости
DeepSeek обновили тем временем себя до третьей версии, увеличив кол-во параметров модели в три раза. 235 → 671, что больше Llama 405b, хотя далеко не единственный параметр производительности. Бенчмарк и подробности в комментариях.
Пока пилю большие статьи и серию постов, можете почитать про Иисуса и как он мог выглядеть, про Максвелла, на чьих плечах стоял Эйнштейн. Про забавные убеждения Теслы, в конце концов.