Teslak Notes (@tesnot) Kanalının Son Gönderileri

Teslak Notes Telegram Gönderileri

Teslak Notes
Обо мне и проектах: t.me/TesNot/777
Второй канал: @Tes404
Истина где-то рядом.
Буст: t.me/boost/TesNot
2,076 Abone
644 Fotoğraf
52 Video
Son Güncelleme 01.03.2025 00:18

Teslak Notes tarafından Telegram'da paylaşılan en son içerikler


#фото

🐳 DeepSeek

Одна из самых интересных моделей второго эшелона.
Мощная, бенчмарк в комментариях. Безлимитно, бесплатно и без бана РФ.

Есть не очень умный режим цепочки рассуждений.
Есть 🔍 поиск. Ищет до 50 источников за запрос, конкуренты — меньше.
Умеет читать фотографии и файлы.

🗓 Последний год вышло много клёвых моделей и эта одна из самых приятных.
Дешёвый API, меньше цензуры. 2.5 почти всегда лучше 4o-mini/3.5 Haiku, новая 3 соперничает с лучшими.


Ещё есть интересный платный Deep Research.
Ранее я помещал в списке вката You.com выше Perplexity потому, что первый давал 5 использований сильной модели в сутки, а второй нисколько, сейчас у обоих по три, что мало.

В обозримом будущем выкачу объёмную статью про ресерч с лайфхаками и юзкейсами.

#нейро

Запустил @PersList по фану. Не только о медийных которых все знают, но и о них тоже. Не знаю, насколько выйдет регулярно, но должно быть прикольно.
Кто хочет — помогите с контентом (или фактчеком нейроответов), потому что хочу постить только ± проверенное.

Регулярные справки о личностях

Кто-то видел мир иначе, кто-то страстно желал его изменить. Одни находили красоту в хаосе формул, другие сотворяли чудеса на холсте. Были те, кто различал паттерны там, где остальные видели лишь случайность.

Многие не хотели примириться с «так принято» и «так было всегда». Они раздвигали границы возможного, часто балансируя на тонкой грани между безумием и прозрением, между отчаянием и триумфом.

Неидеальные, но невероятно значимые. С отчаяниями и триумфами.

Истории не только о прошлом. Это размышление о природе творчества и границах возможного. О том, как одинокая мысль вспыхивает, становясь революцией. Как личное преображается во всеобщее.

Тоже плюс немного всякого

🧠 Искусственный интеллект

Cознание — сложный и, возможно, даже устаревший концепт. Где та грань, за которой можно считать систему сознательной? Животные, у которых тоже есть некий уровень восприятия и реакции на мир, не обладают своим видом сознания?

Лучшие нейросети пока остаются сложными алгоритмами глубокой обработки больших данных, которые могут строить внутри картину мира, эмулировать человеческие реакции и поведение в узконаправленных задачах.


Пока не существует схожего с человеческим «общего» интеллекта.
И не факт, что вообще появится, хотя точно станет значительно лучше.
Основные (не исчерпывающие) стороны для улучшений:

⭐️ Датасет
Количественно и качественно: получать размеченные данные не из верхнего интернета;

⭐️ Мощности и длительности обучения
GPT-4 была обучена на 25 тысячах видеокарт прошлого поколения, новые датацентры содержат 100 тысяч видеокарт нового поколения. Видеокарты можно и дальше делать мощнее и узконаправленнее;

⭐️ Алгоритмы рассуждения и самокоррекции
Лайв-фактчек информации в интернете и цепочки внутренних рассуждений как у OpenAI o1;

⭐️ UX интерфейса
NotebookLM, артефакты в Клоде, новое редактирование текста и войсмод в ChatGPT, режимы типа исследования, ассистенты, поддержка Экселя и других форматов;

⭐️ Архитектура
А также регуляризация, борьба с переобучением, переносное обучение, файн-тюнинг (и его упрощение), мультимодальность и всякое разное.


Обсуждая ИИ, иногда фокусируются на фантастических сценариях восстания машин. Более вероятной проблемой является не злой 😈 самостоятельный ИИ, а злые люди, использующие нейросети и другие технологии для создания дезинформации, оружия и вирусов.

Разрабатывающие нейросети компании давно поняли важность AI alignment: есть отдельные должности, следящие за поведением модели и данными, на которых они обучаются. Есть договоры. Есть опасения касательно пренебрежения главой OpenAI SuperAlignment'ом, но пока это некритично.

Гипотетически 🤯 «сверхинтеллект» возможен, хотя есть физические и алгоритмические ограничения. Как будет на практике, остаётся только наблюдать.

До выхода ЧатГПТ сами его разработчики толком не понимали что получится, хотели делать у версии 3.5 связь с интернетом, но реализовав выяснили, что справляется и без него.


Теория разума и то, как языковые модели её проходит

Ошибочная обобщенность цели

Книги для начала изучения ML

Awesome LLM resourses


#текст #нейро

#красиво

Обновил.
Новый голосовой режим вполне может заменить репетиторов по многим предметам.

Нейросети нужно распробовать.

Многие люди их не используют или делают это крайне редко. Вероятно, есть задачи, которые можно решать с их помощью, но не сформировалось понимание, какие нейросети в каких ситуациях могут быть наиболее эффективными. А возможно, таких задач действительно нет, всякое бывает.

🤖 Продвинутое использование языковых моделей


📚 Большой контекст

Бесплатные версии ChatGPT & Claude ограничены малым количеством токенов (это как символов, но не совсем). Платные ограничены 128 000 & 200 000. Вывод у платных тоже больше. Здесь выделяется бесплатная Gemini 1.5 Pro Experimental от Гугла с контекстом в два миллиона, а с обновлениями больше. Раньше была сильно глупее, сейчас улучшили. От конкурентов в умности всё ещё отстаёт. Много токенов увеличивают галлюцинации, но не прям.

Широкое контекстное окно позволяет анализировать длинные видео, книги, статьи, чаты, каналы.

🍴 AI Studio (на потребительском сайте она платная) — работает кривовато, иногда не грузит файлы, иногда файлы нужно разбивать на части, иногда не ест большой контекст сразу, нужно прерывая ответ несколько сообщений отправить. Но работает. Даёт ограниченно бесплатное API.


💻 Локальный запуск

Бесплатно + диалоги не будут анализироваться.

Выбрал 📚 LM Studio, удобно запускать все открытые модели в GGUF.

Что-то хорошее запустить не получится, средние компьютеры тянут модели уровня Llama 3.1 7b и зачастую только с квантованием. Vikhr Nemo 12b отвечает на русском лучше других малюток.

Для корпоративных нужд можно развернуть большие модели на сервере.


🧠 Новые модели

ChatGPT o1-preview доступна только по подписке. Если заплатить не получается, можно найти временный доступ где получится: Double & временный хаггинг.

Боты в Телеграме обычно дают 4o-mini, которая значительно слабее 4o, а 4o старее o1.


Длительное использование

Зачастую LLM используются разово без настроек и контекста. E.g.: изучение языка приятнее с настроенным и помнящим обсуждения ассистентом.


🎶 Транскрибация

Речь можно преобразовывать в текст. Многие сервисы умеют это делать сами. Можно делать специальными в том числе по API, можно локально.

Нарезалки больших видео на короткие делают это исключительно по тексту.

Расшифровка звонков и их суммаризация нужны частенько.


🤝🤝 Мультиагенты

Настройка моделей для решения определенных задач и взаимодействия друг с другом. Иногда эффективнее, чем заставлять решать сложные задачи одним агентом.

Реализаций много, e.g.: 👻 Coze.


🧩 Мультимодальность

Общение голосом (доступно в официальном мобильном клиенте ChatGPT), распознавание картинок.


⚒️ Заточенные инструменты

Некоторые ранее упомянутые сервисы имеют преднастройки вроде режима исследования, некоторые идут дальше.

Google NotebookLM базируется на AI Studio. Складирует и переваривает любой тип контента, даёт шаблоны сообщений для нейросеточки и даже генерирует Deep Dive подкаст на английском, где два ИИ обсуждают тему. Скриншот в комментариях.

Яндекс Редактор — улучшатор текста без необходимости писать промпты. Редактура слабая. Надеюсь, будут развивать.

Coder — IDE взаимодействующая с нейросетями. Есть похожие плагины для других.


🧐 Всякое

Автоматизация действий: zapier.com & make.com & etc. Примеры на сайтах.

300.ya.ru — пересказ Ютуб-видео и проставление таймкодов.

Harpa — расширение для браузера. Copilot из коробки добавлен в Edge — позволяет быстро задавать вопросы по видео или другому контенту на странице.

Mistral & DeepSeek — безлимитный доступ к своим неплохим моделям. Первый картинки генерирует, DeepSeek умеет в цепочки рассуждений и API очень дешёвое. Оба смотрят вложения.

PromptPerfect — оптимизация промптов.

Reader-LM — HTML-to-Markdown. В большинстве случаев решается без всяких нейросетей плагином в браузере, упомянул для демонстрации широты применений. Есть и более узкие нейросети для биологии, медицины и прочего.


Погуглить дополнительные гайды — само собой разумеющееся.
Пост про вкат немного обновил.


#текст #нейро