Канал про NoCode @pro_nocode Channel on Telegram

Канал про NoCode

@pro_nocode


Канал про nocode и lowcode разработку

Чат: @chat_about_nocode
Канал с вакансиями: @pro_nocode_jobs
По сотрудничеству: @esporykhin

Канал про NoCode (Russian)

Приветствуем вас на канале про NoCode! Если вы интересуетесь разработкой без кода и lowcode, то это место для вас. Здесь вы найдете самые актуальные новости, обзоры инструментов, советы и рекомендации по использованию NoCode и lowcode технологий. Наш канал предлагает информацию для начинающих и опытных специалистов в области разработки.

Кроме того, у нас есть обширный чат, где вы можете обсудить вопросы с другими участниками. Присоединяйтесь к @chat_about_nocode, чтобы быть в курсе всех дискуссий и обменяться опытом с единомышленниками.

Если вы ищете работу в области NoCode и lowcode разработки, обратите внимание на наш канал с вакансиями @pro_nocode_jobs. Здесь регулярно публикуются актуальные предложения от ведущих компаний.

Если у вас есть предложения о сотрудничестве или вы хотели бы разместить информацию о своей компании, обращайтесь к администратору канала @esporykhin. Мы всегда открыты к новым партнерствам и сотрудничеству.

Присоединяйтесь к нашему каналу, чтобы быть в центре событий в мире NoCode и lowcode разработки. Узнавайте новое, делитесь опытом и находите новые возможности для развития своих навыков. Добро пожаловать в мир NoCode!

Канал про NoCode

15 Feb, 07:14


Все же слышали про DeepResearch от OpenAI. Как обычно это и бывает, появилось куча опенсорс решений, которые кричат "Не плати OpenAI, вот бесплатно, всё как там"

Решил для одной рабочей задачки потестить подобные решения. Делюсь, что получилось.

Решение №1
https://github.com/dzhng/deep-research

Из плюсов: оч просто запускается и настраивается. 2 команды и вставить 2 ключа: OpenAI и Firecrawl. Но если у вас в API OpenAI не поддерживается o3-mini, то работать не будет. Поэтому я использовал API Nebius и модель R1 от deepseek. Настраивается тоже просто: прописываем url и так же добавляем ключ. Firecrawl даёт 500 запросов бесплатно - поэтому для теста хватит. Ключ получаете у них в админке.

Поставил простую задачку: собрать и проанализировать компании и сервисы, которые занимаются речевой аналитикой в России. На выходе полная дичь. И как такового исследования, как будто и не было. Например, во второй ссылке Гугла есть подборка на 30 сервисов аналитики откуда можно бы было взять информацию и расширить. Но этого сделано не было.

Попробовал упростить задачу и передал уже список конкурентов с ссылками на сайт и попросил сделать сравнительный анализ функционала и цен. Опять мимо. Цены не бьются от слова совсем. Где-то доллары, где-то рубли. По функционалу где-то попал, но нет ощущения, что это взято из сайта, а не из модели.

Решил дать финальный шанс: попросил подобрать сервис аналитики для маркетплейсов для Вб. В результатах ни одного актуального сервиса, лидером рынка назвал какого-то ноунейма, который даже в поиске не ищется.

Вердикт: не рекомендасьон

Решение №2
DeepResearch от Hugginface
Не буду описывать подробно, но результат в целом не далеко ушел от первого варианта.
Поэтому тоже не рекомендасьон.

Решение №3
https://github.com/mshumer/OpenDeepResearcher

Для работы нужно прописать 3 ключа:
⁃ OpenRouter
⁃ Jina
⁃ SerpAPI

Везде есть бесплатные лимиты.

Тоже запускается и работает в 2 клика. Здесь результат мне понравился больше.

Видно что он смотрит и какие ссылки посещает. Валидирует эти ссылки на предмет того, является ли она релевантной для запроса или нет.
Так же можно посмотреть ссылки, которые находит и поизучать их отдельно.

На генерации финального ответа информация была без галлюцинаций, но при этом достаточно сухая и поверхностная. Т.е мне с этим инструментом удобно посмотреть именно вширь того, что есть к изучению, но всё равно придется залезать и дополнять инфу руками.

⁉️Вердикт: 50/50

Решение №4
И напоследок затестил DeepResearch от Perplexity
Здесь был самый лучший результат.
Во-первых, визуально прикольно смотреть как он анализирует, делает выводы и описывает рассуждения.
Во-вторых, указывает все ссылки откуда брал инфу, подробно описал фунционал, особенности и фишки инструментов.

Из неприятного: потерял часть компаний для анализа т.к там не оказалось всей нужной информации. После дозапроса вернул и эту информацию.

Вердикт: рекомендасьон

Вывод
Моё скромное ИМХО: это пока не vibe research когда ты отправляешь запросы и наблюдаешь за магией(как в cursor при разработке). Поисследовать пока все равно придется самостоятельно, но как инструменты для расширения собственного контекста вполне себе.

Сравнить с DeepResearch от OpenAI не могу т.к жаба душит отдавать для этого 200$

Канал про NoCode

08 Feb, 10:38


Забавный факт:
Если делать проект с supabase на v0 и нативно хостить его через Vercel (это два продукта от одной компании), то вылезает ошибка при деплое из-за того, что там почему-то криво работает интеграция, если данные для подключения к supabase написаны в env файле. Ну либо я криворукий.

При этом, если сделать все через lovable, залить на гитхаб и захостить на Vercel, то все будет работать корректно. Там правда есть тонкость, что нужно создать отдельный файл для Vercel vercel.json, чтобы он знал как роутить пользователя на нужные страницы. Короче просто при генерации упомяните, что будете хостить на Vercel и это все сразу будет заложено.

Вот так мне объяснил ошибку lovable

This is a common issue with client-side routing in Single Page Applications (SPAs) hosted on Vercel. The error occurs because Vercel doesn't know how to handle direct navigation to routes like /share/video_id and returns a 404 page instead.
To fix this, we need to add a vercel.json configuration file to tell Vercel to redirect all requests to the index.html file, allowing React Router to handle the routing client-side.

Канал про NoCode

06 Feb, 11:11


Часто стал встречать мнение, что с текущим уровнем генеративок nocode скоро умрёт или станет не актуален. Отчасти согласен. Мой стэк сейчас больше выглядит так:
Cursor - для создания бэка и логики
Плюс недавно подтянул инструменты и для фронта: lovable + Vercel или v0 + Vercel, пока не оч определился, что мне больше нравится, продолжаю экспериментировать в свободное время. Но lovable пока выигрывает.

Но поймал себя на интересном кейсе при работе с бэком:
Мне визуально проще сначала собрать логику в n8n. Т.е собрать процесс там, проверить что все работает, настроить взаимодействия между компонентами, форматы ответа и т.д. А потом уже пойти в cursor и перенести логику на код. Плюсом, можно просто скопировать рабочий процесс из n8n (он в JSON если что) и попросить ЛЛМку переписать его на питон или что-то ещё. И чаще всего работает либо с первого раза, либо после небольшого количества итераций.

А вообще, все создание логики идет по одному сценарию: накидываю сам процесс в Miro -> Собираю рабочую версию в n8n -> Если нужно перенести на код, то в Cursor. Если нет, то оставляю всё в n8n

Канал про NoCode

01 Feb, 12:15


Короче, каждый день появляется куча исследований, новых решений и подходов к тому как можно улучшать продукты на базе LLM. Будь то RAG, или какие-то агентские системы. Угнаться и переварить это, имея 100500 других задач нереально, но я для себя выработал более менее рабочий подход по тому, как генерировать гипотезы для теста.

Все довольно просто:
◾️ Регулярно мониторю, какие новые исследования появляются через. Ищу через всяких умных людей в телеграм/твиттер.
◾️ В Голове всегда есть список задач, которые нужно решить сейчас/в ближайшее время. И то, что может быть релевантно просто кидаю себе в сохраненки. 95% это статьи и исследования с arxiv. Обычно это 10-15-30 страниц текста, с какими-то сложными графиками и объяснениями. Переваривать такое моему гуманитарному мозгу сложно и больно.
◾️ Поэтому я закидываю пдф со статьей в LLM. Либо chatgpt, либо deepseek.
◾️ Для начала просто прошу подробное саммари с объяснением основных моментов, подходов и идей из статьи. Это позволяет мне понять о чем вообще это исследование и релевантно ли оно мне сейчас.
◾️ Далее перевариваю эту информацию и прикидываю как это можно применить в моём кейсе.
◾️ Потом описываю свою задачу, идею которую взял из статьи и как это можно применить - закидываю в LLM. Делаю это для того, чтобы удостовериться, что я правильно понял суть и это реально можно применить так, как я понял.
◾️ Ну и дальше начинается итеративные процесс вопросов для того, как это можно реализовать. Можно ли, например, брать облачную LLM, а не обучать свою, как описано в статье и т.д

На выходе получается некий базовый план шагов, с которых стоит начать, чтобы протестировать решение.

А дальше уже начинаешь делать. Видишь, что работает не так как ожидалось и докручиваешь.

Так, например, недавно узнал про подход к улучшению RAG через токены памяти - вот пытаюсь раскрутить на одном внутреннем проекте.

Канал про NoCode

28 Jan, 05:43


Закинул копеечку на дипсик, попробую потестить по апи на своих пет задачках.

Кто уже пробовал внедрять/собирать какой-то функционал на основе этой модели, как вам?

Я недели 3 использовал как пользователь и в целом очень доволен

Канал про NoCode

24 Jan, 14:56


х10 к желанию делать плагины, когда получаю такие сообщения😀

у меня штук 6 точно лежит процентов на 80 готовых, но руки никак не дойдут хотя бы ещё один доделать и залить

Канал про NoCode

23 Jan, 16:57


Считаем денежки токены в Open AI Ассистентах в n8n

Если собираете агента в n8n, у вас есть несколько вариантов, как это сделать:
⁃ Лэнгчейн нода Agent, куда подключаете модели, БД, тулзы и т.д
⁃ Самостоятельно собирать флоу с "мозгами" агента и контролировать runs и вызовы функций на своей стороне. Не сегодня
⁃ Вызывать ноду OpenAI - Message assistant

Не знаю почему, но нативно и удобно из первого и третьего варианта нельзя вытаскивать usage - то есть вы не видите сколько токенов тратится у вас за один вызов агента. Но вот как вы можете просто делать это одним дополнительным вызовом к API Open AI.

После выполнения ноды Assistant у вас в ответе будет только thread_id и output. Чтобы получить логи просто отправьте вызов и передайте параметр thread_id из ноды


curl
-X GET "https://api.openai.com/v1/threads/THREAD_ID/runs
-H "Authorization: Bearer YOUR_API_KEY" \
-H "OpenAI-Beta: assistants=v2"


В ответе у вас будет массив из run и вам нужно просто достать последний run - внутри него будет usage.

Если дополнительно хотите посмотреть что происходило внутри этого рана, можно отправить запрос на


curl
-X GET "https://api.openai.com/v1/threads/THREAD_ID/runs/RUN_ID/steps
-H "Authorization: Bearer YOUR_API_KEY" \
-H "OpenAI-Beta: assistants=v2"


Тогда можно разобрать какие функции вызывались, сколько каждая съела токенов и т.д. При вызове информации о треде в usage суммируется usage всех шагов для каждого рана.

И ещё один способ нашел вчера в чате n8n, от @alfomin - тык сюда. Посмотрите - там полезно и тоже просто

Канал про NoCode

15 Jan, 09:09


Небольшой хак про то, как ускорить проверку результатов поиска при помощи LLM в n8n

Ситуация: у вас есть запрос пользователя и векторный поиск из которого вы достаёте результаты запроса. Но не все результаты подходят под запрос.

Чтобы удобнее работать с результатами привожу их в формат json. Примерно вот так:

{
"articles": [
{
"name": "Статья 1",
"description": "Автоматизация процессов с гибкими настройками.",
"url": "https://example.com/art1"
},
{
"name": "Статья 2",
"description": "Анализ данных для принятия решений.",
"url": "https://example.com/art2"
},
{
"name": "Статья 3",
"description": "Упрощение коммуникации и автоматизация задач.",
"url": "https://example.com/art3"
}
]
}


Задача: провалидировать результаты запроса с самим запросом и вернуть только то, что актуально и релевантно для пользователя.

Решение:
Использую open ai как финальный шаг по валидации результатов.
Изначально я просил LLM проанализировать запрос с полученными результатами и вернуть то, что релевантно. В таком случае я и на вход передавал JSON и на выходе получал JSON и это отрабатывало долго. 3-4 секунды в среднем.

Решил пойти другим путём и просить LLM вернуть только индексы результатов, которые подходят под запрос. А уже следующим шагом уже кодом достаю нужные результаты и возвращаю их пользователю.

Получился своеобразный костыль-валидатор, но это заметно улучшило качество выдачи и скорость проверки. Использую mini модель.

Пример промпта для валидации:

You have a user request and a list of articles that can help them solve their request. Your task is to select the most relevant articles and return their index. Use key "indexes". Indexes should start from 0. Rank the indexes by relevance in descending order.

User request:
{{ выражение для n8n }}

Articles:
{{ выражение для n8n }}


В результате получил и более быструю проверку(прикрепил к посту) на релевантность и сокращение количества токенов для проверки.

Канал про NoCode

14 Jan, 15:10


Решил я значит загуглить реранкер для лэнгчейна 🤔

Канал про NoCode

23 Dec, 19:41


Короче, я по вечерам, когда дети засыпают, люблю позалипать в X. И во время подобных залипаний обычно нахожу несколько интересных ссылок или проектов, связанных с AI или ноукодом. Обычно я их закидываю к себе в личку и там они и теряются. Подумал, что вдруг кому-то тоже будет полезно и интересно, поэтому вот, что нашел сегодня:

https://github.com/browser-use/browser-use - использование браузера для ллм агентов. Мне в последнее время интересно изучать и ковыряться в том, как на своей стороне можно запускать агентов в сеть. Вот один из претендентов на потестить на новогодних.

https://github.com/awslabs/multi-agent-orchestrator - фреймворк от Амазона для оркестрации в мультиагентных системах. У нас в МПСТАТС есть несколько умных ассистентов, поэтому тут я всегда в поиске решений и подходов, которые могут облегчить оркестрацию, определение интентов и в целом работу нескольких агентов.

https://studio.nebius.ai/ - могу ошибаться, но кажется это проект от выходцев из Яндекса. Короче предлагают доступ по апи к опенсорсным моделям(от text-to-text) до vision. Хочу погонять вижн. Плюс есть халява: по промокоду ALEX50 должны начислить 50 долларов. Еще не проверял

На сегодня все. Как вам претендент на постоянную рубрику?)
#вечерний_хвиттер

Канал про NoCode

22 Dec, 08:59


Короче раньше, когда я ещё занимался заказной разработкой основной проблемой было то, рынка ноукод разработки как будто бы не было. Вернее он не особо был сформирован. Поэтому часто приходилось "продавать" идею работы с ноукод инструменты заказчикам, а не работать на готовом спросе.

Года полтора назад начали появляться разделы ноукод разработки в крупных рейтингах типо теглайна, крупные клиенты стали интересоваться и искать спецов по ноукоду, но отдельных специализированных ресурсов про ноукод как будто немного было и есть.

Короче, решил поресерчить русскоязычные ресурсы и наткнулся на Nocodecircle

Внутри есть как рейтинги агентств по различным специализациям: веб, мобилки, чат-боты, так и обзоры и рейтинги российских ноукод инструментов - особенно актуально в эпоху "в любой момент могут блокнуть".

По ощущениям, сами рейтинги пока не охватывают весь российский рынок и можно добавить и привлечь много новых сервисов и агентств, но это и так же хорошая возможность попробовать добавить свою компанию и получить немного целевого трафика 🙂

В общем, если вы знаете ещё хорошие русскоязычные ресурсы про ноукод - пишите в комменты. Но сюда прям рекомендую зайти, особенно если в нашей сфере недавно.

Канал про NoCode

05 Dec, 14:23


Узнал интересную штуку.

Делюсь:
У нас есть одна интеграция телефонии с amo crm. И там как будто появилась проблема с подгрузкой звонков из телефонии в амо. Поэтому нужно понять какие звонки были за день и какие из них в итоге долетели до амо.
Для этого в амо даже есть отдельная вкладка, но вот кнопки "выгрузить" там нет. И человек, который занимается амо сказал, что выгрузить оттуда данные нельзя.

Такой ответ меня, конечно, не устроил. Поэтому полез в консоль разработчика на вкладку network смотреть как на страницу подгружаются звонки. Нашел вызов при помощи которого грузятся звонки и оказывается, что можно скопировать его как curl и использовать где угодно для своих целей. Скорее всего через какое-то время этот вызов "стухнет", но для быстрой автоматизации вполне себе.

Итак, дальше я пошел в cursor, попросил ИИ написать мне скрипт, который будет последовательно вызывать этот вызов и выгружать нужные мне данные с каждой страницы, запустил скрипт и данные пошли собираться. А я пошел писать этот пост)

Скрин приложил. Надеюсь вам будет полезно)

Попробовал, кстати, сначала вставить и запустить curl в n8n, но он ругался на ошибку в ответе. Поэтому пришлось сделать на питоне.

Канал про NoCode

20 Nov, 14:46


Сегодня выступал на MPSTATS EXPO, рассказывал про то, что мы делаем с ИИ внутри, n8n и lowcode. Но основной упор был на практику.

Короче хотел, чтобы на практике мы собрали простого ботика с роутером намерений пользователя и простыми действиями в зависимости от намерений. Но как часто бывает на демо или важных презентациях - часть плана пошла по известному месту:
▪️я профачил с таймингом
▪️n8n решил не ловить вебхуки
▪️в целом формат оказался тяжеловат

В итоге в целом все прошло не плохо. Процентов 10 аудитории написали положительный фидбэк, с кем-то пообщался, кто-то подписался на канал(спасибо вам🫶🏻) Но точно есть что улучшить и упростить.

А еще из-за того что изначальный формат не случился, то я пообещал со всеми, кто был отдельно созвониться и попрактиковаться/по отвечать на вопросы. А пацаны обещания держат.

Поэтому кто хочет на следующей/последующей устроить звонок как в старые добрые, поговорить про n8n, ai и разработку без кода - велком в комменты или личку. Пойму сколько человек и потом запущу опрос на дату/время🙌

Канал про NoCode

11 Oct, 19:03


Нашел золото - делюсь с вами не отходя от кассы

Подборка 108 AI шаблонов для n8n от ботов поддержки до ИИ-исследователей. Посмотрите, поковыряйте - может найдёте применение для себя

➡️ https://docs.google.com/spreadsheets/d/10VBpNb1JSBhnc5co0PIW5CCTo98pm5ucDAsWx9CwbG0/htmlview#gid=0

А еще напомню, что развернуть n8n в пару кликов можно через beget. Писал про это здесь

Канал про NoCode

09 Oct, 06:15


Cursor + Open Source = Продукт за пару часов🔥

Дошел наконец-то на выходных до того, чтобы с головой поковыряться в Cursor и попробовать что-то на нём собрать. Так как собирать условные таск трекеры мне никогда не нравилось, то решил сделать что-то полезное.

Нашел опенсорсный транскрибатор, который работает прямо в браузере. Там какая-то схема с тем, что модель транскрибации подгружается и задействует ресурсы браузера напрямую. Натолкнуло на мысль, что можно сделать его полностью безлимитным и бесплатным т.к северных ресурсов, как я понял, это много есть не должно. Но чтобы было интереснее и полезно для канала, то решил безлимит сделать только для подписчиков канала, поэтому нужно было дописать логику авторизации через телеграм и проверку на подписку в вебе

При помощи курсора:
⁃ Разобрался как устроен проект внутри
⁃ Перевёл весь интерфейс на русский
⁃ Добавил логику авторизации и проверок
⁃ Разместил проект на серваке, подключил домен

Получилось вот так:
https://ai.sporyx.in

На часовых записях не гонял, но десятиминутную на русском раскидало достаточно хорошо минуты за 1.5-2

Короче, cursor кайф, особенно для пет-проектов. Поэтому присмотритесь, если хотите попробовать попробовать собирать что-то кодом. А я продолжу эксперименты и буду отписывать сюда)

Канал про NoCode

01 Oct, 19:03


Пока все ноукодеры обсуждают апдейты от Bubble, вкину новость от OpenAI. Они выкатили оч полезное изменение в API: prompt caching

Почитать подробнее можно здесь: https://openai.com/index/api-prompt-caching

В двух словах: если вы используете один и тот же промпт в разных API запросах, то OpenAI будет самостоятельно использовать его кэшированную версию, которая в 2 раза дешевле, чем обычная версия. И если я правильно понял, то в беседе между пользователем и AI агентом по полной стоимости будут чарджиться только новые сообщения, а история сообщений будет оцениваться в 2 раза дешевле.

Чуть позже, возможно, поделюсь цифрами как изменилась стоимость запросов. Но в любом случае круто, что ничего менять не нужно, а цена будет меньше😀

Канал про NoCode

28 Sep, 11:33


Кто-то, наверное, ещё помнит, что я одно время баловался с плагинами для Bubble и даже сделал один платный. Его пару раз купили и самое прикольное, что есть обратная связь о том, что можно улучшить и доработать.

Короче пару свободных часов, поэтому поделюсь небольшим апдейтом по улучшению. Речь идет о плагине для SVG. С его помощью можно оживлять svg и получать интерактивные карты, карты рассадки в ресторане, бронирование места в коворкинге и много чего ещё. На видео, как раз пример того, что можно сделать.

Так вот, из улучшений:
⁃ Добавил возможность дизейблить перемещение по графику
⁃ Поправил баг с динамической погрузкой SVG. Теперь можно, например, переключаться между разными ресторанами и карта для каждого ресторана будет отображаться и работать корректно.
⁃ Добавил возможность ограничить максимальное количество выбранных элементов.
⁃ Подправил и добавил новых экшенов и событий по мелочи

Сам плагин здесь. Если вы из России, то можете написать напрямую - подключу в обход маркетплейса😃

Канал про NoCode

21 Sep, 18:05


Суббота – отличное время, чтобы поделиться своим факапом. История про то, как я чуть не залетел на 30к с OpenAI API

Короче, есть у меня флоу в n8n в котором есть узел с OpenAI. Я туда передаю определенный текст, ИИ нужно из этого текста сформировать список положительных критериев и посчитать их количество, чтобы на выходе у меня была конструкция типо «Оценка 6/10». У ИИ с математикой плохо, поэтому для надежности я вызывал tool который кодом считал количество положительных критериев и возвращал их в модель.

И по какой-то ебучей причине у open ai в такой конфигурации случился глюк при которой оно бесконечно зациклило вызов этого тула и подсчет количества в одном рабочем процессе вызвался у меня 2600 раз.

Обнаружилось это всё на следующий день и благо, что это был последний день августа т.к вызовы закончились из-за того, что закончился бюджет. Иначе могло бы быть гораздо больше.

А еще нубский момент, который я узнал про n8n - сценарий не завершается по установленному тайм-ауту, пока не перейдет от одной ноды к другой. Поэтому сценарий отрабатывал несколько часов, вместо максимальных 10 минут.

Но в итоге решилось всё хорошо: написал в поддержку, описал ситуацию, приложил пруфы и в итоге деньги за этот глюк вернутся. Но ситуация неприятная.

Чтобы не допустить подобного в будущем отрубил вызов подсчета и вынес его просто в отдельную ноду.

Надеюсь вам будет полезно и вы не повторить моих ошибок😀

Канал про NoCode

11 Sep, 18:58


Notion, Wix, Coda...

Ваши ставки, кто следующий?)

Канал про NoCode

10 Sep, 08:22


Бывший фаундер Adalo написал, что Adalo продали за 2 миллиона долларов. Это меньше, чем годовая выручка компании.

Пока официального подтверждения или новости нигде не нашёл, поэтому кому, куда и насколько это правда до конца не понятно. Я не фанат Adalo, но по наблюдениям того как люди переходили с них на Flutterflow последние 1,5-2 года, как будто, ничего удивительного. Надеюсь, что совсем не умрут и смогут переродиться🤞

Канал про NoCode

08 Sep, 11:46


У меня в ленте X сейчас каждый третий пост про replit.

А всё потому, что они выкатили AI-агента, который самостоятельно пишет код для полноценного приложения. Я ещё не успел потестить, поэтому за качество ничего не скажу, но примеры каких-то несложных штук, собранных пользователями в твиттере достаточно много. Как выглядит процесс прикреляю.

Моё мнение такое, что что-то сложное и большое только на этом всё равно пока не сделать, но быстро собрать какую-то обособленную часть или фичу проекта вполне себе может быть.

Я пока открыл для себя cursor и очень кайфанул, но про это напишу чуть позже)

Канал про NoCode

29 Aug, 12:11


Мне вчера некоторые напихали за то, что я токсичный. Да и в целом не все поняли моей иронии. Но на самом деле, просто смешно, когда встречается настолько неприкрытый пиздеж)

Не так давно сам погружаюсь в тему ИИ-помощников, ассистентов и генеративных продуктов. Поэтому грустно, когда под соусом экспертности людей учат писать промпты в обертку для нейросетей)

Но чтобы снова не показаться токсиком, то вот вам небольшая подборка ресурсов, где можно изучить:
⁃ как создавать ИИ-приложения
⁃ как работать с агентами
⁃ как делать умные системы на основе нейросетей

То, что изучаю и смотрю самостоятельно, чтобы прокачивать экспертность и скилы.

https://learn.deeplearning.ai/ - бесплатные курсы по тому, как создавать ИИ-продукты. В основном завязано на коде, но если есть понимание, то без сложностей сможете перекинуть концепты на лоукод инструменты

https://www.promptingguide.ai/ - описание и разборы основных техник с промптами и внутрянки современных LLM

https://t.me/llm_driven_products - чат канала "LLM под капотом". Там не встретите "подборку промптов для маркетологов", но зато сможете почитать вопросы и проблемы, которые возникают у людей при создании различных AI приложений

https://t.me/langchaindevchat - тоже чат про разработку AI приложений. Менее активный, но тоже с интересными обсуждениями.

https://t.me/neuraldeep/1043 - вот тут добрый человек предлагает вписаться в интенсив по созданию RAG. По уровню, кажется, подойдёт и для новичков.

И всё это абсолютно бесплатно. Пользуйтесь и делитесь своими ресурсами в комментарии)

Канал про NoCode

28 Aug, 18:24


А чего не с 2001 интересно🤔

Канал про NoCode

16 Aug, 19:25


Обнаружил интересную штуку, может и вам будет полезно

Используем API от Open AI и появилась задачка транскрибировать диалоги 2х человек и оценивать их по определенным критериям.

Делаю в n8n, стандартными ИИшными нодами, но у whisper(модели для распознания аудио) нет возможности разделять диалог на спикеров. Но оказалось, что даже 4о-mini хорошо обрабатывают полотно диалога и корректно разделяет его на спикеров.

Получается дешево и сердито)

Канал про NoCode

08 Aug, 16:51


Всем привет, давно не писал) заметил, что у большинства ноукод коллег в каналах попритихло - делаю вывод, что работы много и все в мыле😀

У меня тоже все гуд, предоставилась возможность войти в настоящий айти и теперь занимаюсь AI проектами в MPSTATS. Кто не знает, это самый популярный сервис аналитики маркетплейсов. Ковыряю питон,

Про ноукод: скорее всего контента про это будет сильно меньше. В целом пока контента не будет много, но буду стараться закидывать что-то интересное в рамках текущих задач. А вообще хочу смещать фокус в сторону разработки, AI приложений и лоукода.

Кстати, кодить с GPT в моём понимании это лоукод😀

Такие дела. Что интересно бы было почитать дальше в канале? Ну или просто поделитесь как у вас дела)

Канал про NoCode

03 Jul, 19:37


🔥Новый запрос на Bubble разработчика🔥

Формат работы: удалённо, изначально почасовая (до 160 часов в месяц). Работа над продуктом, не в студии

Требования:
- Опыт работы > 1 года в создании Bubble.io приложений
- Сильные навыки решения проблем и внимание к деталям
- Отличные коммуникативные способности и умение работать в команде
- Опыт работы как с интерфейсом, так и с бэкендом
- Английский уровень > A2
- Опыт работы с API и интеграциями
- Опыт работы в команде из нескольких разработчиков
- Опыт работы над крупными проектами

Основные обязанности:
Разработка: Проектирование, доработка и поддержка как существующих, так и новых функциональных возможностей с использованием Bubble.io

Сотрудничество: Работа с дизайнерами, клиентами и другими разработчиками над преобразованием требований в функциональные возможности

Эта должность предоставляет прекрасную возможность работать над динамичным и продолжающимся проектом в условиях совместной работы. Если вы увлечены веб-разработкой и хотите внести свой вклад в разработку инновационных решений, мы будем рады видеть вас в нашей команде.

Бюджет
До 2800$ в месяц

Для отклика на вакансию писать @ya_voita, прикрепляя своё CV

Канал про NoCode

12 Jun, 07:49


Нашел на просторах linkedin эксперимент разработчика с загрузкой данных в РГ и производительностью страницы. Делюсь ниже.

Было протестировано 3 сценария.

👉🏻 Сценарий 1: Стандартная настройка
Результат
First contentful paint: 5,9 с
Оценка производительности Lighthouse: 48

👉🏻 Сценарий 2: Установил пустой источник данных и добавил динамический источник данных с условием, когда страница загрузится полностью.
Результат
First contentful paint: 7,2 с
Оценка производительности Lighthouse: 37

👉🏻 Сценарий 3: Установил пустой источник данных RG и visible=no, добавили динамический источник данных и visibility=yes с условием, когда страница загрузилась полностью.
Результат
First contentful paint: 5,1 с
Оценка производительности Lighthouse: 53

Вывод
Поэтапное изменение источника данных для Repeating group, похоже, имеет значение. Но, когда RG видна, она может блокировать чтение «contentful paint», что приводит к низкой производительности.
Если скрыть RG по умолчанию и показывать только при полной загрузке страницы, то создается впечатление, что она перестает участвовать в contentful paint, а загружается как вторичный элемент после отрисовки остальной части страницы.

Таким образом, это один из подходов к улучшению производительности страницы, если она содержит много RG или если в ней есть RG с комплексными и сложными запросами.

Просто скройте RG по умолчанию и установите источник данных в условие, которое срабатывает, когда остальная часть страницы загружается полностью.

Канал про NoCode

04 Jun, 21:12


Ковырялся в проекте и нашел плагин, который делал, чтобы определять виден ли элемент на экране или нет. Мне он нужен был для того, чтобы менять анимацию в зависимоти от видимого элемента.

Может есть решение попроще, но я не нашел. Поэтому не долго думая завернул в плагин и закинул на проверку в Bubble.Для наших зарубежных коллег поставил символичную цену в 5$, но с вами поделюсь за репост этого поста просто так. Просто напишите в личку название приложения куда раздать.

Посмотреть как работает можно здесь:
https://nch-plugins-tests.bubbleapps.io/version-test/plugins/visible_detector

Канал про NoCode

03 Jun, 10:49


Почему Зерокодер продаёт курс по нейросетям, но всё никак не разнообразит своим ученикам новые приветстенные сообщения через нейросети?🤔

Канал про NoCode

31 May, 17:34


Новые плагины и апдейт плагина для выгрузки Excel

Решил опубликовать 2 плагина, которые пригодились мне на одном проекте.

Corporate email checker
Простой плагин, который проверяет введена ли в инпут корпоративная почта или нет.

🔌 Плагин здесь
⭐️ Демо здесь

Outside Click Tracker
Тоже простой плагин, который трекает когда вы кликнули за пределами нужного элемента.

Когда мне это потребовалось: в профиле пользователя кастомные инпуты с редактированием информации. По клику на редактирование инпут активируется и подсвечивается. По любому клику вне инпута активное состояние инпута должно сбрасываться.

🔌 Плагин здесь
⭐️ Демо здесь

Так же обновил плагин по скачиванию excel файла. В последние дни почему-то перестал работать, поэтому пришлось немного изменить логику. У кого он установлен - обновитель до последней версии.

Ну и решил сделать более презентабельную страницу с плагинами и собрать их все на одной странице. Пока не все добавил и выглядит так себе, но уже лучше, чем было)

Канал про NoCode

13 May, 11:34


Всем привет! Давно не писал)

В общем, я тут сделал MVP небольшого HR продукта на Bubble и хочу попробовать продавать его как «коробку» в различные компании. Постарался все описать и рассказать в статье на VC:
https://vc.ru/tribuna/1169674-kak-prodat-korobku-dlya-geimifikacii-hr-v-kompanii-chast-1

Буду благодарен, если поддержите статью лайком, комментов, а так же напишите, что вообще думаете про такое)

Канал про NoCode

18 Apr, 09:08


Чтобы интерфейс был приятнее, а пользователи не сбегали с сайта, когда что-то грузится дольше чем обычно лучше всего использовать skeleton loader.

Поэтому сегодня делюсь бесплатным сервисом при помощи которого можно собрать кастомный скелетон лоадер:
https://skeletonreact.com/

А ниже инструкция по реализации. На английском, но всё понятно и доступно:
https://www.nocodable-components.com/post/how-to-create-custom-skeleton-loaders-in-bubble