Господин Архитектор

@architect_says


Про архитектуру в ИТ и про всё, что рядом

Господин Архитектор

17 Oct, 15:16


Об мышиное зрение 2 /памятка для себя самого/

Так как не на каждое изделие можно взгромоздить системный блок, а распознавание картинки требует сложных вычислений, приходится выбирать что-то более портативное. Мой выбор пал пока на творения китайской Rockchip серии RK35xx, оснащенные нейроускорителем. Вариантов исполнения модуля доступно несколько, мне приглянулся самый простой Orange Pi.

Многочисленные тесты показывают на модельке YOLO v5 производительность вывода на кадре 640х640 пикселей такую:

* i7 7700k - 120ms
* i5 13600k - 80ms (npu)
* rk3566 - 100ms

> ПРИЕМЛЕМО <

Ниже пишу шаги, как дойти от готовой модели к работающей системе. Тренировку модели оставим за скобками. Я использовал Python 3.10.15 для всего.

1. Китайцы из Rockchip немного доработали модель YOLO, так что её input/output форматы не совместимы с оригинальной моделью. Причина написана в пункте 2. Код для тренировки модели, а так же код для детекции надо брать в репозитории самого Rockchip, а не у Ultralytics: https://github.com/airockchip/yolov5

2. Если вы сами тренировали модель на своих данных, предстоит её экспортировать из PyTorch в Onnx. Тут надо сделать небольшое отступление. Современные модели давно уже не просто матрицы весов, а целые программы для виртуальных машин, со своими байт-кодами. Они могут быть не совместимы между собой, хотя и используют общий базис операторов. Не все операции поддерживаются аппаратно Rockchip, именно для такой оптимизации модель видоизменена. Модели PyTorch (.pt) и вовсе могут включать в себя сериализованные питон-объекты. Чтобы привести модель к каноническому виду, нужен экспорт в какой-то нейтральный формат. Экспорт делается, как указано тут https://github.com/airockchip/yolov5/blob/master/README_rkopt.md Результатом будет модель формата ONNX. Это тоже промежуточный шаг на пути к плате.

3. Для симуляции работы модели на компьютере следует использовать библиотеку https://github.com/airockchip/rknn-toolkit2/tree/master/rknn-toolkit2, а для работы на плате https://github.com/airockchip/rknn-toolkit2/tree/master/rknn-toolkit-lite2
Библиотеки существуют только для Linux. Ubuntu 24 в WSL2 подойдет.
При этом в симуляции работает только ONNX модель, а на плате для использования ускорения только RKNN.
В исходниках можно найти код загрузки ONNX модели и конвертации её на лету в RKNN модель. Также в репозитории можно найти инструкции, как конвертировать ONNX в RKNN запуском скрипта.

4. Остальной код, включая препроцессинг и постпроцессинг изображений, одинаков и для симуляции, и для платы, и взят тут https://github.com/airockchip/rknn-toolkit2/blob/master/rknn-toolkit2/examples/onnx/yolov5/test.py.

После загрузки RKNN в ускоритель можно подавать в неё кадры и получать положительные результаты.

Картинки детектятся, Python круто, Orange Pi 3B тоже хороша.

Господин Архитектор

07 Oct, 22:04


Об мышиное зрение

В связи с появлением у меня Intel Core Ultra 155H решил попробовать оседлать NPU, встроенный в него. Для тестирования использовал модельки YOLO, потому что они достаточно понятно написаны на Питоне, а также могут быть легко экспортированы во множество форматов.

Что касается inference — работает без проблем, всё ускоряется в 2-3 раза по сравнению с голым cpu таргетом. Для компиляции и запуска я использовал OpenVINO и готовую модель, датасеты для которой стащил с сайта Roboflow и все сразу заработало в дефолтной конфигурации.

Что касается обучения, то результат хуже.

Само по себе YOLO не умеет использовать для обучения ускорители, кроме CUDA (похоже). Есть некие проекты вроде:
1. Intel extensions for pytorch (ipex) - для CPU и XPU (дискретная карта Intel)
2. intel-npu-acceleration-library (npu)
3. DirectML для ускорения операций при помощи любого железа, поддерживающего opencl
4. Разные опенсорсные поделки, приземляющие openCL на железо.

Из всего этого списка я смог разобраться только со вторым пунктом, так что YOLO успешно стало тренироваться с загрузкой NPU на 35-50%. Также хочу еще попробовать п.1 для CPU. Как использовать встроенный iGPU для обучения я пока не нашел способов.

Результатом NPU я, скорее, недоволен — обучение ускоряется всего на 20-25% относительно голого CPU в моей конфигурации. С учетом перспектив п.1 с расширениями для CPU, которые потенциально могут ускорить итерации вдвое, NPU не выглядит как подходящий бэкенд для тренировки — видимо, сказывается недостаточное количество блоков в архитектуре. А вот запуск натренированной сетки — ускоряет заметно.

Про ipex напишу еще, если что-то получится.

Господин Архитектор

20 Sep, 13:07


Не я один отмечаю, что Скрам это потогонка: https://rethinkingsoftware.substack.com/p/why-scrum-is-stressing-you-out

В принципе, тут простыми словами и поменьше, чем я писал в 2020, но вектор примерно тот же

Господин Архитектор

16 Aug, 20:56


08.2024: пока что еще не пересидели

Господин Архитектор

13 Aug, 19:26


В какой-то момент, примерно с Windows 98 или ME, MS забросила приложение, вместо него предложив MS Schedule+, который шел в пакете с MS Office и даже мог импортировать старые карточки, правда, из-за измененного формата Unicode делал это неправильно. Правда, это приложение страдало от проблемы 2000 (на самом деле), и MS, зная о проблеме, не стали его переделывать, а забросили, в качестве альтернативы с 97 года продвигая использование контактной книги из MS Mail и Outlook (Express) с новыми крутыми вещами, типа поддержки лунных календарей и настройки автоматического уничтожения старых записей (YOUTHINKIMFUCKINGWITHYOU? IMNOTFUCKINGWITHYOU! https://microsoft.fandom.com/wiki/Microsoft_Outlook#Outlook_2002). Стоит ли уточнять, что альтернативой это можно назвать с огромной натяжкой? Так, мы лишились одной из программ, помогающей наладить и систематизировать нетворкинг, вместо него получив невротическую "контактную книгу". Кто в здравом уме и по своей воле заглядывает в контактную книгу Outlook?

Ладно, MS есть MS, от него ничего хорошего не жди. А что у Apple?
У Apple история еще интереснее. Понимая важность инструмента, Apple выпустили свой вариант под названием HyperCard, также бесплатно встраивая его в саму ОС. Однако, Apple шагнули еще дальше, и добавили к карточкам возможность привязать скрипты, элементы ввода кнопки, так что прямо в картотеке можно было организовать разнообразный мультимедиа-калейдоскоп. Кроме того, специальные карточки с преднаписанными скриптами, который могли быть добавлены в "ежедневник", оборудовали картотеку возможностью запрашивать данные из БД, читать устройства, расставлять сеть гиперссылок в карточках - этакое программирование без программирования. У "настоящих программистов" из Oracle настолько бомбануло, что они резко выпустили свой бесславный мультимедиа-аналог - Oracle Card - который спустя непродолжительное время был так же резко заброшен (https://en.wikipedia.org/wiki/Oracle_Media_Objects).
В общем, с одной стороны, Apple сделали всё, чтобы покрыть запросы максимально широкие, а с другой - превратить картотеку в инструмент программиста, этакий Powerpoint, который, как известно, рак любого серьезного дела. Ну а далее всё пошло по накатанной: в Mac OS X эту программу не пустили, так что многие современные пользователи и не знают, что она была.

Одни последовательно выбивали ноги из-под табурета вашего личного нетворкинга, другие сделали всё, чтобы вы делали "креатив & программирование", а не выстраивали отношения.

А вы ведете Ролодекс? Или для вас нетворкинг это синоним "заёбывать малознакомых людей приглашением на чашку кофе?"

Господин Архитектор

19 Jul, 22:02


Об искусственный интеллект

Понадобилось давеча мигрировать со старого телефона на новый. Для этого надо было в т.ч. перенести eSIM. Для этого я открыл чат поддержки в приложении сотового оператора, задал туда вопрос "как перенести eSIM", получил инструкцию и начал выполнять по шагам.

По шагам я сначала удалил с телефона старую eSIM, а потом запросил ссылку на активацию новой, и её - тадам - оператор послал на номер этой eSIM, о чём мне и написал.

После недолгого выяснения оказалось, что инструкцию мне нагаллюцинировал и прислал ИИ чат-бот. Работает ли она? Ха-ха, конечно же нет

Спустя два дня переговоров с оператором и такой-то матери ссылку удалось исправить и переотправить.

Будующее такое яркое..

Господин Архитектор

11 May, 21:18


Об эти выходные

Говорят, что верблюд это скаковая лошадь, которую дизайнил комитет.
 
В языке Ада, точнее, в стандартной библиотеке, существует важная часть, которую дизайнят вот совсем комитетом - это embedded для bare bone boards. Ограниченные ресурсы разных платформ каждая по-своему отсекает те или иные воможности языка, где-то и строки в heap это перебор, а где-то -- исключения. Поэтому тот самый комитет для embedded постарался собрать общий знаменатель, который бы одинаково хорошо подходил под усредненные задачи. Этот знаменатель называется "профили", и он описывает, что можно, а что нельзя из языка использовать на данной платформе.
 
Раньше эти профили назывались креативно, например, zero-footprint, Ravenscar, Jorvik, с недавнего времени чуть более скучно: embedded, light, light-tasking, но всё равно комитет не может угадать с запросами для всех - одним нужно что-то типа turbopascal на микроконтроллере, другому -- полновесный рантайм с задачами (потоками). Собственно, потоки и коммуникация между ними это одна самых сложных задач в смысле жырности потребного рантайма.
 
Ну а там, где подходящего профиля нет, а реализовывать весь профиль неохота, приходится закатить рукава и писать с нуля каждый раз. Один из таких повторно пригодных легковесных рантаймов, но с поддержкой задач/потоков и целиком на Ada, начал писать Вадим https://github.com/godunko, а я взялся портировать её на доску STM32F4 DISCO, которая была под рукой, потому как она достаточно популярная.
 
Это был мой первый опыт работы с crates в Alire в таком объеме, поэтому времени потрачено было больше, чем нужно, однако всё завелось, светодиод (из примеров) замигал успешно. В целом могу сказать, что ARM Cortex-M и Ада прямо-таки созданы друг для друга. Минимальный рантайм, который инициализирует ядро и периферию + код с планировщиком, где одна задача зажигает диод, а вторая его гасит, занял в прошивке около 2кб.

В итоге я отправил пулл-реквесты, а Вадим их принял, так что в коллекцию добавилась поддержка DISCO. Код можно увидеть тут (это планировщик и те самые примеры) и тут (это рантайм + инициализации). Отдельно в Alire довелось отправить issue по обнаруженному расхождению в поведениях для удаленных и локальных репозиториев.
 
У самого Вадима основная плата это Cortex-M3, на ней он строит шестинога, подкрепляя обратную кинематику расчетами в Octave.

Господин Архитектор

09 May, 20:58


Об подсветку кода

Лично я использую монохромную подсветку кода (чёрное — тёмно-серое — серое на белом), но не в этом суть, а вот в чём — я нахожу даже самую тупую и простую подсветку полезной. Но не в том смысле, в котором вы подумали, а в обратном, вот в каком.

Сейчас будет заход издалека.

Мое мнение, что сложную прикладную задачу надо решать через построение базиса/API, при помощи которого в дальнейшем и выражается вся тело программы. Обычно этот базис называют “ядром” или “моделью предметной области/прикладной моделью”
В большинстве языков такой базис реализуют на основе функций/методов, а вовсе не операторов языка.

А в самых простых “расцвечивателях” используется именно раскраска ключевых слов. И в этом весь трюк.

Если такую подсветку конструкций языка сделать ярко выделяющейся в тексте, то градация яркости кода очень хорошо показывает, где именно разработчик не в том месте решил “срезать угол” и использовал слишком низкоуровневый код в виде ключевых слов языка, а не прикладную модель. В это месте код будет насыщен ключевыми словами, а цвет его будет "ярким"

И чем сильнее и ярче раскрашен код, тем более пристального внимания требует, потому что подозревается в недостаточном уровне абстракции, что впоследствии с большой вероятностью потребует дорогостоящего исправления или переписывания.

А больше я подсветку ни для чего и не использую.

Господин Архитектор

10 Jan, 21:14


Об Аду на контроллере и загрузку в память
 
Кто-то, проделав упражнения из предыдущего поста, мог втянуться в разработку и отладку. И первое, с чем вы столкнетесь при отладке - с тем, что после пересборки прошивки необходимо еще записать её на flash. Но, во-первых, с ростом размера прошивки это замедляется, во-вторых, flash изнашивается. На помощь приходит возможность ядра Cortex M4 исполнять код прямо из встроенной в чип static RAM (1). Особенность данного ядра в том, что адресное пространство SRAM находится не там же, где ROM, поэтому линковать программу надо по другому адресу.
 
Правда, при выключении платы программа пропадет, но во время отладки нас такое устраивает, главное, не сбрасывать питание. Кроме этого, процессор сам не сможет загрузиться, поэтому после пуска надо будет его тормозить, и загружать отладчиком в него программу.
 
ПРИЕМЛЕМО.
 
1. Итак, первое, что надо сделать, это собрать программу с поддержкой запуска из SRAM. Для этого достаточно передать ключ вот так:
 
alr build -XLOADER=RAM
 
Линкер выдаст предупреждение, что обнаружил секцию данных, которая содержит исполнимый код; игнорируем. А вот bin мы готовить не будем, грузить будем прямо из elf-файла, он уже содержит всю информацию о правильных адресах.
 
2. На борту у stm32-discovery 1Мб Flash и всего 192кб SRAM, из неё часть придется потратить под программу, поэтому нужно ещё и следить за оптимизацией кода, и за тем, чтобы не случилось переполнения памяти. Мы собираемся оптимизировать код, а также посмотреть, что там с запасом по памяти. Для этого надо немного доработать файл disco1.gpr следующим образом:
 
package Linker is
   for Default_Switches ("Ada") use (
      "-Wl,--gc-sections",
      "-Wl,--print-memory-usage");
end Linker;

 
Теперь, если собрать приложение командой выше, мы увидим следующий текст:
Memory region         Used Size  Region Size  %age Used
           flash:                  0 GB         1 MB         0.00%
          sram12:          25272 B       128 KB     19.28%
             ccm:                   0 GB        64 KB         0.00%

Обратите внимание, теперь мы не будем перетирать флэш каждый раз (flash used = 0)
 
3. Теперь запустим наш OpenOCD так же, как мы делали раньше, но сбросим и остановим процессор:
openocd -f board/stm32f4discovery.cfg -c "init; reset halt; arm semihosting enable;"
 
4. Как я и говорил, грузить будем дебаггером. Для этого в соседней консоли запустим вот какую команду.
alr exec -- arm-eabi-gdb bin/disco1 -ex 'target extended-remote localhost:3333' -ex 'load'
 
Отладчик загрузит прошивку, остановится на первой команде. В этой консоли надо набрать команду "cont", и переключиться на консоль OpenOCD. Если всё сделано верно, можно увидеть сообщения от исполняющейся программы, как и в предыдущей серии.
 
--
 
Итого, теперь при перекомпиляции и заливке flash-память мы не будем трогать, код будет работать из встроенной RAM кристалла. А когда понадобится опять подготовить прошивку для flash, нужно будет указать ключ -XLOADER=ROM или удалить его вовсе из строки.
 
(1) То, что исполнение из SRAM может быть медленнее, чем из Flash, удивительно для десктопа, но вполне нормально для некоторых чипов с эффективной подкачкой кода.

Господин Архитектор

08 Jan, 00:39


Извращенцы могут подсоединиться gdb на порт 3333 для удаленной отладки, а мы не будем, а просто понаблюдаем окно. Если всё сделано правильно, то лампочки замигают, а мы увидим, что каждую секунду туда валится текст Hello:
 
Info : Listening on port 3333 for gdb connections
semihosting is enabled
Info : Listening on port 6666 for tcl connections
Info : Listening on port 4444 for telnet connections
Info : device id = 0x100f6413
Info : flash size = 1024 kbytes
Info : flash size = 512 bytes
Hello
Hello
Hello
Hello
Hello
Hello
Hello
..
 
Поздравляю, у вас всё получилось. Если нет, пишите в комментарии, будем разбираться.
 
Ниже я положу архив с более продвинутой программой, в ней будет 2 параллельно работающих задачи, одна будет просыпаться и выводить текст, а вторая - модифицировать данные для этого текста. Обратите внимание, как просто написать на Аде многопоточную программу с честным планировщиком задач для голого микроконтроллера, не задумываясь о RTOS и прочих таких вещах.

Господин Архитектор

08 Jan, 00:39


Об Аду снова

Продолжим серию? В прошлый раз мы с вами освоили азы, как настроить инструменты и скомпилировать простейший "хелловорлд". На компьютере должны были появиться Alire c нативным тулкитом и VS Code с настроенными для Ады плагинами. Всё это нам понадобится.
 
Сегодня мы пойдем в embedded и попробуем скомпилировать Аду для baremetal платы на базе STM32, на мой взгляд, именно тут Ада сильна.
 
Что нам для этого нам понадобится, я напишу ниже.
 
* Нужно раздобыть плату STM32. Я буду работать с STM32 DISCOVERY на базе камня F407 с частотой 168MHz, чего и вам рекомендую, хотя и не заставляю. На плате распаяно много чего, но нам интересно, что на ней на самом деле стоит 2 чипа  STM32, второй при этом прикидывается программатором ST-LINK, flash-диском, а также USB-2-Serial конвертором и еще много чем. Это СИЛЬНО упрощает знакомство с темой, усложнить всегда успеется.
* Провод x-2-minuUSB (!) - это тот конец, который соединяется с программатором.
* Нужно внимательно почитать т.н. GNAT Supplement for Cross platform крайней версии, раздел Bareboards: https://docs.adacore.com/live/wave/gnat_ugx/pdf/gnat_ugx/gnat_ugx.pdf
* Нужно установить софт-отладчик OpenOCD, это замена проприетарных тулов для работы с ST-LINK. Я ставил через brew, у меня всё получилось. Вот вроде бы и всё, можно работать.
 
Пусть наш новый проект называется "disco1".
 
1. Итак, первым шагом надо научить GNAT компилировать под ARM. Для этого надо запустить alr вот таким образом: alr toolchain --select, и в списке выбрать что-то типа "6. gnat_arm_elf=12.2.1". GPRBuild оставляем самым свежим.
 
2. Далее нужно выполнить alr init --bin disco1, после чего перейти в свежую папку disco1. Alire сгенерировал нам новый проект, спасибо ему. Но он пока не знает, что мы хотим компилировать под ARM на голом железе, надо его научить. Нужно открыть файл disco1.gpr и добавить туда такие строки (про целевую архитектуру и рантайм):
for Target use "arm-eabi";
for Runtime ("Ada") use "light-tasking-stm32f4";

 
3. Alire сгенерировал нам пустой проект. Откроем основной файл disco1.adb и заменим текст на такой вот незамысловатый привет:
with Ada.Text_IO; use Ada.Text_IO;
with Ada.Real_Time; use Ada.Real_Time;
procedure Disco1 is
begin
   loop
      Put_Line ("Hello");
      delay until Clock + Milliseconds (1000);
   end loop;
end Disco1;
 
Закроем файл и запустим alr build. Немного пошуршав, он оставит нам в папке bin elf-файлик. Теперь нам нужно получить из него прошивку.
 
4. Воспользуемся инструментами, которые принес нам Alire, и дадим такую команду:
alr -v exec  -- arm-eabi-objcopy -O binary --strip-all bin/disco1 bin/firmware
В папке bin появится файл firmware, который хоть сейчас шей! Было бы куда..
 
5. Достаем плату и подключаем её к USB, компьютер должен её опознать. Как именно это делать, посмотрите в вашей ОС, что-то типа lsusb или IOReg, факт в том, что нужно увидеть что-то похожее на STMicroelectronics, подключенное к компьютеру -- это победа
 
6. Если всё сделано правильно, у вас в системе появится флеш-диск с названием ST_F407 или что-то похожее. Там не должно быть файлов с именем Fail. Если всё ок, то нужно просто скопировать на этот "диск" файл прошивки firmware, полученный на 4-м шаге. Программатор увидит это, прошьет его в процессор, и перезапустит, флеш-диск перемонтируется и прошивка с него пропадет. Рекомендую переткнуть провод USB на этом моменте.
 
7. Теперь подключимся к программе. Надо выполнить: openocd -f board/stm32f4discovery.cfg -c "init; arm semihosting enable"
Тут обратите внимание на 2 важные вещи:
• OpenOCD знает про плату DISCOVERY, что упрощает жизнь еще немного
• После инициализации надо выполнить команду запуска semihosting; это хитрые регистры процессора STM32, которые позволяют обмениваться с программой данными без того, чтобы настраивать UART или другую периферию. В чем плюс? Наш рантайм Ады заворачивает стандартный ввод-вывод на эти регистры, а OpenOCD умеет их читать.

Господин Архитектор

23 Dec, 13:36


Об рынок софтвера

Наблюдать за рынком ПО необычайно интересно. Сначала софт писали в НИИ и на предприятиях под заказ, и распространяли промеж своих контактов.

Так продолжалось до середины девяностых, после чего продажи сломались, и стратегия поменялась. Теперь, чтобы продать ПО, нужно было оформить софт в коробку, звонить, оставлять контакты, заинтересовывать, публиковаться в журналах и каталогах.

Так продолжалось до начала нулевых, после чего продажи сломались, всем надоело искать знакомых. Теперь, чтобы продавать софт, нужно было создать сайт, опубликовать там свой shareware, и разработать механику лицензирования ПО.

Так продолжалось до середины нулевых, после чего продажи сломались, всем надоели коробки. Теперь, чтобы продавать софт, нужно было понять, кто твой клиент, собрать коробку под него, и целенаправленно долбиться в ЛПР.

Так продолжалось до конца нулевых, после чего продажи сломались, всем надоел оффлайн. Теперь, чтобы продавать софт, нужно было опубликовать его как сервис, выискивать в потоке людей тех, кому он мог бы подойти, научиться развивать клиента и завлекать его в много касаний на свой сервис.

Так продолжалось до начала десятых, после чего продажи сломались, всем надоело "развивать клиента". Теперь, чтобы продавать софт, надо было отыгрывать миллионы гипотез о полезных функциях софта, а зацепившись об позитивный отклик, строить софт вокруг этой функции (разумеется, онлайн).

Так продолжалось до конца десятых, после чего продажи сломались, всем надоел lean startup, бесконечное участие в роли подопытного в а/б тестах. Теперь, чтобы продавать софт, нужно [ВЫ НАХОДИТЕСЬ ЗДЕСЬ].

Что дальше сломается, и как это исправить, мы узнаем лет через пять.

Господин Архитектор

02 Dec, 21:47


3б. В интернете яростно спорят про какую-то хитрую нумерацию карточек через косую черту. В оригинальном ZK в качестве категории было только одно -- то число, с которого начинается номер карточки. Скажем, 1000 означает материалы о бессмертии, а 200, скажем, о пятнах на Юпитере. Дальнейшая нумерация (например, "200/1а/2") в оригинальном ZK никак не связана с категориями, автор просто брал первый попавшийся свободный номер, за исключением того, что буква рядом с номером означает продолжение мысли, если оно вдруг нашлось. Я так не стал использовать буквы, так как в MS OneNote всегда можно отредактировать карточку, явно выделив перечеркнутым шрифтом то, что устарено, и дописав в конце новое. Лично вы можете делать как угодно.
 
3в. В интернете пишут, мол, карточка должна ссылаться на другие карточки, но как именно? Многие добавляют прямо в конце список ссылок на другие карточки (а в тех -- обратные ссылки), я делаю иначе -- просто выделяю слово и делаю его ссылкой, автор ZK примерно так и делал, для этого ему и нужны были точные номера. Так же автор ZK настойчиво рекомендовал рядом со ссылкой пояснить письменно, почему была добавлена та или иная ссылка. Тут помогает MS OneNote своими возможностями -- можно и дописать карточку, и ссылку встроить, и побродить поиском по существующим карточкам в процессе написания очередной карты, и картинку добавить.
 
Вот, собственно, и всё, что превращает записи в систему. Этот пост я тоже оформлю как карточку.
 
Надеюсь, тон заметки вышел не слишком поучающим. Пользуйтесь, и удачи вам в создании собственного экзокортекса.

Господин Архитектор

02 Dec, 21:47


Когда некоторое время назад я прочитал о методе ведения заметок Zettelkasten (ZK), то попробовал вести свои заметки, как описано в нём. Ничего не получалось, никакой пользы от этого я не увидел. Раз не видно никакой пользы -- я быстро оставлял попытки, хоть и начинал несколько раз.
 
Проблема оказалась не в методе ZK, проблема оказалась в том, что "продают" под этим названием. "Копи-переврайтерам" очень нравятся абстрактные темы, которые можно раскачать до нескольких тысяч знаков, поэтому весь интернет заполнен фантазиями на тему ZK. В самом деле, никакой новости нет в том, что куда-то можно откладывать карточки с информацией, ставить на них гиперссылки. Многие так или иначе собирают заметки, это не спасает от того, чтобы заметки в конце концов превратились в свалку.
 
Так продолжалось, пока я не нашел в интернете оригинальные описания, и не смог сопоставить, в чем же состоит метод. В ZK важны некоторые детали, но они не описаны даже в Wiki. ZK называют "системой", но как раз система там не возникает. Ниже я расскажу, как стал вести заметки я, и прокомментирую эти важные детали.
 
0. Я много лет использую MS OneNote, так что и карточки ZK стал вести в нем. Из минусов -- он не умеет проставлять обратные ссылки сам. Но я пока не особо увидел пользы от обратных ссылок, возможно, они не так и полезны. Слышал, что кто-то использует Notion или Obsidian, сравнить не могу, я не использовал других инструментов.
 
Теперь к самим деталям тезисно.
 
1. Первая и самая главная деталь, о чем в интернете не пишут: у вас непременно должен быть "отстойник" записок. Я называю его у себя исчезающие заметки. Туда я скидываю все, что хочу впоследствие развить и отработать. Я не добавляю туда ссылок, не пишу анализ, никак не оформляю, и так далее. Единственная цель отстойника -- снять информацию "вотпрямща". В течение недели я пишу и копипащу туда сырые мысли, не глядя на остальные карточки вовсе, это write-only хранилище. За неделю накапливается 10-50 заметок.
 
2. Раз в неделю, регулярно примерно в одно и то же время, я сажусь за разбор этих заметок. Понятно, почему они исчезают -- я одну за одной разбираю заметки, ищу дополнительную информацию в интернете и у себя в предыдущих карточках, раздумываю, часто переписывая своими словами то, что было зафиксировано, добавляю выводы, если могу. Нет цели превратить заметку в карточку как есть, поэтому часто несколько исчезающих заметок превращаются в одну карточку со связанными тезисами, либо одна, наоборот, разделяется, на несколько карточек. Как именно заводятся карточки, я опишу далее. Какие-то заметки я просто выбрасываю.
 
Вот так эти карточки исчезают из "отстойника", что и дало им название.
 
Пункты 1 и 2 здесь самые важные  -- это то, что помогает организовать процесс, систему ведения заметок, а не систему заметок.
 
3. По итогам разбора заметок создаётся карточка (а то и не одна), она и отправляется в ZK. Вот именно здесь и наступает самая ценная стадия осмысления, категоризации, работы с источниками и знаниями, добавление связей с другими мыслями.
 
Теперь напишу про категории и то, как это должно работать. Это будет уже техника, её в интернете и обсуждают, в основном.
 
3а. В интернете пишут про теги. Оригинальный ZK для этого использовал специальные "индексные карточки" -- это карточки-оглавления, куда добавлялись номера всех карточек,  касающихся той или иной темой. Карточки-оглавления по темам я веду, но никакие ссылки туда не добавляю, только ключевые слова -- если у вас есть полнотекстовый поиск, а не ящик бумажных карточек (а он в MS OneNote есть), то теги становятся излишними.

Господин Архитектор

16 Oct, 18:20


С тех пор, как я всех подрывал попробовать писать на Ada, прошло некоторое время, и я решил уточнить, как дела у потенциальных новобранцев.

Выясняется, что на пути конверсии в счастливых программистов Ada первое препятствие это настроить окружение, IDE и так далее. Сегодня я покажу, как это быстро сделать, чтобы играть в тестовые примеры прямо на своей машине.

За последние пару лет, кстати, ситуация упростилась сильно, развился пакетный менеджер, плагинчики, AdaCore смержили коммьюнити и про-версии GNAT и сделали их доступными как FSF, так что одной головной болью меньше. А из грустных новостей наблюдается то, что GNAT Studio, самая продвинутая IDE, больше не выпускается официально под MacOS, так что кодить будем в VS Code. Но ничего, пакетный менеджер поставит нам всё, что нужно для работы.

1. Итак, первым шагом необходимо отправиться на сайт https://ada-lang.io/ и качнуть оттуда Alire - пакетный менеджер Ada. Я качал для MacOS, разумеется. То, что скачали, разархивируем, снимает атрибут командой [$xattr -d com.apple.quarantine bin/alr]. Я рекомендую прописать путь к bin/alr в PATH

2. Устанавливаем редактор VS Code, проверяем, что запускается. В разделе Extensions находим Ada Language Server (тот, что без поддержки отладки), ставим. Даже не понадобится перезагружаться.

3. Генерируем тестовый проект. Для этого открываем Terminal, там отправляем команду [$alr get hello]. Данная команда должна скачать и инициализировать на диске тестовый проект hello в отдельной папке.

Если это первый запуск (а у вас так и будет), то запустится асистент выбора тулчейна. Вам предстоит выбрать два продукта:
- GNAT - компилятор, рантайм и т.п. - выбирайте под вашу платформу (native), с кросс-компиляцией потом разберетесь;
- GPRBuild - инструмент для сборки проектов - выбирайте посвежее.
Далее делаем [$cd hello] после успешного окончания команды.

4. В VS Code делаем Add Folder, и добавляем hello. Теперь можно походить, поизучать, что у вас там в проекте сгенерировалось. Обратите внимание на файлы .gpr, это файлы задания самого проекта и его настроек. Примечательно, что это не xml и не .ini, а само по себе обычный код на Ada.

5. Теперь делаем [$alr run]. Вы должны увидеть что-то:
ⓘ Building hello/hello.gpr...
Compile
[Ada] hello.adb
Bind
[gprbind] hello.bexch
[Ada] hello.ali
Link
[link] hello.adb
Build finished successfully in 0.14 seconds.
Hello, World!

6. Если что-то пошло не так -- а под MacOS с этим может быть связано что-то с X Code, то нужно добиться, чтобы у вас корректно заработал xcode, в том числе CommandLineTools, а потом вернуться к Ada. Суть в том, что GNAT, который настроен на использование GCC, может испытывать проблемы при использовании clang, который мимикрирует под gcc под MacOS. Не буду пересказывать документацию, в интернете много рекомендаций как обновить все до актуальной версии, рекомендую начать с этого.

7. Если у вас всё заработало, то дальше следует выполнить поучительные эксперименты. Во-первых, следует запустить команду [$alr exec -- gprconfig], и после короткого диалога посмотреть на сгенерированный файл default.cgpr, который визуализирует все настройки по-умолчанию. Его имеет смысл удалить, сгенерировать всегда сможете. Во-вторых, следует запустить [$alr] без аргументов, и ознакомиться с выводом, возможно, запросить [$alr help ....] по интересным командам.

Если всё работает, можно двигаться дальше: добро пожаловать на бесплатный обучающий курс Ada https://learn.adacore.com/courses/intro-to-ada/index.html. И теперь примеры из него можно будет компилировать не только в браузере, но и локально.

А документация на Alire тут: https://alire.ada.dev/docs/