Доработал расширение для VS Code, теперь оно умеет работать с Ollama (это штука, которая поднимает AI-модели локально).
Проще всего использовать модельку
gemma2:2b
, она компактная и работает быстро даже без GPU. Качество приемлемое, если отправлять не больше нескольких абзацев за раз.Если машина мощная, можно попробовать
mistral
или mistral-nemo
— качество будет лучше.Подробности настройки в заметках к релизу