DevOps | Вопросы собесов @easy_devops Channel on Telegram

DevOps | Вопросы собесов

@easy_devops


Сайт: easyoffer.ru
Реклама: @easyoffer_adv

Решай тесты - t.me/+2P7cpjeyfDVlZjcy
Ищи работу - t.me/+i5KFWEWJ21hhYWEy

DevOps | Вопросы собесов (Russian)

Вы хотите успешно справиться с собеседованиями по теме DevOps? Тогда канал "DevOps | Вопросы собесов" от @easy_devops - идеальное место для вас! Здесь мы готовы поделиться с вами самыми актуальными вопросами и ответами, которые помогут вам подготовиться к собеседованиям и проявить себя с лучшей стороны.

Наш сайт easyoffer.ru предлагает обширный выбор тестов и материалов для подготовки, чтобы вы могли успешно справиться с вызовами на собеседованиях. Дополнительно вы можете найти информацию о рекламе нашего партнера @easyoffer_adv.

Присоединяйтесь к нашему каналу, чтобы решать тесты и искать работу в области DevOps. Мы предлагаем уникальную возможность подготовиться к собеседованиям эффективно и результативно. Присоединяйтесь к сообществу DevOps специалистов и добивайтесь успеха в своей карьере!

DevOps | Вопросы собесов

18 Jan, 16:10


🤔 Чем отличается Docker от KVM?

1. Docker: контейнеризация, обеспечивающая изоляцию на уровне ОС, с минимальным оверхедом.
2. KVM: гипервизор, обеспечивающий изоляцию на уровне аппаратного обеспечения через полные виртуальные машины.
3. Docker быстрее, а KVM обеспечивает более строгую изоляцию и подходит для более сложных сред.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

18 Jan, 09:10


🤔 Что нужно сделать чтобы после того как вы создали репозиторий с этим репозиторием можно было работать?

После создания нового репозитория, будь то локальный или удаленный, необходимо выполнить несколько шагов для начала полноценной работы с ним. Эти шаги включают инициализацию репозитория, настройку удаленного репозитория, добавление файлов, коммит и настройку синхронизации с удаленным репозиторием.

🚩Основные шаги

1⃣Создание нового репозитория
Перейдите на GitHub и войдите в свой аккаунт. Нажмите на кнопку "New" для создания нового репозитория. Введите имя репозитория, описание (опционально), выберите публичный или приватный доступ, инициализируйте с README (если нужно). Нажмите "Create repository".

2⃣Клонирование или инициализация репозитория
Если репозиторий уже существует на GitHub
git clone https://github.com/yourusername/your-repository.git
cd your-repository


Если вы создаете новый локальный репозиторий
mkdir your-repository
cd your-repository
git init


3⃣Добавление файлов и коммит начального состояния
Создайте или добавьте файлы
echo "# Your Repository" > README.md   


Добавьте файлы в индекс
git add README.md   


Сделайте первый коммит
git commit -m "Initial commit"   


4⃣Настройка удаленного репозитория
Если вы инициализировали локальный репозиторий, вам нужно настроить удаленный репозиторий.
git remote add origin https://github.com/yourusername/your-repository.git


5⃣Пуш изменений в удаленный репозиторий
Отправьте ваши изменения в удаленный репозиторий
git push -u origin master


🚩Дополнительные шаги для совместной работы

1⃣Создание веток
Для разработки новых функций или исправлений багов рекомендуется создавать отдельные ветки
git checkout -b feature-branch   


2⃣Создание Pull Request (PR)
После завершения работы в ветке создайте Pull Request на GitHub для обзора и слияния.

3⃣Настройка файлов `.gitignore`
Добавьте файл .gitignore для исключения ненужных файлов из коммитов.
echo "node_modules/" > .gitignore
git add .gitignore
git commit -m "Add .gitignore"


4⃣Настройка CI/CD
Подключите сервисы Continuous Integration/Continuous Deployment, такие как GitHub Actions, Travis CI или Jenkins, для автоматизации тестирования и развертывания.
# Пример файла .github/workflows/ci.yml для GitHub Actions
name: CI

on: [push, pull_request]

jobs:
build:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v2
- name: Set up Node.js
uses: actions/setup-node@v2
with:
node-version: '14'
- run: npm install
- run: npm test


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

17 Jan, 16:10


🤔 Как посчитать размер ноды в Kubernetes?

1. Используйте команду kubectl describe node <node-name> для просмотра доступной памяти и CPU.
2. Ресурсы также можно получить через метрики (kubectl top nodes).


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

17 Jan, 09:10


🤔 Удалил файлы, но место не очищается, в чем дело?

Если вы удалили файлы, но место на диске не освободилось, это может происходить по нескольким причинам.

🚩Файл все еще используется процессом

Если файл удален, но он открыт каким-либо процессом, его содержимое остается в памяти или файловой системе до завершения работы этого процесса. Это называется "удаление с дескриптором".

🟠Как проверить:
Используйте команду lsof (list open files), чтобы найти процессы, удерживающие файл
lsof | grep deleted


🟠Как исправить
Перезапустите процесс или завершите его с помощью kill:
kill -9 <PID>


🚩Файл удален, но он находился в другом файловом пространстве

Например:
- Файл был удален внутри Docker-контейнера, но место занято в образе.
- Файл находился на смонтированном диске, и удаление произошло в другом контексте.

🟠Как проверить
Убедитесь, что вы работаете в правильной файловой системе:
df -h


🟠Как исправить
Убедитесь, что удаление происходит в нужной директории или файловой системе.

🚩Файл был удален из директории, но находится в другой ссылке (hard link)

Если файл имеет несколько жестких ссылок, удаление одного из них не освободит место до тех пор, пока не удалены все ссылки.

🟠Как проверить
Используйте команду find, чтобы найти оставшиеся ссылки:
find / -samefile <имя_файла>


🟠Как исправить
Удалите все ссылки на файл.

🚩Файл был удален, но находился в файловой системе с квотой

Если используется файловая система с ограничением (например, квоты пользователей или групп), возможно, квота пользователя исчерпана, и это мешает очистке.

🟠Как проверить
Проверьте квоты:
quota -u <username>


🟠Как исправить
Убедитесь, что квоты настроены правильно, или освободите больше места.

🚩Кэшированные данные или временные файлы

Иногда удаленные файлы остаются в виде кэша, временных данных или не удаляются из корзины.

🟠Как проверить
Очистите кэш или проверьте корзину. Например, для очистки временных файлов
sudo du -sh /tmp
sudo rm -rf /tmp/*


🟠Как исправить
Удалите временные файлы, очистите кэш:
sudo sync && sudo echo 3 > /proc/sys/vm/drop_caches


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

16 Jan, 16:10


🤔 Как выглядит идеальный конвейер?

1. CI/CD: автоматизация сборки, тестирования, деплоя.
2. Тесты: юнит, интеграционные и end-to-end тесты.
3. Мониторинг: проверка производительности и логов после релиза.
4. Масштабируемость: возможность быстрого изменения и расширения инфраструктуры.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

16 Jan, 09:10


🤔 Когда вы создаёте файл какие права создаются по умолчанию?

Права доступа по умолчанию зависят от базовых прав доступа и значения umask. Базовые права доступа — это значения, которые система использует для определения разрешений перед применением маски umask.

🟠Файлы: 666 (rw-rw-rw-)
Это означает, что по умолчанию все пользователи могут читать и записывать в файл.

🟠Каталоги: 777 (rwxrwxrwx)
Это означает, что по умолчанию все пользователи могут читать, записывать и выполнять (заходить) в каталог.

🚩Значение umask: 022

Это маска, которая определяет, какие права будут отключены при создании нового файла или каталога. Значение umask указывается в восьмеричной системе счисления.

🟠Создание файла
Базовые права доступа: 666
Значение umask: 022
Окончательные права доступа: 666 - 022 = 644 (rw-r--r--)

🟠Создание каталога
Базовые права доступа: 777
Значение umask: 022
Окончательные права доступа: 777 - 022 = 755 (rwxr-xr-x)

🚩Создание файла с umask 0022

1⃣Установка umask
umask 0022   


2⃣Создание файла
touch myfile   


3⃣Проверка прав доступа
ls -l myfile   


Вывод
Права доступа: 644 (rw-r--r--)
-rw-r--r-- 1 user user 0 Jul 26 12:00 myfile    


🚩Создание каталога с umask 0027

1⃣Установка umask
umask 0027   


2⃣Создание каталога
mkdir mydir   


3⃣Проверка прав доступа
ls -ld mydir   


Вывод
Права доступа: 750 (rwxr-x---)
drwxr-x--- 2 user user 4096 Jul 26 12:00 mydir     


🚩Дополнительные замечания

🟠umask в скриптах
Вы можете установить umask в скрипте для задания прав доступа по умолчанию для всех создаваемых файлов и каталогов.
#!/bin/bash
umask 027
touch file1
mkdir dir1


🟠Проверка прав доступа в разных ситуациях
Для файлов: По умолчанию права доступа 666 минус umask.
Для каталогов: По умолчанию права доступа 777 минус umask.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

15 Jan, 16:10


🤔 Этапы загрузки в Linux и загрузчики:

1. BIOS/UEFI: выполняет начальную инициализацию оборудования.
2. Загрузчик (GRUB, LILO): выбирает и загружает ядро ОС.
3. Ядро Linux: инициализирует устройства, монтирует корневую файловую систему.
4. Init/Systemd: запускает пользовательские процессы и сервисы.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

15 Jan, 09:10


🤔 В чем разница между IaaS, PaaS и SaaS?

Это три модели облачных вычислений, которые различаются уровнем предоставляемых услуг и степенью ответственности между пользователем и провайдером.

🚩IaaS (Infrastructure as a Service)

IaaS предоставляет инфраструктуру как услугу. Пользователь получает доступ к виртуализированным вычислительным ресурсам, таким как серверы, хранилища, сети и операционные системы.

🟠Что предоставляет
Виртуальные машины, диски, сетевые ресурсы и другие элементы инфраструктуры.

🟠Примеры провайдеров
AWS EC2, Google Compute Engine, Microsoft Azure VMs.

🟠Что делает пользователь
Настраивает операционные системы, устанавливает ПО, управляет сетью и обеспечивает безопасность.

🟠Пример использования
Компания разворачивает свои приложения в облаке, используя виртуальные машины и настройку сети по своим потребностям.

🚩Плюсы и минусы

Высокая гибкость и контроль.
Подходит для создания кастомных решений.
Требуется больше времени и усилий на настройку и управление.

🚩PaaS (Platform as a Service)

PaaS предоставляет платформу для разработки, тестирования и развертывания приложений. Провайдер управляет инфраструктурой, а пользователь сосредотачивается на написании и запуске приложений.

🟠Что предоставляет
Среду для разработки, включая операционную систему, базы данных, серверы приложений, инструменты разработки и т. д.

🟠Примеры провайдеров
AWS Elastic Beanstalk, Google App Engine, Heroku, Microsoft Azure App Service.

🟠Что делает пользователь
Пишет код, тестирует приложения и развертывает их на платформе.

- Пример использования:
Разработчики используют платформу для быстрого развертывания веб-приложений без необходимости управления серверами и сетями.

🚩Плюсы и минусы

Быстрое развертывание приложений.
Не нужно беспокоиться об управлении инфраструктурой.
Ограниченная гибкость по сравнению с IaaS.
Зависимость от поставщика платформы.

🚩SaaS (Software as a Service)

SaaS предоставляет готовые приложения как услугу. Пользователь просто использует программное обеспечение через интернет.

🟠Что предоставляет
Полностью готовое приложение, доступное через браузер или клиентскую программу.

🟠Примеры провайдеров
Gmail, Microsoft 365, Google Drive, Salesforce, Slack.

🟠Что делает пользователь
Пользуется функциональностью приложения, не заботясь о технической стороне.

🟠Пример использования
Организация использует Google Workspace для корпоративной электронной почты и совместной работы.

🚩Плюсы и минусы

Простота использования.
Не требуется установка и управление ПО.
Ограниченная кастомизация.
Данные находятся на стороне провайдера.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

14 Jan, 16:10


🤔 В чем разница между PVC и Full Stack.

1. PVC (Persistent Volume Claim): запрос на выделение хранилища в Kubernetes, связанный с конкретным подом.
2. Full Stack: общий термин, описывающий весь стек технологий разработки, включая фронтенд, бэкенд и инфраструктуру.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

14 Jan, 09:10


🤔 Сколько часов живёт один вал Prometeus CICD?

Вал (или "валидность данных") в Prometheus определяется настройками временного диапазона хранения данных. Обычно данные в Prometheus живут столько, сколько задано в параметре --storage.tsdb.retention.time, который устанавливает период хранения временных рядов.

🟠По умолчанию
Если не указать параметр --storage.tsdb.retention.time, данные хранятся 15 дней. Это соответствует 360 часам.

🟠Как изменить время жизни данных
Вы можете настроить период хранения данных, передав значение параметра при запуске Prometheus:

CLI-параметр:
prometheus --storage.tsdb.retention.time=30d


🟠Конфигурационный файл
Если Prometheus запускается как часть системы CI/CD через Docker Compose, Kubernetes или другой инструмент, параметр указывается в соответствующем разделе.
services:
prometheus:
image: prom/prometheus
command:
- '--storage.tsdb.retention.time=7d' # 7 дней (168 часов)


🚩Почему это важно?

🟠Оптимизация дискового пространства
Большие периоды хранения требуют больше дискового пространства. Если валидация данных больше не нужна, лучше очищать старые временные ряды.
🟠Баланс производительности
Длительное хранение может замедлить обработку запросов, особенно если используемые метрики застарелые или редко запрашиваются.
🟠Потребности CI/CD
Для CI/CD-пайплайнов обычно достаточно короткого периода (например, 7–15 дней), чтобы сохранять данные релевантными и свежими.

🟠Пример настройки в CI/CD контексте
Если вы хотите, чтобы метрики для CI/CD жили 12 часов (подходящий срок для проверки тестов и сборок), настройте
prometheus:
image: prom/prometheus
command:
- '--storage.tsdb.retention.time=12h'


🚩**Как проверить текущий срок хранения?**

🟠В интерфейсе Prometheus
Перейдите на страницу /status/status/flags, где можно увидеть значение параметра --storage.tsdb.retention.time.
🟠Через командную строку
Проверьте журнал запуска Prometheus или конфигурационный файл.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

13 Jan, 16:10


🤔 Что за компонент kubelet?

Это агент, работающий на каждой ноде Kubernetes.
1. Он управляет запуском, мониторингом и завершением контейнеров через взаимодействие с контейнерным рантаймом.
2. Также отвечает за регистрацию ноды в кластере и выполнение инструкций от мастера.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

13 Jan, 09:10


🤔 Как в docker compose вместо yaml файла использовать json файл?

Docker Compose поддерживает использование JSON-файлов вместо стандартного YAML-файла. Формат JSON полностью совместим с YAML, так как YAML является надмножеством JSON. Для этого достаточно создать JSON-файл с описанием конфигурации контейнеров и передать его с помощью опции -f.

🚩Шаги по использованию

🟠Создайте JSON-файл конфигурации
Файл должен содержать описание сервисов в формате JSON. Например, вместо YAML
version: "3.9"
services:
web:
image: nginx
ports:
- "80:80"


В формате JSON будет так
{
"version": "3.9",
"services": {
"web": {
"image": "nginx",
"ports": ["80:80"]
}
}
}


🟠Запустите Docker Compose с этим файлом
Используйте флаг -f, чтобы указать Docker Compose, какой файл использовать
docker-compose -f docker-compose.json up


🟠Проверка работы
Вы можете проверить статус контейнеров, как обычно:
docker-compose -f docker-compose.json ps


🚩Почему использовать JSON?

🟠Совместимость
JSON часто используется в API, CI/CD-пайплайнах и других инструментах, которые могут генерировать конфигурации автоматически.
🟠Простота обработки
JSON легко парсить программно, что может быть полезно в скриптах и интеграциях.
🟠Стандартизация
Некоторые команды и проекты могут предпочитать JSON как более строгий и распространенный формат.

🚩Пример использования

1⃣Создайте файл docker-compose.json
{
"version": "3.8",
"services": {
"app": {
"image": "python:3.9",
"volumes": ["./app:/app"],
"working_dir": "/app",
"command": "python app.py"
}
}
}


2⃣Запустите
docker-compose -f docker-compose.json up


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

12 Jan, 16:10


🤔 Чем контейнер отличается от пода?

1. Контейнер: единичная изолированная среда с приложением и его зависимостями.
2. Под (Pod): минимальная единица деплоя в Kubernetes, содержащая один или несколько контейнеров, которые разделяют сетевые и хранилищные ресурсы.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

12 Jan, 09:10


🤔 Что возвращает функция в bash?

В Bash функция возвращает код завершения (exit status), который представляет собой числовое значение от 0 до 255. Это значение используется для указания успешного или неуспешного выполнения функции. По умолчанию, если явно не указано возвращаемое значение, функция возвращает код завершения последней выполненной команды внутри нее.

🚩Как возвращать значения из функции?

🟠Код завершения (exit status)
Чтобы явно задать код завершения функции, используется команда return.
my_function() {
if [[ $1 -gt 0 ]]; then
return 0 # Успех
else
return 1 # Ошибка
fi
}

my_function 5
echo $? # Выведет 0 (успех)


🟠Вывод данных через `echo`
Для передачи данных из функции (например, строки или числа) можно использовать echo. Вывод можно перехватить через подстановку команд $()
my_function() {
echo "Hello, $1!"
}

result=$(my_function "world")
echo "$result" # Выведет "Hello, world!"


🟠Изменение глобальных переменных
Функция может менять значения глобальных переменных, которые затем используются за ее пределами
my_function() {
result=$(( $1 + $2 ))
}

my_function 3 7
echo $result # Выведет 10


🚩Почему это важно?

🟠Код завершения
Используется в сценариях для проверки, выполнилась ли функция успешно. Значение 0 обычно означает успех, а любое другое число — ошибку.

🟠Вывод через `echo`
Удобен для передачи данных из функции.

🟠Изменение переменных
Полезно, если функция должна сохранять данные для дальнейшей обработки.

# Функция проверки файла
check_file() {
if [[ -f $1 ]]; then
echo "Файл $1 существует."
return 0
else
echo "Файл $1 не найден."
return 1
fi
}

# Вызов функции
check_file "/etc/passwd"
status=$? # Сохраняем код завершения
if [[ $status -eq 0 ]]; then
echo "Продолжаем работу..."
else
echo "Останавливаемся из-за ошибки."
fi


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

11 Jan, 16:10


🤔 Что такое системные вызовы и системные сигналы?

1. Системные вызовы: интерфейс между приложениями и ядром ОС, который позволяет программам запрашивать ресурсы, например, операции ввода-вывода, управление процессами или памятью.
2. Системные сигналы: механизмы ОС для уведомления процессов о событиях, таких как завершение работы (SIGTERM) или ошибка (SIGSEGV).


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

11 Jan, 09:10


🤔 Что такое cherry pick?

Это команда в системе контроля версий Git, которая позволяет выбрать отдельные коммиты из одной ветки и применить их к другой ветке. Это полезно, когда вы хотите перенести конкретные изменения (коммиты) в текущую ветку, не выполняя слияние всей ветки.

🚩Когда используется

🟠Применение отдельных изменений
Когда нужно перенести конкретные исправления или функции из одной ветки в другую, не сливая все изменения из исходной ветки.
🟠Быстрое исправление ошибок
Когда найденное исправление в одной ветке нужно срочно применить в другой, например, из ветки разработки в ветку релиза.
🟠Избежание сложного слияния
Когда слияние всей ветки может привести к конфликтам или нежелательным изменениям, cherry-pick позволяет аккуратно перенести только нужные коммиты.

🚩Примеры использования

🟠Простого `cherry-pick`
Перенос одного коммита из другой ветки.
# Переключитесь на ветку, куда вы хотите применить изменения
git checkout target-branch

# Выполните cherry-pick коммита
git cherry-pick <commit-hash>


🟠Применения нескольких коммитов
Перенос нескольких коммитов из другой ветки.
# Переключитесь на ветку, куда вы хотите применить изменения
git checkout target-branch

# Выполните cherry-pick нескольких коммитов
git cherry-pick <commit-hash-1> <commit-hash-2> <commit-hash-3>


🟠Применения диапазона коммитов
Перенос диапазона коммитов из другой ветки.
# Переключитесь на ветку, куда вы хотите применить изменения
git checkout target-branch

# Выполните cherry-pick диапазона коммитов
git cherry-pick <start-commit-hash>..<end-commit-hash>


🚩Разрешение конфликтов

1⃣Разрешите конфликты в файлах.

2⃣Добавьте изменения в индекс
git add <filename>   


3⃣Завершите процесс cherry-pick
git cherry-pick --continue   


🚩Прерывание

Если вы хотите прервать процесс cherry-pick, можно использовать команду
git cherry-pick --abort


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

10 Jan, 16:10


🤔 Что такое хендлеры?

Это обработчики событий или сигналов, которые выполняются в ответ на определённые действия в системе.
1. В Ansible хендлеры запускаются только при изменении задач, к которым они привязаны.
2. В программировании они применяются для управления асинхронными событиями, например, обработка HTTP-запросов или системных сигналов.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

10 Jan, 09:10


🤔 По какой причине inode могут закончиться?

Это структуры данных, которые хранят информацию о файлах и каталогах. Каждый файл или каталог на диске ассоциируется с одним inode, который содержит метаданные файла, такие как его размер, разрешения, временные метки, ссылки на блоки данных и т.д. Количество inode на файловой системе обычно определяется в момент её создания и не может быть изменено без переформатирования или значительных изменений в файловой системе.

🚩Причины исчерпания

🟠Большое количество мелких файлов
Одной из наиболее частых причин исчерпания inode является наличие очень большого количества маленьких файлов на файловой системе. Поскольку каждый файл использует как минимум один inode, системы с большим количеством мелких файлов могут исчерпать доступные inode, даже если дисковое пространство по-прежнему доступно.

🟠Недостаточное количество выделенных inode
При создании файловой системы, если количество выделенных inode было рассчитано неправильно (слишком мало для предполагаемого использования), это может привести к раннему их исчерпанию. Это особенно актуально для серверов или систем, где ожидается большое количество файлов.

🟠Особенности файловой системы
Некоторые файловые системы, такие как Ext3 или Ext4, имеют фиксированное соотношение inode к объёму файловой системы, которое задаётся при их создании. Если создать файловую систему с недостаточным количеством inode для конкретного случая использования, то в дальнейшем это может стать проблемой.

🚩Решения проблемы исчерпания

🟠Проверка использования
С помощью команды df -i можно проверить, сколько inode используется и сколько ещё доступно в вашей файловой системе.

🟠Очистка файловой системы
Удаление ненужных или временных файлов может освободить inode.

🟠Изменение файловой системы
Если возможно, можно увеличить количество inode путём изменения файловой системы или пересоздания файловой системы с более высоким количеством inode. Для файловых систем, таких как XFS или некоторые конфигурации Btrfs, можно динамически добавлять inode.

🟠Использование других файловых систем
Переход на другую файловую систему, которая не имеет строгих ограничений на количество inode (например, Btrfs или ZFS), может быть решением для систем с большим количеством маленьких файлов.

🟠Архивирование
Программы и процессы, которые создают большое количество мелких файлов, могут модифицироваться для хранения данных в формате архивов вместо отдельных файлов, что снижает потребление inode.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

09 Jan, 16:10


🤔 Какой из сигналов SIGTERM / SIGKILL вызывает команда kill?

1. По умолчанию команда kill отправляет сигнал SIGTERM, который корректно завершает процесс.
2. Сигнал SIGKILL (с параметром -9) немедленно завершает процесс, минуя его обработчики.
3. SIGTERM предпочтителен для аккуратного завершения, а SIGKILL — для принудительного.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

09 Jan, 12:56


📊 Реклама в сети телеграм каналов easyoffer
✈️ Для заказа пишите @easyoffer_adv

easyoffer
Backend

Python | Вопросы
Python | Удалёнка
Python | LeetCode
Python | Тесты

Frontend | Вопросы
Frontend | Удалёнка
JavaScript | LeetCode
Frontend | Тесты

Java | Вопросы
Java | Удалёнка
Java | LeetCode
Java | Тесты

Тестировщик | Вопросы
Тестировщик | Удалёнка
Тестировщик | Тесты

Data Science | Вопросы
Data Science | Удалёнка
Data Science | Тесты

C# | Вопросы
C# | Удалёнка
C# | LeetCode
C# | Тесты

C/C++ | Вопросы
C/C++ | Удалёнка
C/C++ | LeetCode
C/C++ | Тесты

Golang | Вопросы
Golang | Удалёнка
Golang | LeetCode
Golang | Тесты

DevOps | Вопросы
DevOps | Удалёнка
DevOps | Тесты

PHP | Вопросы
PHP | Удалёнка
PHP | LeetCode
PHP | Тесты

Kotlin | Вопросы
Kotlin | Удалёнка
Kotlin | LeetCode
Kotlin | Тесты

Swift | Вопросы
Swift | Удалёнка
Swift | LeetCode
Swift | Тесты

📊 Реклама в сети телеграм каналов easyoffer
✈️ Для заказа пишите @easyoffer_adv

DevOps | Вопросы собесов

09 Jan, 09:10


🤔 Как настраивать графики на панели графаны?

Настройка графиков на панели Grafana позволяет визуализировать данные из подключенных источников в удобной и наглядной форме.

1⃣Создание новой панели (Panel)
Откройте существующий дашборд или создайте новый: Перейдите в раздел Dashboards → New Dashboard.
Нажмите Add new panel для добавления панели.

2⃣Выбор источника данных
В интерфейсе панели в разделе Query выберите источник данных (Data Source) из выпадающего списка. Например, Prometheus, InfluxDB, MySQL, Elasticsearch. Подключение источника данных настраивается через Configuration → Data Sources.

3⃣Написание запроса для графика
Каждый источник данных имеет свой язык запросов. Примеры:
Prometheus
rate(http_requests_total[5m])


MySQL
SELECT time, value FROM metrics WHERE time > NOW() - INTERVAL 1 HOUR;


Elasticsearch: Используйте Lucene или Elasticsearch Query DSL.

4⃣Настройка визуализации
В разделе Visualization выберите тип графика: Time series (график по времени). Bar chart (столбчатая диаграмма). Gauge (гейдж/индикатор). Table (таблица). Pie chart (круговая диаграмма, доступна через плагин).
Настройте параметры визуализации: Линии, точки, области (lines, points, fill). Цвета линий, область графика. Подписи данных.

5⃣Форматирование данных
В разделе Transform: Преобразуйте данные (группировка, сортировка, вычисления). Добавьте фильтры или агрегируйте данные. В разделе Overrides: Настройте специфичные параметры для отдельных рядов данных (цвета, форматы отображения).

6⃣Настройка временного интервала
Выберите временной диапазон панели в правом верхнем углу дашборда: Например, последние 5 минут, 1 час, 24 часа. Установите параметры временного сдвига, если нужно отображать данные за конкретный период.

7⃣Настройка подписей и описаний
В разделе Panel settings: Укажите название панели. Добавьте описание для контекста.

8⃣Сохранение дашборда
Нажмите Save dashboard. Укажите имя дашборда и добавьте теги (опционально) для удобного поиска.

🚩Полезные фишки

🟠Панели Variables
Позволяют создавать динамические фильтры. Например, добавьте переменную для выбора имени хоста:
label_values(node_cpu_seconds_total, instance)


🟠Плагины визуализации
Установите дополнительные плагины из Grafana Marketplace (например, Pie Chart, Worldmap Panel).

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

08 Jan, 16:10


🤔 Как Linux выбирает, какой из процессов завершить?

1. Linux использует OOM-Killer, который выбирает процесс для завершения на основе приоритета (oom_score).
2. Процессы с большим потреблением памяти и низким приоритетом чаще всего завершаются.
3. Значение oom_score_adj позволяет вручную настроить чувствительность процесса к OOM-Killer.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

08 Jan, 09:10


🤔 Что используется внутри докер контейнера?

Внутри Docker-контейнера используется изолированная среда, которая позволяет запускать приложения в предсказуемом и воспроизводимом окружении. Контейнер предоставляет доступ к базовой файловой системе, процессам, сетевым интерфейсам и другим ресурсам, изолированным от хоста и других контейнеров. Давайте разберем основные компоненты, которые используются внутри Docker-контейнера.

🟠Файловая система
Каждый контейнер имеет собственную файловую систему, основанную на многослойной архитектуре. Это изолированное пространство предоставляет доступ к: Образу Docker (image): Базовый набор файлов, определенных в Docker Image. Copy-on-write (COW): Контейнеры используют copy-on-write слой для изменений. Базовый образ остается неизменным, а любые изменения записываются в слой контейнера. Точки монтирования: Возможность монтировать директории хоста или сетевые тома (volumes) для сохранения данных.
docker run -v /host/path:/container/path nginx


🟠Процессы
В контейнере запускаются процессы, как в обычной операционной системе. Главный процесс контейнера (например, команда из CMD или ENTRYPOINT) работает с PID 1 и отвечает за выполнение приложения. Процессы внутри контейнера изолированы от процессов на хосте благодаря использованию Linux namespaces.
docker exec <container_id> ps aux


🟠Сетевые интерфейсы
Docker-контейнеры используют виртуальные сетевые интерфейсы для связи:
veth-pair: Каждый контейнер имеет виртуальный интерфейс, подключенный к мосту (docker0 по умолчанию).
Типы сетей:
bridge (по умолчанию): Локальная сеть между контейнерами.
host: Контейнер использует сетевой стек хоста.
none: Полностью изолированный контейнер без сети.
overlay: Сеть для соединения контейнеров на разных хостах.
docker network create my_network
docker run --network my_network nginx


🟠Ресурсы хоста (CPU, память, диски)
Контейнеры используют ресурсы хоста, но их потребление можно ограничить:
CPU: Контейнер может использовать определенную долю процессора.
docker run --cpus="2" nginx


Память: Лимит на использование оперативной памяти.
docker run -m 512m nginx


I/O (диск): Возможность ограничения операций чтения/записи.
docker run --device-read-bps=/dev/sda:1mb nginx


🟠Изоляция (Namespaces и Control Groups)
Docker использует технологии изоляции, встроенные в ядро Linux:
Namespaces: Обеспечивают изоляцию пространства имен (PID, сети, файловой системы и т.д.). Control Groups (cgroups): Управляют использованием ресурсов (CPU, RAM, I/O).
lsns


🟠Среда выполнения (Runtime)
Docker-контейнеры работают благодаря среде выполнения, например:
runc: Легковесное средство выполнения контейнеров, совместимое со стандартом OCI. containerd: Менеджер для запуска контейнеров, который Docker использует для взаимодействия с низкоуровневыми компонентами.

🟠Настройки и переменные среды
Контейнер может быть настроен с использованием:
Переменных среды: Устанавливаются через ENV в Dockerfile или с помощью флага -e.
docker run -e ENV_VAR=value nginx


Аргументов при сборке: Используются в Dockerfile через ARG.
ARG BUILD_VERSION


🟠Приложение или служба
Главное, что работает внутри контейнера, — это само приложение: Например, веб-сервер (Nginx, Apache) или база данных (MySQL, PostgreSQL). Контейнеры упрощают запуск приложений с предсказуемыми зависимостями.

🟠Логи и мониторинг
Docker предоставляет возможность просматривать логи контейнера и собирать метрики
Логи
docker logs <container_id>


Информация о контейнере
docker inspect <container_id>


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

07 Jan, 16:10


🤔 Что такое OOM?

Это ситуация, когда системе не хватает памяти для выполнения процессов.
1. В Linux активируется OOM-Killer, чтобы завершить некоторые процессы и освободить память.
2. Это обычно происходит при недостатке оперативной памяти или неправильной конфигурации ресурсов.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

07 Jan, 09:10


🤔 Что внутри директории Linux: /proc?

Это виртуальная файловая система, предоставляющая доступ к информации о процессах и системе в реальном времени. Она не занимает место на диске, так как данные в ней формируются ядром Linux динамически. Эта файловая система называется procfs (процессная файловая система).

🚩Основное назначение `/proc`

Предоставляет информацию о запущенных процессах, ресурсах системы и конфигурации ядра. Позволяет взаимодействовать с ядром, изменять параметры системы и получать данные о состоянии процессов.

🚩Ключевые элементы внутри `/proc`

🟠Каталоги с идентификаторами процессов (`/proc/[PID]`)
Каждый процесс в системе имеет каталог в /proc, название которого соответствует его PID (Process ID). В этих каталогах содержится информация о конкретном процессе:
/proc/[PID]/cmdline: Команда, запустившая процесс.
/proc/[PID]/cwd: Символическая ссылка на текущую рабочую директорию процесса.
/proc/[PID]/exe: Символическая ссылка на исполняемый файл процесса.
/proc/[PID]/fd: Директория с открытыми файловыми дескрипторами.
/proc/[PID]/status: Детализированная информация о состоянии процесса (UID, GID, память и т.д.).

🟠Файлы системы
/proc/cpuinfo
Информация о процессоре (модель, частота, количество ядер).
cat /proc/cpuinfo


/proc/meminfo
Информация о памяти (доступная память, кэш, использованная память).
cat /proc/meminfo


/proc/diskstats: Статистика ввода-вывода для дисков.
/proc/uptime: Время работы системы с момента загрузки.
/proc/loadavg: Средняя нагрузка на систему за последние 1, 5 и 15 минут.

🟠Конфигурационные файлы ядра
/proc/sys: Содержит настраиваемые параметры ядра. Например, можно изменить значение максимального количества открытых файлов:
echo 100000 > /proc/sys/fs/file-max


Некоторые популярные настройки
/proc/sys/net/ipv4/ip_forward: Управление пересылкой IPv4-пакетов.
/proc/sys/kernel/pid_max: Максимальный PID, который может быть назначен процессу.

🟠Сетевые интерфейсы
/proc/net:
Информация о сетевых соединениях и интерфейсах.
Примеры:
/proc/net/dev: Статистика сетевых интерфейсов.
/proc/net/tcp: Состояние TCP-соединений.

🟠Информация об устройствах
/proc/devices: Список всех зарегистрированных устройств (символьных и блочных).
/proc/partitions: Информация о разделах жесткого диска.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

06 Jan, 16:10


🤔 Какая файловая система бывает с динамическими inode?

1. Файловая система ext4 поддерживает динамическое выделение inode.
2. Это позволяет увеличивать количество inode в зависимости от потребностей, уменьшая ограничение на число файлов.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

06 Jan, 09:10


🤔 Что такое data source в графане?

Это источник данных, с которым Grafana может взаимодействовать для построения графиков, панелей мониторинга (dashboards) и выполнения запросов. Data Source определяет, как Grafana подключается к внешним системам мониторинга, базам данных или API для получения метрик, логов или другой информации.

🚩Основные аспекты

🟠Типы Data Source
Grafana поддерживает множество типов источников данных, включая:
Системы мониторинга:
Prometheus
Zabbix
InfluxDB
Graphite
Лог-агрегаторы:
Loki
Elasticsearch
Splunk
Облачные сервисы:
AWS CloudWatch
Google Cloud Monitoring
Azure Monitor
Реляционные базы данных:
MySQL
PostgreSQL
API или внешние плагины:
JSON API
OpenTelemetry

🟠Функции Data Source
Подключение: Определяет параметры для соединения с внешним хранилищем данных, такие как URL, токены аутентификации, логин/пароль. Выполнение запросов: Обеспечивает интерфейс для написания запросов к данным через встроенный редактор запросов Grafana. Форматирование данных: Конвертирует данные из формата, предоставляемого источником, в формат, понятный Grafana.

🟠Добавление Data Source
Добавление источника данных выполняется через веб-интерфейс Grafana:
Зайдите в Settings → Data Sources.
Нажмите кнопку Add data source.
Выберите нужный тип источника (например, Prometheus).
Настройте параметры подключения (например, URL, токен, порт).
Нажмите Save & Test, чтобы проверить соединение.

🟠Примеры запросов
Для Prometheus:
rate(http_requests_total[5m])


Для MySQL
SELECT time, value FROM metrics WHERE time > NOW() - INTERVAL 1 HOUR;


🚩Особенности Data Source

🟠Кастомизация
Вы можете устанавливать плагины для подключения к нестандартным источникам данных. Grafana Marketplace предлагает плагины для расширения функциональности.

🟠Мульти-сорсинг
Один дашборд может использовать несколько источников данных, что позволяет объединять данные из разных систем.

🟠Глобальные переменные
Источники данных могут использовать глобальные параметры, такие как время ($__timeFilter), для унификации запросов.

🟠Безопасность
Поддержка различных методов аутентификации: токены, ключи API, OAuth.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

05 Jan, 16:10


🤔 Чем DevOps отличается от Agile?

1. Agile: фокусируется на гибкости и итеративной разработке, улучшая взаимодействие между разработчиками и бизнесом.
2. DevOps: охватывает весь жизненный цикл ПО, включая автоматизацию, CI/CD и поддержку инфраструктуры.
3. Agile — это методология, а DevOps — практический подход, объединяющий разработку и эксплуатацию.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

05 Jan, 09:10


🤔 Что произойдет если под не пройдет readiness пробу?

Если под (Pod) в Kubernetes не пройдет readiness-пробу (readiness probe), он будет считаться не готовым для обработки запросов.

🚩Что делает readiness-проба?

Readiness-проба используется для определения того, готов ли контейнер в поде обрабатывать входящие запросы. Если проба не проходит, Kubernetes исключает этот под из списка доступных для обслуживания запросов (например, через Service).

🚩Основные последствия

🟠Под не будет получать трафик через Service
Kubernetes автоматически исключает под из группы Endpoints для соответствующего сервиса. Другие компоненты системы, обращающиеся к сервису, не будут направлять запросы в этот под.

🟠Под продолжает работать
Под не будет удален или перезапущен. Kubernetes продолжит проверять его состояние readiness-пробой до тех пор, пока он не станет готовым.

🟠Нет влияния на liveness-пробу
Если readiness-проба не проходит, это не влияет на liveness-пробу. Под будет работать, пока не нарушена его "жизнеспособность".

🟠Аварийное поведение приложения может быть скрыто
Если под зависнет или будет не в состоянии обработать запросы, но при этом не нарушит liveness-пробу, он останется запущенным, но не будет получать трафик.

🚩Как это выглядит на практике?

Пример readiness-пробы
apiVersion: v1
kind: Pod
metadata:
name: example-pod
spec:
containers:
- name: my-container
image: nginx
readinessProbe:
httpGet:
path: /
port: 80
initialDelaySeconds: 5
periodSeconds: 10


🚩Сценарий

🟠На старте
После создания пода Kubernetes ждет initialDelaySeconds (5 секунд) перед выполнением первой проверки. Если / не отвечает на HTTP-запрос, под считается не готовым.

🟠Если проба продолжает проваливаться
Kubernetes исключает под из группы доступных эндпоинтов. Под остается запущенным, и проба выполняется каждые periodSeconds (10 секунд), пока под не станет готовым.

🚩Что произойдет с трафиком?

Если под — единственный в сервисе: Запросы к сервису вернут ошибку (например, 503 Service Unavailable), так как ни один под не готов.
Если подов несколько: Трафик перенаправляется на другие поды, готовые обрабатывать запросы.

🚩Как это помогает?

🟠Обеспечивает стабильность приложения
Под начинает обрабатывать трафик только после полной инициализации.

🟠Улучшает отказоустойчивость
В случае проблем с подом система перенаправляет запросы на другие экземпляры.

🟠Поддерживает обновления без простоя
Во время обновления подов через Deployment новые поды добавляются в пул доступных только после успешного прохождения readiness-проб.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

04 Jan, 16:10


🤔 Что такое провайдеры в Terraform?

Это плагины, которые позволяют взаимодействовать с облачными сервисами, API или другими системами.
1. Они управляют ресурсами, такими как виртуальные машины, базы данных или сети.
2. Каждый провайдер содержит набор команд для создания, обновления и удаления инфраструктуры.
3. Примеры: AWS, Azure, Google Cloud.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

04 Jan, 09:10


🤔 Что такое брокеры сообщений?

Это программные системы, которые позволяют обмениваться данными между разными компонентами приложения или между различными приложениями. Они действуют как посредники, принимая сообщения от отправителей (producers) и доставляя их получателям (consumers).

🚩Основные функции брокеров сообщений

🟠Прием и маршрутизация сообщений
Сообщения отправляются от одного компонента и доставляются нужному получателю. Брокер определяет, куда отправить сообщение, используя темы (topics), очереди (queues) или маршруты (routing keys).

🟠Асинхронное взаимодействие
Отправитель может передать сообщение, не дожидаясь его обработки, что повышает производительность системы.

🟠Очереди сообщений
Если получатель временно недоступен, сообщение сохраняется в очереди до тех пор, пока оно не будет доставлено.

🟠Гарантированная доставка
Некоторые брокеры предоставляют механизмы подтверждения получения сообщений (acknowledgment), чтобы избежать их потери.

🟠Распределение нагрузки
Сообщения могут быть обработаны несколькими получателями, что позволяет распределить нагрузку между ними.

🟠Фильтрация и маршрутизация
Сообщения доставляются только тем потребителям, которые их ожидают, используя фильтры или ключи маршрутизации.

🚩Примеры использования брокеров сообщений

🟠Микросервисы
Компоненты приложения обмениваются данными через брокер, что позволяет им оставаться изолированными и независимыми.

🟠Логирование и мониторинг
Сбор логов и метрик от множества источников с их дальнейшей обработкой.

🟠Управление задачами
Постановка задач в очередь для выполнения одним или несколькими воркерами.

🟠Интеграция систем
Связывание разнородных систем, которые обмениваются данными.

🚩Примеры брокеров сообщений

🟠RabbitMQ
Протокол: AMQP (Advanced Message Queuing Protocol). Поддерживает очереди, маршрутизацию, подтверждения доставки. Хорошо подходит для сложных сценариев с разными типами маршрутизации.

🟠Apache Kafka
Протокол: Проприетарный. Отличается высокой производительностью и надежностью. Используется для потоковой обработки данных, аналитики в реальном времени.

🟠Redis (Pub/Sub)
Протокол: Redis. Простая и быстрая модель pub/sub. Хорошо подходит для временных сообщений без сохранения состояния.

🟠ActiveMQ
Протокол: AMQP, STOMP, MQTT. Гибкий и совместимый с различными сценариями.

🟠NATS
Легковесный и быстрый брокер для приложений, требующих низкой задержки.

🚩Как работают брокеры сообщений

Producers (отправители) отправляют сообщение в брокер.
Брокер размещает сообщение в соответствующей очереди или теме.
Consumers (получатели) получают сообщение: Либо сразу, если они активны. Либо позже, если оно сохраняется в очереди.

🚩Пример использования RabbitMQ

1⃣Отправитель публикует сообщение в очередь:
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
channel.queue_declare(queue='hello')
channel.basic_publish(exchange='', routing_key='hello', body='Hello World!')
connection.close()


2⃣Получатель забирает сообщение из очереди:
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
channel.queue_declare(queue='hello')

def callback(ch, method, properties, body):
print(f"Received {body}")

channel.basic_consume(queue='hello', on_message_callback=callback, auto_ack=True)
channel.start_consuming()


🚩Плюсы использования

Разделение ответственности
Компоненты системы сосредотачиваются на своих задачах, а не на доставке данных.
Масштабируемость
Легко добавлять новых потребителей или отправителей.
Устойчивость к сбоям
Брокеры обеспечивают сохранность сообщений, даже если один из компонентов временно недоступен.
Гибкость
Возможность использовать различные стратегии маршрутизации и обработки данных.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

03 Jan, 16:10


🤔 Чем отличаются Deployment и ReplicaSet?

Управляет поддержанием заданного числа реплик подов, обеспечивая их наличие и работоспособность. Deployment — более высокий уровень абстракции, который использует ReplicaSet для управления подами и добавляет возможности для обновлений, откатов и управления версиями.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

03 Jan, 09:10


🤔 Какая разница между deployment и stateful set?

Это контроллеры, используемые для управления подами, но они предназначены для различных типов приложений и имеют разные функции. Разница между ними связана с тем, как они управляют жизненным циклом подов, сетевой идентичностью, постоянством данных и порядком развертывания.

🚩Что такое Deployment?

Используется для управления статическими или бесстаточными приложениями, где порядок запуска подов, их идентичность и состояние не имеют значения.

🟠Бесстаточные приложения
Примеры: веб-серверы, микросервисы, обработка очередей. Каждый под одинаков, и потеря одного из них не нарушает работу приложения.
🟠Порядок развертывания
Поды запускаются и удаляются в любом порядке. Если под удаляется, создается новый с другой идентичностью.
🟠Сетевой доступ
Поды доступны через Service, но они не сохраняют фиксированные сетевые имена.
🟠Обновления
Поддерживает обновления без простоя (rolling updates). Умеет откатываться на предыдущую версию.

apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.21.6


🚩Что такое StatefulSet?

Используется для управления состоянием и обеспечивает упорядоченность и идентичность подов. Это важно для приложений, где требуется сохранение данных, стабильные идентификаторы или порядок операций.

🟠Состояние приложения
Примеры: базы данных (MySQL, PostgreSQL), системы очередей (Kafka), распределенные системы (Cassandra, Elasticsearch). Каждый под имеет уникальный идентификатор и связан с определенным хранилищем данных.

🟠Порядок развертывания
Поды запускаются, обновляются и удаляются строго в определенном порядке (0, 1, 2...). Это важно для приложений, где один узел должен быть доступен перед запуском другого.

🟠Сетевой доступ
Каждый под имеет фиксированное имя (например, pod-0, pod-1), что упрощает взаимодействие между подами.

🟠Обновления
Выполняются поэтапно, с учетом порядка.

🟠Постоянство данных
Поды используют PersistentVolumeClaim (PVC) для сохранения данных. Даже если под удален, данные остаются на диске и доступны после повторного запуска.

apiVersion: apps/v1
kind: StatefulSet
metadata:
name: mysql
spec:
serviceName: "mysql-service"
replicas: 3
selector:
matchLabels:
app: mysql
template:
metadata:
labels:
app: mysql
spec:
containers:
- name: mysql
image: mysql:5.7
volumeMounts:
- name: mysql-data
mountPath: /var/lib/mysql
volumeClaimTemplates:
- metadata:
name: mysql-data
spec:
accessModes: ["ReadWriteOnce"]
resources:
requests:
storage: 10Gi


🚩Когда использовать что?

🟠Используйте `Deployment`
Бесстаточное. Требует быстрой масштабируемости. Не зависит от порядка запуска подов.
🟠Используйте `StatefulSet`
Требует сохранения данных между перезапусками. Зависит от фиксированной идентичности подов. Требует упорядоченного запуска или удаления.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

02 Jan, 16:10


🤔 Что будет происходить при kubectl apply?

Команда kubectl apply применяет манифесты Kubernetes к кластеру, создавая или обновляя ресурсы. Если ресурс уже существует, Kubernetes сравнивает его текущее состояние с новым и вносит изменения. Это позволяет применять изменения декларативно, без удаления ресурса.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

02 Jan, 09:10


🤔 Что такое container network module в докере?

Это архитектурная модель, разработанная Docker для управления сетями контейнеров. Она описывает, как создаются, управляются и взаимодействуют сетевые компоненты в Docker-контейнерах. CNM служит основой для организации сетей Docker и позволяет подключать контейнеры к различным сетевым средам, обеспечивая гибкость, масштабируемость и безопасность.

🚩Основные компоненты CNM

🟠Sandbox
Это изолированная среда, где настраиваются сетевые интерфейсы контейнера, такие как IP-адреса, маршруты и DNS. Что включает: veth-пара интерфейсов (виртуальный Ethernet): соединяет контейнер с внешней сетью. Конфигурации маршрутов и сетевых правил.

🟠Endpoint
Точка подключения контейнера к сети. Функции: Обеспечивает контейнеру связь с другими контейнерами или внешними сетями. Соединяет Sandbox с Network.

🟠Network
Логическая сущность, объединяющая Endpoints для обеспечения взаимодействия контейнеров. Типы сетей в Docker:
bridge: Локальная сеть, позволяющая контейнерам взаимодействовать на одном хосте.
host: Контейнеры используют сетевой стек хоста без изоляции.
none: Сеть отключена; контейнер полностью изолирован.
overlay: Распределенная сеть для связи контейнеров на разных хостах.
macvlan: Контейнеры получают прямой доступ к физической сети.

🚩Как это работает в Docker

Создается Sandbox, где настраиваются сетевые параметры контейнера.
Создается Endpoint, который подключает контейнер к выбранной сети.
Endpoint добавляется в Network, что позволяет контейнеру взаимодействовать с другими узлами.

🚩Плюсы

Гибкость
Легко подключать контейнеры к различным типам сетей.
Изоляция
Обеспечивает безопасность, изолируя сетевые пространства контейнеров.
Расширяемость
CNM поддерживает сторонние плагины для интеграции с другими сетевыми решениями (например, Calico, Flannel).
Управляемость
Позволяет контролировать настройки сети через команды Docker.

🚩Пример создания сети

1⃣Создание сети
docker network create my_bridge


2⃣Подключение контейнера к сети
docker run --network my_bridge -d nginx


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

01 Jan, 16:10


🤔 Что такое blue-green deployment?

Это стратегия развертывания, при которой две идентичные среды (blue и green) используются для обновления приложения. Текущая версия работает в одной среде (blue), а новая разворачивается в другой (green). После тестирования новая версия переключается в продакшн без простоев.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

01 Jan, 09:10


🤔 В чём преимущество Kubernetes как платформы?

Это платформа для оркестрации контейнеров, которая упрощает развертывание, управление и масштабирование приложений. Она имеет ряд ключевых преимуществ, которые делают её популярной в DevOps и облачных решениях.

🚩Основные плюсы

Автоматизация управления приложениями
Kubernetes автоматически запускает, останавливает и перезапускает контейнеры при сбоях. Поддерживает заданное число экземпляров (реплик) приложений, перезапуская или создавая их при необходимости.

Масштабирование (горизонтальное и вертикальное)
Ручное: Легко увеличить или уменьшить количество контейнеров (поды) для приложения. Автоматическое: Используя Horizontal Pod Autoscaler (HPA), Kubernetes добавляет ресурсы при увеличении нагрузки.

Высокая доступность (HA)
Kubernetes поддерживает отказоустойчивость: Если один узел (node) выходит из строя, поды перемещаются на другие узлы. Внутренний балансировщик нагрузки распределяет трафик между подами.

Платформонезависимость
Kubernetes работает в любых средах: Локальных (например, Minikube). В публичных облаках (AWS, Google Cloud, Azure). В гибридных и on-premise инфраструктурах.

Управление конфигурацией и секретами
Kubernetes упрощает работу с настройками: ConfigMaps: Для управления конфигурационными данными.
Secrets: Для безопасного хранения конфиденциальной информации, например, ключей API или паролей.

Эффективное использование ресурсов
Kubernetes помогает оптимизировать потребление CPU и памяти: Устанавливая минимальные и максимальные лимиты ресурсов для каждого приложения. Перераспределяя ресурсы между приложениями.

Расширяемость
Kubernetes поддерживает плагины и кастомизацию: Сетевые плагины (Calico, Flannel) для настройки сети. Системы мониторинга (Prometheus, Grafana). Операторы для автоматизации сложных задач.

Сообщество и экосистема
Kubernetes поддерживается большинством крупных облачных провайдеров. Обширная экосистема инструментов: Helm для управления шаблонами, ArgoCD для GitOps, Istio для сетевых взаимодействий.

🚩Когда особенно полезен?

Разработка микросервисных архитектур. Частые релизы и автоматизация CI/CD. Работа с масштабируемыми приложениями. Использование гибридных или мультиоблачных решений.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

31 Dec, 16:10


🤔 Что такое API и зачем оно нужно?

Это интерфейс, который позволяет приложениям взаимодействовать друг с другом. Он определяет методы и форматы обмена данными между системами. API упрощает интеграцию, делая системы модульными и масштабируемыми.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

31 Dec, 09:10


🤔 Как в линуксе посмотреть список дескрипторов файлов?

В Linux список дескрипторов файлов можно посмотреть, используя утилиты и команды, которые позволяют работать с процессами и их открытыми файлами. Основным методом является использование файловой системы /proc, которая содержит информацию о процессах, включая их открытые файловые дескрипторы.

🚩Основные способы

🟠Команда `ls` в каталоге `/proc/[PID]/fd`
Каждый процесс в Linux имеет свой подкаталог в /proc с идентификатором процесса (PID). В подкаталоге fd хранятся ссылки на открытые дескрипторы файлов.
ls -l /proc/$(pidof <имя_процесса>)/fd


Вывод
lrwx------ 1 user user 64 Dec 23 12:00 0 -> /dev/pts/0
lrwx------ 1 user user 64 Dec 23 12:00 1 -> /dev/pts/0
lrwx------ 1 user user 64 Dec 23 12:00 2 -> /dev/pts/0


🟠Использование `lsof`
Команда lsof (list open files) отображает список всех открытых файлов в системе.
lsof -p <PID>


Пример для всех процессов
lsof


Вывод
COMMAND    PID USER   FD   TYPE DEVICE SIZE/OFF NODE NAME
bash 1234 user cwd DIR 8,1 4096 256 /home/user
bash 1234 user rtd DIR 8,1 4096 2 /
bash 1234 user 0u CHR 136,0 0 3 /dev/pts/0
bash 1234 user 1u CHR 136,0 0 3 /dev/pts/0
bash 1234 user 2u CHR 136,0 0 3 /dev/pts/0


🟠Использование `lsfd`
Утилита lsfd (из пакета util-linux) удобна для просмотра файловых дескрипторов.
lsfd


Вывод
PID    FD TTY      TYPE      DEVICE SIZE/OFF   NODE NAME
1234 0 /dev/pts/0 CHR 136,0 0 3 /dev/pts/0
1234 1 /dev/pts/0 CHR 136,0 0 3 /dev/pts/0
1234 2 /dev/pts/0 CHR 136,0 0 3 /dev/pts/0


🚩Полезные флаги и фильтрация

Список дескрипторов определенного пользователя:
lsof -u <имя_пользователя>


Список файлов определенного типа (например, сокеты):
lsof -i


Фильтрация по определенному файлу или устройству:
lsof /path/to/file


🚩Почему важно знать про дескрипторы?

🟠Отладка приложений
Определение, какие файлы, сокеты или устройства использует процесс.
🟠Устранение утечек
Проверка, остаются ли ненужные дескрипторы открытыми.
🟠Администрирование
Диагностика проблем, связанных с блокировкой файлов.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

30 Dec, 16:10


🤔 Зачем нужен multi-stage?

Это метод, который разделяет процесс сборки на несколько этапов для уменьшения размера финального образа. На одном этапе можно собирать приложение, а на другом — копировать только необходимые артефакты в чистую среду. Это улучшает безопасность и производительность.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

30 Dec, 09:10


🤔 Приведи пример изменяемых и неизменяемых типах данных?

В Python типы данных делятся на изменяемые (mutable) и неизменяемые (immutable) в зависимости от того, можно ли изменить их содержимое после создания.

🚩Изменяемые типы данных (mutable)

Это те, содержимое которых можно менять после создания объекта, не создавая новый объект.

Списки (list)
my_list = [1, 2, 3]
my_list.append(4) # Добавляем элемент
print(my_list) # [1, 2, 3, 4]


Словари (dict)
my_dict = {'a': 1, 'b': 2}
my_dict['c'] = 3 # Добавляем ключ-значение
print(my_dict) # {'a': 1, 'b': 2, 'c': 3}


Множества (set)
my_set = {1, 2, 3}
my_set.add(4) # Добавляем элемент
print(my_set) # {1, 2, 3, 4}


🚩Неизменяемые типы данных (immutable)

Неизменяемые типы данных нельзя изменить после их создания. Любая операция, изменяющая объект, приводит к созданию нового объекта.

Кортежи (tuple)
my_tuple = (1, 2, 3)
# my_tuple[0] = 0 # Ошибка: TypeError
print(my_tuple) # (1, 2, 3)


Строки (str)
my_string = "Hello"
# my_string[0] = "h" # Ошибка: TypeError
new_string = my_string.replace("H", "h")
print(new_string) # "hello"


Числа (int, float, complex)
x = 42
x += 1 # Создается новый объект
print(x) # 43


Неизменяемые множества (frozenset)
my_frozenset = frozenset([1, 2, 3])
# my_frozenset.add(4) # Ошибка: AttributeError
print(my_frozenset) # frozenset({1, 2, 3})



🚩Почему это важно?

🟠Оптимизация памяти
Неизменяемые объекты могут использоваться многократно без создания новых копий.
🟠Безопасность
Неизменяемые объекты защищены от изменений, что важно для многопоточных программ.
🟠Функциональное программирование
Неизменяемость — основа для предсказуемого поведения кода.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

29 Dec, 16:10


🤔 Что такое слои?

Слои создаются каждой инструкцией (например, FROM, RUN, COPY) и представляют собой файловую систему, добавляемую поверх предыдущих слоёв. Каждый слой кэшируется, что ускоряет процесс сборки, если слои не изменялись. Финальный образ — это объединение всех слоёв.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

29 Dec, 09:10


🤔 Куда идет деплой из релизных веток?

Касается подходов к управлению релизами в системах контроля версий, таких как Git, и их интеграции с процессами CI/CD. Ответ зависит от структуры разработки и процесса релиза в конкретной команде или компании. Однако, в общем, деплой из релизных веток обычно идет на тестовые, стейджинговые или продакшн-окружения. Давайте разберем этот процесс подробнее.

🚩Что такое релизные ветки?

Это ветки, которые создаются на этапе, когда функционал и исправления, готовые к выпуску, отделяются от основной ветки разработки (например, main или develop). Они позволяют:
Заморозить текущий набор изменений для подготовки к релизу.
Отделить доработки и исправления релиза от активной разработки.
Упростить процесс тестирования и последующего деплоя.

🚩Куда обычно идет деплой из релизных веток?

🟠Тестовое окружение (QA environment)
На тестовое окружение деплой из релизной ветки осуществляется для прохождения проверок качества: Автоматизированное и ручное тестирование.
Проверка производительности, безопасности и других аспектов.
stages:
- test
deploy:
stage: test
script:
- echo "Deploying release branch to QA"
- ./deploy.sh qa
only:
- release/*


🟠Стейджинговое окружение (Staging)
После успешного прохождения тестов релизную ветку деплоят в стейджинг. Это окружение максимально похоже на продакшн и используется для финального тестирования: Проверка совместимости с продакшн-системами.
Демонстрация функционала заказчикам или заинтересованным сторонам.
stages:
- staging
deploy:
stage: staging
script:
- echo "Deploying release branch to Staging"
- ./deploy.sh staging
only:
- release/*


🟠Продакшн (Production)
После прохождения всех этапов тестирования изменения из релизной ветки деплоятся в продакшн: Обычно это делается автоматически после финального подтверждения.
В некоторых командах финальный мерж релизной ветки в main инициирует деплой.
stages:
- production
deploy:
stage: production
script:
- echo "Deploying release branch to Production"
- ./deploy.sh production
only:
- release/*


🚩Зачем это нужно?

🟠Изоляция релиза
Релизные ветки позволяют избежать включения новых, неподготовленных изменений в текущий релиз.
🟠Гибкость
Если в процессе тестирования или релиза найдены баги, их можно исправить прямо в релизной ветке без влияния на разработку.
🟠Управление рисками
Релизные ветки упрощают управление разными стадиями разработки и релиза.

🚩Пример использования

1⃣Разработчик создает ветку release/1.0.0 от develop.
2⃣Выполняются тесты на QA окружении.
3⃣Исправляются баги в release/1.0.0, и изменения деплоятся на стейджинг.
4⃣После успешного тестирования ветка мержится в main, и начинается деплой в продакшн.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

28 Dec, 16:10


🤔 Для чего нужен бюджет ошибок?

Это допустимый уровень отказов или ошибок в системе, который помогает балансировать между инновациями и стабильностью. Он позволяет команде оценивать риски внедрения новых функций и поддерживать стабильность системы. Такой подход используется, например, в SRE (Site Reliability Engineering).

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

28 Dec, 09:10


🤔 Вопрос по linux зашли вы на сервер написали top видите надпись elan20 это хорошо или плохо?

Запуск команды top на сервере выводит информацию о запущенных процессах, использовании ресурсов и общей загрузке системы. В данном случае, если вы видите надпись elan20, это скорее всего обозначает имя пользователя или хоста, под которым выполняется процесс или который запустил процесс. Важно уточнить, в каком контексте вы видите эту надпись.

🟠Пользовательская сессия
Если elan20 отображается в колонке "USER", это просто означает, что процессы принадлежат пользователю elan20. Это может быть нормально, если пользователь имеет разрешение выполнять эти процессы.

🟠Имя процесса
Если elan20 отображается в колонке "COMMAND", это может быть имя выполняемого процесса или скрипта. Нужно уточнить, что это за процесс и соответствует ли он ожидаемому поведению системы. Возможно, процесс называется так специально для каких-то внутренних нужд.

🟠Имя хоста
Иногда в заголовках top может отображаться имя хоста, к которому вы подключены. Это нормально и просто информирует вас о том, на каком сервере вы находитесь.

🚩Чтобы определить, хорошо это или плохо, следует оценить следующие аспекты

🟠Процессы пользователя
Проверьте, что за процессы запущены под пользователем elan20. Убедитесь, что они не потребляют чрезмерное количество ресурсов и являются допустимыми для данного пользователя.

🟠Безопасность
Убедитесь, что пользователь elan20 не запускает подозрительные или нежелательные процессы.

🟠Нагрузка на систему
Оцените, как процессы elan20 влияют на общую производительность системы. Если система перегружена из-за этих процессов, нужно принять меры.

🚩Пример анализа

1⃣Запустите top и посмотрите на колонки USER и COMMAND
top - 15:32:44 up  2:22,  1 user,  load average: 0.58, 0.72, 0.61
Tasks: 120 total, 1 running, 119 sleeping, 0 stopped, 0 zombie
%Cpu(s): 3.2 us, 1.1 sy, 0.0 ni, 95.4 id, 0.3 wa, 0.0 hi, 0.0 si, 0.0 st
KiB Mem : 2052920 total, 532356 free, 1045812 used, 474752 buff/cache
KiB Swap: 2097148 total, 2097148 free, 0 used. 732168 avail Mem

PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
1523 elan20 20 0 142576 7648 5764 S 0.7 0.4 0:02.34 sshd
1524 elan20 20 0 132876 3456 2340 S 0.3 0.2 0:01.87 bash


2⃣Убедитесь, что процессы под пользователем elan20 не являются подозрительными и не потребляют слишком много ресурсов.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

27 Dec, 16:10


🤔 Какую методологию используете для планирования проектов (спринты и так далее)?

Чаще всего используются методологии Agile, такие как Scrum или Kanban. Scrum организует работу в спринты с регулярными встречами и ретроспективами, а Kanban визуализирует задачи на доске с гибким управлением приоритетами. Выбор зависит от специфики проекта и требований команды.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

27 Dec, 09:10


🤔 На каких принципах работает докер?

Это платформа для автоматизации развертывания, масштабирования и управления приложениями в контейнерах. Контейнеры позволяют изолировать приложения и их зависимости, обеспечивая легкую переносимость и консистентность окружения. Основные принципы работы Docker включают в себя контейнеризацию, использование образов, контейнеров, оркестрацию и сетевую инфраструктуру.

🚩Основные принципы

🟠Контейнеризация
Контейнеризация позволяет запускать приложения и их зависимости в изолированных окружениях. Контейнеры предоставляют легкие и эффективные среды, которые включают все необходимое для запуска приложений.
Контейнеры: Легковесные, изолированные окружения, которые работают поверх ядра хостовой операционной системы.
Namespace: Механизм ядра Linux, обеспечивающий изоляцию процессов, сети, PID, пользовательских идентификаторов и монтирования файловых систем.
Cgroups: Контрольные группы в Linux, которые ограничивают и отслеживают использование ресурсов контейнерами, включая процессорное время, память и I/O.

🟠Использование образов
Образы Docker являются шаблонами для создания контейнеров. Образ включает в себя все необходимые компоненты, такие как код приложения, библиотеки, зависимости и конфигурационные файлы.
Dockerfile: Скрипт, содержащий инструкции по созданию образа. Используется для автоматизации создания образов.
Слойность: Каждый образ состоит из нескольких слоев, которые кэшируются и могут использоваться повторно, что ускоряет процесс сборки и уменьшает использование ресурсов.

🟠Изоляция и безопасность
Docker обеспечивает изоляцию приложений, что позволяет запускать несколько контейнеров на одном хосте без взаимного влияния.
Изоляция процессов: Каждый контейнер имеет свой собственный процессорный контекст, что исключает конфликты между приложениями.
Изоляция файловой системы: Контейнеры имеют свои собственные файловые системы, изолированные от файловой системы хостовой операционной системы.
Безопасность: Docker использует механизмы, такие как AppArmor, SELinux и seccomp, для обеспечения безопасности контейнеров.

🟠Управление сетями
Docker предоставляет гибкие возможности управления сетями для контейнеров, включая создание изолированных сетей и подключение контейнеров к различным сетям.
Bridge Network: Создает изолированную сеть для контейнеров на одном хосте.
Host Network: Контейнер использует сетевые интерфейсы хостовой операционной системы.
Overlay Network: Позволяет контейнерам на разных хостах взаимодействовать друг с другом.
Macvlan Network: Контейнеры получают собственные MAC-адреса и ведут себя как физические устройства в сети.

🟠Хранение данных
Docker поддерживает различные механизмы хранения данных для обеспечения сохранности и доступности данных контейнеров.
Volumes: Независимые от контейнеров хранилища данных, которые могут быть подключены к одному или нескольким контейнерам.
Bind Mounts: Позволяют монтировать директории хостовой файловой системы в контейнеры.
Tmpfs: Использует память хоста для хранения данных контейнера, что полезно для временных данных.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

26 Dec, 16:10


🤔 Что такое виртуальная память и зачем она нужна?

Это механизм операционной системы, который позволяет приложениям использовать больше памяти, чем физически доступно, благодаря распределению памяти на диск и оперативную память. Она обеспечивает изоляцию процессов и эффективное использование памяти. Виртуальная память также упрощает работу разработчиков, скрывая сложности управления памятью.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

26 Dec, 09:10


🤔 Что такое хендлеры?

Это функции или объекты, которые обрабатывают определенные события или сигналы. Они позволяют системе или программе реагировать на определенные действия, такие как нажатия кнопок, поступление данных, сигналы от операционной системы и другие события.

🚩Примеры использования

🟠Обработчики событий в графических интерфейсах (GUI)
В GUI-приложениях хендлеры часто используются для обработки событий, таких как нажатия кнопок, движения мыши или ввод текста.
import tkinter as tk

def on_button_click():
print("Button clicked!")

root = tk.Tk()
button = tk.Button(root, text="Click me", command=on_button_click)
button.pack()
root.mainloop()


🟠Сигнальные хендлеры в операционных системах
В Unix-подобных системах хендлеры могут использоваться для обработки сигналов, таких как SIGINT или SIGTERM.
import signal
import time

def signal_handler(sig, frame):
print('Signal received:', sig)
exit(0)

signal.signal(signal.SIGINT, signal_handler)
print('Press Ctrl+C')
while True:
time.sleep(1)


🟠Обработчики в веб-серверах
В веб-приложениях хендлеры могут обрабатывать HTTP-запросы.
from flask import Flask

app = Flask(__name__)

@app.route('/')
def home():
return "Hello, World!"

if __name__ == '__main__':
app.run(debug=True)


🚩Зачем нужны хендлеры?

🟠Разделение кода
Хендлеры позволяют отделить логику обработки событий от основной логики приложения, что делает код более структурированным и читаемым.

🟠Удобство управления событиями
Хендлеры упрощают управление событиями и реакцией на них, что особенно важно в асинхронных и многозадачных приложениях.

🟠Гибкость и расширяемость
Хендлеры позволяют легко добавлять новые обработчики событий без изменения основной структуры программы.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

25 Dec, 09:10


🤔 Какой из сигналов SIGTERM/SIGKILL вызывает команда kill?

Команда kill в Linux может отправлять разные сигналы процессам, включая как SIGTERM, так и SIGKILL. Основное различие между ними заключается в том, как они обрабатываются процессами.

🚩SIGTERM и SIGKILL

🟠SIGTERM (Signal 15)
Это сигнал завершения, который может быть перехвачен и обработан процессом. Процесс может выполнить очистку (освободить ресурсы, сохранить состояние и т.д.) перед завершением. По умолчанию команда kill отправляет именно этот сигнал. Пример команды: kill <PID>, где <PID> - идентификатор процесса.

🟠SIGKILL (Signal 9)
Это сигнал немедленного завершения, который не может быть перехвачен процессом. Процесс завершается мгновенно без выполнения какой-либо очистки. Используется, когда процесс не реагирует на другие сигналы. Пример команды: kill -9 <PID>.

🚩Использование команды kill

🟠Отправка SIGTERM (по умолчанию)
Когда вы используете команду kill без указания сигнала, по умолчанию отправляется сигнал SIGTERM.
kill <PID>


🟠Отправка SIGKILL
Для отправки сигнала SIGKILL используется флаг -9.
kill -9 <PID>


🚩Примеры и практическое применение

🟠SIGTERM
Команда: kill 1234
Процесс с идентификатором 1234 получит сигнал SIGTERM и, если он запрограммирован для обработки этого сигнала, может выполнить завершение с очисткой.

🟠SIGKILL
Команда: kill -9 1234
Процесс с идентификатором 1234 будет немедленно завершен без возможности выполнения какой-либо очистки.

🚩Когда использовать SIGTERM или SIGKILL

🟠SIGTERM
Используйте, когда хотите корректно завершить процесс, предоставив ему возможность освободить ресурсы и завершить работу корректно.
🟠SIGKILL
Используйте в случае, если процесс не отвечает на SIGTERM или находится в зависшем состоянии.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

24 Dec, 16:10


🤔 Когда используется UDP?

UDP используется, когда важна скорость и допустима потеря данных, например, в стриминге, видеозвонках, DNS-запросах и онлайн-играх.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

24 Dec, 09:10


🤔 Чем DevOps отличается от Agile?

Это два различных подхода в разработке и доставке программного обеспечения, которые имеют разные цели и методы, но могут взаимодополнять друг друга. Давайте рассмотрим основные различия и связи между ними.

🚩Agile

Увеличение гибкости и адаптивности разработки программного обеспечения.
🟠Итеративная разработка
Разработка проходит в коротких циклах (итерациях), что позволяет регулярно представлять работающее программное обеспечение.
🟠Непрерывная обратная связь
Регулярные встречи (например, ежедневные стендапы, спринт-ревью) для получения обратной связи от команды и заинтересованных сторон.
🟠Кросс-функциональные команды
Команды, состоящие из разработчиков, тестировщиков, аналитиков и других специалистов, работают вместе над проектом.
🟠Фокус на клиенте
Постоянное взаимодействие с клиентами для уточнения требований и проверки соответствия продукта их ожиданиям.

Фреймворки: Scrum, Kanban, XP (Extreme Programming).

🚩DevOps

Увеличение скорости и качества доставки программного обеспечения через автоматизацию и улучшение сотрудничества между разработчиками и операционными командами.
🟠Непрерывная интеграция и доставка (CI/CD)
Автоматизация сборки, тестирования и развертывания кода, чтобы изменения могли быстро и надежно попасть в рабочую среду.
🟠Инфраструктура как код (IaC)
Использование кода для управления и автоматизации инфраструктуры, что делает процессы повторяемыми и предсказуемыми.
🟠Мониторинг и логирование
Постоянное отслеживание состояния приложений и инфраструктуры для быстрого обнаружения и устранения проблем.
🟠Сотрудничество и обмен знаниями
Улучшение взаимодействия между разработчиками и операционными инженерами через общие инструменты и процессы.

Инструменты: Jenkins, Docker, Kubernetes, Ansible, Terraform, Prometheus, Grafana.

🚩Сравнение и различия

🟠Фокус
Agile: Сфокусирован на процессе разработки и управлении проектами, улучшая гибкость и адаптивность команды разработки.
DevOps: Сфокусирован на процессе доставки и эксплуатации, улучшая автоматизацию и сотрудничество между разработчиками и операционными командами.

🟠Команды
Agile: Включает кросс-функциональные команды, которые работают вместе над созданием программного обеспечения.
DevOps: Включает команды разработчиков и операций, которые совместно работают над автоматизацией и улучшением процессов развертывания и эксплуатации.

🟠Методы и инструменты
Agile: Методы Scrum, Kanban и другие Agile-практики, которые улучшают процесс управления проектами.
DevOps: Инструменты и практики для автоматизации развертывания, мониторинга и управления инфраструктурой.

🚩Связь между Agile и DevOps

🟠Agile
Помогает улучшить процесс разработки, делая его более гибким и отзывчивым к изменениям.

🟠DevOps
Дополняет Agile, автоматизируя развертывание и эксплуатацию программного обеспечения, что позволяет быстрее доставлять изменения пользователям.

🟠Agile команда
Может использовать Scrum для управления спринтами и задачами.

🟠DevOps практики
Могут быть использованы для автоматизации CI/CD пайплайнов, чтобы каждая итерация разработки могла быть быстро и надежно развернута на серверы.

Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

23 Dec, 16:10


🤔 Какие протоколы знаешь?

Протоколы: TCP (надежная передача данных), UDP (быстрая и ненадёжная), HTTP/HTTPS (веб-протоколы), FTP (передача файлов), SMTP/IMAP/POP3 (почтовые протоколы), WebSocket (двусторонняя связь) и DNS (разрешение имён).


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

23 Dec, 09:10


🤔 Как вы думаете почему редис используют с mongobd, а не постгрес например?

Redis часто используется вместе с MongoDB по нескольким причинам, связанным с их совместимостью, функциональными возможностями и типами данных, которые они поддерживают. Ниже приведены основные причины, почему эта комбинация предпочтительнее в некоторых сценариях.

🟠Совместимость и дополнение функциональности
MongoDB — это документно-ориентированная база данных, оптимизированная для хранения и управления JSON-подобными документами. Она хорошо подходит для хранения сложных данных и поддерживает гибкую схему.
Redis — это база данных в памяти, которая используется для высокопроизводительного кэширования и обработки данных. Она поддерживает различные структуры данных, такие как строки, списки, множества и хэши. Эти два инструмента дополняют друг друга, предлагая сочетание долговременного хранения данных (MongoDB) и быстрого доступа к данным (Redis).
PostgreSQL — это реляционная база данных с расширенными возможностями, такими как поддержка транзакций, строгая схема и ACID-соответствие. Она хорошо подходит для сложных запросов и аналитики.

🟠Типы данных и схемы
Гибкая схема MongoDB позволяет легко изменять структуру данных без сложных миграций. MongoDB отлично работает с JSON-документами, что делает его удобным для хранения полуструктурированных данных.
Redis поддерживает различные структуры данных, такие как списки, множества, сортированные множества и хэши, что делает его идеальным для использования в качестве кэша и обработки данных в реальном времени.

🟠Производительность и масштабируемость
Redis работает в памяти, что обеспечивает очень высокую скорость чтения и записи. Это делает его идеальным для кэширования и временного хранения данных, которые требуют быстрого доступа. Redis может обрабатывать большое количество операций в секунду, что делает его подходящим для высоконагруженных систем.
MongoDB масштабируется горизонтально, что позволяет эффективно управлять большими объемами данных. Поддержка шардинга в MongoDB позволяет распределять данные по нескольким узлам, улучшая производительность и отказоустойчивость.

🟠Кэширование и обработка данных в реальном времени
Redis часто используется для кэширования результатов запросов из MongoDB. Это снижает нагрузку на MongoDB и улучшает производительность системы. Redis может использоваться для хранения сессий пользователей, очередей задач и других временных данных, которые требуют быстрого доступа и обновления.

🚩Примеры использования

🟠Кэширование
Использование Redis для кэширования часто запрашиваемых данных из MongoDB. Например, результаты сложных запросов или часто используемые документы могут храниться в Redis для быстрого доступа.
import redis
from pymongo import MongoClient

# Подключение к Redis и MongoDB
redis_client = redis.StrictRedis(host='localhost', port=6379, db=0)
mongo_client = MongoClient('localhost', 27017)
db = mongo_client['example_db']
collection = db['example_collection']

# Получение данных из Redis
data = redis_client.get('key')
if not data:
# Если данных нет в Redis, получить их из MongoDB
data = collection.find_one({'_id': 'key'})
# Сохранить данные в Redis для кэширования
redis_client.set('key', data)


Ставь 👍 и забирай 📚 Базу знаний

DevOps | Вопросы собесов

22 Dec, 16:10


🤔 Где лучше всего хранить state?

State лучше хранить в управляемых внешних хранилищах, таких как базы данных или распределённые системы (Redis, Consul). Это упрощает масштабирование и сохраняет данные при перезапуске контейнеров. Использование локального хранилища не рекомендуется из-за рисков потери данных.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚 Базу знаний

DevOps | Вопросы собесов

22 Dec, 09:10


🤔 Что нужно сделать чтобы после того как вы создали репозиторий с этим репозиторием можно было работать?

После создания нового репозитория, будь то локальный или удаленный, необходимо выполнить несколько шагов для начала полноценной работы с ним. Эти шаги включают инициализацию репозитория, настройку удаленного репозитория, добавление файлов, коммит и настройку синхронизации с удаленным репозиторием.

🚩Основные шаги

1⃣Создание нового репозитория
Перейдите на GitHub и войдите в свой аккаунт. Нажмите на кнопку "New" для создания нового репозитория. Введите имя репозитория, описание (опционально), выберите публичный или приватный доступ, инициализируйте с README (если нужно). Нажмите "Create repository".

2⃣Клонирование или инициализация репозитория
Если репозиторий уже существует на GitHub
git clone https://github.com/yourusername/your-repository.git
cd your-repository


Если вы создаете новый локальный репозиторий
mkdir your-repository
cd your-repository
git init


3⃣Добавление файлов и коммит начального состояния
Создайте или добавьте файлы
echo "# Your Repository" > README.md   


Добавьте файлы в индекс
git add README.md   


Сделайте первый коммит
git commit -m "Initial commit"   


4⃣Настройка удаленного репозитория
Если вы инициализировали локальный репозиторий, вам нужно настроить удаленный репозиторий.
git remote add origin https://github.com/yourusername/your-repository.git


5⃣Пуш изменений в удаленный репозиторий
Отправьте ваши изменения в удаленный репозиторий
git push -u origin master


🚩Дополнительные шаги для совместной работы

1⃣Создание веток
Для разработки новых функций или исправлений багов рекомендуется создавать отдельные ветки
git checkout -b feature-branch   


2⃣Создание Pull Request (PR)
После завершения работы в ветке создайте Pull Request на GitHub для обзора и слияния.

3⃣Настройка файлов `.gitignore`
Добавьте файл .gitignore для исключения ненужных файлов из коммитов.
echo "node_modules/" > .gitignore
git add .gitignore
git commit -m "Add .gitignore"


4⃣Настройка CI/CD
Подключите сервисы Continuous Integration/Continuous Deployment, такие как GitHub Actions, Travis CI или Jenkins, для автоматизации тестирования и развертывания.
# Пример файла .github/workflows/ci.yml для GitHub Actions
name: CI

on: [push, pull_request]

jobs:
build:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v2
- name: Set up Node.js
uses: actions/setup-node@v2
with:
node-version: '14'
- run: npm install
- run: npm test


Ставь 👍 и забирай 📚 Базу знаний