Data Science | Тесты @easy_ds_tests Channel on Telegram

Data Science | Тесты

@easy_ds_tests


Сайт: easyoffer.ru

Реклама: @easyoffer_adv

Готовься к собесам - t.me/+RQVnIJT__Z42ZWUy
Ищи работу - t.me/+Ir52wMvyEgo5YWIy

Data Science | Тесты (Russian)

Добро пожаловать в канал "Data Science | Тесты"! Если ты увлечен миром науки о данных и хочешь проверить свои знания, то этот канал - для тебя. Здесь ты найдешь разнообразные тесты, которые помогут тебе узнать, насколько хорошо ты разбираешься в области Data Science.

Канал предлагает не только интересные и полезные тесты, но также дает возможность подготовиться к собеседованиям по теме Data Science и поможет в поиске работы в этой сфере.

Не упусти свой шанс стать экспертом в Data Science! Присоединяйся к каналу "Data Science | Тесты" прямо сейчас и начни свой путь к новым знаниям и успеху.

А для более подробной информации и рекламы обращайтесь на сайт easyoffer.ru или воспользуйтесь контактами для рекламы: @easyoffer_adv. Готовься к собеседованиям - перейди по ссылке t.me/+RQVnIJT__Z42ZWUy. И если ищешь работу в сфере Data Science, тебе сюда: t.me/+Ir52wMvyEgo5YWIy.

Data Science | Тесты

06 Jan, 16:10


🤔 Что такое метод максимизации правдоподобия?

Это статистический метод оценки параметров модели.
1. Идея состоит в нахождении параметров, которые максимизируют вероятность наблюдения данных при заданной модели.
2. Часто используется в задачах регрессии, классификации и моделирования вероятностей.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

05 Jan, 16:10


🤔 Почему в картинках используют Standard Scaling вместо MinMax Scaling?

Standard Scaling (z-score normalization) чаще используется для обработки изображений, поскольку:
1. Он центрирует данные вокруг нуля и масштабирует их на основе стандартного отклонения, что улучшает производительность моделей, чувствительных к масштабам.
2. MinMax Scaling, преобразующий значения в диапазон [0, 1], может терять информацию о дисперсии пикселей.
3. Standard Scaling более устойчив к изменению контрастности и яркости изображений.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

04 Jan, 16:10


🤔 Где использование линейных моделей целесообразно?

Линейные модели применяются, когда данные линейно разделимы или зависимости между признаками и целевой переменной близки к линейным.
1. Они эффективны на высоких объёмах данных благодаря низкой вычислительной сложности.
2. Хорошо интерпретируемы, что важно в задачах с требованием объяснимости.
3. Используются в случаях, когда признаки предварительно масштабированы и очищены.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

03 Jan, 16:10


🤔 Какие значения может давать предсказание модели?

1. Для задачи классификации — вероятности классов или метки классов.
2. Для задачи регрессии — числовые значения.
3. Сложные ансамблевые модели могут давать средние или взвешенные значения нескольких прогнозов.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

02 Jan, 16:10


🤔 Какие есть 2 случайности в обучении модели случайного леса?

1. Случайность в выборе подмножества данных: для каждой модели дерева случайный лес использует метод bootstrap, выбирая случайные подмножества обучающего набора.
2. Случайность в выборе признаков: на каждом узле дерева выбирается случайное подмножество признаков для поиска лучшего разбиения.
Эти случайности способствуют снижению переобучения и повышению обобщающей способности модели.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

01 Jan, 16:10


🤔 Что будет с целевой меткой с предсказаниями, если обучалась на неотрицательной целевой метке?

Если модель обучалась на неотрицательной целевой метке (например, значение продаж), она, как правило, будет предсказывать неотрицательные значения.
Однако модель может выдавать отрицательные значения в случае:
• Регрессионных задач без ограничений, если данные недостаточно информативны.
Для устранения этой проблемы применяют методы, такие как регуляризация или трансформация целевой переменной.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

31 Dec, 16:10


🤔 Почему нельзя использовать дерево, если переменная непредобработана?

Деревья принимают решения на основе пороговых значений, и непредобработанные переменные могут привести к неверным или неэффективным разбиениям.
1. Категориальные переменные без кодирования (например, текст) не могут быть обработаны деревьями.
2. Пропущенные или масштабно несбалансированные данные могут искажать результаты.
Предобработка помогает улучшить качество разбиений и повысить производительность модели.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

30 Dec, 16:10


🤔 Почему нейронные сети усложняют добавлением слоёв, а не количеством нейронов в слое?

1. Добавление слоёв увеличивает глубину: Это позволяет моделировать более сложные зависимости и иерархические признаки (например, в изображениях).
2. Слишком много нейронов в одном слое приводит к избыточности: Сеть может переобучаться или не быть эффективной.
3. Слои способствуют обучению на разных уровнях абстракции: Например, начальные слои выделяют простые признаки (линии, края), а более глубокие — сложные (объекты).
4. Увеличение количества нейронов вместо слоёв может повысить вычислительную сложность без значительного увеличения эффективности.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

29 Dec, 16:10


🤔 Почему в нейронных сетях нельзя инициализировать веса нулями?

1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

28 Dec, 16:10


🤔 Разница между K-Means и KNN

1. K-Means (кластеризация):
o Используется для группировки данных в кластеры на основе схожести.
o Это алгоритм обучения без учителя.
o Результат — центры кластеров, данные распределяются вокруг них.
2. KNN (K-Nearest Neighbors):
o Алгоритм классификации или регрессии, находящий ближайших соседей для прогнозирования.
o Это алгоритм обучения с учителем.
o Результат зависит от разметки данных (меток классов).


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

27 Dec, 16:10


🤔 В чём разница между методом GMM и K-Means?

1. K-Means:
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

26 Dec, 16:10


🤔 Как систематическая ошибка и дисперсия связаны между собой?

Систематическая ошибка (bias) и дисперсия (variance) образуют компромисс: уменьшение одной часто увеличивает другую. Высокая bias связана с недообучением, а высокая variance — с переобучением. Баланс между ними достигается через выбор подходящей модели, настройки гиперпараметров и использования регуляризации.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний

Data Science | Тесты

25 Dec, 16:10


🤔 В чем разница между L1 и L2 регуляризацией?

L1-регуляризация (Lasso) добавляет сумму модулей весов к функции потери, склоняя веса к нулю, что способствует разреженности. L2-регуляризация (Ridge) добавляет сумму квадратов весов, уменьшая их величину, но не зануляя. L1 эффективна для отбора признаков, а L2 — для стабилизации модели и борьбы с переобучением.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний