Latest Posts from Data Science Jobs (@datascienceml_jobs) on Telegram

Data Science Jobs Telegram Posts

Data Science Jobs
админ - @haarrp

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

РЕЕСТР РКН: clck.ru/3Fmrbd
18,131 Subscribers
22 Photos
381 Videos
Last Updated 11.03.2025 09:00

Similar Channels

Dev & ML Connectable Jobs
14,782 Subscribers
Knowledge Accumulator
5,127 Subscribers
DATApedia | Data science
3,547 Subscribers

The latest content shared by Data Science Jobs on Telegram

Data Science Jobs

03 Mar, 13:27

2,182

Вакансия: Data Engineer

Всем привет! 😊
Ищем Data Engineer для небольшого бизнеса, где важны результаты, а не формальности и бюрократия. У нас никакого хардкорного enterprise, главное — реализация и работающие решения.

🔹 Занятость: проектная с возможностью долгосрочного сотрудничества
🔹 Формат: удалённый, гибкий график
🔹 Оплата: обсуждается, в зависимости от опыта и компетенций

Задачи:
🔹 Разработать систему загрузки, хранения и управления данными (файлы, API, сайты)
🔹 Развернуть и настроить инструменты для обработки данных (ориентировочный стек: Prefect, Airbyte, Redis, PostgreSQL, Minio, ClickHouse)
🔹 Оптимизировать процессы работы с данными
🔹 Проектировать базы данных для эффективного хранения и обработки информации

Что важно:
🔹 Умение проектировать и оптимизировать базы данных
🔹 Ответственность и нестандартный подход к решению проблем
🔹 Навыки работы с указанным стеком (или готовность быстро освоить новые инструменты)
🔹 Готовность обсуждать стек технологий и предлагать альтернативные решения
🔹 Ориентация на результат, а не на формальные процессы

Что предлагаем:
🔹 Гибкий график без микроменеджмента
🔹 Достойную оплату, обсуждаемую индивидуально
🔹 Возможность долгосрочного сотрудничества
🔹 Интересный проект с перспективами развития
🔹 Минимум бюрократии — максимум практических решений 🚀

Если вы заинтересованы, пожалуйста, свяжитесь с нами через Telegram: @IlyaNikolaev
Data Science Jobs

28 Feb, 01:56

2,995

Ищем Data Engineer (Middle/Middle+/Senior) в аутстафф-компанию Top Selection для работы над зарубежным ритейл-проектом.
Грейд: Senior
Название компании: Top Selection

Локация: Не важно
Часовой пояс: МСК
Предметные области: ритейл
Формат работы: Удалёнка

Тема проекта: Мы ищем Data Platform Engineer с опытом работы в Microsoft Fabric или Databricks для построения и оптимизации дата-платформы в ритейле.
Основная задача – разработка облачной платформы обработки данных, интеграция с различными источниками и аналитика в реальном времени.

Работа в ритейле требует глубокого понимания данных о продажах, цепочке поставок, потребительском поведении и управлении товарными запасами.

Зарплата: По запросу

Обязанности:
Ключевые обязанности (MS Fabric):
- Проектирование архитектуры данных на Microsoft Fabric (OneLake, Lakehouses, Synapse Data Warehouse, Power BI).
- Разработка и внедрение ETL/ELT-конвейеров данных (Fabric Data Pipelines, Azure Data Factory).
- Оптимизация хранения и обработки данных в OneLake и Lakehouses.
- Настройка Real-Time Analytics (анализ транзакций, логистика, продажи в режиме реального времени).
- Интеграция с Power BI и построение семантических моделей.
- Оптимизация SQL-запросов для больших объемов данных в Synapse Data Warehouse.
- Автоматизация CI/CD-конвейеров (Azure GitOps).
- Обеспечение безопасности данных и соответствие стандартам работы с персональными и коммерческими данными.

Технологии, с которыми предстоит работать:
- Microsoft Fabric:
- OneLake (облачное lakehouse-хранилище данных)
- Lakehouses (совмещение Data Lake и традиционных DWH)
- Data Pipelines (аналог Azure Data Factory)
- Synapse Data Warehouse (облачный аналитический движок)
- Real-Time Analytics (потоковая обработка данных)
- Power BI & Semantic Models (бизнес-аналитика)
- KQL (Kusto Query Language) для анализа событий и логов
- DevOps & CI/CD:
- Azure GitOps, YAML-пайплайны
- Автоматизированное развертывание и управление инфраструктурой данных

Требования:
- Практический опыт работы с Microsoft Fabric или Databricks (или другим релевантным облачным стеком).
- От 2 лет опыта в data engineering и облачных хранилищах данных.
- Глубокие знания SQL, Python, Spark/PySpark, T-SQL.
- Опыт оптимизации SQL-запросов и работы с большими объемами данных.
- Понимание архитектуры баз данных и lakehouse-концепции.
- Опыт работы с ETL/ELT-процессами, DataOps, CI/CD для данных.

Пожелания:
Будет плюсом:
- Опыт работы с потоковыми данными (Kafka, Event Hubs, Stream Analytics).
- Знание ритейл-данных (ценообразование, товарные запасы, программы лояльности).
- Опыт работы с Delta Lake, Databricks ML.
- Оптимизация SQL-запросов и настройка кластера Spark.

Сертификации (желательно):
- Microsoft Certified: Fabric Analytics Engineer Associate
- Microsoft Certified: Azure Data Engineer Associate
- Databricks Certified Data Engineer Associate/Professional

Контактные данные: @mherchopurian / @remoteanalytics

#вакансия #DataEngineer #Middle #MSFabric #Databricks #Удаленно
Data Science Jobs

26 Feb, 09:05

2,955

Всем привет! #удаленка #middle #senior #аналитик #sa #вакансия #рф
Компания: Netbell
Локация: РФ
Формат работы: удаленный на территории РФ
Вакансия: Системный Аналитик


Мы ищем Middle/Middle+/Senior системного аналитика для работы над флагманским корпоративным финтех-проектом.

Если ты только начинаешь свой путь в системной аналитике и хочешь попробовать свои силы на реальных проектах, не стесняйся направлять резюме, мы рассмотрим твою кандидатуру!

С нас — современный стек и архитектура, дружная команда профессионалов и достойный оклад. От вас — опыт работы системным аналитиком от 3-х лет, интерес к финтеху и готовность к вызовам.

Что предстоит делать:

Заниматься только системной аналитикой!
Работать в продуктовой scrum-команде
Моделировать бизнес-процессы и сценарии
Проектировать систему и интеграции
Управлять требованиями, ставить и сопровождать задачи на разработку
Участвовать в дейликах, планированиях, демо, общаться с людьми (вы не ослышались)

Наши ожидания:
Опыт работы в системном анализе от 3х лет на корпоративных проектах
Опыт работы в scrum (или около-scrum) командах
Понимание принципов микросервисной архитектуры.
Желание погружаться в сложные процессы и современные решения

🚩Надо знать: BPMN, REST API, Kafka, ERD, SQL, Sequence Diagram, оркестровка и хореография.

Будет плюсом: Camunda, ArchiMate, GraphQL, CJM, S&T diagram. Знаете о DDD? Просто отлично

Что мы предлагаем:

Полная удалёнка
Аккредитованная ИТ-компания
Интересный продукт, современный стек, микросервисная архитектура
Известные клиенты из ТОП-10 в своих сегментах
Прокачка скиллов под руководством лидов с 8+ лет опыта
Достойный оклад по итогам собеседования + ежеквартальный сбор ОС с премированием лучших сотрудников
Возможность взять на себя дополнительные задачи за соответствующее вознаграждение
Премии за менторство младших сотрудников
Ежеквартальные бонусы и подарки лучшим сотрудникам

Ключевые навыки:
Agile / REST API / System Analysis / BPMN 2.0 / Camunda / Apache Kafka / Use case / БД / User Story / sequence diagram

Вилка: до 320к
Контакты:
@annasoma
Data Science Jobs

26 Feb, 07:01

1,702

Авито ищет опытных DS-специалистов — пройдите ускоренный отбор и получите оффер за одни выходные!

Вас ждет:
— конкурентная зарплата и удаленка по всему миру;
— возможность прокачать свой стек – разрабатывать инструменты монетизации, автоматизировать алгоритмы, реализовывать ML-проекты и улучшать пользовательский опыт;
— участие в разработке новых продуктов и сильное IT-комьюнити, которое любит опенсорс.

Успейте присоединиться к Data Science Weekend Offer до 27 февраля и развивайте крупнейший в мире сервис объявлений: https://u.to/77oDIg
Data Science Jobs

25 Feb, 18:12

2,722

#вакансия #ML #LLM #fulltime #РФ #Middle+ #senior

Вакансия: ML-инженер с экспертизой в LLM
Компания: Ekleft (розница)
Оформление: ИП
Вилка: до 390.000 на руки
Локация: РФ (❗️)

📌 Что мы ждем:
- Опыт работы в Machine Learning (ML) от 3 лет
- Глубокое понимание Large Language Models (LLM), опыт интеграции в бизнес-процессы
- Опыт работы с нейросетевыми моделями для обработки естественного языка (NLP), такими как GPT, BERT, T5 и их аналогами
- Умение анализировать и обрабатывать данные: очистка, аннотирование, балансировка
- Знание инструментов для автоматического аннотирования данных
- Опыт построения ML-пайплайнов (MLOps) и их интеграции с продуктами

📌 Обязанности:
1. Обучение моделей для автоматизации обработки обращений
a. Анализ существующих LLM и выбор оптимальной модели
b. Создание и тестирование промтов для существующих и новых классов
c. Обработка и очистка данных, если потребуется

2. Классификация отзывов и прогнозирование
a. Разработка пайплайна на основе LLM для классификации отзывов с различных платформ
b. Построение ML-моделей для прогнозов в отчетности на основе исторических данных

3. Разработка инструментов аннотирования данных
a. Автоматизация аннотации данных
b. Улучшение моделей с учетом контекста (не обучение с нуля, а доработка пайплайнов)

4. Интеграция моделей в бизнес-процессы
a. Настройка классификации обращений и ответов
b. Разворачивание и интеграция с сервисами

5. Оценка качества генерации текста
a. Разработка и настройка метрик качества (BLEU, ROUGE, перплексия)
b. Оценка качества промтов

6. Работа с voice-ботами
a. Автоматизация обучения voice-бота с использованием LLM
b. Возможный переход на ru-BERT

📌 Технические навыки:
- ML-фреймворки: PyTorch, TensorFlow
- NLP-библиотеки: Hugging Face Transformers, SpaCy, NLTK
- MLOps: MLflow, Kubeflow, Docker, Airflow
- Обработка данных: pandas, NumPy, scikit-learn
- Развертывание и интеграция: FastAPI, Flask, gRPC
- Работа с БД: PostgreSQL, MongoDB, ElasticSearch
- Желательно: опыт работы с LLM API (OpenAI, Cohere, Llama, Claude) Soft skills
- Умение взаимодействовать с бизнес-командами и определять требования
- Способность самостоятельно формулировать задачи и находить решения
- Опыт работы в Agile (Scrum/Kanban)

☎️ Контакты: @AnyaSechkova
Data Science Jobs

24 Feb, 19:07

2,717

Аналитик DWH
Грейд: Middle
Название компании: Itvolna.tech

Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы

Тема проекта: БОПОС

Зарплата: 302 000 гросс

Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.

Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.

Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.

Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.

Контактные данные: 📱@alarionova_volna

#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
Data Science Jobs

24 Feb, 10:12

2,504

#вакансия #DataEngineer #Middle #Senior #fulltime #удаленно #аутсорс

Ищем I Data Engineer I Middle+, Senior I Аутсорсинговая компания Top Selection

📌Уровень: middle+ / Senior

Срок привлечения: 3 месяца с возможностью продления.
Локация: РФ
ЗП:middle 200-250К на руки
Senior 350-390К на руки
Загрузка: fulltime
Оформление: как ИП
Проект: Российская сеть розничных магазинов.

📝Обязательные требования:

●Apache (Spark, Hive, Airflow) - опыт от 1 года
●Yandex Cloud - опыт 1 год
●Python - опыт от 1 года
●SQL - опыт от 1 года
●Linux - опыт от 1 года
●Docker - опыт до 1 года
●Streaming - опыт 1 год

Стек: Docker, K8S, Linux, Cloud, Terraform.

📲Контакты:
@irazhura87
Data Science Jobs

24 Feb, 08:02

2,612

#работа #вакансия #Middle #System #Analyst #Zabbix

☁️Позиция: Системный аналитик Zabbix
🏙Компания: HuntTech
💰зп: вилка: 260 - 325тр
📅формат работы: гибрид 50/50
📶Локация\Гражданство: РФ
занятость: Full-time
Контакт: @Feeelinggoood

📌Что предстоит делать:
- Сбор, формирование и подготовка функциональных требований, технических заданий на разработку/доработку автоматизированных систем;
- Настройка (совместно с техническими специалистами) компонентов вычислительной и прикладной инфраструктуры на площадке Заказчика;
- Участие в формировании списка задач для отдельных команд и рабочих групп;
- Разработка проектных решений и проектной документации;
- Подготовка технико-коммерческих предложений, спецификаций на оборудование и ПО, техническая поддержка пресейлов.

🔺Мы ждем от кандидата:
- Базовые навыки администрирования серверов Windows и Linux, либо уверенный пользователь;
- Опыт участия в проектах в роли ведущего специалиста, аналитика, архитектора или ИТ-лидера по направлению (системы мониторинга);
- Опыт проектирования инструментов мониторинга – Grafana, Zabbix, Elasticsearch/OpenSearch, Prometheus;
- Понимание технологии REST API, опыт построения sql-запросов;
- Опыт описания бизнес-процессов в нотации UML/BPMN;
- Опыт сбора, анализа и формализации функциональных требований, требований к изменениям в бизнес-процессе.

Будет плюсом:
Опыт работы с системами класса CI/CD (GitLab CI, Jenkins, Argo CD и проч.), опыт автоматизации (на любом скриптовом языке программирования), опыт работы с высоконагруженными системами в отказоустойчивой конфигурации.

✉️ Как присоединиться к команде?
Если вы готов принять вызов и стать частью нашей команды -пиши: @Feeelinggoood
Data Science Jobs

22 Feb, 13:02

2,729

#vacancy #data #lead #Databricks #AWS #remote #вакансия #удаленно #relocate

Коллеги, привет!
Я в поисках Data Engineering Lead в международную финтех компанию в ЮВА.
Стек: AWS, Databricks, Spark, Terraform, Airflow, Python, Scala
Удаленный формат работы ( или гибрид). Рабочая тайм зона UTC+5/UTC+9 ( и очень важно либо уже находиться там, либо быть готовым к релокации ( поддержка переезда для сотрудника и семьи)

Основные задачи:
- Проектирование и разработка Data Lakes и Data Marts на AWS и Databricks
- Построение и управление ETL-пайплайнами в Airflow/Dagster на Python и Scala
- Автоматизация инфраструктуры с Terraform
- Оптимизация производительности BI-слоев и data pipelines
- Развивитие фреймворков качества данных для надежной аналитики
- Управление командой Data инженеров

Что важно:
- Опыт с Databricks, Spark, Terraform, Airflow, AWS, Python, Scala (как плюс)
- Опыт создания масштабируемых Data решений
- Опыт решения инфраструктурных задач
- Опыт в роли Lead/Head of Data

На все вопросы готова ответить в ЛС @akimova_hr
Data Science Jobs

22 Feb, 09:15

2,499

#вакансия #vacancy #fulltime

Архитектор данных (DWH)

Лидера рынка ритейла (не РФ) с более чем 150 маркетами по всей стране в поиске Архитектора данных (DWH) для участия в проекте по внедрению централизованного хранилища данных.

Основные задачи:
– Участие в проекте по внедрению централизованного DWH в роли Архитектора и лидера команды разработки;
– Взаимодействие с бизнес-пользователями и подрядчиками для сбора и уточнения требований к DWH;
– Разработка архитектуры хранилища данных, включая проектирование слоев, потоков и моделей данных;
– Проведение архитектурного надзора, управление данными и проведение code review;
– Подготовка технической и методологической документации;
– Контроль проектных сроков и рисков совместно с Руководителем/Менеджером проекта;
– Координация работы команд разработки в процессе реализации DWH;
– Участие в тестировании и приемке системы заказчиком;
– Оптимизация процессов ETL для работы с большими объемами данных;
– Организация мониторинга качества данных и внедрение инструментов для отслеживания инцидентов.

Требования:
– Опыт проектирования архитектуры Хранилищ Данных (ХД), слоев ХД, ЛМД и ФМД, интеграционных решений и потоков трансформации данных (ETL/ELT);
– Практический опыт работы с СУБД, Data Lake, modern data stack на базе облачных технологий (сертификация Azure — плюс), ETL-инструментами (Data Factory и другие), BI-инструментами (будет плюсом);
– Опыт работы в роли архитектора DWH или Data Lake от 2 лет (обязательно);
– Понимание архитектуры данных в ритейле или e-commerce (желательно);
– Знание и практический опыт работы с платформой Microsoft Azure Fabric;
– Уверенный английский для общения со стейкхолдерами и ведения деловой переписки;
– Опыт работы с техническим стеком SAP (например, SAP BW on Hana) — плюс;
– Готовность к работе on-site в Ташкенте минимум 50% времени (релокация — плюс).

Мы предлагаем:
– Помощь с релокацией + Релокационный пакет;
– Ежегодные премии по результатам Performance Review;
– Масштабные корпоративные мероприятия и митапы;
– Партнерские программы обучения иностранным языкам и профессиональным навыкам;
– Программу материальной помощи в различных жизненных ситуациях;
– Поддержку ментора для быстрой адаптации новых сотрудников

Контакт для отклика на вакансию @haas_mari