Últimas Postagens de Data jobs feed (@datajobschannel) no Telegram

Postagens do Canal Data jobs feed

Data jobs feed
Data Engineers
Обсуждение https://t.me/datajobs
Для связи: @krivdathetriewe @pomadchin @usualreptiloid @zuynew @sytkinvtb
Реклама: https://telegra.ph/Reklama-v-Hadoop-Users-10-28
9,067 Inscritos
89 Fotos
4 Vídeos
Última Atualização 11.03.2025 07:37

O conteúdo mais recente compartilhado por Data jobs feed no Telegram

Data jobs feed

07 Mar, 12:26

1,430

#вакансия #job #vacancy #remote #parttime #преподаватель #educator #dwh #data #analyst

Компания: OTUS – EdTech платформа.

Вакансии:
Преподаватель и наставник онлайн-курса «Data Warehouse Analyst». Интересные темы по программе курса можно выбирать. Материалы к занятиям есть.

Преподаватель раскрывает тему урока с помощью теории и примеров из практики, может проверять домашние задания.

Наставник проверяет домашние задания и дает письменный фидбэк, помогает студентам разобраться в материале.

Эта вакансия предполагает дополнительную частичную занятость. Важен практический (коммерческий) опыт работы по тематике курса и желание им делиться. Можно без опыта преподавания. Мы с удовольствием поможем Вам освоить Best Practices преподавания: для этого у нас есть вводный курс по преподаванию и пробные уроки с методистом.

Условия:
удаленное сотрудничество, занятость part-time, можно совмещать с основной работой.
интересные Вам темы по программе курса и комфортную для себя нагрузку можно выбирать.
от 4000 до 6000 руб. за проведение одного вебинара (полтора часа), плюс отдельно оплачивается доработка/ актуализация материалов, проведение открытых уроков и другие активности.
от 300 до 400 руб. за проверку 1-го домашнего задания. Можно выбрать нагрузку и проверять от 5 до 10 домашних заданий в неделю.
стандартное занятие длится 1,5 часа с 20:00 до 21:30 по МСК.
уроки проводятся в онлайн формате на mts-link ru.
на занятиях используется презентация с теорией и практические примеры, чтобы раскрыть тему урока.
наши методисты помогают освоить лучшие инструменты и практики преподавания.

Еще Вы сможете:
внести свой вклад в развитие IT.
структурировать свой опыт и знания.
развивать личный бренд.
прокачать софт-скиллы.

Бонусы:
наши курсы со скидкой/бесплатно.
воркшопы и конференции для наших руководителей и преподавателей.

Подробнее в telegram: @ElenaAlias
Data jobs feed

07 Mar, 12:25

1,588

#вакансия #удалённо #parttime #RL #ML #NLP #преподаватель

Компания: образовательная платформа OTUS

Вакансия: преподаватель онлайн-курсов:
- Reinforcement Learning
- ML для финансового анализа
- NLP

Требуется от 3-4 лет опыта в DS и знания в области тематики курса. Темы занятий - на выбор из программы (подробнее в лс).

Можно без опыта преподавания — мы научим всему необходимому 🦉

Обязанности:
- Подготовиться к занятиям и провести их. Формат занятий: онлайн, важно уделять внимание практике. Здесь вы сможете развивать свои навыки публичных выступлений, работы с аудиторией и подачи обратной связи
- За доплату возможна проверка домашних заданий и проектов

Условия:
Занятия по будням с 20:00 до 21:30, можно оставлять пожелания по расписанию (есть дни на выбор)
Оплата: от 3000 до 6000 руб. за вебинар (полтора часа) и 300-400 рублей за проверку 1 домашнего задания, 1000 руб. за проверку 1 проекта
Бонусы: доступ к курсам OTUS, нетворкинг, развитие личного бренда, наши воркшопы и конференции

Обсудить подробнее: @yu_grin 📩
Data jobs feed

06 Mar, 12:46

1,862

🌟Привет! #вакансия #ML #MLResearcher #SeniorMLResearcher #DS #DataScientist #SeniorDataScientist #Senior #Lead #MachineLearningResearcher

Меня зовут Альбина, я IT-рекрутер агентства HuntIT. Мы в поиске ML Researcher (Senior/Lead) / Senior Data Scientist в IT-компанию 01.tech. Основные проекты компании - это высоконагруженные системы, которые каждый день обрабатывают десятки тысяч запросов в секунду, терабайты данных и привлекают и поддерживают более 100 миллионов пользователей по всему миру.

🆕 ML Researcher (Senior/Lead) (от 6 лет коммерческого опыта) - важен опыт работы именно с ттоком, рекомендательными системами, uplift, NLP

Твои задачи и зона ответственности:
Разработка, исследование и оптимизация моделей машинного обучения для различных бизнес-задач, таких как:
-Модели оттока клиентов (churn prediction).
-Оценка качества трафика и конверсии от рекламных каналов.
-Различные задачи ранжирования и рекомендации контента.
-Uplift моделирование.
-Классификация текстов.
Работа с данными разных типов: структурированными, текстовыми, временными рядами и изображениями.
Написание качественного кода обучения и инференса моделей.
Проведение исследовательских экспериментов с возможностью публикаций и выступлений на конференциях.
Сотрудничество с ML инженерами и MLOps для интеграции моделей в продакшн.


⚡️Hard skills:
Опыт работы и доведения до продакшна моделей в релевантных нам областях: отток, рекомендательные системы, uplift, NLP.
Знание Python на уровне написания кода вне ноутбуков, применяя принципы ООП.
Знание популярных библиотек машинного обучения (scikit-learn, XGBoost, LightGBM, CatBoost).
Опыт работы с глубокими нейронными сетями, знание Pytorch, опыт обучения трансформеров.
Знание SQL.


Желательно:
опыт работы с инструментами для управления экспериментами.
опыт работы в AWS

⚡️Условия:
➡️ Релокационный пакет в Сербию с гибридным посещением офиса или полная удаленка;
➡️ ДМС в РФ со стоматологией после испытательного срока;
➡️ Компенсация занятий в фитнес-зале и английского языка;
➡️ Корпоративы, тимбилдинги, мастер-классы и т.д.;

💌Присылать резюме можно напрямую в лс @huntitalbina

К великому сожалению, не готовы рассматривать людей, занимающихся проектами на фрилансе из-за другой специфики🙌
Data jobs feed

05 Mar, 20:37

2,221

Привет, нужна помощь экперта!

Примерный фокус по задачам:

* поднять k8s с нуля на baremetal
- нужен unicorn scheduler
- нужен шейпинг network

* нужно иметь возможность поднять minicube на локальном ноутбуке
(для быстрых запусков и локальной разработки)

* используем puppet (опционально ansible)

Требуется поднять софт в k8s (+в миникуб):

* spark в k8s
- запуск спарк-аппов с любой версией python3
- spark-sql over parquet/iceberg
- dynamic allocation для spark-джобов

* minio для локального тестирования s3-хранилки
- airflow, настроить k8s-python-operator
т.е. шедуллер аирфлоу стартует контейнер, выделяется под,
отрабатывает джоба,
по ее завершению - все ресурсы освобождаются

* kafka
- работающий kafka spark streaming
- запись даных в apache iceberg

Нужен эксперт, или для разовой работы (чтобы быстро стартануть этот стек),
или для постоянного сотрудничества

Подробнее можем обсудить в личке @DmitriyS28
Data jobs feed

04 Mar, 20:16

2,241

Role Overview:

We are looking for a talented and passionate Senior Data Engineer to join our team. In this role, you'll be at the heart of our AI pipeline, ensuring seamless integration, scalability, and reliability of our data processes.


Key Responsibilities and Skills:

- Integrate and Scale: Extend, scale, monitor, and manage our ever-growing pile of 100s of integrations. Ensure they are reliable and responsive.
- Own the Integrations: Implement new connections and be the master and owner of these integrations.
- Optimize AI Pipelines: Ensure our AI pipeline works like clockwork. Improve and support its complex infrastructure.
- ML Experience: Practical experience with ML, including classification, clustering, time series forecasting, and anomaly detection. You need to know the concept and be handly with the most common libraries
- Model Hosting and Monitoring: Host and monitor NLP models and LLM for real-time and batch inference.
- Develop Monitoring Systems: Create and support robust models for monitoring.
- Support and Innovate: Assist with a long tail of super important tasks, bringing innovative solutions to the table.


Qualifications:

- Python Proficiency: Strong Python skills with experience in building and monitoring production services or APIs. Experience with third-party APIs is essential.
- Data Pipelining: Experience with SQL, ETL, data modeling. Experienced with the lifecycle of building ML solutions
- Speak AI language: Understand the fundamentals of ML/AI and communicate effectively with AI and Data Scientists.
- Infra: Deep Knowledge of Docker, Git, cloud networking, and cloud security for services and infrastructure. Experience with Kubernetes (K8S) is a plus.
- Cloud Expertise: Familiarity with AI infrastructure on AWS and GCP, including Sagemaker, Vertex, Triton, and GPU computing.
- Bonus Points: Experience with Airbyte is a significant advantage.


Perks and Benefits:

- Fully Remote: Freedom to work from anywhere in the world with flexible core working hours. 🏠
- In-person Meetups and Regular Team-building Remote Events: Enjoy in-person meetups and monthly game sessions for team bonding. 🎉
- Generous Vacation: Benefit from our comprehensive vacation policy. 🏝️
- Growth Opportunities: Access continuous professional development and growth support. 📈
- Dynamic Culture: Be part of a vibrant, inclusive, and energetic company culture. 🌟
- Stock Options: Participate in our stock options program in this early-stage, fast-growing startup. 💼


About Anecdote:

Anecdote is an innovative, AI-first startup revolutionizing how companies analyze customer feedback. Our AI-powered platform consolidates feedback from app reviews, support chats, surveys, and social media into a single, easily accessible space. This enables companies like Grubhub, Dropbox, and Careem to collect and derive actionable insights and deliver a better, real-time customer experience that drives sustainable growth.

We are backed by top investors, including Neo, Sukna, Race Capital, Propeller, and Wamda, having raised $3.5m to date. Partnering with industry leaders like OpenAI and Nvidia, we enhance our platform's accuracy and quality, setting us apart in the market.


Contacts
[email protected]
Data jobs feed

04 Mar, 13:38

2,231

Вакансия: Head of Analytics
Компания: EVA Real Estate - динамично развивающееся агентство недвижимости в Дубае. Мы сотрудничаем с такими известными застройщиками, как EMAAR, Dubai Holding, SOBHA Realty, DAMAC и многими другими.

Основная цель — создать и поддерживать мощную аналитическую инфраструктуру, способную обеспечить точные и своевременные данные для принятия управленческих решений.
Основные обязанности:
- Разработка и поддержка системы отчетности и дашбордов в Power BI для отслеживания бизнес-показателей.
- Сбор и консолидация данных из различных источников для создания комплексных аналитических отчетов.
- Автоматизация процессов сбора и обработки данных для регулярного обновления дашбордов.
- Руководство командой дата инженеров, управление рабочими процессами и распределение задач.
- Взаимодействие с различными отделами компании для понимания их потребностей в данных и создании кастомизированных решений.
- Постоянная оптимизация и улучшение существующих дашбордов и процессов визуализации данных.
- Проведение анализа данных, выявление трендов и предоставление рекомендаций для улучшения бизнес-процессов.
- Обеспечение точности и своевременности отчетности для поддержки процессов принятия решений.

Мы ожидаем от кандидата:
- Опыт работы в аналитике данных не менее 5 лет, с минимум 3 годами работы в Power BI.
- Опыт управления командой.
- Глубокие знания Power BI и его возможностей для визуализации данных и построения дашбордов.
- Опыт работы с SQL и базами данных для интеграции данных в Power BI.
- Способность решать сложные задачи по сбору, обработке и анализу данных.
- Английский язык b2.

Мы предлагаем:
- ЗП от 3000 USD на руки.
- Удаленная работа из любой точки мира.
- Контракт с юридическим лицом в Дубае.
- Оплачиваемый отпуск и больничный.
Контакты: @evsmarvl
Data jobs feed

04 Mar, 12:01

2,244

#вакансия #удалённо #parttime #преподаватель #NLP

🦉 OTUS ищет преподавателей на онлайн-курс - NLP. Advanced

Мы расширяем команду экспертов (уже более 600 человек) и ищем опытных специалистов которым интересно делиться знаниями. Преподавательский опыт не обязателен — наши методисты помогут вам освоить практики преподавания.

Требуется практический опыт по темам из программы курса (на ваш выбор).

Обязанности:
- подготовиться к занятиям (темы на выбор);
- преподавать удаленно, уделяя большое внимание практике. Здесь вы сможете развивать навыки публичных выступлений, работы с аудиторией и подачи обратной связи.

Условия:
гибкий график, легко совмещать с основной работой;
оплата от 3000 руб. за 1,5 часа занятия и 3000 за подготовку к нему;
бонусы: доступ к нашим курсам, нетворкинг, развитие личного бренда, возможность приглашать лучших выпускников в свою команду, участие в воркшопах и конференциях.

Обсудить подробнее: @HR_Nikita
Data jobs feed

28 Feb, 12:48

3,381

Вакансия: Data Engineer

Всем привет! 😊
Ищем Data Engineer для небольшого бизнеса, где важны результаты, а не формальности и бюрократия. У нас никакого хардкорного enterprise, главное — реализация и работающие решения.

🔹 Занятость: проектная с возможностью долгосрочного сотрудничества
🔹 Формат: удалённый, гибкий график
🔹 Оплата: обсуждается, в зависимости от опыта и компетенций

Задачи:
🔹 Разработать систему загрузки, хранения и управления данными (файлы, API, сайты)
🔹 Развернуть и настроить инструменты для обработки данных (ориентировочный стек: Prefect, Airbyte, Redis, PostgreSQL, Minio, ClickHouse)
🔹 Оптимизировать процессы работы с данными
🔹 Проектировать базы данных для эффективного хранения и обработки информации

Что важно:
🔹 Умение проектировать и оптимизировать базы данных
🔹 Ответственность и нестандартный подход к решению проблем
🔹 Навыки работы с указанным стеком (или готовность быстро освоить новые инструменты)
🔹 Готовность обсуждать стек технологий и предлагать альтернативные решения
🔹 Ориентация на результат, а не на формальные процессы

Что предлагаем:
🔹 Гибкий график без микроменеджмента
🔹 Достойную оплату, обсуждаемую индивидуально
🔹 Возможность долгосрочного сотрудничества
🔹 Интересный проект с перспективами развития
🔹 Минимум бюрократии — максимум практических решений 🚀

Если вы заинтересованы, пожалуйста, свяжитесь с нами через Telegram: @IlyaNikolaev
Data jobs feed

27 Feb, 08:54

3,256

#вакансия #Okko #DBA #ClickHouse #middle #senior #remote #удаленка

Вакансия: Инженер/ведущий инженер (эксплуатация баз данных ClickHouse)
Компания: Okko (okko.tv)
Формат: удалёнка fulltime, гибрид С-Пб, Москва
Требуемый опыт: от 3-х лет

Привет. Я Марина-рекрутер Okko (крупнейший онлайн кинотеатр Okko.ru).
Мы занимаемся эксплуатацией сервисов продуктовых и аналитических команд, развиваем подход предоставления инфраструктуры как сервиса, автоматизируем инструменты управления инфраструктурой. В зоне ответственности команды находятся инструменты для хранения и процессинга данных (инструменты DWH)
«Сердцем» нашей инфраструктуры хранения является Clickhouse (на 2024 год мы храним более 2ПБ данных с приростом X2 в год) и S3 в качестве холодного хранения данных. Для процессинга данных используем Trino движок, а в качестве хранилища метаданных DataHub

✔️Чем предстоит заниматься:
• Администрировать сервисы Clickhouse/Trino/DataHub;
• Обеспечивать доступность сервисов;
• Поддерживать и разворачивать инфраструктуру DWH слоя в облаке (Cloud.ru);
• Автоматизировать рутинные задачи и запросы пользователей сервисов.
Стек технологий, используемый в команде:
• Linux (Ubuntu)
• Bitbucket + Jenkins
• Ansible, Puppet, Pulumi, Helm
• Victoria Metrics, Grafana + OnCall
• Kubernetes
• Bash, Python

✔️Для нас важно:
• Опыт эксплуатации распределенных систем и баз данных;
• Навык траблшутинга проблем с сервисом/системой;
• Знание систем управления конфигурацией: Ansible или Puppet на выбор;
• Python/bash: для автоматизации рутинных задач;

✔️Почему с нами классно:
• ДМС со стоматологией, офисный врач, доплата больничного листа, корпоративные скидки;
• Льготные условия ипотеки в рамках зарплатного проекта;
• Бесплатная подписка на сервисы партнеров;
• Совместные занятия спортом: йога, футбол, волейбол;
• Насыщенная корпоративная жизнь;
• Аккредитованная IT-компания.

☀️🏖🍹

Если интересно, пиши 👉 рекрутер Марина @mchistyakova
Data jobs feed

26 Feb, 13:19

2,800

#работа #вакансия #Middle #DWH #Analyst

☁️Позиция: Аналитик хранилища данных Middle
🏙Компания: HuntTech
💰зп: вилка: 230 - 270тр
📅формат работы: удаленка
📶Локация\Гражданство: РФ/дружественные страны
занятость: Full-time
Срок проекта: долгосрочно
Контакт: @Feeelinggoood

О проекте:
Импортозамещение технологий и инфраструктуры, Команда импортозамещения ЕХД

📌 Задачи:
Выполнение роли аналитика корпоративного Хранилища данных и роли ведущего технического эксперта по миграции ХД с Oracle Exadata на Greenplum;
Участие в построении и оптимизации целевого масштабируемого отказоустойчивого аналитического ХД на базе Greenplum;
Проектирование структур данных, алгоритмов загрузки и обработки данных в ХД;
Разработка Технических Заданий, взаимодействие с бизнес-аналитиками и архитекторами других систем;
Разработка и согласование интеграционных контрактов;
Формулирование и уточнение заданий для разработчиков;
Разработка программ и методики испытаний;
Контроль всего цикла прохождения задачи от тестирования до приемки в ПРОД;
Участие в тестировании, приемка работ;
Разработка приемо-сдаточной и эксплуатационной документации.

💻 Требования:
Оконченное высшее образование технических специальностей;
Опыт работы системным аналитиком ХД от 3 лет;
Знание и опыт проектирования реляционных моделей данных от 3 лет;
Опыт написания технических заданий и эксплуатационной документации от 3 лет;
Обязателен опыт работы Oracle от 3х лет;
Обязателен опыт работы Postgresql / Greenplum 2 года:
Уверенное знание sql;
Знание подходов к разработке, документированию, тестированию ХД;
Знание методологий разработки (Agile, Scrum, Waterfall);
Коммуникабельность;
Грамотная устная и письменная речь.
Будет плюсом:
Желателен опыт работы на проектах финансовых организаций
Желателен опыт работы с Jira, Confluence, Git, Jenkins;

✉️ Как присоединиться к команде?
Если вы готов принять вызов и стать частью нашей команды -пиши: @Feeelinggoood