Компания "Kaiten"
Kaiten – сервис для управления рабочими процессами, проектами и командами.
Он был создан как более гибкая альтернатива физическим канбан-доскам и уже существующим сервисам управления задачами. Основная задумка была в том, чтобы создать инструмент, который поможет командам и менеджерам фокусировать внимание на достижении целей компании, чтобы каждый сотрудник видел прямую связь между своими задачами и этими целями. Иначе говоря, перейти от трекинга задач к эффективному управлению процессами. Инструмент был основан на философии Kanban, но впоследствии мы расширили его для применения других гибких подходов (например, Scrum).
Kaiten создает небольшая и полностью распределенная команда самостоятельных и инициативных специалистов. Отсутствие бюрократии, открытое общение и оптимизированные рабочие процессы позволяют нам быстро развивать продукт и адаптироваться под меняющиеся условия рынка.
Обязанности:
Разрабатывать, развивать и поддерживать масштабируемые ETL/ELT конвейеры для сбора, обработки и трансформации данных из различных источников в наш data lake и другие платформы.
Создавать и поддерживать озеро данных, интегрируя данные из множества внутренних и внешних источников.
Сотрудничать с менеджером AI направления.
Оптимизировать существующую архитектуру данных для масштабируемости и производительности, обеспечивая надежность в процессе извлечения, хранения и обработки данных.
Тесно сотрудничать с кросс-функциональными командами для понимания их потребностей в данных и предоставления аналитики для бизнес-решений.
Участвовать в улучшении нашей инфраструктуры данных путем оценки и внедрения новых инструментов и технологий.
Опыт работы: Более 2 лет опыта в области Data Engineering, включая разработку ETL/ELT конвейеров.
Языки программирования: Понимание Python и SQL. Опыт работы с PySpark будет плюсом.
Технологии Big Data: Опыт работы с архитектурами data lakes, инструментами big data, такими как Apache Spark, Hive и Apache Kafka. Будет плюсом:
Опыт работы с рабочими процессами машинного обучения, подготовки данных для моделей AI/ML.
Знание облачных сервисов, таких как AWS Redshift, Google BigQuery.
Опыт настройки API для интеграции данных.
Опыт работы с PySpark.
05 Декабря
Солнечногорск
Компания "Камоцци Пневматика" Обязанности: Разработка документации на программное обеспечение для электронных блоков: Техническое...
05 Декабря
Инженер отдела гарантии и сервисного обслуживания
Солнечногорск
Компания "Камоцци Пневматика" Обязанности: обработка статистических сведений по гарантийному и сервисному сопровождению работа с...
05 Декабря
Солнечногорск
от 100 000 руб.
Компания "НПО Экосистема" Обязанности: Проведение технологического обследования Анализ исходных данных, подготовка технических отчетов;...
05 Декабря
Администратор проектов IT( Ростелеком - Центры обработки данных )
Москва
Компания "Ростелеком - Центры обработки данных" Ключевые задачи: Подготовка и обеспечение согласования документов договорной работы,...
05 Декабря
Инженер-технолог (металловедение и термическая обработка металлов)
Мытищи
от 130 000 руб.
Компания "ФГБУ Всероссийский научно-исследовательский институт автоматики им. Н.Л. Духова" Обязанности: Разработка технологических процессов...
Вакансия размещена в отрасли