Привіт! 👋
Ми — QS Games, геймдев-студія, яка створює casual-ігри у жанрі ферма/сітібілдер. Наші проєкти вже зібрали сотні тисяч гравців, і зараз ми шукаємо Data Engineer, який допоможе нам ще краще працювати з даними.
Що ми пропонуємо:
Що ти будеш робити:
— Створювати та підтримувати дата-пайплайни для ігрових проєктів.
— Інтегрувати дані з різних джерел: ігрові сервери, внутрішні інструменти, аналітика.
— Працювати з дата-архітектурою: зберігання, трансформація, якість.
— Розробляти та оптимізовувати ETL-процеси.
— Забезпечувати безперервність даних між середовищами (dev/prod), включно з управлінням схемами та доступами.
— Автоматизувати процеси деплойменту та оновлення пайплайнів.
— Моніторити якість даних і стабільність потоків у реальному часі (LiveOps, ігрові івенти).
— Підтримувати аналітичні запити команди: продукт, маркетинг, UA.
— Упроваджувати best practices у роботі з даними.
— Співпрацювати з Data Analyst’ами, Game Designers, Marketing Team.
— Працювати з BI-інструментами (Power BI, Fabric).
Ми шукаємо того, хто:
— Має досвід від
— Має досвід з SQL, Python.
— Розуміє, що таке ETL/ELT і як це працює на проді.
— Має розуміння архітектури обробки даних, зокрема принципів роботи Spark, а також відмінностей між Data Lake та Data Warehouse
— Розуміння стрімінгових технологій (Event Hubs, Kafka, або подібні).
— Працював із хмарними сховищами.
— Навички роботи з Delta Lake / Lakehouse архітектурою.
— Знає основи побудови архітектури даних і розуміє, навіщо тестити пайплайни.
— Знання принципів CI/CD для аналітичних рішень.
— Вміння працювати з автентифікацією та управлінням доступами (OAuth, SAS tokens, сервісні акаунти).
— Має хороші організаційні та комунікативні навички.
— Має уважність до деталей, високу відповідальність і швидко адаптується до нових інструментів.
— Любить ігри або хоче зануритися в геймдев із головою.
Буде плюсом:
— Має досвід з BI-інструментами
— Досвід роботи з Microsoft Fabric або аналогічними платформами (Power BI, Synapse, Azure Data Factory).
— Досвід роботи з ігровими даними (ігрові івенти, LiveOps).
— Знання Spark не лише теоретично, а й практично (для трансформацій у Fabric чи Databricks).
— Розуміння Data Governance (ownership, lineage, security).
— Володіння англійською не нижче Upper-Intermediate.
Процес відбору: