Náš stack: Python 3 (asyncio), Airflow, Docker, postgreSQL/TimescaleDB, Gitlab, Metabase, Streamlit, RabbitMQ, Kubernetes, AWS (S3, EC2) a hrajeme si s Clickhouse, Apache Iceberg, duckDB, Trino
Jsme Quantlane, proprietární tradingová firma postavená pro tradery. Provozujeme diverzifikované portfolio systematických i diskrečních strategií napříč akciemi, futures, energiemi a komoditami. Klíčovou součástí firmy je datová platforma, poskytující nejrůznější data na jejichž základě provádějí tradeři (a jejich alga) svá obchodní rozhodnutí.
👨💻 Jak pracujeme?
Development tým čítá 16 lidí, fungujeme v agilním prostředí, vyvíjíme iterativně a klademe důraz na testování. Máme aktuálně tři specializované produktové subtýmy — Exekuce, Data a Infrastruktura — které se zaměřují na rozvoj a provoz našich klíčových domén.
📊 Koho hledáme?
Tuto roli hledáme do naší Data týmu, kde máme pět Data engineerů a jednoho Data scientistu. Věnujme se tu zajímavým datovým výzvám - naším cílem je zajistit, aby byla data v požadované kvalitě, formátu a čase na požadovaném místě.
🔥Chceš se podílet na vývoji datové platformy, která má reálný dopad na úspěch našich traderů? Přidej se k nám!🚀
Jak bude vypadat tvůj běžný den:
- Vývoj Python aplikací zpracovávající data (pandas, asyncio)
- Podílení se na návrhu a zlepšování datové platformy
- Vývoj backendových aplikací v Pythonu (asyncio, RabbitMQ)
- Nasazování těchto aplikací do produkce (Airflow, Kubernetes)
- Komunikace s tradery a analytiky - tedy tvými interními zákazníky - o požadovaných features
- Budeš se s ostatními členy týmu střídat v rámci supportu platformy
- Účast na SCRUM ceremoniích, ale nemusíš se bát dlouhých schůzek, kde nevíš proč jsi. U nás jde hlavně o to jak efektivně odbavit byznysové priority a ne bezhlavě používat SCRUM.
Co nabízíme?
- Občerstvení, 5 týdnů dovolené a 5 sick days, multisportku
- Moderní kanceláře v Quadriu v centru Prahy
- Spolupracujeme hybridně – ideálně 3 dny on-site.
- Možnost pravidelných sezení s firemním terapeutem / koučem
- Lekce angličtiny s rodilým mluvčím
- Interní školení a příspěvky na technické konference
Něco o tobě:
- Máš zkušenosti s používáním konceptů Data Lake, Lakehouse, Streaming data
- Máš zkušenosti s vývojem aplikací zpracovávající data (historická i realtime)
- Znáš best-practices v rámci SW vývoje (GIT, testování)
Ideálně
- Máš praktické zkušenosti s Apache Iceberg, Trino/AWS Athena, Clickhouse
- Umíš používat datové knihovny (pandas/polars)
- Znáš nástroje pro správu ETL Workflow (Apache Airflow)
- Orientuješ se v rámci SQL, nejlépe postgreSQL
- Znalost Python asyncio
- Zájem o kapitálové trhy