[합류하게 될 팀에 대해 알려드려요]
- 토스의 Data Engineer는 Data Platform Tribe에 속해 있어요.
- Data Platform Tribe는 Data Infra Platform팀과 Data Service Platform팀으로 구성되어 있는데요, 토스의 모든 서비스들에서 필요로 하는 데이터와 관련 플랫폼들을 운영하고 지원하고 있어요.
- Data Platform Tribe에서는 직군에 국한되지 않고 본인의 흥미와 의지가 있다면 다른 업무도 얼마든지 지원이 가능하고요, 기술이나 노하우에 대해서도 자유롭게 공유하는 분위기예요.
- Data Engineer(Platform)로 합류하시면 Data Infra Platform팀에 배치되는데, 아래 영역을 집중하고 있어요.
- 데이터 저장 및 처리 리소스 제공을 위한 하둡 인프라 개발과 운영
- 데이터 애플리케이션의 효율적인 운영 및 관리를 위한 쿠버네티스(k8s) 환경 구축과 운영
- 실시간 데이터 제공과 Data Lake의 초석 역할을 담당하는 Kafka 관련 인프라의 개발 및 운영
주요업무
[합류하면 함께 할 업무에요]
- Apache Hadoop Ecosystem 오픈소스 전반을 직접 빌드부터 On-Premise 클러스터를 구축까지 개발 및 운영하고 있어요.
- 데이터 센터 이중화되어 운영되는 대규모 Kafka Cluster 운영 및 관리하고 있어요.
Kafka Connect 기반에 카프카 클러스터 간 데이터 동기화 및 안정적이고 효율적인 데이터 입수 파이프라인을 개발하고, 운영해요.
- Flink, Kafka Stream, Spark Structured Streaming 등 스트리밍 플랫폼을 구축 & 운영하고 있어요.
- Clickhouse, Starrocks, Druid 기반의 Realtime OLAP 시스템을 운영해요.
- Iceberg, Delta, Paimon, Fluss와 같은 데이터 플랫폼 고도화를 위한 다양한 새로운 기술을 검토하고 도입해요.
자격 요건
[이런 분과 함께하고 싶어요]
- 대용량 분산 시스템(Hadoop, HBase, Kafka, Spark, Flink, Impala, Hive 등) 활용 경험이 있는 분이 필요해요.
- Apache Hadoop Ecosystem 오픈소스 전반을 직접 빌드부터 on-premise 클러스터를 구축/운영해 보신 분이면 좋아요.
- Clickhouse, Starrocks, Druid 기반의 realtime OLAP 시스템을 경험해 보신 분이면 좋아요.
- 여러 개의 Kafka 클러스터 운영 경험이 있으면 좋아요.
- 대규모 입수 파이프라인을 효율적으로 관리 운영한 경험이 있으면 좋아요.
- 데이터 어플리케이션 개발을 위한 소프트웨어 개발 역량(Java, Scala, Python 등)을 갖춘 분이 좋아요.
우대사항
[이런 경험이 있다면 이력서에 꼭 작성해주세요]
- 단순히 어떤 언어, 플랫폼, 프레임워크, 기술 등을 사용했는지보다 어떤 과제였는지, 이를 해결하기 위해 어떤 것을 사용했고, 어떻게 문제를 해결했는지 자세히 작성해주세요.
- 토스와 유사한 플랫폼을 활용해본 경험이 있다면 좋아요. 하지만 언어, 플랫폼, 프레임워크, 기술은 우리가 엔지니어로서 문제를 해결하기 위한 도구일 뿐이라고 생각해요. 이보다 실제 지원자의 성장 가능성과 문제 해결 능력을 더 중점적으로 보고 있으니 관련 사례가 있다면 꼭 서류에 작성해주세요.
- 플랫폼을 운영하면서 발생한 치명적인 장애를 해결해 보았거나 성능이나 시스템 리소스 사용 측면에서 최적화를 해 본 경험이 있다면 작성해주세요.
- 오픈소스 사용 중에 발생한 버그나 이슈를 해결해 보았거나 부족한 기능을 직접 개발하거나 보완한 경험이 있다면 작성해주세요.
채용절차
서류접수 > 1차 직무 인터뷰 > 2차 직무 인터뷰 > 문화적합성 인터뷰 > 레퍼런스 체크 > 처우협의 > 최종합격 및 입사