Data Engineer - Remoto - 2742

Ciudad de México, México | Software Development | Full-time | Fully remote

Apply by: No close date
Apply

Estamos en búsqueda de un Data Engineer (AWS) con sólida experiencia en soluciones de datos en la nube y liderazgo técnico, para integrarse a nuestro equipo.

Si te apasiona diseñar arquitecturas modernas de datos, trabajar con tecnologías de vanguardia y liderar soluciones end-to-end, esta oportunidad es para ti.

 

  • NOTA: Antes de postularte revisa que si cumplas con el perfil y que si tengas un ingles C1 - C2

  • Solo candidatos de México.

 

Responsabilidades principales:

  • Diseñar e implementar soluciones de datos a la medida, desde streaming hasta data lakes y analytics dentro de un stack tecnológico dinámico.

  • Proveer liderazgo técnico recomendando tecnologías y arquitecturas óptimas según el caso de uso.

  • Desarrollar soluciones en producción utilizando Python, Java o Scala, priorizando rendimiento, seguridad y escalabilidad.

  • Colaborar en entornos híbridos y diversos como AWS, Cloudera, Databricks y Snowflake.

  • Crear documentación técnica detallada (diagramas de secuencia, vistas lógicas, jerarquías de clases, etc.).

  • Presentar soluciones técnicas complejas a audiencias técnicas y no técnicas.

  • Trabajar bajo metodologías Agile.

  • Diseñar, construir e implementar bases de datos y data stores alineados a necesidades del negocio.

  • Liderar equipos técnicos en proyectos de datos end-to-end.

Requisitos indispensables:

  • +5 años de experiencia en Data Engineering.

  • +4 años trabajando específicamente con AWS.

  • +4 años de experiencia con al menos una de las siguientes tecnologías:

    • PySpark

    • Scala

    • Data Lakehouse en AWS

  • +2 años liderando equipos en proyectos de datos.

  • Nivel de inglés avanzado (C1-C2).

  • Disponibilidad para viajar al menos 25%.

Requisitos deseables:

  • Experiencia productiva en plataformas como Snowflake, Databricks, Azure, GCP, Hadoop.

  • Conocimientos en almacenamiento distribuido: HDFS, S3, ADLS, GCS, Kudu, ElasticSearch/Solr, Cassandra u otros NoSQL.

  • Experiencia con tecnologías de integración de datos: Spark, Kafka, streaming/eventing, Streamsets, NiFi, AWS DMS, Azure DataFactory, Google DataProc.

  • Excelentes habilidades de comunicación escrita y verbal.

  • Licenciatura o Maestría en áreas afines.

Ofrecemos:

  • Sueldo entre $50,000  a $60,000 libres mensuales, dependiendo de los años de experiencia.
  • Pago nominal y quincenal.
  • Prestaciones de ley y superiores.
  • Proyecto de forma indefinido.
  • Trabajo REMOTO permanente.

Si cumples con el perfil postulate solo con tu CV actualizado.