Únete al equipo que desarrollará soluciones de inteligencia artificial generativa, ciencia de datos e ingeniería de datos con impacto real en la industria.
Estamos en busca de un **Ingeniero/a de Datos Senior** para diseñar, desarrollar y mantener tuberías y arquitecturas de datos escalables. Serás responsable de liderar iniciativas de ingeniería de datos, impulsar mejores prácticas y garantizar soluciones listas para producción, fáciles de mantener y seguras. Colaborarás con científicos de datos, analistas e ingenieros de IA para ofrecer soluciones basadas en datos que impulsen conocimientos clave para el negocio.
**Responsabilidades Clave
**
* Arquitectura y estrategia de datos: Definir la estrategia de arquitectura de datos y diseñar soluciones de extremo a extremo para ingesta, ETL/ELT, almacenamiento y análisis.
* Desarrollo de flujos de datos: Crear tuberías de datos escalables y automatizadas para procesar información en batch y en tiempo real, usando herramientas como PySpark, Kafka, Python o Scala.
* Código a nivel de producción: Escribir código limpio y documentado, con control de versiones, CI/CD y pruebas automatizadas.
* Gobernanza y calidad de datos: Implementar prácticas de gobernanza, calidad y seguridad para asegurar la integridad y privacidad de los datos.
* Escalabilidad y rendimiento: Optimizar código y modelos de datos para mejorar el rendimiento y escalar con crecientes volúmenes de datos.
* Colaboración y liderazgo: Trabajar con equipos multifuncionales para entender necesidades del negocio, desarrollar estrategias y guiar a ingenieros junior.
* Investigación e innovación: Evaluar e implementar tecnologías emergentes para mantener un ecosistema de datos moderno.
**Requisitos Esenciales
**
* Educación: Licenciatura o Maestría en Ciencias de la Computación, Ingeniería o campo relacionado.
* Experiencia: Más de 5 años en ingeniería de datos, con al menos 2 años en roles de arquitecto.
* Habilidades técnicas:
* Tuberías y ETL/ELT: Experiencia con Spark, Airflow, Kafka.
* Lenguajes: Dominio de Python y SQL.
* Nube: AWS, Azure o GCP (S3, EMR, Dataflow, Redshift).
* Bases de datos: SQL (PostgreSQL, MySQL) y NoSQL (Cassandra, DynamoDB).
* DevOps: Docker, Kubernetes, Jenkins, Git.
* Modelado de datos: Diseño de data warehouses o data lakes.
* Habilidades blandas: Comunicación efectiva, resolución de problemas, liderazgo y adaptabilidad en entornos ágiles.
**Requisitos Preferidos
**
* Experiencia con análisis en tiempo real (Flink, Beam).
* Conocimiento en visualización de datos (Tableau, Power BI).
* Familiaridad con MLOps y pipelines de aprendizaje automático.
* Certificaciones en tecnologías de la nube (AWS, Azure, Google Cloud).
* Dominio bilingüe de inglés y español.
**Condiciones
**
* Contrato: Término indefinido.
* Horario: Lunes a Viernes, 7:00 am - 5:00 pm o 8:00 am - 6:00 pm. 1 sábado al mes medio día. Esquema híbrido posible.
* Salario: $5.000.000 - $9.000.000 (según experiencia).