
Ingeniero de Procesamiento de Datos
- Perú
- Permanente
- Tiempo completo
- Desarrollar y optimizar algoritmos y procesos ETL/ELT utilizando Python, R o C++ asegurando calidad, eficiencia computacional y escalabilidad.
- Optimizar operaciones computacionales intensivas de procesos científicos mediante implementación de rutinas C++, pybind11 o Rcpp, especialmente en simulaciones fisicoquímicas y numéricas.
- Implementar validaciones automáticas y flujos QA/QC aplicados a datos de entrada, predicciones y resultados intermedios en el pipeline analítico.
- Desarrollar modelos predictivos y sistemas de inferencia basados en Inteligencia Artificial o Machine Learning.
- Analizar datos con técnicas estadísticas, algoritmos de aprendizaje automático y modelos computacionales avanzados.
- Participar en la automatización de tareas mediante programación reproducible y modular.
- Documentar técnicas, scripts y procedimientos según los estándares internos, asegurando una estructura de código limpia, mantenible y fácilmente escalable para futuras integraciones con entornos en la nube (como Azure Web Apps o App Services).
- Colaborar con equipos multidisciplinarios incluyendo científicos de datos, especialistas en geociencias y tecnologías.
- Mantener una comunicación fluida con los equipos de E&E.
- Cumplir con las políticas y procedimientos internos del Sistema Integrado de Gestión de Calidad, Medio Ambiente y de Seguridad y Salud en el Trabajo en las actividades que desempeña, entre otros.
- Bachiller o Titulado de la carrera de Ciencias de la Computación, Ingeniería de Datos o similares.
- Experiencia mínima de 04 años en desarrollo de soluciones análiticas, simulaciones científicas o procesamiento computacional intensivo o sistemas geocientíficos, ambientales o industriales.
- Conocimiento de arquitectura de datos escalables y plataformas CI/CD.
- Interés por el modelamiento geomatemático, simulación o inteligencia artificial aplicada.
- Dominio de C++ para la construcción de algoritmos de alto rendimiento, con integración a entornos analíticos mediante pybind11, Rcpp u otras herramientas equivalentes.
- Experiencia en desarrollo con Python (Pandas, NumPy, Scikit-learn, Tensorflow-Keras, SQLAlchemy) y/o R (dplyr, DBI, plumber, tidymodels), orientado a análisis de datos y modelado.
- Dominio de SQL (modelo relacional, índices, constrainst, esquemas, vistas, etc.)
- Entendimiento de ETL-ELT pipelines: limpieza de datos, transformación
carga. * Familiaridad con diseño y consumo de REST APIs.
- Manejo básico de Git (clone, pull, commit, branching).
- Dominio de herramientas de Inteligencia Artificial.