Analista de Datos AWS Semi Senior

Entelgy

  • Lima
  • Permanente
  • Tiempo completo
  • Hace 1 día
DÉJANOS CONTARTE LO QUE NOS HACE GENUINEBuscamos profesionales que quieran reinventarse cada día, que enfrentarse a los retos vaya en su ADN y que sientan pasión por trabajar con la tecnología. Esto nos hace únicos, diferentes y auténticos.¿QUÉ ESTAMOS BUSCANDO?Buscamos profesionales Data Engineers con foco en la nube AWS para participar en proyectos Big Data con un cliente del sector bancario. El rol abarca desde la análisis, ingesta y procesamiento de datos hasta su puesta en producción, con el objetivo de convertir grandes volúmenes de información en activos para la toma de decisiones.Funciones:
  • Diseño, construcción y mantenimiento de pipelines de datos utilizando servicios de AWS (Glue, Lambda, S3, etc.).
  • Implementación de procesos ETL escalables para ingesta, transformación y carga de datos, preferentemente con PySpark o Scala.
  • Procesamiento de grandes volúmenes de datos y monitoreo de flujos mediante herramientas como CloudWatch y otras soluciones de observabilidad.
  • Participación en el desarrollo y despliegue de modelos de machine learning utilizando SageMaker Feature Store y Endpoints.
  • Creación de visualizaciones y reportes en QuickSight para facilitar el análisis de datos por usuarios de negocio.
  • Colaboración con equipos multidisciplinarios para asegurar la calidad, seguridad y gobernanza de los datos, documentando soluciones y buenas prácticas.
  • Liderazgo técnico: experiencia en entrevistas técnicas, seguimiento del desempeño del equipo y gestión de talento.
Requisitos:
  • Formación académica: Egresado, Bachiller o Titulado en Ingeniería de Sistemas, Informática, Ciencias de la Computación, Ciencia de Datos o carreras afines.
  • Experiencia profesional: Mínimo 3 años como Analista de Datos, Data Engineer o roles similares, preferentemente en el sector bancario.
  • Certificaciones: AWS Cloud Practitioner (obligatoria) y AWS Certified Data Engineer - Associate (deseable)
  • Lenguajes de programación: Dominio de uno o más: Java, Python, Scala o R.
  • Experiencia en procesamiento de datos con PySpark y/o Scala.
  • Tecnologías de datos: Conocimientos sólidos en Hadoop, Apache Spark y buenas prácticas en diseño de pipelines escalables, manejo eficiente de datos y control de calidad.
  • Herramientas CI/CD: Experiencia con Bitbucket-GIT, Jenkins y Jira.
  • Familiaridad con metodologías ágiles como Scrum y Kanban.
  • Experiencia en AWS: S3, Glue (ETL, catálogos, crawlers), EMR (Spark/Hive), CloudWatch (logs, alertas), Aurora DB (PostgreSQL), SageMaker (Feature Store, Endpoints), MLflow, QuickSight (deseable)
  • Habilidades colaborativas: Capacidad para trabajar en equipos multidisciplinarios, documentar procesos y asegurar la calidad, seguridad y gobernanza de los datos.
PORQUE EN ENTELGY TODO COMIENZA CONTIGOÚnicos, Reales, Auténticos, Diferentes……Somos 100% GENUINE.Nuestra cultura se vive en el día a día, somos como una gran familia y formamos Entelgy Family, donde podrás participar en diferentes actividades, eventos, retos y mucho más. También tenemos un conjunto de iniciativas orientadas a potenciar que tengas una vida sana y equilibrada, nuestro compromiso de contribuir a nuestra sociedad con iniciativas para el Cuidado del medio ambiente, Voluntariado comunitario, Sensibilización sobre personas vulnerables, etc. Health & Wellness, Responsabilidad Social, Programa para el Cuidado del Medio Ambiente.ASÍ ES COMO PONEMOS TODO NUESTRO TALENTO EN POTENCIAR EL TUYOVen para formar parte de nuestro equipo, y descubre que no es sólo lo que hacemos, sino cómo lo hacemos. ¡Atrévete a vivir una experiencia Genuine!
  • Proyectos retadores para grandes clientes: Trabajarás en proyectos de gran relevancia para nuestros clientes, junto a un gran equipo de profesionales desde el primer día.
  • Un progreso acelerado: Tu crecimiento estará garantizado y potenciado. Vamos contigo en lo que necesites.

Bumeran