15.683 Ofertas de Data Engineer en España

Data Engineer

Aragon, Aragon Fersa

Ayer

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Misión:


Se busca una nueva persona para apoyar en el departamento de Supply&Service como ingeniero de información.


Funciones principales a realizar:

  • Supervisar y contribuir a la estrategia basada en la estrategia global de “data-Driven”, alineándola con los objetivos de la compañía.
  • Identificar proactivamente nuevos datos que aporten valor dentro del ecosistema analítico y la toma de decisiones.
  • Análisis y desarrollo de procesos end-to-end de la Supply Chain
  • Entender y modelizar los procesos actuales y plantear mejoras mediante cambios de procedimiento y automatización de gestión de la información
  • Programación de mejoras para la gestión de la información tanto en planificación, logística como en gestión de planta
  • Indicadores de gestión y otros análisis para el seguimiento y mejora de procesos
  • Seguimiento de proyectos complejos junto con el equipo de IT, que implica S&S
  • Ayuda en la implementación y desarrollo del ERP en las plantas.
  • Realización de pruebas de mejoras o actualizaciones de sistemas
  • Mantenimiento de arquitectura de organización de procesos y controles
  • Apoyo en desarrollo de visualizaciones a los usuarios finales
  • Desarrollo de soluciones a futuro del IA.


Requisitos del puesto:

  • Experiencia mínima de 5 años en posición similar.
  • Nivel de inglés y español alto
  • Experiencia en entornos analíticos Big Data y de Business Intelligence Tradicional.
  • Experiencia en modelado de datos para soluciones analíticas.
  • Gran Capacidad Analítica y gestión de datos
  • Reconocer y adoptar las mejores prácticas en informes y análisis: integridad de datos, diseño de pruebas, análisis, validación y documentación.
  • Formación técnica a nivel universitario, preferiblemente rama industrial/SCM.
  • Especialización a través de Máster o posgrado en el área de SCM o en informática
  • Conocimientos avanzados de:
  • Ofimática (Excel (muy valorable macros), PowerPoint, Word)
  • Analítica de datos. (Python, PowerBI, R…)
  • Otros conocimientos.
  • Se valorará conocimientos en Microsoft Axapta y ERP D365
  • Alto dinamismo, proactividad e implicación. Con inquietud por aprender nuevos conocimientos y métodos y enfocada en la mejora continua.


Se ofrece:

• Plan de desarrollo individualizado.

• Incorporación a los HQ de un grupo multinacional español

• Integración en un apasionante proyecto empresarial en pleno proceso de expansión.

• Contrato Indefinido y condiciones económicas según el potencial del candidato.


Formar parte de nuestro equipo significa que trabajarás junto a un fantástico grupo de personas competitivas que siempre se esfuerzan por crecer. Creemos que los equipos que adoptan la diversidad y la inclusión son más innovadores y consiguen mejores resultados, y por eso Fersa se compromete a promover y garantizar la igualdad de oportunidades para todas las personas.

¡Estamos orgullosos de ser reconocidos como una empresa Great Place To Work!

Lo sentimos, este trabajo no está disponible en su región

Data Engineer

NTT DATA Europe & Latam

Publicado hace 10 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

¡Estamos buscando Data Engineers con experiencia en Engines de procesamiento de datos!


¿Tienes pasión por la eficiencia, la optimización de código y los sistemas de alto rendimiento? En NTT DATA , estamos ampliando nuestro equipo y buscamos un/a Data Engineer con al menos 3 años de experiencia , para desarrollar y mantener Engines de procesamiento de datos robustos y escalables.


Responsabilidades:

  • Desarrollo y mantenimiento de Engines para procesamiento eficiente de datos.
  • Aplicación de buenas prácticas de construcción y optimización de sistemas.
  • Gestión del ciclo de vida de los Engines y seguimiento de sus versiones (v2.5.0, v2.6.0, etc.).
  • Creación de diagramas de flujo entre versiones, para facilitar la trazabilidad y documentación técnica.
  • Optimización del código y gestión en entornos de alto rendimiento y alta disponibilidad.


Tecnologías y herramientas:

  • Sólida experiencia en sistemas de control de versiones con Git:
  • Trabajo colaborativo en equipos.
  • Gestión de commits encadenados y ramas.
  • Limpieza del historial y buenas prácticas de versionado.


Requisitos:

  • 3 años o más de experiencia en desarrollo de pipelines o engines de datos.
  • Buen dominio de Git y experiencia en entornos colaborativos.
  • Capacidad analítica y orientación a la calidad del código.
  • Inglés preferible para entornos técnicos/documentación de trabajo.



En GDNE (Global Delivery Nearshore Europe) valoramos la autenticidad, la creatividad y el compromiso. Creemos en las personas como motor del cambio. Si esta oportunidad te resuena… ¡es el momento de dar el salto!

¡Súmate a NTT DATA y construyamos el futuro juntos!

Lo sentimos, este trabajo no está disponible en su región

Data Engineer

08001 Catalunya, Catalonia Americold Logistics, LLC.

Publicado hace 23 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

We are seeking an experienced and versatile Data Engineer to join our Data & Analytics team. This role focuses on designing and maintaining data pipelines that integrate Oracle Cloud applications and other operational systems with both AWS Data Lake and Microsoft Fabric environments . The successful candidate will play a critical role in enabling enterprise reporting and advanced analytics through robust data ingestion, transformation, and integration frameworks.


Located at @22 Barcelona

Key Responsibilities:

  • Build and maintain data pipelines to extract and move data between Oracle Cloud (ERP, HCM, SCM) and other operational systems, plus between AWS Data Lake (S3, Glue, Redshift) and Microsoft Fabric (OneLake, Lakehouse, Data Factory) .
  • Design and optimize ETL/ELT processes for large-scale, multi-source data ingestion and transformation.
  • Integrate with external cloud-based systems (e.g., Salesforce, ServiceNow, MS Business Central) using APIs, flat files, or middleware.
  • Utilize Oracle Integration Cloud (OIC), FBDI, BIP, and REST/SOAP APIs for data extraction and automation.
  • Leverage Microsoft Fabric components , including Data Factory , Lakehouse , Synapse-style notebooks , and KQL databases , to enable structured data availability.
  • Collaborate with BI developers to enable Power BI semantic models, apps, and enterprise-wide reporting .
  • Implement monitoring, logging, and error-handling strategies to ensure reliability and performance of data pipelines.
  • Adhere to best practices in data governance, security, lineage, and documentation .
  • Partner with data architects, analysts, and business stakeholders to translate business needs into scalable data solutions.

Required Skills & Qualifications:

  • Bachelor’s or Master’s degree in Computer Science, Information Systems, Engineering, or related field.
  • 3+ years of experience in data engineering , including cloud data integrations and enterprise data pipeline development.
  • Experience with Oracle Cloud (ERP, HCM, or SCM) and its integration mechanisms (FBDI, BIP, REST APIs, OIC).
  • Familiarity with AWS Data Lake architecture : S3, Glue, Redshift, Athena, Lambda, etc.
  • Hands-on experience in the Microsoft Fabric ecosystem , including Data Factory (Fabric), OneLake, Lakehouse, Notebooks , and integration with Power BI.
  • Proficiency in SQL, Python , and experience with ETL orchestration tools (e.g., Airflow, Step Functions).
  • Strong knowledge of data modeling , data quality , and pipeline optimization .
  • Experience with Power BI datasets and reporting enablement , particularly in semantic model design.
  • Familiarity with streaming data tools (e.g., Kafka, AWS Kinesis, Fabric Real-Time Analytics).
  • Experience with Git-based version control , CI/CD for data pipelines , and infrastructure as code (e.g., Terraform, CloudFormation).
  • Knowledge of metadata management , data lineage tracking , and data governance frameworks .
  • Cloud certifications (e.g., AWS Certified Data Analytics , Microsoft Certified: Fabric Analytics Engineer , Oracle Cloud Certified ) are a strong plus.
  • Strong problem-solving and analytical thinking.
  • Excellent communication skills, with the ability to collaborate across business and technical teams.
  • Highly organized, detail-oriented, and self-motivated.
  • Comfortable in fast-paced environments with shifting priorities.
Lo sentimos, este trabajo no está disponible en su región

Data Engineer

Catalonia, Catalonia Americold Logistics, LLC.

Publicado hace 23 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

We are seeking an experienced and versatile Data Engineer to join our Data & Analytics team. This role focuses on designing and maintaining data pipelines that integrate Oracle Cloud applications and other operational systems with both AWS Data Lake and Microsoft Fabric environments . The successful candidate will play a critical role in enabling enterprise reporting and advanced analytics through robust data ingestion, transformation, and integration frameworks.


Located at @22 Barcelona

Key Responsibilities:

  • Build and maintain data pipelines to extract and move data between Oracle Cloud (ERP, HCM, SCM) and other operational systems, plus between AWS Data Lake (S3, Glue, Redshift) and Microsoft Fabric (OneLake, Lakehouse, Data Factory) .
  • Design and optimize ETL/ELT processes for large-scale, multi-source data ingestion and transformation.
  • Integrate with external cloud-based systems (e.g., Salesforce, ServiceNow, MS Business Central) using APIs, flat files, or middleware.
  • Utilize Oracle Integration Cloud (OIC), FBDI, BIP, and REST/SOAP APIs for data extraction and automation.
  • Leverage Microsoft Fabric components , including Data Factory , Lakehouse , Synapse-style notebooks , and KQL databases , to enable structured data availability.
  • Collaborate with BI developers to enable Power BI semantic models, apps, and enterprise-wide reporting .
  • Implement monitoring, logging, and error-handling strategies to ensure reliability and performance of data pipelines.
  • Adhere to best practices in data governance, security, lineage, and documentation .
  • Partner with data architects, analysts, and business stakeholders to translate business needs into scalable data solutions.

Required Skills & Qualifications:

  • Bachelor’s or Master’s degree in Computer Science, Information Systems, Engineering, or related field.
  • 3+ years of experience in data engineering , including cloud data integrations and enterprise data pipeline development.
  • Experience with Oracle Cloud (ERP, HCM, or SCM) and its integration mechanisms (FBDI, BIP, REST APIs, OIC).
  • Familiarity with AWS Data Lake architecture : S3, Glue, Redshift, Athena, Lambda, etc.
  • Hands-on experience in the Microsoft Fabric ecosystem , including Data Factory (Fabric), OneLake, Lakehouse, Notebooks , and integration with Power BI.
  • Proficiency in SQL, Python , and experience with ETL orchestration tools (e.g., Airflow, Step Functions).
  • Strong knowledge of data modeling , data quality , and pipeline optimization .
  • Experience with Power BI datasets and reporting enablement , particularly in semantic model design.
  • Familiarity with streaming data tools (e.g., Kafka, AWS Kinesis, Fabric Real-Time Analytics).
  • Experience with Git-based version control , CI/CD for data pipelines , and infrastructure as code (e.g., Terraform, CloudFormation).
  • Knowledge of metadata management , data lineage tracking , and data governance frameworks .
  • Cloud certifications (e.g., AWS Certified Data Analytics , Microsoft Certified: Fabric Analytics Engineer , Oracle Cloud Certified ) are a strong plus.
  • Strong problem-solving and analytical thinking.
  • Excellent communication skills, with the ability to collaborate across business and technical teams.
  • Highly organized, detail-oriented, and self-motivated.
  • Comfortable in fast-paced environments with shifting priorities.
Lo sentimos, este trabajo no está disponible en su región

Data Engineer

Iberostar Hotels & Resorts

Publicado hace 24 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

En Iberostar Group estamos buscando a un/a Data Engineer para unirse a nuestro equipo de DATO , pero antes de saber más sobre la posición creemos que es importante que sepas un poco sobre Iberostar Group:


  • Somos una empresa 100% familiar (Concretamente, una familia de más de 37.000 empleados/as).
  • Tenemos presencia en 35 países y nuestras oficinas centrales están en Palma de Mallorca.
  • Nuestros valores (Pasión, Responsabilidad, Transparencia, Creatividad y Humildad) son muy importantes para nosotros, todas nuestras acciones que llevamos a cabo van acorde a ellos.
  • Somos pioneros en turismo responsable (Revisa nuestro movimiento Wave of Change para saber más).


Si esto te resulta interesante. ¡puede que este sea tu sitio!


¿Cuáles serian tus funciones?


  • Diseñar, desarrollar, implementar, entregar aplicaciones y soluciones basadas en datos para respaldar las necesidades de la compañía.
  • Creación de procesos ETL y ELT.
  • Revisión y resolución de incidencias derivadas de los procesos de ingesta.
  • Experiencia en desarrollo con un enfoque en la usabilidad, el rendimiento, la flexibilidad y la estandarización
  • Identificar proactivamente nuevos datos que aporten valor dentro del ecosistema analítico.
  • Fomentar el Data Literacy en la organización.
  • Trabajar con la información existente para desarrollar informes y dashboards en Microsoft Power BI enfocados y personalizados para cada área de negocio.
  • Ofrecer un entorno de consulta directa (autoconsumo de la información) que permita a los key business users acceder directamente a la información para la toma de decisiones.


¿Quién es la persona ideal para este puesto?


La persona ideal para este puesto será quien cumpla con las siguientes características:


  • Experiencia mínima de 4 años en posición similar.
  • Nivel de inglés medio.
  • Experiencia en entornos analíticos Big Data y de Business Intelligence Tradicional.
  • Experiencia en el uso de herramientas ETL/ELT.
  • Experiencia en modelado de datos para soluciones analíticas.
  • Conocimientos de SQL.
  • Capacidad Analítica.
  • Reconocer y adoptar las mejores prácticas en informes y análisis: integridad de datos, diseño de pruebas, análisis, validación y documentación.


¿Qué beneficios tendrás?


  • Smart Working: Flexibilidad horaria y modalidad de trabajo híbrida con dos días de teletrabajo semanales.
  • Formación continua a través de planes formativos y de Iberostar Campus, nuestra plataforma de aprendizaje donde te podrás nutrir de formaciones específicas y globales.
  • Un paquete de atractivos beneficios como: Afterworks, descuentos en todos nuestros hoteles y en otros servicios y productos como seguro de salud, viajes, ocio y mucho más.
  • Ser miembro de la Comunidad Iberostar Vitality (nuestro programa de empresa saludable y de bienestar para el empleado que incluye clases de yoga semanales, gimnasio virtual, planes nutricionales, día de la fruta, etc. ).
  • Trabajar en un entorno inspirador que apuesta por las personas, los valores y un modelo de turismo responsable.


¡Nos encantaría proporcionarte más información sobre la posición y conocer más sobre tu perfil y expectativas!


#WEAREIBEROSTAR

Lo sentimos, este trabajo no está disponible en su región

Data Engineer

Balearic Islands, Balearic Islands Iberostar Hotels & Resorts

Publicado hace 24 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

En Iberostar Group estamos buscando a un/a Data Engineer para unirse a nuestro equipo de DATO , pero antes de saber más sobre la posición creemos que es importante que sepas un poco sobre Iberostar Group:


  • Somos una empresa 100% familiar (Concretamente, una familia de más de 37.000 empleados/as).
  • Tenemos presencia en 35 países y nuestras oficinas centrales están en Palma de Mallorca.
  • Nuestros valores (Pasión, Responsabilidad, Transparencia, Creatividad y Humildad) son muy importantes para nosotros, todas nuestras acciones que llevamos a cabo van acorde a ellos.
  • Somos pioneros en turismo responsable (Revisa nuestro movimiento Wave of Change para saber más).


Si esto te resulta interesante. ¡puede que este sea tu sitio!


¿Cuáles serian tus funciones?


  • Diseñar, desarrollar, implementar, entregar aplicaciones y soluciones basadas en datos para respaldar las necesidades de la compañía.
  • Creación de procesos ETL y ELT.
  • Revisión y resolución de incidencias derivadas de los procesos de ingesta.
  • Experiencia en desarrollo con un enfoque en la usabilidad, el rendimiento, la flexibilidad y la estandarización
  • Identificar proactivamente nuevos datos que aporten valor dentro del ecosistema analítico.
  • Fomentar el Data Literacy en la organización.
  • Trabajar con la información existente para desarrollar informes y dashboards en Microsoft Power BI enfocados y personalizados para cada área de negocio.
  • Ofrecer un entorno de consulta directa (autoconsumo de la información) que permita a los key business users acceder directamente a la información para la toma de decisiones.


¿Quién es la persona ideal para este puesto?


La persona ideal para este puesto será quien cumpla con las siguientes características:


  • Experiencia mínima de 4 años en posición similar.
  • Nivel de inglés medio.
  • Experiencia en entornos analíticos Big Data y de Business Intelligence Tradicional.
  • Experiencia en el uso de herramientas ETL/ELT.
  • Experiencia en modelado de datos para soluciones analíticas.
  • Conocimientos de SQL.
  • Capacidad Analítica.
  • Reconocer y adoptar las mejores prácticas en informes y análisis: integridad de datos, diseño de pruebas, análisis, validación y documentación.


¿Qué beneficios tendrás?


  • Smart Working: Flexibilidad horaria y modalidad de trabajo híbrida con dos días de teletrabajo semanales.
  • Formación continua a través de planes formativos y de Iberostar Campus, nuestra plataforma de aprendizaje donde te podrás nutrir de formaciones específicas y globales.
  • Un paquete de atractivos beneficios como: Afterworks, descuentos en todos nuestros hoteles y en otros servicios y productos como seguro de salud, viajes, ocio y mucho más.
  • Ser miembro de la Comunidad Iberostar Vitality (nuestro programa de empresa saludable y de bienestar para el empleado que incluye clases de yoga semanales, gimnasio virtual, planes nutricionales, día de la fruta, etc. ).
  • Trabajar en un entorno inspirador que apuesta por las personas, los valores y un modelo de turismo responsable.


¡Nos encantaría proporcionarte más información sobre la posición y conocer más sobre tu perfil y expectativas!


#WEAREIBEROSTAR

Lo sentimos, este trabajo no está disponible en su región

Data Engineer

Madrid, Madrid Arktic

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Arktic es una firma de consultoría de negocio con experiencia y foco en la industria financiera: bancos, gestoras, fintech y aseguradoras. Conocemos la manera en que podemos evolucionar la forma del negocio, sabemos hacerlo y somos el mejor compañero de viaje posible.


Arktic es un espacio donde todos tenemos la posibilidad de desarrollarnos como profesionales, aprender y crecer. Creemos en el talento y la creatividad. Para nosotros nuestros consultores son el alma de Arktic y, por eso, desde nuestro primer día entendemos que posicionarlos en el centro es lo justo, y revertir parte de nuestro beneficio en su formación y su bienestar.


En esta ocasión estamos buscando un Data Engineer:


Requisitos:

● 2 años de experiencia trabajando con Google Cloud Platform

● Experiencia trabajando con Python

● Capacidad para trabajar en un proyecto con gran flujo de datos.

Nivel de inglés alto.


¿Qué ofrecemos?


  • Incorporación estable
  • Excelente ambiente de trabajo
  • Plan de carrera
  • Formación continua.
  • Híbrido en Madrid: 3 días a la semana de presencialidad.


En Arktic garantizamos la igualdad de oportunidades con independencia del género, origen nacional, orientación sexual, religión o discapacidad, trabajamos juntos para crear un ambiente inclusivo donde todos puedan alcanzar su máximo potencial.

Lo sentimos, este trabajo no está disponible en su región
Sé el primero en saberlo

Acerca de lo último Data engineer Empleos en España !

Data Engineer

Galicia, Galicia ABANCA

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Lo sentimos, este trabajo no está disponible en su región

Data Engineer

Catalonia, Catalonia SEIDOR

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

Humanizando la Tecnología.


Somos una gran empresa con alma de start-up. Nos organizamos por unidades de conocimiento expertas que colaboran entre sí.

Por ello buscamos personas inquietas, que les motiven los retos y con ganas de crecer personal y profesionalmente , que se unan a nuestro equipo para tener unimpacto positivo en el mundo a través de la tecnología.


¿TE APUNTAS AL RETO?


Como Data Engineer te incorporarás a un equipo de Desarrollo Software especializado, entre otras muchas cosas, en el desarrollo de apps móviles (ya sean nativas, híbridas o bajo frameworks multiplataforma), grandes servicios de integración y backends, ya sean On Premise u On Cloud (bajo tecnología AWS, Azure o Google), aplicaciones web de gran envergadura, etc.


Somos líderes en el mantenimiento de aplicaciones extremo a extremo, basado en la mejora las operaciones. Esto incluye servicios recurrentes de mantenimiento y soporte técnico y funcional así como evolutivos y nuevos desarrollos.


Realizamos todas las capas necesarias, desde la conceptualización y diseño hasta el aseguramiento de la calidad y seguridad de las aplicaciones a implantar.

Apostamos por los perfiles multidisciplinares y creemos en la filosofía Full Stack, por ello, se valorará también positivamente aportar experiencia en otros stacks tecnológicos ya sea de back (Java, .Net, NodeJS, etc.), desarrollo móvil (iOS, Ionic, Flutter, etc.) o web (HTML+JS+CSSS, AngularJS, etc.).


¿QUÉ HARÁS?


  • Colaborarás estrechamente con equipos internos y del cliente en el desarrollo de soluciones de datos con impacto estratégico en el sector educativo.


  • Participarás activamente en sesiones de descubrimiento para entender los procesos actuales, identificar necesidades y preparar el backlog de implementación.


  • Diseñarás y desarrollarás pipelines de datos en entornos AWS y Snowflake , garantizando la eficiencia y fiabilidad del procesamiento de datos.


  • Realizarás análisis y modelado de datos orientados a soluciones Business Intelligence .


  • Crearás dashboards y visualizaciones de alto valor en herramientas como Power BI y Tableau para facilitar la toma de decisiones.


  • Tendrás interlocución directa con el cliente para traducir requerimientos funcionales en soluciones técnicas concretas.


  • Participarás en la documentación técnica y en la preparación de entregables que respalden cada fase del proyecto.


¿QUÉ NECESITAMOS?


  • Que cuentes con experiencia sólida como Data Engineer en entornos AWS y Snowflake , y seas capaz de abordar proyectos de datos de forma estructurada y eficiente.


  • Que domines el modelado de datos y tengas una clara orientación al análisis BI.


  • Que tengas soltura con herramientas de visualización como Tableau y Power BI , creando paneles claros, útiles y orientados al negocio.


  • Que muestres una alta capacidad de comunicación para interactuar con el cliente, entender su lenguaje y transformar sus necesidades en soluciones técnicas.


  • Que seas una persona colaborativa, proactiva y orientada a resultados , capaz de integrarse en equipos multidisciplinares y adaptarse a un entorno dinámico.


  • Valoramos especialmente si tienes experiencia en proyectos del ámbito educativo o en la administración pública, así como conocimiento previo en entornos Oracle y proyectos end-to-end de datos.


¿QUE ENCONTRARÁS EN SEIDOR?


  • Un equipo diverso . Respetamos las diferencias que nos hacen más humanos.
  • Compañerismo . Trabajamos en equipo y aprendemos los unos de los otros.
  • Flexibilidad y conciliación . El teletrabajo está en nuestro ADN. Promovemos la flexibilidad horaria, y tenemos jornada intensiva los viernes y los meses de julio y agosto.
Lo sentimos, este trabajo no está disponible en su región

Data Engineer

Granada, Andalucia Unit4

Publicado hace 2 días

Trabajo visto

Toque nuevamente para cerrar

Descripción Del Trabajo

We are in Business for People, empowering people in service organizations with innovative Enterprise and Business software solutions. We’ve innovated and taken a new approach to delivering ERP that works for people. Self-driving, adaptive and intuitive software that is changing the way people work. Our solutions empower people and deliver a better people experience so people can spend time on meaningful high value work they live for.

Read more on our website about how we transform work and how people feel about it, so our customers and their people can thrive.



Job Description

We are seeking a forward-thinking Data Engineer to join our AI research team for ERP. This role is pivotal in designing and implementing the data foundation that enables intelligent agents, real-time and adaptive enterprise systems.

You will work at the intersection of data architecture, semantic modeling, and AI integration enabling innovation across AI, analytics, and enterprise automation.

Your primary responsibility will be AI research that supports intelligent automation and orchestration within enterprise systems. Additionally, your expertise will play a vital role in advancing current and future data engineering initiatives across multiple teams and projects at Unit4.



Qualifications

Key Responsibilities:

Data Architecture & Engineering

  • Design and implement scalable data lakehouse architectures using Delta Lake and Databricks.
  • Support and contribute to the evolution of the Unit4’s data platform and related initiatives.
  • Define and enforce data lifecycle management, data contracts, and metadata standards.
  • Design and develop real-time data pipelines and streaming architectures using Kafka, Spark Streaming, or Flink.
  • Ensure data quality, lineage, and governance across structured and unstructured sources.

Semantic & Contextual Modeling

  • Model, develop and maintain ontologies and semantic models to support AI agents and context-aware data access and queries.
  • Model business flows and relationships using knowledge graphs and contextual metadata (e.g., GraphRAG, LlamaIndex).
  • Collaborate on the implementation of Model Context Protocol (MCP) and Agent2Agent (A2A) for agent interoperability.

AI Integration & Enablement

  • Enable AI agents to access, interpret, and act on ERPx data through well-structured APIs and semantic layers.
  • Support the integration of AI/ML models into event-driven architectures, microservices and agentic systems.
  • Collaborate with AI engineers to design AI workloads and meet AI requirements.

Infrastructure & DevOps

  • Design cloud-native, scalable infrastructure for data serving AI workloads (Azure, AWS, GCP).
  • Implement CI/CD pipelines for data using tools like Bicep, Airflow, Terraform.
  • Ensure observability, monitoring, and compliance in data and AI systems.
  • Collaborate with AI engineers to define retraining triggers, model drift detection, and feedback loops.

Collaboration & Leadership

  • Work closely with architects, data scientists, AI engineers, and product leads to align data architecture with business goals.
  • Participate in design and architectural reviews, roadmap planning, and research cross-functional discussions.
  • Mentor junior engineers and contribute to knowledge sharing across teams.

Requirements:

Technical Skills

  • Data Architecture & Engineering: Expertise in data Lakehouse architecture (Delta Lake, Databricks, Spark SQL), dbt, DLT, Airflow.
  • Streaming & Event Systems : Strong experience with real-time data processing (Apache Kafka, Flink, Spark Streaming), event modeling, schema evolution.
  • Semantic & Metadata Modeling : Proficiency in semantic modeling, ontology engineering, metadata management, knowledge graphs, Unity Catalog, GraphRAG, LlamaIndex.
  • Data Governance : Expertise in data privacy, security and compliance (e.g. GDPR).
  • Cloud & DevOps : Experience with cloud platform (Azure/AWS/GCP) and IaC tools (Terraform, Kubernetes, Docker), CI/CD for data and supporting AI workloads.
  • AI Integration : Familiarity with AI integration patterns, operations and automations, model lifecycle management, real-time feature pipelines, including MCP & A2A protocols and context-aware APIs.
  • Programming : Python, .NET (C#), SQL, and optionally Scala or Java.

Soft Skills

  • Collaboration & Communication : Work effectively across architecture, AI, product, and engineering teams.
  • Agile Mindset : Comfortable with iterative delivery, version control, and DevOps practices.
  • Governance Awareness: Comprehensive understanding of, and adherence to, organizational best practices concerning data privacy, security, and compliance requirements (such as GDPR).

Attitude & Aptitude

  • System Design Thinking : Ability to architect end-to-end data platforms with scalability, latency, and reliability in mind.
  • Problem Solving : Strong debugging skills in distributed systems and performance tuning.
  • Curiosity & Learning : Eagerness to explore emerging technologies in AI, streaming, and semantic modeling.
  • Adaptability : Comfortable navigating ambiguity and evolving project scopes.
  • Ownership : Proactive in identifying gaps, proposing solutions, and driving initiatives forward.
  • Ethical Thinking : Awareness of responsible AI practices and data ethics in production systems.

Preferred Experience

  • 5+ years in software engineering with a strong foundation in modern engineering practices.
  • Experience in enterprise software, ERP systems, enterprise-scale data platforms and process automation.
  • Familiarity with data product thinking and self-service data platforms.
  • Hands-on experience with Lakehouse architectures and real-time data pipelines.
  • Proficiency in semantic modeling, ontology engineering, business flows and relationships using knowledge graphs and contextual metadata, data lifecycle management and data contacts.
  • Strong knowledge of streaming architecture design patterns.
  • Understanding of AI/ML lifecycle, AI agent frameworks and protocols for agent interoperability.

Additional Information

Join Unit4 and be part of one of the most exciting journeys in the cloud ERP software space. We’re a fast-paced, high-growth, people-centric company, delivering enterprise software for a great people experience, and offering our own people a host of benefits and development opportunities. Grow with us At Unit4, we offer:

• a culture built on trust - giving you the freedom and autonomy to be successful;

• balance - with our uncapped time off policy, remote working opportunities and Global Wellbeing Days when the whole company can switch off and prioritize well-being;

• talented colleagues, role models and mentors - work, learn and be inspired by some of the best talent in the software industry;

• a commitment to sustainability - with initiatives such as our Act4Good program, a way for everyone at Unit4 to come together and engage in actions that benefit society and the planet;

• a safe and inclusive working environment – supported by our Employee Resource Groups, which are open to all and include Women at Unit4, Pride at Unit4, Mental Health and Access at Unit4, and People of Color at Unit4.

Lo sentimos, este trabajo no está disponible en su región

Ubicaciones cercanas

Otros empleos cerca de mí

Industria

  1. gavelAdministración Pública
  2. workAdministrativo
  3. ecoAgricultura y Silvicultura
  4. restaurantAlimentos y Restaurantes
  5. apartmentArquitectura
  6. paletteArte y Cultura
  7. diversity_3Asistencia Social
  8. directions_carAutomoción
  9. flight_takeoffAviación
  10. account_balanceBanca y Finanzas
  11. spaBelleza y Bienestar
  12. shopping_bagBienes de consumo masivo (FMCG)
  13. point_of_saleComercial y Ventas
  14. shopping_cartComercio Electrónico y Medios Sociales
  15. shopping_cartCompras
  16. constructionConstrucción
  17. supervisor_accountConsultoría de Gestión
  18. person_searchConsultoría de Selección de Personal
  19. request_quoteContabilidad
  20. brushCreativo y Digital
  21. currency_bitcoinCriptomonedas y Blockchain
  22. health_and_safetyCuidado de la Salud
  23. schoolEducación y Formación
  24. boltEnergía
  25. medical_servicesEnfermería
  26. biotechFarmacéutico
  27. manage_accountsGestión
  28. checklist_rtlGestión de Proyectos
  29. child_friendlyGuarderías y Educación Infantil
  30. local_gas_stationHidrocarburos
  31. beach_accessHostelería y Turismo
  32. codeInformática y Software
  33. foundationIngeniería Civil
  34. electrical_servicesIngeniería Eléctrica
  35. precision_manufacturingIngeniería Industrial
  36. buildIngeniería Mecánica
  37. scienceIngeniería Química
  38. handymanInstalación y Mantenimiento
  39. smart_toyInteligencia Artificial y Tecnologías Emergentes
  40. scienceInvestigación y Desarrollo
  41. gavelLegal
  42. clean_handsLimpieza y Saneamiento
  43. inventory_2Logística y Almacenamiento
  44. factoryManufactura y Producción
  45. campaignMarketing
  46. local_hospitalMedicina
  47. perm_mediaMedios y Relaciones Públicas
  48. constructionMinería
  49. sports_soccerOcio y Deportes
  50. medical_servicesOdontología
  51. schoolPrácticas
  52. emoji_eventsRecién Graduados
  53. groupsRecursos Humanos
  54. securitySeguridad de la Información
  55. local_policeSeguridad y Vigilancia
  56. policySeguros
  57. support_agentServicio al Cliente
  58. home_workServicios Inmobiliarios
  59. diversity_3Servicios Sociales
  60. wifiTelecomunicaciones
  61. psychologyTerapia
  62. local_shippingTransporte
  63. storeVenta al por menor
  64. petsVeterinaria
Ver todo Data Engineer Empleos