Arquitecto de soluciones impulsadas por IA (ETL/ELT, Azure, AWS) Ivydutta

Arquitecto de soluciones impulsadas por IA (ETL/ELT, Azure, AWS)

Tiempo completo • Ivydutta
Replies within 24 hours
BUSCO SOLO RESIDENTES ACTUALES DE ARIZONA





SOAZ-Req # 9150 - AZDCS - Arquitecto de soluciones - Datos (solo local/híbrido)



Fecha y hora de cierre: 16/12/2025@ 14:00



Arquitecto de soluciones – El candidato ideal debe tener un historial probado en la entrega de pipelines ETL/ELT de extremo a extremo en entornos Databricks, Azure y AWS.

Este puesto requiere una sólida combinación de liderazgo arquitectónico, profundidad técnica y la capacidad de colaborar con stakeholders empresariales, ingenieros de datos, profesionales de aprendizaje automático y expertos en el sector para ofrecer soluciones escalables, seguras y fiables impulsadas por IA.

Visión general
El Arquitecto de Soluciones – Este puesto implica contribuir al diseño, modernización y optimización de sistemas de datos a escala empresarial, así como a la estrategia de mantenimiento y operaciones de CHP.

Este puesto implica diseñar e implementar sistemas de datos que organicen, almacenen y gestionen datos dentro de nuestra plataforma de datos en la nube.

El arquitecto realizará tareas continuas de mantenimiento y operaciones para CHP en el entorno de la nube.

Revisarán y analizarán la infraestructura de datos de CHP, planificarán futuras soluciones de bases de datos e implementarán sistemas para apoyar la gestión de datos para los usuarios de CHP.

Además, este puesto es responsable de garantizar la integridad de los datos, asegurándose de que el equipo de CHP cumpla con los estándares de gobernanza de datos para mantener la precisión, coherencia y fiabilidad en todos los sistemas.

El arquitecto identificará discrepancias de datos y problemas de calidad, y trabajará para resolverlas.



Responsabilidades clave
• Diseñar arquitecturas escalables de data lake y datos utilizando Databricks y servicios nativos en la nube.
• Desarrollar marcos de ingestión parametrizados y basados en metadatos, así como arquitecturas de datos multicapa.
• Optimizar las cargas de trabajo y el rendimiento de los datos.
• Definir marcos de gobernanza de datos para la CHP.
• Diseñar y desarrollar canalizaciones de datos robustas.
• Arquitectura de sistemas de IA, incluyendo flujos de trabajo RAG e ingeniería de prompts.
• Liderar iniciativas de migración a la nube, desde sistemas heredados hasta plataformas de datos modernas.
• Proporcionar orientación arquitectónica, mejores prácticas y liderazgo técnico entre los equipos.
• Compilar documentación, módulos reutilizables y patrones estandarizados.

Habilidades y experiencia requeridas
• Sólida experiencia en plataformas en la nube, principalmente Azure o AWS.
• Experiencia práctica con Databricks.
• Profunda competencia en Python y SQL.
• Experiencia en la construcción de pipelines ETL/ELT y flujos de trabajo ADF.
• Experiencia en la arquitectura de data lakes e implementación de marcos de gobernanza de datos.
• Experiencia práctica en desarrollo basado en CI/CD, DevOps y Git.
• Capacidad para traducir requisitos empresariales en arquitectura técnica.

Experiencia técnica
Programación: Python, SQL, R
Big Data: Hadoop, Spark, Kafka, Hive
Plataformas en la nube: Azure (ADF, Databricks, Azure OpenAI), AWS
Data Warehousing: Redshift, SQL Server
Herramientas ETL/ELT: SSIS

Formación educativa requerida
• Licenciatura en Informática, Tecnología de la Información, Sistemas de Información, Ingeniería o un campo relacionado.
• 6+ años de experiencia en ingeniería de datos o desarrollo de .NET.




(si ya tienes un currículum en Indeed)

O aplicar aquí.

* campos requeridos

Ubicación
Or
Or