82 Ofertas de Modelado de Datos en Mexico
Ingeniero de datos
Publicado hace 5 días
Trabajo visto
Descripción Del Trabajo
Key Responsibilities
- Diseñar, desarrollar y mantener pipelines de datos escalables en Databricks .
- Implementar procesos ETL/ELT usando PySpark y SQL.
- Integrar datos desde múltiples fuentes para generar datasets confiables.
- Colaborar con equipos de BI, Data Science y negocio para definir requerimientos y métricas clave.
- Optimizar rendimiento y costos en entornos cloud (Azure/AWS/GCP).
- Implementar prácticas de seguridad y gobierno de datos.
Required Skills & Qualifications
- Experiencia comprobable en Databricks .
- Conocimiento avanzado de PySpark y SQL.
- Experiencia en desarrollo de ETL/ELT y modelado de datos.
- Conocimiento de entornos cloud (Azure Data Lake, AWS S3, GCP BigQuery).
- Manejo de herramientas CI/CD y versionamiento (Git, DevOps).
- Habilidad para documentar y comunicar soluciones técnicas.
Ingeniero de datos
Publicado hace 9 días
Trabajo visto
Descripción Del Trabajo
¡Sé parte de Stefanini!
En Stefanini somos más de 30,000 genios, conectados desde 41 países, co-creando un futuro mejor.
¡Sé nuestro Ingeniero de Datos!
Experiencia
- De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
- Capacidad analítica y orientación a la resolución de problemas.
- Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.
- Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.
- Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.
- Dominio en el desarrollo de procesos ETL utilizando Python.
- Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.
- Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.
- Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.
- Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).
- Deseable: conocimientos básicos de Hadoop, Hive y Spark.
- Deseable: conocimientos en analítica avanzada.
Responsabilidades
- Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
- Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.
- Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.
- Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.
- Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.
- Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.
- Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.
Ofrecemos:
- Esquema Hibrido (Polanco, CDMX)
- Seguro de Vida
- Bono de Puntualidad
- Vales de Despensa
- Vales de Restaurante
- Prestaciones de Ley + PTU
- Plataformas de Aprendizaje y Mentoring
- Descuentos en Escuelas de Idiomas
- Descuentos en Gimnasios
Ingeniero de datos
Publicado hace 9 días
Trabajo visto
Descripción Del Trabajo
Somos un grupo internacional de consultoría digital ágil. En la era de la post transformación digital, nos esforzamos por permitir que cada uno de nuestros 27 000 profesionales se renueve continuamente viviendo de manera positiva su propio flow digital.
Cada uno de ellos puede moldear su trayectoria profesional de acuerdo con sus preferencias, emprender de forma práctica para construir junto a sus clientes un mundo más positivo, innovar localmente en 26 países y armonizar su carrera profesional con su bienestar personal.
Únete a Inetum. Live your positive digital Flow
Data Engineer
MISION:
- Diseñar, construir y gestionar las soluciones de datos de una organización. El objetivo es facilitar el acceso y la interpretación de los datos, asegurando la calidad, eficiencia y seguridad de los mismos para respaldar la toma de decisiones.
PERFIL:
- Indispensable ingles B2 como mínimo (se tiene interacción con equipos internacionales donde la comunicación es 100% en idioma inglés)
- Indispensable ser residente mexicano, en caso de ser extranjero contar con toda la documentación para laborar dentro del país
- Experiencia de al menos 2 años comprobables en el área de datos con herramientas como:
- Python
- SQL
- Snowflake
- Azure Data Factory, Databricks
**Inetum, compañía líder europea en soluciones y servicios digitales, ha sido reconocida por su compromiso con un entorno laboral inclusivo y equitativo. Somos una empresa que se distingue y destaca por su forma relevante y especialmente significativa en la implantación, seguimiento, evaluación y resultados de las medidas contenidas en sus planes y políticas de igualdad. En Inetum, no discriminamos en nuestras contrataciones por ningún motivo, y todas las decisiones de empleo se toman en función de las habilidades, la competencia, la integridad y las necesidades de la organización. Nuestro compromiso con la igualdad de oportunidades es continuo y constante, y estamos decididos a fomentar un ambiente inclusivo en el ámbito laboral. **
Tipo de puesto: Tiempo completo
Sueldo fijo de $65,000.00 brutos al mes
Ingeniero de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Ingeniero de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Ingeniero de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Ingeniero de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Sé parte de Stefanini
En Stefanini somos más de 30,000 genios, conectados desde 41 países, co-creando un futuro mejor.
Sé nuestro Ingeniero de Datos
Experiencia
- De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
- Capacidad analítica y orientación a la resolución de problemas.
- Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.
- Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.
- Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.
- Dominio en el desarrollo de procesos ETL utilizando Python.
- Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.
- Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.
- Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.
- Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).
- Deseable: conocimientos básicos de Hadoop, Hive y Spark.
- Deseable: conocimientos en analítica avanzada.
Responsabilidades
- Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
- Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.
- Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.
- Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.
- Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.
- Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.
- Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.
Ofrecemos:
- Esquema Hibrido (Polanco, CDMX)
- Seguro de Vida
- Bono de Puntualidad
- Vales de Despensa
- Vales de Restaurante
- Prestaciones de Ley + PTU
- Plataformas de Aprendizaje y Mentoring
- Descuentos en Escuelas de Idiomas
- Descuentos en Gimnasios
Sé el primero en saberlo
Acerca de lo último Modelado de datos Empleos en Mexico !
Ingeniero de Datos
Hoy
Trabajo visto
Descripción Del Trabajo
Misión:
Diseñar, construir y mantener soluciones de datos que aseguren información confiable, oportuna y trazable para la inteligencia de negocio. Este rol será clave para transformar datos en insights estratégicos que impulsen la toma de decisiones en todos los niveles de la organización.
Retos:
- Diseñar modelos de datos escalables y de alto rendimiento (estrella/snowflake).
- Optimizar estructuras de datos en la nube para mejorar tiempos de respuesta.
- Traducir necesidades de negocio en soluciones analíticas sostenibles.
Responsabilidades:
- Diseñar procesos de ingesta, transformación y validación de datos desde diversas fuentes.
- Construir modelos analíticos multidimensionales optimizados para BI.
- Programar cubos de información y optimizar estructuras de datos en la nube.
- Diseñar y automatizar datasets analíticos y tableros de indicadores clave con Power BI, Tableau, Artus u otras herramientas.
- Coordinar sesiones de validación de datos con usuarios finales para asegurar confiabilidad y trazabilidad.
- Conectar equipos técnicos, usuarios de negocio y proveedores para garantizar soluciones alineadas a los objetivos estratégicos
Perfil:
Formación académica: Ingeniería en Sistemas, Ciencia de Datos, Informática o carrera afín (titulado).
Experiencia:
- Al menos 3 años en análisis, desarrollo e implementación de proyectos de BI.
- Experiencia en diseño y desarrollo de Data Marts y soluciones de integración de datos.
Habilidades técnicas:
- Dominio avanzado de Microsoft SQL Server (Stored Procedures, funciones, vistas).
- Modelado de datos dimensionales (estrella/snowflake).
- Integración de datos desde múltiples fuentes a Data Warehouses y Data Marts.
- Desarrollo de tableros de indicadores con Power BI, Tableau, Looker u otras herramientas BI.
- Inglés intermedio-avanzado (deseable)
Habilidades humanas:
- Comunicación efectiva
- Colaboración y trabajo en equipo
- Pensamiento analítico, resolución de problemas y orientación a resultados.
Ingeniero de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Key Responsibilities
- Diseñar, desarrollar y mantener pipelines de datos escalables en Databricks.
- Implementar procesos ETL/ELT usando PySpark y SQL.
- Integrar datos desde múltiples fuentes para generar datasets confiables.
- Colaborar con equipos de BI, Data Science y negocio para definir requerimientos y métricas clave.
- Optimizar rendimiento y costos en entornos cloud (Azure/AWS/GCP).
- Implementar prácticas de seguridad y gobierno de datos.
Required Skills & Qualifications
- Experiencia comprobable en Databricks.
- Conocimiento avanzado de PySpark y SQL.
- Experiencia en desarrollo de ETL/ELT y modelado de datos.
- Conocimiento de entornos cloud (Azure Data Lake, AWS S3, GCP BigQuery).
- Manejo de herramientas CI/CD y versionamiento (Git, DevOps).
- Habilidad para documentar y comunicar soluciones técnicas.
Ingeniero de datos
Hoy
Trabajo visto
Descripción Del Trabajo
Sé parte de Stefanini
En Stefanini somos más de 30,000 genios, conectados desde 41 países, co-creando un futuro mejor.
Sé nuestro Ingeniero de Datos
Experiencia
- De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
- Capacidad analítica y orientación a la resolución de problemas.
- Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.
- Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.
- Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.
- Dominio en el desarrollo de procesos ETL utilizando Python.
- Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.
- Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.
- Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.
- Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).
- Deseable: conocimientos básicos de Hadoop, Hive y Spark.
- Deseable: conocimientos en analítica avanzada.
Responsabilidades
- Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
- Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.
- Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.
- Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.
- Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.
- Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.
- Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.
Ofrecemos:
- Esquema Hibrido (Polanco, CDMX)
- Seguro de Vida
- Bono de Puntualidad
- Vales de Despensa
- Vales de Restaurante
- Prestaciones de Ley + PTU
- Plataformas de Aprendizaje y Mentoring
- Descuentos en Escuelas de Idiomas
- Descuentos en Gimnasios