Business Intelligence Engineer , Business Intelligence Engineer
Trabajo visto
Descripción Del Trabajo
At Amazon, we're working to be the most customer-centric company on earth. To get there, we need exceptionally talented, bright, and driven people. If you'd like to help us build the place to find and buy anything online, this is your chance to make history. This role has the responsibility of analyzing the business problem statements and requirements by put them into functional requirements that allow the development and implementation of tools and automated processes working with clients to define best output based on expressed stakeholder needs. Likewise, convert data to make it analysis
- ready through basic descriptive, aggregations, pivots and implement/deploy data visualization or communication tools (e.g., metrics dashboards, decks, and flashes). This role will be supporting Mexico’s ACES Team.
- Experience with AWS solutions such as EC2, DynamoDB, S3, and Redshift
- Experience in data mining, ETL, etc. and using databases in a business environment with large-scale, complex datasets
Trabajo ya no disponible
Este puesto ya no está publicado en WhatJobs. Es posible que el empleador esté revisando solicitudes, haya cubierto el puesto o haya eliminado la publicación.
Sin embargo, tenemos trabajos similares disponibles para usted a continuación.
Data Engineer
Hoy
Trabajo visto
Descripción Del Trabajo
- Python (2 years experience preferred)
- SQL queries, stored procedures, optimization (2 years experience preferred)
- Spark programming (1-year experience preferred)
- Kubernetes (1-year experience preferred)
- Kafka/AWS Kinesis/Google Cloud Dataflow/Azure Event Hub/Flink
- ‘Data Science’
- ‘ETL’ (must have 3 years experience minimum)
Competitive Salary
You will get a very competitive salary that will match with your skills and experience.
Career Development
Develop your skills to the full potential and advance your career with platforms and resources at your disposal.
Challenging Projects
Be a crucial part of innovative international projects where you'll have the chance to work and participate with your clients both remotely and on-site.
Work-Life Balance
We provide an environment that supports a healthy work-life balance by prioritizing productivity, and offering family-friendly policies to ensure both your wellbeing and your family's.
Tipo de puesto: Tiempo completo
Salario: $30,000.00 - $50,000.00 al mes
Beneficios:
- Bebidas gratis
- Descuentos y precios preferenciales
- Días de maternidad superiores a los de la ley
- Días de paternidad superiores a los de la ley
- Programa de referidos
- Seguro de gastos médicos
- Seguro de gastos médicos mayores
- Seguro dental
- Vacaciones adicionales o permisos con goce de sueldo
- Vales de restaurante
Pago complementario:
- Bono de productividad
Tipo de jornada:
- Turno de 10 horas
Data Engineer
Hoy
Trabajo visto
Descripción Del Trabajo
The primary responsibility of Senior Data Management Engineer is to build data pipelines, model and prepare data, perform complex data analysis to answer Business questions, build and automate data pipeline and quality framework to enable and promote self-service data pipelines, assist in operationalizing the AI / ML Engineering solutions. This role is expected to lead and guide other team members and evangelize the design patterns as well as coding standards. This role plays an active part in our Data Modernization project to migrate the from on premise platforms such as IBM Netezza to cloud project
**Responsibilities**:
- Team up with the engineering teams and enterprise architecture (EA) to define standards, design
patterns, accelerators, development practices, DevOps and CI/CD automation
- Create and maintain the data ingestion, quality testing and audit framework
- Conduct complex data analysis to answer the queries from Business Users or Technology team
partners either directly from Analysts or stemmed from one of the Reporting tools such as PowerBI, Tableau, OBIEE.
- Build and automate the data ingestion, transformation and aggregation pipelines using Azure
Data Factory, Databricks / Spark, Snowflake, Kafka as well as Enterprise Scheduler tools such as
CA Workload automation or Control M
- Setup and evangelize the metadata driven approach to data pipelines to promote self service
- Setup and continuously improve the data quality and audit monitoring as well as alerting
- Constantly evaluate the process automation options and collaborate with engineering as well as
architecture to review the proposed design.
- Demonstrate mastery of build and release engineering principles and methodologies including
source control, branch management, build and smoke testing, archiving and retention practices
- Adhere to and enhance and document the design principles, best practices by collaborating with
Solution and in some cases Enterprise Architects
- Participate in and support the Data Academy and Data Literacy program to train the Business
Users and Technology teams on Data
- Respond SLA driven production data quality or pipeline issues
- Work in a fast-paced Agile/Scrum environment
- Identify and assist with implementation of DevOps practices in support of fully automated
deployments
- Document the Data Flow Diagrams, Data Models, Technical Data Mapping and Production
Support Information for Data Pipelines
- Follow the Industry standard data security practices and evangelize the same across the team.
**Requirements**:
- 5+ years of experience in an Enterprise Data Management or Data Engineering role
- 3+ of hands on experience in building metadata driven data pipelines using Azure Data Factory,
Databricks / Spark for Cloud Datalake
- 5+ years hands on experience with using one or more of the following for data analysis and
wrangling Databricks, Python / PySpark, Jupyter Notebooks
- Expert level SQL knowledge on databases such as but not limited to Snowflake, Netezza, Oracle,
Sql Server, MySQL, Teradata
- 3+ years of hands on experience on one or more of big data technologies such as Cloudera
Hadoop, Pivotal, Vertica, MapR is a plus
- Experience working in a multi developer environment and hands on experience in using either
azure devops or gitlab
- Preferably experienced in SLA driven Production Data Pipeline or Quality support
- Experience or strong understanding of the traditional enterprise ETL platforms such as IBM
Datastage, Informatica, Pentaho, Ab Initio etc.
- Functional knowledge of some of the following technologies - Terraform, Azure CLI, PowerShell,
Containerization (Kubernetes, Docker)
- Functional knowledge of one or more Reporting tools such as PowerBI, Tableau, OBIEE
- Team player with excellent communication skills, ability to communicate with the customer
directly and able to explain the status of the deliverables in scrum calls
- Ability to implement Agile methodologies and work in an Agile DevOps environment
**Qualifications**:
- Bachelor’s degree in Computer Science or Engineering or Mathematics or related field and 5+
years of experience in various cloud technologies within a large-scale organization
- Personal Attributes: Self-starter, Collaborative, Curious, Strong work ethic, highly motivated,
Team oriented
- Experience designing and building complex data pipelines in an agile environment
- Expertise on data analysis and wrangling using sql, python, databricks
- Experience with modern cloud development and design concepts; software development
lifecycle; multi-developer code versioning and conflict resolution; planning, design, and problem
- Demonstrated ability in developing a culture that embraces innovation, and challenges existing
paradigms
**Job Types**: Full-time, Contract
Contract length: 12 months
Pay: $60,000.00 - $85,000.00 per month
**Experience**:
- AngularJS: 3 years (required)
- SPA: 3 years (required)
**Language**:
- Eng
Data Engineer
Hoy
Trabajo visto
Descripción Del Trabajo
BABEL es una consultora tecnológica multinacional especializada en aplicar sus servicios y conocimiento tecnológico en los procesos de aceleración digital de sus clientes, grandes empresas y organismos públicos.
¿Cuál es nuestro plan estratégico?
En Babel estamos entusiasmados con los progresos de nuestro Plan Marte 2025. Queremos llegar a 300 millones de euros de facturación y conseguir un EBITDA de 36 millones con una plantilla de 5.000 babelievers en el mundo!
El buen hacer y el compromiso del equipo esta dando sus frutos y nos encontramos en buena ruta para alcanzar estas metas, lo cual refleja la solidez y visión de nuestra organización.
Mirando hacia el futuro, ya hemos diseñado el nuevo plan estratégico Hyperspace 2029, un desafío aún mayor, que promete ser un viaje emocionante, lleno de oportunidades para crecer y desarrollarse profesionalmente. Alcanzar 1000 millones de facturación, un reto que estamos seguros de que con la colaboración y el talento de nuestra gente, será otra historia de éxito que escribiremos juntos.
¿Qué buscamos?
Al menos 4 años de experiência en las siguientes herramientas:
Lenguajes de programación: JAVA /JavaScript / Python
Manejador de Base de Datos: Oracle con conocimientos en desarrollo PL-SQL y fine tunning de Bases de Datos
ETL: Python
IDE de desarrollo: Eclipse, intelij, Gitlab
Conocimientos Deseables:
ETL: SSIS, ODI, SPARK, Informática, KAFKA
Bases de Datos: SQL Server, DB2, Casandra, etc.
Consideraciones de la posición:
Asistencia a oficina: Dependiendo la necesidad de interacción con el resto del equipo. Máximo 3 veces a la semana
Trabajo en fin de semana: Probablemente el primer mes en el proceso de estabilización del proceso en desarrollo.
babel
¿Qué ofrecemos?
Babel, the great way to achieve the success.
¿Quieres formar parte de un equipo en expansión, comprometido e innovador que hace historia cada día? En Babel te acompañamos en tu camino hacia el éxito. Creemos en el talento de las personas y lo queremos potenciar ofreciéndote un gran entorno de trabajo basado en la colaboración y la solidaridad.
Trabajar en Babel es mucho más que trabajar en una empresa, es unirse a un equipo de personas con una misión compartida y a un modelo de compañía centrado en valores.
Además,- Esquema 100% Nomina- SGM Mayores, SGM Menores- Apoyo de Home Office- Beneficios corporativos superiores
¿Aceptas el desafío? ¡Te esperamos!
- En cumplimiento de la normativa vigente en materia de protección de datos, le informamos que el responsable de sus datos personales es GRUPO BABEL y los utilizará para la realización de procesos internos de selección de personal, basado en su consentimiento, mediante la facilitación de sus datos curriculares y en la aplicación de medidas precontractuales._
- Los datos podrán ser comunicados a las entidades que conforman el GRUPO BABEL con el fin ofrecerle el puesto de trabajo que se adapte a su perfil profesional y las establecidas legalmente._
Data Engineer
Hoy
Trabajo visto
Descripción Del Trabajo
**The Requirements**
- 2+ years’ experience as a data engineer.
- Experience creating reports using Power BI.
- Proficient using SQL.
- Familiarity with cloud ETL tools such as Azure Data Factory.
- Degree (Associates or Bachelors) in computer science, management information systems or related area
- Experience with Agile methodologies including Scrum framework and Kanban preferred
- Willingness to work in a fast-paced collaborative team environment that has tight deadlines.
- Ability to learn and evaluate new tools, concepts, and challenges quickly.
- Customer service focus and flexibility in supporting customer requests.
- Strong analytical and problem-solving skills.
- Commitment to quality and continuous improvement.
- Strong written and verbal communication skills.
- Be available, at times, to work extended work hours.
- Background in benefits administration a plus
**Equal Opportunity Employer**
Pay: $35,000.00 - $40,000.00 per month
Escolaridad:
- Licenciatura terminada (Deseable)
Experiência:
- C#: 3 años (Obligatorio)
- JavaScript: 3 años (Obligatorio)
- Python: 3 años (Obligatorio)
- Angular: 1 año (Obligatorio)
Idioma:
- Inglés avanzado (Obligatorio)
Work Location: In person
Application Deadline: 20/08/2024
Data Engineer
Hoy
Trabajo visto
Descripción Del Trabajo
Join SpaceDev and be part of a cutting-edge team driving innovation in data engineering! We are looking for a **Senior Data Engineer** to design and build scalable data solutions that power AI-driven insights. If you are passionate about cloud-based data architectures and thrive in a collaborative environment, this is your opportunity to make a real impact.
**Key Responsibilities**
- Design, develop, and maintain highly scalable data engineering solutions using AWS services.
- Build and optimize ETL/ELT pipelines, ensuring data quality and reliability.
- Ingest and transform structured, semi-structured, and unstructured data from multiple sources.
- Develop proprietary algorithms to tackle complex data challenges.
- Implement and optimize customer data ingestion and model deployment processes.
- Collaborate with data scientists, engineers, and product teams to develop AI-driven solutions.
- Leverage cloud provider AI services and best practices for ML workflows.
- Monitor workflow performance, reliability, and meet SLA targets.
- Automate processes using scripting, CI/CD, and infrastructure-as-code tools.
- Troubleshoot and solve complex data engineering challenges.
**Skills, Knowledge, and Expertise**
- 5+ years of experience with **Python** and **Scala** for data engineering and ETL.
- 5+ years of experience with **data pipeline tools** (e.g., Informatica, Spark, Spark SQL), DAG orchestration, and workflow management tools (e.g., Airflow, AWS Step Functions).
- 5+ years of experience working with **AWS** or **GCP** cloud ecosystems.
- 3+ years of experience using **Cloud AI services**.
- 3+ years of hands-on experience developing **ETL solutions** with AWS services (S3, IAM, Lambda, RDS, Redshift, Glue, SQS, EKS, ECR).
- Strong expertise in **SQL programming** and writing complex queries.
- Experience with **distributed computing tools** (e.g., Spark, Hive).
- Proficiency in **software engineering best practices**, including version control (Git), CI/CD (Jenkins, GitLab CI/CD, GitHub Actions), and DevOps.
- Experience with **containers and orchestration** (Docker, Kubernetes, Helm).
- Ability to work in a **fast-paced agile environment**.
**Nice to Have**
- AWS certifications (AWS Certified Solutions Architect, Developer, or DevOps).
- Knowledge of **commercial claims management systems**.
**Space Perks**
- 20 vacation days + 3 extra days off per year to recharge
- Access to Udemy courses and the ability to propose new learning tracks
- English classes for all levels
- Work-life balance with our flexible work culture
- Special days off for birthdays and significant occasions
- Team trips: Participate in tech events and team-building experiences
- Performance and inflation adjustments (1-2 times a year)
- Remote-first with offices in Montevideo, Medellín, Buenos Aires, and coworking options globally.
Pay: $50,000.00 - $75,000.00 per month
**Language**:
- English (required)
Work Location: In person
Data Engineer - Hibrido
Hoy
Trabajo visto
Descripción Del Trabajo
**Data Engineer**
**Para laborar en Ciudad de México, GDL, Monterrey o Qro**
**Perfil**
**Escolaridad**: Ingeniería en Sistemas, Informática o afín.
**Experiência**: Mínima de 3 años.
**Inglés**: intermedio conversacional **INDISPENSABLE**
**(esquema Híbrido) 3 días en casa, 2 presenciales**
**Funciones que deberá dominar**:
- Experiência en fábrica de datos de Azure
- Experiência en manejo de SQL / SSIS / ADF
**Ofrecemos**:
- Horario de Oficina
- Sueldo a negociar según experiência en brutos. (Esquema 100% nomina) + Prestaciones de Ley y Prestaciones superiores (SGMM familiar, SV 1 millón, Vales de despensa, 30 días de aguinaldo, PTU)
Tipo de puesto: Por tiempo indeterminado
Salario: Hasta $70,000.00 al mes
Horario:
- Turno de 8 horas
Prestaciones:
- Opción a contrato indefinido
- Seguro de gastos médicos
- Seguro de gastos médicos mayores
- Seguro de vida
- Vales de despensa
Pregunta(s) de postulación:
- ¿consideras que puedes realizar entrevistas en inglés?
- ¿Tienes inconveniente con laborar de manera híbrida?
- En caso de no radicar en alguna de las localidades mencionadas, ¿Cuentas con disponibilidad para cambio de residencia?
Idioma:
- Inglés (Deseable)
Lugar de trabajo: remoto híbrido en 03820, Ciudad de México
Data Engineer -big Data / Hibrido
Hoy
Trabajo visto
Descripción Del Trabajo
Contracion 100% nomina, prestaciones de ley completas y superiores a la ley.
Esquema Hibrido - Toreo / Azcapotzalco.
*Necesario:
Más de 2 años de sólida experiência en metodología ETL para la transformación de datos en desarrollos de BI.
Experiência trabajando con entornos de Big Data.
Amplias consultas SQL para análisis de datos y consultas SQL escritas, ejecutadas y optimizadas para el rendimiento para análisis y creación de perfiles de datos.
Reglas de negocios e implementé lógica de negocios para extraer y cargar el servidor SQL usando T-SQL.
Experiência en estudio, análisis de sistemas OLTP/OLAP, desarrollo de modelos dimensionales utilizando técnicas de esquema de estrella y esquema de copo de nieve utilizadas en modelado relacional, dimensional y multidimensional.
Al menos un sólido conocimiento de lenguajes como Python, Java, Scala, R.
Experiência con tecnologías Big Data como Spark, Hadoop, Hive.
Capacidad para desarrollar canalizaciones de datos dentro de una nube pública GCP
Airflow
Conocimiento del uso de API.
Experiência trabajando con Agile / Scrum Framework
Capacidad para comprender los requisitos finales y analizar las soluciones de principio a fin.
Experiência desarrollando en entorno Data Bricks
Tipo de puesto: Tiempo completo
Salario: $32,000.00 - $37,000.00 al mes
Horario:
- Turno de 8 horas
Prestaciones:
- Seguro de vida
Pregunta(s) de postulación:
- ¿Enterado (a) y de acuerdo en el esquema Hibrido? Toreo ò Azcapotzalco, CDMX
- ¿Cuánto tiempo de experiência en entornos Big Data?
Lugar de trabajo: Empleo presencial
Sé el primero en saberlo
Acerca de lo último Business intelligence engineer , business intelligence engineer Empleos en Ciudad de méxico !
Data Engineer Senior - Azure
Hoy
Trabajo visto
Descripción Del Trabajo
Acerca de la Empresa - En Bluetab, seguimos en crecimiento y estamos en busca de personas como tú, que comparten nuestra pasión por la tecnología.
Nos destacamos por ser diferentes a la consultoría tradicional. Aquí, creemos en contratarte para formar parte de nuestra familia. Valoramos la colaboración, el trabajo en equipo y el aprendizaje constante. Para nosotros, cada miembro es esencial, no sólo un número en una lista. Somos un equipo unido y horizontal, y queremos que así siga siendo.
Recuerda, ningún marinero se convirtió en experto en aguas tranquilas. Sí, somos exigentes, pero nuestros desafíos también lo son. Aquí te desarrollarás junto a auténticos expertos, en entornos innovadores y siempre a la vanguardia de la tecnología. Valoramos el talento y nos preocupamos por las personas que, además de ser talentosas, son buenas personas.
Si te apasiona el trabajo en equipo, disfrutas aprendiendo y te interesa la innovación, ¡estamos ansiosos por conocerte!
Acerca del Rol - Buscamos un/a Data Engineer Senior con experiencia sólida en el diseño, implementación y optimización de Data Lakes en entornos cloud, particularmente en Microsoft Azure . Este rol requiere un dominio avanzado de Azure Databricks como motor de procesamiento distribuido, así como un entendimiento profundo de arquitecturas de datos modernas, prácticas de ingeniería de datos y gobierno de la información.
Requisitos:
Plataforma Azure:
- Azure Databricks :
- Desarrollo de pipelines de datos en PySpark y Spark SQL .
- Orquestación de notebooks y jobs programados.
- Optimización de performance con Delta Lake, particiones, Z-Ordering y cachés.
- Uso de Unity Catalog para gestión centralizada de metadatos y gobernanza.
- Azure Data Lake Storage Gen2 :
- Ingesta, organización y estructuración de datos en capas Bronze, Silver y Gold .
- Buenas prácticas para particionado, estructura de carpetas y naming conventions.
- Azure Data Factory / Synapse Pipelines :
- Orquestación de flujos ETL/ELT.
- Integración de pipelines con Databricks mediante triggers o Linked Services.
- Azure Key Vault , Managed Identity y Entra ID :
- Acceso seguro a secretos, credenciales y recursos del ecosistema.
- Azure Monitor / Log Analytics para seguimiento y diagnóstico de procesos de datos.
Procesamiento y Desarrollo:
- Dominio de PySpark y procesamiento distribuido en Databricks.
- Desarrollo de pipelines robustos y escalables para:
- Ingesta batch y streaming (Kafka, Event Hubs, etc.).
- Transformaciones complejas.
- Calidad de datos y validaciones automáticas.
- Conocimientos en formatos eficientes de almacenamiento como Parquet , Delta Lake y Avro .
- Implementación de CDC (Change Data Capture) en entornos de datos.
DevOps & Automatización:
- Uso de Git y repos integrados con Databricks para versionado de código.
- Automatización de despliegues con Databricks CLI , Databricks Terraform Provider o Databricks Asset Bundles (DAB) .
- Experiencia con CI/CD (GitHub Actions, Azure DevOps) para pipelines de datos.
Requisitos Deseables:
- Experiencia en arquitecturas de tipo medallion (Bronze, Silver, Gold) .
- Conocimiento en Data Governance con Microsoft Purview .
- Familiaridad con event-driven architectures en Azure.
- Experiencia en modelado de datos para análisis (Kimball, Data Vault).
- Conocimientos básicos en herramientas de BI (Power BI, Tableau).
Se valorará de forma especial:
- Apasionado de la tecnología. Completamente al día de las últimas tendencias de la industria.
- Habituado a trabajar por objetivos. Acostumbrado a trabajar bajo presión en entornos altamente exigentes.
- Buen comunicador, sabrá transmitir ilusión al entorno de trabajo.
- Comprometido. Capacidad de análisis y solución de problemas.
- Buenas habilidades de negociación.
- Capaz de generar empatía tanto con los empleados y clientes.
- Capaz de adaptarse a la cultura de trabajo de una pyme. Sin grandes jerarquías. Compatibilizando la capacidad de trabajar con autonomía con un fuerte espíritu de colaboración y, sobre todo, de trabajo en equipo.
- Interesado en desarrollar su carrera profesional en entornos altamente competitivos y con alto potencial de crecimiento.
Perfil del candidato/a ideal:
- Eres un apasionado/a de la tecnología y estás siempre al día con las últimas tendencias de la industria.
- Estás acostumbrado/a a trabajar por objetivos y en entornos altamente exigentes.
- Tienes habilidades excepcionales de comunicación y sabes transmitir entusiasmo en el trabajo.
- Eres una persona comprometida, con fuertes habilidades de análisis y resolución de problemas, así como habilidades de negociación.
- Puedes establecer una conexión empática tanto con los compañeros de trabajo como con los clientes.
- Te adaptas fácilmente a la cultura de trabajo de una empresa donde no hay grandes jerarquías y se valora la autonomía, la colaboración y el trabajo en equipo.
- Estás interesado/a en desarrollar tu carrera en un entorno altamente competitivo con un gran potencial de crecimiento.
En Bluetab, te ofrecemos:
- Contrato indefinido, posterior al periodo de prueba, con un salario competitivo, basado en tus habilidades técnicas y el rol asignado, con posibilidad de ajustes conforme a tus evaluaciones de desempeño.
- Formación continua.
- Plan de carrera individualizado en áreas técnica, funcional o de gestión (¡Tú decides, pero siempre continuamos formándonos!).
- Beneficios sociales que van más allá del salario, como un fondo de ahorro, seguros médicos para ti y tu familia, vales de despensa, vacaciones superiores a las establecidas por ley y más.
¿Qué estás esperando para unirte a Bluetab, an IBM Company? ¡Queremos saber de ti pronto!
En /b promovemos la diversidad de género, origen étnico, nacionalidad, la inclusión de personas con discapacidad y/o habilidades diferentes mediante la igualdad de oportunidades en todos los procesos, y buscamos ampliar las oportunidades de desarrollo profesional.
"Bluetab" es una empresa del grupo IBM. Bluetab será la entidad contratante. Al proceder con esta solicitud, usted entiende que Bluetab compartirá su información personal con otras filiales de IBM involucradas en su proceso de reclutamiento, selección y contratación, donde quiera que éstas se encuentren. Encontrará más información sobre cómo IBM protege su información personal, incluidas las medidas en caso de transferencia transfronteriza de datos, aquí: ".
Data Engineer - Wrangler 2
Hoy
Trabajo visto
Descripción Del Trabajo
En Stefanini somos más de 30.000 genios, conectados desde 41 países, haciendo lo que les apasiona y co-creando un futuro mejor.
**Descripción**: Ingeniero de Datos especializado en el tratamiento de información orientado a soluciones analíticas y automatización de procesos
**Responsabilidades y atribuciones**
- Diseñar, desarrollar y mantener canales de datos y procesos ETL para garantizar el flujo eficiente y confiable de datos desde diversas fuentes a nuestro almacén de datos.
- Colaborar con científicos de datos, analistas y otras partes interesadas para comprender los requisitos de datos y traducirlos en soluciones técnicas.
- Realizar modelado de datos y diseño de bases de datos para optimizar el almacenamiento y la recuperación de datos.
- Implementar procesos de validación y calidad de los datos para garantizar la precisión e integridad de los datos.
- Supervisar y solucionar problemas de sistemas y canalizaciones de datos para identificar y resolver cualquier problema o cuello de botella.
- Desarrollar y mantener documentación para procesos, sistemas y mejores prácticas de ingeniería de datos.
- Manténgase actualizado con las últimas tendencias y tecnologías en ingeniería de datos y recomiende mejoras para mejorar la infraestructura y los sistemas de datos.
**Requisitos y calificaciones** Skills mandatorios**:
- ANSI Sql Avanzado y dominio de funciones analíticas SQL
- Experiência en herramientas ETL
- Conocimiento en Python/PySpark
- Experiência en el tratamiento de archivos planos mediante código y herramientas BI
- Experiência en Ecosistemas y arquitectura Big Data
- Amplio conocimiento en soluciones de automatización
- Experiência en el análisis y diseño de requerimientos
- Capacidad de comunicación y presentación de resultados
- Inglés intermedio
**Skills deseables**:
- Experiência en analítica de datos
- Experiência en visualización de datos
- Modelado de datos (Inmon-Kimball)
**Herramientas**:
- Python 3+
- PySpark
- GCP
- Apache Airflow
- Power BI
- _ DataIku (deseable)_
- _ Databricks (deseable)_
- _ Tableau Prep (deseable)_
- _ RBDMS (SQL Server deseable)_
- _ Integración de datos (SSIS deseable)_
- _ Tableau (deseable_
Somos una empresa global con 35 años de experiência en el mercado, ofrecemos una sólida selección de servicios como: automatización, nube, Internet de las cosas (IoT) y experiência de usuario (UX).
Creemos que la tecnología puede revolucionar una empresa y la innovación es fundamental para fomentar el desarrollo y la competitividad. También valoramos las nuevas ideas y el poder de una mente abierta, por lo que reconocemos que cada talento es esencial para la calidad de nuestros proyectos y especialmente para nuestro progreso.
Mantenemos nuestra excelencia invirtiendo en innovaciones tecnológicas, las mejores alianzas, adquisiciones de empresas en todo el mundo y la contratación de profesionales altamente capacitados.
BANAMEX Intern Data Engineer C09 (Temporal)
Publicado hace 3 días
Trabajo visto
Descripción Del Trabajo
**Responsibilities:**
+ Incumbents work with large and complex data sets (both internal and external data) to evaluate, recommend, and support the implementation of business strategies
+ Identifies and compiles data sets using a variety of tools (e.g. SQL, Access) to help predict, improve, and measure the success of key business to business outcomes
+ Responsible for documenting data requirements, data collection / processing / cleaning, and exploratory data analysis; which may include utilizing statistical models / algorithms and data visualization techniques
+ Incumbents in this role may often be referred to as Data Scientists
+ Specialization in marketing, risk, digital and AML fields possible
+ Appropriately assess risk when business decisions are made, demonstrating particular consideration for the firm's reputation and safeguarding Citigroup, its clients and assets, by driving compliance with applicable laws, rules and regulations, adhering to Policy, applying sound ethical judgment regarding personal behavior, conduct and business practices, and escalating, managing and reporting control issues with transparency.
**Qualifications:**
+ Previous related experience preferred
+ Have the ability to retrieve and manipulation data
+ Working experience in a quantitative field
+ Possess analytic ability and problem solving skills
+ Excellent communication and interpersonal skills, be organized, detail oriented, and adaptive to matrix work environment
**Education:**
+ Bachelors/University degree or equivalent experience
This job description provides a high-level review of the types of work performed. Other job-related duties may be assigned as required.
Breve descripcion del Area:
Área de testing, cada una de las estrategias que se buscan generar en diferentes áreas, pasan por el área de testing, se encargan de diseñar experimentos para probar las diferentes estrategias y buscar la más rentable.
Breve descripcion del rol:
Estará trabajando en la ejecución de requerimientos y análisis de resultados de estrategias. También, trabajará en el desarrollo de modelos de machine learning.
Entregables:
Principalmente reportes/tableros en Excel y/o Power Point con resultados de estrategias y de modelos de predicción.
---
**Job Family Group:**
Decision Management
---
**Job Family:**
Specialized Analytics (Data Science/Computational Statistics)
---
**Time Type:**
Full time
---
**Most Relevant Skills**
Please see the requirements listed above.
---
**Other Relevant Skills**
For complementary skills, please see above and/or contact the recruiter.
---
_Citi is an equal opportunity employer, and qualified candidates will receive consideration without regard to their race, color, religion, sex, sexual orientation, gender identity, national origin, disability, status as a protected veteran, or any other characteristic protected by law._
_If you are a person with a disability and need a reasonable accommodation to use our search tools and/or apply for a career opportunity review_ _Accessibility at Citi ( _._
_View Citi's_ _EEO Policy Statement ( _and the_ _Know Your Rights ( _poster._
Citi is an equal opportunity and affirmative action employer.
Minority/Female/Veteran/Individuals with Disabilities/Sexual Orientation/Gender Identity.