81 Ofertas de Ciencia de Datos en Mexico
Especialista de Ciencia de Datos
Hoy
Trabajo visto
Descripción Del Trabajo
Desarrollar soluciones de inteligencia de datos mediante el procesamiento de información comercial, que faciliten la toma de decisiones estratégicas y comerciales.
INFORMACION DEL PUESTO:
Principales responsabilidades del puesto:
- Investigar y generar información de inteligencia comercial por canales y productos (análisis de mercado y competencia) a través de reportes, para toma de decisiones comerciales.
- Documentar los procesos, metodologías, y lógicas para asegurar la continuidad operativa del área.
- Actualizar los manuales con los cambios realizados a las bases de datos.
- Asegurar el alta de documentación y manuales en los sistemas.
Nível de estudios:
- Licenciatura Con título (Áreas Económico-Administrativa, Estadísticas, Ingenierías o afín. Deseable Maestría en Ciencias de Datos.)
Experiência:
- Diseño de indicadores comerciales. (2 años obligatorio).
- Análisis / procesamiento de datos. (2 años obligatorio).
- Industria de Productos de Consumo Masivos (1 año deseable).
Conocimiento:
- Herramientas de procesamiento de datos (Power BI, Excel avanzado, R o Python) (obligatorio).
- Estadística (Minitab o afines). (obligatorio)
- Análisis o investigación de mercado. (deseable)
Los procesos de reclutamiento, evaluación, entrevista, selección y contratación de personal, son totalmente GRATUITOS en Grupo PiSA; nadie debe solicitarte pago alguno para participar en nuestros procesos de Reclutamiento y Selección
Gerente de Ciencia en Datos
Hoy
Trabajo visto
Descripción Del Trabajo
Contamos con un portafolio de más 15 productos tecnológicos diseñados para causar un impacto positivo en las finanzas, inversión de tiempo y en la optimización de recursos.
En CPA estamos en búsqueda de tu talento como _GERENTE EN CIENCIAS DE DATOS_
**Requisitos**:
- Escolaridad: Licenciatura en Matemáticas o Actuaría (indispensable). Preferentemente con especialidades en estadística: Diplomado, maestría o especialidad en estadística o ciencia de datos.
- Indispensable Ingles Avanzado (Business)
**Experiência y Conocimientos (2 años comprobables)**:
Conocimiento en ingeniería de sistemas (deseable).
Business Intelligence (quicksight o parecido)
Estructuras de datos
Indispensable conocimiento en algoritmos ML (especialización académica o experiência mínima de 2 años) : Estadística
Análisis de datos predictivos, regresión, descriptivos, prescriptivos
Desarrollo de modelos analíticos personalizados
Matemáticas Avanzadas
Definición de KPI's
Experiência en project management.
**Competencias y habilidades**:
LENGUAJES DE PROGRAMACION (DESEADOS):
- SPARK
- SCALA
- SQL (INDISPENSABLE)
- R
- PYTHON (INDISPENSABLE)
**Responsabilidades**:
- Comprender las necesidades de negocio, los diferentes tipos de tecnologías de análisis de datos y aplica modelos de Machine Learning que ayuden a agregar valor a la organización.
- Seleccionar la técnica de modelado analítico más adecuada para los datos estructurados y complejos, desarrollando modelos analíticos personalizados.
- Definir características basadas en respuestas del modelo para introducir características nuevas o revisadas para mejorar el análisis y los resultados.
- Podrás apoyar al equipo de Data Analytics en el diseño y construcción de soluciones de vanguardia para nuestros clientes.
- Modelar los patrones detectados aplicando diversas metodologías de Ciencia de Datos (computacionales, matemáticas y estadísticas tradicionales, así como de nueva generación, ie Machine Learning), para generar modelos Descriptivos, Predictivos y Prescriptivos.
- Generar reportes automatizados de seguimiento de los productos ofertados a través de la aplicación de Banca Digital para una adecuada toma de decisiones.
**Ofrecemos**:
- Sueldo entre los $55,000 y $2,000 NETOS Mensuales
- Prestaciones de ley (IMSS, vacaciones, aguinaldo)
- Contratación directa (100% nómina)
- Capacitación pagada
- Plan de crecimiento personal y laboral
- Horario de Lunes a Viernes 9:00 a 18:00
- Capacitación constante y gratuita en plataformas como: UDEMY, PLATZI y CODILITY
Tipo de puesto: Tiempo completo, Por tiempo indeterminado
Salario: $55, 00.00 - 62,000.00 al mes
Horario:
- Turno de 8 horas
Gerente de Ciencia en Datos
Hoy
Trabajo visto
Descripción Del Trabajo
Contamos con un portafolio de más 15 productos tecnológicos diseñados para causar un impacto positivo en las finanzas, inversión de tiempo y en la optimización de recursos.
En CPA estamos en búsqueda de tu talento como _GERENTE EN CIENCIAS DE DATOS_
**Requisitos**:
- Escolaridad:Licenciatura en Matemáticas o Actuaría (indispensable). Preferentemente con especialidades en estadística: Diplomado, maestría o especialidad en estadística o ciencia de datos.
- Indispensable Ingles Avanzado (Business)
**Experiência y Conocimientos (2 años comprobables)**:
Conocimiento en ingeniería de sistemas (deseable).
Business Intelligence (quicksight o parecido)
Estructuras de datos
Indispensable conocimiento en algoritmos ML (especialización académica o experiência mínima de 2 años) : Estadística
Análisis de datos predictivos, regresión, descriptivos, prescriptivos
Desarrollo de modelos analíticos personalizados
Matemáticas Avanzadas
Definición de KPI's
Experiência en project management.
**Competencias y habilidades**:
LENGUAJES DE PROGRAMACION (DESEADOS):
- SPARK
- SCALA
- SQL (INDISPENSABLE)
- R
- PYTHON (INDISPENSABLE)
**Responsabilidades**:
- Comprender las necesidades de negocio, los diferentes tipos de tecnologías de análisis de datos y aplica modelos de Machine Learning que ayuden a agregar valor a la organización.
- Seleccionar la técnica de modelado analítico más adecuada para los datos estructurados y complejos, desarrollando modelos analíticos personalizados.
- Definir características basadas en respuestas del modelo para introducir características nuevas o revisadas para mejorar el análisis y los resultados.
- Podrás apoyar al equipo de Data Analytics en el diseño y construcción de soluciones de vanguardia para nuestros clientes.
- Modelar los patrones detectados aplicando diversas metodologías de Ciencia de Datos (computacionales, matemáticas y estadísticas tradicionales, así como de nueva generación, ie Machine Learning), para generar modelos Descriptivos, Predictivos y Prescriptivos.
- Generar reportes automatizados de seguimiento de los productos ofertados a través de la aplicación de Banca Digital para una adecuada toma de decisiones.
**Ofrecemos**:
- Sueldo entre los $55,000 y $62,000 NETOS Mensuales
- Prestaciones de ley (IMSS, vacaciones, aguinaldo)
- Contratación directa (100% nómina)
- Capacitación pagada
- Plan de crecimiento personal y laboral
- Horario de Lunes a Viernes 9:00 a 18:00
- Capacitación constante y gratuita en plataformas como: UDEMY, PLATZI y CODILITY
Big Data Engineer
Ayer
Trabajo visto
Descripción Del Trabajo
- Ingles avanzado
- +5 años de experiência en desarrollo de BIG data
- Experiência con Python para escribir canalizaciones de datos y capas de procesamiento de datos
- Amplia experiência y manejo SQL, optimizadas para la transformación de datos y la implementación de reglas comerciales.
- Demuestra experiência actualizada en ingeniería de datos y desarrollo de canales de datos complejos.
- Experiência en modelos ágiles
- Diseñar, desarrollar, implementar y ajustar sistemas y canalizaciones distribuidos a gran escala que procesen grandes volúmenes de datos; centrándose en la escalabilidad, la baja latencia y la tolerancia a fallos en cada sistema construido.
- Experiência con Java, Python para escribir canalizaciones de datos y capas de procesamiento de datos.
- Experiência en Airflow y Github.
- Experiência en redacción de trabajos de reducción de mapas.
- Demuestra experiência en la redacción de consultas complejas y altamente optimizadas en grandes conjuntos de datos.
- Experiência laboral comprobada con tecnologías de Big Data Hadoop, Hive, Kafka, Presto, Spark, HBase.
- Altamente competente en SQL.
- Experiência con Tecnologías en la Nube (GCP)
- Experiência con modelo relacional, almacenes de datos de memoria deseables (Oracle, Cassandra, Druid)
- Proporciona y respalda la implementación y las operaciones de los canales de datos y soluciones analíticas.
- Experiência en ajuste del rendimiento de sistemas que trabajan con grandes conjuntos de datos.
- Experiência en servicio de datos REST API - Consumo de Datos
- Experiência trabajando con almacenamiento distribuido de objetos en entornos de nube.
- Experiência laboral con Big Data Technologies Hadoop, Hive, Kafka, Presto, Spark, HBase, Automic y Aorta
Actividades
- Capacidad para guiar a los equipos de ingeniería de datos.
- Capacidad para comprender los requisitos finales y analizar las soluciones de principio a fin.
- Demuestra experiência actualizada en ingeniería de datos, desarrollo de canalizaciones de datos complejas
- Diseñar, desarrollar, implementar y ajustar sistemas distribuidos a gran escala y canalizaciones que procesan grandes volúmenes de datos; centrándose en la escalabilidad, la baja latencia y la tolerancia a fallos en cada sistema construido.
Habilidades blandas
1. Comunicación: puede explicar problemas de ingeniería con socios y universidades, escribir documentación fácil de entender y utilizar eficazmente los diferentes
2. Trabajo en equipo: Integración colaborativa con diferentes áreas para resolver desafíos de datos ejecutando reuniones multifuncionales efectivas, dando y recibiendo retroalimentación.
Senior Big Data Architect
Hoy
Trabajo visto
Descripción Del Trabajo
Transformative Data Engineer
At Synechron, we believe in the power of digital to drive innovation. Our global consulting firm combines creativity and cutting-edge technology to deliver industry-leading solutions. We have a proven track record of delivering transformative projects for top financial services firms, leveraging our expertise in Artificial Intelligence, Cloud & DevOps, Data, and Software Engineering.
We are seeking an experienced Data Engineer with strong expertise in Databricks to join our data team. The ideal candidate will design, implement, and optimize large-scale data pipelines, ensuring scalability, reliability, and performance.
Key Responsibilities:
- Design and develop scalable ETL/ELT pipelines using Databricks, ensuring seamless integration with Azure Cloud Services.
- Develop complex data processing workflows using PySpark/Spark and SQL, leveraging expertise in big data processing.
- Implement data security, access controls, and governance standards using Unity Catalog, ensuring compliance with organizational and regulatory policies.
- Collaborate closely with cross-functional teams to understand business requirements and deliver tailored data solutions.
- Work with multiple stakeholders to prepare data for dashboard and BI Tools, driving business value through data insights.
Requirements:
- Strong expertise in Databricks (Delta Lake, Unity Catalog, Lakehouse Architecture, Table Triggers, Delta Live Pipelines, Databricks Runtime etc.)
- Proficiency in Azure Cloud Services, including Azure Blob Storage, ADLS, and relational/non-relational systems.
- Solid understanding of Spark and PySpark for big data processing, including experience in developing real-time data solutions.
- Experience in developing data pipeline solutions using Databricks Asset Bundles and GitLab.
- Azure Data Engineer Associate or Databricks certified Data Engineer Associate certification (optional).
Benefits:
- A highly competitive compensation package.
- A multinational organization with 58 offices in 21 countries, offering opportunities for career growth and professional development.
- Extensive training opportunities focused on skills, substantive knowledge, and personal development.
- Laptop/equipment.
- 12 days of paid annual leave (plus sick leave and national holidays).
- Maternity & Paternity leave plans.
- A comprehensive insurance plan including medical, dental, vision, and long-/short-term disability plans.
- Retirement savings plans.
- A higher education certification policy.
Big Data Solution Designer
Hoy
Trabajo visto
Descripción Del Trabajo
Job Description:
We are seeking an experienced Data Engineer to join our team.
- Design and implement a solution for processing big data volumes.
- Integrate the solution with the current architecture.
The ideal candidate will have:
- Strong expertise in designing and implementing data models.
- Experience with cloud-based analytical databases.
- Proficiency in SQL to perform complex queries, data transformations, and performance tuning.
- Experience integrating metadata and governance processes into cloud-based data platforms.
- Knowledge of Azure services, including Azure Data Lake Storage, Azure Synapse Analytics, and Azure Databricks.
In this role, you will have the opportunity to work on a large retail company's eCommerce platform modernization project. You will be responsible for designing a solution that supports processing big data volumes and integrates with the current architecture.
- Collaborate with cross-functional teams to ensure successful implementation.
- Develop and maintain high-quality code.
- Work closely with stakeholders to understand requirements and provide solutions.
Big Data Solutions Architect
Hoy
Trabajo visto
Descripción Del Trabajo
Job Description
">We are seeking a highly skilled Databricks Engineer to join our data team. The ideal candidate will design, implement and optimize large-scale data pipelines, ensuring scalability, reliability and performance.
">Responsibilities:
">- ">
- Design, implement and maintain scalable ETL/ELT pipelines using Databricks. ">
- Leverage PySpark/Spark and SQL to transform and process large datasets. ">
- Integrate data from multiple sources including Azure Blob Storage, ADLS and other relational/non-relational systems. ">
Requirements:
">- ">
- Strong expertise in Databricks (Delta Lake, Unity Catalog, Lakehouse Architecture, Table Triggers, Delta Live Pipelines, Databricks Runtime etc.) ">
- Proficiency in Azure Cloud Services. ">
- Solid understanding of Spark and PySpark for big data processing. ">
- Experience in relational databases. ">
- Knowledge on Databricks Asset Bundles and GitLab. ">
- Familiarity with Databricks Runtimes and advanced configurations. ">
- Knowledge of streaming frameworks like Spark Streaming. ">
- Experience in developing real-time data solutions. ">
- Azure Data Engineer Associate or Databricks certified Data Engineer Associate certification (optional). ">
Benefits:
">- ">
- Highly competitive compensation and benefits package. ">
- Multinational organization with 58 offices in 21 countries and the possibility to work abroad. ">
- Laptop/equipment. ">
- 12 days of paid annual leave (plus sick leave and national holidays). ">
- Maternity & Paternity leave plans. ">
- Comprehensive insurance plan including medical, dental, vision, and long-/short-term disability. ">
- Retirement savings plans. ">
- Higher education certification policy. ">
- Extensive training opportunities, focused on skills, substantive knowledge, and personal development. ">
- On-demand Udemy for Business for all employees with free access to over 5,000 curated courses. ">
- Coaching opportunities with experienced colleagues from Financial Innovation Labs (FinLabs) and Center of Excellences (CoE) groups. ">
- Cutting-edge projects at leading tier-one banks, financial institutions and insurance firms. ">
- Flat and approachable organization. ">
- Diverse, fun-loving and global work culture. ">
Other Opportunities:
">- ">
- Global workforce of 14,500+ employees. ">
- 58 offices in 21 countries worldwide. ">
- Multi-cultural and dynamic work environment. ">
- Many career growth opportunities. ">
- Regular learning and development opportunities. ">
Sé el primero en saberlo
Acerca de lo último Ciencia de datos Empleos en Mexico !
Desarrollador Big Data Jr
Hoy
Trabajo visto
Descripción Del Trabajo
**Conocimientos**:
Experiência afín de al menos 6 meses (Servicio social, prácticas profesionales o posiciones similares)
- Programación orientada a objetos
- Conocimiento en Base de datos Relacionales (Oracle, Teradata / SQL)
- Conocimiento en lenguajes de programación orientada a objetos como Java / C# / Python
- Concomimiento en leguaje de programación funcional (Scala)
- Hadoop / Spark
- GitHub"
- Control M
- GIT Alto
- Herramientas DevOps /Jenkins
- Limpieza y Manipulación de Datos
- Modelos de machine learning (mínimo Regresiones logísticas y Redes Neuronales Convolucionales)
- Conocimiento sobre sistemas Linux/UNIX a nível línea de comando (POSIX: awk, grep, etc).
- Conocimiento sobre RegEx
- Capacidad de redacción y comunicación de ideas.
**Sus principales funciones serán**:
- Generación o desarrollo de procesamiento de datos con dependencias o librerías que de valor al negocio por medio del análisis, desarrollo, calidad del dato, mejora del performans.
- Desarrollo de código con Spark combinado con Scala / Python
- Comprensión de calidad del dato.
- Generación de Dicccionariados
- Desarrollo de software con buenas prácticas.
- Conocimiento intermedio de shell de Linux/UNIX: Conocimiento del POSIX (awk, grep, etc) y RegEx.
- Capacidad de análisis y pensamiento crítico.
- Capacidad de relacionar información técnica con información del negocio.
- Comunicación entre la parte técnica y la parte funcional (redacción de minutas, elaboración de documentación).
**Formación**
Estudios mínimos: Ingeniería en computación, licenciatura en informática, matemáticas o afines.
Tipo de puesto: Tiempo completo
Salario: Hasta $25,000.00 al mes
Beneficios:
- Vacaciones superiores a las de ley
- Vales de despensa
Horario:
- Turno de 8 horas
Experiência:
- Java: 1 año (Obligatorio)
- SQL: 1 año (Obligatorio)
- HTML: 1 año (Obligatorio)
Big Data Enginer (Backend Sr.)
Ayer
Trabajo visto
Descripción Del Trabajo
Estamos acreditados en el Nível 5 de CMMI (Capability Maturity Model Integration), modelo de calidad establecido por el Software Engineering Institute (SEI). Certificados por parte de ISO en la norma ISO/IEC 27001:2013. Contamos con distintivo de Empresa Socialmente Responsable (ESR).
¡¡TE ESTAMOS BUSCANDO!
Big Data Engineer (Backend Sr)
**Requisitos**:
- Licenciatura - Ingeniería en Sistemas, Actuaria, Matemáticas, o Afin
- Min 3 años de experiência en desarrollo de BIG data
- Demuestra experiência actualizada en ingeniería de datos, desarrollo de canalizaciones de datos complejas
- Diseñar, desarrollar, implementar y ajustar sistemas distribuidos a gran escala y canalizaciones que procesan grandes volúmenes de datos; centrándose en la escalabilidad, la baja latencia y la tolerancia a fallos en cada sistema construido.
- Experiência con Java, Python para escribir canalizaciones de datos y capas de procesamiento de datos
- 3-4 años de experiência en análisis de negocios centrada en el dominio de datos y sistemas de inteligencia empresarial
- Altamente competente en lenguaje SQL.
- Experiência con tecnologías en la nube (GCP, Azure)
- Experiência laboral con Big Data Technologies Hadoop, Hive, Kafka, Presto, Spark, HBase, Automic y Aorta
- 3-4 años de experiência reciente entrevistando a usuarios de negocios, recopilando informes y requisitos de KPI
- Experiência demostrable de trabajo con datos (análisis, redacción de consultas, unión de diferentes fuentes de datos para darles sentido) para poder validar los requisitos
- Experiência comprobada en la documentación de requisitos, flujos de trabajo, mantenimiento de wiki
- Capacidad para participar y realizar sesiones de requisitos trabajando con usuarios de negocios, presentar los resultados finales
- Experiência traduciendo requerimientos para ingenieros de datos y BI para soluciones, participando en el desarrollo de soluciones
- Construir modelos analíticos para apoyar las iniciativas empresariales
- Cree, entregue y analice métricas clave utilizando paneles e informes
- Experiência con procesamiento de transmisión de datos
- Experiência con herramienta de gestión de metadatos como MITI, herramienta de monitoreo como Ambari
- Experiência en el desarrollo de servicios de datos API REST
- La experiência minorista es una gran ventaja
Localidad:
- Ciudad de México (Modalidad 100% HO).
Ofrecemos:
- Convenios comerciales
- Prestaciones de Ley y Superiores
- Descuentos en certificaciones
Somos una empresa incluyente y libre de cualquier tipo de discriminación, donde las oportunidades son para quien muestra actitud y talento. No solicitamos certificados médicos de no embarazo y Virus de Inmunodeficiencia Humana (VIH) como requisitos para que formes parte de nuestra gran familia de trabajo y puedas acceder a las mismas oportunidades de crecimiento
Technical Program Manager, Big Data Analytics, Measured Work
Ayer
Trabajo visto
Descripción Del Trabajo
**Please submit your resume in English - we can only consider applications submitted in this language.**
**Minimum qualifications:**
+ Bachelor's degree in a technical field, or equivalent practical experience.
+ 2 years of experience in program management.
+ 2 years of experience in big data and analytics.
**Preferred qualifications:**
+ Master's degree in Information Systems, Operations Research, Computer Science, Mathematics, Statistics, Engineering or a related field.
+ 5 years of experience with technical program management in a data-related domain.
+ Experience with SQL and other databases, automation or business intelligence skills (e.g. JavaScript, Python, R).
+ Experience with SAP, SQL, dashboards and advanced data analytics/statistical analysis.
+ Knowledge of Enterprise Resource Planning (ERP) systems such as SAP and SQL programming.
A problem isn't truly solved until it's solved for all. That's why Googlers build products that help create opportunities for everyone, whether down the street or across the globe. As a Technical Program Manager at Google, you'll use your technical expertise to lead complex, multi-disciplinary projects from start to finish. You'll work with stakeholders to plan requirements, identify risks, manage project schedules, and communicate clearly with cross-functional partners across the company. You're equally comfortable explaining your team's analyses and recommendations to executives as you are discussing the technical tradeoffs in product development with engineers.
As a Technical Program Manager in Measured Work, you will be building systems and mechanisms to obtain, process, analyze and interpret large volumes of data to help solve a problem for Google's cloud business operations. You will be partnering with the customers in and outside of the organization to build tools that provide insights into the data center floor.
Google Research is building the next generation of intelligent systems for all Google products. To achieve this, we're working on projects that utilize the latest computer science techniques developed by skilled software developers and research scientists. Google Research teams collaborate closely with other teams across Google, maintaining the flexibility and versatility required to adapt new projects and foci that meet the demands of the world's fast-paced business needs.
**Responsibilities:**
+ Work with stakeholders to define, document and implement solutions based on data.
+ Work cross-functionally with global program managers, data engineers and data scientists to understand, implement and deploy actionable enterprise data management solutions.
+ Drive improvements for both system and process to achieve data integrity, data transparency and efficient user experience.
+ Advocate a data-centric culture that embraces process excellence and data-driven decisions to achieve business objectives.
+ Promote clarity and focus on delivering incremental value to the organization.
Google is proud to be an equal opportunity workplace and is an affirmative action employer. We are committed to equal employment opportunity regardless of race, color, ancestry, religion, sex, national origin, sexual orientation, age, citizenship, marital status, disability, gender identity or Veteran status. We also consider qualified applicants regardless of criminal histories, consistent with legal requirements. See also and If you have a need that requires accommodation, please let us know by completing our Accommodations for Applicants form: