* El máster mostrado a continuación va dirigido a un perfil profesional con conocimientos en programación. Si usted no dispone de dichos conocimientos puede interesarle más nuestro Máster en Big Data y Business Intelligence.

Máster en Big Data Analytics y Data Science

Modalidad Live Streaming

Información: Alumno y profesor interactúan en directo a través de una plataforma de videoconferencia. Posteriormente, las grabaciones de las clases se publican en el campus virtual junto al resto de recursos.

Fecha de inicio y fin: 23 de Octubre del 2023 – 29 de Junio del 2024

Horarios disponibles: Lunes, miércoles y jueves de 19:00h a 21:00h (zona horaria UCT+1, Madrid)

Modalidad Online

Información: Los alumnos tienen acceso a las grabaciones de las clases y a los recursos. Pueden resolver dudas en cualquier momento vía email, llamada o videollamada.

Fecha de inicio: Inicio flexible

Duración: 1 año académico

Horarios: Flexibles 

El Máster en Big Data Analytics y Data Science va dirigido a perfiles técnicos que deseen aprender a desarrollar procesos personalizados para transformar datos en información valiosa. Este programa es adecuado para las personas que ya disponen de conocimientos previos de programación ya que se partirá de esa base para construir los modelos de análisis de datos más adecuados.

Contenido del programa

 

MÓDULO I. FUNDAMENTOS BÁSICOS

El primer módulo consiste en una introducción global para entender la importancia actual de los procesos de
Business Intelligence y sus etapas y arquitectura para conseguir unos resultados concluyentes.

  •  Gestión clásica de las empresas
  • El valor de los datos
  • Aparición del Big Data
        o Definición
        o Características
        o Evolución de los datos
        o Big Data y Business Intelligence
        o Herramientas
  •  Perfiles en la industria Big Data
        o Data Architect
        o Data Engineering
        o Business Intelligence
        o Business Analytics
        o Data Scientist
  •  Entendimiento del proyecto
  • Recolección de los datos
  •  Procesamiento de los datos
  • Exploración de los datos
  • Modelado y evaluación
  • Puesta en marcha
  •  ¿Qué es la Inteligencia Artificial?
  • Categorías
         o Inteligencia Artificial Débil o Narrow AI
                o Machine Learning y Deep
                 Learning
                o Procesamiento de Lenguaje
                Natural (PNL)
    o Inteligencia Artificial Fuerte o Inteligencia
    Artificial General
  •  Herramientas estadísticas en el uso de la
     Inteligencia Artificial
        o Muestra y Población
        o Estadística Descriptiva
        o Normalización o Estandarización
  • Se enseñan los conceptos estadísticos básicos
    para desarrollar los procesos de análisis de
    datos
  • Muestra y Población
  • Estadística Descriptiva
  • Principales parámetros estadísticos
  • Normalización o Estandarización
  • Introducción al Business Intelligence
  • Business Intelligence vs Data Science
  • Cuándo y cómo aplicar la Inteligencia de Negocios
  • Datos, información y conocimiento
  • Salidas profesionales
  •  Proceso de la Inteligencia de Negocio
        o Extracción de los datos
        o Tratamiento y preparación de datos
        o Análisis
        o Visualización
        o Conclusiones estratégicas
  • Arquitectura de un Proyecto de Business
    Intelligence
        o Origen de los datos
        o Procesos ETL
        o ODS
        o Data Warehouse
        o Datamarts
        o Explotación de la información
        o Producto BI

MÓDULO II. PROGRAMACIÓN PARA DATA SCIENCE

Se estudiarán en profundidad los principales entornos y lenguajes de programación para el desarrollo de los
procesos propios del Data Scientist. También se aprenderá a usar las librerías más populares.

  •  Introducción a la programación con R
  • Programación con R (medio)
  •  Programación con R (avanzado)
  • Shiny
  • Configuración de entorno de programación
  • Introducción a la programación con Python

  •  

    Análisis de datos con librerías de Python

  •  

    Programación con Python (medio)

  • Programación con Python (avanzado)
  • Visualización de los Datos
        o Plotly
        o Matplotlib
  • Visualización de resultados en entorno HTML

  •  Introducción al Aprendizaje Automático
  • Modelos de Machine Learning
        o Modelos Supervisados
        o Modelos No Supervisados
        o Redes Neuronales
        o Aplicaciones
            o Procesamiento de Imágenes
            o Procesamiento de Lenguaje
            Natural
            o Procesamiento de Audio
            o Procesamiento de Datos
  • Librerías
        o MLlib
        o ScikitLearn
        o TensorFlow
        o Mlr3

MÓDULO III. EXTRACCIÓN Y PREPARACIÓN DE LOS DATOS

El primer paso para cualquier proceso relacionada con Big Data es extraer y preparar los datos. En los siguientes
temas se estudiará en detalle las diferentes maneras de hacerlo y cómo exprimir al máximo cualquier fuente de
datos.

  •  Tipos de datos
        o cualitativos/cuantitativos
        o continuos/discretos
        o String
        o Integer
        o Float
        o Date
        o Boolean
        o Otros
  •  Fuentes de datos
        o ERP
        o CRM
        o LOB
        o Ficheros Office
        o Web Services
        o Otros
  •  Introducción
  •  Errores en la información
  •  Etapas en el proceso de Data Quality
  •  Bases de datos
        o Introducción a las bases de datos relacionales y
        no relacionales
            o Modelos de entidad relación (ER)
            o Documentos
    o Bases de datos relacionales
        o PostgreSQL y MySQL
        o Programación SQL
    o Bases de datos no relacionales
        o MongoDB
            o Programación MongoDB
        o Neo4J
           o Programación Cypher
        o Cassandra
            o Programación Cassandra
  •  Data Lake
  • Data Warehouse
        o Fundamentos y propiedades de un Data
        Warehouse
        o Implementación de un Data Warehouse
  •  Extracción y transformación de los datos
        o Creación de pipelines propios
  •  Extracción
  •  Limpieza
        o Depurar
        o Corregir
        o Estandarizar
        o Relacionar
        o Consolidar
  • Transformación
  •  Integración
  • Carga y Actualización de los datos
  • Herramientas
  •  Prácticas

MÓDULO IV. Análisis de datos

Una vez se han agrupado y preparado todos los datos extraídos de las fuentes de información disponibles es el
momento de desarrollar procesos personalizados para aplicar de una manera optimizada las técnicas de análisis
propias del Data Analyst y el Data Scientist que nos permitirán transformar una gran cantidad de datos, en
información interpretable y valiosa.

  •  Estadísticos para el análisis de datos
        o Probabilidad e Inferencia estadística.
        o Análisis cualitativo y cuantitativo
        o Métodos de análisis
            o Análisis Factorial Lineal
            o Análisis No Lineal
            o Correlación y regresión lineal y múltiple
  •  Herramientas de análisis de datos
  •  Programación de herramientas propias
  •  Programación de modelos avanzados de análisis de
    datos
  • Programación de modelos estadísticos
  •  Programación de modelos predictivos
  •  Inteligencia Artificial y Machine Learning aplicado
    al análisis de datos
  •  Sistemas de procesamiento Online
        o OLAP
            o Drill down
            o Drill up
            o Tipos de servidores OLAP
        o OLTP
  •  Minería de Datos
        o Introducción
        o Herramientas de Data Mining
            o Árboles de decisión

    o Clustering
    o Regresión
    o Extracción de reglas de asociación
    o Modelos estadísticos
    o Redes Bayesianas
    o Redes Neuronales
o Prácticas de Minería de Datos

MÓDULO V. ARQUITECTURA Y COMPONENTES DEL BIG DATA

Para poder desarrollar proyectos basados en Big Data es necesario entender a la perfección los diferentes
componentes de la tecnología y su papel dentro de la arquitectura global de la solución. Este módulo se centra
en el estudio de estas cuestiones.

  •  Apache Hadoop
  •  HDFS
  •  YARN
  • MapReduce
  • HDFS
  • File formats
  • Hive
  • HBase
  • Oozie
  • Atlas
  • Spark
  • Zookeeper
  • Qué es el Streaming Processing
  • Tecnologías para Streaming Processing
    o Kafka
    o Spark Streaming
    o Flink
  • o Cassandra
    o Clickhouse
    o Elasticsearch
  • Desafios Streaming Processing
  • Cloud Computing
  • Ecosistemas

  • Amazon Web Services

  • Big Data en AWS
  • Streaming Processing en AWS

  • Aplicación práctica del Cloud Computing

MÓDULO VI. VISUALIZACIÓN

Para poder transmitir los resultados de los análisis a terceros de manera clara y efectiva se necesita utilizar unas
herramientas determinadas que permitan representar de manera gráfica los resultados en cuestión y desarrollar
informes profesionales

  •  Fundamentos básicos
  •  Power BI (medio)
  • Power BI (avanzado)
  •  DAX
  •  DataFlows
  • Visualización con Power BI
  •  Tablas y y texto
  •  Visualización avanzada
  • Gráficos avanzados
  •  Qué es un cuadro de mando
  •  Cuadros de Mando Integrales (CMI)
  • Cuadros de Mando Operativos (CMO)
  • Conceptualización y cálculo de KPIs
  • Conceptualización, construcción y distribución de
  • Cuadros de Mando
        o Definición y creación de alertas
  •  Definición de un informe
  •  Rendimiento de Negocio y Operaciones
        o Métricas empresariales
            o Ingresos de ventas
            o Margen de Beneficio Neto

    o Margen Bruto
    o Crecimiento de Ventas
    o Coste de Adquisición Cliente (CAC)
    o Lealtad y Retención del Cliente
    o Otras

  • Creación de Informes
  •  Definición
  •  Estructura narrative
  •  Consejos
  •  Elaboración de storytelling

MÓDULO VII. Introducción al blockchain y a su aplicación en el Big Data

La tecnología blockchain está transformando muchos sectores y se está empezando a usar en el campo del Big
Data. Para poder superar a la competencia es necesario aprovechar las ventajas que ofrecen las nuevas
tecnologías como el blockchain. En este módulo se aprenderá qué es, cómo funciona y como sacar partido de sus
características.

  • Introducción a la tecnología
  • Propuestas de valor
  • Funcionamiento básico
  •  Comparación con sistemas tradicionales
  • Smart Contracts, Dapps y DAOs
  •  Impacto en distintas industrias
  •  Nuevos productos y servicios
  • Web descentralizada
  • Criptografía básica del blockchain
  •  Estructura de la tecnología
  • Firmas digitales y validaciones
  • Minería e incentivos
  • Protocolo Proof of Work
  • Protocolo Proof of Stake
  •  Otros protocolos de consenso
  • Introducción a las bases de datos
  • Estructura de un programa (software)
  • Hardfork y Softfork
  •  Sidechains
  •  Smart Contracts (II)
  • Dapps y DAOs (II)
  • Simulación de una red blockchain
  • Aplicación de la inmutabilidad
  •  Aplicación de la identidad digital
  •  Aumento de transparencia en los procesos
  •  Introducción a las bases de datos
  • Estructura de un programa (software)
  •  Hardfork y Softfork
  • Sidechains
  • Smart Contracts (II)
  • Dapps y DAOs (II)
  •  Simulación de una red blockchain

MÓDULO VIII. REGULACIÓN Y LEYES DE PROTECCIÓN DE DATOS

Para poder realizar proyectos a través del uso del Big Data es muy importante conocer todas las normativas que
regulen la captación, gestión y uso de los datos con el objetivo de poder diseñar los procesos y realizar los
estudios de manera efectiva respetando las leyes vigentes.

  •  Introducción
  • Ciclo de vida de los datos
  • Recogida y obtención del dato
  • Tratamiento
  • Ejercicio de derechos
  • Conservación y borrado
  • Ley Orgánica de Protección de Datos de Carácter
    Personal (LOPD)
  •  Agencia Española de Protección de Datos (AEPD)
  • Reglamento Europeo de Protección de Datos
    (RGPD)
       
  •  Ley Orgánica de Protección de Datos
        Personales y Garantía de los Derechos
        Digitales (LOPD-GDD)
  • Red Iberoamericana de Protección de Datos
    (RIPD)
  •  Herramientas
        o PILAR
        o Facilita RGPD

MÓDULO IX. PLANIFICACIÓN Y DIRECCIÓN DE PROYECTOS

Para poder liderar la planificación e implementación de los proyectos basados en Big Data en los entornos
corporativos es necesario entender los recursos que se requieren, como se organizan, qué coste tiene cada uno,
los riesgos implicados y los mecanismos de control para asegurar el correcto desarrollo y unos resultados de la
calidad exigida

  •  Iniciación
        o Valoración económica
        o Identificación de los interesados
        o Requisitos preliminares
        o Definición del alcance
        o Acta de constitución del proyecto
  • Planificación
        o Plan de Proyecto
        o Planificación del alcance
            o Estructura de Descomposición del
            Trabajo (EDT)

    o Planificación del tiempo
    o Planificación de costes
    o Planificación de calidad
    o Planificación de riesgos

  •  Ejecución
        o PMBOCK
  •  Control y Seguimiento
  •  Cierre del proyecto

 Agile Project Management
 Ventajas

   Metodologías
    o Kanban
    o Scrum

MÓDULO X. EJERCICOS PRÁCTICOS EN FORMATO BUSINESS CASE

Este módulo es uno de los más importantes ya que se aplicará todo lo aprendido en casos reales o simulados. En
estos Business Cases se les facilitará a los alumnos un enunciado en el que se describirá la situación de una
empresa y se les pedirá que den respuesta a una pregunta estratégica a través del desarrollo de un estudio
basado en Big Data en el que tendrán que aplicar todas las etapas propias de un proyecto de Data Science. A
partir de una fuente de datos determinada (datos brutos) deberán hacer los análisis correspondientes y
desarrollar un informe o presentación, para cada caso, presentando los resultados obtenidos.

El alumno partirá del histórico de datos de los hábitos de los consumidores de una empresa y desarrollará
modelos predictivos sobre futuros consumos de los clientes, volumen de ventas de un producto existente y
predicciones sobre volúmen de ventas de un nuevo producto

A partir de la recopilación de datos de comportamiento de los usuarios se deberá desarrollar un motor de
recomendación.

El alumno aplicará los conocimientos adquiridos a lo largo del Máster para resolver un caso propio de Inteligencia
de Negocio como es la segmentación avanzada de clientes. Se deberá clasificar a los clientes en función de
comportamientossimilares haciendo uso de los modelos de Machine Learning utilizados a lo largo del Máster.

El alumno deberá desarrollar un sistema que ajuste los precios de un producto o servicio de forma automática y
en tiempo real en función de los diferentes parámetros asociados a éste (i.e. disponibilidad, precio de la
competencia, patrones de compra, localización geográfica, etc.)

Se pide que se desarrolle un mecanismo para medir la satisfacción del cliente en base al análisis de diferentes
herramientas, como las redes sociales o encuestas. Para ello aplicará los conocimientos de Procesamiento de
Lenguaje Natural y de análisis de datos aprendidos durante el curso.

MÓDULO XI. Trabajo Fin de Máster

El objetivo de este último módulo es que el alumno ponga en práctica, todos los conocimientos adquiridos en el
transcurso del máster en un caso práctico más amplio y transversal que los Business Case del tema anterior. De
esta forma podrán ponerse a prueba a través de un proyecto más exigente y extenso que les dará la experiencia
final necesaria para poder afrontar con éxito los proyectos de Big Data más complejos.

Juan Valles

Big Data Product Owner at Orange

Pablo Romero García

Operaciones y soporte de servicios de red en Telefónica

Carlos Poza Romo

Data & Analytics en Babel

 

Marta Romero

Senior Data Engineer en Telefónica

Francisco LLaneza Gonzalez

Head of AI en Fintonic

Bernat Aguadé Estivill

CEO en Blockchain Qualifications

*Incluir el prefijo telefónico del país
Puede encontrar estos términos y condiciones haciendo clic al acceso situado en el pie de página.