Le enviamos por correo electrónico la revista del programa
Máster en Big Data Analytics y Data Science

Dedicación: 1 año (60 ECTS)

Idioma: español

Requisitos de acceso: Conocimientos de programación

Modalidad Live Streaming: Alumno y profesor interactúan en directo a través de una plataforma de videoconferencia. Posteriormente, las grabaciones de las clases se publican en el campus virtual.

Fecha de inicio y fin: 24 de Octubre del 2022 – 29 de Junio del 2023

Horarios disponibles: Lunes, miércoles y jueves de 19:00h a 21:00h (zona horaria UCT+1, Madrid)

Ayudas económicas:
Bonifique a través de FUNDAE (debe ser coordinado desde su empresa) o solicite información sobre nuestro programa de becas

¿A quién va dirigido?
Perfiles técnicos que deseen aprender a desarrollar procesos personalizados para transformar datos en información valiosa. Este programa es adecuado para las personas que ya disponen de conocimientos previos de programación ya que se partirá de esa base para construir los modelos de análisis de datos más adecuados.

Objetivos:
Se prepara a los futuros profesionales que quieran trabajar en el campo del Big Data más complejo, en el que el uso de herramientas existentes no es suficiente y se requiere programar con el fin de crear procesos propios personalizados en las distintas fases del proyecto (extracción, análisis, visualización, reporting…)
Para ello tendrán que conocer y saber usar las principales tecnologías, focalizándose en la programación de sistemas de análisis propios capaces de satisfacer las necesidades de los análisis más complejos.
Contenido del programa
MÓDULO I. FUNDAMENTOS BÁSICOS
El primer módulo consiste en una introducción global para entender la importancia actual de los procesos de
Business Intelligence y sus etapas y arquitectura para conseguir unos resultados concluyentes.
- Gestión clásica de las empresas
- El valor de los datos
- Aparición del Big Data
o Definición
o Características
o Evolución de los datos
o Big Data y Business Intelligence
o Herramientas
- Perfiles en la industria Big Data
o Data Architect
o Data Engineering
o Business Intelligence
o Business Analytics
o Data Scientist
- Entendimiento del proyecto
- Recolección de los datos
- Procesamiento de los datos
- Exploración de los datos
- Modelado y evaluación
- Puesta en marcha
- ¿Qué es la Inteligencia Artificial?
- Categorías
o Inteligencia Artificial Débil o Narrow AI
o Machine Learning y Deep
Learning
o Procesamiento de Lenguaje
Natural (PNL)
o Inteligencia Artificial Fuerte o Inteligencia
Artificial General
- Herramientas estadísticas en el uso de la
Inteligencia Artificial
o Muestra y Población
o Estadística Descriptiva
o Normalización o Estandarización
- ¿Qué es la Inteligencia de Negocio o Business
Intelligence?
o Definición
o Importancia
o Uso
o Características
o Ventajas
o Salidas profesionales
- Datos, información y conocimiento
- Proceso de la Inteligencia de Negocio
o Extracción de los datos
o Tratamiento y preparación de datos
o Análisis
o Visualización
o Conclusiones estratégicas
- Arquitectura de un Proyecto de Business
Intelligence
o Origen de los datos
o Procesos ETL
o ODS
o Data Warehouse
o Datamarts
o Explotación de la información
o Producto BI
MÓDULO II. PROGRAMACIÓN PARA DATA SCIENCE
Se estudiarán en profundidad los principales entornos y lenguajes de programación para el desarrollo de los
procesos propios del Data Scientist. También se aprenderá a usar las librerías más populares.
- Introducción a la programación con Python
- Programación con Python (medio)
- Programación con Python (avanzado)
- Visualización de los Datos
o Plotly
o Matplotlib
- Introducción a la programación con R
- Programación con R (medio)
- Programación con R (avanzado)
- Shiny
- Introducción al Aprendizaje Automático
- Modelos de Machine Learning
o Modelos Supervisados
o Modelos No Supervisados
o Redes Neuronales
o Aplicaciones
o Procesamiento de Imágenes
o Procesamiento de Lenguaje
Natural
o Procesamiento de Audio
o Procesamiento de Datos
- Librerías
o MLlib
o ScikitLearn
o TensorFlow
o Mlr3
MÓDULO III. EXTRACCIÓN Y PREPARACIÓN DE LOS DATOS
El primer paso para cualquier proceso relacionada con Big Data es extraer y preparar los datos. En los siguientes
temas se estudiará en detalle las diferentes maneras de hacerlo y cómo exprimir al máximo cualquier fuente de
datos.
- Tipos de datos
o cualitativos/cuantitativos
o continuos/discretos
o String
o Integer
o Float
o Date
o Boolean
o Otros
- Fuentes de datos
o ERP
o CRM
o LOB
o Ficheros Office
o Web Services
o Otros
- Introducción
- Errores en la información
- Etapas en el proceso de Data Quality
- Bases de datos
o Introducción a las bases de datos relacionales y
no relacionales
o Modelos de entidad relación (ER)
o Documentos
o Bases de datos relacionales
o PostgreSQL y MySQL
o Programación SQL
o Bases de datos no relacionales
o MongoDB
o Programación MongoDB
o Neo4J
o Programación Cypher
o Cassandra
o Programación Cassandra
- Data Lake
- Data Warehouse
o Fundamentos y propiedades de un Data
Warehouse
o Implementación de un Data Warehouse - Extracción y transformación de los datos
o Creación de pipelines propios
- Extracción
- Limpieza
o Depurar
o Corregir
o Estandarizar
o Relacionar
o Consolidar
- Transformación
- Integración
- Carga y Actualización de los datos
- Herramientas
- Prácticas
MÓDULO IV. Análisis de datos
Una vez se han agrupado y preparado todos los datos extraídos de las fuentes de información disponibles es el
momento de desarrollar procesos personalizados para aplicar de una manera optimizada las técnicas de análisis
propias del Data Analyst y el Data Scientist que nos permitirán transformar una gran cantidad de datos, en
información interpretable y valiosa.
- Estadísticos para el análisis de datos
o Probabilidad e Inferencia estadística.
o Análisis cualitativo y cuantitativo
o Métodos de análisis
o Análisis Factorial Lineal
o Análisis No Lineal
o Correlación y regresión lineal y múltiple - Herramientas de análisis de datos
- Programación de herramientas propias
- Programación de modelos avanzados de análisis de
datos - Programación de modelos estadísticos
- Programación de modelos predictivos
- Inteligencia Artificial y Machine Learning aplicado
al análisis de datos
- Sistemas de procesamiento Online
o OLAP
o Drill down
o Drill up
o Tipos de servidores OLAP
o OLTP - Minería de Datos
o Introducción
o Herramientas de Data Mining
o Árboles de decisión
o Clustering
o Regresión
o Extracción de reglas de asociación
o Modelos estadísticos
o Redes Bayesianas
o Redes Neuronales
o Prácticas de Minería de Datos
MÓDULO V. ARQUITECTURA Y COMPONENTES DEL BIG DATA
Para poder desarrollar proyectos basados en Big Data es necesario entender a la perfección los diferentes
componentes de la tecnología y su papel dentro de la arquitectura global de la solución. Este módulo se centra
en el estudio de estas cuestiones.
- Apache Hadoop
- HDFS
- YARN
- MapReduce
- Hive
- Pig
- Sqoop
- Flume
- Zookeeper
- Impala
- Mahout
- Spark
- Qué es el Fast Data
- Tecnología SMACK
o Spark
o Mesos
o Akka
- o Cassandra
o Kafka
- Prácticas flujo Fast Data
- Microsoft Azure
- Otras plataformas
- Aplicación práctica del Cloud Computing
- Cloud Computing
- Ecosistemas
- Amazon Web Service
MÓDULO VI. VISUALIZACIÓN
Para poder transmitir los resultados de los análisis a terceros de manera clara y efectiva se necesita utilizar unas
herramientas determinadas que permitan representar de manera gráfica los resultados en cuestión y desarrollar
informes profesionales
- Fundamentos básicos
- Power BI (medio)
- Power BI (avanzado)
- DAX
- DataFlows
- Visualización con Power BI
- Tablas y y texto
- Visualización avanzada
- Gráficos avanzados
- Qué es un cuadro de mando
- Cuadros de Mando Integrales (CMI)
- Cuadros de Mando Operativos (CMO)
- Conceptualización y cálculo de KPIs
- Conceptualización, construcción y distribución de
- Cuadros de Mando
o Definición y creación de alertas
- Definición de un informe
- Rendimiento de Negocio y Operaciones
o Métricas empresariales
o Ingresos de ventas
o Margen de Beneficio Neto
o Margen Bruto
o Crecimiento de Ventas
o Coste de Adquisición Cliente (CAC)
o Lealtad y Retención del Cliente
o Otras
- Creación de Informes
- Definición
- Estructura narrative
- Consejos
- Elaboración de storytelling
MÓDULO VII. Introducción al blockchain y a su aplicación en el Big Data
La tecnología blockchain está transformando muchos sectores y se está empezando a usar en el campo del Big
Data. Para poder superar a la competencia es necesario aprovechar las ventajas que ofrecen las nuevas
tecnologías como el blockchain. En este módulo se aprenderá qué es, cómo funciona y como sacar partido de sus
características.
- Introducción a la tecnología
- Propuestas de valor
- Funcionamiento básico
- Comparación con sistemas tradicionales
- Smart Contracts, Dapps y DAOs
- Impacto en distintas industrias
- Nuevos productos y servicios
- Web descentralizada
- Criptografía básica del blockchain
- Estructura de la tecnología
- Firmas digitales y validaciones
- Minería e incentivos
- Protocolo Proof of Work
- Protocolo Proof of Stake
- Otros protocolos de consenso
- Introducción a las bases de datos
- Estructura de un programa (software)
- Hardfork y Softfork
- Sidechains
- Smart Contracts (II)
- Dapps y DAOs (II)
- Simulación de una red blockchain
- Aplicación de la inmutabilidad
- Aplicación de la identidad digital
- Aumento de transparencia en los procesos
- Introducción a las bases de datos
- Estructura de un programa (software)
- Hardfork y Softfork
- Sidechains
- Smart Contracts (II)
- Dapps y DAOs (II)
- Simulación de una red blockchain
MÓDULO VIII. REGULACIÓN Y LEYES DE PROTECCIÓN DE DATOS
Para poder realizar proyectos a través del uso del Big Data es muy importante conocer todas las normativas que
regulen la captación, gestión y uso de los datos con el objetivo de poder diseñar los procesos y realizar los
estudios de manera efectiva respetando las leyes vigentes.
- Introducción
- Ciclo de vida de los datos
- Recogida y obtención del dato
- Tratamiento
- Ejercicio de derechos
- Conservación y borrado
- Ley Orgánica de Protección de Datos de Carácter
Personal (LOPD)
- Agencia Española de Protección de Datos (AEPD)
- Reglamento Europeo de Protección de Datos
(RGPD)
- Ley Orgánica de Protección de Datos
Personales y Garantía de los Derechos
Digitales (LOPD-GDD)
- Red Iberoamericana de Protección de Datos
(RIPD)
- Herramientas
o PILAR
o Facilita RGPD
MÓDULO IX. PLANIFICACIÓN Y DIRECCIÓN DE PROYECTOS
Para poder liderar la planificación e implementación de los proyectos basados en Big Data en los entornos
corporativos es necesario entender los recursos que se requieren, como se organizan, qué coste tiene cada uno,
los riesgos implicados y los mecanismos de control para asegurar el correcto desarrollo y unos resultados de la
calidad exigida
- Iniciación
o Valoración económica
o Identificación de los interesados
o Requisitos preliminares
o Definición del alcance
o Acta de constitución del proyecto - Planificación
o Plan de Proyecto
o Planificación del alcance
o Estructura de Descomposición del
Trabajo (EDT)
o Planificación del tiempo
o Planificación de costes
o Planificación de calidad
o Planificación de riesgos
- Ejecución
o PMBOCK - Control y Seguimiento
- Cierre del proyecto
Agile Project Management
Ventajas
Metodologías
o Kanban
o Scrum
MÓDULO X. EJERCICOS PRÁCTICOS EN FORMATO BUSINESS CASE
Este módulo es uno de los más importantes ya que se aplicará todo lo aprendido en casos reales o simulados. En
estos Business Cases se les facilitará a los alumnos un enunciado en el que se describirá la situación de una
empresa y se les pedirá que den respuesta a una pregunta estratégica a través del desarrollo de un estudio
basado en Big Data en el que tendrán que aplicar todas las etapas propias de un proyecto de Data Science. A
partir de una fuente de datos determinada (datos brutos) deberán hacer los análisis correspondientes y
desarrollar un informe o presentación, para cada caso, presentando los resultados obtenidos.
El alumno partirá del histórico de datos de los hábitos de los consumidores de una empresa y desarrollará
modelos predictivos sobre futuros consumos de los clientes, volumen de ventas de un producto existente y
predicciones sobre volúmen de ventas de un nuevo producto
A partir de la recopilación de datos de comportamiento de los usuarios se deberá desarrollar un motor de
recomendación.
El alumno aplicará los conocimientos adquiridos a lo largo del Máster para resolver un caso propio de Inteligencia
de Negocio como es la segmentación avanzada de clientes. Se deberá clasificar a los clientes en función de
comportamientossimilares haciendo uso de los modelos de Machine Learning utilizados a lo largo del Máster.
El alumno deberá desarrollar un sistema que ajuste los precios de un producto o servicio de forma automática y
en tiempo real en función de los diferentes parámetros asociados a éste (i.e. disponibilidad, precio de la
competencia, patrones de compra, localización geográfica, etc.)
Se pide que se desarrolle un mecanismo para medir la satisfacción del cliente en base al análisis de diferentes
herramientas, como las redes sociales o encuestas. Para ello aplicará los conocimientos de Procesamiento de
Lenguaje Natural y de análisis de datos aprendidos durante el curso.
MÓDULO XI. Trabajo Fin de Máster
El objetivo de este último módulo es que el alumno ponga en práctica, todos los conocimientos adquiridos en el
transcurso del máster en un caso práctico más amplio y transversal que los Business Case del tema anterior. De
esta forma podrán ponerse a prueba a través de un proyecto más exigente y extenso que les dará la experiencia
final necesaria para poder afrontar con éxito los proyectos de Big Data más complejos.
Solicite información o su admisión
¿Qué trámite desea realizar?
Para iniciar los tramites de matriculación