Cargando Eventos

Business Intelligence a través del Big Data y Cloud Computing

Código: 26ON07 Granada
01/07/2026

Organizan

Fundación Al Granada y Centro Mediterráneo de la Universidad de Granada

Formato

Presencial 20 horas en Fundación I+D del Software Libre, Edifi cio BIC Granada, 18100 Armilla, Granada

Dirección

Introducción

Este curso proporciona una inmersión completa en el mundo del Big Data, combinando los fundamentos teóricos con herramientas avanzadas de análisis. Los participantes aprenderán a gestionar grandes volúmenes de datos y a aprovechar las ventajas de la escalabilidad y flexibilidad que ofrecen los entornos en la nube.

A lo largo del curso, se explorarán tecnologías clave como Hadoop, Apache Spark y bases de datos NoSQL, mediante un enfoque práctico basado en casos reales. Además, se trabajará el componente estratégico del Business Intelligence, capacitando a los asistentes para convertir los datos en información útil y relevante, facilitando así la toma de decisiones empresariales fundamentadas.

Objetivos del curso

Los objetivos específicos que los participantes alcanzarán al finalizar el curso son:

  • Comprender los fundamentos de Big Data y Cloud Computing Adquirir una visión global de los principios básicos del Big Data y las tecnologías de computación en la nube, entendiendo sus características, desafíos y aplicaciones en entornos empresariales.
  • Gestionar grandes volúmenes de datos en entornos escalables y seguros Aprender a almacenar, procesar y analizar grandes conjuntos de datos utilizando infraestructuras y servicios en la nube que garanticen la escalabilidad, la seguridad y la efi ciencia.
  • Dominar herramientas prácticas avanzadas Familiarizarse con tecnologías clave como Hadoop, Apache Spark, Docker y Kubernetes, aplicándolas para resolver problemas reales de análisis y gestión de datos en diferentes contextos empresariales.
  • Aplicar conceptos de Business Intelligence Desarrollar la capacidad de transformar datos en información estratégica para la toma de decisiones empresariales, utilizando técnicas avanzadas de análisis y visualización de datos.
  • Resolver problemas complejos en el ámbito del análisis de datos Adquirir habilidades prácticas para implementar soluciones innovadoras en proyectos reales, abordando retos asociados al procesamiento y análisis de datos en entornos dinámicos y cambiantes.

Público objetivo

Este curso está dirigido a:

  • Profesionales y empresas interesados en adoptar soluciones de Big Data y Business Intelligence.
  • Estudiantes y titulados en áreas tecnológicas que deseen especializarse en análisis de datos.

Se recomienda un conocimiento básico en informática, programación o análisis de datos. Aunque no es imprescindible, una familiaridad previa con conceptos tecnológicos facilitará el aprendizaje

Competencias del alumnado

A continuación, se detallan las competencias que adquirirán los asistentes:
a) El alumnado sabrá/comprenderá:

  • Conceptos fundamentales de Big Data y Cloud Computing: entender los desafíos asociados al manejo de grandes volúmenes de datos y los principios esenciales de la computación en la nube.
  • Modelos de servicio en la nube (IaaS, PaaS, SaaS): identifi car las características y aplicaciones de estos modelos en el contexto del análisis y almacenamiento de datos.
  • Arquitectura y componentes clave en la nube: conocer los elementos esenciales, como servidores, redes y almacenamiento, así como los principios de escalabilidad, disponibilidad y seguridad en entornos cloud.
  • Herramientas clave para la gestión eficiente en la nube: comprender el funcionamiento y la importancia de tecnologías como Docker y Kubernetes para la gestión de aplicaciones escalables.
  • Principios de MapReduce y el ecosistema Hadoop: familiarizarse con el paradigma de procesamiento distribuido y las herramientas principales de Hadoop, como HDFS, para el almacenamiento y análisis de datos.
  • Bases de datos NoSQL: reconocer los diferentes tipos de bases de datos NoSQL y sus aplicaciones prácticas en Big Data.

  • Procesamiento de datos con Apache Hive y Apache Pig: dominar estas herramientas para realizar consultas SQL, transformación y análisis de datos en entornos Hadoop.
  • Conceptos básicos y avanzados de Apache Spark: comprender el uso de Spark para la manipulación y procesamiento de datos estructurados, además de la implementación de algoritmos en escenarios reales

b) El alumnado será capaz de:

  • Analizar y gestionar grandes volúmenes de datos: comprender los retos del Big Data y aplicar estrategias efectivas para su manejo y almacenamiento en la nube.
  • Identificar y diferenciar modelos de servicio cloud: evaluar y seleccionar el modelo más adecuado (IaaS, PaaS, SaaS) según las necesidades específicas de análisis de datos.
  • Utilizar herramientas avanzadas de Hadoop: implementar MapReduce y gestionar almacenamiento escalable en clústeres Hadoop mediante HDFS.
  • Aplicar tecnologías de bases de datos NoSQL: gestionar datos no estructurados y semi-estructurados utilizando bases de datos modernas como MongoDB o Cassandra.
  • Realizar consultas y procesamiento avanzado con Hive y Pig: crear tablas, realizar consultas SQL y procesar datos efi cientemente en entornos Hadoop.
  • Dominar Apache Spark: utilizar Spark para el procesamiento en memoria, desarrollar algoritmos de análisis y aplicar técnicas avanzadas en casos de estudio reales.
  • Resolver problemas complejos: integrar conocimientos teóricos y prácticos para abordar proyectos del mundo real, demostrando capacidad de análisis y toma de decisiones fundamentadas en datos.

Metodología y evaluación

A continuación, se detalla la metodología, el sistema de evaluación y los recursos que estarán disponibles para los participantes:

Metodología

El curso combina diversas estrategias pedagógicas para ofrecer una experiencia formativa integral:
Clases online interactivas: sesiones en vivo donde los profesores presentan los contenidos de manera clara, fomentando la participación activa de los asistentes.
Talleres prácticos: actividades diseñadas para aplicar los conceptos aprendidos a situaciones reales, utilizando herramientas clave como Hadoop, Spark y bases de datos NoSQL.
Análisis de casos de estudio reales: resolución de problemas prácticos basados en experiencias reales de implementación de Big Data y Cloud Computing.

Evaluación

El proceso de evaluación tiene como objetivo medir tanto el aprendizaje teórico como la capacidad de aplicar los conocimientos en contextos reales:

  • Cuestionarios teóricos (30%): evaluaciones que aseguran la comprensión de los conceptos fundamentales del curso.
  • Proyecto práctico final (70%): desarrollo de un caso práctico donde los participantes aplicarán las herramientas y estrategias aprendidas para resolver un desafío específico relacionado con el análisis de datos.

Recursos complementarios
Los participantes contarán con un conjunto de materiales y herramientas diseñados para apoyar su aprendizaje durante y después del curso:

  • Materiales digitales: acceso a artículos especializados, vídeos tutoriales y guías prácticas relacionadas con los contenidos del curso.
  • Webinars temáticos: sesiones adicionales que profundizan en temas clave del curso, impartidas por expertos invitados.
  • Acceso a foros exclusivos: espacios virtuales para interactuar con otros participantes, compartir experiencias y resolver dudas con el apoyo de los profesores.
  • Soporte técnico: asistencia personalizada durante la realización del curso para resolver cualquier problema técnico relacionado con la plataforma online o los recursos utilizados.

Empleos y salidas profesionales

Al finalizar el programa, los estudiantes estarán capacitados para acceder a diversas oportunidades profesionales, entre las que destacan:

  • Analista de datos Los participantes adquirirán las habilidades necesarias para recopilar, limpiar, analizar e interpretar grandes volúmenes de datos, transformándolos en información valiosa que facilite la toma de decisiones empresariales estratégicas.
  • Arquitecto de soluciones en la nube Con el conocimiento adquirido en Cloud Computing, los asistentes estarán capacitados para diseñar y desplegar infraestructuras escalables, seguras y efi cientes para el procesamiento y almacenamiento de datos en la nube, contribuyendo a optimizar los recursos tecnológicos de las organizaciones.
  • Ingeniero de Big Data Los estudiantes podrán desempeñar roles como ingenieros de Big Data, siendo responsables de diseñar, implementar y mantener sistemas que manejen datos masivos de manera efi ciente, utilizando tecnologías como Hadoop, Spark y bases de datos NoSQL.
  • Analista de Business Intelligence Con una sólida formación en inteligencia empresarial, los participantes estarán preparados para interpretar datos y generar informes y paneles visuales que ayuden a las organizaciones a comprender mejor sus operaciones y a tomar decisiones basadas en datos.
  • Científico de datos Aquellos interesados en análisis avanzado podrán optar por roles como científicos de datos, aplicando técnicas de machine learning y algoritmos predictivos para resolver problemas complejos y desarrollar soluciones innovadoras. 6. Consultor en Big Data y Cloud Computing Los graduados estarán capacitados para ofrecer servicios de consultoría a organizaciones, ayudándolas a implementar estrategias efectivas de Big Data y Cloud Computing, mejorando sus procesos de análisis y gestión de datos.
Contenidos del curso

El curso está dividido en cuatro módulos principales:

Módulo 1: Bases de datos NoSQL, Hive y Pig (5 horas)

  • Introducción a las bases de datos NoSQL
  • Tipos de bases de datos NoSQL
  • Apache Hive y Apache Pig

Módulo 2: Cloud Computing (5 horas):

  • Introducción a los principios de Cloud Computing
  • Escalabilidad, disponibilidad y seguridad en entornos cloud y proveedores de servicios en la nube
  • Componentes clave de la arquitectura en la nube (servidores, almacenamiento, redes), escalabilidad, disponibilidad, seguridad en la nube
  • Contenerización: introducción, componentes, creación de entornos multiconentendor con escalabilidad y disponibilidad.

Módulo 3: Big Data (10 horas)

  • Principios de Big Data y escalabilidad
  • Arquitectura de MapReduce
  • Introducción a Hadoop y su ecosistema
  • Conceptos básicos de HDFS (Hadoop Distributed File System)
  • Introducción a Apache Spark y sus características
  • Diferencias entre Hadoop y Spark
  • Spark SQL y DataFrames: procesamiento de datos estructurados
  • MLlib: Machine Learning en Spark