50HORAS |
Diseñado y producido por Smartmind
Contenidos
Objetivo. Comprender los conceptos fundamentales de Big Data, sus características y su importancia en el entorno empresarial, así como adquirir un conocimiento básico sobre los principios de la inteligencia artificial (IA), incluyendo los diferentes tipos de algoritmos de aprendizaje supervisado y no supervisado. CONOCIMIENTOS/ CAPACIDADES COGNITIVAS Y PRÁCTICAS
Contenidos: 8
Conocimiento de la evolución del Business Intelligence (BI) tradicional al Big Data
Navegación web, geolocalización y audiencias de TV: Impacto en el análisis de datos.
Cómo el Big Data resuelve problemas del tratamiento masivo de datos.
Identificación de las características del Big Data
Las 4 V's: Volumen, Velocidad, Variedad y Veracidad.
Valor del dato: La importancia de la calidad y el valor que aportan los datos.
Nuevas dimensiones: Escalabilidad y características adicionales de Big Data.
Comprensión de los nuevos paradigmas del Big Data
Procesos en tiempo real: Cómo Big Data permite la respuesta en tiempo real a eventos.
Cloud Computing: Cómo la computación en la nube apoya el procesamiento y almacenamiento masivo de datos.
Conocimiento de las principales características de Hadoop y su revolución en el tratamiento de datos
Introducción a Hadoop: Historia y su impacto en el procesamiento de datos paralelos.
HDFS y MapReduce: Principales componentes de Hadoop.
Fomento de la responsabilidad y autonomía en la gestión y administración de sistemas y herramientas para el Big Data.
Comunicación efectiva al presentar conceptos clave sobre Big Data a otros profesionales que no tienen un trasfondo técnico, utilizando un lenguaje claro y accesible para facilitar su comprensión.
Objetivo. Utilizar herramientas y técnicas para el procesamiento de datos masivos, manejando frameworks como Hadoop y Spark y aprendiendo a realizar operaciones básicas de ETL (Extracción, Transformación y Carga) en grandes conjuntos de datos. CONOCIMIENTOS/ CAPACIDADES COGNITIVAS Y PRÁCTICAS
Contenidos: 5
Conocimiento general del ecosistema Hadoop
HDFS: Sistema de archivos distribuido de Hadoop.
MapReduce: La tecnología clave para el procesamiento paralelo de datos en Hadoop.
Identificación de los lenguajes de programación en Big Data
Java y Scala: Los lenguajes más utilizados en el desarrollo de soluciones Big Data.
SQL: El papel del SQL en la gestión de bases de datos estructuradas en Big Data.
Python: Uso de Python en análisis y procesamiento de datos.
Comprensión de los procesos ETL (Extracción, Transformación y Carga)
Herramientas como Flume, Sqoop y HIVE: Cómo se gestionan y transforman grandes volúmenes de datos.
Introducción a las mejores prácticas y herramientas en los procesos ETL.
Adquisición del concepto real time y bases de datos de alta disponibilidad
Kafka, HBASE y Redis: Principales tecnologías utilizadas para bases de datos en tiempo real y de alta disponibilidad.
Concienciación con la seguridad y gobernanza del dato
Importancia de la seguridad en Big Data: Cómo proteger los datos en entornos distribuidos.
Gobernanza de datos: Gestión de la calidad y el acceso a los datos en Big Data.
Reconocimiento de la importancia de implantar políticas de seguridad en relación con la protección de los datos en entornos distribuidos.
Adaptabilidad al trabajar con diferentes herramientas de procesamiento de datos, el participante debe ser capaz de adaptarse rápidamente a cambios en los requerimientos del proyecto o a la incorporación de nuevas tecnologías.
Objetivo. Aplicar métodos de análisis de datos y utilizar herramientas de visualización para presentar resultados de manera efectiva, interpretando datos analíticos y comunicando hallazgos de forma clara y visual. CONOCIMIENTOS/ CAPACIDADES COGNITIVAS Y PRÁCTICAS
Contenidos: 7
Asimilación de conceptos sobre la Ciencia de Datos y la IA
Conceptos clave de la Ciencia de Datos: Qué es y cómo se aplica Big Data en la ciencia de datos.
Relación entre Big Data e Inteligencia Artificial: Cómo se interrelacionan y se complementan en el análisis de datos.
Conocimento de los lenguajes de programación en Ciencia de Datos
R y Python: Herramientas clave en el análisis de datos, exploración y procesamiento.
Comprensión de los algoritmos Supervisados
Qué son los algoritmos supervisados: Principales tipos de algoritmos y su aplicación en clasificación y predicción.
Algoritmos como regresión lineal, máquinas de soporte vectorial (SVM), y redes neuronales.
Comprensión de los algoritmos No-Supervisados
Qué son los algoritmos no-supervisados: Principales técnicas y aplicaciones.
K-means, análisis de componentes principales (PCA), y otros métodos de clustering.
Asimilación del funcionamiento del Deep Learning y Aprendizaje por Refuerzo
Introducción al Deep Learning: Redes neuronales profundas y su aplicación.
Aprendizaje por Refuerzo: Qué es y cómo se utiliza para la toma de decisiones en IA.
Comprensión del procesamiento de Información No Estructurada
Imágenes y textos: Técnicas utilizadas en el procesamiento de datos no estructurados como imágenes, texto y audio.
Métodos de análisis y extracción de patrones.
Conocimiento de técnicas para la visualización de datos
Creación de visualizaciones interactivas: Herramientas como Tableau y Power BI para representar datos y resultados.
Dashboards: Diseño y desarrollo de dashboards para la toma de decisiones.
Fomento del pensamiento crítico al analizar datos y preparar visualizaciones, identificando patrones y anomalías que pueden no ser evidentes a primera vista y considerando la mejor manera de presentar esos hallazgos.
Utilización de recursos creativos en el diseño de visualizaciones de datos para presentar la información de forma atractiva y clara, facilitando la comprensión por parte de las partes interesadas.
Objetivo. Analizar el impacto que Big Data y la inteligencia artificial tienen en diversos sectores, como salud, finanzas y marketing, explorando casos de uso reales, identificando oportunidades laborales emergentes y comprendiendo cómo estas tecnologías están transformando ocupaciones y procesos en el ámbito profesional. CONOCIMIENTOS/ CAPACIDADES COGNITIVAS Y PRÁCTICAS
Contenidos: 5
Reconocimiento de las aplicaciones del Big Data en el sector público
OpenData: Ejemplos de aplicación del Big Data en instituciones públicas para la transparencia y eficiencia.
Casos de uso en gestión pública: Impacto en políticas públicas, educación y salud.
Reconocimiento de las aplicaciones empresariales de Big Data
Casos de uso en la mejora de eficiencia operativa dentro de empresas.
Aplicaciones en marketing, logística, predicción de demanda y personalización.
Comprensión del alcance del "Data for Good": Big Data para el Bien Social
Cómo Big Data se utiliza para fines sociales: Proyectos que ayudan a la comunidad, el medio ambiente y el desarrollo económico.
Ejemplos de aplicaciones de Big Data en la mejora de la salud pública y la educación.
Reflexión sobre el Futuro del Big Data
Nuevas tendencias emergentes: IA, procesamiento de datos en la nube, y más.
Predicciones sobre cómo evolucionarán las tecnologías de Big Data e IA en los próximos años.
Aplicación de medidas de eficiencia energética y sostenibilidad ambiental
Estrategias para reducir la huella de carbono en la operación de sistemas de Big Data.
Optimización de recursos en la nube para reducir el consumo energético.
Fomento de la escucha activa al interactuar con profesionales de distintos ámbitos durante el análisis del impacto de Big Data.
Identificación de las implicaciones ambientales de las actividades de análisis de datos, concretamente el consumo energético inherente a su despliegue.

Selecciona tu perfil para continuar:
Actualmente atendemos a los usuarios particulares desde nuestra web.
Ver cursos para particulares