MODULO | HORAS | CLASES |
1: NIVELATORIO | 12 | 3 |
2: ANALITICA DE DATOS | 12 | 3 |
3: BASE DE DATOS | 12 | 3 |
4: LENGUAJE SQL E INTRODUCCIÓN A PYTHON | 16 | 4 |
5: VISUALIZACIÓN | 16 | 4 |
6: HERRAMIENTAS DE VISUALIZACIÓN | 16 | 4 |
7: HERRAMIENTAS DE AUTOMATIZACIÓN | 8 | 2 |
8: GESTIÓN DE DATOS | 8 | 2 |
9: HABILIDADES BLANDAS PARA EL MERCADO LABORAL | 8 | 2 |
10: PRACTICA INTEGRADORA DE ANALITICA DE DATOS | 12 | 3 |
TOTALES | 120 | 30 |
Se
realizará un encuentro virtual sincrónico semanal de 3 horas, más la
utilización del campus virtual académico, para actividades asincrónicas de 1
hora por semana. En total son 4 horas semanales (en formato 8 meses). En
formato INTENSIVO serán 8 horas semanales.
La
carga horaria es de 120 horas que se
dictarán una vez por semana con una dedicación de 4 horas. La duración temporal
es de 8 meses. Según el momento del año que se comience, se podrá optar por ofrecerla
en formato INTENSIVO, con 2 veces por semana sincrónico y 4 meses
temporal de duración.
Las clases sincrónicas se dictarán un día hábil de la semana, utilizando la herramienta de videoconferencias Teams de la Facultad.
Desarrollar
personas con capacidades para la gestión y analítica de datos, con habilidades
desarrolladas para su empleabilidad, en organizaciones altamente digitalizadas
y en entornos de innovación y agilidad.
Quienes finalicen
esta diplomatura, podrán identificar los siguientes aspectos:
Al finalizar la Diplomatura, para aquellos alumnos que tengan todos los módulos aprobados, habrá un examen final integrador.
Se dará aprobada la Diplomatura, aquellos alumnos que tengan todos los módulos aprobados, el examen integrador aprobado y hayan cumplido con una asistencia mínima del 75%.
Entrevistas con empresas del mercado: para los alumnos que aprueben la diplomatura, la Facultad generará eventos de presentación con empresas que estén reclutando estos perfiles
“La industria del software en la Argentina no logra cubrir más de 15.000 empleos, pese a las iniciativas de capacitación desplegadas desde la Cámara de Empresas de Software y Servicios Informáticos (Cessi) con el Gobierno Nacional. En los últimos años numerosos trabajadores realizan actividades para empresas radicadas en el exterior, desde la Argentina, especialmente vía plataformas digitales.” Telam Digital – Cessi, Buenos Aires, 2021
Este tipo de diagnóstico es permanente en Argentina y emitido por diversas fuentes/estudios, que coinciden en la problemática. Además de los roles profesionales, es necesario y fundamental, contar con personas que tengan las habilidades adecuadas para ejecutar diversas tareas específicas de orden operativo en plataformas digitales.
En la medida que la madurez organizacional en relación a la digitalización, va creciendo, muchas organizaciones pueden ingresar a la denominación de “Organizaciones centradas e impulsadas por los datos”. Esto significa que la toma de decisiones en todos los campos, se realizan exclusivamente basadas en datos, excluyendo impulsos subjetivos.
Desde ya que para que esto pueda realizarse, es porque se dispone de gran cantidad de datos de diversos tipos (Estructurados, No estructurados -como videos, redes sociales, etc-, Fuentes alternativas de datos, otros). Todo este volumen procesado en tiempo real por complejos algoritmos de inteligencia artificial y también aplicativos de análisis de datos, generación de tableros de indicadores on line para tomar decisiones, decisiones automatizadas y disponer de patrones de comportamiento, análisis de sentimientos, etc., son los insumos para que una organización esté en este estadio mencionado.
Esta Diplomatura está diseñada para colaborar en generar perfiles laborales de alta empleabilidad en el mercado, haciendo foco en tareas operativas de Gestión de Datos en las Organizaciones, especialmente en lo referente a extracción y visualización de datos para la toma de decisiones.
Cada módulo tendrá una evaluación final que propondrá el responsable del módulo tanto en los aspectos teóricos vistos, como así también en el cumplimiento de los trabajos prácticos.
El mismo será en formato digital con logo de la Universidad y Facultad de Ciencias Económicas. Emitido por la SECRETARÍA DE EXTENSIÓN UNIVERSITARIA, BIENESTAR ESTUDIANTIL Y DESARROLLO SUSTENTABLE, de la Facultad. Firmado por el Secretario y el responsable de la Diplomatura.
Expondrá que el alumno ha aprobado la diplomatura de referencia.
Introducción
Introducción a la analítica de datos y ciencia de datosTipos de datos y su relación con atributos: categóricos, ordinales, continuos.
Repaso conceptual de estadística: media, mediana, rango, varianza, desviación estándar, correlación.
Visualizaciones típicas: gráficos de barras, líneas, histogramas, matriz de dispersión, etc.
Tipos de análisis de datos: descriptivo, predictivo y prescriptivo -Data science y Machine Learning- (ciencia de datos y aprendizaje automático)
Datos
Bases de datos relacionales y no relacionales (SQL, NoSQL).
Modelado de entidad-relación.
Arquitecturas cloud vs on premises (en la nube o instalaciones propias)
Agilidad
Metodología tradicional en cascada para desarrollo de software
Métodos actuales de Agilidad para desarrollo de software
Marcos de trabajo ágil: Scrum – Kanban
Creación de Historias de usuario
Gestión eficaz del Product Backlog (lista de items de producto)
Indicadores de desempeño
Herramientas de gestión ágil
Práctica
Gestión de datos en planillas de cálculo: tablas dinámicas, Funciones de búsqueda (VLOOKUP), Funciones de agregación de datos (SUM, AVG, etc), Gráficos dinámicos
Introducción al análisis de datos: Concepto, evolución del análisis de datos, tareas de un analista de datos.
Introducción al área de Inteligencia de negocio (Business Intelligence) y sus roles.
Ambientes de bases de datos: OLTP / OLAP
Ciclo de vida de los datos: desde recolección a explotación y análisis.
Tecnologías relacionadas al análisis de datos.
Introducción a Base de Datos: Concepto, evolución de las bases de datos
Componentes de una Base de datos: Motor, almacenamiento, catálogo, etc.
Tipos de Bases de datos: estructuradas versus no estructuradas
Conceptos de ETL: Extracción, transformación y carga de datos.
Modelo Relacional: estructura, tablas, tipos de relaciones, claves.
Objetos de una base de datos: Esquema, tabla, vista, funciones, procesos.
Introducción al lenguaje SQL
Componentes principales del lenguaje SQL: Tipos de datos, sintaxis, operadores y funciones.
Sublenguajes: Definición y manipulación
Transformaciones de datos en SQL y subconsultas: concepto, características.
Tablas volátiles versus subconsultas: Concepto, estructura y ventajas.
Consultas compuestas: Join y Union
Introducción al análisis de datos con Python.
Narración (storytelling): Concepto, elementos, ejemplos de uso.
Comunicación efectiva: Concepto, mensaje, comunicación visual.
Tableros: Concepto, componentes, objetos, formato.
Diseño de Tableros: Diseño, UI/ UX.
Gráficos eficientes: Objetivo, casos de uso, tipos de gráficos.
Indicadores (KPIs-Insights): Concepto, importancia, ejemplos.
Documentación: Importancia de documentar el proceso, glosario de métricas, descripción de lógicas, definiciones y gráficos.
Herramientas de explotación de datos: Concepto, componentes principales (Tableau / Power BI o similar).
Orígenes de datos y conectores: Bases de datos, archivos planos, servicios en línea.
Medidas y Dimensiones: Datos cualitativos y cuantitativos.
Campos calculados: Concepto, funciones, ejemplos
Gráficos y Segmentaciones: Gráficos disponibles, filtros, parámetros.
Análisis estadísticos: Estadística descriptiva, medidas de tendencia central (mediana, moda, media) y medidas de posición, histogramas, matriz de dispersión.
Análisis geográficos: visualizaciones con mapas.
Administración del flujo de datos y ciclo de vida
Herramientas de monitoreo.
Manejo de credenciales (aplicativas versus nominales).
Conceptos sobre Gobernanza del ciclo de vida y métricas asociadas.
Manejo de datos sensibles: anonimización, enmascaramiento y técnicas de despersonalización.
Introducción a las técnicas y tecnologías para manipular grandes volúmenes de datos.
Técnicas de modelado. Términos técnicos: OLAP, BigData, datawarehouse, datalake, procesamiento distribuido,
Tecnologías: por ej. BigQuery, Teradata, Hadoop.
Lineamientos para la confección de un CV.
Lineamientos para entrevistas presenciales y on line.
Lineamientos para negociar.
El alumno debería poder adquirir datos de múltiples fuentes, crear procesos que automaticen la obtención de los mismos, ejecutar tareas de análisis exploratorio de datos sobre un conjunto de prueba, para explorar, entender su contenido respecto a un cierto objetivo y brindar conclusiones sobre los resultados.
Comprender y describir el problema a resolver.
Definir y buscar los datos a utilizar.
Conectarse a una base de datos y obtener los datos.
Almacenar el obtenido en una base de datos.
Ejecutar control de calidad de datos (ej.: porcentaje de nulos, fuera de rango, inconsistencias)
Aplicar distintos tipos de visualizaciones para presentar los resultados.
Elaborar conclusiones en base al análisis.
CARGA HORARIA TOTAL
La carga horaria es de 120 horas que se dictarán una vez por semana con una dedicación de 4 horas. La duración temporal es de 8 meses.
Según el momento del año que se comience, se podrá optar por ofrecerla más intensiva con 2 veces por semana y 4 meses temporal de duración.
Actualmente se desempeña como Manager de Data & Analytics en Mercado Libre, donde es responsable de diseñar, implementar y medir el impacto de programas de capacitación sobre técnicas, herramientas y procesos de análisis de datos en toda la organización.
Licenciada en Sistemas de Información de las Organizaciones (LSI) de la Universidad de Buenos Aires (UBA), Facultad de Ciencias Económicas (FCE).
Maestrando en el posgrado de Explotación de datos y descubrimiento del conocimiento de la UBA, Facultad de Ciencias Exactas y Naturales (FCEN), y Facultad de Ingeniería (FI).
Posee más de 15 años de experiencia profesional en el ámbito de las tecnologías de información, armando y conduciendo equipos de desarrollo de software e implementando sistemas de gestión.
Fue Líder de Desarrollo y Análisis Funcional, coordinando equipos senior de analistas y desarrolladores de software y arquitectura informática en el sector público.
También ha ocupado roles de consultor y capacitador, analista técnico/funcional y desarrollador de bases de datos en organizaciones privadas y públicas de software y servicios.
En la docencia, desde 2018 se desempeña como Profesora Adjunta Int. y tutora de trabajos finales de la carrera de LSI en la FCE, en cuyo curso comenzó a colaborar desde 2015. Previamente, se desempeñó como auxiliar desde 2014 hasta 2019 en la asignatura Tecnología de la Información en la misma facultad. También es profesora invitada en cursos de posgrado en UCEMA y FCE, para clases especiales sobre la temática de Data & Analytics.
Es co-autora junto con el equipo de cátedra, del libro Actuación Profesional del Licenciado en Sistemas, FCE, 2021.
Dr. Pablo Matías Herrera
Doctor en Ciencias Económicas, Área Ciencias Económicas.
Magíster en Gestión Económica y Financiera de Riesgos de la Universidad de Buenos Aires (UBA), Facultad de Ciencias Económicas (FCE).
Licenciado en Economía de la Universidad de Buenos Aires (UBA), Facultad de Ciencias Económicas (FCE).
Actualmente se desempeña como docente e investigadora en la Facultad de Ciencias Económicas de la Universidad de Buenos Aires con dedicación exclusiva.
Es profesor regular del Grupo de Asignaturas del Área Matemática.
Participa como docente en diferentes cursos de posgrado (cursos, especialización y maestría) y de doctorado.
Publica con regularidad en revistas científicas académicas y, desde el 2010, participa de forma ininterrumpida en proyectos de investigación acreditados por diferentes organismos.
Como parte de las tareas de investigación, participa en forma regular de la formación de recursos humanos desde la dirección de tesis de doctorado y maestría, trabajos finales de especialización y de grado y el trabajo de investigación de becarias/os.
Las temáticas de investigación están asociadas con la gestión de la ciencia y la tecnología, en general, y de las tecnologías de la información y la comunicación en particular.
Licenciada en Economía de la Universidad de Buenos Aires (UBA), Facultad de Ciencias Económicas (FCE).
Magister de la Universidad de Buenos Aires en Métodos Cuantitativos para la Gestión y Análisis de Datos en Organizaciones, Facultad de Ciencias Económicas.
Doctoranda en el Doctorado en Ciencias Económicas de la Universidad de Buenos Aires, Subárea Sistemas, Facultad de Ciencias Económicas.
Actualmente se desempeña como docente e investigadora en la Facultad de Ciencias Económicas, UBA.
En el ámbito de la docencia, es Profesora Adjunta Int. Y JTP Int desde 2020 en Estadística I y Estadística Actuarial en la FCE, UBA. Previamente, era auxiliar docente desde 2016 en la materia Estadística Actuarial en la misma casa de estudio.
También es Profesora en la Maestría en Métodos Cuantitativos para la Gestión y Análisis de Datos en Organizaciones (desde 2021) y en la Maestría en Gestión y Análisis de Datos Financieros (desde 2022), Facultad de Ciencias Económicas, UBA. Además, es Mentora de Trabajos finales de Especialización en Métodos Cuantitativos para la Gestión y Análisis de Datos en Organizaciones, contando con varios ya finalizados y otros en curso.
En el área de investigación, es investigadora en formación en el Centro de Investigación en Metodologías Básicas y Aplicadas a la Gestión – CIMBAGE-IADCOM de la Facultad de Ciencias Económicas, UBA. Cuenta con publicaciones de trabajos de investigación, así como diferentes actividades de exposición de congresos y seminarios dentro y fuera de la Facultad mencionada.
Posee más de 15 años de experiencia profesional en el ámbito del análisis y gestión de datos en organizaciones, desarrollando soluciones de problemas en base a datos.
Hasta fines de 2021, fue Analista de datos Sr por 6 años, en la organización Nación Servicios en la unidad de negocio SUBE, siendo el referente en el área de análisis y explotación de datos, y también desempeñándose en las tareas de gestión de datos en coordinación con las otras áreas de la organización.
También ha ocupado otros roles previos en el área de análisis de datos en organizaciones privadas.
Licenciada en Economía de la Universidad de Buenos Aires (UBA), Facultad de Ciencias Económicas (FCE). Doctoranda en el Doctorado en Ciencias Económicas de la Universidad de Buenos Aires, Subárea Finanzas, Facultad de Ciencias Económicas. Médica de la universidad de Buenos Aires (UBA), Facultad de Medicina. Especialista en Medicina Crítica y Terapia Intensiva de la universidad de Buenos Aires (UBA), Facultad de Medicina. Actualmente se desempeña como docente e investigadora en formación en la Facultad de Ciencias Económicas, UBA. Es auxiliar docente de Matemática para economistas, Álgebra 1 y Estadística 1 en FCE (UBA). En el área de investigación, cuenta con publicaciones de trabajos de investigación, así como diferentes actividades de exposición de congresos. Las temáticas de investigación se relacionan con temas vinculados a matemática aplicada y modelos de gestión de riesgo financiero basados en sistemas biológicos de control homeostático.
Ingeniera en Sistemas de Información de la Universidad Tecnológica Nacional (UTN), Facultad Regional Buenos Aires. Actualmente se desempeña como Project Leader de Data & Analytics en Mercado Libre, donde es responsable de liderar un equipo regional en el diseño, desarrollo e implementación de soluciones de datos para la unidad de negocio de Fintech. Previamente, fue desarrolladora de procesos de ingestión y análisis de datos en IBM, responsable de la creación de tableros de control operativo para clientes internos de la empresa. Su experiencia en el ámbito de la docencia, es la de haber colaborado durante dos años en la cátedra de la materia Sistemas Operativos y Paradigmas de Programación, para la Ingeniería en Sistemas de Información de la UTN.
Ingeniera en Sistemas de Información de la Universidad Tecnológica Nacional (UTN), Facultad Regional Buenos Aires. Cuenta con una diplomatura en Business Intelligence, realizada en la UTN FRBA en 2021. Actualmente se desempeña como Data & Analytics Engineer en Mercado Libre donde es responsable de la explotación de datos, mediante el desarrollo, puesta en producción y monitoreo de procesos de ETL, y de la creación de reportes, tableros, visualizaciones y generación de insights, para la toma de decisiones operativas/tácticas/estratégicas en la unidad de negocio de Fintech. Posee experiencia en la docencia como Ayudante Avanzado de Data Analytics.