MSc en
Ingeniería
Estadística
Examen de Admisión
8 al 15 de Marzo
20
25
Programa MCIES
UNIDAD DE POSGRADO
Facultad de Ingeniería Económica, Estadística y Ciencias Sociales
Presentación
La Maestría en Ciencias e Ingeniería Estadística (MCIES) es un programa mixto de alta calidad que combina conocimientos de Matemáticas Aplicadas y Ciencias de la Computación en el campo de la Estadística. Su objetivo es preparar líderes capaces de innovar en el área de Estadística, Aprendizaje Automático y Modelado Estocástico, así como también en áreas de interfaz entre ellas, contribuyendo significativamente a estos campos y respondiendo a las necesidades científicas, tecnológicas e industriales del país.
El programa busca formar la próxima generación de investigadores, profesores universitarios y expertos, capaces de marcar una diferencia tangible en el desarrollo e implementación de nuevas herramientas de análisis cuantitativo. Además, pretende incentivar un cambio de paradigma en el área de Ciencia de Datos, satisfaciendo la demanda de desarrollo científico y tecnológico en constante evolución.
Nuestro programa está diseñado para investigadores en ciencia y tecnología, profesores universitarios y profesionales en ciencia de datos. El MCIES ofrece una sólida formación en Estadística, Probabilidad y Machine Learning, preparando a los estudiantes para carreras exitosas en diversas industrias y además equipándolos para continuar estudios de doctorado.
Nuestro equipo de profesores, compuesto por científicos de universidades prestigiosas con experiencia académica e industrial, brinda una orientación personalizada y de colaboración estrecha con los estudiantes en el desarrollo de habilidades y la investigación de temas de interés.
Además, con nuestro programa de maestría pretendemos impulsar y proporcionar una estructura académica adecuada y eficiente para desarrollar investigaciones de vanguardia transferibles a empresas de diferentes sectores, resolviendo problemas reales. Promovemos la interacción y el uso de la Estadística, Ciencias de la Computación y Matemáticas Aplicadas en problemas de diversas áreas, tales como la industria médica, agrícola, financiera e ingeniería, entre otros.
Perfil del Graduado
Al finalizar el programa MCIES, los graduados estarán preparados para continuar estudios de doctorado en universidades peruanas o extranjeras; participar en proyectos de investigación interdisciplinarios; y para ejercer la docencia universitaria.
Dirigida a:
- Profesionales Analíticos: Aquellos que buscan perfeccionar sus habilidades analíticas y destacarse en la interpretación avanzada de datos.
- Expertos en Datos: Profesionales que desean elevar su perfil en el mercado laboral al especializarse en Análisis de Datos y Estadísticas Avanzadas.
- Directores de Estrategia: Líderes empresariales que buscan optimizar la toma de decisiones estratégicas basadas en evidencia cuantitativa.
- Profesionales de Finanzas y Marketing: Especialmente aquellos interesados en el análisis de datos para la formulación de estrategias de finanzas y marketing efectivas.
- Investigadores Innovadores: Aquellos con un interés en la investigación avanzada en estadística e ingeniería estadística, con aplicaciones prácticas en diversos campos.
- Programadores y Desarrolladores: Profesionales con una base en programación que desean aplicar sus habilidades en el análisis de datos a gran escala, especialmente en contextos de Big Data.
Líneas de Investigación
- Aprendizaje Estadístico: Se enfoca en aspectos teóricos,
metodológicos y aplicados del análisis de datos. Los investigadores
del MCIES se interesan en áreas como:- Estimación de Series Temporales de Alta Dimensión
- Modelado de Series Temporales No Lineales
- Pruebas No Paramétricas
- Simulación Monte Carlo para inferencia bayesiana
- Inferencia estadística para problemas de Optimización
Estocástica con aversión al riesgo o neutralidad al riesgo
(Teoremas del Límite Central, Pruebas de Hipótesis, Intervalos de
Confianza No Asintóticos) - Pruebas de hipótesis no paramétricas mediante técnicas de
Optimización Convexa
- Modelado Estocástico: Esta área de Teoría de Probabilidad, con
amplias aplicaciones prácticas, se centra en el estudio de
Ecuaciones Diferenciales Estocásticas y Procesos de Difusión de Itô.
Incluye la resolución numérica de estas ecuaciones y la estimación
estadística de sus parámetros. Además, ecuaciones para modelar
fenómenos biológicos, físicos y financieros, donde las cantidades de
interés están sujetas a perturbaciones aleatorias.
- Aprendizaje Automático e Inteligencia Artificial: Esta línea de
investigación busca desarrollar y aplicar métodos de aprendizaje
automático en el análisis de datos estructurados y no estructurados,
incluyendo datos numéricos, categóricos, textuales, imágenes,
gráficos y series de tiempo. Los objetivos incluyen:- Desarrollo de algoritmos, lenguajes y metodologías para la
manipulación de bases de datos complejas - Tareas como clasificación, Regresión, Identificación de Clusters,
Sistemas de Recomendación, Optimización, Extracción y
Representación del Conocimiento - Modelado de dominios de conocimiento, Minería de Datos, Minería
Textual, Visualización, Análisis de Sentimientos, Análisis de Datos de Alta
Dimensión y Criptografía
- Desarrollo de algoritmos, lenguajes y metodologías para la
Ventajas
- Profesores Científicos que realizan día a día en sus centros laborales diferentes aplicaciones de acuerdo a la maestría.
- Posibilidad de integrar las líneas de carreras dentro de instituciones públicas y privadas.
- Los cursos propuestos hacen de la maestría la mejor opción para aquellos que quieran destacar en diversas industrias.
- La maestría considera conceptos modernos complementados con una orientación a formar científicos, académicos y profesionales de la industria.
- Prestigio de una universidad de más de 143 años con ventajas comparativas a nivel cuantitativo aplicado.
- Las aplicaciones van de la mano del entendimiento profundo de los fundamentos garantizando la calidad de sus resultados.
Beneficios
- Diploma en Ingeniería Estadística a nombre de la Universidad Nacional de Ingeniería a los alumnos que aprueben los ciclos I y II (28 créditos académicos).
- Malla curricular acorde a las necesidades y tendencias actuales en el área de Ciencias de Datos y Estadística.
- Desarrollo de habilidades académicas y científicas para el área de Ingeniería Estadística.
CICLO I | |||
Código | Curso | Créditos | Requisito |
MES101 | Probabilidad e Inferencia Estadística | 4 | Ninguno |
MES111 | Álgebra Lineal y Optimización Computacional | 4 | Ninguno |
MES112 | Elementos de Análisis Real | 4 | Ninguno |
MES120 | Estructuras de Datos y Algoritmos | 3 | Ninguno |
Total de Créditos | 15 |
PLAN CURRICULAR
El programa MCIES está diseñado de tal forma que en el primer ciclo los estudiantes puedan obtener bases teóricas sólidas, esto a través de cursos formativos en programación, probabilidad y matemática computacional. En ciclos sucesivos, se introducen cursos relacionados a cada área de concentración, los cuales serán reforzados con los cursos electivos.
CICLO II | |||
Código | Curso | Créditos | Requisito |
MES201 | Modelos Estadísticos para el | 4 | MES101 MES111 |
MES202 | Métodos Computacionales en | 3 | MES120 |
MES211 | Procesos Estocásticos | 3 | MES112 |
MES221 | Introducción al Aprendizaje de Máquina | 3 | MES111 MES120 |
Total de Créditos | 13 |
CICLO III | |||
Código | Curso | Créditos | Requisito |
MES301 | Aprendizaje Multimodal | 4 | MES221 |
MES302 | Seminarios de Investigación I | 4 | MES221 MES201 |
MES331 | Electivo 1: Aprendizaje Estadístico de Maquina Avanzado | 4 | MES221 |
MES332 | Electivo 2: Cálculo Estocástico y sus Aplicaciones a Finanzas | 4 | MES211 |
Total de Créditos | 16 |
CICLO IV | |||
Código | Curso | Créditos | Requisito |
MES401 | Seminario de Investigación II | 4 | MES301 MES302 |
Total de Créditos | 4 |
Cursos Electivos
El candidato a Master debe completar 48 créditos entre cursos obligatorios y electivos. Se puede optar por llevar diferentes electivos después de completar los 28 créditos. El candidato a máster realizará como mínimo tres de los siguientes cursos electivos:
Código | Curso | Requisito | ÁREAS DE INVESTIGACIÓN |
DES501 | Estadística para Datos de Alta Dimensión | MES201 MES202 | Estadística |
DES502 | Análisis de Datos Funcionales | ||
DES503 | Series de Tiempo y Análisis de | ||
DES504 | Inferencia Causal | ||
DES511 | Cálculo Estocástico y sus Aplicaciones a Finanzas | MES211 | Modelado Estocástico |
DES512 | Ecuaciones Diferenciales Estocásticas y Teoría de Difusión | ||
DES521 | Aprendizaje por Refuerzo | MES221 | Aprendizaje e Inteligencia Artificial |
DES522 | Aprendizaje Estadístico de Máquina Avanzado | ||
DES523 | Tópicos en Inteligencia Artificial | ||
DES524 | Aprendizaje Profundo | ||
DES525 | Modelos Gráficos |
Prof. Helder Rojas
Prof. Jorge Guevara
Prof. Rusbert Calderon
Prof. Erick Chacon
Horarios
Ciclo I
Álgebra Lineal y Optimización
Computacional
Lu-Ju
19:00 - 20:30
Estructura de Datos y Algoritmos
Sab
9:00 - 12:00
Elementos de Análisis Real
Sab
15:00 - 18:00
Probabilidad e Inferencia Estadística
Dom
10:00 - 13:00
¡El programa comprende un total de 16
semanas de clases!
Prof. Jorge Guevara
Prof. Erick Chacon
Prof. Helder Rojas
Prof. Rusbert Calderon
Ciclo II
Introducción al Aprendizaje de Máquina
Ma-Ju
19:00 - 20:30
Métodos Computacionales en
Probabilidad y Estadística
Sab
11:00 - 14:00
Modelos Estadísticos para el
Análisis de Datos
Dom
7:00 - 10:00
Procesos Estocásticos
Dom
10:30 - 13:30
¡El programa comprende un total de 16
semanas de clases!
Prof. Nils Murrugarra
Prof. Helder Rojas
Prof. Helder Rojas
Prof. Rusbert Calderon
Ciclo III
Aprendizaje Multimodal
Ma-Ju
18:00 - 19:30
Seminario de Investigación I
Ma-Mi
19:30 - 21:00
19:00 - 20:30
Aprendizaje Estadístico de
Maquina Avanzado
Sab
7:00 - 10:00
Calculo Estocástico y sus
Aplicaciones a Finanzas
Sab
10:30 - 13:30
¡El programa comprende un total de 16
semanas de clases!
Algebra Lineal y Optimización Computacional
Parte 1 (Álgebra Lineal):
- Matrices y Vectores
- Sistemas Lineales:
- Eliminación Gaussiana, Factorización LU
- Espacios y Subespacios Vectoriales:
- Bases y Dimensión, Rango de una Matriz
- Ortogonalidad:
- Proyecciones, Ortogonalización de Bases, Mínimos Cuadrados
- Valores Propios y Vectores Propios:
- Diagonalización
- Transformaciones Lineales
- Descomposición en Valores Singulares
Parte 2: Optimización
- Funciones de Varias Variables:
- Motivación y Ejemplos, Normas y Distancias en Rn, Puntos de Acumulación.
- Aplicaciones Continuas:
- Conjuntos Abiertos y Cerrados, Conjuntos Compactos, Conjuntos Convexos, Funciones Convexas y Estrictamente Convexas.
- Cálculo Diferencial
- Derivadas Parciales y Direccionales, Diferenciabilidad, Regla de la Cadena, Fórmula de Taylor.
- Funciones de Rn a R
- Gradientes, Teorema de Schwarz, Máximos y Mínimos Locales, Condiciones Necesarias y Suficientes, Condiciones de Máximo y Mínimo con Restricciones, Multiplicadores de Lagrange y Karush-Kuhn-Tucker (KKT)
Referencias
- STRANG, G. Introduction to Linear Algebra. Wellesley-Cambridge Press, 1993.
- LUENBERGER, D. Linear and Non-Linear Programming. Addison- Wesley Reading, 1984.
- APOSTOL, T. Calculus. Second edition, John Wiley, 1969.
- BERTSEKAS, D. Nonlinear Programming. Athena Publishing, 1999.
Elementos de Análisis Real
Números Reales: Axiomatización y intervalos encajantes.
Conceptos Topológicos en Rn:
- Normas
- Producto interno
- Conjuntos abiertos
- Conjuntos cerrados
- Conjuntos compactos
Secuencias Numéricas: Límite superior e inferior.
Continuidad de Funciones:
- Puntual
- Uniforme
Diferenciabilidad:
- Derivadas direccionales
- Derivada como aplicación lineal
- Fórmula de Taylor
- Extremos de una función real
Integral de Riemann: Criterios de integrabilidad y teorema fundamental del cálculo.
Series Numéricas: Criterios de convergencia.
Series de Funciones: Integral.
Introducción a la Teoría de Integración de Lebesgue.
Referencias
- RUDIN. W. Principles of Mathematical Analysis, 1953.
- SPIVAK, M. Calculus. Berkeley, CA: Publish or Perish, 1980.
- BUCK, R. Advanced Calculus. 2d ed. New York: McGraw-Hill, 1965.
- APOSTOL, T. Calculus. Second edition, John Wiley, 1969.
Parte 1 (Probabilidad):
Espacios de Probabilidad y Cálculo de Probabilidades:
- Reglas Fundamentales y Regla de Bayes, Probabilidad Condicional e Independencia.
Variables Aleatorias:
- Funciones de Distribución, Función de Densidad y Masa, Distribuciones Comunes, Discretas y Continuas, Transformaciones de Variables Aleatorias y sus Distribuciones.
Valor Esperado de una Variable Aleatoria:
- Momentos y Función Generatriz de Momentos
- Variables Aleatorias Múltiples: Distribución Marginal y Conjunta, Covarianza y Correlación
Convergencia de Variables Aleatorias:
- Ley de los Grandes Números (LGN), Teorema Central del Límite (TCL).
Probabilidad e
Inferencia Estadística
Parte 2 (Inferencia Estadística):
Introducción a la Estadística Frecuentista:
- Distribución Muestral de un Estimador, Teoría de Decisión Frecuentista, Propiedades Deseables de un Estimador, Minimización de Riesgo Empírico, Patologías de la Estadística Frecuentista.
Introducción a la Estadística Bayesiana:
- Prioris No-Informativas, Prioris de Jeffreys, Prioris Robustas y Mixtura de Prioris Conjugadas, Resúmenes de Distribuciones Posteriori, Estimación MAP e Intervalos de Credibilidad, Selección de Modelo Bayesiano, Occam’s Razor Bayesiano, Verosimilitud Marginal (Evidencia), Factores de Bayes, Paradoja de Jeffreys-Lindley, Bayes Jerárquico y Bayes Empírico, Teoría de Decisión Bayesiana
Referencias
- Casella, G. & Berger, R. L. (2021). Statistical Inference. Cengage Learning.
- Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. MIT press.
- Ross, S. M. (2014). Introduction to Probability Models. Academic press.
Estructuras de Datos y Algoritmos
Referencias
- Thomas H Cormen (Author), Charles E Leiserson (Author), Ronald L Rivest (Author), Clifford Stein (Author) Introduction to Algorithms. MIT-Press, (2008).
- Dasgupta, S., Papadimitriou, C. H. & Vazirani, U. V. Algorithms. McGraw-Hill, (2008).
- Kleinberg, J., & Éva Tardos. Algorithm Design. Addison Wesley, (2005).
- Hetland, M. L., (2010). Python Algorithms: Mastering Basic Algorithms in the Python Language. Apress.
Introducción: Big O
Estructuras de Datos Comunes:
- Grafos
- Strings
- Filas
- Listas
- Arrays
Complejidad de Algoritmos:
Medidas de complejidad
Tipos de Algoritmos:
- Algoritmos codiciosos
- Programación dinámica
- Programación lineal
- Algoritmos de divide y conquista
- Algoritmos sobre strings
Problemas NP-Completos:
Reducciones NP
Presentación de Proyectos
Modelos Estadísticos
para el
Análisis de Datos
Modelo Lineal General:
- Inferencia: Intervalos de confianza y pruebas de hipótesis
- Geometría del modelo lineal
- Experimentos controlados y aleatorizados
- ANOVA: Factores e interacciones
Modelos Lineales Generalizados:
- Familia de distribución exponencial
- Ajustes, inferencia y diagnóstico
Modelos Mixtos:
- Ejemplos simples y teoría general
- Inferencia Intensiva por Computadora a través de remuestreo
Modelos Aditivos Generalizados
- Ejemplos simples de suavización
- Interacciones suavizadas y descomposición ANOVA suavizada
Regresión Sparse:
- Modelo lineal, Lasso, Elastic Net, Lasso Group
Modelos Sparse y Denoising
- Representación de Frecuencia, Wavelets, Métodos Pursuit,
Umbralización, Variación Total.
Referencias
- Wood, S. N. (2017). Generalized additive models: an introduction with R. CRC press.
- Congdon, P. (2014). Applied bayesian modelling. John Wiley & Sons.
- Verbeke, G., Molenberghs, G., & Verbeke, G. (1997). Linear mixed models for longitudinal data (pp. 63-153). Springer New York.
- Dobson, A. J., & Barnett, A. G. (2018). An introduction to Generalized linear models. CRC press.
Métodos Computacionales
en Probabilidad e
Inferencia
Simulación de Variables Aleatorias:
- Método de Transformación Inversa
- Método de Aceptación-Rechazo
Simulación de Variables Aleatorias Multidimensionales:
- Método de Cambio de Variable
- Método de Superposición
Métodos Monte-Carlo (MC):
- Integración vía MC
- Muestreo por Importancia
- Métodos de Re-muestreo
- Control y Aceleración de Convergencia
Métodos de Optimización vía MC:
- Optimización Numérica
- Gradiente Estocástico
- Simulated Annealing
- Algoritmo EM
Métodos de Monte-Carlo vía Cadenas de Markov (MCMC):
- Muestreador de Gibbs
- Metropolis-Hastings
- Monte-Carlo Hamiltoniano
- Monte-Carlo Secuencial (Filtrado de Partículas)
Referencias
- Robert, C. P., Casella, G., & Casella, G. (2010). Introducing Monte Carlo Methods with R (Vol. 18). New York: Springer.
- Asmussen, S., & Glynn, P. W. (2007). Stochastic Simulation: Algorithms and Analysis (Vol. 57, pp. 487-488). New York: Springer.
- Kroese, D. P., Taimre, T., & Botev, Z. I. (2011). Handbook of Monte Carlo Methods. John Wiley & Sons.
Cadenas de Markov
- Definiciones y propiedades elementales
- Propiedad fuerte de Markov
- Estados recurrentes y transitorios
- Cadena de Markov reversible
- Tasa de convergencia al equilibrio
- Estadísticas de las cadenas de Markov
Proceso de Poisson
- Procesos puntuales y procesos de conteo
- Propiedades Markovianas del proceso de Poisson
- Comportamiento a largo plazo
Procesos de Markov con Saltos
- Generador infinitesimal
- Cadena de Markov asociada
- Reversibilidad
- Métodos de verosimilitud y enfoque bayesiano en filogenia
- Modelos de evolución
- Aplicación a ecuaciones diferenciales parciales
discretizadas - Simulated annealing (Recocido simulado)
Procesos
Estocásticos
Cadenas de Markov
- Definiciones y propiedades elementales
- Propiedad fuerte de Markov
- Estados recurrentes y transitorios
- Cadena de Markov reversible
- Tasa de convergencia al equilibrio
- Estadísticas de las cadenas de Markov
Proceso de Poisson
- Procesos puntuales y procesos de conteo
- Propiedades Markovianas del proceso de Poisson
- Comportamiento a largo plazo
Procesos de Markov con Saltos
- Generador infinitesimal
- Cadena de Markov asociada
- Reversibilidad
- Métodos de verosimilitud y enfoque bayesiano en filogenia
- Modelos de evolución
- Aplicación a ecuaciones diferenciales parciales
discretizadas - Simulated annealing (Recocido simulado)
Referencias
- Markov Processes and Applications Algorithms, Networks, Genome and Finance.
- Karlin, S., & Taylor, H. M. (1975). A first course in stochastic processes (2nd ed.). Academic Press.
- Norris, J. R. (1997). Markov Chains. Cambridge University Press. (Cambridge series on statistical and probabilistic mathematics; No. 2).
Introducción al
Aprendizaje de Maquina
Introducción a Machine Learning:
- Definición y conceptos básicos
- Aprendizaje supervisado y no supervisado
- Aplicaciones y casos de uso
Algoritmos Clásicos:
- K-Nearest Neighbors (KNN)
- K-means
- Distance-Weighted Nearest Neighbor (DWNN)
- Naive Bayes
- Árboles de decisión
Redes Neuronales y Máquinas de Soporte Vectorial:
- Perceptrón y Perceptrón Multicapa
- Máquinas de Soporte Vectorial (SVM)
- Feedforward, Backpropagation y Función de Pérdida
Planeamiento de Experimentos:
- K-fold Cross Validation
- Learning Curves
- Métricas de Evaluación
- Técnicas de Ensemble
Reducción de Dimensionalidad:
- Análisis de Componentes Principales (PCA)
- T-Distributed Stochastic Neighbor Embedding (TSNE)
- Uniform Manifold Approximation and Projection (UMAP)
- Introducción a Aprendizaje Profundo
- Introducción a Visión por Computador
- Introducción al Procesamiento del Lenguaje Natural
Referencias
- Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. MIT press.
- Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern Recognition and Machine Learning (Vol. 4, No. 4, p. 738). New York: springer.
- MacKay, D. J. (2003). Information Theory, Inference and Learning Algorithms. Cambridge university press.
Aprendizaje
Multimodal
Parte 1 (Visión Computacional):
- Introducción, Álgebra Lineal
- Filtrado y textura
- Detección y descripción de características
- Bordes, líneas, círculos y segmentos
- Introducción al reconocimiento
- Redes neuronales convolucionales (CNN)
Parte 2 (Procesamiento de Lenguaje Natural):
- Procesamiento de texto, extracción de características dispersas para texto, bolsa de palabras (bag-of-words)
- Extracción de características densas para texto (word2vec, glove)
- Aprendizaje profundo para NLP: Redes Neuronales Recurrentes (LSTM, GRU, etc.)
- Transformers (BERT)
- Large Language Models (LLM): GPT, PALE, y otros
Parte 3 (Aprendizaje por Refuerzo):
- Problema del bandido, explotación vs exploración
- Cadenas de Markov, funciones de política y valor. ¿Cómo mejorar una política?
Referencias
- Szeliski, R. (2022). Computer vision: algorithms and applications. Springer Nature.
- Grauman, K., & Leibe, B. (2011). Visual object recognition (No. 11). Morgan & Claypool Publishers.
- Jurafsky, D. (2000). Speech & language processing. Pearson Education India.
Aprendizaje Estadístico
de Máquina Avanzado
Regresión lineal en Baja y Alta Dimensión. Técnicas de clasificación Lineal: LDA, QDA, Regresión Logística con Regularización, SVM. Regresión y Clasificación No paramétrica: Suavización de Kernel, Regresiones polinomiales Locales, Suavización de Alto orden, Regresiones Spline, Regresión Logística No paramétrica. Espacios de Hilbert de Kernel Reproductor (RKHS) y Kernels de Mercel. Estimación de Densidad de Kernel. Clustering: K-meas, Modelos de Mixtura, Clustering basado en Densidad, Clustering Jerárquico, Clustering Espectral. Tests Estadísticos de Alta Dimensión. Concentración de Medidas. Teoría Minimax. Esparsidad y LASSO. Modelos Graficos.
REFERENCIAS
- Chris Bishop (2006). Pattern Recognition and
Machine Learning.
- Luc Devroye, László Györfi, Gábor Lugosi (1996). A
Probabilistic Theory of Pattern Recognition.
- László Györfi, Michael Kolher, Adam Krzyżak, Harro
Walk (2002). A Dsitribution Free Theory of
Nonparametric Regression.
- Trevor Hastie, Robert Tibshirani, Jerome Friedman
(2001). The Elements of Statistical Learning.
- Larry Wasserman (2004). All of Statistics: A Concise
Course in Statistical Inference.
- Larry Wasserman (2005). All of Nonparametric
Statistics.
Calculo Estocástico y sus
Aplicaciones a Finanzas
Procesos Estocásticos y Movimiento Browniano. Integral de Itô: Construcción de integral estocástica, Propiedades y extensiones. Lema de Itô y Teorema de Representación de Martingala. Ecuaciones Diferenciales Estocásticas: Existencia y Unicidad, Soluciones Fuertes y Débiles. Teoría de Difusión: Procesos de Difusión Itô, Generadores infinitesimales, Formula de Dynkin, Operador Caracteristico, Ecuaciones de Backward Kolgomorov, Ecuaciones de Fokker-Planck. Aplicaciones a Matemática Financiera: Mercados, Portafolios y Arbitraje Financiero, Completud de Mercados, Derivativos Financieros, Pricing de Opciones, Modelo de Black&Scholes.
REFERENCIAS
Oksendal, B. (2013). Stochastic Differential Equations:
An Introduction with applications. Springer Science &
Business Media.
Lamberton, D., & Lapeyre, B. (2011). Introduction to
stochastic calculus applied to finance. Chapman and
Hall/CRC.
Klebaner, F. C. (2012). Introduction to stochastic calculus
with applications. World Scientific Publishing Company.
Hsiung Kuo. (2006). Introduction to Stochastic
Integration.
Pavliotis, G. A. (2014). Stochastic processes and
applications. Texts in applied mathematics, 60.
Aprendizaje
por Refuerzo
Procesos de Decisión de Markov. Planificación por Programación Dinámica. Model-free Prediction y Control. Value Function Approximation. Métodos Policy Gradient. Algoritmos Actor-critic. Integración de Learning and Planificación. Trade-offs Exploración vs Explotación.
Referencias
- Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction. MIT press.
- François-Lavet, V., Henderson, P., Islam, R., Bellemare, M. G., & Pineau, J. (2018). An introduction to deep reinforcement learning. Foundations and Trends® in Machine Learning, 11(3-4), 219-354.
Modelos Gráficos
Razonamiento Bayesiano. Redes Bayesianas. Modelos gráficos dirigidos y no dirigidos. Inferencia en modelos gráficos. Modelos ocultos de Markov. Algoritmo Junction Tree. Toma de decisiones bajo incertidumbre. Procesos de Decisión de Markov. Learning con datos faltantes. Inferencia aproximada mediante muestreo.
Referencias
- Murphy, K. P. (2012). Machine learning: a probabilistic perspective- MIT press.
- Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern Recognition and Machine Learning (Vol. 4, No. 4, p. 738). New York: springer.
- MacKay, D. J. (2003). Information Theory, Inference and Learning Algorithms. Cambridge university press.
PLANA DOCENTE
- Helder Rojas
PhD. en Matemáticas por el departamento de Matemáticas Fundamentales de la UNED, España. MSc. en Estadística por el Instituto de Matemáticas y Estadística de la Universidad de Sao Paulo (IME-USP), Brasil. Actualmente es investigador postdoctoral en el Departamento de Matemáticas del Imperial College London, UK. Además, es Docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) y Coordinador del programa MCIES de la FIEECS-UNI.
Líneas de Investigación:
- Análisis Estocástico
- Física Matemática
- Estadística
- Aprendizaje de Máquina
- Finanzas
- Nils
- Murrugarra Llerena
PhD. en Ciencias de la Computación por la Universidad Pittsburgh, USA. MSc. en Ciencias de la Computación por el Instituto de Ciencias Matemáticas y de Computación de la Universidad de Sao Paulo (ICMC-USP), Brasil. Actualmente es profesor asistente en el Departamento de Ciencias de la Computación en Weber State University, USA.
Líneas de Investigación:
- Visión Computacional
- Multi-model Learning
- Transfer Learning
- Aprendizaje por
Refuerzo
Jorge Luis
- Guevara Diaz
Jorge Guevara obtuvo su Ph.D. en Ciencias de la Computación por el Instituto de Matemática y Estadística de la Universidad de São Paulo, Brasil. Fue investigador visitante en el laboratorio LITIS del INSA Rouen, Francia. Actualmente, se desempeña como investigador científico en el laboratorio de investigación de IBM Brasil.
Líneas de Investigación:
- Inteligencia Artificial
- Machine Learning
- Teoría Fuzzy
- Métodos de Kernel
Erick
- Chacon Montalvan
PhD. y MSc. en Estadística por la Universidad de Lancaster, UK. Actualmente es investigador postdoctoral en el Grupo de Investigación de Estadística Geoespacial (GeoHealth) de la Universidad de Ciencia y Tecnología del Rey Abdullah (KAUST), Arabia Saudita. Además, es docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) de la FIEECS-UNI.
Líneas de Investigación:
- Estadística Bayesiana
- Modelado Causal.
- Modelado Espacio-
temporal - Métodos
Computacionales
Intensivos
PhD. en Matemática Aplicada por el Instituto de Matemática y Estadística de la Universidad de Sao Paulo (IME-USP), Brasil. MSc. en Matemática Aplicada por la Universidad Federal ABC, Brasil. Fue Investigador postdoctoral en el Departamento de Matemáticas de la Universidad Católica del Norte (UCN), Chile. Actualmente es profesor investigador en el Departamento de Ciencias Básicas de la UNAM, Perú.
Rusbert
- Calderon Beltran
Artem
- Logachov
Líneas de Investigación:
- Teoría Ergódica
- Sistemas Dinamicos Simbolicos
- Formalismo Termodinámico.
PhD. en Matemáticas por la Universidad Estatal de Novosibirsk, Rusia. Profesor Investigador en el departamento de Matemáticas Avanzadas de la Universidad Estatal de Geosistemas y Tecnologías de Siberia, Rusia. Además, también es profesor en el Laboratorio de Probabilidad y Estadística Matemática del Instituto Sobolev de Matemáticas, Rama Siberiana de la Academia Rusa de Ciencias.
Líneas de Investigación:
- Probabilidad
- Mecánica Estadística
- Ecuaciones Diferenciales
Estocásticas - Grandes Desviaciones
Luis
- Huamanchumo
PhD. en Ciencias de la Educación por la UNE, Perú. MSc en Ingeniería de Sistemas por la UNI, Perú. Además, es Licenciado en Estadística por la UNI y Economista por la Universidad del Pacifico. Actualmente es el Coordinador y Docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) de la FIEECS-UNI.
Líneas de Investigación:
- Análisis Estadístico Multivariado
- Modelos Lineales
- Diseño de Metodologías de Investigación
- Educación Estadística
- Jaime Lincovil
PhD. y MSc. en Estadística por el Instituto de Matemática y Estadística de la Universidad de Sao Paulo (IME-USP), Brasil. Fue investigador postdoctoral en el Departamento de Estadística de la Universidad Estatal de Campinas (UNICAMP). Actualmente es profesor adjunto del Departamento de Estadística de la Universidad de las Américas (UDLA), Bio-Bio, Chile. Además, es docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) de la FIEECS-UNI.
Líneas de Investigación:
- Econometría y Biométrica
- Datos Funcionales y Datos de Alta
Dimensionalidad - Análisis de bases de datos escalables en R y
Python
INGRESO POR PRE-MAESTRIA
INVERSIÓN
PREMAESTRÍA 2025-I
Es una de las modalidades de ingreso directo a la maestría, y a la vez, prepara al postulante para iniciar con éxito el programa MCIES. Al alcanzar una vacante, ya no tiene que pagar ni rendir el examen de admisión. Los cursos que se impartirán en la Pre-Maestría son:
- Cálculo Vectorial para Machine Learning.
- Introducción a Probabilidad y Distribuciones
- Fundamentos de Algoritmos y Aprendizaje Automático
Para más detalles, consultar por el brochure de la Pre-Maestría 2025-I.
Pago al contado:
Dos cuotas:
hasta una semana antes de iniciar la PRE-MAESTRIA
después de un mes de iniciar la PRE-MAESTRIA
Duración: 7 semanas
S/ 1 600.00
S/ 1 700.00
S/ 850.00
S/ 850.00
- El postulante que APRUEBE todas las asignaturas con una nota igual o mayor 10 pts., obtenga un promedio ponderado igual o mayor 12 pts. y alcance vacante en estricto orden de mérito, será ADMITIDO a la maestría.
N° | ACTIVIDAD | FECHA |
1 | Publicación de Lista de Ingresantes | 21 de Marzo |
2 | Inicio de Clases Maestria | 24 de Marzo |
Nota: Actualmente la PREMAESTRÍA 2025-I se encuentra en curso, por lo que
tendrá que esperar a la apertura de inscripciones para la PREMAESTRÍA 2025-
II, que se realiza a mitad de año o elegir la Modalidad de Ingreso Ordinario.
- La evaluación esta comprendida por 3 fases y se calificara sobre 20 pts.
- Evaluación de CV. (4pts)
- Evaluación de conocimientos mediante examen. (6pts)
- Entrevista y presentación de soluciones del Examen. (10pts)
- El examen constará de seis preguntas, distribuidas en los siguientes temas de la Pre-Maestría:
- Introducción a la Probabilidad y Distribuciones (2 preguntas)
- Cálculo Vectorial para Machine Learning(2 preguntas)
- Fundamentos de Algoritmos y Aprendizaje Automatico(2 preguntas)
- El examen será entregado a los postulantes el sábado 8 de marzo a las 9:00 a. m. en una reunión virtual por Google Meet.
- Los postulantes tendrán una semana para resolverlo y enviar la solución al correo premaestria.mies@gmail.com.(Asunto:”Examen_de_admision_mcies_Apellido_Nombre”)
- Durante la entrevista personal, deberán exponer sus soluciones, explicando la metodología utilizada.
- El jurado evaluará y calificará las respuestas conforme a los criterios establecidos.
- La nota mínima para ser admitido en la Maestría MCIES es de 12pts.
- Se aceptaran postulantes hasta el 7 de Marzo de 2025.
- Para más información de los temas del examen, revisar el Brochure de la Pre-Maestría. (link)
INGRESO ORDINARIo
S/ 250.00
S/ 875.00
PROSPECTO
DERECHO DE ADMISIÓN
S/ 656.00
8%
16%
Son cuatro matrículas que se abonan al inicio de cada ciclo.
48 CRÉDITOS DE ENSEÑANZA (4 CICLOS)
Si paga adelantado toda la maestría
descuentos sobre el monto de créditos
Si paga adelantado todo el ciclo
En total son veinticuatro mensualidades.
S/ 20,352.00
S/ 424.00
Costo por cada crédito
MATRICULA AL CICLO REGULAR
REQUISITOS DE MATRÍCULA
Una vez admitido, para formalizar su matrícula, el estudiante tiene que enviar la siguiente documentación:
- Grado de bachiller o título (en copia y puede ser presentado hasta dentro de 6 meses de haber comenzado la maestría).
- Certificado de estudios universitarios de pregrado (en copia y puede ser presentado hasta dentro de 6 meses de haber comenzado la maestría).
- DNI (copia simple de ambos lados).
- Una foto reciente a color, tamaño carnet, fondo blanco y sin lentes.
Para realizar el pago, deberá de solicitar una orden de pago al correo kiharahernandezposgradouni@gmail.com, info.posgrado.fieecs@uni.edu.pe o al número +51 989 047 454 indicando su nombre completo, DNI y monto a pagar. En caso desea factura deberá indicar el RUC y los datos de la persona o empresa. Enviar su transferencia o comprobante de pago para considerarlo en la lista de participantes.
Una vez cancelada la orden de pago se le enviará la carpeta, la cual deberá ser llenada y remitida de manera virtual a kiharahernandezposgradouni@gmail.com o info.posgrado.fieecs@uni.edu.pe
N° | ACTIVIDAD | FECHA |
1 | Inicio de Inscripciones al Ingreso Modalidad Ordinario | 6 de Febrero |
2 | Entrega del Examen a los postulantes | 8 de Marzo (9am via Meet) |
3 | Entrega de Solucionarios | Hasta el 15 de Marzo |
4 | Entrevista a los Postulantes | 17-20 de Marzo |
5 | Publicación de Resultados | 21 de Marzo |
5 | Inicio de Clases Maestria | 24 de Marzo |
- Preguntas
Frecuentes
La fecha de inicio de la maestría es en Agosto. El horario es entre semana y algunos fines de semana.
¿Cuál es el inicio y el horario de la maestría?
En la maestría llevarán un curso de teoría y estructura de algoritmos, con lo cual estarán en facultad de programar en cualquier lenguaje.
¿Cuál es el software que se utilizará?
La plana docente está conformada por científicos en producción y crecimiento por lo general trabajan en el exterior. Respecto a las líneas de investigación, cuando el alumno complete el segundo ciclo podrá elegir un Advisor y trabajar en el proyecto.
¿Cómo está conformada la Plana Docente?
La modalidad de la maestría es online el cual permite ofrecer un nivel de enseñanza altamente calificado. Algunas sesiones, bajo previa coordinación serán presenciales. Como por ejemplo, evaluaciones de seminarios de tesis, presentación de trabajos científicos, participación de jornadas científicas y más.
¿Cuál es la modalidad de la maestría en Ingeniería Estadística?
¿Cuales son los temas que
se evaluaran en el examen
de admisión?
Los temas que se evaluarán en el examen de admisión están detallados en el brochure informativo del programa Pre-Maestría (disponible en el siguiente link). Se recomienda a los postulantes revisarlo para conocer a profundidad los temas, fortalecer sus conocimientos, desarrollar su razonamiento lógico y preparar adecuadamente sus respuestas.
La maestría en ingeniería estadística tiene un enfoque científico, también habrá proyectos orientados a soluciones industriales, pero siempre guiado por el enfoque científico. Las maestrías en estadística y ciencias datos en el ámbito peruano generalmente están enfocados en temas prácticos y de gestión analítica. En contraste, nuestro programa busca formar una nueva generacion de expertos e investigadores aplicados en áreas de interface entre estadística, matemática aplicada y ciencia de datos.
¿Cuál es la diferencia entre la maestría en Ciencia de Datos e Ingeniería Estadística?
Llevar la maestría te forma para cursar un doctorado, ya sea aquí o en el extranjero. Teniendo el doctorado ya puedes optar por una vida académica. Además Sunedu avala nuestro programa de maestría. Aún estamos en nuestra primera versión, en lo sucesivo haremos proyectos de investigación con nuestros equipos, con eso buscaremos el apoyo de CONCYTEC.
Proceso de admisión
Proceso de ingreso
- Prospecto 250.00
- Derecho de admisión 875.00
- Matrícula S/.656.00
- 48 Créditos S/.20,352.00 (también hay planes de 4,6 y 24 cuotas, descuentos del 8% y 16%)
Es la segunda modalidad de ingreso, la primera es la Pre-Maestría. El examen se divide en Evaluación del CV (20%), que considera antecedentes y experiencia; Examen escrito (30%), sobre temas clave; y Entrevista personal (50%), donde se expondrán las soluciones ante un jurado calificado. El programa tiene un enfoque científico, promoviendo el pensamiento crítico, el análisis riguroso y la aplicación de conocimientos en la resolución de problemas complejos.
¿En qué se basa el examen de admisión?
¿Cuánto es la inversión en la Maestría en Ingeniería Estadística?
¿Cuál es el beneficio de llevar la Maestría en Ingeniería Estadística?
- El reembolso procede con la retención del 15% por gastos administrativos y debe ser justificado. El reembolso o la reserva procede siempre y cuando se solicite antes que inicien las clases.
- La Unidad de Posgrado se reserva el derecho de modificar el docente por motivos de fuerza mayor o por disponibilidad del profesor, garantizando que la calidad de la Maestría no se vea afectado. Toda modificación será comunicada anticipadamente a los participantes.
- La Unidad de Posgrado podrá efectuar cambios en la secuencia de los temas de acuerdo a su política de mejora continua.
- Los cursos son elegidos por el director y el coordinador académico en función a mantener la calidad del programa y la adaptación al mercado laboral y al proceso de investigación.
- De no cumplir con el quorum requerido, la Unidad de Posgrado se reserva el derecho de postergar el inicio de clases de la maestría.
IMPORTANTE
info.posgrado.fieecs@uni.edu.pe
+51 989 047 454 - Kihara Hernandez
Grupo de Informes MCIES - Link