MSc en

Ingeniería
Estadística

Examen de Admisión

8 al 15 de Marzo

20

25

Programa MCIES

UNIDAD DE POSGRADO

Facultad de Ingeniería Económica, Estadística y Ciencias Sociales

Presentación

La Maestría en Ciencias e Ingeniería Estadística (MCIES) es un programa mixto de alta calidad que combina conocimientos de Matemáticas Aplicadas y Ciencias de la Computación en el campo de la Estadística. Su objetivo es preparar líderes capaces de innovar en el área de Estadística, Aprendizaje Automático y Modelado Estocástico, así como también en áreas de interfaz entre ellas, contribuyendo significativamente a estos campos y respondiendo a las necesidades científicas, tecnológicas e industriales del país.


El programa busca formar la próxima generación de investigadores, profesores universitarios y expertos, capaces de marcar una diferencia tangible en el desarrollo e implementación de nuevas herramientas de análisis cuantitativo. Además, pretende incentivar un cambio de paradigma en el área de Ciencia de Datos, satisfaciendo la demanda de desarrollo científico y tecnológico en constante evolución.


Nuestro programa está diseñado para investigadores en ciencia y tecnología, profesores universitarios y profesionales en ciencia de datos. El MCIES ofrece una sólida formación en Estadística, Probabilidad y Machine Learning, preparando a los estudiantes para carreras exitosas en diversas industrias y además equipándolos para continuar estudios de doctorado.


Nuestro equipo de profesores, compuesto por científicos de universidades prestigiosas con experiencia académica e industrial, brinda una orientación personalizada y de colaboración estrecha con los estudiantes en el desarrollo de habilidades y la investigación de temas de interés.


Además, con nuestro programa de maestría pretendemos impulsar y proporcionar una estructura académica adecuada y eficiente para desarrollar investigaciones de vanguardia transferibles a empresas de diferentes sectores, resolviendo problemas reales. Promovemos la interacción y el uso de la Estadística, Ciencias de la Computación y Matemáticas Aplicadas en problemas de diversas áreas, tales como la industria médica, agrícola, financiera e ingeniería, entre otros.

Perfil del Graduado

Al finalizar el programa MCIES, los graduados estarán preparados para continuar estudios de doctorado en universidades peruanas o extranjeras; participar en proyectos de investigación interdisciplinarios; y para ejercer la docencia universitaria.

Dirigida a:


  • Profesionales Analíticos: Aquellos que buscan perfeccionar sus habilidades analíticas y destacarse en la interpretación avanzada de datos.


  • Expertos en Datos: Profesionales que desean elevar su perfil en el mercado laboral al especializarse en Análisis de Datos y Estadísticas Avanzadas.


  • Directores de Estrategia: Líderes empresariales que buscan optimizar la toma de decisiones estratégicas basadas en evidencia cuantitativa.


  • Profesionales de Finanzas y Marketing: Especialmente aquellos interesados en el análisis de datos para la formulación de estrategias de finanzas y marketing efectivas.


  • Investigadores Innovadores: Aquellos con un interés en la investigación avanzada en estadística e ingeniería estadística, con aplicaciones prácticas en diversos campos.


  • Programadores y Desarrolladores: Profesionales con una base en programación que desean aplicar sus habilidades en el análisis de datos a gran escala, especialmente en contextos de Big Data.


Líneas de Investigación

  • Aprendizaje Estadístico: Se enfoca en aspectos teóricos,
    metodológicos y aplicados del análisis de datos. Los investigadores
    del MCIES se interesan en áreas como:
    • Estimación de Series Temporales de Alta Dimensión
    • Modelado de Series Temporales No Lineales
    • Pruebas No Paramétricas
    • Simulación Monte Carlo para inferencia bayesiana
    • Inferencia estadística para problemas de Optimización
      Estocástica con aversión al riesgo o neutralidad al riesgo
      (Teoremas del Límite Central, Pruebas de Hipótesis, Intervalos de
      Confianza No Asintóticos)
    • Pruebas de hipótesis no paramétricas mediante técnicas de
      Optimización Convexa


  • Modelado Estocástico: Esta área de Teoría de Probabilidad, con
    amplias aplicaciones prácticas, se centra en el estudio de
    Ecuaciones Diferenciales Estocásticas y Procesos de Difusión de Itô.
    Incluye la resolución numérica de estas ecuaciones y la estimación
    estadística de sus parámetros. Además, ecuaciones para modelar
    fenómenos biológicos, físicos y financieros, donde las cantidades de
    interés están sujetas a perturbaciones aleatorias.


  • Aprendizaje Automático e Inteligencia Artificial: Esta línea de
    investigación busca desarrollar y aplicar métodos de aprendizaje
    automático en el análisis de datos estructurados y no estructurados,
    incluyendo datos numéricos, categóricos, textuales, imágenes,
    gráficos y series de tiempo. Los objetivos incluyen:
    • Desarrollo de algoritmos, lenguajes y metodologías para la
      manipulación de bases de datos complejas
    • Tareas como clasificación, Regresión, Identificación de Clusters,
      Sistemas de Recomendación, Optimización, Extracción y
      Representación del Conocimiento
    • Modelado de dominios de conocimiento, Minería de Datos, Minería
      Textual, Visualización, Análisis de Sentimientos, Análisis de Datos de Alta
      Dimensión y Criptografía

Ventajas

  • Profesores Científicos que realizan día a día en sus centros laborales diferentes aplicaciones de acuerdo a la maestría.
  • Posibilidad de integrar las líneas de carreras dentro de instituciones públicas y privadas.
  • Los cursos propuestos hacen de la maestría la mejor opción para aquellos que quieran destacar en diversas industrias.
  • La maestría considera conceptos modernos complementados con una orientación a formar científicos, académicos y profesionales de la industria.
  • Prestigio de una universidad de más de 143 años con ventajas comparativas a nivel cuantitativo aplicado.
  • Las aplicaciones van de la mano del entendimiento profundo de los fundamentos garantizando la calidad de sus resultados.

Beneficios

  • Diploma en Ingeniería Estadística a nombre de la Universidad Nacional de Ingeniería a los alumnos que aprueben los ciclos I y II (28 créditos académicos).
  • Malla curricular acorde a las necesidades y tendencias actuales en el área de Ciencias de Datos y Estadística.
  • Desarrollo de habilidades académicas y científicas para el área de Ingeniería Estadística.

CICLO I

Código

Curso

Créditos

Requisito

MES101

Probabilidad e Inferencia

Estadística

4

Ninguno

MES111

Álgebra Lineal y Optimización

Computacional

4

Ninguno

MES112

Elementos de Análisis Real

4

Ninguno

MES120

Estructuras de Datos y Algoritmos

3

Ninguno

Total de Créditos

15

PLAN CURRICULAR

El programa MCIES está diseñado de tal forma que en el primer ciclo los estudiantes puedan obtener bases teóricas sólidas, esto a través de cursos formativos en programación, probabilidad y matemática computacional. En ciclos sucesivos, se introducen cursos relacionados a cada área de concentración, los cuales serán reforzados con los cursos electivos.

CICLO II

Código

Curso

Créditos

Requisito

MES201

Modelos Estadísticos para el
Análisis de Datos

4

MES101

MES111

MES202

Métodos Computacionales en
Probabilidad y Estadística

3

MES120

MES211

Procesos Estocásticos

3

MES112

MES221

Introducción al

Aprendizaje de Máquina

3

MES111


MES120

Total de Créditos

13

CICLO III

Código

Curso

Créditos

Requisito

MES301

Aprendizaje Multimodal

4

MES221

MES302

Seminarios de Investigación I

4

MES221

MES201

MES331

Electivo 1: Aprendizaje

Estadístico de Maquina Avanzado

4

MES221

MES332

Electivo 2: Cálculo Estocástico

y sus Aplicaciones a Finanzas

4


MES211

Total de Créditos

16

CICLO IV

Código

Curso

Créditos

Requisito

MES401

Seminario de Investigación II

4

MES301

MES302

Total de Créditos

4

Cursos Electivos

El candidato a Master debe completar 48 créditos entre cursos obligatorios y electivos. Se puede optar por llevar diferentes electivos después de completar los 28 créditos. El candidato a máster realizará como mínimo tres de los siguientes cursos electivos:

Código

Curso

Requisito

ÁREAS DE

INVESTIGACIÓN

DES501

Estadística para Datos de

Alta Dimensión

MES201

MES202

Estadística

DES502

Análisis de Datos

Funcionales

DES503

Series de Tiempo y Análisis de
Ondaletas

DES504

Inferencia Causal

DES511

Cálculo Estocástico

y sus Aplicaciones a Finanzas

MES211

Modelado

Estocástico

DES512

Ecuaciones

Diferenciales Estocásticas

y Teoría de Difusión

DES521

Aprendizaje por Refuerzo

MES221

Aprendizaje e

Inteligencia

Artificial

DES522

Aprendizaje Estadístico de

Máquina Avanzado

DES523

Tópicos en

Inteligencia Artificial

DES524

Aprendizaje Profundo

DES525

Modelos Gráficos

Prof. Helder Rojas

Prof. Jorge Guevara

Prof. Rusbert Calderon

Prof. Erick Chacon

Horarios

Ciclo I

¡El programa comprende un total de 16
semanas de clases!

Prof. Jorge Guevara

Prof. Erick Chacon

Prof. Helder Rojas

Prof. Rusbert Calderon

Ciclo II

¡El programa comprende un total de 16
semanas de clases!

Prof. Nils Murrugarra

Prof. Helder Rojas

Prof. Helder Rojas

Prof. Rusbert Calderon

Ciclo III

¡El programa comprende un total de 16
semanas de clases!

Algebra Lineal y Optimización Computacional

Parte 1 (Álgebra Lineal):

  • Matrices y Vectores
  • Sistemas Lineales:
    • Eliminación Gaussiana, Factorización LU
  • Espacios y Subespacios Vectoriales:
    • Bases y Dimensión, Rango de una Matriz
  • Ortogonalidad:
    • Proyecciones, Ortogonalización de Bases, Mínimos Cuadrados
  • Valores Propios y Vectores Propios:
    • Diagonalización
  • Transformaciones Lineales
  • Descomposición en Valores Singulares

Parte 2: Optimización

  • Funciones de Varias Variables:
    • Motivación y Ejemplos, Normas y Distancias en Rn, Puntos de Acumulación.
  • Aplicaciones Continuas:
    • Conjuntos Abiertos y Cerrados, Conjuntos Compactos, Conjuntos Convexos, Funciones Convexas y Estrictamente Convexas.
  • Cálculo Diferencial
    • Derivadas Parciales y Direccionales, Diferenciabilidad, Regla de la Cadena, Fórmula de Taylor.
  • Funciones de Rn a R
    • Gradientes, Teorema de Schwarz, Máximos y Mínimos Locales, Condiciones Necesarias y Suficientes, Condiciones de Máximo y Mínimo con Restricciones, Multiplicadores de Lagrange y Karush-Kuhn-Tucker (KKT)


Referencias

  • STRANG, G. Introduction to Linear Algebra. Wellesley-Cambridge Press, 1993.
  • LUENBERGER, D. Linear and Non-Linear Programming. Addison- Wesley Reading, 1984.
  • APOSTOL, T. Calculus. Second edition, John Wiley, 1969.
  • BERTSEKAS, D. Nonlinear Programming. Athena Publishing, 1999.


Elementos de Análisis Real

Números Reales: Axiomatización y intervalos encajantes.

Conceptos Topológicos en Rn:

  • Normas
  • Producto interno
  • Conjuntos abiertos
  • Conjuntos cerrados
  • Conjuntos compactos

Secuencias Numéricas: Límite superior e inferior.

Continuidad de Funciones:

  • Puntual
  • Uniforme

Diferenciabilidad:

  • Derivadas direccionales
  • Derivada como aplicación lineal
  • Fórmula de Taylor
  • Extremos de una función real

Integral de Riemann: Criterios de integrabilidad y teorema fundamental del cálculo.

Series Numéricas: Criterios de convergencia.

Series de Funciones: Integral.

Introducción a la Teoría de Integración de Lebesgue.

Referencias

  • RUDIN. W. Principles of Mathematical Analysis, 1953.
  • SPIVAK, M. Calculus. Berkeley, CA: Publish or Perish, 1980.
  • BUCK, R. Advanced Calculus. 2d ed. New York: McGraw-Hill, 1965.
  • APOSTOL, T. Calculus. Second edition, John Wiley, 1969.


Parte 1 (Probabilidad):

Espacios de Probabilidad y Cálculo de Probabilidades:

  • Reglas Fundamentales y Regla de Bayes, Probabilidad Condicional e Independencia.

Variables Aleatorias:

  • Funciones de Distribución, Función de Densidad y Masa, Distribuciones Comunes, Discretas y Continuas, Transformaciones de Variables Aleatorias y sus Distribuciones.

Valor Esperado de una Variable Aleatoria:

  • Momentos y Función Generatriz de Momentos
  • Variables Aleatorias Múltiples: Distribución Marginal y Conjunta, Covarianza y Correlación

Convergencia de Variables Aleatorias:

  • Ley de los Grandes Números (LGN), Teorema Central del Límite (TCL).

Probabilidad e

Inferencia Estadística

Parte 2 (Inferencia Estadística):

Introducción a la Estadística Frecuentista:

  • Distribución Muestral de un Estimador, Teoría de Decisión Frecuentista, Propiedades Deseables de un Estimador, Minimización de Riesgo Empírico, Patologías de la Estadística Frecuentista.

Introducción a la Estadística Bayesiana:

  • Prioris No-Informativas, Prioris de Jeffreys, Prioris Robustas y Mixtura de Prioris Conjugadas, Resúmenes de Distribuciones Posteriori, Estimación MAP e Intervalos de Credibilidad, Selección de Modelo Bayesiano, Occam’s Razor Bayesiano, Verosimilitud Marginal (Evidencia), Factores de Bayes, Paradoja de Jeffreys-Lindley, Bayes Jerárquico y Bayes Empírico, Teoría de Decisión Bayesiana



Referencias

  • Casella, G. & Berger, R. L. (2021). Statistical Inference. Cengage Learning.
  • Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. MIT press.
  • Ross, S. M. (2014). Introduction to Probability Models. Academic press.

Estructuras de Datos y Algoritmos


Referencias

  • Thomas H Cormen (Author), Charles E Leiserson (Author), Ronald L Rivest (Author), Clifford Stein (Author) Introduction to Algorithms. MIT-Press, (2008).
  • Dasgupta, S., Papadimitriou, C. H. & Vazirani, U. V. Algorithms. McGraw-Hill, (2008).
  • Kleinberg, J., & Éva Tardos. Algorithm Design. Addison Wesley, (2005).
  • Hetland, M. L., (2010). Python Algorithms: Mastering Basic Algorithms in the Python Language. Apress.

Introducción: Big O

Estructuras de Datos Comunes:

  • Grafos
  • Strings
  • Filas
  • Listas
  • Arrays

Complejidad de Algoritmos:

Medidas de complejidad

Tipos de Algoritmos:

  • Algoritmos codiciosos
  • Programación dinámica
  • Programación lineal
  • Algoritmos de divide y conquista
  • Algoritmos sobre strings

Problemas NP-Completos:

Reducciones NP

Presentación de Proyectos

Modelos Estadísticos

para el

Análisis de Datos

Modelo Lineal General:

  • Inferencia: Intervalos de confianza y pruebas de hipótesis
  • Geometría del modelo lineal
  • Experimentos controlados y aleatorizados
  • ANOVA: Factores e interacciones

Modelos Lineales Generalizados:

  • Familia de distribución exponencial
  • Ajustes, inferencia y diagnóstico

Modelos Mixtos:

  • Ejemplos simples y teoría general
  • Inferencia Intensiva por Computadora a través de remuestreo

Modelos Aditivos Generalizados

  • Ejemplos simples de suavización
  • Interacciones suavizadas y descomposición ANOVA suavizada

Regresión Sparse:

  • Modelo lineal, Lasso, Elastic Net, Lasso Group

Modelos Sparse y Denoising

  • Representación de Frecuencia, Wavelets, Métodos Pursuit,
    Umbralización, Variación Total.



Referencias

  • Wood, S. N. (2017). Generalized additive models: an introduction with R. CRC press.
  • Congdon, P. (2014). Applied bayesian modelling. John Wiley & Sons.
  • Verbeke, G., Molenberghs, G., & Verbeke, G. (1997). Linear mixed models for longitudinal data (pp. 63-153). Springer New York.
  • Dobson, A. J., & Barnett, A. G. (2018). An introduction to Generalized linear models. CRC press.

Métodos Computacionales
en Probabilidad e
Inferencia

Simulación de Variables Aleatorias:

  • Método de Transformación Inversa
  • Método de Aceptación-Rechazo

Simulación de Variables Aleatorias Multidimensionales:

  • Método de Cambio de Variable
  • Método de Superposición

Métodos Monte-Carlo (MC):

  • Integración vía MC
  • Muestreo por Importancia
  • Métodos de Re-muestreo
  • Control y Aceleración de Convergencia

Métodos de Optimización vía MC:

  • Optimización Numérica
  • Gradiente Estocástico
  • Simulated Annealing
  • Algoritmo EM

Métodos de Monte-Carlo vía Cadenas de Markov (MCMC):

  • Muestreador de Gibbs
  • Metropolis-Hastings
  • Monte-Carlo Hamiltoniano
  • Monte-Carlo Secuencial (Filtrado de Partículas)


Referencias

  • Robert, C. P., Casella, G., & Casella, G. (2010). Introducing Monte Carlo Methods with R (Vol. 18). New York: Springer.
  • Asmussen, S., & Glynn, P. W. (2007). Stochastic Simulation: Algorithms and Analysis (Vol. 57, pp. 487-488). New York: Springer.
  • Kroese, D. P., Taimre, T., & Botev, Z. I. (2011). Handbook of Monte Carlo Methods. John Wiley & Sons.

Cadenas de Markov

  • Definiciones y propiedades elementales
  • Propiedad fuerte de Markov
  • Estados recurrentes y transitorios
  • Cadena de Markov reversible
  • Tasa de convergencia al equilibrio
  • Estadísticas de las cadenas de Markov

Proceso de Poisson

  • Procesos puntuales y procesos de conteo
  • Propiedades Markovianas del proceso de Poisson
  • Comportamiento a largo plazo

Procesos de Markov con Saltos

  • Generador infinitesimal
  • Cadena de Markov asociada
  • Reversibilidad
  • Métodos de verosimilitud y enfoque bayesiano en filogenia
  • Modelos de evolución
  • Aplicación a ecuaciones diferenciales parciales
    discretizadas
  • Simulated annealing (Recocido simulado)


Procesos
Estocásticos

Cadenas de Markov

  • Definiciones y propiedades elementales
  • Propiedad fuerte de Markov
  • Estados recurrentes y transitorios
  • Cadena de Markov reversible
  • Tasa de convergencia al equilibrio
  • Estadísticas de las cadenas de Markov

Proceso de Poisson

  • Procesos puntuales y procesos de conteo
  • Propiedades Markovianas del proceso de Poisson
  • Comportamiento a largo plazo

Procesos de Markov con Saltos

  • Generador infinitesimal
  • Cadena de Markov asociada
  • Reversibilidad
  • Métodos de verosimilitud y enfoque bayesiano en filogenia
  • Modelos de evolución
  • Aplicación a ecuaciones diferenciales parciales
    discretizadas
  • Simulated annealing (Recocido simulado)


Referencias

  • Markov Processes and Applications Algorithms, Networks, Genome and Finance.
  • Karlin, S., & Taylor, H. M. (1975). A first course in stochastic processes (2nd ed.). Academic Press.
  • Norris, J. R. (1997). Markov Chains. Cambridge University Press. (Cambridge series on statistical and probabilistic mathematics; No. 2).

Introducción al

Aprendizaje de Maquina

Introducción a Machine Learning:

  • Definición y conceptos básicos
  • Aprendizaje supervisado y no supervisado
  • Aplicaciones y casos de uso

Algoritmos Clásicos:

  • K-Nearest Neighbors (KNN)
  • K-means
  • Distance-Weighted Nearest Neighbor (DWNN)
  • Naive Bayes
  • Árboles de decisión

Redes Neuronales y Máquinas de Soporte Vectorial:

  • Perceptrón y Perceptrón Multicapa
  • Máquinas de Soporte Vectorial (SVM)
  • Feedforward, Backpropagation y Función de Pérdida

Planeamiento de Experimentos:

  • K-fold Cross Validation
  • Learning Curves
  • Métricas de Evaluación
  • Técnicas de Ensemble

Reducción de Dimensionalidad:

  • Análisis de Componentes Principales (PCA)
  • T-Distributed Stochastic Neighbor Embedding (TSNE)
  • Uniform Manifold Approximation and Projection (UMAP)
  • Introducción a Aprendizaje Profundo
  • Introducción a Visión por Computador
  • Introducción al Procesamiento del Lenguaje Natural

Referencias

  • Murphy, K. P. (2012). Machine Learning: A Probabilistic Perspective. MIT press.
  • Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern Recognition and Machine Learning (Vol. 4, No. 4, p. 738). New York: springer.
  • MacKay, D. J. (2003). Information Theory, Inference and Learning Algorithms. Cambridge university press.

Aprendizaje
Multimodal

Parte 1 (Visión Computacional):

  • Introducción, Álgebra Lineal
  • Filtrado y textura
  • Detección y descripción de características
  • Bordes, líneas, círculos y segmentos
  • Introducción al reconocimiento
  • Redes neuronales convolucionales (CNN)


Parte 2 (Procesamiento de Lenguaje Natural):

  • Procesamiento de texto, extracción de características dispersas para texto, bolsa de palabras (bag-of-words)
  • Extracción de características densas para texto (word2vec, glove)
  • Aprendizaje profundo para NLP: Redes Neuronales Recurrentes (LSTM, GRU, etc.)
  • Transformers (BERT)
  • Large Language Models (LLM): GPT, PALE, y otros


Parte 3 (Aprendizaje por Refuerzo):

  • Problema del bandido, explotación vs exploración
  • Cadenas de Markov, funciones de política y valor. ¿Cómo mejorar una política?



Referencias

  • Szeliski, R. (2022). Computer vision: algorithms and applications. Springer Nature.
  • Grauman, K., & Leibe, B. (2011). Visual object recognition (No. 11). Morgan & Claypool Publishers.
  • Jurafsky, D. (2000). Speech & language processing. Pearson Education India.

Aprendizaje Estadístico
de Máquina Avanzado

Regresión lineal en Baja y Alta Dimensión. Técnicas de clasificación Lineal: LDA, QDA, Regresión Logística con Regularización, SVM. Regresión y Clasificación No paramétrica: Suavización de Kernel, Regresiones polinomiales Locales, Suavización de Alto orden, Regresiones Spline, Regresión Logística No paramétrica. Espacios de Hilbert de Kernel Reproductor (RKHS) y Kernels de Mercel. Estimación de Densidad de Kernel. Clustering: K-meas, Modelos de Mixtura, Clustering basado en Densidad, Clustering Jerárquico, Clustering Espectral. Tests Estadísticos de Alta Dimensión. Concentración de Medidas. Teoría Minimax. Esparsidad y LASSO. Modelos Graficos.


REFERENCIAS

  • Chris Bishop (2006). Pattern Recognition and
    Machine Learning.
  • Luc Devroye, László Györfi, Gábor Lugosi (1996). A
    Probabilistic Theory of Pattern Recognition.
  • László Györfi, Michael Kolher, Adam Krzyżak, Harro
    Walk (2002).
    A Dsitribution Free Theory of
    Nonparametric Regression.
  • Trevor Hastie, Robert Tibshirani, Jerome Friedman
    (2001).
    The Elements of Statistical Learning.
  • Larry Wasserman (2004). All of Statistics: A Concise
    Course in Statistical Inference.
  • Larry Wasserman (2005). All of Nonparametric
    Statistics.

Calculo Estocástico y sus
Aplicaciones a Finanzas

Procesos Estocásticos y Movimiento Browniano. Integral de Itô: Construcción de integral estocástica, Propiedades y extensiones. Lema de Itô y Teorema de Representación de Martingala. Ecuaciones Diferenciales Estocásticas: Existencia y Unicidad, Soluciones Fuertes y Débiles. Teoría de Difusión: Procesos de Difusión Itô, Generadores infinitesimales, Formula de Dynkin, Operador Caracteristico, Ecuaciones de Backward Kolgomorov, Ecuaciones de Fokker-Planck. Aplicaciones a Matemática Financiera: Mercados, Portafolios y Arbitraje Financiero, Completud de Mercados, Derivativos Financieros, Pricing de Opciones, Modelo de Black&Scholes.

REFERENCIAS

Oksendal, B. (2013). Stochastic Differential Equations:
An Introduction with applications. Springer Science &
Business Media.

Lamberton, D., & Lapeyre, B. (2011). Introduction to
stochastic calculus applied to finance. Chapman and
Hall/CRC.

Klebaner, F. C. (2012). Introduction to stochastic calculus
with applications. World Scientific Publishing Company.

Hsiung Kuo. (2006). Introduction to Stochastic
Integration.

Pavliotis, G. A. (2014). Stochastic processes and
applications. Texts in applied mathematics, 60.

Aprendizaje
por Refuerzo

Procesos de Decisión de Markov. Planificación por Programación Dinámica. Model-free Prediction y Control. Value Function Approximation. Métodos Policy Gradient. Algoritmos Actor-critic. Integración de Learning and Planificación. Trade-offs Exploración vs Explotación.

Referencias

  • Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction. MIT press.
  • François-Lavet, V., Henderson, P., Islam, R., Bellemare, M. G., & Pineau, J. (2018). An introduction to deep reinforcement learning. Foundations and Trends® in Machine Learning, 11(3-4), 219-354.


Modelos Gráficos

Razonamiento Bayesiano. Redes Bayesianas. Modelos gráficos dirigidos y no dirigidos. Inferencia en modelos gráficos. Modelos ocultos de Markov. Algoritmo Junction Tree. Toma de decisiones bajo incertidumbre. Procesos de Decisión de Markov. Learning con datos faltantes. Inferencia aproximada mediante muestreo.

Referencias

  • Murphy, K. P. (2012). Machine learning: a probabilistic perspective- MIT press.
  • Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern Recognition and Machine Learning (Vol. 4, No. 4, p. 738). New York: springer.
  • MacKay, D. J. (2003). Information Theory, Inference and Learning Algorithms. Cambridge university press.

PLANA DOCENTE

  • Helder Rojas

PhD. en Matemáticas por el departamento de Matemáticas Fundamentales de la UNED, España. MSc. en Estadística por el Instituto de Matemáticas y Estadística de la Universidad de Sao Paulo (IME-USP), Brasil. Actualmente es investigador postdoctoral en el Departamento de Matemáticas del Imperial College London, UK. Además, es Docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) y Coordinador del programa MCIES de la FIEECS-UNI.

Líneas de Investigación:

  • Análisis Estocástico
  • Física Matemática
  • Estadística
  • Aprendizaje de Máquina
  • Finanzas
  • Nils
  • Murrugarra Llerena

PhD. en Ciencias de la Computación por la Universidad Pittsburgh, USA. MSc. en Ciencias de la Computación por el Instituto de Ciencias Matemáticas y de Computación de la Universidad de Sao Paulo (ICMC-USP), Brasil. Actualmente es profesor asistente en el Departamento de Ciencias de la Computación en Weber State University, USA.

Líneas de Investigación:

  • Visión Computacional
  • Multi-model Learning
  • Transfer Learning
  • Aprendizaje por
    Refuerzo

Jorge Luis

  • Guevara Diaz

Jorge Guevara obtuvo su Ph.D. en Ciencias de la Computación por el Instituto de Matemática y Estadística de la Universidad de São Paulo, Brasil. Fue investigador visitante en el laboratorio LITIS del INSA Rouen, Francia. Actualmente, se desempeña como investigador científico en el laboratorio de investigación de IBM Brasil.

Líneas de Investigación:

  • Inteligencia Artificial
  • Machine Learning
  • Teoría Fuzzy
  • Métodos de Kernel

Erick

  • Chacon Montalvan

PhD. y MSc. en Estadística por la Universidad de Lancaster, UK. Actualmente es investigador postdoctoral en el Grupo de Investigación de Estadística Geoespacial (GeoHealth) de la Universidad de Ciencia y Tecnología del Rey Abdullah (KAUST), Arabia Saudita. Además, es docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) de la FIEECS-UNI.

Líneas de Investigación:

  • Estadística Bayesiana
  • Modelado Causal.
  • Modelado Espacio-
    temporal
  • Métodos
    Computacionales
    Intensivos


PhD. en Matemática Aplicada por el Instituto de Matemática y Estadística de la Universidad de Sao Paulo (IME-USP), Brasil. MSc. en Matemática Aplicada por la Universidad Federal ABC, Brasil. Fue Investigador postdoctoral en el Departamento de Matemáticas de la Universidad Católica del Norte (UCN), Chile. Actualmente es profesor investigador en el Departamento de Ciencias Básicas de la UNAM, Perú.

Rusbert

  • Calderon Beltran

Artem

  • Logachov

Líneas de Investigación:

  • Teoría Ergódica
  • Sistemas Dinamicos Simbolicos
  • Formalismo Termodinámico.

PhD. en Matemáticas por la Universidad Estatal de Novosibirsk, Rusia. Profesor Investigador en el departamento de Matemáticas Avanzadas de la Universidad Estatal de Geosistemas y Tecnologías de Siberia, Rusia. Además, también es profesor en el Laboratorio de Probabilidad y Estadística Matemática del Instituto Sobolev de Matemáticas, Rama Siberiana de la Academia Rusa de Ciencias.

Líneas de Investigación:

  • Probabilidad
  • Mecánica Estadística
  • Ecuaciones Diferenciales
    Estocásticas
  • Grandes Desviaciones

Luis

  • Huamanchumo

PhD. en Ciencias de la Educación por la UNE, Perú. MSc en Ingeniería de Sistemas por la UNI, Perú. Además, es Licenciado en Estadística por la UNI y Economista por la Universidad del Pacifico. Actualmente es el Coordinador y Docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) de la FIEECS-UNI.

Líneas de Investigación:

  • Análisis Estadístico Multivariado
  • Modelos Lineales
  • Diseño de Metodologías de Investigación
  • Educación Estadística
  • Jaime Lincovil

PhD. y MSc. en Estadística por el Instituto de Matemática y Estadística de la Universidad de Sao Paulo (IME-USP), Brasil. Fue investigador postdoctoral en el Departamento de Estadística de la Universidad Estatal de Campinas (UNICAMP). Actualmente es profesor adjunto del Departamento de Estadística de la Universidad de las Américas (UDLA), Bio-Bio, Chile. Además, es docente del programa de Doctorado en Ciencias e Ingeniería Estadística (DCIES) de la FIEECS-UNI.

Líneas de Investigación:

  • Econometría y Biométrica
  • Datos Funcionales y Datos de Alta
    Dimensionalidad
  • Análisis de bases de datos escalables en R y
    Python

INGRESO POR PRE-MAESTRIA

INVERSIÓN


PREMAESTRÍA 2025-I

Es una de las modalidades de ingreso directo a la maestría, y a la vez, prepara al postulante para iniciar con éxito el programa MCIES. Al alcanzar una vacante, ya no tiene que pagar ni rendir el examen de admisión. Los cursos que se impartirán en la Pre-Maestría son:

  • Cálculo Vectorial para Machine Learning.
  • Introducción a Probabilidad y Distribuciones
  • Fundamentos de Algoritmos y Aprendizaje Automático

Para más detalles, consultar por el brochure de la Pre-Maestría 2025-I.

Pago al contado:


Dos cuotas:








hasta una semana antes de iniciar la PRE-MAESTRIA

después de un mes de iniciar la PRE-MAESTRIA

Duración: 7 semanas

S/ 1 600.00

S/ 1 700.00

S/ 850.00

S/ 850.00

  • El postulante que APRUEBE todas las asignaturas con una nota igual o mayor 10 pts., obtenga un promedio ponderado igual o mayor 12 pts. y alcance vacante en estricto orden de mérito, será ADMITIDO a la maestría.

ACTIVIDAD

FECHA

1

Publicación de Lista de Ingresantes

21 de Marzo

2

Inicio de Clases Maestria

24 de Marzo

  • La evaluación esta comprendida por 3 fases y se calificara sobre 20 pts.
    • Evaluación de CV. (4pts)
    • Evaluación de conocimientos mediante examen. (6pts)
    • Entrevista y presentación de soluciones del Examen. (10pts)
  • El examen constará de seis preguntas, distribuidas en los siguientes temas de la Pre-Maestría:
    • Introducción a la Probabilidad y Distribuciones (2 preguntas)
    • Cálculo Vectorial para Machine Learning(2 preguntas)
    • Fundamentos de Algoritmos y Aprendizaje Automatico(2 preguntas)
  • El examen será entregado a los postulantes el sábado 8 de marzo a las 9:00 a. m. en una reunión virtual por Google Meet.
  • Los postulantes tendrán una semana para resolverlo y enviar la solución al correo premaestria.mies@gmail.com.(Asunto:”Examen_de_admision_mcies_Apellido_Nombre”)
  • Durante la entrevista personal, deberán exponer sus soluciones, explicando la metodología utilizada.
  • El jurado evaluará y calificará las respuestas conforme a los criterios establecidos.
  • La nota mínima para ser admitido en la Maestría MCIES es de 12pts.
  • Se aceptaran postulantes hasta el 7 de Marzo de 2025.
  • Para más información de los temas del examen, revisar el Brochure de la Pre-Maestría. (link)


INGRESO ORDINARIo

S/ 250.00

S/ 875.00

PROSPECTO

DERECHO DE ADMISIÓN

S/ 656.00

8%

16%

Son cuatro matrículas que se abonan al inicio de cada ciclo.

48 CRÉDITOS DE ENSEÑANZA (4 CICLOS)

Si paga adelantado toda la maestría

descuentos sobre el monto de créditos

Si paga adelantado todo el ciclo

En total son veinticuatro mensualidades.

S/ 20,352.00

S/ 424.00

Costo por cada crédito

MATRICULA AL CICLO REGULAR

REQUISITOS DE MATRÍCULA

Una vez admitido, para formalizar su matrícula, el estudiante tiene que enviar la siguiente documentación:


  • Grado de bachiller o título (en copia y puede ser presentado hasta dentro de 6 meses de haber comenzado la maestría).
  • Certificado de estudios universitarios de pregrado (en copia y puede ser presentado hasta dentro de 6 meses de haber comenzado la maestría).
  • DNI (copia simple de ambos lados).
  • Una foto reciente a color, tamaño carnet, fondo blanco y sin lentes.


Para realizar el pago, deberá de solicitar una orden de pago al correo kiharahernandezposgradouni@gmail.com, info.posgrado.fieecs@uni.edu.pe o al número +51 989 047 454 indicando su nombre completo, DNI y monto a pagar. En caso desea factura deberá indicar el RUC y los datos de la persona o empresa. Enviar su transferencia o comprobante de pago para considerarlo en la lista de participantes.

Una vez cancelada la orden de pago se le enviará la carpeta, la cual deberá ser llenada y remitida de manera virtual a kiharahernandezposgradouni@gmail.com o info.posgrado.fieecs@uni.edu.pe


ACTIVIDAD

FECHA

1

Inicio de Inscripciones al Ingreso

Modalidad Ordinario

6 de Febrero

2

Entrega del Examen a los postulantes


8 de Marzo


(9am via Meet)


3

Entrega de Solucionarios

Hasta el 15 de Marzo

4

Entrevista a los Postulantes

17-20 de Marzo

5

Publicación de Resultados

21 de Marzo

5

Inicio de Clases Maestria

24 de Marzo

  • Preguntas
    Frecuentes

La fecha de inicio de la maestría es en Agosto. El horario es entre semana y algunos fines de semana.

¿Cuál es el inicio y el horario de la maestría?

En la maestría llevarán un curso de teoría y estructura de algoritmos, con lo cual estarán en facultad de programar en cualquier lenguaje.

¿Cuál es el software que se utilizará?

La plana docente está conformada por científicos en producción y crecimiento por lo general trabajan en el exterior. Respecto a las líneas de investigación, cuando el alumno complete el segundo ciclo podrá elegir un Advisor y trabajar en el proyecto.

¿Cómo está conformada la Plana Docente?

La modalidad de la maestría es online el cual permite ofrecer un nivel de enseñanza altamente calificado. Algunas sesiones, bajo previa coordinación serán presenciales. Como por ejemplo, evaluaciones de seminarios de tesis, presentación de trabajos científicos, participación de jornadas científicas y más.

¿Cuál es la modalidad de la maestría en Ingeniería Estadística?

¿Cuales son los temas que
se evaluaran en el examen
de admisión?

Los temas que se evaluarán en el examen de admisión están detallados en el brochure informativo del programa Pre-Maestría (disponible en el siguiente link). Se recomienda a los postulantes revisarlo para conocer a profundidad los temas, fortalecer sus conocimientos, desarrollar su razonamiento lógico y preparar adecuadamente sus respuestas.

La maestría en ingeniería estadística tiene un enfoque científico, también habrá proyectos orientados a soluciones industriales, pero siempre guiado por el enfoque científico. Las maestrías en estadística y ciencias datos en el ámbito peruano generalmente están enfocados en temas prácticos y de gestión analítica. En contraste, nuestro programa busca formar una nueva generacion de expertos e investigadores aplicados en áreas de interface entre estadística, matemática aplicada y ciencia de datos.

¿Cuál es la diferencia entre la maestría en Ciencia de Datos e Ingeniería Estadística?

Llevar la maestría te forma para cursar un doctorado, ya sea aquí o en el extranjero. Teniendo el doctorado ya puedes optar por una vida académica. Además Sunedu avala nuestro programa de maestría. Aún estamos en nuestra primera versión, en lo sucesivo haremos proyectos de investigación con nuestros equipos, con eso buscaremos el apoyo de CONCYTEC.

Proceso de admisión



Proceso de ingreso



- Prospecto 250.00

- Derecho de admisión 875.00


- Matrícula S/.656.00

- 48 Créditos S/.20,352.00 (también hay planes de 4,6 y 24 cuotas, descuentos del 8% y 16%)

Es la segunda modalidad de ingreso, la primera es la Pre-Maestría. El examen se divide en Evaluación del CV (20%), que considera antecedentes y experiencia; Examen escrito (30%), sobre temas clave; y Entrevista personal (50%), donde se expondrán las soluciones ante un jurado calificado. El programa tiene un enfoque científico, promoviendo el pensamiento crítico, el análisis riguroso y la aplicación de conocimientos en la resolución de problemas complejos.

¿En qué se basa el examen de admisión?

¿Cuánto es la inversión en la Maestría en Ingeniería Estadística?

¿Cuál es el beneficio de llevar la Maestría en Ingeniería Estadística?

  • El reembolso procede con la retención del 15% por gastos administrativos y debe ser justificado. El reembolso o la reserva procede siempre y cuando se solicite antes que inicien las clases.
  • La Unidad de Posgrado se reserva el derecho de modificar el docente por motivos de fuerza mayor o por disponibilidad del profesor, garantizando que la calidad de la Maestría no se vea afectado. Toda modificación será comunicada anticipadamente a los participantes.
  • La Unidad de Posgrado podrá efectuar cambios en la secuencia de los temas de acuerdo a su política de mejora continua.
  • Los cursos son elegidos por el director y el coordinador académico en función a mantener la calidad del programa y la adaptación al mercado laboral y al proceso de investigación.
  • De no cumplir con el quorum requerido, la Unidad de Posgrado se reserva el derecho de postergar el inicio de clases de la maestría.

IMPORTANTE

info.posgrado.fieecs@uni.edu.pe

+51 989 047 454 - Kihara Hernandez

Grupo de Informes MCIES - Link