Programa de certificado acelerado: ciencia de datos
University of California, Irvine - Division of Continuing Education
Información clave
Ubicación del campus
Irvine, Estados Unidos de América
Idiomas
Inglés
Formato de estudio
En el campus
Duración
3 Meses
Ritmo
Tiempo completo
Pago de estudios
USD 7900 / per course *
Fecha límite de inscripción
Contacto
Fecha de inicio más temprana
Contacto
* costo total aproximado: $ 14,100 USD, no incluye pasaje aéreo; matrícula de la pasantía: $ 2,900
Introducción
Visión de conjunto
La ciencia de datos se clasifica continuamente como una de las profesiones más demandadas. La necesidad de profesionales que puedan administrar y aprovechar los conocimientos de los datos es más clara que nunca. El plan de estudios que se enseña en este programa está diseñado para satisfacer las crecientes necesidades multidisciplinarias de los profesionales de datos. Al cubrir una amplia gama de temas, el programa aborda la amplia variedad de habilidades necesarias para trabajar en proyectos exitosos basados en datos. Los temas cubiertos incluyen descubrimiento y predicción basados en datos, ingeniería de datos a escala (inspección, limpieza, transformación y modelado de datos), datos estructurados y no estructurados, estadísticas computacionales, reconocimiento de patrones, minería de datos, visualización de datos, bases de datos, SQL, programación Python, y aprendizaje automático.
El Programa de Certificado Acelerado (ACP) de posgrado de UC Irvine en ciencia de datos de 3 meses cubre una amplia gama de temas en ciencia de datos, incluido el descubrimiento y la predicción basados en datos, ingeniería de datos a escala (inspección, limpieza, transformación y modelado de datos) , datos estructurados y no estructurados, estadísticas computacionales, reconocimiento de patrones, minería de datos, visualización de datos, bases de datos, SQL, Python y aprendizaje automático.
Beneficios
- Utilice técnicas técnicas para ofrecer conocimientos e inteligencia empresarial.
- Aplicar conceptos matemáticos que incluyen probabilidad, inferencia y modelado a la aplicación práctica del proyecto de datos.
- Describir y utilizar herramientas y tecnologías estándar de la industria necesarias para modelar y analizar grandes conjuntos de datos.
- Utilice el enfoque de modelado de datos para tomar una decisión empresarial óptima.
- Implementar algoritmos de aprendizaje automático.
- Aplique herramientas de análisis de texto a conjuntos de datos estructurados y no estructurados.
- Desarrollar e implementar un plan de almacenamiento de datos.
- Obtenga una ventaja competitiva en el mercado laboral global a través de una pasantía en una empresa estadounidense.
Quién debe asistir
Este programa está dirigido a profesionales en una variedad de industrias y funciones laborales que buscan ayudar a su organización a comprender y aprovechar las enormes cantidades de datos diversos que recopilan. Otros que se beneficiarían de este programa incluyen ingenieros de datos, analistas de datos, científicos informáticos, analistas comerciales, administradores de bases de datos, investigadores y estadísticos.
Requisitos de certificado
Para obtener un certificado en la División de Educación Continua de la UCI, los estudiantes deben completar todos los cursos requeridos con una calificación de "C" o mejor.
Plan de estudios
Matemáticas y estadísticas prácticas para la ciencia de datos
Las matemáticas prácticas y la estadística son la base de los campos de la ciencia de datos y el análisis predictivo. Las estadísticas se utilizan en todos los aspectos del procesamiento de datos empresariales, científicos e institucionales. Este curso cubre las habilidades estadísticas fundamentales necesarias para la ciencia de datos y el análisis predictivo. Este es un curso orientado a la aplicación y el enfoque es práctico. Los estudiantes echarán un vistazo a varias técnicas estadísticas y discutirán situaciones en las que se usaría cada técnica, las suposiciones hechas por cada método, cómo configurar el análisis y cómo interpretar los resultados. Este curso comienza con una introducción al análisis de datos. A continuación, el curso cubre los conceptos fundamentales de estadística descriptiva, probabilidad y estadística inferencial, que incluyen el teorema del límite central y la prueba de hipótesis. A partir de ahí, el curso se centrará en diversas pruebas estadísticas, incluida la prueba de independencia de Chi-Cuadrado, pruebas t, correlación, ANOVA, regresión lineal, series de tiempo y aplicación de técnicas aprendidas previamente en situaciones nuevas.
Introducción a la programación de Python
Introducción a Python es una introducción para principiantes a la programación con Python. Este curso está diseñado para aquellos que no tienen experiencia en programación y no tienen antecedentes técnicos. Es para aquellos que quieren una presentación suave. Después de este curso, los estudiantes pueden querer tomar un curso de Python más intermedio o avanzado. O pueden sentirse lo suficientemente seguros como para comenzar a aprender por sí mismos. Si no tiene experiencia en Python, pero sí tiene una buena experiencia en Java, C u otro idioma, este curso puede parecerle lento. Los estudiantes aprenderán lo siguiente: cómo usar tipos de variables, control de flujo y funciones, cómo interactuar con el sistema a través de Python, cómo escribir scripts simples para procesar texto y cómo usar Jupyter, una popular herramienta de desarrollo para Python.
Fundamentos de la ciencia de datos
El objetivo de este curso es desmitificar la ciencia de datos y familiarizar a los estudiantes con las habilidades, técnicas y conceptos clave de los científicos de datos. Comenzando con conceptos fundamentales como la taxonomía analítica, el proceso estándar entre industrias para la minería de datos y el diagnóstico de datos, el curso pasará a comparar la ciencia de datos con las técnicas estadísticas clásicas. Una descripción general de las técnicas más comunes utilizadas en la ciencia de datos, incluido el análisis de datos, modelado estadístico, ingeniería de datos, bases de datos relacionales, SQL y NoSQL, manipulación de datos a escala (big data), algoritmos para minería de datos, calidad de datos, corrección y se cubrirán las operaciones de coherencia.
Ingeniería de datos
Este curso está diseñado para mejorar la competencia de los estudiantes en el diseño de datos, administración de datos, almacenamiento de datos, modelado de datos y habilidades de manipulación de consultas. Los temas incluyen técnicas y métodos para la identificación, extracción y preparación de datos para su procesamiento con software de base de datos. Obtenga una descripción general de las técnicas básicas de ingeniería de datos, incluida la normalización de datos, ingeniería de datos, bases de datos relacionales y no relacionales, SQL y NoSQL, manipulación de datos a escala (big data), algoritmos para operaciones de datos. Los estudiantes trabajarán en equipos en un proyecto final para explorar, analizar, resumir y presentar hallazgos en un gran conjunto de datos del mundo real.
Visualización avanzada
La visualización juega un papel fundamental en la comprensión de las propiedades y las relaciones de los datos para extraer conocimientos y comunicar resultados. Ya sea que la analítica sea descriptiva, diagnóstica, prescriptiva o proscriptiva, la visualización es esencial en cualquier ciclo de analítica. Este curso se centrará en la aplicación de varios métodos y técnicas a diferentes etapas del ciclo de análisis, como durante la preparación de datos, el modelado y la generación de informes. Los estudiantes aprenderán técnicas para visualizar datos univariados, multivariados, temporales, basados en texto, jerárquicos y basados en redes / gráficos, tanto en análisis ad hoc como en generación automatizada.
Big Data Analysis
Las empresas están utilizando tecnologías como MapReduce, Hadoop, Yarn y Apache Spark para extraer valor de Big Data. Este curso proporciona una descripción detallada de Hadoop y Spark, los pilares del procesamiento de big data. Para cristalizar los conceptos detrás de Hadoop y Spark, los estudiantes trabajarán a través de una serie de ejercicios breves y enfocados. Los conceptos cubiertos incluyen la arquitectura Hadoop, Apache Spark Big Data Framework, ingesta de datos, procesamiento distribuido y programación funcional. Además, los estudiantes aprenderán cómo configurar e instalar un clúster de Hadoop, escribir programas básicos de MapReduce, utilizar prácticas de programación avanzadas de MapReduce y utilizar interfaces como Pig y Hive para interactuar con Hadoop.
Pasantías
Como último curso opcional y por una tarifa adicional de $ 2,900, tiene la oportunidad de aplicar la teoría académica y obtener experiencia práctica en una variedad de empresas e industrias durante 10 semanas. Un proyecto de investigación proporciona formación adicional. También se incluyen en la pasantía los talleres de desarrollo de currículum vitae y habilidades para entrevistas.
Programar
Los estudiantes serán asignados a un horario de mañana (9: 00-12: 00) o de tarde (13: 00-16: 00). Los cursos del programa se toman consecutivamente, completando uno antes de pasar al siguiente. Los horarios no están garantizados y están sujetos a cambios. Se proporcionará un horario final el primer día del programa.
* Reconocemos que este es un momento desafiante para muchos de nuestros estudiantes y sus familias, por lo que nos complace ofrecer un descuento del 25% en la matrícula ACP del invierno de 2021 y un descuento del 33% en la matrícula para inscribirse en los cursos ACP remotos para la primavera de 2021.
Plan de estudios
Plan de estudios
Matemáticas y estadísticas prácticas para la ciencia de datos
Las matemáticas prácticas y la estadística son la base de los campos de ciencia de datos y análisis predictivo. Las estadísticas se utilizan en cada parte del procesamiento de datos comerciales, científicos e institucionales. Este curso cubre las habilidades estadísticas fundamentales necesarias para la ciencia de datos y el análisis predictivo. Este es un curso orientado a la aplicación y el enfoque es práctico. Los estudiantes observarán varias técnicas estadísticas y discutirán situaciones en las que se usaría cada técnica, las suposiciones hechas por cada método, cómo configurar el análisis y cómo interpretar los resultados. Este curso comienza con una introducción al análisis de datos. Luego, el curso cubre los conceptos fundamentales de estadística descriptiva, probabilidad y estadística inferencial, que incluyen el teorema del límite central y la prueba de hipótesis. A partir de ahí, el curso se centrará en varias pruebas estadísticas, incluida la prueba de independencia Chi-Square, pruebas t, correlación, ANOVA, regresión lineal, series de tiempo y la aplicación de técnicas aprendidas previamente en situaciones nuevas.
Introducción a la programación en Python
Introducción a Python es una introducción para principiantes a la programación usando Python. Este curso está diseñado para aquellos que no tienen experiencia en programación y no tienen antecedentes técnicos. Es para aquellos que quieren una introducción amable. Después de este curso, los estudiantes pueden querer tomar un curso de Python más intermedio o avanzado. O bien, pueden sentirse lo suficientemente seguros como para comenzar a aprender por su cuenta. Si no tiene experiencia en Python, pero sí tiene una buena experiencia en Java, C u otro lenguaje, este curso puede resultarle lento. Los estudiantes aprenderán lo siguiente: cómo usar tipos de variables, control de flujo y funciones, cómo interactuar con el sistema a través de Python, cómo escribir scripts simples para procesar texto y cómo usar Jupyter, una popular herramienta de desarrollo para Python.
Fundamentos de la ciencia de datos
El objetivo de este curso es desmitificar la ciencia de datos y familiarizar a los estudiantes con las habilidades, técnicas y conceptos clave de los científicos de datos. Comenzando con conceptos fundamentales como la taxonomía analítica, el proceso estándar entre industrias para la minería de datos y el diagnóstico de datos, el curso luego pasará a comparar la ciencia de datos con las técnicas estadísticas clásicas. Una descripción general de las técnicas más comunes utilizadas en la ciencia de datos, incluido el análisis de datos, el modelado estadístico, la ingeniería de datos, las bases de datos relacionales, SQL y NoSQL, la manipulación de datos a escala (big data), los algoritmos para la minería de datos, la calidad de los datos, la remediación y Se cubrirán las operaciones de consistencia.
Ingeniería de datos
Este curso está diseñado para mejorar la competencia de los estudiantes en el diseño de datos, la gestión de datos, el almacenamiento de datos, el modelado de datos y las habilidades de manipulación de consultas. Los temas incluyen técnicas y métodos para la identificación, extracción y preparación de datos para su procesamiento con software de base de datos. Obtenga una descripción general de las técnicas básicas de ingeniería de datos, incluida la normalización de datos, ingeniería de datos, bases de datos relacionales y no relacionales, SQL y NoSQL, manipulación de datos a escala (big data), algoritmos para operaciones de datos. Los estudiantes trabajarán en equipos en un proyecto final para explorar, analizar, resumir y presentar hallazgos en un gran conjunto de datos del mundo real.
Visualización Avanzada
La visualización juega un papel fundamental en la comprensión de las propiedades y relaciones de los datos para extraer información y comunicar los resultados. Ya sea que el análisis sea descriptivo, de diagnóstico, prescriptivo o proscriptivo, la visualización es esencial a lo largo de cualquier ciclo de análisis. Este curso se centrará en la aplicación de varios métodos y técnicas a las diferentes etapas del ciclo analítico, como durante la preparación de datos, el modelado y la generación de informes. Los estudiantes aprenderán técnicas para visualizar datos univariados, multivariados, temporales, basados en texto, jerárquicos y basados en redes/gráficos, tanto en análisis ad hoc como en generación automatizada.
Análisis de grandes datos
Las empresas utilizan tecnologías como MapReduce, Hadoop, Yarn y Apache Spark para extraer valor de Big Data. Este curso proporciona una descripción detallada de Hadoop y Spark, las piedras angulares del procesamiento de big data. Para cristalizar los conceptos detrás de Hadoop y Spark, los estudiantes trabajarán a través de una serie de ejercicios cortos y enfocados. Los conceptos cubiertos incluyen la arquitectura Hadoop, Apache Spark Big Data Framework, ingesta de datos, procesamiento distribuido y programación funcional. Además, los estudiantes aprenderán cómo configurar e instalar un clúster de Hadoop, escribir programas básicos de MapReduce, utilizar prácticas de programación avanzadas de MapReduce y utilizar interfaces como Pig y Hive para interactuar con Hadoop.
Estudiantes ideales
Quién debe asistir
Este programa está destinado a profesionales en una variedad de industrias y funciones laborales que buscan ayudar a su organización a comprender y aprovechar las cantidades masivas de datos diversos que recopilan. Otros que se beneficiarían de este programa incluyen ingenieros de datos, analistas de datos, informáticos, analistas de negocios, administradores de bases de datos, investigadores y estadísticos.
Requisitos de lengua inglesa
¡Certifica tu dominio del inglés con el Duolingo English Test! El DET es un examen de inglés en línea conveniente, rápido y asequible aceptado por más de 4000 universidades (como esta) en todo el mundo.