- IntroducciĂłn a la Inteligencia Artificial (CS 188)
- Principios y Técnicas de Ciencia de Datos (CS C100)
- MĂ©todos EstadĂsticos para Ciencia de Datos (STAT 131A)
- IntroducciĂłn a la Ciencia LingĂĽĂstica (LING 100)
- Fundamentos de Ciencia de Datos (CS C8)
- Estructuras de Datos (CS 61B)
- Estructura e InterpretaciĂłn de Programas de Computadora (CS 61A)
- Negocios y Sostenibilidad (UGBA 192S)
• Migré una aplicación web interna en PHP desde servidores locales a la nube de AWS utilizando AWS RDS, AWS ECS, GitHub Actions y Docker.
• Desarrollé una aplicación web con Next.js, TypeScript, TailwindCSS y Prisma, con backend en Golang, Colly y base de datos MySQL para que los residentes puedan seguir reuniones y agendas del consejo municipal (council.openpatterson.org).
• Trabajé en el grupo de trabajo interno enfocado en la cadena de suministro “Project Santos” dentro de Amazon.
• ImplementĂ© cambios crĂticos en la pipeline de Lambda para almacenar eventos de alarmas internas globalmente utilizando AWS Lambda, DynamoDB y Redshift en Java 8.
• Reduje la deuda técnica reemplazando pruebas ineficaces utilizando JUnit.
• Redacté especificaciones y entregables, detallando las ventajas/desventajas de cada uno.
• Primer contratado a tiempo completo como analista/ingeniero de datos en una startup de 10 personas que sirve a organizaciones sin fines de lucro. Actué como enlace para todas las necesidades de datos de los clientes.
• Desarrollé pipelines fáciles de mantener y escalables utilizando AWS Lambda y Python.
• Desarrollé APIs personalizadas con API Gateway como redundancia para procesar cientos de millones de registros.
• Desarrollé pipelines de datos para canalizar múltiples fuentes de datos a un lago de datos para necesidades de reportes.
• Utilicé múltiples servicios de AWS, incluyendo DynamoDB, RDS, EC2 y Step Functions, para almacenar, gestionar y procesar millones de registros de datos.
• Realicé análisis de datos y modelado de datos, asegurando la precisión y confiabilidad de los datos para los clientes.
• Reemplacé la orquestación de Airflow con una solución personalizada de AWS para reducir los costos en un 98%.
• Realicé sesiones semanales para ayudar a estudiantes e investigadores con NLP, Webscraping y depuración de Python.
• Desarrollé el prototipo inicial de un tablero de control, con Dash/Plotly y lo desplegué en Heroku, para ayudar a comprender el origen, la duración, el tiempo y el tema de 15 consultas por semana.
• DirigĂ el desarrollo y curadurĂa del blog del equipo.
• DesarrollĂ© un programa de coincidencia difusa probabilĂstica con Python, Flask, SQLite3 y HTML para acelerar los procesos que anteriormente se realizaban manualmente, haciendo el proceso 800% más rápido.
• DesarrollĂ© un rastreador web y scraper en Python con Scrapy y scikit-learn para automatizar el mantenimiento de colecciones de datos del sector pĂşblico, lo que potencialmente ahorrarĂa cientos de horas anuales.
• Enlace a las diapositivas de la presentación
- Python, Java, JavaScript/TypeScript, R, SQL, HTML, CSS.
- AWS (Lambda, RDS, EC2, DynamoDB, Redshift), Next.js, React, Flask, Vercel, Git.
- Redacción Técnica, Recolección de Requisitos, Presupuestación Organizacional, Enseñanza, Blogging.
• Anoté notas médicas para detectar la presencia de problemas gastrointestinales.
• Desarrollé un clasificador binario simple para detectar la presencia de problemas gastrointestinales en las notas médicas.
• ContribuĂ con 1 artĂculo y me desempeñé como asociado editorial para más de 50 artĂculos enviados al blog.
• Gestioné a más de 100 miembros por semestre, formé alianzas estratégicas con organizaciones y empresas externas para satisfacer mejor las necesidades mediáticas del cuerpo estudiantil, y gestioné $23,000.