Video: https://youtu.be/T0L0JxDaPkc
RSVP Here: https://www.eventbrite.com/e/full-day-workshop-kubeflow-kerastensorflow-20-tf-extended-tfx-kubernetes-pytorch-xgboost-airflow-tickets-63362929227
Description
In this workshop, we build real-world machine learning pipelines using TensorFlow Extended (TFX), KubeFlow, Airflow, and MLflow.
Described in the 2017 paper, TFX is used internally by thousands of Google data scientists and engineers across every major product line within Google.
KubeFlow is a modern, end-to-end pipeline orchestration framework that embraces the latest AI best practices including hyper-parameter tuning, distributed model training, and model tracking.
Airflow is the most-widely used pipeline orchestration framework in machine learning and data engineering.
MLflow is a lightweight experiment-tracking system recently open-sourced by Databricks, the creators of Apache Spark. MLflow supports Python, Java/Scala, and R - and offers native support for TensorFlow, Keras, and Scikit-Learn.
Pre-requisites
Modern browser - and that's it!
Every attendee will receive a cloud instance
Nothing will be installed on your local laptop
Everything can be downloaded at the end of the workshop
Location
Online Workshop
The link will be sent a few hours before the start of the workshop.
Only registered users will receive the link.
If you do not receive the link a few hours before the start of the workshop, please send your Eventbrite registration confirmation to support@pipeline.ai for help.
Agenda
1. Create a Kubernetes cluster
2. Install KubeFlow, Airflow, TFX, and Jupyter
3. Setup ML Training Pipelines with KubeFlow and Airflow
4. Transform Data with TFX Transform
5. Validate Training Data with TFX Data Validation
6. Train Models with Jupyter, Keras/TensorFlow 2.0, PyTorch, XGBoost, and KubeFlow
7. Run a Notebook Directly on Kubernetes Cluster with KubeFlow
8. Analyze Models using TFX Model Analysis and Jupyter
9. Perform Hyper-Parameter Tuning with KubeFlow
10. Select the Best Model using KubeFlow Experiment Tracking
11. Run Multiple Experiments with MLflow Experiment Tracking
12. Reproduce Model Training with TFX Metadata Store
13. Deploy the Model to Production with TensorFlow Serving and Istio
14. Save and Download your Workspace
Key Takeaways
Attendees will gain experience training, analyzing, and serving real-world Keras/TensorFlow 2.0 models in production using model frameworks and open-source tools.
RSVP Here: https://www.eventbrite.com/e/full-day-workshop-kubeflow-kerastensorflow-20-tf-extended-tfx-kubernetes-pytorch-xgboost-airflow-tickets-63362929227
https://youtu.be/T0L0JxDaPkc
Data science presentation - Management career institutePoojaPatidar11
1.Basic Definition: data, science, data science
1.Data: Facts and statistics collected together for reference or analysis
2.Science: The intellectual and practical activity encompassing the systematic study of the structure and behavior of the physical and natural world through observation and experiment.
3.Data Science: Data science is a multidisciplinary blend of data inference, algorithm development, and technology in order to solve analytically complex problems
2. Who is a Data Scientist?
A Data Scientist is the master of all trades! He should be proficient in maths, he should be acing the Business field and should have great Computer Science skills as well
.
3.Data Science Skills
•SQL
•Hadoop
•Python
•Java
•R
4.Data science scope
There is a big scope for data Science in India. The profession has been named the sexiest job of the 21st century.
5.Data science job trends:
Data science actually makes sense, not only because it is very useful, but also you have a great career in it in the near future.
6.Data Scientist Salary Trends:
The report goes on to say that the median salary for a Data Scientist is an impressive $116,000 and there are over 1,736 job openings posted on the site.
7.Data Scientist Job Roles:
•Data Scientist
•Data Engineer
•Data Architect
•Data Administrator
•Data Analyst
•Business Analyst
•Data/Analytics Manager
•Business Intelligence Manager
Artificial Intelligence and Machine Learning Training & Virtual Internships P...Ravikanth Jagarlapudi
We run an online training program for young adults. This is a 30 hour training and virtual internships program where participants are taught artificial intelligence and machine learning concepts and algorithms along with Python programming.
Participants with the help of a mentor end up doing a project by coming up with a business model and then creating a working model.
Video: https://youtu.be/T0L0JxDaPkc
RSVP Here: https://www.eventbrite.com/e/full-day-workshop-kubeflow-kerastensorflow-20-tf-extended-tfx-kubernetes-pytorch-xgboost-airflow-tickets-63362929227
Description
In this workshop, we build real-world machine learning pipelines using TensorFlow Extended (TFX), KubeFlow, Airflow, and MLflow.
Described in the 2017 paper, TFX is used internally by thousands of Google data scientists and engineers across every major product line within Google.
KubeFlow is a modern, end-to-end pipeline orchestration framework that embraces the latest AI best practices including hyper-parameter tuning, distributed model training, and model tracking.
Airflow is the most-widely used pipeline orchestration framework in machine learning and data engineering.
MLflow is a lightweight experiment-tracking system recently open-sourced by Databricks, the creators of Apache Spark. MLflow supports Python, Java/Scala, and R - and offers native support for TensorFlow, Keras, and Scikit-Learn.
Pre-requisites
Modern browser - and that's it!
Every attendee will receive a cloud instance
Nothing will be installed on your local laptop
Everything can be downloaded at the end of the workshop
Location
Online Workshop
The link will be sent a few hours before the start of the workshop.
Only registered users will receive the link.
If you do not receive the link a few hours before the start of the workshop, please send your Eventbrite registration confirmation to support@pipeline.ai for help.
Agenda
1. Create a Kubernetes cluster
2. Install KubeFlow, Airflow, TFX, and Jupyter
3. Setup ML Training Pipelines with KubeFlow and Airflow
4. Transform Data with TFX Transform
5. Validate Training Data with TFX Data Validation
6. Train Models with Jupyter, Keras/TensorFlow 2.0, PyTorch, XGBoost, and KubeFlow
7. Run a Notebook Directly on Kubernetes Cluster with KubeFlow
8. Analyze Models using TFX Model Analysis and Jupyter
9. Perform Hyper-Parameter Tuning with KubeFlow
10. Select the Best Model using KubeFlow Experiment Tracking
11. Run Multiple Experiments with MLflow Experiment Tracking
12. Reproduce Model Training with TFX Metadata Store
13. Deploy the Model to Production with TensorFlow Serving and Istio
14. Save and Download your Workspace
Key Takeaways
Attendees will gain experience training, analyzing, and serving real-world Keras/TensorFlow 2.0 models in production using model frameworks and open-source tools.
RSVP Here: https://www.eventbrite.com/e/full-day-workshop-kubeflow-kerastensorflow-20-tf-extended-tfx-kubernetes-pytorch-xgboost-airflow-tickets-63362929227
https://youtu.be/T0L0JxDaPkc
Data science presentation - Management career institutePoojaPatidar11
1.Basic Definition: data, science, data science
1.Data: Facts and statistics collected together for reference or analysis
2.Science: The intellectual and practical activity encompassing the systematic study of the structure and behavior of the physical and natural world through observation and experiment.
3.Data Science: Data science is a multidisciplinary blend of data inference, algorithm development, and technology in order to solve analytically complex problems
2. Who is a Data Scientist?
A Data Scientist is the master of all trades! He should be proficient in maths, he should be acing the Business field and should have great Computer Science skills as well
.
3.Data Science Skills
•SQL
•Hadoop
•Python
•Java
•R
4.Data science scope
There is a big scope for data Science in India. The profession has been named the sexiest job of the 21st century.
5.Data science job trends:
Data science actually makes sense, not only because it is very useful, but also you have a great career in it in the near future.
6.Data Scientist Salary Trends:
The report goes on to say that the median salary for a Data Scientist is an impressive $116,000 and there are over 1,736 job openings posted on the site.
7.Data Scientist Job Roles:
•Data Scientist
•Data Engineer
•Data Architect
•Data Administrator
•Data Analyst
•Business Analyst
•Data/Analytics Manager
•Business Intelligence Manager
Artificial Intelligence and Machine Learning Training & Virtual Internships P...Ravikanth Jagarlapudi
We run an online training program for young adults. This is a 30 hour training and virtual internships program where participants are taught artificial intelligence and machine learning concepts and algorithms along with Python programming.
Participants with the help of a mentor end up doing a project by coming up with a business model and then creating a working model.
El desarrollo Web está cambiando. HTML5, CSS3 y JavaScript han avanzado tanto que surgen las Single-Page Applications, aplicaciones web cuya visualización y navegación está completamente controlada por dichos lenguajes cliente, dejando al servidor como mero facilitador de datos. Hasta ahora siempre hemos concebido lenguajes distintos para cliente y servidor hasta que a un innovador ingeniero se le ocurrió desarrollar una API de servicios JavaScript en el servidor, surge Node.js. Ahora tenemos JavaScript en el cliente y JavaScript en el servidor pero ¿qué pasa con toda nuestra infraestructura Java? ¿Cómo podemos reutilizar todas las funcionalidades de Java EE como EJB, JMS o JPA y también nuestras propias librerías? La respuesta está en el Proyecto Avatar.
Más información en https://avatar.java.net/
Simulando para integrar: Un paso más hacia la Entrega Continua (CD)Software Guru
La entrega de valor al cliente y la retroalimentación temprana y frecuente están en el corazón del agilismo. Durante el desarrollo de software, prácticas como la integración y la entrega continua son claves para lograr estos objetivos. El concepto de entrega continua puede entenderse como un conjunto prácticas y principios que buscan que el software esté siempre listo para ir a producción durante todo el proceso de desarrollo, minimizando los riesgos de implantación y garantizando la calidad en cada despliegue. Para entregar software de manera continua los equipos de desarrollo deben ser capaces, entre otras cosas, de automatizar la ejecución de distintos conjuntos de prueba que verifican la colaboración entre varios servicios. En esta charla hablaremos de los patrones que existen para probar la interacción entre servicios y cómo habilitar la automatización y repetibilidad de las pruebas de integración en distintos ambientes cuando nuestra aplicación depende de servicios desarrollados y gestionados por equipos externos. Con esto, podremos estar un paso más cerca de la entrega continua
Optimización de aplicaciones web con base de datos NoSQL In-MemoryGonzalo Chacaltana
Presentación que relata las distintas técnicas para optimizar una aplicación web. El objetivo del documento consiste en introducir al participante en los conceptos sobre escalabilidad horizontal, instalar y trabajar con Redis como base de datos NoSQL In-Memory y aplicar un ejemplo de conectarnos con Redis desde una aplicación PHP.
En esta sesión os contaremos la visión de React para el desarrollo de aplicaciones web desde el punto de vista de un desarrollador de ASP.NET que tiene que aprender a trabajar con estas nuevas tecnologías.
Cross development - React para desarrolladores de asp.netAlberto Diaz Martin
En esta sesión os contaremos la visión de React para el desarrollo de aplicaciones web desde el punto de vista de un desarrollador de ASP.NET que tiene que aprender a trabajar con estas nuevas tecnologías.
En esta lección se desarrolla el tema SERVLETS del desarrollo web con Java.
✅ CURSOS VIRTUALES EN UDEMY
⏺ FUNDAMENTOS DE PROGRAMACIÓN: Aprende las mejores practicas
https://www.udemy.com/course/fund-java/?referralCode=59EF4456EC0F433C641E
⏺ PROGRAMACIÓN DE BASE DE DATOS ORACLE CON PL/SQL
https://www.udemy.com/course/lenguaje-plsql/?referralCode=3B8A67CA0AADFCFB930C
⏺ CURSO PROFESIONAL DE JAVA ORIENTADO A OBJETOS
https://www.udemy.com/course/java-orientado-a-objetos/?referralCode=ED949D58C79D27158E8D
⏺ PROGRAMACIÓN DE BASE DE DATOS ORACLE CON JAVA JDBC
https://www.udemy.com/course/java-jdbc-oracle/?referralCode=C518C8D3028403F7F6DF
✅ ENLACES DE INTERES
⏺ Cursos virtuales: https://gcoronelc.github.io
⏺ Canal de YouTube: https://www.youtube.com/DesarrollaSoftware
⏺ Blog: http://desarrollasoftware.com/
⏺ Contacto: gcoronelc@gmail.com
Diapositivas correspondientes a la parte sobre la plataforma de desarrollo Google App Engine del curso de extensión universitaria "Cloud Computing. Desarrollo de Aplicaciones y Minería Web", celebrado en la Escuela Universitaria de Ingeniería Informática de Oviedo
Aplicaciones en tiempo real con nodejs y html5programadoresmx
presentación usada en el taller realizado el 22,23 y 26 de Septiembre de 2011 en las instalaciones de @telmexhub por parte de la comunidad www.programadoreshtml.mx
El desarrollo Web está cambiando. HTML5, CSS3 y JavaScript han avanzado tanto que surgen las Single-Page Applications, aplicaciones web cuya visualización y navegación está completamente controlada por dichos lenguajes cliente, dejando al servidor como mero facilitador de datos. Hasta ahora siempre hemos concebido lenguajes distintos para cliente y servidor hasta que a un innovador ingeniero se le ocurrió desarrollar una API de servicios JavaScript en el servidor, surge Node.js. Ahora tenemos JavaScript en el cliente y JavaScript en el servidor pero ¿qué pasa con toda nuestra infraestructura Java? ¿Cómo podemos reutilizar todas las funcionalidades de Java EE como EJB, JMS o JPA y también nuestras propias librerías? La respuesta está en el Proyecto Avatar.
Más información en https://avatar.java.net/
Simulando para integrar: Un paso más hacia la Entrega Continua (CD)Software Guru
La entrega de valor al cliente y la retroalimentación temprana y frecuente están en el corazón del agilismo. Durante el desarrollo de software, prácticas como la integración y la entrega continua son claves para lograr estos objetivos. El concepto de entrega continua puede entenderse como un conjunto prácticas y principios que buscan que el software esté siempre listo para ir a producción durante todo el proceso de desarrollo, minimizando los riesgos de implantación y garantizando la calidad en cada despliegue. Para entregar software de manera continua los equipos de desarrollo deben ser capaces, entre otras cosas, de automatizar la ejecución de distintos conjuntos de prueba que verifican la colaboración entre varios servicios. En esta charla hablaremos de los patrones que existen para probar la interacción entre servicios y cómo habilitar la automatización y repetibilidad de las pruebas de integración en distintos ambientes cuando nuestra aplicación depende de servicios desarrollados y gestionados por equipos externos. Con esto, podremos estar un paso más cerca de la entrega continua
Optimización de aplicaciones web con base de datos NoSQL In-MemoryGonzalo Chacaltana
Presentación que relata las distintas técnicas para optimizar una aplicación web. El objetivo del documento consiste en introducir al participante en los conceptos sobre escalabilidad horizontal, instalar y trabajar con Redis como base de datos NoSQL In-Memory y aplicar un ejemplo de conectarnos con Redis desde una aplicación PHP.
En esta sesión os contaremos la visión de React para el desarrollo de aplicaciones web desde el punto de vista de un desarrollador de ASP.NET que tiene que aprender a trabajar con estas nuevas tecnologías.
Cross development - React para desarrolladores de asp.netAlberto Diaz Martin
En esta sesión os contaremos la visión de React para el desarrollo de aplicaciones web desde el punto de vista de un desarrollador de ASP.NET que tiene que aprender a trabajar con estas nuevas tecnologías.
En esta lección se desarrolla el tema SERVLETS del desarrollo web con Java.
✅ CURSOS VIRTUALES EN UDEMY
⏺ FUNDAMENTOS DE PROGRAMACIÓN: Aprende las mejores practicas
https://www.udemy.com/course/fund-java/?referralCode=59EF4456EC0F433C641E
⏺ PROGRAMACIÓN DE BASE DE DATOS ORACLE CON PL/SQL
https://www.udemy.com/course/lenguaje-plsql/?referralCode=3B8A67CA0AADFCFB930C
⏺ CURSO PROFESIONAL DE JAVA ORIENTADO A OBJETOS
https://www.udemy.com/course/java-orientado-a-objetos/?referralCode=ED949D58C79D27158E8D
⏺ PROGRAMACIÓN DE BASE DE DATOS ORACLE CON JAVA JDBC
https://www.udemy.com/course/java-jdbc-oracle/?referralCode=C518C8D3028403F7F6DF
✅ ENLACES DE INTERES
⏺ Cursos virtuales: https://gcoronelc.github.io
⏺ Canal de YouTube: https://www.youtube.com/DesarrollaSoftware
⏺ Blog: http://desarrollasoftware.com/
⏺ Contacto: gcoronelc@gmail.com
Diapositivas correspondientes a la parte sobre la plataforma de desarrollo Google App Engine del curso de extensión universitaria "Cloud Computing. Desarrollo de Aplicaciones y Minería Web", celebrado en la Escuela Universitaria de Ingeniería Informática de Oviedo
Aplicaciones en tiempo real con nodejs y html5programadoresmx
presentación usada en el taller realizado el 22,23 y 26 de Septiembre de 2011 en las instalaciones de @telmexhub por parte de la comunidad www.programadoreshtml.mx
Si bien los hospitales conjuntan a profesionales de salud que atienden a la población, existe un equipo de organización, coordinación y administración que permite que los cuidados clínicos se otorguen de manera constante y sin obstáculos.
Mario García Baltazar, director del área de Tecnología (TI) del Hospital Victoria La Salle, relató la manera en la que el departamento que él lidera, apoyado en Cirrus y Estela, brinda servicio a los clientes internos de la institución e impulsa una experiencia positiva en el paciente.
Conoce el Hospital Victoria La Salle
Ubicado en Ciudad Victoria, Tamaulipas, México
Inició operaciones en el 2016
Forma parte del Consorcio Mexicanos de Hospitales
Hospital de segundo nivel
21 habitaciones para estancia
31 camas censables
13 camillas
2 quirófanos
+174 integrantes en su plantilla
+120 equipos médicos de alta tecnología
+900 pacientes atendidos
Servicios de +20 especialidades
Módulos utilizados de Cirrus
HIS
EHR
ERP
Estela - Business Intelligence
Los desafíos de calidad de software que nos trae la IA y los LLMsFederico Toledo
En esta charla, nos sumergiremos en los desafíos emergentes que la inteligencia artificial (IA) y los Large Language Models (LLMs) traen al mundo de la calidad del software y el testing. Exploraremos cómo la integración, uso o diseño de modelos de IA plantean nuevos retos, incluyendo la calidad de datos y detección de sesgos, sumando la complejidad de probar algo no determinístico. Revisaremos algunas propuestas que se están llevando adelante para ajustar nuestras tareas de testing al desarrollo de este tipo de sistemas, incluyendo enfoques de pruebas automatizadas y observabilidad.
Escaneo y eliminación de malware en el equiponicromante2000
El malware tiene muchas caras, y es que los programas maliciosos se reproducen en los ordenadores de diferentes formas. Ya se trate de virus, de programas espía o de troyanos, la presencia de software malicioso en los sistemas informáticos siempre debería evitarse. Aquí te muestro como trabaja un anti malware a la hora de analizar tu equipo
7. Embrace the challengelagash.com
Asp.net Core – Startup
Transient
Transient lifetime services are
created each time they're
requested.
Scoped
Scoped lifetime services are
created once per request.
Singleton
Singleton lifetime services are
created the first time they're
requested. Every subsequent
request uses the same instance.
11. Embrace the challengelagash.com
Entity Framework Core - Estructura
Necesario para Migrations
Necesario para asp.net core
Migrations leera el connection string
del config del Proyecto web
12. Embrace the challengelagash.com
Entity Framework Core - Migrations
Recordar agregar la referencia
Proyecto donde se define el DbContext
Sera donde se agreguen el código generado
13. Embrace the challengelagash.com
Entity Framework Core –Acceso configuración
Microsoft.Extensions.Configuration.FileExtensions
Microsoft.Extensions.Configuration.Json
Para accede a la configuracion seran necesario dos librerias:
24. Embrace the challengelagash.com
Interceptors
Desde el punto de vista de Angular son un Servicio que implementa la interface HttpInterceptor
Permite manipular la solicitud http antes que sea enviada al servidor
Permite manipular respuestas http antes que retorne a la applicacion