Introducción a Apache Kafka con DotNetCore - Utilizado para el Meetup de la comunidad CSharpCo: https://www.meetup.com/es-ES/csharp-community/events/258086447/ https://youtu.be/W3JJ6eXoiuY
¿Cómo se despliega y autoescala Couchbase en Cloud? ¡Aprende de manera práctica!Paradigma Digital
En el pasado Meetup, presentamos Couchbase de manera general, pero ha llegado el momento de ir ahondando en los detalles del producto para conocer todas sus capacidades. Esto nos permitirá estar en mejor disposición para adoptarlo en nuestros proyectos.
En esta ocasión, se hablará de la capa de operaciones y despliegue de Couchbase aunque no con un enfoque tradicional en máquinas físicas, sino siguiendo las buenas prácticas del mercado. Explicaremos y haremos el despliegue en Google Cloud con escalabilidad horizontal elástica y automática.
Para llevar a cabo esto haremos uso, entre otras, de las siguientes tecnologías: Google Cloud, Kubernetes, Python y, por supuesto, Couchbase.
Pondremos a prueba nuestra infraestructura con una pequeña aplicación, si queréis ver los resultados, no os lo podéis perder!
MongoDB Atlas: quítate el peso que llevas sobre tus hombrosMongoDB
MongoDB Atlas es un servicio automatizado de base de datos como servicio (DBaaS) que elimina la carga operativa de tareas como parches, actualizaciones, seguridad, respaldos, recuperación de desastres, monitoreo, alertas, escalabilidad y disponibilidad al 99.999%. MongoDB Atlas ofrece alta disponibilidad y recuperación de desastres a través de 14 regiones de AWS y proporciona seguridad tanto en tránsito como en reposo.
Este documento presenta una introducción a los conceptos clave de analítica y toma de decisiones en tiempo real sobre plataformas Big Data. Cubre temas como frameworks de mensajería (Kafka, RabbitMQ, ActiveMQ), herramientas de ingestión (Flume, Nifi, Kafka Connect), frameworks de procesamiento de streams (Spark Streaming, Flink, Storm, Kafka Streams), plataformas Big Data (Amazon, Google Cloud, Azure) y seguridad. El documento también incluye una demostración práctica.
Este documento resume los conceptos clave de mensajería y registros de logs. Explica que los canales de mensajería conectan programas y transmiten mensajes de forma asíncrona, mientras que los registros de logs almacenan registros ordenados de eventos a lo largo del tiempo. También describe a Apache Kafka como una plataforma de transmisión distribuida que usa registros de logs para implementar casos de uso como colas de mensajes, procesamiento de eventos y réplicas de bases de datos.
On September 6th, we got together at Campus Madrid to learn about Kafka and KSQL. Discover with Antonio Abril, Software Architect at Stratio, how we can use Kafka to process real-time social media data.
Find out more about the event: https://www.stratio.com/blog/events/apache-kafka-and-ksql-in-action/
Wireshark es un analizador de protocolos de red gratuito y de código abierto que permite capturar paquetes de red, examinarlos de forma detallada y filtrar contenido. Se puede usar para solucionar problemas de red, desarrollar software y como herramienta educativa. Wireshark funciona en varias plataformas y permite ver todo el tráfico de red, reconstruir sesiones TCP y filtrar paquetes.
El desarrollo de aplicaciones en diversas plataformas y lenguajes en una empresa, es un caso de uso muy común que se presenta a lo largo del tiempo. Así mismo, la necesidad de poder integrar los datos de estas diversas aplicaciones, muchas veces incompatibles entre si, lleva a la necesidad de desarrollar aplicaciones que se encarguen del intercambio de estos datos para lograr un consolidado de información que aporte valor a la empresa.
Al momento de diseñar este tipo de aplicaciones, es común el observar patrones una y otra vez. Dichos patrones han sido recopilados y documentados por Gregor Hohpe y Bobby Woolf en su libro "Enterprise Integration Patterns", en el cual ofrecen una visión completa y muy bien explicada de estos patrones, así como de una nomenclatura que se ha vuelto estándar para representar estos patrones.
Apache Camel es la implementación de la gran mayoría de los patrones propuestos por Gregor y Bobby para la plataforma Java y de manera OpenSource bajo licencia Apache 2.0. Apache Camel es una alternativa a diversas herramientas comerciales para realizar aplicaciones empresariales de integración de aplicaciones.
En la conferencia se mostraran los patrones mas comunes, su notación, diseño e implementación usando Apache Camel, de igual manera se mostrara la infraestructura necesaria para ejecutar Apache Camel, los mecanismos de monitoreo de aplicaciones desarrolladas con Camel y como se puede integrar con productos de integración como Brokers de Mensajería (JMS), Enterprise Service Bus (ESB) y servidores de aplicaciones clásicos
¿Cómo se despliega y autoescala Couchbase en Cloud? ¡Aprende de manera práctica!Paradigma Digital
En el pasado Meetup, presentamos Couchbase de manera general, pero ha llegado el momento de ir ahondando en los detalles del producto para conocer todas sus capacidades. Esto nos permitirá estar en mejor disposición para adoptarlo en nuestros proyectos.
En esta ocasión, se hablará de la capa de operaciones y despliegue de Couchbase aunque no con un enfoque tradicional en máquinas físicas, sino siguiendo las buenas prácticas del mercado. Explicaremos y haremos el despliegue en Google Cloud con escalabilidad horizontal elástica y automática.
Para llevar a cabo esto haremos uso, entre otras, de las siguientes tecnologías: Google Cloud, Kubernetes, Python y, por supuesto, Couchbase.
Pondremos a prueba nuestra infraestructura con una pequeña aplicación, si queréis ver los resultados, no os lo podéis perder!
MongoDB Atlas: quítate el peso que llevas sobre tus hombrosMongoDB
MongoDB Atlas es un servicio automatizado de base de datos como servicio (DBaaS) que elimina la carga operativa de tareas como parches, actualizaciones, seguridad, respaldos, recuperación de desastres, monitoreo, alertas, escalabilidad y disponibilidad al 99.999%. MongoDB Atlas ofrece alta disponibilidad y recuperación de desastres a través de 14 regiones de AWS y proporciona seguridad tanto en tránsito como en reposo.
Este documento presenta una introducción a los conceptos clave de analítica y toma de decisiones en tiempo real sobre plataformas Big Data. Cubre temas como frameworks de mensajería (Kafka, RabbitMQ, ActiveMQ), herramientas de ingestión (Flume, Nifi, Kafka Connect), frameworks de procesamiento de streams (Spark Streaming, Flink, Storm, Kafka Streams), plataformas Big Data (Amazon, Google Cloud, Azure) y seguridad. El documento también incluye una demostración práctica.
Este documento resume los conceptos clave de mensajería y registros de logs. Explica que los canales de mensajería conectan programas y transmiten mensajes de forma asíncrona, mientras que los registros de logs almacenan registros ordenados de eventos a lo largo del tiempo. También describe a Apache Kafka como una plataforma de transmisión distribuida que usa registros de logs para implementar casos de uso como colas de mensajes, procesamiento de eventos y réplicas de bases de datos.
On September 6th, we got together at Campus Madrid to learn about Kafka and KSQL. Discover with Antonio Abril, Software Architect at Stratio, how we can use Kafka to process real-time social media data.
Find out more about the event: https://www.stratio.com/blog/events/apache-kafka-and-ksql-in-action/
Wireshark es un analizador de protocolos de red gratuito y de código abierto que permite capturar paquetes de red, examinarlos de forma detallada y filtrar contenido. Se puede usar para solucionar problemas de red, desarrollar software y como herramienta educativa. Wireshark funciona en varias plataformas y permite ver todo el tráfico de red, reconstruir sesiones TCP y filtrar paquetes.
El desarrollo de aplicaciones en diversas plataformas y lenguajes en una empresa, es un caso de uso muy común que se presenta a lo largo del tiempo. Así mismo, la necesidad de poder integrar los datos de estas diversas aplicaciones, muchas veces incompatibles entre si, lleva a la necesidad de desarrollar aplicaciones que se encarguen del intercambio de estos datos para lograr un consolidado de información que aporte valor a la empresa.
Al momento de diseñar este tipo de aplicaciones, es común el observar patrones una y otra vez. Dichos patrones han sido recopilados y documentados por Gregor Hohpe y Bobby Woolf en su libro "Enterprise Integration Patterns", en el cual ofrecen una visión completa y muy bien explicada de estos patrones, así como de una nomenclatura que se ha vuelto estándar para representar estos patrones.
Apache Camel es la implementación de la gran mayoría de los patrones propuestos por Gregor y Bobby para la plataforma Java y de manera OpenSource bajo licencia Apache 2.0. Apache Camel es una alternativa a diversas herramientas comerciales para realizar aplicaciones empresariales de integración de aplicaciones.
En la conferencia se mostraran los patrones mas comunes, su notación, diseño e implementación usando Apache Camel, de igual manera se mostrara la infraestructura necesaria para ejecutar Apache Camel, los mecanismos de monitoreo de aplicaciones desarrolladas con Camel y como se puede integrar con productos de integración como Brokers de Mensajería (JMS), Enterprise Service Bus (ESB) y servidores de aplicaciones clásicos
Este documento proporciona información sobre conceptos básicos de Internet y la web. Explica que Internet es un sistema descentralizado de redes de ordenadores conectadas a nivel mundial que ofrece servicios de comunicación de datos, mientras que la web es un sistema de distribución y recuperación de documentos basados en hipertexto. También define URLs, protocolos de red como HTTP y TCP/IP, y lenguajes como HTML, CSS y JavaScript que se usan para crear y mostrar contenido web.
Este documento presenta una charla sobre programación en Scala. Los oradores son dos ingenieros técnicos con experiencia en Scala. Cubrirán su experiencia personal con Scala, arquitecturas para sistemas en la nube y de big data usando Scala, y las herramientas y tecnologías involucradas como Spark, Kafka y Akka.
Este documento describe cómo instalar y configurar un servidor LAMP (Linux, Apache, MySQL, PHP) en Ubuntu. Explica los componentes de LAMP, incluido Linux como sistema operativo, Apache como servidor web, MySQL como gestor de base de datos y PHP como lenguaje de programación para crear sitios web dinámicos. Luego, detalla los pasos para instalar y configurar cada uno de estos componentes en Ubuntu para establecer un entorno de desarrollo web basado en LAMP.
Apache es un servidor web popular y de código abierto que surgió en 1995 como una alternativa al servidor web de la Universidad de Illinois. Apache se ha convertido en el servidor web más popular en la web, alcanzando más del 50% de cuota de mercado. Ofrece funcionalidades a través de módulos como autenticación, compresión y reescritura de URLs, y es multiplataforma, extensible y de código abierto.
Tecnologías detrás de las redes socialesBertha Peña
Este documento describe las herramientas y tecnologías utilizadas por varias redes sociales populares como Facebook, Twitter, Instagram, Pinterest, Skype, WhatsApp y Telegram. Cada red social elige diferentes frameworks, lenguajes de programación, bases de datos y protocolos dependiendo de sus necesidades de rendimiento, seguridad, escalabilidad y otras consideraciones técnicas. La conclusión es que existe una gran variedad de opciones y el desarrollador debe seleccionar cuidadosamente las herramientas apropiadas para optimizar la experiencia del usuario.
Este documento presenta una introducción a las arquitecturas sin servidores utilizando AWS Lambda. Explica cómo las arquitecturas serverless son la evolución natural de los modelos monolíticos, SOA y de microservicios. Describe los componentes clave de AWS Lambda como las funciones, eventos y el servicio administrado. También incluye ejemplos de patrones arquitectónicos serverless y mejores prácticas para AWS Lambda y Amazon API Gateway.
Apache es el servidor web más popular debido a su configurabilidad, robustez y estabilidad. Comenzó en 1995 como un proyecto de código abierto para mejorar el servidor httpd de NCSA luego de que su desarrollo se estancara. Brian Behlendorf y Cliff Skolnick coordinaron el trabajo a través de una lista de correo para establecer un espacio compartido donde los desarrolladores pudieran colaborar, haciendo crecer el proyecto Apache hasta convertirse en el servidor web dominante.
Este documento compara y resume las características de Spark, Storm, Kafka, Pig y Hive. Spark es una plataforma para procesamiento paralelo de grandes conjuntos de datos distribuidos. Storm es un sistema de procesamiento de datos en tiempo real. Kafka es un sistema de mensajería para procesamiento de datos en tiempo real. Pig y Hive son lenguajes de consultas para analizar grandes volúmenes de datos almacenados en Hadoop.
MONTAJE DE INFRAESTRUCTURA DE MÁQUINAS EN ALTA DISPONIBILIDAD VIRTUALIZADARafa Garrido
Este proyecto describe el desarrollo de un clúster de alta disponibilidad virtualizado utilizando software libre. Se utilizan cuatro máquinas virtuales con Debian como sistema operativo, unidas mediante Pacemaker y Corosync para proporcionar alta disponibilidad a un servidor web Apache. El clúster se implementa en una red interna dentro de un ordenador anfitrión para evitar conflictos de IP.
Este documento describe la instalación y configuración de un servidor web Apache en Linux. Explica que Apache es un servidor web gratuito y de código abierto que puede funcionar en múltiples sistemas operativos. También compara Apache con otros servidores web como Microsoft IIS y Nginx. Finalmente, detalla los requisitos de software y hardware necesarios para implementar un servidor web Apache en Linux.
El documento proporciona información sobre los sistemas operativos de red más comunes como Windows, Unix/Linux, Mac OS X y NetWare. Explica que estos sistemas operativos interactúan a través de protocolos como TCP/IP y que incluyen componentes como controladores de red, pilas de protocolos, servicios de red y funciones de gestión de usuarios y permisos. También resume los protocolos básicos de TCP/IP como IP, TCP, UDP e ICMP.
Este documento describe varias opciones para implementar una infraestructura híbrida que integre recursos en la nube de AWS y recursos on-premises. Explica conectividad como AWS Direct Connect y VPN, así como integración de directorios, identidad y acceso, monitoreo y operaciones. También presenta casos comunes como backup a S3, expansión de almacenamiento con AWS Storage Gateway y migración de cargas de trabajo a la nube.
1) El documento presenta información sobre Amazon Web Services (AWS), incluyendo una introducción a los tipos de servicios en la nube como IaaS, PaaS y SaaS. 2) Se describe Amazon EC2 como un servicio que ofrece servidores virtuales en la nube de forma elástica y flexible. 3) Se detallan los diferentes tipos de instancias EC2 como generales, aceleradas, optimizadas para computación e informática y optimizadas para memoria y almacenamiento.
SignalR es una librería para ASP.NET que facilita el desarrollo de funcionalidad en tiempo real mediante la comunicación bidireccional entre el servidor y el cliente. Permite que el servidor envíe contenido al cliente en cuanto esté disponible utilizando diferentes técnicas como WebSockets o pooling para apoyar navegadores antiguos. Se puede usar para agregar funcionalidad en tiempo real como en Google Docs o chats y permite diferentes modelos de comunicación como conexiones persistentes o hubs.
Eucalyptus es un software de código abierto que permite implementar entornos de computación en nube privados e híbridos compatibles con Amazon Web Services. Está compuesto por varios componentes como el controlador de la nube, controladores de clúster y nodo, que gestionan recursos de computación, almacenamiento y red de forma escalable. Eucalyptus también proporciona funciones de control de acceso y compatibilidad con AWS.
Hola, gracias por el resumen. Me gustaría saber más sobre las redes privadas que ofrece Instant Servers. ¿Puedes explicarme un poco más sobre este aspecto?
Este documento describe varios protocolos de la capa de sesión del modelo OSI, incluyendo ASP, NFS, RPC, X Window System, SCP, SQL y ZIP. Explica brevemente el propósito y funcionamiento de cada protocolo, como permitir el acceso y compartición de archivos de red (NFS), ejecutar código remoto (RPC), acceder recursos de servidores X (X Window System), cifrar datos durante la transferencia (SCP), consultar bases de datos (SQL) y asignar nombres a redes (ZIP).
Un servidor web es un programa que escucha constantemente por peticiones de clientes a través de la red y responde enviando los archivos solicitados usando el protocolo HTTP. Un servidor típicamente envía archivos HTML, imágenes y otros recursos a los clientes y ejecuta programas CGI para generar contenido dinámico. Los servidores populares incluyen Apache para Linux y Windows, e IIS para Windows.
Este documento proporciona información sobre conceptos básicos de Internet y la web. Explica que Internet es un sistema descentralizado de redes de ordenadores conectadas a nivel mundial que ofrece servicios de comunicación de datos, mientras que la web es un sistema de distribución y recuperación de documentos basados en hipertexto. También define URLs, protocolos de red como HTTP y TCP/IP, y lenguajes como HTML, CSS y JavaScript que se usan para crear y mostrar contenido web.
Este documento presenta una charla sobre programación en Scala. Los oradores son dos ingenieros técnicos con experiencia en Scala. Cubrirán su experiencia personal con Scala, arquitecturas para sistemas en la nube y de big data usando Scala, y las herramientas y tecnologías involucradas como Spark, Kafka y Akka.
Este documento describe cómo instalar y configurar un servidor LAMP (Linux, Apache, MySQL, PHP) en Ubuntu. Explica los componentes de LAMP, incluido Linux como sistema operativo, Apache como servidor web, MySQL como gestor de base de datos y PHP como lenguaje de programación para crear sitios web dinámicos. Luego, detalla los pasos para instalar y configurar cada uno de estos componentes en Ubuntu para establecer un entorno de desarrollo web basado en LAMP.
Apache es un servidor web popular y de código abierto que surgió en 1995 como una alternativa al servidor web de la Universidad de Illinois. Apache se ha convertido en el servidor web más popular en la web, alcanzando más del 50% de cuota de mercado. Ofrece funcionalidades a través de módulos como autenticación, compresión y reescritura de URLs, y es multiplataforma, extensible y de código abierto.
Tecnologías detrás de las redes socialesBertha Peña
Este documento describe las herramientas y tecnologías utilizadas por varias redes sociales populares como Facebook, Twitter, Instagram, Pinterest, Skype, WhatsApp y Telegram. Cada red social elige diferentes frameworks, lenguajes de programación, bases de datos y protocolos dependiendo de sus necesidades de rendimiento, seguridad, escalabilidad y otras consideraciones técnicas. La conclusión es que existe una gran variedad de opciones y el desarrollador debe seleccionar cuidadosamente las herramientas apropiadas para optimizar la experiencia del usuario.
Este documento presenta una introducción a las arquitecturas sin servidores utilizando AWS Lambda. Explica cómo las arquitecturas serverless son la evolución natural de los modelos monolíticos, SOA y de microservicios. Describe los componentes clave de AWS Lambda como las funciones, eventos y el servicio administrado. También incluye ejemplos de patrones arquitectónicos serverless y mejores prácticas para AWS Lambda y Amazon API Gateway.
Apache es el servidor web más popular debido a su configurabilidad, robustez y estabilidad. Comenzó en 1995 como un proyecto de código abierto para mejorar el servidor httpd de NCSA luego de que su desarrollo se estancara. Brian Behlendorf y Cliff Skolnick coordinaron el trabajo a través de una lista de correo para establecer un espacio compartido donde los desarrolladores pudieran colaborar, haciendo crecer el proyecto Apache hasta convertirse en el servidor web dominante.
Este documento compara y resume las características de Spark, Storm, Kafka, Pig y Hive. Spark es una plataforma para procesamiento paralelo de grandes conjuntos de datos distribuidos. Storm es un sistema de procesamiento de datos en tiempo real. Kafka es un sistema de mensajería para procesamiento de datos en tiempo real. Pig y Hive son lenguajes de consultas para analizar grandes volúmenes de datos almacenados en Hadoop.
MONTAJE DE INFRAESTRUCTURA DE MÁQUINAS EN ALTA DISPONIBILIDAD VIRTUALIZADARafa Garrido
Este proyecto describe el desarrollo de un clúster de alta disponibilidad virtualizado utilizando software libre. Se utilizan cuatro máquinas virtuales con Debian como sistema operativo, unidas mediante Pacemaker y Corosync para proporcionar alta disponibilidad a un servidor web Apache. El clúster se implementa en una red interna dentro de un ordenador anfitrión para evitar conflictos de IP.
Este documento describe la instalación y configuración de un servidor web Apache en Linux. Explica que Apache es un servidor web gratuito y de código abierto que puede funcionar en múltiples sistemas operativos. También compara Apache con otros servidores web como Microsoft IIS y Nginx. Finalmente, detalla los requisitos de software y hardware necesarios para implementar un servidor web Apache en Linux.
El documento proporciona información sobre los sistemas operativos de red más comunes como Windows, Unix/Linux, Mac OS X y NetWare. Explica que estos sistemas operativos interactúan a través de protocolos como TCP/IP y que incluyen componentes como controladores de red, pilas de protocolos, servicios de red y funciones de gestión de usuarios y permisos. También resume los protocolos básicos de TCP/IP como IP, TCP, UDP e ICMP.
Este documento describe varias opciones para implementar una infraestructura híbrida que integre recursos en la nube de AWS y recursos on-premises. Explica conectividad como AWS Direct Connect y VPN, así como integración de directorios, identidad y acceso, monitoreo y operaciones. También presenta casos comunes como backup a S3, expansión de almacenamiento con AWS Storage Gateway y migración de cargas de trabajo a la nube.
1) El documento presenta información sobre Amazon Web Services (AWS), incluyendo una introducción a los tipos de servicios en la nube como IaaS, PaaS y SaaS. 2) Se describe Amazon EC2 como un servicio que ofrece servidores virtuales en la nube de forma elástica y flexible. 3) Se detallan los diferentes tipos de instancias EC2 como generales, aceleradas, optimizadas para computación e informática y optimizadas para memoria y almacenamiento.
SignalR es una librería para ASP.NET que facilita el desarrollo de funcionalidad en tiempo real mediante la comunicación bidireccional entre el servidor y el cliente. Permite que el servidor envíe contenido al cliente en cuanto esté disponible utilizando diferentes técnicas como WebSockets o pooling para apoyar navegadores antiguos. Se puede usar para agregar funcionalidad en tiempo real como en Google Docs o chats y permite diferentes modelos de comunicación como conexiones persistentes o hubs.
Eucalyptus es un software de código abierto que permite implementar entornos de computación en nube privados e híbridos compatibles con Amazon Web Services. Está compuesto por varios componentes como el controlador de la nube, controladores de clúster y nodo, que gestionan recursos de computación, almacenamiento y red de forma escalable. Eucalyptus también proporciona funciones de control de acceso y compatibilidad con AWS.
Hola, gracias por el resumen. Me gustaría saber más sobre las redes privadas que ofrece Instant Servers. ¿Puedes explicarme un poco más sobre este aspecto?
Este documento describe varios protocolos de la capa de sesión del modelo OSI, incluyendo ASP, NFS, RPC, X Window System, SCP, SQL y ZIP. Explica brevemente el propósito y funcionamiento de cada protocolo, como permitir el acceso y compartición de archivos de red (NFS), ejecutar código remoto (RPC), acceder recursos de servidores X (X Window System), cifrar datos durante la transferencia (SCP), consultar bases de datos (SQL) y asignar nombres a redes (ZIP).
Un servidor web es un programa que escucha constantemente por peticiones de clientes a través de la red y responde enviando los archivos solicitados usando el protocolo HTTP. Un servidor típicamente envía archivos HTML, imágenes y otros recursos a los clientes y ejecuta programas CGI para generar contenido dinámico. Los servidores populares incluyen Apache para Linux y Windows, e IIS para Windows.
Similar a Introducción a Apache Kafka con DotNetCore (20)
Examen de Selectividad. Geografía junio 2024 (Convocatoria Ordinaria). UCLMJuan Martín Martín
Examen de Selectividad de la EvAU de Geografía de junio de 2023 en Castilla La Mancha. UCLM . (Convocatoria ordinaria)
Más información en el Blog de Geografía de Juan Martín Martín
http://blogdegeografiadejuan.blogspot.com/
Este documento presenta un examen de geografía para el Acceso a la universidad (EVAU). Consta de cuatro secciones. La primera sección ofrece tres ejercicios prácticos sobre paisajes, mapas o hábitats. La segunda sección contiene preguntas teóricas sobre unidades de relieve, transporte o demografía. La tercera sección pide definir conceptos geográficos. La cuarta sección implica identificar elementos geográficos en un mapa. El examen evalúa conocimientos fundamentales de geografía.
José Luis Jiménez Rodríguez
Junio 2024.
“La pedagogía es la metodología de la educación. Constituye una problemática de medios y fines, y en esa problemática estudia las situaciones educativas, las selecciona y luego organiza y asegura su explotación situacional”. Louis Not. 1993.
Ofrecemos herramientas y metodologías para que las personas con ideas de negocio desarrollen un prototipo que pueda ser probado en un entorno real.
Cada miembro puede crear su perfil de acuerdo a sus intereses, habilidades y así montar sus proyectos de ideas de negocio, para recibir mentorías .
SEMIOLOGIA DE HEMORRAGIAS DIGESTIVAS.pptxOsiris Urbano
Evaluación de principales hallazgos de la Historia Clínica utiles en la orientación diagnóstica de Hemorragia Digestiva en el abordaje inicial del paciente.
3. ¿Qué es Apache
Kafka?
C# Community
• Sistema de intermediación de mensajes basado en
el modelo publicador/suscriptor.
• Una plataforma unificada, de alto rendimiento y
de baja latencia para la manipulación en tiempo
real de fuentes de datos
• Un sistema de mensajes Open Source basado en
una arquitectura P2P (arquitectura Peer to Peer).
• Una plataforma de streaming distribuido que se
puede utilizar para compilar canalizaciones de
datos de streaming en tiempo real y aplicaciones.
• Escrito en Scala/Java
6. ¿Cuándo elegir uno u otr
RabbitMQ es un agente de mensajes rápidos escrito en Erlang. Sus ricas
capacidades de enrutamiento y la capacidad de ofrecer reconocimientos por
mensaje son razones importantes para usarlo. RabbitMQ también
proporciona una interfaz web fácil de usar que puede usar para monitorear
su servidor RabbitMQ.
Sin embargo, cuando se trata de soportar grandes implementaciones, Kafka
se escala mucho mejor que RabbitMQ; todo lo que necesita hacer es agregar
más particiones. También se debe tener en cuenta que los clústeres
RabbitMQ no tolera particiones de red. Si planea agrupar servidores
RabbitMQ, debe usar federaciones.
Kafka también supera claramente a RabbitMQ en el rendimiento. Una sola
instancia de Kafka puede manejar 100K mensajes por segundo, en
comparación con 20K mensajes por segundo para RabbitMQ.
Kafka también es una buena opción cuando desea transmitir mensajes con
7. Coordinador de procesos distribuidos
Gestión de configuración
Consenso
Bloqueos
Monitoreo
C# Community
9. KSQLhttps://www.confluent.io/product/ksql/
Streaming SQL For
Apache Kafka
Motor de streaming open-source
distribuido y en real-time sobre Apache
Kafka que permite programar los
streams en SQL, evitando la
programación de código (Tradicional).
Fuente: https://unpocodejava.com/2018/03/28/un-poco-de-ksql-streaming-sql-for-apache-kafka/
C# Community
12. Sitio oficial de Apache Kafka:
https://kafka.apache.org/
Sitio oficial de Confluent:
https://www.confluent.io/
El mejor tutorial de Kafka (Inglés):
https://data-flair.training/blogs/apache-kafka-tutorial/
Tutorial de Kafka en español (Victor Madrid):
https://enmilocalfunciona.io/aprendiendo-apache-kafka-parte-1/
https://enmilocalfunciona.io/aprendiendo-apache-kafka-parte-2-2/
https://enmilocalfunciona.io/aprendiendo-apache-kafka-parte-3-conceptos-ba
https://enmilocalfunciona.io/aprendiendo-apache-kafka-parte-4/
C# Community