Usando a Kafka

Apache Kafka es un almacén de eventos distribuido y una plataforma de procesamiento de flujos. El proyecto tiene como objetivo proporcionar una plataforma unificada, de alto rendimiento y baja latencia para manejar fuentes de datos en tiempo real.

Para ejecutar Apache Kafka localmente usaremos tres contenedores (Kafka, Zookeeper, Kafdrop) organizados dentro de un archivo llamado “docker Compose”.

Después de iniciar los contenedores, espere unos minutos y use cualquier herramienta compatible con Apache Kafka para conectarse mediante el puerto tcp 29092. Para facilitar las pruebas en el entorno de desarrollo, este archivo de docker Compose viene con la herramienta Kafdrop.

Siga los pasos a continuación para comenzar con Kafka:

  1. Clonar el repositorio
    git clone https://github.com/devprime/kafka
  2. Para empezar
    docker-compose up -d
  3. Enumere los tres contenedores activos
    docker ps
  4. Para terminar
    docker-compose down

Empezando a configurar temas en Kafka
Los microservicios basados en DevPrime se conectan automáticamente a servicios de transmisión como Kafka y, en los ejemplos, usamos algunos temas estándar como orderevents y paymentevents.

  1. Abra Kafdrop en el navegador en http://localhost:9000
  2. Vaya a la opción “Tema” y Nuevo agregando “orderevents” y luego “paymentevents”
  3. Revisa los temas creados

Kafdrop

Visualización de mensajes en Kafka
Al utilizar el microservicio, enviaremos eventos a través de Kafka y los visualizaremos a través de la herramienta Kafdrop haciendo clic en el tema y luego en “Ver mensajes”.

Kafdrop

Última modificación October 17, 2023 (e38ae05b)