Commit 8b00f00b authored by Nane Kratzke's avatar Nane Kratzke
Browse files

Finalized?

parent 42dc4978
......@@ -208,7 +208,28 @@ for since, msg in queue.listen_as_group("consumers"):
Committen Sie diese Änderung in das Repo und deployen Sie dann den Consumer mittels der Gitlab Pipeline erneut. Beobachten Sie nun in Lens das Verhalten im Pod Log des neuen Consumers. Auf den ersten Blick werden Sie keine Änderung feststellen. Das Verhalten des Consumers ist wie in Übung 02.
```
[...]
1.07ms | msg b'1614773969217-0': {'text': 'Hi, this is message #2066 from queueing-producer-64b575bb98-wssf2.'}
1.25ms | msg b'1614773973223-0': {'text': 'Hi, this is message #2067 from queueing-producer-64b575bb98-wssf2.'}
1.00ms | msg b'1614773974225-0': {'text': 'Hi, this is message #2068 from queueing-producer-64b575bb98-wssf2.'}
1.05ms | msg b'1614773976228-0': {'text': 'Hi, this is message #2069 from queueing-producer-64b575bb98-wssf2.'}
1.20ms | msg b'1614773981234-0': {'text': 'Hi, this is message #2070 from queueing-producer-64b575bb98-wssf2.'}
[...]
```
Ändern Sie nun in Lens unter `Deployment ->` Consumer Deployment `-> Scale` die Anzahl an Replikas auf 2. Nachdem diese Änderung durchgeführt wurde, sollten Sie das Log wie folgt ändern.
```
[...]
{b'timestamp': b'1614774102389935781', b'data': b'{"text": "Hi, this is message #2116 from queueing-producer-64b575bb98-wssf2."}'}
{b'timestamp': b'1614774109399088060', b'data': b'{"text": "Hi, this is message #2118 from queueing-producer-64b575bb98-wssf2."}'}
{b'timestamp': b'1614774115402776414', b'data': b'{"text": "Hi, this is message #2120 from queueing-producer-64b575bb98-wssf2."}'}
{b'timestamp': b'1614774122410759056', b'data': b'{"text": "Hi, this is message #2122 from queueing-producer-64b575bb98-wssf2."}'}
[...]
```
D.h. die Message Nummern steigen nun in zweier Schritten (da zwei Replikas des Consumers vorhanden sind). Wenn Sie die Replikas auf fünf setzen, werden die Messages in einem Consumer Pod, dann in fünfer Schritten steigen. Usw. Sie können dies gerne in den einzelnen Logs der Consumer Pods nachvollziehen.
## Verständnis- und Transferfragen
......@@ -217,14 +238,17 @@ Committen Sie diese Änderung in das Repo und deployen Sie dann den Consumer mit
- Welche Vor- und Nachteile hat die Persistierung von Message Queues?
- Erklären Sie Event Sourcing in eigenen Worten.
- Vergleichen Sie die Latenzzeiten bei PubSub und Queue? Gibt es nennenswerte Unterschiede?
- Vergleichen Sie die Latenzzeiten dieses Labs mit dem gRPC-Lab? Welche Technologie ist grundsätzlich performanter? Woher kommt das?
- Vergleichen Sie die Latenzzeiten dieses Labs mit dem gRPC-Lab? Welche Technologie ist grundsätzlich performanter? Woher kommt dies vermutlich?
- Wie stufen Sie den Grad der Kopplung bei Messaging/Streaming im Vergleich zu gRPC ein?
- Wie stufen Sie den Grad der Kopplung bei Messaging/Streaming im Vergleich zu REST ein?
- Blicken wir nun auf die Labs zu REST, gRPC und Streaming zurück?
- Vor dem Hintergrund loser Kopplung und Performanz:
- Blicken wir nun auf die Labs zu REST, gRPC und Streaming zurück. Vor dem Hintergrund loser Kopplung und Performanz:
- In welchen Fällen würden Sie REST einsetzen?
- In welchen Fällen würden Sie gRPC einsetzen?
- In welchen Fällen würden Sie Messaging einsetzen?
- In welchen Messaging Fällen würden Sie non-persistent Publish-Subscribe einsetzen?
- In welchen Messaging Fällen würden Sie persistent Publish-Subscribe einsetzen?
- In welchen Messaging Fällen würden Sie non-persistent Queueing einsetzen?
- In welchen Messaging Fällen würden Sie persistent Queueing einsetzen?
## Links
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment