Mam taki scenariusz:
a) rzecz dzieje się w chmurze (AWS)
b) logicznie są dwie aktywności składające się na prostą sekwencję:
- przygotowanie zbioru danych (operator podaje parametr wejściowy, zaś job realizuje złożoną logikę i generuje dane wejściowe dla kolejnego joba),
- przetworzenie zbioru danych - tu przetwarzanie może być realizowane przez ileś tam replik
Jak to w chmurze natywnie i ładnie zrealizować?
Opcja#1 - initContainers - prostota
Opcja#2 - jakieś dedykowane mechanizmy workflow. No właśnie, jakie? (google podpowiada Tekton/Argo). Czy ktoś z tego korzystał i może podzielić się wrażeniami?