Ładowanie dużych plików w Spring (1-10GB)

Ładowanie dużych plików w Spring (1-10GB)
Władyslaw Parchomenko
Władyslaw Parchomenko
  • Rejestracja:ponad 6 lat
  • Ostatnio:8 miesięcy
  • Postów:63
0

Cześć ! Mam task, ładować pliki 1-10GB na cloud storage.

Ja wyłączyłem multipart i zrobiłem prez commons-fileupload i common-io (kod poniżej):

Kopiuj
    public URL save(HttpServletRequest request) {
        if (!ServletFileUpload.isMultipartContent(request))
            throw new RequestIsNotMultipartException("Request is not a multipart content");

        try {
            FileItemIterator it = new ServletFileUpload().getItemIterator(request);
            while (it.hasNext()) {
                FileItemStream fis = it.next();
                long[] size = new long[]{0};
                String path = FileUtil.createPath();
                IOUtils.copy(fis.openStream(), new FileOutputStream(path + fis.getName()) {
                    @Override
                    public void write(int arg0) {
                        ++size[0];
                    }
                });
            }
        } catch (FileUploadException | IOException e) {
            throw new RuntimeException("Exception during uploading file into storage");
        }
        return null;
    }

Teraz rozważam opcję żeby się nauczyć Spring Batch i użyć w swoim projekcie. O ile wiem, ten framework służy do pobrania/ładowania plików 1TB+.

Pytanie: Czy warto korzystać ze Spring Batch dla plików 1-10GB albo jednak zostać na jak na moim screenie?

Charles_Ray
  • Rejestracja:około 17 lat
  • Ostatnio:około 2 godziny
  • Postów:1875
1

Plik na GCS możesz wysłać bezpośrednio używając np. gcloud, po co chcesz to przepuszczać przez swój serwlet?


”Engineering is easy. People are hard.” Bill Coughran
edytowany 1x, ostatnio: Charles_Ray
Władyslaw Parchomenko
Władyslaw Parchomenko
W naszym przypadku to jest przez OpenStack API, Swift storage. Czyli teraz w moim przypadku ja ładuję na swój serwera plik, a potem na chmurę, chyba to nie jest prawidłowe podejście? Można od razu na chmurę?
Charles_Ray
No macie te pliki na jakichś swoich maszynach i można je bezpośrednio stamtąd wrzucić na GCS, może opisz w kolejnym poście jak wyglada architektura rozwiązania i co chcesz osiągnąć
Władyslaw Parchomenko
Władyslaw Parchomenko
Już
Władyslaw Parchomenko
Władyslaw Parchomenko
  • Rejestracja:ponad 6 lat
  • Ostatnio:8 miesięcy
  • Postów:63
0

No generalnie mamy chmurę OpenStack (ochydna rzecz) i object storage (Swift).

Osoba z banku będzie ładować pliki o rozmiarze 1-10GB na chmurę przez aplikację. Na moim pierwszym projekcie robiliśmy to przez multipart, ale tam były pliki do 50mb. było tak że ładujemy zpoczątku na serwer, a potem do Chmury.

Jednak z tego co rozumiem, mówisz że można wprost to chmury przetwarzać plik(ale jest duży, więc będzie kawałkami przesyłany)

Jakie podejście uważasz za najlepsze?

Dzięki :)

Charles_Ray
  • Rejestracja:około 17 lat
  • Ostatnio:około 2 godziny
  • Postów:1875
1

Kiedy masz młotek, wszystko wyglada jak gwóźdź. Przedstawione rozwiązanie nie broni się chociażby z powodu dużego zużycia pamięci. Moim zdaniem pliki powinny być wrzucane „gdzieś”, skąd jakimś cronem byłyby przesyłane na GSC, tj. bez żadnego pośredniego interfejsu webowego.

Może nawet da się zestawić automatyczny import z Google Drive https://philipplies.medium.com/transferring-data-from-google-drive-to-google-cloud-storage-using-google-colab-96e088a8c041

Na pewno szukałbym prostego rozwiązania wokół gsutil.


”Engineering is easy. People are hard.” Bill Coughran
edytowany 2x, ostatnio: Charles_Ray
Zobacz pozostałe 2 komentarze
Władyslaw Parchomenko
Władyslaw Parchomenko
Jest jakieś inne podejście? Przetestowałem swój sposób, działa. Nie jestem pewiem czy jest efektywny
Władyslaw Parchomenko
Władyslaw Parchomenko
Będziemy je także parsować w zależności od sytuacji oraz (chyba) pobierać ze storage
Charles_Ray
Nic z tego nie rozumiem :) spróbuj w ten sposób przesłać plik 1TB, najlepiej ze 2 jednocześnie - powodzenia
Władyslaw Parchomenko
Władyslaw Parchomenko
No właśnie :d to nie będą pliki 1TB, a maksymalnie 10GB, dlatego bym to zrobił przez HTTP
Charles_Ray
10x10 i już masz 100GB, zróbcie testy
Shalom
  • Rejestracja:około 21 lat
  • Ostatnio:prawie 3 lata
  • Lokalizacja:Space: the final frontier
  • Postów:26433
2

Ja osobiście sprawdziłbym jakie API ma ta chmura gdzie to chcesz wrzucać, bo znajac życie to jest tam jakis klient któremu można podać data stream, albo który obsługujesz POSTem i możesz spokojnie wziać sobie httprequest, i pisać bezpośrednio do outputstreamu. W pierwszym przypadku miałbyś coś w stylu someCloudClient.uploadData(cośtam, request.getInputStream()) a w drugim przypadku np. użyłbyś jakiegoś springowego StreamingResponseBody i skopiował jeden stream do drugiego.

Mnie zastanawia tylko czy jest sens w ogóle pchać te dane przez wasz serwer. Może wystarczyłby jakiś webowy klient w JS który bezpośrednio pchałby te dane od razu do clouda?


"Nie brookliński most, ale przemienić w jasny, nowy dzień najsmutniejszą noc - to jest dopiero coś!"
Charles_Ray
Ja bym zrobił krok wstecz i się w ogóle zastanowił, dlaczego nie wystarczy https://cloud.google.com/storage/docs/gsutil
Shalom
Pewnie dlatego ze te pliki ma wrzucać osoba nie-techniczna i potrzebuje do tego jakiegoś GUI. Bardzo możliwe też że taka osoba nie powinna mieć kluczy do GCP ;)
Charles_Ray
Tez o tym pomyślałem - dlatego może wrzucać na jakiś dysk
Korges
  • Rejestracja:około 5 lat
  • Ostatnio:około 2 godziny
  • Postów:569
0

Spring Batch nie służy do ładowania plików 10Gb tylko do szeroko rozumianego przetwarzania danych. Wrzuca się mu jakieś dane, bierze je po części, przetwarza, i na koniec gdzieś przenosi. Tyle. Jestem prawie pewien że gdybyś na raz próbował załadować cały plik 10gb w pamięci to apka dostała by zawału.

edytowany 2x, ostatnio: Korges

Zarejestruj się i dołącz do największej społeczności programistów w Polsce.

Otrzymaj wsparcie, dziel się wiedzą i rozwijaj swoje umiejętności z najlepszymi.