Hadoop - mozliwosci

Hadoop - mozliwosci
Julian_
  • Rejestracja:około 8 lat
  • Ostatnio:ponad 4 lata
  • Postów:1703
1

Kto z Was pracuje jako hadoopek?
Czym sie zajmujecie? Jakie mozliwosci na rynku pracy daje znajomosc hadoopa?

Z tego co przesledzilem wydaje mi sie ze mozna zajmowac sie np. raportowaniem, administrowaniem, analiza danych, zasilaniem danych.
W ogloszeniach ze slowem kluczowym hadoop przewijaja sie czesto takie stanowiska jak big data engineer. To cos w stylu chlopca od ETL czy moze cos wiecej?

edytowany 3x, ostatnio: Julian_
katelx
  • Rejestracja:prawie 10 lat
  • Ostatnio:4 miesiące
  • Lokalizacja:Hong Kong
2

hadoop to tak 1/4 tego co robie w obecnej pracy.
zajmuje sie dostarczaniem danych rynkowych dla subskrybentow (standardowe real-time l1/l2 ale tez duzo bazujacych na statystyce/ml).
raporty/admin/analiza/etl to czesc obowiazkow, ale to raczej glupoty ktore nie zajmuja za duzo czasu procentowo, tzn raz robisz, wrzucasz do schedulera i dziala.
mysle ze znajomosc hadoopa jest bardziej na zasadzie "nice to have" w cv a nie cos co robisz full time, bo po pierwze to chyba malo kto szuka kogos wylacznie do tego a po drugie nudne to ;)

PI
  • Rejestracja:ponad 5 lat
  • Ostatnio:ponad 4 lata
  • Postów:38
2

Teraz jest moda bardziej na Spark.

Julian_
  • Rejestracja:około 8 lat
  • Ostatnio:ponad 4 lata
  • Postów:1703
0
Pikex napisał(a):

Teraz jest moda bardziej na Spark.

Spark jest czescia ekosystemu Hadoop.
Opowiesz o mozliwosciach Sparkowcow?

PL
Spark nie jest częścią ekosystemu Hadoop
PI
  • Rejestracja:ponad 5 lat
  • Ostatnio:ponad 4 lata
  • Postów:38
0

Opowiesz o mozliwosciach Sparkowcow?

Jest sporo pracy, glownie w instytucjach finansowych przy przewalaniu danych.

PL
Spark świetnie się sprawdza przy przetwarzaniu danych tzw "near real time".
Julian_
  • Rejestracja:około 8 lat
  • Ostatnio:ponad 4 lata
  • Postów:1703
0

Przewalanie danych to raportowanie i etl?

PL
Zdefiniuj "przewalanie"
Julian_
No wlasnie pytam o to @Pikex
katelx
  • Rejestracja:prawie 10 lat
  • Ostatnio:4 miesiące
  • Lokalizacja:Hong Kong
0
Pikex napisał(a):

Teraz jest moda bardziej na Spark.

przeciez spark jest czescia hadoopa. zakladam ze jak ktos mowi o znajomosci hadoopa to przynajmniej na poziomie usera zna takie rzeczy jak spark, hdfs, yarn, hive, kafka, flume, hbase itd itp
nie wiem jak to wyglada w innych miejscach bo nigdy nie szukalam pracy jako "data cokolowiek", u mnie wygladalo to tak ze kupilismy kilkadziesiat maszyn, skonfigurowalismy je w klaster, poinstalowalismy hadoopowe komponenty i teraz poza okazjonalnymi optymalizacjami czy failami interakcja z hadoopem sprowadza sie do:

  1. konfiguracja i deploy serwisow java/scala/python do schedulera
  2. pisanie sparkowych query/modeli
Zobacz pozostałe 2 komentarze
PL
Spark nie jest częścią Hadoopa.
katelx
@PinkLion mozna sobie robic flame na ten temat, ale w praktyce to w sumie jest czescia hadoopa...
PL
@katelx po sprawdzeniu znaczenia użytego przez Ciebie słowa "flame" śmiem stwierdzić, iż błędnie zrozumiałaś moją wypowiedź. Moje jakże proste zdanie jeśli chodzi o gramatykę, bez dodatkowo ukrytego kontekstu oraz nienacechowane emocjami jest po prostu stwierdzeniem oczywistych faktów. nie wiem gdzie się doszukałaś negatywnego znaczenia w moim zdaniu takiego jak "abusive" lub "vitriolic", że aż sięgnęłaś po słowo "flame". Spark jest jednym z największych frameworków open sourcowych powstałych niezależnie od Hadoop'a. Tak, Spark współpracuje z ekosystemem Hadoop.
PL
Nie odbierz mnie źle i popraw mnie jeśli jestem w błędzie. Używałem Spark'a w wersji 'stand alone' bez konieczności używania Hadoopa. Używałem Spark'a w wersji na klastrze z Yarn oraz HDFS więc z użyciem Hadoopa w minimalnej postaci. Z oficjlanej strony apache spark: "You can run Spark using its standalone cluster mode, on EC2, on Hadoop YARN, on Mesos, or on Kubernetes. (...) In addition to running on the Mesos or YARN cluster managers, Spark also provides a simple standalone deploy mode."
katelx
@PinkLion nie twierdze ze robisz flame, twierdze ze mozna robic na ten temat bo "definicja" hadoopa jest dosc luzna
PI
  • Rejestracja:ponad 5 lat
  • Ostatnio:ponad 4 lata
  • Postów:38
1
Julian_ napisał(a):

Przewalanie danych to raportowanie i etl?

Bierzesz dane z kilku zrodel laczysz je, filtrujesz i wypluwasz dalej. ETL, SQL i model ;)

edytowany 1x, ostatnio: Pikex
PL
zapomniałeś o preprocessingu wraz z przygotowaniem zmiennych
PI
  • Rejestracja:ponad 5 lat
  • Ostatnio:ponad 4 lata
  • Postów:38
1
katelx napisał(a):
Pikex napisał(a):

Teraz jest moda bardziej na Spark.

przeciez spark jest czescia hadoopa

Wiem, ale mozna go uzywac bez Hadoopa.

edytowany 1x, ostatnio: Pikex
dzika_kuna
  • Rejestracja:prawie 10 lat
  • Ostatnio:około 5 lat
  • Postów:54
1

Sparka, to myślałem Julian, że już dawno znasz :P

Opowiem, jak to wygląda w data science. Czasami trafiają się takie asy w branży danologów, które zatrzymały się na etapie small data. Z jakiegoś dziwnego powodu prędzej czy później gdzieś znajdują pracę. Zauważyłem, że zazwyczaj są to osoby po SGH, albo po jakiejś innej socjologii czy statystyce stosowanej. Zagadka rozwiązała się, czy gdy rekruterka przez przypadek wysłała do mnie CC: z korespondencją innej osoby, dzięki czemu poznałem jej zarobki. Okazało się, że co niektórzy są tańsi od karaluchów, tańsi od meksykanów, więc ich zatrudniają.

Ktoś wyżej pisał coś o zarządzaniu klastrem. Współczuje tym którzy nie mają devops/mlops i data inżynierów w firmie.


Lubię agrest. I malinowe chruśniaki.
Leser. Zdolny, ale leser.
Julian_
A co to jest small data a co to big data? Pustoslowie i tyle.
dzika_kuna
dzika_kuna
faktycznie, dla każdego będzie inny threshold, dla mnie to mniej niż 10 mln rekordów
Julian_
A czym sie rozni praca analityka danych z 10 tys. rekordow od pracy z 10 mln. rekordow?
PL
trudno powiedzieć czy 10k czy 10000k danych to big data czy nie. to jak jakby ktoś powiedział, że przejechał 30 km. w godzinę? w 10minut? jednorazowo? czy kilka razy dziennie czy non stop? itd. Big Data ~= jaka ilość danych, jakie typy danych są przetwarzane w jakim czasie oraz jak często?
BZ
Moim zdaniem Big Data zaczyna się tam gdzie jest tyle danych że nie można ich przetwarzać i przechowywać w klasyczny sposób tylko na jakiś rozproszonych systemach i innych dziwactwach.
katelx
  • Rejestracja:prawie 10 lat
  • Ostatnio:4 miesiące
  • Lokalizacja:Hong Kong
3
dzika_kuna napisał(a):

Ktoś wyżej pisał coś o zarządzaniu klastrem. Współczuje tym którzy nie mają devops/mlops i data inżynierów w firmie.

mozesz rozwinac? devops wydaje mi sie typowo korpo wynalazkiem, kolejna sztuczna i bezuzyteczna na poziomie indywidualnego zespolu rola zaraz obok BA, QA i architekta.
w mojej firmie jest 10 osob technicznych. trzymanie dedykowanego devopsa zeby zainstalowal teamcity czy kafke to bylby niezly zart...

TD
W moim poprzednim projekcie devopsi zajmowali sie głównie infrastruktura i monitoringiem (stawianie i utrzymywanie). Roboty mieli tyle ze jakos nie widze zeby ktos mial sie tym zajmowac na boku.
ST
Jeśli masz zespół "DevOps" to nic się nie zmieniło, to wciąż infra (tyle, że ktoś im może wreszcie pozwolił się nauczyć Python'a). Miało być przejście z developerów, których nie obchodzi produkcja i opsów, którzy przestawali się do Ciebie odzywać na dźwięk słowa release, do systemu w którym CI/CD będzie możliwe, developerzy trochę więcej zwrócą uwagi na to jak apps będą działać (np. pomyślą o deploymencie, zrobią CI/CD), a infra powie im co mogą zoptymalizować, zabezpieczyć, jak lepiej wykorzystać sprzęt, itd - niestety tak jak pisze @katelx - ostał się jedyne buzzword.
cmd
Rok 2019 a ludzie dalej myślą że devops to stanowisko/rola. Jeśli nie macie dedykowanej osoby od infry i w zasadzie każdy z was przy tym grzebie to właśnie jest devops :)
somekind
@katelx - czemu QA niby jest bezużyteczny? Dla mnie to najbardziej sensowne stanowisko zaraz po programiście (oczywiście, o ile to jest sensowny QA, a nie tester wbijający defekty do Jira). @cmd: to nie ludzie myślą, że devops to stanowisko, to managerowie tak myślą. ;)
katelx
@somekind: zakladam ze oczywistym jest ze nie mowimy o sensownych stanowiskach, tylko ich korpo-wersjach. czyli QA na zasadzie: "programisto, napisz mi przypadki testowe, ja je przeklikam i jak cos nie zadziala to zaloze jiry"
B2
  • Rejestracja:ponad 7 lat
  • Ostatnio:dzień
  • Postów:12
8

Z moich obserwacji Hadoop jako stack (YARN + HDFS + Hive) to raczej jest dalej używany w większości w instytucjach finansowych (banki, ubezpieczenia, ...), ale bardziej z powodów prawnych niż technicznych. Tak przynajmniej wynika z dyskusji z ludźmi po meetupach. I jeśli Hadoop, to rzadko jako samo utrzymywalny stack, a częściej jako dystrybucja Cloudera Hortonworks. Ku precyzji, to co napiszę, to wynik mojej obserwacji rynku francuskiego, a przez "obserwuję" mam na myśli oferty o pracę, konferencje, blogi.

Jeśli chodzi o szerzej rozumiane Big Data (chociaż wolę termin data engineering), to firmy skłaniają się w stronę cloudowych rozwiązań. Dlaczego?

  • koszty devops - trudno znaleźć devopsów, a tych dobrych jeszcze trudniej. Minimalizuje się więc koszty infrastruktury w projektach.
  • scaling - to, że dzisiaj potrzebujesz 10 node'ów, żeby przetworzyć 1TB nie znaczy, że jutro jak będziesz miał 2TB, to łatwo dodasz sobie 10 kolejnych. W chmurze takie dylematy są o wiele mniej poważne - istnieją, bo nie możesz sobie w nieskończoność dodawać node'ów, tworzyć 2 tysięcy klastry itd, bo na wszystko prawie są limity, ale skalowalność jest o wiele bardziej elastyczna
  • ludzie - mało kogo dzisiaj bawi praca w stylu "kurcze, mam 10% miejsca na dysku, musimy dodać nową maszynę - piszę ticket do IT, IT kupuje serwer, a ja przez 5 dni biję się z myślami, jak grać z danymi, żeby ich nie stracić" (karykatura, ale coś w tym jest)

Oczywiście, nie umniejszam znajomości Hadoop. Sam od tego zaczynałem i się cieszę, bo można znaleźć wiele odpowiedników w serwisach chmurowych, a część z nich jest nawet implementowana (np. EMR w AWS). Ale nie samym Hadoopem człowiek żyje i tak:

  • MapReduce - nie widziałem, żeby ktoś tego dzisiaj wymagał. Spark z OS, trochę mniej Flink, a z cloudowych to Dataflow i Databricks (serverlessowe rozwiązania)
  • YARN - Kubernetes wydaje się go wygryzać do wysyłania jobów na cluster - nie mylić ze schedulingiem
  • Oozie - Airflow jest o wiele bardziej elastyczny, przypomina coś w rodzaju Infrastructure As Code, nawet jeśli chodzi tylko o joby, które schedulujesz
  • Hive - z moich obserwacji jeden z ostatnich bastionów Hadoopa, który jako tako jest na rynku wymagany
  • HDFS - zastąpiony przez tańsze w utrzymaniu serwisy do przechowywania obiektów (S3, GCS)
  • HBase - BigTable, DynamoDB, łatwo skalowalne, DynamoDB oferuje nawet możliwość streamingu zapisywanych danych
  • streaming broker - jeśli mnie pamięć nie myli, nie istnieje w stacku Hadoopa

Reasumując, Hadoop jako narzędzie do pierwszej pracy - nie. Raczej radziłbym opanować serwisy data jednego z chmurowych dostawców (GCP wydaje się zyskiwać na popularnośći, ostatnio nawet Twitter na niego przeszedł (https://cloud.google.com/twitter/). A co do OS rozwiązań, to:

  • Kafka do streamingu
  • Spark do przetwarzania danych
  • Kubernetes do wykonywania programów (resurce manager)
  • i później jakieś bazy NoSQL, co kto woli, ja zaczynałem od Cassandry (łatwiej zrozumieć DynamoDB), Elasticsearch (do dokumentów i wyszukiwarki). Pracowałem też z Neo4J, ale akurat ciężko się go skalowało
  • nieśmiertelny SQL - ignorowałem go przez długi czas, ale po jednym projekcie typowo ETL-owym, bazującym na SQL, przekonałem się jakie możliwości oferuje
  • Python i Scala jeśli piszez w Javie - subiektywne odczucie, ale te 2 języki dzisiaj są najczęściej przypisywane do przetwarzania danych

Jeśli jesteś ciekawy info o tych technologiach, to bloguję o nich, i o przetwarzaniu danych, na https;//www.waitingforcode.com .

No i to tyle :)

edytowany 1x, ostatnio: bartosz25
Julian_
  • Rejestracja:około 8 lat
  • Ostatnio:ponad 4 lata
  • Postów:1703
0

A co sadzicie o Apache Sqoop?

katelx
  • Rejestracja:prawie 10 lat
  • Ostatnio:4 miesiące
  • Lokalizacja:Hong Kong
0
bartosz25 napisał(a):

Z moich obserwacji Hadoop jako stack (YARN + HDFS + Hive) to raczej jest dalej używany w większości w instytucjach finansowych (banki, ubezpieczenia, ...), ale bardziej z powodów prawnych niż technicznych.

to fakt, wlasnie to jest glownym powodem dla ktorego postawilismy to u siebie, umowy z klientami (glownie hedge funds) nie bardzo pozwalaja na wysylanie danych byle gdzie. uzywamy tez azure ale wylacznie do danych agregowanych, mamy audyt ktory to sprawdza.

Jeśli chodzi o szerzej rozumiane Big Data (chociaż wolę termin data engineering), to firmy skłaniają się w stronę cloudowych rozwiązań. Dlaczego?

ciezko mi uwierzyc zeby struktura mojego zespolu oraz jednoczesne zarzadzanie klastrem (tickety! :), etl i wlasciwymi appkami klienckimi moglo sie wydarzyc w typowym banku inwestycyjnym, po prostu typowy model zarzadania it w takiej organizacji zaklada separacje rol i procedury uniemozliwiajace efektywna prace.

  • MapReduce - nie widziałem, żeby ktoś tego dzisiaj wymagał. Spark z OS, trochę mniej Flink, a z cloudowych to Dataflow i Databricks (serverlessowe rozwiązania)

chyba zbedne majac sparka...

  • YARN - Kubernetes wydaje się go wygryzać do wysyłania jobów na cluster - nie mylić ze schedulingiem

yarn wydaje sie duzo prostszy do zarzadzania zasobami

  • Oozie - Airflow jest o wiele bardziej elastyczny, przypomina coś w rodzaju Infrastructure As Code, nawet jeśli chodzi tylko o joby, które schedulujesz

oozie to generalnie porazka, jesli chodzi o scheduling to juz chyba lepiej sobie crona postawic i jakas kolejke w bazie danych ;)

Julian_ napisał(a):

A co sadzicie o Apache Sqoop?

mysle ze dosc niszowa sprawa, w praktyce uzywanie dodatkowego toola do importu danych z bazy relacyjnej wydaje mi sie przerostem formy nad trescia bo malo kto daje dostep do bazy danych, juz predzej sra csv do jakiegos sftp etc

PI
  • Rejestracja:ponad 5 lat
  • Ostatnio:ponad 4 lata
  • Postów:38
0
Julian_ napisał(a):

Przewalanie danych to raportowanie i etl?

Napisalem nizej/wyzej. Czasami jest to polaczenie danych z kilku zrodel i odfiltrowanie niepotrzebnych informacji. Czasami jeszcze przepuszczenie przez dodatkowe reguly. Przygotowanie raportu ile sie poprawnie przetworzylo a ile nie. Nic specjalnego, zwykle mielenie danych, tyle ze w wiekszej ilosci ;)

Julian_
  • Rejestracja:około 8 lat
  • Ostatnio:ponad 4 lata
  • Postów:1703
0

Scala jest podobno znacznie trudniejsza od javy, na jakim poziomie trzeba obcykac scale by smigac nia po api sparkowym?

Charles_Ray
  • Rejestracja:około 17 lat
  • Ostatnio:około 6 godzin
  • Postów:1874
2

Aby pisać „sparki” wystarczy podstawowa znajomość Scali. Jeśli znasz Javę i ogarniasz streamy, to powinieneś szybko się wdrożyć.


”Engineering is easy. People are hard.” Bill Coughran
edytowany 1x, ostatnio: Charles_Ray
Kliknij, aby dodać treść...

Pomoc 1.18.8

Typografia

Edytor obsługuje składnie Markdown, w której pojedynczy akcent *kursywa* oraz _kursywa_ to pochylenie. Z kolei podwójny akcent **pogrubienie** oraz __pogrubienie__ to pogrubienie. Dodanie znaczników ~~strike~~ to przekreślenie.

Możesz dodać formatowanie komendami , , oraz .

Ponieważ dekoracja podkreślenia jest przeznaczona na linki, markdown nie zawiera specjalnej składni dla podkreślenia. Dlatego by dodać podkreślenie, użyj <u>underline</u>.

Komendy formatujące reagują na skróty klawiszowe: Ctrl+B, Ctrl+I, Ctrl+U oraz Ctrl+S.

Linki

By dodać link w edytorze użyj komendy lub użyj składni [title](link). URL umieszczony w linku lub nawet URL umieszczony bezpośrednio w tekście będzie aktywny i klikalny.

Jeżeli chcesz, możesz samodzielnie dodać link: <a href="link">title</a>.

Wewnętrzne odnośniki

Możesz umieścić odnośnik do wewnętrznej podstrony, używając następującej składni: [[Delphi/Kompendium]] lub [[Delphi/Kompendium|kliknij, aby przejść do kompendium]]. Odnośniki mogą prowadzić do Forum 4programmers.net lub np. do Kompendium.

Wspomnienia użytkowników

By wspomnieć użytkownika forum, wpisz w formularzu znak @. Zobaczysz okienko samouzupełniające nazwy użytkowników. Samouzupełnienie dobierze odpowiedni format wspomnienia, zależnie od tego czy w nazwie użytkownika znajduje się spacja.

Znaczniki HTML

Dozwolone jest używanie niektórych znaczników HTML: <a>, <b>, <i>, <kbd>, <del>, <strong>, <dfn>, <pre>, <blockquote>, <hr/>, <sub>, <sup> oraz <img/>.

Skróty klawiszowe

Dodaj kombinację klawiszy komendą notacji klawiszy lub skrótem klawiszowym Alt+K.

Reprezentuj kombinacje klawiszowe używając taga <kbd>. Oddziel od siebie klawisze znakiem plus, np <kbd>Alt+Tab</kbd>.

Indeks górny oraz dolny

Przykład: wpisując H<sub>2</sub>O i m<sup>2</sup> otrzymasz: H2O i m2.

Składnia Tex

By precyzyjnie wyrazić działanie matematyczne, użyj składni Tex.

<tex>arcctg(x) = argtan(\frac{1}{x}) = arcsin(\frac{1}{\sqrt{1+x^2}})</tex>

Kod źródłowy

Krótkie fragmenty kodu

Wszelkie jednolinijkowe instrukcje języka programowania powinny być zawarte pomiędzy obróconymi apostrofami: `kod instrukcji` lub ``console.log(`string`);``.

Kod wielolinijkowy

Dodaj fragment kodu komendą . Fragmenty kodu zajmujące całą lub więcej linijek powinny być umieszczone w wielolinijkowym fragmencie kodu. Znaczniki ``` lub ~~~ umożliwiają kolorowanie różnych języków programowania. Możemy nadać nazwę języka programowania używając auto-uzupełnienia, kod został pokolorowany używając konkretnych ustawień kolorowania składni:

```javascript
document.write('Hello World');
```

Możesz zaznaczyć również już wklejony kod w edytorze, i użyć komendy  by zamienić go w kod. Użyj kombinacji Ctrl+`, by dodać fragment kodu bez oznaczników języka.

Tabelki

Dodaj przykładową tabelkę używając komendy . Przykładowa tabelka składa się z dwóch kolumn, nagłówka i jednego wiersza.

Wygeneruj tabelkę na podstawie szablonu. Oddziel komórki separatorem ; lub |, a następnie zaznacz szablonu.

nazwisko;dziedzina;odkrycie
Pitagoras;mathematics;Pythagorean Theorem
Albert Einstein;physics;General Relativity
Marie Curie, Pierre Curie;chemistry;Radium, Polonium

Użyj komendy by zamienić zaznaczony szablon na tabelkę Markdown.

Lista uporządkowana i nieuporządkowana

Możliwe jest tworzenie listy numerowanych oraz wypunktowanych. Wystarczy, że pierwszym znakiem linii będzie * lub - dla listy nieuporządkowanej oraz 1. dla listy uporządkowanej.

Użyj komendy by dodać listę uporządkowaną.

1. Lista numerowana
2. Lista numerowana

Użyj komendy by dodać listę nieuporządkowaną.

* Lista wypunktowana
* Lista wypunktowana
** Lista wypunktowana (drugi poziom)

Składnia Markdown

Edytor obsługuje składnię Markdown, która składa się ze znaków specjalnych. Dostępne komendy, jak formatowanie , dodanie tabelki lub fragmentu kodu są w pewnym sensie świadome otaczającej jej składni, i postarają się unikać uszkodzenia jej.

Dla przykładu, używając tylko dostępnych komend, nie możemy dodać formatowania pogrubienia do kodu wielolinijkowego, albo dodać listy do tabelki - mogłoby to doprowadzić do uszkodzenia składni.

W pewnych odosobnionych przypadkach brak nowej linii przed elementami markdown również mógłby uszkodzić składnie, dlatego edytor dodaje brakujące nowe linie. Dla przykładu, dodanie formatowania pochylenia zaraz po tabelce, mogłoby zostać błędne zinterpretowane, więc edytor doda oddzielającą nową linię pomiędzy tabelką, a pochyleniem.

Skróty klawiszowe

Skróty formatujące, kiedy w edytorze znajduje się pojedynczy kursor, wstawiają sformatowany tekst przykładowy. Jeśli w edytorze znajduje się zaznaczenie (słowo, linijka, paragraf), wtedy zaznaczenie zostaje sformatowane.

  • Ctrl+B - dodaj pogrubienie lub pogrub zaznaczenie
  • Ctrl+I - dodaj pochylenie lub pochyl zaznaczenie
  • Ctrl+U - dodaj podkreślenie lub podkreśl zaznaczenie
  • Ctrl+S - dodaj przekreślenie lub przekreśl zaznaczenie

Notacja Klawiszy

  • Alt+K - dodaj notację klawiszy

Fragment kodu bez oznacznika

  • Alt+C - dodaj pusty fragment kodu

Skróty operujące na kodzie i linijkach:

  • Alt+L - zaznaczenie całej linii
  • Alt+, Alt+ - przeniesienie linijki w której znajduje się kursor w górę/dół.
  • Tab/⌘+] - dodaj wcięcie (wcięcie w prawo)
  • Shit+Tab/⌘+[ - usunięcie wcięcia (wycięcie w lewo)

Dodawanie postów:

  • Ctrl+Enter - dodaj post
  • ⌘+Enter - dodaj post (MacOS)