Jak nakarmić AI

Jak nakarmić AI

Wątek przeniesiony 2025-02-03 13:46 z Nietuzinkowe tematy przez pradoslaw.

P1
  • Rejestracja:7 miesięcy
  • Ostatnio:8 dni
  • Postów:33
0

Cześć,
Mam około 20 tys stron dokumentacji w PDF, to wszystko waży około 800 MB. Chat GPT nie chce przyjąć takich dużych PDF'ów. Cel jest taki aby AI przeanalizowało mi tą dokumentację i odpowiedziało na kilkanaście konkretnych pytań do tej dokumentacji.
Jak to można rozwiązać?

lion137
  • Rejestracja:około 8 lat
  • Ostatnio:2 minuty
  • Postów:4888
2

AD
  • Rejestracja:ponad rok
  • Ostatnio:około 2 godziny
  • Postów:321
lion137
  • Rejestracja:około 8 lat
  • Ostatnio:2 minuty
  • Postów:4888
1

I wjeżdżają strategie, write behind, cache aside, jedziemy:)


FA
  • Rejestracja:około 5 lat
  • Ostatnio:około 10 godzin
  • Lokalizacja:warszawa
  • Postów:302
0

Chat gdp nie jest zaprojektowany do taki rzeczy. Dotego wersję modelu na więcej tokenów mają wykładniczo droższa cenę per token. Więc jest potecjal na to bezby było turbo drogo.
Musisz znaleźć inny model/ai może open ai ma. Lub jechać rozdziałami stronami czy akapitami

lion137
  • Rejestracja:około 8 lat
  • Ostatnio:2 minuty
  • Postów:4888
0

Ano nie, dlatego do tego służą podlinkowane wyżej RAG czy CAG. Mógłby zrobić "fine-tuning" jakiegoś LLMa, na tych danych gdyby je zapisał w formie pytań i odpowiedzi, ale to, IMO, wyjdzie gorzej niż wektoryzacja i semantic search.


obscurity
  • Rejestracja:około 6 lat
  • Ostatnio:około 10 godzin
2

"A car won't take your job, another horse driving a car will." - Horse influencer, 1910
edytowany 1x, ostatnio: obscurity
lion137
  • Rejestracja:około 8 lat
  • Ostatnio:2 minuty
  • Postów:4888
0

Tak, to samo co podlinkowałem, i @Adin.


Zobacz pozostałe 7 komentarzy
lion137
Bo jest w Twoim poście
lion137
"nie kumam o co ci chodzi " - to repo służy do zbudowania lokalnej RAG pipeline
obscurity
i? Zalinkowałem gotowe rozwiązanie, a wy artykuły opisujące jak mogłoby działać rozwiązanie, w jaki sposób to jest "to samo"?
lion137
Podlinkowałeś kod do konkretnej implenetacji RAG opartej o LLamaindex i jakąś vector storage, nie wiem jaką nie widzę tam żadnej bazy, czyli to samo co napisałem i @Adin. Znajdziesz tego pełno na necie.
CZ
  • Rejestracja:ponad 8 lat
  • Ostatnio:około 7 godzin
  • Postów:2286
0

A znacie jakieś inne LLM-y które mogłyby lepiej wykonać takie zadanie niż chatgpt? :-)

lion137
  • Rejestracja:około 8 lat
  • Ostatnio:3 minuty
  • Postów:4888
3

LLM nie jest tu kluczowy, trzeba efektywnie zbudować semantic vector search - podzielić dokumenty na kawałki i umieścić w jakiejś vector storage.


P1
  • Rejestracja:7 miesięcy
  • Ostatnio:8 dni
  • Postów:33
0

Dzięki za propozycje, będę próbował

loza_prowizoryczna
  • Rejestracja:ponad 2 lata
  • Ostatnio:około 16 godzin
  • Postów:1604
0

Przetrzyma wszystko
PA
  • Rejestracja:ponad 22 lata
  • Ostatnio:około 12 godzin
  • Postów:3866
0

Notebooklm od googla potrafi takie rzeczy, na szybko ma limit do 200 mb na upload, ale nie wiem jak to się ma do plików na gdrive które można podłączyć

AN
  • Rejestracja:prawie 11 lat
  • Ostatnio:około godziny
  • Postów:973
0
lion137 napisał(a):

LLM nie jest tu kluczowy, trzeba efektywnie zbudować semantic vector search - podzielić dokumenty na kawałki i umieścić w jakiejś vector storage.

A takie coś służy tylko do wyszukiwania? Bo co jeśli chcę zadać pytanie i dostać odpowiedź niczym z chata?


Zdalna praca dla Senior Python Developerów --> PW
lion137
  • Rejestracja:około 8 lat
  • Ostatnio:3 minuty
  • Postów:4888
0
anonimowy napisał(a):
lion137 napisał(a):

LLM nie jest tu kluczowy, trzeba efektywnie zbudować semantic vector search - podzielić dokumenty na kawałki i umieścić w jakiejś vector storage.

A takie coś służy tylko do wyszukiwania? Bo co jeśli chcę zadać pytanie i dostać odpowiedź niczym z chata?

Wyszukiwanie jest częścią systemu, (powiedziałbym, że kluczową) a odpowiedź skompresowaną z wyciagniętych z bazy, teoretycznie najbliższych znaczeniowo do odpowiedzi na pytanie, dokumentów "ładnie" podaje LLM, o co go prosimy w jakimś meta promptcie.


loza_prowizoryczna
  • Rejestracja:ponad 2 lata
  • Ostatnio:około 16 godzin
  • Postów:1604
0
lion137 napisał(a):

Wyszukiwanie jest częścią systemu, (powiedziałbym, że kluczową) a odpowiedź skompresowaną z wyciagniętych z bazy, teoretycznie najbliższych znaczeniowo do odpowiedzi na pytanie, dokumentów "ładnie" podaje LLM, o co go prosimy w jakimś meta promptcie.

To chyba Deepseeka lepiej użyć bo on składa słowa a reszta literki. Po co mi wyszukiwanie oparte o literki?


Przetrzyma wszystko
lion137
  • Rejestracja:około 8 lat
  • Ostatnio:3 minuty
  • Postów:4888
0

Nie musi być DeepSeek, jakikolwiek model, żeby z dokumentów poskładał sensowną odpowiedź, a wyszukiwanie jest wektorowe.


loza_prowizoryczna
  • Rejestracja:ponad 2 lata
  • Ostatnio:około 16 godzin
  • Postów:1604
0
lion137 napisał(a):

Nie musi być DeepSeek, jakikolwiek model, żeby z dokumentów poskładał sensowną odpowiedź, a wyszukiwanie jest wektorowe.

Ale to słowa mają znaczenie więc wektory powinny się opierać na nich a nie na literkach.


Przetrzyma wszystko
lion137
  • Rejestracja:około 8 lat
  • Ostatnio:3 minuty
  • Postów:4888
0

Dobre pytanie, ale to jest do tego jak są tworzone embeddings i ładowane do bazy, a to chyba pytającego jakoś bardzo nie obchodzi - byle by to był skuteczne (retrieval). Chyba że chodzi ci o byte pair encoding, ale to też odbiegasz od tematu.


edytowany 1x, ostatnio: lion137
loza_prowizoryczna
  • Rejestracja:ponad 2 lata
  • Ostatnio:około 16 godzin
  • Postów:1604
1
lion137 napisał(a):

byle by to był skuteczne (retrieval).

Patrict12 napisał(a):

Cel jest taki aby AI przeanalizowało mi tą dokumentację i odpowiedziało na kilkanaście konkretnych pytań do tej dokumentacji.

Modele których tokenizacja oparta jest o znaki swoją koherentność zawdzięczają głównie bazowemu treningowi. I teraz jeśli podany kontekst (dokumentacja) wpisuje się w przeciętną dokumentację (dataset z bazowego treningu) to skuteczność prawdopodobnie będzie wysoka.

Ale jest też niezerowa szansa że kontekst będzie dot. jakiejś hermetycznej dziedziny z hermetyczną terminologią - w tym wypadku skuteczność ucierpi bo model swoje odpowiedzi będzie budował głównie w oparciu o trening bazowy. Innymi słowy dostaniesz przekonywujący bełkot.

Tutaj LLM z tokenizacją opartą o słowa powinien sobie poradzić lepiej - albo inaczej, będzie większa szansa na wyłapanie bełkotu co jest już wartością samą w sobie.


Przetrzyma wszystko
edytowany 1x, ostatnio: loza_prowizoryczna
lion137
  • Rejestracja:około 8 lat
  • Ostatnio:3 minuty
  • Postów:4888
0

Acha, teraz rozumiem, tak, to pytający będzie mógł uwzględnić przy budowaniu RAG a


several
  • Rejestracja:ponad 15 lat
  • Ostatnio:około 16 godzin
2

Jak to można rozwiązać?

Najszybciej i najłatwiej to chyba z uzyciem AzureAI (czy jak oni tam nazywają), które ma gotowca do tego co opisujesz. Wrzucasz dokumentację, azure automatycznie to indeksuje, dodajesz mu krótkie zadanie w stylu You're smart chat bot who answers questions based on documentation. Potem eksperymentujesz z kilkoma parametrami i patrzysz co najlepiej działa. Generalnie nie trzeba wiedzieć prawie nic o AI żeby tego używać.

Łatwość użycia ma swoją cenę w dolarach.

Jest jeszcze coś takiego jak https://studentai.app/ai-pdf/, podobno dobre (nie używałem) ale ma swoje limity, nie wiem jak poradzi sobie z 800MB.

No i finalnie możesz spróbować za darmo z ChatGPT, wyżej wspomniany AzureAI go używa pod spodem. Tylko musiałbyś zrobić sam to, co azure robi za Ciebie, czyli pociąć i poindeksować dokuentację na mniejsze fragmenty, żeby zmieścić sie w ograniczonej liczbie tokenów jakie chatgpt akceptuje przez swoje API.


P1
Z tego co widzę Azure AI daje 200 USD za darmo dla nowych użytkowników, myślisz że tyle starczy czy może to więcej kosztować?
several
Jeżeli potrzebujesz użyć na chwilę/jednorazowo to chyba starczy. Chyba. Jeżeli chciałbyś trzymać usługę przez dłuższy czas to nie starczy.
P1
Nie, jak odpowie na pytania to więcej tego nie będę potrzebował
several
Ciężko powiedzieć, to jednak 800MB. Kiedyś w kilka zespołów robiliśmy na tym demówki, żeby się rozeznać, i wyszło nam łącznie ~1200USD. Z tym, że to było jakieś osiem zespołów po pięć ludzi każdy i użyliśmy tego dość intensywnie. Jak robisz sam bez wystawiania API (bo możesz odpytywać przez ich panel) to raczej na wyższy rząd wielkości nie wskoczysz.
Kliknij, aby dodać treść...

Pomoc 1.18.8

Typografia

Edytor obsługuje składnie Markdown, w której pojedynczy akcent *kursywa* oraz _kursywa_ to pochylenie. Z kolei podwójny akcent **pogrubienie** oraz __pogrubienie__ to pogrubienie. Dodanie znaczników ~~strike~~ to przekreślenie.

Możesz dodać formatowanie komendami , , oraz .

Ponieważ dekoracja podkreślenia jest przeznaczona na linki, markdown nie zawiera specjalnej składni dla podkreślenia. Dlatego by dodać podkreślenie, użyj <u>underline</u>.

Komendy formatujące reagują na skróty klawiszowe: Ctrl+B, Ctrl+I, Ctrl+U oraz Ctrl+S.

Linki

By dodać link w edytorze użyj komendy lub użyj składni [title](link). URL umieszczony w linku lub nawet URL umieszczony bezpośrednio w tekście będzie aktywny i klikalny.

Jeżeli chcesz, możesz samodzielnie dodać link: <a href="link">title</a>.

Wewnętrzne odnośniki

Możesz umieścić odnośnik do wewnętrznej podstrony, używając następującej składni: [[Delphi/Kompendium]] lub [[Delphi/Kompendium|kliknij, aby przejść do kompendium]]. Odnośniki mogą prowadzić do Forum 4programmers.net lub np. do Kompendium.

Wspomnienia użytkowników

By wspomnieć użytkownika forum, wpisz w formularzu znak @. Zobaczysz okienko samouzupełniające nazwy użytkowników. Samouzupełnienie dobierze odpowiedni format wspomnienia, zależnie od tego czy w nazwie użytkownika znajduje się spacja.

Znaczniki HTML

Dozwolone jest używanie niektórych znaczników HTML: <a>, <b>, <i>, <kbd>, <del>, <strong>, <dfn>, <pre>, <blockquote>, <hr/>, <sub>, <sup> oraz <img/>.

Skróty klawiszowe

Dodaj kombinację klawiszy komendą notacji klawiszy lub skrótem klawiszowym Alt+K.

Reprezentuj kombinacje klawiszowe używając taga <kbd>. Oddziel od siebie klawisze znakiem plus, np <kbd>Alt+Tab</kbd>.

Indeks górny oraz dolny

Przykład: wpisując H<sub>2</sub>O i m<sup>2</sup> otrzymasz: H2O i m2.

Składnia Tex

By precyzyjnie wyrazić działanie matematyczne, użyj składni Tex.

<tex>arcctg(x) = argtan(\frac{1}{x}) = arcsin(\frac{1}{\sqrt{1+x^2}})</tex>

Kod źródłowy

Krótkie fragmenty kodu

Wszelkie jednolinijkowe instrukcje języka programowania powinny być zawarte pomiędzy obróconymi apostrofami: `kod instrukcji` lub ``console.log(`string`);``.

Kod wielolinijkowy

Dodaj fragment kodu komendą . Fragmenty kodu zajmujące całą lub więcej linijek powinny być umieszczone w wielolinijkowym fragmencie kodu. Znaczniki ``` lub ~~~ umożliwiają kolorowanie różnych języków programowania. Możemy nadać nazwę języka programowania używając auto-uzupełnienia, kod został pokolorowany używając konkretnych ustawień kolorowania składni:

```javascript
document.write('Hello World');
```

Możesz zaznaczyć również już wklejony kod w edytorze, i użyć komendy  by zamienić go w kod. Użyj kombinacji Ctrl+`, by dodać fragment kodu bez oznaczników języka.

Tabelki

Dodaj przykładową tabelkę używając komendy . Przykładowa tabelka składa się z dwóch kolumn, nagłówka i jednego wiersza.

Wygeneruj tabelkę na podstawie szablonu. Oddziel komórki separatorem ; lub |, a następnie zaznacz szablonu.

nazwisko;dziedzina;odkrycie
Pitagoras;mathematics;Pythagorean Theorem
Albert Einstein;physics;General Relativity
Marie Curie, Pierre Curie;chemistry;Radium, Polonium

Użyj komendy by zamienić zaznaczony szablon na tabelkę Markdown.

Lista uporządkowana i nieuporządkowana

Możliwe jest tworzenie listy numerowanych oraz wypunktowanych. Wystarczy, że pierwszym znakiem linii będzie * lub - dla listy nieuporządkowanej oraz 1. dla listy uporządkowanej.

Użyj komendy by dodać listę uporządkowaną.

1. Lista numerowana
2. Lista numerowana

Użyj komendy by dodać listę nieuporządkowaną.

* Lista wypunktowana
* Lista wypunktowana
** Lista wypunktowana (drugi poziom)

Składnia Markdown

Edytor obsługuje składnię Markdown, która składa się ze znaków specjalnych. Dostępne komendy, jak formatowanie , dodanie tabelki lub fragmentu kodu są w pewnym sensie świadome otaczającej jej składni, i postarają się unikać uszkodzenia jej.

Dla przykładu, używając tylko dostępnych komend, nie możemy dodać formatowania pogrubienia do kodu wielolinijkowego, albo dodać listy do tabelki - mogłoby to doprowadzić do uszkodzenia składni.

W pewnych odosobnionych przypadkach brak nowej linii przed elementami markdown również mógłby uszkodzić składnie, dlatego edytor dodaje brakujące nowe linie. Dla przykładu, dodanie formatowania pochylenia zaraz po tabelce, mogłoby zostać błędne zinterpretowane, więc edytor doda oddzielającą nową linię pomiędzy tabelką, a pochyleniem.

Skróty klawiszowe

Skróty formatujące, kiedy w edytorze znajduje się pojedynczy kursor, wstawiają sformatowany tekst przykładowy. Jeśli w edytorze znajduje się zaznaczenie (słowo, linijka, paragraf), wtedy zaznaczenie zostaje sformatowane.

  • Ctrl+B - dodaj pogrubienie lub pogrub zaznaczenie
  • Ctrl+I - dodaj pochylenie lub pochyl zaznaczenie
  • Ctrl+U - dodaj podkreślenie lub podkreśl zaznaczenie
  • Ctrl+S - dodaj przekreślenie lub przekreśl zaznaczenie

Notacja Klawiszy

  • Alt+K - dodaj notację klawiszy

Fragment kodu bez oznacznika

  • Alt+C - dodaj pusty fragment kodu

Skróty operujące na kodzie i linijkach:

  • Alt+L - zaznaczenie całej linii
  • Alt+, Alt+ - przeniesienie linijki w której znajduje się kursor w górę/dół.
  • Tab/⌘+] - dodaj wcięcie (wcięcie w prawo)
  • Shit+Tab/⌘+[ - usunięcie wcięcia (wycięcie w lewo)

Dodawanie postów:

  • Ctrl+Enter - dodaj post
  • ⌘+Enter - dodaj post (MacOS)