Chcą znów naszych pieniędzy na polski chatgpt. Ja się pytam po co? Przecież są modele na różnych licencjach open source typu llama, gemma i deepseek.
Jak chcą "polski" model to niech zrobią forka któregoś otwartego modeli, kupią sobie serwerek i oferują za 20$. Jak ktoś będzie chciał tego używać to sobie będą dalej rozwijać ten model za zarobione pieniądze. Z kolei jak nikt nie będzie chciał używać to niech spadają na drzewo.
Bielik to akurat jest fine-tune llamy3. To nie tak, że oni będą budować cokolwiek od zera.
Po co im "polski" model? Każdy z dostępnych już gada po polsku. Przecież to jest marnotrawienie środków.
Z tym "gada po polsku" to tak... hmm. Ostatnio, świeży, wspaniały (ponoć) Mistral Small 3 24b-instruct-2501 opowiedział mi dowcip, po czym dodał "mam nadzieję, że się śmieszysz". Nie śmieszyłem się, raczej załamałem się jakością polszczyzny. Z moich prywatnych testów najlepszym polskim "mówi" Bielik (v2.3) i Gemma 2 (9B), zadziwiająco dobrze poradziła sobie też Salamandra 7B (projekt współfinansowany przez rząd Katalonii, BTW). Oczywiście w kategorii "uruchomię to na konsumenckim sprzęcie", nie testowałem DeepSeeka R1.
Każda konkurencja jest dobra. Można też zadać pytanie po co deepseek jak jest chatgpt, albo llama. Modele LLM są bardzo generalne. Możliwe, że np. taki polski model można lepiej dostosować do polskiego kontekstu, prawa, tła historycznego itd. i na niektóre pytania osadzone w polskim kontekście będzie w stanie odpowiedzieć lepiej, niż chat gpt. W związku z tym, nie uważam, żeby to było zupełnie bez sensu.
Właśnie! Samo mówienie po polsku, a dostosowanie do lokalnej sytuacji to bardzo dwie różne rzeczy – ChatGPT o1-mini poproszony o scenkę rozmowy dwóch emerytów w ZUS-ie wygeneruje przesłodzone bzdury zamiast narzekania, że jest źle, emerytura niska, a rząd kłamie ;)
A już tak co do tych publicznych pieniędzy, to już jest polski projekt LLM finansowany z pieniędzy publicznych: https://pllum.org.pl/ – "Projekt finansowany ze środków Ministra Cyfryzacji w ramach dotacji celowej nr 1/WI/DBiI/2023, pn. „Odpowiedzialny rozwój otwartego dużego modelu językowego PLLuM (Polish Large Language Universal Model) w celu wspierania technologii przełomowych w sektorze publicznym i gospodarczym, w tym otwartego, polskojęzycznego inteligentnego asystenta petenta”. "