Wpis z mikrobloga

@Ulfric_Stormcloak: Jest przeogromna różnica, bo ten algorytm nie tworzy zdań po polsku. On przyjmuje twój komentarz, później tłumaczy na angielski, następnie generuje odpowiedź (tutaj używa modelu LLM) w oparciu o teskt angielski, następnie wygenerowaną odpowiedź z angielskiego wtórnie tłumaczy na polski.
Algorytm nigdy nie był trenowany na tekstach polskich, co najwyżej do tłumaczeń. I różnica jest, bo byle półgłówek i kretyn by zauważył że przy tłumaczeniach mogą się pojawić lekkie różnice
@Nie_RabarbaR: no patrz mam inz z "IT", pracuje w dość dużym korpo i korzystam dość często z chat GPT :p

Różnica jest marginalna między zapytaniem po polsku, czy angielsku, ale tłumaczyć ci tego nie będę, bo widzę że i tak nie zrozumiesz:p

Ps. Wiesz że jest coś takiego jak chatGPT 4? :P

Czy też zaraz wrzucić idiotyczny test z opisem kaczki i będziesz płakać że SI jest głupie?

W sumie to
@Ulfric_Stormcloak: Akurat ma to pewne znaczenie, bo znaczna część tekstów w zbiorze treningowym jest po angielsku. Różnicę widać jak np. zapytasz ChatGPT o tekst piosenki z rymami. Jeśli zrobisz to po angielsku to tekst będzie z rymami, jeśli po polsku to wtedy ich nie będzie lub będą pojedyncze. Jako, że więcej tokenów jest po angielsku to model wyłapie więcej wzorców dla angielskiego i będzie sobie lepiej z nim radził. Ta różnica
@Ulfric_Stormcloak: Do wielu różnych dziwnych rzeczy, żeby móc porównywać LLMy między sobą. Buduje sobie coś na kształt HellaSwag, ale po polsku. Ale tak jak pisałem w ostatnim zdaniu dla normalnego użytkowania ta różnica nie ma znaczenia (co nie oznacza, że nie istnieje :D)