Aktywne Wpisy
SaintWykopek +495
Fajny ten nowy serial "1670", polecam oglądać póki jeszcze wisi na #netflix ( ͡º ͜ʖ͡º)
,,Mnie też nikt nic nie dał za darmo! Wszystko musiałem sam odziedziczyć!"
„Rozmiar nie ma znaczenia. Tak mówią Ci z małymi wsiami"
,,Co zaczyna się na Ży i po cichu włada Polską?" - "Żydzi?" - "Żyto..."
,,- Jak się nazywa uprzedzenie do Żydów?
- Antysemityzm
- a do chłopów?
- patriotyzm" xD
,,Mnie też nikt nic nie dał za darmo! Wszystko musiałem sam odziedziczyć!"
„Rozmiar nie ma znaczenia. Tak mówią Ci z małymi wsiami"
,,Co zaczyna się na Ży i po cichu włada Polską?" - "Żydzi?" - "Żyto..."
,,- Jak się nazywa uprzedzenie do Żydów?
- Antysemityzm
- a do chłopów?
- patriotyzm" xD
SaintWykopek +18
Prawie wszystko czego szukam(na czacie Bing) wychodzi jak w załączonym obrazku, wygląda na spory krok w tył.
Z tego co rozumiem na czacie bing jest teraz najnowszy model, 4(jedną z zalet ma być szukanie na żywo, a nie tylko z wcześniejszej "kompilacji", może to jest problemem?).
W temacie książek średnio połowa odpowiedzi to niewypały(a to raczej proste w porównaniu z innymi dziedzinami??), gdzie w Chacie GPT 3.5(tym co dalej jest na stronie OpenAI), miałem o wiele lepsze wyniki, lepszą logikę, prawie żadnych tego typu pomyłek/błędów... tak chwalą ten czat Bing(GPT4?), a on jest gorszy od tego starszego, nie można polegać na jakichkolwiek podpowiedziach, minimum 40-60% prostych pytań źle/nielogicznie.
Czy chodzi o to że to po polsku? Zauważyłem, że po angielsku robi minimalnie mniej błędów, np. poleć 10 książek Hard SF: po polsku zaczął wymieniać prawdziwych pisarzy i całkowicie zmyślone tytuły(nie to że źle przetłumaczone - ot zmyślone, łącznie ze zmyślonymi krótkimi opisami o które prosiłem, w stary modelu offline tego nie było, radził sobie po polsku i po angielsku.
Czy to czysta niekompetencja i debilizmy korposzczurów z Mikrosoftu, którzy podobno wpadli do OpenAI, zrobili czystkę i kazali wypuścić GPT4 w wersji jaka jest, byle szybko(takie krążą newsy)? Może konkurencja miesza w szukaniu na żywo(ale wtedy by były błędy faktowe, a są także logiczne). Mściwi pracownicy(korposzczury z MS robili jakąś czystkę)?
Może nie lubi książek? Nie radzi sobie z milionem automatycznie generowanych stron WWW z śmieciowymi informacjami służącymi pozycjonowaniu?(ale wtedy skąd te powtarzające się,podstawowe błędy w logice?)
generalnie mysle ze w bing to jakas podpucha a nie prawdziwy chat gpt 4.0
Być może nie da się masowo puścić ruchu do pełnego GPT-4.