Wpis z mikrobloga

#bron #militaria #gunboners

Chatgpt do obliczeń to porażka. Sam z siebie robi takie błędy, że to się w głowie nie mieści. Próbuje go nauczyć poprawnego obliczania prędkości obrotowej pocisku. Pajac mi wyliczał, że pocisk będzie mieć większą prędkość obrotową wystrzelony z lufy o skoku 1/9 a z 1/7 będzie mniejsza xD (prędkość liniowa taka sama). Tutaj pajac nawet źle liczy z własnego wzoru, dopóki nie każe mu się rozpisać go poprawnie. Ale mozna powiedzieć,, że osiągnąłem sukces. W opracowaniu jakie znalazłem dla tego przykładu prędkość obrotowa wyniosła 17 255, wiec czat generalnie ma już racje (pewnie inne zaokrąglenie wartości PI).
Variv - #bron #militaria #gunboners 

Chatgpt do obliczeń to porażka. Sam z siebie ro...

źródło: Zrzut ekranu 2023-12-26 192620

Pobierz
  • 13
  • Odpowiedz
  • 0
@Variv: Dobra, #!$%@? znów źle liczy, no #!$%@? przelicza skok gwintu. Trzeba mu ręcznie za każdym razem podawać h samemu w metrach, a nie np. 1/7 bo źle policzy
  • Odpowiedz
  • 0
@DoktorVincent: Nie, on w ogolę źle przelicza jak mu zapiszesz 1/12, nawet nie, że źle przelicza, ale źle liczy kompletnie. nie rozumie konceptu gwintu chyba. Ale już go nauczyłem, powiedziałem mu ile metra (we wzorze podajemy w metrach) ma gwint 1/12, ile 1/9 a ile 1/7
  • Odpowiedz
@Variv: jak weźmiesz młotek też się wkurzasz, że się do wkręcana śrub nie nadaje, to jest model językowy i tylko tyle, zresztą czego ty chcesz go nauczyć, jak twoje inputy nie zmieniają nic w modelu głównym.
  • Odpowiedz
  • 0
@roleta_ciagnik: Nie no jak mu się poda dokładne dane, i każde liczyć krok po kroku to nawet liczy. Ale zaczyna #!$%@?ć jak nie liczy linijka po linijce. Choć za raz chyba exela odpale i sprawdzę, ze ma dobrze
  • Odpowiedz
W poprzedniej odpowiedzi piszesz o tym, że wesz na czym polega model językowy, a z tego co teraz napisałeś to wnioskuję, że jednak zupełnie nie masz o tym pojęcia.
  • Odpowiedz
  • 0
@roleta_ciagnik: Otworzyłem exela i licze - wychodzi na to, że jak się mu poda wzór, dane i każe liczyć linijka po linijce to liczy dobrze, różnice są na poziomie zaokrąglania wartości pi. Jak każe się mu podać wynika, i nie "liczy" linijka po linijce to pisze bzdury
  • Odpowiedz
Czyli model językowy jest tak zajebisty że oblicza rzeczy co generalnie nie jest standardem, a ty masz problem, że w darmowej wersji zaokrągla liczby by oszczędzić na takich jak ty, co można łatwo obejść dodając frazę "rozpisz to dokładniej" typie...
  • Odpowiedz
  • 0
@roleta_ciagnik: Nie ma problemu. Ale zauważyłem już nie raz, że ludzie tym czatem coś licza (raz koles na twiterze tym energie pocisku liczył na dystansach i właśnie coś mu dziwnie wychodziło, dlatego chciałem sprawdzic) i chciałem sprawdzić jak to wychodzi. Nic do czat gpt nie mam.
Z ciekawości podałem mu jeszcze stałą wartość pi. I tak przy jednym przykładzie mi w exelu wyszło 35091, a jemu, przy zaznaczeniu, że ma rozpisać
  • Odpowiedz