Wpis z mikrobloga

#gielda #chatgpt #openai #sztucznainteligencja

W wytworzenie chatagpt 5 włożono masę pieniędzy i póki co ciężko powiedzieć nawet o ewolucji, bo rewolucji to tu z pewnością nie ma.

Jakim cudem MSFT się dzisiaj trzyma na powierzchni i czy ta premiera nie powinna negatywnie wpłynąć na cały rynek?
Wygląda jakbyśmy uderzali w sufit, pierdyliardy chipów i tak słaby model, który tylko w benchmarkach OpenAI wygląda fajnie.
  • 15
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Bartekc7: ? Tu chodzi o to, że masa użytkowników raportuje większe halucynacje i gorsze działanie chata 5 vs 4.
Może spytaj AI jak potrafisz korzystać to ci wytłumaczy na chłopski sposób, dla mnie prościej się nie da ( ͡~ ͜ʖ ͡°)
  • Odpowiedz
@Bartekc7: wyłożyli gigantyczne pieniadze, Sam Altman wrzuca gwiazdę śmierci na X przed premierą iiiiiii nic się nie zmieniło, ludzie raportują gorszą pracę, nadal popełnianie prostych błędów i gubienie kontekstu po wymienieniu paru wiadomości ( ͡° ͜ʖ ͡°)

To było założenie posta - czy nie dobijamy do szczytu możliwości w tych modelach językowych
  • Odpowiedz
@tom-ek12333 serio? Wiesz po ilu latach Amazon czy Palantir stały się zyskowne? Przecież OpenAI dopiero od 2020 ruszył komercyjnie. I to tak naprawdę w zupełnie nowym segmencie.
  • Odpowiedz
@Vateusz23: sporo z tych rzeczy jest fest naciągana. Jakby modele AI potrafiły tak dobrze programować to byłby już totalny pogrom doświadczonych programistow, co się nie dzieje.

Zbey zweryfikować te bzdury o umiejętności programowania przez Ai wystarczy pobrac i odpalic sobie przykładowo cursor i zobaczyć na własne oczy jakie bzdury potrafi tworzyć mimo posiadania dostępu do całego kodu.

Owszem przyspieszyć jest w stanie development np poprzez pisanie jakichs przypadków testowych itp,
  • Odpowiedz
@perfumowyswir Trochę się zgadzam z tą tezą, że te modele dobijają do ściany. Coś tam są w stanie poprawiać jakieś przypadku brzegowe zeby lepiej wypadały w testach itp. Ale jakoś w rzeczywistym zastosowaniu to już czy to claude 4, gemini 2.5 pro czy o3 po prostu gubią kontekst problemu i tyle. Totalnie nie rozumiem tej podjarki szczególnie wobec gemini 2.5 pro. Testowałem go przez ostatnie pare miesięcy w zastosowaniach programistycznych i
  • Odpowiedz