Wpis z mikrobloga

#programowanie #programista15k #programista25k #ai #chatgpt #deepseek

Wiedziałem, że te wszystkie LLMy są gówniane, ale nie spodziewałem się, że aż tak.
Prosty task: RequestScope Cache który nie powodowałby rzucania wyjątku przez spring actuatora.

Żaden z tych state of the art modeli nie podołał XD, DeepSeek wypluł jakiś bełkot który się nawet nie kompilował, ChatGPT w sumie też zaczął wymyślać metody które nie istnieją XD

Czy jest jakiś prompt inżynier z nami? Czy może mi wkleić prompta który sprawi, że te LLMy sobie poradzą z takim banałem XD?
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@katopa: niemożliwe, że Ci nie napisał, napewno złego prompta użyłeś, zły model, ja Ci dam dobry, mówię zły model, musisz innego spróbować bo różne są, ja ja Ci polecę dobry. ( ͡° ͜ʖ ͡°)
  • Odpowiedz