Wpis z mikrobloga

#programista15k #programowanie #chatgpt #sztucznainteligencja #llmy

Jak ktoś próbował pracować produkcyjnie z llmami, ten wie, że jest to mordęga. Trochę jak na poniższym
fragmencie dokumentacji. Obawiam się, że minie sporo czasu, zanim wytworzą się jakieś sensowne standardy deployu i utrzymywania
aplikacji opartych na llmach, chociaż biorąc pod uwagę to, jak wiele tego wychodzi codziennie, to nie jestem tego taki pewien.
JamesJoyce - #programista15k #programowanie #chatgpt #sztucznainteligencja #llmy

Jak...

źródło: replicate

Pobierz
  • 11
@JamesJoyce raczej nie spotkałem się z takim problemem, najnowsza wersja 2 bibliotek i cluster A100 wykluczają możliwość chyba 99% niezgodnosci ze strony sterowników CUDA, reszta wymaga tylko zrozumienia z czym się pracuje. Skarżenie się na złe wymiary tensorów to tak jakby programista C skarżył się, że np. pointery mu się mylą albo typy danych.
@Bejro: wydaje mi się, że to zależy czego używasz. Czy jest to vanilla api OpenAI, które działa fajnie, czy jakieś wynalazki. Ja np. mam przypadek, w którym klient nie zgadza się na dostęp zewnętrznych firm do niczego, a jednocześnie zgadza się na Open-Source. I trzeba babrać się w obudowie llamy.
@JamesJoyce: Tym się nie zajmuję ale inni ludzie z firmy już tak. Nie spotkałem się aby ktoś narzekał, że jest to trudniejsze niż deployment innych technologii.