Wpis z mikrobloga

🧠 SprawdΕΊcie RWKV – ciekawa alternatywa dla TransformerΓ³w

TrafiΕ‚em ostatnio na coΕ›, co moΕΌe zainteresowaΔ‡ fanΓ³w AI – RWKV (czyt. β€žRwaKuv”).
To model, ktΓ³ry Ε‚Δ…czy moc LLM-Γ³w z prostotΔ… RNN-Γ³w, ale bez ich historycznych ograniczeΕ„.

- dziaΕ‚a jak RNN,
- skaluje siΔ™ jak Transformer,
- ale nie uΕΌywa ΕΌadnej atencji (zero KV-cache πŸ‘€).

Co to daje?

- staΕ‚e zuΕΌycie RAM przy generowaniu (nie roΕ›nie z dΕ‚ugoΕ›ciΔ… kontekstu),
- liniowy czas dziaΕ‚ania,
- praktycznie nieskoΕ„czona dΕ‚ugoΕ›Δ‡ kontekstu,
- szybkie trenowanie (z 0.1b nawet do 3-10min :D),
- bardzo dobre wyniki reasoning, szczegΓ³lnie w nowych modelach RWKV-7 β€žGoose” <3 (polecam RWKV-5 dla maΕ‚ych projektΓ³w),
- do tego projekt wspiera Linux Foundation AI.

Brzmi trochΔ™ jak β€žnajlepsze z obu Ε›wiatΓ³w” β€” prosta architektura, a osiΔ…gi porΓ³wnywalne z duΕΌymi LLM.
Jak ktoś lubi nowinki i alternatywy dla klasycznych Transformerów, to warto rzucić okiem.

#sztucznainteligencja #ciekawostki #programowanie #rwkv
aptitude - 🧠 SprawdΕΊcie RWKV – ciekawa alternatywa dla TransformerΓ³w

TrafiΕ‚em ostat...

ΕΊrΓ³dΕ‚o: Screenshot_2025-12-01_16-32-54

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach