Aktywne Wpisy

kutmen2 +63
Rozstałem się z dziewczyną prawie 6 lat temu, mieliśmy dwa koty. Jeden został u mnie a drugi pojechał z nią. Godzinę temu zadzwoniła, że kot jest chory i właśnie z---------m blisko 400 kilometrów żeby ratować kotka bo idiotka nie ma pieniędzy żeby kota zbadał weterynarz. Mam nadzieję, że kot wróci ze mną do domu. Dajta plusa na zachętę

Jagoo +128
A więc jestem po moim pierwszym festiwalu, gdzie wzięli mnie jako osobę od dekoracji. Wspaniała była to przygoda, aczkolwiek nie była to łatwa rzecz. Przez tydzień po 10 godzin dziennie pracowaliśmy nad tworzeniem przestrzeni imprezowej dla ludzi. Niesamowicie było potem obserwować ludzi, którzy robią sobie zdjęcia z moimi deco!
Więcej fot w komentarzach
#jagooart #totemfestiwal #dekoracje #uvart #tworczoscwlasna #sztuka #
Więcej fot w komentarzach
#jagooart #totemfestiwal #dekoracje #uvart #tworczoscwlasna #sztuka #
źródło: temp_file3174380517716913967
Pobierz




Koleżanki i Koledzy, któryś z mirków zapytał mnie, czy planuję zatrzymać tag dla siebie (w żartach oczywiście). Zrobiłem sobie więc przerwę. Pracowałem po 14-15h dziennie nad własnym projektem i było super, myślę, że wpadłem na coś ciekawego. Pomyślałem jednak, że już mogę coś napisać :D
Jeśli dużo promptujecie, warto zapoznać się z tym artykułem
https://arxiv.org/pdf/2406.04271
Tutaj repo https://github.com/YangLing0818/buffer-of-thought-llm
Wprowadza on nową technikę promptowania zwaną BoT - Buffer of Thoughs
Cytując Medium (na autotłumaczu)
https://towardsdatascience.com/understanding-buffer-of-thoughts-bot-reasoning-with-large-language-models-391919d2f76f
Nowa metoda zaproponowana w artykule, Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models, zwalcza te ograniczenia za pomocą dynamicznego, adaptacyjnego repozytorium szablonów myśli wysokiego poziomu zwanych meta-buforem. W BoT, gdy użytkownik przedstawi nowy problem, jest on najpierw upraszczany i analizowany w celu wyodrębnienia kluczowych elementów, które następnie kierują wyszukiwaniem odpowiedniego szablonu myśli z dynamicznego zestawu danych. Pozwala to na adaptacyjne i efektywne rozwiązywanie problemów za pomocą zmodyfikowanych i złożonych wzorców rozumowania. Zgodnie z oryginalnym artykułem, jest to tak skuteczne, że "Llama3-8B+BoT ma potencjał, aby przewyższyć model Llama3-70B".
BoT osiąga efektywne rozumowanie w problemach, które są podobne do jego szablonów, ponieważ:
(1) wykorzystuje dotychczasowe rozwiązania do nowych wyzwań,
(2) zwiększa wydajność, eliminując potrzebę wielu iteracji zapytań (jak widzimy w Graph-of-Thoughts (GoT) lub 😭) oraz
(3) dynamicznie aktualizuje swoje repozytorium szablonów, aby zapewnić jego ewolucję w miarę napotykania nowych zadań.
I schemat BoT w załączniku. Miłego dnia wszystkim.
źródło: bot
Pobierz