Siemka,
dzisiaj będzie o fascynującej asymetrii w kontekście pop-psychologii i normickiego świata bo istnieje na ich mapie efekt anioła/halo ale jakoś nikt nie wspomina o jego rewersie - efekcie diabła/rogów. Co za przypadek, że akurat ich mapa kończy się w miejscu dla wygrywów życiowych ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)
Osobiście mnie to nie dziwi bo jak we wpisie o hipotezie sprawiedliwego świata
Quashtan - Siemka, 
dzisiaj będzie o fascynującej asymetrii w kontekście pop-psycholo...

źródło: unnamed

Pobierz
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Quashtan: to samo na tagu #przegryw

możesz byc mitomanem klamca ale jesteś męczennikiem z dobry vibem to okejka plusiki lecą

te same osoby poklepujace ta osobe jednocześnie bykuja innych jak zaplusuja samice na
  • Odpowiedz
  • 2
@Timer_555: Taka jest natura i jej nie zmienimy - możemy ją tylko opisać i zaakceptować jaki jest teren oraz dostosować swoją mapę do terenu, a nie próbować robić na odwrót jak normiki i się wkurzać dlaczego to nie działa ( ͡º ͜ʖ͡º)
  • Odpowiedz
#ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council

Idea tego repozytorium polega na tym, że zamiast zadawać pytanie ulubionemu dostawcy oprogramowania LLM (np. OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4, np. c), możesz zgrupować je w swojej „Radzie LLM”. To repozytorium to prosta, lokalna aplikacja internetowa, która zasadniczo przypomina ChatGPT, z tą różnicą, że używa OpenRoutera do wysyłania zapytania do wielu LLM-ów, a następnie prosi
makrofag74 - #ai #llm #sztucznainteligencja
https://github.com/karpathy/llm-council

...

źródło: header

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 3
@ziomik: Małpy nie lubią najbardziej jak się im coś zabiera, w tym u człowieka to również występuje. Gorzej jest stracić niż samo coś zyskać. Moim zdaniem bierze się to z tego, że wcześniej o wiele trudniej było o zasoby więc strata bolała bardziej
  • Odpowiedz
#ai #sztucznainteligencja #llm
https://blog.comfy.org/p/official-amd-rocm-support-arrives

Oficjalne wsparcie AMD ROCm™ pojawia się w systemie Windows dla pulpitu ComfyUI

Dzięki tej wersji użytkownicy systemu Windows mogą wreszcie wykorzystać pełną moc obsługiwanych kart graficznych AMD Radeon™ i procesorów Ryzen™ AI, co pozwoli im uzyskać szybszą wydajność i płynniejszą pracę w ramach obiegów pracy ComfyUI.
makrofag74 - #ai #sztucznainteligencja #llm
https://blog.comfy.org/p/official-amd-roc...

źródło: 13baea85-3203-4740-b165-47e8ce9bb2ad_2022x1324

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
Dostepne modele najmu:

1. Interruptible (Przerywalny)Jest to najtańsza opcja, działająca na zasadzie licytacji (podobnie jak "Spot Instances" w AWS).Jak to działa: Wynajmujesz maszynę po bardzo niskiej cenie, ale ktoś inny może Cię "przebić", oferując wyższą stawkę za tę samą maszynę.Ryzyko: Jeśli inny użytkownik zaoferuje wyższą cenę, Twoja instancja zostanie natychmiast zatrzymana (preempted), a Ty stracisz do niej dostęp.Zastosowanie: Idealne do zadań, które można łatwo wznowić, np. trenowanie modeli z częstym zapisywaniem punktów kontrolnych
  • Odpowiedz
Mogę uzyskać dostęp do maków desktop typu M3 ultra, czy M4 max. Nie wiem dokładnie które bo na Makach się nie znam, ale widzę że dzięki zunifikowanej pamięci można na nich śmiało odpalać #llm .

Jaka jest teraz najlepsza ścieżka żeby na takim sprzęcie odpalić coś w rodzaju "lokalnego" #cursor? Tak żeby działał z agentami do programowania? Słyszałem o opencode i continue.dev w vscode.

Jakie modele są
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 15
@katka2017: Prawdziwe kolory zostały pokazane - normik to ukryty wierzący, tak pochłonięty w wierze - że spali każdego heretyka poprzez terapię za pomocą wspólnej modlitwy (afirmacji)

PS Tylko właśnie pomyliłaś kurę z jajkiem LOL
  • Odpowiedz
Jest tu jakiś dobry spec od promptowania silników LLM, żeby jak wyłuskać z nich jak najlepsze odpowiedzi, wycisnąć maksimum możliwości? W jaki sposób to zrobić mu inżynierię ram projektowych, czy obwarować go założeniami aby mieć jak najlepszy output? Na pewno jest na to jakiś casestudy w necie.

Zapytałem gemini i on pisze tak i skupił się na tych rzeczach ale nie wiem czy to właśnie powinno być wykorzystywane:

"Inżynieria promptów (Prompt Engineering) ewoluowała od
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@haha123: IMO:
Altmanowi nie ma co wierzyć.
OpenAI nie jest rentowną firmą, czyli nie zarabia więcej, niż wydaje. Zatem musi czymś skusić inwestorów, by mieli co wydawać, a rozwój granicznych modeli AI pochłania niebagatelne kwoty. Zatem są obietnice gruszek na wierzbie.

Uśrednione prognozy ekspertów z branży, to AGI dopiero w 2028-30.
Co nie oznacza, że nie możemy być zaskoczeni i w 2027, lub nie może AGI powstać dopiero
  • Odpowiedz
Czy któryś z LLM oferuje coś takiego jak konspekt lub "mapę" konwersacji? Przykładowo: konwersuję na temat i otrzymuję odpowiedź 1, potem znów pisze i otrzymuję odpowiedź 2, ale z jakiegoś powodu wracam sie do odpowiedzi 1 i zagaduję o coś ponownie (chcę dopracyzować lub dopytać) i dostaje odpowiedź 1.2, którą wykorzystuję odpisując na odpowiedź 2. Ostatnio korzystam z #llm do zagadnień informatycznych i przydałoby się szybkie przeskakiwanie między odpowiedziami zamiast
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Jak "legalnie" podwoić swoją kasę?

Oczywiście wiem, że potem ubezpieczanie wzrośnie. Ale mogę wtedy założyć nowy bank. xD
PS. To wszystko teoretycznie :P

Ethics and Legality While not explicitly illegal, this tactic raises ethical concerns.
aptitude - Jak "legalnie" podwoić swoją kasę?

Oczywiście wiem, że potem ubezpieczani...

źródło: Screenshot_2025-12-10_21-47-03

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach