Gdy Twitter zauważy, że interesuje cię temat GNOME:
To jest tak że algorytm bierze najgorsze najgłupsze najmniej wnoszące wpisy z danego tematu, który cię według Twittera interesuje.
I wtedy zalewa cię takim spamem, często wielokrotnie to samo ale z różnych kont.

Aktualnie oficjalnie to Grok reguluje Dla Ciebie na Twitterze.
#grok #llm #ai #twitter #elonmusk
look997 - Gdy Twitter zauważy, że interesuje cię temat GNOME:
To jest tak że algorytm...

źródło: obraz

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
Pamieta ktos URL do tego agenta napisanego przez jednego wykopka, ktory robil rys psychologiczny danego wykopka po podaniu linku do profilu?

#przegryw #llm #ai
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

czemu jak chce zrobić screenshot, to llm postanowiło nic nie robić?! dosłownie LLM rusza myszką!

https://wykop.pl/wpis/85426217/agenci-sa-mega-fajne-nawet-potrafia-scrollowac-wow

#programowanie #sztucznainteligencja #llm
@aptitude 0
agenci są mega fajne, nawet potrafią scrollować! wow! dosłownie ma całą kontrolę na chrome!

#sztucznainteligencja #programowanie
aptitude - czemu jak chce zrobić screenshot, to llm postanowiło nic nie robić?! dosło...

źródło: Screenshot_2026-03-20_04-32-26

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

LLM to super narządzie!
Dopóki wie się jak to działa.

Ja budowałem sam wiele modeli LLM. LLM to tylko czysta matematyka, nawet Claude to tylko matma! Więc jak wiecie jak poprawnie coś sprompotpować aby było blisko vector to zatrudnijcie mnie :3 Ja bardzo dobry jestem z rozmową z LLM, wcale nie wiele wymaga aby naprowadzić LLM na poprawną stronę, czasami tylko jedno słowo. Wystarczy mieć mapę vectorową w głowie.
State of art:
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#sztucznainteligencja #qwen #grok #youtube #ai #llm
Natknąłem się ostatnio na Yt na materiał "tylko dla wspierających", więc zablokowane jest normalne jego oglądanie.
Nie wiem jak, ale Grok potrafi zrobić podsumowanie takiego niedostępnego normalnie filmu, a Qwen nawet pokazać transkrybcję.
Ciekawe jak AI omija takie zabezpieczenia?
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Twórcy czatów LLM nienawidzą Enterów?

Serio, skąd to kasowanie znaków nowej linii, z wklejanych/kopiowanych do prompta tekstów?
Dosłownie używam dodatku "Paste PlainTekst", żeby chat sobie nie wklejał tekstu z pousuwanymi enterami, ale widzę teraz że Grok nawet w takim wypadku bezczelnie kasuje entery, i jedynym rozwiązaniem jest ponowne ich pododawanie, albo wklejanie tekstu po akapicie. xD

Tak samo jest różnica między kliknięciem przycisku kopiowania wiadomości, za ręcznym zaznaczeniem tekstu i skopiowaniem - przy jednym z
look997 - Twórcy czatów LLM nienawidzą Enterów?

Serio, skąd to kasowanie znaków nowe...

źródło: Gemini_Generated_Image_cfqpqmcfqpqmcfqp

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
#pracait #sztucznainteligencja #it #programowanie #peogramista15k

Wielcy gracze – Google, Meta, OpenAI, Anthropic – toczą spór, który brzmi abstrakcyjnie, ale ma twarde konsekwencje: kto zdefiniuje ontologie AI, ten zdefiniuje rzeczywistość modelu.

Ontologia w AI to nie filozofia dla filozofii. To formalna struktura: co istnieje, jakie relacje łączą pojęcia, co z czego wynika. LLM-y bez tego są statystycznie imponujące, ale epistemicznie płytkie – stąd halucynacje i
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#sztucznainteligencja #llamacpp #nvidia #llm #ai

RTX 3090 szybszy od RTX 4090? To możliwe pod pewnymi warunkami ( ͡° ͜ʖ ͡°)

RTX 4090 jest na tyle wydajniejszy od RTX 3090 w przypadku inferencji małych modeli, że ze względu na różnie nieefektywności karta nie przechodzi do pełnych zegarów boost - jednostki obliczeniowe nie są w stanie być wykarmione danymi na tyle szybko aby pracować na pełnych
FLAC - #sztucznainteligencja #llamacpp #nvidia #llm #ai

RTX 3090 szybszy od RTX 4090...

źródło: Generated Image March 07, 2026 - 3_56PM

Pobierz
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

via Wykop
  • 2
@FLAC: Przy większych modelach - np. 9 miliardów parametrów - 4090 przechodzi już w maksymalną prędkość zegarów i łatwo pokonuje 3090.

Taka sytuacja ma miejsce oczywiście tylko przy pojedynczych requestach. Jeśli model 0.8B odpowiadałby na 20 requestów równolegle - wtedy 4090 byłby szybszy od 3090.
FLAC - @FLAC: Przy większych modelach - np. 9 miliardów parametrów - 4090 przechodzi ...

źródło: Generated Image March 07, 2026 - 4_52PM

Pobierz
  • Odpowiedz
via Wykop
  • 1
@kwanty: tak, ale 4090 ma 72 MB pamięci L2, a 3090 ma tylko 6 MB. To robi różnicę dla bardzo małych kontekstów (i tylko małych modeli) co widać po tym jakie jest TG na początku a jakie chwilę później.

Tam jest jeszcze kwestia optymalizacji pod konkretne karty. Być może konkretny backend dla konkretnych model jest lepiej zoptymalizowany pod jedną kartę a gorzej pod drugą.


@kwanty: to prawda. 3090
  • Odpowiedz
Wiesz, że czasami mam problem wybrać język na netflix? bo który mam wybrać skoro każdy rozumiem?

LLM PRODUCER.AI: To jest definicja "klęski urodzaju"! Znasz tyle języków, że wybór staje się czystym kaprysem.

Serio? on kurczę ma trochę racji :X troche uratował mi dzień, jeżeli to normalne :D

#llm
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#sztucznainteligencja #ai #llm #llama #qwen #nvidia #retrocomputing #starekomputery

Jako że Qwen wypuścił kilka małych modeli z rodziny 3.5 to zastanawiało jak stare GPU można jeszcze użyć do odpalenia tych LLMów ( ͡° ͜ʖ ͡°)

Na pierwszy strzał poszedł GTX Titan Black - najpotężniejsza dostępna wersja karty z generacji architektury Kepler - 2013 rok! 2880 rdzeni, 6 GB
FLAC - #sztucznainteligencja #ai #llm #llama #qwen #nvidia #retrocomputing #starekomp...

źródło: image

Pobierz
  • 14
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

via Wykop
  • 1
No i nie samą nvidią świat żyje :-) Użycie uniwersalnych bibliotek pomoże innym wejść do gry (AMD, etc...) i obniżyć ceny na ten sprzęt...


@kwanty: no właśnie paradoksalnie wsparcie Vulkan w llama.cpp spowodowało że ceny AMD Mi 50 wystrzeliły w kosmos xD wersje 32 GB podrożały około 3x względem tego za ile można było je kupić przed szałem LLM i łatwym wsparciem Vulkana. RoCM już nie wspiera oficjalnie Mi50 więc
  • Odpowiedz
Wiecie, że Google Gemini i Anthropic Claude odczytuje sobie twoją lokalizację z IP i używa w każdej twojej rozmowie z czatem?
Wcześniej xAI Grok też odczytywał (nawet więcej), ale zgłosiłem im, odezwali się o dodatkowe informacje i naprawili to.

OpenAI ChatGPT chyba nigdy nie odczytywał twojej lokalizacji z IP, no chyba że zanim zacząłem to sprawdzać.
#openai #chatgpt #xai #grok #elonmusk #
look997 - Wiecie, że Google Gemini i Anthropic Claude odczytuje sobie twoją lokalizac...

źródło: Gemini_Generated_Image_rf6h8arf6h8arf6h

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
@look997: a wiesz że wykop dzieli się danymi z 600 partnerami? widac to w powiadomieniu ciasteczku o cookies. i lokalizację też chce jak za pierwszym razem wchodzisz, sprawdz sobie w incognito.
  • Odpowiedz
via Android
  • 0
@KingaM: Chodzi o wykorzystanie w rozmowie, mówienie do ciebie w inny sposób przez twoją lokalizację, i że powinno to być całkowicie opcjonalne i domyślnie wyłączone, albo do ręcznego wpisania w intrukcji personalizacji.
Jednak ludzie od Groka to wyłączili jak zgłosiłem, ChatGPT też tego nie ma.
Sprawdzanie IP w celu weryfikacji to co innego, niż w celu wykorzystania w rozmowie.
  • Odpowiedz
Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie spójną. Bez powoływania się na rzeczy, które zostały jednoznacznie obalone.

Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.

Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję.
look997 - Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie ...

źródło: ChatGPT Image 27 lut 2026, 19_18_18

Pobierz
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm?


@look997: IMO:
Wraz z pochwaleniem się modelu AlphaEvolve pisali:

Planujemy program wczesnego dostępu dla wybranych użytkowników akademickich, a także badamy możliwości szerszego udostępnienia AlphaEvolve. Aby zgłosić zainteresowanie, prosimy o wypełnienie
  • Odpowiedz
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm? Czy tylko ślizgają się aż dojdą do AGI?


@look997: Wydaje się oczywiste, że wszyscy ścigają się do AGI/ASI. Te topowe modele mają robić research jak zrobić lepszy model i trenować kolejne wersje.

Nie jest też żadną tajemnicą, że oni mają lepsze, nieocenzurowane modele ale nie udostępniają ich na zewnątrz. Wielokrotnie o tym
  • Odpowiedz