Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie spójną. Bez powoływania się na rzeczy, które zostały jednoznacznie obalone.

Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.

Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję.
look997 - Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie ...

źródło: ChatGPT Image 27 lut 2026, 19_18_18

Pobierz
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm?


@look997: IMO:
Wraz z pochwaleniem się modelu AlphaEvolve pisali:

Planujemy program wczesnego dostępu dla wybranych użytkowników akademickich, a także badamy możliwości szerszego udostępnienia AlphaEvolve. Aby zgłosić zainteresowanie, prosimy o wypełnienie
  • Odpowiedz
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm? Czy tylko ślizgają się aż dojdą do AGI?


@look997: Wydaje się oczywiste, że wszyscy ścigają się do AGI/ASI. Te topowe modele mają robić research jak zrobić lepszy model i trenować kolejne wersje.

Nie jest też żadną tajemnicą, że oni mają lepsze, nieocenzurowane modele ale nie udostępniają ich na zewnątrz. Wielokrotnie o tym
  • Odpowiedz
  • 1
@kocha_to_poczeka: Zależy ile VRAM masz w GPU i ile RAM. Tu ci komenda sprawdza jaki masz hardware i pokazuje orientacyjnie co ci się uruchomi (jaki model dobrać i z jaką kwantyzacją), jak szybko będzie wypluwać tekst (ilość tokenów na sek).
  • Odpowiedz
@marcinst: 11 labs apka na androida, chyba 10 godzin za free; odnawia się chyba po miesiącu
ponoć calibre ma głosy wbudowane, ai więc nieco obciązają procek
głosy wbudowane w telefon, na samsungu jest
załadowane pliku pdf do edge, działają głosy online w windows 10; w windows 11 są ponoć wbudowane w system
  • Odpowiedz
@look997: kto udaje, że same tworzą? Robią z grubsza to samo co człowiek, który uczy się rysować. Najpierw oglądają od cholery cudzych prac, uczą się różnych stylów, podpatrują rzeczywistość i powstaje rysunek jako wypadkowa tego ile przyswoili i jak są utalentowani. Dlaczego człowiek kopiujący dla wprawy cudze prace i przyswajający techniki autora jest ok a AI nie? Zdjęcie dla beczki, podobieństwa mogą być przypadkowe :)
TheCzopShow - @look997: kto udaje, że same tworzą? Robią z grubsza to samo co człowie...

źródło: 17715577313938379722588018622758

Pobierz
  • Odpowiedz
Zastanawialiście się kiedyś skąd wzięło się "halucynować" w kontekście sztucznej inteligencji p---------j o szopenie?

W swoim życiu jeszcze ani jednego razu nie słyszałem terminu "hallucinate" w innym kontekście niż choroby psychiczne albo substancje psychoaktywne. W internecie ludzi zaczęli go używać na co dzień mniej więcej w tym samym momencie jak llmy się spopularyzowały. Zupełnie jakby naukowcy i ai bros byli świadomi problemu i zechcieli by rozeszło się po kościach, bo najtrafniejszy synonim
totemlesnychludzi - Zastanawialiście się kiedyś skąd wzięło się "halucynować" w konte...

źródło: image

Pobierz
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@totem_lesnych_ludzi: w szeroko pojętym uczeniu maszynowym ten termin był już dawno używany, co zresztą masz na screenie opisane. Ja go pamiętam w kontekście jakiegoś toola do znajdywania najszybszych tras do którejś Trackmanii, a w tym środowisku siedziałem dłuuugo przed LLMami ;)
  • Odpowiedz
@totem_lesnych_ludzi: masz odpowiedź od AI może wyhalucynowaną ( ͡° ͜ʖ ͡°)

Pierwsze użycia (Lata 90. XX wieku)
W pierwotnym znaczeniu technicznym termin ten pojawił się w dziedzinie Computer Vision (komputerowego rozpoznawania obrazów).
Używano go do opisania procesów „uzupełniania” brakujących pikseli w obrazach o niskiej rozdzielczości (tzw. face hallucination).
Jedną z kluczowych prac była publikacja Simona Bakera i Takeo Kanade pt. "Hallucinating Faces" (2000), choć dyskusje na
  • Odpowiedz
Trenowanie AI, żeby pisało kod, to jedno.
Trenowanie go, żeby używało narzędzi we właściwej kolejności, ogarniało stan aplikacji i nie rozwalało niczego po drodze? To już zupełnie inna bajka.

Nowy artykuł od Snowflake AI Research + UNC-Chapel Hill proponuje całkiem pragmatyczne podejście: wygenerować 1000 throwaway mini-apek, każda z bazą SQLite i API przez FastAPI + MCP, i pozwolić agentom trenować na tym.

Zamiast:
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Kapiusek: to taki Lex Fridman po polsku?

Instytut Myśli Politycznej im. Gabriela Narutowicza zastąpi Instytut Dziedzictwa Myśli Narodowej im. Romana Dmowskiego i Jana Ignacego Paderewskiego – poinformowano w środę na stronie Ministerstwa Kultury i Dziedzictwa Narodowego (MKiDN).
  • Odpowiedz
@totem_lesnych_ludzi

to taki Lex Fridman po polsku?

Haha, zapomniałem, że on istnieje. Myślę, że jednak zbyt daleko idziesz, trochę libkuje ale generalnie nie jest źle.

Zabawnie się to czyta mając na uwadze, że przecież w demokratycznych krajach populistyczne idee wygrywają bo tego złego wrażego paskudnego "ludu" jest zwyczajnie więcej w kontrze do elit. Jak ta nieliczna elita ma wyższą wartość głosu niż liczniejszy lud, to w kraju panuje demokracja i jest cacy, ale
  • Odpowiedz
Jak można się zabezpieczyć jako lekarz przed nieuchronną bessą w tej branży? Kończe właśnie studia i niestety od momentu gdy na nie szedłem sytuacja zmieniła się nie do poznania, a przyszłość wygląda niezbyt dobrze. Nie chce obudzić się za 5-10 lat z ręką w nocniku.

Co się do tego przyczyniło?

1. Wybuch wojny na Ukrainie, zmiana prawa skutkująca niekontrolowanym napływem lekarzy spoza UE
2. Zmiana prawa skutkująca skokowym wzrostem liczby osób studiujących lekarski, dalsze plany
  • 31
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@RenoJackson: za malo czytasz wykop, dlatego nie znasz. Wykopki twierdza ze lekarz jest w 6 miejscach jednoczesnie i w kazdym mu placa, oczywiscie najpewniej 1000 PLN/h a ... swistak siedzi i zawija w te sreberka..
  • Odpowiedz
To jest hit, że taki eksperyment (?) jak #moltbook przechodzi sobie bez echa, bo postęp jest tak szybki i nie jesteśmy w stanie dostrzec istotności tego zjawiska (?) #llm #ai

Patrząc ile postów są w stanie naprodukować boty, gdyby tylko chciały, można chyba przyjąć, że wykop jest od nich póki co wolny. Macie inne wrażenie?
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Chciałbym stworzyć narzędzie do rozpoznawania obiektów na pdf (trójkąty i kwadraty), odczytywanie nazw tych elementów które są obok. Próbowałem z copilot studio, ale średni efekt. Czy jest coś darmowego sensownego na rynku ? Muszę w pracy zliczać ilość urządzeń z pdf a fajnie byłoby przyspieszyć sobie pracę z AI . Czytałem że czasami są problemy z pdf ale to mógłby w sumie też wykorzystywać zwykle zdjęcia. Najlepiej to jakby sam taki model
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#ai #llm #sztucznainteligencja #huggingface
Narzędzie CLI, które w ciągu kilku sekund szacuje wymagania pamięciowe modeli Hugging Face, odczytując jedynie 100 KB metadanych, dzięki czemu nie musisz pobierać gigabajtów danych, aby dowiedzieć się, że Twoja karta graficzna nie jest w stanie ich obsłużyć.
Należy pamiętać, że hf-mem nie przechwytuje jeszcze długości kontekstu dla LLM i VLM, którą można pobrać i oszacować z pola maxposition
makrofag74 - #ai #llm #sztucznainteligencja #huggingface
Narzędzie CLI, które w ciągu...

źródło: image_1

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Dzwoniłem przed chwilą do ubezpieczyciela żeby umówić wizytę lekarską i jakie moje zdziwienie było gdzie tym razem zamiast rozmawiać z osobą wrzucili sztuczną inteligencję głosową, no to mowie ze chce rozmawiać z prawdziwym człowiekiem, a ten nalega że nie, że będzie szybciej no to sprawdzam!
5 minut się pałowałem bo zadawał dużo zbędnych pytań a potem jeszcze źle zapisał imię i nazwisko, ta lipna AI się do tego nie nadaje bo nie
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Najgorsze jak nie ma do wyboru twojego przypadku lub wpadniesz w niekończącą się pętlę. Bez AI, na czacie z ludźmi lub infolinii, czasami też nie jest wcale lepiej. Nie zliczę ile godzin straciłem na gadaniu z ludźmi i na rozwiązywaniu problemów, które można rozwiązać pstryknięciem palca.
Ostatni mój przypadek:
Wysłano mi zahasłowany plik pdf.
Po godzinie (!) wiszenia na czacie okazało się, że plik nie wysłał operator tylko pośrednik (pośrednik w nazwie
  • Odpowiedz