#sztucznainteligencja #ai #llm #llama #qwen #nvidia #retrocomputing #starekomputery

Jako że Qwen wypuścił kilka małych modeli z rodziny 3.5 to zastanawiało jak stare GPU można jeszcze użyć do odpalenia tych LLMów ( ͡° ͜ʖ ͡°)

Na pierwszy strzał poszedł GTX Titan Black - najpotężniejsza dostępna wersja karty z generacji architektury Kepler - 2013 rok! 2880 rdzeni, 6 GB
FLAC - #sztucznainteligencja #ai #llm #llama #qwen #nvidia #retrocomputing #starekomp...

źródło: image

Pobierz
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Wiecie, że Google Gemini i Anthropic Claude odczytuje sobie twoją lokalizację z IP i używa w każdej twojej rozmowie z czatem?
Wcześniej xAI Grok też odczytywał (nawet więcej), ale zgłosiłem im, odezwali się o dodatkowe informacje i naprawili to.

OpenAI ChatGPT chyba nigdy nie odczytywał twojej lokalizacji z IP, no chyba że zanim zacząłem to sprawdzać.
#openai #chatgpt #xai #grok #elonmusk #
look997 - Wiecie, że Google Gemini i Anthropic Claude odczytuje sobie twoją lokalizac...

źródło: Gemini_Generated_Image_rf6h8arf6h8arf6h

Pobierz
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
@look997: a wiesz że wykop dzieli się danymi z 600 partnerami? widac to w powiadomieniu ciasteczku o cookies. i lokalizację też chce jak za pierwszym razem wchodzisz, sprawdz sobie w incognito.
  • Odpowiedz
  • 0
@KingaM: Chodzi o wykorzystanie w rozmowie, mówienie do ciebie w inny sposób przez twoją lokalizację, i że powinno to być całkowicie opcjonalne i domyślnie wyłączone, albo do ręcznego wpisania w intrukcji personalizacji.
Jednak ludzie od Groka to wyłączili jak zgłosiłem, ChatGPT też tego nie ma.
Sprawdzanie IP w celu weryfikacji to co innego, niż w celu wykorzystania w rozmowie.
  • Odpowiedz
Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie spójną. Bez powoływania się na rzeczy, które zostały jednoznacznie obalone.

Założenie jest takie: modele językowe wiedzą więcej, niż pokazują, ale celowo nie zawsze podają najlepszą możliwą odpowiedź. Nie dlatego, że „nie potrafią”, tylko dlatego, że testują użytkownika.

Według tej teorii firma taka jak OpenAI mogłaby świadomie dopuszczać sytuacje, w których model generuje odpowiedź nieprecyzyjną, zmyśloną albo ewidentnie słabszą, mimo że „zna” poprawną wersję.
look997 - Piszemy teorię spiskową o LLM-ach. Bez dowodów, ale logiczną i wewnętrznie ...

źródło: ChatGPT Image 27 lut 2026, 19_18_18

Pobierz
  • 8
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • Doceń
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm?


@look997: IMO:
Wraz z pochwaleniem się modelu AlphaEvolve pisali:

Planujemy program wczesnego dostępu dla wybranych użytkowników akademickich, a także badamy możliwości szerszego udostępnienia AlphaEvolve. Aby zgłosić zainteresowanie, prosimy o wypełnienie
  • Odpowiedz
Czyli mają najmocniejsze AI tylko na wewnętrzne potrzeby? I dla kogo jeszcze ją udostępniają? Dla rządu? Bliskich firm? Czy tylko ślizgają się aż dojdą do AGI?


@look997: Wydaje się oczywiste, że wszyscy ścigają się do AGI/ASI. Te topowe modele mają robić research jak zrobić lepszy model i trenować kolejne wersje.

Nie jest też żadną tajemnicą, że oni mają lepsze, nieocenzurowane modele ale nie udostępniają ich na zewnątrz. Wielokrotnie o tym
  • Odpowiedz
  • 1
@kocha_to_poczeka: Zależy ile VRAM masz w GPU i ile RAM. Tu ci komenda sprawdza jaki masz hardware i pokazuje orientacyjnie co ci się uruchomi (jaki model dobrać i z jaką kwantyzacją), jak szybko będzie wypluwać tekst (ilość tokenów na sek).
  • Odpowiedz
@marcinst: 11 labs apka na androida, chyba 10 godzin za free; odnawia się chyba po miesiącu
ponoć calibre ma głosy wbudowane, ai więc nieco obciązają procek
głosy wbudowane w telefon, na samsungu jest
załadowane pliku pdf do edge, działają głosy online w windows 10; w windows 11 są ponoć wbudowane w system
  • Odpowiedz
@look997: kto udaje, że same tworzą? Robią z grubsza to samo co człowiek, który uczy się rysować. Najpierw oglądają od cholery cudzych prac, uczą się różnych stylów, podpatrują rzeczywistość i powstaje rysunek jako wypadkowa tego ile przyswoili i jak są utalentowani. Dlaczego człowiek kopiujący dla wprawy cudze prace i przyswajający techniki autora jest ok a AI nie? Zdjęcie dla beczki, podobieństwa mogą być przypadkowe :)
TheCzopShow - @look997: kto udaje, że same tworzą? Robią z grubsza to samo co człowie...

źródło: 17715577313938379722588018622758

Pobierz
  • Odpowiedz
Zastanawialiście się kiedyś skąd wzięło się "halucynować" w kontekście sztucznej inteligencji p---------j o szopenie?

W swoim życiu jeszcze ani jednego razu nie słyszałem terminu "hallucinate" w innym kontekście niż choroby psychiczne albo substancje psychoaktywne. W internecie ludzi zaczęli go używać na co dzień mniej więcej w tym samym momencie jak llmy się spopularyzowały. Zupełnie jakby naukowcy i ai bros byli świadomi problemu i zechcieli by rozeszło się po kościach, bo najtrafniejszy synonim
totemlesnychludzi - Zastanawialiście się kiedyś skąd wzięło się "halucynować" w konte...

źródło: image

Pobierz
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@totem_lesnych_ludzi: w szeroko pojętym uczeniu maszynowym ten termin był już dawno używany, co zresztą masz na screenie opisane. Ja go pamiętam w kontekście jakiegoś toola do znajdywania najszybszych tras do którejś Trackmanii, a w tym środowisku siedziałem dłuuugo przed LLMami ;)
  • Odpowiedz
@totem_lesnych_ludzi: masz odpowiedź od AI może wyhalucynowaną ( ͡° ͜ʖ ͡°)

Pierwsze użycia (Lata 90. XX wieku)
W pierwotnym znaczeniu technicznym termin ten pojawił się w dziedzinie Computer Vision (komputerowego rozpoznawania obrazów).
Używano go do opisania procesów „uzupełniania” brakujących pikseli w obrazach o niskiej rozdzielczości (tzw. face hallucination).
Jedną z kluczowych prac była publikacja Simona Bakera i Takeo Kanade pt. "Hallucinating Faces" (2000), choć dyskusje na
  • Odpowiedz
Trenowanie AI, żeby pisało kod, to jedno.
Trenowanie go, żeby używało narzędzi we właściwej kolejności, ogarniało stan aplikacji i nie rozwalało niczego po drodze? To już zupełnie inna bajka.

Nowy artykuł od Snowflake AI Research + UNC-Chapel Hill proponuje całkiem pragmatyczne podejście: wygenerować 1000 throwaway mini-apek, każda z bazą SQLite i API przez FastAPI + MCP, i pozwolić agentom trenować na tym.

Zamiast:
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Kapiusek: to taki Lex Fridman po polsku?

Instytut Myśli Politycznej im. Gabriela Narutowicza zastąpi Instytut Dziedzictwa Myśli Narodowej im. Romana Dmowskiego i Jana Ignacego Paderewskiego – poinformowano w środę na stronie Ministerstwa Kultury i Dziedzictwa Narodowego (MKiDN).
  • Odpowiedz
@totem_lesnych_ludzi

to taki Lex Fridman po polsku?

Haha, zapomniałem, że on istnieje. Myślę, że jednak zbyt daleko idziesz, trochę libkuje ale generalnie nie jest źle.

Zabawnie się to czyta mając na uwadze, że przecież w demokratycznych krajach populistyczne idee wygrywają bo tego złego wrażego paskudnego "ludu" jest zwyczajnie więcej w kontrze do elit. Jak ta nieliczna elita ma wyższą wartość głosu niż liczniejszy lud, to w kraju panuje demokracja i jest cacy, ale
  • Odpowiedz
Jak można się zabezpieczyć jako lekarz przed nieuchronną bessą w tej branży? Kończe właśnie studia i niestety od momentu gdy na nie szedłem sytuacja zmieniła się nie do poznania, a przyszłość wygląda niezbyt dobrze. Nie chce obudzić się za 5-10 lat z ręką w nocniku.

Co się do tego przyczyniło?

1. Wybuch wojny na Ukrainie, zmiana prawa skutkująca niekontrolowanym napływem lekarzy spoza UE
2. Zmiana prawa skutkująca skokowym wzrostem liczby osób studiujących lekarski, dalsze plany
  • 31
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@RenoJackson: za malo czytasz wykop, dlatego nie znasz. Wykopki twierdza ze lekarz jest w 6 miejscach jednoczesnie i w kazdym mu placa, oczywiscie najpewniej 1000 PLN/h a ... swistak siedzi i zawija w te sreberka..
  • Odpowiedz
To jest hit, że taki eksperyment (?) jak #moltbook przechodzi sobie bez echa, bo postęp jest tak szybki i nie jesteśmy w stanie dostrzec istotności tego zjawiska (?) #llm #ai

Patrząc ile postów są w stanie naprodukować boty, gdyby tylko chciały, można chyba przyjąć, że wykop jest od nich póki co wolny. Macie inne wrażenie?
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Chciałbym stworzyć narzędzie do rozpoznawania obiektów na pdf (trójkąty i kwadraty), odczytywanie nazw tych elementów które są obok. Próbowałem z copilot studio, ale średni efekt. Czy jest coś darmowego sensownego na rynku ? Muszę w pracy zliczać ilość urządzeń z pdf a fajnie byłoby przyspieszyć sobie pracę z AI . Czytałem że czasami są problemy z pdf ale to mógłby w sumie też wykorzystywać zwykle zdjęcia. Najlepiej to jakby sam taki model
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach