Co myślicie o cursorze? Tak sobie vibe coduje i jest dobrze, zero fomo, czilerka. Jak za dawnych lat, kiedy szukało się rozwiązań errorów kodu php na stackoverflow. Nic się nie zmieniło, vibe dalej ten sam, tylko technologia bardziej przyjazna developerowi.
#webdev #ai #glazurnik #ide #it
lufa08 - Co myślicie o cursorze? Tak sobie vibe coduje i jest dobrze, zero fomo, czil...

źródło: image

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Kilka tygodni temu napisalem artykul o tym jak uregulowac prawo autorskie wobec AI. Google AI Overview podbralo go zza paywalla i teraz serwuje moje propozycje jako autorytatywne informacje. Ironia jest gruba: za kazdym razem gdy Google scrapeuje moje tresci, wzmacnia framework ktory zrobilby taki scraping nielegalnym. Doktryna zatrutej wody, sledzenie zrodel, okresy przejsciowe: wszystko moje, teraz w Google AI Overview. Czy to wplynie na polityke? Zobaczymy. Ale eksperyment dowodzi jednego: firmy AI
tomaszs - Kilka tygodni temu napisalem artykul o tym jak uregulowac prawo autorskie w...

źródło: 1000040016

Pobierz
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

za kazdym razem gdy Google scrapeuje moje tresci, wzmacnia framework ktory zrobilby taki scraping nielegalnym


@tomaszs: No nie wiem. Pozwoliłeś medium handlować to pewnie handlują ;)

Unless otherwise agreed in writing, by submitting, posting, or displaying content on or through the Services, you grant Medium a nonexclusive, royalty-free, worldwide, fully paid, and sublicensable license to use, reproduce, modify, adapt, publish, translate, create derivative works from, distribute, publicly perform and
  • Odpowiedz
Mam do obrobienia trochę tekstu i chcę sobie uprościć życie. Który model językowy - w tym opcje abonamentowe - jest godny zaufania w akceptowalnym stopniu?
Testowałem wczoraj 'myślący' ChatGPT i 'myślący' gemini. Chat nagminnie ma halucynajcje i stwarza nieistniejące źródła, Gemini trochę lepiej. Dostali 3 pliki pdf z tekstem i zadaniem stworzenia podsumowania i porównania treści. Chat odwalił po łepkach, gemieni zrobił nawet fajnie, ale w toku analizy odpowiedzi część podsumowania zmyślił
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Mysle ze to jest kwestia promtu, a nie konkretnego modelu llm.


@Woyteq: otototo, promt i dobre instrukcje czy to do GPT czy do claude i inna jakość pracy

@Otreblla kolega z pierwszego komentarza dobrze prawi, nie korzystałem ale ponoć Google NotebookLM jest kozak w tym temacie
  • Odpowiedz
Mirki i Mirabelki - czy świat popier*oliło? Ceny paliwa +30-40% na przestrzeni ostatnich kilku tygodni, ceny pamięci RAM +kilkaset procent na przestrzeni ostatnich kilku miesięcy, ceny kart graficznych również nieciekawe, wakacje w ciepłych krajach też tak nie za bardzo - co tu się właśnie odpier*ala?

#programowanie #programista15k #gruparatowaniapoziomu #pracait #pytanie #kryzys #kryzysit #sztucznainteligencja #ai
  • 13
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@a5f5c1: Paliwo drogie przez działania trumpa. Ormuz zablokowany to mniejsza podaż przy niezmienionym popycie i drogo.

Co do ramu i grafik to zakontraktowane są do AI. Firmy budują ogromne centra danych żeby ludzie mogli generować g---o filmiki z Kamilkiem programista. Podaż nie nadąża za popytem więc drogo.

Podsumowując klasyczny wolny ryneczek. No oprócz wakacji w Azji, to akurat wina trumpa.
  • Odpowiedz
  • 1
Chciałbym też wiedzieć jakie są wyniki tego benchmarku na ludziach - w sensie na całej populacji, razem z tymi co ledwo dociągają do IQ80.


@kwanty: IMO:
Nim wyszła ta wersja, to jej twórcy pisali, że te zadania mają być łatwe dla ludzi, i bez problemu ludzie mieli w nich osiągać 100%. Może mieli na myśli ludzi z co najmniej inteligencją na "poziomie przeciętnym", czyli minimum 90 IQ w skalach wechslerowskich.
@Arkass 0
https://arcprize.org/arc-agi/3
Czym jest ARC-AGI-3?
Tłumaczenie:
Arkass - >Chciałbym też wiedzieć jakie są wyniki tego benchmarku na ludziach - w sens...

źródło: image

Pobierz
  • Odpowiedz
@Arkass: Spróbowałem, pierwszą planszę przeszedłem za pierwszym razem, drugą... potrzebowałem 6 podejść zanim wykumałem o co chodzi i zoptymalizowałem rozgrywkę... trzecią przeszedłem za pierwszym razem, dalej nie próbowałem.

Rozumiem na czym polega trudność - trzeba wykoncypować zasady (to już było w poprzednich) ale teraz jest więcej zmiennych w tym czas (co jest trudne). IMHO max pół roku jak ktoś wypromptuje agenta który to rozwala...

IMHO to idzie w złą stronę.
  • Odpowiedz
Ciekawa sytuacja pod tym zdjęciem na FB, bo Grażyny i Janusze z automatu oskarżyły autorkę, że G---O AI PO CO TO WRZUCASZ.

A pomimo tego, że zdjęcie wygląda wstępnie jak AI to nim nie jest, prawdopodobnie wleciał jakiś filtr wygładzający i stąd ten efekt na zdjęciu.

Wystarczy wejść w profil autorki i widać, że zdjęcia wrzuca realne, a poza tym jeszcze dała inne ujęcia tych gołąbków.

Czyli
maczuga_kepuczowa - Ciekawa sytuacja pod tym zdjęciem na FB, bo Grażyny i Janusze z a...

źródło: Zrzut ekranu 2026-03-25 170701

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@maczuga_kepuczowa: na dolnej części jest znak wodny z napisem "Marzena". Zdjęcie zrobione tak, żeby wyglądało zachęcająco, możliwe, że z jakimś filtrem. Sam osobiście w zeszłym roku robiłem gołąbki, które wyglądały praktycznie identycznie
  • Odpowiedz
🛡️Tradycyjne zapory cybernetyczne przegrywają z coraz bardziej inteligentnymi atakami, które naśladują rutynową pracę elektrowni. Z tego powodu naukowcy opracowują technologię sztucznej inteligencji, która będzie w stanie odpowiedzieć na nowe zagrożenia.

👉Cyfryzacja sieci zwiększa zagrożenie cyberatakami
👉Dlaczego tradycyjne systemy zawodzą?
👉AI wykryje atak w 2 sekundy
👉Cyfrowy miecz
SwiatOze - 🛡️Tradycyjne zapory cybernetyczne przegrywają z coraz bardziej inteligent...

źródło: soze_Posty IG (57)

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Siema Mirki z #gielda i #ai, widzieliście to?

Google wczoraj wrzuciło info, które może nieźle namieszać, a widzę że u nas przeszło trochę bez echa (pic rel). Chodzi o ich nowy algorytm TurboQuant.
W dużym skrócie: tnie zużycie pamięci (VRAM) dla LLM-ów o co najmniej 6 razy i daje 8-krotnego kopa do wydajności. I to wszystko bez żadnej straty na jakości modelu.

Jak ktoś siedzi w AI, ten wie, że
@ethize +2
#gielda bullish
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@ethize: Słyszałem, typo z roboty od LLM-a się jara tym od wczoraj jak Hamburg w '43.

To chyba zależy od spojrzenia na temat. Z tego co ja rozumiem największy zysk z tego będzie na lokalnym hardware gdzie masz mały vram (większy kontekst, lepsze modele). Dla dużych graczy zmniejszą się koszty, okej, ale czy wraz z lepszą dostępnością lokalnych modeli, nie zmniejszy się trochę popyt na te płatne?

Wiem że większość
  • Odpowiedz
  • 2
@mirekp: no ten program jest po to żeby to sprawdzić.
1. Skanuje wybrany tag i wyciąga aktywnych userów.
2. Zapisuje ich w bazie.
3. Wyciąga ostatni wpis usera i próbuje skomentować. Jak się uda to usuwa wpis. Jak się nie uda to dodaje znacznik że jestem na czarno.
PopeLeon - @mirekp: no ten program jest po to żeby to sprawdzić. 
1. Skanuje wybrany ...

źródło: obraz

Pobierz
  • Odpowiedz