Próbuje napisać "Smart Notes" tak aby wszystko co zapisze ma w idealnym momencie mie powiadomic o tym i zawsze widzieć co aktualnie musze zrobić.

Ale model gemma3 nadała kupienie "teraz" mleka, przyznała prorytek "someday" kiedyś tam xD w sumie to aż zabawne :P

sorry, to była "llama3.2" nie gemma3. musze zapisywać wybór w localstorage :x a te taski w indexedb

#ciekawostki #sztucznainteligencja #programowanie #ollama
aptitude - Próbuje napisać "Smart Notes" tak aby wszystko co zapisze ma w idealnym mo...

źródło: he

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Tworząc "infinity" grę gdzie cały scenariusz generuje tylko AI, to może zły pomysł, bo nie ma końca gry no i w sumie to wciąga zaczynałem jako pracownik w roku 2077, teraz zniszczyłem całą ziemie i zaczynam tworzyć własne organizmy, zero ludzi!

troche przypomina mi to odcinek z Fringe o_o
#ollama #fringe
aptitude - Tworząc "infinity" grę gdzie cały scenariusz generuje tylko AI, to może zł...

źródło: a3

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Zakochałem się, używam od kilku dni gemma3n:e4b i nie mogę wyjść z podziwu jak szybko to działa, dosłownie prawie jak bym z Claude rozmawiał.
https://ollama.com/library/gemma3n

Pytanie, czy nadal potrzebujemy płatnych APIs do AI? Zdecydowanie tak, nie oszukujmy się, ale za pomocą Claude Code nie zrobie tego za pomocą ollamacode, w sumie to jedyna rozsąda alternatywa do claude code, tylko teraz claude code nawet pokazuje ile bash procesów ma AI uruchomione, co jest
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Wiecie co jest dość zabawne?
Ja dość często korzystam z ollama, czyli lokalny ChatGPT, ale co mnie najbardziej przeraża, to że posiada wiedzę z całego internetu, nawet jak zapytam aby podał mi np. link do react markdown to podaje nie tylko do github ale też npmjs i nawet działa, czyli, mam całą wiedzę z internetu na swoim PC?!

#sztucznainteligencja #ollama
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#programowanie #ai #ollama Jaki jest najlepszy model odpalony lokalnie do przerabiania tekstu, który pójdzie normalnie na macbooku m2 32gb? ostatnio próbowałem ollama 8b ale niestety gpu leci od razu do 99% i komp rozgrzany do czerwoności w kilka sekund. Jakieś porady?
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Pytanie do specjalistów :)
Zdarza mi się czasami korzystać z #copilot albo #gemini. Głównie dlatego, że nie muszę za to płacić. Ale pomyślałem, czy by może nie wykorzystać stojącego serwera, żeby postawić sobie coś lokalnie.
Do dyspozycji mam komputer z i3-12100 i 32GB ramu. Wygląda na to, że powinienem do tego dokupić GPU. Tylko jakie (tanie :))? I czy faktycznie jest to niezbędne?

Kolejna sprawa - czy
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@DziadLab: To jeżeli ollama Ci starcza to spoko. Ale może zainteresuj się Google? Mają darmowe API, musisz tylko obsłużyć rate limity i czasami są błędy, bo model jest przeciążony, ale to wyjątek złapiesz i elo. Ja sobie zrobiłem kolejkę i workera. Jak się nie uda to sleep na minutę i następnym razem już zazwyczaj jest ok. Google udostępnia API w formacie OpenAI, więc potem przełączenie na ollamę czy innego dostawcę
  • Odpowiedz
Wczoraj zrobiłem coś tak głupiego, że postanowiłem z tego tytułu popełnić wpis i zastanawiam się, czy nie pobiłem jakiegoś rekordu.


Na początku bardzo lubię bawić się w odpalanie modeli językowych #ai lokalnie. Głównie dla zabawy, ale czasami pomagają mi one w pracy.
Bardzo się zajarałem jak zobaczyłem że #deepseek jest opensource i że można go pobrać. Szanuję swój główny sprzęt (już nie pierwszej nowości) na, tyle że zazwyczaj
once-ler - Wczoraj zrobiłem coś tak głupiego, że postanowiłem z tego tytułu popełnić ...

źródło: image (3)

Pobierz
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#it #programowanie #programista15k #sztucznainteligencja #chatgpt #ollama

Fajny artykuł wyjaśniający tool calling w Ollamie. Tool calling to mechanizm zwiększania funkcjonalność modeli AI, takich jak LLMy, poprzez umożliwienie im interakcji z zewnętrznymi narzędziami, interfejsami API lub systemami podczas rozmowy. Polecam do kawki.

https://medium.com/@danushidk507/ollama-tool-calling-8e399b2a17a8
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@CzarnoksieznikJanusz: Tak. Moim zdaniem jest to znacznie szersze niż RAG, który skupia się najczęściej na dokumentach. Tutaj łączymy się np z api yfinance, czyli Yahoo Finance i np. pobieramy ceny jakiś akcji z zewnętrznego api.

prompt = 'What is the current stock price of Apple?'
print('Prompt:', prompt)
  • Odpowiedz
Jestem pod wrażeniem możliwości jakie daje AI, a tworzenie aplikacji bez znajomości programowania to dla mnie game changer. Niestety tam nie ma prywatności i chciałbym działać lokalnie, a do tego mój Thikpad się nie nadaje i potrzebuję kąkuter. Budżet to maks 7500 zł (już dwukrotnie podniesiony i napięty jak guma w majtach).

Pierwotnie chciałem wziąć Ryzen 5 na AM4 z RTX 3090 Ti 24GB, ale nie mam pewności jak korzystano z takiej katy
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@r3ap3r no po pierwsze skoro do pracy to weź chociaż ryzena 7 7700. Cena niemal taka sama.

Resztę też da się porównywalnie, a dużo taniej. W tym celu wystarczy kupić u mnie :-) #majk3lskladapcty

Wydajesz się zdecydowany na te komponenty i wygląda mi to generalnie na wporzo! To tylko takie kosmetyczne uwagi.
  • Odpowiedz