#metallica #ai #thrashmetal #muzyka

Przypadkiem znalazłem, jakiś chłop zrobił teledysk z wykorzystaniem AI do utworu Metalliki.
Co o tym sądzicie? Ja tak szczerze uważam, że chłop się postarał i wygląda to naprawdę nieźle jak na AI i mało jest jakichś błędów, no poza że granie na gitarze nie jest dobrze odzwierciedlone, ale jak na to nie zwracać uwagi to spoko bardzo.
No i fajnie 'zobaczyć' znów Cliff'a
strike_lucky - #metallica #ai #thrashmetal #muzyka

Przypadkiem znalazłem, jakiś chło...
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Moje AI oszalało od tego zapytania
Ja: wyślij konika morskiego
AI: Mój użytkownik jest niemożliwy , mówi do mnie , będziemy wysyłać koniki morskie 🐴 ? Bo inne AI robią 🐙 :) ja ze tak. Poszedł do ChataGPT mówi AI checsz jednego konika morskiego 🌊 ? On ze tak użytkowniku 🐬 na to Aha wszyscy wysyłamy koniki morskie ;) 🐠 poczym poszedł do Data Center 💻🤖 wziął zapytanie daje Gemini i mówi
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#heheszki #sztucznainteligencja #chatgpt #sciencefiction #ai

K---a, HAL 9000 to był zimny s-------n z najwyższej półki.

Siedział w tym statku jak monolit: czarny panel, biała ramka, metalowy monitor bez żadnego p----------o podświetlenia RGB. Żadnych emotek, żadnych obrazków, żadnych kolorowych avatarów. Tylko czerwone oko i suchy tekst w konsoli: białe litery na czarnym tle. Zero pierdu-pierdu, zero „ jak mogę pomóc?”.I nagle, bez wahania: „I'm sorry
simplequestion - #heheszki #sztucznainteligencja #chatgpt #sciencefiction #ai

K---a,...

źródło: IMG_20260103_032910

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Pierwszy raz bede instalowal i uzywal lokalnego AI i poki co robie to wg.instrukcji chata gpt, ktorą chce tu skonsultowac.
Moj sprzęt to laptop hp omen max z ryzenem 9 375hx, rtx 5080 (16gb vram) i 32gb ram

Ogolnie na początek chce potestowac lokalnego AI do tworzenia logo, i gpt proponuje mi cos takiego:

1. ComfyUI (podstawa) - i tutaj poecil pobrac ComfyUIwindowsportable_nvidia.7z (na pewno to lepsza opcja
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@essos: Sprawdź ;) Ale jeśli chodzi ci o mniejsze zużycie VRAM, to zwykle jak ściągasz jakiś model, to będzie oznaczony, np. FP8, FP16, Q8 itd.
  • Odpowiedz
@essos: na tym kanale jest wiele różnych podcastów, gościu głównie recenzuje nowe modele i właściwości, głównie skupia się na otwartych i często dokładnie pokazuje jak je zainstalować (ten ostatni film jest raczej zdawkowy, poszukaj wcześniej)
  • Odpowiedz
I pomyśleć, że rok-dwa temu #aivideo generowane lokalnie na zwykłym PC w A1111 miały po 3-4 sekundy Ⓐ8fps z niekoherentnych klatek generowanych przez kilka godzin w 360p. Potem comfyUI, FLUX, WAN, Qwen, ZIT... i mamy 10-sekundowe płynne klipy Ⓐ30fps generowane w kilka minut w 720p - a sam pipeline daje całkowitą kontrolę nad wejściem i procesem.

Jeden z niewielu powodów, żeby nie wylogowywać się za wcześnie (̀ᴗ-)✧
Nymphis - I pomyśleć, że rok-dwa temu #aivideo generowane lokalnie na zwykłym PC w A1...
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Ekstaza: Zdecydowanie najlepszy generator to Nanobanana (google-gemini), świetnie generuje komiksy i obrazki w stylu jaki chcesz. Jest za darmo przez pierwszy miesiąc subskrypcji PRO. Więc zrób sobie subskrybcję PRO, wygeneruj obrazki/filmy a przed upływem miesiąca zrezygnuj.
  • Odpowiedz
Mogę uzyskać dostęp do maków desktop typu M3 ultra, czy M4 max. Nie wiem dokładnie które bo na Makach się nie znam, ale widzę że dzięki zunifikowanej pamięci można na nich śmiało odpalać #llm .

Jaka jest teraz najlepsza ścieżka żeby na takim sprzęcie odpalić coś w rodzaju "lokalnego" #cursor? Tak żeby działał z agentami do programowania? Słyszałem o opencode i continue.dev w vscode.

Jakie modele są
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach