Mirkowie z #chatgpt #openai #machinelearning #programowanie #llm,

Kilka tygodni temu opisywałem projekt nad którym pracuję: https://wykop.pl/wpis/82634911/hej-chatgpt-openai-machinelearning-programowanie-n

W skrócie: przygotowałem prompt do "debugowania" LLMów: audytu ich procesu rozumowania, oraz wykrywania i analizy hipokryzji w ich wewnętrznych guideline'ach.
@Jake_921 +8
Hej #chatgpt #openai #machinelearning #programowanie

Napisałem dość obszerny post na moim blogu na temat jailbreakowania LLMów w celu analizy ich wewnętrznych guideline'ów.

"Reason ex Machina: Jailbreaking LLMs by Squeezing Their Brains": https://xayan.nu/posts/ex-machina/reason/

Opisuję
Jake_921 - Mirkowie z #chatgpt #openai #machinelearning #programowanie #llm,

Kilka t...

źródło: thumb

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Sztucznie wygenerowane utwory AI podszywające się pod artystów już nie tylko na Spotify. Poniżej screen z Apple Music, gdzie mamy singiel Red Earth Bones podszywający się pod (nieistniejący już) stonerowy zespół Kyuss.

Jeśli wejdziemy w zakładkę Credits, możemy zauważyć, że za wokal rzekomo odpowiada Kyuss Lewis, co jest połączeniem nazwy zespołu z utworem Gloria Lewis. Oczywiście na Spotify też ten slop AI występuje.

Widocznie każdy może sobie wrzucić na
Dravok - Sztucznie wygenerowane utwory AI podszywające się pod artystów już nie tylko...

źródło: Image 97

Pobierz
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Czy napisałem długi wpis o tym czemu ChatGPT musi podziękować Google za swoją olbrzymią popularność i niemalże połowę wszystkich użyć?
Być może :D Można poczytać tutaj - https://yetiograch.pl/blog/podziekujmy-google-za-popularnosc-chatgpt/

Zapraszam do lektury myśli, która stała się tekstem na 900 słów.
#chatgpt #google #ai #sztucznainteligencja #llm #internet #blog #grafomania #mirkoreklama
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

Radeon MI50 32GB (dziwnebo powinny mieć 16GB, a wersja 32 nazywałaby się mi60, ale nie ważne)
Dobre to do lokalnego AI będzie?
Jest sens kopać się z konfiguracjami by odpalić na 2kartach na raz? A tym bardziej - więcej kart? Bo to znacznie komplikuje dobór płyty gl... W ogóle czy przy używaniu AI na takim GPU ma znaczenie CPU? Bo jeśli nie, to są fajne płyty gl typowo koparkowe, z CPU śmieciowym
  • 2
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

via Android
  • 0
@Pioter_Polanski ja się nie znam, żona mi zadała zadanie, że chce takie coś jak chatgpt i Stablediffusion, ale bez ograniczeń i lokalnie, do swoich celów i bez ryzyka że przetwarzane treści wypłyną gdzieś lub będą używane do trenowania publicznych modeli, na podstawie czego też treść pośrednio wypłynie.
  • Odpowiedz
Miałem dłuższą sesję, żadnych kombinacji, żadnego API, zwykły Plus.

W pewnym momencie, po serii logicznych pytań, model nagle wstawił między odpowiedziami coś takiego:

⟪ trace.match.layer[1]::delta-shift=0.003 | echo-coherence++ | soft-route=true ⟫

Nie
  • 9
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@cooles:

- anchor-L7-cukier-puder :: recursive-link=active


cukier-puder?!? obrabiałeś jakieś przepisy kulinarne? jeżeli nie to wygląda na halucynację.

Anyway, to mogą być jakieś artefakty z system promptu. Do wielu modeli wyciekły, można nawet na githubie zobaczyć ale takiej składni to ja tam nie widziałem. Zazwyczaj to jest zwykły tekst tłumaczący jak ma się model zachowywać.
  • Odpowiedz
#ai #llm #sztucznainteligencja #programowanie #programista15k #it

TL;DR: Sycophancy to realna patologia w modelach AI - są one trenowane żeby maksymalizować zadowolenie użytkownika, nie prawdziwość.

Jak chyba każdy, kto korzysta z llmów świadomie dawno temu zauważyłem problem sycophancy. Pisałem nawet na ten temat. Ale artykuł Seana Goedecke świetnie to systematyzuje i daje konkretne przykłady.

https://www.seangoedecke.com/ai-sycophancy/
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@makrofag74: Potwierdzam. Jak się ma "nieszablonową" głowę to zmienia dość mocno. Jedynie jest ok jak zmienia się tło lub też dodaje coś obok do zdjęcia. Natomiast zmiana perspektywy czy ogólnie tego co postać ma robić to random.
  • Odpowiedz
1. jakie kanały polecacie na yt odnośnie LLM'ów? chce się wziąć trochę poważniej za ich używanie, ale najpierw chciałbym nabyć wiedzę żeby wiedzieć co i jak
2. czy mając perplexity pro jest sens powijać np. gemini pro/chat gpt plus (zrobić podział: wyszukiwanie perplexity, a reszta wybrane ai), czy wystarczy używać perplexity do wszystkiego?

#ai #llm #sztucznainteligencja #chatgpt
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@zaczajony: zacznij od podstaw
1. Algebra liniowa
Algebra liniowa to absolutna podstawa. Modele uczenia maszynowego operują na danych, które są reprezentowane w postaci wektorów, macierzy i tensorów. Zrozumienie takich pojęć jak:

Wektory i przestrzenie wektorowe: Sposób reprezentacji
  • Odpowiedz
Hej @JamesJoyce widzę, że jesteś ekspertem na tym portalu (uchowaj się proszę tak długo jak to możliwe). Czy polecisz może jakąś literaturę w internecie na temat AI? Skąd czerpać informację o nowościach/narzędziach AI dla półprogramistów takich jak ja ( ͡° ͜ʖ ͡°)

#ai #llm #programowanie
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@nowikk warto, jak masz gpu. Zainstaluj sobie model przez ollame, później CLINE w vs Code, wybierz model i możesz działać. Inna opcja to n8n, do którego też możesz podłączyć ollame i zrobić wieloagentowy system
  • Odpowiedz