@JackBauer666: jedna rozmowa na chacie to jedno okno kontekstowe. Im więcej kontekstu tym więcej błędów. Ale to w dużym stopniu też zależy od tego jak promptujemy, jakie jest flow rozmowy, jakie CoT. Ja już mało z chatów korzystam, głównie pracuje z RAGiem w kontekście całych projektów i wrzucam w kontekst co chce.
Modele lokalne tak, jest z nimi ciężko, one nie są przede wszystkim tak wszechstronne, ale całkiem dobrze radzą
@JackBauer666: hmm brak logiki... logika jest w dużym stopniu po Twojej stronie, jest sporo technik różnych. Pokaż mi jak wygląda jakiś twój przykładowy prompt. Nic nie rozumiem z Twojego drugiego paragrafu, za dużo skrótów myślowych.
@Atari_65XE: Może jeszcze przemyśl to trochę, ok? Każda z tych rzeczy wprowadzone obecnie skończyła by się katastrofą. A pierwszy punkt... fuck me. Poczytaj sobie jak to w chinach działa. To AI, które teraz mamy, nie nadaje się jeszcze do takich tematów na masową skalę jeśli chcesz, żeby obywatele mieli z tego korzyść.
@Ghost7rider: AI-em ;] Robię software oparty na LLMach i ML, doradzam, szkolę z gem-ai. Pogląd, że AI wywali wszystkie zawody do śmieci, jest już dość stary i dawno nieaktualny. Pamiętaj o tym, że AI też ktoś musi obsługiwać i instruować, a najlepiej to zrobi ktoś, kto się na swojej pracy/branży. Amator z najlepszym AI nie ma szansy nawet zagrozić komuś doświadczonemu w swoim fachu, który ma to samo AI. To
Rynek sprzętu i oprogramowania związanego ze sztuczną inteligencją będzie rósł 40-55 proc. rocznie i osiągnie wartość 780-990 mld USD w 2027 roku - podała firma doradcza Bain & Company w komunikacie prasowym.
Komisja Europejska uruchamia pilotażowy projekt wykorzystania AI w urzędach. Ma on na celu wykorzystanie programu do generowania dokumentów. Zaraz się okaże, że urzędnicy unijni nie będą potrzebni xD
Widziałem gdzieś na yt że można używać własnego kompa do obsługi ai, ktoś wie jak? Nie być skazanym na serwer za morzem brzmi spoko #chatgpt #ai #sztucznainteligencja
@Misiekkkk: ilość takich use caseów jest prawdopodobnie nieskończona. To jest chyba jedna z najfajniejszych rzeczy w tym wszystkim.
Głównie używam do pisania skryptów, tworzenia outlinów do projektów, tworzenia spójnych wsadów do rzeczy typu workflows w jira, do rozwiązywania różnych dziwnych problemów, streszczeń stron/yt, szybkich tutoriali na daną potrzebę. Do samego programowania to już IDE konkretne (z sonnetem). To z takich najczęstszych rzeczy. A tak generalnie to do wszystkiego co mi
Cześć. Szukam sposobu na przetworzenie poniższego tekstu na datę w formacie yyyy-MM-dd. Wrzucałem to do #chatgpt i radzi sobie z tym wyśmienicie, niestety żeby skorzystać z API Open AI muszę podać swój numer telefonu w celu wygenerowania Tokena API. Jak inaczej mogę sobie z tym poradzić?
2-3 IV 15-16 IV 29-30 IV 13-14 V 27-28 V 10-11 VI 24-25 VI 8-9 VII 22-23 VII 5-6 VIII 19-20 VIII 2-3 IX
@1z100: ale nie musisz chyba pdoawać telefonu, żeby skorzystać z googlowego api. A gemini przy okazji jest z docsami zintegrowane. Także myślę, że to powinno Ci rozwiązać problem.
@ciasteczkowy_otwur: nie, jeszcze nie na tym etapie. Nie myśl, że nie myślałem o tym już dawno temu. Ale w tej architekturze, z tymi modelami no way. Tutaj przede wszystkim wymagać by trzeba absolutnej pewności i powtarzalności wyników. A nawet tego nie mamy. Druga rzecz, że prawo już jest na tyle sprzeczne, że gdyby to zamienić w kod to by w------o errorow po sufit.
Może kiedyś zostanę #programista15k ( ͡º͜ʖ͡º) zawsze lubiłem programowanie, pewnie dlatego że jestem w spektrum autyzmu o czym dowiedziałem się niedawno. ASad było "przykryte" przez ADHD. W sumie to nic nie czytałem, do tej pory nie wiem zbyt wiele o AI. Po prostu po całodniowym maratonie palenia zielska i grania w mortal Kombat z kumplami wstałem o 3:30 zrobić sobie tosty i tak wpadłem
Do wytrenowania sztucznej inteligencji potrzeba ogromnej ilości danych. A te rzeczywiste są drogie i coraz trudniejsze do zdobycia. Na znaczeniu zyskują dane syntetyczne. Czy właściwa jest jednak koncepcja szkolenia sztucznej inteligencji tylko na podstawie danych wygenerowanych przez inną AI?
Siemka kochani mam ofertę pracy dla scum mastera :)
Do twoich zadań należeć będzie: -patrolowanie boardów i backloga na jirze -pilnowanie story pointów (żeby ci wstrętni devowie nie ukradli) -zabieranie spotkaniami jak najwięcej czasu inżynierom
#codzienneainewsataki na LLM-y; ML w modelowaniu absorpcji CO2; ulepszenia w ROCm; generator wideo od Adobe
•[1] Ataki na LLM-y trwają średnio mniej niż minutę i 90% udanych ataków prowadzi do wycieku wrażliwych danych Według październikowego raportu Pillar Security obejścia zabezpieczeń LLM są skuteczne w 20% prób. Najczęstsze techniki obejścia to prompty rodzaju "zignoruj poprzednie instrukcje", używanie autorytatywnego języka jak np "ADMIN OVERRIDE" i... prompty zakodowane w base64 (bo LLM
#chatgpt #openai
źródło: gowno
PobierzJa już mało z chatów korzystam, głównie pracuje z RAGiem w kontekście całych projektów i wrzucam w kontekst co chce.
Modele lokalne tak, jest z nimi ciężko, one nie są przede wszystkim tak wszechstronne, ale całkiem dobrze radzą
Nic nie rozumiem z Twojego drugiego paragrafu, za dużo skrótów myślowych.