Zachęcony jak sprawie poszło zaraz kupuje w końcu #cursor i dość
Wszystko
Wszystkie
Archiwum
- 3
Zachęcony jak sprawie poszło zaraz kupuje w końcu #cursor i dość
- 1
Chciałem mieć system który dostarczy licencjonowane stocki w odpowiednich rozmiarach na wszystkie z setek stron którymi się zajmuje, praca obejmowała:
- pobranie 27tys stocków ze strony która ani nie ma api, ani nawet nie udostępni mi w normalny sposób całej listy pobrań więc AI dało mi rozwiązanie jak złożyć zapytania w konsoli przeglądarki by dostać całą tę listę i edytować ją do formatu w którym będzie mi potrzebna
- znalezienie CMS służącego organizacji zdjęć, pierwszy raz ten CMS na
3
Lepsza dobra AI czy niekompetencja w call centre?
A Wy jak sądzicie? Czy pracownicy w call centrę to empatyczni eksperci? Czy jednak dobrze zrobiona AI z dostępem do wszystkich danych może być skuteczniejsza w rozwiązywaniu skomplikowanych problemów klientów?
z- 3
- #
- #
- #
- #
- #
- #
- 0
Mam pełno pomysłów z wykorzystaniem grafiki wektorowej i lasera do wycinania/grawerowania, ale nie potrafię rysować. Chat prawie świetnie sobie radzi z generowaniem moich pomysłów, ale limit dwóch grafik jest niewystarczający.
https://allegro.pl/oferta/chatgpt-plan-plus-chatgpt-4o-omni-bez-gratisu-na-30-dni-15672476210?fromVariant=15672269578 to dobra oferta? xd
#chatgpt #chatgpt4 #sztucznainteligencja #sztuka
2
Zrobiliśmy piosenkę AI. Chyba będzie hit.
Sami oceńcie. Zrobione w Suno, tekst oryginalny.
z- 2
- #
- #
- #
- #
- #
- #
2
Nowy model od OpenAI o1
Jak czytamy w komunikacie OpenAI, modele z serii o1 potrafią rozwiązywać złożone zadania w dziedzinie nauk ścisłych, programowania i matematyki, lepiej niż starsze wersje.
z- 1
- #
- #
- #
- #
- #
- #
1
"Nowy poziom możliwości sztucznej inteligencji". OpenAI zaprezentował nowy model
OpenAI, czyli twórca ChataGPT, zaprezentował nową serię modeli językowych opartych o sztuczną inteligencję.
z- 1
- #
- #
- #
- #
- #
- #
- 4
- 3
GPT-4o: 56.1%
Expert Human: 69.7% ekspert w jednej dziedzinie
GPT-o1: 78% 160 IQ ekspert w KAŻDEJ dziedzinie
COMPETITION CODE
- 1
- 1
https://webzero.pl/openai-przedstawia-model-o1-twierdzac-ze-potrafi-pomyslec-zanim-odpowie/
#chatgpt #ai #openai
• [1]
Google NotebookLM ozwala on na przesłanie do 100 dokumentów, każdy do 200 000 słów i generowanie podsumowań, zapytań itp. Dokumenty można przeglądać i znajdować w nich kluczowe detale. Już samo to jest fajne, ale na dniach wydali niesamowitą aktualizację. Teraz Google NotebookLM może generować podcasty (z męskim i żeńskim lektorem) z dokumentów i stron internetowych!
Aby wypróbować tę funkcję, trzeba wejść na NotebookLM.google.com i przesłać swój plik tekstowy albo wskazać stronę internetową. Następnie kliknij * Notebook Guide po prawej stronie pola wprowadzania i wybierz Generate w sekcji Audio Overview. Zajmie to kilka minut, ale wygeneruje podcast. Nie działa to jeszcze na mobilnych urządzeniach.
Naturalnie
- 4
- 6
Dr Jim Fan, autor wpisu na X omawia model "Strawberry" (o1), który to wprowadza zmianę w podejściu do uczenia maszynowego, przesuwając nacisk z dużych modeli przedtrenowanych na optymalizację skalowania w czasie wnioskowania (inference). Podejście to odzwierciedla szerszy trend polegający na wykorzystaniu większej mocy obliczeniowej podczas wnioskowania, a nie tylko w fazie trenowania, co jest zgodne z ideą Richarda Suttona z The Bitter Lesson, która podkreśla, że jedynie uczenie i wyszukiwanie są technikami skalującymi się z mocą obliczeniową.
Fan zauważa, że duże modele często koncentrują się na zapamiętywaniu faktów na potrzeby zadań takich jak quizy, ale możliwe jest oddzielenie rozumowania od wiedzy. Mniejszy rdzeń może skupić się na rozumowaniu i wywoływać narzędzia zewnętrzne (takie jak weryfikatory kodu czy przeglądarki), co zmniejsza potrzebę intensywnego przedtrenowania (pre-training).
Zamiast inwestować moc obliczeniową głównie w trenowanie, coraz więcej obliczeń jest wykorzystywanych podczas wnioskowania. Modele mogą symulować różne strategie i ostatecznie dochodzić do lepszych rozwiązań, podobnie jak w przypadku wyszukiwania Monte Carlo Tree Search (MCTS) stosowanego w AlphaGo lub rStar, o którym pisałem w którymś w poprzednich wpisów #codzienneainews
7
OpenAI o1 Nowa era w rozwiązywaniu złożonych problemów dzięki sztucznej intelige
OpenAI wprowadza serię modeli OpenAI o1, które dzięki zaawansowanym zdolnościom do rozumowania potrafią rozwiązywać bardziej skomplikowane zadania, zwłaszcza w naukach ścisłych, matematyce oraz kodowaniu.
z- 5
- #
- #
- #
- #
- #
- #
- 0
- 0
- 0
- 2
Oczywiście nadal przyśpiesza rozwiązywanie problemu, potrafi coś łatwo wyjaśnić i jest zajebistym narzędziem itd. Ale te halucynacje i to jak jednak trzeba mocno go nakierowywać w prompts, żeby nie ocipiał mnie rozczarowuje.
Do tego jak
1) Dobry prompt składa się z 4-ch części: jasnych instrukcji, dobrego kontekstu, jasnego opisu oczekiwanego wyjścia i stosowania wzorca Persona,
2) instrukcje to co chcę od LLM,
3) kontekst to opis otoczki tych instrukcji,
4) opis wyjścia to np. ile słów ma być na wyjściu, czy to ma być esej, rozprawka, sprawozdanie, styl,
5) wzorzec persona to coś w stylu: "wciel się w doświadczonego prawnika z
Czy LLMy halucynują
@kawalerka15k: Tak. Bo w praktyce jebniesz głową w szklany sufit w okolicy 20k i potem będziesz się już poruszał dosłownie po kropelce wyżej, bo zamykasz widełki większości ofert i w zasadzie nie masz jak z tego wyjść jak nie zaczniesz brać bezpośrednio jakichś kontraktów z USA.
A jako alternatywa będzie granie dosyć ryzykownie czyli zmienianie firm "bo mi 5 zł więcej tam zapłacą" i w pewnym momencie
zależy co tam robisz. Ja mam taki projekt, że łączę umiejętnie oba światy.
Obecnie np migruje aplikacje pomiedzy chmurami, więc nie tylko Azure ale też AWS, dobrze też znać GCP. A praca developera dziś nie kończy się w momencie napisania kodu, ale po przygotowaniu dockera, przepuszczenia wszystkiego przez CI/CD i zdeployowaniu na środowisko testowe. Oczywiscie im większa firma tym wieksza specjalizacja
#ai #sztucznainteligencja