@oldfield: Kiedyś by się powiedziało, że kreatywne, pomysłowe a dziś wygląda beznadziejnie, tanio i czarny ekran byłby lepszy.
  • Odpowiedz
#ai #stablediffusion jak to działa formalnie np takie mage.space i masa innych stronek wykorzystuje open sourcowe modele i pobiera za subskrypcję?
Jeśli uruchomilbym Stable Diffusion u siebie, udostępnił API do promptów to mogę za to brać kasę?
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@grand_khavatari: myślę że jak tyle takich serwisów powstało to powinno to być zgodne z licencją.
Ale za jakiś czas chyba połowa się wykruszy bo strasznie dużo tego.
Ja szukałem jakiegoś z rozsądną cenę do nauki…ale póki co używam lokalnie, jak zimno to przynajmniej laptop nagrzeje w pokoju xD
  • Odpowiedz
bo to open source I wątpliwe moralnie, nie znam się na tej dziedzinie prawa, wydawało mi się, że zwykle mają takie licencję bez możliwosci komercji


@grand_khavatari: a czy możesz użyć Linuxa by postawić serwer i na nim zarabiać?

Możesz - tu nie ma nic wątpliwie moralnego. Nie możesz sprzedawać tylko modeli i stable diffusion innym, ale możesz korzystać z nich by zarabiać pieniądze. Na tym polega open source.
  • Odpowiedz
Minął już nieco ponad rok od publicznego wydania #chatgpt . I mam wrażenie, że to tylko ślepy zaułek w rozwoju #ai . Niby można z nim rozmawiać jak z drugim człowiekiem, ale raczej z takim, co mało wie, ale musi się wypowiedzieć.
Nie rozumie najprostszych komend, nie umie programować, nie ma poczucia humoru. Można tak gadać i narzekać.
Może nadzieją jest specjalizacja? Nauczyć daną instancję SI programowania w
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Chrystus imo używanie sztucznej inteligencji jako bazy danych jest błędem. dużo lepsza jest właśnie specjalizacja i dostęp do zewnętrznych informacji. dzięki temu najmniejsze modele mogą lepiej sobie poradzić z zadaniami niż nawet zwykły gpt4 (7B vs przynajmniej 100x większy gpt)
polecam sprawdzić labs.perplexity.ai i model offline zephyr-7b. wszystkie te modele mają swoje wady i zalety, ale jak się je pozna to da się zrobić nimi więcej niż z chatgpt
  • Odpowiedz
@Chrystus moja ocena modeli to:
- pplx-70b-online (nie ten domyślny 7b) - do znalezienia informacji, przebija chatgpt i barda w tej kwestii
- llama-2-70b i mistral-medium - do rozmowy, pisania i poprawiania tekstu, może też i znalezienia informacji
- codellama - do programowania (co wynika z nazwy)
- mistral-7b i mixtral - do rozmowy i przetwarzania informacji, czasem nie rozumie polskiego
- zephyr-7b - to samo co mistral-7b, ale rozumie polski
  • Odpowiedz
#licencjat #pracalicencjacka #studbaza #pracadyplomowa #chatgpt #ai
Jak radzicie sb z tym, że chat wymyśla sb jakieś artykuły naukowe do źródeł, kompletnie z d*** ? Po uprgade do nowej wersji(4.0) ten problem nie występuje ?

Chat wodę leje dobrze, ale niestety trzeba użyć czasem jakiegoś cytatu a przecież nie będe zamieszczał w pracy, cytatów zmyślonych i tymbardziej jeszcze ze zmyślonych źródeł/publikacji
  • 6
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@ff99pl: nie ma na to sposobu. traktuj to jako narzędzie do generowania tekstu. o stronę merytoryczną musisz zadbać ty sam.
4.0 jest oczywiście dużo lepszy, gdybym miał korzystać z wersji 3.5 to bym nie korzystał z tego wcale, ale nadal zmyśla.
  • Odpowiedz