coraz bardziej i więcej potrzeba zasobów do weryfikowania dziur jakie napiszą boty od kodu.


@Jarzyna: tymczasem 99% gości od cybersecurity jedyne co potrafi zrobić to przekleić wynik z jakiegoś skanera do audytu bez żadnego zrozumienia
  • Odpowiedz
@some_ONE: widać po tym wątku, że ludzie mocno idealizują cybersec. Jak piszesz 99% kolesi z tych działów spokojnie zastąpisz AI, które będzie robić skany, interpretować wyniki i aplikować fixy. Jakieś kopanie logów i szukanie anomalii to też idealna rzecz dla AI 🤖 zresztą większość typów z cybersec i tak tych logów nie umie czytać xd
  • Odpowiedz
Trzymajcie mnie bo nie wyczymie.

Wchodzę sobie na #mediamarkt pooglądać klawiatury i zastaje mnie widok jak poniżej. Nie dość, że to ich durne rozwiązanie pokazuje tylko 12 produktów na raz, to jeszcze muszę klikać "Pokaż więcej" żeby zobaczyć kolejne 12 produktów.

Żeby przejrzeć wszystkie klawiatury muszę kliknąć ponad 75 razy i czekać na załadowanie nowych elementów listy. Jak mi się wywali strona lub przypadkowo ją odświeżę na 35 stronie, to będę musiał
Gleacher - Trzymajcie mnie bo nie wyczymie.

Wchodzę sobie na #mediamarkt pooglądać k...

źródło: obraz

Pobierz
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

  • 1
@zetisdead: Ależ ty jesteś bystry. Pisałem z perspektywy przeciętnego usera a nie typowego mariusza backendowca, który jakoś tam sobie poradzi bo inny zjeb od UI/UX robi taki szajs xD

Dodatkowo UX rzeczywiście jest zajebisty. Klikniesz 5 razy "pokaż więcej", wyświetla ci się 60 wyników, odświeżasz a tu nagle robi się z tego 12 wyników i pierwszy to nie jest ten sam, który był na początku, tylko to pierwszy element listy
  • Odpowiedz
#programista15k #programowanie #sztucznainteligencja #ai

Coś, co było niemal jest pewne teraz jest pewne. OpenAI opublikowało artykuł udowadniając, że kazdy LLM zawsze będzie coś halucynowal. Nie czasem. Dopiero przy następnej aktualizacji. Zawsze. Udowodnili to matematyką.

Nawet przy idealnych danych treningowych i nieograniczonej mocy obliczeniowej, modele AI nadal z przekonaniem mówią rzeczy, które są całkowicie fałszywe. To nie jest błąd, nad którym pracują. Jest to wpisane w to,
  • 22
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@JamesJoyce: Dlatego z niecierpliwością czekam aż większość źródeł, na których uczone są LLMy, będzie pochodziła z LLM'ów ( ͡° ͜ʖ ͡°)

Zatrute studnie itp.

Natomiast nadal jestem bardzo zadowolony z tego jak LLM ułatwia np. zamianę nieformalnego opisu problemu na oficjalne zgłoszenie do urzędu, czy jak szybko potrafi dokonać syntezy czy porównania kilku dokumentów. Oczywiście wszystko działa w połączeniu z zasadą "ufam, więc sprawdzam", ale nadal
  • Odpowiedz
  • 1
@lisek_cytrusek: Nie. Polecam zaglebic sie w zagadnienie https://en.wikipedia.org/wiki/Symbol_grounding_problem

W kontekście liczenia (arytmetyki) symbol grounding problem sprowadza się do pytania: czy system operujący na cyfrach np. „2 + 2 = 4" naprawdę rozumie co to znaczy „dwa", czy tylko bezmyślnie przetwarza kształty znaków według reguł? Człowiek gruntuje symbol „2" w doświadczeniu: dwa jabłka, dwa kroki, dwa palce. System formalny (kalkulator, LLM) wykonuje poprawne obliczenia, ale cyfry są dla niego tokenami ich
  • Odpowiedz
#programista15k #programowanie #sztucznainteligencja

Kurcze, sporo tych hipotez sie sypie. Najpierw mcp, teraz systemy wieloagentowe. Swietny artykul. Otoz:

Gdy tysiące systemów autonomicznych działają w tym samym środowisku, lokalna optymalizacja nieuchronnie prowadzi do globalnej niestabilności. To nie jest przede wszystkim problem wyrównania AI. To problem architektury koordynacji.

Jeśli
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

#it #programista15k #programowanie #sztucznainteligencja

https://wykop.pl/wpis/85253255/ai-w-obecnej-operacji-wojskowej-przez-departament-war

Kolejny przyklad wielkiego modela jako zarzadcy. Claude byl tym kwadratem na srodku wykresu lub przynajmniej interpretatorem danych z innych systemow. Ale jezyk użyty przez USA sugeruje cos innego.

"Aby
@GeGeGeGe +3
AI w operacji wojskowej na Bliskim Wschodzie

Źródła Washington Post podają, że w planowaniu i przeprowadzaniu operacji wojskowych Iranie używana jest sztuczna inteligencja. Wydaje się to logiczne, że duże i sprawdzone modele mogą przyśpieszyć procesy decyzyjne... A nie, jak generative AI? Chatbot? Chatbot z Antropica generuje listę celów? Jeszcze
JamesJoyce - #it #programista15k #programowanie #sztucznainteligencja

https://wykop....

źródło: image

Pobierz
  • 3
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@JamesJoyce:

W trakcie planowania potencjalnego ataku na Iran, Maven, napędzany przez Claude'a, zasugerował setki celów


Szkoły też od razu wtedy wytypował, czy dodali do listy celów później?
  • Odpowiedz
@JamesJoyce +8
#programowanie #korposwiat #sztucznainteligencja #pracbaza

Panie i Panowie z biznesu, dobrze radzę wam szybko podnosić skille, bo podstawowe i średnio zaawansowane procesy będą zautomatyzowane przez ai w ciągu najbliższych 2-4 lat.

Przed chwilą puściłem do salesów, które następnie przesyłają do jednego z wielkich
  • 4
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

"Jak było eldorado to lizaliśmy dvpę programistom żeby ludzie nie uciekali, ale teraz role się odwróciły, więc dajemy Kamilkom sprint pełny zadań to i już potem ich problem, ile czasu im to faktycznie zajmie" - mówi w wywiadzie CEO inStreamly ( ͡° ͜ʖ ͡°)

#programista15k #kryzysit #programowanie
cattea - "Jak było eldorado to lizaliśmy dvpę programistom żeby ludzie nie uciekali, ...

źródło: 1000006451

Pobierz
  • 1
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach