Wpis z mikrobloga

#programista15k #programowanie #sztucznainteligencja #it

Skończyłem dziś poc wielkiego projektu, który miał zaoszczędzić 20 godzin miesięcznie. Pracowałem nad tym kilka tygodni. Po skończeniu i stworzeniu rozwiązania, uznano że AI w tym procesie jest niebezpieczne.

POC skończone. Model działa, ale nie będzie wdrożony, bo klient się boi. Takich przypadków widziałem multum. Tworzenie szybkich lub zaawansowanych poc dla różnych procesów to bardzo cenna umiejętność. Wszędzie się to obecnie robi. Mam wrażenie, że często więcej się sprawdza niż wdraża.
  • 16
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@JamesJoyce wyjaśnisz co oznacza tutaj „niebezpieczne”? Skutki jailbreakingu wpiętego LLM? Błędy innych modeli wplywajace na relacje z klientami?

Pytam bo troche mnie zaskakuje rezygnacja z całego procesu. Gdy wychodzi podobna sytuacja u moich klientów (choć ja to określam ryzykiem, a nie niebezpieczeństwem) to zwykle wystarczy wyciąć elementy ryzykowne z pipeline lub nieco zmodyfikować proces (np pozostawić ostateczną ocenę człowiekowi)
  • Odpowiedz
  • 0
@tylkosieturozgladam: Niee, kompletnie nie. Proces jest kluczowy dla jakiegoś systemu. Np. dotyczy zarządzaniem budżetem. Model ma dokładność na poziomie 98%, ale szef managera, który wdraża AI nie jest przekonany do "zabawek" i ucina proces, bo nie rozumie rozwiązania i jest dla niego potencjalnie niebezpieczne. To tylko jeden z przykładów.
  • Odpowiedz
@JamesJoyce hmm ciekawe. Strzelam, że to u klienta z segmentu big enterprise? Tam „góra” zazwyczaj jest strachliwa do nowości. AI się tam powolniej adaptuje. No, chyba że się kupi od handlowca to wtedy trzeba użyć, bo kasę się wydało :)

Nieco mniejsze firmy zauważyłem, że już inaczej podchodzą do AI. Chcą je mieć, ale nie rozumieją jak to zrobić lub mają problem z określeniem wąskich gardeł, które można rozwiązać z użyciem
  • Odpowiedz
Model ma dokładność na poziomie 98%, ale szef managera, który wdraża AI nie jest przekonany do "zabawek" i ucina proces, bo nie rozumie rozwiązania i jest dla niego potencjalnie niebezpieczne. To tylko jeden z przykładów.


@JamesJoyce: Przy modelach predykcyjnych to zawsze będzie 'wyzwanie' jak nietechnicznej osobie wytłumaczyć dokładnośc - piszesz 98% (zakładam, że w tym przypadku to bardzo dużo), ale "biznes" do razu pyta: dlaczego nie 100%? komputer się myli?
  • Odpowiedz
@cyk21 zespół biznesowy osiągał ok 80%. „Ale to było ludzkie 80%”. Wiedzieli gdzie i kiedy się pomylili.


@JamesJoyce: Dokładnie tak wyglądają oczekiwania użytkowników odnośnie technologii, że poziom niskiego błędu, który jest z góry określony, ludzie dyskredytują cały projekt.

Piszesz też o 'szefach', itd.: jeżeli to bank czy finanse, to ten szef ostatnie 10-15 lat pracy budował swoją karierę właśnie na pilnowaniu "błędów ludzkich" czyli sprawdzaniu pracy w najbardziej manualny
  • Odpowiedz