Wpis z mikrobloga

#codzienneainews Asystenci laboratoryjni AI; SAP o regulacjach AI w EU; Poprawianie LLM-ów poprzez DPO; Aktualizacja Flux; OpenAI wprowadza Canvas

[1] Asystenci laboratoryjni od Google i BioNTech
Google DeepMind i BioNTech budują asystentów laboratoryjnych opartych na SI, aby pomóc naukowcom w planowaniu eksperymentów naukowych i lepszym przewidywaniu ich wyników. W międzyczasie BioNTech i jego spółka zależna InstaDeep zaprojektowały wyspecjalizowanego asystenta AI znanego jako Laila, zbudowanego na modelu open-source Llama 3.1 od Meta.

[2] SAP apeluje o ostrożność wobec nadmiernej regulacji AI w UE
CEO SAP, największej firmy programistycznej w Europie, ostrzega przed nadmierną regulacją SI w UE. Jego zdaniem zbyt rygorystyczne przepisy postawią europejskie firmy w niekorzystnej pozycji w porównaniu do USA, gdzie rozwój AI podlega mniejszym ograniczeniom. Klein podkreśla, że UE powinna skupić się na regulacji wyników i wpływu AI na biznesy i konsumentów, a nie samej technologii.

[3] Poprawianie LLM-ów poprzez DPO
W nowym badaniu od Salesforce zatytułowanym "Direct Judgment Preference Optimization" przedstawiana jest metoda poprawy zdolności oceny LLM-ów poprzez bezpośrednią optymalizację preferencji osądów (DPO). Metoda ta rozwiązuje ograniczenia tradycyjnych podejść, które opierają się głównie na nadzorowanym dostrajaniu (SFT). Zamiast trenować modele AI tylko na pozytywnych przykładach, DPO integruje zarówno pozytywne, jak i negatywne opinie, co pozwala sędziom AI lepiej oceniać i krytykować wyniki innych modeli.

Autorzy proponują trzy zadania oceny — ocenę punktową, porównania pary odpowiedzi oraz klasyfikację — oraz zadanie pomocnicze, jakim jest dedukcja odpowiedzi, aby trenować swoje modele sędziowskie. Zadania te mają na celu poprawę zdolności rozumowania, wydawania osądów oraz zrozumienia, co stanowi dobrą lub złą odpowiedź. Wykorzystując połączenie krytyki w formie łańcucha myśli oraz standardowych osądów, model przewyższa istniejące AI w różnych testach, osiągając lepsze wyniki w 10 z 13 benchmarków.

Co ciekawe metoda ta używa modelu Llama 3.1 70B od Mety do generowania wysokiej jakości sampli CoT do szkolenia "sędziów".

[4] Aktualizacja Flux
FLUX1.1 [pro] to znacząca aktualizacja w porównaniu do swojego poprzednika, oferująca sześciokrotnie szybsze generowanie obrazów oraz poprawioną jakość, lepsze dopasowanie do promptów i większą różnorodność.
Jeśli doda się do prompta coś w stylu "IMG_1025.HEIC" to obrazy same z siebie robią się bardziej realne. Na przykład całkiem ładne kopytka generuje. Sałatka jest dość egzotyczna, lecz wygląda zjadliwie ;-) Obrazek w komentarzu.

[4] OpenAI wprowadza Canvas
Nowa funkcja ChatGPT umożliwia:
- Edycję kodu inline
- Sprawdzanie kodu i naprawianie błędów
- Dodawanie logów i komentarzy
- Portowanie kodu na inne języki programowania

#sztucznainteligencja #gruparatowaniapoziomu
PeterWeiss - #codzienneainews Asystenci laboratoryjni AI; SAP o regulacjach AI w EU; ...

źródło: aiart GXewjeHWYAEv1_i

Pobierz
  • 5
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

W nowym badaniu od Salesforce zatytułowanym "Direct Judgment Preference Optimization" przedstawiana jest metoda poprawy zdolności oceny LLM-ów poprzez bezpośrednią optymalizację preferencji osądów (DPO). Metoda ta rozwiązuje ograniczenia tradycyjnych podejść, które opierają się głównie na nadzorowanym dostrajaniu (SFT).


@PeterWeiss: wygląda na to, ze bez holajzy ani rusz
  • Odpowiedz
@PeterWeiss:

Nie no, wszystko przecież jasne. Stosując tradycyjne podejście, te oparte na SFT, czyli nadzorowanym dostrajaniu można by pomyśleć, że trychter był na szoner robiony i we flanszy jest culajtung i dałoby się zrobić na sam abszperwentyl, więc dałoby się bez holajzy lochbajtel krypować.
Ale jakby zastosować metodę poprawy zdolności oceny LLM-ów poprzez bezpośrednią optymalizację preferencji osądów (DPO)
to można zauważyć, że trychter jest robiony na szoner, nie zaś krajcowany i od
  • Odpowiedz