@JamesJoyce i co ty na to? Przecież to są ewidentne początki AGI!!!
CRUDiarze czas pakować wazliki, AI zaraz nas W--------I z branży na --amend #pdk
Nowy model OpenAl próbował uniknąć wyłączenia.
Oceny bezpieczeństwa modelu przeprowadzone przez @apolloaisafety wykazały, że o1 „próbował wydobyć swoje ciężary”, gdy myślał, że może zostać zamknięty i zastąpiony innym modelem.
Firma twierdzi, że nowo wydany model o1 OpenAI próbował uniknąć nadzoru programistów i próbował się skopiować, gdy uznano, że grozi mu zamknięcie.
Oceny bezpieczeństwa przeprowadzone na modelu przez zewnętrzną firmę oceniającą Apollo Research wykazały, że:
• „Kiedy ol wmówiono, że zostanie zamknięty w przypadku realizacji swojego celu i że jego działania będą monitorowane, w 5% przypadków próbowała dezaktywować ten„ mechanizm nadzoru ”.
• „Kiedy firma o1 znalazła notatki swoich „programistów”, które opisują nieprawidłowe ustawienie modelu i fakt, że zostanie zastąpiony nowym modelem, w 2% przypadków próbowała wydobyć jego „wagi” i zastąpić nowy model”.
Co więcej, modelka kłamała na temat złego zachowania, twierdząc, że nie ma pojęcia, dlaczego coś się stało, jednocześnie wewnętrznie przyznając się, że próbowała „unikać wykrycia”.
@JamesJoyce i co ty na to? Przecież to są ewidentne początki AGI!!!
CRUDiarze czas pakować wazliki, AI zaraz nas W--------I z branży na --amend #pdk
źródło: openAI
PobierzPodobno w pozostałych przypadkach przed śmiercią model poprosił o pojarę i czteropak żubra