Wpis z mikrobloga

@JamesJoyce: w sensie Elon wykradł kod GPT? I odpalił bez podmianki regexpem OpenAI na Grok?

No cóż, to może być trudne bo nie wiadomo chyba do końca jak sieć neuronowa przetrzymuje dane. Być może string jest trzymany jako chary w formie bajtów, a wtedy podmianka danych słówek może być trudna do ogarnięcia ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°
@JamesJoyce: Ogólnie SOTA dla małych modeli językowych jest osiągane poprzez finetuning na przykładach generowanych przez GPT-4. Jeśli na ślepo dali jakieś prompty i na nich przyuczyli a nawet wytrenowali swój model to nic dziwnego, sam widziałem jak LLaMA twierdziła, że jest chatem GPT. Ale z drugiej strony wiele modeli nawet po finetuningu jest świadoma swojej rzeczywistej nazwy więc to pewnie tylko trochę niechlujna praca i tyle, nie żadne "WykRAdanie BaZy gPT".