Generative (Generatywny) – model potrafi tworzyć nowy tekst, a nie tylko klasyfikować czy wyszukiwać informacje.
Transformer – to typ sieci neuronowej (architektura zaproponowana w 2017 roku), która świetnie radzi sobie z rozumieniem kontekstu i relacji między słowami w zdaniach.
Pre-trained (Wstępnie wytrenowany) – zanim zacznie odpowiadać na pytania użytkowników, model jest najpierw trenowany na ogromnych zbiorach danych tekstowych, aby „nauczyć się języka”.
@Michal_Szczecin: nie rozumiesz pobór jest tylko po to żeby miec kwit na pszekolenie z bronią, żeby takiemu dac i jak coś odwali kulka na miejscu lub za dezercję
bez tego kręciliby głupa bo jako cywile mogą, to jest idea poboru
@No_mad: NIGDY w historii nie uczyła, chodzi TYLKO i i wyłącznie o przeszkolenie na b--ń i nic wiecej, potem kulka za dezercję albo od wroga i to wszystko
w wojsku i innych takich strukturach im ktoś jest bardziej podatny na pierwotne impulsy jak sen, s.x bezpieczeństwo i ma to bardziej uproszczone, wypaczone - tym bardziej pasuje do tych struktur
wojsko to nie elitarne jednostki ale masa powszechna i beton
Jak chcą wprowadzić pobór powszechny zamiast selekcji i specjalizacji to wiadomo że tacy poborowi to zagrożenie samo w sobie, nawet Stalin ich nie bał..
@tomciopaluh: ma duzo do zrobienia (ale nie online)
poza tym
W Warszawie i innych europejskich stolicach coraz bardziej napięta atmosfera towarzyszy spekulacjom na temat tego, czego tak naprawdę chce Trump. Fix widzi trzy możliwe powody, dla których Stany Zjednoczone pozostają daleko w tyle za oczekiwaniami Europejczyków w obliczu eskalacji sytuacji w
teraz departament Pete'a Hegsetha rozważa nawet zniesienie programów bezpieczeństwa z państwami bałtyckimi.
W Warszawie i innych europejskich stolicach coraz bardziej napięta atmosfera towarzyszy spekulacjom na temat tego, czego tak naprawdę chce Trump. Fix widzi trzy możliwe powody, dla których Stany Zjednoczone pozostają daleko w tyle za oczekiwaniami Europejczyków w obliczu eskalacji sytuacji w Ukrainie.
Transformer – to typ sieci neuronowej (architektura zaproponowana w 2017 roku), która świetnie radzi sobie z rozumieniem kontekstu i relacji między słowami w zdaniach.
Pre-trained (Wstępnie wytrenowany) – zanim zacznie odpowiadać na pytania użytkowników, model jest najpierw trenowany na ogromnych zbiorach danych tekstowych, aby „nauczyć się języka”.