Aktywne Wpisy

erebeuzet +57
różowa uparla sie, ze wyśle młodszą córkę do komunii.
ostatnio w kosciele byliśmy 5 lat temu na pogrzebie. normalnie nie praktykujemy, choc jak obudzisz mnie w nocy to prawie każdą modlitwe z pamięci wyrecytuje. tak mnie zindoktrynowali w dziecinstwie.
Ale córka nie wie nawet kto to jezus.
świadomie nigdy nie zapoznawalem jej z tymi #!$%@?.
Starsza, którą tez różowa splugawila komunią, a ktora kazala się wypisac z religii mówi, ze niech idzie
ostatnio w kosciele byliśmy 5 lat temu na pogrzebie. normalnie nie praktykujemy, choc jak obudzisz mnie w nocy to prawie każdą modlitwe z pamięci wyrecytuje. tak mnie zindoktrynowali w dziecinstwie.
Ale córka nie wie nawet kto to jezus.
świadomie nigdy nie zapoznawalem jej z tymi #!$%@?.
Starsza, którą tez różowa splugawila komunią, a ktora kazala się wypisac z religii mówi, ze niech idzie

Malenaa +1
Jeżdżę pomagać mojej dziewczynie w przeprowadzce (razem od pół roku), malowaliśmy pokoje, trochę rzeczy przenosiliśmy. Przeprowadza się z matką, nie mają za bardzo żadnego chłopa żeby im pomógł z takimi robotami. Byłem pomagać tam 5 razy, ze 3 razy od rana do wieczora,mam jakoś 40 minut drogi do niej. Nie dają mi żadnych pieniędzy za to, tylko wyżerkę i podziękowania.
Mieszkam z rodzicami i oni twierdzą, że się daje wykorzystywać i sobie
Mieszkam z rodzicami i oni twierdzą, że się daje wykorzystywać i sobie
Kto ma rację?
- Ja 80.0% (740)
- Moi rodzice 20.0% (185)





Dla wszystkich zainteresowanych data science/ai, 4 dni temu Karpathy wypuścił świetne video,
w którym pokazuje jak zbudować Tokenizer od zera.
https://youtu.be/zduSFxRajkE?si=TjRhcwFlxm2yvULH
Tokenizer to bardzo istotny element pipelinu nlp, który służy do konwertowania tekstu na sekwencję tokenów, tworzenia liczbowej reprezentacji tokenów i łączenia ich w tensory.
Prosty przykład zdania: "Wykopki to najlepsi ludzie pod słońcem"
Etap 1 (Podział na mniejsze części): "Wykopki", "to", "najlepsi", "ludzie", "pod", "słońcem"
Etap 2 (Przekształcenie na numery, tutaj fikcyjne, pochodzące z wytrenowanych wcześniej wielkich korpusów): "Wykopki" -> 12345, "to" -> 67, "najlepsi" -> 8910, "ludzie" -> 1112, "pod" -> 1314, "słońcem" -> 1516
Etap 3 (Dodanie specjalnych znaczników, pozwalają one na określenie początków i końców zdani): Początek zdania -> 101, Koniec zdania -> 102
Etap 4 (Wynik końcowy): 101, 12345, 67, 8910, 1112, 1314, 1516, 102
Podstawowy pipeline nlp, np. przy użyciu architektury Huggingface można sobie przeklikać tutaj:
https://colab.research.google.com/github/huggingface/notebooks/blob/main/transformers_doc/en/preprocessing.ipynb