Może ktoś z tagu #webdev wyjaśnić logikę jaka stoi za tym, że jak masz zablokowane jakieś tagi, to po prostu ukrywa te konkretne wpisy z głównej, zamiast wybrać te niezablokowane wpisy z pozostałych stron i zapełnić główną nimi?
@CXLV: Zakładam, że gorące generowane (pobierane z bazy i dzielone na strony) są do cache wspólnego dla wszystkich, a następnie już w sesji użytkownika usuwane są z nich te niepożądane. Krótko mówiąc - do dupy takie programowanie.
Jest to na pewno najwydajniejsze, ale zdecydowanie nie powinno być tak zrobione.
@shagwest: to chyba bardziej wynika ze specyfiki portalu - zakładam, ze na początku nikt nie przewidywał takiej sytuacji, za to gorące miały być wspólne dla każdego, a nie "wszystko i nic", bo u jednych pojawiają się inne wpisy, niż u drugich.
Stąd to bardziej nieprzewidziana sytuacja przy projektowaniu portalu, niż jakieś techniczne przeszkody - generowanie w locie listy i filtracja przez blokowane tagi to jeden join, który nie byłby zbyt morderczy
@CXLV: owszem, dałoby się zrobić mądrzej tylko jest to bardziej skomplikowane.
Proste cache'owanie nie wchodzi w grę, bo tyle ile użytkowników - tyle kombinacji tagów i ludzi na czarnej liście. Bez cache też ciężko, bo baza pod spodem padła by w moment od rozbudowanych zapytań. O ile pamiętam z ogłoszenia sprzed paru lat pod spodem jest Elasticsearch i taki rozbudowany filterquery by zarżnął klaster w moment.
No mirki kochane muszę coś wyznać, właśnie się dowiedziałem że moja wybranka serca po 6 latach bycia razem mnie zdradziła. I #!$%@?, kredyt, mieszkanie, 6 lat razem wszytko w #!$%@?. Co robić? Jak żyć?
źródło: comment_1621145883mIqGKwnM45ZTNhi8gexmWz.jpg
PobierzJest to na pewno najwydajniejsze, ale zdecydowanie nie powinno być tak zrobione.
Stąd to bardziej nieprzewidziana sytuacja przy projektowaniu portalu, niż jakieś techniczne przeszkody - generowanie w locie listy i filtracja przez blokowane tagi to jeden join, który nie byłby zbyt morderczy
Proste cache'owanie nie wchodzi w grę, bo tyle ile użytkowników - tyle kombinacji tagów i ludzi na czarnej liście. Bez cache też ciężko, bo baza pod spodem padła by w moment od rozbudowanych zapytań. O ile pamiętam z ogłoszenia sprzed paru lat pod spodem jest Elasticsearch i taki rozbudowany filterquery by zarżnął klaster w moment.
Rozwiązanie, które przychodzi mi do