Aktywne Wpisy
Fifth_Element +673
Jeśli ten wpis osiągnie dzisiaj 243 plusy, to dorysuję kolejny poziom trójkąta sierpińskiego. Będę to robił codziennie (ale nie w weekend) aż do momentu, kiedy nie zbierze się odpowiednia liczba plusów lub wyrzucą mnie z roboty.
#glupiewykopowezabawy #informatyka #matematyka #trojkatsierpinskiego
#glupiewykopowezabawy #informatyka #matematyka #trojkatsierpinskiego
DaVinciEnjoyer53 +11
#blackpill #incel #p0lka miałem się za przegrywa ważąć 125kg , teraz waże 98 i wiecie co? laska przeciętna która jak miałem 125 kg mnie zghostowała na tinderze teraz pisze 5 zdań kiedy ja pisze jedno i nawet sama mi pisze czy chce się spotkać ... XD ten przegryw to może troche serio mit i jest jeszcze szansa dla niektórych tutaj
No więc dzisiaj opowiem Wam o sławetnym pliku robots.txt, który jest skarbnicą wiedzy na temat ukrytych treści w serwisie internetowym. Wiele osób myśli, że to właśnie plik robots.txt z Disallow: / pozwoli na zablokowanie całej zawartości strony internetowej przed zindeksowaniem, ale jest to błędne myślenie. NIe powinniśmy wykorzystywać pliku robots.txt do blokowania indeksowania prywatnych zasobów strony internetowej. Pierwszy z powodów jest banalnie prosty bo atakujący sprawdzi jakich zasobów nie chcemy pokazywać publicznie i właśnie dokładnie w ich kierunku będzie kierowany atak. Drugi powód nie jest dla Wszystkich jasny, ale Google nie blokuje w pełni takich zasobów przed indeksowaniem. Jeśli gdzieś będzie do nich prowadził link z opisem Google może taką stronę zindeksować bez odwiedzania witryny!
Dobra, dobra to jak bronić się przed indeksowaniem prywatnych zasobów?! Dostęp z hasłem lub dyrektywa noindex.
Zgadzam się w 100% z tym, żeby nie umieszczać informacji o prywatnych zasobach w plikach robots.txt, przecież nie zostawiamy złodziejowi kartki z listą potencjalnych miejsc gdzie mogą być klucze do naszego mieszkania!
https://httpd.apache.org/docs/2.4/howto/htaccess.html