Kiedyś dawno temu jak człowiek chciał coś wysłać na serwer to używało się FTP. Później pojawiło się ftps, sftp które poprawiało bezpieczeństwo.
I tu pytanie czego używa się dziś? Czego użyć jeżeli chce wysłać kilka GB danych na serwer i jednocześnie chce by te pliki tam dotarły bez żadnych przekłamań i dziwnych błędów.
@K-S-: a tak na serio, to dużo zależy od tego, co możesz zrobić, na szybko: - publiczna chmura (dropbox, google drive, etc.) - ssh na maszynie docelowej + scp/rsync - publiczny httpd na maszynie źrodłowej (np. python3 -m http.server) + wget
@K-S-: Ogólnie SSH. Jeżeli masz kilka GB w dużej ilości plików to SSHFS jest wygodne. Jeżeli są to bardzo duże pliki to potrzebujesz czegoś co umie wznawiać przerwany transfer, więc tutaj dodajesz rsync.
@K-S-: jak każdy problem można rozwiązać na 1000 sposobów. Jak kontrolujesz serwer docelowy to SCP na szybko jak chcesz wznawiać itp to ssh tunel + rsync -av jak możesz zrobić tar.gz to będzie szybciej. Jak masz konto w chmurze to jakiś S3 bucket, GCP bucket czy blob storage jak ma być na drugim końcu świata i super szybko przez https to jakiś cloud storage + CDN i podpisane linki. Amazon
@K-S-: No object storage działa na https, rsync, rclone xcopy od netappa jest tego trochę ale operacje na plikach to ciągle opcje user space programu który po prostu skopjuje dane tutaj raczej nie da się wymyślić innej metody albo kopjujesz bezpośrednio rsync itp albo przez jakiś stage storage np. S3, blob itp. Jedyne co można odkrywczego zrobić teraz to kompresować dane w locie bo mamy szybkie CPU i oszczędzimy transfer
Obecny standard przesyłania plików na serwer to SFTP, korzystające z SSH do zaszyfrowania przesyłu danych. Jest to bardziej stabilna i bezpieczna wersja klasycznego FTP. Na podstawie tego protokołu działa program WinSCP, z którego korzystają nasi użytkownicy i sprawdza się bardzo dobrze.
@K-S-: wystarczy że postawisz SSH i masz już super możliwości zarówno przez SSHFS, SFTP jak i doinstaluj rsync i możesz go użyć. To nadal bardzo niezawodne i bezpieczne rozwiązania. Nawet telefonu komórkowe obecnie obsługuję SFTP
@BArtus: Znam i lubię do synchronizacji, szczególnie świetne jest to całe łączenie się bez ip. Ale gdy trzeba wysłać pojedynczy plik w terminalu to nagle okazuje się że zanim tam wszystko przeklikam to rsync już wysłał.
A samba jest spoko, chyba nie ma nic lepszego do wysyłania po LAN.
Wgl myślałem że ktoś mnie tu naprowadzi na jakąś nową technologię, ale okazuje się że wszystko już wymyślono ¯\(ツ)/¯
I tu pytanie czego używa się dziś? Czego użyć jeżeli chce wysłać kilka GB danych na serwer i jednocześnie chce by te pliki tam dotarły bez żadnych przekłamań i dziwnych błędów.
#linux #serwery #admin #devops
źródło: file_transfer
Pobierz- publiczna chmura (dropbox, google drive, etc.)
- ssh na maszynie docelowej + scp/rsync
- publiczny httpd na maszynie źrodłowej (np.
python3 -m http.server) + wgetJak kontrolujesz serwer docelowy to SCP na szybko jak chcesz wznawiać itp to ssh tunel + rsync -av jak możesz zrobić tar.gz to będzie szybciej. Jak masz konto w chmurze to jakiś S3 bucket, GCP bucket czy blob storage jak ma być na drugim końcu świata i super szybko przez https to jakiś cloud storage + CDN i podpisane linki. Amazon
No bo rozwiązania chmurowe z tego co rozumiem to wszystko działa na HTTPS.
Jedyne co można odkrywczego zrobić teraz to kompresować dane w locie bo mamy szybkie CPU i oszczędzimy transfer
Próbowałem kilka razy snapdrop ale tam tylko pojedyncze pliki na raz można wysyłać, i kilka razy się zdarzyło że zerwało połączenie kiedy ekran w
źródło: temp_file6317672726073849104
PobierzA samba jest spoko, chyba nie ma nic lepszego do wysyłania po LAN.
Wgl myślałem że ktoś mnie tu naprowadzi na jakąś nową technologię, ale okazuje się że wszystko już wymyślono ¯\(ツ)/¯
netcatbro 😏nmap☝🏻