Jako, że dostałem informacje na temat ilości danych przechodzących przez squid, ilości danych trafionych itd. postanowiłem sobie policzyć troszke
# ./squid
Wyniki z OSTATNIEGO (z dzisiaj) pliku logów:
HIT: 59% odwołań (27223)
MISS: 40% odwołań (18214)
HIT: 26% danych (53MB)
MISS: 73% danych (146MB)
Wyniki ze WSZYSTKIECH plików logów:
HIT: 50% odwołań (1016891)
MISS: 49% odwołań (1006241)
HIT: 12% danych (2908MB)
MISS: 87% danych (20699MB)
A więc:
trafionych 53MB opuszczonych 146MB wsumie to daje ~200MB
A więc 200MB na dzień przechodzi przez www a więc:
Jeżeli mamy sięc na 30 kompów to:
50MB:30=1,7MB
146:30=4,86MB
1,7MB+4,86=6,56MB
czyli średnio komp w sieci ciągnie 6,56MB na www z czego zaoszczędza 1,7MB
A co będzie przy sieci na 50 kompów:
50MB:50=1MB
146:50=2,92MB
1+2,92=3,92MB
Zaoszczędzimy każdemu userowi 1MB czyli przy łączu 512kb/s=64kB/s czyli 1MB=1024kB więc 1024:64=16 czyli przez cały dzień user będzie siedział przed kompem o 16s mniej. 16s*31(dni)=8,2minuty nazbiera przez cały miesiąc.
To było wyliczane z pliku dziennego a zwrócmy uwage:
MISS do HIT = 2,75 - w przypadku logu dziennego
MISS do HIT = 7,11 - w przypadku logu całkowitego
Czyli statystyki wyjdą jeszcze gorsze!! Nie wiem ile userów było w tej sieci ale widać, że czym większa sieć tym gorzej wychodzi.
Posiadam też statystyki z innej sieci:
Wyniki z OSTATNIEGO (z dzisiaj) pliku logów:
HIT: 56% odwołań (358581)
MISS: 43% odwołań (275436)
HIT: 11% danych (828MB)
MISS: 88% danych (6117MB)
Wyniki ze WSZYSTKIECH plików logów:
HIT: 57% odwołań (3444791)
MISS: 42% odwołań (2561300)
HIT: 14% danych (9571MB)
MISS: 85% danych (55521MB)
trafionych 828MB opuszczonych 6117MB wsumie to daje 6945MB
A więc 7GB na dzień przechodzi przez www a więc:
Jeżeli mamy sięc na 30 kompów to:
828MB:30=27,6MB
146MB:30=203,9MB
Średnio komputer w sieci ściąga 231,5MB i zaoszczędza 27,6MB widać, że najprawdopodobniej jest to większa sieć niż 30 komputerów. Wynika z tego, że
27,6:231,5=0,11922
203,9:231,5=0,8807
Czyli średnio na 1MB danych z internetu user ściagnie 0,11MB z squida a 0,88MB z www
Patrząc dalej:
[czerwo@arch ~]$ wget
www.onet.com.pl
--09:32:12--
http://www.onet.com.pl/
=> `index.html'
Translacja
www.onet.com.pl... 213.180.130.110
Connecting to
www.onet.com.pl|213.180.130.110|:80... połączono.
Żądanie HTTP wysłano, oczekiwanie na odpowiedź... 302 Found
Lokalizacja:
http://www.onet.pl/ [podążanie]
--09:32:12--
http://www.onet.pl/
=> `index.html'
Translacja
www.onet.pl... 213.180.130.200
Connecting to
www.onet.pl|213.180.130.200|:80... połączono.
Żądanie HTTP wysłano, oczekiwanie na odpowiedź... 200 OK
Długość: 93,873 (92K) [text/html]
100%[====================================>] 93,873 51.85K/s
Strona onetu ma 98,873kB więc:
Na moim łączu:
98,873:51,85=1,906s
Z squidem:
1024k-112,64k - 1MB danych odpowiada 112,64k danych z squida
98,873k-x
98,873*112,64:1024=10k - dane sciagniete z squida
Więc:
98,873-10=88,873k - cala strona - squid = ilosc danych sciagnietych z www
88,873:51,85=1,714s
Co za powalająca różnica chyba sam zainstaluje squida!!
Mamy tu statystyki z 2 sieci. W jednej i drugiej ilosc trafien jest podobna około 12% danych!
IMO gra nie warta swieczki.
Czekam na komentarze.