Curl

I dag måtte jeg lige have testet et site på jobbet, da det kørte sløvt. Jeg er naturligvis bekendt med de forskellige redskaber, der allerede findes på nettet, men jeg gider ikke sidde i kø som nummer 160 på gtmetrix.com og jeg finder i det hele taget siden en smule overflødig, når det alene er for at se, hvor hurtig et site kører, og hvad der eventuelt kan være af fejl.

I stedet benytter jeg min terminal, og skriver følgende kode:

curl -s -w 'Testing Website Response Time for :%{url_effective}\n\nLookup Time:\t\t%{time_namelookup}\nConnect Time:\t\t%{time_connect}\nPre-transfer Time:\t%{time_pretransfer}\nStart-transfer Time:\t%{time_starttransfer}\n\nTotal Time:\t\t%{time_total}\n' -o /dev/null http://www.atlewinther.dk

Kort og godt dealer curl funktionen med data fra servere, og kan behandle en række forskellige protokoler. I dette eksempel behandler jeg en http der skriver:

Lookup Time: tiden i sekunder fra start til url.

Connect Time: antal sekdner, det tog fra start indtil TCP-forbindelsen til proxy blev færdig.

Pre-transfer Time: Antal sekunder, det tog fra start indtil file transfer startede

Start-transfer Time: Antal sekender fra start til den første byte blev overført.

Total Time: Den totale antal tid.

Og hvad fandt jeg ud af med det site, jeg arbejdede med i dag. Jo; lidt nemt detektivarbejde afslørede, at krypteringen sløvede sitets hastighed.

Jeg vil indføre dig lidt mere i curls fantastiske funktioner. For de ER interessante.

curl http://atlewinther.dk

curl http://atlewinther.dk | tidy -i

Av for den! Ovenstående kode viser, at jeg ikke har overholdt god webstandard. Jeg bliver især punket med, at jeg ikke har skrevet har dokumenteret billeder på alt-attributen. Det er faktisk meget væsentligt at gøre, og man ryger ned i googles hieraki, hvis man ikke følger proceduren. Ikke mindst er det en funktion, som er lavet til at hjælpe blinde, så de gennem blindskrift kan læse, at her er et billede. Jeg vil rette op på det.

curl http://www.atlewinther.dk >> ~/website.txt

Ovenstående kommando indsamler HTML’en fra min index-side og gemmer den på et et tekstdokument, jeg kalder website.txt

Leave a comment

Your email address will not be published. Required fields are marked *