Fremtidsplaner

Så er 2020 allerede godt i gang, og den har allerede budt på mange spændende oplevelser.

En af de fede oplevelser var da Hans Kongelige Højhed kiggede forbi, og talte med firmaet. Hvad vi snakkede om, og hvad der fremkaldte et smil på læben, bliver mellem os, men jeg skal da blære mig med nogle billeder, når jeg nu kan.

Ellers har det nye år bydt på rigtig mange oplevelser på arbejdsfronten. Jeg har valgt at fokusere rigtig meget på min undervisning og jeg går desuden solo i landet, hvor jeg afholder workshops i programmering. Det bliver også til en del blogging på folkeskolen.dk, hvor jeg indtil videre har skrevet 10 blogs om alt muligt spændende i skolesystemet og hvilke tendenser, vi ser og skal passe på eller udvikle.

Foruden undervisningsdelen arbejder jeg meget med kunstig intelligens og algoritmer. Konkret er jeg ved at udvikle et Expected Goals projekt til fodboldklubber, hvor jeg vil implementere AI og arbejde på hvilke algoritmer, som opfører sig mest nøjagtigt.

atlewinther.dk har jeg ikke tid til at opdaterer længere. Man skal derfor se den som et lille arkiv over, de projekter jeg har nået. Men det er klart at jeg ikke er blevet dårligere til mit arbejde, bare fordi jeg ikke opdatere siden så meget.

Ellers har jeg slettet mig fra de sociale medier. Så hvis du undre dig over, hvorfor jeg ikke er på FaceBook eller LinkedIn, skyldes det for Facebooks vedkommende min aversion imod mediets måde, at behandle personfølsomme oplysninger på. Og for LinkedIn blev jeg til sidst træt af, at blive kontaktet af rekruteringsstyper, som jeg mistænker slet ikke læste min profil. I det hele taget lader sidstnævnte, for it-branchens vedkommende, til at være et voksende problem. Ønsker it-virksomhederne at blive taget seriøs, må de enten blive bedre til at ansætte deres rekruteringsfolk eller også må de selv komme ind i kampen.

cat, head og tail

Når du åbner filer på terminalen, er der en række muligheder, som du kan benytter. Den mest benyttede – for mit eget vedkommende – er cat, som giver dig hele filen.

cat tekstfil.txt

Er du i stedet ude efter starten af en fil, så kan du med fordel bruge head.

head tekstfil.txt

Og er du ude efter de sidste ti linjer i filen skriver du tail.

tail tekstfil.txt

10 linjer er sat til standard i head og tail, men du kan også ændre på dem, således at du enten får flere linjer eller færre. Her er hhv. head og tail med 3 linjer i den samme fil.

Kommandoen er: head -3 tekstfil.txt eller tail -20 tekstfil.txt (her er det jo vigtigt, at man ikke kommer til at blande – sammen med minus.

Curl

I dag måtte jeg lige have testet et site på jobbet, da det kørte sløvt. Jeg er naturligvis bekendt med de forskellige redskaber, der allerede findes på nettet, men jeg gider ikke sidde i kø som nummer 160 på gtmetrix.com og jeg finder i det hele taget siden en smule overflødig, når det alene er for at se, hvor hurtig et site kører, og hvad der eventuelt kan være af fejl.

I stedet benytter jeg min terminal, og skriver følgende kode:

curl -s -w 'Testing Website Response Time for :%{url_effective}\n\nLookup Time:\t\t%{time_namelookup}\nConnect Time:\t\t%{time_connect}\nPre-transfer Time:\t%{time_pretransfer}\nStart-transfer Time:\t%{time_starttransfer}\n\nTotal Time:\t\t%{time_total}\n' -o /dev/null http://www.atlewinther.dk

Kort og godt dealer curl funktionen med data fra servere, og kan behandle en række forskellige protokoler. I dette eksempel behandler jeg en http der skriver:

Lookup Time: tiden i sekunder fra start til url.

Connect Time: antal sekdner, det tog fra start indtil TCP-forbindelsen til proxy blev færdig.

Pre-transfer Time: Antal sekunder, det tog fra start indtil file transfer startede

Start-transfer Time: Antal sekender fra start til den første byte blev overført.

Total Time: Den totale antal tid.

Og hvad fandt jeg ud af med det site, jeg arbejdede med i dag. Jo; lidt nemt detektivarbejde afslørede, at krypteringen sløvede sitets hastighed.

Jeg vil indføre dig lidt mere i curls fantastiske funktioner. For de ER interessante.

curl http://atlewinther.dk

curl http://atlewinther.dk | tidy -i

Av for den! Ovenstående kode viser, at jeg ikke har overholdt god webstandard. Jeg bliver især punket med, at jeg ikke har skrevet har dokumenteret billeder på alt-attributen. Det er faktisk meget væsentligt at gøre, og man ryger ned i googles hieraki, hvis man ikke følger proceduren. Ikke mindst er det en funktion, som er lavet til at hjælpe blinde, så de gennem blindskrift kan læse, at her er et billede. Jeg vil rette op på det.

curl http://www.atlewinther.dk >> ~/website.txt

Ovenstående kommando indsamler HTML’en fra min index-side og gemmer den på et et tekstdokument, jeg kalder website.txt