Category Archives: Nerdeprat

Se, jeg er på internett!

Advarsel: Denne posten inneholder en god dose selvpromotering. Hvis du lever etter janteloven vil du nok ikke sette pris på den. På den annen side: da bryr ikke jeg meg om deg heller!

Så, jeg er på internett, er det noe nytt? Nei, jeg er jo ganske godt representert rundt omkring, men det er mest på eget initiativ. Det jeg ville fremme nå var prosjektoppgaven min, som jeg presenterte her for noen uker siden, under en CC-lisens.

Denne har blitt plukket opp (dog etter litt skamløs selvpromotering) av et par aktører som har presentert den på sine sider. Den første var Friprogsenteret, som la den ut for en stund siden under sin Lær mer-seksjon. Du finner den her.

I tillegg tipset jeg en av utviklerene av OpenJUMP om artikkelen, han har selv skrevet en god artikkel om OpenSource Desktop GIS, som var til stor hjelp under arbeidet med oppgaven min. Han skrev i en epost til meg:

I read now your thesis (only chapter 9+10 is left). There a couple of tiny spelling errors – but nevertheless I really like the thesis and the evaluation method you developed. And it comes right in time since I plan to give a talk in April called “Free and Open Source Desktop GIS: ready for the desktop?” This talk will hopefully be in front of some business people – so there are a couple of interesting notes in your thesis that I may use for the talk.

Han har også lagt ut uppgaven min på det samme nettstedet der han opplyser om FOS Desktop GIS, spatialserver.org/osgis, hvor den kalles “an interesting thesis”.

Håpet er dermed at noen finner den og kan få nytte av den, det er jo mye bedre enn at den støver bort i bokhylla mi. En annen observasjon er det faktum at oppgaven har en lisens som tillater slik vidrepublisering uten eksplisitt tillatelse fra meg, har begge aktørene spurt meg om det er greit for meg at den legges ut. Det fører til at jeg har god oversikt over hva den brukes til, og jeg kan bedrive skamløs selvpromotering som dette. Det liker jeg 😉

(For den som ikke er lei av meg, jeg var i VG her om dagen også;))

Mottakerens problem?

Her om dagen fikk jeg en mail fra min far, den var vidresent og han hadde skrevet følgende før han vidresendte den:

De to pdf-dok får jeg enkelt åpnet, men de to andre docx får jeg ikke åpnet.

Vedlagt var to docx og to pdf filer. Dette var snakk om årsmøtedokumenter i hytteforeningen, etter hva jeg kunne forstå av mailen var den sendt til 20-30 stk. Problemet var altså at min far (som hvis jeg husker riktig kjører en ikke helt ny utgave av Microsoft Office på Win XP, gammel nok til å ikke ha docx-støtte ihvertfall).

For meg tok det ikke lange tiden å åpne de to docx-dokumentene i OpenOffice 2.4 og trykke “Export as PDF” og sende dem tilbake. Men det var fordi jeg hadde OpenOffice installert og visste at dette var mulig. Men det er merarbeid. Og med 30 mottakere vil jeg anslå at flere enn min far ikke har docx-støtte, dermed blir det mye arbeid på mange.

Ikke at det plager meg å hjelpe andre, men det er ikke alle som har noen å kontakte når slike problemer oppstår. Jeg vet, og du som leser dette vet nok, at docx er det nye Office-formatet (selv om jeg mistenker x-en for å stå for “eXtra diffcult”) og at man må ha installert støtte for å lese dette (eller OpenOffice, eller en ny versjon av MS Office). Men dette vet ikke alle, og de færreste som ikke vet dette ser intet poeng i å oppgradere Office eller gå over til OpenOffice. Deres versjon av Office fungerer fint (og den nye er uoversiktlig).

Dermed mener jeg at ansvaret for at JEG får åpna en fil DU sender meg må ligge hos deg. Kjenner du meg godt og vet at jeg klarer å lese .docx så send meg det, er du i tvil så spør du eller sender en pdf (eller en vanlig .doc-fil, det skal de fleste klare). Hvis ikke får vi en bunke med merarbeid som ikke gagner noen.

Hva mener du? Har du noe forhold til dette, eller sender du de filene programmet ditt lager ukritisk? Jeg vet med meg selv at selv om Ark standard zipper til .tar.bz er det ikke smart å sende dette til windows-brukere (selv om noen takler det også) og at ikke så mange er fornøyde med å motta .odt-filer (selv om dette jo er en åpen standard).

Sånn, der fikk jeg ut litt frustrasjon og har noe å henvise til neste gang jeg mottar et uleselig dokumentformat.

Slipp bøkene fri!

Eirik Newth kom med en bloggpost i går som omhandler et tema de fleste burde bry seg om, spesielt i disse opphavsrettighetstider.

Temaet er konklusjonene til arbeidsgruppen bak NBDigital, digitaliseringsprosjektet til Nasjonalbiblioteket. En norsk Google Books om du vil. Intensjonen er (om jeg har forstått riktig) å scanne inn det meste av den utgitte norske litteraturen, opp mot en halv million verk. Disse skal tilgjengeliggjøres på nett, slik at vi slipper å slepe oss til biblioteket for å få et innblikk i norsk bokkunst.

Problemet er bare følgende: Arbeidsgruppa har kommet frem til følgende modell for den første batchen bøker som skal scannes (mine uthevinger):

Materialet tilgjengeliggjøres på Nasjonalbibliotekets nettsider slik at det kan leses på skjerm, men er ikke tilrettelagt for nedlasting eller utskrift. Materialet vil være direkte søkbart via søkemotorer, men kun tilgjengelig for internettbrukere med norske IP-adresser.

Greit nok, for verker fra 1990-99 (som er en av bolkene som skal scannes) finnes det forfattere og opphavsrettighetseiere, i tillegg til forlag som tjener på å utgi disse bøkene. Dermed må man ha en form for kontroll (slik verden er nå, prinsippet opphavsrett er ikke tema nå). Værre er det med bøker fra 1790-99 og 1890-99 (de andre bolkene). Disse skal også legges under samme kontroll som de nyere bøkene (og som beskrives i sitatet over). Dette til tross for at flesteparten av disse er i det fri, altså at vernetiden som varer til 70 år etter forfatterens død.

Hva betyr så dette? Bøker “i det fri” har samme “begrensninger” som det amerikanske Public Domain, vi står alle fritt til å “gjøre hva som helst med det: utgi det på nytt, spre det på nettet, remikse det, lage film og musikk basert på det, whatever.” som Eirik Newth sa det i en kommentar til mitt spørsmål.

Dette får vi altså lov til, men så fort dette er scannet og lagt på nett får vi ikke lov til å laste det ned eller aksessere det fra utlandet. Hva skyldes så dette? Sannsynligvis utvitenhet og manglende forståelse for hvordan internett fungerer. Men noen andre årsaker kan det også være:

1. tekniske aspekter: Ved å ikke gjøre forskjell vil man kunne bruke samme systemet på alt. Dette er dog ikke et godt argument.
2. Tanken om at siden nasjonalbiblioteket (og dermed staten) bruker penger på å digitalisere disse bøkene har de kontroll over dem. Dermed burde de komme i hovedsak det norske folk til gode. Dette er heller ikke noe godt argument for IP-sperring. Jeg mener å huske at en av NRKBeta-gutta uttalte (i forbindelse med torrent-satsninga si) at Norge har en veldig god “DRM”: språket. Det er for det meste nordmenn som leser norsk.

Til slutt skal det jo sies at det ikke er ulovlig å legge begrensninger på “public domain”-innhold, man står jo fritt til å gjøre hva man vil med det (hvis jeg igjen forstår rett). Hadde Google gjort scannejobben ville de nok sørget for å kontrollere innholdet på et vis, men så lenge det er offentlige midler som brukes på dette prosjektet burde man legge til rette for at vi kan bruke det som det passer oss.

Hvis du henger med, og synes dette er like sprøtt som meg anbefaler jeg deg å lese diskusjonen hos Eirik Newth, og melde deg inn i Facebook-gruppa Slipp bøkene fri!

Og til slutt: jeg er ingen ekspert på området, og skriver dette mest fra magefølelsen og det jeg har fått med meg. Derfor er jeg takknemmelig for alle inspill som går på korrektheten av det jeg skriver, i tillegg til generelle kommentarer såklart 🙂

Prosjektoppgave: “Use of Free and Open Source GIS in Commercial Firms”

Bedre sent enn aldri sies det, og det er jeg et bevis på nå. Jeg har fått avklart med bedriften jeg brukte som case i prosjektoppgaven min i høstsemesteret, så etter å ha anonymisert dem bort kan jeg nå legge ut oppgaven offentlig. Jeg har ikke fjernet veldig mye, det skal gå helt fint å få med seg sammenhengen.

For de som ikke orker å lese hele oppgaven (den er jo på noen sider), vil jeg anbefale å ihvertfall lese kapittel 2, der jeg beskriver hva GIS er for noe. Kapittel 3 er også spennende lesning, men de fleste av mine lesere kjenner vel til Fri Programvare i stor grad uansett..?

Hele oppgaven finner du her: fos_gis__af_sveen__web (pdf, 976 KB). Og karakteren? Absolutt brukbar 😉

EDIT: Etter oppfordring fra Martin Bekkelund har jeg satt en fri lisens på oppgaven. Nærmere bestemt Creative Commons Attribution-NoDerivs 3.0 Unported (CC-BY-ND), dette står beskrevet i dokumentet. Den oppdaterte versjonen finner du på fos_gis__af_sveen__web_cc-by-nd (pdf, 980 KB)

For enkelhets skyld gjengir jeg også abstractet her, så kan dere vurdere om dere vil lese mer:

This study examines the use of FOS GIS in a commercial setting, and the objective is twofold; to provide a method for selecting a FOS GIS and to give an overview of the status of a subset of the available FOS GIS products, desktop GISes. The main GIS features are management, manipulation and analysis of spatial data. A desktop GIS differs from a Web/Internet GIS in the sense that it is installed on a PC, allowing more complex tasks to be carried out.

Free and Open Source Software (FOSS) is software released under a license ensuring the users the freedom to use, modify and redistribute the software. Access to the source code is a prerequisite for this. The later years have brough a shift from the ideological focus to commercial adoption. Companies are attracted to FOSS due to the high quality and low price. Selection of FOSS products are typically carried out without the use of any formal evaluation method.

The FOS GIS community is centered around the OSGeo foundation, which serves as a host for several projects. Both commercial companies and governmental institutions, as well as community initiatives, initiate and develop FOS GIS projects. The existing research on FOS GIS is rather limited and tends to focus on well known products such as GRASS. None of the reviewed articles on FOS GIS indicated that frameworks for selecting FOSS products where used, neither did any describe any such methods. The findings showed that FOS GIS products in general are considered mature enough to compete with the proprietary solutions.

The use of a formal method for assessing FOS GIS in a commercial setting ensures that a better choice will be made, as more candidates will be examined and the risk of evaluator prejudice is minimized. Three existing frameworks for evaluation of FOSS products are examined. The general method consists of four phases; an initial gathering of candidates, gathering of measurable data, definition of evaluation criteria and a final evaluation. The risk of using a framework that only uses scores and no human assessment is discussed, and the need for human judgment emphasized. A tailored method is constructed based on the findings from the frameworks and a study on FOSS adoption.

An example evaluation is carried out, using a real life case. The steps are covered in detail in order to serve as an example. Methods for gathering required information and deciding what criteria to use are discussed. The evaluation is concluded and the need for the utilization of test installations is emphasized. The propability that that more FOS GIS projects will emerge emphasizes the need for a method for selecting the right FOS GIS.

Php-strukturer for geometrier

Hvis du ikke vet hva PHP er, eller aldri har trengt å programmere noe som avhenger av geometrier som linjer eller punkter kan du trygt se bort fra denne posten.

Hvis ikke kan du lese videre. Som nevnt tidligere jobber jeg med PostGIS og Google Maps (GM). GM kjører på JavaScript, og dermed er ikke databasespørringer mot PostGIS en trivialitet. Imidlertid kan man bruke XML (og da har man AJAX, Asynchronous JavaScript and XML). men hvordan genererer man så XML fra PostGIS? Via PHP såklart. Her er støtten for PostGIS spørringer native, og det å generere XML er ikke vanskelig.

Et problem står dog igjen: hvordan skal man håndtere 2D-data i PHP? Særlig når PostGIS spytter ut noe så hårete som WKT (Well-Known Text)? For min del ble svaret objektorientert. Et par php-klasser for å ta seg av hhv. punkter og linjer, som støtter konvertering mellom WKT, XML og arrayer/floats.

Og resultatet? Det deler jeg nå med omverdenen. I håp om at både noen kan få bruk for det, og om at noen kanskje forbedrer disse to klassene. Lisensen valgt er MIT-lisensen, den er kort sagt blandt de frieste du finner, så gjør hva du vil med koden, også om du er et stort, stygt selskap med de-facto monopol (hørte dere det ESRI?). Som jeg skriver i filene: Du må ikke, men bruker eller endrer du koden setter jeg pris på tilbakemeldinger!

Klassene finner du her:

Og snakker du php tar jeg gjerne imot kommentarer uansett. Også en stor takk til Alex og Magnus for å bidra til å løse noen av mine problemer med objektorientering i php.