I was lucky enough to get to review the “early beta” PDF version of the soon-to-be-released GIMP book The Artist’s Guide to GIMP, 2nd edition by Michael J. Hammel (published by No Starch Press, 2012). The book covers the new 2.8 version of GIMP, which had its first release candidate just about a week ago and is expected out any day now.

gimp2-cover.png

This book is not a complete reference on GIMP, but rather a set of hands-on tutorials. The book starts with a fairly quick intro to basic GIMP usage, and then consists of tutorial chapters for

  • Photographic Effects
  • Web Design
  • Advertising/Special Effects
  • Type (Font) Effects
  • Creative Inspiration

The last one seems to be the “miscellaneous” category . I’ll focus on the photography parts since that’s where I feel I have the most to say.

Being familiar with basic GIMP usage, I initially skipped straight into the Photographic Effects chapter. However, if you’re not familiar with basic GIMP usage, you should definitely read the first chapter, since certain steps of the tutorials might seem a bit too concise (for example, the instruction “Using the Fuzzy Select tool and the Quick Mask in combination, make a selection around the rose” might be a bit off-putting if you’ve never done this kind of thing before.).

The good

Already in the first tutorial of Photographic Effects we move straight into how we can create a high pass filter using layers and blurring, a very useful effect for bringing out the subject in a picture (and kudos for mentioning that a script exists in the GIMP Plugin Registry which performs the same steps, albeit with less control to the user). The methods are explained in simple steps, with screenshots along the way. After a simple walkthrough, we also get tips for further fine tuning. The author seems quite knowledgeable about how to get the most out of the tools available, as well as about when the tools are insufficient (e.g. Inkscape is suggested as a more advanced alternative to Gfig for vector drawing).

screenshot.png

Screenshots all the way

The author introduces various tricks into tutorials as they become useful, e.g.:”The white lines may need to be enhanced. Use the levels dialog and pull the White Point slider to the left.” I believe this kind of realistic, usage-based introduction to tools is much more pedagogical than technical explanations of how the tools work. Of course, if you’re looking for a reference to a specific tool, you may find other types of books more useful.

Apart from the high pass filter tutorial, the color swap is some times surprisingly useful to make a picture less “loud” and inconsistent. Also useful are the tutorials on changing Depth of Field and Colored Lighting (confusingly placed in Advertising instead of Photographic Effects); a handy technique even with just simple black/white gradients.

I really like the landscape format of the book. It’s a little thing perhaps, but compared to the typical portrait or square format, it’s a relief to be able to see one whole page on a wide-screen computers, and, I presume, for keeping a physical book flopped open on your desk while you work a tutorial.

The … not so good

I would also have preferred if the example images were available from one place, although this is a minor point.

Some of the tutorial screenshots seem to overdo the effects, but note that I’m reviewing a preprint, perhaps they look more subtle in the final print of the book.

overdone.png

I prefer the original and I hope you do too

I’ve seen much better tutorials on Minituarizing a Scene (e.g. the one by Rob Antonishen); if you’re just making a simple gradient anyway, I would rather just use the Toy plugin which does it all in one step. I’m not sure how useful the tutorials Lake Reflection and Reflections on Glass are, though I guess the methods might come in handy. And, perhaps it’s just me, but whenever I see tutorials on text effects (brushed metal, neon, etc.) I can’t help but think of bad WordArt. But then again, those effects are obviously very popular … and the Distressed Text effect actually looked rather classy.

distressed.png

Who knew text effects could look good

One thing that bugs me, that I often see in tutorial-type books, is the assumption that the user is a hobbyist, e.g. the advice on using JPEG over RAW/TIFF because of memory/processing constraints or cheap cameras. Those assumptions will definitely be off-putting to those who do invest a lot of time and resources in their graphics/photography work, no matter how useful the tricks in the rest of the book are.

So, should you buy it?

All in all, I would definitely recommend The Artist’s Guide to GIMP 2.8 to those who want an all-round, practical book on how to use GIMP.

For photography, the main alternative book would be GIMP 2.6 for Photographers by Klaus Goelker (see the review by Alexandre Prokoudine – as the title indicates, that one needs an update to 2.8, it’s also not in landscape format ;)). The Artist’s Guide … is perhaps a bit more fast-paced, a bit less in-depth, but also more varied in what it covers. Recommended.

Publisher’s info:

Artist’s Guide to GIMP, 2nd Edition
Creative Techniques for Photographers, Artists, and Designers
by Michael J. Hammel

July 2012, 320 pp.
ISBN: 978-1-59327-414-6
Available both as print and PDF e-book.

I dag, 6. februar, er det den samiske nasjonaldagen — lihkku beivviin!

Foto: Kenneth Hætta (NRK)

Viss dei einaste orda du kan på nordsamisk er joik, pulk, lavvo og tundra1, så har du i dag ei god unnskyldning til å utvida horisontane og læra litt samisk :)

Les Nordsamisk på ni minutt for å læra deg uttalen av bokstavane. Så kan du byrja med nettsida Gulahalan («å kommunisere/forstå kvarandre»), dette er ein fin nettstad for deg som ikkje kan noko samisk frå før av (men forstår svensk og ikkje har noko i mot å køyra Flash…). Svært pedagogisk, med lyd for alle setningane og små øvingar til tekstene. (I tillegg går det visst an å ta brevkurs i nordsamisk frå Folkeuniversitetet, eller «e-kurs» frå e-skuvla.no.)

Og så bør du ha tilgjengeleg ordbøkene til Sámi Giellatekno ved Universitetet i Tromsø. Dei fungerer på Windows, Mac og GNU/Linux (viss du køyrer Arch Linux kan du installere her via AUR). Du kan i tillegg søkja i dei på nett om du ikkje vil installere noko.

(Eg har au komme over ei lita nordsamisk-engelsk-ordbok; ingen ordforklaringar og lite grammatisk informasjon, men det kan jo vera nyttig.)

Innimellom kan du få eit samisk ord for dagen frå bloggen Kruspersille.


Etter Gulahalan-kurset er du klar til å byrja på OAHPA! Pedagogiske program, kor du kan preika med den samiske chatbot-en eller berre øva deg på å bøya verb (dei har litt dokumentasjon på korleis ein best kan bruka det, bør lesast).

Du treng nok ein grammatikk å slå opp i, då er det hendig at Nasjonalbiblioteket har skanna og lagt ut heile boka Samisk grammatikk av Klaus Peter Nickel. Det er kanskje like greit å kjøpa denne, og kanskje au innføringsboka Davvin 1 i same slengen.
Sidan du sikkert har gløymt alle grammatikktermane frå skulen, kan du øve på kva subjekt og objekt tyder ved å spela Visual Interactive Syntax Learning-spela. Dei er på samisk, men det bør du jo kunna ganske godt innan no.

No er det på tide å lesa lengre samiske tekster. Ávvir.no er vel den einaste nordsamiskspråklege avisa på nett, men du har jo au ein del lesestoff på NRK Sápmi som i tillegg har nett-tv og radio, sjølvsagt. Du finn ein del samisk skjønnlitteratur på sidene til Nasjonalbiblioteket.

Kanskje du til og med vil prøva deg på å skriva litt samisk, då bør du vita korleis du skriv samiske bokstavar på datamaskinen, kanskje må du slå opp litt samisk fagterminologi.

Ved dette punktet bør du (viss du øvde godt på Syntax Learning-spela) vera klar til å gå inn i den samisk lingvistikken. Her har Universitetet i Tromsø igjen ressursane du treng:

  • For korpuslingvistane har dei eit interaktivt tekstkorpus, både einspråkleg nordsamisk og tospråkleg nordsamisk-bokmål. Dei har au lagt ut ein del statistikk, frekvenslister ol.
  • For grammatikarane finst det ein kort grammatikk.
  • For morfonautane (eh, folk som studerer morfologi, då) tilbyr Giellatekno grammatisk analyse av bøygde nordsamiske ord, og fulle bøyingsparadigme av oppslagsord; du kan til og med generera bøygde ord om du kjenner oppslagskodane…


Eventuelt kan du berre kverna all samisken gjennom maskinomsetjing frå nordsamisk til bokmål.

 

Fotnotar:

1 Og kanskje jul

Det finst allereie eit program som konverterer OpenOffice-dokument til LaTeX, Writer2LaTeX, dette kan ein igjen opne i LaTeX-redigeringsprogrammet LyX. Men viss du har Zotero-referansar i dette OpenOffice-dokumentet, vil dei bli konvertert til «rein tekst» slik at litteraturlista til slutt ikkje viser kva du har sitert i teksta.

Difor endra eg litt på Writer2LaTeX slik at Zotero-referansar blir gjort om til skikkelege BibTeX-siteringskommandoar, av typen \cite{nøkkel} kor nøkkel viser til eit verk i BibTeX-databasen din.

Men så må me jo au ha ein BibTeX-database som inneheld det nøklane refererer til. Zotero kan allereie eksportere til BibTeX, med nøklar som ser ut som forfattar_tittel_år (t.d. kierkegaard_sygdommen_2007). Dette ville vore heilt tilstrekkeleg i andre samanhengar, men siteringane i OpenOffice-dokumentet har dessverre ikkje nok informasjon i seg til å finna desse nøklane; det dei har i staden er ein ganske uleseleg Zotero-intern identifikator, t.d. ITMKBABS.

Difor endra eg litt på LyZ – Firefox-utvidinga som integrerer Zotero med LyX – slik at me kan få ut ei BibTeX-fil kor nøklane er i dette uleselege Zotero-format. Heldigvis viser LyX meir eller mindre korleis siteringane kjem til å sjå ut i den endelege PDF-en så det gjer ikkje så mykje at nøklane er så rare. (I tillegg trur eg LyZ kan konvertera alle nøklane i eit LyX dokument i ettertid, til noko meir leseleg, men det har eg ikkje prøvd.)

Viss du vil prøva dette kan du lasta ned1:

Du kan køyra writer2latex.jar slik:

$ java -jar writer2latex -latex -config=zotero.xml Dokument.odt Dokument.tex

Så kan du importera Dokument.tex som LaTeX frå LyX-filmenyen (evt. køyre kommandoen tex2lyx Dokument.tex).

Opna lyz.xpi i Firefox, dette installerer den endra LyZ-utvidinga. Så må du omstarta Firefox, og under LyZ-innstillingane skriv du writer2latex for «Cite Key» («LyXPipe» skal vera det same som i LyX-innstillingane). For å leggja alle Zotero-referansane inn i éi BibTeX-fil kan du merkja alt i Zotero, og så velje «Cite in LyX» frå LyZ-menyen. Denne siteringa kan du så sletta frå LyX, men du må gjera det minst ein gong for at alt skal komme inn i bib-fila. Om det er første gong du køyrer LyZ får du spørsmål om kva for bib-fil du vil nytta, denne må du sjølvsagt leggja til i LyX (Set inn->Ulike lister->BibTeX-litteratur).

Om du skal konvertera fleire dokument, og alle nyttar same bibliografi (bib-fil), kan du jo laga eit skript som du kan opna odt-filer med for å laga ei LyX-fil automatisk, med bibliografien lagt til.

Og heilt til slutt, BibTeX-eksporten frå Zotero/LyZ taklar ikkje bokstaven «ø» enno… på denne sida finn du ei fil som gir litt betre BibTeX-eksport.


Viss nokon er interessert i kjeldekoden til dette, så ligg alt på

Fotnoter:

1 Den siste er ei konfigurasjonsfil til Writer2LaTeX. Siteringskommandoane til denne utgåva av Writer2LaTeX krev nemleg LaTeX-pakka natbib (sidan eg ikkje veit korleis ein får alle siteringstypane utan dette), i tillegg har eg lagt dei opphavlege reintekst-siteringane i kommentarar for at ein lett skal kunne kontrollera at alt gjekk greit for seg, som krev pakka verbatim. Konfigurasjonsfila sørgjer for at desse pakkene blir lasta. (Det er ganske mykje anna ein kan fikse på i konfigurasjonsfilene til Writer2LaTeX, sjå handboka. Eg nyttar t.d. denne fila for å ignorera harde mellomrom og slikt.)

Google Summer of Code 2010 er ferdig, og i år som i fjor var fleire studentar frå Noreg med:

Gratulerer :-)

(Har eg gløymt nokon?)

Motivasjon

15 juli, 2010

apertium-sme-nob, januar 2010:

*– Bare tør mindre #tall fremme meninger #dette av sak , \@dat stund når \@eanas menneske av samfunn og #spesielt \@at , de tar \@vuostá muslimer med #åpen \@giehta . Jeg #bli også \@mo Tromsø av kommune kunne vi ser #dette sak slik med #lett \@miella når de gjør. \@Ii *jáhke dem #sann du forstår \@mii \@olu vanskelig *moskéa og \@eambbo #muslim kan #bringe til Norge , den #avrunde *Røyset. *Røyset den vraker pretensjon at *FMI organisasjon er #rasistisk .

 

apertium-sme-nob, juli 2010:

– Bare mindretallet tør å fremme meninger på denne saken, mens de fleste folk på samfunnet og spesielt kristne, de tar mot muslimene med åpne hender. Jeg forundres også hvordan på Tromsøs kommune kan de se denne saken slik med et lett sinn da du gjorde. Jeg tror ikke dem sanne å forstå som de mange problemenes *moskéa og de #mer muslimene kan bringe til Norge, han avslutter #Røyset. #Røyset vraker pretensjonen at *FMI organisasjonen er #rasistisk.

 

Originaltekst:

– Dušše unnitlohku duostá ovddidit oaiviliid dán áššis, dan botta go eanas olbmot servvodagas ja erenoamážit risttalaččat, váldet muslimaid vuostá rabas gieđaiguin. Mun imaštalan maiddái mo Romssa gielddas sáhttet geahččat dán ášši nu gehppes mielain go dahket. In jáhke sin duođaid áddet man olu váttisvuođaid moskéa ja eambbo muslimat sáhttet buktit Norgii, loahpaha Røyset. Røyset hilgu čuoččuhusa ahte FMI organisašuvdna lea rasisttalaš.

 

*, # og @ er debug-symbol, og vil seia at ordet manglar frå samisk-, bokmåls- eller omsetjingsordboka, høvesvis.

Samisk på norsk

6 juni, 2010

Eg har ein heilt fantastisk sommarjobb. Eg samarbeider for tida med folk frå Apertium og Sámi Giellatekno (det samiske språkteknologiprosjektet ved UiT) for å få til maskinomsetjing frå nordsamisk til bokmål.

Oppdatering: utviklingsversjonen kan no testast frå sidene til Giellatekno.

Dette er litt meir krevande enn nynorsk-bokmål1… viss me hadde teikna eit kart der språk som likna på kvarandre sto nær kvarandre, kunne me fått noko slikt:

NB: Kartet er ikkje i målestokk. MÅ IKKJE NYTTAST TIL NAVIGERING

Altså er det litt forskjell på språka. No finst det sjølvsagt ein del språklege lån mellom norsk og samisk, men dei har heilt forskjellige språkfamilier og historie. Eit par døme på forskjellar:

  • samiske substantiv har ikkje kjønn, greit nok…
  • samiske pronomen har ikkje kjønn – den er litt verre, skal me omsetja son til «han» eller «ho»?
  • samiske verb bøyer seg etter subjektet, så av og til sløyfar folk pronomenet – då må me setja inn eit nytt pronomen på norsk (med rett kjønn…)
  • dei samiske verba er i det heile teke fulle av hemmelege våpen til å uttrykka ulike tidspunkt, aktørar og haldningar til situasjonen. Verbet veahkehit tyder «å hjelpa», veahkehat blir «du hjelper», veahkeheaččan blir (litt avhengig av kontekst) «du kunne vel hjelpa», medan veahkehežžet blir «du kunne vel ha hjelpt»
  • og så har me alle avleiingane, som gjer verb om til substantiv, substantiv om til adjektiv, eller seier at noko skjedde i hast, eller ofte, eller berre ein gong, eller at nokon fekk nokon til å gjere noko, eller at nokon berre byrja å gjere noko… Me har mange av desse mekanismane på norsk au, t.d. kan me gjera «skikk» til eit adjektiv ved å leggje til «-eleg», men å driva og laga nye ord slik er alt for risikabelt til at me kan gjera det til ein generell regel (*«kjærleikeleg»?).

For å ha det sagt: eg kan ikkje samisk. Det har tydelegvis skjedd ein glipp i utdanninga mi. Men eg har god hjelp frå dei fantastiske tri binda med LÆREBOK I LAPPISK (SAMISK) frå 19262 (og ein litt nyare grammatikk), i tillegg til at språkteknologane ved UiT allereie har gjort størsteparten av det arbeidet som krev skikkeleg samiskkunnskap. Min jobb er hovudsakleg å laga reglar som gjer ferdig analysert samisk tekst om til forståeleg bokmål.

Omsetjing mellom så ulike språk gir svært mange utfordringar. Me har i første omgang berre satsa på samisk til bokmål, og ventar med andre retninga. Me vil at maskinomsetjinga skal vere nyttig og formålstenleg, og då er det best å byrja med samisk til bokmål. Dei to vanlegaste formåla med automatisk omsetjing er:

  1. assimilering: maskinomsetjinga skal vera god nok til at ein kan forstå omsetjinga sjølv om ein ikkje forstår originalspråket
  2. disseminering: maskinomsetjing skal vera god nok til at ein omsetjar (som altså forstår begge språk) heller vil rette på maskinomsetjinga enn å skriva omsetjinga frå botnen av

Når folk nyttar maskinomsetjing frå eit majoritetsspråk til eit minoritetsspråk innanfor eit samfunn (t.d. bokmål til samisk, bokmål til nynorsk), er det sjeldan sånn at dei som har minoritetsspråket som morsmål ikkje forstår majoritetsspråket og lurer på kva det står i originalteksta; maskinomsetjing frå bokmål til samisk blir først nyttig når omsetjinga er god nok til at ho med minimalt etterarbeid blir klar for utgjeving. Andre vegen, derimot, er det nyttig med ei omsetjing som berre gir eit oversyn over innhaldet i originalteksta, utan å vera så bra at ein profesjonell omsetjar ville nytta ho som grunnlag. Så målet for no er at viss du t.d. søkjer etter namnet ditt og finn ein blogg på samisk som snakkar om deg3, så skal du kunne køyra dette innlegget gjennom Apertium og finne ut om det dei sa om deg var bra eller dårleg ;-)

Men sjølv om me tillèt dårleg flyt i bokmålen, må me sjølvsagt ha noko å omsetja alle dei ulike verbformene og avleiingane til, og me må unngå å mista eller forvrenga viktig informasjon. Det er mange utfordringar i dette språkparet, men heldigvis har sjølve Apertium-plattforma fått ein del nye verktøy å takla utfordringane med. Men det får eg spara til eit seinare innlegg.

Fotnotar:

1 Ja, samisk til nynorsk hadde vore endå litt kulare, men me må jo spara noko til seinare :-)

2 Vel, i nytt, men uendra, opplag frå 1977. I forordet står det at namnet på boka blei fastslått i 1922, «da trykningen begynte», og lappisk enno var det mest kjende namnet (det tok fire år å få trykka boka… ting tok tid før).

3 For skuld argumentet kan me lata som om det skortar på litt grunnleggande danning og du ikkje kan lese samisk.

Ope brev til Tekna

8 april, 2010

Nyleg uttalte leiinga i fagforeninga Tekna at dei støtta innføring av datalagringsdirektivet i Noreg [PDF]. Eg kan ikkje hugsa å ha blitt spurt om mi meining i denne saka, og har heller ikkje høyrt at andre Tekna-medlem har fått høve til å uttala seg.

Datalagringsdirektivet inneber etter mi meining eit alvorleg overtramp av personvernet. Meir spesifikt kan det leia til svekking av kjelde-/varslarvernet (sjå m.a. Jon Wessel-Aas om dette) i tillegg til at innsamla data alltid kan misbrukast ulovleg; ingen system er perfekte. Sjølv medlemsbladet til Tekna kallar direktivet «farleg og ubrukeleg».

Eg kan ikkje vera medlem av ei fagforening som tek vedtak om ei såpass viktig sak utan ein meir demokratisk prosess. Om ikkje støtta blir trekt tilbake innan høringsfristen 12/4 2010 ser eg meg nøydt til å melda meg ut.

mvh,
Kevin Brubeck Unhammer

masterstudent i datalingvistikk og språkteknologi
Universitetet i Bergen

I dei siste ti-tjue åra har det vore veldig populært med datadrivne statistiske metodar i maskinomsetjing, og Google spesielt har ytra ei sterk tru på at meir data alltid vil trumfe over betre kunnskap. Men i eit foredrag frå i fjor sommar kunne det sjå ut til at Franz Och, leiaren for maskinomsetjingsprosjektet til Google, vurderer å sprøyta inn litt kunnskap i omsetjinga.

Når det er snakk om korleis maskinomsetjinga kan bli betre, viser han eit døme på ein tysk langdistanseavhengnad, der hovudverbet er på slutten av setninga, og nemner at dei har byrja å sjå på korleis dei kan nytte grammatikkar for å flytta verbet fram og gjere setninga «meir engelsk» før omsetjinga:

Ideally we would want to learn that from data […] and in some sense it’s in the data and a computer should be able to do that too, but in the meantime we are looking into ways to just explicitly put that knowledge into the system. So far the automatic grammar induction work has been, eh, not…very…well working or so…

Eg har sjølv prøvd meg på induksjon av dependensgrammatikkar, og resultatet var ikkje akkurat oppløftande; men det kjem vel betre metodar med åra.

Men dette med langdistanseavhengnader er noko som lenge har vore eit kjent problem for reint datadrivne metodar, og ein kan få ganske god statistisk maskinomsetjing (SMT) trass slike problem; men eg blei meir overraska over det følgjande utsagnet:

rule-based system with proprietary access

There’s a lot of interest [in SMT], and one reason is that it’s relatively simple for a small team to build a decent MT system by taking off-the-shelf resources, and there’s open-source software, parallell corpora and standard evaluation sets. […] This was not possible ten years ago with the rule-based systems, it was a complicated system with proprietary access [for] some companies and it was very hard to do the relevant research.

Det hjalp sjølvsagt at det på nittitalet blei mogleg å handtera store mengder data komputasjonelt; men likevel er det tankevekkande at tilgang til fri programvare og open data blir nemnt som ein hovudgrunn til at det skjer så mykje forsking på SMT. Ted Pedersen skriv at du burde «Measure Your Career in Downloads and Users». Det statistiske maskinomsetjingsverktøyet giza-pp1 har i følgje heimesida blitt lasta ned 9379 gonger, ikkje inkludert andre nettsider og utgåver. Med tanke på kor komplekst2 dette verktøyet er, vil eg tru at ein stor del av desse brukarane er doktorgradsstudentar…

Situasjonen til regelbasert maskinomsetjing er heldigvis i ferd med å betra seg her; dei siste åra har det komme fleire regelbaserte system med open data og open kjeldekode (FOSMT.org har ei god oversikt), der ein del system direkte erstattar kjende proprietære system som Xerox-verktøya, medan andre, som Apertium og Matxin, er uavhengige innovasjonar. Kanskje kjem dette til å gi den historiske pendelen eit lite dytt mot meir kunnskapsbaserte metodar igjen…

Fotnoter:

1 Som faktisk er basert på eit verktøy av Franz Och igjen.

2 Det var altså ein eufemisme.

Eg kom just over ein svært detaljert og lærerik gjennomgang av Gimp 2.6.4 i Ars Technica; det som er litt kult med denne er at forfattaren, Dave Girard, har jobba mange år i design- og trykkebransjen. Artikkelen er frå januar 2009, Gimp 2.8 kjem jo snart ut (med nytt brukargrensesnitt, laggrupper, mm.) så det er kanskje noko der som er utdatert, men det er interessant å sjå samanlikninga mellom Gimp og Photoshop. Det er sjølvsagt ikkje ei helt rettferdig samanlikning sidan Gimp ikkje er meint å vera ein Photoshop-klone, men på visse punkt (t.d. spesifikke funksjonar, filter og tillegg) går det an å stilla det eine opp mot det andre.

På den positive sida skryt Ars Technica veldig av støyfjerningstillegget GREYCstoration (no innlemma i tilleggspakken GMIC), som er på linje med Noise Ninja; «and hopefully Adobe will take notice that a free program destroys their rather useless Reduce Noise plug-in». Bokeh-uskjerping i Gimp krev at ein lastar ned Focus Blur, men Uskarp-maske er «a capable, professional-quality tool». Fjerning av raude auge, kurver/fargenivå, kanalmiksing og selektivt gaussisk blur fekk bra kritikk, det same gjeld verktøy for 3D-teksturar.

Det er sjølvsagt ein del negative punkt au. Endringar i pikselbaserte penslar blir ikkje lagra (så ein må gjere same endring ved kvar oppstart…). Fargeprofilar er som i Photoshop og fungerer bra, men det er ingen automatisk konvertering når du limer inn frå eit bilete med ein annan fargeprofil, så du må sjølv konvertere kjeldebiletet først (dette er noko det frie teikneprogrammet Krita har hatt ein stund). Biletkart for nettsider er au ganske tungvint i Gimp. Hårmasking – dvs. å lage eit utval som inneheld berre håret til ein person – krev mykje meir arbeid enn å køyre pluginen Fluid Mask i Photoshop, men sidan Gimp kan køyra Photoshop-plugins burde vel det gå an der au? I tillegg er brukargrensesnittet til Gimp svært dårleg ikkje 100% integrert i Mac OS X (men sjå Gimp on OS X) i forhold til på GNU/Linux-system (til gjengjeld er ikkje Photoshop heilt knirkefritt på GNU/Linux…).

Derimot var forfattaren svært imponert over rasterisering av vektorgrafikk frå t.d. Illustrator og InDesign i Gimp. Han nemner au UFRaw, eit «mørkeromsprogram» for å endra på fotografi i råformat som er integrert med Gimp.

Eit par punkt har blitt retta på etter at artikkelen blei skriven. T.d. kjem penslar til å få ein god del nye funksjonar i 2.8; i tillegg kan ein no laga HDR-bilete i Gimp med Qtpfsgui (om ein overlever namnet på programmet =P), og der ein før var nøydt til å køyra Krita eller CinePaint (ein fjern slektning av Gimp) er Gimp no på god veg til å fullt ut takle 16- og 32-bitsbilete, HDR og CMYK.

http://bloggurat.net/minblogg/registrere/83e65dc2ef535820d49271e5877d45afc45f1956

Fri programvare er essensielt for fri forsking, i alle fagfelt der programvare er ein del av forskingsprosessen.

Slik det er no, får gjerne eit forskingsprosjekt offentleg stønad sjølv om det ikkje er mogleg å testa eller validera eit forskingsresultat utan å

  1. kjøpa tilgang til ein lukka platform (programvare), og
  2. kjøpa lisens for forskingsmaterialet.

Og ofte er det ikkje mogleg å få testa resultatet sjølv om ein har kjøpt desse lisensane. Dette er feil, både praktisk, etisk og epistemisk, av fleire grunnar.

For det første: om me skal kunne stola på eit empirisk forskingsresultat må me kunne gjendriva dette («falsifying», å sjekka om det er mogleg å gjenta eit eksperiment). Før i tida var det gjerne slik at eit forskingsresultat kunne skildrast så detaljert i ein artikkel at det faktisk var mogleg å gjenskapa eit eksperiment utan meir informasjon enn det som sto i artikkelen. Dette gjeld ikkje lenger – forsking no involverer gjerne tusenvis av databaseoppslag, tekster eller liknande (dvs. materialet som blei henta inn), og spesialisert programvare til å handsama dette materialet. I tillegg til å gje ut ein artikkel som skildrar metoden og resultata, sjølve materialet og eventuell programvare som blei utvikla i forskinga vera tilgjengeleggjort – elles har me ingen grunn til å stola på forskinga.

Dette gjeld ikkje berre for andre forskarar som vil gjendrive resultat, men au for dei som sjølv gjorde forskinga. Ted Pedersen har ein fantastisk artikkel (pdf) kor han fortel om professor Zigglebottom som publiserer ein artikkel om ein ny og betre parser (dvs. eit program som finn ulike strukturar i tekst); problemet er berre at programmet var skrive og testa av ein doktorgradsstudent og er totalt udokumentert, og nokre år seinare får ikkje ei gong Zigglebottom sjølv til å køyra programmet. Eg veit sjølv om nok av akademisk arbeid som, uansett kor innovativt og elegant det ein gong var, ikkje kan brukast eller testast fordi det er udokumentert, lukka, eller avhengig av ein gamal platform som ikkje blir oppdatert lenger fordi selskapet som lagte han ikkje tener nok penger på å oppdatera denne platformen. Slike prosjekt døyr med forskarane sine. Om ein frå byrjinga av har eit ope prosjekt, kan det veksa seg langt større enn det lille instituttet der det byrja. Eit godt døme på dette er R-prosjektet, som byrja som eit lite akademisk program med ein fri lisens, men no har blitt eit av dei leiande systema for statistisk analyse.


For det andre er det eit etisk problem at me gir stønad til utvikling av lukka informasjon. For å seie det litt enkelt, kvifor skal du betala skatt for fleire professorårslønner om ikkje du sjølv – i prinsippet – kan få noko ut av forskinga? Dette er ikkje berre hypotetisk. Om data og programvare som blir utvikla får ein fri og open lisens, kan me faktisk tena på det fordi andre har tilgang til det. Me hadde t.d. aldri klart å få til såpass god dekning og presisjon i maskinomsetjing mellom nynorsk og bokmål i Apertium om ikkje det var for at Norsk ordbank (ei slags ordbok) og Oslo-Bergen-taggaren (ein slags parser, heldigvis ikkje utvikla av professor Zigglebottom) hadde frie lisensar. Det same gjeld den norske stavekontrollen i OpenOffice. Du treng ikkje vere datalingvist for å tena på at datalingvistisk forsking er open, og prinsippet gjeld sjølvsagt ikkje berre språkteknologi.

Men det må nok ei haldningsendring til. Forskarar må tørra å dela kjeldematerialet sitt, og godta at andre forskarar kan finna feil i forskinga deira. I fri programvare-modellen er ikkje ein feil eit stort tema; grunntanken må alltid vera at ingen er feilfrie. Viss du som utanforståande finn ein feil i eit prosjekt, så rapporterer du denne i den offentlege feilbasen (bugtrackaren) til dei som har ansvar for prosjektet. Enkelt og greit, og alle tener på det. Når det er snakk om forsking er dette faktisk endå viktigare, sidan slike feil kan gå ut over tidlegare publiserte resultat.

Manifestet blir altså sånn:
Ein må alltid ta spørsmålet om fri tilgang til materiale og programvare med i totalvurderinga når det er snakk om offentleg prosjektstønad til forskingsprosjekt.
Om deler av midlane skal gå til utvikling av spesialisert programvare (kanskje utført av innleigde programmerarar) må denne programvaren frigjerast. Det burde vera sjølvsagt.
Søknader som er avhengige av lukka platformar skal nedprioriterast.
Om det skal samlast inn materiale, t.d. som grunnlag til statistisk eller anna maskinell analyse, må dette materialet (der det ikkje går ut over personvernet) vera tilgjengeleggjort; helst under ein fri og open lisens slik at skattebetalarane kan få nytte av det, og slik at det fritt kan kommersialiserast.

(Dette innlegget blei delvis framprovosert av eit spørsmål på friprog.no.)

Følg

Få alle nye innlegg levert til Innboksen din.