Motivasjon

apertium-sme-nob, januar 2010:

*– Bare tør mindre #tall fremme meninger #dette av sak , \@dat stund når \@eanas menneske av samfunn og #spesielt \@at , de tar \@vuostá muslimer med #åpen \@giehta . Jeg #bli også \@mo Tromsø av kommune kunne vi ser #dette sak slik med #lett \@miella når de gjør. \@Ii *jáhke dem #sann du forstår \@mii \@olu vanskelig *moskéa og \@eambbo #muslim kan #bringe til Norge , den #avrunde *Røyset. *Røyset den vraker pretensjon at *FMI organisasjon er #rasistisk .

 

apertium-sme-nob, juli 2010:

– Bare mindretallet tør å fremme meninger på denne saken, mens de fleste folk på samfunnet og spesielt kristne, de tar mot muslimene med åpne hender. Jeg forundres også hvordan på Tromsøs kommune kan de se denne saken slik med et lett sinn da du gjorde. Jeg tror ikke dem sanne å forstå som de mange problemenes *moskéa og de #mer muslimene kan bringe til Norge, han avslutter #Røyset. #Røyset vraker pretensjonen at *FMI organisasjonen er #rasistisk.

 

Originaltekst:

– Dušše unnitlohku duostá ovddidit oaiviliid dán áššis, dan botta go eanas olbmot servvodagas ja erenoamážit risttalaččat, váldet muslimaid vuostá rabas gieđaiguin. Mun imaštalan maiddái mo Romssa gielddas sáhttet geahččat dán ášši nu gehppes mielain go dahket. In jáhke sin duođaid áddet man olu váttisvuođaid moskéa ja eambbo muslimat sáhttet buktit Norgii, loahpaha Røyset. Røyset hilgu čuoččuhusa ahte FMI organisašuvdna lea rasisttalaš.

 

*, # og @ er debug-symbol, og vil seia at ordet manglar frå samisk-, bokmåls- eller omsetjingsordboka, høvesvis.

Samisk på norsk

Eg har ein heilt fantastisk sommarjobb. Eg samarbeider for tida med folk frå Apertium og Sámi Giellatekno (det samiske språkteknologiprosjektet ved UiT) for å få til maskinomsetjing frå nordsamisk til bokmål.

Oppdatering: utviklingsversjonen kan no testast frå sidene til Giellatekno.

Dette er litt meir krevande enn nynorsk-bokmål1… viss me hadde teikna eit kart der språk som likna på kvarandre sto nær kvarandre, kunne me fått noko slikt:

NB: Kartet er ikkje i målestokk. MÅ IKKJE NYTTAST TIL NAVIGERING

Altså er det litt forskjell på språka. No finst det sjølvsagt ein del språklege lån mellom norsk og samisk, men dei har heilt forskjellige språkfamilier og historie. Eit par døme på forskjellar:

  • samiske substantiv har ikkje kjønn, greit nok…
  • samiske pronomen har ikkje kjønn – den er litt verre, skal me omsetja son til «han» eller «ho»?
  • samiske verb bøyer seg etter subjektet, så av og til sløyfar folk pronomenet – då må me setja inn eit nytt pronomen på norsk (med rett kjønn…)
  • dei samiske verba er i det heile teke fulle av hemmelege våpen til å uttrykka ulike tidspunkt, aktørar og haldningar til situasjonen. Verbet veahkehit tyder «å hjelpa», veahkehat blir «du hjelper», veahkeheaččan blir (litt avhengig av kontekst) «du kunne vel hjelpa», medan veahkehežžet blir «du kunne vel ha hjelpt»
  • og så har me alle avleiingane, som gjer verb om til substantiv, substantiv om til adjektiv, eller seier at noko skjedde i hast, eller ofte, eller berre ein gong, eller at nokon fekk nokon til å gjere noko, eller at nokon berre byrja å gjere noko… Me har mange av desse mekanismane på norsk au, t.d. kan me gjera «skikk» til eit adjektiv ved å leggje til «-eleg», men å driva og laga nye ord slik er alt for risikabelt til at me kan gjera det til ein generell regel (*«kjærleikeleg»?).

For å ha det sagt: eg kan ikkje samisk. Det har tydelegvis skjedd ein glipp i utdanninga mi. Men eg har god hjelp frå dei fantastiske tri binda med LÆREBOK I LAPPISK (SAMISK) frå 19262 (og ein litt nyare grammatikk), i tillegg til at språkteknologane ved UiT allereie har gjort størsteparten av det arbeidet som krev skikkeleg samiskkunnskap. Min jobb er hovudsakleg å laga reglar som gjer ferdig analysert samisk tekst om til forståeleg bokmål.

Omsetjing mellom så ulike språk gir svært mange utfordringar. Me har i første omgang berre satsa på samisk til bokmål, og ventar med andre retninga. Me vil at maskinomsetjinga skal vere nyttig og formålstenleg, og då er det best å byrja med samisk til bokmål. Dei to vanlegaste formåla med automatisk omsetjing er:

  1. assimilering: maskinomsetjinga skal vera god nok til at ein kan forstå omsetjinga sjølv om ein ikkje forstår originalspråket
  2. disseminering: maskinomsetjing skal vera god nok til at ein omsetjar (som altså forstår begge språk) heller vil rette på maskinomsetjinga enn å skriva omsetjinga frå botnen av

Når folk nyttar maskinomsetjing frå eit majoritetsspråk til eit minoritetsspråk innanfor eit samfunn (t.d. bokmål til samisk, bokmål til nynorsk), er det sjeldan sånn at dei som har minoritetsspråket som morsmål ikkje forstår majoritetsspråket og lurer på kva det står i originalteksta; maskinomsetjing frå bokmål til samisk blir først nyttig når omsetjinga er god nok til at ho med minimalt etterarbeid blir klar for utgjeving. Andre vegen, derimot, er det nyttig med ei omsetjing som berre gir eit oversyn over innhaldet i originalteksta, utan å vera så bra at ein profesjonell omsetjar ville nytta ho som grunnlag. Så målet for no er at viss du t.d. søkjer etter namnet ditt og finn ein blogg på samisk som snakkar om deg3, så skal du kunne køyra dette innlegget gjennom Apertium og finne ut om det dei sa om deg var bra eller dårleg ;-)

Men sjølv om me tillèt dårleg flyt i bokmålen, må me sjølvsagt ha noko å omsetja alle dei ulike verbformene og avleiingane til, og me må unngå å mista eller forvrenga viktig informasjon. Det er mange utfordringar i dette språkparet, men heldigvis har sjølve Apertium-plattforma fått ein del nye verktøy å takla utfordringane med. Men det får eg spara til eit seinare innlegg.

Fotnotar:

1 Ja, samisk til nynorsk hadde vore endå litt kulare, men me må jo spara noko til seinare :-)

2 Vel, i nytt, men uendra, opplag frå 1977. I forordet står det at namnet på boka blei fastslått i 1922, «da trykningen begynte», og lappisk enno var det mest kjende namnet (det tok fire år å få trykka boka… ting tok tid før).

3 For skuld argumentet kan me lata som om det skortar på litt grunnleggande danning og du ikkje kan lese samisk.

Ope brev til Tekna

Nyleg uttalte leiinga i fagforeninga Tekna at dei støtta innføring av datalagringsdirektivet i Noreg [PDF]. Eg kan ikkje hugsa å ha blitt spurt om mi meining i denne saka, og har heller ikkje høyrt at andre Tekna-medlem har fått høve til å uttala seg.

Datalagringsdirektivet inneber etter mi meining eit alvorleg overtramp av personvernet. Meir spesifikt kan det leia til svekking av kjelde-/varslarvernet (sjå m.a. Jon Wessel-Aas om dette) i tillegg til at innsamla data alltid kan misbrukast ulovleg; ingen system er perfekte. Sjølv medlemsbladet til Tekna kallar direktivet «farleg og ubrukeleg».

Eg kan ikkje vera medlem av ei fagforening som tek vedtak om ei såpass viktig sak utan ein meir demokratisk prosess. Om ikkje støtta blir trekt tilbake innan høringsfristen 12/4 2010 ser eg meg nøydt til å melda meg ut.

mvh,
Kevin Brubeck Unhammer

masterstudent i datalingvistikk og språkteknologi
Universitetet i Bergen

Mål forskinga di i brukarar og nedlastingar

I dei siste ti-tjue åra har det vore veldig populært med datadrivne statistiske metodar i maskinomsetjing, og Google spesielt har ytra ei sterk tru på at meir data alltid vil trumfe over betre kunnskap. Men i eit foredrag frå i fjor sommar kunne det sjå ut til at Franz Och, leiaren for maskinomsetjingsprosjektet til Google, vurderer å sprøyta inn litt kunnskap i omsetjinga.

Når det er snakk om korleis maskinomsetjinga kan bli betre, viser han eit døme på ein tysk langdistanseavhengnad, der hovudverbet er på slutten av setninga, og nemner at dei har byrja å sjå på korleis dei kan nytte grammatikkar for å flytta verbet fram og gjere setninga «meir engelsk» før omsetjinga:

Ideally we would want to learn that from data […] and in some sense it’s in the data and a computer should be able to do that too, but in the meantime we are looking into ways to just explicitly put that knowledge into the system. So far the automatic grammar induction work has been, eh, not…very…well working or so…

Eg har sjølv prøvd meg på induksjon av dependensgrammatikkar, og resultatet var ikkje akkurat oppløftande; men det kjem vel betre metodar med åra.

Men dette med langdistanseavhengnader er noko som lenge har vore eit kjent problem for reint datadrivne metodar, og ein kan få ganske god statistisk maskinomsetjing (SMT) trass slike problem; men eg blei meir overraska over det følgjande utsagnet:

rule-based system with proprietary access

There’s a lot of interest [in SMT], and one reason is that it’s relatively simple for a small team to build a decent MT system by taking off-the-shelf resources, and there’s open-source software, parallell corpora and standard evaluation sets. […] This was not possible ten years ago with the rule-based systems, it was a complicated system with proprietary access [for] some companies and it was very hard to do the relevant research.

Det hjalp sjølvsagt at det på nittitalet blei mogleg å handtera store mengder data komputasjonelt; men likevel er det tankevekkande at tilgang til fri programvare og open data blir nemnt som ein hovudgrunn til at det skjer så mykje forsking på SMT. Ted Pedersen skriv at du burde «Measure Your Career in Downloads and Users». Det statistiske maskinomsetjingsverktøyet giza-pp1 har i følgje heimesida blitt lasta ned 9379 gonger, ikkje inkludert andre nettsider og utgåver. Med tanke på kor komplekst2 dette verktøyet er, vil eg tru at ein stor del av desse brukarane er doktorgradsstudentar…

Situasjonen til regelbasert maskinomsetjing er heldigvis i ferd med å betra seg her; dei siste åra har det komme fleire regelbaserte system med open data og open kjeldekode (FOSMT.org har ei god oversikt), der ein del system direkte erstattar kjende proprietære system som Xerox-verktøya, medan andre, som Apertium og Matxin, er uavhengige innovasjonar. Kanskje kjem dette til å gi den historiske pendelen eit lite dytt mot meir kunnskapsbaserte metodar igjen…

Fotnoter:

1 Som faktisk er basert på eit verktøy av Franz Och igjen.

2 Det var altså ein eufemisme.

Photoshopping i Gimp (ei omtale)

Eg kom just over ein svært detaljert og lærerik gjennomgang av Gimp 2.6.4 i Ars Technica; det som er litt kult med denne er at forfattaren, Dave Girard, har jobba mange år i design- og trykkebransjen. Artikkelen er frå januar 2009, Gimp 2.8 kjem jo snart ut (med nytt brukargrensesnitt, laggrupper, mm.) så det er kanskje noko der som er utdatert, men det er interessant å sjå samanlikninga mellom Gimp og Photoshop. Det er sjølvsagt ikkje ei helt rettferdig samanlikning sidan Gimp ikkje er meint å vera ein Photoshop-klone, men på visse punkt (t.d. spesifikke funksjonar, filter og tillegg) går det an å stilla det eine opp mot det andre.

På den positive sida skryt Ars Technica veldig av støyfjerningstillegget GREYCstoration (no innlemma i tilleggspakken GMIC), som er på linje med Noise Ninja; «and hopefully Adobe will take notice that a free program destroys their rather useless Reduce Noise plug-in». Bokeh-uskjerping i Gimp krev at ein lastar ned Focus Blur, men Uskarp-maske er «a capable, professional-quality tool». Fjerning av raude auge, kurver/fargenivå, kanalmiksing og selektivt gaussisk blur fekk bra kritikk, det same gjeld verktøy for 3D-teksturar.

Det er sjølvsagt ein del negative punkt au. Endringar i pikselbaserte penslar blir ikkje lagra (så ein må gjere same endring ved kvar oppstart…). Fargeprofilar er som i Photoshop og fungerer bra, men det er ingen automatisk konvertering når du limer inn frå eit bilete med ein annan fargeprofil, så du må sjølv konvertere kjeldebiletet først (dette er noko det frie teikneprogrammet Krita har hatt ein stund). Biletkart for nettsider er au ganske tungvint i Gimp. Hårmasking – dvs. å lage eit utval som inneheld berre håret til ein person – krev mykje meir arbeid enn å køyre pluginen Fluid Mask i Photoshop, men sidan Gimp kan køyra Photoshop-plugins burde vel det gå an der au? I tillegg er brukargrensesnittet til Gimp svært dårleg ikkje 100% integrert i Mac OS X (men sjå Gimp on OS X) i forhold til på GNU/Linux-system (til gjengjeld er ikkje Photoshop heilt knirkefritt på GNU/Linux…).

Derimot var forfattaren svært imponert over rasterisering av vektorgrafikk frå t.d. Illustrator og InDesign i Gimp. Han nemner au UFRaw, eit «mørkeromsprogram» for å endra på fotografi i råformat som er integrert med Gimp.

Eit par punkt har blitt retta på etter at artikkelen blei skriven. T.d. kjem penslar til å få ein god del nye funksjonar i 2.8; i tillegg kan ein no laga HDR-bilete i Gimp med Qtpfsgui (om ein overlever namnet på programmet =P), og der ein før var nøydt til å køyra Krita eller CinePaint (ein fjern slektning av Gimp) er Gimp no på god veg til å fullt ut takle 16- og 32-bitsbilete, HDR og CMYK.

http://bloggurat.net/minblogg/registrere/83e65dc2ef535820d49271e5877d45afc45f1956

Du skal ikkje stola på lukka forsking

Fri programvare er essensielt for fri forsking, i alle fagfelt der programvare er ein del av forskingsprosessen.

Slik det er no, får gjerne eit forskingsprosjekt offentleg stønad sjølv om det ikkje er mogleg å testa eller validera eit forskingsresultat utan å

  1. kjøpa tilgang til ein lukka platform (programvare), og
  2. kjøpa lisens for forskingsmaterialet.

Og ofte er det ikkje mogleg å få testa resultatet sjølv om ein har kjøpt desse lisensane. Dette er feil, både praktisk, etisk og epistemisk, av fleire grunnar.

For det første: om me skal kunne stola på eit empirisk forskingsresultat må me kunne gjendriva dette («falsifying», å sjekka om det er mogleg å gjenta eit eksperiment). Før i tida var det gjerne slik at eit forskingsresultat kunne skildrast så detaljert i ein artikkel at det faktisk var mogleg å gjenskapa eit eksperiment utan meir informasjon enn det som sto i artikkelen. Dette gjeld ikkje lenger – forsking no involverer gjerne tusenvis av databaseoppslag, tekster eller liknande (dvs. materialet som blei henta inn), og spesialisert programvare til å handsama dette materialet. I tillegg til å gje ut ein artikkel som skildrar metoden og resultata, sjølve materialet og eventuell programvare som blei utvikla i forskinga vera tilgjengeleggjort – elles har me ingen grunn til å stola på forskinga.

Dette gjeld ikkje berre for andre forskarar som vil gjendrive resultat, men au for dei som sjølv gjorde forskinga. Ted Pedersen har ein fantastisk artikkel (pdf) kor han fortel om professor Zigglebottom som publiserer ein artikkel om ein ny og betre parser (dvs. eit program som finn ulike strukturar i tekst); problemet er berre at programmet var skrive og testa av ein doktorgradsstudent og er totalt udokumentert, og nokre år seinare får ikkje ei gong Zigglebottom sjølv til å køyra programmet. Eg veit sjølv om nok av akademisk arbeid som, uansett kor innovativt og elegant det ein gong var, ikkje kan brukast eller testast fordi det er udokumentert, lukka, eller avhengig av ein gamal platform som ikkje blir oppdatert lenger fordi selskapet som lagte han ikkje tener nok penger på å oppdatera denne platformen. Slike prosjekt døyr med forskarane sine. Om ein frå byrjinga av har eit ope prosjekt, kan det veksa seg langt større enn det lille instituttet der det byrja. Eit godt døme på dette er R-prosjektet, som byrja som eit lite akademisk program med ein fri lisens, men no har blitt eit av dei leiande systema for statistisk analyse.


For det andre er det eit etisk problem at me gir stønad til utvikling av lukka informasjon. For å seie det litt enkelt, kvifor skal du betala skatt for fleire professorårslønner om ikkje du sjølv – i prinsippet – kan få noko ut av forskinga? Dette er ikkje berre hypotetisk. Om data og programvare som blir utvikla får ein fri og open lisens, kan me faktisk tena på det fordi andre har tilgang til det. Me hadde t.d. aldri klart å få til såpass god dekning og presisjon i maskinomsetjing mellom nynorsk og bokmål i Apertium om ikkje det var for at Norsk ordbank (ei slags ordbok) og Oslo-Bergen-taggaren (ein slags parser, heldigvis ikkje utvikla av professor Zigglebottom) hadde frie lisensar. Det same gjeld den norske stavekontrollen i OpenOffice. Du treng ikkje vere datalingvist for å tena på at datalingvistisk forsking er open, og prinsippet gjeld sjølvsagt ikkje berre språkteknologi.

Men det må nok ei haldningsendring til. Forskarar må tørra å dela kjeldematerialet sitt, og godta at andre forskarar kan finna feil i forskinga deira. I fri programvare-modellen er ikkje ein feil eit stort tema; grunntanken må alltid vera at ingen er feilfrie. Viss du som utanforståande finn ein feil i eit prosjekt, så rapporterer du denne i den offentlege feilbasen (bugtrackaren) til dei som har ansvar for prosjektet. Enkelt og greit, og alle tener på det. Når det er snakk om forsking er dette faktisk endå viktigare, sidan slike feil kan gå ut over tidlegare publiserte resultat.

Manifestet blir altså sånn:
Ein må alltid ta spørsmålet om fri tilgang til materiale og programvare med i totalvurderinga når det er snakk om offentleg prosjektstønad til forskingsprosjekt.
Om deler av midlane skal gå til utvikling av spesialisert programvare (kanskje utført av innleigde programmerarar) må denne programvaren frigjerast. Det burde vera sjølvsagt.
Søknader som er avhengige av lukka platformar skal nedprioriterast.
Om det skal samlast inn materiale, t.d. som grunnlag til statistisk eller anna maskinell analyse, må dette materialet (der det ikkje går ut over personvernet) vera tilgjengeleggjort; helst under ein fri og open lisens slik at skattebetalarane kan få nytte av det, og slik at det fritt kan kommersialiserast.

(Dette innlegget blei delvis framprovosert av eit spørsmål på friprog.no.)