I dei siste ti-tjue åra har det vore veldig populært med datadrivne statistiske metodar i maskinomsetjing, og Google spesielt har ytra ei sterk tru på at meir data alltid vil trumfe over betre kunnskap. Men i eit foredrag frå i fjor sommar kunne det sjå ut til at Franz Och, leiaren for maskinomsetjingsprosjektet til Google, vurderer å sprøyta inn litt kunnskap i omsetjinga.

Når det er snakk om korleis maskinomsetjinga kan bli betre, viser han eit døme på ein tysk langdistanseavhengnad, der hovudverbet er på slutten av setninga, og nemner at dei har byrja å sjå på korleis dei kan nytte grammatikkar for å flytta verbet fram og gjere setninga «meir engelsk» før omsetjinga:

Ideally we would want to learn that from data […] and in some sense it’s in the data and a computer should be able to do that too, but in the meantime we are looking into ways to just explicitly put that knowledge into the system. So far the automatic grammar induction work has been, eh, not…very…well working or so…

Eg har sjølv prøvd meg på induksjon av dependensgrammatikkar, og resultatet var ikkje akkurat oppløftande; men det kjem vel betre metodar med åra.

Men dette med langdistanseavhengnader er noko som lenge har vore eit kjent problem for reint datadrivne metodar, og ein kan få ganske god statistisk maskinomsetjing (SMT) trass slike problem; men eg blei meir overraska over det følgjande utsagnet:

rule-based system with proprietary access

There’s a lot of interest [in SMT], and one reason is that it’s relatively simple for a small team to build a decent MT system by taking off-the-shelf resources, and there’s open-source software, parallell corpora and standard evaluation sets. […] This was not possible ten years ago with the rule-based systems, it was a complicated system with proprietary access [for] some companies and it was very hard to do the relevant research.

Det hjalp sjølvsagt at det på nittitalet blei mogleg å handtera store mengder data komputasjonelt; men likevel er det tankevekkande at tilgang til fri programvare og open data blir nemnt som ein hovudgrunn til at det skjer så mykje forsking på SMT. Ted Pedersen skriv at du burde «Measure Your Career in Downloads and Users». Det statistiske maskinomsetjingsverktøyet giza-pp1 har i følgje heimesida blitt lasta ned 9379 gonger, ikkje inkludert andre nettsider og utgåver. Med tanke på kor komplekst2 dette verktøyet er, vil eg tru at ein stor del av desse brukarane er doktorgradsstudentar…

Situasjonen til regelbasert maskinomsetjing er heldigvis i ferd med å betra seg her; dei siste åra har det komme fleire regelbaserte system med open data og open kjeldekode (FOSMT.org har ei god oversikt), der ein del system direkte erstattar kjende proprietære system som Xerox-verktøya, medan andre, som Apertium og Matxin, er uavhengige innovasjonar. Kanskje kjem dette til å gi den historiske pendelen eit lite dytt mot meir kunnskapsbaserte metodar igjen…

Fotnoter:

1 Som faktisk er basert på eit verktøy av Franz Och igjen.

2 Det var altså ein eufemisme.

Eg kom just over ein svært detaljert og lærerik gjennomgang av Gimp 2.6.4 i Ars Technica; det som er litt kult med denne er at forfattaren, Dave Girard, har jobba mange år i design- og trykkebransjen. Artikkelen er frå januar 2009, Gimp 2.8 kjem jo snart ut (med nytt brukargrensesnitt, laggrupper, mm.) så det er kanskje noko der som er utdatert, men det er interessant å sjå samanlikninga mellom Gimp og Photoshop. Det er sjølvsagt ikkje ei helt rettferdig samanlikning sidan Gimp ikkje er meint å vera ein Photoshop-klone, men på visse punkt (t.d. spesifikke funksjonar, filter og tillegg) går det an å stilla det eine opp mot det andre.

På den positive sida skryt Ars Technica veldig av støyfjerningstillegget GREYCstoration (no innlemma i tilleggspakken GMIC), som er på linje med Noise Ninja; «and hopefully Adobe will take notice that a free program destroys their rather useless Reduce Noise plug-in». Bokeh-uskjerping i Gimp krev at ein lastar ned Focus Blur, men Uskarp-maske er «a capable, professional-quality tool». Fjerning av raude auge, kurver/fargenivå, kanalmiksing og selektivt gaussisk blur fekk bra kritikk, det same gjeld verktøy for 3D-teksturar.

Det er sjølvsagt ein del negative punkt au. Endringar i pikselbaserte penslar blir ikkje lagra (så ein må gjere same endring ved kvar oppstart…). Fargeprofilar er som i Photoshop og fungerer bra, men det er ingen automatisk konvertering når du limer inn frå eit bilete med ein annan fargeprofil, så du må sjølv konvertere kjeldebiletet først (dette er noko det frie teikneprogrammet Krita har hatt ein stund). Biletkart for nettsider er au ganske tungvint i Gimp. Hårmasking – dvs. å lage eit utval som inneheld berre håret til ein person – krev mykje meir arbeid enn å køyre pluginen Fluid Mask i Photoshop, men sidan Gimp kan køyra Photoshop-plugins burde vel det gå an der au? I tillegg er brukargrensesnittet til Gimp svært dårleg ikkje 100% integrert i Mac OS X (men sjå Gimp on OS X) i forhold til på GNU/Linux-system (til gjengjeld er ikkje Photoshop heilt knirkefritt på GNU/Linux…).

Derimot var forfattaren svært imponert over rasterisering av vektorgrafikk frå t.d. Illustrator og InDesign i Gimp. Han nemner au UFRaw, eit «mørkeromsprogram» for å endra på fotografi i råformat som er integrert med Gimp.

Eit par punkt har blitt retta på etter at artikkelen blei skriven. T.d. kjem penslar til å få ein god del nye funksjonar i 2.8; i tillegg kan ein no laga HDR-bilete i Gimp med Qtpfsgui (om ein overlever namnet på programmet =P), og der ein før var nøydt til å køyra Krita eller CinePaint (ein fjern slektning av Gimp) er Gimp no på god veg til å fullt ut takle 16- og 32-bitsbilete, HDR og CMYK.

http://bloggurat.net/minblogg/registrere/83e65dc2ef535820d49271e5877d45afc45f1956

Fri programvare er essensielt for fri forsking, i alle fagfelt der programvare er ein del av forskingsprosessen.

Slik det er no, får gjerne eit forskingsprosjekt offentleg stønad sjølv om det ikkje er mogleg å testa eller validera eit forskingsresultat utan å

  1. kjøpa tilgang til ein lukka platform (programvare), og
  2. kjøpa lisens for forskingsmaterialet.

Og ofte er det ikkje mogleg å få testa resultatet sjølv om ein har kjøpt desse lisensane. Dette er feil, både praktisk, etisk og epistemisk, av fleire grunnar.

For det første: om me skal kunne stola på eit empirisk forskingsresultat må me kunne gjendriva dette («falsifying», å sjekka om det er mogleg å gjenta eit eksperiment). Før i tida var det gjerne slik at eit forskingsresultat kunne skildrast så detaljert i ein artikkel at det faktisk var mogleg å gjenskapa eit eksperiment utan meir informasjon enn det som sto i artikkelen. Dette gjeld ikkje lenger – forsking no involverer gjerne tusenvis av databaseoppslag, tekster eller liknande (dvs. materialet som blei henta inn), og spesialisert programvare til å handsama dette materialet. I tillegg til å gje ut ein artikkel som skildrar metoden og resultata, sjølve materialet og eventuell programvare som blei utvikla i forskinga vera tilgjengeleggjort – elles har me ingen grunn til å stola på forskinga.

Dette gjeld ikkje berre for andre forskarar som vil gjendrive resultat, men au for dei som sjølv gjorde forskinga. Ted Pedersen har ein fantastisk artikkel (pdf) kor han fortel om professor Zigglebottom som publiserer ein artikkel om ein ny og betre parser (dvs. eit program som finn ulike strukturar i tekst); problemet er berre at programmet var skrive og testa av ein doktorgradsstudent og er totalt udokumentert, og nokre år seinare får ikkje ei gong Zigglebottom sjølv til å køyra programmet. Eg veit sjølv om nok av akademisk arbeid som, uansett kor innovativt og elegant det ein gong var, ikkje kan brukast eller testast fordi det er udokumentert, lukka, eller avhengig av ein gamal platform som ikkje blir oppdatert lenger fordi selskapet som lagte han ikkje tener nok penger på å oppdatera denne platformen. Slike prosjekt døyr med forskarane sine. Om ein frå byrjinga av har eit ope prosjekt, kan det veksa seg langt større enn det lille instituttet der det byrja. Eit godt døme på dette er R-prosjektet, som byrja som eit lite akademisk program med ein fri lisens, men no har blitt eit av dei leiande systema for statistisk analyse.


For det andre er det eit etisk problem at me gir stønad til utvikling av lukka informasjon. For å seie det litt enkelt, kvifor skal du betala skatt for fleire professorårslønner om ikkje du sjølv – i prinsippet – kan få noko ut av forskinga? Dette er ikkje berre hypotetisk. Om data og programvare som blir utvikla får ein fri og open lisens, kan me faktisk tena på det fordi andre har tilgang til det. Me hadde t.d. aldri klart å få til såpass god dekning og presisjon i maskinomsetjing mellom nynorsk og bokmål i Apertium om ikkje det var for at Norsk ordbank (ei slags ordbok) og Oslo-Bergen-taggaren (ein slags parser, heldigvis ikkje utvikla av professor Zigglebottom) hadde frie lisensar. Det same gjeld den norske stavekontrollen i OpenOffice. Du treng ikkje vere datalingvist for å tena på at datalingvistisk forsking er open, og prinsippet gjeld sjølvsagt ikkje berre språkteknologi.

Men det må nok ei haldningsendring til. Forskarar må tørra å dela kjeldematerialet sitt, og godta at andre forskarar kan finna feil i forskinga deira. I fri programvare-modellen er ikkje ein feil eit stort tema; grunntanken må alltid vera at ingen er feilfrie. Viss du som utanforståande finn ein feil i eit prosjekt, så rapporterer du denne i den offentlege feilbasen (bugtrackaren) til dei som har ansvar for prosjektet. Enkelt og greit, og alle tener på det. Når det er snakk om forsking er dette faktisk endå viktigare, sidan slike feil kan gå ut over tidlegare publiserte resultat.

Manifestet blir altså sånn:
Ein må alltid ta spørsmålet om fri tilgang til materiale og programvare med i totalvurderinga når det er snakk om offentleg prosjektstønad til forskingsprosjekt.
Om deler av midlane skal gå til utvikling av spesialisert programvare (kanskje utført av innleigde programmerarar) må denne programvaren frigjerast. Det burde vera sjølvsagt.
Søknader som er avhengige av lukka platformar skal nedprioriterast.
Om det skal samlast inn materiale, t.d. som grunnlag til statistisk eller anna maskinell analyse, må dette materialet (der det ikkje går ut over personvernet) vera tilgjengeleggjort; helst under ein fri og open lisens slik at skattebetalarane kan få nytte av det, og slik at det fritt kan kommersialiserast.

(Dette innlegget blei delvis framprovosert av eit spørsmål på friprog.no.)

(Vil du heller lesa dette innlegget på bokmål?)

I april 2009 søkte eg på Google Summer of Code, og fekk eit stipend for å jobbe i Apertium-prosjektet saman med åtte andre studentar. Apertium er ei mengd program og språkdata som m.a. blir nytta til automatisk omsetjing, og båe språkdata og programvaren er fritt og ope. Mitt prosjekt var apertium-nn-nb – maskinomsetjing mellom nynorsk og bokmål, og eg har vel jobba omtrent kvart ledige minutt på dette i sommar. Tirilensin og Baldur har vore svært tolmodige…

Eg har no gitt ut versjon 0.6.01 av apertium-nn-nb. Dette er altså eit språkpar for Apertium som gjer at du kan omsetja tekst mellom bokmål og nynorsk. Språkparet har ca. 46000 oppslagsord for kvart språk og ca. 88% dekning på Wikipedia-artiklar (meir statistikk her); det vil seia at litt meir enn kvart tiande ord ikkje blir analysert (dei siste ti prosentpoenga er svært vanskelege, sidan jo nærare du kjem 100% dekning, jo fleire ord treng du per prosentpoeng).

Kvifor Apertium?

Eg studerer datalingvistikk og språkteknologi, så maskinomsetjing er jo ideelt for meg. Og i tillegg til at dei har fantastiske mentorar så har Apertium funne seg ein interessant nisje i maskinomsetjingsmarkedet, dei konsenterer seg om minoritetsspråk og lågressursspråk, t.d. Baskisk, Bretonsk, Galisisk og Katalansk, og då spesielt omsetjing mellom majoritetsspråket og minoritetsspråket innanfor eitt område. Dei har au ein svært pragmatisk haldning til maskinomsetjing – formålet er å få eit godt resultat2. Eit svært godt maskinomsetjingsresultat kan føra til at eit minoritetsspråk får meir tilgjengeleg tekst og dimed høgare status i samfunnet som skriftspråk. Eit middels godt resultat er au eit gode sidan dei som berre les majoritetsspråket mistar eit argument for å krevja at minoriteten er nøydt til å lesa og skriva majoritetsspråket.

Sidan Apertium ofte har å gjera med språk som har lite ferdig omsett og fritt tilgjengeleg tekst (parallellkorpora), er det vanskeleg å nytta slike reint statistiske metodar som Moses, Google eller Asia Online nyttar3, i staden kodar dei inn eksplisitt språkkunnskap. Det du treng av ressursar for å leggja til eit nytt språk er altså berre ein grammatikk og ei ordbok, og litt tid og ork. Nokre av dei involverte er lingvistar som kanskje har eit språk dei vil bidra med ressursar til, andre er heller programmerarar som jobbar meir med sjølve verktøya.

Så kor kan eg prøva dette vedunderet?

Sidan Apertium er fritt og ope, kan du gjerne køyra det på din eigen maskin. Apertium og nn-nb-paret kan installerast på GNU/Linux via t.d. apt (for t.d. Debian eller Ubuntu-brukarar) ved å skriva sudo apt-get install apertium lttoolbox apertium-nn-nb. På Arch Linux installerer du frå Arch User Repositories med yaourt -S apertium-nn-nb. På andre system må ein nok kompilera sjølv (sjå installasjonssidene på wikien).

Men det går au an å prøva nn-nb på http://apertium.org, du kan skriva inn tekst og trykkja «omsett» eller lasta opp filer i ulike format (HTML, ODF, RTF, osb.).

I tillegg går det an å få Apertium-omsetjingar inn i XChat, WordPress, Pidgin, Virtaal, OmegaT og OpenOffice ved hjelp av ulike tilleggsprogram. Nokre av desse kan henta omsetjingar over nettet (vha. eit anna sommarkodeprosjekt) så ein treng ikkje å ha installert Apertium sjølv. Eg har ikkje prøvd alle desse sjølv, så spør andre om hjelp til det ;)

Korleis fungerer apertium-nn-nb då? (Den tekniske biten)

(Dette er basert på ein presentasjon (pdf, manus her) eg heldt for workshopen om føringsgrammatikk i Odense på Nodalida 2009.)

Apertium er eit hovudsakleg regelbasert system, med lite syntaktisk informasjon. Kvart språkpar består av ulike modular, der kvar modul tek inn tekst, gjer noko med denne og spyttar ut igjen meir tekst. For å laga eit språkpar treng du minimum tri ting:

  • ei bøyingsordbok for det eine språket
  • ei bøyingsordbok for det andre språket
  • ei omsetjingsordbok mellom dei to språka
Apertium XML (av ebemenelli)

Apertium XML (av ebemenelli)

Den vanlegaste måten å laga Apertium-ordbøker er ved å skriva dei i XML-formatet til lttoolbox. Desse ordbøkene gir informasjon som at ordet kvalp er eit substantiv, og har eit visst bøyingsparadigme (endinga -en står for bunden form eintal, osb.), og i omsetjingsordbøkene at substantivet kvalp i språk 1 kan omsetjast til substantivet valp i språk 2; XML-en blir kompilert til svært raske endelege tilstandsmaskinar som kan lesa ordet kvalpen og spytta ut teksta

kvalp_substantiv_hankjønn_eintal_bunden

som altså er bøyingsanalysen av ordforma, eller lesa denne analysen og spytta ut

valp_substantiv_hankjønn_eintal_bunden

Ordbøkene kan au nyttast til generering, så

valp_substantiv_hankjønn_eintal_bunden

sendt til bokmålsordboka gir valpen.

Men det kan jo henda at du jobbar med eit språk der lttoolbox-formatet ikkje passar så bra, t.d. Georgisk. Då kan du, om du vil, skriva dei einspråklege ordbøkene i det meir uttrykksfulle, men treigare, HFST-formatet – eller eigentleg kva som helst, så lenge du kan få det formatert slik som døma over.

Det som er kjekt med å basera seg på denne typen data er at det ofte finst slikt tilgjengeleg allereie. Det er nemleg ofte slik informasjon som går inn i stavekontrollar og liknande; i mitt tilfelle konverterte eg fullformsordlistene til Norsk ordbank (med litt hjelp av ordbokprogrammet Ordbanken) til Apertium-formatet. Norsk ordbank har svært mange oppslag og svært god informasjon, og er i tillegg fri programvare så eg kunne nytta den informasjonen med godt samvit. Konverteringa var ein del arbeid; i tillegg måtte eg ha ei omsetjingsordbok. Denne var først lagt automatisk ved å omsetja alle ord som fantest i båe ordbøker. For å utvida desse nytta eg au det statistiske verktøyet Giza++ saman med ReTraTos for å henta ut omsetjingar frå http://noreg.no og bokmåls- og nynorskomsetjingane av KDE4 (her køyrte eg au poterminology og poswap for å henta ut omsetjingar av «terminologi»). Men eg har nok fått mest ut av halvmanuelle metodar når det gjeld denne ordboka (skripting, emacs-makroar, …), sidan statistiske metodar ikkje gir så gode resultat på så små parallellkorpora.

Men du kjem ikkje så langt med ordbøker åleine. Det er (minst) to andre hovudproblem i maskinomsetjing:

  1. ordformer kan ha ulike tydingar
  2. ulike språk har ulik ordfølgje og bøying

For å takla det første problemet treng me i det minste ein taggar. apertium-nn-nb har to, faktisk. Først ein føringsgrammatikk, dette er ei stor mengd reglar av typen «viss ordboka seier at dette kan vera anten partisipp eller fortidsverb, og det kjem rett etter bli, ha eller vera, så er det ikkje eit fortidsverb» (med eit par andre atterhald…). Heldigvis for meg fantest det allereie ein fritt tilgjengeleg føringsgrammatikk i form av Oslo-Bergen-taggaren, denne måtte konverterast ein del for å passa inn i Apertium, men kvaliteten på systemet er svært mykje høgare enn det hadde vore om eg måtte skriva alle reglane sjølv. Eg har i tillegg utvida denne til å takla problem som han ikkje takla frå før av, slik at dei som jobbar med Oslo-Bergen-taggaren au får eit betre produkt. Etter føringsgrammatikken kjem ein statistisk taggar som tek det endelege valet etter at føringsgrammatikken har fjerna det han kan.

Problem nummer to blir løyst i transfer-modulen. Her finst reglane som sørgjer for at adjektiv og substantiv har same kjønn og tal (t.d. om me vil at «en liten jente» på bokmål skal bli «ei lita jente» på nynorsk), og meir kompliserte reglar som sørgjer for at «mannens røde bil» blir til «den raude bilen til mannen», eller at «bøker skrives» blir til «bøker blir skrivne» medan «bøker kan skrives» blir til «bøker kan skrivast». Desse reglane måtte eg skriva heilt for hand (au i XML), og dei er nok enno langt frå ferdige (prøv t.d. «bøker leses ikke»).

Det finst enno store utfordringar, t.d. har me ingen anaforoppløysing og så godt som ingen orddisambiguering (t.d. forskjellen mellom bokmålsordet ville i tydinga ha lyst til versus tydinga forville); i tillegg bør ordbøkene utvidast og det finst jo nok av ting ein kan pussa på i dei andre modulane…

Om det er andre som er interessert i å bidra til prosjektet vil eg rå dei til å sjå på http://wiki.apertium.org/wiki/Norsk, og ta kontakt med meg eller dei andre i Apertium, miljøet der er svært venleg mot nye bidragsytarar :-)

Fotnotar:

1 Dette er visst det tradisjonelle førsteversjonsnummeret i Apertium…

2 Alternativet er å prøva å først oppnå den mest korrekte lingvistiske skildringa, og så sjå kor gode maskinomsetjingsresultat det kan gi.

3 Men, litt statistikk kan involverast likevel, det er ofte lett å få tak i einspråkleg tekst.

I was about to write a comment on this ReadWriteWeb article on distributed social networking, but it got too long, so instead I’m posting it here. These are some of the free and open source social networks which exist as replacements for Twitter, Facebook, Tr.im and the many other new walled gardens1 that have taken over the role of AOL and Compuserve:

Sick of Twitter downtime?

Denied too many friend requests? Don’t want to give away all your intellectual property to Facebook?

  • Elgg lets you run your own social network, there is an install at gNewBook.org if you want to try it out.
  • Noserub is a decentralised social networking platform and software, there is an install going at http://identoo.com if you want to try it out. It has a pretty cool lifestream feature, and makes it very easy to hook your profile up to your blogs, scrobbling, microblogs, photo stream, etc. There seem to be quite a few installs running at various places already, worth checking out.
  • Daisychain is a distributed, free and open source social networking project by the people who made http://libre.fm, but is so far just in a planning phase.
  • http://identi.ca/group/facebookfree has a lot of discussions around this…

Did Last.fm/CBS sell your scrobbles to the RIAA?

  • http://libre.fm Libre.fm runs the software GNUkebox which lets you scrobble your music using a Last.fm-compatible API. The Nixtape web front end currently lets you listen to free music, played using the free OGG Vorbis format.

Are your Tr.im URLs gone forever?

EDIT: No they’re not! Tr.im is opening up their code and becoming community owned. Fabulous. If you still want alternatives, check out:


1Walled Gardens: Like “The Truman Show”, only everyone’s a Truman.

Søndagsdilling

8 mars, 2009

Søndag. Eg har hatt ein verkeleg nerdete søndag. La meg sjå…

  1. Eg lappa saman eit lite Ubiquity-skript (kode her, eller abonner her) for å henta originalstorleiken av eit flickr-bilete (sidan vennensin driv og hentar ned ørten teksturar til dagen), og i prosessen lærte eg meg å nytta jQuery.ajax med callbacks. Minte meg litt om Scheme-kurset eg tok for nokre år sidan.
  2. Når me er inne på Scheme, så oppdaga eg at Gimp ikkje ser ut til å ha noko menyval for å laga eit utval som dekkjer same område som eit lag. Vips, så var det gjort.
  3. Også har eg omsett meir på Audacity (bokmål) og NoseRub (nynorsk).

Men no er det på tide å lesa litt. Siste Granny-boka.

http://upload.wikimedia.org/wikipedia/en/1/1b/Wintersmith.JPG

cover på American Phrenological Journal

For to-tre hundre år sidan var det alment kjent at ein kunne sjå om nokon var kriminelle ved å undersøkja beinstrukturen til hovuda deira. Eg er ganske sikker på at dei fleste ikkje lenger trur på dette (eg vonar iallfall at dei som har makt til å dømme folk ikkje lenger trur på dette). Likevel, det er noko forførande med tanken på å kunne «oppdaga» kriminelle med objektive og eintydige måleinstrument. Kanskje er dette grunnen til at folk enno trur at polygrafen kan avdekkja løgner.

bilete av polygraf

For ikkje lenge sidan skreiv forskarane Eriksson og Lacerda artikkelen «Charlatanry in forensic speech science: A problem to be taken seriously» kor dei undersøkte to typar stemmebaserte «stressdetektorar» utvikla av Nemesysco, meint for å gi svar på om den mistenkte lyg eller ikkje. Resultatet:

these machines perform at chance level when tested for reliability. Given such results and the absence of scientific support for the underlying principles it is justified to view the use of these machines as charlatanry and we argue that there are serious ethical and security reasons to demand that responsible authorities and institutions should not get involved in such practices.

Merk: chance level. Altså, du kunne like godt kasta for kron eller mynt. Eller fikla rundt på hovudbunnen til din mistenkte.

Men dette er eigentleg greitt nok, me reknar med at vitskapen skal kunne gi svar på om slike ting eigentleg fungerer som me trur dei gjer.

Problemet kom når Nemesysco trua forskarane med søksmål: «the researchers may be sued for libel if they continue to write on this subject in the future», og forlaget blei tvinga til å fjerna artikkelen frå publikasjonen og nettsidene. Kvalmande, rett og slett.

Men, om me ser på den lyse sida synest det som at Streisand-verknaden speler inn, og at alt oppstyret rundt skremselstaktikkane til Nemesysco gjer at fleire faktisk blir opplyst om det faktum at «løgndetektoren» ikkje finst.

For interesserte, her er Eriksson & Lacerda-artikkelen på scribd, du finn au ein torrent med pdf-en.

Følg

Få alle nye innlegg levert til Innboksen din.