Semalt: En man som redigerade tre miljoner Wiki-artiklar

Under denna artikel kommer Oliver King, Semalt Customer Success Manager, att berätta om Svenker Johanssons programvara som framgångsrikt skapade miljontals artiklar på Wikipedia, och hur han blev en av de mest berömda och produktiva redaktörerna av denna encyklopediens webbplats . Denna svenska fysiklärare är allmänt känd som Lsj. Han har skapat Lsjbot, en automatiserad Wikipedia-redaktör, som har hjälpt Svenker skapa massor av Wikipedia-artiklar för dess svenska version.

Hittills har Lsjbot kunnat skapa tre miljoner artiklar över en mängd olika versioner av Wikipedia och samlat över tio miljoner individuella redigeringar. Johansson säger att huvuduppgiften är att skapa artiklar om olika arter av djur och växter, och de flesta av hans redigeringar är endast relaterade till den uppgiften. Det fanns tillfällen då Wikipedia bara hade några få bots, men Johansson hävdar att de blir allt viktigare för närvarande och borde vara en del av maskinerna hos Google och Wikipedia.

Men det finns gränser för vad vi kan göra med bots. Bots är viktiga eftersom de hjälper till att upprätthålla mycket arbete och skapa olika artiklar på Wikipedia. Den engelska versionen har miljontals publicerade artiklar, och bots används i hög grad för att reparera vandalism. Överallt i världen hittas de som reparerar och uppdaterar de gamla sakerna, arkiverar befintliga diskussioner, ändrar kategorierna på Wikipedia-artiklar och lägger till exakta datumfrimärken i de manuella problemrapporterna.

Skriver robotar NASA: s historia?

En av de största riskerna med detta tillvägagångssätt är artiklarna som slutar med NASA: s historia. Många tror att bots har skapat artiklarna och många automatiska program var involverade i publiceringen. År 2008, en algoritm var känd som ClueBot II skrev framgångsrikt femton tusen Wikipedia artiklar om asteroider. Det omskrivs helt enkelt de offentliga uppgifterna och konverterade information från NASAs databas till Wikipedia-artiklar. Dessa artiklar redigerades av bots, som ändrade deras taggar och länkade dem till varandra för bakåtlänkar . Dessa bots ändrade till och med de engelska versionerna av Wikipedia-artiklar till kinesiska versioner. 2012 upphörde denna skapelse, och människor gjorde allt arbete.

Bots eller robotar genomgår särskilda godkännandeprocesser

Erik Moller, biträdande direktör och bidragsgivare för Wikimedia Foundation, som ansvarar för övervakningen av webbplatsen, har gett några exempel om Cluebot. Han säger att en omfattande politik reglerar användningen av robotar eller bots på Wikipedia. Han berättade för Guardian att inte alla bots är berättigade till att arbeta med detta jätte encyklopedi på grund av deras begränsade egenskaper, funktioner och alternativ. De flesta av botsna går igenom det tuffa godkännandeförfarandet där bestämningarna görs av människor om uppgifterna de utför är meningsfulla eller inte. Bots som sällan utför det onödiga upptaget avvisas antingen omedelbart eller stängs av under en livstid.

Moller medger också att de strukturerade uppgifterna från Wikipedia och dess projekt upprätthålls på olika sätt, vilket hjälper till att hålla saker uppdaterade och minskar potentialen för mänskliga fel vid manuell uppdatering och import av siffrorna.

Wikipedia är en av de webbplatser som har många artiklar. Johansson har försvarat praxisen att skapa miljoner artiklar ensam och sagt att han använde klokt användning av robotar och bots och fick dem godkända av de högsta myndigheterna innan han använde dem på Wikipedia.

send email