Der er et udtryk i reklame, der går "Jeg ved, at 80% af min annoncering ikke virker. Jeg ved bare ikke, hvilken 80% ". Den samme logik gælder for alle former for design, herunder webdesign. Hvis vi kun vidste, hvilken del af vores sideindhold, layout og arbejdsgange der ikke fungerede så godt som de skulle, ville det ikke være fantastisk?

Det virker som en udfordring at vide, hvad der virker når det kommer til brugeroplevelsesdesign, at have bekræftet i hårde kvantificerbare data, hvilke af to layouter, elementer eller ruter er det optimale, og dette er løftet om A / B-test. Det er et kraftfuldt værktøj, men det er ikke et paradis, og over-reliance på det kan ikke kun slå din dom som designer, men også paradoksalt nok resultere i suboptimale løsninger.

I denne artikel tager jeg et kig på nogle af faldgruberne ved at bruge A / B-test, og hvordan sådan sammenlignende test kan bruges som en del af en designers værktøjskasse, snarere end en dominerende designmetode.

A / B-test er blevet en stærk applikation inden for webdesign. Fremkomsten af ​​dynamisk sidevisning og moderne analysesoftware som Google Analytics gør det nemt at oprette og køre A / B-test eller opdele tests. Besøgende serveres skiftevis et sides layout eller et andet og de softwareforanstaltninger, der genererer det største antal af en forudbestemt handling, f.eks. Ved at klikke på en Køb nu-knap eller udfylde et registreringsformular. Disse handlinger er defineret som mål: målelig, kvantificerbar, knowable. I webdesign A / B-test skal disse mål være noget, der kan registreres af analytics-softwaren, så selvom målet kan være, at en bruger kan klikke på et link til en artikel, kan det ikke registrere, om brugeren læser artiklen .

Denne artikel har flere oplysninger om, hvordan man kører A / B-test, og her er en oversigt over nogle af de mest kendte test case studies.

A / B-test er uundgåeligt reduktiv, der udvikler darwinistisk 'det fitteste' design. Hvis du tester to radikalt forskellige designs, vil du fortælle hvilken som fungerer bedre for det mål, du tester. Du kan gentage dette trin ad infinitum. Men for at komme længere end dette skal du så variere to elementer af det hårdeste design for at prøve og forbedre feedback score. Næsten øjeblikkeligt har du flyttet fra at teste 2 meget divergerende designs til at tilpasse det "vindende" design. Statistikere kalder dette fund lokalmaksimum frem for det globale maksimum. Du kan nemt finde dig selv på vej ned ad en æstetisk blind vej, og finde det bedste hus på gaden i stedet for det bedste hus i hele byen. Test af flere muligheder, kaldet multivariate test eller bucket test, tilføjer yderligere kompleksitet, og værktøjerne er ofte dyrere.

Selv med flere muligheder kan split test kun bruges til at måle og optimere et mål ad gangen. Optimering til et mål kan være fint, hvis dit websted er meget smalfokuseret, f.eks. Et e-handelswebsted, hvor et ønsket resultat trumper alle andre. Men hvis du har flere mål for dit websted, skal du sørge for, at eventuelle ændringer tester godt mod alle mål.

Efter at have brugt så lang tid at teste og optimere et websted for at finde det lokale maksimum, er det forståeligt, at en designer ikke vil spilde alt det arbejde og forfølge et andet design. For at sige det helt, har du måske brugt lang tid på at bestemme hvilken af ​​to layouter der er de bedste, uden at indse, at begge sider suger. Den voldsomme tvivl skal altid forblive, hvis du har formået at optimere indholdet og UX fra en, der scorede en 6% succesrate til en 8% succesrate, er der et andet design, der ville koste 9% afkast eller højere?

Brugernes svar vil også ændre sig over tid, og det, der måske har testet stor sidste måned, kan ikke længere få de bedste resultater. En fare er, at du kan blive låst i en kontinuerlig test- og tweaking-cyklus. På dette tidspunkt er du mindre en designer end en quant-a-automat. Du har abdikeret din dømmekraft og designfølelse til løbende at søge testen. Jeg kender folk, der er blevet besat af at forsøge at teste alt, decidophobic, for evigt søger Shangri-La af optimale konverteringsfrekvenser.

Første indtryk tæller

"Du får aldrig en ny chance for at lave et første indtryk", som ordtaket går. Som forskning på Ontario University og andre steder har vist, besøgende på et websted gøre en underbevidst beslutning om at lide det eller ej på en utrolig kort tid, selv millisekunder. Halogen effekten af ​​dette indledende indtryk farver brugerens efterfølgende vurdering af webstedet og bestemmer endog deres vurdering af webstedets troværdighed. Det har altid forbløffet mig den afvisningsprocent, som alle websider får, det er folk, der besøger et websted og næsten straks forlader igen. Ofte skyldes dette bruger frustration venter på siden at indlæse. Teknisk optimering og reduceret sidevægt vil ofte være mere gavnlig end UX-test. Langsom sidegengivelse vil køre brugerne væk fra selv den bedste webside.

Hvilket bringer os til en vigtig advarsel: Du kan kun A / B-test, når du har lanceret. Du skal have rigtige brugere med rigtige mål for nøjagtigt at splitte test dit websted. Selv A / B tester et privat pre-launch beta-websted er upåliteligt, medmindre du har et stort beta-fællesskab. En stor prøvestørrelse (dvs. et stort antal sidebesøg) er også nødvendigt for præcise resultater. Således skal du forpligte dig til at lancere med et design, før du selv kan begynde at tænke optimering. Du skal forpligte sig til et design, og der er altid et første skridt i det ukendte, at A / B-test ikke kan hjælpe med.

Inspirationsgnisten

Som Henry Ford sagde: "Hvis jeg havde spurgt folk, hvad de ønskede, ville de have bedt om hurtigere heste". Brugere er ikke altid de bedste folk til at anmode om tilbagemelding. Dette fører mig til min største kritik af A / B-testning: det tvinger dig til at følge dit publikum og ikke lede dem. Du afholder ansvaret for at beslutte, hvad der gør dit websted til det bedste for publikums visdom. Du ender med at designe for at tilfredsstille det publikum, du har, ikke det publikum, du vil have.

Denne tilgang giver ingen plads til den inspirerende gnist, for at skabe noget virkelig originalt, noget vi ikke har set før. Det er ikke underligt, at så mange hjemmesider ser så ens ud, hver spiller det sikkert med et etableret udseende. Vågner du at være anderledes? Som denne provokerende tale stater, nogle gange må vi se ud over de marginale gevinster og kigge efter kvantespringet, den næste store idé.

En unik design og brugeroplevelse vil sandsynligvis først testes dårligt, men det kan tage tid at få trækkraft. Langsomt kan en buzz udvikle sig omkring designet, og det kan tiltrække et nyt publikum, en der er mere villig til at engagere sig med webstedet, dets indhold og design i syntese. A / B-test kan bruges til at finjustere og optimere design og layout yderligere, men det kan ikke føre dig til det lovede land. Du skal definere målene for, hvad der gør for en engageret publikum. Sidevisninger er en meget dårlig måling af engagement. Tid brugt på en side er bedre, eller antallet af kommentarer en artikel tiltrækker. Men kun feedback og kvalitativ analyse af dit publikum vil fortælle dig, om de nyder at bruge hjemmesiden, kun kvantitative målinger vil ikke fortælle dig hele historien.

Stol på din dom

Den største handling af design er at lave et mærke, ved hvorfor du gjorde det, og stol på, at det er godt. Hvis hvert element placeres, er hvert ord skrevet, tvivlsomt, hvordan kan man bygge med tillid? Design med tillid og vores individuelle designfølelse er det, der giver os mulighed for at designe med stil og personlighed.

I sidste ende vil et websted, der er bygget med logikken og konsistensen af ​​et klart designsyn, altid trumfere et websted, der er bygget med hvert element, der er let placeret og nervøst testet.

Dette er ikke at sige, at A / B-test ikke har sin plads. Men det passer bedst til nichetestningselementer, ikke layouter. Det er mindre nyttigt at teste en side mod en anden, men bedre til at teste et element, som forskellig kopi på en knap. Arbejdsstrømme er også modne til delt test: Er tilmeldingsformen bedre som en række små trin eller en stor form? Hvad hvis tilmeldingsformularen er et modalt vindue, der er lagt på hjemmesiden? Tjek ud Hvilken test vandt at se nogle gode eksempler og casestudier af UX-test, overvejende i e-handelsfeltet.

Generelt vil du være bedre at bruge den tid, du bruger A / B-test til at ændre dit websted på andre måder, som du ved, forbedrer dit websted, for eksempel at sikre, at det gøres korrekt på tværs af alle browsere og reducerer sidevægten. Er layoutet lydhør over for forskellige enheder, der giver den bedst mulige oplevelse? Er der typografier? Ser det godt ud på mobile enheder?

Du skal ikke altid have brug for A / B test for at vide, at du gør dit websted bedre.

Hvor meget A / B-test gør du? Har en god webdesigner brug for A / B test overhovedet? Lad os vide dine tanker i kommentarerne.

Fremhævet billede / miniaturebillede, beslutning billede via Shutterstock.