Test – najważniejsze słowo w prowadzeniu odpowiednio dostosowanego i skutecznego marketingu na Amazon i nie tylko.  Ta zasada dotyczy nawet samego źródła, czyli algorytmu, a konkretnie schematu jego postępowania w kampaniach automatycznych. Jego domniemana zasada działania jest relatywnie prosta: aby algorytm mógł sklasyfikować daną frazę wyszukiwania jako trafną w kontekście naszego produktu, musi ją początkowo „przetestować”. Polega to na emitowaniu reklamy w momencie, gdy klient wprowadzi do silnika wyszukiwania testowaną frazę, a następnie należy zbadać jej określone metryki, takie jak konwersja czy współczynnik klikalności (CTR).

Wstęp

W momencie gdy dana fraza (search term) lub produkt spełnia określone kryteria, czyli przynosi rezultaty, algorytm kontynuuje emisję reklamy. W przypadku gdy rezultatów nie ma nastąpi relokacja budżetu na następny produkt lub frazę, która może mu się wydać odpowiednia, zyli maksymalnie trafna. W algorytmie Amazon to właśnie trafność (ang. Relevancy) jest kluczowym czynnikiem, który sprawia, że Twoje produkty wyświetlane są odpowiednim klientom.

Dla przykładu:

Dla kilku pierwszych produktów skonfigurowana kampania automatyczna przynosiła świetne wyniki, ale dla następnych, pomimo odpowiedniego zarządzania keywordami, nadawała się jedynie do kliknięcia przycisku „Pause” gdyż z dnia na dzień, nieefektywnie trwoniła Twój cenny budżet.
Głównym powodem takich problemów mogą być właśnie nieodpowiednie frazy i produkty „testowane” przez algorytm w pierwszych dniach funkcjonowania kampanii. Po kilkunastu dniach współczynnik kosztów (ACoS) przekracza dziesięciokrotnie maksymalną założoną wartość, pomimo optymalizacji pod kątem SEO i konwersji. W ten sposób traci się najważniejszy zasób jakim dysponujemy w sprzedaży na Amazon – czas.

Z pomocą przychodzi zabieg tzw. Testu A/B (SPLIT CAMPAIGN). Jest to strategia, która jest w stanie uchronić Cię w przyszłości przed niechcianymi kosztami oraz potencjalnie zaoszczędzić dużą ilość cennego czasu.

Konfiguracja kampanii

Zasada konfiguracyjna jest prosta. Załóżmy, że dysponujecie dziennym budżetem około 40 euro. Zamiast konfigurować jedną kampanię automatyczną, skonfigurujemy minimum 2 do 4 (a tak naprawdę im więcej tym lepiej, lecz 4 to zazwyczaj wystarczająca ilość). W tych kampaniach bazujecie na tych samych założeniach: identyczne bidy i ich systemy, sposoby emisji oraz ewentualnie startowe keywordy negatywne, a sam budżet dzielicie przez ilość kampanii.

Podczas konfiguracji, świetnym narzędziem jest przycisk „Copy” pozwalający na skopiowanie właśnie skonfigurowanej kampanii dowolną ilość razy.

Obserwacja

Test prowadzicie docelowo przez 30 dni trzymając się ściśle danych zasad:

  • Gdy nie jestem w stanie kontynuować testu przez 30 dni, skracam czas jego trwania do maksimum 14 dni
  • Gdy wprowadzam zmiany, wprowadzam je we wszystkich kampaniach jednocześnie. Przykładowo, gdy zmieniam Bid o 0,05$, zmieniam go także we wszystkich kampaniach.
  • Gdy jedna lub więcej kampanii ekstremalnie odbiega efektywnością od innych – wyłączam je nie czekając do końca testu.
  • Gdy wyłonię jednego lub więcej „zwycięzców” przerzucam na nie budżet z kampanii wyłączonych i dalej prowadzę optymalizację jako niezależne kampanie (już nie wprowadzam w nich jednocześnie identycznych zmian).

Analiza wyników

Interpretacja wyników będzie tutaj kluczowym czynnikiem powodzenia. Zależnie od ogromu czynników, wyniki mogą być albo skrajnie różne, albo niemalże identyczne.  Podczas interpretacji wyników należy wziąć pod uwagę cel, dla którego prowadziliśmy daną kampanię marketingową – czy jest to opłacalna sprzedaż, czy może maksymalny zasięg przy maksymalizacji sprzedaży?

Wyniki skrajnie różne

Niekiedy wyniki nie pozostawiają wątpliwości – wyłania się jednoznacznie najlepsza kampania, która wygenerowała duży zasięg, emitowane reklamy były najczęściej klikane oraz sprzedała najwięcej sztuk produktu. Niezależnie od przyjętego celu, zasięgi są największe, a sprzedaż najbardziej opłacalna.

Trzy kampanie diametralnie różniące się osiągniętymi wynikami.

Wyniki podobne

Czasami wyniki nie będą jednoznaczne. Tutaj w szczególności musimy wziąć pod uwagę cel, do którego zmierzamy. Jeżeli jest to maksymalny zasięg, wtedy skalujemy kampanię, która w znacznym stopniu wygenerowała większą ilość impresji, oraz sprzedała więcej sztuk produktu. Jeżeli profit, to wtedy skalujemy tę z najniższym współczynnikiem ACoS. Możemy oczywiście dalej kontynuować emisję reklam z kilku kampanii jednocześnie, optymalizując je już jako autonomiczne jednostki.

ACoS podobny, jednak jedna kampania sprzedanie zdecydowanie najwięcej.

Wyniki subtelnie zróżnicowane

W takim przypadku warto wziąć pod uwagę dwa scenariusze. Pierwszym jest wybranie jednej kampanii i jej skalowanie oraz optymalizacja. Drugim jest prowadzenie emisji reklam ze wszystkich kampanii jednocześnie przy jednoczesnej konfiguracji indywidualnej. To rozwiązanie, w moim przypadku, stosowane jest dużo częściej. Z biegiem czasu każda z tych kampanii może różnić się na przykład efektywnością sprzedaży różnych wariantów danego produktu.

Przykładowo, jedna kampania dużo lepiej będzie sprzedawać wariant A, inna B, podczas gdy w jeszcze następnej fatalnie będzie się sprzedawał wariant C, który po prostu wyłączę z promowania w danej kampanii.

Bardzo zbliżone wynikowo kampanie.

Podsumowanie

W teorii w ten sposób mamy w swoim arsenale marketingowym najlepsze kampanie automatyczne, gotowe docelowo do zbierania danych dla przyszłych kampanii manualnych i do długoterminowego prowadzenia opłacalnej sprzedaży. Oczywiście jeśli to właśnie opłacalność tej określonej kampanii jest dla nas priorytetem i potencjalnie może zaoszczędzić nam ogromną ilość czasu, którego jak wielu z nas wie – w działaniu na marketplace’ach może zawsze brakować, gdyż ilość pomysłów, wdrożeń i problemów może się mnożyć w nieskończoność.

Czy to działa? Oceńcie sami na przykładzie kilku przeskalowanych zwycięzców po testach A/B w kontekście długoterminowego działania kampanii automatycznych.