Pobierz artykuł PDF
Transkrypt
Pobierz artykuł PDF
METODY ANALITYCZNE W DZIAŁANIACH MARKETINGOWYCH Z WYKORZYSTANIEM SERWISÓW WYSZUKIWAWCZYCH JAROSŁAW JANKOWSKI, KAMILA GRZKO Zachodniopomorski Uniwersytet Technologiczny Streszczenie W artykule przedstawiono obszary wspomagania decyzji w marketingu interaktywnym z wykorzystaniem serwisów wyszukiwawczych oraz wybrane metody ekstrakcji wiedzy. Zaproponowano podstawy metodyczne budowy wieloagentowego systemu wspomagania decyzji w planowaniu kampanii reklamowych z udziałem metod text mining, przedstawiono model systemu oraz przeprowadzono badania testujce. Słowa kluczowe: serwisy wyszukiwawcze, text mining, ekstrakcja wiedzy 1. Wprowadzenie Internet jest zbiorem dokumentów hipertekstowych i umoliwia dotarcie do wielu zasobów informacyjnych i usług, jednak znalezienie treci dopasowanych do preferencji odbiorcy czsto bywa utrudnione. W celu usprawnienia procesu przetwarzania danych i zwikszenia jego efektywnoci wykorzystuje si aplikacje i serwisy wyszukiwawcze. Mechanizm aplikacji wyszukiwarki jest najczciej zintegrowany z witryn za porednictwem narzdzi bezporednich lub otwartego interfejsu API, który daje moliwo korzystania z aplikacji zewntrznych i przeszukiwania zasobów on-line [6]. Element składowy narzdzi wyszukiwawczych stanowi repozytorium danych powizane z baz danych, roboty indeksujce oraz procesor zapyta [1]. Pocztkowo wyszukiwarki słuyły jedynie do przetwarzania dokumentów tekstowych, aktualnie wiele z nich umoliwia wyszukiwanie plików graficznych, muzycznych, adresów e-mailowych, czy artykułów z grup newsowych. Wykorzystuje si je coraz czciej do poszukiwania informacji z rónych, niszowych obszarów, w tym take informacji handlowych. Obecnie s najczciej wykorzystywanymi serwisami w Internecie. Według bada przeprowadzonych przez Megapanel PBI/Gemius z wyszukiwarek aktualnie korzysta w Polsce ponad 8 mln internautów [7]. Rynek wyszukiwarek wci si zmienia. Pojawiaj si nowe koncepcje ich wykorzystania. Wraz ze wzrostem roli wyszukiwarek w Internecie, zwiksza si równie ich rola w marketingu elektronicznym. 2. Marketing w serwisach wyszukiwawczych Popularno wyszukiwarek internetowych zaley m.in. od tego jak dokładne rezultaty s przez nie generowane. Jednymi z najpopularniejszych wyszukiwarek w Polsce s obecnie: Google, Netsprint oraz Onet. Algorytmy wyszukiwarek s wci udoskonalane i stanowi zbiór reguł sterujcych oprogramowaniem, umoliwiaj one przedstawienie wyników w odpowiednim rankingu [2]. U podstaw systemów wyszukiwawczych le algorytmy indeksujce, które uwzgldniaj wiele czynników branych pod uwag w trakcie wyznaczania rankingu. Najczciej s to: liczba linków prowadzcych do strony oraz ich jako, słowa kluczowe, kod i tre strony oraz popularno do- Jarosław Jankowski, Kamila Grzko Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów wyszukiwawczych 79 meny. Serwisy wyszukiwawcze nie ujawniaj najczciej algorytmów indeksowania, eby utrudnia celow optymalizacj stron pod ich ktem. Jedynie na podstawie bada mona dowiedzie si, co wpływa na pozycj w rankingu wyszukiwania. Najpopularniejsza w Polsce wyszukiwarka Google w swoim algorytmie bierze pod uwag szereg czynników [15], z których kady ma okrelon wag: Ranking = K*0.3 + D*0.25 + L*0.25 + U*0.1 + J*0.1 + R (1) gdzie K - słowa kluczowe, D - siła domeny, L - wynik linków przychodzcych, U - wpływ zachowa uytkowników, J - wynik jakociowy, R - automatycznie i rcznie nadawane punkty karne lub inkrementacja indeksu. Istotnym elementem algorytmu wyszukiwania stosowanego przez Google jest algorytm Page Rank, który prowadzi ewaluacj stron internetowych. Jest on tym wyszy, im wiksza liczba wartociowych stron (z jak najmniejsz liczb odnoników do innych stron) zawiera do niej odsyłacze. Page Rank przyjmuje wartoci z przedziału (0,1). Warto PR jest przypisana do strony, a nie do całego serwisu i wyznacza si go według wzoru: PR( A) = (1 − d ) + d ( PR(t1 ) / C (t1 ) + ... + PR(t n ) / C (t n )) (2) gdzie: d – współczynnik tłumienia d 0.85, t1…tn – strony zawierajce odnoniki do strony A, C – liczba odnoników ze strony [1]. Algorytm ten podlega cigłym modyfikacjom i wiele wyszukiwarek przyjmuje podobne rozwizania. Inny algorytm pod nazw Traffic Index zastosowano w wyszukiwarce NetSprint. W celu obiektywnej oceny stron wprowadzono system uwzgldniajcy szereg czynników umoliwiajcych dostarczenie zobiektywizowanych wyników. W algorytmie mniej istotna jest analiza linków, wiksz wag przypisuje si natomiast badaniu ruchu na stronie. Algorytm jest stworzony tak, aby utrudnione było manipulowanie wynikami bez faktycznej zmiany wartoci merytorycznej serwisu. NetSprint uwzgldnia w algorytmie badania przeprowadzone przez Megapanel PBI/Gemius. Dane z badania pochodzce od internautów umoliwiaj dokładn ocen wartoci serwisów. Internauci uczestnicz w panelu i dostarczane przez nich informacje stanowi zasilenia systemu [15]. Na Rys. 1 zaprezentowano wpływ algorytmu na wyniki wyszukiwa. Rosnca popularno serwisów wyszukiwawczych sprawiła, e przedsibiorstwa zaczły wykorzystywa je w celu dotarcia z ofert do grupy docelowej. W Stanach Zjednoczonych wydatki na promocj w wyszukiwarkach stanowi 40% wydatków na reklam on-line. Przedsibiorstwa promujce si w wyszukiwarkach mog osign szereg korzyci. Marketing w wyszukiwarkach, czyli SEM (ang. Search Engine Marketing) poprawia widoczno serwisu, a tym samym ułatwia dostp do niego. Firmy prowadzce działania marketingowe w serwisach wyszukiwawczych maj na celu: zwikszenie ruchu na stronie, zwikszenie sprzeday produktów i usług, zwikszenie wiadomoci marki, obnienie kosztów reklamy, uzyskanie przewagi nad konkurencj, uzyskanie wikszego uznania w oczach klientów, cenicych sobie innowacyjne firmy [12]. Internauci trafiaj poprzez wyszukiwark do serwisu internetowego wiadomie, poniewa szukaj witryny o takiej tematyce. Marketing prowadzony za porednictwem wyszukiwarek powoduje, e grupa odwiedzajcych jest najbardziej wyselekcjonowana [14]. Jednym z obszarów aktywnej działalnoci marketerów jest pozycjonowanie i zapewnienie wysokiej pozycji na listach wyszukiwania. 80 POLSKIE STOWARZYSZENIE ZARZDZANIA WIEDZ Seria: Studia i Materiały, nr 19, 2009 JakoĞü serwisu Liczba uĪytkowników Załadowania stron LojalnoĞü uĪytkowników Analiza odnoĞników Powiązania wewnĊtrzne WartoĞü powiązaĔ Efektywna wartoĞü Wyniki przetwarzania TRAFFIC INDEX TreĞü serwisu WWW Licznik fraz OdnoĞniki do fraz Inne parametry Kategoria serwisu Inne parametry Rys. 1. Czynniki wpływajce na wyniki wyszukiwania (ródło: [4]) W zalenoci od przyjtej strategii oraz dostpnych zasobów alokowanych na działania marketingowe stosuje si pozycjonowanie płatne (linki sponsorowane, boksy reklamowe) lub pozycjonowanie organiczne (pozycjonowanie organiczne zwane jest równie pozycjonowaniem naturalnym) [3]. W przypadku pozycjonowania organicznego strona jest indeksowana przez roboty indeksujce. Na podstawie algorytmu stosowanego przez wyszukiwark w dopowiedzi na wprowadzone słowo kluczowe strona jest lokalizowana w rankingu na pozycji odpowiadajcej jej zawartoci i ocenie merytorycznej. Jak podaje wiele ródeł, uytkownicy bardzo czsto przegldaj jedynie pierwsze wyniki wyszukiwania. Dlatego firmy angauj due zasoby aby ich strony były zoptymalizowane jak najlepiej pod ktem najpopularniejszych wyszukiwarek z udziałem techniki optymalizacji SEO (ang. Search Engine Optimization) [9]. Pozycjonowanie stron WWW powinno uwzgldnia szereg czynników. Na sukces przy pozycjonowaniu wpływaj zarówno: komponent treci (słowa kluczowe, tytuł, tre, opisy). komponenty techniczne (domena, nazwa odnoników i plików, struktura strony, skrypty), popularno (link popularity, Page Rank, ruch na stronie). 3. Metody ekstrakcji wiedzy w serwisach wyszukiwawczych Wraz z rozwojem Internetu zwiksza si liczba indeksowanych stron oraz szum informacyjny, który powoduje, ze coraz trudniej odnale interesujce i wartociowe zasoby. Obecne wyszukiwarki wykorzystuj coraz bardziej inteligentne algorytmy i charakteryzuj si tym, e potrafi samodzielnie pozyskiwa dane z otoczenia i na ich podstawie generowa wiedz oraz wykorzystywa j do rozwizywania postawionych im zada [11]. Proces KDD (ang. knowledge discovery in databases) jest procesem złoonym, którego najistotniejszym elementem jest eksploracja danych podczas której wykrywa si zalenoci pomidzy danymi. Wiedza wydobyta w ten sposób przyjmuje posta prawidłowoci, reguł, tendencji, czy korelacji z uwzgldnieniem stopnia wanoci atrybutów. Jedn z metod czciej stosowanych w eksploracji wiedzy w wyszukiwarkach jest grupowanie. Polega na podziale obiektów na grupy (klastry) tak, aby podobiestwo midzy elementami nalecymi do danej grupy było jak najwiksze, natomiast midzy elementami nalecymi do innych grup było mniejsze, ni w ich obrbie. Algorytmy maj za zadanie znalezienie reguły grupujcej. Na wejciu otrzymuj opisane atrybutami obiekty oraz kryteria podobiestwa wewntrz Jarosław Jankowski, Kamila Grzko Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów wyszukiwawczych 81 i na zewntrz grupy [16]. Klasteryzacja jest typem uczenia bez nadzoru - nie ma wstpnie zdefiniowanych klas. Metoda grupowania przeznaczona jest dla duej iloci danych, jest niewraliwa na kolejno wprowadzania danych i cechuje j złoono czasowa i pamiciowa. Algorytmy klasteryzacji maj szerokie zastosowanie w wyszukiwarkach internetowych i stosuje si je do automatyzacji procesów grupowania dokumentów tekstowych, streszczania ich, usuwania jednakowych stron, usuwania słów uznanych za mało znaczce, wydobywania kluczowych struktur z wyrazów, konstruowania tezaurusów, grupowania stron w odpowiedzi na zapytanie. Algorytmy grupowania mog przyjmowa posta drzew decyzyjnych, sieci bayesowskich, neuronowych i powinny cechowa si du wydajno przetwarzania danych oraz generowaniem klastrów o uytecznej dla odbiorcy zawartoci [11]. Drugim zasadniczym elementem struktur wyszukiwarek s algorytmy analizy tekstu. Eksploracja danych zorientowana na przetwarzanie treci z serwisów wykorzystuje algorytmy tekst mining. S to metody słuce do wydobywania danych z tekstu oraz ich pó niejszego przetwarzania. K. Wcel definiuje tekst mining jako: „odkrywanie ukrytych wzorców i zalenoci w bardzo duych kolekcjach tekstowych”. Dane podlegajce eksploracji przechowywane s w zbiorach dokumentów i tekstowych bazach danych [11]. Metoda polega na znalezieniu fraz kluczowych i konwersji ich na dane numeryczne w oparciu o wzorce. W zbiorze wyszukuje si powizania midzy nimi i łczy tekst w celu uzyskania wartociowych informacji. Wyniki s analizowane i na ich podstawie podejmowane s decyzje. W systemach wyszukiwania informacji stosuje si czsto 2 miary oceny. Pierwsz z nich jest miara dokładnoci okrelajca stopie dopasowania dokumentów do zapytania: | [Re levant Re trieved ] | P= (3) | [Re trieved ] | Drug miar jest miara kompletnoci, okrela jaka cz dokumentów pasujcych do zapytania została odnaleziona: P= | [Re levant Re trieved ] | | [Re lewant ] | (4) Gdzie: Retrieved – zbiór odnalezionych dokumentów, Relevant – zbiór dokumentów pasujcych do zapytania. Najczstsze zastosowania tekst miningu to m. in. odnalezienie i segmentacja podobnych dokumentów, tworzenie rankingów dokumentów, tworzenie streszcze dokumentów w tym równie obrazów i plików multimedialnych, pozyskiwanie danych osobowych, rozpoznawanie skrótowców [5]. Zalet metody jest moliwo operowania na danych nieustruktualizowanych. Umoliwia to efektywniejsze zbieranie i zastosowanie wiedzy zawartej w dokumentach tekstowych, bez koniecznoci zastpowania zdezaktualizowanych informacji [16]. 4. Model systemu wspomagania decyzji i badania testujące Złoono algorytmów obliczeniowych i szeroki zasig kampanii marketingowych, powoduje, e trudno optymalizowa kampanie reklamowe bez narzdzi wspomagajcych. W artykule proponuje si konstrukcje systemu wspomagania decyzji DSS (ang. decision support systems), którego celem jest wsparcie działa marketingowych i pozycjonowania w wyszukiwarkach. Ogólna 82 POLSKIE STOWARZYSZENIE ZARZDZANIA WIEDZ Seria: Studia i Materiały, nr 19, 2009 koncepcja polega wykorzystaniu zbioru agentów, których zadaniem bdzie analiza wyników wyszukiwania oraz analiza kodu stron znajdujcych si na rónych pozycjach w rankingu w odpowiedzi na prowadzone słowo kluczowe. Uzyskane dane bd zapisane w bazie danych, nastpnie agenci wydobd informacje stosujc przydatne narzdzia analityczne i metody tekst miningu, przydziel dokumenty do klastrów i zwróc informacje majce ułatwi zaprojektowanie serwisu, w taki sposób, aby był zoptymalizowany pod ktem wyszukiwarek. W metodzie klasteryzacji agent wykorzysta algorytm k-means (k-rodków). Do obliczania rozbienoci pomidzy dowolnym punktem, a odpowiadajcym mu rodkiem wykorzystuje si funkcj odległoci (zazwyczaj norm L2). Dla tej normy suma kwadratów pomidzy punktami, a odpowiadajcymi im rodkami cikoci równa si całkowitej wewntrz klastrowej wariancji [10]. E (C ) = ¦ j =1...k ¦ xi ∈C j || xi − C j || (5) Dla potrzeb systemu utworzono cztery rodzaje agentów. Agenci bd mie okrelone funkcje i bd odpowiada za róne obszary działania w systemie. MA (ang. management agent) przejmuje nadzór nad prac platformy oraz tworzenie i kompleksowe zarzdzanie agentami, SA (ang. search agent) Analizowanie kodu stron znajdujcych si w wynikach wyszukiwarek i ich linków zwrotnych, CA (ang. clusterisation agent) klasteryzacja dokumentów, IA (ang. interface agent). Współpraca z uytkownikiem, pobieranie od niego danych. System składa si z wyodrbnionych podsystemów, które przedstawiono na Rys. 2. Moduł IP odpowiada za przetwarzanie informacji (ang. information processing). Funkcj tego modułu jest pobieranie informacji ze ródeł danych. Pobrane i zinterpretowane dane (dane zwizane z pozycj stron WWW i klasteryzacj dokumentów) trafiaj do podsystemu przechowywania informacji. W module zaimplementowani s agenci AP i AK. Moduł IS (ang. information storage) odpowiada za przechowywanie informacji dotyczcych zarówno uytkowników, słów kluczowych, agentów i ich działa. Moduł IM (ang. information management) zorientowany jest na zarzdzanie kompletnoci i aktualnoci danych. Gdy system stwierdzi, e naley odwiey dane, uruchamia proces pobierania informacji. W systemie wykrywane s niekompletne opisy i uruchamia si proces uzupełniania ich. Moduł ID (ang. information delivery) odpowiada za wykonywanie zapyta, a nastpnie prezentacja wyników. Jarosław Jankowski, Kamila Grzko Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów wyszukiwawczych SD DK Grupowanie Zarządzanie informacją Wizualizacja Zadania Pi Przepływ informacji Lista zadaĔ 83 AK Parametry agenta Filtrowanie Obliczenia Internet Przetwarzanie Wyniki dokumentów przetwarzania System DSS IR UĪytkownicy Repozytorium Rys. 2. Model działania systemu wspomagania decyzji ródło: opracowanie własne W metodach text mining wykorzystano agenta klasteryzacji. Dzieli on dokumenty na grupy, tak aby mona było stwierdzi, czy struktura stron ma wpływ na wyniki wyszukiwania. AK korzysta w tym celu z aplikacji Text Garden i pobiera z bazy zbiór dokumentów. Dokonuje konwersji plików .html do plików .txt. Nastpnie pliki z kadej z wyszukiwarek konwertuje do pliku .bow (ang. bag of words). Plików .bow uywa, aby podzieli dokumenty na grupy. Do klasteryzacji dokumentów wykorzystuje algorytm k – rodków. Nastpnie dokonuje jest wizualizacji wyników. W pierwszej kolejnoci dokonuje klasteryzacji dla dokumentów z wyszukiwarki Google. Badania przeprowadzono dla wyników wyszukiwania zbioru 12 dokumentów. S to strony z pozycji: 1, 5, 6, 9, 10, 15, 20, 25, 50, 90, 95, 100. Strony zostały dobrane tak aby zbada, czy wystpuj zalenoci w strukturze majce wpływ na pozycj w wyszukiwarce. Wyniki przedstawione dla 2 klastrów. Jako przetwarzania dla 12 dokumentów Q=6.25262, MS = 0.521 (ang. mean similarity). W klasterze 0 uzyskano 9 dokumentów i miar MS = 0.469. Wartoci uzyskane dla poszczególnych dokumentów w klastrze 0 wynosz odpowiednio 90G: 0.603913, 25G: 0.568047, 10G: 0.565841, 20G: 0.494054, 50G: 0.452739, 15G: 0.435805, 6G: 0.421556, 100G: 0.359408, 95G: 0.317053. Klaster K1 obejmuje 3 dokumenty z MS=0.678 i odpowiednio 1G: 0.725187, 9G: 0.678475, 5G: 0.630543. Przy podziale na 5 klastrów uzyskano jako 8.67606: 0.723 oraz nastpujcy podział dokumentów: K0 MS=1.000 5G: 1, K1 MS=0.628 4 dokumenty i odpowiednio 25G: 0.779, 10G: 0.678, 6G: 0.600, 95G: 0.456. K2 i K3 obejmował równie 1dokument oraz K4 5 dokumentów z MS=0.632 i odpowiednio dla poszczególnych dokumentów 90G: 0.781, 1G: 0.703, 15G: 0.659, 20G: 0.532, 50G: 0.487. 84 POLSKIE STOWARZYSZENIE ZARZDZANIA WIEDZ Seria: Studia i Materiały, nr 19, 2009 Liczba klastrów nr klastra 2 Liczba klastrów 5 0 1 0 1 2 3 4 nr w rankingu 1 + 5 + + 6 + 9 10 + + + + + + nr klastra nr w rankingu 1 2 5 0 1 0 1 2 3 4 + 4 + 5 + + + + 9 + + 10 + + + + 15 + + 11 20 + + 25 + 30 + + + + 25 + 50 + + 45 90 + + 100 + + 105 + + 95 + + + Tabela 1. Zestawienie rezultatów z 2 klasteryzacji dla Gogola (ródło: obliczenia własne) + Tabela 2. Zestawienie rezultatów z 3 klasteryzacji dla Onetu (ródło: obliczenia własne) Przy podziale na 2 klastry wida wyra nie, e istnieje zaleno midzy struktur stron, a wynikami wyszukiwania (Tabela 1). Osiem dokumentów z dalszych miejsc oraz jeden z pocztkowych pozycji w rankingu nale do tego samego klastra, natomiast dokumenty z pozycji pocztkowych nale do innego. Podobnej zalenoci, jednak mniej zauwaalnej mona dopatrywa si przy podziale na 5 klastrów, gdzie strony o najbardziej zblionych pozycjach s zazwyczaj w jednym klastrze, bd w klastrach ssiadujcych. Równie w wyszukiwarce Onetu wida, e istnieje zaleno midzy struktur dokumentu, a pozycj w rankingu widoczna przy podziale na 2 klastry (Tabela 2). Kada z par, bd trójek dokumentów (4 i 5), (9,10,11), (20, 35, 40), (100, 105) znajduje si w obrbie jednego klastra. Przy podziale na 5 klastrów zaleno taka jest równie zauwaalna, jednak w mniejszym stopniu. 4. Podsumowanie Rozwój cywilizacyjny wie si mocno z koniecznoci podejmowania wyzwa, formułowaniem sposobów ich przezwyciania oraz stosowania rozwiza przy pomocy nowych technologii. Znaczcym wyzwaniem jest dla wielu przedsibiorstw jest uzyskanie przewagi konkurencyjnej równie w wynikach wyszukiwania. Coraz trudniej jest strukturalizowa due iloci potrzebnych informacji. Istotn czynnoci w systemie DSS jest wybór narzdzi do eksploracji danych, które pozwol wydoby z danych informacje słuce do generowania właciwych reguł i wniosków. System wspomagania decyzji oparty na metodach text miningu ułatwia podjcie działa dotyczcych budowy struktury serwisu oraz doboru słów kluczowych w serwisie. Techniki eksploracji danych s istotnym elementem wspomagania decyzji, znajomo struktury serwisów wysoko pozycjonowanych umoliwia osignicie wyszych pozycji w wynikach wyszukiwania, co zapewnia wartociowy ruch generowany z wyszukiwarek. Propozycje dalszych bada nad systemem wspomagania decyzji obejmuj ulepszenie algorytmów ekstrakcji wiedzy, w sposób dajcy dokładniejsze wyniki. Z pewnoci jest to proces czasochłonny i wymaga sporych nakładów jednak moe prowadzi do Jarosław Jankowski, Kamila Grzko Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów wyszukiwawczych 85 lepszych efektów. Bibliografia 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. Benicewicz A., Nowakowski M., Webpositioning. Skuteczne pozycjonowanie w Internecie, czyli jak efektywnie wypromowa witryn, Wydawnictwo MIKOM, Warszawa 2005. Berry M.W., Borne M. (2005): Understanding Search Engines: Mathematical Modeling and Text Retrieval, Society for industrial and applied mathematic Brown B.C (2007) The Ultimate Guide to Search Engine Marketing: Pay Per Click Advertising Dokumentacja systemu Netsprint (2000), http://netsprint.pl Dunford T. (2008): Advanced Search Engine Optimization: A Logical Approach, American Creations of Maui Frckiewicz E. (2006):, Marketing Internetowy, Wydawnictwo Naukowe PWN, Warszawa. Gemius/PBI (2008): Megapanel, pbi.og.pl Jones K.B. (2008): Search Engine Optimization: Your visual blueprint for effective Internet marketing, Wiley Publishing Frontczak T., Marketing Internetowy w Wyszukiwarkach, Wydawnictwo Helion, Gliwice 2006. Hand D., Mannila H., Smyth P.(2005): Eksploracja danych. WNT, Warszawa. Kłopotek M. A., Inteligentne wyszukiwarki internetowe (2001): Akademicka Oficyna Wydawnicza EXIT, Warszawa. Langville A. N., Meyer C.D. (2006): Google's PageRank and Beyond: The Science of Search Engine Rankings, Princeton University Press. Netsprint (2008): Traffic index, Materiały informacyjne firmy NetSprint Sp. z .o.o., 2008 Mcleod A. (2007): Marketing Internetowy w praktyce, Internetowe Wydawnictwo Złote Myli, Gliwice. SoeMoz.org (2008): A little piece of google algorithm revealed, http://SoeMoz.org Zanasi A., Brebbia C. A., Ebecken N. F. F. (2006): Data Mining VII: Data, Text And Web Mining And Their Business Applications, WIT Press. 86 POLSKIE STOWARZYSZENIE ZARZDZANIA WIEDZ Seria: Studia i Materiały, nr 19, 2009 ANALITYCAL METHODS FOR SEARCH ENGINES MARKETING Summary The article presents search engine marketing areas and algorithmic approach to online marketing campaigns optimization using the decision support methods in the search engines data analysis. It proposes a methodical basis for building a multiagent decision support system using the text mining methods and presents model of such system and its further evaluation. Jarosław Jankowski Kamila Grzko Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny 71-210 Szczecin, ul. ołnierska 49 e-mail: [email protected] [email protected]