Radosław Delida Wiarygodność informacji w Internecie Większość
Transkrypt
Radosław Delida Wiarygodność informacji w Internecie Większość
Radosław Delida Wiarygodność informacji w Internecie Większość ludzi użytkujących Internet zdaje sobie sprawę, że ułatwia on manipulację informacjami. Właściwie wszystkie osoby wypowiadające się publicznie na ten temat twierdzą zgodnie, że jeżeli nie można potwierdzić informacji zamieszczonej w sieci w rzeczywistości, to nie można także być pewnym jej wiarygodności. Jest również pewnym uproszczeniem twierdzenie, że ten sposób jest idealny ponieważ oczywistym jest, że informacje w świecie realnym także podlegają zniekształceniom, w związku z czym, czasami nawet weryfikacja oparta o rzeczywistość może doprowadzić do błędnych wniosków. Proponowane przez autorów różnych opracowań metody oceny wiarygodności zasobów internetowych są do siebie zbliżone i jednocześnie bazują na zasadach stosowanych w świecie realnym. Wiarygodność źródeł drukowanych wiąże się z kompetencjami autora i reputacją wydawnictwa, dokładnością analizy redakcyjnej poprzedzającej publikację oraz recenzjami specjalistów. Analogicznie, badając wiarygodność zasobów sieci, zaleca się głównie, oprócz ustalenia celu powstania serwisu, zebranie informacji o jego właścicielu oraz o osobie odpowiedzialnej za jego zawartość, a także odszukanie opinii na temat publikacji i znalezienie witryn zawierających odnośniki do analizowanego zasobu. Jednak należy zwrócić uwagę, że Internet, oprócz tego, iż doskonale nadaje się do dowolnego manipulowania informacjami i chociaż udostępnia narzędzia, pozwalające w jakimś stopniu ustalić prawdziwość określonych danych, to umożliwia również manipulowanie wpływającymi na ich wiarygodność właściwościami. Dlatego przy korzystaniu z zasobów sieci tak dużą rolę odgrywa rozsądek, ostrożność, doświadczenie, wiedza oraz umiejętności posługiwania się technologiami informacyjnymi. Z punktu widzenia bibliotekarzy, jako osób szczególnie zainteresowanych, wszelkimi zagadnieniami związanymi z tworzeniem różnego rodzaju treści, ciekawymi mogą się wydać niektóre aspekty powstawania tekstów specjalnie przeznaczonych do publikacji w Internecie. Zadaniem tej szczególnej kategorii artykułów jest promowanie określonych serwisów internetowych, poprzez wpływanie na ich pozycję w wynikach wyszukiwania wyszukiwarek sieciowych. Im więcej linków, umieszczonych w odpowiednim tematycznie i unikatowym tekście prowadzi do danej witryny z innych stron WWW, tym wyżej pojawia się do niej łącze na liście rekordów wyszukiwania, po wpisaniu słów kluczowych, z którymi jest kojarzona. Wiele instytucji czy firm zabiega o umieszczenie hiperłącza do ich serwisu na czołowych miejscach list zwracanych przez wyszukiwarki, gdyż zgodnie z badaniami, większość internautów przegląda jedynie kilka pierwszych stron ze wszystkich oferowanych przez program wyszukujący informacje. Działania mające na celu podwyższenie pozycji serwisu w wynikach wyszukiwania prezentowanych przez wyszukiwarkę nazywane są pozycjonowaniem. Zwiększająca się konkurencja wśród osób zajmujących się pozycjonowaniem stron internetowych, oraz konieczność umieszczania większej liczby łączy prowadzących do promowanego serwisu powoduje lawinowe powstawanie witryn internetowych z zamieszczonymi na nich tekstami promocyjnymi. Są to tzw. presell pages nazywane potocznie preclami (tak nazywa się również umieszczane na nich teksty). Jedynym celem istnienia tych serwisów jest gromadzenie artykułów promocyjnych. Charakteryzują się zazwyczaj prostą grafiką, różnorodnością tematyczną menu, linkami do innych witryn umieszczonymi w tekstach. Od treści zamieszczonych na tego typu stronach wymaga się jedynie aby były na temat (tzn. zawierały wymaganą liczbę słów i fraz kluczowych), miały określoną objętość i były unikatowe. Unikatowość uzyskuje się poprzez tworzenie wielu wersji jednego artykułu, różniących się miedzy sobą tylko niektórymi słowami zastępowanymi synonimami. Używa się do tego specjalnych programów nazywanych mieszarkami tekstów. Pozwalają one na wygenerowanie w krótkim czasie wielu artykułów, nie rozpoznawanych przez specjalne aplikacje jako takich samych. Dla osoby szukającej w sieci informacji na określony temat, nie zdającej sobie sprawy z istnienia opisanego powyżej zjawiska, stworzone w ten sposób publikacje mogą wydać się dość wiarygodne. Treści te można tworzyć samemu (zgodnie z radami znajdującymi się w sieci), lub można zlecić ich napisanie za niewielką cenę osobom zajmującym się tym profesjonalnie. W Internecie znajduje się sporo stron firm i osób oferujących tego typu usługi. Można je również znaleźć na popularnych portalach aukcyjnych oraz w serwisach dla freelancerów (wolnych strzelców), gdzie zamieszcza się zapotrzebowanie na wykonanie określonej usługi i spośród zgłaszających się kandydatów wybiera najbardziej odpowiadającego (najczęściej żądającego najniższą sumę). Oto przykład treści typowego zamówienia: Zlecę napisanie tekstów do pozycjonowania stron internetowych. Zamawiam paczki 10 sztuk (10 różnych fraz) po 2 tys. Znaków. Czyli łącznie jedna paczka ma 20 tys. znaków tekstu. Osoba przedstawiająca się jako kretmaister zaoferowała się wykonać tę pracę w ciągu jednego dnia za 35 zł. Nawet nie badając zawartości merytorycznej, trudno uznać artykuły powstające w tym trybie za dobre jakościowo i wiarygodne. Inną formą stron, których przeznaczeniem jest promowanie określonych serwisów, a często jednocześnie dostarczanie korzyści finansowych ich właścicielom, poprzez zamieszczanie na nich różnego rodzaju reklam, są witryny określane czasem mianem specjalistycznych. Opublikowane w nich treści dotyczą zazwyczaj jednego tematu, a umieszczone w nich linki prowadzą do stron o tematyce zgodnej z zagadnieniami podejmowanym przez prace, w których je zamieszczono. Stworzenie i utrzymanie jak największej ilości tego typu stron, zawierających hiperłącza do promowanego serwisu jest uważane za bardzo skuteczną metodę pozycjonowania. Treści przeznaczone do publikacji na stronach specjalistycznych powstają w takich samych okolicznościach, jak teksty przeznaczone do prezentacji na presell pages. Artykuły będące przedmiotem niniejszego wywodu, są pisane przede wszystkim dla aplikacji (nazywanych m.in. spiderami, crawlerami) przemierzających Internet i zbierających informacje o znajdujących się tam stronach, a dopiero w dalszej kolejności dla użytkowników Internetu. Na podstawie zgromadzonych przez roboty sieciowe danych, wyszukiwarki ustalają kolejność w jakiej wyświetlają odnośniki do zaindeksowanych serwisów. W związku z tym chodzi przede wszystkim o to, aby teksty te zawierały odpowiednią ilość słów i fraz kluczowych, możliwie najróżnorodniej odmienianych (istnieją narzędzia, oferowane również przez Google, pozwalające ustalić m.in. procentowy udział słów i fraz kluczowych w określonej treści). Zwraca się też uwagę na ich odpowiednie rozmieszczenie w tekście oraz wyszczególnienie, np. przez pogrubienie czcionki lub umieszczenie w tytule lub nagłówku. Jako że serwisy, w których są umieszczone, oprócz promowania innych witryn, mają często za zadanie generowanie zysków ze znajdujących się tam reklam, treści w nich zamieszczone, aby nie odstraszały internautów, powinny być napisane w miarę poprawnie gramatycznie i stylistycznie. Nie przywiązuje się w ogóle uwagi do jakości, rzetelności i wiarygodności informacji. Bez przeprowadzenia odpowiednich badań trudno jest ustalić, jaką część Internetu stanowią opisane powyżej witryny promocyjne. Ze względu na charakterystyczną dla Sieci dużą dynamikę zmian nawet przeprowadzona pod tym kątem analiza, okazałaby się zapewne w krótkim czasie nieaktualna. Może się wydawać, że skoro dla wypromowania jednej strony tworzy się wiele witryn, to może ich być wielokrotnie więcej od reklamowanych serwisów. Trzeba jednak wziąć pod uwagę, że istnieje spora ilość stron niepromowanych oraz, że serwisy promocyjne często reklamują więcej niż jedną witrynę. Wydaje się że wpływa to łagodząco na ewentualne dysproporcje. Poza tym opisane powyżej zjawisko pozycjonowania stron internetowych dotyczy głównie serwisów komercyjnych, ale nie tylko. Różnorodność tematyczna artykułów oraz spora liczba wciąż powstających witryn, wykorzystywanych w pozycjonowaniu stron internetowych, może powodować, że osoby poszukujące informacji w sieci, mogą wcale nierzadko na nie natrafiać, a tym samym, mając bezkrytyczne podejście do informacji oferowanych przez Internet, korzystać ze źródeł bardzo wątpliwej jakości. Wydaje się, że osoby, które zdecydowały się mimo wszystko oprzeć swoją wiedzę o informacje zaczerpnięte z niepewnych, niesprawdzonych źródeł internetowych, aby choć trochę zmniejszyć wiążące się z tym ryzyko, powinny przynajmniej ustalić w jakim celu powstał serwis, z którego korzystają. Trafne określenie intencji twórców i właścicieli strony WWW, pozwoli świadomie wyznaczyć dalszy tok postępowania, w odniesieniu do zgromadzonych informacji.