Radosław Delida Wiarygodność informacji w Internecie Większość

Transkrypt

Radosław Delida Wiarygodność informacji w Internecie Większość
Radosław Delida
Wiarygodność informacji w Internecie
Większość ludzi użytkujących Internet zdaje sobie sprawę, że ułatwia on manipulację
informacjami. Właściwie wszystkie osoby wypowiadające się publicznie na ten temat
twierdzą zgodnie, że jeżeli nie można potwierdzić informacji zamieszczonej w sieci w
rzeczywistości, to nie można także być pewnym jej wiarygodności. Jest również pewnym
uproszczeniem twierdzenie, że ten sposób jest idealny ponieważ oczywistym jest, że
informacje w świecie realnym także podlegają zniekształceniom, w związku z czym, czasami
nawet weryfikacja oparta o rzeczywistość może doprowadzić do błędnych wniosków.
Proponowane przez autorów różnych opracowań metody oceny wiarygodności zasobów
internetowych są do siebie zbliżone i jednocześnie bazują na zasadach stosowanych w świecie
realnym. Wiarygodność źródeł drukowanych wiąże się z kompetencjami autora i reputacją
wydawnictwa, dokładnością analizy redakcyjnej poprzedzającej publikację oraz recenzjami
specjalistów. Analogicznie, badając wiarygodność zasobów sieci, zaleca się głównie, oprócz
ustalenia celu powstania serwisu, zebranie informacji o jego właścicielu oraz o osobie
odpowiedzialnej za jego zawartość, a także odszukanie opinii na temat publikacji i znalezienie
witryn zawierających odnośniki do analizowanego zasobu. Jednak należy zwrócić uwagę, że
Internet, oprócz tego, iż doskonale nadaje się do dowolnego manipulowania informacjami i
chociaż udostępnia narzędzia, pozwalające w jakimś stopniu ustalić prawdziwość określonych
danych, to umożliwia również manipulowanie wpływającymi na ich wiarygodność
właściwościami. Dlatego przy korzystaniu z zasobów sieci tak dużą rolę odgrywa rozsądek,
ostrożność, doświadczenie, wiedza oraz umiejętności posługiwania się technologiami
informacyjnymi.
Z punktu widzenia bibliotekarzy, jako osób szczególnie zainteresowanych, wszelkimi
zagadnieniami związanymi z tworzeniem różnego rodzaju treści, ciekawymi mogą się wydać
niektóre aspekty powstawania tekstów specjalnie przeznaczonych do publikacji w Internecie.
Zadaniem tej szczególnej kategorii artykułów jest promowanie określonych serwisów
internetowych, poprzez wpływanie na ich pozycję w wynikach wyszukiwania wyszukiwarek
sieciowych. Im więcej linków, umieszczonych w odpowiednim tematycznie i unikatowym
tekście prowadzi do danej witryny z innych stron WWW, tym wyżej pojawia się do niej łącze
na liście rekordów wyszukiwania, po wpisaniu słów kluczowych, z którymi jest kojarzona.
Wiele instytucji czy firm zabiega o umieszczenie hiperłącza do ich serwisu na czołowych
miejscach list zwracanych przez wyszukiwarki, gdyż zgodnie z badaniami, większość
internautów przegląda jedynie kilka pierwszych stron ze wszystkich oferowanych przez
program wyszukujący informacje. Działania mające na celu podwyższenie pozycji serwisu w
wynikach wyszukiwania prezentowanych przez wyszukiwarkę nazywane są
pozycjonowaniem. Zwiększająca się konkurencja wśród osób zajmujących się
pozycjonowaniem stron internetowych, oraz konieczność umieszczania większej liczby łączy
prowadzących do promowanego serwisu powoduje lawinowe powstawanie witryn
internetowych z zamieszczonymi na nich tekstami promocyjnymi. Są to tzw. presell pages
nazywane potocznie preclami (tak nazywa się również umieszczane na nich teksty). Jedynym
celem istnienia tych serwisów jest gromadzenie artykułów promocyjnych. Charakteryzują się
zazwyczaj prostą grafiką, różnorodnością tematyczną menu, linkami do innych witryn
umieszczonymi w tekstach. Od treści zamieszczonych na tego typu stronach wymaga się
jedynie aby były na temat (tzn. zawierały wymaganą liczbę słów i fraz kluczowych), miały
określoną objętość i były unikatowe. Unikatowość uzyskuje się poprzez tworzenie wielu
wersji jednego artykułu, różniących się miedzy sobą tylko niektórymi słowami
zastępowanymi synonimami. Używa się do tego specjalnych programów nazywanych
mieszarkami tekstów. Pozwalają one na wygenerowanie w krótkim czasie wielu artykułów,
nie rozpoznawanych przez specjalne aplikacje jako takich samych. Dla osoby szukającej w
sieci informacji na określony temat, nie zdającej sobie sprawy z istnienia opisanego powyżej
zjawiska, stworzone w ten sposób publikacje mogą wydać się dość wiarygodne. Treści te
można tworzyć samemu (zgodnie z radami znajdującymi się w sieci), lub można zlecić ich
napisanie za niewielką cenę osobom zajmującym się tym profesjonalnie. W Internecie
znajduje się sporo stron firm i osób oferujących tego typu usługi. Można je również znaleźć
na popularnych portalach aukcyjnych oraz w serwisach dla freelancerów (wolnych strzelców),
gdzie zamieszcza się zapotrzebowanie na wykonanie określonej usługi i spośród
zgłaszających się kandydatów wybiera najbardziej odpowiadającego (najczęściej żądającego
najniższą sumę). Oto przykład treści typowego zamówienia:
Zlecę napisanie tekstów do pozycjonowania stron internetowych. Zamawiam paczki 10 sztuk
(10 różnych fraz) po 2 tys. Znaków. Czyli łącznie jedna paczka ma 20 tys. znaków tekstu.
Osoba przedstawiająca się jako kretmaister zaoferowała się wykonać tę pracę w ciągu
jednego dnia za 35 zł. Nawet nie badając zawartości merytorycznej, trudno uznać artykuły
powstające w tym trybie za dobre jakościowo i wiarygodne.
Inną formą stron, których przeznaczeniem jest promowanie określonych serwisów, a
często jednocześnie dostarczanie korzyści finansowych ich właścicielom, poprzez
zamieszczanie na nich różnego rodzaju reklam, są witryny określane czasem mianem
specjalistycznych. Opublikowane w nich treści dotyczą zazwyczaj jednego tematu, a
umieszczone w nich linki prowadzą do stron o tematyce zgodnej z zagadnieniami
podejmowanym przez prace, w których je zamieszczono. Stworzenie i utrzymanie jak
największej ilości tego typu stron, zawierających hiperłącza do promowanego serwisu jest
uważane za bardzo skuteczną metodę pozycjonowania. Treści przeznaczone do publikacji na
stronach specjalistycznych powstają w takich samych okolicznościach, jak teksty
przeznaczone do prezentacji na presell pages.
Artykuły będące przedmiotem niniejszego wywodu, są pisane przede wszystkim dla
aplikacji (nazywanych m.in. spiderami, crawlerami) przemierzających Internet i zbierających
informacje o znajdujących się tam stronach, a dopiero w dalszej kolejności dla użytkowników
Internetu. Na podstawie zgromadzonych przez roboty sieciowe danych, wyszukiwarki ustalają
kolejność w jakiej wyświetlają odnośniki do zaindeksowanych serwisów. W związku z tym
chodzi przede wszystkim o to, aby teksty te zawierały odpowiednią ilość słów i fraz
kluczowych, możliwie najróżnorodniej odmienianych (istnieją narzędzia, oferowane również
przez Google, pozwalające ustalić m.in. procentowy udział słów i fraz kluczowych w
określonej treści). Zwraca się też uwagę na ich odpowiednie rozmieszczenie w tekście oraz
wyszczególnienie, np. przez pogrubienie czcionki lub umieszczenie w tytule lub nagłówku.
Jako że serwisy, w których są umieszczone, oprócz promowania innych witryn, mają często
za zadanie generowanie zysków ze znajdujących się tam reklam, treści w nich zamieszczone,
aby nie odstraszały internautów, powinny być napisane w miarę poprawnie gramatycznie i
stylistycznie. Nie przywiązuje się w ogóle uwagi do jakości, rzetelności i wiarygodności
informacji.
Bez przeprowadzenia odpowiednich badań trudno jest ustalić, jaką część Internetu
stanowią opisane powyżej witryny promocyjne. Ze względu na charakterystyczną dla Sieci
dużą dynamikę zmian nawet przeprowadzona pod tym kątem analiza, okazałaby się zapewne
w krótkim czasie nieaktualna. Może się wydawać, że skoro dla wypromowania jednej strony
tworzy się wiele witryn, to może ich być wielokrotnie więcej od reklamowanych serwisów.
Trzeba jednak wziąć pod uwagę, że istnieje spora ilość stron niepromowanych oraz, że
serwisy promocyjne często reklamują więcej niż jedną witrynę. Wydaje się że wpływa to
łagodząco na ewentualne dysproporcje. Poza tym opisane powyżej zjawisko pozycjonowania
stron internetowych dotyczy głównie serwisów komercyjnych, ale nie tylko. Różnorodność
tematyczna artykułów oraz spora liczba wciąż powstających witryn, wykorzystywanych w
pozycjonowaniu stron internetowych, może powodować, że osoby poszukujące informacji w
sieci, mogą wcale nierzadko na nie natrafiać, a tym samym, mając bezkrytyczne podejście do
informacji oferowanych przez Internet, korzystać ze źródeł bardzo wątpliwej jakości. Wydaje
się, że osoby, które zdecydowały się mimo wszystko oprzeć swoją wiedzę o informacje
zaczerpnięte z niepewnych, niesprawdzonych źródeł internetowych, aby choć trochę
zmniejszyć wiążące się z tym ryzyko, powinny przynajmniej ustalić w jakim celu powstał
serwis, z którego korzystają. Trafne określenie intencji twórców i właścicieli strony WWW,
pozwoli świadomie wyznaczyć dalszy tok postępowania, w odniesieniu do zgromadzonych
informacji.

Podobne dokumenty