kognitywna teoria wykładni prawa - WPiA UW

Transkrypt

kognitywna teoria wykładni prawa - WPiA UW
mgr Marcin Romanowicz
(nr albumu: 213 876)
Katedra Filozofii Prawa i Nauki o Państwie
Wydział Prawa i Administracji
Uniwersytet Warszawski
KOGNITYWNA TEORIA WYKŁADNI PRAWA
Autoreferat rozprawy doktorskiej przygotowanej
pod kierunkiem Prof. UW. dr. hab. Tomasza Staweckiego
Wydział Prawa i Administracji
Uniwersytetu Warszawskiego
Warszawa, 2015
I.
Wprowadzenie: przedmiot rozprawy doktorskiej
Wykładnia
prawa
jest
jednym
z
centralnych
zagadnień
prawoznawstwa
i podstawowym problemem praktycznego dyskursu prawnego. W polskiej teorii prawa można
współcześnie
zidentyfikować
aż
jedenaście
propozycji
teoretycznoprawanych,
konceptualizujących to zagadnienie, począwszy od przedwojennych koncepcji Eugeniusza
Waśkowskiego i Sawy Frydmana (Czesława Nowińskiego), poprzez dominujące koncepcje
Jerzego Wróblewskiego (koncepcja semantyczna intensjonalna - klaryfikacyjna) i Macieja
Zielińskiego (koncepcja derywacyjna), po współcześnie rozwijaną koncepcję pragmatyczną
Marcina Matczaka.
W powyższej mozaice koncepcji wykładni prawa można dostrzec wyraźny deficyt
propozycji teoretycznych zorientowanych w aspekcie metodologicznym naturalistycznie.
Dotychczas nie opracowano realistycznej koncepcji wykładni prawa, która zawierałaby
ustalony empirycznie komponent deskryptywny oraz – ewentualnie - komponent
normatywny, uwzględniający naturę realnych procesów zachodzących w procesie poznawania
prawa. Powyższe koncepcje zostały opracowane w ramach podejścia analitycznego
i zasadniczo nie zawierają elementu badań empirycznych (wyjątek stanowią koncepcja
klaryfikacyjna J. Wróblewskiego i koncepcja pragmatyczna M. Matczaka). Związki
zachodzące pomiędzy rozróżnionymi przez Aleksandra Peczenika kierunkami badania
wykładni prawa, tj. analitycznym i empiryczno-konstrukcyjnym uzasadnia włączenie badań
empirycznych nad procesami zachodzącymi w czasie interpretacji tekstów prawnych do
obszaru teorii wykładni prawa.
Kognitywna
teoria
wykładni
prawa
(dalej
także
jako:
KTWP)
jest
interdyscyplinarną próbą analitycznego i empirycznego uchwycenia fenomenu wykładni
prawa, uwzględniającą rzeczywiste procesy kognitywne zachodzące w umyśle interpretatora
w czasie poznawania tekstu prawa. Jest to projekt empirycznej epistemologii prawa,
wpisujący się w program integracji zewnętrznej prawoznawstwa. Teoria składa się z dwóch
części, tj.: opisowej i normatywnej. Część deskryptywna zawiera model empiryczny procesu
interpretacji tekstu prawa w czasie czytania, czyli model i n t e r p r e t a c j i p r i m a f a c i e
t e k s t u p r a w n e g o (dalej także w skrócie: MIPF). Model został skonstruowany w oparciu o
badanie
o k u l o g r a f i c z n e , które pozwoliło na uchwycenie zautomatyzowanych
i nieświadomych procesów interpretacyjnych. Cześć normatywna zawiera postulaty
(dyrektywy) co do sposobu świadomego poszukiwania przesłanek interpretacyjnych przez
podmiot poznający prawo. Postulaty uwzględniają charakterystykę kognitywną umysłu
interpretatora opisaną w MIPF.
2
II. Struktura rozważań (rozprawy doktorskiej)
Przedstawienie kognitywnej teorii wykładni prawa zostało poprzedzone rozważeniem
w ramach obszernego Prologu zasadniczej kwestii metodologicznej, tj. możliwości włączenia
teorii kogitywistycznych i empirycznych metod badania procesów poznawczych do obszaru
konceptualizacji problemu wykładni prawa. Można zadać pytanie, czy Prolog ten musi być
„obszerny”? Jeżeli zaprezentowanie kognitywnej teorii wykładni prawa ma być poprzedzone
naszkicowaniem horyzontu myślowego, w który wpisuje się proponowana teoria, a nawet
więcej – horyzontu, w którym jest ona umocowana jako przedsięwzięcie racjonalne, to
odpowiedź musi być twierdząca. Tłem dla kognitywnej teorii wykładni prawa, która do
problemu teoretycznoprawnego stosuje teorie i metody psychologii kognitywnej, jest
nieuchronnie zagadnienie i n t e g r a c j i z e w n ę t r z n e j p r a w o z n a w s t w a . Z tego powodu,
w pierwszej kolejności należało odpowiedzieć na pytanie: czym jest kognitywistyka?
W pytaniu tym ukryte jest roszczenie o wykazanie zasadności podejmowania wysiłków
integracyjnych ukierunkowanych na domenę nauk kognitywnych.
W rozdziale 1 Prologu przedstawiono kognitywistykę jako autonomiczny program
badawczy. Jego swoistość polega na tym, że „twardy rdzeń” posiada dynamiczną naturę,
konstytuowaną przez dialektyczne napięcie pomiędzy centralnymi twierdzeniami. Całość
programu jest trwała dzięki obecności ‘twardego superrdzenia’, który należy uwzględnić przy
ocenie potencjału integracyjnego nauk kognitywnych z prawoznawstwem. Według
metodologii kognitywistycznego programu badawczego (jego „heurystyki negatywnej” w
znaczeniu Imre Lakatosa) problem umysłu, poznania i procesów poznawczych należy
teoretyzować w oparciu o dane empiryczne. Skoro w programie kognitywistycznym
wewnętrzna dialektyka obejmuje takie elementy „twardego rdzenia” jak modelowanie
procesów poznawczych (komputacjonizm vs. holizm vs. koneksjonizm), czy status
przetwarzanej
informacji
jako
elementu
symbolicznego
lub
subsymbolicznego
(komputacjonizm i holizm vs. koneksjonizm), to należy wskazać jeszcze węższy zakres
twierdzeń, będących wspólnym punktem wyjścia dla konkurencyjnych interpretacji
problemów fundamentalnych dla całego programu badawczego. Doniosłość zarysowanych
sporów wewnątrz obszaru kognitywistyki nie pozwala na zaklasyfikowanie ich jako sporów o
hipotezy poboczne („pomocnicze” w ujęciu I. Lakatosa), dotyczą one bowiem pomysłów na
konceptualizację podstawowych kwestii takich jak budowa i funkcjonowanie umysłu.
Pozostaje
zatem
wyróżnienie
‘twardego
superrdzenia’,
który
w
przypadku
kognitywistycznego programu badawczego zawiera tezy dotyczące przedmiotu badania oraz
metody. Przedmiotem badań kognitywistycznych jest umysł i realizowane w nim procesy
3
poznawcze na reprezentacjach umysłowych, a metodą empiryczne środki falsyfikacji resp.
weryfikacji hipotez badawczych. Tak pojęta kognitywistyka, przy całej swojej wewnętrznej
dialektyce i labilności warunków brzegowych, stanowi na tyle stabilny metodologicznie
program badawczy, że może on stanowić komponent zewnętrznej integracji prawoznawstwa.
Po
rozważaniu
możliwości
skierowania
projektu
integracji
zewnętrznej
prawoznawstwa w stronę kognitywistycznego programu badawczego, w rozdziale 2 Prologu
w drodze analizy genealogicznej zbadano potencjał integracyjny samego prawoznawstwa.
Zrekonstruowano w tym celu najważniejsze momenty debaty metodologicznej, która
zdominowała XX-wieczną teorię prawa. Powracające pytanie o naukowość prawoznawstwa,
jego metodę i paradygmat, konstytuujący jego odrębność i ‘tożsamość’, musiało wybrzmieć
raz jeszcze. Było to konieczne dla ustalenia, czy postulat integracji zewnętrznej
prawoznawstwa jest tylko kokieteryjnym hasłem, nieprzemyślanym postulatem pewnej mody,
czy też nierealną utopią lub niepotrzebnym nadwyrężaniem granic dyscyplinarnych
prawoznawstwa.
Jeżeli
postulat
integracji
jest
immanentną
częścią
tożsamości
prawoznawstwa, to wysiłki integracyjne są nie tylko metodologicznie możliwe i pożyteczne
dla kumulowania wiedzy o prawie, ale wręcz konieczne dla podtrzymania prawoznawstwa
jako nauki, a nie tylko rzemiosła. Odsłaniając wyłaniającą się z genealogii idei odpowiedź na
powyższe pytania, w rozdziale 3 Prologu szczegółowo przeanalizowano możliwość integracji
koncepcyjnej i metodologicznej teorii wykładni prawa z psychologią kognitywną.
Po przeprowadzeniu analizy potencjałów integracyjnych nauk kognitywistycznych i
prawoznawstwa w Części I rozważań przedstawiono deskryptywny model interpretacji prima
facie tekstu prawnego. Rozdział 1 Części I prezentuje poczynione ustalenia terminologiczne,
niezbędne do skonstruowania kognitywnej teorii wykładni prawa, a rozdział 2 podłoże
teoretyczne z zakresu psycholingwistyki i okulografii przeprowadzonego badania. Samo
badanie i jego wyniki zostaną zaprezentowane w rozdziale 3 Części I, a całościowa
interpretacja wyników w rozdziale 4. Część I zamyka rozdział 5 zawierający wnioski
z przeprowadzonego badania empirycznego, pozwalające skonstruować model interpretacji
prima facie tekstu (prawnego).
Część II rozważań zawiera model normatywny czynności wykładniczych. W rozdziale
1 tej części przedstawiono rekonstrukcję normatywnej instytucji uzasadnienia decyzji
stosowania prawa (decyzji sądowej), która pozwoliła na sformułowanie kryterium koherencji
zewnętrznej takiego uzasadnienia (rozdział 2 Części II). Ustalenie obecności w kulturze
prawnej dyrektywy nakazującej maksymalizowanie tego rodzaju koherencji przez
decydentów prawnych (rozdział 3 Części II) pozwoliło z kolei na zidentyfikowanie
4
normatywnych podstaw modelu optymalizacji czynności wykładniczych (rozdział 4 Części
II). W konsekwencji umożliwiło to skonstruowanie samego normatywnego modelu wykładni
prawa (rozdział 5 Części II). W zamykającym rozprawę Epilogu rozważono kognitywną
teorię wykładni prawa pod kątem szerszych problemów związanych z korozją
pozytywistycznego modelu stosowania (wykładni) prawa. W ostatniej części
rozprawy
nakreślono dalszy kierunek badań filozoficznoprawnych, do których stymulują ustalenia
kognitywnej teorii wykładni prawa.
III. Podstawowe pojęcia kognitywnej teorii wykładni prawa
W kognitywnej teorii wykładni prawa przyjmuje się niesynonimiczność pojęć
„wykładnia prawa” i „interpretacja prawa”. Pierwsze pojęcie jest kluczowe dla części
normatywnej KTWP, podczas gdy drugie denotuje zjawisko psychiczne, tzn. wiązkę
procesów kognitywnych, będących przedmiotem badania w części deskryptywnej.
Kognitywna teoria wykładni prawa opiera się na następującej siatce podstawowych pojęć:
(1)
Interpretacja prawa – może być rozumiana dwojako:
a.
W sensie pragmatycznym jest to całokształt procesów kognitywnych
zachodzących w czasie czytania przepisów prawnych, którego rezultatem jest
powstanie w umyśle podmiotu poznającego reprezentacji poznawczych tych
przepisów prawnych. Procesy kognitywne składające się na interpretację w
znaczeniu pragmatycznym są co do zasady zautomatyzowane - są więc to
procesy nieświadome
dla podmiotu
poznającego,
awoluntarystyczne i
niepodlegające kontroli.
b. W sensie apragmantycznym jest to rezultat powyższego całokształtu procesów
kognitywnych,
czyli
reprezentacja
umysłowa
percypowanego
przepisu
prawnego.
(2)
Wykładnia prawa – podobnie jak interpretacja prawa może być rozumiana
dwojako:
a.
w sensie pragmatycznym jest to ogół świadomie podejmowanych przez podmiot
poznający czynności poznawczych, a więc czynności kontrolowanych,
zmierzających do uzyskania zrozumiałej tzn. względnie jednoznacznej, normy
prawnej,
b. w
sensie
świadomych
apragmantycznym
czynności
jest
to
poznawczych,
rezultat
powyższego
całokształtu
czyli
zrozumiała
(względne
jednoznaczna) norma prawna.
5
(3)
Przepis prawny - jest to wypowiedź pisemna, będąca elementem składowym tekstu
prawnego, zdaniokształtna, której granice wyznaczają znaki graficzne w postaci
kropek. Przepis prawny zawiera w sobie elementy niezbędne do percypowania
i poznawczego skonstruowania normy prawnej.
(4)
Norma prawna – jest to reprezentacja umysłowa przepisu prawnego lub przepisów
prawnych, będąca zupełnym wzorem powinnego zachowania się. Wzór ten zawiera
następujące elementy treściowe: (a) wskazanie adresata („kto?”), (b) wskazanie
okoliczności („kiedy?”/„gdzie?”), (c) rdzeń normatywny, tj. nakaz („musi”), zakaz
(„nie może”) lub uprawnienie („może”), (d) opis zachowania, objętego rdzeniem
normatywnym. Norma prawna to reprezentacja umysłowa pozwalająca stwierdzić
kto i w jakich okolicznościach jest obowiązany lub uprawniony do jakiego
zachowania. Jeżeli dany przepis prawny zawiera wszystkie powyższe elementy, to
reprezentacja umysłowa takiego przepisu prawnego jest normą prawną. W
przypadku rozczłonkowania syntaktycznego wzorca powinnego zachowania się
reprezentacja umysłowa, będąca normą prawną, stanowi kompilację reprezentacji
umysłowych więcej niż jednego przepisu prawnego (przepisu zrębowego i przepisów
uzupełniających). Norma prawna nie musi być pełna treściowo (w rozumieniu teorii
derywacyjnej), tzn. nie musi uwzględniać przepisu centralnego i wszystkich
przepisów modyfikujących jego treść - w rozumieniu prezentowanej teorii
reprezentacje umysłowe przepisów modyfikujących treść przepisu centralnego są
odrębnymi normami prawnymi, o ile zawierają powyższe elementy składowe.
(5)
Reprezentacja umysłowa – jest to umysłowy odpowiednik obiektu (realnie
istniejącego, fikcyjnego lub hipotetycznego), który powstaje w wyniki percepcji i
interpretacji danych sensorycznych. Tenże odpowiednik obiektu zastępuje go w
procesach
przetwarzania
informacji,
tj.
operacjach
myślowych.
Obiektem
(przedmiotem poznania) może być rzecz, osoba, kategoria lub relacja. Reprezentacja
polega natomiast na oznaczaniu czegoś, zajmowaniu jego miejsca, symbolizowaniu
lub przedstawianiu czegoś. Zgodnie z podejściem integracyjnym w psychologii
poznawczej, reprezentacja umysłowa może przybrać formę:
a. niewerbalną, tj. imagenu, czyli być analogonem modalnym przedmiotu poznania
– taka reprezentacja umysłowa zachowuje pewne właściwości fizyczne obiektu (np.
relacje przestrzenne pomiędzy elementami obiektu);
b. werbalną, tj. logogenu, czyli być wiązką informacji zakodowaną w symbolach
językowych – taka reprezentacja umysłowa nie zachowuje właściwości fizycznych
6
obiektu (tylko w pewnym stopniu właściwości dźwiękowe obiektu są zachowane
w przypadku symboli onomatopeicznych);
c. propozycjonalną, tj. sądu - jeżeli dana werbalna reprezentacja umysłowa
odzwierciedla jakąś relację, to wyrażona jest w kodzie twierdzeniowym
(propozycjonalnym), czyli amodalnym i abstrakcyjnym tworzywie twierdzeń
opisowych;
d. mieszaną, tj. modelu mentalnego (umysłowego), będącego złożeniem obrazowosłownym wyabstrahowanych analogonów pojęć i obiektów – taka reprezentacja
umysłowa odzwierciedla relacje czasowe i przestrzenne realnych obiektów (chociaż
może być przywoływana w wyobraźni rotacyjnie, tj. pod dowolnym kątem), ale nie
zachowuje cech dystynktywnych konkretnych egzemplarzy.
(6)
Rozumienie - podmiot poznający P1 rozumie wyrażenie W1 wtedy i tylko wtedy, gdy
w umyśle P1 w drodze interpretacji powstanie reprezentacja umysłowa wyrażenia
W1, tzn. R(W1), powiązana związkami asocjacyjnymi z innymi reprezentacjami
umysłowymi, zgromadzonymi w pamięci długotrwałej P1. Jeżeli z jakichś powodów
egzogennych lub endogennych umysł podmiotu P1 nie jest w stanie wytworzyć
reprezentacji umysłowej W1, a poprzestaje jedynie na percypowaniu danych
sensorycznych związanych z W1 i ewentualnie na jego analizie fonologicznogramatycznej, to można powiedzieć, że P1 nie zrozumiał wyrażenia W1.
(7)
Tekst prawny - jest to usystematyzowany agregat wszystkich wypowiedzi
pisemnych danego aktu uznanego za akt normatywny (akt prawa pozytywnego) w
danym porządku prawnym. Tekst prawny jest zjawiskiem językowym, zbudowanym
z przepisów prawnych, który stanowi pewną całość komunikacyjną, wpisującą się w
pewien dyskurs interpersonalny (społeczny).
(8)
Akt normatywny – jest to dokument władzy publicznej, wyrażający wzorce
powinnego zachowania się w danej sferze stosunków międzyludzkich (społecznych),
wytworzony w przewidzianej prawem procedurze przez kompetentny podmiot
i zgodnie z wymogami prawa opublikowany.
IV. Model interpretacji prima facie tekstu (prawnego)
Część deskryptywna kognitywnej teorii wykładni prawa, zawierająca MIPF, została
skonstruowana w oparciu o przeprowadzone badanie empiryczne, w którym sięgnięto po
(1) teorie psycholingwistyczne, opisujące procesy kognitywne prowadzące do zrozumienia
czytanego tekstu, (2) paradygmat badań okulograficznych (eye-tracking).
7
IV.1. Modele procesów poznania czytanego tekstu: sekwencyjność vs. interakcyjność
W dotychczasowej historii psycholingwistyki opracowano kilka modeli przetwarzania
informacji językowych w przebiegu czynności czytania tekstu. Modele te można pogrupować
w dwa zbiory w oparciu o rozróżnienie sekwencyjności (seryjności) i interakcyjności
mechanizmu kognitywnego działającego w czasie czytania. Modele sekwencyjne –
chronologicznie opracowane jako pierwsze – akcentują liniowe, stopniowe przetwarzanie
przez umysł podmiotu poznającego informacji językowych, które najpierw są percypowane,
następnie integrowane, a na końcu interpretowane. W przeciwieństwie do tego seryjnego
obrazu, modele interakcyjne akcentują wpływ na proces percypowania i przetwarzania
informacji nastawień i oczekiwań podmiotu poznającego, schematów interpretacyjnych, które
są obecne w jego umyśle (pamięci długotrwałej). Aktywność poznawcza umysłu, prowadząca
do wytworzenia reprezentacji umysłowej czytanego tekstu, jest ujmowana jako złożenie
więcej niż jednego procesu, które zachodzą w tym samym czasie, a więc paralelnie.
Oba
typy modelów
wyszły częściowo
zwycięsko
z
prób
weryfikacyjno-
falsyfikacyjnych, co otworzyło pole do poszukiwań modelu integracyjnego. Pierwszym takim
modelem był tzw. Czytelnik (the Reader model) Marcela Adama Justa i Patrycji A. Carpenter.
Pioniersko stosując okulografię do zbadania procesów kognitywnych zachodzących w czasie
czytania, ustalili, że całokształt tych procesów jest częściowo sekwencyjny - w zakresie
sensorycznego odbierania bodźców wzrokowych i różnicowania ich cech fizycznych jako
cech liter. Z drugiej strony model jest interakcyjny, bowiem rozpoznanie wyrażeń (złożenie
liter w całość, identyfikacja składni i znaczenia), a następnie ich połączenie w spójną całość z
resztą tekstu, wymaga zaangażowania pamięci operacyjnej, która korzysta z zasobów pamięci
długotrwałej podmiotu poznającego. W tym magazynie poznawczym zawarta jest wiedza o
ortografii, fonologii, składni, semantyce, pragmatyce, dyskursie, dziedzinie życia, której
dotyczy tekst, a także wiedza epizodyczna (indywidualna) podmiotu poznającego. Pracując
nad tym modelem jego autorzy wyartykułowali dwa założenia fundamentalne dla
zastosowania paradygmatu ruchu gałek ocznych, tj. paradygmatu okulograficznego, w
psycholingwistyce:
(1) Założenie o bezpośredniości (the immiediacy assumption), zgodnie z którym
umysł poznającego (czytelnika) dąży do pełnego poznawczego przetworzenia
pojedynczego wyrazu w jak najkrótszym czasie. Innymi słowy: percepcja
pojedynczego wyrazu następuje bardzo szybko (ok. 250 ms - średnio tyle czasu
trwa zatrzymanie oczu na słowie, czyli tzw. fiksacja) i obejmuje jego
8
natychmiastową interpretację w oparciu o wiedzę zgromadzoną w magazynie
pamięci długotrwałej.
(2) Założenie „oko-umysł” (the eye-mind assumption), zgodnie z którym oko
pozostaje w bezruchu, skupione na danym wyrazie, czyli fiksuje na nim, tak długo
jak długo trwa jego poznawcze przetwarzanie. Innymi słowy: czas fiksacji na
danym
wyrazie
jest
precyzyjnym
wskaźnikiem
czasu
niezbędnego
do
poznawczego przetworzenia tego wyrazu w reprezentację umysłową.
Badania zapoczątkowane przez M.A. Justa i P.A. Carpenter stanowiły inspiracje do
opracowania, w drodze ustaleń empirycznych, bardziej szczegółowych modeli procesów okomotorycznych i kognitywnych, zachodzących w czasie czytania tekstu, takich jak: E-Z
Czytelnik, EMMA, Glenmore i SWIFT. Na gruncie polskiej psychologii poznawczej
pionierskie badania nad procesami kognitywnymi zachodzącymi w czasie czytania tekstu
zostały podjęte pod koniec lat 80-tych XX w. przez Idę Kurcz i Annę Polkowską.
Przeprowadziły one empiryczną weryfikację modelu Czytelnik, stosując paradygmat głośnego
czytania, opracowany przez Josepha H. Danka. Paradygmat ten uwzględnia tzw. metodę
jednoczesną (on-line), polegającą na analizie czynności czytania tekstu na głos (czasu
czytania pojedynczych wyrazów krytycznych, odpowiednio zniekształconych na potrzeby
badana, liczby popełnionych błędów przy czytaniu wyrazów krytycznych). Ponadto, tzw.
metodę odstępstwa czasowego (off-line), polegającą na przeprowadzeniu testu zrozumienia
i zapamiętania tekstu przez osoby badane, który przeprowadzono po odczytaniu tekstu na
głos. Uzyskane wyniki pozwoliły I. Kurcz i A. Polkowskiej na zweryfikowanie hipotezy
dotyczącej seryjności i paralelności przetwarzania informacji poznawczych w czasie czytania.
Całokształt procesów, składających się na kognitywny mechanizm prowadzący do rozumienia
czytanego tekstu, okazał się być mieszany, tzn. interakcyjno-seryjny. Początkowo - po
zarejestrowaniu cech fizycznych bodźców wzrokowych - następują interakcyjne procesy
kognitywne w tzw. module językowym. Składnik percepcyjny integruje odebrane bodźce
wzrokowe w wyrazy, paralelnie składnik dostępu leksykalnego przypisuje im z leksykonu
(słownika mentalnego) partykularne znaczenie, po czym składnik integracji zdaniowej
„składa” poszczególne wyrazy w całe zdanie o określonym znaczeniu (sensie). W przypadku
wystąpienia niejasności (nieostrości, wieloznaczności) któregokolwiek z wyrazów następuje
dookreślenie, służące uzyskaniu zdania wewnętrznie spójnego i będącego sensowną całością
informacyjną. Procesy realizowane przez skład percepcji, składnik dostępu leksykalnego i
składnik integracji zdaniowej, choć przedstawione powyższej w pewnej sekwencji, zachodzą
9
interakcyjnie i do ich przeprowadzenia umysł poznającego wykorzystuje tzw. „wiedzę o
języku”.
Sekwencja kognitywna pojawia się dopiero na dalszym etapie przetwarzania
informacji poznawczych, gdy tzw. składnik rozumienia dyskursu uzgadnia znaczenie zdania
‘wypracowanego’ przez moduł językowy z całością dotychczas przetworzonego tekstu oraz z
tzw. „wiedzą o świecie” podmiotu poznającego. Obejmuje ona m.in. wiedzę z dziedziny,
której dotyczy tekst, wiedzę epizodyczną, autobiograficzną. W przypadku niezgodności
znaczeniowej zdania z „wiedzą o świecie” lub jego niejednoznaczności na poziomie pracy
modułu językowego składnik rozumienia dyskursu może zmodyfikować elementy zdania, tak
aby ostatecznie uzyskać zdanie sensowne. Takie zdanie jest koherentne z „wiedzą o świecie”
podmiotu poznającego. Efektem całego procesu jest umysłowa reprezentacja tekstu, która w
psychologii poznawczej jest definiowana jako stan poznania (zrozumieniu) czytanego
materiału lingwistycznego. Ustalenia poczynione przez I. Kurcz i A. Polkowską stanowiły
podstawę teoretyczną przeprowadzonego badania okulograficznego.
IV.2. Metoda i aparatura badawcza
Człowiek wykonuje średnio około trzech ruchów gałek ocznych w ciągu sekundy, co
czyni ten typ ruchu najczęstszym potencjalnie intencjonalnym ludzkim zachowaniem. System
uwagi poddaje nieustannej analizie całe pole widzenia i średnio trzykrotnie w ciągu sekundy
decyduje o wyborze obiektu, skierowaniu na niego wzroku, koordynuje czasowo i określa
parametry przestrzenne ruchu. Zbiór niepatologicznych ruchów oka oraz wartości opisujących
ich parametrów (czas trwania, prędkość kątowa i szerokość kątowa) przedstawia tabela 1.
Typ ruchu
Czas trwania
Szerokość kątowa
Prędkość kątowa
Sakkada
30-80 ms
4-20°
30-500 °/s
Mikrosakkada
10-30 ms
10-40´
15-50 °/s
Ruch wodzący
-
-
10-30 °/s
Tremor
-
< 1´
20 ´/s
Dryft
20-1000 ms
1-60´
6-25 ´/s
Fiksacja
200-300 ms
fiksacja jest uznawana za brak ruchu oka, tj. stan skupienia
wzroku na danym elemencie, ale de facto w jej czasie zachodzą
ruchy wewnątrzfiksacyjne (tremor, mikrosakkady i dryft)
Tabela 1. Wartości parametrów typowych ruchów gałek ocznych.
10
Narzędziem pozwalającym na rejestrację i analizę ruchów gałek ocznych jest
okolugraf (eye-tracker). Metoda okulograficzna jest to paradygmat badań empirycznych
polegający na: (1) testowaniu hipotez badawczych sformułowanych w oparciu o wybrane
teorie, (2) poprzez rejestrowanie wskaźników behawioralnych w postaci ruchu gałek ocznych,
(3) za pomocą okulografu, (4) które to wskaźniki behawioralne są poddawane analizie
jakościowej i ilościowej (statystycznej), a następnie (5) interpretowane w sposób pozwalający
na stwierdzenie, czy testowane hipotezy zostały obalone, czy też pozostają w mocy.
W przeprowadzonym badaniu wykorzystano narzędzie oparte na technologii kamer
rejestrujących w widmie światła podczerwonego, tzn. okulograf SensoMotoric Instruments
(SMI) iViewX (wersja 2.5). RED250 zamontowany w podstawie 22-calowego monitora Dell
E2210 o wymiarach 47.5 x 30 cm. Pomiaru ruchu gałek ocznych dokonano z częstotliwością
120 Hz z wykorzystaniem programu iViewX 2.0. Analizę jakościową uzyskanych wyników
przeprowadzono w programie BeGaze, a analizę statystyczną w programie StatSoft Statistica
10.
IV.3. Materiał bodźcowy i procedura badawcza
W badaniu proszono osoby badane o przeczytanie dwóch tekstów stanowiących
fragmenty artykułu prasowego, czyli teksty nieprawne, sformułowane w powszechnie
używanym języku polski, oraz trzy teksty prawne, stanowiące kolejno fragmenty ustawy z
dnia 23 kwietnia 1964 r. Kodeks cywilny (Dz. U. Nr 16 poz. 93 ze zm.; dalej w skrócie: K.c.),
ustawy z dnia 6 czerwca 1997 r. Kodeks karny (Dz. U. Nr 88, poz. 553 ze zm.; dalej: K.k.),
ustawy z dnia 30 sierpnia 2002 r. Prawo o postępowaniu przed sądami administracyjnymi
(Dz. U. z 2012 r., poz. 270 ze zm.; dalej w skrócie: P.p.s.a.). Jeden tekst nieprawniczy oraz
dwa teksty prawne poddano przekształceniom, będącymi zmiennymi badania, dla których
inspiracją było nieokulograficzne badanie I. Kurcz i A. Polkowskiej. Manipulacje badawcze,
‘uszkadzające’ zaprezentowany osobom badanym materiał lingwistyczny, polegały na
zmianie:
1.
fizycznej – zniekształceniu litery składowej wyrazu użytego w tekście;
2.
ortograficznej – wprowadzeniu błędu ortograficznego w pojedynczym wyrazie;
3.
leksykalnej (semantycznej w obrębie jednego wyrazu) – zastąpieniu wyrazu użytego
w tekście innym wyrazem skonstruowanym zgodnie z gramatyką języka polskiego, ale
nie posiadającym żadnego znaczenia (wyrazem bezsensownym);
4.
wewnątrzsyntaktycznej – modyfikacji końcówki fleksyjnej wybranego wyrazu (np.
zmiana przypadku, tak aby był on niezgodny z kontekstem zdania);
11
5.
zewnątrzsyntaktycznej – modyfikacji wybranego wyrazu, tak aby nastąpiła zmiana części
mowy (np. zastąpienie imiesłowu bezokolicznikiem);
6.
semantycznej w obrębie zdania – zastąpienie wybranego wyrazu innym, istniejącym
w słowniku języka polskiego (mającym znaczenie – wyrazem sensownym), ale
niepasującym do kontekstu zdania;
7.
tekstualnej – wprowadzeniu niespójności informacyjnej pomiędzy albo dwoma kolejnymi
zdaniami lub częściami zdania złożonego albo pomiędzy czytanym tekstem a wiedzą
potoczną dotyczącą danego zagadnienia; zmiana polegała na modyfikacji pojedynczego
wyrazu w wybranym zdaniu.
Badanie zostało podzielone na dwie części: w pierwszej osoby badane czytały teksty
zwykle (nieprawnicze), natomiast w drugiej teksty prawnicze. Procedura badawcza wyglądało
następująco:
(1)
po usadowieniu osoby badanej przed okulografem odczytywano instrukcję ogólną
i instrukcję pierwszej części badania;
(2)
przeprowadzono pierwszą kalibrację, czyli sprawdzenie, czy wartości mierzonych
wskaźników dla konkretnej osoby badanej odpowiadają minimalnym wymogom
precyzji pomiaru;
(3)
prezentowano na ekranie czarny okrąg w górnym lewym rogu, który skupiał wzrok
osoby badanej, tak aby po wyświetleniu tekstu każdy badany zaczynał czytanie
mniej więcej od tego samego punktu (obszaru), ten bodziec wzrokowy pojawiał się
przed każdym prezentowanym tekstem;
(4)
prezentowano tekst zwykły niezmanipulowany (TZbM),
(5)
przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem
kolejnych pytań otwartych, na które osoba badana odpowiadała używając
klawiatury komputerowej,
(6)
prezentowano tekst zwykły zmanipulowany (TZM),
(7)
przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem
kolejnych pytań otwartych, skorelowanych z miejscami krytycznymi w TZM,
(8)
odczytywano instrukcję do drugiej części badania, która wprowadzała osobę
badaną w wyimaginowaną sytuację praktycznego kazusu prawnego;
(9)
przeprowadzono ponowną kalibrację;
(10)
prezentowano tekst prawny nr 1 zmanipulowany – fragment K.c. (TP1M),
(11)
przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem
kolejnych pytań otwartych, skorelowanych z miejscami krytycznymi w TP1M,
12
(12)
prezentowano tekst prawny nr 2 zmanipulowany – fragment K.k. (TP2M),
(13)
przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem
kolejnych pytań otwartych, skorelowanych z miejscami krytycznymi w TP3M,
(14)
prezentowano tekst prawny nr 3 niezmanipulowany – fragment P.p.s.a. (TP3bM),
(15)
przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem
kolejnych pytań otwartych dotyczących TP3bM.
Osoby badane mogły tylko raz przeczytać dany tekst, tzn. nie mogły do niego
powrócić na kolejnych etapach badania. Jednocześnie osoby badane zostały poinstruowane,
że zadanie należy wykonać jak najszybciej, bowiem odmierzany jest czas. Poproszono
badanych, aby po jak najszybszym przeczytaniu każdego tekstu przeszły do związanych z nim
pytań.
IV.4. Hipotezy badawcze i ich operacjonalizacja
W badaniu testowano następujące hipotezy badawcze:
Hipoteza I:
całokształt procesów kognitywnych prowadzących do zrozumienia tekstu
prawnego nie różni się od całokształtu procesów kognitywnych prowadzących
do zrozumienia teksty zwykłego (nieprawniczego). Ani właściwości językowe
tekstów prawnych, ani oddziaływania tzw. „sztucznego rozumu prawniczego”
(artificial reason and jugment of the law), który miałby być rezultatem
kształcenia prawniczego, nie wytwarzają procesów kognitywnych swoistych
dla poznawania tekstów prawnych w czasie interpretacji prima facie.
Hipoteza II:
całokształt procesów kognitywnych prowadzących do powstania reprezentacji
umysłowej czytanego tekstu ma charakter sekwencyjny (seryjny). Po
rozpoznaniu bodźców wzrokowych przez składnik percepcyjny, dochodzi do
aktywowania składnika dostępu leksykalnego, który następnie przekazuje
informacje do składnika integracji zdaniowej, który z kolei przekazuje
informacje do składnika rozumienia dyskursu, wytwarzającego reprezentację
umysłową czytanych fragmentów tekstu, a ostatecznie całego tekstu.
Hipoteza III: istnieje dwukierunkowa dostępność pomiędzy informacjami zawartymi w
module językowym („wiedza o języku”) i składnikiem rozumienia dyskursu
(„wiedza o świecie”). W czasie czytania tekstu zachodzi przepływ informacji
„z dołu do góry” i „z góry do dołu”, ale przepływ ten jest seryjny a nie
paralelny, tzn. dopiero po otrzymaniu sekwencyjnie przekazywanych przez
wcześniejsze składniki modelu informacji dany składnik może ingerować
13
i przekazać „z góry do dołu” swoiste dla siebie zasoby wiedzy do składnika
ulokowanego wcześniej w sekwencji. Przykładowo, w przypadku zaburzenia
identyfikacji leksykalnej składnika rozumienia dyskursu, posiłkując się
„wiedzą o świecie” podmiotu czytającego, może skierować informację - „z
góry do dołu” – do składnika dostępu leksykalnego, który w efekcie
otrzymanej informacji zrealizuje pozytywnie zadanie przypisania do danego
wyrazu (struktury fonologicznej) pojęcia o określonym znaczeniu.
Powyższe hipotezy badawcze zostały poddane weryfikacji resp. falsyfikacji
w przeprowadzonym
badaniu
okulograficznym,
co
wymagało
uprzedniego
ich
zoperacjonalizowania (powiązania logicznego ze wskaźnikami mierzalnymi za pomocą
dobranej do badania aparatury). Zależności logiczne, oparte na wnioskowaniu dedukcyjnym,
zostały określone w następujący sposób:
Ad. hipoteza I:
jeżeli procesy zachodzące w czasie czytania tekstu zwykłego bez
manipulacji (TZbM) i tekstu prawnego bez manipulacji (TP3bM) oraz
zmanipulowanego tekstu zwykłego (TZM) i zmanipulowanych tekstów
prawnych (TP1M i TP2M) są analogiczne, to:
(a) średnie czasy czytania tekstów nie będą się od siebie różniły, bowiem gdyby w
przypadku tekstów prawnych zachodziły dodatkowe procesu kognitywne
powinny one wpłynąć na wydłużenie średniego czasu czytania tych tekstów;
(b) sposób wzrokowego percypowania poszczególnych tekstów będzie analogiczny,
co będzie możliwe do stwierdzenia w drodze analizy jakościowej tzw. ścieżki
skanowania wzrokowego – ang. scan path (miejsc fiksacji wzroku, wystąpienia
związku miejsc fiksacji z poszczególnymi miejscami krytycznymi, kierunku i
częstotliwości sakkad) oraz ilościowej, uwzględniającej takie wskaźniki jak:
średnia liczba fiksacji, średnia liczba sakkad, średni czas fiksacji i średnia
długość sakkad;
(c) wprowadzone do tekstu zwykłego i dwóch tekstów prawnych manipulacje
powinny bez różnicy utrudniać zrozumienie każdego ze zmodyfikowanych
tekstów i powinny wymagać analogicznego stopnia elastyczności poznawczej,
zatem wyniki w testach zrozumienia zmanipulowanych tekstów powinny być na
zbliżonych poziomach.
Ad. hipoteza II: jeżeli procesy kognitywne prowadzące do zrozumienia czytanego tekstu
realizowane są sekwencyjnie, to średni czas fiksacji na danym miejscu
krytycznym powinien wydłużyć się odwrotnie proporcjonalnie do
14
głębokości zastosowanej manipulacji (zamiana fizyczna → zmiana
tekstualna), bowiem wysiłek poznawczy związany z próbą przezwyciężenia
wprowadzonej manipulacji, czyniącej z tekstu niespójny lub nonsensowny
komunikat pisemny, jest związany z aktywnością na głębszym poziomie
przetwarzania kognitywnego, do którego dostęp jest możliwy jedynie w
drodze przejścia przez kolejne procesy w sekwencji, czyli kolejne składniki
modelu.
Ponieważ w doborze wskaźnika adekwatnie opisującego czas przetwarzania
poznawczego danego miejsca krytycznego, tj. zmodyfikowanego wyrazu, należy uwzględnić
efekt okołocentralnego poprzedzenia (the parafoveal preview effect), to do analizy wybrano
nie czas fiksacji na danym wyrazie, ale tzw. czas spoglądania (ang. glance duration). Miara
ta obejmuje: (a) czas sakkady przenoszącej wzrok na dane miejsce krytyczne, (b) sumę
długości wszystkich fiksacji danej osoby badanej na miejscu krytycznym i (c) sumę czasów
wszystkich sakkad zachodzących w obrębie miejsca krytycznego, z wyjątkiem sakkady
wyprowadzającej wzrok z miejsca krytycznego.
Ad. hipoteza III:
w przypadku stopniowalnych manipulacji na materiale tekstowym
(zamiana fizyczna → zmiana tekstualna) mentalna autokorekta tekstu,
umożliwiająca jego percepcję jako spójnej i sensowej całości, będzie
wymagała przepływu informacji z „góry do dołu”, tzn. konieczne będzie
zastosowanie „wiedzy o języku” i/lub „wiedzy o świecie” podmiotu
czytającego, którymi zarządzają kolejne składniki modelu; zatem:
(a) jeżeli przepływ informacji „z góry do doły” jest w ogóle możliwy, to w teście
zrozumienia tekstów prawnych przez prawników, dysponujących nabytą
w czasie edukacji prawniczą wiedzą kontekstową dla każdego z prezentowanych
w badaniu tekstów prawnych, stopień zrozumienia nie będzie mniejszy, a nawet
powinien być wyższy niż w przypadku tekstów zwykłych;
(b) stopień zrozumienia zmanipulowanych tekstów prawnych nie będzie mniejszy,
a nawet powinien być wyższy niż stopień zrozumienia zmanipulowanego tekstu
zwykłego, bowiem wiedza prawnicza – dostępna w czasie czytania w ramach
przepływu informacji „z góry do dołu” – pozwoli na automatyczne
skorygowanie wprowadzonych manipulacji i prawidłowe odczytanie miejsc
krytycznych;
(c) jeżeli przepływ informacji „z góry do dołu” jest możliwy i przebiega w czasie
zachodzenia kolejnych procesów prowadzących do zrozumienia tekstu, czyli nie
15
jest tak, że dopiero składnik rozumienia dyskursu na bazie „wiedzy o świecie”
koryguje wcześniej biernie przetworzone poznawczo manipulacje, to zasadniczo
czas spoglądania na miejsca krytyczne w tekstach prawnych będzie krótszy niż
w tekście zwykłym, bowiem zasób poznawczy w postaci wiedzy prawniczej
(wchodzącej w zbiór „wiedzy o świecie”) ułatwi niwelowanie kolejnych
manipulacji w tekstach prawnych już na etapie ich pierwotnego przetwarzania.
W innym przypadku krótszy czasu spoglądania będzie charakteryzował tylko
zmiany tekstualne, bowiem składnik rozumienia dyskursu będzie miał ułatwione
zadanie (dodatkowy zasób poznawczy) przy dokonywaniu jedynej i finalnej
autokorekty tylko w przypadku poznawania tekstów prawnych;
(d) jeżeli przepływ informacji „z góry do dołu” jest możliwy i przebiega seryjnie,
tzn. po zakończeniu sekwencyjnie realizowanych procesów w składniku
percepcji, składniku dostępu leksykalnego i składniku integracji zdaniowej, to
‘konwalidacja’ bardziej podstawowych manipulacji znacznie wydłuży czas
fiksacji, a więc w konsekwencji czas spoglądania na wcześniejsze miejsca
krytyczne.
IV.5. Osoby badane
Testując powyższe hipotezy badawcze przebadano 32 prawników, z czego wyniki
dwóch osób wyłączona z analizy ze względu na niewystarczającą kalibrację, a wyniki jednej
osoby wyłączono z względu na nieukończenie wszystkich zadań badania. W konsekwencji
uzyskano wyniki 29 prawników, które przeanalizowano, w celu sfalsyfikowania resp.
zweryfikowania sformułowanych hipotez badawczych. W badaniu uczestniczyło 13 kobiet
i 16 mężczyzn w wieku od 25 do 54. Średnia wieku wyniosła 29 lat. Wszyscy badani
ukończyli studia prawnicze. Ogółem osoby, które uzyskały prawo wykonywania zawodu
prawniczego lub odbywały aplikację stanowiły ponad 60% grupy badanej (18 osób).
Doświadczenie zawodowe osób badanych, mierzone w latach praktyki zawodowej, wahało
się od braku takowego (0) do 22 lata i wyniosło średnio 4 lata i 4 miesiące.
IV.6. Wyniki badania okulograficznego a status hipotez badawczych
Uzyskane wyniki - (a) czasu czytania tekstów, (b) stopnia ich zrozumienia i
zapamiętania, (c) średniej długości fiksacji w danym tekście, (d) średniej liczby fiksacji,
(e) średniej długości sakkad, (f) średniej liczby sakkad oraz (g) czasu spoglądania na miejsca
krytyczne (zmanipulowane fragmenty tekstów) - poddano analizie statystycznej (ilościowej)
16
tj. analizie wariancji (ANOVA) w schemacie wewnątrzgrupowym. Ponieważ w przypadku
wskaźnika długości spoglądania na miejsca krytyczne uzyskane wyniki istotnie różniły się,
przeprowadzono dodatkowo test post hoc efektów prostych dla interakcji, tj. test
Bonferoniego. Przeprowadzoną analizę jakościową skanowania wzrokowego tekstów
prezentowanych w badaniu zobrazowano przy pomocy tzw. map cieplnych (heat maps),
której przykład zawiera rys. 1.
W świetle uzyskanych wyników empirycznych i ich statystycznej (ilościowej) oraz
jakościowej analizy, możliwe było ustalenie statusu poszczególnych hipotez badawczych:
Hipoteza I
- należy ją podtrzymać, bowiem oparła się próbie falsyfikacji. W świetle
wyników
uzyskanych
należy
przyjąć,
że
całokształt
procesów
kognitywnych prowadzących do zrozumienia tekstu prawnego nie różni
się
od
całokształtu
procesów
kognitywnych
prowadzących
do
zrozumienia tekstu zwykłego.
Hipoteza II
- należy ją odrzucić, bowiem została sfalsyfikowana. W świetle uzyskanych
wyników
należy
przyjąć,
że
całokształt
procesów
kognitywnych
prowadzących do powstania reprezentacji umysłowej czytanego tekstu
ma charakter sekwencyjno-interakcyjny. Równolegle do rozpoznania
bodźców wzrokowych przez składnik percepcyjny, zachodzi proces ich
identyfikacji
znaczeniowej,
przeprowadzony
przez
składnik
dostępu
leksykalnego, który następnie przekazuje informacje do pracujących
paralelnie składników integracji zdaniowej i rozumienia dyskursu.
Hipoteza III
- należy ją zmodyfikować, ponieważ została częściowo sfalsyfikowana.
W świetle uzyskanych wyników należy przyjąć, że istnieje dwukierunkowa
dostępność pomiędzy informacjami zawartymi w module językowym
(„wiedza o języku”) i składnikiem rozumienia dyskursu („wiedza o
świecie”). W czasie czytania zachodzi przepływ informacji „z dołu do góry”
i „z góry do dołu”, przy czym owe przepływy są:
(1)
paralelne w obrębie modułu językowego, tworzonego przez
składnik percepcyjny i składnik dostępu leksykalnego,
(2)
paralelne w obrębie modułu sensu, tworzonego przez składnik
integracji zdaniowej i składnik rozumienia dyskursu,
(3)
sekwencyjne pomiędzy wyżej wskazanymi modułami.
17
Rys. 1. Tzw. „mapa cieplna” TP1M (skala obrazuje średnią długość fiksacji)
18
Reasumując, poznanie tekstu, tzn. wytworzenie przez umysł podmiotu poznającego
jego reprezentacji umysłowej, angażuje dwa typy wiedzy (w znacznej części proceduralnej,
a więc konstytuującej pewne umiejętności), tj.: (1) „wiedzę o języku” i (2) „wiedzę
o świecie”. Oba wyróżnione typy wiedzy są zaangażowane w procesy poznania tekstu w toku
czynności czytania w ten sposób, że stanowią zasoby w oparciu, o które działają poszczególne
składniki, czyli koncepcyjne elementy rekonstruowanego modelu. Uniwersalny model
interpretacji prima facie czytanego tekstu składa się z dwóch modułów:
(1) Moduł językowy stanowi interakcyjne połączenie składnika percepcyjnego i składnika
dostępu leksykalnego. Pierwszy składnik operuje „wiedzą o języku” dotyczącą aspektu
fonologicznego percypowanych znaków. Składnik percepcyjny identyfikuje poprzez
wyodrębnienie cech graficznych liter (kształt) ich zintegrowaną całość, tj. wyraz, pod
kątem jego struktury fonologicznej. Natomiast składnik dostępu leksykalnego
identyfikuje wyraz poprzez pogłębienie analizy fonologicznej i połączenie jej z analizą
ortograficzną. Ten sam składnik przeszukuje leksykon w celu przyporządkowania
przetwarzanemu wyrazowi – który ujmowany jest jako zidentyfikowana struktura
fonologiczna – pewną wiązkę znaczenia, stanowiącą treść pewnego pojęcia opisującego
świat.
(2) Moduł sensu stanowi interakcyjne połączenie składnika integracji zdaniowej
i składnika rozumienia dyskursu. Pierwszy składnik analizuje strukturę syntaktyczną
poszczególnych wyrazów powiązanych już z wiązkami znaczeń resp. pojęciami,
następnie integruje je we frazę zdaniową jednocześnie dookreślając identyfikację
semantyczną
poszczególnych
wyrazów.
Tym
samym
znosi
alternatywność
zidentyfikowaną przez składnik dostępu leksykalnego, uwzględniając modyfikację
znaczenia wymuszoną przez rozpoznane struktury syntaktyczne, modyfikując znaczenie
danego wyrazu w oparciu o kontekst całego zdania. Końcowo syntetyzuje znaczenie
całego zdania. Zasadniczo składnik integracji zdaniowej operuje „wiedzą o języku”, ale
będąc częścią interakcyjnego modułu sensu, dysponuje także „wiedzą o świecie”, która
jest istotnym zasobem w przypadku realizowania funkcji identyfikacji i integracji
właściwości
semantycznych. Posiłkując się
wiedzą o faktycznych związkach
występujących w świecie składnik integracji zdaniowej może harmonizować z sobą zbiór
pojęć, do których odsyłają struktury fonologiczne wyrazów budujących dane zdanie, a
które zidentyfikował składnik dostępu leksykalnego.
Składnik rozumienia dyskursu, operując „wiedzą o świecie”, paralelnie do pracy
składnika integracji zdaniowej, analizuje przetworzone już w wysokim stopniu przez
moduł językowy informacje pod kątem zidentyfikowanych związków wewnętrznych
tekstu, tzn. integruje kolejne zdania w spójną całość, oraz związków zewnętrznych, tzn.
treściowych relacji zachodzących pomiędzy tekstem a jego kontekstem dyskursywnym.
Kluczowym
ustaleniem
przeprowadzonego
badania
okulograficznego
jest
zidentyfikowanie momentu sekwencyjnego w modelu interpretacji prima facie czytanego
tekstu. Jest nim przejście od modułu językowego do modułu sensu. Ten ostatni zawiera w
sobie składnik integracji zdaniowej, który łączy w sobie funkcje analizy informacji
formalnojęzykowych (składni) i treściowych (semantyka), a także składnik rozumienia
dyskursu, który odpowiada za spójność wewnętrzną (intratekstualną) i zewnętrzną
(intertekstualną, w relacji „tekst – obraz świat”) treści czytanego tekstu. „Wiedza
językowa” dotycząca syntaksy i semantyki na poziomie międzywyrazowym oraz „wiedza
o świcie” stanowią hybrydowy zasób poznawczy analizowanego składnika, a więc
rekonstruowany model nie jest wewnętrznie ukształtowany przez zasadę rozdziału
informacji formalno-językowych i informacji treściowych, jak wywodziły Ida Kurcz i
Anna Polkowska. Przeprowadzone badanie okulograficzne pozwala na skonstruowanie
modelu interpretacji prima facie, który przedstawia rys. 2.
Rejestracja cech
fizycznych liter
(wejście
sensoryczne)
Moduł językowy
Moduł sensu
Składnik
percepcyjny
Składnik
integracji
zdaniowej
Składnik
dostępu
leksykalnego
Składnik
rozumienia
dyskursu
Umysłowa
reprezentacja
tekstu
= rozumienie
Rys. 2. Empirycznie sprawdzony model interpretacji prima facie czytanego tekstu
Legenda:
strzałki zielone – interakcyjny przepływ informacji w obrębie modułu językowego i modułu sensu
strzałka czerwona – sekwencyjny przepływ informacji z moduły językowego do modułu sensu
strzałka czerwona przerywana – potencjalny przepływ informacji „z góry do dołu” pomiędzy modułami
w przypadku wystąpienia problemu z identyfikacją leksykalną wyrazu
20
V. Przejście od modelu deskryptywnego interpretacji do modelu normatywnego
wykładni
Pierwsza część kognitywnej teorii wykładni prawa zawiera model deskryptywny
interpretacji prima facie, podczas gdy część druga przedstawia model normatywny
wykładni prawa, tj. zbiór dyrektyw, które wyznaczają czynności wykładnicze (świadome,
intencjonalne działania) interpretatora prawa. Model interpretacji prawa prima facie,
skonstruowany w oparciu o przeprowadzone badanie okulograficzne, a więc przy pomocy
metod empirycznej i statystycznej, konkretyzuje idealistyczne teorie psycholingwistyczne,
tzn. teorie oparte na założeniach idealistycznych, eliminujących pewne czynniki jako
uboczne. Konkretyzacja polega w tym przypadku na określeniu relacji zachodzących
pomiędzy składnikami aparatu poznawczego człowieka – tj. umysłu – które operują
analitycznie zidentyfikowanymi typami wiedzy (1) „o języku” i (2) „o świecie”.
Deskryptywny komponent kognitywnej teorii wykładni prawa jest więc m o d e l e m
r e k o n s t r u k c yj n ym , tzn. stanowi układ twierdzeń idealizacyjnych wyjaśniających poprzez
empiryczną i statystyczną konkretyzację rzeczywiste funkcjonowanie ludzkiego umysły
w czasie operacji poznawania czytanego tekstu (prawnego).
Komponent normatywny, którego przedmiotem jest wykładnia prawa, stanowi
natomiast
model
o p t ym a l i z a c yj n y ,
tzn.
układ
twierdzeń
idealizacyjnych
przedstawiających, w jaki sposób powinna być przeprowadzona wykładnia prawa w sensie
pragmatycznym, aby osiągnięty została określony cel aksjologiczno-normatywny. Model
interpretacji prawa prima facie skonstruowany został w perspektywie deskryptywnej, przy
czym zgodnie z przyjętą metodologią falsyfikacjonistyczną punktem wyjścia była (a) analiza
zagadnienia procesów kognitywnych zachodzących w czasie czytania, która obejmowała
dotychczas wypracowane koncepcje psycholingwistyczne z zakresu psychologii kognitywnej,
a krokiem kolejnym było (b) badanie empiryczne, prowadzące do ukształtowania modelu
deskryptywnego. Model wykładni prawa (czynności wykładniczych) ma charakter
normatywny, zatem finalnie kognitywna teoria wykładni prawa ma charakter mieszany, acz
rozłączny. Jest to teoria deskryptywno-normatywna - opisowa w przedmiocie interpretacji
prawa i normatywna w przedmiocie wykładni prawa. Reasumując, w ramach kognitywnej
teorii wykładni prawa dochodzi do dwóch przejść: (1) operacyjnego - od modelowania
rekonstrukcyjnego
(analityczno-empirycznego)
do
modelowania
optymalizacyjnego,
(2) przedmiotowego - od interpretacji prawa do jego wykładni.
Powyższe momenty przejścia rodzą pytanie o spójność konstruowanej teorii. Model
optymalizacyjny wykładni prawa wskazuje dyrektywy wykładnicze, które prowadzą do
21
realizacji celu aksjologiczno-normatywnego ugruntowanego w kulturze prawnej, a
związanego z podejmowaniem decyzji stosowania prawa. Celem tym jest urzeczywistnienie
funkcji normatywnej instytucji uzasadnienia decyzji stosowania prawa, które konstytuowane
są przez dwie wartości: racjonalizacyjną i prakseologiczną. Podstawową dyrektywą, na której
opiera się model normatywny wykładni prawa, jest nakaz maksymalizacji tych wartości
(funkcji) instytucji uzasadnienia decyzji stosowania prawa. Stanowi ona jednocześnie źródło
normatywności skonstruowanego modelu czynności wykładniczych oraz rację (ratio) dla
doboru takich a nie innych dyrektyw wykładni zagregowanych w tenże model
optymalizacyjny. Jednocześnie nakaz maksymalizacji, czyli możliwe największego
urzeczywistniania, normatywnych funkcji instytucji uzasadnienia decyzji sądowej, czyni
koniecznym uwzględnienie modelu opisowego interpretacji prima facie przy formułowaniu
dyrektyw wykładni prawa stanowiących środki do realizacji tego nakazu. Instytucja
uzasadnienia decyzji sądowej, obejmująca wartość racjonalności i prakseologicznej
efektywności wykładni prawa w sensie apragmatycznym, stanowi zwornik obu modelów, a
tym samym czynnik integrujący obie części kognitywnej teorii wykładni prawa.
VI. Dyrektywa koherencji zewnętrznej uzasadnienia decyzji stosowania prawa
Uzasadnienie instytucjonalne decyzji stosowania prawa, które odsłania „kontekst
odkrycia” owej decyzji, pozwala na jej pogłębioną kontrolę, tym samym przyczynia się do
urzeczywistnienia w większym stopniu wartości racjonalności i wartości prakseologicznej.
Nie ogranicza się ona do oceny, czy dana decyzji sądowa jest przekonywująca przez pryzmat
swojego
uzasadnienia,
ale
obejmuje
także
pytanie,
czy
sposób
rozumowania
przeprowadzonego przez decydenta odpowiada w z o r c o m k u l t u r y p r a w n e j (takim jak:
ugruntowane dyrektywy wykładni prawa, wartości prawne, wymogi procedury, standardy
słuszności). Kultura prawna stanowi wspólnotowo generowaną i reprodukowaną wiedzę na
temat obowiązujących norm prawnych tworzących system prawa, rozpoznawane sposoby
rozumowań prawniczych, wykładni prawa i jego stosowania, postaw wobec prawa i oceny
systemu prawa, a także sposoby rozumienia wartości odnoszonych do prawa lub w jego
normach odnajdywanych (T. Stawecki). Analiza norm prawnych, regulujących obowiązek
uzasadnienia decyzji stosowania prawa i odpowiadające mu „prawo do uzasadnienia”, a także
dogmatycznych i teoretycznoprawnych konceptualizacji normatywnej instytucji uzasadnienia,
pozwoliła na zidentyfikowanie dyrektywy nakazującej tak formułować uzasadnienie decyzji
stosowania prawa, aby maksymalizowało ono jego koherencję zewnętrzną. W myśl formuły
koherencji zewnętrznej uzasadnienie instytucjonalne U decyzji sądowej D jest spójne
22
zewnętrznie wtedy i tylko wtedy, gdy podane w nim argumenty maksymalizują relacje
spójności zachodzące pomiędzy argumentami, o których wiadomo, że przynależą do
„kontekstu uzasadnienia” decyzji sądowej D i racjami, które zaistniały w „kontekście
odkrycia” decyzji sądowej D.
Na pytanie, czy uzasadnienie instytucjonalne decyzji sądowej cechujące się zarówno
koherencją wewnętrzną jak i zewnętrzną należy cenić bardziej niż uzasadnienie spójne
wyłącznie wewnętrznie, wydaje się odpowiadać ugruntowana w kulturze prawnej
normatywna instytucja uzasadnienia decyzji sądowej. Obejmuje ona nie tylko obowiązek
decydenta (sędziego) uzasadnienia swojej decyzji, nałożony przez normy prawa pozytywnego
(komplementarnie połączony z prawem strony do uzasadnienia), ale przede wszystkim
obowiązek uzasadnienia decyzji w pewien konwencjonalnie przyjęty sposób. Uzasadnienie
instytucjonalne powinno być skonstruowane strukturalnie i treściowo w taki sposób, aby
realizować funkcje powiązane z normatywnymi celami, którym służy analizowana instytucja
praxis prawniczej. O ile przypisanie uzasadnieniu instytucjonalnemu wyłącznie funkcji
racjonalizacyjnej dopuszczałoby praktykę przedstawiania w nim jedynie argumentów
wybranych
post
factum
i
okrycie
„zasłoną
milczenia”
rzeczywistych
motywów
rozstrzygnięcia, to połączenie funkcji racjonalizacyjnej z funkcją opisową, wymaga od
decydenta szczerości i transparentności co do racji, którymi się kierował dochodząc do
takiego a nie innego rozstrzygnięcia. Spełnianie wymogów koherencji zewnętrznej nie
powinno prowadzić w zakresie formy do przekształcenia uzasadnienia instytucjonalnego
decyzji sądowej w rodzaj ‘sprawozdania’ z wewnętrznych rozważań sędziego (jego stanów
mentalnych) lub ‘protokołu’ z narady sędziowskiej. Jednakże postulat maksymalnej integracji
„kontekstu odkrycia” i „kontekstu uzasadnienia” decyzji sądowej, którego wskaźnikiem
realizacji jest koherencja zewnętrzna, może w większym stopniu zabezpieczyć w pierwszej
kolejności
wartość
prakseologiczną
instytucji
uzasadnienia,
a
pośrednio
wartość
racjonalności.
W wysokim stopniu jednolicie odczytywana w prawniczych dyskursach teoretycznym
i praktycznym normatywna instytucja uzasadnienia decyzji sądowej wydaje się być
ugruntowana w swojej treści w kulturze prawnej. Uzasadnienie decyzji stosowania prawa
powinno być uzasadnieniem heurystycznym, czyli ujawniającym w formie argumentów
prawniczych rzeczywiste racje, którymi kierował się decydent. Pomimo możliwości
konstruowania uzasadnienia argumentacyjnego następczego, które odrywa „kontekst
odkrycia” decyzji sądowej (wykładniczej) od uzasadnienia instytucjonalnego i dopuszcza
poszukiwanie argumentów wspierających decyzję finalną jedynie post factum, ugruntowanym
23
wzorcem normatywnym we współczesnej kulturze prawnej wydaje się być właśnie
uzasadnienie heurystyczne. Łączy ono w sobie argumentacyjne formy aktów komunikacji
prawniczej (dyskursywną translację racji na argumenty prawnicze) oraz wyeksplikowanie
przeprowadzonych czynności poznawczych.
VII. Model normatywny wykładni prawa: dyrektywy pierwszego i drugiego stopnia
Normatywny model wykładni prawa powinien uwzględniać dyrektywę koherencji
zewnętrznej uzasadnienia instytucjonalnego decyzji sądowej oraz funkcję racjonalizacyjną tej
instytucji w taki sposób, aby katalizować refleksyjność decydenta. Polega ona na możności
krytycznej oceny racji i hipotez interpretacyjnych, które wyłaniają się w przestrzeni mentalnej
jako rezultaty procesów zautomatyzowanych i jawią się podmiotowi jako pewne „intuicje”
lub „oczywistości”. Dyrektywy wykładni prawa powinny tak kształtować czynności
wykładnicze, aby możliwe i bardziej prawdopodobne było przeprowadzenie przez
interpretatora
autoweryfikacji.
Wzorce
wykładni
przeprowadzanie przez interpretatora t e s t ó w
prawa
powinny
stymulować
a d e k w a t n o ś c i danej w przestrzeni
mentalnej racji lub hipotezy interpretacyjnej do wymogów kultury prawnej (dyskursu
prawniczego). Tego typu „test sprawdzający” jest momentem, w którym zazębiają się
faktycznie „kontekst uzasadnienia” i „kontekst odkrycia” w tym sensie, że wymogi
racjonalność kształtujące poprawność czynności uzasadnienia mogą służyć ex ante jako
kryteria selekcji racji (motywacji). Interpretator może wybrać tylko taką hipotezę
interpretacyjną i przekształcić ją w decyzję wykładniczą, którą wspierają racje racjonalne
(zobiektywizowane), tzn. takie, które odpowiadają wzorcom kultury prawnej.
W kognitywnej teorii wykładni prawa proponowany jest model normatywny
czynności wykładniczych, który uwzględnia normatywną instytucję uzasadnienia decyzji
sądowej (wykładniczej) poprzez zintegrowanie postulatu koherencji zewnętrznej uzasadnienia
instytucjonalnego z wiedzą empiryczną zawartą w modelu interpretacji prima facie. Ustalona
w drodze badania okulograficznego charakterystyka procesów kognitywnych zachodzących
w czasie czytania tekstu prawnego ujawnia szeroką aktywność poznawczą umysłu
interpretatora, który już na poziomie czytania tekstu angażuje obok wiedzy językową rozległe
i zróżnicowane zasoby „wiedzy o świecie”, którą operuje moduł sensu. Czynność czytania
tekstu prawnego złożona jest z licznych procesów zautomatyzowanych, w których poza
zakresem refleksyjności podmiotu poznającego ważone są przeróżne racje konstytuujące
rozumienie (interpretację prima facie) tekstu prawnego. Wyłaniające się z tego konglomeratu
procesów nieświadomych (lub nie w pełni świadomych) reprezentacje umysłowe, tj. normy
24
prawne, powinny zostać poddane testom adekwatności. Stąd model normatywny wykładni
prawa powinien służyć maksymalizacji aktów autoweryfikacji interpretatora.
Zaprezentowane w skonstruowanym modelu normatywnym dyrektywy wykładni
prawa pełnią przede wszystkim f u n k c j ę h e u r ys t yc z n ą (wtórnie mogą pełnić także
funkcję argumentacyjną, na co zwrócił już uwagę J. Wróblewski). Służą do świadomej
i kontrolowanej identyfikacji oraz selekcji racji interpretacyjnych. Z jednej strony pozwalają
poddać autoweryfikacji (testowi adekwatności) hipotezy interpretacyjne, które jako intuicje
(„oczywistości”) wyłoniły się z przebiegu zautomatyzowanych procesów interpretacji prima
facie. Pozwala to na wyselekcjonowanie tych racji interpretacyjnych, które odpowiadają
wzorcom kultury prawnej. Z drugiej strony wskazują na przesłanki wykładnicze, które mogły
być pominięte w przebiegu procesów zautomatyzowanych, a które powinny być
uwzględnione ze względu na wzorce kultury prawnej.
VII.1. Dyrektywy pierwszego stopnia:
W ramach modelu normatywnego wykładni prawa czynności poznawcze, których
celem jest świadome zrozumienie treść normy prawnej - tj. ustalenie wyrażeń będących jej
składowymi i określenie ich znaczenia - są determinowane przez dyrektywy pierwszego
stopnia. Uwzględniając odcinki h o r yz o n t u i n t e r p r e t a c yj n e g o , do którego odwołują się
poszczególne dyrektywy pierwszego stopnia, możliwe było ich uporządkowanie w cztery
moduły: (1) językowy (7 dyrektyw), (2) tekstowy (6 dyrektyw), (3) systemowy
(7 dyrektyw), (4) funkcjonalno-aksjologiczny (8 dyrektyw).
Dyrektywy wykładni językowej determinują czynności poznawcze weryfikujące
i testujące rezultaty automatycznych procesów kognitywnych zachodzących w obrębie
składnika
dostępu
leksykalnego
i
składnika
integracji
zdaniowej.
Pozwalają
na
(auto)refleksyjną i krytyczną ocenę przypisania znaczeń do wyrażeń budujących danych
przepis prawny i złożenia owych znaczeń w znaczenie całościowe percypowanej jednostki
redakcyjnej, tj. przepisu prawnego. Dyrektywy wykładni tekstowej determinują czynności
poznawcze ukierunkowane na szerszy horyzont interpretacyjny danego wyrażenia prawnego
lub przepisu prawnego - kontekst konstytuowany przez całość komunikacyjną, do której
przynależy wykładany przepis prawny. Zidentyfikowane dyrektywy indukują czynności
poznawcze weryfikujące i testujące rezultaty automatycznych procesów kognitywnych
zachodzących w obrębie składnika rozumienia dyskursu w zakresie jego funkcji
wewnątrztekstowej, tzn. integrowania znaczeniowego zdań (przepisów prawnych) w większe
części, aż po cały tekst. Składnik rozumienia dyskursu operuje „wiedzą o świecie”, która w
zakresie kontekstu tekstowego wyrażenia prawnego (przepisu prawnego), obejmuje
25
reprezentacje umysłowe innych przepisów prawnych budujących dany tekst prawny (mogą to
być reprezentacje świeżo ukonstytuowane w drodze percepcji innych fragmentów
percypowanego i poznawanego tekstu lub zmagazynowane w pamięci długotrwałej jako
rezultaty oddalonej w czasie lektury).
Dyrektywy wykładni systemowej odnoszą się do kontekstu pozatekstowego danego
wyrażenia prawnego lub przepisu prawnego. Składnik rozumienia dyskursu operuje „wiedzą
o świecie” obejmującą także informacje tworzące kontekst zewnętrzny wobec czytanego
tekstu (prawnego). W przypadku interpretacji wyrażeń prawnych lub przepisów prawnych
kontekst ten obejmuje informacje o s ys t e m i e p r a w n ym , do którego przynależą normy
prawne zakodowane w poznawanym tekście prawnym. Natomiast dyrektywy wykładni
funkcjonalno-aksjologicznej
odnoszą
się
do
peryferyjnych
obszarów
horyzontu
interpretacyjnego wyrażenia prawnego (przepisu prawnego), bowiem indukują czynności
poznawcze pokrywające się przedmiotowo z zakresem tych procesów kognitywnych
składnika rozumienia dyskursu, które operują „wiedzą o świecie” obejmującą ratio legis,
konsekwencje praktyczne przyjęcia takiego a nie innego rozumienia przepisu prawnego oraz
wartości prawne. Wykładnia funkcjonalno-aksjologiczna służy zweryfikowaniu rezultatów
interpretacji
prima
facie
pod
kątem
wzorców
normatywnych
zidentyfikowanych
i ugruntowanych w danym p o r z ą d k u p r a w n y m .
VII.2. Dyrektywy drugiego stopnia:
Zwieńczeniem modelu normatywnego kognitywnej teorii wykładni prawa są
metadyrektywy, odnoszące się do: (1) początku procesu wykładni i (2) możliwości
wystąpienia rozbieżnych wyników wykładniczych, powstałych w drodze wykonania
czynności poznawczych kształtowanych przez poszczególne dyrektywy pierwszego stopnia.
Problem inicjacji czynności wykładniczych rozstrzyga dyrektywa omnia sunt interpretanda
(KTWP odrzuca zasadniczo dyrektywę antyinicjującą clara non sunt interpretanda). Kwestię
harmonizacji sprzecznych rezultatów zastosowania dyrektyw pierwszego stopnia rozstrzygają
dyrektywy
wykładni
holistycznej
(KTWP
odrzuca
dyrektywę
antykontynuacyjną
interpretacio cessat in claris) oraz równoważności kontekstów interpretacyjnych (KTWP
odrzuca hierarchiczność kontekstów interpretacyjnych, a w szczególności preferencyjne
dyrektywy pierwszeństwa wykładni językowej oraz subsydiarności wykładni systemowej i
funkcjonalnej).
Wskazanie w modelu normatywnym powyższych dyrektyw drugiego stopnia, jako
instrumentów służących realizacji dyrektywy koherencji zewnętrznej, projektuje proces
wykładni prawa jako „dyskurs wirtualny”, w którym interpretator jest otwarty na prowadzenie
26
wewnętrznej deliberacji nad racjami interpretacyjnymi. Sama wewnętrzna deliberacja jest
indukowana przez dyrektywę omnia sunt interpretanda. Kognitywna teoria wykładni prawa
za sprawą metadyrektyw wykładni holistycznej i równoważności kontekstów wykładniczych
odrzuca sekwencjonizm, wyrażający zawsze pewną przyjętą hierarchię dyrektyw pierwszego
stopnia
(zasadniczo
prymat
wykładni
językowej),
a
tym
samym
konstruuje
koneksjonistyczny model czynności wykładniczych – por. rys. 3.
Hipoteza interpretacyjna H1
DS3
DT3
DT1
DF1
DJ3
DJ1
Rys. 3. Fragment sieci koneksjonistycznej dyrektyw wykładni
pierwszego stopnia - ukonstytuowanej przez metadyrektywy
wykładni holistycznej i równoważności kontekstów
wykładniczych - dla hipotezy interpretacyjnej H1
Legenda:
kolor czerwony – (+1) sygnał wzmacniający H1
kolor niebieski – (-1) sygnał osłabiający H1
W powyższym modelu każda dyrektywa pierwszego stopnia jest równoważna
względem pozostałych, a dana hipoteza interpretacyjna może zostać zaaprobowana jako treść
decyzji wykładniczej za sprawą synergicznego aktywowania w sieci dyrektyw pierwszego
stopnia największej liczby elementów. Wszystkie moduły kontekstowe, a zatem wszystkie
dyrektywy pierwszego stopnia, konstytuują sieć, obrazującą ich pełny zbiór. Hipoteza
interpretacyjna H1 poddawana jest finalnej ocenie poprzez ustalenie, ile dyrektyw pierwszego
stopnia przemawia za jej zaaprobowaniem (sygnał wzmacniający +1), ile za jej odrzuceniem
(sygnał hamujący -1), a ile nie pozwala nic orzec o danej hipotezie (brak sygnału)
27
Ponieważ dyrektywy wykładni prawa, determinując czynności wykładni, wskazują
pewne racje interpretacyjne (a pośrednio także argumenty wykładnicze), to służą do
odrzucania tych racji, które są nieakceptowalne ze względu na normatywne wzorce kultury
prawnej. Dyrektywy pozwalają świadomie posłużyć się racjami prawidłowymi, które mogą
być przełożone w „kontekście uzasadnienia” na argumenty prawne. W ten sposób „ważenie”
danej
hipotezy
interpretacyjnej
jest
jednocześnie
jej
testem
argumentacyjnym.
Przeprowadzenie takiej operacji dla każdej hipotezy interpretacyjnej pozwala na ich
zestawienie i wskazanie tej, która jest możliwa do najlepszego uzasadnienia, a więc
w maksymalnym stopniu realizuje wymogi racjonalności. Taka hipoteza interpretacyjna,
dotycząca poszczególnych wyrażeń prawnych lub nawet całego przepisu prawnego, zasługuje
na przyjęcie w drodze podjęcia decyzji wykładniczej wyrażającej ją w swej treści.
Symboliczne wyrażenie kognitywnego modelu wykładni prawa przy pomocy sieci
koneksjonistycznej pokrywa się z naturą procesów kognitywnych zachodzących w czasie
interpretacji prima facie, a zatem akcentuje potrzebę refleksyjnego odtworzenia drogi, którą
nieświadomie i w sposób niekontrolowany interpretator przebył w czasie poznawania tekstu
prawnego. Taki model normatywny, ukształtowany przez metadyrektywę równoważności
kontekstów wykładniczych, jest daleki od a n a r c h i z m u w yk ł a d n i c z e g o , rozumianego
jako akceptowanie decyzji wykładniczej, mającej umocowanie w dowolnej dyrektywie
wykładni lub dowolnej ich konfiguracji. Wedle skonstruowanej teorii wykładni prawa na
aprobatę zasługuje jedynie decyzja wykładnicza, która jest najlepiej uzasadniona, a więc taka,
za którą przemawia jak najwięcej racji interpretacyjnych (argumentów wykładniczych) - czyli
taka, którą wspiera jak największa liczba dyrektyw pierwszego stopnia. Nie ma więc
przyzwolenia na wykładnicze „antything goes” i tolerowanie „anomii” w zakresie wykładni
prawa (jest to najczęstszy zarzut formułowany przez apologetów dyrektywy clara non sunt
interpretanda). Wręcz przeciwnie, w zakresie dyrektyw drugiego stopnia model kognitywny
minimalizuje dowolność i ‘ideologiczność’, z którymi nie radzą sobie klasyczne modele
wykładni, bowiem albo konstatują, że wybór metadyrektyw zależy od wyboru „ideologii
stosowania prawa” (model klaryfikacyjny) albo operują niespójnymi z innymi elementami
własnej teorii kryteriami „jednoznaczności językowej” (językowej claritas) lub „istotnymi
różnicami” (model derywacyjny). Metadyrektywa równoważności kontekstów wykładniczych
nie poszerza zakresu dyskrecjonalności wykładniczej decydenta prawnego, ale precyzyjnie
rzucając światło na całe spectrum czynników kognitywnych kształtujących rozumienie
wyrażeń
prawnych,
postuluje
rzetelną
‘inwentaryzację’
i
transparentność
racji
interpretacyjnych w procesie wykładni prawa.
28