kognitywna teoria wykładni prawa - WPiA UW
Transkrypt
kognitywna teoria wykładni prawa - WPiA UW
mgr Marcin Romanowicz (nr albumu: 213 876) Katedra Filozofii Prawa i Nauki o Państwie Wydział Prawa i Administracji Uniwersytet Warszawski KOGNITYWNA TEORIA WYKŁADNI PRAWA Autoreferat rozprawy doktorskiej przygotowanej pod kierunkiem Prof. UW. dr. hab. Tomasza Staweckiego Wydział Prawa i Administracji Uniwersytetu Warszawskiego Warszawa, 2015 I. Wprowadzenie: przedmiot rozprawy doktorskiej Wykładnia prawa jest jednym z centralnych zagadnień prawoznawstwa i podstawowym problemem praktycznego dyskursu prawnego. W polskiej teorii prawa można współcześnie zidentyfikować aż jedenaście propozycji teoretycznoprawanych, konceptualizujących to zagadnienie, począwszy od przedwojennych koncepcji Eugeniusza Waśkowskiego i Sawy Frydmana (Czesława Nowińskiego), poprzez dominujące koncepcje Jerzego Wróblewskiego (koncepcja semantyczna intensjonalna - klaryfikacyjna) i Macieja Zielińskiego (koncepcja derywacyjna), po współcześnie rozwijaną koncepcję pragmatyczną Marcina Matczaka. W powyższej mozaice koncepcji wykładni prawa można dostrzec wyraźny deficyt propozycji teoretycznych zorientowanych w aspekcie metodologicznym naturalistycznie. Dotychczas nie opracowano realistycznej koncepcji wykładni prawa, która zawierałaby ustalony empirycznie komponent deskryptywny oraz – ewentualnie - komponent normatywny, uwzględniający naturę realnych procesów zachodzących w procesie poznawania prawa. Powyższe koncepcje zostały opracowane w ramach podejścia analitycznego i zasadniczo nie zawierają elementu badań empirycznych (wyjątek stanowią koncepcja klaryfikacyjna J. Wróblewskiego i koncepcja pragmatyczna M. Matczaka). Związki zachodzące pomiędzy rozróżnionymi przez Aleksandra Peczenika kierunkami badania wykładni prawa, tj. analitycznym i empiryczno-konstrukcyjnym uzasadnia włączenie badań empirycznych nad procesami zachodzącymi w czasie interpretacji tekstów prawnych do obszaru teorii wykładni prawa. Kognitywna teoria wykładni prawa (dalej także jako: KTWP) jest interdyscyplinarną próbą analitycznego i empirycznego uchwycenia fenomenu wykładni prawa, uwzględniającą rzeczywiste procesy kognitywne zachodzące w umyśle interpretatora w czasie poznawania tekstu prawa. Jest to projekt empirycznej epistemologii prawa, wpisujący się w program integracji zewnętrznej prawoznawstwa. Teoria składa się z dwóch części, tj.: opisowej i normatywnej. Część deskryptywna zawiera model empiryczny procesu interpretacji tekstu prawa w czasie czytania, czyli model i n t e r p r e t a c j i p r i m a f a c i e t e k s t u p r a w n e g o (dalej także w skrócie: MIPF). Model został skonstruowany w oparciu o badanie o k u l o g r a f i c z n e , które pozwoliło na uchwycenie zautomatyzowanych i nieświadomych procesów interpretacyjnych. Cześć normatywna zawiera postulaty (dyrektywy) co do sposobu świadomego poszukiwania przesłanek interpretacyjnych przez podmiot poznający prawo. Postulaty uwzględniają charakterystykę kognitywną umysłu interpretatora opisaną w MIPF. 2 II. Struktura rozważań (rozprawy doktorskiej) Przedstawienie kognitywnej teorii wykładni prawa zostało poprzedzone rozważeniem w ramach obszernego Prologu zasadniczej kwestii metodologicznej, tj. możliwości włączenia teorii kogitywistycznych i empirycznych metod badania procesów poznawczych do obszaru konceptualizacji problemu wykładni prawa. Można zadać pytanie, czy Prolog ten musi być „obszerny”? Jeżeli zaprezentowanie kognitywnej teorii wykładni prawa ma być poprzedzone naszkicowaniem horyzontu myślowego, w który wpisuje się proponowana teoria, a nawet więcej – horyzontu, w którym jest ona umocowana jako przedsięwzięcie racjonalne, to odpowiedź musi być twierdząca. Tłem dla kognitywnej teorii wykładni prawa, która do problemu teoretycznoprawnego stosuje teorie i metody psychologii kognitywnej, jest nieuchronnie zagadnienie i n t e g r a c j i z e w n ę t r z n e j p r a w o z n a w s t w a . Z tego powodu, w pierwszej kolejności należało odpowiedzieć na pytanie: czym jest kognitywistyka? W pytaniu tym ukryte jest roszczenie o wykazanie zasadności podejmowania wysiłków integracyjnych ukierunkowanych na domenę nauk kognitywnych. W rozdziale 1 Prologu przedstawiono kognitywistykę jako autonomiczny program badawczy. Jego swoistość polega na tym, że „twardy rdzeń” posiada dynamiczną naturę, konstytuowaną przez dialektyczne napięcie pomiędzy centralnymi twierdzeniami. Całość programu jest trwała dzięki obecności ‘twardego superrdzenia’, który należy uwzględnić przy ocenie potencjału integracyjnego nauk kognitywnych z prawoznawstwem. Według metodologii kognitywistycznego programu badawczego (jego „heurystyki negatywnej” w znaczeniu Imre Lakatosa) problem umysłu, poznania i procesów poznawczych należy teoretyzować w oparciu o dane empiryczne. Skoro w programie kognitywistycznym wewnętrzna dialektyka obejmuje takie elementy „twardego rdzenia” jak modelowanie procesów poznawczych (komputacjonizm vs. holizm vs. koneksjonizm), czy status przetwarzanej informacji jako elementu symbolicznego lub subsymbolicznego (komputacjonizm i holizm vs. koneksjonizm), to należy wskazać jeszcze węższy zakres twierdzeń, będących wspólnym punktem wyjścia dla konkurencyjnych interpretacji problemów fundamentalnych dla całego programu badawczego. Doniosłość zarysowanych sporów wewnątrz obszaru kognitywistyki nie pozwala na zaklasyfikowanie ich jako sporów o hipotezy poboczne („pomocnicze” w ujęciu I. Lakatosa), dotyczą one bowiem pomysłów na konceptualizację podstawowych kwestii takich jak budowa i funkcjonowanie umysłu. Pozostaje zatem wyróżnienie ‘twardego superrdzenia’, który w przypadku kognitywistycznego programu badawczego zawiera tezy dotyczące przedmiotu badania oraz metody. Przedmiotem badań kognitywistycznych jest umysł i realizowane w nim procesy 3 poznawcze na reprezentacjach umysłowych, a metodą empiryczne środki falsyfikacji resp. weryfikacji hipotez badawczych. Tak pojęta kognitywistyka, przy całej swojej wewnętrznej dialektyce i labilności warunków brzegowych, stanowi na tyle stabilny metodologicznie program badawczy, że może on stanowić komponent zewnętrznej integracji prawoznawstwa. Po rozważaniu możliwości skierowania projektu integracji zewnętrznej prawoznawstwa w stronę kognitywistycznego programu badawczego, w rozdziale 2 Prologu w drodze analizy genealogicznej zbadano potencjał integracyjny samego prawoznawstwa. Zrekonstruowano w tym celu najważniejsze momenty debaty metodologicznej, która zdominowała XX-wieczną teorię prawa. Powracające pytanie o naukowość prawoznawstwa, jego metodę i paradygmat, konstytuujący jego odrębność i ‘tożsamość’, musiało wybrzmieć raz jeszcze. Było to konieczne dla ustalenia, czy postulat integracji zewnętrznej prawoznawstwa jest tylko kokieteryjnym hasłem, nieprzemyślanym postulatem pewnej mody, czy też nierealną utopią lub niepotrzebnym nadwyrężaniem granic dyscyplinarnych prawoznawstwa. Jeżeli postulat integracji jest immanentną częścią tożsamości prawoznawstwa, to wysiłki integracyjne są nie tylko metodologicznie możliwe i pożyteczne dla kumulowania wiedzy o prawie, ale wręcz konieczne dla podtrzymania prawoznawstwa jako nauki, a nie tylko rzemiosła. Odsłaniając wyłaniającą się z genealogii idei odpowiedź na powyższe pytania, w rozdziale 3 Prologu szczegółowo przeanalizowano możliwość integracji koncepcyjnej i metodologicznej teorii wykładni prawa z psychologią kognitywną. Po przeprowadzeniu analizy potencjałów integracyjnych nauk kognitywistycznych i prawoznawstwa w Części I rozważań przedstawiono deskryptywny model interpretacji prima facie tekstu prawnego. Rozdział 1 Części I prezentuje poczynione ustalenia terminologiczne, niezbędne do skonstruowania kognitywnej teorii wykładni prawa, a rozdział 2 podłoże teoretyczne z zakresu psycholingwistyki i okulografii przeprowadzonego badania. Samo badanie i jego wyniki zostaną zaprezentowane w rozdziale 3 Części I, a całościowa interpretacja wyników w rozdziale 4. Część I zamyka rozdział 5 zawierający wnioski z przeprowadzonego badania empirycznego, pozwalające skonstruować model interpretacji prima facie tekstu (prawnego). Część II rozważań zawiera model normatywny czynności wykładniczych. W rozdziale 1 tej części przedstawiono rekonstrukcję normatywnej instytucji uzasadnienia decyzji stosowania prawa (decyzji sądowej), która pozwoliła na sformułowanie kryterium koherencji zewnętrznej takiego uzasadnienia (rozdział 2 Części II). Ustalenie obecności w kulturze prawnej dyrektywy nakazującej maksymalizowanie tego rodzaju koherencji przez decydentów prawnych (rozdział 3 Części II) pozwoliło z kolei na zidentyfikowanie 4 normatywnych podstaw modelu optymalizacji czynności wykładniczych (rozdział 4 Części II). W konsekwencji umożliwiło to skonstruowanie samego normatywnego modelu wykładni prawa (rozdział 5 Części II). W zamykającym rozprawę Epilogu rozważono kognitywną teorię wykładni prawa pod kątem szerszych problemów związanych z korozją pozytywistycznego modelu stosowania (wykładni) prawa. W ostatniej części rozprawy nakreślono dalszy kierunek badań filozoficznoprawnych, do których stymulują ustalenia kognitywnej teorii wykładni prawa. III. Podstawowe pojęcia kognitywnej teorii wykładni prawa W kognitywnej teorii wykładni prawa przyjmuje się niesynonimiczność pojęć „wykładnia prawa” i „interpretacja prawa”. Pierwsze pojęcie jest kluczowe dla części normatywnej KTWP, podczas gdy drugie denotuje zjawisko psychiczne, tzn. wiązkę procesów kognitywnych, będących przedmiotem badania w części deskryptywnej. Kognitywna teoria wykładni prawa opiera się na następującej siatce podstawowych pojęć: (1) Interpretacja prawa – może być rozumiana dwojako: a. W sensie pragmatycznym jest to całokształt procesów kognitywnych zachodzących w czasie czytania przepisów prawnych, którego rezultatem jest powstanie w umyśle podmiotu poznającego reprezentacji poznawczych tych przepisów prawnych. Procesy kognitywne składające się na interpretację w znaczeniu pragmatycznym są co do zasady zautomatyzowane - są więc to procesy nieświadome dla podmiotu poznającego, awoluntarystyczne i niepodlegające kontroli. b. W sensie apragmantycznym jest to rezultat powyższego całokształtu procesów kognitywnych, czyli reprezentacja umysłowa percypowanego przepisu prawnego. (2) Wykładnia prawa – podobnie jak interpretacja prawa może być rozumiana dwojako: a. w sensie pragmatycznym jest to ogół świadomie podejmowanych przez podmiot poznający czynności poznawczych, a więc czynności kontrolowanych, zmierzających do uzyskania zrozumiałej tzn. względnie jednoznacznej, normy prawnej, b. w sensie świadomych apragmantycznym czynności jest to poznawczych, rezultat powyższego całokształtu czyli zrozumiała (względne jednoznaczna) norma prawna. 5 (3) Przepis prawny - jest to wypowiedź pisemna, będąca elementem składowym tekstu prawnego, zdaniokształtna, której granice wyznaczają znaki graficzne w postaci kropek. Przepis prawny zawiera w sobie elementy niezbędne do percypowania i poznawczego skonstruowania normy prawnej. (4) Norma prawna – jest to reprezentacja umysłowa przepisu prawnego lub przepisów prawnych, będąca zupełnym wzorem powinnego zachowania się. Wzór ten zawiera następujące elementy treściowe: (a) wskazanie adresata („kto?”), (b) wskazanie okoliczności („kiedy?”/„gdzie?”), (c) rdzeń normatywny, tj. nakaz („musi”), zakaz („nie może”) lub uprawnienie („może”), (d) opis zachowania, objętego rdzeniem normatywnym. Norma prawna to reprezentacja umysłowa pozwalająca stwierdzić kto i w jakich okolicznościach jest obowiązany lub uprawniony do jakiego zachowania. Jeżeli dany przepis prawny zawiera wszystkie powyższe elementy, to reprezentacja umysłowa takiego przepisu prawnego jest normą prawną. W przypadku rozczłonkowania syntaktycznego wzorca powinnego zachowania się reprezentacja umysłowa, będąca normą prawną, stanowi kompilację reprezentacji umysłowych więcej niż jednego przepisu prawnego (przepisu zrębowego i przepisów uzupełniających). Norma prawna nie musi być pełna treściowo (w rozumieniu teorii derywacyjnej), tzn. nie musi uwzględniać przepisu centralnego i wszystkich przepisów modyfikujących jego treść - w rozumieniu prezentowanej teorii reprezentacje umysłowe przepisów modyfikujących treść przepisu centralnego są odrębnymi normami prawnymi, o ile zawierają powyższe elementy składowe. (5) Reprezentacja umysłowa – jest to umysłowy odpowiednik obiektu (realnie istniejącego, fikcyjnego lub hipotetycznego), który powstaje w wyniki percepcji i interpretacji danych sensorycznych. Tenże odpowiednik obiektu zastępuje go w procesach przetwarzania informacji, tj. operacjach myślowych. Obiektem (przedmiotem poznania) może być rzecz, osoba, kategoria lub relacja. Reprezentacja polega natomiast na oznaczaniu czegoś, zajmowaniu jego miejsca, symbolizowaniu lub przedstawianiu czegoś. Zgodnie z podejściem integracyjnym w psychologii poznawczej, reprezentacja umysłowa może przybrać formę: a. niewerbalną, tj. imagenu, czyli być analogonem modalnym przedmiotu poznania – taka reprezentacja umysłowa zachowuje pewne właściwości fizyczne obiektu (np. relacje przestrzenne pomiędzy elementami obiektu); b. werbalną, tj. logogenu, czyli być wiązką informacji zakodowaną w symbolach językowych – taka reprezentacja umysłowa nie zachowuje właściwości fizycznych 6 obiektu (tylko w pewnym stopniu właściwości dźwiękowe obiektu są zachowane w przypadku symboli onomatopeicznych); c. propozycjonalną, tj. sądu - jeżeli dana werbalna reprezentacja umysłowa odzwierciedla jakąś relację, to wyrażona jest w kodzie twierdzeniowym (propozycjonalnym), czyli amodalnym i abstrakcyjnym tworzywie twierdzeń opisowych; d. mieszaną, tj. modelu mentalnego (umysłowego), będącego złożeniem obrazowosłownym wyabstrahowanych analogonów pojęć i obiektów – taka reprezentacja umysłowa odzwierciedla relacje czasowe i przestrzenne realnych obiektów (chociaż może być przywoływana w wyobraźni rotacyjnie, tj. pod dowolnym kątem), ale nie zachowuje cech dystynktywnych konkretnych egzemplarzy. (6) Rozumienie - podmiot poznający P1 rozumie wyrażenie W1 wtedy i tylko wtedy, gdy w umyśle P1 w drodze interpretacji powstanie reprezentacja umysłowa wyrażenia W1, tzn. R(W1), powiązana związkami asocjacyjnymi z innymi reprezentacjami umysłowymi, zgromadzonymi w pamięci długotrwałej P1. Jeżeli z jakichś powodów egzogennych lub endogennych umysł podmiotu P1 nie jest w stanie wytworzyć reprezentacji umysłowej W1, a poprzestaje jedynie na percypowaniu danych sensorycznych związanych z W1 i ewentualnie na jego analizie fonologicznogramatycznej, to można powiedzieć, że P1 nie zrozumiał wyrażenia W1. (7) Tekst prawny - jest to usystematyzowany agregat wszystkich wypowiedzi pisemnych danego aktu uznanego za akt normatywny (akt prawa pozytywnego) w danym porządku prawnym. Tekst prawny jest zjawiskiem językowym, zbudowanym z przepisów prawnych, który stanowi pewną całość komunikacyjną, wpisującą się w pewien dyskurs interpersonalny (społeczny). (8) Akt normatywny – jest to dokument władzy publicznej, wyrażający wzorce powinnego zachowania się w danej sferze stosunków międzyludzkich (społecznych), wytworzony w przewidzianej prawem procedurze przez kompetentny podmiot i zgodnie z wymogami prawa opublikowany. IV. Model interpretacji prima facie tekstu (prawnego) Część deskryptywna kognitywnej teorii wykładni prawa, zawierająca MIPF, została skonstruowana w oparciu o przeprowadzone badanie empiryczne, w którym sięgnięto po (1) teorie psycholingwistyczne, opisujące procesy kognitywne prowadzące do zrozumienia czytanego tekstu, (2) paradygmat badań okulograficznych (eye-tracking). 7 IV.1. Modele procesów poznania czytanego tekstu: sekwencyjność vs. interakcyjność W dotychczasowej historii psycholingwistyki opracowano kilka modeli przetwarzania informacji językowych w przebiegu czynności czytania tekstu. Modele te można pogrupować w dwa zbiory w oparciu o rozróżnienie sekwencyjności (seryjności) i interakcyjności mechanizmu kognitywnego działającego w czasie czytania. Modele sekwencyjne – chronologicznie opracowane jako pierwsze – akcentują liniowe, stopniowe przetwarzanie przez umysł podmiotu poznającego informacji językowych, które najpierw są percypowane, następnie integrowane, a na końcu interpretowane. W przeciwieństwie do tego seryjnego obrazu, modele interakcyjne akcentują wpływ na proces percypowania i przetwarzania informacji nastawień i oczekiwań podmiotu poznającego, schematów interpretacyjnych, które są obecne w jego umyśle (pamięci długotrwałej). Aktywność poznawcza umysłu, prowadząca do wytworzenia reprezentacji umysłowej czytanego tekstu, jest ujmowana jako złożenie więcej niż jednego procesu, które zachodzą w tym samym czasie, a więc paralelnie. Oba typy modelów wyszły częściowo zwycięsko z prób weryfikacyjno- falsyfikacyjnych, co otworzyło pole do poszukiwań modelu integracyjnego. Pierwszym takim modelem był tzw. Czytelnik (the Reader model) Marcela Adama Justa i Patrycji A. Carpenter. Pioniersko stosując okulografię do zbadania procesów kognitywnych zachodzących w czasie czytania, ustalili, że całokształt tych procesów jest częściowo sekwencyjny - w zakresie sensorycznego odbierania bodźców wzrokowych i różnicowania ich cech fizycznych jako cech liter. Z drugiej strony model jest interakcyjny, bowiem rozpoznanie wyrażeń (złożenie liter w całość, identyfikacja składni i znaczenia), a następnie ich połączenie w spójną całość z resztą tekstu, wymaga zaangażowania pamięci operacyjnej, która korzysta z zasobów pamięci długotrwałej podmiotu poznającego. W tym magazynie poznawczym zawarta jest wiedza o ortografii, fonologii, składni, semantyce, pragmatyce, dyskursie, dziedzinie życia, której dotyczy tekst, a także wiedza epizodyczna (indywidualna) podmiotu poznającego. Pracując nad tym modelem jego autorzy wyartykułowali dwa założenia fundamentalne dla zastosowania paradygmatu ruchu gałek ocznych, tj. paradygmatu okulograficznego, w psycholingwistyce: (1) Założenie o bezpośredniości (the immiediacy assumption), zgodnie z którym umysł poznającego (czytelnika) dąży do pełnego poznawczego przetworzenia pojedynczego wyrazu w jak najkrótszym czasie. Innymi słowy: percepcja pojedynczego wyrazu następuje bardzo szybko (ok. 250 ms - średnio tyle czasu trwa zatrzymanie oczu na słowie, czyli tzw. fiksacja) i obejmuje jego 8 natychmiastową interpretację w oparciu o wiedzę zgromadzoną w magazynie pamięci długotrwałej. (2) Założenie „oko-umysł” (the eye-mind assumption), zgodnie z którym oko pozostaje w bezruchu, skupione na danym wyrazie, czyli fiksuje na nim, tak długo jak długo trwa jego poznawcze przetwarzanie. Innymi słowy: czas fiksacji na danym wyrazie jest precyzyjnym wskaźnikiem czasu niezbędnego do poznawczego przetworzenia tego wyrazu w reprezentację umysłową. Badania zapoczątkowane przez M.A. Justa i P.A. Carpenter stanowiły inspiracje do opracowania, w drodze ustaleń empirycznych, bardziej szczegółowych modeli procesów okomotorycznych i kognitywnych, zachodzących w czasie czytania tekstu, takich jak: E-Z Czytelnik, EMMA, Glenmore i SWIFT. Na gruncie polskiej psychologii poznawczej pionierskie badania nad procesami kognitywnymi zachodzącymi w czasie czytania tekstu zostały podjęte pod koniec lat 80-tych XX w. przez Idę Kurcz i Annę Polkowską. Przeprowadziły one empiryczną weryfikację modelu Czytelnik, stosując paradygmat głośnego czytania, opracowany przez Josepha H. Danka. Paradygmat ten uwzględnia tzw. metodę jednoczesną (on-line), polegającą na analizie czynności czytania tekstu na głos (czasu czytania pojedynczych wyrazów krytycznych, odpowiednio zniekształconych na potrzeby badana, liczby popełnionych błędów przy czytaniu wyrazów krytycznych). Ponadto, tzw. metodę odstępstwa czasowego (off-line), polegającą na przeprowadzeniu testu zrozumienia i zapamiętania tekstu przez osoby badane, który przeprowadzono po odczytaniu tekstu na głos. Uzyskane wyniki pozwoliły I. Kurcz i A. Polkowskiej na zweryfikowanie hipotezy dotyczącej seryjności i paralelności przetwarzania informacji poznawczych w czasie czytania. Całokształt procesów, składających się na kognitywny mechanizm prowadzący do rozumienia czytanego tekstu, okazał się być mieszany, tzn. interakcyjno-seryjny. Początkowo - po zarejestrowaniu cech fizycznych bodźców wzrokowych - następują interakcyjne procesy kognitywne w tzw. module językowym. Składnik percepcyjny integruje odebrane bodźce wzrokowe w wyrazy, paralelnie składnik dostępu leksykalnego przypisuje im z leksykonu (słownika mentalnego) partykularne znaczenie, po czym składnik integracji zdaniowej „składa” poszczególne wyrazy w całe zdanie o określonym znaczeniu (sensie). W przypadku wystąpienia niejasności (nieostrości, wieloznaczności) któregokolwiek z wyrazów następuje dookreślenie, służące uzyskaniu zdania wewnętrznie spójnego i będącego sensowną całością informacyjną. Procesy realizowane przez skład percepcji, składnik dostępu leksykalnego i składnik integracji zdaniowej, choć przedstawione powyższej w pewnej sekwencji, zachodzą 9 interakcyjnie i do ich przeprowadzenia umysł poznającego wykorzystuje tzw. „wiedzę o języku”. Sekwencja kognitywna pojawia się dopiero na dalszym etapie przetwarzania informacji poznawczych, gdy tzw. składnik rozumienia dyskursu uzgadnia znaczenie zdania ‘wypracowanego’ przez moduł językowy z całością dotychczas przetworzonego tekstu oraz z tzw. „wiedzą o świecie” podmiotu poznającego. Obejmuje ona m.in. wiedzę z dziedziny, której dotyczy tekst, wiedzę epizodyczną, autobiograficzną. W przypadku niezgodności znaczeniowej zdania z „wiedzą o świecie” lub jego niejednoznaczności na poziomie pracy modułu językowego składnik rozumienia dyskursu może zmodyfikować elementy zdania, tak aby ostatecznie uzyskać zdanie sensowne. Takie zdanie jest koherentne z „wiedzą o świecie” podmiotu poznającego. Efektem całego procesu jest umysłowa reprezentacja tekstu, która w psychologii poznawczej jest definiowana jako stan poznania (zrozumieniu) czytanego materiału lingwistycznego. Ustalenia poczynione przez I. Kurcz i A. Polkowską stanowiły podstawę teoretyczną przeprowadzonego badania okulograficznego. IV.2. Metoda i aparatura badawcza Człowiek wykonuje średnio około trzech ruchów gałek ocznych w ciągu sekundy, co czyni ten typ ruchu najczęstszym potencjalnie intencjonalnym ludzkim zachowaniem. System uwagi poddaje nieustannej analizie całe pole widzenia i średnio trzykrotnie w ciągu sekundy decyduje o wyborze obiektu, skierowaniu na niego wzroku, koordynuje czasowo i określa parametry przestrzenne ruchu. Zbiór niepatologicznych ruchów oka oraz wartości opisujących ich parametrów (czas trwania, prędkość kątowa i szerokość kątowa) przedstawia tabela 1. Typ ruchu Czas trwania Szerokość kątowa Prędkość kątowa Sakkada 30-80 ms 4-20° 30-500 °/s Mikrosakkada 10-30 ms 10-40´ 15-50 °/s Ruch wodzący - - 10-30 °/s Tremor - < 1´ 20 ´/s Dryft 20-1000 ms 1-60´ 6-25 ´/s Fiksacja 200-300 ms fiksacja jest uznawana za brak ruchu oka, tj. stan skupienia wzroku na danym elemencie, ale de facto w jej czasie zachodzą ruchy wewnątrzfiksacyjne (tremor, mikrosakkady i dryft) Tabela 1. Wartości parametrów typowych ruchów gałek ocznych. 10 Narzędziem pozwalającym na rejestrację i analizę ruchów gałek ocznych jest okolugraf (eye-tracker). Metoda okulograficzna jest to paradygmat badań empirycznych polegający na: (1) testowaniu hipotez badawczych sformułowanych w oparciu o wybrane teorie, (2) poprzez rejestrowanie wskaźników behawioralnych w postaci ruchu gałek ocznych, (3) za pomocą okulografu, (4) które to wskaźniki behawioralne są poddawane analizie jakościowej i ilościowej (statystycznej), a następnie (5) interpretowane w sposób pozwalający na stwierdzenie, czy testowane hipotezy zostały obalone, czy też pozostają w mocy. W przeprowadzonym badaniu wykorzystano narzędzie oparte na technologii kamer rejestrujących w widmie światła podczerwonego, tzn. okulograf SensoMotoric Instruments (SMI) iViewX (wersja 2.5). RED250 zamontowany w podstawie 22-calowego monitora Dell E2210 o wymiarach 47.5 x 30 cm. Pomiaru ruchu gałek ocznych dokonano z częstotliwością 120 Hz z wykorzystaniem programu iViewX 2.0. Analizę jakościową uzyskanych wyników przeprowadzono w programie BeGaze, a analizę statystyczną w programie StatSoft Statistica 10. IV.3. Materiał bodźcowy i procedura badawcza W badaniu proszono osoby badane o przeczytanie dwóch tekstów stanowiących fragmenty artykułu prasowego, czyli teksty nieprawne, sformułowane w powszechnie używanym języku polski, oraz trzy teksty prawne, stanowiące kolejno fragmenty ustawy z dnia 23 kwietnia 1964 r. Kodeks cywilny (Dz. U. Nr 16 poz. 93 ze zm.; dalej w skrócie: K.c.), ustawy z dnia 6 czerwca 1997 r. Kodeks karny (Dz. U. Nr 88, poz. 553 ze zm.; dalej: K.k.), ustawy z dnia 30 sierpnia 2002 r. Prawo o postępowaniu przed sądami administracyjnymi (Dz. U. z 2012 r., poz. 270 ze zm.; dalej w skrócie: P.p.s.a.). Jeden tekst nieprawniczy oraz dwa teksty prawne poddano przekształceniom, będącymi zmiennymi badania, dla których inspiracją było nieokulograficzne badanie I. Kurcz i A. Polkowskiej. Manipulacje badawcze, ‘uszkadzające’ zaprezentowany osobom badanym materiał lingwistyczny, polegały na zmianie: 1. fizycznej – zniekształceniu litery składowej wyrazu użytego w tekście; 2. ortograficznej – wprowadzeniu błędu ortograficznego w pojedynczym wyrazie; 3. leksykalnej (semantycznej w obrębie jednego wyrazu) – zastąpieniu wyrazu użytego w tekście innym wyrazem skonstruowanym zgodnie z gramatyką języka polskiego, ale nie posiadającym żadnego znaczenia (wyrazem bezsensownym); 4. wewnątrzsyntaktycznej – modyfikacji końcówki fleksyjnej wybranego wyrazu (np. zmiana przypadku, tak aby był on niezgodny z kontekstem zdania); 11 5. zewnątrzsyntaktycznej – modyfikacji wybranego wyrazu, tak aby nastąpiła zmiana części mowy (np. zastąpienie imiesłowu bezokolicznikiem); 6. semantycznej w obrębie zdania – zastąpienie wybranego wyrazu innym, istniejącym w słowniku języka polskiego (mającym znaczenie – wyrazem sensownym), ale niepasującym do kontekstu zdania; 7. tekstualnej – wprowadzeniu niespójności informacyjnej pomiędzy albo dwoma kolejnymi zdaniami lub częściami zdania złożonego albo pomiędzy czytanym tekstem a wiedzą potoczną dotyczącą danego zagadnienia; zmiana polegała na modyfikacji pojedynczego wyrazu w wybranym zdaniu. Badanie zostało podzielone na dwie części: w pierwszej osoby badane czytały teksty zwykle (nieprawnicze), natomiast w drugiej teksty prawnicze. Procedura badawcza wyglądało następująco: (1) po usadowieniu osoby badanej przed okulografem odczytywano instrukcję ogólną i instrukcję pierwszej części badania; (2) przeprowadzono pierwszą kalibrację, czyli sprawdzenie, czy wartości mierzonych wskaźników dla konkretnej osoby badanej odpowiadają minimalnym wymogom precyzji pomiaru; (3) prezentowano na ekranie czarny okrąg w górnym lewym rogu, który skupiał wzrok osoby badanej, tak aby po wyświetleniu tekstu każdy badany zaczynał czytanie mniej więcej od tego samego punktu (obszaru), ten bodziec wzrokowy pojawiał się przed każdym prezentowanym tekstem; (4) prezentowano tekst zwykły niezmanipulowany (TZbM), (5) przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem kolejnych pytań otwartych, na które osoba badana odpowiadała używając klawiatury komputerowej, (6) prezentowano tekst zwykły zmanipulowany (TZM), (7) przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem kolejnych pytań otwartych, skorelowanych z miejscami krytycznymi w TZM, (8) odczytywano instrukcję do drugiej części badania, która wprowadzała osobę badaną w wyimaginowaną sytuację praktycznego kazusu prawnego; (9) przeprowadzono ponowną kalibrację; (10) prezentowano tekst prawny nr 1 zmanipulowany – fragment K.c. (TP1M), (11) przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem kolejnych pytań otwartych, skorelowanych z miejscami krytycznymi w TP1M, 12 (12) prezentowano tekst prawny nr 2 zmanipulowany – fragment K.k. (TP2M), (13) przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem kolejnych pytań otwartych, skorelowanych z miejscami krytycznymi w TP3M, (14) prezentowano tekst prawny nr 3 niezmanipulowany – fragment P.p.s.a. (TP3bM), (15) przeprowadzono test zrozumienia przeczytanego tekstu, tzn. wyświetlono siedem kolejnych pytań otwartych dotyczących TP3bM. Osoby badane mogły tylko raz przeczytać dany tekst, tzn. nie mogły do niego powrócić na kolejnych etapach badania. Jednocześnie osoby badane zostały poinstruowane, że zadanie należy wykonać jak najszybciej, bowiem odmierzany jest czas. Poproszono badanych, aby po jak najszybszym przeczytaniu każdego tekstu przeszły do związanych z nim pytań. IV.4. Hipotezy badawcze i ich operacjonalizacja W badaniu testowano następujące hipotezy badawcze: Hipoteza I: całokształt procesów kognitywnych prowadzących do zrozumienia tekstu prawnego nie różni się od całokształtu procesów kognitywnych prowadzących do zrozumienia teksty zwykłego (nieprawniczego). Ani właściwości językowe tekstów prawnych, ani oddziaływania tzw. „sztucznego rozumu prawniczego” (artificial reason and jugment of the law), który miałby być rezultatem kształcenia prawniczego, nie wytwarzają procesów kognitywnych swoistych dla poznawania tekstów prawnych w czasie interpretacji prima facie. Hipoteza II: całokształt procesów kognitywnych prowadzących do powstania reprezentacji umysłowej czytanego tekstu ma charakter sekwencyjny (seryjny). Po rozpoznaniu bodźców wzrokowych przez składnik percepcyjny, dochodzi do aktywowania składnika dostępu leksykalnego, który następnie przekazuje informacje do składnika integracji zdaniowej, który z kolei przekazuje informacje do składnika rozumienia dyskursu, wytwarzającego reprezentację umysłową czytanych fragmentów tekstu, a ostatecznie całego tekstu. Hipoteza III: istnieje dwukierunkowa dostępność pomiędzy informacjami zawartymi w module językowym („wiedza o języku”) i składnikiem rozumienia dyskursu („wiedza o świecie”). W czasie czytania tekstu zachodzi przepływ informacji „z dołu do góry” i „z góry do dołu”, ale przepływ ten jest seryjny a nie paralelny, tzn. dopiero po otrzymaniu sekwencyjnie przekazywanych przez wcześniejsze składniki modelu informacji dany składnik może ingerować 13 i przekazać „z góry do dołu” swoiste dla siebie zasoby wiedzy do składnika ulokowanego wcześniej w sekwencji. Przykładowo, w przypadku zaburzenia identyfikacji leksykalnej składnika rozumienia dyskursu, posiłkując się „wiedzą o świecie” podmiotu czytającego, może skierować informację - „z góry do dołu” – do składnika dostępu leksykalnego, który w efekcie otrzymanej informacji zrealizuje pozytywnie zadanie przypisania do danego wyrazu (struktury fonologicznej) pojęcia o określonym znaczeniu. Powyższe hipotezy badawcze zostały poddane weryfikacji resp. falsyfikacji w przeprowadzonym badaniu okulograficznym, co wymagało uprzedniego ich zoperacjonalizowania (powiązania logicznego ze wskaźnikami mierzalnymi za pomocą dobranej do badania aparatury). Zależności logiczne, oparte na wnioskowaniu dedukcyjnym, zostały określone w następujący sposób: Ad. hipoteza I: jeżeli procesy zachodzące w czasie czytania tekstu zwykłego bez manipulacji (TZbM) i tekstu prawnego bez manipulacji (TP3bM) oraz zmanipulowanego tekstu zwykłego (TZM) i zmanipulowanych tekstów prawnych (TP1M i TP2M) są analogiczne, to: (a) średnie czasy czytania tekstów nie będą się od siebie różniły, bowiem gdyby w przypadku tekstów prawnych zachodziły dodatkowe procesu kognitywne powinny one wpłynąć na wydłużenie średniego czasu czytania tych tekstów; (b) sposób wzrokowego percypowania poszczególnych tekstów będzie analogiczny, co będzie możliwe do stwierdzenia w drodze analizy jakościowej tzw. ścieżki skanowania wzrokowego – ang. scan path (miejsc fiksacji wzroku, wystąpienia związku miejsc fiksacji z poszczególnymi miejscami krytycznymi, kierunku i częstotliwości sakkad) oraz ilościowej, uwzględniającej takie wskaźniki jak: średnia liczba fiksacji, średnia liczba sakkad, średni czas fiksacji i średnia długość sakkad; (c) wprowadzone do tekstu zwykłego i dwóch tekstów prawnych manipulacje powinny bez różnicy utrudniać zrozumienie każdego ze zmodyfikowanych tekstów i powinny wymagać analogicznego stopnia elastyczności poznawczej, zatem wyniki w testach zrozumienia zmanipulowanych tekstów powinny być na zbliżonych poziomach. Ad. hipoteza II: jeżeli procesy kognitywne prowadzące do zrozumienia czytanego tekstu realizowane są sekwencyjnie, to średni czas fiksacji na danym miejscu krytycznym powinien wydłużyć się odwrotnie proporcjonalnie do 14 głębokości zastosowanej manipulacji (zamiana fizyczna → zmiana tekstualna), bowiem wysiłek poznawczy związany z próbą przezwyciężenia wprowadzonej manipulacji, czyniącej z tekstu niespójny lub nonsensowny komunikat pisemny, jest związany z aktywnością na głębszym poziomie przetwarzania kognitywnego, do którego dostęp jest możliwy jedynie w drodze przejścia przez kolejne procesy w sekwencji, czyli kolejne składniki modelu. Ponieważ w doborze wskaźnika adekwatnie opisującego czas przetwarzania poznawczego danego miejsca krytycznego, tj. zmodyfikowanego wyrazu, należy uwzględnić efekt okołocentralnego poprzedzenia (the parafoveal preview effect), to do analizy wybrano nie czas fiksacji na danym wyrazie, ale tzw. czas spoglądania (ang. glance duration). Miara ta obejmuje: (a) czas sakkady przenoszącej wzrok na dane miejsce krytyczne, (b) sumę długości wszystkich fiksacji danej osoby badanej na miejscu krytycznym i (c) sumę czasów wszystkich sakkad zachodzących w obrębie miejsca krytycznego, z wyjątkiem sakkady wyprowadzającej wzrok z miejsca krytycznego. Ad. hipoteza III: w przypadku stopniowalnych manipulacji na materiale tekstowym (zamiana fizyczna → zmiana tekstualna) mentalna autokorekta tekstu, umożliwiająca jego percepcję jako spójnej i sensowej całości, będzie wymagała przepływu informacji z „góry do dołu”, tzn. konieczne będzie zastosowanie „wiedzy o języku” i/lub „wiedzy o świecie” podmiotu czytającego, którymi zarządzają kolejne składniki modelu; zatem: (a) jeżeli przepływ informacji „z góry do doły” jest w ogóle możliwy, to w teście zrozumienia tekstów prawnych przez prawników, dysponujących nabytą w czasie edukacji prawniczą wiedzą kontekstową dla każdego z prezentowanych w badaniu tekstów prawnych, stopień zrozumienia nie będzie mniejszy, a nawet powinien być wyższy niż w przypadku tekstów zwykłych; (b) stopień zrozumienia zmanipulowanych tekstów prawnych nie będzie mniejszy, a nawet powinien być wyższy niż stopień zrozumienia zmanipulowanego tekstu zwykłego, bowiem wiedza prawnicza – dostępna w czasie czytania w ramach przepływu informacji „z góry do dołu” – pozwoli na automatyczne skorygowanie wprowadzonych manipulacji i prawidłowe odczytanie miejsc krytycznych; (c) jeżeli przepływ informacji „z góry do dołu” jest możliwy i przebiega w czasie zachodzenia kolejnych procesów prowadzących do zrozumienia tekstu, czyli nie 15 jest tak, że dopiero składnik rozumienia dyskursu na bazie „wiedzy o świecie” koryguje wcześniej biernie przetworzone poznawczo manipulacje, to zasadniczo czas spoglądania na miejsca krytyczne w tekstach prawnych będzie krótszy niż w tekście zwykłym, bowiem zasób poznawczy w postaci wiedzy prawniczej (wchodzącej w zbiór „wiedzy o świecie”) ułatwi niwelowanie kolejnych manipulacji w tekstach prawnych już na etapie ich pierwotnego przetwarzania. W innym przypadku krótszy czasu spoglądania będzie charakteryzował tylko zmiany tekstualne, bowiem składnik rozumienia dyskursu będzie miał ułatwione zadanie (dodatkowy zasób poznawczy) przy dokonywaniu jedynej i finalnej autokorekty tylko w przypadku poznawania tekstów prawnych; (d) jeżeli przepływ informacji „z góry do dołu” jest możliwy i przebiega seryjnie, tzn. po zakończeniu sekwencyjnie realizowanych procesów w składniku percepcji, składniku dostępu leksykalnego i składniku integracji zdaniowej, to ‘konwalidacja’ bardziej podstawowych manipulacji znacznie wydłuży czas fiksacji, a więc w konsekwencji czas spoglądania na wcześniejsze miejsca krytyczne. IV.5. Osoby badane Testując powyższe hipotezy badawcze przebadano 32 prawników, z czego wyniki dwóch osób wyłączona z analizy ze względu na niewystarczającą kalibrację, a wyniki jednej osoby wyłączono z względu na nieukończenie wszystkich zadań badania. W konsekwencji uzyskano wyniki 29 prawników, które przeanalizowano, w celu sfalsyfikowania resp. zweryfikowania sformułowanych hipotez badawczych. W badaniu uczestniczyło 13 kobiet i 16 mężczyzn w wieku od 25 do 54. Średnia wieku wyniosła 29 lat. Wszyscy badani ukończyli studia prawnicze. Ogółem osoby, które uzyskały prawo wykonywania zawodu prawniczego lub odbywały aplikację stanowiły ponad 60% grupy badanej (18 osób). Doświadczenie zawodowe osób badanych, mierzone w latach praktyki zawodowej, wahało się od braku takowego (0) do 22 lata i wyniosło średnio 4 lata i 4 miesiące. IV.6. Wyniki badania okulograficznego a status hipotez badawczych Uzyskane wyniki - (a) czasu czytania tekstów, (b) stopnia ich zrozumienia i zapamiętania, (c) średniej długości fiksacji w danym tekście, (d) średniej liczby fiksacji, (e) średniej długości sakkad, (f) średniej liczby sakkad oraz (g) czasu spoglądania na miejsca krytyczne (zmanipulowane fragmenty tekstów) - poddano analizie statystycznej (ilościowej) 16 tj. analizie wariancji (ANOVA) w schemacie wewnątrzgrupowym. Ponieważ w przypadku wskaźnika długości spoglądania na miejsca krytyczne uzyskane wyniki istotnie różniły się, przeprowadzono dodatkowo test post hoc efektów prostych dla interakcji, tj. test Bonferoniego. Przeprowadzoną analizę jakościową skanowania wzrokowego tekstów prezentowanych w badaniu zobrazowano przy pomocy tzw. map cieplnych (heat maps), której przykład zawiera rys. 1. W świetle uzyskanych wyników empirycznych i ich statystycznej (ilościowej) oraz jakościowej analizy, możliwe było ustalenie statusu poszczególnych hipotez badawczych: Hipoteza I - należy ją podtrzymać, bowiem oparła się próbie falsyfikacji. W świetle wyników uzyskanych należy przyjąć, że całokształt procesów kognitywnych prowadzących do zrozumienia tekstu prawnego nie różni się od całokształtu procesów kognitywnych prowadzących do zrozumienia tekstu zwykłego. Hipoteza II - należy ją odrzucić, bowiem została sfalsyfikowana. W świetle uzyskanych wyników należy przyjąć, że całokształt procesów kognitywnych prowadzących do powstania reprezentacji umysłowej czytanego tekstu ma charakter sekwencyjno-interakcyjny. Równolegle do rozpoznania bodźców wzrokowych przez składnik percepcyjny, zachodzi proces ich identyfikacji znaczeniowej, przeprowadzony przez składnik dostępu leksykalnego, który następnie przekazuje informacje do pracujących paralelnie składników integracji zdaniowej i rozumienia dyskursu. Hipoteza III - należy ją zmodyfikować, ponieważ została częściowo sfalsyfikowana. W świetle uzyskanych wyników należy przyjąć, że istnieje dwukierunkowa dostępność pomiędzy informacjami zawartymi w module językowym („wiedza o języku”) i składnikiem rozumienia dyskursu („wiedza o świecie”). W czasie czytania zachodzi przepływ informacji „z dołu do góry” i „z góry do dołu”, przy czym owe przepływy są: (1) paralelne w obrębie modułu językowego, tworzonego przez składnik percepcyjny i składnik dostępu leksykalnego, (2) paralelne w obrębie modułu sensu, tworzonego przez składnik integracji zdaniowej i składnik rozumienia dyskursu, (3) sekwencyjne pomiędzy wyżej wskazanymi modułami. 17 Rys. 1. Tzw. „mapa cieplna” TP1M (skala obrazuje średnią długość fiksacji) 18 Reasumując, poznanie tekstu, tzn. wytworzenie przez umysł podmiotu poznającego jego reprezentacji umysłowej, angażuje dwa typy wiedzy (w znacznej części proceduralnej, a więc konstytuującej pewne umiejętności), tj.: (1) „wiedzę o języku” i (2) „wiedzę o świecie”. Oba wyróżnione typy wiedzy są zaangażowane w procesy poznania tekstu w toku czynności czytania w ten sposób, że stanowią zasoby w oparciu, o które działają poszczególne składniki, czyli koncepcyjne elementy rekonstruowanego modelu. Uniwersalny model interpretacji prima facie czytanego tekstu składa się z dwóch modułów: (1) Moduł językowy stanowi interakcyjne połączenie składnika percepcyjnego i składnika dostępu leksykalnego. Pierwszy składnik operuje „wiedzą o języku” dotyczącą aspektu fonologicznego percypowanych znaków. Składnik percepcyjny identyfikuje poprzez wyodrębnienie cech graficznych liter (kształt) ich zintegrowaną całość, tj. wyraz, pod kątem jego struktury fonologicznej. Natomiast składnik dostępu leksykalnego identyfikuje wyraz poprzez pogłębienie analizy fonologicznej i połączenie jej z analizą ortograficzną. Ten sam składnik przeszukuje leksykon w celu przyporządkowania przetwarzanemu wyrazowi – który ujmowany jest jako zidentyfikowana struktura fonologiczna – pewną wiązkę znaczenia, stanowiącą treść pewnego pojęcia opisującego świat. (2) Moduł sensu stanowi interakcyjne połączenie składnika integracji zdaniowej i składnika rozumienia dyskursu. Pierwszy składnik analizuje strukturę syntaktyczną poszczególnych wyrazów powiązanych już z wiązkami znaczeń resp. pojęciami, następnie integruje je we frazę zdaniową jednocześnie dookreślając identyfikację semantyczną poszczególnych wyrazów. Tym samym znosi alternatywność zidentyfikowaną przez składnik dostępu leksykalnego, uwzględniając modyfikację znaczenia wymuszoną przez rozpoznane struktury syntaktyczne, modyfikując znaczenie danego wyrazu w oparciu o kontekst całego zdania. Końcowo syntetyzuje znaczenie całego zdania. Zasadniczo składnik integracji zdaniowej operuje „wiedzą o języku”, ale będąc częścią interakcyjnego modułu sensu, dysponuje także „wiedzą o świecie”, która jest istotnym zasobem w przypadku realizowania funkcji identyfikacji i integracji właściwości semantycznych. Posiłkując się wiedzą o faktycznych związkach występujących w świecie składnik integracji zdaniowej może harmonizować z sobą zbiór pojęć, do których odsyłają struktury fonologiczne wyrazów budujących dane zdanie, a które zidentyfikował składnik dostępu leksykalnego. Składnik rozumienia dyskursu, operując „wiedzą o świecie”, paralelnie do pracy składnika integracji zdaniowej, analizuje przetworzone już w wysokim stopniu przez moduł językowy informacje pod kątem zidentyfikowanych związków wewnętrznych tekstu, tzn. integruje kolejne zdania w spójną całość, oraz związków zewnętrznych, tzn. treściowych relacji zachodzących pomiędzy tekstem a jego kontekstem dyskursywnym. Kluczowym ustaleniem przeprowadzonego badania okulograficznego jest zidentyfikowanie momentu sekwencyjnego w modelu interpretacji prima facie czytanego tekstu. Jest nim przejście od modułu językowego do modułu sensu. Ten ostatni zawiera w sobie składnik integracji zdaniowej, który łączy w sobie funkcje analizy informacji formalnojęzykowych (składni) i treściowych (semantyka), a także składnik rozumienia dyskursu, który odpowiada za spójność wewnętrzną (intratekstualną) i zewnętrzną (intertekstualną, w relacji „tekst – obraz świat”) treści czytanego tekstu. „Wiedza językowa” dotycząca syntaksy i semantyki na poziomie międzywyrazowym oraz „wiedza o świcie” stanowią hybrydowy zasób poznawczy analizowanego składnika, a więc rekonstruowany model nie jest wewnętrznie ukształtowany przez zasadę rozdziału informacji formalno-językowych i informacji treściowych, jak wywodziły Ida Kurcz i Anna Polkowska. Przeprowadzone badanie okulograficzne pozwala na skonstruowanie modelu interpretacji prima facie, który przedstawia rys. 2. Rejestracja cech fizycznych liter (wejście sensoryczne) Moduł językowy Moduł sensu Składnik percepcyjny Składnik integracji zdaniowej Składnik dostępu leksykalnego Składnik rozumienia dyskursu Umysłowa reprezentacja tekstu = rozumienie Rys. 2. Empirycznie sprawdzony model interpretacji prima facie czytanego tekstu Legenda: strzałki zielone – interakcyjny przepływ informacji w obrębie modułu językowego i modułu sensu strzałka czerwona – sekwencyjny przepływ informacji z moduły językowego do modułu sensu strzałka czerwona przerywana – potencjalny przepływ informacji „z góry do dołu” pomiędzy modułami w przypadku wystąpienia problemu z identyfikacją leksykalną wyrazu 20 V. Przejście od modelu deskryptywnego interpretacji do modelu normatywnego wykładni Pierwsza część kognitywnej teorii wykładni prawa zawiera model deskryptywny interpretacji prima facie, podczas gdy część druga przedstawia model normatywny wykładni prawa, tj. zbiór dyrektyw, które wyznaczają czynności wykładnicze (świadome, intencjonalne działania) interpretatora prawa. Model interpretacji prawa prima facie, skonstruowany w oparciu o przeprowadzone badanie okulograficzne, a więc przy pomocy metod empirycznej i statystycznej, konkretyzuje idealistyczne teorie psycholingwistyczne, tzn. teorie oparte na założeniach idealistycznych, eliminujących pewne czynniki jako uboczne. Konkretyzacja polega w tym przypadku na określeniu relacji zachodzących pomiędzy składnikami aparatu poznawczego człowieka – tj. umysłu – które operują analitycznie zidentyfikowanymi typami wiedzy (1) „o języku” i (2) „o świecie”. Deskryptywny komponent kognitywnej teorii wykładni prawa jest więc m o d e l e m r e k o n s t r u k c yj n ym , tzn. stanowi układ twierdzeń idealizacyjnych wyjaśniających poprzez empiryczną i statystyczną konkretyzację rzeczywiste funkcjonowanie ludzkiego umysły w czasie operacji poznawania czytanego tekstu (prawnego). Komponent normatywny, którego przedmiotem jest wykładnia prawa, stanowi natomiast model o p t ym a l i z a c yj n y , tzn. układ twierdzeń idealizacyjnych przedstawiających, w jaki sposób powinna być przeprowadzona wykładnia prawa w sensie pragmatycznym, aby osiągnięty została określony cel aksjologiczno-normatywny. Model interpretacji prawa prima facie skonstruowany został w perspektywie deskryptywnej, przy czym zgodnie z przyjętą metodologią falsyfikacjonistyczną punktem wyjścia była (a) analiza zagadnienia procesów kognitywnych zachodzących w czasie czytania, która obejmowała dotychczas wypracowane koncepcje psycholingwistyczne z zakresu psychologii kognitywnej, a krokiem kolejnym było (b) badanie empiryczne, prowadzące do ukształtowania modelu deskryptywnego. Model wykładni prawa (czynności wykładniczych) ma charakter normatywny, zatem finalnie kognitywna teoria wykładni prawa ma charakter mieszany, acz rozłączny. Jest to teoria deskryptywno-normatywna - opisowa w przedmiocie interpretacji prawa i normatywna w przedmiocie wykładni prawa. Reasumując, w ramach kognitywnej teorii wykładni prawa dochodzi do dwóch przejść: (1) operacyjnego - od modelowania rekonstrukcyjnego (analityczno-empirycznego) do modelowania optymalizacyjnego, (2) przedmiotowego - od interpretacji prawa do jego wykładni. Powyższe momenty przejścia rodzą pytanie o spójność konstruowanej teorii. Model optymalizacyjny wykładni prawa wskazuje dyrektywy wykładnicze, które prowadzą do 21 realizacji celu aksjologiczno-normatywnego ugruntowanego w kulturze prawnej, a związanego z podejmowaniem decyzji stosowania prawa. Celem tym jest urzeczywistnienie funkcji normatywnej instytucji uzasadnienia decyzji stosowania prawa, które konstytuowane są przez dwie wartości: racjonalizacyjną i prakseologiczną. Podstawową dyrektywą, na której opiera się model normatywny wykładni prawa, jest nakaz maksymalizacji tych wartości (funkcji) instytucji uzasadnienia decyzji stosowania prawa. Stanowi ona jednocześnie źródło normatywności skonstruowanego modelu czynności wykładniczych oraz rację (ratio) dla doboru takich a nie innych dyrektyw wykładni zagregowanych w tenże model optymalizacyjny. Jednocześnie nakaz maksymalizacji, czyli możliwe największego urzeczywistniania, normatywnych funkcji instytucji uzasadnienia decyzji sądowej, czyni koniecznym uwzględnienie modelu opisowego interpretacji prima facie przy formułowaniu dyrektyw wykładni prawa stanowiących środki do realizacji tego nakazu. Instytucja uzasadnienia decyzji sądowej, obejmująca wartość racjonalności i prakseologicznej efektywności wykładni prawa w sensie apragmatycznym, stanowi zwornik obu modelów, a tym samym czynnik integrujący obie części kognitywnej teorii wykładni prawa. VI. Dyrektywa koherencji zewnętrznej uzasadnienia decyzji stosowania prawa Uzasadnienie instytucjonalne decyzji stosowania prawa, które odsłania „kontekst odkrycia” owej decyzji, pozwala na jej pogłębioną kontrolę, tym samym przyczynia się do urzeczywistnienia w większym stopniu wartości racjonalności i wartości prakseologicznej. Nie ogranicza się ona do oceny, czy dana decyzji sądowa jest przekonywująca przez pryzmat swojego uzasadnienia, ale obejmuje także pytanie, czy sposób rozumowania przeprowadzonego przez decydenta odpowiada w z o r c o m k u l t u r y p r a w n e j (takim jak: ugruntowane dyrektywy wykładni prawa, wartości prawne, wymogi procedury, standardy słuszności). Kultura prawna stanowi wspólnotowo generowaną i reprodukowaną wiedzę na temat obowiązujących norm prawnych tworzących system prawa, rozpoznawane sposoby rozumowań prawniczych, wykładni prawa i jego stosowania, postaw wobec prawa i oceny systemu prawa, a także sposoby rozumienia wartości odnoszonych do prawa lub w jego normach odnajdywanych (T. Stawecki). Analiza norm prawnych, regulujących obowiązek uzasadnienia decyzji stosowania prawa i odpowiadające mu „prawo do uzasadnienia”, a także dogmatycznych i teoretycznoprawnych konceptualizacji normatywnej instytucji uzasadnienia, pozwoliła na zidentyfikowanie dyrektywy nakazującej tak formułować uzasadnienie decyzji stosowania prawa, aby maksymalizowało ono jego koherencję zewnętrzną. W myśl formuły koherencji zewnętrznej uzasadnienie instytucjonalne U decyzji sądowej D jest spójne 22 zewnętrznie wtedy i tylko wtedy, gdy podane w nim argumenty maksymalizują relacje spójności zachodzące pomiędzy argumentami, o których wiadomo, że przynależą do „kontekstu uzasadnienia” decyzji sądowej D i racjami, które zaistniały w „kontekście odkrycia” decyzji sądowej D. Na pytanie, czy uzasadnienie instytucjonalne decyzji sądowej cechujące się zarówno koherencją wewnętrzną jak i zewnętrzną należy cenić bardziej niż uzasadnienie spójne wyłącznie wewnętrznie, wydaje się odpowiadać ugruntowana w kulturze prawnej normatywna instytucja uzasadnienia decyzji sądowej. Obejmuje ona nie tylko obowiązek decydenta (sędziego) uzasadnienia swojej decyzji, nałożony przez normy prawa pozytywnego (komplementarnie połączony z prawem strony do uzasadnienia), ale przede wszystkim obowiązek uzasadnienia decyzji w pewien konwencjonalnie przyjęty sposób. Uzasadnienie instytucjonalne powinno być skonstruowane strukturalnie i treściowo w taki sposób, aby realizować funkcje powiązane z normatywnymi celami, którym służy analizowana instytucja praxis prawniczej. O ile przypisanie uzasadnieniu instytucjonalnemu wyłącznie funkcji racjonalizacyjnej dopuszczałoby praktykę przedstawiania w nim jedynie argumentów wybranych post factum i okrycie „zasłoną milczenia” rzeczywistych motywów rozstrzygnięcia, to połączenie funkcji racjonalizacyjnej z funkcją opisową, wymaga od decydenta szczerości i transparentności co do racji, którymi się kierował dochodząc do takiego a nie innego rozstrzygnięcia. Spełnianie wymogów koherencji zewnętrznej nie powinno prowadzić w zakresie formy do przekształcenia uzasadnienia instytucjonalnego decyzji sądowej w rodzaj ‘sprawozdania’ z wewnętrznych rozważań sędziego (jego stanów mentalnych) lub ‘protokołu’ z narady sędziowskiej. Jednakże postulat maksymalnej integracji „kontekstu odkrycia” i „kontekstu uzasadnienia” decyzji sądowej, którego wskaźnikiem realizacji jest koherencja zewnętrzna, może w większym stopniu zabezpieczyć w pierwszej kolejności wartość prakseologiczną instytucji uzasadnienia, a pośrednio wartość racjonalności. W wysokim stopniu jednolicie odczytywana w prawniczych dyskursach teoretycznym i praktycznym normatywna instytucja uzasadnienia decyzji sądowej wydaje się być ugruntowana w swojej treści w kulturze prawnej. Uzasadnienie decyzji stosowania prawa powinno być uzasadnieniem heurystycznym, czyli ujawniającym w formie argumentów prawniczych rzeczywiste racje, którymi kierował się decydent. Pomimo możliwości konstruowania uzasadnienia argumentacyjnego następczego, które odrywa „kontekst odkrycia” decyzji sądowej (wykładniczej) od uzasadnienia instytucjonalnego i dopuszcza poszukiwanie argumentów wspierających decyzję finalną jedynie post factum, ugruntowanym 23 wzorcem normatywnym we współczesnej kulturze prawnej wydaje się być właśnie uzasadnienie heurystyczne. Łączy ono w sobie argumentacyjne formy aktów komunikacji prawniczej (dyskursywną translację racji na argumenty prawnicze) oraz wyeksplikowanie przeprowadzonych czynności poznawczych. VII. Model normatywny wykładni prawa: dyrektywy pierwszego i drugiego stopnia Normatywny model wykładni prawa powinien uwzględniać dyrektywę koherencji zewnętrznej uzasadnienia instytucjonalnego decyzji sądowej oraz funkcję racjonalizacyjną tej instytucji w taki sposób, aby katalizować refleksyjność decydenta. Polega ona na możności krytycznej oceny racji i hipotez interpretacyjnych, które wyłaniają się w przestrzeni mentalnej jako rezultaty procesów zautomatyzowanych i jawią się podmiotowi jako pewne „intuicje” lub „oczywistości”. Dyrektywy wykładni prawa powinny tak kształtować czynności wykładnicze, aby możliwe i bardziej prawdopodobne było przeprowadzenie przez interpretatora autoweryfikacji. Wzorce wykładni przeprowadzanie przez interpretatora t e s t ó w prawa powinny stymulować a d e k w a t n o ś c i danej w przestrzeni mentalnej racji lub hipotezy interpretacyjnej do wymogów kultury prawnej (dyskursu prawniczego). Tego typu „test sprawdzający” jest momentem, w którym zazębiają się faktycznie „kontekst uzasadnienia” i „kontekst odkrycia” w tym sensie, że wymogi racjonalność kształtujące poprawność czynności uzasadnienia mogą służyć ex ante jako kryteria selekcji racji (motywacji). Interpretator może wybrać tylko taką hipotezę interpretacyjną i przekształcić ją w decyzję wykładniczą, którą wspierają racje racjonalne (zobiektywizowane), tzn. takie, które odpowiadają wzorcom kultury prawnej. W kognitywnej teorii wykładni prawa proponowany jest model normatywny czynności wykładniczych, który uwzględnia normatywną instytucję uzasadnienia decyzji sądowej (wykładniczej) poprzez zintegrowanie postulatu koherencji zewnętrznej uzasadnienia instytucjonalnego z wiedzą empiryczną zawartą w modelu interpretacji prima facie. Ustalona w drodze badania okulograficznego charakterystyka procesów kognitywnych zachodzących w czasie czytania tekstu prawnego ujawnia szeroką aktywność poznawczą umysłu interpretatora, który już na poziomie czytania tekstu angażuje obok wiedzy językową rozległe i zróżnicowane zasoby „wiedzy o świecie”, którą operuje moduł sensu. Czynność czytania tekstu prawnego złożona jest z licznych procesów zautomatyzowanych, w których poza zakresem refleksyjności podmiotu poznającego ważone są przeróżne racje konstytuujące rozumienie (interpretację prima facie) tekstu prawnego. Wyłaniające się z tego konglomeratu procesów nieświadomych (lub nie w pełni świadomych) reprezentacje umysłowe, tj. normy 24 prawne, powinny zostać poddane testom adekwatności. Stąd model normatywny wykładni prawa powinien służyć maksymalizacji aktów autoweryfikacji interpretatora. Zaprezentowane w skonstruowanym modelu normatywnym dyrektywy wykładni prawa pełnią przede wszystkim f u n k c j ę h e u r ys t yc z n ą (wtórnie mogą pełnić także funkcję argumentacyjną, na co zwrócił już uwagę J. Wróblewski). Służą do świadomej i kontrolowanej identyfikacji oraz selekcji racji interpretacyjnych. Z jednej strony pozwalają poddać autoweryfikacji (testowi adekwatności) hipotezy interpretacyjne, które jako intuicje („oczywistości”) wyłoniły się z przebiegu zautomatyzowanych procesów interpretacji prima facie. Pozwala to na wyselekcjonowanie tych racji interpretacyjnych, które odpowiadają wzorcom kultury prawnej. Z drugiej strony wskazują na przesłanki wykładnicze, które mogły być pominięte w przebiegu procesów zautomatyzowanych, a które powinny być uwzględnione ze względu na wzorce kultury prawnej. VII.1. Dyrektywy pierwszego stopnia: W ramach modelu normatywnego wykładni prawa czynności poznawcze, których celem jest świadome zrozumienie treść normy prawnej - tj. ustalenie wyrażeń będących jej składowymi i określenie ich znaczenia - są determinowane przez dyrektywy pierwszego stopnia. Uwzględniając odcinki h o r yz o n t u i n t e r p r e t a c yj n e g o , do którego odwołują się poszczególne dyrektywy pierwszego stopnia, możliwe było ich uporządkowanie w cztery moduły: (1) językowy (7 dyrektyw), (2) tekstowy (6 dyrektyw), (3) systemowy (7 dyrektyw), (4) funkcjonalno-aksjologiczny (8 dyrektyw). Dyrektywy wykładni językowej determinują czynności poznawcze weryfikujące i testujące rezultaty automatycznych procesów kognitywnych zachodzących w obrębie składnika dostępu leksykalnego i składnika integracji zdaniowej. Pozwalają na (auto)refleksyjną i krytyczną ocenę przypisania znaczeń do wyrażeń budujących danych przepis prawny i złożenia owych znaczeń w znaczenie całościowe percypowanej jednostki redakcyjnej, tj. przepisu prawnego. Dyrektywy wykładni tekstowej determinują czynności poznawcze ukierunkowane na szerszy horyzont interpretacyjny danego wyrażenia prawnego lub przepisu prawnego - kontekst konstytuowany przez całość komunikacyjną, do której przynależy wykładany przepis prawny. Zidentyfikowane dyrektywy indukują czynności poznawcze weryfikujące i testujące rezultaty automatycznych procesów kognitywnych zachodzących w obrębie składnika rozumienia dyskursu w zakresie jego funkcji wewnątrztekstowej, tzn. integrowania znaczeniowego zdań (przepisów prawnych) w większe części, aż po cały tekst. Składnik rozumienia dyskursu operuje „wiedzą o świecie”, która w zakresie kontekstu tekstowego wyrażenia prawnego (przepisu prawnego), obejmuje 25 reprezentacje umysłowe innych przepisów prawnych budujących dany tekst prawny (mogą to być reprezentacje świeżo ukonstytuowane w drodze percepcji innych fragmentów percypowanego i poznawanego tekstu lub zmagazynowane w pamięci długotrwałej jako rezultaty oddalonej w czasie lektury). Dyrektywy wykładni systemowej odnoszą się do kontekstu pozatekstowego danego wyrażenia prawnego lub przepisu prawnego. Składnik rozumienia dyskursu operuje „wiedzą o świecie” obejmującą także informacje tworzące kontekst zewnętrzny wobec czytanego tekstu (prawnego). W przypadku interpretacji wyrażeń prawnych lub przepisów prawnych kontekst ten obejmuje informacje o s ys t e m i e p r a w n ym , do którego przynależą normy prawne zakodowane w poznawanym tekście prawnym. Natomiast dyrektywy wykładni funkcjonalno-aksjologicznej odnoszą się do peryferyjnych obszarów horyzontu interpretacyjnego wyrażenia prawnego (przepisu prawnego), bowiem indukują czynności poznawcze pokrywające się przedmiotowo z zakresem tych procesów kognitywnych składnika rozumienia dyskursu, które operują „wiedzą o świecie” obejmującą ratio legis, konsekwencje praktyczne przyjęcia takiego a nie innego rozumienia przepisu prawnego oraz wartości prawne. Wykładnia funkcjonalno-aksjologiczna służy zweryfikowaniu rezultatów interpretacji prima facie pod kątem wzorców normatywnych zidentyfikowanych i ugruntowanych w danym p o r z ą d k u p r a w n y m . VII.2. Dyrektywy drugiego stopnia: Zwieńczeniem modelu normatywnego kognitywnej teorii wykładni prawa są metadyrektywy, odnoszące się do: (1) początku procesu wykładni i (2) możliwości wystąpienia rozbieżnych wyników wykładniczych, powstałych w drodze wykonania czynności poznawczych kształtowanych przez poszczególne dyrektywy pierwszego stopnia. Problem inicjacji czynności wykładniczych rozstrzyga dyrektywa omnia sunt interpretanda (KTWP odrzuca zasadniczo dyrektywę antyinicjującą clara non sunt interpretanda). Kwestię harmonizacji sprzecznych rezultatów zastosowania dyrektyw pierwszego stopnia rozstrzygają dyrektywy wykładni holistycznej (KTWP odrzuca dyrektywę antykontynuacyjną interpretacio cessat in claris) oraz równoważności kontekstów interpretacyjnych (KTWP odrzuca hierarchiczność kontekstów interpretacyjnych, a w szczególności preferencyjne dyrektywy pierwszeństwa wykładni językowej oraz subsydiarności wykładni systemowej i funkcjonalnej). Wskazanie w modelu normatywnym powyższych dyrektyw drugiego stopnia, jako instrumentów służących realizacji dyrektywy koherencji zewnętrznej, projektuje proces wykładni prawa jako „dyskurs wirtualny”, w którym interpretator jest otwarty na prowadzenie 26 wewnętrznej deliberacji nad racjami interpretacyjnymi. Sama wewnętrzna deliberacja jest indukowana przez dyrektywę omnia sunt interpretanda. Kognitywna teoria wykładni prawa za sprawą metadyrektyw wykładni holistycznej i równoważności kontekstów wykładniczych odrzuca sekwencjonizm, wyrażający zawsze pewną przyjętą hierarchię dyrektyw pierwszego stopnia (zasadniczo prymat wykładni językowej), a tym samym konstruuje koneksjonistyczny model czynności wykładniczych – por. rys. 3. Hipoteza interpretacyjna H1 DS3 DT3 DT1 DF1 DJ3 DJ1 Rys. 3. Fragment sieci koneksjonistycznej dyrektyw wykładni pierwszego stopnia - ukonstytuowanej przez metadyrektywy wykładni holistycznej i równoważności kontekstów wykładniczych - dla hipotezy interpretacyjnej H1 Legenda: kolor czerwony – (+1) sygnał wzmacniający H1 kolor niebieski – (-1) sygnał osłabiający H1 W powyższym modelu każda dyrektywa pierwszego stopnia jest równoważna względem pozostałych, a dana hipoteza interpretacyjna może zostać zaaprobowana jako treść decyzji wykładniczej za sprawą synergicznego aktywowania w sieci dyrektyw pierwszego stopnia największej liczby elementów. Wszystkie moduły kontekstowe, a zatem wszystkie dyrektywy pierwszego stopnia, konstytuują sieć, obrazującą ich pełny zbiór. Hipoteza interpretacyjna H1 poddawana jest finalnej ocenie poprzez ustalenie, ile dyrektyw pierwszego stopnia przemawia za jej zaaprobowaniem (sygnał wzmacniający +1), ile za jej odrzuceniem (sygnał hamujący -1), a ile nie pozwala nic orzec o danej hipotezie (brak sygnału) 27 Ponieważ dyrektywy wykładni prawa, determinując czynności wykładni, wskazują pewne racje interpretacyjne (a pośrednio także argumenty wykładnicze), to służą do odrzucania tych racji, które są nieakceptowalne ze względu na normatywne wzorce kultury prawnej. Dyrektywy pozwalają świadomie posłużyć się racjami prawidłowymi, które mogą być przełożone w „kontekście uzasadnienia” na argumenty prawne. W ten sposób „ważenie” danej hipotezy interpretacyjnej jest jednocześnie jej testem argumentacyjnym. Przeprowadzenie takiej operacji dla każdej hipotezy interpretacyjnej pozwala na ich zestawienie i wskazanie tej, która jest możliwa do najlepszego uzasadnienia, a więc w maksymalnym stopniu realizuje wymogi racjonalności. Taka hipoteza interpretacyjna, dotycząca poszczególnych wyrażeń prawnych lub nawet całego przepisu prawnego, zasługuje na przyjęcie w drodze podjęcia decyzji wykładniczej wyrażającej ją w swej treści. Symboliczne wyrażenie kognitywnego modelu wykładni prawa przy pomocy sieci koneksjonistycznej pokrywa się z naturą procesów kognitywnych zachodzących w czasie interpretacji prima facie, a zatem akcentuje potrzebę refleksyjnego odtworzenia drogi, którą nieświadomie i w sposób niekontrolowany interpretator przebył w czasie poznawania tekstu prawnego. Taki model normatywny, ukształtowany przez metadyrektywę równoważności kontekstów wykładniczych, jest daleki od a n a r c h i z m u w yk ł a d n i c z e g o , rozumianego jako akceptowanie decyzji wykładniczej, mającej umocowanie w dowolnej dyrektywie wykładni lub dowolnej ich konfiguracji. Wedle skonstruowanej teorii wykładni prawa na aprobatę zasługuje jedynie decyzja wykładnicza, która jest najlepiej uzasadniona, a więc taka, za którą przemawia jak najwięcej racji interpretacyjnych (argumentów wykładniczych) - czyli taka, którą wspiera jak największa liczba dyrektyw pierwszego stopnia. Nie ma więc przyzwolenia na wykładnicze „antything goes” i tolerowanie „anomii” w zakresie wykładni prawa (jest to najczęstszy zarzut formułowany przez apologetów dyrektywy clara non sunt interpretanda). Wręcz przeciwnie, w zakresie dyrektyw drugiego stopnia model kognitywny minimalizuje dowolność i ‘ideologiczność’, z którymi nie radzą sobie klasyczne modele wykładni, bowiem albo konstatują, że wybór metadyrektyw zależy od wyboru „ideologii stosowania prawa” (model klaryfikacyjny) albo operują niespójnymi z innymi elementami własnej teorii kryteriami „jednoznaczności językowej” (językowej claritas) lub „istotnymi różnicami” (model derywacyjny). Metadyrektywa równoważności kontekstów wykładniczych nie poszerza zakresu dyskrecjonalności wykładniczej decydenta prawnego, ale precyzyjnie rzucając światło na całe spectrum czynników kognitywnych kształtujących rozumienie wyrażeń prawnych, postuluje rzetelną ‘inwentaryzację’ i transparentność racji interpretacyjnych w procesie wykładni prawa. 28