Pobierz numer - Optimum - Uniwersytet w Białymstoku

Transkrypt

Pobierz numer - Optimum - Uniwersytet w Białymstoku
Czasopismo poświęcone potrzebom nauki i praktyki
2011 Nr 1 (49)
OPTIMUM STUDIA EKONOMICZNE
SPIS TREŚCI
STUDIA I ROZPRAWY.............................................................................................. 3
István Takács, Pál Csapodi, Katalin Takács-György – Corruption
as a deviant attitude of inter-sector cooperation ...........................................................
3
Andrzej F. Bocian – Makroekonomia wzrostu – uwarunkowania globalne .......... 18
Anna Chmielak – Wyzwania wobec państwa jako podmiotu stosunków
międzynarodowych .................................................................................................................. 41
Adam Oleksiuk – Innowacje jako czynnik rozwoju gospodarki światowej
w świetle strategii innowacyjności OECD .......................................................................... 52
Anna Wierciszewska, Mirosława Lasek – Dynamika systemów jako narzędzie
modelowania procesów rozwoju gospodarczego.............................................................. 63
Ewa Roszkowska – Procedury podejmowania decyzji społecznych
a optimum społeczne ............................................................................................................... 80
Dorota Mierzyńska – Pomiar dobrobytu w świetle hierarchicznej
teorii potrzeb w Polsce ............................................................................................................. 103
MISCELLANEA ....................................................................................................... 115
Jacek Marcinkiewicz – Analiza porównawcza poziomu rozwoju
europejskich giełd ..................................................................................................................... 115
Elżbieta Szymańska – Korzyści i koszty współpracy międzysektorowej
dla przedsiębiorstw .................................................................................................................. 128
Katarzyna Lewkowicz-Grzegorczyk – Realizacja zasady sprawiedliwości
na przykładzie podatku dochodowego od osób fizycznych ................................................ 148
Mariusz Chudak – Czynniki lokalizacji aptek ................................................................. 171
Paweł Jamróz – Weryfikacja słabej formy efektywności GPW
za pomocą testu autokorelacji oraz testu serii ........................................................................ 183
Bogna Gawrońska-Nowak – Reżim kursowy a presja kryzysowa
w wybranych gospodarkach nowych krajów członkowskich Unii Europejskiej ............ 203
Łukasz Siemieniuk – System SYMFONIA jako przykład zintegrowanego
systemu informatycznego w rachunkowości ............................................................................ 218
Ewa Tokajuk – Możliwości inwestycyjne gospodarstw domowych na polskim
rynku finansowym .......................................................................................................................... 228
INFORMACJE .......................................................................................................... 239
Katarzyna Poskrobko – Projekt „Badania i rozwój w gospodarce
opartej na wiedzy” ................................................................................................................... 239
STUDIA I ROZPRAWY
István TAKÁCS1, Pál CSAPODI2, Katalin TAKÁCS-GYÖRGY1
CORRUPTION AS A DEVIANT ATTITUDE
OF INTER-SECTOR COOPERATION
Summary
Corruption is a specific field of cooperation between social sectors. It is a deviant behavior which
hampers and deteriorates the efficiency of normal cooperation. Corruption can be led back to a lot of
reasons: the nature of economic and social regime as well as cultural aspects. The aim of corruption is
to obtain advantages. Private advantages, however, are usually paired with significant social disadvantages, they decrease the efficiency of utilizing public sources, thus reducing the amount of public goods
which could be obtained from them. The corrupt behavior often becomes a social norm, thus operating as a social trap because the citizen basically wants to follow the norms, but the norm itself is the
corruption. The paper analyzes corruption as deviant social attitude within the framework of cooperation among institutions. Examining the countries of the Central Eastern European region, it can be
stated that they are moderately infected with corruption which requires national strategy against corruption and the establishment of institutional conditions for the implementation of the strategy. The
paper emphasizes that corruption should be addressed not only within national framework, it is also
necessary to build up close cooperation among countries belonging to the same economic and social
system.
Keywords: corrupion, public sector, inter-sector cooperation
KORUPCJA JAKO DEWIACYJNE PODEJŚCIE
DO MIĘDZYSEKTOROWEJ WSPÓŁPRACY
Streszczenie
Korupcja jest specyficzną dziedziną współpracy pomiędzy sektorami. Jest to dewiacyjne zachowanie się, które hamuje i pogarsza efektywność normalnej współpracy. Korupcja może mieć szereg przyczyn: natura rządów ekonomicznych i społecznych, jak również aspekty kulturowe. Celem korupcji jest
osiągnięcie korzyści. Jednak korzyści osobiste idą zazwyczaj w parze ze znacznymi stratami społecznymi, zmniejszeniem efektywności wykorzystania zasobów publicznych, a co za tym idzie – redukcją dóbr
publicznych, które mogą być z tych zasobów uzyskane. Korupcyjne działania stają się często normą
społeczną działającą jak pułapka, ponieważ obywatel zasadniczo chce postępować według norm, ale
norma już sama w sobie jest korupcją. Autorzy analizują problem korupcji jako dewiacyją postawę społeczną w ramach współpracy między instytucjami. Analizując kraje regionu Środkowo-Wschodniej Europy mozna stwierdzić, że są one w sposób umiarkowany skażone korupcją, co wymaga odpowiedniej
strategii narodowej wymierzonej przeciwko korupcji i stworzenia instytucjonalnych uwarunkowań dla
realizacji takiej strategii. W artykule podkreśla się, że korupcją należy zajmować się nie tylko w aspekcie
narodowym. Należy również budować ścisłą współpracę między krajami należącymi do tego samego
systemu społeczno-ekonomicznego.
Słowa kluczowe: korupcja, sektor publiczny, współpraca międzysektorowa
1
2
Dr hab. István Takács – Szent István University, Gödöllő, Hungary.
Dr Pál Csapodi – State Audit Office, Budapest, Hungary.
4
István Takács, Pál Csapodi, Katalin Takács-György
“Audire necesse est,
corrumpare non est necesse” [Csapodi 2010]
1. Introduction
The inter-sector cooperation (public administration – economy – non-profit sector) is the vital condition of sustainable social development. Those social models,
which do not intend to form and sustain balanced relationships, will be sooner or
later torn apart by inner tensions.
The operation of socio-economic interrelations is realized through interest mechanisms, the key element of which is the man who basically follows own interests
and it affects the quality of cooperation, too.
The present article examines that specific feature of inter-sector cooperation
which hit all the countries of the Central Eastern European region: corruption.
According to several international comparative analyses, the countries of the region
are similarly infected, which enables them to understand the problem and – following the exploration of reasons – utilize each other’s experiences connected with the
treatment of the issues.
In a sense, corruption is as old as human civilization. Corruption can be found
all over the world, in all the political and economic regimes, to different degrees.
[Blackburn et al., 2006] Its social precondition is the hierarchic relations in the
disposal of goods, the division of labor within the society, the limited available
resources and the privileges of some social groups in obtaining and distributing the
related gains.
The word comes from the Latin ’corruptio’ which means moral decay (wicked
behavior, putridity, rottenness). [Osipian, 2009] The nuances of the expression indicate that corruption has a more wider meaning than simply offering bribe to obtain
some advantages, it also includes e.g. patronage or influence.
One of the possible definitions of corruption, that is’behaviour that deviates
from formal duties because of private gain’ suggests that the corrupt acts are deviations from implicit and explicit norms of behavior (in legal and ethical sense).
In many societies, the expansion of corruption in so wide ranges indicates that the
corrupt behavior is the norm itself, in spite of the fact that it is generally condemned
and not efficient. [Mishra, 2005]
The first articles about the reasons and consequences of corruption were published in the 1960s. [Clarke – Xu, 2004] During the last few decades the number of
publications about corruption has considerably soared. [Reinikka – Svensson, 2005]
A large group of publications consists of country cross analyses and analyses of corruption perception indices, as well as studies about corruption, as function of state
policies and institutional environment.
Corruption is a complex social phenomenon which has – besides political and
economic factors – deep rooted cultural reasons, and the social traditions significantly determine its existence and degree. This aspect should be especially underlined because if corruption is treated as deviance of economic relations only, it is not
possible to reduce the degree of corruption to a socially acceptable level, which
Corruption as a deviant attitude of inter-sector cooperation
5
would not harm the efficient operation of society. Those fighting against corruption
should understand the nature of corruption if they want to fight efficiently. [Blackburn – Forgues-Puccio, 2009]
The permanence of corruption can be explained by the fact that it soaks everything and becomes a social norm. The corrupt behaviour of individuals is able to
survive and operate successfully in the long term through an evolution process
(adaptation). Thus, the actions against corruption require a strategic approach, ad
hoc measures cannot bring any real achievements. [Mishra, 2005] One of the main
conditions of acts against corruption is the recognition of corruption itself. The political structure, as the precondition of corruption and the corruption itself cannot
be measured directly. The problem of measuring is in the measuring methods. Corruption is a hidden phenonemon and its degree can be estimated primarily in an indirect way.
The widespread methods (Corruption Perception Index of Transparency International, Control of Corruption as part of World Bank Institute’s Governance Indicators)
are based on experts’ estimations, which also include the possibility of artificial ‘inertia’, which means that if a country is once qualified corrupt, the survey respondents
will qualify it corrupt later on and it will lead to the overestimation of corruption.
[Dreher et al. 2007] CPI ranks more than 150 countries according to the degree of
perceivable corruption, based on experts’ evaluation and public opinion polls.
The World Bank Institute has a Worldwide Governance Indicators (WGI)
project, which reports aggregate and individual governance indicators for 212 countries and territories over the period 1996–2008 for six dimensions of governance:
Voice and Accountability; Political Stability and Absence of Violence; Government
Effectiveness; Regulatory Quality; Rule of Law; Control of Corruption. [World
Bank Institute, 2010] The indicators are constructed with the help of unobserved
components methodology. The six governance indicators are measured in units
ranging from about -2.5 to 2.5, with higher values corresponding to better governance outcomes. [Kaufmann et al. 2008]
According to a research, the Corruption Perception Index and Governance Indicators can strongly correlate. [Seligson, 2005]
Other methods were also elaborated for measuring the corruption. These methods, as described below, estimate the degree of corruption not on the basis of
subjective perception, but by following the economic processes:
The PETS (public expenditure tracking survey) is a survey among frontline providers (schools, clinics and their staff), and local governments (politicians and public
officers), complemented with central budget and other related data. The QSDS
(quantitative service delivery survey) method elaborated for the estimation of corruption connected with services is a type of frontline provider survey. [Reinikka –
Svensson, 2005]
Instead of reported corruption perception, Olken [2009] tested a method in Indonesia on the road construction projects. He examined the perception of corruption among village citizens in the regions involved in the projects and made estimations about the missing expenditures and missing quantities. The corruption perceptions of local citizens is in weak correlation with the more objective measuring
of missing quantities.
6
István Takács, Pál Csapodi, Katalin Takács-György
The above examples prove that the perception of corruption based on experts’
estimations can be rather imperfect but the implementation of alternative methods
has significant costs which can be undertaken occasionally (e.g. selecting the fields
to be examined in the frames of supervisor programs, at project level by analyzing
the risks). They cannot be applied, however, as a general method ensuring full coverage, due to their costliness and resource needs.
Corruption can be perceived differently in different fields of economy and society, mostly where there are significant money flows. It is only partly connected to the
public sphere, but it can also be traced in the relations between the actors of the
economic life. The former, however, has more significant public weight and damage.
According to the surveys, the political parties and some institutions belonging to the
state administration are considered to be the most corrupt social-economic sectors
and organizations [Bribe payers index 2008]. It follows from this, that only the
cleaning of the key elements of the political system will lead to success in the fight
against corruption.
Political corruption concerns everybody. It is an expectation from the elected
politicians and political parties that they work in the interest of the public, the
people. Through their election they get an access to public funds and have such
a power which may influence the whole society. Due to their privileged situation,
the politicians or political parties can cause huge damages with their greed. The corruption risks also depend on the depth of corruption interwovenness between parties and their supporters. The transparency and accountability can considerably decrease the risks of political corruption.
According to the survey of Transparency International [Global corruption barometer 2009], the state investments and construction industry, the real estate trade
and development, the oil and gas industry, the heavy industry and mining are the
most affected by corruption. This evaluation is a bit refined by the observation that
the higher military expenditures compared to GDP and state expenditures are linked
up with corruption. [Gupta et al., 2001]
According to the international experience, the public procurement and privatization are especially endangered in regard to corruption.
Corruption in public procurement processes distorts competition, leads to a waste
of limited sources and inadequate fulfillment of basic social needs. Corruption destroys market efficiency and the utilization of development possibilities. According
to some estimations, the corruption extending on whole systems may increase the
costs of public procurement by 20-25% and often results – sometimes completely
unnecessary – procurement of bad quality goods or services. That’s why Csáki –
Gelléri [2005] suggest that corruption and its impact can be reduced by implementing appropriate decision technology solutions.
Corruption was especially closely related to the issues of privatization during the
great economic and social transformation of the last two decades in the Central and
Eastern European region. The aims of privatization also included the establishment
of national owners’ class – at any cost – and the increase of state privatization revenues – often at any cost. The home investors were preferred in the first case and the
foreign investors were preferred in the second case.
Corruption as a deviant attitude of inter-sector cooperation
7
The privatization is less efficient in highly corrupted systems and can lead to the
development of monopolies. [Bjorvatn – Søreide, 2005] According to comparative
analyses, the economy is more efficient if the civil servants are less corrupt. [Ades –
di Tella, 1999; Djanilov et al., 2002] It is also proved that corruption is in positive
correlation with market concentration. This market structure experience raises the
question how the corruption and institutional decentralization as well as increasing
decision levels are connected to each other.
A lot of authors say that the government decentralization has advantages and
disadvantages, but the advantages prevail. Fisman – Gatti [2002] proved a strongly
negative correlation between decentralization and corruption, which justifies the
supporters of decentralization.
There are also some other research projects which intend to refine this opinion
and prove that corruption does not always decrease by centralization, sometimes
even grows by it. [Fan et al., 2009] They revealed that higher state administration
salaries reduce the perceivable corruption, but there is no such relation at subnational level in general, except for enterprise licences, governmental contracts, public
utility services or customs services.
Lessmann – Markwardt [2010] say that efficient monitoring of bureaucracy and
the competition boosting decentralization have a positive impact on the reduction
of corruption. If monitoring does not work, the negative impacts, like double space
(for corruption) prevail over the positive effect of decentralization and increase corruption. The revealed statistical relation is strong. The outcome is not sensitive for
the measuring methods of corruption and decentralization. All the above means that
the decentralization is a possible tool for decreasing corruption if the monitoring of
bureaucracy does not work. If this condition does not exist, it will lead to higher
level of corruption.
So the existence of free press is a basic condition for the efficient struggle against
corruption. The freedom of speech and freedom of press are important human
rights and strong control against the mistakes made by the government. Independent media are the most powerful institution to disclose the unlawful acts of government officials. A lot of research proved clear and strong negative correlation between freedom of press and corruption. [Freille et al., 2007, Brunetti – Weder, 2003]
It is very promising for the citizens of the Central-Eastern European region that the
international organizations examining the freedom of press (like e.g. Freedom
House) regard the press of the region free in our days.
The next important question is the relation between corruption and efficiency of
economy or, in other words, economic growth. The impact of bureaucratic corruption on economic growth has been debated for forty years. Some research has
proved that a political regime determines the relation between corruption and economic growth. In the case of free countries, a non-linear relation was revealed between corruption and economic growth, which was not affected by the size of government expenditures. [Méndez – Sepúlveda 2006] It is also very interesting outcome that the corruption level belonging to the maximization of growth is higher
than zero. The corruption in the developing countries is the consequence of government policy and the socio-economic conditions, therefore the achievement of
8
István Takács, Pál Csapodi, Katalin Takács-György
optimal growth cannot be the exclusive reason for the efforts to eliminate public
policy corruption.
The research also confirms that corruption is more harmful to investments and
growth in smaller developing countries than in the bigger ones. There is a specific
Eastern-Asian paradox: greater corruption results higher growth. This can be due to
the fact that bureaucrats (state clerks at different level) prefer the obtained/obtainable advantages (privileges) to bribes and kickbacks. The interwovenness between state and business sector is stronger which enhances growth (technology-demanding production). [Rock – Bonnett, 2004]
The above outlined also supports the thesis that there can be an optimum level
of corruption but it cannot be described without precise knowledge of the nature of
anti-corruption methods. [Bose et al., 2007]
So the corruption can increase or decrease the rate of growth depending on the
features of the bureaucratic structure. [Evrensel, 2010] Corruption can contribute to
an improvement on efficiency in a weak institution system, thus enabling the individuals to avoid the institutional deficiencies. [Aidt et al. 2008] The „grease” or
bribe, which accelerates business in inefficient bureaucracies can significantly reduce
the costs of waiting. Higher corruption can be beneficial in poorly governed countries, in the case of ineffective institutional systems. [Méon – Weill, 2010]
Corruption also diminishes the legitimacy of government in the eyes of citizens.
It leads to serious moral crises, affects political stability and it is the key element in
the poor countries’ failed attempts to utilize the development possibilities. Greater
state involvement increases the chances of corruption and the regulating state encourages corruption because the profit is more influenced by the government policy
than by traditional management or the corporation competency. [Del Monte – Papagni, 2007]
One of the key factors of powerful institutional system is the efficient legal system (legal regulations and judiciary practice) which has a threatening force by inflicting adequate punishment for corruption, together with a profound corruption disclosure (free press and investigation authority). The question is very complex. Herzfeld and Weiss [2003] used cross-sectoral and panel data models and found significant relations between legal regulations and varied levels of corruption. They revealed that more civil servants become corrupt if the efficiency of the legal system
decreases, and it has a feedback effect on the expectations concerning corruption.
The salaries of civil servants can have an important role in the motivating factors
of corruption. Their wages come from the redistribution of centralized sources and
if this money is below the socially expected level, they are more inclined to accept
bribes. One of the methods of cracking down on corrupt bureaucracy, or – as Fan
[2006] named it – kleptocracy is the appropriate salary paired with relatively efficient
monitoring. The problem is very serious: for example the civil servants in Ukraine
earn less by 24-32% than their private sector partners. The degree of corruption,
however, is indicated by the fact that their consumption – on the basis of household
expenditures and asset holding – is more or less the same. According to some estimations, the bribery in Ukraine is 0,9-1,2% of GDP, that is about 460-580 million
USD. [Gorodnichenko – Sabirianova Peter, 2007]
Corruption as a deviant attitude of inter-sector cooperation
9
A lot of studies emphasize the fact that people are basically norm followers, but
it is a problem when the corrupt behavior becomes the norm. [Csermely et al., 2009]
The theories of the new institutional economics stress the interest-following behavior of people. The following questions arise: (1) Which institutional arrangement
has the relatively lowest cost and highest efficiency in the case of different types of coordination problems of economic processes? (2) What are the effects of problems, costs and efficiency of exchange relations on the setup and changes of institutions? The theory suggests a simple model with the following factors as an answer to the questions: institution, exchange transaction, cost and efficiency. [Menard, 2004] In this approach
the institution itself is the corruption network, the subject of exchange transaction is
the privilege and its cost is the bribe. The private and social efficiency, however,
is separated. The private efficiency is ensured by the two actors of corruption – the
civil servant and the entrepreneur – because the entrepreneur uses the privilege
which often means a higher income than the actual value of services and it is financed from public funds. Considerable share from this goes back to the corrupt
civil servant, who possesses public funds which enable him to realize some extra
profit (like risk charge). The social efficiency, however, is deteriorating because the
cost of corruption, as external impact, is internalized [De Alessi, 1980] by the entrepreneur – with the participation of corrupt civil servant – shifting it to the taxpayers
and, at the same time, decreasing the value of public goods and public consumption
from the taxpayers’ money. In other cases, when the amount of public spending
cannot be risen, the source of transaction costs will be the wages, and not the profit:
the bureaucrats receive part of the income of workers. [Evrensel, 2010]
According to the agency theory of the new institutional economics, there is
a principal – agent relation between the corrupting and corrupted person. It is clear
that in this special principal-agent relation, where the aim of the principal is to set up
an institution system for managing the bureaucracy, the measures for eliminating
corruption cannot be efficient and the costs of corruption are the same as the profit
achieved by them. [Del Monte – Papagni, 2007]
The fight against corruption is a very important task in the developed countries
because the social privileges (the elimination of possible institutional inefficiency)
obtained through corruption are considerably exceeded by social losses.
The case of Italy is a good example for the necessity of fight against corruption
and the positive effects of these actions. The changes in the political arrangement
during the former decades increased corruption and extended it even to those levels
of public administration and jurisdiction) where it had not existed before. A harmful
social impact has become obvious. The expansion of corruption has weakened the
loyalty to civil and organized society, the feeling of corruption encouraged further
corruption because the risk of punishing corruption seemed to be low. The main
reason for the success of anti-corruption campaign was the shift of political regime.
Institutional changes are inevitable conditions of fight against corruption. [Del
Monte – Papagni, 2007] The key to success of anti-corruption programs, the best
corruption prevention is not only the total transparency, but the minimization of an
environmental impact which encourage violation of rules by diminishing the possibilities of avoiding punishment. [Lízal – Kocenda, 2001]
10
István Takács, Pál Csapodi, Katalin Takács-György
The aim of the study is to describe the social expenses and profits of corruption
in functions, to discuss possible outputs and to identify possible aims and tools of
fight against corruption.
2. Material and methods
Based on the results of critical review of documents, the paper identifies and
classifies the arguments concerning corruption. Considering the interests of corruption actors, the principal-agent theory of institutional economics and the theory of
transaction costs, the paper sets up a theoretical model for the identification of social costs of corruption and for the classification of objectives of fight against corruption in Hungary and factors influencing possible tools.
The corruption perception level of Central Eastern European countries, including the so-called Visegrad 4 (V4) countries, as well as the changes of corruption was
evaluated on the basis of Corruption Perception Index of 2008 by Transparency International and the 2002-2008 average and linear change (slope) of Control of Corruption index out of the World Bank Institute Governance Indicators.
3. Results
On the basis of special references and own experience, the corruption-related
money flows of those concerned (corrupted bureaucrat, corrupting party and society). (Relations (1)-(3))
Money flow of the bureaucrat
RB = B(r,s) – FB(r)
(1)
Money flow of corrupting party
RC = – B(r,s) + (1-α)· ΔP(c) – FC(r)
(2)
Money flow of taxpayers
RT = IC – B(r,s) + α·ΔP(r) – J(r) + ϕB FB(r) + ϕC·FC(r)
(3)
where: R = revenues of participants from corruption (B: bureaucrat; C: corrupting party; T:
taxpayer); IC = reduction of losses owing to corruption from the inefficiency of the system;
B(r,s) = amount of bribe, which depends on the risk of discovering corruption (r), and the
size of corruption (s); ΔP(c) = profit change due to corruption, which can be an extra profit
or a loss; α = key to profit tax; if ΔP(c)>0; then α>0, if ΔP(c)≤0; then α=0; FB(r) = the expected loss of the bureaucrat in case of getting caught; FC(r) = the expected loss of the corrupting party in case of getting caught; J(r) = costs of disclosing corruption and jurisdiction;
ϕB és ϕC = efficiency of corruption penalties, ϕ≤1.
Corruption as a deviant attitude of inter-sector cooperation
11
It can be declared that the risk is worth for a bureaucrat until his expected losses
(either penalty or losses due to the changing livelihood) are lower than the bribes or
the profit that can be achieved through the privileges ensured by corruption.
The transaction is closed with positive profit for a bribing entrepreneur, until an
extra income obtained through corruption is higher than the bribe or the expected
losses or penalty, weighted with risk, from getting caught. If the corruption competition is big and the bribe payer’s aims are to ensure his survival, he may commit corruption even with negative balance because his objective in this case is the minimization of losses.
In regard to society, the money flow is negative in most of the cases. Except for
the very special cases (see the above mentioned example of Georgia, that is the case
of very weakly functioning state organization), the amount spent on the disclosure
and overcoming of corruption is considerably higher than the advantages obtained
through corruption.
Hereinafter, the corruption infection of the Central Eastern European region is
evaluated. The Corruption Perception Index (CPI) of the Transparency International is widely criticized but we use it for the comparison of the countries in the region
since there is not any better and more widely used index. Based on V4 countries we
drafted the CPI value of all the reported countries and the confidence interval given
by the organization. It is clear from the confidence intervals that the perception of
corruption in V4 countries is not significantly different, they belong to the same
group (G1 on the right of Figure 1). On the left of Figure 1 it can be seen that the
countries of that group are regarded moderately infected by the classifiers. It is also
obvious that Group 2 (Estonia and Slovenia) are considered significantly clearer
than Group 4 (Belarus, Ukraine and Russia are significantly more corrupt). Group 3
is a transition between G1 and G4.
If all the examined countries are compared with the corruption level of V4 countries, the following groups of countries can be defined:
–
European countries with significantly lower corruption level: Denmark,
Sweden, Finland, Switzerland, Iceland, Netherlands, Luxembourg, Austria,
Germany, Norway, Ireland, United Kingdom, Belgium, France, Slovenia,
Estonia.
–
Moderately corrupt European countries, not significantly different from V4
countries: Bulgaria, Croatia, Cyprus, Czech Republic, Georgia, Greece,
Hungary, Italy, Latvia, Lithuania, Macedonia, Malta, Montenegro, Poland,
Portugal, Romania, Serbia, Slovakia, Spain, Turkey.
–
European countries with significantly higher corruption: Albania, Armenia,
Azerbaijan, Belarus, Bosnia-Herzegovina, Moldova, Russia, Ukraine.
12
P Csapodi, Kataliin Takács-Györgyy
István Takács, Pál
FIGURE 1.
1
Corrup
ption Perception
n Index and co
orruption percep
ption
in Eastern Ceentral European
n countries
Confidence range
r
of V4 countrries
8,00
G2
7,00
G1
6,00
5,00
4,00
G3
3,00
2,00
G4
1,00
0,00
CZE
HUN
SVK
POL
LTU
LVA
EST
SVN
ROM
M
BGR
BLR
UKR
RUS
Souurce: Own construuction on the basis of Transparenccy International. Corruption
C
Percep
ption
n Index, 2008.
In the followingg we introduce the
t changes of ccorruption in thee countries of th
he
regiion (Figure 2). The
T countries aree arranged into ffour plus one gro
oups on the basiis
of the
t seven-year average
a
of WBII Control of Co
orruption Index, the tendency of
o
chaanges (+ = impro
oving situation; – = declining situuation) and the pace
p of changes::
Co
orruption as a deviiant attitude of intter-sector cooperaation
–
–
–
–
–
13
relatively good
g
corruption situation with iimproving tendeency (EST, LVA
A,
SVK, SVN
N)
relatively good
g
corruption situation with ddeclining tenden
ncy (CZE, HUN
N,
LTU, POL
L)
relatively bad
b corruption situation
s
with im
mproving tenden
ncy (BLR, ROM
M,
UKR)
b corruption siituation with decclining tendency (RUS)
relatively bad
moderate corruption
c
situattion with declinin
ng tendency (BG
GR)
FIGURE 2.
2
T changing corruption situaation of Eastern
The
n Central Europ
pean countries
n to the averagee value of contrrol of corruption index
in relation
a the averagee pace of chang
and
ge (2002-2008)
Souurce: own construcction on the basis of World Bank In
nstitute, 2010.
A declining tenddency is a warniing for V4 coun
ntries (except forr Slovakia) and it
drivves the attention
n to the importan
nce of fight again
nst corruption.
The fight againsst corruption is a comprehensivve task, even in a moderately in
nfectted country. It can
c be read from
m the theoreticall model that in those moderatelly
devveloped countriees, like V4 countries, social costts are higher thaan social benefitts
from
m corruption wh
hich can hardly be
b quantified oth
herwise. The maapping of corrup
ption
n risks is an impo
ortant contributiion to the successs of this processs.
The State Auditt Office in Hunggary elaborated a proposal, whicch applied the in
ntegrrity-based approach. [Báger et all. 2008] The worrd ’integrity’ com
mes from the Latt-
14
István Takács, Pál Csapodi, Katalin Takács-György
in phrase in-tangere which means ’intact’. In other words, this phrase indicates
something or somebody who or which is undamaged, faultless, unscathed. It also refers to merit, incorruptibility and purity. Integrity is used for the evaluation of the
performance of individuals and organizations. There are similar features in the proposal of a group of scientists, called ‘Council of the Wise’. [Csermely et al., 2009].
Comparing and agreeing with the two proposals, the main points are summarized below. In regards to the operation of the public administration system, the following should be fulfilled in order to overcome corruption:
–
commitment at the highest level to really fight corruption, for this
–
transformation of the institutional system in order to increase the efficiency
of organizations dealing with the disclosure of corruption;
–
development and implementation of a national program against corruption;
–
review and modification of legal regulations concerning the areas infected
with corruption (party finance, election, public procurement, support, etc.);
–
increasing the role of publicity and transparency: ensuring the public access
to the information and research results concerning integrity, constructing
public maps about corruption risks;
–
integrity-based development of national (internal and external) monitoring
practice and public administration culture;
–
improving the public trust and transparency of public sector;
–
improving the monitoring system for public procurement and grant applications;
–
encouraging the transformation of public administration culture;
–
encouraging the participation of the public (including press and media) and
civil sector;
–
implementation of a program to decrease corruption within health sector;
–
improving the efficiency of internal control of state institutions, their involvement in the fight against corruption.
The above proposals were drafted in national frames, but it is obvious that corruption does not stop at the borders. The countries frequently experience that the –
often multinational – companies of other countries corrupt influential civil servants
in more countries at a time. (See the issues only from this region about the sale of
SAAB Gripen aircrafts or the sale of Daimler government cars.) That is why it is necessary, but not enough, to develop and consequently implement adequate national
strategy against corruption. The harmonization of corruption strategies and in some
fields the cooperation of countries belonging to the same culture, with the same
economic and social system is required for the realization of national objectives.
4. Conclusion
Corruption is an economic and social phenomenon which is deeply rooted in
traditions and has been existing for thousands of years. In a sense, it is part of human culture. Corruption – with some exceptions – is harmful for the whole society,
even if some individuals can profit from it.
Corruption as a deviant attitude of inter-sector cooperation
15
The socio-economic development and corruption are generally in reverse relation. The complex social transition from the weak, traditional country to a healthy,
liberal democracy goes together with the drastic reduction of corruption. The corruption transition cannot be precisely allocated on the way, but it has a certain transition trend towards the lower level of corruption. Transition depends on culture:
the transition is similar on the same cultural basis. Culture is an inferior explanatory
factor of corruption. A seesaw phenomenon can be observed around the transition
trend. The growth of inflation, which often goes together with economic transition,
increases corruption in the short run (5-10 years) and interacts with culture. Overregulated countries with low economic freedom tend to higher corruption (interact
with inflation and culture). The political consequences that can be drawn: an acceleration of transition can help to cure the disease of corruption. [Paldam, 2002]
The fight against corruption is an important task. Its organizer can be the government, but high level commitment is required for the successful implementation.
Inter-sectoral cooperation is needed between government, economic and civil sector. The government can contribute to the cooperation by developing the control
mechanisms, improving the efficiency of disclosure, and – through jurisdiction – reducing the probability of avoiding punishment and encouraging the norm-follower
behavior (at the same time eliminating corruption as a norm). The economic sector
can participate in the reduction of corruption by preferring competitive neutrality,
raising fair competition (market behavior) as a norm, while the civil sector, including
free media, should require publicity and live with the control possibilities of publicity.
According to Plutarchos (AD 45–120), ‘navigare necesse est, vivere non est’
means ‘navigating is necessary but living is not’, which phrase originated from his
biography written from Gnaeus Pompeius Magnus on Greek language. The phrase
became famous in Latin and it was ascribed to Pompeius. According to Csapodi
(2010), it could be actualized as ‘audire necesse est, corrumpare non est necesse’,
which means ’audit is necessary but bribery is not’.
References
Ades A., Di Tella R. (1999) Rents, Competition and Corruption. American Economic Review
89. 982–993.
Aidt T., Dutta J., Sena V. (2008): Governance Regimes, Corruption and Growth: Theory and
Evidence. Journal of Comparative Economics. 36. 195–220.
Báger G. (Ed.), Pulay Gy., Korbuly A. (2008): Korrupciós kockázatok feltérképezése a magyar közszférában. Állami Számvevőszék Fejlesztési és Módszertani Intézet. Budapest. p. 64.
Bjorvatn K., Søreide T. (2005): Corruption and Privatization. European Journal of Political
Economy. 21. 903–914.
Blackburn K., Bose N., Haque M.E. (2006): The Incidence and Persistence of Corruption in
Economic Development. Journal of Economic Dynamics & Control. 30. 2447–2467.
Blackburn K., Forgues-Puccio G.F. (2009): Why is Corruption Less Harmful in Some Countries than in Others. Journal of Economic Behavior & Organization. 72. 797–810.
Bose N., Capasso S., Panini Murshid A. (2007): Threshold Effect of Corruption: Theory and
Evidence. World Development. 36 (7). 1173–1191.
16
István Takács, Pál Csapodi, Katalin Takács-György
Bribe payers index 2008 (2008). Transparency International. Berlin. p. 22.
Brunetti A., Weder B. (2003): A free Press is Bad News for Corruption. Journal of Public
Economics. 87. 1801–1824.
Clarke G.R.G., Xu L.C. (2004): Privatization, Competition, and Corruption: How Characteristics of Bribe Takers and Payers Affect Bribes to Utilities. Journal of Public Economics.
88. 2067–2097.
Csáki Cs., Gelléri P. (2005): Condition and Benefits of Applying Decision Technological Solutions as a Tool to Curb Corruption within the Procurement Process: The Case of Hungary. Journal of Purchasing and Supply Management. 11. 252–259.
Csermely P., Fodor I., Eva J., Lámfalussy S. (2009): A korrupció ellen. (Against corruption)
In: Szárny és teher. Bölcsek Tanácsa Alapítvány. Budapest. pp. 16–19., 127–215.
De Alessi L. (1980): The Economics of Property Rights: A Review of the Evidence. Research
in Law and Economics. 2 (l). 1-47.
Del Monte A., Papagni E. (2007): The Determinants of Corruption in Italy: Regional Panel
Data Analysis. European Journal of Political Economy. 23. 379–396.
Dreher A., Kotsogiannis C., McCorriston S. (2007): Corruption around the World: Evidence
from a Structural Model. Journal of Comparative Economics. 35. 443–466.
Evrensel A.Y. (2010): Corruption, Growth, and Growth Volatility. International Review of
Economics and Finance. 19. 501–514.
Fan C.S., Lin C., Treisman D. (2009): Political Decentralization and Corruption: Evidence
from around the World. Journal of Public Economics. 93. 14–34.
Fan C.S. (2006): Kleptocracy and Corruption. Journal of Comparative Economics. 34. 57–74.
Fisman R., Gatti R. (2002): Decentralization and Corruption: Evidence across Countries.
Journal of Public Economics. 83. 325–345.
Freille S., Haque M.E., Kneller R. (2007): A Contribution to the Empirics of Press Freedom
and Corruption. European Journal of Political Economy. 23. 838–862.
Global corruption barometer 2009 (2009). Transparency International. Berlin. p. 38.
Global Corruption Report 2009. Corruption and the Private Sector (2009). Transparency International. Cambridge University Press. 493 p.
Gorodnichenko Y., Sabirianova P.K. (2007): Public Sector Pay and Corruption: Measuring
Bribery from Micro Data. Journal of Public Economics. 91. 963–991.
Gupta S., de Mello L., Sharan R. (2001): Corruption and Privatization. European Journal of
Political Economy. 17. 749–777.
Herzfeld T., Weiss C. (2003): Corruption and Legal (In)Effectiveness: an Empirical Investigation. European Journal of Political Economy. 19. 621–632.
Kaufmann D., Kraay A., Mastruzzi M. (2008): Governance Matters VII: Governance Indicators for 1996-2007. World Bank Policy Research Working Paper 4654. 105 p.
Lessmann C., Markwardt G. (2010): One Size Fits all? Decentralization, Corruption, and the
Monitoring of Bureaucrats. World Development. 38 (4). 631–646.
Lízal L., Kocenda E. (2001): State of Corruption in Transition: Case of the Czech Republic.
Emerging Markets Review. 2. 137–159.
Menard C. (2004): A New Institutional Approach to Organization. In: Menard C., Shirley N.
(szerk.): Handbook of New Institutional Economics. Kluwer: Boston-Dordrect. 281-318.
Méndez F., Sepúlveda F. (2006): Corruption, Growth and Political Regimes: Cross Country
Evidence. European Journal of Political Economy. 22. 82–98.
Corruption as a deviant attitude of inter-sector cooperation
17
Méon P-G., Weill L. (2010): Is Corruption an Efficient Grease?. World Development. 38 (3).
244–259.
Mishra A. (2005): Persistence of Corruption: Some Theoretical Perspectives. World Development. 34 (2). 349–358.
Olken B.A. (2009): Corruption Perceptions vs. Corruption Reality. Journal of Public Economics. 93. 950–964.
Osipian A.L. (2009): Corruption Hierarchies in Higher Education in the Former Soviet Bloc.
International Journal of Educational Development. 29. 321–330.
Paldam M. (2002): The Cross-Country Pattern of Corruption: Economics, Culture and Seesaw dynamics. European Journal of Political Economy. 18. 215–240.
Reinikka R., Svensson J. (2005): Using Micro-Surveys to Measure and Explain Corruption.
World Development. 34 (2). 359–370.
Report on the Transparency International Global Corruption Barometer 2007. (2007).
Transparency International. Berlin. 25 p.
Rock M.T., Bonnett H. (2004): The Comparative Politics of Corruption: Accounting for the
East Asian Paradox in Empirical Studies of Corruption, Growth and Investment. World
Development. 32. (6) 999–1017.
Seligson M.A. (2005): The Measurement and Impact of Corruption Victimization: Survey
Evidence from Latin America. World Development. 34 (2). 381–404.
World Bank Institute (2010): Governance Matters 2009. Worldwide Governance Indicators,
1996-2008. Online: http://info.worldbank.org/governance/wgi/index.asp. Download:
08.04.2010.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Andrzej F. Bocian1
MAKROEKONOMIA WZROSTU –
UWARUNKOWANIA GLOBALNE
Streszczenie
Wzrost gospodarczy jest podstawową kategorią makroekonomiczną i wszystkie zagadnienia z nim
związane są traktowane powszechnie jako najważniejsze w polityce gospodarczej. W artykule uwagę
poświęcono kwestii globalizacyjnych uwarunkowań wzrostu gospodarczego, co jest zagadnieniem relatywnie nowym w ramach badań nad wzrostem.
W artykule naszkicowano główne teorie i modele wzrostu, pokazując ich ewolucję na przestrzeni
ostatnich kilku dekad. Zilustrowano także skalę zróżnicowania wzrostu gospodarczego między krajami,
prezentując przekrojowe dane statystyczne za ostatnie lata. Skomentowano również turbulencje w gospodarkach narodowych, jakie spowodował kryzys światowy lat 2007-2009.
Słowa kluczowe: wzrost gospodarczy: teorie i modele:, PKB jako miernik, zróżnicowanie dynamiki na świecie, prognozy, kryzys gospodarczy, zadłużenie gospodarek, globalizacja
MACROECONOMY OF GROWTH – GLOBAL CONDITIONS
Summary
Economic growth is a fundamental macroeconomic category and any related issues are commonly
treated as the most important problems in the economic policy. The article deals with the question of
economic growth against a background of global economy which is a relatively new issue within the
framework of the research into the question of economic growth.
The author provides an outline of main theories and models of growth showing their evolution
over the last decades. Furthermore, the article provides an illustration of the range of the economic
growth diversity between countries and cross-sectional statistical data for recent years. Finally, the author comments on the economic turbulence in national economies which was due to the global crisis
of the period 2007-2009.
Keywords: economic growth: theories and models, GDP as a measure, the diversity of dynamics
in the world, forecasts. Economic crisis. Economies debt. Globalization
1
Prof. dr hab. Andrzej F. Bocian – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania.
Makroekonomia wzrostu – uwarunkowania globalne
19
1. Wzrost – problemy z definicją i pomiarem
Wzrost jest definiowany najczęściej jako powiększanie fizycznych rozmiarów kapitału: rzeczowego, ludzkiego i finansowego2, a także jako rozszerzenie zdolności
wytwórczych do produkcji towarów i usług. Rozszerzenie zdolności wytwórczych
jest tożsame ze zwiększaniem i ulepszaniem czynników: produkcji, akumulacji kapitału, postępu technicznego, oraz z doskonaleniem ludzkich umiejętności. Wzrost
charakteryzuje ilościową stronę procesów produkcyjnych. Miarą wzrostu jest wielkość produktu krajowego brutto, stanowiącą sumę nowo wytworzonych wartości
dóbr i usług w danym roku. Natomiast rozwój gospodarczy – możliwy dzięki postępowi w sferze materialnej gospodarki i przeobrażeniom strukturalnym w relacjach
nakładczych, a także dzięki zmianie w strukturze tworzenia i podziału produktu krajowego brutto – w swej istocie dotyczy jakościowych elementów wzrostu, które są
związane z: poprawą warunków życia społeczeństwa, ochroną środowiska naturalnego, szerokim dostępem do dóbr kulturowych, nauki i oświaty, ochrony zdrowia
i bezpieczeństwa.3
Wzrost przez większość ekonomistów jest uważany za najważniejszy temat ekonomii i podstawowy problem w polityce gospodarczej. Wszystkie pozostałe tematy
można bez mała traktować jako uzupełniające, wyjaśniające czy tworzące warunki
dla jego zaistnienia. Wzrost rozumiany jako powiększanie bogactwa i dochodów
społeczeństwa jest bardzo często przyjmowany za cel działalności gospodarczej.
Niejednokrotnie również jest traktowany jako miernik sprawności danego systemu
gospodarczego. Wielkość i tempo wzrostu produktu krajowego brutto czy także
produktu krajowego brutto na mieszkańca ma pokazywać bogactwo danego kraju
i określać efektywność ekonomiczną jego gospodarki oraz dynamikę jej wzrostu. Nie
można jednak pominąć faktu, że tego typu mierniki są coraz częściej krytykowane4.
2 R.J. Barro w swoim podręczniku Makroekonomia, w rozdziale zatytułowanym Wzrost gospodarczy,
określa zakres, jakiego dotyczy pojęcie wzrostu gospodarczego: W tym rozdziale rozważania dotyczą
trzech kluczowych czynników określających długookresowy wzrost gospodarczy: akumulacji kapitału, wzrostu
liczby ludności i postępu technicznego [Barro 1997 s. 306].
3 N. Acocella w Zasadach polityki gospodarczej formułuje to tak: Wzrost jest to zwiększenie dochodu
i bogactwa materialnego kraju. Rozwój to pojęcie bardziej ogólne, zawierające zazwyczaj wzrost, ale
uwzględniające również inne aspekty zmian ekonomicznych i społecznych. Rozwój pojawia się wówczas, gdy
zwiększa się dobrobyt. Rozróżnienie tych pojęć jest ważne, gdyż wzrost nie zawsze oznacza rozwój, a rozwój
nie zawsze oznacza wzrost [Acocella 2002 s.196]. Tym szerokim spektrum zjawisk, związanych z rozwojem na tle wzrostu gospodarczego, zajmuje się makroekonomia, co D. Romer precyzuje w następujący
sposób: Makroekonomia jest to nauka o gospodarce jako całości. Zajmuje się więc najważniejszymi kwestiami ekonomii. Dlaczego jedne kraje są bogate, a inne biedne? Dlaczego kraje przeżywają wzrost? Co jest
źródłem recesji i boomów? Dlaczego istnieje bezrobocie i co określa jego rozmiary? Jakie są źródła inflacji?
W jaki sposób polityka państwa oddziałuje na produkcję, bezrobocie i inflację?. Por.: [Romer 2000 s. 17].
4 Pod koniec 2009 r. na spotkaniu grupy G-20, którego tematem były przyczyny i skutki kryzysu lat
2007–2009, został powołany zespół ekonomistów (w skład którego wszedł m.in. J. Stiglitz), mający
opracować metodologię obliczania nowego wskaźnika makroekonomicznego, który miałby zastąpić kategorie produktu krajowego brutto i jego pochodną PKB na mieszkańca. Warto w tym miejscu przypomnieć, że wcześniejsza krytyka PKB, jako miernika, dotyczyła zastrzeżeń, iż PKB nie obejmuje produkcji wytwarzanej w szarej strefie. To pominięcie w większości statystyk międzynarodowych zostało
już usunięte. Regułą stało się doszacowywanie, w ramach rachunków narodowych wartości wytworzonych w szarej strefie.
20
Andrzej F. Bocian
Produkt krajowy brutto, jako wielkość sumaryczna, reprezentuje jednocześnie –
sumę wszystkich dochodów społeczeństwa, także agregat popytu krajowego i zagranicznego, w ramach popytu krajowego dzieli się na spożycie (publiczne i indywidualne) i akumulację brutto (w tym nakłady brutto na środki trwałe), jak również sumę
wartości dodanej (nowo wytworzonej) w strukturze sektorowej lub działowej.
Zatem, produkty krajowe brutto o tych samych rozmiarach mogą się różnić pod
względem wszystkich tu wyróżnionych struktur, choć jest oczywiste, że istnieją
określone związki pomiędzy, wymienionymi, elementami poszczególnych rodzajów
struktur. Weźmy przykładowo strukturę dochodów, która przecież bezpośrednio
wpływa na wielkość i strukturę popytu konsumpcyjnego. Krańcowa skłonność do
konsumpcji jest bowiem funkcją wielkości dochodów, jak i ich dynamiki wzrostu.
W 2008 r. stosunek średnich dochodów w grupie 20% osób o najwyższym poziomie
dochodów do średnich dochodów w grupie 20% osób o najniższych dochodach
w całej Unii Europejskiej wynosił, według Eurostatu, 5,0, zaś w Polsce 5,1. W innych krajach ta relacja ukształtowała się odpowiednio: w Czechach na poziomie –
3,4, w Bułgarii – 6,5, w Szwecji – 3,5, a w Rumunii – 7,0. Wskaźnik ten obrazuje
skalę zróżnicowania dochodowego społeczeństw wymienionych krajów, a z tego
wynika dalszy ciąg różnic strukturalnych. Trzeba także pamiętać, iż występują
znaczne różnice między krajami, jeśli chodzi o wielkość PKB przypadającego na
mieszkańca, co również generuje istotne różnice w strukturach popytu konsumpcyjnego i inwestycyjnego oraz w działowej strukturze wartości dodatkowej. W 2008 r.,
w wyżej wymienionych krajach, PKB przypadające na mieszkańca stanowiło
w przypadku Polski 57,1% średniej unijnej, ale w Czechach już – 81,5%, natomiast
w Bułgarii i Rumunii – odpowiednio: 40,1% i 41,1%, zaś w Szwecji stanowiło aż
121,4% średniej notowanej w UE.
Traktat Adama Smitha zatytułowany Badania nad naturą i przyczynami bogactwa
narodów, który legł u podstaw nauk ekonomicznych, po dzień dzisiejszy wskazuje
główny nurt badań ekonomicznych i prawdopodobnie przez następne dekady tematyka ta będzie przedmiotem uwagi ekonomistów i polityków. Pytania, czym jest bogactwo i w jaki sposób powstaje, są odwiecznymi pytaniami stawianymi przez osoby
oddane gospodarce. Jednak obecnie zmianie ulega rozłożenie akcentów w zadawanych pytaniach. Jedna ze współcześnie wydanych książek nosi tytuł Bogactwo i nędza
narodów [Landes 2005]. Ten tytuł sygnalizuje najważniejszy problem współczesności
– narastające zróżnicowanie ekonomiczne we współczesnym świecie.
Dokonania Adama Smitha podlegają coraz to nowym interpretacjom [Zabieglik
2003]. Najczęściej A. Smith jest przedstawiany jako ekonomista, jako ojciec klasycznej ekonomii politycznej i jako autor jednego z najczęściej cytowanych zwrotów w
ekonomii „niewidzialna ręka rynku”. Prezentuje się A. Smitha jako moralistę i humanistę,
a także myśliciela uczulonego na problemy sprawiedliwości społecznej
i prekursora budowy społeczeństwa obywatelskiego. Uznawany jest wreszcie za orędownika powstającego systemu kapitalistycznego.
Zaskakujące jest odczytanie dzieł A. Smitha przez N. Chomsky’ego, który wręcz
uważa A. Smitha za krytyka kapitalizmu. Próbuje także swoją interpretację idei
A. Smitha rozszerzyć na krytykę współczesnego globalizmu. Na szczęście pogląd
N. Chomsky’ego jest odosobniony.
Makroekonomia wzrostu – uwarunkowania globalne
21
2. Modele i teorie wzrostu
Teoria wzrostu gospodarczego ma długą historię za sobą i należy jej wieszczyć
równie długą i burzliwą przyszłość, bowiem końca sporów nie widać, a tematów do
dyskusji i zagadnień nierozpoznanych ciągle nie brakuje [Barro 1997; Romer 2000].
Dynamicznie rozwijające się procesy integracyjne i globalizacyjne powodują wydłużanie się listy tematów do rozpoznania o nowe zagadnienia.
Dyskusji na temat czynników wzrostu towarzyszy dążenie do jak najlepszej ich
kwantyfikacji. Do prognozowania wzrostu gospodarczego używa się coraz bardziej
złożonych metod ekonometrycznych, a modele mają coraz bardziej skomplikowaną
strukturę.
W gospodarce dosyć trudno jest wskazać jednoznacznie czynnik, który odgrywa
podstawową rolę lub decyduje o tempie wzrostu gospodarczego. Bezpieczniej jest
twierdzić, że dany czynnik w analizach nie powinien być pominięty.
W ciągu ostatnich dziesięcioleci XX wieku i początku XXI wieku w gospodarce
światowej nastąpił, niespotykany dotąd, postęp ekonomiczny i cywilizacyjny.
Zasoby materialne i intelektualne zostały zwielokrotnione i nic nie wskazuje na
to, aby proces postępu został zahamowany (kryzys światowy 2007–2009 należy potraktować jako epizod w ciągłości procesu rozwoju). Mnożą się odkrycia naukowe,
które nie tylko ułatwiają życie, ale także je wydłużają i pozwalają na walkę z nieuleczalnymi dotychczas chorobami, prowadzą do poznania struktury genetycznej organizmów żywych i struktury wszechświata, skracają czas potrzebny do pokonywania
odległości między regionami, przyśpieszają obieg informacji itp. Postęp ten przynosi
pomnażanie bogactwa, ale jest ono zlokalizowane punktowo. Na progu XXI wieku
– jak nigdy dotychczas – rozpiętości w poziomie życia i zasobności w dobra pomiędzy poszczególnymi regionami, krajami czy też grupami społecznymi – są ogromne,
a w niektórych przypadkach ulegają nawet powiększeniu. Niwelacja tych różnic jest
mało realna, nawet na przestrzeni życia trzech-czterech pokoleń. Widać to wyraźnie
na przykładzie zestawienia zawierającego wielkości produktu krajowego brutto
przypadające na jednego mieszkańca w różnych krajach (por. tablica 1.).
Zaprezentowane dane i relacje każą sądzić, że nierówności będą jeszcze przez
wiele dziesięcioleci (jeśli nie dłużej) immanentną właściwością gospodarki światowej.
Podejmowane wysiłki, mające zmniejszać dystans między poziomem życia a krajami
różnych regionów, nie są w stanie skutecznie niwelować istniejących różnic. Działania krajów rozwiniętych i organizacji międzynarodowych, zmierzające do podnoszenia poziomu życia w rejonach historycznie zaniedbanych i poszkodowanych przez
kataklizmy, warunki klimatyczne i wojny, są dokonywane bowiem z postępującym
równolegle procesem bogacenia się społeczeństw krajów zamożnych. Wynikiem
tych dwutorowo postępujących procesów jest niedostatecznie i zbyt wolno zmniejszająca się rozpiętość w wielkości PKB na mieszkańca między krajami.
22 798,97
20 288,61
22 110,82
21 256,18
22 464,47
20 571,66
Kanada
Wielka Brytania
Niemcy
Francja
Japonia
Włochy
7 256,31
6 248,79
5 864,08
5 176,81
Litwa
Łotwa
8 991,15
Węgry
Estonia
8 795,94
Słowacja
Polska
12 718,30
Czechy
Kraje EU-7
27 826,60
17 617,13
USA
Kraje G7
EU-27
Wyszczególnienie
1995
13 181,39
14 218,14
16 618,43
13 571,35
16 945,33
16 020,00
20 263,33
28 129,64
30 315,33
30 546,03
30 472,53
32 083,72
35 150,18
42 680,64
26 701,70
2005
17 471,33
18 093,96
20 885,57
16 370,57
18 952,71
20 370,88
24 181,96
30 515,70
33 630,70
33 563,51
34 326,15
35 512,01
38 555,24
46 629,69
29 974,39
USD
2007
14 254,65
16 542,30
17 908,19
18 072,40
18 566,85
21 244,92
24 093,27
29 109,46
32 607,87
33 678,53
34 212,32
34 618,98
38 025,32
46 380,91
29 729,29
2009
18 361,16
21 463,36
23 694,69
24 676,56
24 888,60
29 894,95
31 908,65
33 223,12
40 506,87
40 496,14
41 725,77
42 337,63
45 760,49
56 092,27
36 160,89
2015
29,4
33,3
35,5
41,2
51,0
49,9
72,2
116,8
127,5
120,7
125,5
115,2
129,4
158,0
100,0
1995
105,3
113,5
114,4
114,1
120,2
131,6
159,8
49,4
53,2
62,2
50,8
63,5
60,0
75,9
2007
58,3
60,4
69,7
54,6
63,2
68,0
80,7
101,8
112,2
112,0
114,5
118,5
128,6
155,6
100,0
2009
47,9
55,6
60,2
60,8
62,5
71,5
81,0
97,9
109,7
113,3
115,1
116,4
127,9
156,0
100,0
%
EU-27 = 100
100,0
2005
Produkt krajowy brutto na mieszkańca według parytetu siły nabywczej
50,8
59,4
65,5
68,2
68,8
82,7
88,2
91,9
112,0
112,0
115,4
117,1
126,5
155,1
100,0
2015
275,4
282,1
286,6
249,1
206,5
241,5
189,4
141,5
145,2
158,4
154,7
170,6
166,8
166,7
168,8
1995=100
2009
TABLICA 1.
1 513,68
1 090,67
Chiny
Indie
1 792,41
2 085,40
4 064,34
8 603,36
11 832,45
2005
2 059,51
2 582,00
5 388,45
9 892,37
14 756,90
USD
2007
2 178,88
2 940,74
6 567,00
10 513,79
14 919,96
2009
2 842,16
4 804,48
12 255,39
14 319,52
21 390,46
2015
Źródło: [International Monetary Fund, World Economic Outlook Database, April 2010].
Uwaga: dane sortowane malejąco wg PKB na mieszkańca w 2009 r.
Afryka SubSaharyjska
1 209,55
6 466,11
Brazylia
Region najuboższy
6 444,13
Rosja
Kraje BRIC
Wyszczególnienie
1995
6,9
6,2
8,6
36,7
36,6
1995
6,7
7,8
15,2
32,2
44,3
2005
6,9
8,6
18,0
33,0
49,2
2009
7,3
9,9
22,1
35,4
50,2
%
EU-27 = 100
2007
7,9
13,3
33,9
39,6
59,2
2015
180,1
269,6
433,8
162,6
231,5
1995=100
2009
24
Andrzej F. Bocian
Trudno przewidzieć, kiedy i w jakim zakresie zmniejszy się skala tych nierówności. Nie oznacza to jednak, że nie będziemy mieli do czynienia z przypadkami szybkiego podnoszenia się poziomu życia w niektórych krajach dotychczas zaniedbanych.
W przykładowych Chinach, między rokiem 1995 a rokiem 2009, nastąpił ponad
4-krotny wzrost PKB na mieszkańca. Według prognoz MFW, produkt na mieszkańca w Chinach, w 2015 r., będzie aż ponad 8-krotnie większy niż w 1995 r., co oznacza, że podwoi się w stosunku do poziomu osiągniętego w 2009 r. Tym samym
w 1995 r. PKB, przypadający na Chińczyka, stanowił zaledwie 8,6% PKB przypadającego na mieszkańca EU-27, ale już w 2009 r. – 22%, natomiast w 2015 r. – prawie
34%. W kontraście do tych danych pozostają informacje o sytuacji mieszkańców
Afryki Sub-Saharyjskiej, gdzie w 1995 r. poziom KPB na mieszkańca stanowił zaledwie 6,9% PKB na mieszkańca UE-27, w 2009 r. – niewiele więcej, gdyż tylko 7,3%.
Z prognoz MFW wynika, że w 2015 r. relacja ta wyniesie 7,9%. Stanowi to dowód
na utrzymywanie się biegunów nędzy w globalnej gospodarce.
W Polsce nie dokonał się tak spektakularny postęp, jak w Chinach, bowiem w latach 1995–2009 nastąpił tylko 2,5-krotny wzrost PKB przypadającego na Polaka, ale
także w 2009 r. stopa życiowa w Polsce (mierzona PKB na mieszkańca) była 2,8 razy wyższa niż w Chinach. W 2015 r. prawdopodobnie będzie jednak już tylko
2-krotnie wyższa.
Identyfikacja i kwantyfikacja czynników wzrostu oraz poszukiwanie przyczyn,
które powodują, że jedne kraje mają szybszą, a inne wolniejszą dynamikę wzrostu
i dobrobytu z roku na rok – zastanawiał i niepokoił badaczy poszczególnych szkół
myśli ekonomicznej prawie od zawsze. Obecnie jest to tym ważniejsze, że na rozwiązanie tych kwestii niecierpliwie czekają politycy gospodarczy, próbujący szukać
optymalnych ścieżek rozwojowych dla swoich krajów.
Model, jako uproszczone odwzorowanie rzeczywistości, daje podstawy do weryfikacji sformułowanych hipotez, określa ramy dla budowy nowej teorii, a także
umożliwia prognozy i projekcje oraz analizy symulacyjne – pokazujące wariantowo
kształtowanie się badanych relacji w przyszłości. Model i modelowanie najpełniej
pełnią swe funkcje przy formułowaniu polityki odpowiedzialnej za wzrost gospodarczy. Możliwości aplikacyjne modeli są także duże przy badaniu konsekwencji
ogólnogospodarczych wywołanych osiąganiem określonego wzrostu.
Modele wzrostu są budowane na podstawie funkcji produkcji, w której kategoria
produktu jest objaśniana trzema zmiennymi: kapitałem, siłą roboczą oraz postępem
technicznym lub „wiedzą”. Większość modeli wzrostu bądź makromodeli strukturalnych, które powstały w ciągu ostatnich pięćdziesięciu lat, wykorzystuje formułę
funkcji produkcji [Welfe, Welfe 1996].
Modele wzrostu gospodarczego można podzielić na modele egzogeniczne i endogeniczne.
Egzogeniczne modele wzrostu są nazywane także modelami neoklasycznymi lub
podażowymi. W tych modelach jest przyjmowane założenie, że istniejące czynniki
produkcji są w pełni wykorzystywane oraz że nie ma ograniczeń popytowych.
Modele te opisują długookresowy i zrównoważony wzrost gospodarczy, którego
stopa jest określona przez egzogeniczną stopę postępu technicznego. Do modeli typu egzogenicznego zalicza się modele: Solowa, Mankwina, Romera i Weila.
Makroekonomia wzrostu – uwarunkowania globalne
25
W endogenicznych modelach wzrostu gospodarczego przyjmuje się, że postęp
techniczny (który jest reprezentowany przez: akumulację, wiedzę naukowotechniczną i kapitał ludzki) stanowi efekt decyzji inwestycyjnych konsumentów
i producentów oraz państwa. W modelach tych przyjmuje się założenie o endogenicznym charakterze stopy postępu technicznego.
Model R. Solowa praktycznie leży u podstaw każdej analizy wzrostu. W modelu
Solowa wyróżnia się trzy czynniki, które oddziałują na wzrost: postęp techniczny
(reprezentowany przez stopę wzrostu ogólnej produktywności czynników wytwórczych), akumulację kapitału i nakłady pracy. Nakłady pracy i kapitału są mierzalne,
natomiast produktywność czynników wytwórczych nie można bezpośrednio powiązać z żadnym czynnikiem produkcji. Na podstawie próbki zagregowanych danych
dla USA, za lata 1909–1949, Solow próbował wyodrębnić miarę postępu technicznego. Stwierdził jednak, że miara jest „neutralna”, wobec tego, stopę wzrostu ogólnej produktywności czynników wytwórczych obliczył jako średnią ważoną stóp
wzrostu produktywności kapitału i pracy [Solow 1957].
Oderwanie się od myślenia w kategoriach kanonów modelu Solowa stanowi
punkt wyjścia do nowej teorii wzrostu. W ujęciach tej teorii, postęp techniczny ma
charakter endogeniczny, proces inwestowania w akumulację wiedzy uznaje się za
niezwykle ważny, zaś kapitał ludzki odgrywa kluczowa rolę w procesie wzrostu. Stanowi to wyjście poza sferę realną w relacjach przyczynowo-skutkowych opisujących
równanie wzrostu oraz zawiera poszerzoną interpretację kapitału o kapitał ludzki
[Romer 2000].
Rola kapitału niematerialnego (intelektualnego) w nowej gospodarce – w której
decydującą rolę odgrywa wiedza – tworzy ważny przyczynek do dyskusji o czynnikach wzrostu. Oznacza to, że kapitał ludzki reprezentowany przez: wiedzę, doświadczenie, umiejętność kreatywnego myślenia i działania, zdolność do współpracy
jest czynnikiem determinującym dynamikę wzrostu. Oczywiście – jeżeli rozpatruje
się problem z punktu widzenia makroekonomicznego – kapitał ten musi być związany z różnymi strukturami wytwórczymi, a szerzej, z określoną strukturą gospodarczą. Powyższe procesy należy zatem postrzegać w kontekście zmian dokonujących
się w strukturach gospodarczych, a przede wszystkim w strukturze tworzenia produktu narodowego (zmiana proporcji udziału: rolnictwa, przemysłu i sfery usług
w wytwarzaniu PKB) i w strukturach zatrudnienia.
W ramach zmian sektorowej struktury tworzenia produktu narodowego następują obecnie przekształcenia struktury wytwórczości w ramach poszczególnych sektorów. W sektorze drugim – przemysłowym – następuje zmiana proporcji na rzecz
przemysłów nowoczesnych, nasyconych myślą techniczną. Ewolucja sektora trzeciego polega zaś przede wszystkim na zwiększaniu udziału usług związanych z generowaniem i przekazem informacji, a także związanych z sektorem bankowofinansowym. Model Fishera-Clarka rozpatruje problemy wzrostu gospodarczego
w ramach trzech sektorów. Stan rozwoju poszczególnych sektorów świadczy o etapie rozwojowym, na którym znajduje się dana gospodarka. Rozwinięty trzeci sektor
mają gospodarki: o wysokim dochodzie, bogate, najbardziej rozwinięte.
Wiedzę i kapitał intelektualny uznaje się bezsprzecznie za czynnik decydujący
o możliwościach rozwojowych kraju. Wiedza staje się zasobem, którego wartość rośnie wraz z „użyciem”. Aby przedsiębiorstwo mogło skutecznie działać w struktu-
26
Andrzej F. Bocian
rach globalnego rynku, musi być konkurencyjne. Konkurencyjność zaś nie jest funkcją wielkości kapitału czy też rozmiarów wytwarzanej produkcji, lecz jej faktycznym
źródłem są nowe produkty, sztuka marketingu itp., a wszystko to może być pomnażane dzięki nowym pomysłom i konstrukcjom powstającym na bazie rozwijającej się
wiedzy.
Tradycyjna funkcja produkcji pozwalała na osiąganie wzrostu, dysponując tylko
kapitałem i pracą. Funkcja produkcji, uwzględniająca kapitał wiedzy i umiejętności,
wskazuje, że ekonomiki, dysponujące skromnymi zasobami kapitałowymi, mają także szansę na rozwój. Podstawowym warunkiem jest jednak nowoczesność gospodarki i jej łatwa adaptacyjność do zmian.
Problemy wzrostu należy rozpatrywać od strony czynników go generujących, aby
po ich identyfikacji móc wybrać najefektywniejszy zestaw narzędzi polityki ekonomicznej stymulujących wzrost gospodarczy. Tę rolę dobrze wypełniają wszystkie
ujęcia modelowe opisujące wzrost jako funkcję wyróżnionych czynników. Należy tu
wspomnieć o modelach wzrostu takich twórców, jak: R.F. Harrod, E.D. Domar,
J.R. Hicks, L.R. Kleine, P.A. Samuelson, J. Timbergen i W. Leontief, które to modele w większości powstały w latach sześćdziesiątych XX wieku.
Model Harroda jest jednosektorowym modelem popytowym. Harrod, wychodząc z keynesowskiej zależności, że inwestycje równają się oszczędnościom, wyprowadza zależność tempa wzrostu od ilorazu stopy oszczędności i współczynnika kapitałochłonności. [Landreth, Colander 1998]
Model Domara to model popytowo-podażowy, w którym strona popytowa jest
reprezentowana przez przyrost nakładów inwestycyjnych i mnożnik inwestycyjny,
a strona podażowa – przez ogólną sumę nakładów inwestycyjnych i potencjalny
współczynnik produkcyjności inwestycji. Model wyznacza tempo powiększania nakładów inwestycyjnych jako iloczyn mnożnika inwestycyjnego i potencjalnego
współczynnika produktywności inwestycji. [Domar 1962]
Modele: Kleine‘a, Timbergena i Leontiefa są modelami sektorowymi. Reprezentują one szeroką rodzinę modeli makroekonomicznych budowanych specjalnie dla
opracowywania programów i prognoz rozwoju gospodarczego [Barteczko, Bocian
2008].
Podejście popytowe jest rekomendowane przez ekonomię nurtu keynesowskiego. J. M. Keynes podkreślił znaczenie zagregowanego popytu w wahaniach makroekonomicznych. Natomiast podejście podażowe jest proponowane przez ekonomię
klasyczną i ekonomię nurtu liberalnego.
Powstanie teorii J.M. Keynesa w latach trzydziestych XX wieku, w okresie wielkiego kryzysu światowego, dało początek makroekonomii i stworzyło teoretyczne
podstawy polityki interwencjonizmu państwowego w gospodarce konkurencyjnej.
[Keynes 1985]
J.M. Keynes zakwestionował mechanizmy samoregulacji rynkowej, które miałyby
zapewnić stan równowagi na rynkach cząstkowych. Stąd konieczność ingerencji
państwa w procesy gospodarcze i pełnienia przez państwo roli stabilizacyjnej. Stan
nierównowagi – dotyczący równoważenia poziomu oszczędności i poziomu inwestycji – jest związany z pojęciem krańcowej skłonności do konsumpcji (która jest relacją przyrostu konsumpcji do przyrostu dochodów). Stały wzrost dochodów na
mieszkańca wywołuje zmniejszanie się psychologicznej skłonności do konsumpcji –
Makroekonomia wzrostu – uwarunkowania globalne
27
w ten sposób następuje szybszy wzrost oszczędności niż konsumpcji, a gdy w gospodarce występuje nadmiar kapitału – wówczas nie wszystkie oszczędności przekształcają się w inwestycje.
W długim okresie krańcowa rentowność kapitału jest odwrotnie proporcjonalna
do ilości kapitału zainwestowanego. W długim czasie prawidłowością jest także
zmniejszanie się krańcowej rentowności kapitału, co powoduje, że występuje stan
stałej przewagi oszczędności nad inwestycjami, który prowadzi do długofalowej recesji i bezrobocia.
Szkoła keynesowska w swojej działalności położyła nacisk na analizę agregatową
popytu globalnego. Zwiększenie popytu globalnego przyśpiesza tempo wzrostu
i ogranicza bezrobocie. Polityka gospodarcza, skierowana na pobudzenie wzrostu
globalnych wydatków, doprowadza do wzrostu popytu konsumpcyjnego, następnie
stopy inwestycji oraz przyrostu popytu efektywnego i wzrostu zatrudnienia,
co w efekcie powoduje rozwój gospodarczy. Państwo steruje globalnym popytem,
wykorzystując narzędzia polityki fiskalno-budżetowej i polityki pieniężnej.
W zestawie narzędzi polityki gospodarczej, proponowanych przez keynesistów,
można znaleźć między innymi:
–
progresję skali podatkowej (krańcowa skłonność do konsumpcji jest większa przy niższych dochodach – mniejsza zaś przy wyższych dochodach);
–
zasiłki i świadczenia społeczne dla bezrobotnych i niżej uposażonych;
–
ulgi podatkowe związane z działalnością inwestycyjną;
–
inwestycje i roboty publiczne.
Nurty ekonomii liberalnej w wolnym rynku i ograniczeniu wpływu państwa na
gospodarkę upatrują główne źródło osiągania stabilności we wzroście.
Monetaryści uważają, że gospodarka jest stabilna w długim okresie, jeśli państwo
nie zakłóca funkcjonowania rynku, a w polityce gospodarczej decydującą rolę spełnia polityka pieniężna. Głównym celem polityki gospodarczej powinno być ograniczanie inflacji i zapewnienie stabilności cen.
M. Friedman [Landreth, Colander 1998], najbardziej znany przedstawiciel kierunku monetarystycznego, uważa, że aktywność państwa powinna dotyczyć:
–
ochrony i umocnienia wolnego społeczeństwa;
–
zapewnienia bezpieczeństwa wewnętrznego i zewnętrznego;
–
umocnienia zasad gospodarki wolnorynkowej;
–
opieki nad jednostkami nieprzystosowanymi do życia społecznego.
Przedstawiciele kierunku ekonomii racjonalnych oczekiwań (R. Lucas, G.S. Becker
i inni) zakładają, że ludzie formułują swoje oczekiwania co do przebiegu procesów
ekonomicznych, opierając się na dostępnej wiedzy i że nie popełniają w swych decyzjach systematycznych błędów. Polityka gospodarcza powinna uwzględniać fakt,
że jednostki potrafią zrozumieć intencje realizatorów polityki i odpowiednio szybko
zareagować. Zakłócenia gospodarcze są równoważone przez reakcje dostosowawcze
uczestników rynku. Rola polityki gospodarczej jest ograniczona, ponieważ podmioty
gospodarcze podejmują decyzje na podstawie wielkości realnych i nie dokonują
błędnych wyborów przy formułowaniu oczekiwań dotyczących kształtowania przyszłych procesów gospodarczych. Polityka gospodarcza powinna zatem utrzymywać
stabilne ceny oraz stymulować podażową stronę gospodarki.
28
Andrzej F. Bocian
W nowej szkole austriackiej (najwybitniejszy przedstawiciel – F. Von Hayek [von
Hayek 2006]) są formułowane następujące oceny:
–
procesy gospodarcze charakteryzują się dużą niepewnością i stałymi zakłóceniami równowagi;
–
rynek jest najlepszym koordynatorem procesów gospodarczych;
–
rynek umożliwia pozyskiwanie informacji przez mechanizm cenowy oraz
dokonuje jej sortowania i selekcji;
–
dla realizacji tych procesów jest niezbędny swobodny mechanizm cenowy;
–
procesy gospodarcze mają związek z procesami uczenia się i gromadzenia
wiedzy.
Przedstawiciele tej szkoły kładą nacisk na politykę pieniężną jako na ważny
czynnik stymulowania wzrostu i kształtowania równowagi gospodarczej.
Przedstawiciele szkoły ekonomii podaży, nawiązując do ekonomii klasycznej,
przyjmują, że funkcjonowanie systemu gospodarczego w długim okresie charakteryzuje się stabilnością oraz, że w życiu społeczno-gospodarczym rola jednostki ma decydujące znaczenie. W celu emitowania procesu wzrostu i rozwoju gospodarczego
należy do minimum ograniczyć rolę państwa. Polityka gospodarcza (dzięki stosowaniu narzędzi właściwych dla polityk: monetarnej i fiskalnej) powinna skupiać się na
pobudzaniu strony podażowej procesów gospodarczych przez zwiększenie wydajności poszczególnych czynników produkcji.
Wzrost gospodarczy, jako syntetyczny wymiar funkcjonowania całego systemu
gospodarczego, może być uznawany za miarę skuteczności prowadzenia polityki gospodarczej. I tak najczęściej jest to interpretowane. Kraj, który cechuje się szybkim
tempem wzrostu i rosnącą wielkością PKB na mieszkańca, jest oceniany jako kraj,
w którym jest prowadzona dobra polityka gospodarcza. W takiej gospodarce z reguły efektywnie są wykorzystywane posiadane czynniki produkcji.
3. Globalny wymiar wzrostu
Światowy kryzys 2007–2009 spowodował zawirowanie nie tylko we wszystkich
gospodarkach na świecie, ale również wykazał luki w teorii ekonomii oraz ograniczoność prognozowania i modelowania, nawet w krótkim horyzoncie czasowym.
Wydarzenia ostatnich dwóch lat nasiliły również dyskusje między zwolennikami
i przeciwnikami zjawisk globalizacyjnych zachodzących w gospodarce światowej.
Kryzys wyraźnie pomnożył liczbę wątpliwości i pytań, na które muszą znaleźć odpowiedź wszyscy uczestnicy: rynku, polityki i świata nauki. W tym ogólnym chaosie
myśli można natknąć się na różnorodne opinie. Spora grupa komentatorów życia
gospodarczego twierdzi, że to globalizacja, jako spontanicznie rozwijające się od lat
zjawisko gospodarcze, spowodowała erupcję kryzysową, inni twierdzą zaś, że pazerność korporacji transnarodowych i banków przez niekontrolowane działania w cyberprzestrzeni wygenerowała najpierw kryzys finansowy, który przerodził się w kryzys obejmujący całą sferę realną gospodarki światowej. Można także spotkać się ze
zdaniem, że kryzys stanowi podzwonne dla globalizacji, a zarazem jest dowodem
bankructwa doktryny neoliberalnej [Kołodko 2009; Żyżyński 2009]. Ten pogląd już
tylko niewielki krok dzieli od nawoływań o powrót do interwencjonizmu. Jedno jest
Makroekonomia wzrostu – uwarunkowania globalne
29
jednak pewne, że procesy globalizacyjne, pod wpływem ujawnionych w związku
z kryzysem zjawisk, będą musiały ewoluować.
Globalizacja gospodarki światowej jest procesem związanym z tworzeniem sieci
powiązań i współzależności między krajami i regionami – zarówno w sferze gospodarczej, jak i w sferze technologicznej i kulturowej, ale przede wszystkim w obszarze
relacji finansowych i handlowych. Wiąże się to z rosnącymi przepływami dóbr
i usług, kapitału rzeczowego i kapitału finansowego, ale także kapitału ludzkiego
[Scholie; Szymański 2005; Friedman 2006; Mankiw 2008; Borowski 2008; Polak 2009].
Tego typu przekształcanie się życia gospodarczego, społecznego i politycznego we
wszystkich krajach globu trwa już od ponad trzydziestu lat i stało się możliwe dzięki:
–
rewolucji naukowo-technologicznej;
–
burzliwemu rozwojowi nowych technologii informatycznych, głównie
Internetu, który umożliwia nie tylko błyskawiczny dostęp do informacji, ale
także szybki przesył informacji;
–
rozwojowi różnych form transportu (ludzi i towarów);
–
liberalizacji wymiany handlowej;
–
deregulacji rynków finansowych.
O bogactwie danego kraju stopniowo przestają decydować zasoby naturalne
przypisane danej ziemi, ale na plan pierwszy wysuwa się kapitał intelektualny i wiedza. Te wartości, w ramach globalnej gospodarki, zatraciły narodowość, stając się
mobilnym elementem bogacenia jednostki i narodów. Również kapitał stopniowo
zatraca narodowość na globalnym ryku finansowym, zapadają stanowiące decyduje
o rozmiarach i kierunkach przepływów międzynarodowych kapitałów. Podmioty
funkcjonujące w sferze finansów z czasem okazały się być ponadnarodowymi, faktycznymi centrami władzy gospodarczej.
Podmiotami globalizacji są, bez wątpienia, korporacje transnarodowe, ale także
różne organizacje międzynarodowe, takie jak: Bank Światowy, Międzynarodowy
Fundusz Walutowy, Światowa Organizacja Handlu czy OECD. Udział 200 najpotężniejszych Wielkich Korporacji Transnarodowych (WKT) w wytwarzaniu światowego produktu szacuje się obecnie na 25%-30%. Jest to udział większy niż udział
gospodarki amerykańskiej w tworzeniu tego produktu (w 2009 r. wynosił on 20,5%).
Procesy globalizacyjne nie tylko są indukowane przez działalność korporacji transnarodowych, ale również są przez nie na bieżąco zabezpieczane i sterowane. Wydaje
się, że sposób działania tych korporacji ogranicza funkcjonowanie rynku, że najważniejsze decyzje nie zapadają w wyniku równoważenia się sił rynkowych, lecz stanowią wynik negocjacji i gry wielkich partnerów biznesowych. Fakt ten powoduje,
że utrwala się nierównowaga w podziale bogactwa światowego, a z niewątpliwych
dobrodziejstw globalizacji korzysta zaledwie kilkadziesiąt z 183 krajów świata, notowanych w statystyce Międzynarodowego Funduszu Walutowego. Kraje obszarów
ubogich nie znajdują się zatem na liście beneficjentów globalizacji. W dalszym ciągu
jest znaczny dystans między dobrobytem mieszkańców różnych regionów świata.
Wszystko wskazuje na to, że świat jest skazany na globalizację, choć z pewnością
zmodyfikowaną pod wpływem doświadczeń bieżącego kryzysu. Rodzi się zatem pytanie o ocenę jej udziału w kreowaniu światowego wzrostu gospodarczego i wzrostu
poszczególnych gospodarek narodowych. Na tak sformułowane pytanie, w chwili
30
Andrzej F. Bocian
n
o
cho
oć wiadomo, jakki jest udział po
oobeecnej, nie ma jeszcze gotowej odpowiedzi,
szczzególnych krajów w tworzeniu światowego PK
KB i że w tym względzie Stan
ny
Zjednoczone zajmuują stale pierwszzą pozycję i w peerspektywie kilkuu najbliższych laat
ż
innej gosp
podarce (por.: wykres
w
1.). Jednakknie oddadzą palmy pierwszeństwa żadnej
s
udziału gospodarki
g
amerykańskiej w tw
worzeniu światow
wego PKB już siię
że spadek
zaryysował i wydaje się być nieuunikniony, wobeec ekspansji kraajów azjatyckich
h.
Według najnowszejj oceny (z kwietn
nia 2010 r.) Międzynarodowego Funduszu Waluuwego, udział gosspodarki amerykkańskiej w tworrzeniu PKB zm
mniejszy się z do
d
tow
18,33% w 2015 r., po
odczas gdy w 1995 r. wynosił 23%, a w 2005 r. 22,4%.
2
Miejsce zwalniaane przez gospo
odarkę amerykaańską zaczynają zajmować dynaamiccznie rozwijającee się kraje nowe. Do tej grupy naależą kraje Azji, a w szczególnoścci
Chiiny. Nie ulega wąątpliwości, że krryzys wpłynie na ukształtowanie się nowego świaatow
wego ładu i że rynki
r
wschodzącce będą beneficjjentami tego pro
ocesu. Natomiasst
pew
wne obszary glob
bu, tradycyjnie zaniedbane, stale pozostają na ob
brzeżach wzrostuu.
Pro
ognozy nie wskazzują, aby w krajaach afrykańskich nastąpiła, chociaaż mała, popraw
wa
warrunków życia, ab
by dokonał się, przynajmniej
p
niezznaczny skok cyw
wilizacyjny.
WYKRES 1.
1
U
Udział
wybranycch krajów w św
wiatowym PKB
(według siły
s nabywczej)) – w %
* Czzechy, Estonia, Liitwa, Łotwa, Polskka, Słowacja, Węgrry
Źró
ódło: [Internationaal Monetary Fund, World Economic Outlook Databasse 2010].
Makroekonomia wzrostu – uwarunkowania globalne
31
Z punktu widzenia bieżącej sytuacji tworzenia się nowego układu sił gospodarczych w świecie, istotna jest obserwacja rosnącego udziału krajów grupy BRIC. Tym
skrótem określa się kraje z rynków wschodzących – Brazylię, Rosję, Indie i Chiny.
Kraje BRIC w 2009 r. wytworzyły 23,5% światowego produktu, a w 2015 r. ich
udział ma wzrosnąć – już do 28,8%. Warto zwrócić uwagę, że w 1995 r. kraje te wytworzyły 15% światowego PKB.
W 2007 r. 24,6% przyrostu światowego PKB powstało w krajach BRIC5,
a w kryzysowym roku 2008 – już 32,2%, co unaocznia rolę tych krajów w rozwoju
gospodarki światowej. MFW ocenia, że w 2015 r. światowy przyrost PKB powstanie
w 38,2% w krajach BRIC. Załamanie gospodarcze dotknęło te kraje w znacznie
mniejszym stopniu niż kraje wysoko rozwinięte. W 2009 r. obniżka światowego
PKB tylko w 2,3% stała się udziałem krajów grupy BRIC.
Obserwacje dotyczące dotychczasowego przebiegu procesów globalizacji oraz
doświadczenia wynikające z analizy światowego kryzysu gospodarczego, co gorsza
związanego z silnym kryzysem zaufania do globalizacji, skłaniają do stwierdzenia, że
globalnie znaczy na skalę ponadnarodową, bez granic i barier, ale zgodnie z prawami rynku i ekonomii, gdyż „ekonomia nie kłamie”.
4. Perspektywy wzrostu gospodarki światowej
Ostatnie dwa-trzy lata były trudną próbą dla gospodarki światowej, przy czym
perspektywy na najbliższe lata są przedmiotem wielu kontrowersji. Wydarzenia tych
lat stanowiły dla nauki ekonomii próbę przekraczającą jej możliwości analityczne.
Mam na myśli: dążenie do zdiagnozowania przyczyn kryzysu, opracowanie skutecznej terapii oraz dokonanie projekcji sytuacji pokryzysowej. Wielość poglądów i propozycji wykorzystania instrumentarium antykryzysowego wydaje się być większa niż
liczba kierunków i szkół współczesnej myśli ekonomicznej. Idea ekonomii głównego nurtu powinna zatem poszukiwać redefinicji celów oraz sposobów i narzędzi ich
realizacji, aby móc objąć całą złożoność świata globalnego. Rzeczywistym kontekstem wzrostu gospodarczego stała się globalizacja i to stwierdzenie nie znajduje, jak
dotychczas, alternatywy. To tworzy wyzwanie metodologiczne związane z kwantyfikacją wpływu procesów globalizacyjnych na pomnażanie bogactwa narodów. Wydaje się, że temu zadaniu naukowcy jeszcze długo nie będą w stanie sprostać. Przyczyna braku jednoznacznej odpowiedzi leży jednak nie tylko po stronie zawiłości dokonującego się procesu globalizacji, ale także po stronie samego zjawiska wzrostu gospodarczego, o czym wcześniej była już mowa. Bez wątpienia, coraz większa jest
wiedza na temat mechanizmów i czynników pobudzających wzrost, lecz, niestety,
nie jest to wiedza pełna [Frydman 2009].
Międzynarodowy Fundusz Walutowy co pół roku (w kwietniu i październiku)
ujawnia swoje diagnozy stanu obecnego i prognozy dotyczące przyszłego kształtowania się dynamiki wzrostu większości krajów świata. Najnowsze szacunki, dotyczą-
5 W celu porównania, warto wspomnieć, że udział krajów BRIC w przyroście światowego PKB wyniósł w 1995 r. tylko 14,4%.
32
Andrzej F. Bocian
ce dynamiki PKB6 w 2009 r. oraz prognozy do roku 2015, zostały opublikowane
w kwietniu 2010 r. Wynika z nich, że już w 2010 r. światowy produkt osiągnie
wzrost na stosunkowo wysokim poziomie 4,2%, co nastąpi po jednorocznym spadku PKB o 0,6% w 2009 r.
Spośród 14 krajów, których gospodarki mają największy wkład do światowego
PKB7, w większości z nich, po spadku PKB w 2009 r., nastąpi wzrost już w 2010 r.
(por.: tablica 2.).
Rok 2009 stał się probierzem dynamizmu rozwojowego krajów i skuteczności
prowadzonej przez nie polityki gospodarczej. Spośród krajów europejskich jedynie
w Polsce PKB wzrosło8. Wśród czternastu największych gospodarek tylko w trzech
krajach azjatyckich (Chiny, Indie i Korea) w 2009 r. nie zanotowano spadku PKB.
Co więcej, prognozy MFW z kwietnia 2010 r. wskazują, że dobra sytuacja w tych
krajach, a zwłaszcza dotyczy to: Chin i Indii, będzie się utrzymywała w horyzoncie
najbliższych sześciu lat. Prognozowane tempo wzrostu gospodarek, wymienionych
trzech, krajów spowoduje wzrost ich łącznego udziału w światowym PKB z 19,5%
w 2009 r. do 25% w 2015 r., co siłą rzeczy ograniczy wpływ pozostałych dużych gospodarek na wielkość produktu światowego.
Spełnienie się, powyższych, prognoz do 2015 r., dotyczących dynamiki PKB zarówno w Chinach, jak i ogólnie na świecie oraz zakładających wolne tempo wzrostu
gospodarek krajów Unii Europejskiej, jak i krajów Grupy G7 oraz Stanów Zjednoczonych, będących dotychczas światową potęgą gospodarczą, której podstawy zostały mocno zachwiane na skutek kryzysu finansowego przełomu lat 2007–2008, może
oznaczać znaczne przewartościowanie w ciągu kilku lat sił w gospodarce światowej.
6 Trzeba zaznaczyć, że MFW nie ogranicza się jedynie do prognoz w zakresie PKB, ale także wypowiada się na temat kształtowania się w przyszłości m.in.: inflacji, bilansu płatniczego, ludności.
7 Czternaście krajów wyróżnionych w tablicy 2. wytworzyło w 2009 r. aż 70,5% światowego PKB
(w 1995 r. – 71,6%). Polska z udziałem prawie na poziomie 1% zajmowała 21. miejsce, a Czechy –
mimo małej gospodarki – były na 42. miejscu, mając 0,4%-owy wkład do światowego PKB. W 2009 r.
169 krajów świata miało zaledwie 29,5%-owy udział w produkcie światowym.
8 Według MFW, o 1,7%, ale najnowsze dane, opublikowane 31 maja 2010 r. przez GUS, wskazują,
że ten wzrost był nieco wyższy, czyli 1,8%.
100,0
20,46
12,52
6,00
5,06
4,03
3,10
3,05
3,03
2,87
2,51
2,09
1,96
1,94
1,85
0,98
0,37
Udział w światowym
PKB w %
2009
4,5
3,1
10,4
1,9
9,2
0,7
2,2
6,4
1,9
3,2
0,7
3,2
3,6
4,0
3,0
3,6
6,3
2005
5,1
2,7
11,6
2,0
9,8
3,2
2,9
7,7
2,4
4,0
2,0
4,9
4,0
5,2
2,9
6,2
6,8
2006
5,2
2,1
13,0
2,4
9,4
2,5
2,6
8,1
2,3
6,1
1,5
3,3
3,6
5,1
2,5
6,8
6,1
2007
3,0
0,4
9,6
-1,2
7,3
1,2
0,5
5,6
0,3
5,1
-1,3
1,5
0,9
2,3
0,4
5,0
2,5
2008
2010
2011
-0,6
-2,4
8,7
-5,2
5,7
-5,0
-4,9
-7,9
-2,2
-0,2
-5,0
-6,5
-3,6
0,2
-2,6
1,7
-4,3
4,2
3,1
10,0
1,9
8,8
1,2
1,3
4,0
1,5
5,5
0,8
4,2
-0,4
4,5
3,1
2,7
1,7
4,3
2,6
9,9
2,0
8,4
1,7
2,5
3,3
1,8
4,1
1,2
4,5
0,9
5,0
3,2
3,2
2,6
Tempo zmian w %
2009
Źródło: [International Monetary Fund, World Economic Outlook Database, April 2010].
Uwaga: Kolejność krajów, według udziału w światowym PKB w 2009 r.
Świat (183 kraje)
Stany Zjednoczone
Chiny
Japonia
Indie
Niemcy
Wielka Brytania
Rosja
Francja
Brazylia
Włochy
Meksyk
Hiszpania
Korea
Kanada
Polska
Czechy
Wyszczególnienie
4,5
2,4
9,8
2,0
8,0
2,0
2,9
3,7
2,0
4,1
1,5
5,2
1,5
4,1
3,0
3,9
3,5
2012
Dynamika wzrostu PKB w wybranych krajach
(ceny stałe, poprzedni rok = 100)
4,5
2,5
9,7
1,8
8,1
1,8
2,8
4,1
2,1
4,1
1,4
4,9
1,6
4,1
2,6
4,0
3,5
2013
4,6
2,4
9,6
1,8
8,1
1,6
2,7
4,4
2,2
4,1
1,3
4,4
1,8
4,0
2,4
4,0
3,5
2014
4,6
2,4
9,5
1,7
8,1
1,2
2,5
5,0
2,2
4,1
1,3
4,0
1,7
4,0
2,1
4,0
3,5
2015
100,0
18,28
16,92
5,28
6,12
3,44
2,81
2,97
2,65
2,77
2,12
2,16
1,64
1,98
1,68
0,95
0,34
Udział w światowym
PKB w %
2015
TABLICA 2.
34
Andrzej F. Bocian
Zarówno przebieg, jak i kierunek tych zmian jest trudny do przewidzenia – ważną rolę pełnią tu zarówno czynniki: strukturalne, instytucjonalne, polityczne i społeczne, jak i kulturowe i cywilizacyjne, ale również poziom rozwoju gospodarczego,
jakość kapitału ludzkiego oraz stratyfikacja dochodowa społeczeństwa i struktura
konsumpcji. Bez wątpienia, gospodarka światowa znalazła się w zaklętym labiryncie
narodowych i globalnych uwikłań finansowych, których oddziaływania na sferę realną są odkrywane od kilku miesięcy w różnych krajach prawie każdego dnia.
Polska, która jako jedyna gospodarka unijna w 2009 r. osiągnęła wzrost, w najbliższych latach będzie stopniowo przyśpieszać i w 2012 r. może osiągać wzrost
PKB na poziomie 3%, by w ciągu kolejnych trzech lat rozwijać się 4% rocznie.
Gospodarka Polski ma rozwinięty rynek wewnętrzny, efektywnie działający sektor
małych i średnich przedsiębiorstw, konkurencyjny – w miarę zdywersyfikowany –
eksport, stosunkowo mało zadłużone gospodarstwa domowe i zapewniony napływ
środków unijnych. Jednocześnie gospodarka polska, będąc silnie sprzężoną z rynkiem europejskim, narażona jest na wstrząsy generowane w gospodarkach Unii Europejskiej, co wpływa ograniczająco na jej tempo wzrostu.
Niezadowalająco jednak kształtują się w gospodarce polskiej wskaźniki fiskalne
(deficyt budżetowy, dług publiczny, wielkość wydatków sztywnych) oraz relacje
z rynku pracy (współczynnik aktywności zawodowej, a także współczynniki obciążenia ogólnego i obciążenia osobami w wieku poprodukcyjnym). W 2009 r. relacja
długu publicznego do PKB osiągnęła poziom 51%9. Taki wskaźnik plasuje Polskę w
Unii Europejskiej wprawdzie na odległej 15. pozycji, daleko za Włochami, które legitymują się wskaźnikiem 115,8% (czyli wartość ich długu publicznego przekroczyła
o prawie 16% wartość produktu krajowego), ale jest to relacja, która powinna budzić
uzasadniony niepokój (por.: wykres 2 A.). Spośród krajów Europy ŚrodkowoWschodniej w 2009 r. tylko Węgry miały tę relację gorszą – na poziomie 78,3%.
Relacja długu publicznego do PKB w pozostałych krajach tego obszaru była nie
wyższa niż 36,1% (Łotwa), a w Estonii wynosiła zaledwie 7,2% (por.: wykres 2 B.).
Większość krajów świata dotyczy problem długu publicznego, a zwłaszcza dynamika wzrostu jego relacji do PKB. Staje się to głównym problemem gospodarki
światowej, o którym coraz głośniej w mediach i w dyskusjach ekonomistów i polityków. Relacja światowego długu do światowego produktu w 2009 r. wyniosła 80%,
a w wielu krajach przekracza 100% – co jest uznawane za granicę bezpieczeństwa
ekonomicznego. Eksplozja długu publicznego w skali globalnej może wpłynąć na
silne spowolnienie światowego wzrostu gospodarczego w najbliższej dekadzie. Problemy gospodarki greckiej z ostatnich miesięcy i krajów grupy PIIGS10 oraz zadawniona sytuacja Japonii, której dług publiczny od wielu lat przekracza PKB (w 2009 r.
– aż ponad 2-krotnie), dodatkowo, wzmacniają opinię o czekającym gospodarkę
spowolnieniu i możliwej fali nowego kryzysu gospodarki światowej.
9 W 2004 r. Polska została przyjęta do Unii Europejskiej z długiem publicznym w relacji do PKB
na poziomie 45,7% PKB.
10 Są to: Portugalia, Włochy, Irlandia, Grecja i Hiszpania.
Makroekonomia wzrostu – uwarunkowania globalne
35
WYKRES 2.
Dług publiczny jako procent PKB
w krajach Unii Europejskiej w 2009 r. [%]
2A. O wysokiej relacji długu do PKB
Źródło: [Eurostat 2010].
36
Andrzej F. Bocian
2B. O niskiej relacji długu do PKB
Źródło: [Eurostat 2010].
Bank Rozliczeń Międzynarodowych11 opublikował w marcu 2010 r. raport na
temat światowego długu publicznego [Cecchetti, Mohanty, Zampolli 2010]. Gwałtowny wzrost długu publicznego w wielu gospodarkach narodowych, uznawanych
dotychczas za silne, został zauważony na początku 2010 r. Wzrost długu jest skutkiem programów pomocowych udzielanych sektorowi prywatnemu podczas kryzysu
i zamianą tego zadłużenia na dług publiczny, ale jest także efektem nadmiernych
wydatków publicznych realizowanych przez wiele krajów w ciągu ostatnich kilku lat
(dotyczy to głównie Europy). Dynamika narastania długu jest także związana z sytuacją demograficzną – starzejące się społeczeństwa i pogarszające się relacje współczynników obciążenia ogólnego i obciążenia osobami w wieku poprodukcyjnym.
Rosnący dług wiąże się także ze wzrostem kosztów jego obsługi (wzrost stóp procentowych), a pogarszające się oceny stanu poszczególnych gospodarek dodatkowo
wpływają na wzrost stóp procentowych. Papiery rządowe, dotychczas bezpieczna
11
Bank for International Settlements (BIS).
37
Makroekonomia wzrostu – uwarunkowania globalne
forma inwestowania, z uwagi na możliwość bankructwa krajów, przestają stanowić
zabezpieczenie, co dodatkowo wpływa na wzrost stóp procentowych.
Ekonomiści i politycy są zgodni, że sytuacja dojrzała do wprowadzenia w wielu
krajach głębokich i kompleksowych reform strukturalnych, ale tego typu propozycje
są kontestowane przez społeczeństwa, a zwłaszcza tam, gdzie ta potrzeba reform
jest najpilniejsza – dotyczy to zwłaszcza: Grecji, Hiszpanii i Włoszech.
W, wyżej wspomnianym, raporcie BIS zostały zaprezentowane trzy scenariusze
kształtowania się rozmiarów długu publicznego w perspektywie 2040 r. dla 12 krajów (por.: tablica 3.). Scenariusze różnią się między sobą założeniami, co do zakresu
przeprowadzonych reform (m.in.: zmianami w zakresie realizacji świadczeń społecznych i emerytalnych, zmianami w relacjach pracujących do emerytów, a także
innymi formami i ograniczeniami wydatków publicznych).
TABLICA 3.
Relacja długu publicznego do PKB w 2040 r.
Scenariusze
Wyszczególnienie
Austria
Francja
Grecja
Hiszpania
Irlandia
Japonia
Niderlandy
Niemcy
Portugalia
USA
Wielka Brytania
Włochy
bazowy
stopniowego przystosowania
ostrych cięć świadczeń
społecznych
300%
400%
400%
300%
320%
600%
400%
320%
280%
450%
520%
250%
150%
250%
280%
180%
220%
420%
220%
150%
140%
300%
380%
100%
70%
180%
150%
110%
150%
400%
80%
50%
100%
200%
300%
40%
Źródło: [OECD, projekcja autorska w: Cecchetti, Mohanty, Zampolli 2010].
W raporcie wyraźnie wskazuje się na zagrożenia płynące z długu ukrytego, który
niosą ze sobą procesy demograficzne starzejących się społeczeństw, zwłaszcza krajów europejskich. Jednym z radykalniejszych środków przeciwdziałania jest podniesienie wieku emerytalnego, co wydaje się być rozwiązaniem znacznie lepszym niż
cięcia zagwarantowanych świadczeń i podnoszenie podatków.
W raporcie wręcz się stwierdza, że rządy poszczególnych państw ulegają fascynacji wzrostem PKB, nie widząc zagrożeń, jakie dla tego wzrostu niesie z sobą powiększający się dług publiczny, który, powodując napięcia finansowe, odbija się rykoszetem na gospodarce realnej.
38
Andrzej F. Bocian
Wykres 3., sporządzony dla sześciu z, omawianych wyżej, krajów pokazuje ścieżkę dojścia przez te kraje do stanu wysokiego obciążenia długiem publicznym oraz
trajektorię wzrostu relacji długu do PKB do 2015 r., która została zaprognozowana
przez MFW.
WYKRES 3.
Dług publiczny jako procent PKB w wybranych, najbardziej zadłużonych,
krajach Unii Europejskiej oraz w Japonii i w Stanach Zjednoczonych,
w latach 2004–2015
Źródło: [International Monetary Fund, World Economic Outlook Database, April 2010].
Makroekonomia wzrostu – uwarunkowania globalne
39
5. Podsumowanie
Rozszerzający się w gospodarce światowej kryzys dał asumpt do wznowienia
odwiecznego sporu toczącego się wokół zagadnień wzrostu gospodarczego w rozumieniu dwóch szkół ekonomii – szkoły neoliberalnej i szkoły keynesowskiej [Madej 2009]. Mam wątpliwości, czy rzeczywiście jest to spór między zwolennikami rynku, jako głównego regulatora procesów gospodarczych, a etatystami, którzy eksponują rolę państwa w działalności gospodarczej i czy rzeczywiście obydwie szkoły
tworzą dwa bieguny ekonomii. Żaden z tych dwóch kierunków myśli ekonomicznej
nie kwestionuje przecież obecności i roli polityki gospodarczej w funkcjonujących
aktualnie systemach ekonomicznych, a granice przejścia między etatyzmem a rynkiem są bardzo płynne i trzeba wszechstronnej i wnikliwej analizy, by je uwypuklić.
Według krystalizujących się już ocen współczesnych zjawisk kryzysowych, zawiódł
jedynie system kontroli nadbudowany nad systemami finansowymi państw, który był
niedostatecznie dobrze opracowany i wdrażany do gospodarek poszczególnych krajów, a zwłaszcza dotyczy to gospodarki amerykańskiej. Banki i sektor finansowy –
w pogoni za coraz większymi zyskami – prowadziły bardzo ryzykowną grę, generując coraz to bardziej wyrafinowane instrumenty finansowe, co wymknęło się spod
kontroli. Jednocześnie System Rezerwy Federalnej od połowy lat dziewięćdziesiątych prowadził politykę „łatwego” kapitału i deregulacji finansowej. Wzrastały aktywa i ceny nieruchomości, Amerykanie się bogacili i zaciągali coraz większe pożyczki
na zakup domów i samochodów, a banki proponowały coraz łatwiej dostępne kredyty. W tej grze brali udział wszyscy – nie tylko banki i ich klienci, ale także producenci znajdujący popyt u konsumentów wyposażonych w gotówkę przez instytucje
finansowe. Wszystkie strony były zadowolone z szerzącego się dobrobytu, każda ze
stron notowała wzrost satysfakcji do czasu przerwania się tego „zaczarowanego kręgu” wzajemnych uzależnień opartych na zaufaniu społecznym. Nastał moment załamania. Kredyty trzeba było zacząć spłacać, gospodarstwa domowe zaczęły
zmniejszać konsumpcję, spadł popyt, podaż musiała być ograniczana, nastąpiły
zwolnienia pracowników, ceny nieruchomości zaczęły gwałtownie spadać, a banki
i instytucje finansowe tracić swoje aktywa.
Mimo że gospodarka amerykańska wygenerowała kryzys lat 2007–2009, była
i przez najbliższe dekady pozostanie najsilniejszą gospodarką światową, bowiem zagrożenie ze strony Chin czy Indii wydaje się być, jak na razie, mało realne. Zresztą
w rywalizacji tych dwóch azjatyckich gospodarek, w perspektywie trzydziestu-czterdziestu lat, większą szansę rozwojową ma gospodarka Indii z uwagi na większy potencjał demograficzny, na bardziej demokratyczne struktury społeczne i większe zasoby kapitału ludzkiego, a przede wszystkim intelektualnego.
Doświadczenie wynikające z kryzysu początku XXI wieku wskazuje, że rynek nie
zawiódł w swojej funkcji regulacyjnej – zmusił do korekty postępowania, wystawiając ujemną ocenę systemowi funkcjonowania społeczeństw konsumpcyjnych, żyjących ponad stan, ulegających reklamom i marketingowi. Obecny krach powinien
zmusić do przewartościowania funkcjonujących paradygmatów, powinien wymusić
nowe rozwiązania systemowe i instytucjonalne, a przede wszystkim dać początek
rzetelnej dyskusji na temat zrównoważonego rozwoju globalnego.
40
Andrzej F. Bocian
Wyjątkowość obserwowanych zjawisk (w sensie powszechności i równoczesności ich występowania) wskazuje, że świat biznesu czekają ogromne zmiany, a teoria
ekonomii musi uporać się z nowymi wyzwaniami. Pojęcie globalizacji musi na nowo
zostać zdefiniowane. Światowa gospodarka rynkowa pilnie wymaga nowych idei
i poważnego zainteresowania się procesami zachodzącymi pomiędzy gospodarką,
polityką i społeczeństwem, wymaga nowego paradygmatu12.
Literatura
Acocella N. 2002 Zasady polityki gospodarczej, Warszawa.
Barro R.J. 1997 Makroekonomia, Warszawa.
Barteczko K., Bocian A.F. 2008 Prognozowanie i symulacje gospodarcze. Metody, modele, zastosowania, Białystok.
Borowski J. 2008 Globalizacja, konkurencyjność międzynarodowa i strategie przedsiębiorstw,
Białystok.
Cecchetti S.G., Mohanty M.S., Zampolli F. 2010 The future of public debt: prospects and implications, „BIS Working Papers”, No. 30, March.
Domar E.D. 1962 Szkice z teorii wzrostu gospodarczego.
Friedman T.L. 2006 Świat jest płaski. Krótka historia XXI wieku, Poznań.
Frydman R., Goldberg M.D. 2009 Ekonomia wiedzy niedoskonałej, Warszawa.
Hayek von F.A. 2006 Konstytucja wolności, Warszawa.
Keynes J.M. 1985 Ogólna teoria zatrudnienia, procentu i pieniądza, Warszawa.
Kołodko G. 2009 Neoliberalizm i światowy kryzys gospodarczy, „Ekonomista”, nr 3;
J. Żyżyński 2009 Neoliberalizm jako strukturalna przyczyna kryzysu a poszukiwanie dróg
naprawy, „Ekonomista” nr 3.
Landes D.S. 2005 Bogactwo i nędza narodów, Warszawa.
Landreth H., Colander D.C. 1998 Historia myśli ekonomicznej, Warszawa.
Madej Z. 2009 Idee rządzą światem, „Ekonomista”, nr 5.
Mankiw N.G. 2008 Makroekonomista jako naukowiec i inżynier, „Gospodarka Narodowa”, nr 4.
Phelps E.S. 2010 Makroekonomia dla nowoczesnej gospodarki, „Gospodarka Narodowa, nr 3.
Polak E. 2009 Globalizacja a zróżnicowanie społeczno-ekonomiczne, Difin, Warszawa.
Romer D. 2000 Makroekonomia dla zaawansowanych, Warszawa.
Scholie J.A. Globalizacja. Krytyczne wprowadzenie, Sosnowiec 2006.
Solow R.M. 1957 Technical Change and the Aggregate Production Function, „The Review of
Economics and Statistics”, No 39.
Szymański W. 2004 Interesy i sprzeczności globalizacji, Warszawa.
Welfe W., Welfe A. 1996 Ekonometria stosowana, Warszawa.
Wojtyna A. 2008 Współczesna ekonomia – kontynuacja czy poszukiwanie nowego paradygmatu?, „Ekonomista”, nr 1.
Zabieglik S. 2003 Adam Smith, Warszawa.
12
Por.: [Wojtyna 2008; Phelps 2010].
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Anna CHMIELAK1
WYZWANIA WOBEC PAŃSTWA JAKO PODMIOTU
STOSUNKÓW MIĘDZYNARODOWYCH
Streszczenie
Uczestnikami stosunków międzynarodowych w coraz większym stopniu stają się podmioty pozapaństwowe. W takich okolicznościach pozycja państwa, jego siła i identyfikacja wykraczają poza wymiar: militarny, polityczny bądź ekonomiczny. Wyzwania współczesnego świata, oczekiwania społeczeństwa wobec swoich rządów i państw skłaniają do uznania wymiaru kulturowego jako podstawy bytu państwa na arenie międzynarodowej. Zarówno w aspekcie krajowym, jak i ponadkrajowym fundamentem funkcjonowania państwa są wartości. Na arenie krajowej są istotne wartości specyficzne dla
danej: kultury, tradycji, religii, natomiast na arenie ponadkrajowej ujawnia się pewna kompozycja
wspólnych wartości, to jest dobra wspólnego.
Słowa kluczowe: państwo jako uczestnik stosunków międzynarodowych, kulturowy wymiar państwa, interesy i wartości a sens istnienia państwa
CHALLENGES FACED BY STATE AS SUBJECT
OF INTERNATIONAL RELATIONS
Summary
Non-state subjects are becoming more and more active participants of international relations. In
such circumstances the position of the state, its power and identity go beyond militar, political or economic dimensions. Challenges of the contemporary world, social expectations of national governments
and states induce us to acknowledge the cultural aspect as the basis for the existence of a state in the
international arena. Both on a national and an international level, values constitute a prerequsite for the
existence of a state. On a national level, those values are crucial which are unique to a given culture,
tradition, religion, whereas internationally there appears a certain composition of common values, i.e.
the common good.
Keywords: State as participant in international relations, cultural dimension of State, interests and
values versus the sense of the existence of State.
1
Dr hab. Anna Chmielak – Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
42
Anna Chmielak
1. Wstęp
Interpretacja roli i miejsca państwa jako podmiotu stosunków międzynarodowych jest pochodną podejścia zarówno w wymiarze politycznym, jak i ekonomicznym. Od wielu lat toczy się ożywiona dyskusja nie tylko wokół umiejscowienia
i ważności państwa w obszarze gospodarki krajowej, ale także w kontekście zmniejszania się jego roli w obliczu rosnącego znaczenia i pozycji korporacji międzynarodowych i podmiotów transnarodowych. Z należną powagą są traktowane państwa
o znaczącym potencjale ekonomicznym bądź militarnym. Ich pozycja wśród uczestników stosunków międzynarodowych nie podlega dyskusji. Nieco mniejszą rolę
przypisuje się państwom: średniej wielkości, słabo rozwiniętym, objętym procesem
długotrwałej transformacji, a takich jest zdecydowana większość.
Konfrontacja takich treści i rozważań teoretycznych z rzeczywistością międzynarodową ujawnia pewną, delikatnie rzecz biorąc, nieadekwatność wobec globalnych
zagrożeń, problemów i potrzeb licznej grupy państw rozwiniętych, rozwijających się
i podlegających systemowym przekształceniom w kierunku zakorzenienia reguł rynku i demokracji. Powszechne, rozległe i szybko postępujące procesy globalizacji doprowadziły do zderzenia tradycyjnej roli państwa z dynamiczną i zróżnicowaną liczbą pozapaństwowych uczestników stosunków międzynarodowych. Równocześnie
mamy do czynienia z procesem ujawniania się i ścierania różnych systemów wartości
i celów, interesów oraz motywów aktywności na arenie międzynarodowej, a także
oczekiwań wobec pozostałych uczestników tych stosunków.
Ścieranie się różnych cywilizacji, zmiany, jakie dokonują się w każdej z nich będą
nasilać się i pogłębiać, przy równoczesnej potrzebie tworzenia powszechnego,
względnie spójnego, prawa i podstaw funkcjonowania różnych rodzajów organizacji
międzynarodowych. Każda cywilizacja wnosi do stosunków międzynarodowych:
własne wartości, tradycję, normy religijne i zasady postępowania. To, czy współczesne relacje międzynarodowe będą służyć realizacji wartości społecznych (godne życie, poczucie bezpieczeństwa, wolności i sprawiedliwości, szanse postępu i rozwoju),
zależy od gotowości i umiejętności państw – reprezentujących różne kultury – w zakresie kształtowania warunków poszanowania i realizacji wspólnych wartości, to jest
tych wartości, które wykraczają poza jedną kulturę. Poszanowanie różnorodności
kulturowej dokonuje się przez poszanowanie godności członka każdej społeczności
i każdego narodu.
Zasadniczy problem, podjęty w niniejszym artykule, można określić następująco:
rozważanie roli i miejsca państwa w gronie wielu, innych uczestników stosunków
międzynarodowych, prowadzone odrębnie dla wymiaru ekonomicznego i politycznego, nie odzwierciedla realiów współczesnego świata, w tym oczekiwań społeczeństw wobec poszczególnych państw. W konsekwencji, jako hipotezę przyjmuje
się następującą: podstawą określenia miejsca państwa we współczesnych stosunkach
międzynarodowych jest jego baza (wymiar) kulturowa. Zarówno w aspekcie krajowym, jak i ponadkrajowym fundamentem funkcjonowania państwa są wartości.
Na arenie krajowej są istotne wartości specyficzne dla danej: kultury, tradycji, religii,
natomiast na arenie ponadkrajowej kształt poszczególnych państw w pewnym stopniu jest podobny, ponieważ dotyka powszechnie podzielanych, wspólnych wartości.
Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych
43
2. Tradycyjne interpretacje państwa
jako podmiotu stosunków międzynarodowych
Najogólniej rzecz biorąc, na płaszczyźnie międzynarodowej można wyróżnić tak
zwane realistyczne, liberalne oraz transnarodowe ujęcie państwa. Każde z nich posiada pewne cechy adekwatności do rzeczywistości i cechy, które uległy znacznej
ewolucji.
W ujęciu realistycznym, państwo jest traktowane jako podstawowy uczestnik
stosunków międzynarodowych. Wszystkie państwa są tu suwerenne, nie ma centrum, które mogłoby podejmować decyzje zamiast lub w imieniu państw, przyjmować cele i środki ich realizacji. W rezultacie brakuje wyraźnego ośrodka, który mógłby określać reguły działania państw, relacje między nimi czy także – w razie potrzeby – zapobiegać konfliktom. W zabiegach o kształtowanie poczucia bezpieczeństwa
poszczególne państwa są zdane na siebie, co motywuje je do troski o budowę
i utrzymanie potęgi własnego państwa. Siła poszczególnych państw jest, w konsekwencji, definiowana względem siły (potęgi) pozostałych, liczących się państw.
W takich warunkach, dążenie do potęgi można określić jako konieczność, co wprowadza atmosferę rywalizacji i walki na arenie międzynarodowej.
Czynnikiem stabilizującym relacje między państwami staje się prawo oraz tzw.
moralność międzynarodowa (niezależnie od możliwości powstawania sytuacji tzw.
równowagi sił). Równowaga sił daje szansę na pewną, minimalną choćby, stabilność
i ład na arenie międzynarodowej, ogranicza racjonalność działań zbrojnych, tonuje
napięcia i konflikty.
Zwolennicy wizji liberalnej wskazują na różnice między interesem państw i narodów. Sugerują jednakże istnienie pewnej harmonii interesów narodów i społeczeństw i kształtowania się swoistego ładu społecznego. Ich zdaniem, egoistyczne
interesy wolnych ludzi skłaniają do nawiązywania współpracy i kształtowania się
więzi społecznych i ładu społeczno-gospodarczego. Harmonia dotyczy przede
wszystkim stosunków nawiązywanych i powstających spontanicznie w sferze gospodarczej, co w długim okresie przysparza korzyści wszystkim uczestnikom.
Interesy państw natomiast są reprezentowane przez rząd i siły polityczne sprawujące władzę, co może skłaniać je do walki o swoją pozycję. Dla ograniczenia tych
napięć należy upowszechniać system demokratyczny wyłaniania i sprawowania władzy. Ograniczanie zasięgu przestrzennego systemów politycznych, innych niż demokratyczny, zbliży do siebie interesy państw, narodów i społeczeństw w skali świata.
Należy zauważyć, że swobodny handel i wymiana między państwami służy, w ich
ujęciu, powiązaniu interesów narodowych państw z interesami społeczności międzynarodowej – pod warunkiem ustanowienia spójnego prawa międzynarodowego.
Proces ten jest wzmacniany przez tworzenie instytucji transnarodowych celem zapobiegania naruszaniu interesów i ładu międzynarodowego. Przy okazji, niejako
powstają społeczne i humanitarne przesłanki: pokoju, bezpieczeństwa, poszanowania godności jednostki ludzkiej
Trzeci wymiar stosunków międzynarodowych można określić jako transnarodowy.
Zgodnie z nim, wzrost liczby i aktywności poza państwowych uczestników stosunków międzynarodowych obniża pozycję państw w ich kształtowaniu. Rozszerzają się
więzi narodowych grup i interesów w ramach struktur transnarodowych, co osłabia
44
Anna Chmielak
znaczenie granic państwowych. Równocześnie ogranicza się perspektywa kontrolowania takich aktorów przez państwa. Aktorzy ci stają się autonomiczni i zdolni do
prowadzenia własnej polityki, głównie międzynarodowej. Na przesunięcie i modyfikację roli państwa w stosunkach międzynarodowych oddziałuje wzrost współzależności państw, który poszerza pole zbieżności ich interesów. Państwa coraz bardziej
liczą się z interesami partnerów, poszerzają współpracę, poszukują źródeł i warunków obopólnych korzyści. Polityka zagraniczna państw staje się zewnętrznym wymiarem troski o rozwój ekonomiczny i poprawę poziomu życia (dobrobyt) obywateli. Rozprasza się też potęga w stosunkach międzynarodowych, ponieważ państwa nie
mają monopolu na posiadanie siły, a zbrojenia i wojny są bardzo kosztowne. Wyrazem potęgi stają się względne zasoby (także miękkich) czynników produkcji będących nośnikami postępu i dobrobytu.
Żadna z, zarysowanych powyżej, wizji stosunków międzynarodowych i umiejscowienia w nich państwa nie jest w pełni adekwatna do rzeczywistości i przez to
zadowalająca. W każdej z nich można odnaleźć ważne elementy, lecz nie składają się
one na spójną wizję państwa jako uczestnika stosunków międzynarodowych. Jest to
pierwsza przesłanka do stawiania i weryfikowania hipotez. Drugą jest konieczność
istnienia silnego i sprawnego państwa – w obliczu postępującej globalizacji.
W warunkach funkcjonowania, w większej części świata, systemów niedojrzałej
gospodarki rynkowej i instytucji demokratycznych raczej o kruchych podstawach,
zadania państwa nie sprowadzają się tylko do zapewnienia uczciwych, zgodnych
z prawem relacji między podmiotami, zabezpieczenia transakcji rynkowych i warunków sprawowania władzy. Ważne jest także zapewnienie respektowania reguł między podmiotami, poszczególnymi rynkami towarów i czynników produkcji, przestrzegania zasad uczciwej konkurencji i odpowiedzialności za działania i decyzje zarówno w sferze ekonomicznej, jak i politycznej. Sukces otwierania gospodarki na rynek światowy, poddawania się globalizacji zależy od tego, czy zostaną zachowane
podstawy ładu społecznego. Drastyczne różnice ekonomiczne, brak rozwoju, ubóstwo, wykluczenie społeczne i polityczne są kluczową przyczyną konfliktów domowych i międzynarodowych. Wydaje się, że żaden podmiot nie zastąpi aktywności
państw w zakresie odpowiedzialności za realizację: ekonomicznych, społecznych
i kulturalnych praw człowieka, zachowania jego godności i szansy rozwoju.
3. Kulturowy wymiar państwa
Istotną część dialogu między cywilizacjami stanowi dyskusja o miejscu, roli
i funkcjach państwa oraz jego relacjach ze społeczeństwem bardzo różnie postrzeganych w dziedzictwie kulturowo-cywilizacyjnym Zachodu i Azji Wschodniej.
Dla zgłębienia przesłanek rozważania kulturowego wymiaru państwa, obok politycznego i ekonomicznego, zasadne jest zaprezentowanie, choćby tylko niektórych,
charakterystycznych cywilizacji i typowego dla nich postrzegania państwa.
U podstaw państwa chińskiego, posiadającego długą tradycję i ciągłość, leży kilka
istotnych okoliczności:
–
sformalizowany układ hierarchiczny na bazie rodziny;
–
pojmowanie jednostki jako integralnej części kolektywu;
Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych
–
–
–
45
wolność rozumiana jako dążenie jednostki do samodoskonalenia;
rytualne normy jako regulator życia społecznego i politycznego;
niski poziom aspiracji społeczeństwa osadzony na konfucjanizmie. [Rowiński, Pawłowski 2009 s. 299–300]
Konfucjanizm, bardzo głęboko osadzony w relacjach rodzinno-społecznych,
przeniknął do świadomości chińskiego społeczeństwa, stając się sposobem oglądu
rzeczywistości. Państwo postrzega się tu jako organizację opartą na zespole zasad
etycznych i moralnych dających gwarancję ładu i harmonii. Z upływem czasu stało
się ono instrumentem kreowania i utrwalania właściwych norm postępowania
i określonego ładu moralnego.
Rządzenie państwem, pojmowane jako moralne przywództwo, doprowadziło do
wykształcenia się, niepowtarzalnej w innych częściach świata (cywilizacjach), kultury
politycznej2. Chiny wywarły znaczący wpływ kulturowo-cywilizacyjny na państwa
sąsiedzkie z kręgu konfucjańsko-buddyjskiego. Łączą je bowiem historyczne więzi,
doświadczenie i podobieństwo struktur hierarchicznych. Dawało to władcom szansę
dominacji nad otaczającym światem. Siły militarnej używano do pacyfikacji sąsiadów
w celu poszerzania terytorium państwa. Jest faktem, że Chiny dość długo były wiodącą potęgą: polityczną, gospodarczą, militarną w swoim regionie. Obecnie, po wielu
doświadczeniach, państwo to buduje swój wizerunek jako odpowiedzialnego, skłonnego do współpracy, pokojowo nastawionego członka społeczności światowej.
Równocześnie forsuje obraz uczestnika stosunków międzynarodowych, przestrzegającego przyjęte powszechnie standardy i zasady ładu międzynarodowego, gotowego
ponosić odpowiedzialność z tytułu członkostwa w organizacjach międzynarodowych.
Indie są największym krajem demokratycznym, chociaż jako pierwsze skojarzenie
z takim systemem politycznym raczej nie występują w naszej świadomości. Jest to
starożytna cywilizacja, której wiele elementów nadal jest aktywnych, co oznacza ciągłość tradycji i współczesnej państwowości.
Pojęcie państwa w hinduskiej tradycji politycznej kształtują: różnorodność kulturowo-językowa, struktura społeczna, brak jedności politycznej [Zajączkowski 2009,
s. 325–348]. Ideałem państwa, według hinduizmu, jest imperium, którego zestaw
podstawowych celów jest jasny: zapewnienie ładu i bezpieczeństwa wewnętrznego,
ochrona i obrona przed zagrożeniem zewnętrznym, kształtowanie warunków postępu i poczucia dobrobytu.
Obecnie demokracja indyjska stoi przed wyzwaniem zapewnienia oraz podtrzymania hinduskiej dumy i przekonania o wielkiej hinduskiej tradycji, przy równoczesnej obronie uprawnień muzułmanów. Jest jej trudno realizować określoną politykę
z powodu: rozdrobnienia politycznego, braku autorytetu, ograniczeń wynikających
z sytuacji społeczno-politycznej. Indie, w konsekwencji, są miękkim państwem. Mimo to, są przykładem sukcesu w rozwoju demokracji wielokulturowej, której podstawą są: federalizm, konstytucjonalizm, prawa obywatelskie i polityczne dla osób,
mniejszości: religijnych, językowych, etnicznych.
2 Jest to zupełnie odmienne podejście wobec państwa, jako instytucji neutralnej aksjologicznie
i opartej na rządach prawa stanowionego.
46
Anna Chmielak
Najważniejszą kwestią dla Indii jest rywalizacja z USA i Chinami o status rangi
najwyższej, bowiem aspirują one do roli mocarstwa odpowiedzialnego za pokój
i stabilność. Oczekują, wobec tego, uznania swego państwa jako stabilizatora bezpieczeństwa i równowagi azjatyckiej, gwaranta porządku w regionie Azji i Pacyfiku,
mediatora w konfliktach sąsiedzkich oraz strategicznego partnera mocarstw, liczącego się w kształtowaniu ładu międzynarodowego.
Istota i charakter indyjskiej wizji państwa tkwi w uwarunkowaniach kulturowocywilizacyjnych, w przekonaniu o wielkości swojej historii i kultury. Wizja ta łączy
nowe i stare elementy, co wynika z faktu, że Indie są starą cywilizacją, ale nowym narodem. Elementy nowoczesności i tradycji łączą się w ramach dialogu kultur.
Demokrację indyjską cechuje elastyczność i żywotność, a państwo federalizm
i świeckość.
W Ameryce Łacińskiej ukształtowało się wiele: ras, kultur, języków jako efekt
ścierania się cywilizacji zachodniej i afrykańskiej. Instytucja państwa ukształtowała
się chyba na wzór państwa republikańskiego USA i Francji. Państwo republikańskie
jest tu rządzone przez: lokalnych, regionalnych i ogólnonarodowych możnowładców.
Ich interesy i wizja rozwoju dominuje w całości strategii i polityki rozwoju państw
tego regionu.
Jako podstawowe przyczyny słabości państw latynoamerykańskich można wskazać następujące: brak stabilności politycznej w wyniku ciągłych wojen domowych;
niestabilność ekonomiczną wynikającą z gospodarki monokulturowej, znacznych
nierówności społecznych, wrażliwości na zmiany w gospodarce światowej; uleganie
wpływom zewnętrznym (kolonizatorów); liczne i trwałe problemy separatystyczne,
korupcję, zorganizowaną przestępczość, handel narkotykami; brak u elit wizji jednego narodu [Gawrycki 2009, s. 355–356]. Idea państwa narodowego nie była tu
obecna, państwo stawało się emanacją grupy oligarchów (plantatorów rolnych, właścicieli kopalń, hierarchów kościoła katolickiego, wojska). Społeczeństwo jest tu heterogeniczne, niezwykle podzielone i rozwarstwione, co hamuje postęp w budowaniu tożsamości narodowej.
W państwach Ameryki Łacińskiej dominuje system prezydencki, przeniesiony
z tradycji anglosaskiej, ale poddany silnym wpływom tradycji hiszpańskiej, opartej na
koncentracji władzy w rękach monarchy. Czyni to w tradycji politycznej supremację
jednostki nad każdą formą władzy sprawowanej przez instytucje (np. demokratyczne). Powracający często do władzy wojskowi nie posiadają ani zrozumienia dla roli
instytucji państwa, ani kwalifikacji do kierowania nimi.
Z kolei, państwa afrykańskie w momencie powstawania były tworami sztucznymi, ponieważ obejmowały terytoria nie związane z: tradycją, kulturą, jednością etniczną. W ramach ruchów wyzwoleńczych i kształtowania się państwowości podzielono kontynent według stref wpływów kolonizatorów. Złożona struktura etniczna,
zróżnicowanie kulturowe populacji wykluczają kształtowanie się państw na wzór np.
europejski. Znaczny negatywny wpływ na kształt państwa mają tu elity, które wykształcone na wzór europejski powielają metropolitarny model organizacji państwa.
Afrykańskie systemy parlamentarno-gabinetowe oparte na wzorach brytyjskich lub
prezydenckie oparte na rozwiązaniach francuskich bądź amerykańskich z czasem
nabierają cech autorytaryzmu politycznego. Po części jest to skutek zupełnie innej
kultury politycznej.
Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych
47
W Afryce mamy do czynienia z: niskim poziomem wykształcenia, brakiem klasy
średniej, słabością instytucji społeczeństwa obywatelskiego. Przy braku poczucia
więzi obywatelskiej wobec własnego państwa, występowaniu ogromnych podziałów
etnicznych, prymacie tożsamości plemiennej pojawia się niebezpieczeństwo ukształtowania się systemu partyjnego odzwierciedlającego interesy wybranych grup etnicznych, powstających na bazie różnic ekonomicznych. Rodzi to wewnętrzne napięcia,
konflikty, wojny domowe. W takich warunkach tradycyjne formy kultury politycznej
nakazują zachowania wyborcze oparte na lojalności plemiennej. W dłuższym okresie
większe grupy mają możliwość utrwalenia i wzmocnienia swojej pozycji, zaś mniejsze tracą szansę na współudział w procesie decyzyjnym. Demokracja nie nabiera
cech systemu realnie istniejącego. Co więcej, demokracja oparta na istnieniu etnicznych partii politycznych może zagrażać integralności terytorialnej państwa.
Administrację państw afrykańskich cechuje niska efektywność, a przyczyn takiej
sytuacji jest wiele. Klasa polityczna skupia się na zdobyciu lub utrzymaniu władzy
i urzędu politycznego wraz z korzyściami, jakie z tego płyną. Instytucje państwa, od
początku powstania, stały się przedmiotem walki nowych elit politycznych. Stały się
obiektem zainteresowania zagranicznych rządów i korporacji transnarodowych
w poszukiwaniu przywilejów gospodarczych.
Czy wobec takiej palety kultur i specyfiki państw można próbować określić,
choćby tylko wstępnie, fundament państwa na arenie światowej?
4. Wspólne wartości jako idea globalna
Kultury są zwykle związane z: dużymi grupami społecznymi, narodami, grupami
etnicznymi, plemionami. Żaden system wartości kulturowych, jak dotąd, nie zyskał
charakteru uniwersalnego, głównie z powodu utrwalonych tożsamości grup oraz etnocentryzmu. W takim razie, czy istnieje szansa na wspólne wartości systemu światowego? Miałyby one posiadać identyczną treść, lecz niekoniecznie treść uwarunkowaną kulturowo. Przekonanie o uniwersalności podstawowych cech i dążeń ludzi
w dowolnej kulturze może stanowić bazę do poszukiwania uniwersalnych uprawnień
człowieka, niejako norm stanowionych, ale w sposób naturalny związanych z człowiekiem. Uniwersalizm miałby jednak oznaczać tendencję do upowszechniania,
trend dominujący i zyskujący przewagę nad innymi.
Na przeszkodzie takiej wspólnocie stoi tożsamość kulturowa, rozumiana jako
suma specyficznych cech wyróżniających kulturę danej grupy społecznej i stanowiących podstawę identyfikacji jej członków [Michałowska 2004 s. 253]. Obecnie, przyśpieszony postęp cywilizacyjny i globalizacja prowadzą do: ograniczenia regulacji
wewnętrznych poszczególnych rynków kulturalnych, przemieszczania się poszczególnych wartości w systemach kulturowych, pojawiania się ponadnarodowych zachowań kulturowych o cechach patologicznych oraz swoistej kultury masowej.
Zmian kulturowych jednakże nie da się powstrzymać, tak jak nie wyhamuje się zbliżania pewnych warstw kultury, głównie materialnej, w skali międzynarodowej.
Każda kultura stanowi unikalny zespół wartości. Dzięki własnej tradycji i środkom wyrazu narody zaznaczają swoją obecność w świecie. Wszystkie kultury cieszą
się jednakowym uznaniem, a każdy naród, każda społeczność ma prawo umacniać,
48
Anna Chmielak
chronić i zabiegać o poszanowanie swojej tożsamości kulturowej. Obecnie, można
wskazać wiele argumentów przeciw relatywizmowi kulturowemu (wojny plemienne,
łamanie praw grup etnicznych, dyskryminacja religijna). Nasuwa się ważne pytanie:
czy te zachowania mają swoje źródło w kulturze czy w polityce? Jaką rolę w tych
walkach odgrywa potrzeba zaspokojenia podstawowych potrzeb egzystencjalnych?
Wydaje się, że zasadniczą (dominującą) przesłanką tych walk nie były i nie stają
się aktualnie odrębne cechy kulturowe. Obok nich, ujawniają się interesy: polityczne,
ekonomiczne, terytorialne. Co więcej, w stabilnych, rozwiniętych społecznościach
zróżnicowane tożsamości kulturowe nie zakłócają sobie nawzajem współistnienia
i rozwoju. Wartości wszystkich kultur mogą rozwijać się i zbliżać do siebie bez konieczności absolutyzmu etycznego (przyjęcia jednej, wspólnej moralności dla
wszystkich ludzi, niezmienności i trwałości standardów moralnych), bez potrzeby
ingerencji i narzucania wartości uznanych za bardziej doskonałe.
W obszarze kultury globalizacji towarzyszą, co najmniej, trzy procesy:
–
następuje upodobnienie infrastruktury kulturowej i upowszechnianie materialnych elementów różnych kultur; zwykle upowszechniają się cechy kultur
najwyżej rozwiniętych państw i rozszerza się pole oddziaływania tzw. kultury masowej wywodzącej się ze społeczności amerykańskiej;
–
wzmacnia się promocja wartości etycznych kultury zachodniej, przez wyznawców i zwolenników traktowanych jako uniwersalne;
–
ujawnia się i nasila opór przeciwników dominacji kulturowej i homogenizacji kultury (zauważa się nasilenie tendencji narodowych, nacjonalistycznych
działań na rzecz manifestowania i zachowania tożsamości kulturowej).3
Katalog, tzw. uniwersalnych wartości, można odnieść do definicji dobra wspólnego. Jakkolwiek trudno jest odnaleźć wiarygodną i jednoznaczną definicję tej kategorii
społecznej, to można za takową uznać takie dobra, które są wyróżnione przez większość decydującą, stając się pewną sumą dóbr jednostkowych. Dobra wspólne dla
wspólnoty cechuje to, że pozwalają na jej przetrwanie w najtrudniejszych okolicznościach. Dobro wspólne może być traktowane jako filozoficzny cel państwa, ale z drugiej strony państwo staje się samo dobrem wspólnym obywateli.4 Kategoria dobra
wspólnego nabiera cech wartości konkretnej dzięki decyzjom władzy państwowej
i stanowi pewne ramy ideologiczne ograniczające jej decyzje i funkcjonowanie.5
Należy zauważyć, że dobrem wspólnym państwa nie jest suma jego podstawowych funkcji lub celów nadrzędnych (dobrobyt, sprawiedliwość, wolność, postęp).
Raczej ujmuje ono pewną ideę satysfakcjonującego stanu współżycia i egzystencji
oraz pomyślności i zadowolenia wszystkich członków społeczności. Staje się przez
to swoistą całością warunków życia i rozwoju społecznego, umożliwiających grupom społecznym i jednostkom samorealizację, poczucie godności i satysfakcji.
Szerzej na ten temat zob. np.: [Michałowska, op. cit. s. 261–263].
Szersze rozważania na ten temat znajdują się w opracowaniu: [Współczesne państwo w teorii i praktyce. Wybrane elementy 2008 s. 176–188].
5 B.J. Jeliński pisze, że polityka jest reprezentacją wszystkich interesów całego społeczeństwa. O jej
wartości decyduje dobro wspólne, związane z ideą prymatu całości nad częścią. Tworząc politykę, należy kierować się wolą i interesem większości, a decyzje uzgadniać ze wszystkimi podmiotami (w miarę
możliwości). Zob.: [Jeliński 2009 s. 18–19].
3
4
Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych
49
Wyjściową przesłanką spełnienia warunków realizacji dobra wspólnego jest wolność obywateli, która daje szansę na wnoszenie przez poszczególne jednostki swego
wkładu do dobra wspólnego. Kontrowersje wokół tej kategorii wiążą się z faktem
powstawania dylematu: czy interes społeczeństwa (sprawiedliwość społeczna, poczucie bezpieczeństwa) jest nadrzędny w stosunku do wartości uznawanych za kluczowe przez poszczególne jednostki. Konflikt dobra wspólnego z innymi wartościami można zauważyć na przykład w procesie stanowienia prawa zapewniającego
korzyści jednym grupom społecznym kosztem innych grup społecznych (publiczna
edukacja, pomoc ubogim, powszechna opieka zdrowotna). Bywa to traktowane jako
niesprawiedliwe – niezależnie od sposobu stanowienia i funkcjonowania.
Współczesna debata wokół państwa toczy się przede wszystkim między liberałami i komunitarystami.
Cechami podstawowymi filozofii liberalnej jest pierwszeństwo wolności indywidualnej przed dobrem wspólnym, neutralność państwa w sprawach: filozoficznych,
etycznych, religijnych. Podejmując decyzje, człowiek stwarza pewien wzór wyboru
dla innych ludzi, dlatego powinna go cechować odpowiedzialność za siebie i innych.
Prawo stanowione przez państwo ma kształtować takie warunki, w których jednostki mogą bez różnych ingerencji samodzielnie decydować o celach i sposobach swojego życia. Podstawowe wolności i prawa powinny być poza zakresem ingerencji
państwa. Ogólnie rzecz biorąc, system szanujący wolność jednostki umożliwia całemu społeczeństwu kreatywność i rozwój.
Zgodnie z koncepcją komunitaryzmu, polityczny i moralny rozwój jednostki
dokonuje się w kontekście wspólnoty. Jej główne cechy to uznanie, że dobro wspólne ma pierwszeństwo przed prawami jednostki. Przyjęcie ochrony dóbr wspólnych
jako głównego zadania państwa, aktywna postawa państwa w kształtowaniu postaw:
religijnych, etycznych, filozoficznych jednostek, uznanie, że prawa i obowiązki jednostki są równie ważne jako wartości wspólnoty. Wyróżnia się tu przede wszystkim
przedkładanie dobra wspólnego nad prawa jednostki.
Ważne jest, jak się wydaje, określenie zakresu dobra wspólnego i w związku
z tym podejmowanie prób godzenia różnych wartości. Podejście liberalne propaguje
tolerancję przy równoczesnym skupieniu się nie na wartościach naczelnych, ale raczej instrumentalnych. Wspólnota jest jednakże niezbędna dla poczucia bezpieczeństwa i wspierania jednostek, nadania sensu ich działaniom. Zatem, gdzie tu jest miejsce dla państwa?
Geoekonomia i geopolityka są konsekwencją dominacji wymiaru ekonomicznego
lub politycznego w stosunkach międzynarodowych, mającej miejsce w warunkach
akceptacji wybranych cywilizacji i ram kultury. Jedno i drugie zjawisko wyraża nie tyle interesy narodu lub poszczególnych państw, co wybranych, związanych z władzą
grup, interesów (ekonomicznych, politycznych).6 Akceptacja jednej bądź drugiej fiCelem geoekonomii nie jest poprawa poziomu życia, tylko zdobycie i (lub) utrzymanie pożądanej
pozycji w gospodarce światowej. Chodzi tu głównie o pozycję w strategicznych dziedzinach działalności gospodarczej o dużej wartości dodanej. Jej konsekwencje to głównie: poważne straty przedsiębiorstw pozbawionych wsparcia ze strony państwa, nadwyżki zdolności produkcyjnych we wspieranych
gałęziach, marnotrawstwo zasobów na skutek przeinwestowania, wzrost znaczenia rządzących elit.
Zob. np.: [Luttwak 2000 s. 161]. Paradygmat geoekonomii opiera się na założeniu o autonomiczności
i wyłączności zjawisk ekonomicznych wobec celów politycznych i wojskowych.
6
50
Anna Chmielak
lozofii kształtowania relacji między państwami, podmiotami stosunków międzynarodowych ociera się o hipokryzję. Dzieje się to, bowiem przy pełnej świadomości
różnicowania pozycji poszczególnych grup, tak w strukturze własności, jak
i w strukturze władzy politycznej, jest wyrazem nie silnego, skupionego na realizacji
dobra wspólnego państwa, ale państwa słabego, podatnego na naciski i oczekiwania
wybranych, lecz wpływowych grup interesu. Jednakże państwo musi być silne, lecz
nie z tytułu potęgi ekonomicznej lub militarnej, tylko w wyniku akceptującej postawy swoich obywateli, a więc poprzez legitymizację.
Wyjściowym elementem dobra wspólnego społeczności światowej jest zapewne
poczucie, szeroko rozumianego, bezpieczeństwa, godności i zadowolenia z życia.7
Nie stoi to w sprzeczności z wartościami poszczególnych cywilizacji i wyrosłych na
ich bazie kultur i religii.8 Realizacja tych wartości jest ściśle związana ze sprawnością
i efektywnością sektora publicznego. Dyskusja o państwie w epoce globalnej może
toczyć się wokół określenia ram systemowych rozwoju sektora usług publicznych.
Jeżeli miałby on nie przyjmować cech geoekonomii i troszczyć się o interesy określonych grup bądź państw, to musi być podporządkowany realizacji idei dobra wspólnego
społeczności światowej, a więc tych wspólnych, niekwestionowanych wartości.
Trudno jest w takim razie zaakceptować jako dopuszczalną strategiczną politykę
handlową prowadzoną przez państwa (głównie rozwinięte), ponieważ ona nie jest
funkcjonalna wobec rozwoju i funkcjonowania gospodarki światowej9. Jeżeli w wyniku różnych procesów dokonujących się w poszczególnych państwach i społecznościach międzynarodowych dochodzi do wyobcowania i atomizacji pewnych systemów wartości (np. świata zachodniego), to stają się one przeszkodą w realizowaniu
potrzeb (wartości) społeczności światowej. Interesy i działania budowane na układach wartości określonych grup społecznych nie są w stanie zapewnić nawet minimum uczciwości i zaufania, stanowiących podstawę funkcjonowania gospodarki
rynkowej i systemu demokratycznego. Są one bowiem fundamentem instytucji tych
systemów. Upowszechnianie idei wolnego handlu nie dynamizuje rozwoju i społecznie akceptowanych przemian strukturalnych, zaś demokratyzacja świata, tzw.
nie-zachodniego, nie łagodzi sprzeczności i poczucia niesprawiedliwości [Pawluczuk
2008 s. 73–74]. Nie buduje atmosfery troski o dobro wspólne, a nawet nie wskazuje
jego istoty. Forsowanie określonych wzorców i paradygmatów życia kulturowocywilizacyjnego nie przyjmuje się na dowolnym gruncie kulturowym, raczej rodzi się
opór społeczny.10
Wystarczy zwrócić uwagę na zapis ONZ dotyczący Milenijnych Celów Rozwoju.
Na przykład. A. Giddens stoi na stanowisku, że nowy porządek świata będzie budowany na: suwerennych państwach narodowych, demokracji, systemie kapitalistycznym. Równocześnie podkreśla
konieczność zaspokajania potrzeb podstawowych, stanowiących bazę dla: porządku, poczucia bezpieczeństwa i ograniczenia ryzyka. Zob.: [Giddens 2008 s. 54].
9 Można wskazać kilka źródeł sprzeczności i rywalizacji państw: stosowanie metod działania właściwych dla sfery wojskowości, wypaczenie reguł rynku, powstawanie bloków handlowych nabywających określone uprawnienia.
10 Na przykład w Chinach, dynamicznej dziś gospodarce, jest wysoki opór społeczny przed przyjmowaniem standardów zachodniej kultury. Funkcjonuje tu stabilny, autorytarny system polityczny,
rozbudowany jest interwencjonizm państwa, minimalna aktywność państwa w sferze społecznej, brak
7
8
Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych
51
Koncepcja dobra wspólnego odnosi się do interpretacji głównych, globalnych
zagrożeń. Zalicza się do nich m. in. następujące: rozwój lub jego brak, bezpieczeństwo szeroko rozumiane, zmiany środowiska przyrodniczego. W tej sytuacji racjonalny jest kompleks działań międzynarodowych prowadzonych na forum światowym [Gryz 2009, s. 82–84]. Potrzeba taka nasila się z tytułu: powszechnego zjawiska
migracji, braku jednolitości etnicznej i kulturowej, nie tylko w wymiarze ponadkrajowym, ale także w ramach granic państw.11 Spory kulturowe pozostają bowiem
główną przyczyną konfliktów.
5. Podsumowanie
Jakkolwiek nie jest działaniem prostym i jednoznacznym poszukiwanie kwantum
wspólnych wartości, należy podejmować takie próby w imię kształtowania atmosfery
współpracy w wymiarze ponadkrajowym. Alternatywą jest bowiem atmosfera: rywalizacji, dominacji, walki interesów grupowych i marginalizacji znacznej części społeczności światowej.
Literatura
Gawrycki M.F. 2009 Specyfika, tradycje i formy państw w Ameryce Łacińskiej, [w:] Państwo
w teorii i praktyce stosunków międzynarodowych, (red.) M. Sułek, J. Simonides, Warszawa.
Giddens E. 2008 Konsekwencje nowoczesności, Kraków.
Gryz J. 2009 Globalne czynniki destabilizacji ładu międzynarodowego: Czynniki stabilizacji
i destabilizacji w stosunkach międzynarodowych na początku XXI wieku, (red.) I. SławowyKawa, Kraków.
Rowiński J., Pawłowski J. 2009 Specyfika i tradycje państwa w Azji Wschodniej na przykładzie
Chin, [w:] Państwo w teorii i praktyce..., op. cit.
Jagiełło B. 2009 Dialog międzykulturowy – nowy element stabilizacji w stosunkach międzynarodowych, [w:] Czynniki stabilizacji i destabilizacji..., op. cit.
Jeliński B.J. 2009 Polityka współpracy gospodarczej z zagranicą, Gdańsk.
Luttwak E. 2000 Turbokapitalizm. Zwycięzcy i przegrani światowej gospodarki, Wrocław.
Michałowska G. 2004 Uniwersalizm, tożsamość i relatywizm kulturowy a globalizacja, [w:]
Globalizacja a stosunki międzynarodowe, (red.) E. Haliżak, R. Kuźniar, J. Symonides, Bydgoszcz – Warszawa.
Pawluczuk W. 2008 Wprowadzenie do teorii cywilizacji, Cz. 1., Systemy teoretyczne, Białystok.
Polak E. 2009 Jakie państwa zyskują na globalizacji?, [w:] Ekonomiczne i polityczne wyzwania
we współczesnym ładzie globalnym, red. Maria Giedz, Artur R. Kozłowski, Rafał Majewski,
Warszawa.
Współczesne państwo w teorii i praktyce. Wybrane elementy 2008, (red.) J. Oniszczuk, Warszawa.
Zajączkowski J. 2009 Wizja państwa w indyjskiej teorii i praktyce politycznej, Warszawa.
sektora publicznego, w tym: edukacji, opieki zdrowotnej, zabezpieczenia społecznego. Zob. szerzej na
ten temat: [Polak 2009].
11 Zob. analiza skutków tego procesu w opracowaniu: [Jagiełło 2009 s. 180–181].
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Adam OLEKSIUK1
INNOWACJE JAKO CZYNNIK
ROZWOJU GOSPODARKI ŚWIATOWEJ
W ŚWIETLE STRATEGII INNOWACYJNOŚCI OECD
Streszczenie
Opracowanie koncentruje się na omówieniu roli innowacji i innowacyjności we współczesnym
świecie. Przygotowana przez Organizację Współpracy Gospodarczej i Rozwoju w 2010 roku Strategia
Innowacyjności stała się punktem wyjścia do rozważań na temat miejsca innowacji w rozwoju gospodarki światowej, szczególnie w obliczu zjawisk kryzysowych, jak też wielu innych wyzwań natury ekonomicznej i społecznej. W artykule zaprezentowano najważniejsze korzyści wynikające z inwestowania
w nowoczesne, innowacyjne rozwiązania, jak też przedstawiono bariery, które hamują możliwości rozwoju ludzkiej kreatywności i przedsiębiorczości. W pracy sformułowano tezę, że innowacyjność poszczególnych państw i regionów, będzie stawać się coraz bardziej niezbędna w kreowaniu wzrostu gospodarczego, zatrudnienia oraz poprawy standardów życia. Autor jednocześnie wyraża przekonanie,
że samo wsparcie z publicznych środków projektów o charakterze innowacyjnym jest niewystarczające
i może nie przełożyć się na szybki rozwój gospodarki, zaś ewentualne pozytywne efekty mogą być widoczne dopiero w dłuższej perspektywie czasowej.
Słowa kluczowe: innowacje, innowacyjność, Organizacja Współpracy Gospodarczej i Rozwoju,
strategia, badania i rozwój, produkt krajowy brutto
INNOVATION AS A GLOBAL ECONOMY FACTOR DEVELOPMENT STRATEGIES
BY INNOVATION STRATEGY OECD
Summary
The paper is focused on discussing the role of innovation and innovativeness in the contemporary
world. Prepared by the Organisation for Economic Cooperation and Development in 2010 Innovation
Strategy has become a starting point for reflection on the placement innovation in the development of
world economy, especially in the face of crisis phenomena, as well as many challenges of an economic
and social nature. The paper presents the benefits of investing in modern, innovative solutions, as well
as barriers that inhibit the development of human creativity and entrepreneurship. The paper formulates the thesis that innovation of individual countries and regions will become increasingly essential in
creating economic growth, employment and improvement of living standards. The author also believes
that mere support of innovative projects from public funds is insufficient and may not translate into
rapid development of economy and possible positive effects can only be visible in the long term.
Keywords: innovations, innovativeness, OECD, strategy, R&D, GDP.
1 Dr Adam Oleksiak – Uniwersytet Warmińsko-Mazurski w Olsztynie, Zakład Stosunków Międzynarodowych.
Innowacje jako czynnik rozwoju gospodarki światowej ...
53
1. Wstęp
Innowacje stanowią czynnik napędzający wzrost gospodarki i pozwalają stawić
czoło wyzwaniom w sferze ekonomicznej i społecznej. W latach 2008–2010 doszło
do: obniżenia poziomu wzrostu światowego produktu krajowego brutto (szczególnie
w krajach rozwiniętych), zwiększenia stopy bezrobocia oraz zwiększenia długu publicznego. Niezbędne dla ożywienia gospodarki i wejścia na ścieżkę bardziej zrównoważonego rozwoju są nowe (alternatywne) źródła wzrostu gospodarczego, z powodu słabnięcia znaczenia niektórych tradycyjnych. W wielu krajach obserwuje się
spadek liczby ludności, co zmniejsza rolę czynnika pracy w długoterminowym wzroście PKB. Co więcej, szczególnie w przypadku rozwiniętych gospodarek, inwestycje
w kapitał rzeczowy przynoszą coraz mniejsze zyski i mogą okazać się niewystarczające do wzmocnienia długoterminowego rozwoju. Powyższa obserwacja odnosi się
także do „gospodarek wschodzących” (ang. emerging economies), które postrzegają
innowacje jako sposób na zwiększenie konkurencyjności, zdywersyfikowania gospodarki i przechodzenia ku działalności przynoszącej wyższą wartość dodaną [OECD
a 2010 s. 1]. Jednym z ważniejszych, aczkolwiek nie jedynym, wskaźnikiem określającym innowacyjność danej gospodarki są wydatki na badania i rozwój. Mimo że w
Polsce są one w stosunku do PKB relatywnie małe na tle państw lepiej rozwiniętych
(według danych GUS, w 2009 r. było to zaledwie 0,57% PKB), to jednak w ujęciu
realnym zwiększają się, ponieważ PKB polskiej gospodarki systematycznie wzrasta.
Ten rozwój gospodarczy zawdzięczamy w dużej mierze, implementowanym przez
MŚP, innowacjom. Ważnym stymulatorem są oczywiście środki unijne, ale niezależnie od pomocy z UE nie można bazować tylko i wyłącznie na nich. Jak wskazuje
prof. Tadeusz Baczko z Polskiej Akademii Nauk: Polska jest jednym z nielicznych krajów na świecie, przynajmniej w grupie krajów uprzemysłowionych, gdzie nakłady państwowe na badania są wyższe niż nakłady przedsiębiorstw (inwestycje firm na B+R to
0,18 proc. PKB, a nakłady publiczne 0,39 proc. PKB). W niemal wszystkich krajach
rozwiniętych jest bowiem odwrotnie – więcej inwestują w badania przedsiębiorstwa niż
państwo. Według danych Banku Światowego w Szwecji, inwestycje przedsiębiorstw
w B+R wynoszą 2,92 proc. PKB, przy wydatkach państwa 0,92 proc. PKB. W pracy
sformułowano tezę, że innowacyjność poszczególnych państw i regionów będzie
stawać się coraz bardziej niezbędna w kreowaniu wzrostu gospodarczego, zatrudnienia oraz poprawy standardów życia. Autor wyraża jednocześnie przekonanie,
że samo wsparcie projektów o charakterze innowacyjnym ze środków publicznych
jest niewystarczające i może nie przełożyć się na szybki rozwój gospodarki, zaś
ewentualne pozytywne efekty mogą stać się widoczne w dłuższej perspektywie czasowej. Potrzebne są inwestycje w projekty dobrze przemyślane, w innym wypadku
będziemy mieli do czynienia z marnotrawieniem środków publicznych. Obserwując
działania niektórych agend rządowych w Polsce, można odnieść wrażenie, że tak
właśnie się dzieje.
54
Adam Oleksiuk
2. Rola innowacji w osiąganiu celów gospodarczych i społecznych
Innowacje już obecnie stanowią ważny czynnik rozwoju gospodarek wielu krajów. Wspieranie działań innowacyjnych i promowanie innowacyjności jest jednym
z wiodących celów polityki gospodarczej między innymi krajów Unii Europejskiej.
Istotnym dokumentem Unii Europejskiej, który kładzie nacisk na znaczenie innowacji jako ważnego paradygmatu rozwoju współczesnej gospodarki, jest Strategia
Europa 2020, w którym ważnym projektem jest „Unia Innowacji” [European Commission 2010]. Nakreślony w nim główny cel akcentuje wykorzystywanie działalności
badawczo-rozwojowej i innowacyjnej do rozwiązywania wielu globalnych problemów, takich jak np.: zmiany klimatu, poprawa efektywności energetycznej, ochrona
zdrowia, walka z ubóstwem, zmiany demograficzne czy dostęp do czystej wody
[European Commission 2010 s. 9–10]. Według autorów Strategii Europa 2020,
współczesne wyzwania gospodarcze muszą odpowiadać powyższym wyzwaniom
społecznym. Wiele z owych wyzwań ma charakter globalny, a w związku z tym wymaga globalnych działań. Zwraca na to uwagę Robert B. Tucker, przenosząc jednak
akcent na coraz większe znaczenie kooperacji w tym obszarze [Tucker 2002 s. 163–166].
Wyzwaniom tym nie mogą stawić czoło pojedyncze państwa, co sprawia, że staje się
niezbędna lepsza koordynacja wysiłków międzynarodowych poprzez interwencje zarówno po stronie podażowej, jak i popytowej2. W dokumencie za istotne należy
uznać odejście od „sztywnego” wskaźnika 3% PKB nakładów na B+R w krajach
UE. Strategia Europa 2020 zakłada, że każdy kraj będzie uwzględniał swoje potrzeby
i możliwości przy określaniu wydatków na badania i rozwój3. W ten sposób większość krajów UE nie będzie funkcjonowała w sytuacji niemożliwości spełnienia
podstawowego z punktu widzenia innowacyjności wskaźnika, jakim jest procent
produktu krajowego brutto przeznaczany na badania i rozwój. Ministerstwo Nauki
i Szkolnictwa Wyższego określiło, że polskie wydatki ogółem na badania i rozwój
w 2020 r. (tzw. GERD) względem PKB mogą przybrać trzy scenariusze, pierwszy –
1,9 proc. PKB, drugi – 1,7 proc. PKB lub trzeci 1,45 proc. PKB. Najbardziej optymistyczny wariant został uzależniony od możliwości pozyskania odpowiednio wysokiego wsparcia z funduszy unijnych w perspektywie finansowej w latach 2014–2020
oraz zmiany dotychczasowej struktury finansowania nakładów na badania i rozwój.
Wskaźnik nakładów na badania i rozwój, według tych założeń, ma być generowany
w głównej mierze ze środków publicznych, w tym przede wszystkim unijnych, a nie
ze środków prywatnych.
Kryzys, który miał miejsce w skali globalnej w końcu pierwszej dekady XXI wieku,
uwypuklił jeszcze większą potrzebę inwestowania w innowacje, które wielu anality2 W przypadku braku innowacji, stawienie czoła np. zmianom klimatycznym będzie znacznie bardziej kosztowne. Ponadto, napędzany innowacjami wzrost ułatwia rządom dokonywanie niezbędnych
inwestycji i podejmowanie interwencji publicznych.
3 Równocześnie należy uwypuklić fakt, że innowacje stają się powoli czymś więcej niż tylko samymi
wydatkami na badania i rozwój. Podkreśla to już wielu badaczy, zarówno teoretyków, jak i praktyków.
Wynika to z faktu, że innowacje są wysoce interaktywnym i interdyscyplinarnym procesem i w coraz
większym stopniu obejmują współpracę rosnącej i zróżnicowanej sieci: interesariuszy, instytucji i użytkowników. Poza tym, pojawienie się nowych, ważnych graczy zwiększyło złożoność wieloaspektowej
panoramy międzynarodowych innowacji.
Innowacje jako czynnik rozwoju gospodarki światowej ...
55
ków i ekspertów uznaje za istotny sposób kreowania nowych, alternatywnych rozwiązań globalnych problemów. O ile, generalnie, cięcia wydatków publicznych są
niezbędne, o tyle rządy muszą nadal inwestować w badania i rozwój, edukację czy
infrastrukturę. Redukcja wydatków publicznych na działania wspierające innowacyjność może, co prawda, przynieść krótkoterminowe korzyści dla budżetu, ale jednocześnie jest wysoce prawdopodobne, że doprowadzi do podkopania fundamentów
długoterminowego wzrostu gospodarczego. Eksperci OECD zwracają uwagę na to,
że publiczne inwestycje w badania podstawowe stanowią szczególną pożywkę dla
przyszłych innowacji (jak to miało miejsce w przeszłości w przypadku np. Internetu
i badań nad ludzkim genomem) i będą niezbędne do wspierania przełomowych
technologii mających przeciwdziałać zmianom klimatycznych oraz innym, globalnym wyzwaniom. Jednocześnie, istnieją znaczne możliwości poprawy efektywności
wydatków budżetowych i bardziej innowacyjnego podejścia do świadczenia usług
publicznych. Na przykład nowe podejście do systemu edukacji i kształcenia może
tylko zwiększyć zyski z publicznych inwestycji w innowacje. Ponadto, wiele działań
w sferze polityki gospodarczej, mogących sprzyjać wzrostowi innowacyjności, nie
wymaga dodatkowych lub znaczących inwestycji publicznych. Reformy strukturalne,
odnoszące się do bazowych warunków odpowiadających wspieraniu innowacji (takie
jak usuwanie barier prawnych dla innowacyjności i przedsiębiorczości, w tym przepisów administracyjnych, oraz sprzyjające wzrostowi gospodarczemu reformy podatkowe), mogą w istotny sposób zwiększyć innowacyjność i stymulować wzrost gospodarczy. Większość krajów powinna dążyć do wzmocnienia sił „oddolnych”
sprzyjających wyzwoleniu popytu na innowacyjne produkty i usługi, zaspokajające
potrzeby społeczne i globalne. Służyć temu może np.: urealnienie cen, większe
otwarcie rynków na konkurencję oraz opracowanie regulacji sprzyjających pobudzeniu i uruchomieniu innowacyjnych rozwiązań w takich obszarach, jak profilaktyka
zdrowia czy ochrona środowiska. Innym, ważnym przykładem jest lepsze wykorzystanie zamówień publicznych, co może również okazać się skuteczne, zwłaszcza gdy
rząd jest istotnym aktorem w tej materii. Dobrze zaprojektowana polityka oddziaływania na popyt jest mniej kosztowna niż bezpośrednie środki wsparcia. Jest ona
skierowana nie do konkretnych firm, ale bezpośrednio nagradza innowacyjność
i efektywność. Popyt jest ściśle związany z podażą, w związku z tym, prowadzenie
odpowiedniej polityki oddziaływania na podaż jest również niezbędne do stworzenia
warunków sprzyjających innowacyjnym działaniom biznesu.
Analizując czynniki popytowe i podażowe, warto równocześnie zaznaczyć,
że w ciągu kilku lat nie sposób uzyskać odpowiednio dynamiczny wzrost gospodarczy za pomocą „działań dotyczących samych innowacji”. Faktem jest, co pokazują
doświadczenia różnych krajów i na co wskazuje literatura przedmiotu, że innowacyjny pomysł może powstać z dnia na dzień, a nawet z godziny na godzinę, niełatwo
jednak zapewnić, że równie szybko pojawią się jego efekty rynkowe. Tym bardziej
trudno oczekiwać, by wywarły one rzeczywisty wpływ na gospodarkę w terminie na
tyle krótkim, żeby w realny sposób wspomóc „podnoszenie się z kryzysu”. Samo
wsparcie innowacyjności nie gwarantuje szybkiego jej wzrostu, efekty będą widoczne
dopiero w dłuższej perspektywie czasowej. Ważną rolę w zakresie innowacji spełnia
także infrastruktura instytucjonalna, której zadaniem jest promowanie i wpieranie
działalności innowacyjnej oraz transferu technologii do przedsiębiorstw. Jeśli jednak
56
Adam Oleksiuk
polityka na rzecz innowacji ma być skuteczna, musi ona odzwierciedlać sposób,
w jaki innowacje powstają już obecnie. Zakończone powodzeniem przekształcenie
wynalazku w innowacje (finalny efekt) wymaga szeregu wzajemnie uzupełniających
się działań, w tym zmian: organizacyjnych, prawnych, marketingowych i edukacyjnych. Ten ostatni czynnik należy uznać za bardzo znaczący, biorąc pod uwagę, że
nauka nadal pozostaje istotnym składnikiem innowacji.
3. Strategia Innowacyjności OECD – cel, priorytety, wyzwania.
Próba oceny
Celem Strategii Innowacyjności OECD jest wsparcie procesu tworzenia polityki
w zakresie, szeroko rozumianej, innowacyjności. Dokument ten jest zbudowany
z pięciu priorytetowych działań państwa, które razem tworzą spójne i kompleksowe
podejścia do polityki innowacyjnej, wspierać ożywienie gospodarcze stymulowane
przez innowacje oraz wzmacniać rolę innowacji w perspektywie długoterminowej
[OECD b 2010].
Priorytet pierwszy odnosi się do ludzkiego aspektu innowacji i dotyczy zalecenia,
aby zapewnić ludziom prawo do innowacji. W tej części dokumentu podkreśla się
między innymi znaczenie opracowywania strategii edukacyjnych, promujących kulturę przedsiębiorczości oraz międzynarodową mobilności uzdolnionych pracowników.
Drugi priorytet koncentruje się na innowacjach w przedsiębiorstwach, gdyż, jak czytamy, w dokumencie: firmy są niezbędne do przekształcenia dobrych pomysłów w miejsca pracy i dobrobyt. Trzeci priorytet odnosi się do dystrybucji wiedzy. Strategia
wzywa kraje do promowania technologii informacyjnych i komunikacyjnych, a w szczególności sieci szerokopasmowego dostępu do Internetu. Czwarty priorytet skupia się
na roli innowacji w rozwiązywaniu najważniejszych problemów współczesnego
świata. Strategia zachęca rządy do większej internacjonalizacji, podejmowanych
w tych obszarach, działań poprzez współpracę na rzecz rozwiązywania najważniejszych problemów, jakie stają dzisiaj przed społeczeństwami całego świata. Można to
osiągnąć dzięki nowemu modelowi zarządzania wielostronną współpracą w zakresie:
międzynarodowej nauki, technologii i innowacji. Priorytet piąty koncentruje się na
zarządzaniu oraz sposobach oceny indywidualnych strategii na rzecz innowacyjności.
Ewaluacja ma zasadnicze znaczenie dla poprawy efektywności i skuteczności strategii na
rzecz promowania innowacji i zapewnienia dobrobytu społecznego – napisano w, omawianym, dokumencie OECD. Istotne jest zapewnienie spójności polityki innowacji
i traktowanie jej jako głównego elementu polityki rządu, z silnym przywództwem ze
strony najwyższych szczebli politycznych. W promocję innowacji powinny być włączone również podmioty regionalne i lokalne.
W dokumencie zarysowano wiele kierunków działań, jednak brakuje wyraźnego
określenia, które z nich są najpilniejsze i konieczne do natychmiastowej realizacji,
a z których można będzie ewentualnie zrezygnować w sytuacji niedostatku szeroko
rozumianych środków. Wyodrębnienie priorytetów strategii powinno oznaczać identyfikację obszarów, których aktywne wsparcie przez państwo będzie służyć osiągnięciu celów strategii. W dokumencie tego nie widać, a wyznaczenie aż pięciu priorytetów, w ramach których planuje się realizację wszystkich postulatów w zakresie in-
Innowacje jako czynnik rozwoju gospodarki światowej ...
57
nowacyjności, moim zdaniem, powoduje, że dokument ma charakter bardzo ogólny
i rozkłada akcenty na zbyt wiele obszarów, co stawia pod znakiem zapytania możliwości implementacyjne Strategii Innowacyjności OECD.
Rozbudowanym wątkiem, w widocznym w całym dokumencie, jest problematyka
kapitału ludzkiego, który – co autorzy wielokrotnie podkreślają – jest istotą innowacji. Stworzenie ludziom możliwości tworzenia innowacji jest zależne m.in. od posiadanego przez nich wykształcenia, jak również od rozwoju różnorodnych umiejętności nabywanych poza systemem formalnej edukacji. Programy studiów i metody nauczania muszą kształcić w studentach umiejętność uczenia się i stosowania nowo
nabytych umiejętności przez całe życie. Dokument OECD podkreśla, że systemy
edukacyjne, służące rozwojowi kwalifikacji, powinny zostać zreformowane, tak by
mogły efektywnie funkcjonować na rzecz zaspokajania wymagań współczesnego
społeczeństwa [OECD b 2010 s. 55–85].
Uniwersytety, szkoły i ośrodki szkolenia zawodowego są niezbędnymi węzłami
systemu innowacji, jeśli chodzi o generowanie i przyciąganie kapitału ludzkiego stanowiącego warunek sine quo non do powstania innowacji4. Instytucje te działają jako
podstawowe „mosty” łączące różne podmioty – przedsiębiorstwa, rządy i państwa –
w bardziej otwarte systemy innowacyjne [OECD b 2010 s. 68–72]. Trudno się z tym
nie zgodzić. Głównym jednak wyzwaniem dla polityki państwa jest dostrzeżenie zasadniczej roli uniwersytetów w działalności innowacyjnej, zamiast postrzegania ich –
jak to zbyt często się dzieje – jako jedynie dostarczycieli określonych dóbr publicznych. Aby tak się stało, konieczna jest większa koncentracja decydentów na zapewnieniu: niezależności uczelni, konkurencji między nimi, ducha przedsiębiorczości
akademickiej i elastyczności uniwersytetów.
Innowacyjność gospodarki kraju zależy przede wszystkim od innowacyjności
przedsiębiorstw. Przedsiębiorstwa w wielu państwach inwestują już nie tylko w kapitał rzeczowy (maszyny i urządzenia), ale coraz częściej dostrzegają znaczenie wartości niematerialnych i prawnych, takich jak: badania i rozwój (B+R), oprogramowanie, bazy danych, a także umiejętności i kwalifikacje pracowników oraz kadry zarządzającej. Znaczna część wzrostu, tzw. wydajności wieloczynnikowej (MFP), jest we
współczesnym świecie związana z innowacjami. Wstępne szacunki wskazują, że
w: Austrii, Finlandii, Szwecji, Wielkiej Brytanii i Stanach Zjednoczonych inwestycje
w wartości niematerialne i prawne oraz wzrost wydajności wieloczynnikowej (MFP)
odpowiadały łącznie za 2/3–3/4 wzrostu wydajności pracy, odnotowanego w latach
1995–2006, co oznacza, że to właśnie innowacje były głównym motorem wzrostu.
Różnice w wydajności wieloczynnikowej (MFP) odpowiadają w znacznym stopniu
za poziom zróżnicowań pomiędzy krajami rozwiniętymi i rozwijającymi się. Sugeruje
to, że innowacyjność będzie w przyszłości głównym źródłem wzrostu gospodarczego w tzw. krajach wschodzących [OECD a 2010 s. 4–5]. Przedsiębiorcy są, jak można wywnioskować z lektury dokumentu, szczególnie ważnymi aktorami w procesie
4 Polityka rynku pracy powinna zapewniać elastyczność potrzebną do przesunięcia zasobów z firm
„schyłkowych” ku przedsiębiorstwom innowacyjnym, a jednocześnie udzielać wsparcia procesowi
kształcenia się przez całe życie oraz przekwalifikowania pracowników (re-skilling).
58
Adam Oleksiuk
tworzenia innowacji, ponieważ przyczyniają się oni do komercyjnego zastosowania
pomysłów.
Autorzy Strategii podkreślają, że jest niezbędna edukacja w zakresie przedsiębiorczości. Jest to fakt, jednak – co trzeba podkreślić – tylko niewielka część ludności ma dostęp do edukacji w zakresie postaw przedsiębiorczych. Należy wiec dążyć
do tego, aby polityka kształcenia i szkolenia sprzyjała przedsiębiorczości przez promowanie umiejętności i proinnowacyjnych postaw niezbędnych do podejmowania
twórczych działań jednostek najbardziej kreatywnych. Międzynarodowa mobilność
talentów przyczynia się do tworzenia i rozpowszechniania wiedzy, w szczególności
wiedzy „ukrytej” („tacit”). Aby stymulować ów przepływ wiedzy, państwo powinno
budować zdolność absorpcyjną, otwierać rynki pracy dla zagranicznych studentów
i zapewniać, by systemy podatkowe nie karały mobilnych wykwalifikowanych pracowników. Ze swojej strony kraje wysyłające powinny prowadzić politykę sprzyjającą ponownemu wchodzeniu naukowców powracających z emigracji na krajowy rynek pracy. Rozwiązania w zakresie migracji wysoko wykwalifikowanych pracowników powinny być: skuteczne, przejrzyste, proste i umożliwiać krótkoterminowe lub
„okrężne” przepływy osób. Odpowiednie polityki w tym zakresie powinny być
spójne z szerszą strategią migracji oraz politykami dotyczącymi rozwoju i pomocy,
tak aby przyczynić się do skutecznego zarządzania migracjami. Ludzie partycypują w
tworzeniu innowacji, nie tylko przez tworzenie, rozpowszechnianie czy też adaptację
technologii w miejscu pracy, ale także jako konsumenci. Edukacja konsumentów
powinna prowadzić do poprawy funkcjonowania rynków, przyczyniając się do tego,
żeby konsumenci mogli stać się aktywnymi uczestnikami procesu tworzenia innowacji i umożliwienia im podejmowania świadomych wyborów. Koncepcję tę nazywa się
w literaturze user-driven innovation; kładzie ona akcent na jak najszersze korzystanie
z pomysłowości (kreatywności) konsumentów, co tym samym wzmacnia konkurencję między przedsiębiorstwami. W tym kontekście szczególnie istotne jest zapewnienie, by informacje dostarczane konsumentom były zrozumiałe i uwzględniały różnorodność form i sposobów przyswajania informacji przez ludzi. Szczególnie ważną
rolę do odegrania w tym procesie mają nowe i „młode” przedsiębiorstwa, często dążące do wykorzystania możliwości technologicznych lub komercyjnych, które były
zaniedbywane przez przedsiębiorstwa działające dłużej na rynku. Zarówno łatwiejsze wejście na rynek, jak i wyjście z niego stanowią warunek konieczny prowadzenia
działalności w obszarze rozwoju nowych technologii. Uproszczenie ograniczenie regulacji i obciążeń administracyjnych, związanych z podejmowaniem działalności gospodarczej, prowadzi do ograniczenia owych barier wejścia na rynek. Prawo upadłościowe powinno być mniej represyjne w stosunku do przedsiębiorców i powinno
oferować korzystniejsze warunki restrukturyzacji przedsiębiorstw znajdujących się
w złej kondycji jednocześnie przykładać należytą wagę, w odniesieniu do kwestii zarządzania ryzykiem i potrzeby uniknięcia pokusy nadużycia. Według różnych badań,
między 20% a 40% nowo powstających firm upada w ciągu pierwszych dwóch lat
działalności. Realokacja zasobów ku bardziej efektywnym i innowacyjnym przedsiębiorstwom ma kluczowe znaczenie dla innowacji i wzrostu gospodarczego. Rozwój
sektora przedsiębiorstw może w wielu krajach stanowić szczególnie trudne wyzwa-
Innowacje jako czynnik rozwoju gospodarki światowej ...
59
nie. Niskie bariery regulacyjne mogą sprawić jednak, że szybko rozwijające się firmy
nie będą marnotrawić środków, mogących służyć ich rozwojowi, na pokonywanie
biurokratycznych przeszkód. Odpowiednia polityka może pomóc istniejącym, małym i średnim przedsiębiorstwom w zwiększeniu swej zdolności innowacyjnej, np.
wspierając je w formowaniu odpowiednich umiejętności.
Wyniki badania pt. Innowacyjność mikroprzedsiębiorstw w Polsce, zrealizowanego
na zlecenie Polskiej Agencji Rozwoju Przedsiębiorczości, pokazują, że dostęp do finansowania jest kluczowym ograniczeniem dla innowacji w sektorze biznesu, gdyż
wiąże się z tym określone ryzyko oraz, dość często, konieczność przyjęcia długookresowej perspektywy działania, zanim innowacja zacznie przynosić konkretne korzyści. Tym samym przywrócenie dobrej kondycji sektora finansowego powinno być
działaniem priorytetowym. Strategia Innowacyjności OECD podkreśla, że efektywnie
funkcjonujące rynki kapitałowe podwyższonego ryzyka (venture capital market) oraz
sekurytyzacja związanych z innowacją aktywów (np. własności intelektualnej) to kluczowe źródła finansowania dla wielu innowacyjnych firm i należy je w dalszym ciągu
rozwijać. Rynki finansowe muszą bowiem być w stanie zapewniać w wystarczającym
stopniu możliwość inwestycji długoterminowych oraz służyć rozwojowi przedsiębiorczości należących do głównych sił napędowych innowacji, jednocześnie oferując
zabezpieczenia przed ryzykiem. Jeśli poprawa dostępu do finansowania odbywa się
przez zaangażowanie środków publicznych, to te ostatnie powinny być przekazywane za pośrednictwem istniejącego systemu rynkowego na podstawie podejścia rynkowego. Tworzenie, rozpowszechnianie i wykorzystanie wiedzy mają zasadnicze
znaczenie, jeżeli chodzi o zdolność firm i państw do innowacji oraz ich rozwój
w coraz bardziej konkurencyjnej gospodarce globalnej. A to oznacza, że nauka nadal
powinna pozostać w centrum innowacji, natomiast publiczne instytucje badawcze
powinny zostać zreformowane, tak by były w stanie utrzymać i poprawić współpracę z sektorem biznesu. Obecnie, szybkie sieci komunikacyjne wspierają innowacje
w całej gospodarce tak, jak w przeszłości czyniły to: sieć elektryczna i transportowa.
Zadaniem rządu jest więc wspieranie rozwoju technologii informacyjno-komunikacyjnych, w szczególności sieci szerokopasmowych, stanowiących platformę innowacji, przez utrzymywanie otwartego, swobodnego, zdecentralizowanego i dynamicznego charakteru Internetu. Oprócz sprzętu i oprogramowania, infrastruktura ICT
obejmuje informacje, które są generowane lub finansowane ze środków publicznych. Dostarczanie tych informacji po niskich kosztach lub za darmo może stymulować innowacje i poprawić przejrzystość i efektywność działań władz. Przeszkody
utrudniające komercyjne i niekomercyjne wykorzystywanie informacji tworzonych
przez sektor publiczny powinny być usuwane (dotyczy to również: nadmiernie restrykcyjnych lub niejasnych przepisów dotyczących warunków dostępu i ponownego
wykorzystania; niejasnego i niespójnego systemu wyceny informacji, w przypadku
gdy ponowne ich wykorzystanie jest odpłatne, a także skomplikowanych i długotrwałych procedur licencyjnych). Generalnie, informacje natury publicznej powinny
pozostawać otwartymi, tak aby wyeliminować umowy o wyłączności i pozwolić na
innowacyjne ich wykorzystanie do celów zarówno komercyjnych, jak i niekomercyjnych. Można zauważyć, że prawo własności intelektualnej (IPR) stanowi istotną za-
60
Adam Oleksiuk
chętę do inwestowania w innowacje. Prawa te powinny być dobrze chronione i egzekwowane. Przyczyniają się one bowiem do tworzenia innowacji i są istotne dla
upowszechniania wiedzy oraz tworzenia wartości dodanej. Niektóre, dobre praktyki
w tym względzie już istnieją, ale jest wymagana szersza skala tego typu rozwiązań.
Strategia OECD kładzie nacisk – co było już wcześniej podkreślane – na zwiększenie rządowych inwestycji w: edukację, badania naukowe i inteligentne infrastruktury, aby umocnić potencjał rozwojowy. Niemniej, w obliczu deficytu budżetowego
i narastającego długu publicznego wielu krajów, istnieje ryzyko, że wydatki te będą
ograniczane. Wielu analityków podkreśla – z czym trudno się nie zgodzić – że byłoby to błędem. Otwarcie dostępu do danych z badań finansowanych ze środków publicznych może zwiększyć skuteczność ponoszonych z tych środków nakładów na
innowacje. Rządy powinny również usunąć przeszkody administracyjne, utrudniające
życie nowo powstającym przedsiębiorstwom, oraz zapewnić większą przyjazność
polityki podatkowej w stosunku do innowacji i przedsiębiorczości. Istniejące globalne wyzwania wymagają skoordynowanego podejścia mającego na celu przyśpieszenie
rozwoju nowych technologii i upowszechnianie oraz wprowadzanie na rynek innowacyjnych produktów i usług.
Nowy model zarządzania współpracą wielostronną w zakresie: nauki, technologii
i innowacji staje się coraz bardziej znaczącym paradygmatem rozwoju [Stoneman
1987 s. 23–28]. Mógłby on skupić się na: ustalaniu priorytetów, finansowaniu i rozwiązaniach instytucjonalnych oraz procedurach służących zapewnieniu dostępu do
wiedzy i transferowi technologii, rozwijaniu potencjału innowacyjnego oraz implementowaniu innowacji do powszechnego stosowania5.
Autorzy Strategii Innowacyjności podkreślają, że w niedługiej przyszłości rządy
będą musiały przejąć rolę przewodnią (przez inwestycje w badania publiczne i dobrze zaprojektowane wsparcie dla tych badań sektora prywatnego, które nie prowadzą bezpośrednio do korzyści komercyjnych) w tych dziedzinach, które firmy uznają
za zbyt ryzykowne i niepewne. Kraje o niskim produkcie krajowym brutto per capita
borykają się ze szczególnymi wyzwaniami, jeśli chodzi o uczynienie innowacji motorem rozwoju gospodarczego. Owe wyzwania odnoszą się m.in. do: niekorzystnych
„warunków ramowych” oraz niskiego poziomu kapitału ludzkiego i społecznego.
W krajach tych polityka powinna koncentrować się na zwiększeniu poziomu wykształcenia oraz wzmocnieniu warunków ramowych. Biorąc pod uwagę coraz bardziej kluczową rolę innowacji w osiąganiu szerokiego spektrum celów gospodarczych i społecznych, konieczne jest „zintegrowane” (obejmujące działanie całego
rządu) podejścia do polityki innowacyjnej. Wymaga to: stworzenia stabilnej platformy koordynacji działań, koncentracji na polityce średnio- i długoterminowej oraz
przywództwa decydentów politycznych najwyższego szczebla. Włączenie interesariuszy do tworzenia tego typu polityki może pomóc w opracowaniu wspólnej wizji
i prowadzeniu polityki bardziej skutecznie osiągającej cele społeczne. Dotyczy to
5 Ocena skutków w odniesieniu do środowiska (ang. environmental externalities), takich jak emisja
dwutlenku węgla, będzie stanowić ważny bodziec w odniesieniu do innowacji. Polityki podatkowa lub
inne instrumenty ekonomiczne mogą dostarczyć odpowiednich sygnałów, a tym samym służyć tworzeniu
rynku innowacji – podobną rolę może odegrać wyeliminowanie szkodliwych dla środowiska subsydiów.
Innowacje jako czynnik rozwoju gospodarki światowej ...
61
również spójności i komplementarności pomiędzy szczeblami: lokalnym, regionalnym, krajowym i międzynarodowym [OECD c 2010 s. 12–25].
Warto także na koniec zwrócić uwagę, że ewaluacja polityki proinnowacyjnej jest
niezbędna do zwiększenia efektywności i skuteczności działań służących wsparciu
innowacji i zwiększeniu dobrobytu społecznego. Niezbędna jest znacząca poprawa
mechanizmów owej oceny, tak by były one w stanie uchwycić coraz szerszy charakter innowacji oraz zapewnić lepszą informację zwrotną na linii ewaluacja – tworzenie
polityki proinnowacyjnej. Wymaga to również doskonalenia metod pomiaru innowacji, w tym wskaźników realizacji badających wpływ na gospodarkę i społeczeństwo (ang. outcomes and impacts), [Arnold 2004 s. 3–17].
4. Podsumowanie
Innowacje stanowią sposób stawiania czoła wyzwaniom natury gospodarczej
i społecznej oraz mają kluczowe znaczenie dla pobudzania rozwoju ekonomicznego,
dlatego nie powinno się ograniczać wydatków na działania, które mają zasadnicze
znaczenie dla przyszłości krajów. Nakłady w zakresie wsparcia innowacji poczynione dzisiaj, przyniosą w przyszłości (zresztą już przynoszą) korzyści dla światowej,
w tym i polskiej gospodarki. Polska w najbliższej przyszłości powinna więcej nie tylko środków publicznych, ale może przede wszystkim pieniędzy przedsiębiorstw
przeznaczać na sferę B+R, gdyż jest to warunek niezbędny do tego, aby być konkurencyjnym nie tylko na rynku europejskim, lecz również globalnym. Pamiętajmy, że
dzisiejszy wzrost gospodarczy Chin, Indii czy Brazylii, sterowany przez czynniki wytwórcze, w ciągu najbliższych kilku dziesięcioleci przekształci się w rozwój stymulowany przez innowacje (przekształcenie to jest już obecnie coraz bardziej widoczne).
Z tego też powodu dla polskiej gospodarki ważny jest coraz większy udział sektora
prywatnego w tworzeniu innowacji.
Jednak, jak ze wszystkim, tak i w podejściu do innowacji i innowacyjności trzeba
zachować pewną dozę ostrożności, dlatego mimo pokazanych w opracowaniu wielu
dobrodziejstw, moim zdaniem, zbyt odważne jest przypisywanie innowacyjności
zdolności rozwiązywania szerokiego spektrum problemów społeczno-gospodarczych
(ang. innovation is a means of dealing with global and social challenges). Owszem,
innowacyjność jest kluczem do części ze światowych wyzwań, szczególnie w sferze
gospodarczej, ale nie sposób oczekiwać od innowatorów rozwiązań „na wszystko”.
Autorzy Strategii Innowacyjności OECD prezentują pod tym względem podejście nieco utopijne, oczekując m.in.: nowego modelu wielostronnej, międzynarodowej współpracy w zakresie nauki, technologii i innowacji. Pamiętać należy o takich zjawiskach,
jak (często sprzeczne) interesy narodowe, chęć dyskontowania sukcesów płynących
z własnych dokonań (zamiast dzielenia się z innymi) czy też prywatna chęć zysku,
stanowiąca siłę napędową przedsiębiorczości – wszystkie z tych czynników działają
przeciw wizji altruistycznej współpracy dla wspólnego dobra, zarysowanej w dokumencie OECD.
Tak więc, wspieranie firm innowacyjnych jest pomysłem słusznym i pożytecznym, lecz nie powinno być prowadzone za wszelką cenę. Koszty niejednokrotnie
62
Adam Oleksiuk
mogą przewyższyć oczekiwane korzyści. To, co byłoby pożądane dla danej branży
czy grupy przedsiębiorstw, może nie być już tak trafne dla gospodarki jako całości.
Literatura
Arnold A. 2004 Research Evaluation, „Evaluating Research and Innovation Policy: A Systems
World Needs Systems Evaluations”, Vol. 13, No. 1.
Baczko T. (red.) 2010 Raport o innowacyjności Polski w 2009 roku, Warszawa.
EUROPE 2020, A European strategy for smart, sustainable and inclusive growth Strategy, European Commission, dokument elektroniczny, tryb dostępu: [http://ec.europa.eu/eu
2020/pdf/COMPLET%20EN%20BARROSO%20%20%20007%20%20Europe%2020
20%20–%20EN%20version.pdf, Brussels 2010, data wejścia: 28.07.2010].
Juchniewicz M., Grzybowska B. (red.) 2010 Innowacyjność mikroprzedsiębiorstw w Polsce,
Warszawa.
Measuring Innovation: A New Perspective 2010 OECD c, Paris.
Ministerial report on the OECD Innovation Strategy Innovation to strengthen growth and address global and social challenges, Key Findings, OECD Innovation Strategy, dokument
elekroniczny, tryb dostępu: [http://www.oecd.org/innovation/strategy, Paris OECD a, 2010,
data wejścia: 27.07.2010].
Rodrik D. 2008 One Economics, Many Recipes: Globalisation, Institutions and Economic Growth,
Princeton.
Roundtable on OECD Innovation Strategy – Towards new perception of innovation, Ministerstwo
Gospodarki, 29.06.2010.
Mazurek-Kucharska B., Block A., Wojtczuk-Turek A. 2008 Społeczne determinanty innowacyjności przedsiębiorstw. Raport z badania ankietowego, Warszawa.
Stoneman P. 1987 The Economic Analysis of Technology Policy, Oxford.
The OECD Innovation Strategy. Getting a Head Start on Tomorrow, dokument elektroniczny,
tryb dostępu: [http://www.oecd.org/innovation/strategy, Paris OECD b 2010, data
wejścia: 27.07.2010].
Tucker B. Robert 2002 Driving growth through innovation. How leading firms are transforming
their futures, San Francisco.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Anna WIERCISZEWSKA, Mirosława LASEK1
DYNAMIKA SYSTEMÓW JAKO NARZĘDZIE MODELOWANIA
PROCESÓW ROZWOJU GOSPODARCZEGO
Streszczenie
W artykule zostało podjęte zagadnienie stosowania dynamiki systemów w modelowaniu procesów
rozwoju gospodarczego. Celem było przedstawienie możliwości i zalet wykorzystania dynamiki systemów w modelowaniu procesów rozwoju gospodarczego Polski. Przedstawiono nie tylko zalety, ale także pewne wady i kontrowersje związane z wykorzystywaniem modeli dynamiki systemów w rozwiązywaniu problemów rozwoju gospodarczego i ze sterowaniem rozwojem gospodarczym. Rozważania
zawarte w artykule zilustrowano samodzielnie zbudowanym modelem dynamiki systemów.
Słowa kluczowe: dynamika systemów, metody modelowania, rozwój gospodarczy
SYSTEM DYNAMICS AS A TOOL FOR MODELING OF PROCESSES
OF ECONOMIC GROWTH AND DEVELOPMENT
Summary
In the article, problems concerning applications of system dynamics in modeling of processes of
economic growth and development are discussed. The main aim of the article is to present major possibilities and advantages of usage of system dynamics in modeling of economic growth and development in Poland. Not only merits, but also some drawbacks and controversies connected with applying
system dynamics models to solve economic growth and development problems and to control economic growth and development are described. Considerations included in the article are illustrated with
a system dynamics model.
Keywords: system dynamics, modeling methods, economic growth and development
1. Wstęp
Dynamika systemów została opracowana w latach 60-tych jako narzędzie przeznaczone do modelowania złożonych systemów, również gospodarczo-społecznych,
które może być pomocne w lepszym zrozumieniu procesów rozwojowych i w lepszym zarządzaniu nimi. Mimo że dynamika systemów nadal rozwija się i jest dość
szeroko stosowana w świecie, zwłaszcza w Stanach Zjednoczonych, w Polsce obecnie jest prawie nieznana i niewykorzystywana. Wydaje się, że dynamika systemów
1 Prof. Mirosława Lasek, Mgr Anna Wierciszewska – Uniwersytet Warszawski, Wydział Nauk Ekonomicznych, Katedra Informatyki Gospodarczej i Analiz Ekonomicznych.
64
Anna Wierciszewska, Mirosława Lasek
mogłaby być szerzej stosowana do modelowania polskiej gospodarki i byłaby użyteczna w lepszym zrozumieniu i zarządzaniu tym systemem. Celem artykułu jest zaprezentowanie możliwości i zalet zastosowania dynamiki systemów w modelowaniu
procesów rozwoju gospodarczego Polski, aby zachęcić czytelników do jej intensywniejszego wykorzystywania, co z pewnością mogłoby dostarczać wielu pożytecznych
wskazówek co do sterowania efektywnością i rozwojem procesów gospodarowania.
Do budowy modelu, ilustrującego rozważania przedstawiane w artykule, wykorzystano program komputerowy Vensim, służący do budowania i symulacji modeli
dynamiki systemów, opracowany przez Ventana Systems, Inc. (w wersji podstawowej
dostępny nieodpłatnie na stronie: [http://www.vensim.com/software.html]).
2. Powstanie dynamiki systemów i rozwój jej zastosowań
do modelowania procesów rozwoju gospodarczego
Dynamikę systemów opracował, na przełomie lat 50-tych i 60-tych, Jay W. Forrester, profesor Massachusetts Institute of Technology (MIT). W roku 1961 wydał
on książkę Industrial Dynamics (Dynamika przemysłu), w której opisał główne zasady
nowego podejścia do zarządzania złożonymi systemami. Publikacja ta była zwieńczeniem jego kilkuletnich studiów nad różnymi problemami zarządzania przedsiębiorstwem. Podczas tych studiów Forrester rozwinął metodologię symulacji, którą
uważał za integralną część procesu poznawania i modelowania każdego systemu.
Równolegle z rozwojem metodologii następował rozwój oprogramowania, co zapewne odegrało znaczną rolę w rozwoju praktycznych zastosowań proponowanych
koncepcji Forrestera. Na potrzeby badań Forrestera, programista Richard Benet
stworzył pierwszy kompilator symulacji modeli dynamiki systemowej. Kompilator
ten, o nazwie SIMPLE (Simulation of Industrial Management Problems with Lots of
Equations), umożliwiał automatyczne kodowanie i rozwiązywanie rozbudowanych
układów równań różniczkowych przedstawiających funkcjonowanie, opisanego za
pomocą takich równań, systemu. Symulacja komputerowa towarzyszyła więc od początku rozwojowi dynamiki systemów.
W kolejnych latach Forrester wraz z innymi, dostrzegającymi potencjał tkwiący
w koncepcji dynamiki systemów, zaczął poszerzać zastosowanie dynamiki systemów
do modelowania coraz to innych zagadnień gospodarczych i społecznych. Okazywało się, że jego nowatorskie, wówczas, podejście można stosować z powodzeniem
w przypadku wielu różnorodnych zagadnień.
W 1968 roku Forrester napisał książkę Urban Dynamics, w której przedstawił zastosowanie dynamiki systemów do analizowania problemów zarządzania przestrzenią i gospodarską miejską. Publikacją, która okazała się niezwykle ważna dla rozpowszechnienia i rozwoju dynamiki systemów, była kolejna książka Forrestera, nosząca
tytuł World Dynamics (1971), [Forrester 1973]. Książka ta osiągnęła duży rozgłos,
z uwagi na nawiązujący do niej znany raport The Limits to Growth (1972), sporządzony na potrzeby Klubu Rzymskiego i alarmujący o ograniczonych możliwościach
rozwoju gospodarki światowej. W World Dynamics i The Limits to Growth, posługując się podejściem dynamiki systemów, ukazano realne groźby wyczerpania się surowców naturalnych i wystąpienia poważnych problemów z zanieczyszczeniem śro-
Dynamika systemów jako narzędzie modelowania procesów ...
65
dowiska, o ile nie zostanie zmieniona, obserwowana w tym czasie, dynamika i sposób rozwoju gospodarczego świata.
Mimo że World Dynamics miała nie tylko swoich entuzjastów, ale i krytyków,
grono zwolenników samej koncepcji dynamiki systemów znacznie się powiększyło.
Powstało System Dynamics Society, wydające kwartalnik System Dynamics Review oraz
organizujące coroczne światowe konferencje, na których są prezentowane najnowsze osiągnięcia z dziedziny dynamiki systemów. Dynamikę systemów zaczęto stosować w najrozmaitszych dziedzinach nauki, począwszy od biologii i chemii, poprzez
ekonomię, marketing i zarządzanie, aż do socjologii i psychologii. Z tematów artykułów, prezentowanych na konferencjach oraz publikowanych w System Dynamics
Review, można wnioskować, że w ostatnich latach dynamika systemów jest najintensywniej stosowana w następujących dziedzinach: szeroko pojęty biznes (zarządzanie,
strategie rozwoju, łańcuchy dostaw, systemy informatyczne), ochrona środowiska
i ekologia, energia i zasoby naturalne, ochrona zdrowia, ekonomia teoretyczna, polityka gospodarcza i społeczna, edukacja.
Współcześnie, po dziesięcioleciach rozwoju, dynamika systemów jest obszerną
dziedziną wiedzy o systemach, wraz z: ilościowymi metodami analizy, procedurami
badawczymi, technikami przetwarzania informacji ilościowej i jakościowej, zestawami
norm: technologicznych, jakościowych, etycznych, prawnych [Elementy... 2008 s. 9].
Po opracowaniu przez Forrestera wspomnianego modelu gospodarki światowej,
dynamikę systemów jeszcze wiele razy stosowano do modelowania systemów gospodarczych. Można tu wymienić model Threshold 21, opracowany przez Millennium Institute. Stanowi on rozbudowany model społeczno-gospodarczy wraz ze
zmiennymi opisującymi stan środowiska naturalnego. Model ten był dość intensywnie wykorzystywany w praktyce, między innymi do analiz stosowania różnego rodzaju polityk rozwoju w ponad dwudziestu krajach rozwijających się, a jego, odrębnie
opracowana wersja, do analizy i planowania polityki energetycznej Stanów Zjednoczonych.
W Polsce, dynamika systemów nie zdobyła zbyt dużej popularności. Spośród
osób rozwijających w Polsce tę dziedzinę należy wymienić Ryszarda Łukaszewicza,
którego książka Dynamika systemów zarządzania jest zazwyczaj wymieniana jako
podstawowa pozycja w polskiej literaturze z zakresu dynamiki systemów, Elżbietę
Kasperską i Jerzego Tarajkowskiego. Dynamika systemów nie była szerzej używana
w Polsce do modelowania gospodarki, jej zastosowania dotyczyły tu raczej problemów inżynieryjnych i zarządzania organizacjami.
3. Podstawy koncepcji dynamiki systemów
Punktem wyjścia do opracowania dynamiki systemów była obserwacja złożoności i zachowania istniejących systemów gospodarczych i społecznych. Przyjęto, że
modele dynamiki systemów będą uwzględniać i analizować trudne do ujęcia cechy
istniejących systemów: odporność na ingerencje z zewnątrz, nieintuicyjne zachowanie i sprzężenia zwrotne w relacjach miedzy zmiennymi.
Odporność na ingerencje z zewnątrz przejawia się tym, że polityka zmiany funkcjonowania systemu, wprawdzie początkowo, wytrąca jego zachowanie z równowagi
66
Anna Wierciszewska, Mirosława Lasek
w pożądanym kierunku, jednak po jakimś czasie zmienne powracają do wartości
sprzed ingerencji lub zmieniają się w inny, nieprzewidziany sposób. Zgodnie z założeniami dynamiki systemów, błędy w planowaniu ingerencji w systemy społecznogospodarcze wynikają głównie z niedostrzegania złożoności i dynamicznej istoty
tych systemów [Sterman 1987 s. 1–2]. Błędom tym można w dużej mierze zapobiec,
poprzedzając stworzenie polityki zmian zbadaniem systemu za pomocą metod dynamiki systemów. Zgodnie z założeniami Forrestera, zachowanie będące wynikiem
działania systemu można rozłożyć na zbiór podstawowych zachowań (wykładniczych wzrostów i/lub spadków), które są wytwarzane przez pętle przyczynowoskutkowe, zwane sprzężeniami zwrotnymi (feedback loops). Trzema podstawowymi
elementami modelowanego systemu, połączonymi sprzężeniami zwrotnymi, są: kumulujące materię lub informację poziomy, łączące poziomy strumienie (dopływy
i odpływy) oraz regulujące natężenie strumieni stanowiska decyzyjne [Kasperska
2005 s.13]. Po przedstawieniu systemu jako zbioru poziomów wraz ze swoimi dopływami i odpływami oraz regulującymi strumienie stanowiskami decyzyjnymi, dzięki symulacji całego gotowego modelu, możliwe jest badanie konsekwencji ingerencji
w system i zaplanowanie skutecznej polityki. Analiza struktury i wyników symulacji
umożliwia zrozumienie odporności systemu na ingerencje z zewnątrz oraz jego nieintuicyjnego zachowania.
Struktury systemów, stworzone przy pomocy: sprzężeń zwrotnych, poziomów
i strumieni, są prezentowane w postaci dwóch rodzajów diagramów: diagramów pętli
przyczynowo-skutkowych (causal loop diagrams) oraz diagramów poziomów i strumieni (stock and flow diagrams).
4. Diagramy pętli przyczynowo-skutkowych
oraz diagramy poziomów i strumieni
Tworzenie diagramów pętli przyczynowo-skutkowych ma na celu wybranie najbardziej istotnych zmiennych w systemie, który jest przedmiotem modelowania,
i połączenie ich zależnościami przyczynowo-skutkowymi. Każda pętla w diagramie
jest graficznym zapisem sprzężenia zwrotnego. Forrester uznaje sprzężenia zwrotne
za podstawowy element struktury każdego systemu. Dynamiczne zachowanie systemu jest wytwarzane właśnie przez działające w nim sprzężenia zwrotne [Forrester
1968, rozdz. 4. s. 5]. Tworzenie diagramów pętli przyczynowo-skutkowych jest uważane za konieczny etap poprzedzający budowę diagramów poziomów i strumieni
[Sterman 2000 s. 102].
Występujące w systemach społeczno-gospodarczych dodatnie i ujemne sprzężenia zwrotne są przyczyną powstawania takich zjawisk, jak oscylacje czy samonapędzający się wzrost lub spadek. W przypadku sprzężeń dodatnich (positive/reinforcing
loops) przyrost jednej zmiennej powoduje wzrost kolejnych zmiennych w pętli,
co wywołuje coraz szybszy wzrost pierwszej zmiennej [Kasperska 2005 s. 14].
W dynamice systemów dodatnie sprzężenia zwrotne są uznawane za przyczynę wykładniczego wzrostu wartości zmiennych w systemie. Drugim podstawowym elementem diagramów pętli przyczynowo-skutkowych jest ujemne sprzężenie zwrotne
(negative/balancing loop). W wyniku działania ujemnych sprzężeń zwrotnych obser-
Dynamika systemów jako narzędzie modelowania procesów ...
67
wujemy coraz wolniejsze zbieganie zmiennej do jakiejś ustalonej granicy (goal seeking
behaviour). Podobnie, jak dodatnie oraz ujemne sprzężenia zwrotne uważane są
przez dynamikę systemów za podstawowe jednostki budowy każdego systemu, tak
i wywoływane przez nie zachowania zmiennych, a więc wykładniczy wzrost oraz dążenie do granicy, są uznawane za podstawowe elementy, na które można rozłożyć
zachowanie całego systemu [Sterman 2000 s. 108 i 112].
Połączenie ze sobą wielu pętli sprzężenia zwrotnego sprawia, że podstawowe zachowania zmiennych, a więc wykładniczy wzrost oraz dążenie do granicy łączą się
ze sobą, tworząc inne, często obserwowane zjawiska, takie jak: wzrost w kształcie
litery „S”, oscylacje, wzrost z następującym zaraz po nim spadkiem (kształt odwróconej litery „U”) itd. [Sterman 2000 s. 108].
Chociaż diagramy pętli przyczynowo-skutkowych są niezbędne w procesie budowania modeli dynamiki systemów, to jednakże są one niezbyt precyzyjne i nie
wiążą zmiennych żadnymi zależnościami ilościowymi, na podstawie których można
byłoby przeprowadzać symulacje i wnioskowanie. Te braki uzupełniają diagramy
poziomów i strumieni. Diagramy pętli przyczynowo-skutkowych są tworzone w celu
zapisania sposobu myślenia o systemie, natomiast doprecyzowujące je diagramy poziomów i strumieni są budowane w celu umożliwienia symulacji działania zakładanego modelu myślowego i skonfrontowania jego wyników z rzeczywistymi wartościami zmiennych. W trakcie symulacji wartości zmiennych są wyliczane na podstawie zapisanych w modelu równań w ustalonych odcinkach czasu. Zmienne pomocnicze oraz zmienne na stanowiskach decyzyjnych (podające natężenie strumieni)
są liczone dla danej chwili na podstawie ilościowych zależności z innymi zmiennymi,
podczas gdy poziomy akumulują strumienie i ich wielkość w chwili t jest obliczana
według wzoru [Sterman 2000 s. 194]:
t
poziom( t ) = ∫ [doplyw( s ) − odplyw( s )] ds + poziom( t 0 ) ,
t0
gdzie:
t – czas, dla którego jest obliczana wielkość poziomu,
t0 – czas rozpoczęcia symulacji.
Wybranie odpowiednich zmiennych w systemie, które zostaną przedstawione
w modelu jako poziomy, jest bardzo ważnym zadaniem w procesie budowy modelu
dynamiki systemów. Poziomy mają kluczowe znaczenie w generowaniu dynamiki
systemu, za ich pomocą można przedstawić opóźnienia w modelu (akumulują przepływy, przez co opóźniają ich dotarcie do kolejnych poziomów), ich wielkości charakteryzują stan systemu, są jego pamięcią.
5. Etapy modelowania
W literaturze można znaleźć różne propozycje etapów procesu tworzenia modeli
dynamiki systemów. Można zauważyć wiele podobieństw między nimi. Podajmy
przykładową propozycję podziału procesu modelowania na etapy, która w sposób
68
Anna Wierciszewska, Mirosława Lasek
szczególnie logiczny, uporządkowany sugeruje realizację prac nad modelem. Przedstawił ją John D. Sterman, w swojej książce Business Dynamics, Systems thinking and
modeling for complex world [Sterman 2000 s. 194]. Proces pracy nad modelowanym
systemem został podzielony na pięć etapów:
1) Zdefiniowanie problemu;
2) Sformułowanie dynamicznych hipotez;
3) Stworzenie modelu do symulacji;
4) Przetestowanie zachowania modelu;
5) Zaprojektowanie polityki działania i jej ewaluacja.
Ze szczegółowym opisem poszczególnych etapów można się zapoznać w wymienionej pracy J. D. Stermana, jak i w pracy magisterskiej [Wierciszewska 2010
s. 16–18].
6. Wady, zalety i kontrowersje
wykorzystywania modeli dynamiki systemów
Zwolennicy dynamiki systemów za jedną z jej głównych zalet uważają zdolność
do badania międzyokresowych, dynamicznych związków między zmiennymi [Porwit
1975]. Poziomy w modelu dynamiki systemów, nazywane przez J.D. Stermana „pamięcią systemu” [Sterman 2000 s. 192], kumulują przepływy informacji i materiałów
w przeciągu lat i tym samym są źródłem informacji o przeszłych okresach. Razem
z uwzględnianymi w systemie opóźnieniami, poziomy umożliwiają harmonijne
i przejrzyste powiązanie przeszłych wydarzeń z przyszłymi skutkami.
D. Meadows, jedna z prekursorek dynamiki systemów, wyraziła opinię, że metoda ta nadaje się bardzo dobrze do modelowania systemów społeczno-gospodarczych, z powodu specyficznych cech tych systemów, z którymi nie radzą sobie dobrze modele ekonometryczne, a które z łatwością można ująć za pomocą modeli
dynamiki systemów [Podano za: Porwit 1975]. Do tych cech należy częste występowanie dużych odległości w czasie i przestrzeni pomiędzy pojawiającą się zmianą
w systemie a jej skutkiem. Ponadto, w systemach społeczno-gospodarczych można
zaobserwować zupełnie inne reakcje bezpośrednio po zajściu zmian, a zupełnie inne
po dłuższym czasie. Często można nawet zauważyć, że w systemach tych pojawiają
się siły przeciwdziałające zmianom, których działanie można dostrzec w perspektywie długookresowej. Analizowanie tych sił jest możliwe dzięki dynamice systemów,
poprzez analizowanie hamujących sprzężeń zwrotnych. Analiza symulacji modelu ze
sprzężeniami zwrotnymi pozwala zaobserwować skutki, jakie wywołuje zmiana
w systemie zarówno w krótkim, jak i w długim okresie.
Wartą podkreślenia zaletą dynamiki systemów jest przejrzystość i komunikatywność tworzonych modeli. Forrester, w swojej pracy Principles of Systems, podkreśla,
że modele dynamiki systemów powinny być przejrzyste, dostarczając konkretnych,
łatwo czytelnych wniosków [Forrester 1968 rozdz. 3. s. 4]. Modele powinny umożliwiać rozkładanie złożonych siatek powiązań między zmiennymi na proste, chociaż
często nieliniowe, zależności. Podstawowe narzędzia graficzne modelowania (tj. diagramy pętli przyczynowo-skutkowych oraz diagramy poziomów i strumieni) starano
się zaprojektować tak, aby były intuicyjne, pozwalały dobrze odzwierciedlić logikę
Dynamika systemów jako narzędzie modelowania procesów ...
69
systemu i wyobrażenie o systemie oraz ułatwiały wyjaśnianie zaproponowanego
sposobu rozwiązania problemu.
Jednakże, niektóre cechy dynamiki systemów, które przez jej zwolenników są
uważane za zalety, przez innych są krytykowane i uważane raczej za wady. Jako
przykład można podać, podzielany przez zwolenników dynamiki systemów, pogląd
o konieczności uwzględniania w modelach, zmiennych jakościowych i wszelkich
zmiennych trudno mierzalnych, ponieważ odgrywają one czasem nawet decydującą
rolę w modelowanych systemach [Kwaśnicki 1998 s. 9]. Zwolennicy dynamiki systemów uważają, że wartościowe jest uwzględnianie w modelach nawet niedokładnego, przybliżonego wpływu czynników trudno mierzalnych. Przeciwnicy twierdzą, że
w żaden sposób nie będzie to zgodne z rzeczywistością, a raczej jedynie będzie odpowiadać subiektywnej opinii tworzącego modele. Można spotkać także pogląd, że
nawet całe modele, tworzone zgodnie z założeniami dynamiki systemów, opierają
się na subiektywizmie ich twórców w tak dużym stopniu, że nie uwzględniają ani
żadnych właściwych zmiennych, ani relacji, ponieważ nie opierają się na dostatecznie
wnikliwych badaniach empirycznych [Por. Nordhaus 1973 s. 1156–1183].
Zwolennicy dynamiki systemów twierdzą z kolei, że skupia się ona na badaniu
dynamicznych relacji przyczynowo-skutkowych między zmiennymi w systemie
i brak czy też nieuwzględnianie dokładnych zależności i danych ilościowych nie powoduje spadku jej przydatności.
TABELA 1.
Porównanie dynamiki systemów z ekonometrią
Dynamika systemów
Podejście holistyczne (system)
Modele zamknięte (niewiele zmiennych
niezależnych)
Zorientowana na strukturę
Bada relacje przyczynowo-skutkowe
w strukturze systemów
Przyjmuje perspektywę długookresową
Modele odporne na warunki ekstremalne
Modele generują zmienne w czasie
zachowanie
Zorientowana na proces modelowania
(nauka)
Bada związki jakościowe
Celem jest ogólne zrozumienie systemu
Ekonometria
Podejście szczegółowe (podsystem)
Modele otwarte (niewiele zmiennych zależnych)
Zorientowana na dane
Bada korelacje w danych dotyczących systemów
Przyjmuje perspektywę krótkookresową
Modele działają w otoczeniu punktów równowagi
Modele generują jednomodalne zachowanie lub
stan równowagi
Zorientowana na produkt modelowania (wyniki)
Bada związki ilościowe
Celem jest predykcja i estymacja
Źródło: [Myrtveit 2005].
Innym zarzutem, stawianym wobec dynamiki systemów, jest to, że aby, zgodnie
z jej założeniami tworzyć modele holistyczne i zamknięte, do budowy modeli są wykorzystywane zmienne na bardzo wysokim poziomie agregacji. Agregacja oczywiście
70
Anna Wierciszewska, Mirosława Lasek
zmniejsza poziom dokładności wyników symulacji modeli, ale nie uniemożliwia całkowicie pozyskania wielu ciekawych spostrzeżeń.
Dynamika systemów bywa porównywana z ekonometrią, a modele dynamiki systemów z modelami ekonometrycznymi. Prawdziwy wydaje się pogląd, że modele te
mają inne założenia i inne zastosowanie. Są modelami, które powinny być traktowane jako uzupełniające się, a nie konkurujące ze sobą. Porównanie dynamiki systemów z ekonometrią zamieszczono w tabeli 1., zwracając uwagę na te cechy, którymi
obie dziedziny znacznie się różnią i sugerując, że być może dopiero zastosowanie
obu podejść może zapewnić kompletną analizę problemów.
7. Założenia modelowania procesów rozwoju gospodarczego
za pomocą dynamiki systemów
Struktura budowanych modeli opiera się na: teoriach ekonomicznych, wiedzy
eksperckiej, dynamice zmian uwzględnianych zmiennych, obserwowanych w posiadanych, rzeczywistych danych. Początkowo, ustalona struktura jest doskonalona
w przebiegu kolejnych symulacji tworzonego modelu.
Wykorzystywane teorie ekonomiczne to różnorodne teorie oraz modele wzrostu
i rozwoju gospodarczego [Wierciszewska 2010 s. 22–33]. W zależności od przeznaczenia modeli, ukierunkowanie na rozwiązywanie konkretnych problemów i pomoc
w projektowaniu polityki działania w konkretnych sytuacjach, wykorzystywane są
różne teorie oraz modele wzrostu i rozwoju. Jako przykładowe, wybierane do zastosowań w modelowaniu można wymienić: neoklasyczne modele wzrostu gospodarczego (np. neoklasyczny model Solowa-Swana), modele wzrostu endogenicznego, koncepcje teorii rozwoju gospodarczego w ekonomii shumpeterowskiej i ewolucyjnej, idee nowej geografii ekonomicznej Paula Krugmana [Krugman 1991].
Na potrzeby modelowania są wykorzystywane nowo powstające, współczesne
koncepcje i strategie rozwoju. Obok tradycyjnych czynników rozwoju gospodarczego, takich jak kapitał i praca, uwzględniane są: kapitał ludzki, wiedza, innowacyjność.
W opracowywanych modelach rozwoju gospodarczego dynamiki systemów są
brane pod uwagę gospodarcze strategie rozwojowe, mające znaczenie dla prowadzonej polityki gospodarczej, umożliwiając badanie poprzez model konsekwencji dla
gospodarki i społeczeństwa prowadzenia różnych polityk w ramach tych strategii.
W przypadku Polski istotne jest uwzględnienie założeń Strategii Lizbońskiej oraz
Strategii Rozwoju Kraju 2007–2015 wraz z bardziej szczegółowymi dokumentami
opracowanymi dla zapewnienia jej realizacji.
8. Ilustracja budowy i przydatności modelu dynamiki systemów
dla analizy procesów rozwoju gospodarczego Polski
Model został zbudowany przez Annę Wierciszewską i przedstawiony w pracy
[Wierciszewska 2010]. Autorka jako cel przyjęła zbudowanie takiego modelu, który
byłby pomocny w zarządzaniu procesem rozwoju Polski. Podstawowy problem, ujęty do rozważenia dzięki modelowi, to: ustalenie wpływu czynników zależnych od pań-
Dynamika systemów jako narzędzie modelowania procesów ...
71
stwa na proces rozwoju kraju [Wierciszewska 2010 s. 49]. Starano się zbudować model tak, aby ujmował: dynamikę zmian poziomu technologii, wielkości kapitału
ludzkiego, kapitału fizycznego oraz produkcji. Zostały uwzględnione w ten sposób
zarówno tradycyjne, jak i „współczesne” czynniki rozwoju, co powinno zapewnić
możliwość śledzenia realizacji strategii rozwoju w Polsce. Wyznaczone dla zbudowania modelu zmienne zostały połączone siecią zależności, tak aby stanowiły
zmienne endogeniczne w modelu. Dzięki temu zabiegowi, dynamika ich zmian powstaje w rezultacie funkcjonowania całego systemu. Wskazano także te zmienne
w systemie, na które mają wpływ władze państwowe z racji prowadzonej polityki.
Biorąc pod uwagę założenia modelu rozwoju regionalnego Ugo Fratesiego [Fratesi 2004], przyjęto, że w budowanym modelu rozwoju gospodarczego będą wykorzystane zmienne agregowane na poziomie wojewódzkim. W celu zbadania przydatności budowanego modelu, został on skalibrowany dla dwóch przykładowych województw: śląskiego i małopolskiego (województwa regionu południowego). Kalibracja, a więc numeryczne rozwiązanie równań modelu, została przeprowadzona za
pomocą szeregu symulacji, podczas których ustalono takie wartości parametrów, dla
których uzyskane z modelu wartości zmiennych są jak najbliższe ich rzeczywistym
odpowiednikom. Na obecnym etapie budowy, model umożliwia analizę dynamiki
rozwoju dwóch województw. Jednak w strukturze modelu uwzględniono również
powiązania międzywojewódzkie, tak więc, po skalibrowaniu go dla pozostałych województw, będzie możliwe badanie dynamiki rozwoju gospodarczego całego kraju.
Ponieważ dane dotyczące większości zmiennych są udostępniane począwszy od
roku 1995, ramy czasowe modelu zostały wyznaczone na lata 1995–2008. Okres lat
1995–2008 został podzielony na dwa podokresy. Model został skalibrowany dla danych z lat 1995–2005, a więc jego parametry zostały tak dobrane, aby model dobrze
symulował dynamikę zmiennych w tym okresie. Dla lat 2006–2008 przeprowadzono
prognozę na podstawie modelu (tzw. prognoza ex post), aby porównać jej wyniki
z rzeczywistymi danymi i sprawdzić w ten sposób możliwości prognostyczne modelu.
Model został tak opracowany, że jeśli chodzi o jego podstawy teoretyczne, to
opiera się on przede wszystkim na teoriach wzrostu endogenicznego, a ściślej na
modelu Paula Romera. Z teorii tych została zaczerpnięta jego ogólna struktura,
w której wyróżniono trzy sektory: sektor technologii, sektor kapitału ludzkiego oraz
sektor produkcji. W modelu przyjęto założenie, że wzrost PKB wynika z akumulacji
kapitału fizycznego, technologii oraz kapitału ludzkiego. Takie podejście, zgodne
z teoriami wzrostu endogenicznego, eksponuje jednocześnie te czynniki, które
w Strategii Lizbońskiej są uznawane za podstawowe w stymulacji rozwoju gospodarczego i tym samym, na które należy skierować największy wysiłek inwestycyjny.
Diagram pętli przyczynowo-skutkowych modelu zilustrowano na rysunku 1.
Na rysunku przedstawiono zachodzenie dodatnich sprzężeń zwrotnych pomiędzy kapitałem fizycznym, PKB, poziomem technologii oraz kapitałem ludzkim.
Zwiększenie się poziomu jakiejkolwiek zmiennej będzie powodować zwiększanie się
powiązanych z nią zmiennych.
72
Anna Wierciszewska, Mirosława Lasek
RYSUNEK 1.
Diagram pętli przyczynowo-skutkowych
Źródło: Opracowanie własne przy wykorzystaniu programu Vensim.
Opisywany model przyjmuje pewne założenia nowej geografii ekonomicznej –
jest pod tym względem podobny do modelu rozwoju regionalnego Fratesiego.
Zgodnie z tymi założeniami, są rozpatrywane oddzielnie poszczególne regiony, dla
każdego województwa są oddzielnie kalibrowane parametry. Takie podejście wynika
ze spostrzeżenia, że każdy region charakteryzują: specyficzne warunki, inna historia,
położenie geograficzne, instytucje, zasoby naturalne. Wszystko to powoduje, że inne
jest tempo akumulacji zasobów, inna siła powiązań między zmiennymi makroekonomicznymi. Te dysproporcje są przyczyną różnic w wartościach parametrów.
Województwa są połączone ze sobą wieloma powiązaniami. Jednakże akumulacja
czynników produkcji odbywa się w ramach pojedynczego województwa. Potwierdza
to proste spostrzeżenie, że czynniki produkcji w różnym natężeniu występują w różnorodnych regionach tego samego kraju. Dotyczy to zarówno kapitału fizycznego,
kapitału ludzkiego czy też poziomu technologii. Jeszcze jednym argumentem, aby
badać procesy rozwojowe, biorąc pod uwagę perspektywę województw, a nie całego
kraju, jest łatwo dostrzegalny fakt, że wszelkie procesy aglomeracyjne, opisywane
przez nową geografię ekonomiczną, mają miejsce w ramach mniejszych obszarów
niż cały kraj. Również w unijnych, jak i krajowych strategiach rozwoju podkreśla się
słuszność ujmowania zjawisk dotyczących całego kraju jako efektu konkurowania ze
sobą, jak i wzajemnej współpracy pojedynczych regionów.
Przyjęte zależności pomiędzy zmiennymi w ramach każdego z trzech sektorów
budowanego modelu, tj.: sektora technologii, sektora kapitału ludzkiego oraz sektora
produkcji, można prześledzić na diagramach poziomów i strumieni, tak jak je przedstawiono kolejno na rysunkach: 2., 3. i 4.
Dynamika systemów jako narzędzie modelowania procesów ...
73
Dla odczytania diagramów poziomów i strumieni jest niezbędna znajomość następujących symboli:
– poziomy,
– stanowiska decyzyjne,
– strumienie,
– źródła/ujścia zewnętrzne dla modelu.
Cienkie strzałki przedstawiają, że dana zmienna jest używana przy obliczaniu
wartości innej zmiennej.
Z uwagi na ograniczoną objętość artykułu, szczegółowy opis diagramów, z uzasadnieniem przyjmowanych rozwiązań, został pominięty. Zainteresowany czytelnik
może zapoznać się z dokładnym opisem diagramów w pracy Wierciszewskiej [Wierciszewska 2010 s. 52–59].
RYSUNEK 2.
Diagram poziomów i strumieni: sektor technologii
Źródło: Opracowanie własne przy wykorzystaniu programu Vensim.
74
Anna Wierciszewska, Mirosława Lasek
RYSUNEK 3.
Diagram poziomów i strumieni: sektor kapitału ludzkiego
Źródło: Opracowanie własne przy wykorzystaniu programu Vensim.
RYSUNEK 4.
Diagram poziomów i strumieni: sektor produkcji
Źródło: Opracowanie własne przy wykorzystaniu programu Vensim.
Dynamika systemów jako narzędzie modelowania procesów ...
75
9. Kalibracja i analiza parametrów w modelu dynamiki systemów
Jak zostało to już wspomniane w artykule (s. 10), opracowany model rozwoju
poddano kalibracji dla województw: śląskiego i małopolskiego, dla lat 1995–2005.
Kalibracja modelu pozwoliła znaleźć parametry umożliwiające za pomocą modelu
na symulację zachowań rzeczywistych zmiennych. W przypadku większości modeli
dynamiki systemów przeprowadzanie kalibracji jest niezbędne, ponieważ nie jest
możliwa estymacja parametrów ze względu na występowanie nieliniowości zależności między zmiennymi oraz dużej ilości zmiennych endogenicznych. Tak okazało się
także w przypadku budowanego tu modelu. Program Vensim, o którym była mowa
we wstępie pracy, ułatwia przeprowadzanie kalibracji, ponieważ automatycznie znajduje optymalne wartości parametrów przez dopasowywanie zmiennych w modelu
do wskazanych, rzeczywistych danych przy wprowadzanych przez użytkownika wagach, czyli mnożnikach umożliwiających ustalenie poziomu pożądanej precyzyjności
w dopasowywaniu poszczególnych zmiennych.
W przypadku budowanego modelu, wielkości niektórych parametrów ustalono
bez kalibracji. Dotyczyło to: stopy urodzeń, stopy umieralności, części PKB przeznaczonej na inwestycje oraz stopy amortyzacji. Parametry te potraktowano jako stałe modelu, przyjmując, że są równe średnim z ich rzeczywistych wartości, z lat
1995–2005.
Przyjęto założenie, że pozostałe parametry, będące w większości elastycznościami (równania w modelu przeważnie mają postać iloczynów, gdzie parametry są potęgami), przyjmują określone, dopuszczalne zakresy wartości. Za pomocą programu
Vensim była możliwa optymalizacja wielkości tych parametrów.
Wyznaczenie parametrów modelu pozwoliło na opracowanie prognozy dla lat
2006–2008 i porównanie tej prognozy z rzeczywistą sytuacją, jaka miała miejsce
w latach 2006–2008. Duże różnice między rzeczywistymi wartościami zmiennych
a pochodzącymi z modelu mogą świadczyć o tym, że przyjęto nieprawidłowe założenia dotyczące związków między zmiennymi lub zostały pominięte istotne czynniki
decydujące o przebiegu procesów.
Dla badania przebiegu procesów rozwoju gospodarczego interesująca może okazać się już sama analiza parametrów modelu, po ich wyznaczeniu. Przykładowo,
w przypadku opisywanego w artykule modelu, interesująca wydaje się analiza parametrów występujących w równaniu produkcji. Wygląda na to, że spośród dwóch
analizowanych województw: śląskiego i małopolskiego, województwo śląskie ma
wyższy współczynnik kapitał/praca od małopolskiego i niższą elastyczność PKB
względem kapitału. Tak więc, we względnie zasobniejszym w kapitał fizyczny województwie śląskim dodatkowa jednostka kapitału przynosiłaby mniejszy przyrost
PKB niż w województwie małopolskim, nawet gdyby stosunki kapitał/praca były
równe w tych województwach. Województwo małopolskie ma natomiast wyższy
poziom technologii od śląskiego i niższą elastyczność produkcji względem technologii. Można stąd wnioskować, że efekt malejących przychodów z poszczególnych
czynników produkcji, który powinien prowadzić do ujednolicenia między województwami stosunku czynników produkcji (np. kapitał/praca), jest dodatkowo
wzmacniany przez różnice w elastycznościach PKB między województwami.
76
Anna Wierciszewska, Mirosława Lasek
10. Modelowanie procesów rozwoju gospodarczego
na przykładzie opracowanego modelu dynamiki systemów
Przed rozpoczęciem zamierzonego, zgodnie z przyjętymi założeniami, modelowania procesów rozwoju gospodarczego przydatne może być przeanalizowanie zachowania zmiennych utworzonego modelu dynamiki systemów. Wiele korzyści poznawczych, potrzebnych do modelowania, może dać porównanie wyników symulacji
na podstawie skalibrowanego modelu z rzeczywistymi wartościami zmiennych.
W przypadku opisywanym w artykule, porównania takiego dokonano dla lat 1995–2008.
Rozpoczęto analizę od podstawowego miernika wzrostu gospodarczego, jakim
jest PKB. Posłużono się najpierw przykładem województwa śląskiego. Model nie
odwzorowuje w pełni rzeczywistych danych. W latach 1995–2005, dla których model był kalibrowany, różnica między symulacją a danymi sięga 13074 mln zł dla roku
2001, co stanowi 12,5% PKB. W latach 2006 i 2007 zachowuje trend wzrostowy,
zbliżony do rzeczywistego, jednak różnica między symulacją i danymi powiększa się
i osiąga w 2007 roku – 14 309 mln zł. W czasie prowadzonej analizy, dane dotyczące
PKB w roku 2008 nie były udostępnione przez GUS.
Trafniejsza, niż dla PKB, okazała się symulacja akumulacji środków trwałych
w województwie śląskim. Symulowane wartości poziomu Kapitał jedynie w niewielkim stopniu odbiegały od rzeczywistych. Maksymalna różnica występuje w roku
2000 i wynosi 6 514 mln zł. Stanowi to jedynie 3,4% rzeczywistej wielkości środków
trwałych w tym roku. Nieco gorzej, ale także zadowalająco, zachowuje się wielkość
symulacji akumulacji kapitału w województwie małopolskim. W obu województwach za zadowalające można uznać uzyskane prognozy. Rozbieżności między symulacją i danymi w roku 2008 sięgają zaledwie 1,5% rzeczywistych środków trwałych (w obu województwach).
W kalibrowanym okresie, symulacja PKB w województwie małopolskim, w porównaniu z województwem śląskim, wypadła gorzej. W 2001 roku różnica między
symulacją a danymi rzeczywistymi sięgnęła 9 438 mln zł (17% PKB). Natomiast
w okresie prognozy, lata 2006 i 2007, wielkości symulowane i rzeczywiste osiągają
podobne wartości. Błąd prognozy dla roku 2007 sięga tylko 841 mln zł (1% PKB).
Zamieszczony w pracy Wierciszewskiej [Wierciszewska 2010], wykres symulowanego PKB może budzić jednak, ze względu na swój kształt, pewne zaniepokojenie.
W latach 1995–2001, funkcja wydaje się zbyt płaska w porównaniu z rzeczywistym
PKB, a po 2001 roku odznacza się bardzo wyraźnym, dużym kątem nachylenia (podobnie można zauważyć w przypadku województwa śląskiego).
Przyczyn niedokładności symulacji PKB można dopatrywać się w problemach
dotyczących modelowania poziomu technologii [Wierciszewska 2010 s. 62]. Przyjęta
na potrzeby analiz, liczba wniosków patentowych na milion mieszkańców nie okazała się poprawnym miernikiem technologii. Odzwierciedlany za jej pomocą poziom
technologii nie spełnia, jak wcześniej przyjęto, założenia o monotoniczności. Ponadto, obserwowana, duża zmienność poziomu technologicznego jest trudna do ujęcia
w zależnościach przyczynowo-skutkowych i sprawiająca kłopoty do odtworzenia
w symulacji.
Zauważalną zaletą modelu jest fakt, że dla województwa śląskiego, w okresie kalibracji (1995–2005), dobrze odzwierciedla ogólne, kilkuletnie trendy dotyczące
Dynamika systemów jako narzędzie modelowania procesów ...
77
zmian w liczbie pracowników wykwalifikowanych, jak i niewykwalifikowanych.
Mankamentem jest fakt, że model nie jest w stanie odtworzyć jedno-, dwuletnich
odchyleń. Można również zauważyć niepokojące zjawisko, że jeśli chodzi o pracowników niewykwalifikowanych, w okresie prognozy wielkości wynikające z symulacji
w sposób widoczny różnią się od rzeczywistych. Model skalibrowany dla województwa małopolskiego daje gorsze wyniki niż w przypadku kalibracji dla województwa
śląskiego. Nie daje poprawnej, symulowanej liczby pracowników wykwalifikowanych
(w porównaniu z ich liczbą rzeczywistą). Jak łatwo zauważyć, liczba pracowników
wykwalifikowanych odznacza się tu bardzo silną zmiennością (w rzeczywistości)
i można sądzić, że na tę liczbę wpływają dodatkowe czynniki, które nie zostały
uwzględnione w modelu. Model przedstawia dobrze ogólny trend, jeśli chodzi
o zmienność liczby pracowników niewykwalifikowanych. Jednak i tu pojawia się
pewna wada. Model nie sygnalizuje nagłej zmiany trendu w 2008 roku, polegającego
na niespodziewanym przyroście ich liczby.
Zmienne w modelach dynamiki systemów, które są łatwiejsze do modelowania
(symulowania trendów), to zmienne, które nie charakteryzują się gwałtowną, częstą
zmianą zachowania. Taką zmienną w, opisywanym w artykule, modelu okazała się
zmienna określająca liczbę ludności. Trend zmian ogólnej liczby ludności przez model został dobrze zasymulowany zarówno dla województwa śląskiego, jak i małopolskiego. Rozbieżności pomiędzy rzeczywistymi wielkościami liczby ludności a wskazywanymi przez model były bardzo niewielkie.
Modele dynamiki systemów, w tym model opisywany w artykule, zawierają wiele
zmiennych, które mogą być przedmiotem określonych decyzji i przez kształtowanie
których można próbować odpowiednio modelować zachodzące procesy rozwoju
gospodarczego.
W opisywanym modelu do zmiennych, na które można wpływać w różnorodny
sposób (bezpośredni lub pośredni) i badać dzięki modelowi, a ściślej symulacjom
komputerowym (np. za pomocą wspomnianego programu Vensim) ich zarówno
bezpośrednie, jak i pośrednie oddziaływanie na procesy rozwoju gospodarczego
w celu odpowiedniego kształtowania, należą tu, przykładowo:
–
nakłady na badania i rozwój; można analizować, jak silnie zmiany nakładów
wpływają na rozwój gospodarczy i jakie zwiększenie tych nakładów okaże
się rzeczywiście znaczące, czy też opłacalne; w tym można analizować, jaka
jest wrażliwość poziomu technologii lub/i PKB na zmiany nakładów na
badania i rozwój;
–
nakłady na kształcenie (lub powszechność kształcenia); można analizować
wpływ tej zmiennej, podobnie jak uprzednio wpływ zmiennej nakłady na
badania i rozwój;
–
wielkość inwestycji w środki trwałe (dopływ poziomu Kapitał); można na
przykład analizować wrażliwość PKB na zmiany procentu PKB przeznaczonego na inwestycje.
Dynamika systemów, dzięki możliwości przeprowadzania symulacji modeli, pozwala badać zależności między zmianami wybranych parametrów a zachowaniem
zmiennych makroekonomicznych zamieszczanych w modelach. Zdarza się, że niewielka ingerencja może wywołać nadspodziewanie duże efekty, podczas gdy innym
78
Anna Wierciszewska, Mirosława Lasek
razem zerowe. Takie zjawiska możemy analizować, dzięki sieci powiązań między
zmiennymi, budowanej jako połączone pętle sprzężeń zwrotnych.
Nie do przecenienia w badaniach dynamiki systemów jest możliwość automatyzacji działań, dzięki programom komputerowym, takim jak wspomniany program
Vensim. Program komputerowy umożliwia realizację ciągu symulacji, dzięki którym
jest możliwe znalezienie optymalnych wartości parametrów odpowiadających przyjętym celom (np. określonym poziomom wydatków), tak aby określić niezbędne
zmiany innych zmiennych. Przeprowadzane symulacje umożliwiają uwzględnienie
różnorodnych efektów ubocznych i długookresowych konsekwencji. Bez modeli
dynamiki systemów, z ujmowanymi przez nie zależnościami, powiązaniami i oddziaływaniami, długookresowe skutki zmian mogłyby pozostać całkowicie niewidoczne
i nieuchwytne.
11. Podsumowanie
Celem artykułu było zaprezentowanie możliwości i zalet zastosowania dynamiki
systemów w modelowaniu procesów rozwoju gospodarczego Polski. Przedstawiany
w artykule model ma jedynie charakter ilustracyjny, sygnalizujący użyteczność dynamiki systemów i zachęcający do jej stosowania. Aby stał się przydatny dla konkretnych zastosowań, wymagałby znacznej rozbudowy i wielu modyfikacji, jak krótko
wskazano to w pracy [Wierciszewska 2010 s. 68–70].
Zachęcając do stosowania dynamiki systemów jako narzędzia modelowania procesów rozwoju gospodarczego, podsumowując zawarte w artykule rozważania, należy podkreślić, że w szczególności następujące, trzy cechy dynamiki systemów istotnie wpływają na jej użyteczność:
–
podejście holistyczne i długookresowe;
–
umożliwianie symulacji działania złożonych systemów społeczno-gospodarczych;
–
nastawienie na poszukiwanie rozwiązań problemów i projektowanie konkretnej polityki działania.
Mamy nadzieję, że przynajmniej na większość tych cech udało nam się zwrócić
uwagę w niniejszym artykule.
Literatura
Elementy Dynamiki Systemów 2008, Tarajkowski J. (red.), Poznań.
Forrester J.W. 1968 Principles of Systems, Cambridge.
Forrester J.W. 1973 World Dynamics, wydanie drugie, Cambridge.
Fratesi U. 2004 Regional Economies, Innovation and Competitiveness in a System Dynamics
Representation, Quaderni di Ricerca, n. 204.
Kasperska E. 2005 Dynamika Systemowa – symulacja i optymalizacja, Gliwice.
Krugman P. 1991 Increasing Returns and Economic Geography, „The Journal of Political
Economy”, Vol. 99, No. 3.
Dynamika systemów jako narzędzie modelowania procesów ...
79
Kwaśnicki W. 1998 Dynamika Systemów jako metoda nauczania, [w:] Symulacja komputerowa
w nauczaniu ekonomii, Edward Radosiński (red.), Wrocław.
Myrtveit M. 2005 The World Model controversy, Working Papers in System Dynamics, Bergen.
Nordhaus W.D. 1973 World Dynamics: measurement Without Data, „The Economic Journal”, Vol. 83, No. 332.
Porwit K. 1975 Uwagi o przydatności metody „dynamiki systemów”, Warszawa.
Sterman J.D. 1987 Misperceptions of Feedback in Dynamic Decisionmaking, Working Paper,
Cambridge.
Sterman J.D. 2000 Business Dynamics, Systems thinking and modeling for complex world, Boston.
Wierciszewska A. 2010 Użyteczność dynamiki systemów w zarządzaniu procesem rozwoju gospodarczego Polski, Praca magisterska napisana pod kierunkiem M. Lasek z Katedry Informatyki Gospodarczej i Analiz Ekonomicznych, Wydział Nauk Ekonomicznych, Uniwersytet Warszawski, Warszawa.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Ewa ROSZKOWSKA1
PROCEDURY PODEJMOWANIA DECYZJI SPOŁECZNYCH
A OPTIMUM SPOŁECZNE
Streszczenie
W pracy przedstawiono koncepcję optimum społecznego w ujęciu kompleksów reguł. Powiemy,
że stan społeczny jest optymalny społecznie (optimum społecznym), jeśli w wyniku stosowania uznawalnych procedur przez agentów mających odpowiednie uprawnienia decyzyjne nie jest możliwe społecznie uznawalne polepszenie tego stanu społecznego. Dokonano omówienia wybranych społecznie
uznawalnych procedur tj. sądy, negocjacje, mediacje, głosowanie, wybory zwracając szczególną uwagę
na normatywne aspekty podejmowania grupowych decyzji w oparciu o te procedury. Uświadomienie
sposobu przebiegu tych procedur, wad i zalet każdej z nich, uwarunkowań prawnych, kulturowych,
społecznych czy etycznych ich wyboru może wpłynąć na zwiększenie efektywności ich stosowania.
Słowa kluczowe: optimum społeczne, gra społeczna, podejmowanie decyzji, procedura, reguły
PROCEDURES OF SOCIAL DECSION MAKING AND SOCIAL OPTIMUM
Summary
In this work the concept of social optimum is presented in the context of rules and complexes of
rules. We say that a social state is social optimal if in the case of usage of legitimate procedures by
agents having authority to make decisions, is no possible to obtain legitimate social improvement of
this social state. We described here selected legitimate social procedures such as judgements, negotiation, mediation, voting or election paying special attention to normative aspects of group decisionmaking based on those procedures. Awareness of the way in which these procedures operate, disadvantages and advantages of each of them, legal, cultural, social or ethical conditioning, can enhance
their effectiveness.
Keywords: social optimum, social game, decision making , procedure, rules
1. Wstęp
Decyzje podejmowane za pomocą uznawalnych procedur społecznych są istotnym elementem funkcjonowania współczesnych społeczeństw demokratycznych.
Problem podejmowania decyzji grupowych, jak również przekształcania preferencji
Dr hab. Ewa Roszkowska, prof. UwB – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania, Zakład Ekonometrii i Statystyki.
1
Procedury podejmowania decyzji społecznych a optimum społeczne
81
indywidualnych w preferencje społeczne to podstawowe aspekty np.: teorii wyboru
społecznego, teorii wyboru publicznego, psychologii społecznej czy zarządzania2.
Teoria wyboru społecznego ma charakter normatywny, ocenie podlega metoda podejmowania decyzji i jej rezultat, poszukuje się najlepszych sposobów podejmowania
grupowych decyzji na podstawie indywidualnych ocen dostępnych alternatyw społecznych oraz metod wyboru z rozważanego zestawu alternatyw, alternatywy najlepszej wraz z normatywnym uzasadnieniem jej wyboru. Teoria wyboru publicznego
ma charakter opisowy, bada zachowania ludzi, podmiotów biorących udział w podejmowaniu decyzji oraz przebieg procesu prowadzącego do podjęcia decyzji społecznej [Arrow 1951; Jakubowski 2005; Lissowski 2001; Sen 1970; Sosnowska 2005;
Wilkin 2005].
Podejmowanie decyzji grupowych ma służyć rozwiązywaniu sporów, polepszaniu sytuacji społecznych, a w konsekwencji prowadzić do tzw. optimum społecznego. W ekonomii, szczególnie w ekonomii dobrobytu, szeroko jest stosowana koncepcja optimum Pareto. Stan społeczny jest optymalny (efektywny) w sensie Pareto, jeśli
nie jest możliwa poprawa sytuacji, co najmniej jednego podmiotu bez pogorszenia
sytuacji pozostałych podmiotów.
Dwa podstawowe twierdzenia ekonomii dobrobytu opisują związek między wolnokonkurencyjnymi rynkami a efektywnością ekonomiczną w sensie optimum Pareto.
Pierwsze twierdzenie głosi, że gospodarka, w której istnieje konkurencja rynkowa,
jest efektywna w sensie Pareto. Drugie z nich stwierdza, że mechanizm konkurencji
umożliwia osiągnięcie efektywnego w sensie Pareto podziału zasobów. Do wad zasady Pareto można zaliczyć: brak obiektywnych kryteriów służących do oceny przewagi jednej sytuacji społecznej nad inną, wpływ początkowej sytuacji na wybory
oparte na tej zasadzie, możliwość wystąpienia wielu nieporównywalnych sytuacji
optymalnych w sensie Pareto, traktowanie indywidualnych preferencji jako jedynej
podstawy preferencji społecznych czy utożsamianie dobrobytu społeczeństwa z dobrobytem jednostek je tworzących. Krytyka zasady Pareto doprowadziła do poszukiwania dodatkowych warunków i zasad oceny celowości przejścia z jednego stanu
do innego np.: zasada efektywności Kaldora-Hicksa, aksjomaty Arrowa, tworzenie
funkcji społecznego wyboru, jak również poszukiwanie innych koncepcji optymalności (efektywności) w sensie społecznym [Acocella 2002].
W niniejszym opracowaniu przedstawiono koncepcję optimum społecznego z wykorzystaniem reguł i kompleksów reguł, która może być pewną alternatywą w stosunku do optimum Pareto. Stan społeczny nazywamy optymalnym społecznie, jeśli
w wyniku stosowania uznawalnych procedur, tj.: sądy, negocjacje, mediacje, głosowanie czy wybory przez agentów mających odpowiednie uprawnienia decyzyjne, nie
jest możliwa społecznie uznawalna poprawa tego stanu społecznego. Ponieważ wybór procedury może przesądzać o ostatecznej decyzji, istotne jest pełne rozpoznanie
własności procedur, możliwości stosowania, ograniczeń czy wrażliwości na manipulację.
2 W opracowaniu przyjmuje się, że grupa jest zbiorową całością, którą tworzy zestaw jednostek,
przy czym zrozumienie jej zachowania wymaga badania cech grupy i cech jej członków. Decyzje społeczne to decyzje grupowe, na przebieg których wpływ ma zarówno struktura społeczeństwa, role pełnione przez jej członków, jak i normy społeczne.
82
Ewa Roszkowska
Praca została podzielona na 5 części. Po niniejszym wstępie, rozdział 2.1. zawiera
definicje podstawowych pojęć matematycznych, tj.: reguła, kompleks reguł, podkompleks reguł oraz uogólniona gra. Wykorzystując terminologię z rozdziału 2.1.,
w rozdziale 2.2. przedstawiono model gry społecznej, a w rozdziale 2.3. koncepcję
optimum społecznego opartego na mechanizmach podejmowania decyzji społecznych.
Rozdział 3. zawiera przegląd uznawalnych procedur społecznych, tj.: sądy, arbitraż,
negocjacje, mediacje, głosowanie. Rozdział 4. poświęcono normatywnym aspektom
społecznie uznawalnych procedur. Pracę zamyka krótkie podsumowanie oraz literatura.
2. Optimum społeczne w ujęciu kompleksów reguł
2.1. Koncepcja i własności uogólnionej gry
Na wstępie zaprezentowano podstawowe pojęcia matematyczne związane z koncepcją uogólnionej gry [Burns, Roszkowska 2005; Gomolińska 1999; Roszkowska
2007 s. 15–39].
Definicja 1. Przez L oznaczmy język, w którym występują zmienne oznaczające
obiekty i meta obiekty. Przez FOR oznaczmy zbiór formuł języka L.
Regułą nazywamy dowolny element:
( X , Y , γ ) ∈ ( FIN (℘( FOR ))) 2 × FOR ,
gdzie: X – zbiór przesłanek Y – zbiór uzasadnień, γ – konkluzja, ℘( FOR ) − zbiór potęgowy
zbioru FOR, FIN(℘( FOR ) − rodzina wszystkich skończonych podzbiorów zbioru ℘( FOR ) .
Regułę rozumiemy następująco:
Jeśli wszystkie elementy X zachodzą oraz wszystkie elementy Y mogą
zajść, to mamy γ.
Definicja 2. Kompleksem reguł nazywamy zbiór, który spełnia następujące
warunki:
i)
dowolny skończony zbiór reguł jest kompleksem reguł;
ii)
jeśli C1, C2 są kompleksami reguł, to C1 ∪ C2 oraz ℘(C1 ) są kompleksami
reguł;
iii)
jeśli C1 ⊆ C2, C2 jest kompleksem reguł, to C1 jest również kompleksem reguł.
Definicja 3. Powiemy, że kompleks reguł C jest podkompleksem kompleksu D,
jeśli C = D lub C został otrzymany z D przez opuszczenie pewnych (lub wszystkich)
reguł w kompleksie D oraz opuszczenie zbędnych nawiasów i wystąpień zbioru pustego.
Procedury podejmowania decyzji społecznych a optimum społeczne
83
Definicja 4. Przez uogólnioną grę G rozumiemy proces interakcji między graczami pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych
relacjach.
Formalnie, gra jest reprezentowana przez kompleks reguł G = [ROLE(I,G),R],
gdzie I oznacza zbiór graczy, ROLE(I,G) kompleks ról pełnionych przez graczy
w grze G [Burns, Roszkowska 2005; Roszkowska 2007 s. 15–39]. Wśród podkompleksów G wyróżniamy cztery podstawowe komponenty:
–
MODEL(I,G), który zawiera reguły opisujące kontekst sytuacyjny oraz
ogólne zasady determinujące proces interakcji;
–
ACTL(I,G), który zawiera: opis możliwych aktywności podejmowanych
przez graczy, zachowania rutynowe, instrumentalne, prawne, normatywne;
–
VALUE(I,G), który zawiera reguły reprezentujące wartości i normy uznawane przez graczy;
–
J(I,G), który zawiera reguły opisujące sposoby rozumowania graczy oraz
metody podejmowania przez nich decyzji.
Gracze mogą mieć ograniczoną informację związaną z: kontekstem sytuacyjnym
gry, możliwościami działania, funkcjami wypłat. Nie wszystkie reguły gry muszą być
znane, reguły mogą być nieprecyzyjne lub niekompletne, mogą być także modyfikowane w trakcie gry. Zachowanie gracza może być: rutynowe, związane np. z przestrzeganiem zwyczajowych zasad, procedur, przepisów prawnych; normatywne oparte na stosowaniu się do norm i wartości występujących w kompleksie VALUE(I,G);
instrumentalne zorientowane na osiągnięcie pożądanych wyników; emocjonalne, gdy
graczem rządzą emocje, lub kombinacją wymienionych. Celem analizy uogólnionej
gry jest znalezienie rozwiązania gry, czyli układu możliwych aktywności podejmowanych przez graczy, realizujących wartości i normy przez nich uznawane i prowadzących do akceptowalnego stanu, nazywanego także stanem równowagi.
2.2. Model gry społecznej
Przez stan społeczny będziemy rozumieli opis sytuacji, w której znajduje się
społeczeństwo w relacji do działań ludzkich lub zdarzeń naturalnych [Acocella 2002
s. 22–36]. Zbiór możliwych (osiągalnych) stanów społecznych oznaczmy przez ST.
Społeczeństwo podejmuje decyzje o zmianie stanu społecznego lub wyborze jednego ze stanów ze zbioru ST za pośrednictwem agentów (graczy), czyli osób uprawnionych do podejmowania grupowych decyzji zgodnie z określonymi procedurami
ze zbioru PR. Niech I oznacza zbiór graczy, Iaut zbiór agentów (graczy) posiadających
uprawnienia do podejmowania decyzji grupowych, gdzie Iaut ⊆ I. Mamy Iaut ⊆ I,
może zajść również I=Iaut.
Rozważa się grę społeczną G = [ROLE(I,G),R] jako proces interakcji między
agentami (tj.: jednostki, grupy osób itp.) ze zbioru I, pełniącymi w tej grze określone
role oraz pozostającymi ze sobą w określonych relacjach w kontekście sytuacji St,
opisanych przez stany społeczne w momencie czasu t3. Kompleks ROLE(I,G) opisuje role pełnione przez graczy w grze G: ich siłę, relacje między nimi, społeczne,
3 Szerzej o matematycznych podstawach uogólnionej gry, jej własnościach, zastosowaniach w:
[Burns, Roszkowska 2005; Gomolińska 1999; Roszkowska 2007].
84
Ewa Roszkowska
ekonomiczne, kulturowe czy psychologiczne aspekty ich zachowań, R zawiera ogólne
reguły regulujące przebieg gry [Burns, Roszkowska 2005; Roszkowska 2007 s. 15–39],
MODEL(I,G), ACT(I,G), VALUE(I,G), J(I,G) oznaczają odpowiednie komponenty
kompleksu ROLE(I,G). Zbiór procedur PR jest zawarty w kompleksie ACT(I,G),
[Burns, Roszkowska 2009].
SCHEMAT 1.
Model gry społecznej G
Źródło: Opracowanie własne: [Por. Burns, Roszkowska 2009; Roszkowska 2009].
Gracze ze zbioru I dokonują indywidualnej oceny stanów społecznych ze zbioru
ST, kierując się własnymi: motywami, preferencjami, uwarunkowaniami społecznoprawnymi (np.: normami społecznymi, kulturowymi, tradycją, zasadami prawnymi
Procedury podejmowania decyzji społecznych a optimum społeczne
85
itp.). Definiują oni stany społeczne, które z ich punktu widzenia są „podobne”,
„lepsze” niż inne, „gorsze” niż inne, lub wybierają, ich zdaniem, „najlepszy” stan
społeczny4. Następnie, agenci mający uprawnienia do podejmowania grupowych decyzji, czyli agenci ze zbioru Iaut, dokonują agregacji indywidualnych ocen stanów
społecznych w ocenę społeczną za pomocą określonej procedury (np.: postępowanie sądowe, negocjacje, mediacje, głosowanie), biorąc pod uwagę własną ocenę stanów społecznych, konteksty sytuacyjny (ocenę tych stanów przez pozostałych
członków społeczności, uwarunkowania społeczne, prawne itp.), jak również własności samej procedury. W sytuacji, gdy rezultat końcowy jest niezadowalający, gracz
lub gracze mogą go jednak ostatecznie zaakceptować ze względu na to, że został
otrzymany zgodnie z uznaną przez nich procedurą, lub podejmować próby zmiany
decyzji np. przez modyfikację procedury, zmianę agentów mających uprawnienia do
podejmowania decyzji itd. Model tak określonej gry społecznej G przedstawia schemat 1.
2.3. Koncepcja optimum społecznego
Na wstępie wprowadzimy pojęcie instytucjonalnego mechanizmu, uznawalnej
procedury oraz społecznie uznawalnej poprawy stanu społecznego [Por. Roszkowska 2009].
Definicja 5. Procedurą społeczną Cpro ze zbioru procedur PR nazywamy instytucjonalny mechanizm (institutional mechanizm) pozwalający ocenić możliwości
przejścia ze stanu społecznego A∈ST do stanu społecznego B∈ST.
Definicja 6. Procedurę społeczną Cpro ze zbioru PR nazywamy uznawalną
(legitimize), jeśli agenci stosujący tę procedurę lub związani z wynikami jej stosowania uznają ją za właściwą do podjęcia decyzji o zmianie lub wyborze określonego
stanu społecznego.
Definicja 7. Społecznie uznawalna poprawa stanu społecznego jest to zmiana
stanu społecznego dokonana w wyniku decyzji podjętej przez zastosowanie uznawalnej procedury Cpro ze zbioru PR.
Definicja 8. Powiemy, że stan społeczny A∈ST jest efektywny społecznie lub
optymalny społecznie, jeśli przejście ze stanu A∈ST do dowolnego stanu B∈ST
nie jest społecznie uznawalną poprawą.
Zatem, stan społeczny jest optymalny społecznie (optimum społecznym), jeśli,
w wyniku stosowania uznawalnych procedur przez agentów mających odpowiednie
uprawnienia decyzyjne, nie jest możliwa społecznie uznawalna poprawa tego stanu
społecznego.
4 Wybór lub uporządkowanie stanów społecznych to złożony interdyscyplinarny problem decyzyjny. Wspomaganiu podejmowania decyzji mogą tutaj służyć np. metody wielokryterialne, gdzie za opcje
decyzyjne przyjmujemy stany społeczne.
86
Ewa Roszkowska
SCHEMAT 2.
Model podejmowania decyzji społecznych
prowadzących do optimum społecznego
Źródło: Opracowanie własne: [Por. Burns, Roszkowska 2009; Roszkowska 2009].
Proces podejmowania grupowych decyzji oraz poprawy stanu społecznego można opisać następująco (Zob. schemat 2.), [Burns, Roszkowska 2009; Roszkowska
2009]:
1) Norma ze zbioru VALUE wyznacza procedurę (instytucjonalny mechanizm)
Cpro ze zbioru PR jak uprawnioną (właściwą) do podejmowania grupowych decyzji.
2) Procedura Cpro jest stosowana przez agentów ze zbioru Iaut, czyli agentów posiadających uprawnienia do podejmowania grupowych decyzji.
3) Podejmowanie grupowych decyzji przebiega zgodnie z regułami opisanymi przez
procedurę Cpro.
4) Wszyscy agenci ze zbioru I akceptują stosowanie tej procedury oraz otrzymane
wyniki, nawet jeśli nie są one w pełni satysfakcjonujące.
Procedury podejmowania decyzji społecznych a optimum społeczne
87
W sytuacji, gdy część graczy nie zaakceptuje otrzymanego wyniku mogą oni podejmować próby zmiany decyzji np. przez modyfikację procedury, zmianę agentów
mających uprawnienia do podejmowania decyzji itd.
W teorii wyboru społecznego zakłada się, że grupa podejmująca decyzję jest reprezentowana za pomocą profili indywidualnych preferencji lub użyteczności, które
w trakcie społecznego procesu przyjmuje się za ustalone i niezmienne. Za pomocą
zasady zbiorowej oceny lub funkcji społecznego wyboru dokonuje się agregacji indywidualnych preferencji w preferencję społeczną. Zasada zbiorowej oceny jest funkcją, która profilowi indywidualnych preferencji, określonych na zbiorze alternatyw
społecznych, przyporządkowuje pewną społeczną binarną relację określoną na tym
zbiorze. Funkcja społecznego dobrobytu jest to funkcja, która każdemu profilowi indywidualnych preferencji, określonych na zbiorze alternatyw społecznych, przyporządkowuje racjonalną relację preferencji społecznych, czyli relację, która umożliwia
uporządkowanie zbioru alternatyw od najlepszej do najgorszej [Szerzej np.: Metelska-Szaniawska 2005 s. 15–20; Kamiński 2003].
W analizowanym modelu indywidualna ocena stanów społecznych może przybierać dowolną formę, zakłada się jedynie, że agregacja indywidualnych ocen stanów
społecznych następuje w wyniku stosowania określonej procedury. Na znaczenie
procedur w podejmowaniu społecznych decyzji zwrócił uwagę między innymi
Buchanan. Buchanan sceptycznie podchodzi do koncepcji „społecznych preferencji”, sugeruje – przez swoje konsekwencje ostrożność w nakładaniu silnego warunku zgodności preferencji w wyborze społecznym, ale nacisk, jaki kładzie on na procedury społecznego wyboru, można zrozumieć jako ogólniejszy postulat mówiący, że – rezygnując z prób oceniania społecznych decyzji nie ze względu na kryterium ich wewnętrznej zgodności –
warto koncentrować się na podejściu proceduralnym. W swojej czystej postaci podejście to
sprowadza się do poszukiwania „właściwych” instytucji, nie zaś „dobrych” rezultatów
i przyznaje priorytet odpowiednim procedurom (łącznie z konsekwencjami tych procedur), [Cyt. za: Lissowski 2001 s. 49].
3. Wybrane uznawalne procedury podejmowania decyzji społecznych
Do społecznie uznawalnych procedur podejmowania decyzji można zaliczyć np.:
procedury sądowe, negocjacje czy mediacje, głosowanie, wybory, referendum.
3.1. Procedura sądowa
Sąd jest niezawisłym organem państwowym, funkcjonującym w szczególnej formie, powołanym do: stosowania prawa, rozstrzygania sporów, decydowania o przysługujących uprawnieniach oraz dokonywania innych czynności określonych
w ustawach lub umowach. Interesy stron są zwykle reprezentowane przez prawników, a sędzia podejmuje decyzje na podstawie zasad kodeksu prawa. Decyzja sądu
jest dla obu stron wiążąca, a niepodporządkowanie się jest obwarowane sankcjami
prawnymi. Arbitraż to metoda rozwiązywania sporów prawnych bez udziału sądu,
przy czym strony muszą na to wyrazić zgodę. W arbitrażu jednorazowym każda ze
stron sporu wybiera własnego arbitra (lub arbitrów), a ci następnie powołują supe-
88
Ewa Roszkowska
rarbitra, potem wybrany skład rozstrzyga spór oparty na, uzgodnionej wcześniej, zasadzie. Arbitraż instytucjonalny funkcjonuje na podstawie profesjonalnej organizacji
zajmującej się arbitrażem.
Podstawą arbitrażu jest to, że strony postępowania mają bezpośredni lub pośredni wpływ na wybór arbitrów oraz zasady rozstrzygania sporów. Postępowanie
arbitrażowe jest coraz chętniej stosowane, ze względu na: szybkość rozstrzygania
sporów, mniejsze koszty w porównaniu z postępowaniem sądowym oraz przekonanie, że arbitrzy znają się lepiej niż sędziowie na specyficznych problemach podlegających rozstrzyganiu. Podstawową cechą zarówno procedury sądowniczej, jak i arbitrażowej jest przyporządkowanie poszczególnych elementów przedmiotu sporu
określonym paragrafom kodeksowym.
3.2. Negocjacje lub mediacje
Negocjacje to zazwyczaj dobrowolne rozmowy, podjęte przez strony konfliktu,
których celem jest: zawarcie porozumienia, realizacja umowy, osiągnięcie kompromisu w spornej kwestii [np.: Bargiel-Matusiewicz 2007; Kamiński 2003; Nęcki 1995;
Roszkowska 2007; Rządca 2003]. Przy czym strony sporu cały czas sprawują kontrolę nad procesem negocjacji, ponoszą odpowiedzialność za ich przebieg oraz wynik.
Negocjacje umożliwiają dogłębne rozpoznanie konfliktu, poszukiwanie rozwiązania
satysfakcjonującego obie strony, są mniej kosztowne niż walka, nie powodują strat
moralnych oraz prowadzą do poprawnych stosunków między stronami. Negocjacje
zbiorowe są obecnie rozpowszechnioną metodą kształtowania zbiorowych stosunków pracy w krajach o gospodarce rynkowej. Opierając się na idei kompromisu korzystnego dla obu stron, sprzyjają budowaniu pokoju i ładu społecznego umożliwiającego sprawny i efektywny przebieg procesów gospodarczych.
W ramach Harvardzkiego Projektu Negocjacyjnego została opracowana procedura prowadzenia skutecznych negocjacji [Fisher, Ury, Patton 1996]. Polega ona na
podejmowaniu decyzji w poszczególnych kwestiach, opierając się na zasadach, czyli
na „meritum”. Poleca się poszukiwanie wspólnych korzyści, a w razie konfliktu rozstrzygnięcie go na podstawie kryteriów obiektywnych. Metoda ta jest „twarda”
w stosunku do problemu, a „miękka” w stosunku do ludzi. Proces negocjacji polega
na poszukiwaniu optymalnego rozwiązania, które pogodzi interesy obu stron.
Uczestnicy rozwiązują wspólny problem, a celem jest osiągnięcie rozsądnego wyniku
uzyskanego sprawnie i w dobrej atmosferze, opartego na kryteriach niezależnych od
subiektywnych życzeń. Ten rodzaj negocjacji cechuje delikatność wobec ludzi,
a twardość wobec problemu. Negocjator:
–
przekonuje, ale jest również otwarty na przekonania;
–
jest w stanie zaakceptować zasadne argumenty, lecz nie ulega presji;
–
unika formułowania dolnej granicy akceptacji.
Cztery główne reguły prowadzenia negocjacji, zgodnie z tą procedurą, to [Fisher,
Ury, Patton 1996]:
1. Oddzielaj ludzi od problemu – nie mieszaj swego stosunku do negocjowanego
zagadnienia ze stosunkiem do negocjatorów.
2. Koncentruj się na interesach, a nie na stanowiskach.
Procedury podejmowania decyzji społecznych a optimum społeczne
89
3. Wymyślaj możliwie wiele wariantów rozwiązania. Należy poszukiwać wielu możliwości niosących korzyści dla obu stron, wielu rozwiązań problemu.
4. Ustalaj obiektywne kryteria oceny osiągniętego problemu.
Mediacje są zwykle podejmowane, gdy strony nie wierzą, że mogą samodzielnie
go rozwiązać, nie mają zaufania do drugiej strony, nastąpił impas w negocjacjach
[Bargiel-Matusiewicz 2007; Moore 1986]. Mediacja jest skuteczna wtedy, gdy strony
zrozumieją, że są od siebie zależne, a zawarcie porozumienia jest niezbędne i wzajemnie korzystne. Podobnie jak w przypadku negocjacji, to strony zaangażowane
w konflikt decydują ostatecznie o kształcie umowy w celu ustalenia przedmiotu sporu. Mediacja pozwala na uniknięcie: stresu postępowania sądowego, sali sądowej, arbitralnych decyzji sędziów, przedłużania procedur sądowych z przyczyn formalnych,
skrócenia czasu czy zmniejszenia kosztów związanych z rozstrzyganiem sporów.
Podstawowe cechy procedury mediacyjnej to: zgoda stron na osobę mediatora, wysłuchanie przez mediatora racji obu stron z zachowaniem pełnej neutralności. Skuteczność mediacji zależy od zapewnienia swobodnej wymiany informacji z każdą ze
stron.
3.3. Głosowanie i wybory
Głosowanie, wybory czy referendum są podstawowymi mechanizmami demokracji
[Acocella 2002 s. 21–88; Antoszewski 2008; Golański, Kasprzyk 2005; Hamman
2004; Jakubowski 2005; Lissowski 2001; Sosnowska 2005]. Stanowią próbę rozstrzygnięcia konfliktu przez większość, są najczęstszym sposobem wyrażania grupowej
woli pewnej zbiorowości dotyczącej wyboru wariantu czy kandydata.
W głosowaniu, każdy z jej uczestników oddaje swój głos, następnie głosy są obliczane i stanowią podstawę decyzji. System głosowania określa sposób dokonywania
wyboru pomiędzy dostępnymi alternatywami na podstawie preferencji głosujących.
Składa się on z reguł opisujących preferencje głosujących oraz sposobu, w jaki preferencje są agregowane, by wyłonić ostateczny wynik głosowania. Każda sytuacja
głosowania może być opisana przez zestaw reguł, wśród których wyróżniamy reguły
związane z:
–
wybierającym, czyli opisem, kto może głosować, liczby głosów, jakie
uczestnik może oddać;
–
procedurą głosowania i obejmuje ustalenie propozycji poddawanych pod
głosowanie (np. kto może takie propozycje wysuwać), właściwej procedury
głosowania (reguła binarna, czyli jedna para możliwości lub reguła pluralistyczna, gdy pod głosowanie poddaje się kilka możliwości) czy porządku
głosowania;
–
procedurą ustalania wyniku głosowania (np.: jednomyślne, większościowe),
[Acocella 2002 s. 52–54; Hamman 2004; Jakubowski 2005; Lissowski 2001;
Sosnowska 2005].
Tylko dla dwóch alternatyw można określić w sposób jednoznaczny większość.
Z dwóch alternatyw uznaje się za lepszą społecznie (zwycięzcę) tę, którą więcej jednostek przedkłada nad drugą (metoda zwykłej większości). Jeśli mamy trzy lub więcej
alternatyw, to w sytuacji braku jednoznacznego rozwiązania poszukuje się innych
90
Ewa Roszkowska
sposobów określania „większości”. Badania nad technikami głosowania zostały zapoczątkowane przez prace Jeana Charlesa de Bordy oraz Jeana de Condorceta5.
Do podstawowych (bazowych) technik głosowania zalicza się technikę większościową, aprobującą Condorceta, Bordy,6. Techniki większościowe są oparte na analizie
„większości głosów” oddanych na alternatywy, techniki Condorceta na porównaniach
wariantów parami, techniki Bordy na ocenie punktowej tworzonej na podstawie indywidualnych profili, aprobujące na analizie aprobowanych alternatyw. Najbardziej
znane metody głosowań to: głosowanie jednomyślne, głosowanie większościowe
(większością zwykłą), większość pierwszeństwa (plurality rule), prosta większość
(simple majority), większość pierwszeństwa z dogrywką (plurality run off), metoda sekwencyjnej eliminacji (sequential run off), metoda Bordy, metoda Condorceta, metoda
Copelanda czy głosowanie aprobujące [Hamman 2004; Jakubowski 2005; Lissowski
2001; Sosnowska 2005].
Stosując metodę jednomyślności, głosujący decydują się na wybór alternatywy A
przed alternatywą B wtedy i tylko wtedy, gdy wszystkie jednostki przedkładają alternatywę A nad B. Metoda większości pierwszeństwa (plurality rule) polega na tym, że
każda jednostka oddaje głos na jedną, najwyżej ocenianą alternatywę (znajdującą się
na pierwszym miejscu w jego profilu indywidualnym), a społeczną preferencję wyznacza się ze względu na liczbę głosów uzyskanych przez poszczególne alternatywy.
Alternatywą zwycięską jest ta, która uzyska największą ilość głosów. Stosując metodę
prostej większości (simple majority), porównuje się dwie pierwsze alternatywy, alternatywę zwycięską w tym porównaniu zestawia się z następną alternatywą aż ostatniego
porównania, którego zwycięzca jest uważany za alternatywę zwycięską w całym głosowaniu. Metoda większości pierwszeństwa z dogrywką (plurality run off) polega na
tym, że każda jednostka oddaje jeden głos na jedną alternatywę. Wybrane zostają
dwie alternatywy, z których wybiera się jedną metodą zwykłej większości. Zgodnie
z metodą sekwencyjnej eliminacji (sequential run off), każdy głosujący oddaje jeden
głos na jedną alternatywę. Odpada ta alternatywa, która uzyskała najmniej głosów.
Głosowanie jest powtarzane dotąd, aż pozostanie jedna, zwycięska alternatywa. Metoda Bordy polega na przypisywaniu alternatywom punktów za pozycje, jakie zajmują
w indywidualnych uporządkowaniach. Przy n możliwościach, poddanych pod głosowanie, każdy głosujący przypisuje zero punktów od najmniej preferowanej opcji
do n-1 dla najbardziej preferowanej opcji. Sumując punkty dla każdej opcji, wybieramy tę z najwyższym wynikiem. Zgodnie z metodą Condorceta, alternatywę zwycięską otrzymuje się na drodze eliminacji, krok po kroku, tych alternatyw, które w danym momencie mają najmniejszą większość popierającą, czyli tych, które popiera
najmniejsza liczba głosujących. Stosując metodę aprobującą (approval voting), każdy
5 Przez technikę głosowania rozumiemy każdy sposób, dzięki któremu indywidualne preferencje
głosujących są przetwarzane w decyzję grupową uznawaną przez tych głosujących [np.: Mercik 1999
s. 115].
6 Na bazie technik podstawowych przez modyfikacje założeń są tworzone inne metody głosowania.
Zatem, na bazie techniki większościowej m.in.: metoda większościowa wielokrotna, Hare’a, Coombsona, techniki uniwersyteckie; na bazie techniki Condorceta powstały m.in.: metoda Schwarza, Dobsona,
Blacka, Copelanda, maksyminowa; na bazie techniki Bordy m.in.: metoda rang średnich, minimalnej
wariancji, Nansona, jury , a na bazie techniki aprobującej m.in.: metoda dezaprobująca, kumulująca, negatywna [Hamman 2004; Lissowski 2001; Mercik 1999 s. 115–118].
Procedury podejmowania decyzji społecznych a optimum społeczne
91
z głosujących oddaje po jednym głosie na każdą aprobowaną przez siebie alternatywę (niekoniecznie jedną). W głosowaniu wygrywa ta alternatywa, który zyska maksymalną liczbę głosów. Metoda Copelanda polega na porównaniu wszystkich alternatyw parami metodą zwykłej większości. Wygrywa alternatywa, dla której różnica
pomiędzy liczbą alternatyw, z którymi wygrała, liczbą alternatyw, z którymi przegrała parami, jest największa.
3.4. Systemy wyborcze
Wybory to proces, w którym dokonuje się wyboru spośród zgłoszonych kandydatów przedstawicieli do: organów władzy, stowarzyszeń, spółek, komisji itp. Referendum to forma głosowania o charakterze powszechnym, w której wszyscy obywatele
uprawnieni do głosowania wyrażają swoją opinię w kwestii poddawanej do głosowania. Referendum może być: obligatoryjne lub fakultatywne, opiniotwórcze lub
wiążące, ogólnokrajowe lub lokalne. System wyborczy zawiera reguły określające
[Antoszewski 2008; Golański, Kasprzyk 2005; Hamman 2004; Hołubiec 2005]:
–
wyborcę i jego uprawnienia w trakcie głosowania, w tym prawo uczestniczenia
w wyborach (uprawnienia, kategoryczne, gdy wyborca posiada jeden głos,
który oddaje na jednego kandydata albo listę partyjną, lub porządkujące, gdy
ma on: możliwość oznaczenia kolejności kandydatów na liście, jej przedstawienia, kumulacji większej liczby głosów w stosunku do osoby jednego
kandydata, bądź zestawienia kandydatów z poszczególnych list);
–
formułę wyborczą, czyli zespół reguł rozstrzygających o tym, który kandydat
zostanie wybrany w danym okręgu oraz, w jaki sposób następuje przetworzenie liczby uzyskanych przez daną partię głosów w liczbę przypadających
jej mandatów;
–
klauzulę zaporową, czyli sztuczny próg poparcia, którego przekroczenie jest
niezbędne do udziału w podziale mandatów;
–
wyrównawczą dystrybucję mandatów zawierającą możliwości dokonania korekty wyniku wyborów na poziomie całego kraju, celem zmniejszenia strat
partii, które zostały poszkodowane na poziomie okręgów wyborczych i są,
w związku z tym, reprezentowane;
–
kontrolę prawidłowości postępowania wyborczego.
Można mówić o systemie wyborczym: większościowym, semiproporcjonalnym,
proporcjonalnym czy mieszanym [Antoszewski 2008; Hamman 2004].
1) Systemy większościowe (pluralistyczne)
A. System większości względnej obejmuje jednomandatowe i wielomandatowe okręgi wyborcze. Jednomandatowe okręgi wyborcze – głosowanie odbywa się
w okręgach jednomandatowych, kandydatów zgłaszają partie polityczne, a do uzyskania mandatu jest potrzebne uzyskanie względnej większości głosów przez kandydata, czyli uzyskanie większej liczby głosów niż każdy, inny kandydat z osobna (np.:
Wielka Brytania, USA, Kanada). Wielomandatowe okręgi wyborcze – głosowanie odbywa się w okręgach wielomandatowych, przy czym każdy wyborca dysponuje tyloma głosami, ile jest mandatów do obsadzenia w okręgu. Wybrani są ci kandydaci,
92
Ewa Roszkowska
którzy uzyskali kolejne największe ilości głosów (np.: Polska – wybory do Senatu,
Turcja).
B. System większości absolutnej obejmuje jednomandatowe okręgi wyborcze
z głosowaniem dwutorowym lub alternatywnym oraz wielomandatowe okręgi
wyborcze z głosowaniem dwutorowym lub alternatywnym. Jednomandatowe okręgi
wyborcze, głosowanie dwuturowe – wybory przeprowadza się w okręgach jednomandatowych, do uzyskania mandatu w I turze jest niezbędne uzyskanie bezwzględnej
większości głosów (ponad 50% ważnie oddanych głosów). Jeśli żaden z kandydatów
nie uzyska takiego poziomu poparcia, odbywa się druga tura, w której bierze udział
dwóch kandydatów, którzy w I turze uzyskali największe poparcie wyborców lub też
biorą udział kandydaci, którzy otrzymali w I turze pewne procentowo uzyskane poparcie. Do zdobycia mandatu w II turze wystarcza większość względna. Jednomandatowe okręgi wyborcze, głosowanie alternatywne – wybory są przeprowadzane
w okręgach jednomandatowych, w jednej turze. Każdy wyborca szereguje kandydatów, począwszy od tego, którego popiera najsilniej, do tego, którego popiera najmniej. W przypadku, gdy żaden z kandydatów nie uzyska bezwzględnej większości,
eliminuje się kandydata z najmniejszą ilością głosów, a jego poparcie jest rozdzielane
kandydatom wskazanym przez jego wyborców na kolejnym miejscu. Proces ten trwa
do czasu uzyskania przez jednego z kandydatów bezwzględnej większości głosów.
Wielomandatowe okręgi wyborcze, głosowanie dwuturowe – zasady analogiczne, jak
w systemie dwuturowym w okręgach jednomandatowych, z tym, że do drugiej tury
przechodzi podwójna liczba kandydatów w stosunku do nieobsadzonych mandatów.
Wielomandatowe okręgi wyborcze, głosowanie alternatywne – zasady analogiczne, jak
w systemie alternatywnego głosowania w okręgach jednomandatowych.
2) Systemy semiproporcjonalne
A. System listy niepełnej. Wykorzystywany w okręgach trzymandatowych.
Dwa mandaty otrzymują kandydaci z listy, która otrzymała największą liczbę głosów, zaś trzeci lista, która uzyskała drugą, kolejną liczbę głosów (np.: Meksyk, Boliwia).
B. SNTV (The Single Non-Transferable Vote). System ten polega na tym, że
w okręgu wielomandatowym wyborca ma możliwość głosowania wyłącznie na jednego kandydata spośród wszystkich umieszczonych na jednej wspólnej liście, zaś
mandaty otrzymują kolejno kandydaci z największą liczbą oddanych głosów.
C. Metoda Bordy (Jean-Charles de Borda). System ten może być uznany za
pośredni pomiędzy systemem głosowania alternatywnego a systemem STV. Stosowany jest w małych okręgach wyborczych liczących od jednego do kilku mandatów.
Polega on na tym, że, w wersji klasycznej wyborca szereguje wszystkich kandydatów
w kolejności od najbardziej do najmniej pożądanego, przyznając im tym samym
punkty. Pierwszy z kandydatów otrzymuje tyle punktów, ilu jest kandydatów, kolejni
otrzymują zaś po jednym punkcie mniej, w zależności od zajmowanego miejsca. Istnieje również zmodyfikowana odmiana tej metody, zgodnie z którą kolejni kandydaci otrzymują: 1, 1/2, 1/3, 1/4, 1/5 punktu itd. W wyborach mandaty uzyskują: kandydat bądź kandydaci w liczbie równiej liczbie mandatów w okręgu, którzy otrzymali
Procedury podejmowania decyzji społecznych a optimum społeczne
93
największą liczbę punktów (wersja klasyczna: prezydent Kiribati, wersja zmodyfikowana: Słowenia dla mandatów kandydatów mniejszości narodowych).
3) Systemy proporcjonalne
A. Listy partyjne. Głosowanie polega na tym, iż wyborca oddaje swój głos na
poszczególne listy partyjne. Występują dwie metody takiego głosowania. Pierwsza
z nich pozwala wyborcy na dokonywanie preferencji w ramach listy, co powoduje,
że mandaty z listy otrzymują kolejno kandydaci, którzy uzyskali największe liczby
głosów w ramach listy. Druga metoda (np. Ameryka Łacińska) nie pozwala na preferowanie kandydatów, a o uzyskaniu mandatu decyduje wyłącznie kolejność umieszczenia kandydata na liście. Występują również rozwiązania pośrednie, gdzie, co do
zasady decyduje miejsce na liście, chyba że na kandydata oddano, co najmniej określoną ustawowo, procentową liczbę głosów (np. Republika Czeska). Do zasady podziału mandatów, przysługujących poszczególnym listom, najczęściej stosuje się np.
formuły: d’Hondta, St. Lague’a, St. Lague’a (wersję skandynawską), Huntingtona,
duńską, Hare’a-Niemeyera, Hagenbacha-Bischoffa, Imperiali, Droopa. Stosując
Formułę d’Hondta, liczby głosów oddane na poszczególne listy dzieli się przez kolejne liczby naturalne (1,2,3,4 itd.) w ilości równej ilości mandatów do obsadzenia.
Mandaty otrzymują te listy, które posiadają kolejne, największe ilorazy (np.: Holandia, Belgia, Austria, Hiszpania, Portugalia, Grecja). Parlament Europejski wykorzystuje system d’Hondta do obsadzania najbardziej istotnych stanowisk, takich jak:
Przewodniczący, Wiceprzewodniczący, Kwestorzy, Przewodniczący Komitetów
oraz Delegacji Międzyparlamentarnych. Stosując formułę St. Lague’a, liczby głosów
oddane na poszczególne listy dzieli się przez kolejne liczby nieparzyste (1,3,5,7 itd.),
w ilości równej ilości mandatów do obsadzenia. Mandaty otrzymują te listy, które
posiadają kolejne największe ilorazy (np.: Łotwia, Izrael). Formuła St. Lague’a (wersja
skandynawska) różni się w stosunku do wersji klasycznej tym, że pierwszym dzielnikiem, zamiast liczby 1 są liczby: 1,4 (np.: Dania, Szwecja, Norwegia, Polska). Formuła Huntingtona zakłada, że liczby głosów oddane na poszczególne listy dzieli się
przez pierwiastek z liczby n (n-1), gdzie n jest kolejną liczbą naturalną, począwszy od
2, w ilości równej ilości mandatów do obsadzenia. Mandaty otrzymują te listy, które
posiadają kolejne, największe ilorazy. Stosując formułę duńską, liczby głosów oddane
na poszczególne partie dzieli się przez formułę (3n-2), gdzie n stanowi kolejne liczby
naturalne; mandaty otrzymują te listy, które posiadają kolejne największe ilorazy.
Formuła Hare’a – Niemeyera zakłada, że wyniki poszczególnych list partyjnych dzieli
się przez dzielnik wyborczy, którym jest iloraz liczby ważnie oddanych głosów oraz
ilości mandatów do obsadzenia. Liczby całkowite z tego działania oznaczają liczbę
mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty
nieobsadzone, są możliwe dwa sposoby ich podziału. Zgodnie z metodą największej
reszty, mandaty dodatkowe przyznaje się kolejno ugrupowaniom, które posiadają
największe reszty z danego dzielenia, stosując metodę największej średniej, dodatkowe
mandaty są przyznawane ugrupowaniom, które uzyskają kolejne, największe średnie,
czyli posiadają największy stosunek liczby uzyskanych głosów do liczby zdobytych
mandatów w pierwszej fazie powiększonej o jeden mandat fikcyjny (np.: Niemcy,
Włochy). Według formuły Hagenbacha – Bischoffa, wyniki poszczególnych list par-
94
Ewa Roszkowska
tyjnych dzieli się przez dzielnik wyborczy, którym jest iloraz liczby ważnie oddanych
głosów oraz ilości mandatów do obsadzenia powiększonej o jeden mandat fikcyjny.
Liczby całkowite z tego działania oznaczają liczbę mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty nieobsadzone, stosuje się metodę największej reszty, zgodnie z którą mandaty dodatkowe przyznaje się kolejno
ugrupowaniom, które posiadają największe reszty z danego dzielenia (np. Republika
Czeska do 2000 roku). Formuła Imperiali zakłada, że wyniki poszczególnych list partyjnych dzieli się przez dzielnik wyborczy, którym jest iloraz liczby ważnie oddanych
głosów oraz ilości mandatów do obsadzenia powiększonej o dwa mandaty fikcyjne.
Liczby całkowite z tego działania oznaczają liczbę mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty nieobsadzone stosuje się metodę największej reszty. Analogicznie postępuje się, gdy mandatów rozdzielonych będzie zbyt dużo. Wtedy odejmuje się je ugrupowaniom, które posiadają najmniejsze
reszty (np. Włochy do 1993 roku). Stosując formułę Droopa, wyniki poszczególnych
list partyjnych dzieli się przez dzielnik wyborczy, którym jest powiększony o jeden
iloraz liczby ważnie oddanych głosów oraz ilości mandatów do obsadzenia powiększonej o jeden mandat fikcyjny. Liczby całkowite z tego działania oznaczają liczbę
mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty
nieobsadzone, stosuje się metodę największej reszty.
B. STV (The Single Transferable Vote). W systemie tym nie występują listy
partyjne, przy czym, jak każdy system proporcjonalny, może być on stosowany wyłącznie w okręgach wielomandatowych. Polega on na tym, że wszyscy kandydaci
ujęci są na jednej liście, a wyborca, glosując, szereguje kandydatów od najbardziej
preferowanego do najmniej preferowanego. Przy podziale mandatów najpierw dokonuje się obliczenia ilorazu wyborczego w sposób analogiczny, jak przy formule
Droopa. Następnie dokonuje się podziału mandatów. Jeśli jeden z kandydatów
przekroczy określoną przez iloraz wyborczy liczbę głosów, to uzyskuje on mandat,
a nadwyżkę głosów, czyli różnicę pomiędzy liczbą otrzymanych głosów a ilorazem
wyborczym, dzieli się pomiędzy pozostałych kandydatów proporcjonalnie do liczby
uzyskanych przez nich drugich miejsc u głosujących na kandydata wybranego
uprzednio. Podobnie, gdy iloraz wyborczy zostanie przekroczony przez większą
liczbę kandydatów. Jeśli żaden z kandydatów nie przekroczy ilorazu wyborczego,
eliminuje się kandydata z najmniejszą liczbą głosów, a jego głosy przyznaje się kandydatom z drugich miejsc, przy czym postępowanie to ponawia się, aż do obsadzenia wszystkich mandatów w okręgu (np.: Irlandia, Malta).
4) Systemy mieszane
Systemy mieszane polegają na obsadzaniu części mandatów metodą większościową, zaś części metodą proporcjonalną (np.: Litwa, Ukraina, Rosja, Włochy, Meksyk). Może to odbywać się w sposób bardziej skomplikowany, np. część jest obsadzana w okręgach jednomandatowych, część z list partyjnych w okręgach wielomandatowych, zaś część z list partyjnych z list krajowych (np. Węgry).
Procedury podejmowania decyzji społecznych a optimum społeczne
95
4. Normatywny charakter społecznie uznawalnych procedur
Za jedną z ważniejszych funkcji współczesnego państwa przyjmuje się tworzenie
i zapewnianie funkcjonowania odpowiedniego ładu instytucjonalno-prawnego regulującego funkcjonowanie gospodarki oraz społeczeństwa. Jest to funkcja długookresowa, polegająca na ustanawianiu stosunkowo trwałych, stabilnych instytucji i „reguł
gry”, które wynikają z ogólnie przyjętych norm i zasad postępowania. Analizą ograniczeń wyborów dokonywanych przez podmioty gospodarcze, wypływających
z przyjętego ładu społeczno-gospodarczego, zajmuje się ekonomia konstytucyjna.
Samą konstytucję Buchanan definiuje jako: zestaw zasad, które ograniczają aktywność
osób i jednostek w dążeniu do osiągnięcia własnych kresów i celów [Metelska-Szaniawska 2005]. Konstytucja to najwyższy rangą akt, który obejmuje cały system prawa,
ograniczenia nałożone przez podmiot na samego siebie lub powstałe przez zawarcie
umów. Nurt normatywny w ekonomii konstytucyjnej zajmuje się legitymizacją władzy państwowej, jej instrumentów i przedstawicieli. W kręgu jego zainteresowania
są: sposoby ustalania przez społeczeństwo zasad konstytucyjnych spełniających kryterium sprawiedliwości lub efektywności, treść tych zasad, zbiór zagadnień będących
przedmiotem regulacji za pomocą konstytucji, cechy zasad konstytucyjnych, podział
działań pomiędzy odpowiednie szczeble władzy publicznej, alternatywnych rozwiązań, jak i korzyści z nich płynące [Metelska-Szaniawska 2005].
W przypadku negocjacji lub mediacji, procedury prowadzenia rozmów mogą być
mniej lub bardziej sformalizowane. Na negocjacje mają wpływ: charakterystyki negocjatorów (np.: osobowość negocjatorów, ich normy postępowania, indywidualne
różnice między stronami, dysproporcje w procesie poznania czy też percepcji sytuacji, emocje), kontekst sytuacyjny obejmujący czynniki określające sytuację, w jakiej
znajdują się negocjatorzy (np.: związki zachodzące między stronami, rodzaje alternatyw, jakimi dysponuje każda ze stron procesu negocjacji, ograniczenia czasowe, uwarunkowania geograficzne, kulturowe, społeczne itp.) oraz proces negocjacji uwzględniający aktywności podejmowane przez negocjatorów, czyli interakcje zachodzące
między uczestnikami rozmów od momentu rozpoczęcia do zakończenia negocjacji,
w tym: komunikację werbalną i niewerbalną, realizację strategii, taktyk i stylów negocjacyjnych [Fisher, Ury, Patton 1996; Kamiński 2003]. Ze względu na nastawienie
stron do sytuacji negocjacyjnej, można wyróżnić negocjacje typu: wygrana-wygrana,
gdzie strony współpracują w celu znalezienia rozstrzygnięcia, które będzie satysfakcjonowało każdą ze stron i w optymalny sposób będzie zaspokajało ich interesy; wygrana-przegrana, gdy jedna ze stron przyjmuje zwykle twardą taktykę narzucania warunków i wymagań, nie oferując ustępstw, a wygrana jednej ze stron oznacza przegraną drugiej lub przegrana-przegrana, gdy żadna ze stron nie uzyskała korzyści
i każda poniosła straty czasu oraz koszty, a jedyną korzyścią psychologiczną jest poczucie pognębienia przeciwnika [Nęcki 1995 s. 31–38].
Analizą systemu głosowania zajmuje się teoria społecznego wyboru [Acocella
2002; Hamman 2004; Hołubiec 2005; Jakubowski 2005; Lissowski 2001; Sosnowska
2005]. W jej polu zainteresowania są: metody zbiorowego podejmowania decyzji
w wyniku głosowania członków grupy lub wybranych przez nich reprezentantów;
sposoby dokonywania społecznego wyboru lub społecznej oceny rozwiązań, których konsekwencje są różne dla poszczególnych głosujących; reguły głosowania
96
Ewa Roszkowska
prowadzące do agregacji indywidualnych preferencji w preferencje zbiorowe; jak
również określanie warunków, jakie spełniają lub także, jakich nie spełniają; różne
metody podejmowania zbiorowych decyzji. Teoria społecznego wyboru stara się
między innymi odpowiedzieć na pytania, czy i kiedy wybór metody głosowania decyduje o końcowym wyniku, czym różnią się metody głosowania, które z nich mają
„pożądane” własności. Technika głosowania powinna odzwierciedlać rzeczywiste
preferencje głosujących, nie powinna być ani zbyt skomplikowana, ani podatna na
nierzetelne głosowania, czyli głosowania wbrew swoim profilom indywidualnym,
w celu wpłynięcia na wynik końcowy.
Alternatywę, która zwycięża wszystkie pozostałe alternatywy w porównaniu parami, nazywamy zwycięzcą Condorceta, a tę, która przegrywa z pozostałymi alternatywami w porównaniach parami – przegranym Condorceta. Condorcet twierdził, że
najlepszą wybraną alternatywą powinien być zwycięzca Condorceta, jeżeli istnieje
(tzw. kryterium Condorceta), oraz alternatywa, która jest przegranym Condorceta,
nigdy nie powinna być wybierana. Niektóre techniki, np.: metoda zwykłej większości
pierwszeństwa, metoda Bordy, prostej większości, aprobująca, nie spełniają warunków Condorceta. Metoda Bordy nie zawsze spełnia pierwszy warunek Condorceta,
ale spełnia drugi7. Na postulacie Condorceta, który mówi, że wariant akceptowany
przez większość powinien być zwycięzcą głosowania, są oparte niebazowe techniki
głosowania. Poszukuje się także technik głosowania, gdy brak jest alternatywy będącej zwycięzcą Condorceta lub także nie ma jednego rozwiązania według techniki
Condorceta (np.: metoda Schwarza, metoda Dogsona, metoda Blacka).
Pożądane własności metod głosowania są wyrażane w języku naturalnym, np.
„wszyscy głosujący powinni być tak samo traktowani”, następnie przedstawiane
w sposób precyzyjny w formie postulatów. Bada się konsekwencje określonych postulatów, przy czym wynik może mieć postać twierdzenia o istnieniu lub nieistnieniu
metody spełniającej określony zestaw postulatów [Lissowski 2001 s. 9–43].
Kenneth O. May (1952) nałożył cztery warunki na metodę agregacji preferencji
indywidualnych i pokazał, że warunki te charakteryzują metodę zwykłej większości
[Hamman 2004 s. 48–50; Jakubowski 2005 s. 49–52; Acocella 2002 s. 62–64]8. Analizowane przez K. Maya warunki to: nieograniczona dziedzina (metoda powinna być
określona na zbiorze wszystkich możliwych profili racjonalnych preferencji indywidualnych), anonimowość (zmiana uporządkowania indywidualnych preferencji określonym osobom nie powinna zmieniać preferencji społecznej), neutralność (jeżeli
preferencje wszystkich osób wobec pary alternatyw: A i B są takie same, jak wobec
pary alternatyw: C i D, to preferencje społeczne wobec tych dwóch par alternatyw
muszą być identyczne) oraz mocna monotoniczność (zmiana indywidualnych preferencji między alternatywami: A i B na korzyść alternatywy A powinna pociągać za
7 Przykład. W wyborach bierze udział pięciu głosujących nad wyborem trzech wariantów decyzji.
Trzech wyborców preferuje A nad B i B nad C, dwóch wyborców preferuje B nad C i C nad A. Zwycięzcą, według kryterium Condorceta, jest alternatywa A. Według metody Bordy, zwycięzcą jest kandydat B, zdobywając 7 punktów.
8 Metody wyboru społecznego przyporządkowują profilom indywidualnym preferencji lub użyteczności społeczne uporządkowanie tego zbioru alternatyw (funkcje społecznej oceny) lub podzbiory
alternatyw wybranych z różnych zestawów alternatyw (funkcje społecznego wyboru), [Lissowski 2001
s. 10].
Procedury podejmowania decyzji społecznych a optimum społeczne
97
sobą jedynie zmianę decyzji społecznej na korzyść alternatywy A, przy czym, jeżeli
przed tą zmianą obie alternatywy były uznane za społecznie równie dobre, to po
zmianie alternatywa A powinna być uznana za społecznie lepszą od alternatywy B).
Kenneth O. May udowodnił (twierdzenie Maya o metodzie zwykłej większości), że jedyną metodą agregacji preferencji indywidualnych między dwiema alternatywami, spełniającymi warunki: nieograniczonej dziedziny, anonimowości, neutralności, mocnej monotoniczności, jest metoda zwykłej większości [Acocella 2002
s. 62–64; Jakubowski 2005 s 49–52]. Metoda większościowa, co prawda, gwarantuje
równość praw każdemu głosującemu, ale ma również pewne wady. Nie gwarantuje
tego, że wspólna decyzja doprowadzi do rozwiązania Pareto-optymalnego. Metoda
zwykłej większości nie zawsze wyznacza relację preferencji społecznej, umożliwia
uporządkowanie alternatyw i wybór najlepszej z nich, może także prowadzić do niezadowalajacych lub dwuznacznych rezultatów. Alternatywa zwycięska w głosowaniu
większościowym może być inna niż alternatywa zwycięstwa według metody Bordy.
Z kolei, Kenneth Arrow (1951) przedstawił cztery aksjomaty, które powinna
spełniać funkcja dobrobytu społecznego [Jakubowski 2005 s. 60–63; Sosnowska
2005; Sosnowska 2005 s. 52–54]9. Są to: nieograniczona dziedzina (funkcja dobrobytu społecznego jest określona dla wszystkich profili preferencji indywidualnych), zasada Pareto (jeśli wszyscy jednomyślnie przedkładają alternatywę A nad B, to funkcja
dobrobytu społecznego powinna przedkładać A nad B), niezależność od alternatyw
niezwiązanych (relacja społecznej preferencji względem alternatyw: A i B może zależeć jedynie od preferencji indywidualnych względem tych alternatyw, a preferencje
związane z innymi alternatywami nie mają więc wpływu na wybór pomiędzy: A i B)
oraz wykluczenie dyktatury (nie istnieje taka osoba i para alternatyw A i B, że jeśli
osoba ta mocno przedkłada A nad B, to relacja społeczna także przedkłada A nad
B, niezależnie od preferencji indywidualnych pozostałych osób). Kenneth Arrow
pokazał (twierdzenie Arrowa o niemożliwości), że nie istnieje funkcja dobrobytu
społecznego jednocześnie spełniająca aksjomaty nieograniczonej dziedziny, zasady
Pareto, niezależności od alternatyw niezwiązanych oraz wykluczenia dyktatury [Jakubowski 2005 s. 60–63; Sosnowska 2005; Acocella 2002 s. 52–54]. W innym sformułowaniu twierdzenie to mówi, że jedyną funkcją dobrobytu społecznego, spełniającą
aksjomaty: nieograniczonej dziedziny, zasady Pareto, niezależności od alternatyw niezwiązanych, jest funkcja dyktatorska. Jednomyślne decyzje spełniają kryterium Pareto
oraz warunki twierdzenia Arrowa „o niemożliwości”. Istotną wadą tego typu głosowania jest jednak to, że zachowuje ono status quo w przypadku, gdy preferencje jednostek nie są jednorodne.
W sytuacji, gdy mamy do czynienia z głosowaniem binarnym z wykluczeniem,
czyli, gdy przegrana propozycja nie może być rozważana powtórnie w drugiej run-
9 Funkcją społecznego dobrobytu nazywamy funkcję, która każdemu profilowi indywidualnych
preferencji, określonych na zbiorze alternatyw społecznych, przyporządkowuje pewną racjonalną relację preferencji społecznej, tzn. relację, która umożliwia uporządkowanie zbioru alternatyw od: najlepszej do najgorszej. Funkcje społecznego dobrobytu są najważniejszym typem funkcji społecznej oceny
[Lissowski 2001 s. 15–20].
98
Ewa Roszkowska
dzie, na końcowy wynik ma wpływ kolejność, w jakiej są głosowane alternatywy
(Paradoks Condorceta)10.
Systemy głosowana analizuje się także z punktu widzenia odporności na manipulacje. Metody głosowania cechuje możliwość wpływania na wynik przez ukrywanie swoich rzeczywistych preferencji, w niektórych sytuacjach takie manipulacje, czyli nieszczere głosowania w celach „strategicznych”, mogą być proste, w innych skomplikowane i trudne do zastosowania w rzeczywistości. Przykładowo, w przypadku metody
Bordy strategiczne głosowanie polega na tym, aby alternatywie, która najbardziej nam
zagraża, przypisać 0 punktów, niezależnie od naszego stosunku do niej11.
Powiemy, że funkcja wyboru społecznego jest manipulowana, jeśli dla rozpatrywanego zbioru alternatyw istnieje profil preferencji indywidualnych i osoba, która
przez strategiczne przedstawienie swoich preferencji może zmieniać wybór społeczny na korzystny dla siebie. Alan Gibbard oraz Mark A. Satterthwaite (1973, 1975)
pokazali, że nie istnieje funkcja wyboru społecznego, która byłaby jednocześnie
niemanipulowalna i niedyktatorska [Jakubowski 2005 s. 62–64; Lissowski 2001; Sosnowska 2005]. Dokładniej, twierdzenie Gibbarda-Satterthwaite’a brzmi: Jeśli
zbiór rozpatrywanych alternatyw zawiera więcej niż dwa elementy, funkcja wyboru społecznego dla dowolnego profilu preferencji indywidualnych określa pojedyncze, społecznie
preferowane alternatywy, a przy tym jest niemanipulowalna, to jest to funkcja dyktatorska.
W sytuacji, gdy alternatywy są oceniane ze względu na jeden wymiar, Duncan
Black (1948, 1952) przedstawił metodę prowadzącą do wyboru alternatywy zwycięskiej w sensie Condorceta [Jakubowski 2005; Wiklin 2005; Acocella 2002 s. 62–64].
Przyjął on następujące założenia o indywidualnych preferencjach: grupa wyborców
wybiera spośród alternatyw oznaczonych jako punkty na prostej, każdy wyborca ma
określoną alternatywę stanowiącą jego punkt idealny oraz im dana alternatywa jest
położona dalej na lewo lub prawo od punktu idealnego wyborcy, tym niższą użyteczność jej on przypisuje. Preferencje, spełniające powyższe założenia, nazywamy
preferencjami jednowierzchołkowymi (single peaked preferences). Medianowym wyborcą
nazywamy wyborcę, którego punkt idealny stanowi medianę w zbiorze punktów idealnych rozpatrywanej grupy wyborców. Black pokazał (twierdzenie Blacka o medianowym wyborcy), że dla preferencji jednowierzchołkowych o nieparzystej liczbie wyborców punkt idealny wyborcy medianowego stanowi zwycięzcę Condorceta,
a relacja preferencji społecznej, ustalona przez głosowanie większościowe, jest przechodnia z punktem idealnym wyborcy medianowego jako najbardziej preferowanym
[Jakubowski 2005; Lissowski 2001; Acocella 2002 s. 62–64].
W sytuacji, gdy alternatywy są oceniane ze względu na więcej niż jeden wymiar,
trudno jest wskazać na wynik głosowania niezależnego od manipulacji sekwencji
10 Przykład (Profil Condorceta). Dane są preferencje trzech wyborców dla trzech kandydatów,
od najbardziej preferowanego do najmniej preferowanego: Wyborca 1. ABC; Wyborca 2. BCA; Wyborca 3. CAB. Paradoks Condorceta polega na tym, że preferencje grupy wyborców są cykliczne, czyli relacja społecznej preferencji, ustalona przez głosowanie większościowe, nie jest przechodnia. Dla tak
określonego układu preferencji głosowanie większościowe może dać dowolny wynik w zależności od
kolejności głosowania, co pozwala manipulować wynikiem przez osobę ustalającą porządek porównań.
11 Borda na uwagę o niedoskonałościach (możliwości manipulacji) tej metody miał powiedzieć:
Moja metoda jest tylko dla ludzi honoru. Cyt. za: [Lissowski 2001 s. 12].
Procedury podejmowania decyzji społecznych a optimum społeczne
99
głosowań. Mówi o tym tzw. twierdzenie o chaosie: Jeśli dla wielowymiarowych preferencji przestrzennych nie istnieje mediana we wszystkich kierunkach, to można wskazać skończoną liczbę, których włączenie do zbioru rozważanych alternatyw powoduje, że
przez sekwencyjne głosowanie większościowe jest możliwe osiągnięcie dowolnego punktu
[Jakubowski 2005; Lissowski 2001].
Wybór odpowiedniego sytemu wyborczego ma duże konsekwencje dla funkcjonowania danego państwa oraz jego stabilności. Metoda przeliczania głosów na mandaty wpływa bezpośrednio na ostateczny wynik wyborów. Zarówno formuła wyborcza, klauzula zaporowa czy wyrównawcza dystrybucja mandatów mogą być źródłem deformacji systemu wyborczego, czyli niezgodności podziału mandatów z faktycznymi preferencjami wyborców wyrażonymi w głosowaniu (różnica między uzyskanymi głosami przez partie polityczne a ich rzeczywistym poparciem). Ściśle związana z deformacją woli wyborców jest nadreprezentacja silniejszych partii, redukcja
tzw. efektywnej liczby partii, czyli liczba partii reprezentowanych w parlamencie, jest
zawsze niższa niż ugrupowań rywalizujących o głosy na arenie wyborczej o procent
mandatów, jaki zyskują partie najsilniejsze, jest wyższy niż procent zdobytych przez
nich głosów. System wyborczy zachęca czasem do zawierania koalicji wyborczych,
kompromisów czy do zmiany strategii wyborczej.
System większości względnej sprawdza się w systemie dwupartyjnym, faworyzuje
duże partie, eliminuje partie słabe i małe, przez co prowadzi do stabilizacji sceny politycznej, wzmacniana jest więź między wyborcą i deputowanym (wyborca oddaje
glos na konkretną osobę). Jego wadą jest to, że może doprowadzić do sytuacji, gdy
część wyborców nie będzie reprezentowana, a rządy obejmie partia popierana przez
mniejszość wyborców. System większościowy zmusza wyborców do „strategicznego” głosowania, czasem wbrew preferencjom politycznym. The Single NonTransferable Vote, ze względu na możliwość rozproszenia głosów, zmusza partie
polityczne do ostrożnego nominowania kandydatów, z reguły w liczbie mniejszej niż
wynosi liczba mandatów w okręgu. System proporcjonalny wydaje się najbardziej
sprawiedliwy pod względem ukazania rzeczywistych preferencji, choć nie zapewnia
takiej więzi z wyborcą, jak system większościowy (w systemie większościowym głosuje się na konkretnego kandydata, a tu przede wszystkim na partię polityczną).
Nie wprowadza zdecydowanej jasności podziału na to, kto jest naprawdę w opozycji. W przypadku państw, w których występuje system wielopartyjny, może dojść do
rozdrobnienia sceny politycznej, dlatego jest stosowany próg wyborczy (klauzula zaporowa), który musi uzyskać partia lub koalicja wyborcza, aby znaleźć się w parlamencie. Wyniki wyborów w systemie proporcjonalnym, przede wszystkim wielopartyjnym, mogą doprowadzić do tego, że żadna partia nie jest na tyle silna, by dominować w parlamencie i samodzielnie rządzić. Wówczas dochodzi do zawierania koalicji, na którą wyborcy nie mają wpływu, a które są sprzeczne z ich rzeczywistą wolą
polityczną. Formuła d’Hondta należy do najbardziej rozpowszechnionych i popularnych w Europie, korzystna dla partii większych i silniejszych, uważana za umiarkowanie proporcjonalną (zwłaszcza gdy jest skorelowana z niewielkimi okręgami
wyborczymi oraz klauzulą zaporową). Użycie metody d’Hondta, w połączeniu
z niewielkim rozmiarem okręgu, może prowadzić do nadreprezentacji partii, które
cieszą się znacznym poparciem. Z kolei, metoda St Lague’a jest korzystniejsza dla
100
Ewa Roszkowska
partii małych. Za najwierniej odzwierciedlającą wolę wyborców jest uznawana metoda najwyższych reszt Hare-Niemeyera.
Istotnym problemem przy analizie podejmowania decyzji zbiorowych jest także
charakterystyka znaczenia jej uczestników. Ocenie tej służą parametry zwane indeksami siły, które mierzą względną siłę poszczególnych uczestników głosowania. Jednym z ważniejszych indeksów siły jest indeks Shapleya-Shubika [Sosnowska 2005;
Mercik 1999]. System wyborczy jest opisywany przez zbiór uczestników oraz koalicje wyborcze (podzbiory zbioru uczestników), które są wygrywające. Zakładamy
ponadto, że system wyborczy spełnia następujące warunki: koalicja wszystkich graczy jest wygrywająca (jest możliwe wygranie głosowania), koalicja pusta nie jest wygrywająca (jest możliwe przegranie głosowania), jeśli koalicja już jest wygrywająca, to
dołączenie do niej dodatkowych graczy nie spowoduje jej przegranej, jeżeli jakaś koalicja już jest wygrywająca, to z pozostałych uczestników nie da się zbudować innej
koalicji wygrywającej (w systemach wyborczych „każdy gracz ma jeden głos”, oznacza to, że próg zwycięstwa nie może być niżej niż 50% + jeden głos). Zakładamy,
że do grupy popierającej pewien projekt dołączają kolejni głosujący, aż do momentu, w którym koalicja jest zdolna do uchwalenia projektu. Indeks siły Shapleya-Shubika mierzy siłę danego uczestnika w związku z formowaniem koalicji, jest to
procent układów, w którym jest on wyborcą krytycznym, czyli, że po jego przyłączeniu nastąpi uchwalenie projektu12.
System wyborczy może efektywnie rozstrzygać konflikty między konkurentami
o stanowiska publiczne lub być źródłem dodatkowych napięć. Można go zmienić,
gdy większość o wspólnych interesach będzie za jego zmianą. Czasem główne elementy systemu wyborczego (np. formuła wyborcza) zostają określone w konstytucji
i wówczas do zmiany zapisów jest potrzebna większość kwalifikowana.
5. Podsumowanie
Współczesne modele demokracji ściśle wiążą się z kulturą uczestnictwa i zaangażowania w życiu społecznym. Dobrze działająca demokracja nie istnieje bez wspólnoty obywatelskiej i jej kapitału społecznego, gdzie relacje międzyludzkie, sieci powiązań społecznych uznaje się za ważny kapitał ułatwiający jednostkom i grupom
realizację wyznaczonych celów, tworzenie wspólnych dóbr. Dochodzenie do rozwiązania problemów przez współdziałanie przebiega m.in. za pomocą określonych
procedur społecznych. W pracy przedstawiono koncepcję optimum społecznego
w ujęciu kompleksów reguł, którego warunkiem jest stosowanie uznawalnych procedur społecznych, tj.: postępowanie sądowe, negocjacje, mediacje, głosowanie, wybory. Wybór określonej procedury może przesądzać o ostatecznej decyzji. Stąd
istotne jest pełne rozpoznanie: własności tych procedur, możliwości stosowania,
ograniczeń, wrażliwości na manipulację.
12 Inne indeksy siły to np.: indeks siły Banzhafa, absolutny indeks siły Banzhafa, Colemana (podtrzymania koalicji), Colemana (inicjowania akcji), Colemana (pojemności grupowej), indeks siły Rae’a.
Zob.: [Mercik 1999 s. 120–127].
Procedury podejmowania decyzji społecznych a optimum społeczne
101
Literatura
Acocella N. 2002 Zasady polityki gospodarczej, Warszawa.
Antoszewski A., Alberski R. 2008 Systemy wyborcze, [w:] Demokracje zachodnioeuropejskie.
Analiza porównawcza, (red.) Antoszewski A., Herbut R., Wrocław.
Arrow K. 1951 Social Choice and Individual Values, New York.
Bargiel-Matusiewicz K. 2007 Negocjacje i mediacje, Warszawa.
Burns T., Roszkowska E. 2005 Generalized Game Theory: Assumptions, Principles, and Elaborations Grounded in Social Theory, „In Search of Social Order”, Series Studies in Logic,
Grammar and Rhetoric, No. 8(21).
Burns T., Roszkowska E. 2009 A social procedural approach to the Pareto optimization problematique: Part I: Pareto Optimization and Its Limitations versus the GGT Conception of the
Solution of Multi-value Conflict Problems Through Societal Procedures, Quality& Quantity,
Vol. 43, No. 5.
Burns T., Roszkowska E. 2009 A social procedural approach to the Pareto optimization problematique: Part II. Institutionalized Procedures and Their Limitation, Quality& Quantity,
Vol. 43, No. 5.
Fisher R.R., Ury W., Patton B. 1996 Dochodząc do TAK. Negocjowanie bez poddawania się,
Warszawa.
Golański R., Kasprzyk K. 2005 Wybór publiczny, [w:] Grupowe podejmowanie decyzji, (red.).
H. Sosnowska, Warszawa.
Gomolińska A. 1999 Rule Complexes for Representing Social Actor and Interactions, Series Studies in Logic, Grammar, and Rhetoric, No. 3(16).
Hamman J. 2004 Demokracja, decyzje, wybory, Warszawa.
Hołubiec J. 2005 Prognozowanie wyników wyborów, [w:] Grupowe podejmowanie decyzji, (red.)
H. Sosnowska, Warszawa.
Jakubowski M. 2005 Teoria wyboru społecznego, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej, (red.) Wilkin J., Warszawa.
Kamiński J. 2003 Negocjowanie techniki rozwiązywania konfliktów, Warszawa.
Lissowski G. (red.) 2001 Elementy teorii wyboru społecznego, Warszawa.
Metelska-Szaniawska K. 2005 Ekonomia konstytucyjna – ekonomia polityczna ładu gospodarczego, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej, (red.) Wilkin J., Warszawa.
Metelska-Szaniawska K. 2005 Ekonomiczna teoria władzy ustawodawczej i sądowniczej, [w:]
Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery
publicznej, (red.) Wilkin J., Warszawa.
Mercik J. 1999 Siła i oczekiwania. Decyzje grupowe, Warszawa – Wrocław.
Moore Ch.W. 1986 The mediation process. Practical Strategies for Resolving Conflict, JosseyBass Publishers.
Nęcki Z. 1995 Negocjacje w biznesie, Kraków.
Roszkowska E. 2007 Modelowanie procesów decyzyjnych oraz negocjacji za pomocą kompleksów
reguł, Białystok.
Rządca R. 2003 Negocjacje w interesach, Warszawa.
Roszkowska E. 2009 Koncepcja optimum społecznego w ujęciu kompleksów reguł, [w:] Podlasie
regionem przyszłości, (red.) A. Bocian, Białystok.
Sen A.K. 1970 Collective Choice and Social Welfare, Edinburgh.
102
Ewa Roszkowska
Sosnowska H. 2005 Indeks siły, [w:] Grupowe podejmowanie decyzji, (red.) H. Sosnowska,
Warszawa.
Sosnowska H. 2005 Klasyfikowanie reguł decyzyjnych, [w:] Grupowe podejmowanie decyzji, (red.)
H. Sosnowska, Warszawa.
Wilkin J. 2005 Teoria wyboru publicznego – homo oeconomicus w sferze polityki, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej,
(red.) Wilkin J., Warszawa.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Dorota MIERZYŃSKA1
POMIAR DOBROBYTU W ŚWIETLE HIERARCHICZNEJ
TEORII POTRZEB W POLSCE
Streszczenie
Głównym celem artykułu jest zaprezentowanie pomiaru dobrobytu w świetle hierarchicznej teorii
potrzeb według Maslowa. Potrzeby człowieka można podzielić na: fizjologiczne, bezpieczeństwa,
przynależności i miłości, szacunku i uznania oraz samorealizacji. Dopiero, w miarę zaspokajania niższych potrzeb, w hierarchii zaczynają uwidaczniać się potrzeby wyższe. Dobrobyt społecznoekonomiczny to zjawisko złożone (wielowymiarowe), które nie jest bezpośrednio obserwowalne.
Analiza dobrobytu zostanie dokonana dla Polski w latach 1999–2008 z wykorzystaniem bezwzorcowej
metody taksonomicznej.
Słowa kluczowe: dobrobyt, hierarchia potrzeb, syntetyczny indeks dobrobytu
PROSPERITY MEASUREMENT IN THE LIGHT
OF HIERARCHICAL THEORY OF NEEDS IN POLAND
Summary
The main objective of the paper is to present prosperity measurement in the light of hierarchical theory of needs by Maslov. Human needs can be categorized as: physiological, the need for safety, membership and love, esteem, recognition and fulfilment. Only as we satisfy our most urgent needs,
loftier ambitions are beginning to be apparent. Socioeconomic prosperity is a complex (multidimensional) phenomenon which cannot be directly monitored. An analysis of prosperity shall be done for
Poland during the period 1999-2008 by making use of a non-standard taxonomic method.
Keywords: prosperity, hierarchy of needs, synthetical prosperity index
1. Wstęp
Sprawność funkcjonowania państwa i sfery publicznej można ocenić, dokonując
analizy dobrobytu społeczno-ekonomicznego. Wysoki poziom dobrobytu społeczeństwa jest zawsze związany z właściwą współpracą między sektorami: publicznym, biznesowym i społecznym. Potrzeby człowieka i to zarówno te w sferze mate1 Dr Dorota Mierzyńska – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania, Zakład
Ekonometrii i Statystyki.
104
Dorota Mierzyńska
rialnej, jak i niematerialnej będą właściwie zaspokajane, jeśli gospodarka i państwo
będą w pełni służyć społeczeństwu.
Dobrobyt społeczny to pojęcie złożone, którego definicje nie są precyzyjne
i jednoznaczne, a to komplikuje pomiar. W badaniach naukowych nad tym zagadnieniem spotykamy się z różnorodnością podstaw terminologicznych i metodologicznych. W artykule zostanie zaprezentowany pomiar dobrobytu w świetle hierarchicznej teorii potrzeb Maslowa z wykorzystaniem metody taksonomicznej. Analiza
dobrobytu zostanie dokonana dla Polski w latach 1999–2008.
2. Dobrobyt a hierarchiczna teoria potrzeb według Maslowa
Podstawowym celem działalności gospodarczej i państwowej jest zaspokojenie
potrzeb człowieka. Zakres potrzeb nie jest kategoria stałą i ulega modyfikacjom zarówno w przestrzeni, jak i w czasie. Stopień zaspokojenia potrzeb człowieka pojawia
się w badaniach społeczno-ekonomicznych takich kategorii, jak: poziom życia, warunki życia, jakość życia, dobrobyt, dobrostan oraz godność życia. Pojęcia te nie są
jednoznacznie zdefiniowane. Wśród wielu określeń poziomu życia ludności w Polsce najczęściej przyjmuje się definicję, według której: poziom życia to stopień zaspokojenia materialnych i kulturalnych potrzeb gospodarstw domowych realizowanych (w sensie zabezpieczenia) poprzez strumień towarów i usług odpłatnych i nieodpłatnych funduszy konsumpcji społecznej i spożycia naturalnego [Luszniewicz 1990 s. 13]. Poziom życia jest definiowany zatem jako stopień zaspokojenia przede wszystkim materialnych
potrzeb człowieka. Natomiast: jakość życia zawiera te wszystkie elementy życia człowieka, bycia kimś i odczuwania różnych stanów emocjonalnych, wypływających
np. z faktu posiadania rodziny, kolegów, przyjaciół [Słaby 2004 s. 66]. W innej definicji
jakość życia określono jako: kategorię wyrażająca stopień samorealizacji człowieka
w ujęciu holistycznym (przy równowadze dobrobytu, dobrostanu i błogostanu) lub w ujęciu węższym, np. z punktu widzenia konsumpcji dóbr materialnych zaspokajających jego
potrzeby (przy dominacji dobrobytu nad dobrostanem i błogostanem [Borys, Rogala
2008 s. 9]. Definicję dobrobytu społecznego, która łączy powyższe kategorie, przedstawił, fiński socjolog, E. Allardt. Według niego, dobrobyt społeczny to trzy sfery
potrzeb ludzkich: posiadanie (to have), uczucie (to love) oraz istnienie (to be). Dobrobyt społeczny jest podzielony na dwie części: poziom życia (potrzeby materialne),
określony przez pierwszy czynnik potrzeb ludzkich (to have) oraz jakość życia (potrzeby pozamaterialne), która jest scharakteryzowana przez dwa pozostałe czynniki
(to love, to be), [Por. Zeliaś 2004 s. 13]. Jeszcze inne podejście zaproponował A. Sen,
który pojęcie dobrobytu wiąże ze „sposobami funkcjonowania” i „zbiorami możliwości”, jakie są dostępne dla człowieka. Brak możliwości prowadzi do ubóstwa.
A. Sen uznaje za ubóstwo niedostatek podstawowych możliwości, które pozwalają
jednostce żyć zgodnie z własnymi pragnieniami [Sen 2002]. Jeśli zostaną zaspokojone potrzeby człowieka, to prowadzi do osiągnięcia dobrego bytu (dobrobytu), zarówno w aspekcie materialnym, jak i niematerialnym.
W połowie XX wieku klasyfikację potrzeb opracował A. Maslow. Potrzeby
człowieka zostały podzielone na następujące kategorie [Maslow 1964]:
Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce
–
–
–
–
–
105
potrzeby fizjologiczne – podstawowe potrzeby zapewniające możliwość
przeżycia: żywność, mieszkanie, odzież itp.;
potrzeby bezpieczeństwa – poczucie bezpieczeństwa osobistego i najbliższych w chwili obecnej i w przyszłości (ochrona zdrowia, pokój itp.);
potrzeby przynależności i miłości – chęć posiadania rodziny oraz tworzenia i uczestniczenia w związkach społecznych;
potrzeby szacunku i uznania (poczucia własnej godności) – potrzeby
uznania i prestiżu we własnych oczach oraz w oczach innych ludzi;
potrzeby samorealizacji – dążenie człowieka do rozwoju osobistego.
RYSUNEK 1.
Hierarchia potrzeb według Maslowa
SAMOREALIZACJI POCZUCIE WŁASNEJ GODNOŚCI PRZYNALEŻNOŚCI I MIŁOŚCI BEZPIECZEŃSTWA FIZJOLOGICZNE Źródło: Opracowanie własne na podstawie: [Maslow 1964].
Potrzeby fizjologiczne są traktowane jako podstawowe i kolejne grupy i powinny
być zaspokajane zgodnie z ich hierarchią. Struktura potrzeb może być zaprezentowana w postaci tzw. „piramidy potrzeb Maslowa” (rysunek 1.). Dopiero, w miarę zaspokajania potrzeb niższych, w hierarchii zaczynają uwidaczniać się potrzeby wyższe. Powyższa klasyfikacja potrzeb została zaproponowana przez Maslowa w teorii
zaspokojenia indywidualnych potrzeb człowieka i nie w pełni da się przenieść na
rozwój całego społeczeństwa. W odniesieniu do społeczeństwa, ta klasyfikacja jest
nieostra i poszczególne kategorie potrzeb nakładają się i splatają przy ich zaspokajaniu [Hagerty 1999]. W badaniu dobrobytu społeczeństwa pominięto najwyższą grupę potrzeb – samorealizacji, którą indywidualnie może zaspokoić człowiek. Do ana-
106
Dorota Mierzyńska
lizy dobrobytu społeczeństwa zastosowano ostatecznie cztery grupy potrzeb: fizjologiczne, bezpieczeństwa, przynależności i poczucia własnej godności.
W podstawie piramidy występują potrzeby fizjologiczne, które dominują nad
wszystkimi innymi. Ich zaspokojenie wiąże się z aspektem materialnym, który tylko
w ograniczonym stopniu wskazuje na stopień zadowolenia człowieka z jego życia.
Jeśli potrzeby zapewniające możliwość przeżycia, takie jak: żywność, mieszkanie,
odzież, nie zostaną zaspokojone, to nie pozwala jednostce żyć zgodnie z jej własnymi pragnieniami. Do pomiaru potrzeb podstawowych często są wykorzystywane następujące zmienne: przeciętne dzienne spożycie w przeliczeniu na wartość energetyczną na 1 osobę, procent ludności z dostępem do czystej wody [Clarke i in. 2006
s. 937]. W Polsce, według danych statystycznych, w ostatnim dziesięcioleciu nastąpiło zmniejszenie się ilości dostarczanych kalorii (zob. tabela 1.), co nie jest związane
z brakiem żywności, a bardziej z racjonalną dietą i różnorodnością spożywanych
produktów. W grupie potrzeb fizjologicznych występują potrzeby materialne, których zaspokojenie następuje wraz ze wzrostem dochodu, stąd do pomiaru można
wykorzystać produkt krajowy brutto na 1 mieszkańca [Hagerty 1999 s. 253].
TABELA 1.
Przeciętne dzienne spożycie w przeliczeniu na wartość energetyczną
na 1 osobę w Polsce, w latach 1999–2008
Lata
Wartość
energetyczna
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2530
2474
2471
2461
2511
2452
2299
2245
2208
2189
Źródło: [Rocznik Statystyczny Rzeczypospolitej Polskiej 2000–2009].
Potrzeby bezpieczeństwa, na terenach nie objętych konfliktami zbrojnymi,
są związane ze stanem zdrowia społeczeństwa i poziomem przestępczości. W badaniach jakości życia jako wskaźniki stanu zdrowia społeczeństwa przyjmuje się często
śmiertelność niemowląt czy też wskaźniki zgonów, np. na nowotwory, choroby
układu krążenia [Zeliaś 2004 s. 27]. Uzupełnieniem tego rodzaju wskaźników mogą
być informacje o dostępności służby zdrowia, np.: liczba lekarzy, dentystów, łóżek
szpitalnych na 100 tys. mieszkańców. Zmienną, która odzwierciedla zarówno informację o stanie zdrowia, jak również dostępność do służby zdrowia, jest przeciętna
długość życia. Uwzględnia ona: zarówno skutek oddziaływania czynników zewnętrznych (np. środowiskowych, polityki społecznej), jak i efektów o charakterze endogenicznym, wynikających z decyzji jednostki – warunków mieszkaniowych, stylu życia, sposobu
odżywiania [Berbeka 2006 s. 49]. Wzrost przestępczości ma negatywne skutki zarówno społeczne, jak i gospodarcze. Społeczeństwo ma poczucie bezpieczeństwa,
gdy sprawnie działają organa powołane do zwalczania przestępczości.
Głównym elementem zaspokojenia potrzeb przynależności i miłości jest rodzina.
To w rodzinie człowiek może zaspokoić potrzebę uczuć i ma to ogromny wpływ na
jego postawę i aktywność życiową. W rodzinie kształtują się podstawowe relacje
Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce
107
społeczne. J.J. Sztaudynger wskazuje, że osłabienie więzi rodzinnych ma negatywny
wpływ na wzrost gospodarczy [Sztaudynger 2009]. Na podstawie badań empirycznych stwierdza, że na skutek osłabienia więzi rodzinnych, mierzonych wskaźnikiem
rozwodów, w Polsce w latach 1967–2006 nastąpiło średnioroczne spowolnienie
wzrostu gospodarczego o około 0,6 punktu procentowego [Sztaudynger 2009
s. 201]. Do pomiaru zaspokojenia potrzeb przynależności i miłości związanych
z funkcjonowaniem rodziny są wykorzystywane następujące zmienne: współczynnik
dzietności i współczynnik rozwodów [Clarke i in. 2006 s. 937; Hagerty 1999 s. 253].
Życie w zintegrowanej grupie, którą między innymi jest rodzina, chroni przed działaniami samodestrukcyjnymi. Wysoki wskaźnik samobójstw wskazuje na problemy
zdrowia psychicznego (depresja, zaburzenia osobowości, alkoholizm, narkomania
itp.) oraz problemy społeczne (konflikty w rodzinie, utrata pracy lub problemy
w pracy, problemy finansowe itp.). W krajach postkomunistycznych wzrost liczby
samobójstw świadczy o złej kondycji społeczeństwa w kontekście zmian ustrojowych i gospodarczych (na podstawie danych EUROSTAT w 2008 r. liczba samobójstw na 100 tys. mieszkańców na Litwie wynosiła 30,4, na Węgrzech – 21,5,
w Polsce – 13,9, a w 2007 roku w całej Unii Europejskiej – 9,8).
Do zaspokojenia potrzeb szacunku i uznania jest niezbędne wykształcenie i praca. Rozwój edukacji jest ważnym elementem polityki gospodarczej. Odpowiednio
wykształceni obywatele wpływają pozytywnie na rzeczywistość społeczną, gospodarczą, a także polityczną swoich krajów. We współczesnej gospodarce za poziom
wykształcenia zapewniający największe możliwości rozwoju i zapewnienia dobrobytu należy przyjąć wykształcenie wyższe. Studenci szkół wyższych w 1999 roku
w Polsce stanowili 38,1% ludności w wieku 19–24 lat, natomiast w 2008 roku odsetek ten wynosił już 52,7%. Należy jednak pamiętać, że wskaźniki te informują jedynie o powszechności nauczania, a nie jakości nauczania. Wraz ze wzrostem liczby
osób studiujących w Polsce, rośnie bezrobocie wśród absolwentów studiów wyższych, co stanowi bardzo poważny problem społeczny. Brak pracy jest jednym
z głównych czynników przyczyniających się do powstawania i utrwalania ubóstwa
i wykluczenia społecznego. Jak pisał Papież Jan Paweł II: Praca jest dobrem człowieka
– dobrem jego człowieczeństwa – przez pracę bowiem człowiek nie tylko przekształca
przyrodę, dostosowując ją do swoich potrzeb, ale także urzeczywistnia siebie jako człowieka, a także poniekąd bardziej „staje się człowiekiem” [Jan Paweł II 1981 s. 9].
W wyniku pracy człowiek może zaspokoić przede wszystkim potrzeby materialne,
ale także praca nadaje sen życiu, daje możliwość rozwoju.
Poszczególne kategorie w hierarchicznej strukturze potrzeb są zjawiskami złożonymi. Nie jest możliwy ich pomiar za pomocą jednej liczby. Na podstawie przesłanek merytorycznych przyjęto następujące zmienne obserwowalne (indykatory) opisujące poszczególne grupy potrzeb:
–
fizjologiczne:
• PKB per capita w zł – x1;
–
bezpieczeństwa:
• śmiertelność niemowląt (zgony niemowląt na 1000 urodzeń żywych) – x2;
• przeciętne dalsze trwanie życia mężczyzn i kobiet w latach – x3 i x4;
• wskaźnik wykrywalności sprawców przestępstw stwierdzonych w % – x5;
108
Dorota Mierzyńska
–
przynależności i miłości:
• współczynnik dzietności – x6;
• współczynnik rozwodów (małżeństwa rozwiązane przez rozwód na 1000
istniejących małżeństw) – x7;
• liczba samobójstw na 100 tys. mieszkańców – x8;
–
poczucia własnej godności (szacunku i uznania):
• liczba studentów na 10 tys. mieszkańców – x9;
• stopa bezrobocia rejestrowanego w % – x10.
Należy zwrócić uwagę, że o doborze zmiennych diagnostycznych powinien decydować opis teoretyczny badanego zjawiska, przy czym bardzo często ostatecznym
kryterium jest dostępność i porównywalność danych statystycznych w czasie i przestrzeni.
3. Syntetyczna miara dobrobytu w świetle hierarchicznej teorii potrzeb
Próby konstrukcji mierników syntetycznych dobrobytu opartych na hierarchicznej teorii Maslowa można znaleźć między innymi w pracach Clarke i Hagerty [Clarke
i in. 2006; Hagerty 1999]. Niestety, nie jest jednoznacznie rozwiązany sposób tworzenia miernika agregatowego (zastosowana metoda statystyczno-ekonometryczna),
a także dobór zmiennych diagnostycznych. Prezentowany w artykule sposób konstrukcji syntetycznego indeksu dobrobytu (DP) w świetle hierarchicznej teorii potrzeb
został oparty na budowie wskaźnika rozwoju społecznego HDI2 (Human Development Index). Od 1990 roku, w ramach Programu Narodów Zjednoczonych d.s.
Rozwoju, badany jest poziom rozwoju społecznego na świecie za pomocą wskaźnika HDI. Miernik ten jest oparty na trzech podstawowych czynnikach: poziomie
zdrowotności, poziomie wykształcenia oraz dostępności dóbr materialnych, które
decydują o powiększaniu zdolności i możliwości człowieka. Wskaźnik HDI łączy
w sobie ocenę społecznego i ekonomicznego rozwoju danego obszaru, przy czym
nie uwzględnia bezpośrednio stanu środowiska naturalnego. Wskaźnik HDI jest to
średnia arytmetyczna z unormowanych wartości zmiennych mierzalnych. Należy
podkreślić, że miara ta jest w badaniach międzynarodowych wyznaczana corocznie
od kilkunastu lat, co umożliwia porównania rozwoju społecznego krajów świata
w coraz dłuższym okresie.
Wszystkie zmienne diagnostyczne są poddane normalizacji, przy czym w przypadku stymulant zastosowano wzór następującej postaci:
y ij =
x ij
{ },
max x ij
j
gdzie: i – numer zmiennej będącej stymulantą, j – numer jednostki czasu,
natomiast dla destymulant normalizację przeprowadzono według wzoru:
2 Sposób konstrukcji wskaźnika HDI jest omawiany w corocznym globalnym raporcie UNDP
Human Development Report i raportach krajowych.
Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce
y ij =
{ }
min x ij
j
109
x ij
,
gdzie: i – numer zmiennej będącej destymulantą, j – numer jednostki czasu.
Wśród zaproponowanych zmiennych diagnostycznych dobrobytu, jako stymulanty, przyjęto:
–
PKB per capita – x1;
–
przeciętne dalsze trwanie życia mężczyzn i kobiet – x3 i x4;
–
wskaźnik wykrywalności sprawców przestępstw stwierdzonych – x5;
–
współczynnik dzietności – x6;
–
liczbę studentów na 10 tys. mieszkańców – x9;
natomiast w grupie destymulant znalazły się:
–
śmiertelność niemowląt – x2;
–
współczynnik rozwodów – x7;
–
liczba samobójstw na 100 tys. mieszkańców – x8;
–
stopa bezrobocia rejestrowanego w % – x10.
Zanim zostanie wyznaczony indeks DP, obliczono cztery indeksy cząstkowe:
indeks potrzeb fizjologicznych (P1), indeks potrzeb bezpieczeństwa (P2), indeks
potrzeb przynależności i miłości (P3), indeks potrzeb szacunku i uznania (P4), każdy
jako średnią nieważoną unormowanych zmiennych diagnostycznych z danej grupy.
Jeśli zastosowana zostałaby średnia ważona, to należałoby nadać system wag zmiennym obserwowalnym, czyli ustalić ich hierarchię pod względem ważności. W analizie
przyjęto formułę nieważoną, zatem wszystkie zmienne mają jednakowe znaczenie.
W kolejnym kroku jest wyznaczany syntetyczny indeks dobrobytu według następującego wzoru:
1 4
DPj = ∑ Pnj .
4 n =1
Miara DP przyjmuje wartości od 0 do 1 i czym wyższa wartość, tym wyższy jest
poziom dobrobytu w rozważanych jednostkach czasu.
Do obliczenia indeksu dobrobytu w Polsce w latach 1999–2008 wykorzystano
dane statystyczne udostępnione na stronach internetowych: GUS, EUROSTAT oraz
wydań książkowych Roczników Statystycznych Rzeczypospolitej Polskiej 2000–2009.
W badaniach dobrobytu bardzo często jest stosowany wskaźnik makroekonomiczny: produkt krajowy brutto. Jako zmienną diagnostyczną, opisującą aspekt materialny, PKB wykorzystuje się między innymi we wskaźniku rozwoju społecznego
HDI [Human... 2009], indeksie jakości życia [The Economist... 2005]. Pamiętać należy, że PKB określa całkowitą wartość dóbr i usług wytworzonych w ciągu roku na
danym obszarze, a więc poprawnie charakteryzuje produkcję, a nie dobrobyt [Zienkowski 2008 s. 25]. W Polsce w badanym dziesięcioleciu następował wzrost realnego
PKB per capita średnio o 4,2% z roku na rok.
Niestety, wzrost PKB per capita nie pociągał za sobą redukcji ubóstwa materialnego. Jak widać na wykresie 2., zasięg ubóstwa obiektywnego (linia ubóstwa rela-
110
Dorota Mierzyńska
tywna, ustawowa i minimum egzystencji) w Polsce, w badanym okresie, wzrastał aż
do 2004 roku i dopiero w ostatnich latach nastąpił spadek.
WYKRES 1.
Zasięg ubóstwa w Polsce, w latach 1999–2008
25
% osób
20
15
10
5
0
1999
2000
2001
2002
Relatywna (*)
2003
2004
2005
Ustawowa
2006
2007
2008
Minimum egzystencji
(*) Relatywna granica ubóstwa to 50% średnich miesięcznych wydatków gospodarstw domowych.
Źródło: Opracowanie własne na podstawie danych GUS.
WYKRES 2.
Indeksy potrzeb fizjologicznych, P1 i P1U, w latach 1999–2008
1
0,9
0,8
0,7
0,6
1999
2000
2001
2002
2003
P1
Źródło: Opracowanie własne.
2004
2005
P1U
2006
2007
2008
Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce
111
W 2004 roku 19,2% osób w gospodarstwach domowych stanowiły osoby żyjące
poniżej ustawowej granicy ubóstwa i jest to najwyższy odsetek w badanym okresie.
W ostatnich latach nastąpił spadek zasięgu ubóstwa obiektywnego. Czy tendencja
zmniejszania się biedy utrzyma się w kolejnych latach? Kryzys, który rozpoczął się
na świecie w latach 2007–2008, może mieć negatywny wpływ na dobrobyt społeczny, a co za tym idzie może pogłębić się ubóstwo. W Polsce, w badanym okresie,
zmienne: PKB per capita i zasięg ubóstwa względnego nie są skorelowane, a zatem
wzrost PKB nie zawsze przyczynia się do wzrostu dobrobytu materialnego. Na podstawie powyższych rozważań, wśród zmiennych opisujących grupę potrzeb fizjologicznych, można uwzględnić wskaźnik ubóstwa (wykorzystano wskaźnik ubóstwa
oparty na ustawowej linii ubóstwa). Indeks potrzeb fizjologicznych (bez wskaźnika
ubóstwa) P1 oraz indeks potrzeb fizjologicznych (ze wskaźnikiem ubóstwa) P1U
przedstawiono dla lat 1999–2008 na wykresie 2. Indeks P1 wzrastał w badanym
okresie, natomiast indeks P1U początkowo wzrósł, następnie nastąpił spadek, by
w kolejnych latach znowu rozpoczął się wzrost.
Wszystkie zmienne związane z grupą potrzeby bezpieczeństwa w badanym okresie wykazywały pozytywne tendencje. W Polsce społeczeństwo jest coraz zdrowsze
(wzrasta w rozważanych latach zarówno przeciętne dalsze trwanie życia kobiet
i mężczyzn, a także maleje śmiertelność niemowląt) i może czuć się coraz bezpieczniej (wzrasta wykrywalność sprawców przestępstw).
W kolejnej grupie potrzeb wykorzystano następujące zmienne: współczynnik
dzietności, wskaźnik rozwodów i samobójstw. W Polsce w 1999 roku współczynnik
dzietności wynosił 1,366 i w kolejnych latach malał, aż do roku 2003, a następnie
rozpoczął się wzrost, by w 2008 roku osiągnąć poziom zbliżony do pierwszego roku
badanego okresu – 1,390. Współczynnik rozwodów wykazywał podobną tendencję,
z tą różnicą, że najwyższa wartość – 8,1 – występowała w 2006 roku i zmalała do
poziomu 7,3 w 2008 roku, gdy w 1999 roku wynosiła – 4,9. Analogiczne zmiany
w czasie występują w przypadku liczby samobójstw na 100 tys. mieszkańców.
Pomiaru potrzeb poczucia własnej godności dokonano, wykorzystując dwie
zmienne: liczbę studentów na 10 tys. mieszkańców i stopę bezrobocia. W ostatnim
dziesięcioleciu w Polsce nastąpił znaczny wzrost absolutnej liczby studentów
(w 1999 roku liczba studentów wynosiła 1421,3 tys., a w 2008 roku – 1911,5 tys.),
co oczywiście należy traktować jako sukces polskiego szkolnictwa wyższego, ale ciągle należy pamiętać, że nie zawsze „ilość idzie w parze z jakością”. Natomiast bezrobocie w Polsce na początku XXI wieku było na dosyć wysokim poziomie (stopa
bezrobocia rejestrowanego w % oscylowała wokół 20% – dane GUS). W ostatnich
latach badanego okresu nastąpił spadek i w 2008 roku stopa bezrobocia wynosiła
ok. 10%.
Na wykresie 3. przedstawiono indeksy cząstkowe czterech grup potrzeb w Polsce, w latach 1999–2008. Jedynie indeks potrzeb bezpieczeństwa P2 wzrastał z roku
na rok w badanym okresie, natomiast pozostałe indeksy cząstkowe dopiero po początkowym spadku (P1 i P4 do 2002 roku, P3 do 2005 roku) zanotowały wzrost.
Syntetyczny indeks dobrobytu, który jest wypadkową indeksów cząstkowych,
w badanych latach, do roku 2005 ulegał nieznacznym wahaniom, a począwszy od
2005 roku wzrastał z roku na rok (zob. wykres 4.). Poziom syntetycznego indeksu
112
Dorota Mierzyńska
dobrobytu z 1999 roku został w przybliżeniu osiągnięty ponownie właśnie w 2005
roku i już do końca badanego okresu następował wzrost indeksu DP.
WYKRES 3.
Indeksy cząstkowe potrzeb w Polsce, w latach 1999–2008
1,000
0,900
0,800
0,700
0,600
1999
2000
2001
2002
P1U
2003
2004
P2
2005
P3
2006
2007
2008
P4
Źródło: Opracowanie własne.
WYKRES 4.
Syntetyczny indeks dobrobytu DP w Polsce, w latach 1999–2008
1,000
0,968
0,898
0,900
0,847
0,807
0,818
1999
2000
0,811
0,800
0,788
0,794
0,793
0,804
2002
2003
2004
2005
0,700
0,600
2001
Źródło: Opracowanie własne.
2006
2007
2008
113
Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce
Na wykresie 5. zaprezentowano poziom syntetycznego indeksu dobrobytu DP
i indeksu PKB w Polsce, w latach 1999–2008. W rozważanym dziesięcioleciu następował w kolejnych latach wzrost PKB, co nie było zgodne ze zmianami dobrobytu.
W literaturze wskazuje się, że poziom i zmiany PKB nie dają pełnego obrazu dobrobytu społeczno-ekonomicznego [Zienkowski 2008 s. 25]. Otrzymane wyniki potwierdzają zatem, że produkt krajowy brutto nie odzwierciedla rzeczywistej sytuacji
społecznej. Miara dobrobytu społeczno-ekonomicznego powinna brać pod uwagę
nie tylko aspekt materialny, ale również niematerialny.
WYKRES 5.
Syntetyczny indeks dobrobytu DP i indeks PKB w Polsce,
w latach 1999–2008
1,000
0,900
0,800
0,700
0,600
1999
2000
2001
2002
2003
2004
DP
2005
2006
2007
2008
PKB
Źródło: Opracowanie własne.
4. Podsumowanie
W Polsce w latach 1999–2008 występował wzrost gospodarczy, PKB per capita
wzrastał średnio o około 4% z roku na rok. Pamiętać jednak należy, że wzrost gospodarczy nie zawsze przynosi poprawę dobrobytu społeczeństwa. W badaniach
społeczno-ekonomicznych coraz częściej wskazuje się, że produkt krajowy czy też
dochód narodowy nie odzwierciedlają wszystkich aspektów gospodarowania i nie
powinny być utożsamiane z dobrobytem. Należy zatem poszukiwać nowej formuły
pomiaru dobrobytu.
W artykule zaprezentowano jedną z wielu propozycji pomiaru dobrobytu, która
jest oparta na hierarchicznej teorii potrzeb. Syntetyczny indeks dobrobytu DP
uwzględnia zarówno potrzeby materialne, jak i niematerialne, których zaspokojenie
w wyższych fazach rozwoju staje się głównym celem gospodarowania. Każdy z eta-
114
Dorota Mierzyńska
pów budowy syntetycznego indeksu dobrobytu DP: dobór zmiennych diagnostycznych, sposób normalizacji, agregacji może wzbudzić dyskusję. Niestety, brak jest
uniwersalnych rozwiązań w zakresie pomiaru dobrobytu społeczno-ekonomicznego,
co wiąże się z tym, że nie ma powszechnie stosowanych miar dobrobytu. Trwają poszukiwania formuły, stąd pomiar dobrobytu społeczno-ekonomicznego jest otwartym problemem badawczym.
Literatura
Anand S., Sen A. 2000 The Income Component of the Human Development Index, „Journal of
Human Development”, No. 1.
Berbeka J. 2006 Poziom życia ludności a wzrost gospodarczy w krajach Unii Europejskiej, Kraków.
Borys T., Rogala P. 2008 Jakość życia na poziomie lokalnym – ujęcie wskaźnikowe, Warszawa.
Clarke M., Islam S.M.N., Peach S. 2006 Measuring Australia’s well-being using hierarchical
needs, „The Journal of Socio-Economics”, 35.
Hagerty M.R. 1999 Testing Maslow’s hierarchy of needs: national quality of life across time, „Social Indicators Research”, 46.
Human Development Report 2009, United Nations Development Programme, dokument elektroniczny, tryb dostępu: [http://hdr.undp.org/en/raports, data wejścia: marzec 2010].
Jan Paweł II Papież 1981 Leborem Exercens, Encyklika, O pracy ludzkiej, Watykan.
Luszniewicz A. 1990 Statystyka a rzeczywistość: refleksje analityczne, [w:] Poziom życia ludności
Polski w latach 1988–1989, Raport, nr 3, IGS SGPiS, Warszawa.
Maslow A.H. 1964 Teoria hierarchii potrzeb, [w:] Problemy osobowości i motywacji w psychologii amerykańskiej,Warszawa.
Mierzyńska D. 2007 Pomiar ubóstwa za pomocą wskaźnika HPI, [w:] Rozwój regionalny. Podstawowe cele i wyzwania, (red.) Bocian A. F., Białystok.
Report by the Commission on the Measurement of Economic Performance and Social Progress 2009,
dokument elektroniczny, tryb dostepu: [www.stiglitz-sen-fitoussi.fr, data wejścia: marzec
2010].
Sachs J. 2006 Koniec z nędzą. Zadanie dla naszego pokolenia, Warszawa.
Sen A. 2002 Rozwój i wolność, Poznań.
Słaby T. 2004 Poziom i jakość życia, [w:] Panek T., Szulc A. (red.), Statystyka społeczna, wybrane zagadnienia, Warszawa.
Sztaudynger J.J. 2009 Rodzinny kapitał społeczny a wzrost gospodarczy w Polsce, dokument elektroniczny, tryb dostępu: [http://www.jjsztaudynger.yoyo.pl/e2009-2-sztaudynger.pdf, data
wejścia: marzec 2010].
The Economist Intelligence Unit’s quality-of-life index 2005, dokument elektroniczny, tryb
dostępu: [http://www.economist.com /media/pdf/QUALITY_OF_LIFE.pdf, data
wejścia: marzec 2010].
Zeliaś A. (red.) 2005 Poziom życia w Polsce i w krajach Unii Europejskiej, Warszawa.
Zienkowski L. 2008 Rachunki narodowe wczoraj, dziś, jutro, [w:] Plich M. (red.), Rachunki narodowe. Wybrane problemy i przykłady zastosowań, Warszawa.
MISCELLANEA
Jacek MARCINKIEWICZ1
ANALIZA PORÓWNAWCZA
POZIOMU ROZWOJU EUROPEJSKICH GIEŁD
Streszczenie
W artykule podjęto próbę porównania poziomu rozwoju europejskich giełd papierów wartościowych na podstawie wskaźników ilościowych opisujących sytuację na rynku papierów wartościowych
oraz analizę roli spełnianej przez giełdę w gospodarce danego kraju. Wśród wskaźników ilościowych
informujących o poziomie rozwoju wtórnego rynku akcji, wybrano: kapitalizację giełdy, liczbę notowanych spółek, średni dzienny obrót, średnią wartość transakcji oraz liczbę zawartych transakcji. Na ich
podstawie zbudowano dwa mierniki taksonomiczne. Analiza taksonomiczna, przeprowadzona dla
dwóch okresów pokazała, że dystans dzielący warszawską giełdę od największych giełd europejskich
nieznacznie uległ zmniejszeniu. W artykule dostrzeżono również wzrost makroekonomicznej roli spełnianej przez GPW w gospodarce polskiej.
Słowa kluczowe: rynek kapitałowy, giełda papierów wartościowych, taksonomia
A COMPARATIVE ANALYSIS OF THE DEVELOPMENT LEVEL
OF EUROPEAN STOCK EXCHANGES
Summary
In the article an attempt has been made to compare the level of European stock exchanges based
on quantitative indices describing the situation on the stock market and an analysis of the role of the
stock market in the economy of a given country. The following quantitative indices informing about
the level of secondary stock market have been taken into consideration: capitalization of stock exchange, the number of registered companies, average daily turnover, average transaction value and the
number of transactions. Based on these indices two taxonomic measures have been built. A taxonomic
analysis of two periods showed that the gap between the Warsaw Stock Exchange and the biggest European stock exchanges had decreased. The article also highlights an increasingly important macroeconomic role of GPW /Stock Exchange/ in the Polish economy.
Keywords: capital market, stock exchange, taxonomy
1
Dr Jacek Marcinkiewicz – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania.
116
Jacek Marcinkiewicz
1. Wstęp
Blisko dwudziestoletni okres działalności Giełdy Papierów Wartościowych
w Warszawie pozwala na analizę jej rozwoju oraz wyciągnięcie wniosków dotyczących jej pozycji wśród giełd europejskich. Porównanie poziomu rozwoju giełd papierów wartościowych jest możliwe na podstawie zestawienia regulacji prawnych
i rodzaju notowanych instrumentów, wskaźników ilościowych oraz analizy roli spełnianej przez giełdę w gospodarce danego kraju. Przedmiotem niniejszego artykułu
jest analiza porównawcza, oparta na wskaźnikach ilościowych oraz roli makroekonomicznej giełdy.
Wśród wskaźników ilościowych, informujących o poziomie rozwoju wtórnego
rynku akcji, najczęściej są wymieniane dane informujące o liczbie i wielkości spółek
notowanych na giełdzie. Jednak badania rynku nie można dokonywać w oderwaniu
od stopnia płynności, o którym mogą informować takie wielkości, jak: wartość obrotów instrumentami finansowymi, liczba i wielkość zawieranych transakcji.
2. Dane
Giełda Papierów Wartościowych w Warszawie rozwinęła się najszybciej spośród
młodych giełd Europy Środkowej, co obrazują wybrane wskaźniki przedstawione
w tabeli 1. W świetle, zaprezentowanych w tabeli informacji, pierwszą dekadę funkcjonowania Giełdy Papierów Wartościowych należy uznać za sukces. Po upływie
pierwszych lat można powiedzieć, że warszawska Giełda Papierów Wartościowych
ustabilizowała się. Minął okres niepewności, czas pierwszych zachwytów oraz rozczarowań. Pierwsze lata XXI wieku to okres ilościowego i jakościowego rozwoju
GPW. Wprowadzone zostają do obrotu nowe instrumenty finansowe (jednostki indeksowe, opcje), a od 2003 roku akcje spółek zagranicznych (z wymienionych giełd,
tylko na giełdzie w Pradze są notowane spółki zagraniczne). Dane liczbowe za rok
2007 pozwalają na uznanie warszawskiej GPW za najlepiej rozwiniętą giełdę z grupy
państw, które przeszły transformację systemową.
TABELA 1.
Wskaźniki giełdowe Europy Środkowej
Giełda
Liczba
spółek
Kapitalizacja
(mln dol.)
Liczba spółek
(zagraniczne)
IX 2000
Bratysława
Budapeszt
Bukareszt
Lublana
Praga
Warszawa
Sofia
7
61
38
63
224
-
Kapitalizacja
(mln euro)
2007
403
12 261
2 019
9 629
26 324
-
160
41
55
87
32 (8)
373 (23)
364
Źródło: [Nasz Rynek Kapitałowy 2000 s. 11; Banaszak-Sroka 2008 s. 203–205].
4 555
31 528
21 524
19 695
47 987
144 323
14 253
Analiza porównawcza poziomu rozwoju europejskich giełd
117
Danych o rozwoju wtórnego regulowanego rynku kapitałowego dostarcza wiele
wskaźników, spośród których do analizy porównawczej 17 europejskich2 giełd zostaną wybrane:
–
kapitalizacja giełdy,
–
liczba notowanych spółek,
–
średni dzienny obrót,
–
średnia wartość transakcji,
–
liczba zawartych transakcji.
Pierwsze dwie cechy dostarczają informacji o podażowej stronie giełdy papierów
wartościowych. Jeden z tych czynników obrazuje liczbę przedsiębiorstw, które pozyskały długoterminowe środki finansowe przy pomocy rynku publicznego. Kapitalizacja, uważana za podstawową kategorię rynków finansowych, odwzorowuje potencjał gospodarczy notowanych spółek oraz oczekiwania inwestorów w zakresie ich
dynamiki rozwojowej. Stronę popytową na udziałowe papiery wartościowe obrazują
pozostałe trzy wskaźniki. Choć popyt na akcje można nazwać „elastycznym”, co
oznacza powiązanie z poziomem i dynamiką cen notowanych walorów, to jest on
czynnikiem pośrednio wpływającym na liczbę i wielkość nowych emisji. Poziom dochodów inwestorów, alternatywne możliwości inwestycyjne, chęć do podejmowania
ryzyka czy „modę” na inwestowanie na GPW można zaliczyć do pozacenowych determinant popytu na papiery wartościowe.
Obliczenia zostaną przeprowadzone na podstawie danych publikowanych przez
Międzynarodową Federację Giełd Papierów Wartościowych pochodzących z dwóch
okresów (zwanych w artykule umownie pierwszym i drugim okresem obliczeniowym). W pierwszym okresie dane o kapitalizacji i liczbie notowanych spółek pochodzą z ostatniego dnia października 2008 roku, a pozostałe 3 wskaźniki, ulegające
znacznym dziennym fluktuacjom, są obliczone na podstawie danych z roku 2007.
W drugim okresie informacje o podażowej stronie giełdy papierów wartościowych
pochodzą z końca kwietnia 2010 roku, natomiast informacje o popytowej stronie
rynku są z 2009 roku. Porównanie wyników badań może pozwolić na sformułowanie wniosku dotyczącego konwergencji lub dywergencji rozwoju europejskich rynków kapitałowych. Możliwe będzie również wskazanie kierunku, w którym podąża
warszawska Giełda Papierów Wartościowych.
2 Analizie porównawczej zostanie poddanych 17 europejskich giełd będących, na koniec 2007 roku
członkami Międzynarodowej Federacji Giełd Papierów Wartościowych – Word Federation of Exchanges (dawniej FIBV). Euronext jest platformą handlu giełdowego, stworzoną przez giełdy w: Paryżu,
Amsterdamie, Brukseli i Lizbonie. OMX to sojusze giełd w: Sztokholmie, Helsinkach, Kopenhadze,
Tallinie, Rydze, Reykiawiku, Erewaniu i Wilnie. Również giełda z siedzibą w Madrycie (Bolsay Mercados
Espanoles) jest konglomeratem powstałym z połączenia, w 2002 roku, giełd w: Madrycie, Barcelonie,
Bilbao i Walencji. Wymienione przykłady są dowodem skutecznie stworzonych aliansów giełdowych.
Zmiany, które miały miejsce po roku 2007, takie jak przyjęcie giełdy papierów wartościowych
w Moskwie do grona WFE oraz wejście giełdy papierów wartościowych z siedzibą w Mediolanie
w skład London Stock Exchange Group, nie zostały ujęte w obliczeniach.
118
Jacek Marcinkiewicz
TABELA 2.
Podstawowe wielkości charakteryzujące giełdy europejskie
(kapitalizacja i liczba notowanych spółek z dnia 31 października 2008,
pozostałe wskaźniki na podstawie danych z roku 2007)
– pierwszy okres obliczeniowy
Giełda
Ateny
Budapeszt
Cypr
Euronext
Dublin
Frankfurt
Zurych
Mediolan
Londyn
Lublana
Luksemburg
Madryt (BME)
Malta
OMX
Oslo
Warszawa
Wiedeń
Kapitalizacja
(mln USD)
92 760,1
19 423,9
9 524,1
2 083 611,5
56 010,6
1 097 030,0
865 596,8
509 780,8
2 042 144,8
13 788,0
71 043,7
923 856,2
3 431,9
576 359,9
165 814,3
99 926,4
78 212,8
Liczba
notowanych
spółek
(z funduszami
inwestycyjnymi)
287
43
123
1 015
68
840
324
303
3 156
86
263
3 584
19
832
264
441
118
Średni
dzienny
obrót
(w mln
USD)
669,3
194,7
20,6
22 030,3
539,1
17 162,4
7 575,5
9 176,7
40 683,8
18,3
1,1
11 691,0
0,4
7 370,2
2 192,4
353,8
526,6
Średnia
wartość
transakcji
(w tys. USD)
14,5
29,3
7,0
36,4
158,7
29,8
58,8
31,9
64,2
18,9
19,0
85,2
8,8
38,4
45,3
5,8
23,3
Liczba
zawartych
transakcji
(w tys.)
11 616,0
1 624,4
729,0
154 277,4
609,4
86 880,7
30 348,0
72 500,3
138 833,6
237,5
14,6
34 637,2
10,1
46 087,7
11 916,7
15 203,9
5 576,6
Źródło: [Dokument elektroniczny, tryb dostępu: WWW.warld-exchanges.org, data wejścia:
12.11.2008, 15.05.2010].
Z uwagi na kapitalizację rynku akcji, Giełda Papierów Wartościowych w Warszawie znajduje się na 9. miejscu (porównaj: tabela 3.). Giełdy o największej kapitalizacji (Euronext, Londyn) ponad 17-krotnie wyprzedzają parkiet warszawski. Również kapitalizacja: giełd we Frankfurcie, Madrycie, giełdy szwajcarskiej, giełdy włoskiej oraz grupy OMX wielokrotnie przekracza kapitalizację rynku akcji GPW. Giełdę w Warszawie, obok giełd w: Oslo, Atenach, Wiedniu, Luksemburgu i Dublinie,
można zaliczyć do grupy „europejskich średniaków” o kapitalizacji kilkakrotnie
przekraczającej kapitalizację giełd w Budapeszcie czy Lublanie. Na koniec kwietnia
2010 r. najmniejszą kapitalizację zanotowano na giełdach: w Cyprze i na Malcie, co
jest zrozumiałe z uwagi na wielkość tych państw. Należy również pamiętać, że w zestawieniu podano jedynie, uznane na rynku międzynarodowym, giełdy papierów
wartościowych, będące członkami WFE.
119
Analiza porównawcza poziomu rozwoju europejskich giełd
TABELA 3.
Podstawowe wielkości charakteryzujące giełdy europejskie
(kapitalizacja i liczba notowanych spółek z dnia 30 kwietnia 2010,
pozostałe wskaźniki na podstawie danych z roku 2009)
– drugi okres obliczeniowy
Giełda
Ateny
Budapeszt
Cypr
Euronext
Dublin
Frankfurt
Zurych
Mediolan
Londyn
Lublana
Luksemburg
Madryt (BME)
Malta
OMX
Oslo
Warszawa
Wiedeń
Kapitalizacja
(mln USD)
89 439,9
32 550,8
8 189,3
2 711 821,6
66 139,6
1 257 931,7
1 075 045,4
583 551,3
2 766 760,7
10 925,4
96 262,1
1 224 105,7
3 850,5
892 417,2
220 596,1
159 551,1
111 564,4
Liczba
notowanych
spółek
(z funduszami
inwestycyjnymi)
286
46
115
1 158
63
778
333
296
2 747
76
278
3 414
20
787
234
504
114
Średni
dzienny
obrót
(w mln
USD)
269,0
101,2
6,9
7 740,3
138,6
8 608,0
3 025,4
3 486,5
13 403,6
4,8
1,1
5 949,0
0,1
2 887,4
976,1
226,2
193,4
Średnia
Liczba
wartość
zawartych
transakcji
transakcji
(w tys. USD)
(w tys.)
6,6
7,6
4,7
11,8
30,7
21,3
23,7
13,9
20,4
8,9
19,7
47,0
4,9
13,7
15,5
4,3
9,5
10 108,9
3 349,8
358,8
167 127,7
915,1
86 868,0
31 990,1
63 898,0
156 441,6
135,9
14,3
32 206,8
6,8
51 159,9
15 780,8
13 275,0
5 067,3
Źródło: [Dokument elektroniczny, tryb dostępu: WWW.warld-exchanges.org, daty wejścia:
12.11.2008, 15.05.2010].
Pod względem liczby notowanych spółek, giełda w Warszawie plasuje się na
6. miejscu. Na czołowych miejscach są giełdy w: Madrycie oraz Londynie o około
6 razy większej liczbie spółek niż na GPW w Warszawie. Więcej spółek niż na GPW
jest notowanych również na: giełdzie Euronext, giełdzie niemieckiej oraz w grupie
bałtycko-skandynawskiej OMX.
W świetle przedstawionych danych, liczbę oraz wielkość notowanych w obrocie
giełdowym spółek można uznać za zadowalającą. Nieco gorzej przedstawia się sytuacja, jeśli analizie zostaną poddane wskaźniki dostarczające informacji o stopniu
płynności rynku. Pod względem średniego dziennego obrotu, bezkonkurencyjna jest
giełda w Londynie; dzienny obrót przekracza blisko 60 razy obrót na GPW. Na kolejnych miejscach można ulokować giełdę: we Frankfurcie, Euronext oraz giełdę
w Madrycie. GPW znajduje się na 10. pozycji, wyprzedzając giełdy w: Wiedniu, Dublinie, Budapeszcie oraz giełdy małych państw (Luksemburg, Malta, Cypr, Słowenia).
120
Jacek Marcinkiewicz
O wartości obrotów decyduje liczba oraz wartość zawieranych transakcji. W roku
2009 na warszawskim parkiecie zawarto ponad 13 milionów transakcji (9. miejsce).
Jest to dwunastokrotnie mniej niż na przodujących w tej statystyce giełdach: Euronext i LSE. Jeśli jednak weźmiemy pod uwagę średnią wartość transakcji na GPW
w Warszawie, to należy zauważyć, że jest ona najniższa spośród analizowanych
giełd. Nie licząc giełd na Malcie i Cyprze, średnia wartość transakcji na innych giełdach jest co najmniej kilkakrotnie (a na giełdzie w Madrycie prawie 11-krotnie)
większa niż na GPW. Niska wartość tego wskaźnika może być wynikiem stosunkowo dużej liczby drobnych inwestorów indywidualnych.
3. Konstrukcja syntetycznej miary rozwoju giełdy
3.1. Odległość euklidesowa od wzorca
Brak jednego wskaźnika, zawierającego kompleksowe informacje o rozwoju rynku kapitałowego, pozwala uznać poziom rozwoju giełdy za zmienną nieobserwowalną. Wszystkie, wymienione, zmienne opisujące rozwój giełdy powinny być stymulantami, przez co się rozumie, że ich wysoka wartość powinna informować o wysokim poziomie rozwoju rynku kapitałowego [Tarczyński 2002 s. 97–98]. Aby doprowadzić do porównywalności zmiennych, dokonano ich standaryzacji według
wzoru [Pociecha, Podolec, Sokołowski 1988 s. 41]:
z ij =
x ij − x j
sj
,
(1)
gdzie:
x ij – i-ta obserwacja j-tej zmiennej (i=1,2,...,17; j=1,2,...,5),
x j – średnia arytmetyczna j-tej zmiennej,
s j – odchylenie standardowe j-tej zmiennej.
Następnie wygenerowano wzorzec, czyli sztuczny obiekt o maksymalnym, pozytywnym nasileniu wszystkich cech. Kolejnym krokiem było obliczenie odległości
każdej giełdy od giełdy wzorcowej przy zastosowaniu miary euklidesowej [Pociecha,
Podolec, Sokołowski 1988 s. 42]:
⎡m
d i 0 = ⎢∑ zij − z0 j
⎢⎣ j=1
(
1
⎤2
2
⎥ ,
⎥⎦
)
(2)
gdzie:
z ij – wystandaryzowana wartość j-tego wskaźnika dla i-tej giełdy (i=1,2,...,17; j=1,2,...,5),
z 0 j – wystandaryzowana wartość j-tego wskaźnika dla wzorcowej giełdy (j=1,2,...,5).
Odległości przedstawione w tabeli 4. ukazują dystans dzielący poszczególne giełdy od wzorca. Wśród europejskich giełd nie ma jednej giełdy posiadającej największe wartości wszystkich pięciu, wskazanych wcześniej, cech. Giełda w Londynie mo-
121
Analiza porównawcza poziomu rozwoju europejskich giełd
że poszczycić się największą kapitalizacją oraz najwyższym, średnim dziennym obrotem. Najwyższa średnia wartość transakcji oraz najwięcej spółek notowanych jest na
giełdzie w Madrycie. Z kolei, w liczbie zawartych transakcji przoduje giełda Euronext. Zarówno w pierwszym, jak i w drugim okresie obliczeniowym najbliżej sztucznego obiektu o maksymalnym nasileniu cech jest giełda w Londynie. Kolejne miejsca zajmują giełdy: Euronext i BME (choć w przypadku tych giełd nastąpiła zamiana
lokat). Zaproponowana miara nakazuje wymienić, wśród znaczących giełd europejskich, giełdy: we Frankfurcie, w Zurychu, grupę bałtycko-skandynawską OMX oraz
giełdę włoską z siedzibą w Mediolanie. Giełda w Dublinie znalazła się na wyższej
niż GPW pozycji, z racji dużej wartości transakcji na niej zawieranych. Właśnie niska
wartość tego wskaźnika jest powodem, że giełda w Warszawie znalazła się w tych
rankingach na odpowiednio: 12. i 11. miejscu. Podobne odległości od wzorca posiadają giełdy: w Wiedniu i w Budapeszcie, z którymi GPW rywalizuje o prymat najważniejszej giełdy w Europie Środkowej.
TABELA 4.
Miernik poziomu rozwoju europejskich giełd – odległość od wzorca
Pierwszy okres obliczeniowy
Giełda
Drugi okres obliczeniowy
Odległość euklidesowa
od wzorca
Miejsce
Odległość euklidesowa
od wzorca
Miejsce
7,40
7,46
7,74
4,42
6,56
5,21
5,94
6,12
2,58
7,59
7,49
4,43
7,77
6,00
6,90
7,45
7,42
10.
13.
16.
2.
8.
4.
5.
7.
1.
15.
14.
3.
17.
6.
9.
12.
11.
7,24
7,40
7,54
4,19
6,65
4,40
5,61
5,94
2,51
7,38
6,84
3,60
7,58
5,71
6,70
7,20
7,23
13.
15.
16.
3.
8.
4.
5.
7.
1.
14.
10.
2.
17.
6.
9.
11.
12.
Ateny
Budapeszt
Cypr
Euronext
Dublin
Frankfurt
Zurych
Mediolan
Londyn
Lublana
Luksemburg
Madryt (BME)
Malta
OMX
Oslo
Warszawa
Wiedeń
Źródło: Opracowanie własne.
Odległości od wzorca, dzielące giełdę w Warszawie, w obu okresach obliczeniowych różnią się nieznacznie. Należy jednak dostrzec zmniejszenie odległości pomiędzy warszawską giełdą a największymi giełdami w Europie, zwłaszcza że miało to
miejsce w latach kryzysu finansowego. Rosnąca szybkość przepływu informacji oraz
122
Jacek Marcinkiewicz
procesy globalizacji powodują, że ten czynnik okazał się silniejszym argumentem niż
korzystna sytuacja w gospodarce polskiej i wywarł większy wpływ na zachowanie
inwestorów na GPW. Rozwój społeczeństwa informacyjnego, unifikacja stosowanych systemów transakcyjnych przy liberalizacji handlu światowego, prowadzące do
wzrastającej sieci współzależności gospodarczych i finansowych, powstawania oraz
działalności korporacji transnarodowych, sprawia, że globalizacja jest widoczna na
rynkach finansowych [Por. Bocian 2004 s. 7–11]. Porównanie wskaźników dostarczających informacji o rodzimym rynku kapitałowym w obu okresach obliczeniowych pozwala zauważyć wzrost kapitalizacji oraz liczby notowanych spółek przy
spadku wartości pozostałych zmiennych, mówiących o płynności. Niższe wartości
(obserwowane w drugim okresie obliczeniowym) zmiennych przyjętych do analizy
są typowym zjawiskiem w przypadku większości giełd. Kryzys finansowy, niewątpliwie, nadwątlił zaufanie inwestorów do rynków kapitałowych we wszystkich krajach. Jednak skala zmian, które zaszły na skutek kryzysu, nie była jednakową na
wszystkich giełdach. Giełdy w Atenach i w Wiedniu zanotowały zmniejszenie wartości wszystkich 5 zmiennych przyjętych do analizy, dzięki czemu warszawskiej
GPW udało się wyprzedzić te giełdy w rankingu.
3.2. Metoda porządkowania linowego
Alternatywna, taksonomiczna metoda porządkowania liniowego, używana w sytuacji gdy wiele cech dostarcza informacji o poziomie rozwoju rynku kapitałowego,
polega na przypisaniu wag wartościom, wcześniej podanych, zmiennych [Chudy,
Wierzbińska 2001 s. 12–16; Kowalczyk-Lizak 2001 s. 179]. Obliczone zostają współczynniki zmienności (ilorazy odchyleń standardowych i średnich wartości danych
zmiennych), a następnie przypisane poszczególnym zmiennym wagi według formuły
[Tarczyński 2002 s. 100]:
wj =
Vj
5
∑ Vj
,
(3)
j=1
gdzie:
wj – waga j-tej zmiennej (j=1,2,...,5),
Vj – współczynnik zmienności j-tej zmiennej.
Obliczono średnią arytmetyczną z wystandaryzowanych wartości zmiennych
[Pociecha, Podolec, Sokołowski 1988 s. 69]:
5
c i = ∑ z ij ⋅ w j (i=1,2,...,17; j=1,2,...,5).
j =1
(4)
Syntetyczny wskaźnik unormowano tak, aby przyjmował wartości od zera do
jednego [Ogólną metodę postępowania można znaleźć w pracy: Pociecha, Podolec,
Sokołowski 1988 s. 69]. Wskaźnik względnego poziomu rozwoju obliczono według
formuły:
123
Analiza porównawcza poziomu rozwoju europejskich giełd
c *i =
c i + c min
c max + c min
,
(5)
gdzie:
ci – średnia arytmetyczna i-tej giełdy ważona współczynnikami zmienności (i=1,2,...,17),
cmax, cmin – maksymalna i minimalna wartość średniej arytmetycznej.
Wartość „1” będzie miarą syntetyczną giełdy o najwyższym poziomie rozwoju,
„0” będzie cechowało giełdę najsłabiej rozwiniętą. Uznaje się, że im wyższa wartość
wskaźnika syntetycznego, tym dana giełda cechuje się wyższym poziomem rozwoju.
Wyniki analizy są przedstawione w tabeli 5.
TABELA 5.
Unormowany wskaźnik taksonomiczny oceny rozwoju europejskich giełd
Pierwszy okres obliczeniowy
Giełda
Drugi okres obliczeniowy
Unormowany wskaźnik
taksonomiczny
Miejsce
Unormowany wskaźnik
taksonomiczny
Miejsce
0,058
0,034
0,007
0,697
0,207
0,445
0,271
0,271
1,000
0,019
0,038
0,588
0,000
0,275
0,114
0,061
0,045
11.
14.
16.
2.
8.
4.
6.
7.
1.
15.
13.
3.
17.
5.
9.
10.
12.
0,055
0,021
0,008
0,737
0,103
0,520
0,286
0,264
1,000
0,020
0,081
0,694
0,000
0,299
0,115
0,074
0,044
12.
14.
16.
2.
9.
4.
6.
7.
1.
15.
10.
3.
17.
5.
8.
11.
13.
Ateny
Budapeszt
Cypr
Euronext
Dublin
Frankfurt
Zurych
Mediolan
Londyn
Lublana
Luksemburg
Madryt (BME)
Malta
OMX
Oslo
Warszawa
Wiedeń
Źródło: Opracowanie własne.
W przypadku wyników uzyskanych przy użyciu unormowanego wskaźnika taksonomicznego, kolejność pierwszych siedmiu giełd w pierwszym i drugim okresie
obliczeniowym jest identyczna. Miejscami: 8. i 9. zamieniają się giełdy w Oslo i Dublinie, a znaczny awans (z miejsca 13. na 10.) notuje giełda w Luksemburgu. Warszawska giełda, choć w rankingu spada o jedna pozycję, to odnotowuje wyższą wartość unormowanego wskaźnika. Giełdzie Papierów Wartościowych w Warszawie
w ciągu 2 lat udało się nieznacznie zmniejszyć dystans dzielący ją z najwyżej (według
rankingu) rozwiniętą europejską giełdą LSE. Wyniki uzyskane na podstawie unor-
124
Jacek Marcinkiewicz
mowanego wskaźnika taksonomicznego są potwierdzeniem wyników uzyskanych
metryką euklidesową.
4. Makroekonomiczna rola rynku kapitałowego
Z uwagi na źródła pochodzenia kapitału, przedsiębiorstwo może finansować
swoje działania własnymi funduszami lub środkami pochodzącymi z zewnątrz.
We współczesnej gospodarce finansowanie dużych przedsięwzięć gospodarczych
może się odbywać przy aktywnym udziale systemu bankowego (finansowanie zewnętrzne obce) lub przy pomocy publicznej emisji akcji (finansowanie zewnętrzne
własne). Te dwa sposoby umożliwiają sprawne przemieszczanie na masową skalę
kapitału od podmiotów dysponujących jego nadwyżkami do zgłaszających nań zapotrzebowanie instytucji [Por.: Proniewski, Niedźwiecki 2009 s. 82–85; Nawrot
2010 s. 43–45, s. 59–64]. W „systemie zorientowanym bankowo” pozyskanie kapitału odbywa się głównie przy pomocy kredytów bankowych. Znacząca rola alokacyjna
banków, przy ich awersji do ryzyka, sprzyja finansowaniu ustabilizowanych, „tradycyjnych” działalności gospodarczych. Z kolei, w „systemie rynkowym” pozyskiwanie
środków na prowadzenie działalności wymaga prawidłowo funkcjonującego rynku
papierów wartościowych. Podstawowym pośrednikiem w transferach finansowych
jest giełda papierów wartościowych, na której inwestorzy, dostarczający kapitał na
rynek, kierują się głównie wysoką dochodowością inwestycji. Aprobata wyższego
poziomu ryzyka stwarza dogodne warunki do finansowania nowoczesnych, pionierskich inwestycji [Rayan, Zingales 2002 s. 17].
O poziomie rozwoju rynku kapitałowego w danej gospodarce może świadczyć
rynkowa wartość przedsiębiorstw krajowych notowanych na giełdzie, wyrażona jako
procent Produktu Krajowego Brutto. Wskaźnik ten wyraża również stopień powiązania giełdy z gospodarką i może być postrzegany pod kątem reprezentatywności
wtórnego rynku kapitałowego dla całej gospodarki. Można przyjąć, że jest to najbardziej syntetyczna miara znaczenia giełdy papierów wartościowych w gospodarce kraju [Ciborowski 2005 s. 54; Kulpaka 2007 s. 154; Milo 2000 s. 111]. Informacje o kapitalizacji, PKB oraz stosunek tych wielkości podaje tabela 6. Spośród, analizowanych wcześniej, 17 giełd papierów wartościowych w analizie znaczenia rynku kapitałowego w gospodarce kraju pominięto trzy najbardziej odległe od wzorca giełdy
(Malta, Cypr, Lublana).
Z powodu przyjęcia do obliczeń wielkości PKB dla poszczególnych krajów za
rok 2007, również dane o kapitalizacji krajowych rynków akcji przyjęto z końca 2007
roku. Największą kapitalizacją w stosunku do PKB mogą się poszczycić giełdy: luksemburska i szwajcarska. W Wielkiej Brytanii finansowanie przedsięwzięć gospodarczych odbywa się w znacznej mierze za pośrednictwem rynku papierów wartościowych, również na giełdzie w Madrycie oraz giełdach: Euronext i OMX dominował
system „anglo-amerykański”, a kapitalizacja rynku akcji była większa od PKB w roku 2007.
Ze zdecydowanie większą rolą systemu bankowego w finansowaniu przedsięwzięć gospodarczych mamy do czynienia w gospodarce: niemieckiej, włoskiej,
irlandzkiej czy austriackiej. Kapitalizacja rodzimych spółek, notowanych na tych rynkach
125
Analiza porównawcza poziomu rozwoju europejskich giełd
akcji w roku 2007, nie przekroczyła 70% wypracowanego PKB. Dowodzi to mniejszej roli spełnianej przez giełdy papierów wartościowych w przepływie środków finansowych. System taki zwany jest „kontynentalnym” z uwagi na położenie geograficzne tych państw. Należy dodać, że różnice w finansowaniu projektów gospodarczych pomiędzy krajami zmniejszają się. Często spotyka się zasilenie finansowe dużych przedsięwzięć zarówno przy pomocy kredytu, jak i przy wykorzystaniu mechanizmu giełdowego.
TABELA 6.
Kapitalizacja rynku papierów wartościowych w stosunku do PKB
Giełda
Ateny
Budapeszt
Euronext
Dublin
Frankfurt
Zurych
Mediolan
Londyn
Luksemburg
Madryt
OMX
Oslo
Warszawa
Wiedeń
Kapitalizacja
(w mld USD na koniec roku 2007)
PKB
(w mld USD
w roku 2007)
265,0
46,2
4 222,7
143,9
2 105,2
1 271,0
1 072,5
3 851,7
166,1
1 799,8
1 242,6
353,4
211,6
236,4
312,3
138,4
4 047,53
260,9
3 316,1
426,7
2 101,6
2 764,4
49,5
1 437,9
1 157,94
388,4
421,9
370,7
Wartość notowanych
spółek wyrażona jako
procent PKB
84,8
33,4
104,3
55,2
63,5
297,9
51,0
139,3
335,5
125,2
107,3
91,0
50,2
63,8
Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu:
WWW.warld-exchanges.org, daty wejścia: 12.11.2008, 15.05.2010].
Najmniejsze wartości analizowanego wskaźnika są obserwowane w krajach, które
przeszły transformację systemową. Porównanie roli giełd w gospodarkach: polskiej
i węgierskiej wypada na korzyść GPW w Warszawie. Kwota kapitalizacji rynku akcji
na parkiecie warszawskim stanowiła w roku 2007 połowę PKB wytworzonego przez
polską gospodarkę. Pozwala to na wyciągnięcie wniosku, iż finansowanie przedsięwzięć gospodarczych w Polsce w niewielkim stopniu opiera się na kapitale zgromadzonym na rynku udziałowych papierów wartościowych. Większa jest rola systemu
bankowego w przepływnie środków finansowych, od podmiotów gospodarczych
dysponujących wolnymi środkami do podmiotów zgłaszających na nie zapotrzebowanie. Ukształtowany w Polsce po II wojnie światowej system, w którym nie działała giełda papierów wartościowych, a pierwszoplanową rolą w procesie cyrkulacji
3
4
Przyjęto sumę PKB: Francji, Holandii, Belgii i Portugalii.
Przyjęto sumę PKB: Szwecji, Danii, Finlandii, Islandii, Łotwy, Estonii, Armenii i Litwy.
126
Jacek Marcinkiewicz
kapitału odgrywał system bankowy, niewątpliwie, wpłynął na przyzwyczajenia
uczestników rynku kapitałowego. Z powodu krótkiego, niespełna 20-letniego, okresu funkcjonowania w Polsce gospodarki rynkowej możemy uważać polski rynek papierów wartościowych za rynek ciągle się rozwijający. Należy wspomnieć w tym
miejscu, że dla architektów polskiego rynku kapitałowego wzorem była, wchodząca
obecnie w skład sojuszu Euronext, giełda francuska, pełniąca ważną rolę w transformacji kapitału w gospodarce Francji. O rosnącej roli giełdy w zasileniu przedsiębiorstw w kapitał świadczy również stały (nie licząc wahań spowodowanych panującą na rynku akcji hossą lub bessą) wzrost relacji kapitalizacji do PKB [Kulpaka 2007
s. 155]. W roku 1998 wielkość analizowanego wskaźnika przekroczyła 20%. Taka
wartość jest uważana za minimalny próg, po przekroczeniu którego można mówić
o poważnej roli makroekonomicznej spełnianej przez giełdę w gospodarce [Projekcja
rozwoju rynku kapitałowego do roku 2002 1998 s. 3]. Choć w roku 2008 kapitalizacja
rynku akcji spółek krajowych znacznie zmalała na skutek kryzysu światowego,
udział kapitalizacji w PKB na koniec roku był znacznie wyższy od 20%.
Należy zwrócić uwagę, że największe banki działające Polsce są spółkami notowanymi na warszawskim parkiecie. Sektor ten należy do największych pod względem kapitalizacji oraz wielkości obrotów. Sektor bankowy pozyskuje środki finansowe przy pomocy emisji akcji na Giełdzie Papierów Wartościowych w celu użycia
ich do działalności kredytowej. Owa działalność, w skali makroekonomicznej, powoduje wzrost roli systemu bankowego, jednocześnie przyczyniając się do osłabienia alokacyjnej roli giełdy. Powstałe w ten sposób „sprzężenie zwrotne” może przyczyniać się do niejednoznaczności oceny roli GPW w pozyskiwaniu środków przez
sektor bankowy.
5. Podsumowanie
Rynek kapitałowy jest integralną częścią gospodarki rynkowej. Spełnia ważną rolę w koncentracji kapitału, dzięki agregowaniu popytu i podaży papierów wartościowych. W skali makroekonomicznej przyczynia się do zwiększania efektywności całej
gospodarki, w wyniku mobilizacji i transformacji rozproszonego kapitału oraz oceny
jego wartości. Z kolei, w skali mikroekonomicznej giełda papierów wartościowych
stanowi źródło środków finansowych możliwych do pozyskania przez przedsiębiorstwo, wpływając w ten sposób na jego funkcjonowanie na rynku. Jest również alternatywą dla posiadaczy wolnych środków finansowych, choć oferowany przez giełdę
zysk nie jest pozbawiony ryzyka. Giełda papierów wartościowych jest uważana za
„barometr” informujący o sytuacji gospodarczej, dlatego jest ważny poziom rozwoju
giełdy papierów wartościowych.
Przedstawione zestawiania pokazują, że warszawska GPW jest najlepiej rozwiniętą z giełd Europy Środkowej. Samo pojawienie się „młodej”, dwudziestoletniej giełdy z Warszawy, w tych notowaniach, należy uznać za sukces. Choć dystans dzielący
warszawską giełdę od najlepiej rozwiniętych giełd europejskich jest znaczny, to za
zadowalające należy uznać jego zmniejszenie w ciągu 2 lat objętych analizą. Przewidywanie kierunków ewolucji polskiego rynku kapitałowego jest trudnym procesem,
w którym pomocna może się okazać analiza sytuacji panującej zarówno na rynku
kapitałowym, jak i w całej gospodarce. Na podstawie analizy porównawczej makro-
Analiza porównawcza poziomu rozwoju europejskich giełd
127
ekonomicznej roli giełd europejskich można wyciągnąć wniosek, że proces tworzenia z Giełdy Papierów Wartościowych centralnej instytucji rozwiniętego rynku kapitałowego nie został jeszcze zakończony. Przyszłość warszawskiej giełdy w znacznym stopniu zależy od sytuacji gospodarczej.
Bezspornym problemem polskiego rynku kapitałowego jest bariera płynności.
Zbyt niski popyt na udziałowe papiery wartościowe, notowane na regulowanym
rynku wtórnym, znacznie ogranicza możliwości pozyskiwania kapitałów na rynku
pierwotnym. Analiza porównawcza europejskich giełd pozwala na wyciągnięcie
wniosku, że to właśnie płynność jest „piętą achillesową” giełdy w Warszawie. Przyczyny niskiej wartości obrotów można upatrywać w wysokich kosztach transakcji
zawieranych na Giełdzie Papierów Wartościowych w Warszawie oraz w, kształtowanych latami wśród gospodarstw domowych, wzorcach gromadzenia i lokowania
wolnych środków finansowych.
Literatura
Adamska L. 2003 Procesy konsolidacji giełd w Europie z perspektywy Giełdy Papierów Wartościowych w Warszawie, „Bank i Kredyt”, nr 5.
Banaszak-Soroka U. 2008, Instytucje i uczestnicy rynku kapitałowego, Warszawa.
Bocian A.F. 2004 Globalizacja – rozwój regionalny. Dążenie do określenia relacji, [w:] A.F. Bocian
(red.), Rozwój regionalny a procesy globalizacji, Białystok.
Chudy K., Wierzbińska M. 2001 Próba wykorzystania metod taksonomicznych w analizie rynku
kapitałowego w Polsce, [w:] M. Król (red.), Analiza i perspektywy rozwoju polskiego rynku
kapitałowego, Rzeszów.
Ciborowski R. 2005 Innowacyjność w warunkach neoliberalnej polityki ekonomicznej, [w:]
A.F. Bocian (red.), Ekonomia, polityka, etyka, Białystok.
Kowalczyk-Lizak P. 2002 Ocena działalności lokacyjnej i klasyfikacja zakładów ubezpieczeń,
[w:] K. Jajuga, M. Walesiak (red.), Taksonomia 9 – Klasyfikacja i analiza danych – Teoria
i zastosowania, Wrocław.
Kulpaka P. 2007 Giełdy w gospodarce, Warszawa.
Milo W. 2000 Finansowe rynki kapitałowe, Warszawa.
„Nasz Rynek Kapitałowy” 2000, nr 11.
Nawrot W. 2008 Rynek kapitałowy i jego rozwój, Warszawa.
Nowak E. 1990 Metody taksonomiczne w klasyfikacji obiektów społeczno-gospodarczych, Warszawa.
Pociecha J., Podolec B., Sokołowski A., Zając K. 1988 Metody taksonomiczne w badaniach
społeczno-ekonomicznych, Warszawa.
Projekcja rozwoju rynku kapitałowego do roku 2002 1998, E. Pietrzak (red.), Gdańsk.
Proniewski M., Niedźwiecki A. 2009 Giełda Papierów Wartościowych w Warszawie – ujęcie retrospektywne, Białystok.
Rayan R., Zingales L. 2002 The Transformation of The European Financial System. Banks and
Markets. The Changing Character of European Finance, Frankfurt.
Tarczyński W. 2002 Fundamentalny portfel papierów wartościowych, Warszawa.
Dokument elektroniczny, tryb dostępu: [www.warld-exchanges.org, daty wejścia: 12.11.2008,
15.05.2010].
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Elżbieta SZYMAŃSKA1
KORZYŚCI I KOSZTY WSPÓŁPRACY MIĘDZYSEKTOROWEJ
DLA PRZEDSIĘBIORSTW
Streszczenie
Bezpośrednim impulsem do podjęcia badań nad współpracą międzysektorową jest potrzeba dokonania analizy korzyści i kosztów, jakie płyną ze współpracy między organizacjami pozarządowymi
a przedsiębiorstwami. Celem niniejszej publikacji jest próba zdiagnozowania tychże korzyści i kosztów.
Artykuł składa się z czterech części oraz wstępu i wniosków. W części pierwszej przedstawiono
formy współpracy międzysektorowej przedsiębiorstw oraz podjęto próbę klasyfikacji instytucji otoczenia biznesu, które wspierają rozwój tego sektora. Część drugą poświęcono prezentacji organizacji pozarządowych w Polsce. W części trzeciej omówiono współpracę międzysektorową przedsiębiorstw z organizacjami pozarządowymi, zaś część czwartą poświecono dociekaniom na temat korzyści, jakie płyną
dla przedsiębiorstw ze współpracy międzysektorowej z branżowymi organizacjami pozarządowymi.
Dwa początkowe rozdziały opracowania oparto na studiach literaturowych, natomiast dwa końcowe –
na przeprowadzonych badaniach własnych. Podsumowanie stanowią wnioski z przeprowadzonych badań.
Do realizacji celu wykorzystano metodę ankietową, gdzie badania przeprowadzono na dwóch grupach przedsiębiorstw w Polsce (grupie 100 małych i średnich przedsiębiorstw o zróżnicowanym profilu
działalności i grupie 215 przedsiębiorstw turystycznych) oraz 10 organizacjach pozarządowych skupiających przedsiębiorców.
Wnioski, jakie wykazano po analizie przeprowadzonych badań, utwierdzają w przekonaniu,
że współpraca międzysektorowa przynosi przedsiębiorstwom wiele różnorakich korzyści, gdyż wśród
badanych przedsiębiorców jedynie dwóch wskazało na szkody płynące z członkostwa w organizacjach
pozarządowych, pozostali zaś, w znacznej większości, ocenili pozytywnie działalność organizacji pozarządowych na rzecz przedsiębiorstw.
Słowa kluczowe: organizacja pozarządowa, przedsiębiorstwo, współpraca międzysektorowa
ADVANTAGES AND COSTS OF INTERSECTORAL COOPERATION
FOR ENTERPRISES
Summary
A direct impulse to undertake research on intersectoral cooperation is the need to do an analysis of
benefits and costs that emerge from the cooperation between non-governmental organizations and enterprises. This paper is aimed at making an attempt to diagnose those benefits and costs.
The article consists of four parts, an introduction and conlusions. In part 1 the author presents
forms of the intersectoral cooperation of enterprises and makes an attempt to classify the institutions
of business environment that enhance the development of this sector. Part 2 provides presentation of
1 Dr Elżbieta Szymańska – Politechnika Białostocka, Wydział Zarządzania, Katedra Turystyki
i Rekreacji.
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
129
non-governmental organizations in Poland. In part 3 the author discusses the intersectoral cooperation
between enterprises and non-govermental organizations, whereas part 4 is devoted to inquiries into the
benefits of intersectoral cooperation between enterprises and non-governmental business organizations. The first two chapters of this paper are based on data from specialist literature, whereas the two
final chapters are based on own research. The summary includes conclusions from the research.
To realise the objective, the author applied the questionnaire survey method where two groups of
enterprises in Poland were tested (one group of 100 small and medium-sized enterprises representing
different lines of business and a group of 215 tourist enterprises) and 10 non-governmental organizations open to entrepreneurs.
Conclusions that emerge from the research confirm us in our belief that the intersectoral cooperation is very profitable since only two out of the entire number of tested enterprises had pointed out
that being member of a non-governmental organization brings harm to a company while a large proportion of entrepreneurs had assessed the activities of non-gevernmental organizations in favour of enterprises as positive.
Keywords: non-governmental organization, enterprise, intersectoral cooperation
1. Wstęp
Zjawisko współdziałania między różnymi sektorami jest coraz częściej spotykane
w gospodarce światowej, a szczególnie w Unii Europejskiej, czemu sprzyja polityka
integracyjna. J. Wilkin wyróżnia sektor: publiczny i prywatny, które należy odróżnić
od sfer: publicznej i prywatnej, stanowiących pojęcia szersze, niż określenie „sektor”
[Wilkin 2008]. Można tu mówić o trzech głównych sektorach: sektorze publicznym2,
sektorze prywatnym3 i sektorze pozarządowym, które tworzą różne organizacje,
zwane też grupami nacisku4. Każdy z, wymienionych, sektorów podlega ewolucji
pod wpływem zmian: ekonomicznych, technicznych, politycznych i społecznych
[Kleer 2008] oraz w związku z powstawaniem relacji zachodzących pomiędzy oraz
w ramach poszczególnych sektorów5. Niestety, jak wynika z badań GUS [Dokument
elektroniczny, tryb dostępu: www.stat.gov.pl], zjawisko współdziałania nie jest jeszcze powszechne wśród polskich przedsiębiorstw. Jest to poważny problem, który
autorka objęła badaniami w odniesieniu do grupy polskich przedsiębiorstw i zakresu
ich współpracy z innymi podmiotami, głównie branżowymi organizacjami pozarzą2 Zdefiniowanie określenia „sektor publiczny” napotyka na pewne trudności, na co wskazują między innymi R. Przygodzka w swojej publikacji. Zob. [Przygodzka 2008 s. 156–157; Wiatrak 2005].
3 Kategoria „sektor prywatny” jest pojęciem złożonym i według J. Kleera dzieli się na dwie podstawowe grupy: przedsiębiorstwa prywatne i gospodarstwa domowe. W niniejszej publikacji będziemy
się odwoływać jedynie do pierwszej podgrupy, czyli do przedsiębiorstw prywatnych. Porównaj: [J. Kleer
2008 s. 32].
4 Organizacje te mogą mieć charakter formalny, bądź nieformalny; w literaturze przedmiotu można
napotkać wiele różnych definicji i klasyfikacji w odniesieniu do tego sektora, w niniejszej publikacji są
brane pod uwagę jedynie organizacje formalne, mające osobowość prawną. Porównaj między innymi:
[Michałowska, Gorywoda 2002 s. 298–326; Bez zysków i strat. Sztuka kierowania organizacjami sektora
pozarządowego 2002 s.197; Anheier, Seibel 1993 s.1].
5 Przy czym, należy zgodzić się z opinią, że wzrost udziału wydatków własnych przedsiębiorstw,
przy równoczesnym ograniczaniu roli państwa w gospodarce, prowadzi do wyższej efektywności gospodarczej. Porównaj: [Ciborowski 2004 s. 64].
130
Elżbieta Szymańska
dowymi. Konieczność rozwoju struktur demokratycznych, jaką wymusił na naszym
kraju proces przedakcesyjny, sprzyjała także stabilizacji i porządkowaniu prawodawstwa w tym zakresie. Stąd w polskim ustawodawstwie pojawiło się pojęcie organizacji pożytku publicznego oraz statusu wolontariatu [Ustawa z dnia 24 kwietnia
2003 r. o działalności pożytku...]. Powstała również ustawa o lobbingu [Ustawa
z dnia 7 lipca 2005 r. o działalności lobbingowej...], która ma porządkować delikatną
kwestię wywierania przez środowisko przedsiębiorców legalnego i oficjalnego nacisku na twórców prawa, z korzyścią dla obu stron oraz dla wzrostu gospodarczego,
a tym samym dla całego społeczeństwa.
Celem niniejszej publikacji jest próba zdiagnozowania korzyści i kosztów, jakie
płyną ze współpracy międzysektorowej między organizacjami pozarządowymi
a przedsiębiorstwami. Podjęto także próbę odpowiedzi na pytanie o rolę organizacji
pozarządowych w rozwoju przedsiębiorstw.
Publikacja składa się z czterech części oraz wstępu i wniosków. W części pierwszej przedstawiono formy współpracy międzysektorowej przedsiębiorstw oraz podjęto próbę klasyfikacji instytucji otoczenia biznesu, które wspierają rozwój tego sektora. Część drugą poświęcono prezentacji organizacji pozarządowych w Polsce.
W części trzeciej omówiono współpracę międzysektorową przedsiębiorstw z organizacjami pozarządowymi, zaś część czwartą poświęcono dociekaniom na temat korzyści, jakie czerpią przedsiębiorstwa ze współpracy międzysektorowej w ramach
współpracy z organizacjami pozarządowymi. Dwie pierwsze części opracowania
oparto na studiach literaturowych, podczas gdy dwie końcowe – na badaniach własnych. Podsumowanie stanowią wnioski z przeprowadzonych badań.
W publikacji wykorzystano metodę analizy literaturowej oraz metodę ankietową.
Należy tu zaznaczyć, że w omawianym zakresie wykorzystano różne wyniki badań
prowadzonych przez autorkę w omawianym obszarze, gdzie w próbie badawczej
znalazły się zarówno przedsiębiorstwa (dwie tury, gdzie w turze I wzięło udział 100
przedsiębiorstw, zaś w turze II uczestniczyło 215 przedsiębiorstw), jak i organizacje
pozarządowe wspierające przedsiębiorczość w Polsce (10 podmiotów).
Wyniki badań mogą stanowić pewną wskazówkę praktyczną zarówno dla przedsiębiorców, jak i przedstawicieli organizacji pozarządowych, a także winny się stać
przyczynkiem do dalszych dociekań badawczych w omawianym temacie.
2. Współpraca międzysektorowa przedsiębiorstw
Kooperacja przedsiębiorstw na każdej płaszczyźnie sprzyja podnoszeniu ich
konkurencyjności na dwa sposoby [Innowacje...2005 s.109]:
–
prowadzi do podziału pracy, czyli do specjalizacji;
–
może być kanałem transferu wiedzy, przyczyniając się w ten sposób do redukcji kosztów transakcji przez ograniczenie niepewności i wzrostu zaufania, szczególnie w przypadku związków systematycznych i długofalowych.
Kooperacja może mieć charakter pionowy (dostawca – przedsiębiorca – użytkownik) lub poziomy (między konkurującymi firmami), zaś te drugie, zdaniem D. B.
Audretsch i M. P. Feldmana [Audretsch 1996; Feldman 1996], są bardziej istotne.
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
131
Do tych dwóch, podstawowych schematów należałoby dodać system mieszany
(wertykalno-horyzontalny), czyli taki, w którym stykają się i współpracują ze sobą
różne jednostki. Przykładem takiego systemu mogą być organizacje pozarządowe,
zrzeszające różne podmioty, czy klastry będące formą sformalizowanej współpracy
instytucji użyteczności publicznej, przedsiębiorstw i jednostek samorządu gospodarczego.
Mówiąc o współpracy przedsiębiorstw z organizacjami pozarządowymi, autorka
wskazuje na dwie jej formy, a mianowicie: współpracę w ramach członkostwa oraz
współpracę przedsiębiorstw z organizacjami pozarządowymi bez bezpośredniego
udziału w ich strukturach. Przy czym, należy zaznaczyć, że członkostwo świadczy
o ścisłym powiązaniu podmiotu gospodarczego z daną organizacją, podczas gdy, nie
będąc członkiem organizacji pozarządowej, przedsiębiorcy mogą korzystać z niektórych form pomocy przez nie oferowanych. W odniesieniu do omawianej problematyki, autorka obie formy określa mianem współpracy, przy czym, dodatkowo, zostały wyodrębnione przedsiębiorstwa będące członkami organizacji pozarządowych.
Należy zauważyć, że znacznie szersze od członkostwa pojęcie współpracy przedsiębiorstw może przybierać różne formy, co przedstawiono w tabeli 1.
TABELA 1.
Instytucjonalne formy współpracy międzysektorowej przedsiębiorstw
Rodzaj instytucji
Ośrodki
przekazu
informacji
Parki naukowo-technologiczne
Centra
transferu
technologii
Przykłady instytucji
Główne cele
IRC East Poland, IRC South
Promocja innowacyjności i wymiany
Poland, IRC West Poland, IRC technologicznej między organizacjami
Central Poland
i regionami w Europie poprzez:
doradztwo, konsulting, szkolenia
Międzynarodowe Stowarzysze- Dokonywanie przepływu wiedzy
nie Parków Naukowych,
i technologii pomiędzy jednostkami
Konsorcjum Parków Nauko- naukowymi a przedsiębiorcami, powo-Technologicznych
przez doradztwo w zakresie innowaw Polsce, regionalne parki
cyjności i tworzenie korzystnych wanaukowo-techniczne, np.:
runków prowadzenia działalności goKrakowski Park Technolospodarczej przez preferencyjne korzygiczny, Technopark Gliwice
stanie z nieruchomości i infrastruktury
technicznej
Rada Federacji Stowarzyszeń
Inspirowanie współpracy nauki
Naukowo-Technicznych NOT, i przemysłu oraz pomoc przedsiębiorWschodni Ośrodek Transferu stwom w uzyskaniu technologii poTechnologii na Uniwersytecie przez: doradztwo, poszukiwanie partw Białymstoku, Centrum
nerów, promocję, pomoc w zakresie
Innowacji i Transferu Techno- certyfikacji i w dostępie do funduszy,
logii na Politechnice Białostoc- szkolenia
kiej
132
Rodzaj instytucji
Klastry
Elżbieta Szymańska
Przykłady instytucji
Główne cele
Wspólne Inicjatywy Technologiczne (Joint Technology Initiatives), Północno-Wschodni Innowacyjny Klaster Turystyczny
„Kryształ Europy”
Klaster składa się z grupy firm i/lub
usług publicznych i prywatnych jednostek, które w jakiś sposób zależą od
siebie, włączając w to: dostawców,
konsultantów, banki, prawników, jednostki prowadzące szkolenia, system
edukacji i nauczania, związki biznesu
i profesjonalistów czy agencje rządowe
Inkubatory
Asysta w tworzeniu oraz pomoc
Stowarzyszenie Inkubatorów
technologiczne
w pierwszym okresie działania małej
Przedsiębiorczości
(inkubatory
technologicznej firmy poprzez:
przedsiębiorczości)
szkolenia i doradztwo, preferencyjne
stawki czynszu, dostęp do infrastruktury technicznej i biznesowej
Partnerstwo
PPP, zwane Wspólnymi Inicja- Długoterminowe partnerstwa publiczPublicznotywami Technologicznymi (Jo- no-prywatne (PPP)
-prywatne
int Technology Initiatives)
Organizacje
Izby gospodarcze, izby rzeLobbing na rzecz przedsiębiorczości,
pozarządowe
mieślnicze, stowarzyszenia pra- wspieranie rozwoju firmy poprzez:
codawców, fundacje nastawio- pomoc w nawiązywaniu kontaktów
ne na wspieranie przedsiębior- biznesowych, poszukiwanie partnerów,
czości
wywiad gospodarczy, wspólny marketing, konferencje, szkolenia, doradztwo
Regionalne
Organizacje pozarządowe na- Pomoc w zakładaniu małej lub średInstytucje
leżące do systemu nadzorowa- niej firmy i wprowadzaniu innowacji
Finansujące
nego przez PARP
poprzez: doradztwo, fundusze
(RIF)
pożyczkowe, realizację projektów
unijnych, przyjmowanie wniosków
o dotacje na poziomie regionalnym
Źródło: Opracowanie własne na podstawie: [Kats 1997 s. 525–529; Ciborowski 2004 s. 221,
s. 223–224; Analiza stanu i kierunków rozwoju parków naukowo-technologicznych, inkubatorów
technologicznych, centrów transferu technologii w Polsce. Raport końcowy z badań 2004; Ośrodki
innowacji w Polsce 2005; Plawgo 2006; Dokument elektroniczny, tryb dostępu: www.mg.gov.pl;
www.parp.gov.pl, data wejścia: 12.02.2010; Dokument elektroniczny, tryb dostępu:
www.ec.europa.eu; www.innowacyjność.pl], data wejścia: 15.12.2009.
Przedstawione instytucje mogą skupiać przedsiębiorstwa z różnych branż, jednostki samorządu terytorialnego i inne instytucje, a ich głównym celem jest wspieranie rozwoju gospodarczego regionów i całego kraju.
Szczególne miejsce wśród form współpracy mogą odgrywać sieci innowacyjne,
zwane też „klastrami”. Klaster prowadzi do stworzenia szans i okazji dla słabo rozwiniętych regionów do akceleracji zmian, głównie technologicznych [Innowacje...
2005 s. 103]. Struktury klastrowe są szansą dla rozwoju gospodarczego firm i regionów, co widać w krajach Europy Zachodniej, gdzie stają się one podstawowym źródłem ewolucji wzrostu i zamożności lokalnych społeczności. Firmy z branży są wy-
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
133
soce skoncentrowane, co powoduje, że wykazują wyższą konkurencyjność, ale także
wspólnie promują region. Włączenie się do klastra nie wiąże się z poważnymi zobowiązaniami. Klaster nie buduje bowiem wspólnego kapitału ani nie utrzymuje rozbudowanych struktur. Natomiast uczestniczenie w przedsięwzięciach jest dobrowolne i wiąże się z takim zakresem odpowiedzialności i takim udziałem w dochodach,
jaki wynika z zaangażowania poszczególnych podmiotów. Jedyną strukturą właściwą
dla całego klastra może być wspólne „centrum rozliczeniowe”.
Komisja Europejska proponuje ustanawianie długoterminowych partnerstw publiczno-prywatnych [www.ec.europa.eu.; Gasz 2008 s. 250–261], które mogą okazać
się dla Polski potencjalnie optymalnym instrumentem, gdyż stałym problemem jest
brak wolnych państwowych środków finansowych na modernizację gospodarki. PPP,
zdaniem A.H. Jasińskiego [Jasiński 2007 s. 19], stwarza możliwość realizacji różnorodnych prorozwojowych inwestycji, tym bardziej że obowiązuje już ustawa o partnerstwie publiczno-prawnym. Jednakże klastry i inne formy PPP są instytucjami dotychczas rzadko stosowanymi w Polsce i innych krajach Europy Środkowo-Wschodniej.
Organizacje pozarządowe, skupiające przedsiębiorców, wpisały się na trwałe
w rzeczywistość gospodarczą naszego kraju. Szczególny ich rozkwit przypada na początkowy okres przemian ustrojowych, czyli na początek lat 90. zeszłego stulecia.
Badania zdają się potwierdzać ich znaczący wpływ na działalność gospodarczą, co
zostanie przedstawione w kolejnej części artykułu.
3. Organizacje pozarządowe w Polsce – zadania i struktura
Artykuł 58 Konstytucji Rzeczypospolitej Polskiej zapewnia każdemu „wolność zrzeszania się”, a w Artykule 12 zapewnia się wszystkim obywatelom: wolność tworzenia
i działania związków zawodowych, organizacji społeczno-zawodowych rolników, stowarzyszeń, ruchów obywatelskich, innych dobrowolnych zrzeszeń oraz fundacji.
Organizacją pozarządową (NGO od non-governmental organization) jest, nie będąca jednostką sektora finansów publicznych, w rozumieniu przepisów o finansach
publicznych, i nie działająca w celu osiągnięcia zysku, osoba prawna lub jednostka
nie posiadająca osobowości prawnej utworzona na podstawie przepisów ustaw,
w tym fundacja i stowarzyszenie [Art. 3, ust. 2 Ustawy z dnia 24 kwietnia 2003 r.
o działalności pożytku... 2003]. Zgodnie z innym określeniem, organizacje pozarządowe to ogół prywatnych organizacji, działających społecznie i nie dla zysku [Dokument elektroniczny, tryb dostępu; http://osektorze.ngo.pl].
Organizacje pozarządowe koncentrują się zazwyczaj na realizacji „celów wyższych”, zaspokajaniu potrzeb społecznych w krajach demokratycznych, przy czym
jest znamienne, że im bardziej ugruntowane są wartości demokratyczne w danym
kraju, oraz im wyższy jest poziom życia jego mieszkańców, tym większa jest aktywność społeczna i ilość organizacji pozarządowych [Dokument elektroniczny, tryb
dostępu: http://osektorze.ngo.pl].
Organizacje pozarządowe często są najbardziej aktywnym rzecznikiem interesów
przedsiębiorców. Różny jest status prawny i sytuacja finansowa tych instytucji.
Na obszarze rozwiniętych krajów Unii Europejskiej są to: organizacje członkowskie,
agencje, izby przemysłowo-handlowe, stowarzyszenia, spółki akcyjne czy związki
134
Elżbieta Szymańska
przedsiębiorców. Mogą to być fundacje lub inne instytucje specjalizujące się we
wspieraniu inicjatyw na rzecz rozwoju lokalnego i regionalnego, w których przedsiębiorczość odgrywa dużą rolę, ze względu na walkę z bezrobociem, działaniami na
rzecz kobiet, edukacją i ochroną środowiska [Janiuk 2004 s. 50].
Polskie ustawodawstwo dotyczące NGO jest nieco rozproszone i cały czas modyfikowane. Pomimo że sektor pozarządowy obejmuje swym zasięgiem tak szerokie
obszary, przenikając zarówno politykę, jak i gospodarkę, przez wiele lat strefa
ta działała bez precyzyjnego ustawodawstwa, lub wręcz w zupełnej luce prawnej.
Rekonstrukcja systemu gospodarczego w Polsce po 1989 roku była trudnym zadaniem. Musiała być prowadzona w bardzo szybkim tempie, z wykorzystaniem wielu
zastanych elementów. Podobną strategię przyjęto w stosunku do tworzących się organizacji biznesu. Ożywiono te struktury, które pozostawały wprawdzie przez dziesiątki lat pod kontrolą państwa, tym niemniej pretendowały do reprezentacji interesów drobnych przedsiębiorców prywatnych. Do takich enklaw można zaliczyć
związki rzemiosła, z których wystarczyło zdjąć kuratelę państwa, by zaczęły pełnić
rolę organizacji dobrowolnych, zorientowanych na wspieranie zbiorowych interesów
swoich członków. Umożliwiła to Ustawa o rzemiośle z 22 marca 1989.
Zmiany zmierzające do przekształcenia izb gospodarczych wprowadzono Ustawą o izbach gospodarczych z 30 lipca 1992. W krótkim czasie dało to pozytywny efekt
uaktywnienia się dotychczasowych członków izb gospodarczych oraz wzrostu ich
aspiracji do bycia obligatoryjną strukturą samorządową.
Pewną próbą uporządkowania działalności organizacji pozarządowych, których
głównym celem jest wspieranie rozwoju przedsiębiorczości była Ustawa o organizacjach pracodawców z 23 maja 1991, wzorowana na rozwiązaniu niemieckim, zakładająca jednak pełną dobrowolność członkostwa [Społeczne... 1999 s. 28]. W myśl intencji ustawodawcy każdy pracodawca ma prawo założyć wraz z innymi pracodawcami związek, którego funkcje definiowano poprzez odniesienie do szeroko rozumianych stosunków pracy. Ustawa ta wypełniła pewną lukę prawną, trafiając na podatny grunt społeczny i dała podstawę do zakładania licznych lokalnych i branżowych związków pracodawców. Sejm uchwalił ustawę o organizacjach pracodawców,
nadając im teoretycznie szerokie kompetencje w dziedzinie prowadzenia negocjacji
o układy zbiorowe pracy. Koncesjonowano udział wybranej organizacji pracodawców w Komisji Trójstronnej, typowego ciała korporacyjnego. Zmierzano do powołania obligatoryjnych struktur samorządowych w biznesie. W efekcie kilkuletnich
prac nie doszło do uchwalenia ustawy o samorządzie gospodarczym, a ustawodawca
poprzestał na aktach prawnych dających przedsiębiorcy możliwość wyboru przynależności do jednej lub kilku spośród istniejących izb, związków i stowarzyszeń bez
konieczności przystępowania do jakiejkolwiek organizacji.
Prawo o stowarzyszeniach [Ustawa z dnia 7 kwietnia 1989 r. ... 2007] także stanowi podstawę powoływania społecznych organizacji biznesu [Społeczne...1999
s. 28]. Prawo to daje otwartą przestrzeń dla legalizacji wszystkich takich działań biznesu, które nie mieszczą się w formułach bardziej wyspecjalizowanych.
W praktyce działają obok siebie organizacje pozarządowe o bardzo zróżnicowanej
strukturze organizacyjnej. Obok klubów osiedlowych, grup wsparcia, czy parafialnych
zespołów charytatywnych, funkcjonują inne organizacje pozarządowe, takie jak:
–
stowarzyszenia i związki,
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
–
–
135
fundacje,
federacje czy luźno skonfederowane porozumienia organizacji.
Na końcu listy pojawiają się organizacje o ściśle określonej strukturze, powoływane oddzielnymi aktami prawnymi. Do grupy tej należą m.in. komitety społeczne
[Ustawa z dn. 15.03.1933], związki zawodowe [Ustawa z dn. 8.10.1982 z późniejszymi zmianami] czy też organizacje samorządów różnych grup zawodowych [Izby
Gospodarcze – Ustawa z dn. 30.05.1989; Izby Lekarskie – Ustawa z dn. 17.05.1989;
Cechy i Izby Rzemieślnicze – Ustawa z dn. 22.03.1989].
We wrześniu 2008 roku w bazie danych, zarządzanej przez organizację Klon Jawor, znalazło się 142027 różnych organizacji pozarządowych [Dokument elektroniczny, tryb dostępu: www.ngo.pl, data wejścia: 26.09.2008]. Z danych Głównego
Urzędu Statystycznego wynika, że na koniec roku 2007 w Polsce działało 91976 organizacji, które prowadziły działalność jako pozostałe organizacje członkowskie,
gdzie indziej niesklasyfikowane6. Zakłada się, że ponad połowa spośród założonych
organizacji działa aktywnie, podobna liczba nie zatrudnia żadnego stałego personelu
i w prace połowy organizacji są zaangażowani wolontariusze, których liczbę szacuje
się na ok. 1,6 miliona osób [Raport...2002 s. 3]. Najwięcej stowarzyszeń i fundacji
w Polsce jako pole działania wybrało sport (59,3%), w drugiej kolejności organizacje
pozarządowe zajmują się problematyką oświaty i edukacji (48,2%), a także ochroną
zdrowia, rehabilitacją i pomocą niepełnosprawnym (32,6%) oraz kulturą i sztuką
(27,4%), [Raport...2002 s. 3].
We współczesnych systemach demokracji organizacje pozarządowe, które można
zaliczyć do tzw. grup interesu, mogą stanowić ważny czynnik budowy i rozwoju
społeczeństwa obywatelskiego. W tym właśnie kontekście wskazuje się na cztery
podstawowe funkcje grup interesu [Gospodarka...2006 s. 15]:
–
reprezentowanie pluralistycznych interesów różnych grup społecznych;
–
edukowanie organów państwa oraz społeczeństwa, informowanie opinii
publicznej o zagrożeniach i istotnych kwestiach wymagających rozwiązań
systemowych;
–
partycypowanie obywateli w procesie podejmowania decyzji przez wywieranie nacisku na organy państwa;
–
monitorowanie działalności organów państwa i podmiotów gospodarczych.
Funkcje powyższe mają spełniać również organizacje pozarządowe skupiające
przedsiębiorców i działające w ich interesie. Główne funkcje, które realizują organizacje pozarządowe wspierające rozwój przedsiębiorczości, obejmują [Janiuk 2004 s. 45]:
–
doradztwo prawne i ekonomiczne;
–
pomoc w opracowywaniu materiałów reklamowych;
Podana tu liczba organizacji pozarządowych nie obejmuje wszystkich tego typu jednostek, ze
względu na brak odpowiednich danych w GUS – informacje uzyskane w dniu 26.09.2008 r. w Dziale
Udostępniania Danych Statystycznych (jeden z aktualnych numerów telefonicznych: 0857497747);
Urząd Statystyczny nie prowadzi statystyki dotyczącej wszystkich organizacji pozarządowych, wyodrębniając oddzielnie partie polityczne, organizacje specjalistyczne (pod numerem PKD 9112z), których
jednak liczba jest niedostępna, a w której to grupie mieszczą się organizacje branżowe, w tym turystyczne.
6
136
Elżbieta Szymańska
–
analizę stanu firm, prognoz ekonomiczno-finansowych przedsięwzięć gospodarczych, planów marketingowych, strategii rozwojowych i programów
naprawczych;
–
ekspertyzy, analizy finansowe, sporządzanie biznesplanów;
–
konferencje, szkolenia i seminaria o różnym stopniu specjalizacji i zaawansowania;
–
kojarzenie partnerów krajowych i zagranicznych;
–
poszukiwania rynków zbytu oraz udzielania informacji o konkurencji.
Reasumując, można uznać, że organizacje pozarządowe obejmują swym zasięgiem i pomocą prawie wszystkie formy aktywności ludzkiej, poza administracją państwową i bezpośrednią produkcją dóbr i usług, chociaż często dla realizacji swych
celów statutowych organizacje te prowadzą działalność gospodarczą. Wśród wymienionych znajdują się także NGO wspierające przedsiębiorczość prywatną i zgodnie
z Raportem [Raport...2002 s. 3] stanowią ponad 6 procent (6,5%) ogółu fundacji
i stowarzyszeń działających na obszarze Polski.
4. Współpraca międzysektorowa przedsiębiorstw
z organizacjami pozarządowymi w świetle badań
Oceniając korzyści i koszty wynikające ze współpracy międzysektorowej organizacji pozarządowych i przedsiębiorstw, można odnieść się do wyników dwóch tur
badań, jakie przeprowadziła w tym obszarze autorka. Pierwsze badania, dotyczące
roli organizacji pozarządowych we wspieraniu przedsiębiorstw, przeprowadzono
w latach 2002–2004 na grupie stu małych i średnich przedsiębiorstw z obszaru województwa podlaskiego. Nieprzypadkowo wybrano okres i obszar badań. Okres badań nałożył się na czas najgorętszych przygotowań Polski do akcesji do Wspólnot
Europejskich oraz na moment samego przystąpienia oraz pierwszych miesięcy przynależności do tychże Wspólnot – był to więc optymalny czas dla przeprowadzenia
tego typu analiz. Województwo podlaskie to region stosunkowo biedny nie tylko
w porównaniu z innymi obszarami Unii Europejskiej, ale także jego zacofanie gospodarcze wyraźnie widać na tle kraju, który należy do tych o najniższym poziomie
dochodu narodowego brutto przypadającego na jednego mieszkańca.
Wnioski z tych badań można skonfrontować z przeprowadzonymi przez autorkę
w latach 2006–2009 na grupie 215 przedsiębiorstw turystycznych7. Celem omawianych badań było ustalenie zewnętrznych źródeł transferu wiedzy w przedsiębiorstwach turystycznych oraz określenie wagi poszczególnych źródeł. W sferze zainteresowań naukowych, w tym zakresie, znalazły się między innymi organizacje pozarządowe.
7 Liczebność podmiotów w populacji, w badanym okresie, wynosiła 5007, wśród których znalazło
się: 2228 biur podróży, 2301 obiektów hotelarskich i 487 przedsiębiorstw przewozu pasażerskiego;
spośród tej grupy drogą doboru losowego wybrano: 98 biur podróży, 100 obiektów hotelarskich i 17
przedsiębiorstw przewozu pasażerskiego.
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
137
Obie tury badań zostały przeprowadzone z wykorzystaniem metody ankietowej
i w każdym przypadku odpowiedzi udzielili zarówno przedsiębiorcy należący do organizacji pozarządowych, jak i niezrzeszeni.
Respondentów II tury badań poproszono o wskazanie na instytucje, z którymi
współpracują, przy czym zaproponowano zewnętrzne źródła transferu wiedzy
z możliwością wielokrotnego wyboru, wśród których znalazły się następujące instytucje: organizacje branżowe, klastry, inkubatory przedsiębiorczości, firmy doradcze,
uczelnie wyższe, GUS, OECD, Eurostat i Instytut Turystyki [Szymańska 2009].
Na rysunku, poniżej, przedstawiono wstępne wyniki tych dociekań.
RYSUNEK 1.
Współpraca z innymi instytucjami (w liczbach bezwzględnych)*
Źródło: Opracowanie własne na podstawie przeprowadzonych badań.
Badania wykazały, że spośród wszystkich zewnętrznych źródeł transferu wiedzy
to właśnie organizacje pozarządowe wysuwają się na plan pierwszy. Dalsze badania
nad zewnętrznymi źródłami transferu wiedzy potwierdziły te wyniki [Porównaj:
Szymańska 2009].
Należy tu zaznaczyć, że usługi organizacji pozarządowych nie są zarezerwowane
jedynie dla ich członków, gdyż często z oferty mogą korzystać przedsiębiorstwa nie
będące członkami NGO. Możliwa jest również sytuacja członkostwa w kilku różnych organizacjach pozarządowych. Najbardziej jednak korzystna wydaje się bezpośrednia przynależność do organizacji branżowej. Liczebność tej ostatniej grupy na tle
wszystkich respondentów w obu turach badań przedstawiono na poniższych wykresach.
Spośród stu badanych przedsiębiorstw, z I tury badawczej, 37% zadeklarowało
członkostwo w minimum jednej organizacji pozarządowej. W związku z tym, ponad
138
Elżbieta Szymańska
62% badanych nie należało do żadnej organizacji. Nie znaczy to oczywiście, iż nie
korzystali z ich usług, co będzie przedmiotem analizy w dalszej części opracowania8.
RYSUNEK 2A.
Przynależność do organizacji pozarządowych MŚP na przykładzie stu firm
z obszaru województwa podlaskiego
Źródło: Opracowanie własne na podstawie przeprowadzonych badań.
RYSUNEK 2B.
Członkostwo badanych przedsiębiorstw turystycznych
w organizacjach pozarządowych
Źródło: Opracowanie własne na podstawie przeprowadzonych badań.
8 Trudno jest wynik ten porównać z podobnymi danymi dla innych regionów kraju, gdyż autorce
nie udało się odszukać wyników badań w tym zakresie, które byłyby przeprowadzone dla poszczególnych regionów naszego kraju.
Korzyścii i koszty współpraacy międzysektoro
owej dla przedsięb
biorstw
1339
W kwestionariuuszu ankiety II tury badań znaalazły się dwa pytania
p
dotyczącce
zwiiązków przedsięb
biorstw turystyccznych z organizzacjami pozarząądowymi – jedn
no
z niich dotyczyło czzłonkostwa w rzzeczonych organ
nizacjach, drugiee zaś współpraccy
z niimi. W odniesien
niu do pierwszeggo obszaru zbaddano liczbę przeedsiębiorstw turyystyccznych należącycch do organizacjji branżowych n
na tle pozostałycch respondentów
w.
W każdej z wyodrębnionych warstw przedsiębiorstwa deklarowałły takie członko
owo. Ogólną aktyw
wność badanych przedsiębiorstw przedstawia rysuunek poniżej.
stw
Łącznie, przynalleżność do różnych organizacji p
pozarządowych zadeklarowały 44
4
firm
my, co stanowi 20%
2
respondentó
ów. Aktywność ta kształtowała się jednak różniie
w poszczególnych
p
w
warstwach,
co prrzedstawiono naa kolejnym rysunku.
RYSUNEK 3.
3
C
Członkostwo
baadanych przedssiębiorstw w orrganizacjach po
ozarządowych
w poszcczególnych gru
upach
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
Przew.
Biuraa podróży
Baza n
noclegowa
Nie n
należą do żadnej organiizacji lub brak odpowied
dzi
Członkostwo w N
NGO
Źró
ódło: Opracowaniee własne na podsttawie przeprowadzzonych badań.
biorstw turystyczznych jest członkkami tychże orgaaNajwięcej, gdyż aż 28 przedsięb
nizaacji z grupy biurr podróży, co staanowi 13% wszyystkich respondeentów, ale równo
o9. Wśród
cześnie 29% ogółu badanych biur podróży
p
d gestorów bazyy noclegowej 14%
%
9 Najczęściej, wśród
d biur podróży, wym
mienianą organizacją jest Polska Izba Turystyki
T
oraz jej od
ddziały regionalne, do której
k
należy 17 przedsiębiorstw. Inne, wymieniane, organ
nizacje to: IATA (A
Air
American Society of Travel
T
Agents), ZHP (Związek Harcerstw
wa Polskiego), ZHR
RP
Travvel Agents), ASTA (A
(Zw
wiązek Harcerstwa Rzeczypospolitej Polsskiej) i WTO (Worldd Travel Organizatioon).
140
Elżbieta Szymańska
badanych było członkami organizacji pozarządowych10. W warstwie przedsiębiorstw
przewozu pasażerskiego jedynie dwie firmy zadeklarowały członkostwo w organizacjach pozarządowych. Stanowi to niespełna 12% tej grupy respondentów.
Drugim obszarem, objętym badaniami w II turze, była współpraca przedsiębiorstw turystycznych z organizacjami pozarządowymi. Autorka wyszła z założenia,
że z oferty tych organizacji mogą korzystać także przedsiębiorstwa w nich nie zrzeszone. Badania potwierdziły te założenia.
TABELA 3.
Zależność między warstwą badanych przedsiębiorstw a współpracą
z branżowymi organizacjami pozarządowymi
Warstwa
Biura podróży:
% z kolumny
% z wiersza
% z całości
Obiekty hotelarskie:
% z kolumny
% z wiersza
% z całości
Przewoźnicy:
% z kolumny
% z wiersza
% z całości
Razem w kol.
% z całości
Podsumowująca tabela dwudzielcza:
częstości obserwowane (Tabela zbiorcza)
Brak członkostwa
w NGO
54
38,30%
55,10%
25,12%
70
49,65%
70,00%
32,56%
17
12,06%
100,00%
7,91%
141
65,58%
Członkostwo
w NGO
44
59,46%
44,90%
20,47%
30
40,54%
30,00%
13,95%
0
0,00%
0,00%
0,00%
74
34,42%
Razem
98
45,58%
100
46,51%
17
7,91%
215
100,00%
Źródło: Opracowanie własne na podstawie przeprowadzonych badań, z wykorzystaniem
programu Statistica.
Do ustalenia korelacji zastosowano program Statistica, co pozwoliło na wyliczenie współczynnika korelacji (chi2 Pearsona), który dla, wspomnianej, relacji wyniósł
p=,00069, co świadczy o dużej zależności między warstwą a członkostwem w organizacji pozarządowej, a to wskazuje na większą częstotliwość występowania cechy,
Najczęściej wymienianą, w tej grupie przedsiębiorstw, organizacją była Izba Gospodarcza Polskie
Zrzeszenie Hoteli, respondenci wymieniali również:
– Polskie Stowarzyszenie Hotelarstwa i Turystyki,
– Augustowskie Towarzystwo Kajakowe,
– Regionalne Stowarzyszenie Turystyczno-Uzdrowiskowe w Kołobrzegu,
– Krajowe Centrum Hotelowe,
– Polską Izbę Turystyki.
10
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
141
jaką jest członkostwo w organizacjach pozarządowych w niektórych grupach przedsiębiorstw, w tym wypadku najwięcej członków zanotowano w warstwie biur podróży, w następnej kolejności wśród gestorów bazy noclegowej, podczas gdy żaden
z przewoźników nie był członkiem organizacji branżowej.
Analizując powyższe dane i porównując je z przedstawionymi wcześniej w odniesieniu do przedsiębiorstw turystycznych, można zauważyć wyraźną różnicę w zakresie wykorzystania współpracy badanych przedsiębiorstw z organizacjami branżowymi, a mianowicie, podczas gdy członkami tych organizacji było zaledwie 20% badanych, to już korzystających z ich pomocy było 40%. Przy czym, na uwagę zasługuje
fakt, że podczas gdy biura podróży w szerokim zakresie współpracowały z tymi organizacjami (45%), obiekty hotelarskie także sięgały do oferty NGO (30%), o tyle
przedstawiciele przedsiębiorstw przewozu pasażerskiego wskazali na brak takiej
współpracy, co dziwi w kontekście wcześniejszej deklaracji członkostwa dwóch
podmiotów reprezentujących tę warstwę.
W powyższych badaniach widać pewną dysproporcję między członkostwem
w organizacjach pozarządowych przedsiębiorstw z branży turystycznej a przyjętymi
do badań przedsiębiorstwami z tury I, gdzie członkowie NGO stanowili prawie
dwukrotnie liczniejszą grupę (37% respondentów), niż wskazali na to uczestnicy badań z tury II, przy czym można także zaobserwować znaczące dysproporcje
w omawianym zakresie – występujące między poszczególnymi warstwami w grupie
przedsiębiorstw turystycznych. Należy więc uznać, że członkostwo przedsiębiorstw
w branżowych organizacjach pozarządowych obejmuje mniejszość przedsiębiorstw
i w różnorodnych dziedzinach może kształtować się w różny sposób. Równocześnie
należy odróżnić członkostwo w NGO od korzystania z usług organizacji, które może przybierać znacznie powszechniejszy charakter.
5. Korzyści ze współpracy międzysektorowej organizacji pozarządowych
i przedsiębiorstw w świetle badań
Podejmując próbę ustalenia działań oferowanych przez organizacje pozarządowe
na rzecz rozwoju przedsiębiorstw oraz określenie (pozytywnej i negatywnej) roli tych
organizacji w procesie rozwoju przedsiębiorstw, wykorzystano, wzmiankowaną wyżej, I turę badań przeprowadzonych przez autorkę w latach 2002–2004 na grupie stu
przedsiębiorstw oraz dziesięciu organizacji pozarządowych działających na rzecz
przedsiębiorczości na obszarze województwa podlaskiego11.
Organizacje pozarządowe, zrzeszające przedsiębiorców lub w inny sposób wspierające działalność gospodarczą, wykazują wiele kierunków aktywności w omawianym zakresie. Główne kierunki działania tych organizacji, uwzględnione w kwestio-
11 Do chwili oddania do druku niniejszej publikacji, badania nad rolą organizacji pozarządowych
w rozwoju przedsiębiorstw turystycznych, prowadzone przez autorkę, nie zostały ukończone, toteż nie
było możliwe przedstawienie kompleksowych wyników; przygotowanie raportu i wydanie publikacji są
planowane na rok 2011.
142
Elżbieta Szymańska
nariuszach ankiety skierowanych do organizacji pozarządowych i do przedsiębiorców12, to:
–
kongresy i konferencje,
–
szkolenia,
–
wywiad gospodarczy,
–
wydanie biuletynu informacyjnego i katalogu członków,
–
doradztwo i konsultacje ekspertów,
–
misje gospodarcze,
–
organizowane konkursy przedsiębiorczości,
–
strona internetowa (gdzie znajdują się informacje związane z działalnością
organizacji),
–
spotkania z politykami i przedstawicielami władz regionalnych,
–
wystąpienia przedstawicieli na forum publicznym w imieniu i interesie
przedsiębiorców.
Przeprowadzone badania wykazały, że żadna z badanych instytucji nie realizowała równocześnie wszystkich wymienionych działań (najwięcej działań, gdyż 9 spośród zaproponowanych dziesięciu, realizował jeden z respondentów), jednakże
większość posiadała w swojej ofercie kilka spośród wyszczególnionych propozycji.
Jedną z najbardziej popularnych ofert organizacji pozarządowych skierowanych
do przedsiębiorców, szczególnie z sektora małych i średnich przedsiębiorstw, okazały się szkolenia [Noe 2005]. Aż 70% badanych organizacji realizowało szkolenia
z zakresu rozwoju przedsiębiorczości, organizowało spotkania z politykami, występowało publicznie w interesie przedsiębiorców oraz ta sama liczba korzystała w interesie firm z doradztwa ekspertów. Są to więc najpopularniejsze i najbardziej dostępne formy pomocy, z których mogli skorzystać przedsiębiorcy w badanym okresie. Nieco mniejsze znaczenie miało doradztwo, którego udzielało 60% badanych
organizacji pozarządowych. Najmniejszym zaś powodzeniem cieszyło się wydawanie
katalogu członków organizacji, co zadeklarowała tylko jedna z nich i tylko w jednym
nakładzie (i w jednym roku).
Przedstawiciele organizacji pozarządowych, według uzyskanych wyników badań,
stosunkowo rzadko składają jakiekolwiek petycje do władz czy publikują informacje
w mediach. Petycja zaś bywa często skuteczną formą nacisku i jest to: [...] jedna z najstarszych metod [...], w swojej tradycyjnej formie metoda ta wywodzi się ze źródeł lobbingu [Clamen 2005 s.149]. Jedynie dwie spośród badanych dziesięciu instytucji zastosowało tę formę w przeciągu trzech lat. Organizacje pozarządowe nieco częściej starają się znaleźć w mediach. Zazwyczaj są to jednak wywiady przeprowadzane
z przedstawicielami branży albo relacje z organizowanych imprez. W ten sposób
przedsiębiorstwa należące do danej organizacji mają możliwość zaistnieć szerzej na
rynku.
Największą dynamiką wzrostu w okresie, gdy prowadzono badania nad organizacjami pozarządowymi, odznaczało się doradztwo na rzecz przedsiębiorstw. W przeciągu stosunkowo krótkiego okresu 3 lat zainteresowanie doradztwem biznesowym
wzrosło niemal trzykrotnie, co było prawdopodobnie związane z występującymi
12 Zadając respondentom pytanie, zastosowano kafeterię półotwartą umożliwiającą zaznaczenie
kilku wybranych odpowiedzi i równocześnie zaproponowanie innych możliwości.
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
143
wątpliwościami w związku z akcesją Polski do Unii Europejskiej, a także możliwościami, jakie się z tą akcesją wiązały, na co wskazuje zakres porad13.
Podobnie jak doradztwo czy wywiad gospodarczy, zainteresowaniem cieszyły się
spotkania z politykami i przedstawicielami władz regionalnych.
Powyższe oferty nie wyczerpują wszystkich działań realizowanych przez organizacje pozarządowe, jednakże nadal jedną z najważniejszych, jeśli nie najważniejszą
funkcją organizacji pozarządowych, działających w sferze biznesu, jest lobbing na
rzecz członków. Lobbing stanowi jeden z głównych czynników przyciągających
przedstawicieli biznesu do wstąpienia w szeregi tych organizacji. Na szczeblu regionalnym lub narodowym, zdaniem L. Graniszewskiego, organizacje pozarządowe,
zwane też grupami interesu, stosują wszelkie środki wpływające na decyzje władz
[Graniszawski, Piątkowski 2004 s.95]. Skuteczność lobbingu można jednakże ocenić
głównie po efektach, jakie przynosi, a te częstokroć są niemierzalne lub też przedsiębiorcy nie zawsze mogą, lub chcą, ujawnić przedsięwzięcia, które udało im się
zrealizować dzięki bezpośrednim znajomościom z przedstawicielami władz rządowych lub samorządowych danego regionu.
Wprawdzie w żadnej z ofert badanych organizacji pozarządowych14 nie znalazła
się propozycja pomocy w budowaniu dobrej marki firmy czy tworzenia produktu
markowego, lecz wiele działań w rzeczywistości jest spójnych z tym właśnie celem.
Przecież samo uczestnictwo w działaniach organizacji pozarządowych, a szczególnie
członkostwo w tychże organizacjach, niewątpliwie, przyczyniają się do budowy marki firmy czy też popularyzacji jej oferty, chociażby wśród innych członków organizacji. Na budowę dobrej marki firmy mają wpływ wszelkie działania o charakterze
marketingowym [Public 2005]. Do takich przedsięwzięć należy zaliczyć: udział
w konkursach przedsiębiorczości, udział w spotkaniach okolicznościowych, reklamę
w katalogach lub biuletynach informacyjnych, umieszczenie informacji o firmie na
stronie internetowej organizacji oraz inne działania związane z budową dobrego wizerunku firmy. Każde z wymienionych przedsięwzięć sprzyja promocji, a co za tym
idzie, wspiera rozwój przedsiębiorstwa.
W zakresie oceny roli NGO w rozwoju przedsiębiorstw posłużono się metodą
rangowania, gdzie ankietowanym zaproponowano siedem wariantów odpowiedzi,
stopniując je od „bardzo pomocna” do oceny o negatywnym zabarwieniu, mianowicie, „szkodliwa”. Uwzględniono również ocenę „rozrywkowa”, gdyż należy zdawać
sobie sprawę, że częstokroć także taką towarzysko-rozrywkową rolę pełnią tego typu
organizacje.
Oto propozycje przedstawione respondentom:
–
bardzo pomocna,
Respondenci wskazywali na następującą tematykę:
– pozyskiwanie funduszy z Unii Europejskiej;
– legislacja dokumentów w eksporcie;
– badanie rynków i wyszukiwanie potencjalnych partnerów;
– rejestracja działalności gospodarczej, prawo pracy, świadczenia na rzecz ZUS;
– finanse firmy z naciskiem na opodatkowanie;
– eksport na rynki zagraniczne, głównie Unii Europejskiej;
– standardy i normy europejskie, zwłaszcza certyfikacja: ISO, HCCP oraz CE.
14 I tura badań.
13
1444
–
–
–
–
–
–
Elżbieta
E
Szymańskka
wspierającaa,
prestiżowaa,
rozrywkow
wa,
średnio pomocna,
żadna,
szkodliwa.
dani przedstawion
no na rysunku.
Odpowiedzi, jakkich udzielili bad
RYSUNEK 4.
4
biorstw
Rola orgaanizacji pozarzządowych w rozzwoju przedsięb
18%
2%
3%
14%
B
Bardzo pomocna
25%
Ś
Średnio pomocna
W
Wspierająca
7%
P
Prestiżowa
R
Rozrywkowa
Ż
Żadna
S
Szkodliwa
10%
21%
B
Brak odpowiedzi
Źró
ódło: Opracowaniee własne na podsttawie przeprowadzzonych badań.
o
pozaarządowych w ro
ozwoju przedsięębiorstw, ankieto
oOceniając rolę organizacji
wan
ni najliczniej (255% odpowiedzi) ocenili, że orgganizacje te są śrrednio pomocnee.
Kollejną, najczęścieej zaznaczaną, odpowiedzią
o
była ocena „wspieerająca” (21% reespo
ondentów). Osiem
mnaście zaś pro
ocent przedsiębio
orców oceniło, że
ż pomoc organizacjji pozarządowycch jest „żadna”, przy
p czym nie dzziwi taka opinia ze
z strony firm niie
zrzeeszonych, gdyż nie mając dobreego zdania lub ttakże rozeznaniaa o organizacjach
h,
po prostu do nich nie przystępują. Interesująca jestt natomiast tak negatywna
n
opiniia
c
„bardzo po
oprzedsiębiorców, kttórzy należą do organizacji. Oceenę najwyższą, czyli
% ankietowanych
h, zaś 10% badan
nych firm oceniło
mocna”, wydało orrganizacjom 14%
ozarządowych jakko prestiżową, n
natomiast 7% zaznaczyło
z
odpo
orolęę organizacji po
wieedź „rozrywkowa”. Dwie firmy,, spośród badan
nych, oceniły te organizacje jakko
szkodliwe dla ich fuunkcjonowania15.
15 Oceny krytyczne,, pod adresem niektó
órych organizacji po
ozarządowych wspierrających przedsiębio
orczośść (głównie PARP), można znaleźć w ko
omentarzach respon
ndentów na stronie: [www.parp. gov.pl]..
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
145
Opinie pozytywne pochodzą głównie od przedsiębiorstw będących członkami
tychże organizacji, jednakże także wśród firm, nie członków NGO, opinia pozytywna zdecydowanie przeważa nad negatywną, podczas gdy 18 było zdania, że pomoc
ich jest „żadna”, dwie zaś wypowiedzi mówią o szkodliwości członkostwa w NGO
w związku z koniecznością płacenia składek członkowskich oraz dużym nakładem
czasu związanym z uczestnictwem w działaniach organizacji.
6. Podsumowanie
Wyniki przeprowadzonych badań wykazały, że w ramach współpracy międzysektorowej przedsiębiorcy najczęściej wybierają współpracę z organizacjami pozarządowymi. Współpraca ta może polegać na członkostwie w tych organizacjach (na co
wskazało 37% respondentów w I turze badań, którymi były objęte małe i średnie
przedsiębiorstwa z województwa podlaskiego, oraz średnio 20% dla przedsiębiorstw
turystycznych z obszaru kraju, przy różnym rozkładzie w odniesieniu do poszczególnych warstw) lub na korzystaniu z ofert organizacji pozarządowych, bez bezpośredniego członkostwa. Autorka wyszła z założenia, że z oferty tych organizacji mogą korzystać także przedsiębiorstwa w nich nie zrzeszone. Badania potwierdziły to
założenie, wykazując prawie dwukrotnie większą liczbę współpracujących z organizacjami pozarządowymi przedsiębiorstw (tu: turystycznych), niż członków organizacji branżowych.
Biorąc pod uwagę, przedstawiony powyżej, szeroki wachlarz działań oferowanych przez organizacje pozarządowe – tak niska aktywność przedsiębiorstw turystycznych jest zastanawiająca, można wręcz twierdzić, że na tle średniej przynależności przedsiębiorców do różnych organizacji pozarządowych firmy turystyczne (poza
biurami podróży) wykazują się dużą powściągliwością w tym zakresie.
Podsumowując zebrane opinie przedsiębiorców, należy jednoznacznie stwierdzić,
że organizacje pozarządowe przynoszą wiele korzyści współpracującym z nimi
przedsiębiorstwom, gdyż pozytywnie na ten temat wypowiedziało się 77% ankietowanych. Wprawdzie jedna czwarta respondentów uważa, iż organizacje te są „średnio pomocne”, jednakże 35% jest zdania, że organizacje pozarządowe są „bardzo
pomocne” lub „wspierające”.
Główne korzyści płynące ze współpracy międzysektorowej, na które wskazywali
respondenci, to, niewątpliwie, usługi doradcze oraz szkoleniowe. W tym też zakresie
badane instytucje wykazywały największą aktywność. Stale rosnącym powodzeniem
cieszył się również wywiad gospodarczy. Lobbing, w którym organizacje pozarządowe skupiające przedsiębiorców są niezastąpione, dając możliwość artykułowania
swych oczekiwań i nawiązywania bezpośrednich kontaktów z decydentami, rozwija
się stosunkowo dynamicznie, angażując 70% badanych NGO. W zakresie nawiązania bliższych kontaktów z przedstawicielami władz administracyjnych i samorządowych – możliwość spotkań i bezpośredniej rozmowy podczas oficjalnych imprez
organizowanych przez reprezentujące przedsiębiorców organizacje – jest optymalnym i często jedynym, możliwym wariantem nawiązania tychże kontaktów. Organizacje pozarządowe sprzyjają także zawieraniu bezpośrednich znajomości między
przedsiębiorcami, co owocuje nowymi pomysłami współpracy i wymiany doświad-
146
Elżbieta Szymańska
czeń. Dzięki takim kontaktom, rodzi się niejedno przedsięwzięcie, zaś połączenie
przedsiębiorstw i ich kapitału jest jednym z głównych czynników dynamizujących
ich rozwój.
Respondenci, generalnie, nie wskazywali na straty czy niedogodności związane
z członkostwem czy współpracą z organizacjami pozarządowymi, poza dwoma wyjątkami, gdzie zasygnalizowano straty związane z koniecznością opłacania składek
członkowskich oraz z uznaniem za stratę czasu działalności na rzecz organizacji.
Pozostali respondenci nie wskazali na żadne koszty w badanym obszarze, chociaż
członkostwo w NGO wiąże się zwykle z koniecznością uiszczania składek członkowskich. Należy więc wnioskować, że organizacje przynoszą przedsiębiorcom zdecydowanie więcej korzyści, niż pociągają za sobą koszty, które można, w świetle
przeprowadzonych badań, uznać za marginalne.
Zagadnienie współpracy międzysektorowej przedsiębiorstw i organizacji pozarządowych wydaje się na tyle istotne, że pogłębienie studiów i badań w tym zakresie
powinno wnieść wiele zarówno do teorii ekonomii i zarządzania, jak i do praktyki
prowadzenia działalności gospodarczej.
Literatura
Analiza stanu i kierunków rozwoju parków naukowo-technologicznych, inkubatorów technologicznych, centrów transferu technologii w Polsce 2004, Raport końcowy z badań, Konsorcjum Parków Naukowo-Technologicznych w Polsce, Gdańsk.
Anheier H., Seibel W. 1993 Defining the Nonprofit Sector, [in:] The Johns Hopkins Comparative Nonprofit Sector Project, Germany, „Working Paper”, No. 6.
Audretsch D. B., Feldman M. P. 1996 R&D Spillovers and the Geography of Innovation and
Production, „American Economic Review”, No. 86.
Bez zysków i strat. Sztuka kierowania organizacjami sektora pozarządowego 2002, Phare Dialog
Społeczny, Warszawa.
Społeczne organizacje biznesu w Polsce a stosunki pracy 1999, W. Kozek (red.), Centrum Partnerstwa Społecznego „Dialog” im. Andrzeja Bączkowskiego, Warszawa.
Ciborowski R. 2004 Wpływ zmian w polityce ekonomicznej i globalizacji na postęp techniczny
i konkurencyjność gospodarki Wielkiej Brytanii, Białystok.
Clamen M. 2005 Lobbing i jego sekrety, Warszawa.
Gasz M. 2008 PPP jako instrument realizacji zadań publicznych, [w:] Sektor publiczny
we współczesnej gospodarce, R. Przygodzka (red.), Białystok.
Gospodarka turystyczna a grupy interesu 2006, S. Wodejko (red.), Warszawa.
Graniszawski L., Piątkowski C. 2004 Grupy interesu w Unii Europejskiej, Warszawa.
Innowacje w działalności przedsiębiorstw w integracji z Unią Europejską 2005, W. Janasz (red.),
Warszawa.
Janiuk I. 2004 Strategiczne dostosowanie polskich MSP do konkurencji europejskiej, Warszawa.
Jasiński A. H. 2007 Narodowy system innowacji w Polsce wobec wyzwań integracyjnych, [w:]
Działalność innowacyjna przedsiębiorstw w warunkach globalnych, J. Bogdanienko, M. Kuzela,
I. Sobczak (red.), Toruń.
Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw
147
Kleer J. 2008 Sektor publiczny w warunkach współczesnych, „Optimum. Studia Ekonomiczne”,
nr 4 (40).
Michałowska-Gorywoda K. 2002 Podejmowanie decyzji w Unii Europejskiej, Warszawa.
Noe R. A. 2005 Employee training and development, Singapore.
Ośrodki innowacji w Polsce 2005, PARP, Warszawa.
Polska wschodnia – determinanty rozwoju 2006, B. Plawgo (red.), Białystok.
Public relations instytucji użyteczności publicznej 2005, E. Hope (red.), Gdańsk.
Przygodzka R. 2008 Efektywność sektora publicznego, „Optimum. Studia Ekonomiczne”, nr 4 (40).
Raport z badania 2002 2002, Stowarzyszenie Klon/Jawor, Warszawa.
Samoorganizacja społeczeństwa polskiego: trzeci sektor 2002, P. Gliński, B. Lewenstein, A. Siciński (red.), Warszawa.
Sektor publiczny we współczesnej gospodarce 2008, R. Przygodzka (red.), Białystok.
Skrzypiński D. 2001 Organizacje pracodawców i przedsiębiorców w procesie kształtowania się
stosunków przemysłowych w Polsce po 1989 r., Toruń.
The Human Side of Managing Technological Innovation 1997, Kats R. (ed.), New York – Oxford.
Ustawa z dnia 22 marca 1989 r. o rzemiośle, Dz. U. 1989, Nr 17, poz. 92 z późniejszymi
zmianami.
Ustawa z dnia 23 maja 1991 r. o organizacjach pracodawców, Dz. U. z 1991 r., Nr 55, poz.
235 z późniejszymi zmianami.
Ustawa z dnia 24 kwietnia 2003 r. o działalności pożytku publicznego i o wolontariacie,
Dz. U. 2003, Nr 96, poz. 873 z późniejszymi zmianami.
Ustawa z dnia 30 maja 1989r. o izbach gospodarczych, Dz. U. 1989, Nr 35, poz. 195 z późniejszymi zmianami.
Ustawa z dnia 30 maja 1989r. o samorządzie zawodowym niektórych podmiotów gospodarczych, Dz. U. 1989, Nr 35, poz. 194 z późniejszymi zmianami.
Ustawa z dnia 6 kwietnia 1984r. o fundacjach, Dz. U. 1991, Nr 46, poz. 203 z późniejszymi
zmianami.
Ustawa z dnia 7 kwietnia 1989 r. Prawo o stowarzyszeniach, Dz. U. z 2001 r., Nr 79, poz.
855 z późniejszymi zmianami.
Ustawa z dnia 7 lipca 2005 r. o działalności lobbingowej w procesie stanowienia prawa,
Dz. U. 2005, Nr 169, poz. 1414 z późniejszymi zmianami.
Wiatrak A. P. 2005 Strategiczne myślenie i działanie w organizacjach publicznych, „Współczesne Zarządzanie”, nr 2.
Wilkin J. 2008 Sfera publiczna i sfera prywatna: co je dzieli i łączy? – ujęcie instytucjonalne,
„Optimum. Studia Ekonomiczne”, nr 4 (40).
Dokument elektroniczny, tryb dostępu: [http://osektorze.ngo.pl]. Data wejścia 15.12.2009.
Dokument elektroniczny, tryb dostępu: [www.ec.europa.eu]. Data wejścia 15.12.2009.
Dokument elektroniczny, tryb dostępu: [www.ec.europa.eu]. Data wejścia 15.12.2009.
Dokument elektroniczny, tryb dostępu: [www.innowacyjność.pl]. Data wejścia 15.12.2009.
Dokument elektroniczny, tryb dostępu: [www.mg.gov.pl]. Data wejścia 12.02.2010.
Dokument elektroniczny, tryb dostępu: [www.ngo.pl]. Data wejścia 12.02.2010.
Dokument elektroniczny, tryb dostępu: [www.parp.gov.pl]. Data wejścia 12.02.2010.
Dokument elektroniczny, tryb dostępu: [www.stat.gov.pl]. Data wejścia 12.02.2010.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Katarzyna LEWKOWICZ-GRZEGORCZYK1
REALIZACJA ZASADY SPRAWIEDLIWOŚCI NA PRZYKŁADZIE
PODATKU DOCHODOWEGO OD OSÓB FIZYCZNYCH
Streszczenie
Przedmiotem artykułu jest analiza urzeczywistnienia zasady sprawiedliwości podatkowej w podatku
dochodowym od osób fizycznych. Na wstępie autor prezentuje zasady podatkowe w ujęciu historycznym i współczesnym. Następnie analizuje kwestie sprawiedliwości podatkowej. Obecna interpretacja
zasady sprawiedliwości znacznie odbiega od rozumienia jej w czasach, gdy została stworzona. Przyjmuje się, iż podatek sprawiedliwy to podatek zróżnicowany i zindywidualizowany, uwzględniający wiele
czynników wpływających na jego wielkość. Podatek dochodowy od osób fizycznych cechuje się personalizacją oznacza to, że jest dostosowany do indywidualnej sytuacji podatnika. Dzięki temu, spełnia zasadę sprawiedliwości, przy czym nie wszystkie przyjęte w nim rozwiązania są z nią zgodne.
Słowa kluczowe: zasady podatkowe, sprawiedliwość podatkowa, podatek dochodowy od osób
fizycznych
IMPLEMENTATION OF TAXATION EQUITY AS EXEMPLIFIED
BY THE POLISH INDIVIDUAL INCOME TAX
Abstract
The subject of the article is the analysis of taxation equity in individual income tax. Firstly, the taxation rules are presented from a historical and modern point of view. This is followed by a detailed analysis of the rule of taxation equity. The current understanding of this rule is different from what it was
when it had been created. It is assumed that a fair tax is varied and personalised, including many factors
influencing its scale. Individual income tax is personalised, adapted to the individual situation of the
taxpayer, which means, in general terms, that it fulfils the rule of equity, although not all of the rules
governing taxation are in compliance with the rule of taxation equity.
Keywords: taxation rules, taxation equity, income tax, individual income tax
1. Wstęp
Współcześnie, coraz większą wagę przywiązuje się do kwestii sprawiedliwości
systemu podatkowego. Zakładając, że prawo podatkowe jest gwarantem sprawiedliwego traktowania podatników, a państwo stoi na straży przestrzegania tego prawa,
1 Mgr Katarzyna Lewkowicz-Grzegorczyk – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania.
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
149
to podatnicy będą bardziej skłonni do podejmowania aktywności, aniżeli w systemie,
w którym zasada sprawiedliwości podatkowej pozostaje jedynie martwym postulatem. W doktrynie podatkowej wyraźnie formułowany jest pogląd, że sprawiedliwość
jest fundamentem budowy systemu podatkowego, a rezygnacja z idei sprawiedliwości jest jednocześnie rezygnacją z sukcesu reform podatkowych [Famulska, Znaniecka 2003 s. 15].
Interpretacja zasady sprawiedliwości budzi we współczesnej teorii opodatkowania najwięcej kontrowersji. Obecnie, przy rozumieniu normy sprawiedliwości, często
odchodzi się od pierwotnych wzorców, które uznawały system podatkowy za sprawiedliwy, jeśli cechowała go powszechność i równość opodatkowania. Przyjmuje się,
że podatek sprawiedliwy to podatek zróżnicowany i zindywidualizowany, uwzględniający wiele czynników wpływających na jego wielkość. Przy takim założeniu, podatek jest sprawiedliwy, jeżeli cechuje się personalizacją, czyli jest dostosowany do indywidualnej sytuacji podatnika [Gaudement 2000 s. 510–511]. Podatkiem, który
w największym stopniu uwzględnia tak rozumianą zasadę sprawiedliwości, jest podatek dochodowy, przy czym nie wszystkie przyjęte w nim rozwiązania są zawsze
zgodne z tą zasadą.
Celem niniejszego opracowania jest próba ukazania realizacji zasady sprawiedliwości podatkowej na przykładzie podatku dochodowego od osób fizycznych w Polsce. Artykuł przygotowano na podstawie studiów literaturowych oraz analizy danych
statystycznych dotyczących rozliczenia podatku dochodowego od osób fizycznych,
corocznie publikowanych przez Ministerstwo Finansów.
2. Funkcje podatków w gospodarce
Sposób oddziaływania podatków na gospodarkę kraju oraz ich rola są odzwierciedlone w spełnianych przez podatki funkcjach. W literaturze przedmiotu wyróżnia
się najczęściej trzy podstawowe funkcje podatków: fiskalną, redystrybucyjną i stymulacyjną [Kosikowski, Ruśkowski 2006 s. 497]. Funkcje te, utożsamiane z rolą podatku, określają miejsce, jakie zajmuje on w gospodarce. Bez wątpienia, podstawowe
znaczenie ma funkcja fiskalna, której celem jest dostarczenie państwu dochodów
w odpowiedniej wysokości. Podatek musi bowiem służyć pokryciu obciążeń publicznych. Stanowi on główne źródło dochodów budżetowych.
Za pośrednictwem podatków, państwo i samorząd terytorialny gromadzą większość swoich dochodów. Realizacja polityki dochodowej powinna być skuteczna, co
oznacza, ze podatki powinny dostarczać określoną sumę środków pieniężnych budżetowi państwa. Warunkiem skuteczności polityki dochodowej jest [Dziemianowicz,
Przygodzka 2003 s. 434–435]:
–
odpowiednia konstrukcja podatków, uwzględniająca obiektywne i subiektywne możliwości danego państwa;
–
konsekwencja w realizacji funkcji dochodowej, oznaczająca utrzymanie
w dłuższym okresie określonego kierunku polityki podatkowej;
–
stabilność prawa podatkowego;
150
Katarzyna Lewkowicz-Grzegorczyk
–
konieczność przewidywania najważniejszych skutków (fiskalnych i pozafiskalnych) przyjmowanych rozwiązań podatkowych, w tym także kosztów
ich poboru.
Należy jednak pamiętać, że podatek nie jest tylko świadczeniem służącym do pokrywania potrzeb gospodarczych, stanowi także narzędzie regulowania podziału dochodów i majątków w warunkach gospodarki rynkowej. Ponadto, funkcja ta zawiera
różne treści, a w szerokim znaczeniu, obejmuje również elementy polityki społecznej oraz ekonomicznej [Głuchowski 2006 s. 16].
Stąd też przedstawiona funkcja fiskalna łączy się ściśle z funkcją redystrybucyjną
podatku. Traktuje ona podatki jako narzędzie wtórnego podziału dochodów, dzięki
przesuwaniu środków finansowych w odpowiednich proporcjach między podatnikami a budżetem. Za sprawą podatków dochodzi bowiem do zmniejszenia dochodu
i przejęcia jego części na rzecz budżetu, w wyniku czego powstaje korekta dochodów. Ponowna redystrybucja następuje przez system budżetowy, który zgromadzone dochody rozdziela zgodnie z, wcześniej ustalonymi, celami. Tak więc, przez odpowiednie konstrukcje podatkowe państwo może kierować procesem dystrybucji
produktu krajowego brutto, łagodzić nierówności społeczne2. Państwo, stosując
progresywny podatek dochodowy, ogranicza siłę nabywczą najzamożniejszych i jednocześnie zwiększa siłę nabywczą osiągających niższe dochody [Dziemianowicz
2007 s. 36]. Redystrybucja podatkowa ma charakter jednostronny – sprowadza się
do zabierania określonej części dochodów podatników i przekazywania ich na rzecz
budżetu – dlatego uważa się, że w odniesieniu do podatków trafniejsze jest określenie funkcja dystrybucyjna [Gajl 1992 s. 127].
Z kolei, funkcja stymulacyjna polega na kształtowaniu określonych reakcji podatników – ich zachowań i działań oraz procesów społeczno-gospodarczych.
Stymulacyjne oddziaływanie podatków polega na wykorzystywaniu ich wpływu na
warunki działania jednostek oraz na kierunki i tempo ich rozwoju. Warto podkreślić,
że funkcja stymulacyjna podatków ma charakter uniwersalny i występuje w państwach o różnych założeniach ustrojowych. Może ona polegać na wprowadzeniu
określonego podatku, na różnicowaniu stawek podatkowych, stosowaniu zwyżek
bądź też ulg i zwolnień [Głuchowski 2006 s. 20].
Można zatem stwierdzić, że współczesne systemy podatkowe, poza funkcją fiskalną polegającą na gromadzeniu dochodów budżetu państwa, realizują także cele
gospodarcze i społeczne. Cele gospodarcze podatku wyrażają się w oddziaływaniu
na sferę gospodarczą w sposób ogólny lub selektywny. Oddziaływanie ogólne polega na wykorzystywaniu podatków do kształtowania siły nabywczej i jest stosowane
zazwyczaj w walce z inflacją lub do wywołania ożywienia gospodarczego (zmniejszanie ciężarów podatkowych). Oddziaływanie selektywne sprowadza się natomiast
2 Powszechnie stosowanym podatkiem, służącym łagodzeniu nierówności dochodów, jest progresywny podatek dochodowy od osób fizycznych. Podatek ten ma wbudowany mechanizm różnicujący
ciężar podatkowy – z założenia bardziej opodatkowuje osoby zamożniejsze. Rzeczywista jego progresja
zależy jednak nie tylko od liczby i wysokości stawek czy granic przedziałów skali podatkowej, lecz także
od innych elementów konstrukcji podatku, a zwłaszcza od ulg podatkowych. Ulgi w podatku dochodowym od osób fizycznych na ogół wpływają w odwrotnym kierunku – łagodzą progresję. Dzieje się
tak, gdy z ulg, choć adresowanych do wszystkich, częściej korzystają osoby zamożniejsze [MałeckaZiembińska 2006 s. 8].
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
151
do przyznawania korzyści podatkowych, np. zwolnień i ulg podatkowych [System
finansowy... 2008 s. 298].
Cele społeczne podatku także mogą mieć wymiar ogólny i selektywny. Cel ogólny wiąże się z łagodzeniem nierówności społecznych i może być osiągany wielokierunkowo (np. przez progresywne opodatkowanie dochodu i majątku, wysokie opodatkowanie artykułów luksusowych i wyłączenie spod opodatkowania artykułów
pierwszej potrzeby). Oddziaływanie selektywne polega na preferencyjnym traktowaniu określonych grup społecznych (np. przyznanie ulg podatkowych osobom samotnie wychowującym dzieci i rodzinom wielodzietnym), [System finansowy... 2008
s. 298].
Społeczne cele systemu podatkowego powinny być realizowane z myślą o racjonalnym dopasowaniu interesów publicznych i interesów prywatnych. Opodatkowanie bowiem ma służyć przede wszystkim zaspokajaniu dobra wspólnego. Podatników nie można zatem traktować jedynie jako podmioty, które dostarczają dochodów budżetowych. Należy ich widzieć w szerszym kontekście socjalnym, jako
członków danego społeczeństwa, reprezentujących często różne interesy grupowe
(np.: rolnicy, pracownicy, pracodawcy, wolne zawody). Istotne jest także, aby system
podatkowy był kształtowany z uwzględnieniem odczuć społecznych, jakie temu towarzyszą, jak również, aby jego twórcy przewidywali możliwe reakcje społeczne
z tym związane [Mastalski 2000 s. 31].
Cele fiskalne, gospodarcze i społeczne systemu podatkowego powinny być kształtowane z uwzględnieniem techniczno-prawnych aspektów opodatkowania i możliwości ujęcia ich w formach właściwych dla prawa. Chodzi zwłaszcza o respektowanie
podstawowych zasad ustroju politycznego i gospodarczego, zawartych w konstytucji,
a także zasad funkcjonowania gospodarki, uregulowanych w prawie cywilnym [Mastalski 2000 s. 31].
Jak widać, podatki spełniają różne cele, nie tylko finansowe. Podatek może być
wykorzystywany również do zadań gospodarczych i społecznych podejmowanych
przez państwo. Wobec, wyżej omówionych, celów powstaje jednak kwestia ich priorytetu3.
3. Zasady sprawiedliwości podatkowej jako kryterium oceny podatku
Teoria opodatkowania wskazuje zasady podatkowe, które są postulatami nauki,
określającymi warunki, jakim powinien odpowiadać poprawnie zbudowany system
podatkowy i poszczególne podatki. Zasady podatkowe nie tworzą zamkniętego katalogu, a poszczególne ich zestawy są budowane według cech, które, w opinii wybranych autorów, wydają się najważniejsze [Głuchowski 2006 s. 14]. Treść formułowanych zasad oraz ich znaczenie zmieniały się na przełomie dziejów. Niemniej, o czym
niżej, niektóre z zasad podatkowych, sformułowanych przed wiekami, do dzisiaj zachowały swoją aktualność. Świadczy to o ich uniwersalnym charakterze, co przesądza o konieczności ich uwzględniania w obowiązującym systemie podatkowym
[Prawo podatkowe 2008 s. 54–59].
3
Szerzej ten problem analizuje R. Rosiński [Zob. Polski system...2010 s. 16–18].
152
Katarzyna Lewkowicz-Grzegorczyk
Jeden z pierwszych katalogów zasad podatkowych ustalił Adam Smith [Smith
2007 s. 500–503]. Zasady te są znane do dzisiaj jako: równość, pewność, dogodność
i taniość podatku. Zasada równości oznacza, że każdy powinien być opodatkowany
stosownie do wysokości swojego dochodu lub wartości majątku. Odwołuje się ona
do zdolności płatniczej podatnika i przewiduje powszechność opodatkowania.
Zasada pewności podatkowej oznacza, że podatek, jaki każda jednostka jest obowiązana płacić, powinien być wyraźnie z góry określony, a nie dowolny. Nawiązuje ona
do zasady państwa prawa. Z zasady dogodności podatkowej wynika, że każdy podatek powinno się ściągać w takim czasie i w taki sposób, aby podatnikowi było go jak
najdogodniej zapłacić. Zasada taniości mówi z kolei o tym, że wymiar i pobór podatku powinien być zorganizowany w sposób najbardziej oszczędny, aby nie zwiększać ciężaru podatkowego i zapewnić możliwie szybki dopływ środków do budżetu.
Znaczący wpływ na współczesne zasady podatkowe wywarł Adolf Wagner. Rozbudował on katalog zasad podatkowych zaproponowany przez A. Smitha i podzielił
je na cztery grupy: zasady społeczne, fiskalne, gospodarcze i techniczne [Prawo podatkowe 2008 s. 54–59].
W grupie zasad społecznych istotną rolę odgrywała zasada sprawiedliwości rozumiana jako postulat powszechności i równości opodatkowania. Powszechność
oznaczała opodatkowanie wszystkich grup społecznych, bez wyjątku, gdyż wszelkie
zwolnienia lub przywileje są przejawem niesprawiedliwości. Opodatkowanie powinno jednak pozostawać w proporcji do zdolności płatniczej osoby oraz być zróżnicowane ze względu na jego stan majątkowy. Takim założeniom odpowiada progresywne, a nie proporcjonalne, jak u A. Smitha, opodatkowanie dochodów. Zatem,
podatki muszą ponosić wszyscy w „proporcji do ekonomicznej zdolności płatniczej”. Uwzględnienie „proporcji zdolności płatniczej” może zapewnić progresywność opodatkowania [Gomułowicz 2001 s. 95]. Mamy tu do czynienia z wyraźnym
postulatem zastosowania skali progresywnej, w celu korekty wytworzonego produktu przez gospodarkę. Należy jednak zaznaczyć, że Gomułowicz opowiada się za łagodnym jej przebiegiem.
Przestrzeganie zasad fiskalnych, według Wagnera, miało zapewnić wysokie wpływy
do Skarbu Państwa z tytułu poboru podatków – przede wszystkim – przez realizację
dwóch zasad: elastyczności i wydajności podatków. Przez podatki elastyczne rozumiał on te, których konstrukcja pozwalała na zwiększenie lub zmniejszenie osiąganych z nich dochodów, w zależności od potrzeb państwa, natomiast za podatki wydajne – te, które były w stanie pokryć aktualne zapotrzebowanie finansowe państwa.
Zasady gospodarcze miały ochraniać źródła podatkowe, czyli kapitał i majątek.
System podatkowy, zdaniem Wagnera, powinien być tak skonstruowany, by przedsiębiorcy, mimo nakładania podatków, pomnażali swój kapitał i przyczyniali się do
rozwoju gospodarki. Osiągnąć to można było jedynie stosując progresję, która
umożliwiała z jednej strony ochronę źródeł opodatkowania, z drugiej – eliminowanie nadmiernych nierówności majątkowych w społeczeństwie. Zasady techniczne
Wagnera pokrywały się zatem z trzema zasadami A. Smitha, które polegały na: pewności, dogodności i taniości opodatkowania.
Zarówno w przeszłości, jak i obecnie wiele emocji budzi kwestia sprawiedliwości podatkowej. Współcześnie, równość nie oznacza proporcjonalnego opodatkowania dochodu czy majątku podatnika, lecz opodatkowanie zgodne z jego możliwo-
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
153
ściami finansowymi. Wynika to z teorii o malejącej krańcowej użyteczności dochodów, według której każda dodatkowa jednostka dochodu jest przeznaczana na zaspokojenie coraz mniej pilnych potrzeb, co sprawia iż dla dysponenta dochodów jest
ona coraz mniej użyteczna. Konsekwencją tej teorii jest, sformułowana przez
J.S. Milla, zasada „równości ofiary” przy opodatkowaniu. Jej stosowanie ma wyrównać krańcowe użyteczności dochodów, pobieranych przez podatek od różnych
podatników. Zasada ta prowadzi również do progresywnego opodatkowania dochodów. We współczesnym pojmowaniu zasady równości nie jest z nią sprzeczne stosowanie opodatkowania progresywnego oraz różnego rodzaju ulg i zwolnień.
Identyczna podstawa opodatkowania nie zawsze powoduje powstanie zobowiązania
podatkowego w tej samej wysokości. Jest ona wyrazem dążenia do sprawiedliwego
rozłożenia ciężaru opodatkowania między różne jednostki i grupy społeczne jako
podmioty obowiązku podatkowego. Tak rozumiana równość zakłada redystrybucję
dochodów.
Kontrowersje oraz odejście od klasycznego postrzegania zasady sprawiedliwości
podatkowej są konsekwencją toczącej się od lat teoretycznej debaty nad istotą sprawiedliwości. Debata ta jest prowadzona przez przedstawicieli różnych dyscyplin naukowych, m.in.: etyki, filozofii, socjologii, metafizyki. Ekonomiści na ogół nie lubią tej
kategorii [...]. Większość z nich zapewne uważa, iż sprawiedliwość nie jest kategorią
ekonomiczną; nie wiadomo jak ją zdefiniować, zmierzyć i zestawić z kategoriami typowo
ekonomicznymi. Zdaniem R. Przygodzkiej, ekonomiści od kwestii sprawiedliwości nie
mogą uciec, ponieważ istotnym problemem stabilności gospodarowania jest sfera podziału
(dochodów, dóbr i usług). Nadmierne nierówności dochodowe są określane jako niesprawiedliwe i stanowią zagrożenie dla sprawności i efektywności gospodarowania [Przygodzka 2006 s. 190].
Zdaniem N. Gajl: obecnie przy rozumieniu zasady sprawiedliwości odchodzi się daleko od wzorów Smitha i Wagnera, zakładających, że sprawiedliwy – to taki system podatkowy, który cechuje powszechność i równość opodatkowania. Ten dogmatyczny pogląd
nie jest na ogół utrzymywany. Obecnie uważa się wręcz przeciwnie, iż sprawiedliwym
jest system podatkowy zróżnicowany i zindywidualizowany, uwzględniający wiele czynników wpływających na opodatkowanie [Gajl 1992 s. 142]. Stąd tak ważną kwestią jest
uwzględnienie zasady zdolności płatniczej. Podatek spełnia tę zasadę, jeżeli każdy
jest obciążony według swoich możliwości. Zwraca się przy tym uwagę na wysokość
dochodu oraz na jego źródło, a także sytuację podatnika. O realizacji zasady zdolności płatniczej decyduje również minimum wolne od opodatkowania, czyli kwota, do
której nie wymierza się podatku.
Obok wymienionych elementów, dla praktycznego stosowania zasady sprawiedliwości istotny jest problem rodzaju podatków wchodzących w skład systemu podatkowego i zakresu ich stosowania. Systemy podatkowe, w których przeważają podatki bezpośrednie, uważa się za bardziej sprawiedliwe4. Przy czym, powszechność
4 Podatki można klasyfikować według różnorodnych kryteriów. Jednym z nich jest kryterium
prawne, zgodnie z którym podatki dzielimy na: bezpośrednie i pośrednie [Dolata 2009 s. 41–42].
Do podatków bezpośrednich zalicza się te, w których zdolność podatkową podatnika określa się na
podstawie jego dochodów, posiadanego kapitału itp., a do podatków pośrednich – podatki ujawniające
zdolność podatkową podatnika przez działania, których zakres jest uwarunkowany jego możliwościami
finansowymi, tj. ujawniające poziom jego dochodów i wielkość posiadanego kapitału. W związku
154
Katarzyna Lewkowicz-Grzegorczyk
opodatkowania jest tutaj inaczej rozumiana. Na przykład, nie każdy osiągnięty dochód powinien być opodatkowany, a jedynie dochód przekraczający określoną kwotę uznaną za minimalną [Dolata 1999 s. 66].
Rosnąca rola podatku w gospodarce powoduje, że zasadom podatkowym poświęca się co raz więcej uwagi. Współcześnie, zdaniem J.E. Stiglitza, można wymienić pięć powszechnie akceptowanych cech/zasad „dobrego” systemu podatkowego:
po pierwsze, efektywność – system podatkowy nie powinien wywoływać zniekształceń; jeśli to możliwe, to powinien być wykorzystywany do zwiększania efektywności
ekonomicznej. Po drugie, prostota administracyjna – koszty funkcjonowania systemu podatkowego i zarządzania nim powinny być niskie. Po trzecie, elastyczność –
system podatkowy powinien łatwo dostosowywać się do zmieniających się warunków. Po czwarte, odpowiedzialność polityczna – system podatkowy powinien być
przejrzysty. I po piąte, sprawiedliwość – system podatkowy powinien być sprawiedliwy i powinien być postrzegany jako słuszny. Powinien traktować podobnie osoby
znajdujące się w podobnej sytuacji i nakładać wyższe podatki na tych, którzy mogą
udźwignąć większe obciążenia podatkowe [Stiglitz 2004 s. 550–553].
Do zasad podatkowych odwołują się także współcześni reformatorzy systemów
podatkowych. Współczesny katalog zasad – postulatów konstrukcji optymalnego
systemu podatkowego, został sformułowany także przez amerykański Joint Economic Comittee of Senate and House of Representative [Brzeziński 2008 s.73–74]:
–
Podatnicy powinni mieć pełny dostęp do informacji o zasadach opodatkowania oraz o własnej sytuacji podatkowej.
–
Formy opodatkowania powinny być widoczne, a nie ukryte.
–
System podatkowy powinien zapewniać równe traktowanie wszystkich kategorii podatników, unikając zróżnicowania na podstawie kryterium źródła
dochodów czy sposobu jego wykorzystania.
–
System podatkowy powinien zapewniać przede wszystkim jednakowe traktowanie wszystkich podobnych rodzajów aktywności gospodarczej, a niekoniecznie jednakowe traktowanie podatników z punktu widzenia ich sytuacji osobistej.
–
Należy unikać podwójnego opodatkowania.
–
System podatkowy powinien być możliwie prosty.
–
System podatkowy powinien być neutralny wobec gospodarki i ma wpływać na decyzję podmiotów gospodarujących.
–
Podatki powinny być oparte na możliwie szerokiej bazie opodatkowania (tj.:
bez zwolnień, ulg podatkowych itp.) – przy jednoczesnym stosowaniu możliwie niskich stawek podatkowych.
z powyższym, do podatków bezpośrednich zalicza się podatki od kapitału oraz od dochodu, a do podatków pośrednich – podatki od konsumpcji, lub szerzej, podatki od wydatków. Powyższy podział podatków odgrywa niezwykłą rolę w praktyce podatkowej, wynika to z zalet i wad tych grup podatków.
Do zalet podatków bezpośrednich zalicza się: stałą wydajność, elastyczność, oszczędność kosztu poboru, personalizację, a do wad: powolność poboru, ostentacyjność i niesprawiedliwość pobrania oraz złożoność opodatkowania. Zaletami podatków pośrednich są: wydajność fiskalna, znieczulenie podatkowe, elastyczność ekonomiczna, szybkość poboru, a wadami są: znaczne koszty poboru, przerzucalność,
niesprawiedliwość oraz pośrednie krępowanie działalności gospodarczej. Szerzej: [Pomorska (i in.)
2003 s. 11–13].
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
155
–
Zmiany w prawie podatkowym, których rezultatem byłoby podwyższenie
obciążenia podatkowego, nie mogą być wprowadzane ze skutkiem wstecznym.
–
Krajowy system podatkowy powinien stwarzać niemniej korzystne warunki
opodatkowania niż systemy innych państw o porównywalnym stopniu rozwoju gospodarki.
Można zatem przyjąć, że do podstawowych kryteriów oceny każdego systemu
podatkowego zalicza się [Dziemianowicz 2007 s. 73–74]: efektywność (podatkową
i ekonomiczną), sprawiedliwość i prostotę (taniość zastosowanych rozwiązań) opodatkowania. Normy te mają charakter uniwersalny i pozwalają na ocenę zarówno
nowego, jak i istniejącego systemu podatkowego. Zdaniem R. Dziemianowicz, podejście tradycyjne, oparte na tzw. zasadach podatkowych, łączy się częściowo z oceną systemu podatkowego wynikającą z teorii optymalnego opodatkowania. Mimo że
w tym drugim przypadku podatki weryfikuje się z punktu widzenia maksymalizacji
funkcji dobrobytu społecznego, to ekonomiczna efektywność systemu podatkowego, jak i koszty egzekucji fiskalnej i jego sprawiedliwość są tu bardzo istotne.
Reasumując, należy stwierdzić, że współcześnie następuje adaptacja zasad klasycznych do bieżącej sytuacji, ale także formułuje się nowe zasady podatkowe, które
są wynikiem zmian w systemie podatkowym. Należy także zgodzić się z N. Gajl, że
wśród formułowanych w teorii opodatkowania zasad szczególne znaczenie ma zasada sprawiedliwości opodatkowania, która staje się istotnym kryterium oceny współczesnych podatków (systemów podatkowych), [Gajl 1992 s. 142].
4. Pojęcie i zakres sprawiedliwości podatkowej
Pojęcie sprawiedliwość znajduje się w powszechnym użyciu, tak w znaczeniu
potocznym, jak w: filozofii5, etyce6, prawie7 i w teorii podatków. Encyklopedyczna
5 W. Morawski wyróżnia trzy filozoficzne pojęcia sprawiedliwości społecznej. Po pierwsze, hobbesowskie pojęcie sprawiedliwości to system reguł zabezpieczających ludziom „wzajemne korzyści”.
Jeżeli państwo – Lewiatan nie zagwarantuje tych reguł, ludzie nie zaznają pokoju społecznego i nie będą mieli zapewnionej minimalnej kooperacji. Po drugie, rawlsowskie reguły sprawiedliwości społecznej mają, z kolei, zapewnić „sprawiedliwość jako bezstronność”. Rawls uważa, że interes własny jednostek może mieć mniejsze znaczenie, kiedy zawierają one hipotetyczną umowę społeczną w warunkach
„zasłony niewiedzy”, ściślej, gdy mają zapewnioną równość w zakresie wolności osobistej i minimum
życiowego. Po trzecie, „sprawiedliwość jako odwzajemnianie”. Brian Barry stara się zbudować syntetyczną alternatywę wobec obu, wyżej przedstawionych, wizji, gdyż widzi możliwość zbudowania systemu sprawiedliwości będącego kombinacją systemu „wzajemnych korzyści” jako kryterium dla reguł,
a zarazem systemu, który zapewnia „bezstronność” [Morawski 2001 s. 15].
6 Pojęcie sprawiedliwość (ang. Justice), z punktu widzenia etyki, to jedna z czterech – siedmiu
cnót kardynalnych polegająca na oddawaniu każdemu wszystkiego, co mu się należy (sumum cuique).
W odróżnieniu od caritas, sprawiedliwość nie wykracza poza to, do czego inny człowiek jest uprawniony: a) sprawiedliwość zamienna (wymienna), (iustitia commutativa) – dotyczy wymiany dóbr między
osobami prywatnymi i równowartości tych dóbr, przy czym chodzi tu zarówno o dobra wewnętrzne,
jak i o dobra zewnętrzne; b) sprawiedliwość prawna (legalna), (iustitia legalis) – podporządkowuje
działanie członków społeczeństwa dobru społecznemu; c) sprawiedliwość rozdzielcza (dystrybutywna),
(iustitia distributiva) – dotyczy: rozdziału dóbr, podziału pracy, równomiernego rozłożenia ciężarów,
156
Katarzyna Lewkowicz-Grzegorczyk
definicja sprawiedliwości zaczyna się od stwierdzenia, że jest to pojęcie o wieloznacznej treści [Nowa Encyklopedia...1996 s. 977].
W znaczeniu filozoficznym, Arystoteles rozróżniał pojęcia sprawiedliwości
rozdzielczej i wyrównawczej. Sprawiedliwość rozdzielcza sprowadza się do
równego traktowania wszystkich podmiotów należących do tej samej kategorii, natomiast sprawiedliwość wyrównawcza wyraża się w takiej samej odpłacie dobra za
dobro, zła za zło, aby kara odpowiadała winie, a nagroda zasłudze. Z definicji Arystotelesa, do podatków można zastosować pojęcie sprawiedliwości rozdzielczej,
sprowadzające się do równego traktowania podatników. Równe traktowanie podatników jest jedną z podstawowych zasad podatkowych i istotnym kryterium oceny
systemu podatkowego [Nowa Encyklopedia.... 1996 s. 977].
W znaczeniu prawniczym, sprawiedliwość oznacza cechę decyzji w procesie
stosowania prawa, w ujęciu pozytywistycznym, sprawiedliwość jest to decyzja, która została podjęta przez kompetentny organ zgodnie z ustaloną procedurą. Poszukiwanie stałych i obiektywnych kryteriów sprawiedliwości jest dążeniem charakterystycznym dla różnych szkół prawa natury [Nowa Encyklopedia...1996 s. 977].
Sprawiedliwość podatkowa jest rozumiana jako powszechne i równomierne
obciążenie różnych grup społecznych, wyznacza moralnie akceptowaną granicę
opodatkowania. Powszechność i równość opodatkowania powinna uzmysławiać
obywatelom, że ciężar utrzymania państwa spoczywa na wszystkich. Zaś sprawiedliwe rozłożenie ciężaru podatkowego to takie, które uwzględnia zdolność opodatkowanego do poniesienia tego ciężaru [Formy zmniejszania... 2002 s. 16].
Poszukując dalej odpowiedzi na pytanie dotyczące sprawiedliwości w zakresie
podatków, można przyjąć dwie perspektywy oceny: obiektywną i subiektywną [Famulska 1996 s. 3–4]. Sprawiedliwość, w ujęciu obiektywnym, ma szczególny walor
praktyczny, ponieważ w tym rozumieniu stara się ją uwzględnić władzę publiczną,
nakładając podatki. Natomiast sprawiedliwość subiektywna, zwana także spostrzeganą, dotyczy postrzegania podatków jako sprawiedliwych przez samych podatników8. Kierunkiem, w którym powinna zmierzać polityka podatkowa, jest dążenie do
np. podatków, dokonywanego przez społeczność między jej członków. Częścią sprawiedliwości rozdzielczej jest sprawiedliwość karząca (iustitia vindicativa), która polega na stosowaniu kar za naruszenie porządku moralnego; d) Sprawiedliwość społeczna (iustitia socialis) – polega na przestrzeganiu
prawa naturalnego lub prawa pozytywnego, regulującego stosunki między społecznością a jednostkami,
grupami, także stosunki między społecznościami (Ch. Perelman), [Słownik terminów ... s. 822–823].
7 W prawodawstwie pojęcie sprawiedliwość to: zasada polegająca na określonym zastosowaniu
idei równości, traktowana jako idealna lub naturalna norma – prawa: a) Sprawiedliwość formalna,
czyli abstrakcyjna – zasada, zgodnie z którą wszystkie osoby należące do tej samej kategorii istotnej
powinny być traktowane jednakowo; b) Sprawiedliwość konkretna – formuła będąca uszczegółowieniem sprawiedliwości abstrakcyjnej przez określenie, co jest podstawą tworzenia kategorii istotnych,
tzn. cech charakterystycznych, jakie należy brać pod uwagę przy wymiarze sprawiedliwości bądź też
przez określenie sposobu przynależności do tej samej kategorii. Przykłady różnych formuł konkretnych: każdemu to samo; każdemu według zasług; każdemu według pracy; każdemu według potrzeb;
każdemu według jego pozycji; każdemu według prawa itp. (Ch. Perelman), [Słownik terminów ...
s. 822–823].
8 Psychologowie, zajmujący się podatkami, interesują się przede wszystkim subiektywną sprawiedliwością systemu podatkowego – tym, co ludzie faktycznie odczuwają jako słuszne i sprawiedliwe.
Prowadzone badania w tym zakresie nie są zbyt optymistyczne. Na przykład w USA 70% badanych
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
157
osiągnięcia zbieżności sprawiedliwości spostrzeganej z obiektywną. W ekonomii
dominuje pierwsza z nich. Ekonomiści, określając obiektywną sprawiedliwość systemu podatkowego, odwołują się jednocześnie do dwóch kryteriów: sprawiedliwości
poziomej i sprawiedliwości pionowej.
O sprawiedliwości poziomej mówimy, gdy podmioty, będące w podobnej lub
identycznej sytuacji, są tak samo opodatkowane. Zastosowanie tej zasady jest tylko
na pozór proste. Nie realizują jej podatki rzeczowe, natomiast uwzględniają ją bardziej złożone podatki osobiste, biorąc pod uwagę indywidualną sytuację opodatkowanego, np.: stan zdrowia, liczbę osób na utrzymaniu. Kierowanie się tą zasadą może doprowadzić do niesprawiedliwości poziomej. Uwzględnienie różnych cech przy
określaniu podobieństwa może prowadzić do znacznie zróżnicowanych wyników
(chodzi tu m. in. o zasadność uwzględniania w procesie opodatkowania sytuacji rodzinnej podatnika)9.
Natomiast sprawiedliwość pionowa w opodatkowaniu polega na tym, że podmioty lepiej sytuowane są bardziej obciążone, niż podmioty znajdujące się w gorszej
sytuacji materialnej [Famulska 1996 s. 3–4]. To znaczy podatnicy w lepszej sytuacji
powinni płacić wyższe podatki. Analiza tej zasady wymaga zdefiniowania, jak należy
rozumieć lepszą sytuację podatnika (może ona oznaczać wyższy dochód) oraz „wyższe podatki”. Zasada sprawiedliwości pionowej jest związana bezpośrednio z redystrybucyjnymi własnościami systemu podatkowego10. Wiąże się ona z udzieleniem
odpowiedzi na pytanie: czy system podatkowy powinien wpływać na rozkład dochodu
w populacji, a jeśli tak, to w jakim stopniu i w jaki sposób? [Kośny 2007 s. 69].
Znaczenie i rangę zasady sprawiedliwości podatkowej podnosi konstytucyjne jej
zagwarantowanie, wyrażone jako powszechność i równość opodatkowania. Powszechność opodatkowania jest rozumiana w teorii jako sytuacja, w której każdy
uczestniczy stosownie do zdolności płatniczej w pokrywaniu wydatków publicznych
[Gomułowicz 2003 s. 19]11. Zatem, idea powszechności zostaje naruszona wówczas,
uważa, iż płaci zbyt wysokie podatki w porównaniu z podatnikami posiadającymi wyższe bądź niższe
dochody (sprawiedliwość pionowa). Z kolei, blisko 60% badanych ocenia, że płaci więcej aniżeli ludzie
osiągający podobne dochody (sprawiedliwość pozioma). Szerzej: [Famulska 1998 s. 21].
9 Szerzej: [Kośny 2007 s. 68 i nast.].
10 Podstawowy zakres wymagań interpretacji zasady sprawiedliwości pionowej z wybranymi ekonomicznymi modelami podatku przedstawił Kośny [Kośny 2007 s. 69, za: Kakwani, Lambert 1998 s. 369–380].
11 Zdolność płatnicza jest jednym z elementów urzeczywistnienia sprawiedliwości podatkowej zakładającej powszechność podatkową i równość, z pełnym uwzględnieniem sytuacji materialnej podatnika [Kosikowski, Ruśkowski 2006 s. 497]. Uważa się, że stosowanie zasady zdolności płatniczej jest
przejawem uwzględnienia pewnej „zasady nadrzędnej”, która uzasadnia istnienie państwa. Zasada ta
nakazuje finansować potrzeby publiczne zgodnie z możliwościami państwa przy uwzględnieniu interesów całego społeczeństwa, a nie wybranych grup [Gomułowicz, Małecki 2010 s. 80]. A. Gomułowicz
wskazuje na zespół cech charakteryzujących zdolność płatniczą. Po pierwsze, powinna być ujmowana
przede wszystkim w kategoriach ekonomicznych. Po drugie, jest uzależniona od rodzaju i sposobu powstawania dochodu. Po trzecie, powinna obejmować wszystkie elementy ekonomiczne, które świadczą
o indywidualnej możliwości poniesienia podatku. Te wyróżniki zdolności płatniczej pozwalają na stwierdzenie, iż dla przestrzegania równomierności opodatkowania konieczne są interpersonalne porównania. Jeżeli
porównuje się sytuację dwóch podmiotów: podmiotu A i podmiotu B, to równomierność nakazuje, by podatnicy,
którzy reprezentują taką samą zdolność płatniczą w odniesieniu do danego podatku, byli traktowani jednakowo [Gomułowicz 2001 s. 37–38].
158
Katarzyna Lewkowicz-Grzegorczyk
gdy odmiennie traktuje się pewne grupy podatników, aniżeli pozostałe. Problem pojawia się w przypadku stosowania ulg i zwolnień podatkowych. Wmontowany
w progresję podatkową, przede wszystkim w podatkach od dochodów osobistych,
system ulg i zwolnień znacząco zmienia rozkład realnie płaconych podatków w porównaniu z podatkami, jakie wynikają z samego rozkładu wielkości dochodów.
Z kolei, równomierność zaleca, aby wszystkie podmioty, które znajdują się w takich
samych podatkowych warunkach, traktować tak samo [Gomułowicz 2001 s. 34].
W literaturze przedmiotu wyróżnia się trzy koncepcje sprawiedliwości podatkowej [Bouvier 2000 s. 242–243]. Pierwsze podejście nawiązuje do pojmowania sprawiedliwości opartej na wymianie. Oznacza ona, że każdy podatnik powinien zapłacić
tyle samo, bez uwzględniania jego sytuacji indywidualnej i ewentualnych nierówności
ekonomicznych lub społecznych między podatnikami.
Druga koncepcja sprawiedliwości podatkowej opiera się na podejściu proporcjonalnym, które określa się mianem sprawiedliwości dystrybucyjnej. Koncepcja ta zakłada, że opodatkowanie powinno być zróżnicowane w zależności od stopnia, w jakim podatnik korzysta z wytworzonych bogactw. Podatkiem sprawiedliwym jest podatek proporcjonalny. W tym przypadku sprawiedliwość nie jest tożsama z bezpośrednią równością między jednostkami, lecz z równością stosunku między tym, co
każdy wnosi i wynosi z produktu wytworzonego przez wszystkich.
Trzecie podejście powołuje się na ścisły związek sprawiedliwości podatkowej ze
sprawiedliwością społeczną. Za pomocą podatku dąży się do zmniejszenia nierówności dochodów. Tu podatek musi być progresywny, zindywidualizowany oraz musi
uwzględniać zdolność podatkową podatnika.
Tak więc, zadaniem państwa jest skonstruowanie takich podatków i takiego systemu podatkowego, które będą mogły uwzględniać ekonomiczne i społeczne granice obciążenia podatników. Jeżeli społeczeństwo musi przyjąć na siebie określone
ciężary podatkowe, to powinno się to odbywać według określonych norm i zasad.
W tym właśnie wyraża się współcześnie rozumiana sprawiedliwość podatkowa, która w państwie prawa powinna być podstawowym elementem prawa podatkowego.
Jeżeli tego nie ma, można tylko mówić o pewnym ładzie lub nieładzie podatkowym,
w którym opodatkowanie stałoby się procesem pozbawionym etyczno-prawnego
podłoża [Tegler 1994 s. 138].
W Raporcie „Paying Taxes 2009” autorzy również piszą o prostym i sprawiedliwym systemie podatkowym. Przez prostotę rozumieją szerokie zastosowanie zasad
ogólnych i zmniejszenie znaczenia wszelkiego rodzaju wyjątków. Z kolei, praktyczne
rozumienie sprawiedliwości prowadzi do wniosku, że opodatkowanie powinno
uwzględniać tzw. zdolność płatniczą podatników, a ponadto, powinno mieć charakter powszechny. Innymi słowy, wszelkie zwolnienia ograniczające zasadę powszechności powinny zostać uchylone, chyba że mają szczególnie gruntowne uzasadnienie
[Czarnecka-Żochowska, Kaim 2009 s.7].
Autorzy, wyżej wymienionego, raportu podkreślają, że prostota systemu podatkowego, podobnie jak jego sprawiedliwość, jest wartością samą w sobie, niezależnie
od wysokości obciążeń. Uważają również, że ustawodawca powinien posługiwać się
stawkami możliwie niskimi i jednolitymi. W zamian za to może, a nawet powinien,
dążyć do powiększenia podstawy opodatkowania przez rezygnację ze stosowania:
ulg, preferencji czy zwolnień. Tego typu narzędzia naruszają zasadę powszechności
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
159
opodatkowania i pociągają za sobą nadmierne obciążenie tych obywateli, którzy
z preferencji nie korzystają. Wspomniane, nadmierne obciążenie to wynik niepotrzebnie zawyżonych stawek, które mogłyby zostać obniżone, gdyby opodatkowanie
było powszechne [Czarnecka-Żochowska, Kaim 2009 s.7].
Sprawiedliwe opodatkowanie stanowi, niewątpliwie, argument pozwalający uzyskać społeczną akceptację dla systemu podatkowego. W swoim subiektywnym podejściu, podatnicy utożsamiają najczęściej sprawiedliwość podatkową z obniżaniem
ciężarów podatkowych, a w skrajnych przypadkach nawet z ich całkowitym wyeliminowaniem. Z kolei, nakładanie podatków przez władzę publiczną, przy odpowiednim rozłożeniu obciążeń podatkowych na poszczególne podmioty, obiektywizuje sprawiedliwość podatkową [Formy zmniejszania... 2002 s.15].
5. Urzeczywistnienie postulatów sprawiedliwości
w konstrukcji podatku dochodowego od osób fizycznych
Podatek dochodowy od osób fizycznych to podatek bezpośredni obejmujący dochody uzyskiwane przez osoby fizyczne12. Jest obciążeniem osobistym, co oznacza,
że podatnikiem jest każda osoba fizyczna osiągająca dochód.
Polska konstrukcja podatku dochodowego od osób fizycznych zawiera liczne
wyjątki od ogólnej zasady powszechności opodatkowania. Ustawodawca wyłącza
niektóre przychody z opodatkowania13. Zgodnie z przepisami ustawy, nie stosuje się
jej m.in. do przychodów z działalności rolniczej (z wyjątkiem przychodów z działów
specjalnych produkcji rolnej), przychodów z gospodarki leśnej oraz przychodów
podlegających przepisom o podatku od spadków i darowizn, przychodów wynikających z czynności, które nie mogą być przedmiotem prawnie skutecznej umowy,
świadczeń na zaspokojenie potrzeb rodziny, przychodów (dochodów) armatora
opodatkowanych na zasadach wynikających z ustawy o podatku tonażowym.
Podatek dochodowy pobiera się od podstawy jego obliczenia, według dwustopniowej skali, która obowiązuje od 1 stycznia 2009 roku14. Warunkiem sprawiedliwego obciążenia podatkowego są nie tylko odpowiednie stawki podatku, ale także odpowiednie uwzględnienie poziomu dochodu, przyjętego w danych warunkach za
minimalny, konieczny do przeżycia. Zgodnie z teorią opodatkowania, przyjmuje się,
że dochód, nieprzekraczający pewnego poziomu, stanowi minimum życiowe, które
nie powinno być opodatkowane – to minimum nie podlegające opodatkowaniu nazywa się kwotą wolną od podatku [Gaudement 2000 s. 462]. Wyłączenie tej kwoty
z obciążenia stanowi element budowy skali podatkowej. W podatku dochodowym
od osób fizycznych jest to pomniejszenie podatku w pierwszym szczeblu skali poW Polsce jest uregulowany ustawą z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych [Dz.U. z 2010 r., Nr 51, poz. 307].
13 Art. 2 ust. 1 ustawy z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych... op. cit.
14 W momencie uchwalania ustawy o podatku dochodowym od osób fizycznych ustalono stawki na
poziomie: 20%, 30% i 40%. W 1994 r. stawki wzrosły do poziomu: 21%, 33% i 45%. W 1997 roku dokonano kolejnej zmiany wysokości stawek i ustalono je na poziomie: 20%, 32% i 44%, natomiast już
od 1998 r. stawki te zostały odpowiednio obniżone do: 19%, 30% i 40% i obowiązywały aż do 2009 r.
12
160
Katarzyna Lewkowicz-Grzegorczyk
datkowej o wysokość podatku należnego od kwoty uznanej za wolną od podatku
(w 2010 roku dochód nie podlegający opodatkowaniu wynosi 3 091 zł).
Często omawianym elementem sprawiedliwości jest postulat wprowadzenia do
systemu fiskalnego podatku liniowego, uważanego przez część ekonomistów i polityków za sprawiedliwszy. Zwolennicy twierdzą, że jest on najkorzystniejszy dla gospodarki i najbardziej sprawiedliwy. Każdy obywatel powinien oddawać na rzecz
państwa taką samą część swoich dochodów i to niezależnie, czy są to dochody z:
pracy, działalności gospodarczej, wynajmu domu czy lokat kapitałowych [Olechowska 2003 s.45]. W praktyce podatki od dochodów osobistych bywają jednak zazwyczaj progresywne15.
Z punktu widzenia efektywnego osiągania celów fiskalnych i pozafiskalnych polityki podatkowej, opodatkowanie powinno stanowić równomierne i umiarkowane
obciążenie obywateli podatkami. Zbyt wysokie progresywne stawki podatkowe hamują motywację do wydajniejszej pracy i zwiększania tym samym własnych zarobków i majątku, co powoduje zmniejszanie oszczędności, a w konsekwencji możliwość dokonywania inwestycji. Takie postępowanie może przyczyniać się do ucieczki
zamożniejszych podatników przed płaceniem podatków do krajów o niższych obciążeniach. W konsekwencji, cel rozłożenia ciężaru podatków, według zdolności
płatniczej podatnika, nie zostanie osiągnięty, a obciążenia fiskalne będą ponosić
przede wszystkim podatnicy mało i średnio zamożni. Sosnowski twierdzi, że obciążenia podatkowe w latach 1998–2007: nie zostały rozłożone na tyle równomiernie pomiędzy podatników, aby mogły pozytywnie wpływać na ich zachowania i umożliwić skuteczną stymulację do zwiększania ich aktywności gospodarczej i osiągania wyższych dochodów [Sosnowski 2009 s. 366]. Dane z rozliczenia podatku dochodowego pokazują, że w Polsce większa część podatników płacących podatek dochodowy od osób
fizycznych według najniższej stawki (tj. podatników o relatywnie mniejszych dochodach) dostarcza budżetowi państwa tylko nieco powyżej połowy wszystkich wpływów z tego podatku16. Natomiast pozostałe grupy podatników drugą połowę tych
wpływów. Potwierdza to tylko fakt, iż około 5% obywateli, uzyskujących wyższe
i najwyższe dochody, zasila budżet państwa z tytułu płaconych kwot podatków niemal w takim samym stopniu, co pozostałe 95% obywateli.
Należy podkreślić, że w opinii publicznej poglądy na temat progresji podatkowej
w podatku od dochodów osobistych w dużym stopniu odzwierciedlają postulat
sprawiedliwości społecznej. Zgodnie z nim, podatnicy osiągający wyższe dochody
muszą proporcjonalnie więcej świadczyć na rzecz budżetu państwa niż podatnicy
z niższych grup podatkowych. Istnieje wiele argumentów przemawiających za pro15 Cechą charakterystyczną progresywnego opodatkowania dochodów jest wzrost stawki podatkowej wraz ze wzrostem podstawy opodatkowania. Tempo wzrostu wysokości podatku obliczonego, według takiej stawki, jest szybsze od tempa wzrostu podstawy opodatkowania. O stopniu obciążenia podatkiem, przy zastosowaniu stawek progresywnych, przede wszystkim decyduje konkretna konstrukcja
skali podatkowej. Ma to, z kolei, ważny wpływ na postrzeganie konkretnego podatku albo jako antybodźca do osiągania coraz wyższych dochodów, albo też jako daniny publicznej, która wywoływałby
negatywne konsekwencje dla rozwoju przedsiębiorczości [Sosnowski 2009 s. 360].
16 W 2008 r. podatnicy z I przedziału dostarczyli budżetowi państwa 52,30% ogółu wpływów z tego
podatku, z II przedziału – 23,19%, z III – 24,51% [Informacja dotycząca rozliczenia podatku dochodowego od osób fizycznych za 2008 r., za: Ministerstwo Finansów 2009 s.14].
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
161
gresją podatkową. P. Kuwalczuk zwraca uwagę na trzy następujące przyczyny dominacji konstrukcji progresywnej w opodatkowaniu dochodów osobistych. Po pierwsze, degresywny charakter podatków pośrednich (osoby o niższych dochodach są
bardziej obciążone podatkami pośrednimi), a w związku z tym progresywne podatki
dochodowe są tylko wyrównaniem degresji podatków pośrednich. Po drugie, zdolność podatkowa osób o wysokich dochodach do płacenia wyższych podatków jest
wyższa, a zatem trzeba pobierać podatki ze źródeł, które rzeczywiście istnieją.
Po trzecie, wymogi wyborcze i polityczne. Wśród wyborców osoby o dużych dochodach stanowią niewielki procent i nie trzeba liczyć się z ich znaczeniem wyborczym. Co więcej, według opinii publicznej, nie wszystkie dochody osób zamożnych
pochodzą z legalnych źródeł. W związku z czym, trzeba je dodatkowo obciążyć. Ten
swoisty „podatek penitencjarny” pełni ogromną rolę, w szczególności w takim kraju,
jak Polska [Kulawczuk 2006].
W rozważaniach dotyczących sprawiedliwości opodatkowania pojawia się pytanie, czy ulgi podatkowe17, będące odstępstwem od zasady powszechności opodatkowania, nie pozostają w sprzeczności z zasadą sprawiedliwości podatkowej. Ocena
zwolnień i ulg podatkowych jest skrajnie zróżnicowana. Jednocześnie mają one swoich zwolenników i przeciwników. Jedni podkreślają, że spełniają dwie istotne funkcje. Po pierwsze, dzięki nim możliwe jest uwzględnienie indywidualnej sytuacji podatnika. Po drugie, mogą one mobilizować najbogatszych do zwiększania inwestycji
i oszczędności [Żyżyński 2009 s. 270]. Według innych, ulgi i zwolnienia są przejawem dyskryminacji wobec tych, którzy z nich nie korzystają. Występuje tu naruszenie zasady powszechności opodatkowania. Zwolnienie z obowiązku podatkowego
określonej grupy osób wiąże się ze zwiększeniem obciążeń podatkowych w pozostałych. Rozbudowa uprawnień podatkowych oznacza więc zachwianie równości opodatkowania, co może stwarzać podstawę do twierdzenia, że prawo podatkowe jest
niesprawiedliwe. Jest tak w sytuacji, gdy z ulg mogą korzystać jedynie osoby o wysokich dochodach. Ponadto, przywileje podatkowe obniżają wpływy, jakie trafiają do
budżetu. Stosowanie ulg podatkowych jest, zdaniem J. Głuchowskiego, potwierdzeniem przez prawodawcę w sposób pośredni, że obciążenia fiskalne są zbyt duże
[Głuchowski 1999 s. 38–46].
17 Zgodnie z przepisami ordynacji podatkowej, przez ulgę podatkową rozumie się: przewidziane
w przepisach prawa podatkowego zwolnienia, odliczenia, obniżki albo zmniejszenia, których zastosowanie
powoduje obniżenie podstawy opodatkowania lub wysokości podatku, z wyjątkiem obniżenia kwoty podatku
należnego o kwotę podatku naliczonego, w rozumieniu przepisów o podatku od towarów i usług, oraz innych
odliczeń stanowiących element konstrukcji tego podatku [Art. 3 pkt. 6 Ustawy z dnia 29.08.1997 r. Ordynacja podatkowa (Dz. U. z 2005, Nr 8, poz. 60 z późn. zm.)]. Z punktu widzenia kryterium wpływu ulg
podatkowych na podstawę opodatkowania oraz na wielkość podatku dochodowego od osób fizycznych, można je podzielić na [Gomułowicz, Małecki 2010 s. 657]: 1) podlegające odliczeniu od uzyskanego dochodu, 2) podlegające odliczeniu od podatku, 3) zastosowanie niższych stawek podatkowych.
Obecnie, do pierwszej kategorii ulg należą: straty z lat poprzednich, składki na ubezpieczenia społeczne, wydatki rehabilitacyjne, darowizny, użytkowanie sieci Internet, zwrot kwot nienależnych, ulga odsetkowa, nowe technologie. Do drugiej kategorii ulg można zaliczyć: składkę na ubezpieczenie zdrowotne, oszczędzanie w kasie mieszkaniowej, wpłatę na rzecz organizacji pożytku publicznego, pomoc
domową, ulgę na wychowywanie dzieci, podatek zapłacony za granicą. Ulga podatkowa może także
przybrać postać obniżenia stawki podatkowej kwotowej lub procentowej o wskazane w ustawach
podatkowych wielkości w ustawowo określonych okolicznościach.
162
Katarzyna Lewkowicz-Grzegorczyk
Ulgi podatkowe w podatku dochodowym od osób fizycznych mogą występować
albo w formie odliczenia od dochodu albo odliczenia od podatku. Zastosowanie
każdej z tych konstrukcji powoduje inne zmniejszenie ciężaru podatkowego. Stosowanie ulgi podatkowej w postaci odliczenia od dochodu powoduje zmniejszenie
podstawy opodatkowania, a ostateczna wysokość, uzyskanej w ten sposób, ulgi zależy od wysokości dochodów podatnika i zastosowanej do nich stawki podatkowej.
Natomiast odliczenia od podatku bezpośrednio zmniejszają jego ciężar, a ich wysokość (ustalona kwotowo) jest taka sama, niezależnie od wysokości dochodów osiąganych przez podatników [Ślesicka 2009 s. 3].
Tabela 1. obrazuje wysokość wybranych ulg odliczanych od dochodów w stosunku do uzyskanego przez podatników dochodu (dochodu pomniejszonego
o składki na ubezpieczenia społeczne) w latach 2001–2009.
TABELA 1.
Ulgi odliczane od dochodu w poszczególnych przedziałach dochodowych
w latach 2001–2009 (jako % dochodu)
Przedziały
dochodów
I
II
III
Ogółem
2001
2002
2003
2004
2005
2006
2007
2008
2009
1,15
2,04
4,66
1,66
1,03
1,17
1,48
1,1
1,03
1,25
3,39
1,31
0,82
0,44
0,38
0,74
0,97
0,64
0,55
0,89
1,04
0,66
0,79
0,95
1,09
0,76
0,81
1,02
1,10
0,83
0,76
1,02
1,03
0,61
0,99
Źródło: Opracowanie własne na podstawie: [Informacja Ministerstwa Finansów dotyczących
rozliczenia podatku dochodowego od osób fizycznych w latach 2001–2009].
Lata 2001–2003 to okres, kiedy ulgi od dochodu stanowiły największy udział dochodów uzyskiwanych przez podatników, których dochody kwalifikowały się do
trzeciego przedziału dochodowego. Z kolei, lata 2004–2009 to czas, w którym ulgi
od dochodu stanowiły największy udział dochodów podatników z pierwszego przedziału dochodowego. Rok 2001 to rok przełomowy, ponieważ wtedy nastąpił najwyższy wzrost udziału odliczanych przez podatników ulg od dochodu w stosunku
do uzyskiwanych przez nich dochodów. Ulgi te wynosiły odpowiednio: 1,15%,
2,04% i 4,66% dochodu uzyskanego przez podatników z pierwszego, drugiego
i trzeciego przedziału dochodowego. W latach 2002 i 2004 (z wyjątkiem roku 2003)
udział tych ulg w dochodzie ciągle ulegał obniżeniu. Zmiana ta była spowodowana
m.in. zniesieniem niektórych ulg, jak i zmianami przepisów dotyczących ich stosowania. W roku 2005 nastąpił jednak wyraźny wzrost udziału ulg w stosunku do uzyskiwanych dochodów. Stało się to m.in. na skutek wprowadzenia nowej ulgi od dochodu. Od tegoż bowiem roku podatnicy mają prawo do obniżenia swojego dochodu o wydatki z tytułu użytkowania sieci Internet w lokalu mieszkalnym, będącym
miejscem zamieszkania podatnika. W roku 2010 kwota ta wynosi 760 zł rocznie18.
18 Art. 26 ust.1 pkt. 6a Ustawy z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych... op. cit.
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
163
W tabeli 2. przedstawiono udział wybranych odliczeń od dochodu według tytułów w latach 2001–2009. Szczególną uwagę zwrócono tu na wydatki rehabilitacyjne
oraz odliczenia związane z użytkowaniem sieci Internet, którym można przypisać
prorodzinny charakter. W latach 2001–2004 udział ulgi rehabilitacyjnej19, odliczanej
od dochodu w stosunku do pozostałych ulg odliczonych z tego tytułu przez wszystkich podatników, wyraźnie zwiększył się. Największy wzrost udziału ulg, z poziomu
25,1% do 72,50%, zanotowano w roku 2004. W latach 2005–2009 miał miejsce,
z kolei, spadek udziału wydatków na cele rehabilitacyjne do około 44% ogólnej
kwoty odliczeń od dochodu. Z danych z rozliczenia podatku dochodowego od osób
fizycznych w roku 2005 wynika, że z ulgi tej skorzystało w sumie 950 944 podatników, co stanowi około 4% ogółu podatników. Podkreślić także warto, iż ulga ta stanowiła wówczas 60,26% ogólnej kwoty odliczeń, jakich dokonano w 2005 roku od
dochodu.
TABELA 2.
Struktura odliczeń od dochodu w latach 2001–2009
(jako % ogólnej kwoty odliczeń od dochodu)
Tytuł odliczenia
2001
Wydatki na cele
25,10
rehabilitacyjne
Wydatki z tytułu
użytkowania sieci
Internet
Wydatki
37,84
mieszkaniowe
Darowizny
23,64
Wydatki na
spłatę odsetek
od kredytu
(pożyczki)
mieszkaniowego
Ulgi inwestycyjne
4,03
powszechne
2002
2003
2004
2005
2006
2007
2008
2009
39,92
35,76
72,5
60,26
54,42
49,91
44,58
44,01
-
-
-
25,23
29,10
29,82
35,38
39,15
26,60
31,90
22,80
7,90
9,41
17,30
13,76
9,97
15,56
13,13
4,71
6,61
6,68
5,31
5,32
6,00
0,12
1,16
-
-
-
-
-
-
0,88
0,10
-
-
-
-
-
-
Źródło: Jak w tabeli 1.
Z danych zamieszczonych w tabeli 2. wynika jednocześnie, że w roku 2009 ulga
rehabilitacyjna stanowiła 44,01% ogólnej kwoty odliczeń i skorzystało z niej łącznie
1 094 625 podatników (tj. 4,48% ogółu podatników). Mniejszy udział ulgi rehabilitacyjnej, w ogólnej kwocie odliczeń, w roku 2009 wynikał m.in. ze zmniejszenia się liczOdliczeniu podlegają wydatki na cele rehabilitacyjne oraz wydatki związane z ułatwieniem czynności życiowych niepełnosprawnych. Przysługuje ona niepełnosprawnym lub tym, którzy mają na
utrzymaniu takie osoby (niepełnosprawność musi być potwierdzona urzędowo przez wydanie odpowiedniego orzeczenia). Można odliczyć m.in.: wydatki na leki czy koszty utrzymania samochodu, adaptacje i wyposażenie mieszkań dla niepełnosprawnych, koszt pobytu na turnusie rehabilitacyjnym,
utrzymanie psa przewodnika itd. [Art. 26 ust. 1 pkt. 6, ust. 7a i nast. Ustawy z dnia 26 lipca 1991 r.
o podatku dochodowym od osób fizycznych ... op. cit.].
19
164
Katarzyna Lewkowicz-Grzegorczyk
by wydanych przez ZUS orzeczeń o niepełnosprawności. W przypadku wydatków
z tytułu użytkowania sieci Internet należy zauważyć, że ich udział systematycznie
wzrastał (z 25,23% w 2005 roku do 39,15% w 2009 roku). W ciągu pięciu lat funkcjonowania tej ulgi liczba podatników, którzy dokonali odliczeń, wzrosła ponad
dwukrotnie (tj. z 6% do 14,81% ogółu podatników). Świadczy to o dużym zainteresowaniu tego rodzaju ulgą ze strony podatników. Z punktu widzenia państwa, ulga
ta miała głównie za zadanie zrekompensować podatnikom obłożenie usług dostępu
do sieci 22-procentową stawką VAT.
TABELA 3.
Ulgi odliczane od podatku w poszczególnych przedziałach dochodowych,
w latach 2001–2009 (w%)
Przedziały
dochodów
I
II
III
Ogółem
2001
2002
2003
2004
2005
18,87
18,30
4,92
14,64
18,45
15,06
4,96
13,68
19,78
14,44
5,43
14,95
15,34
10,97
3,75
12,33
15,19
9,26
2,86
11,56
2006
2,93
1,74
1,35
2,32
2007
2008
2009
19,53
8,65
1,97
14,38
17,85
8,39
2,19
12,31
14,95
2,48
12,37
Źródło: Jak w tabeli 1.
Udział ulg, odliczonych od podatku w poszczególnych przedziałach dochodowych, ukazuje tabela 3. Lata 2001–2006, z wyjątkiem roku 2003, to okres, w którym
udział ulg odliczonych od podatku, w stosunku do obliczonego podatku w poszczególnych przedziałach dochodowych, uległ wyraźnemu zmniejszeniu. Spadek wykorzystywanych ulg przez podatników w pierwszym przedziale dochodowym wyniósł
z 18,87% do 2,93%, w drugim przedziale dochodowym z 18,3% do 1,74% i w trzecim z 4,92% do 1,35%. Wyraźny spadek udziału ulg w poszczególnych przedziałach
dochodowych był spowodowany m.in. likwidacją większości ulg w roku 2004. Lata
2007–2008 to ponownie wzrost udziału ulg w stosunku do obliczonego podatku,
które stanowiły średnio aż: 18,69%, 8,52% i 2,08% dochodu uzyskanego przez podatników, odpowiednio z: pierwszego, drugiego i trzeciego przedziału dochodowego. Zmiana ta była spowodowana przede wszystkim wprowadzeniem nowej ulgi od
podatku, a mianowicie tzw. ulgi na wychowywanie dzieci.
Tabela 4. przedstawia udział wybranych odliczeń od podatku według tytułów
w latach 2001–2009. Prorodzinny charakter odliczeń od podatku można przypisać
tu uldze na wychowywanie dzieci oraz wydatkom mieszkaniowym. Wydatki na cele
mieszkaniowe to ulga, która w latach 2001–2006 „przodowała” wśród ulg od podatku. W roku 2001 stanowiła 80,77% wszystkich odliczeń od podatku, zaś w roku
2005 aż 96,32%. W roku 2009 zanotowano gwałtowne zmniejszenie się udziału odliczeń związanych z wydatkami mieszkaniowymi do poziomu 1,97%. Podatnicy, rozliczając się z podatku dochodowego od osób fizycznych, do końca 2005 roku korzystali z tzw. ulgi remontowej. Od 2006 r. została ona jednak zniesiona. Mimo to, podatnicy, którym zabrakło podatku do całego rozliczenia tej ulgi, mogli ją rozliczyć
w latach następnych, w tym m.in. w zeznaniu za rok 2006. Ulga ta odgrywała wówczas znaczącą rolę. Do ulg mieszkaniowych odliczanych od podatku można zaliczyć
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
165
także: wydatki na remont i modernizację budynku oraz wpłaty na fundusz remontowy, czyli bardzo „popularne” i w znacznym stopniu wykorzystywane przez podatników ulgi. W końcowym okresie obowiązywania tych ulg (tj. w latach 2005–2006)
ich udział w ogólnej kwocie ulg odliczanych od podatku uległ znacznemu zwiększeniu. W latach 2001–2005 liczba podatników, którzy dokonali z tego tytułu odliczeń
od podatku, wynosiła średnio 38%. W kolejnych latach gwałtownie spadła do 5,38%
w roku 2006, 1,79% w 2007 roku, 1,09% w 2008 roku i 0,78% w 2009 roku, co było
spowodowane, jak już wspomniano, likwidacją tej ulgi.
TABELA 4.
Struktura odliczeń od podatku według tytułów w latach 2001–2009
(jako % ogólnej kwoty odliczeń od podatku)
Tytuł odliczenia
2001
Ulga na
wychowanie dzieci
Wydatki
80,77
mieszkaniowe
Ulga na wyszkole4,59
nie uczniów
Wydatki na dojazd
0,07
dzieci do szkół
Wydatki na zakup
przyrządów i po2,31
mocy naukowych
Wydatki na
odpłatne dokształcanie i dosko2,30
nalenie zawodowe
podatników
Wydatki na
odpłatne kształ6,18
cenie w szkołach
wyższych
2002
2003
2004
2005
2006
2007
2008
2009
-
-
-
-
-
94,02
95,57
96,21
82,06
81,69
96,31
96,32
73,29
4,05
2,40
1,97
5,44
4,73
2,66
2,11
14,86
1,88
1,34
1,09
0,06
0,05
-
-
-
-
-
-
2,2
2,64
-
-
-
-
-
-
2,45
2,68
-
-
-
-
-
-
7,16
7,18
-
-
-
-
-
-
Źródło: Jak w tabeli 1.
W roku 2007 pojawiła się nowa ulga – ulga na wychowanie dzieci20. W rozliczeniu podatku dochodowego za: 2007, 2008 i 2009 rok z ulgi na wychowanie dzieci
skorzystało odpowiednio: 3,97 mln podatników (tj. 16,43% ogółu podatników),
4,2 mln podatników (17,21%) i 4,3 mln podatników (17,77% ogółu podatników),
20 Od 2008 roku istnieje możliwość odpisu podatku należnego, określonej ustawowo, kwoty na
każde dziecko własne lub przysposobione, tzw. ulga prorodzinna. Obecnie kwota ta wynosi 1/6 rocznej kwoty wolnej od podatku na dziecko za każdy miesiąc sprawowania opieki rodzicielskiej,
tj. 92,67 zł/miesiąc. W poprzednich latach kwoty te, w ujęciu rocznym, wynosiły odpowiednio:
w 2007 r. – 1145,08 zł, w 2008 r. – 1173,70 zł, w 2009 roku – 1112,04 zł. [Art. 27 f Ustawy z dnia 26
lipca 1991 r. o podatku dochodowym od osób fizycznych ... op. cit.].
166
Katarzyna Lewkowicz-Grzegorczyk
którzy w tym roku podatkowym osiągnęli dochód. W 2009 roku łączna kwota odliczeń z tytułu ulgi na wychowanie dzieci wyniosła 5,6 mld zł, tj. 11,9% kwoty należnego podatku po odliczeniu składki na ubezpieczenie zdrowotne. Przeciętna kwota
odliczona na dziecko wyniosła 898 zł. Należy podkreślić, że aby skorzystać z tej ulgi,
trzeba mieć odpowiednio wysokie zobowiązanie podatkowe, niskie zobowiązanie,
niestety, uniemożliwia wykorzystanie ulgi w pełnej wysokości. Podatek może być
obniżony maksymalnie do poziomu zerowego, a nie wykorzystana część ulgi nie
może być skonsumowana w następnym roku. Sytuacja taka występuje najczęściej
wśród podatników osiągających najniższe dochody, co może wywołać poczucie braku sprawiedliwości podatkowej i negatywne nastawienie do całego systemu podatkowego [Ślesicka 2009 s. 4]. Tak więc, dla rodzin najbiedniejszych odliczenie od podatku nie jest w stanie zagwarantować pełnego wykorzystania ulgi.
Wprowadzenie ulgi na wychowanie dzieci pokazało, że przyniosła ona rzeczywiste korzyści podatnikom. Wyraźnie widać, iż w badanym okresie ulga ta cieszy się
bardzo dużym powodzeniem. Korzystanie w pełni z jej zalet jest możliwe jedynie
przy odpowiednio wysokich dochodach. Jak pokazuje statystyka wśród podatników
z pierwszego progu podatkowego, tylko 15,51% skorzystało z możliwości odliczenia
tej ulgi [Pismo MF...2010]. Gdzie szukać powodów tak niskiego wykorzystania ulgi
na wychowywanie dzieci? W konstrukcji tej ulgi brakuje nadal rozwiązania, które
okazałoby się korzystne dla najbiedniejszych, często wielodzietnych rodzin. Zwiększanie jej wysokości, bez zapewnienia najmniej zarabiającym podatnikom możliwości pełnego jej wykorzystania, powoduje, iż rozwiązanie to jest bardziej dogodne dla
podatników o średnich i wysokich dochodach. W rzeczywistości ulga ta jest skierowana bardziej do rodzin zamożniejszych niż do rodzin biedniejszych. Mimo że celem wprowadzenia tej ulgi było wspieranie rodzin najuboższych, w praktyce okazało
się, że skorzystały one najmniej [Ślesicka 2009 s. 3–4].
Podatnicy często powołują się na zasadę sprawiedliwości podatkowej. Najczęściej utożsamiają przy tym sprawiedliwość z obniżeniem ciężarów podatkowych,
a niekiedy całkowitym ich wyeliminowaniem, szczególnie w przypadku tych podatków, które ich bezpośrednio dotyczą. Opowiadają się natomiast za wzrostem fiskalizmu dla innych grup społecznych. Badania ankietowe, przeprowadzone w 2009 r.,
pokazują, że polski system podatkowy uważa za niesprawiedliwy 70% Polaków21.
Na ich poczucie niesprawiedliwości może wpływać między innymi skomplikowane
prawo podatkowe. Trzeba zauważyć, że są osoby, które postrzegają polski system
podatkowy jako raczej sprawiedliwy lub zdecydowanie sprawiedliwy. Takich osób
jest około 20%. Co jednak najciekawsze, że aż 10% badanych nie ma w tym zakresie
zdania. Opinie respondentów, dotyczące oceny systemu podatkowego, przedstawia
wykres 1.
Badanie zostało zrealizowane w dniach 8–10 maja 2009 r. przez PBS DGA na ogólnopolskiej,
reprezentatywnej 1030-osobowej próbie Polaków, którzy ukończyli 15. rok życia. Badanie zostało
przeprowadzone w technice CAPI (Computer Assisted Personal Interview), czyli bezpośredniego wywiadu kwestionariuszowego wspomaganego komputerowo, w ramach badania Omnibus, realizowanego co
dwa tygodnie przez PBS DGA. Przy zrealizowanej liczbie wywiadów, błąd oszacowania wynosi ±3%,
co oznacza, że wyniki uzyskane w wylosowanej próbie respondentów nie różnią się o więcej niż 3% od
danych dla całej badanej populacji. Zakłada się przy tym 95-procentowy poziom ufności.
21
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
167
WYKRES 1.
Ocena systemu podatkowego w Polsce
(Pytanie: Czy podatki w Polsce są sprawiedliwe?)
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
8
30
47
14
11
10
29
28
27
43
44
41
trudno powiedzieć
zdecydowanie niesrawiedliwe
raczej niesprawiedliwe
raczej sprawiedliwe
14
1
15
1
16
1
19
1
2006
2007
2008
2009
Źródło: [„Gazeta Prawna” z dnia 26.05.2009 r.].
WYKRES 2.
Ocena systemu podatkowego w Polsce
(Pytanie: Stawki podatkowe i liniowość systemu podatkowego,
z którym stwierdzeniem się Pan(i) zgadza?)
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
trudno powiedzieć
7
24
11
28
7
2
25
30
wszyscy powinni płacić taki sam procent dochodów
69
2006
61
2007
68
2008
68
2009
osoby o wyższych dochodach powinny płacić wyższy procent swoich dochodów w postaci podatków
Źródło: [„Gazeta Prawna” z dnia 26.05.2009 r.].
Z przeprowadzonych badań wynika również, że zdecydowana większość respondentów chciałaby, aby osoby o niższych dochodach płaciły niższe podatki, a osoby
o wyższych dochodach – wyższe niż obecnie. Zatem, Polacy preferują progresywny
system podatku dochodowego od osób fizycznych. Twierdzą, że osoby zarabiające
168
Katarzyna Lewkowicz-Grzegorczyk
najwięcej powinny oddawać fiskusowi wyższe podatki, w konsekwencji spada liczba
zwolenników podatku liniowego. Opinie badanej grupy przedstawia wykres 2.
Podsumowując, można stwierdzić, że podstawowym celem podatku jest pokrycie
obciążeń podatkowych, niemniej jednak dzięki systemowi podatkowemu państwo
może osiągać również cele gospodarcze i społeczne. Urzeczywistnieniem zamierzeń
społecznych jest np. prorodzinność podatku, a narzędziem tego są odpowiednie ulgi
podatkowe. Jest to cecha systemów podatkowych państw demokratycznych, które
realizują zasadę państwa przyjaznego obywatelowi funkcjonującemu w rodzinie.
Prorodzinność wynika z rozpoznania przez państwo problemów rodziny, do których zalicza się: mieszkanie, dzieci, zdrowie, starość. Zdaniem J. Żyżyńskiego, służą
temu: po pierwsze, ulgi i zwolnienia w podatkach od dochodów indywidualnych.
Po drugie, możliwość łącznego opodatkowania się małżonków oraz stosowanie
progresji. System podatkowy prorodzinny rozwiązuje te cztery problemy m.in. przez
zmniejszenie obciążeń związanych z uzyskaniem mieszkania (ulgi na budowę mieszkania i spłaty odsetek od pożyczek hipotecznych, ulgi z tytułu oszczędzania na
mieszkanie przez odejmowanie od podstawy opodatkowania kwot oszczędzanych
i in.) oraz możliwość odjęcia od podstawy opodatkowania kwot wydawanych na:
kształcenie dzieci (pomoce naukowe, dojazdy do szkół), ochronę zdrowia, zabezpieczenie starości oraz opiekę nad ludźmi starymi [Żyżyński 2009 s.278–279]. Polski
podatek dochodowy od osób fizycznych spełnia niektóre, wyżej wymienione, wymogi. Tabela 4. pokazuje, że możliwość odliczenia od podatku wydatków związanych m. in. z kształceniem dzieci istniała tylko do roku 2003. Natomiast, ulgi
wspomagające zaspokojenie potrzeb mieszkaniowych rodziny nie istnieją, istnieje
tylko możliwość skorzystania z praw nabytych. Ponadto, z ulg korzystają głównie
podatnicy o średnich i wysokich dochodach.
6. Podsumowanie
W Polsce podatek dochodowy od osób fizycznych, w aspekcie realizacji zasady
sprawiedliwości podatkowej, posiada zarówno cechy zgodne, jak i przeczące tej zasadzie. Głównym jego mankamentem jest to, że nie spełnia on podstawowych założeń podatku prorodzinnego, gdyż jego wysokość nie zależy od liczby dzieci będących na wychowaniu, wieku i stanu zdrowia podatnika. Ponadto, nie ma w nim odpowiedniego minimum wolnego od opodatkowania. W szczególności jest to ważne
w stosunku do osób fizycznych, gdzie jest takie minimum, raczej symboliczne i nie
spełnia w ogóle swojej roli.
Osobisty i bezpośredni charakter podatku dochodowego od osób fizycznych wyznacza szczególną rolę, jaką spełnia on w realizacji zasady sprawiedliwości. Kwestią
sporną jest, czy i jak dostosować ciężar podatku do indywidualnej zdolności podatkowej. Do cech polskiego podatku dochodowego od osób fizycznych, zgodnych
z zasadą sprawiedliwości, można niewątpliwie zaliczyć: możliwość wspólnego opodatkowania małżonków i specjalne opodatkowanie osób wychowujących samotnie
dzieci oraz istnienie ulg, zwolnień i odliczeń o charakterze społecznym i gospodar-
Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ...
169
czym. Należy podkreślić, że ustawodawca, tylko w niewielkim stopniu, uwzględnia
w tym podatku sytuację zdrowotną podatnika lub jego najbliższych krewnych22.
Przeprowadzone w latach 2006–2009 badania ankietowe pokazują, że Polacy
preferują progresywny system opodatkowania. Zdecydowanie mniej jest natomiast
zwolenników podatku liniowego. Samo zastosowanie skali progresywnej można
przyjąć, przy pewnych założeniach, jako sprawiedliwe, ale, biorąc pod uwagę brak
realnego minimum wolnego od opodatkowania oraz stosunkowo wysoką stawkę
podatku dla osób o najniższych dochodach, forma ta traci jednak swój walor. Należy
jednak podkreślić, że stworzenie sprawiedliwego dla wszystkich systemu podatkowego jest trudne. Zdaniem Gaudementa, jest to zadanie wręcz niemożliwe: Podobnie
jak alchemicy poszukujący kamienia filozoficznego, tak partie polityczne, grupy nacisku,
indywidualni badacze i osoby nawiedzone od wieków próbują stworzyć idealny system
podatkowy [...] nigdy, rzecz jasna, go nie znajdując [Gaudement 2000 s. 444].
Literatura
Bouvier M. 2000 Wprowadzenie do prawa podatkowego i teorii podatku, Warszawa.
Brzeziński B. 2008 Wprowadzenie do prawa podatkowego, Toruń.
Czarnecka-Żochowska K., Kaim P. 2009 Raport „Paying Taxes 2009”: Obraz polskich podatków i recepty na przyszłość, „Przegląd Podatkowy”, nr 4.
Dolata S. 1999 Podstawy wiedzy o podatkach i systemie podatkowym, Opole.
Dolata S. 2009 Podstawy wiedzy o polskim systemie podatkowym, Warszawa.
Dziemianowicz R. 2003 System podatkowy, [w:] J. Zarzecki (red.), Finanse, Białystok.
Dziemianowicz R.I. 2007 Efektywność systemu opodatkowania rolnictwa, Białystok.
Dziemianowicz R., Przygodzka R. 2003 Funkcje podatków i ocena ich sprawności w rolnictwie,
[w:] A. Pomorska (red.), Kierunki reformy polskiego systemu podatkowego, Lublin.
Etel L. 2008 Prawo podatkowe, Warszawa.
Famulska T. 1996 Sprawiedliwość podatkowa, „Przegląd Podatkowy”, nr 5.
Famulska T. 1998 Oddziaływanie systemu podatkowego na rynek finansowy, Katowice.
Famulska T., Znaniecka K. 2003 Obciążenia fiskalne w Polsce na podstawie badań, Katowice.
Gajl N. 1992 Teorie podatkowe w świecie, Warszawa.
Gaudement P.M., Molinier J. 2000 Finanse publiczne, Warszawa.
Głuchowski J. 2002 Formy zmniejszania wysokości podatków Polsce, Warszawa.
Głuchowski J. 1999 Sprawiedliwość podatkowa: założenia teoretyczne i możliwości aplikacyjne,
[w:] System podatkowy. Stan, kierunki reformy, wpływ na wzrost gospodarczy, Stanowisko
Rady Strategii Społeczno-Gospodarczej, Raport, nr 36, Warszawa.
Głuchowski J. 2006 Polskie prawo podatkowe, Warszawa.
Gomułowicz A. 2001 Zasada sprawiedliwości podatkowej, Warszawa.
Gomułowicz A. 2003 Zasada sprawiedliwości podatkowej w orzecznictwie Trybunału Konstytucyjnego. Aspekt materialny, Warszawa.
Gomułowicz A., Małecki J. 2010, Podatki i prawo podatkowe, Warszawa.
22 Dotyczy wyłącznie osób niepełnosprawnych lub osób mających na utrzymaniu osoby niepełnosprawne.
170
Katarzyna Lewkowicz-Grzegorczyk
Informacja dotycząca rozliczenia podatku dochodowego od osób fizycznych za lata 2000 2009,
Ministerstwo Finansów, Warszawa.
Kosikowski C. Ruśkowski E. 2006 Finanse publiczne i prawo finansowe, Warszawa.
Kośny M. 2007 Podatki a dobrobyt społeczny, Wrocław.
Kulawczuk P. 2006 Paradoksalne oddziaływanie progresji podatkowej na dobrobyt społeczny
i skuteczność wyborczą, „Ekonomista”, nr 3.
Kulicki J. Sokół P. 1996 Podatki i prawo podatkowe, Warszawa.
Małecka-Ziembińska E. 2006 Podatek dochodowy jako regulator dochodów osób fizycznych
w Polsce okresu transformacji ustrojowej, Poznań.
Mastalski R. 2000 Prawo podatkowe, Warszawa.
Matyszewska E. 2008 Podatek liniowy ma mniej zwolenników, „Gazeta Prawna” z 29.05.2008 r.
Morawski W. 2001 Sprawiedliwość społeczna a transformacja systemowa, [w:] B. Cichomski,
W. Kozek, P. Morawski, W. Morawski (red.), Sprawiedliwość społeczna. Polska lat dziewięćdziesiątych, Warszawa.
Nowa Encyklopedia Powszechna 1996, Kolisiewicz D. (red.), Warszawa.
Olechowska K. 2003 Konkurencyjność reform podatkowych – Polska na tle innych krajów, Zeszyty BRE Bank-Case, Warszawa.
Pietrzak B., Polański Z., Woźniak B. 2008 System finansowy w Polsce cz. II, Warszawa.
Pismo Ministerstwa Finansów, Departament Podatków Dochodowych, Znak DD1/016/36/
GRZ/2010/BOC-2430 z 30 czerwca 2010r.
Podsiad A. 2000 Słownik terminów i pojęć filozoficznych, Warszawa.
Pomorska A., Szołno-Koguc J., Wojtowicz K. 2003 Proces dostosowywania polskich podatków
pośrednich do standardów Unii Europejskiej, Lublin.
Przygodzka R. 2006 Fiskalne instrumenty wspierania rozwoju rolnictwa – przyczyny stosowania,
mechanizmy i skutki, Białystok.
Rosiński R. 2010 Polski system podatkowy. Poszukiwanie optymalnych rozwiązań, Warszawa.
Smith A. 2007 Badania nad naturą i przyczynami bogactwa narodów, Warszawa.
Sosnowski M. 2009 Opodatkowania dochodów osób fizycznych na zasadach ogólnych w Polsce
w latach 1998–2007 – wybrane zagadnienia, [w:] T. Lubińska, A. Szewczuk (red.), Finanse
2009 – Teoria i praktyka. Finanse Publiczne I, Zeszyty Naukowe, nr 546, Ekonomiczne
Problemy Usług, nr 36, Szczecin.
Stiglitz J.E. 2004 Ekonomia sektora publicznego, Warszawa.
Ślesicka A. 2009 Ulga podatkowa na wychowanie dzieci, Infos BAS, nr 5, Warszawa.
Tegler E. 1994 Wybrane zagadnienia zdolności podatkowej, [w:] E. Czerwińska (red.), Zdolność
podatkowa i wiarygodność kredytowa przedsiębiorstwa, Poznań.
Ustawa z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych (Dz.U. z 2010 r.,
Nr 51, poz. 307 ze zm.).
Dokument elektroniczny, tryb dostępu: [www.gazetaprawna.pl].
Żyżyński J. 2009 Budżet i polityka podatkowa. Wybrane zagadnienia, Warszawa.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Mariusz CHUDAK1
CZYNNIKI LOKALIZACJI APTEK
Streszczenie
W latach 1990-2008 liczba aptek w Polsce wzrosła o ponad 250%, przy potencjale demograficznym pozostającym praktycznie na identycznym poziomie. Zachodzi zatem kluczowe pytanie – czy istnieją obiektywne przesłanki uzasadniające tak wysoką gęstość rozmieszczenia podstawowych placówek
opieki farmaceutycznej, która należy do najwyższych w Unii Europejskiej. Celem artykułu w powyższym kontekście jest przedstawienie wymagań formalno-prawnych stawianych na etapie ubiegania się
o zgodę na ich działalność oraz wyodrębnienie czynników wpływających na decyzje lokalizacyjne wraz
z próbą systematyzacji pod względem ważności. Jednocześnie w planowaniu przestrzennym poszukuje
się rozwiązania optymalizującego stan ilościowy i usytuowanie aptek jako usług z grupy priorytetowego
znaczenia dla zaspakajania potrzeb społecznych
Słowa kluczowe: apteka, lokalizacja, planowanie przestrzenne, miasto, wieś
THE FACTORS OF LOCATION PHARMACIES
Summary
During the period of 1990-2008 the number of pharmacies in Poland increased by more than
250% along with the demographic potencial remaining on identical level. The key question is – Do objective reasons justyfying such high location density (the highest in the European Union) of the basic
pharmaceutical care centres really exist? The aim of this article, in the above context, is to present formal and legal requirements set at the stage of applying for the commercial activity consent as well as to
distinguish factors which make an impact on the location decisions along with an attempt to systematize them taking into account their importance. At the same time, in town-plannig (regional planning)
planners search for an optional solution showing the most favourable number of outlets. What is more,
the pharmacies should be situated as services of priority significance in ordrer to satisfy social needs.
Keywords: pharmacy, location, spatial planning, city, village
1. Społeczny wymiar rozwoju farmacji w ujęciu retrospektywnym
Historia medycyny sięga początków istnienia ludzkości kiedy człowiek jako istota
rozumna zaczął poszukiwać antidotum na różnorodne dolegliwości. Przez długi
okres wykorzystywał w tym celu jedynie bogactwa zaczerpnięte ze świata natury,
1 Dr Mariusz Chudak – Instytut Ekonomii i Zarządzania, Państwowa Wyższa Szkoła Zawodowa
im. J.A. Komeńskiego w Lesznie.
172
Mariusz Chudak
a w szczególności zioła i minerały. Nie dysponując skomplikowaną aparaturą badawczą, ani też żadnymi procedurami postępowania, w obecnym rozumieniu, całą
swoją erudycję opierał na wcześniejszych doświadczeniach oraz intuicji, co z reguły
pozwalało na ustalenie właściwego dawkowania substancji leczniczej w zależności
od objawów chorobowych. Z upływem czasu receptury medykamentów udoskonalono, a także zauważono dodatni efekt synergii wynikający z łączenia dwóch lub
więcej specyfików. Równocześnie zgłębiano tajniki innych kuracji, stopniowo odkrywając właściwości lecznicze: produktów pochodzenia zwierzęcego, roztworów
metali kolorowych, a nawet alkoholu w różnym stężeniu i postaciach. Zasób dostępnych leków ulegał więc istotnemu zwiększeniu, choć nadal lekarz i aptekarz były
pojęciami odnoszącymi się do jednej osoby. Prawdopodobnie, dopiero intensywny
rozwój starożytnych miast przyczynił się do wykształcenia odrębnych specjalizacji
zawodowych. Cywilizacje antyczne ukierunkowane na postęp naukowy, technologiczny i organizacyjny wychodziły bowiem naprzeciw potrzebom ludzkim, stwarzając coraz dogodniejsze warunki egzystencjalne. Niezwykle ważnym elementem stały
się w tym procesie apteki zakładane przy świątyniach, szpitalach i klasztorach, które
służyły zarówno braciom zakonnym, jak i ludności cywilnej. Pierwsza świecka placówka powstała jednak stosunkowo późno, gdyż dopiero w VIII w., z inicjatywy
Arabów na obszarze Bagdadu. W Europie wzorzec ten utrwalał się, począwszy od
XI w., obejmując swoim zasięgiem również Polskę, kiedy w 1248r. rozpoczęła działalność apteka publiczna w Świdnicy, a następnie w Krakowie (1333) i Poznaniu
(1446), [Encyklopedia... 1969 s. 60]. Ich funkcjonowanie dawało mieszkańcom poczucie większego bezpieczeństwa (bardziej w kategoriach psychologicznych niż rzeczywistych), a właścicielom należny szacunek i prestiż.
Przez wieki repertuar stosowanych środków o charakterze farmakologicznym
podlegał nieustannym modyfikacjom, aczkolwiek niezwykle rzadko pojawiały się innowacyjne mikstury, stanowiące przełom w walce z dotychczas nieuleczalnymi
przypadłościami. Nieznana była bowiem etiologia wielu chorób lub mylnie je utożsamiano ze zjawiskami nie mającymi nic wspólnego z prawdziwym podłożem (magią, przepowiedniami, układem ciał niebieskich). Ponadto, ciało ludzkie, jego budowa i mechanizmy pracy poszczególnych narządów, pozostawało w znacznej części
nierozpoznane, co wpływało nie tylko na prawidłowość diagnoz lekarskich, ale także
przekładało się na niewielką skuteczność leczenia. Sytuacja taka panowała w zasadzie do początku XX wieku, gdy na skutek rozwoju wiedzy oraz wdrażania licznych
wynalazków technicznych pojawiła się szansa ich zastosowania również do wskazań
medycznych. Opracowano wówczas asortyment zupełnie nowych leków powstałych
poprzez syntezę związków chemicznych. Jednocześnie rozpowszechnienie się systemów produkcji taśmowej ułatwiło: pełniejsze zaspokojenie potrzeb rynkowych,
ilościowo-jakościową standaryzację preparatów oraz znaczne obniżenie kosztów
jednostkowych w porównaniu z wcześniejszymi formami wytwórczości. Tym samym wzrosła dostępność i efektywność leczenia, a przeciętne trwanie życia ludzkiego stopniowo zwiększało się, osiągając w Polsce, na początku lat 50. ubiegłego stulecia, wartości: ok. 64 lat dla kobiet i 58 lat dla mężczyzn2. Faktowi temu w pewnym
2 Wszystkie zawarte w artykule dane o długości życia pochodzą z publikacji GUS. Zob.: [Rocznik
Demograficzny 2009].
Czynniki lokalizacji aptek
173
stopniu sprzyjała zapewne ekspansja aptekarstwa, które przestało być domeną miast,
wkraczając coraz śmielej na tereny wiejskie wraz z tworzeniem gminnych ośrodków
zdrowia.
Następne dekady przyniosły niebywały postęp dyscyplin naukowych związanych
z medycyną i farmakologią, zwłaszcza: mikrobiologii, inżynierii genetycznej oraz
biotechnologii. Informatyka dostarczyła, z kolei: narzędzi usprawniających wykonywanie skomplikowanych obliczeń matematyczno-statystycznych, prowadzenie symulacji komputerowych czy też prognozowanie wyników eksperymentalnych prac badawczych. Dzięki temu, terapeutyczne przeznaczenie znalazło przynajmniej kilkadziesiąt specyfików o atypowych mechanizmach działania, pozwalających na relatywne przedłużenie życia pacjentom dotkniętym przede wszystkim schorzeniami
kardiologicznymi i onkologicznymi, uznawanymi za dwie podstawowe przyczyny
przedwczesnej umieralności. Z osiągnięć tych, ze względu na permanentny brak dewiz korzystano tylko w bardzo ograniczonej skali, co wyjaśnia, utrzymujący się na
zbliżonym poziomie, w latach 1970–1990 wiek zgonu statystycznego mieszkańca naszego kraju (ok. 75 lat dla kobiet i 67 lat dla mężczyzn). Od mniej więcej połowy lat
90. XX w. skierowano w światowej medycynie większą uwagę na czynniki środowiskowe oraz odnoszące się do zachowań patogennych jako potencjalnego źródła dolegliwości somatycznych i psychicznych. Koncerny farmaceutyczne, opierając się na
relacjach naukowych (nie zawsze całkowicie zweryfikowanych), szybko uruchomiły
produkcję tzw. suplementów diety oraz wyrobów zielarskich pozbawionych rzekomo skutków ubocznych. Lansowana przez środki masowego przekazu moda na
uprawianie sportu i turystyki stymulowała dodatkowo popyt na biokomponenty
zwiększające wydolność organizmu lub poprawiające tężyznę fizyczną. W tych segmentach rynku oraz w grupie leków wydawanych bez recepty obserwuje się zarazem
intensywną kampanię promocyjną adresowaną do wszystkich grup odbiorów. Jest
ona instrumentem marketingu-mix, za pomocą którego dąży się do wzrostu ogólnej
znajomości dobra lub firmy [Altkorn i Kramer 1999 s. 197]. Wykorzystuje się tutaj
zazwyczaj reklamę telewizyjną, radiową i prasową, to niemniej wszystkie inne sposoby dotarcia do konsumenta są praktykowane, przynosząc satysfakcjonujące rezultaty.
Otwarcie granic, sukcesy farmakologii, propagowanie higienicznych i ekologicznych
modeli egzystencji oraz wszechstronna popularyzacja artykułów wspomagających
ochronę zdrowia wpłynęły łącznie nie tylko na szybki wzrost oczekiwanej długości
życia Polaków (80 lat dla kobiet i 71 lat dla mężczyzn w 2008 r.), ale również na
znacznie zwiększone zainteresowanie społeczeństwa ofertą aptek, co znalazło, z kolei, odzwierciedlenie w ich dynamicznie rosnącej liczbie na przestrzeni ostatnich kilkunastu lat. Dla porównania, w 1990 r. mieliśmy w Polsce blisko 4000 podmiotów
handlowych o takim profilu sprzedaży, w 2000 r. – 8300, a osiem lat później już
106003. Oznacza to, iż przy praktycznie nie zmieniającym się potencjale demograficznym państwa przeciętna liczba mieszkańców przypadająca na 1 aptekę spadła
w analizowanym okresie o ponad 250% (z 9500 do 3600).
W tym miejscu zachodzi podstawowe pytanie – czy istnieją obiektywne przesłanki uzasadniające tak wysoką gęstość rozmieszczenia placówek opieki farmaceu3 Wszystkie zawarte w artykule dane o liczbie aptek pochodzą z publikacji GUS. Zob.: [Rocznik
Statystyczny Rzeczypospolitej Polskiej 2009].
174
Mariusz Chudak
tycznej, która należy do najwyższych w Unii Europejskiej. W niniejszym kontekście
celem artykułu jest przedstawienie wymagań formalno-prawnych stawianych na etapie ubiegania się o zgodę na ich otwarcie oraz wyodrębnienie czynników wpływających na decyzje lokalizacyjne w tej materii wraz z próbą systematyzacji pod względem ważności. W końcowej części pracy proponuje się natomiast rozwiązanie dla
planowania przestrzennego mającego w zamyśle odgrywać optymalizującą rolę podczas wyboru miejsca usytuowania apteki.
2. Wybrane aspekty prowadzenia apteki w świetle uregulowań prawnych
Zasady obrotu detalicznego produktami leczniczymi i wyrobami medycznymi
wyznaczają aktualnie art.: 86–107 Ustawy z dnia 6 września 2001r. Prawo farmaceutyczne (tj. Dz. U. Nr 45, poz. 271 z 2008r. ze zmianami). Na tej kanwie za aptekę
uważa się jednostkę służby zdrowia publicznego, w której osoby uprawnione świadczą usługi farmaceutyczne polegające w szczególności na wydawaniu i sporządzaniu
leków oraz udzielaniu informacji o sposobach ich dawkowania, interakcjach klinicznych bądź działaniach niepożądanych. Rozstrzyga się ponadto: kwalifikacje personelu, zasób niezbędnego asortymentu i jego przechowywanie, prowadzenie reklamy,
a także kwestie urzędowej koordynacji czasu pracy w odniesieniu do potrzeb społecznych.
Legislator nie precyzuje natomiast żadnych wytycznych dotyczących lokalizacji
aptek ani także minimalnej odległości pomiędzy nimi. Należy zatem przyjąć, że
obowiązuje tutaj, prawie niczym nieskrępowana, konkurencja, zwłaszcza że ich właścicielem, po spełnieniu ściśle określonych wymagań, może zostać praktycznie każdy, jeśli nie prowadzi w tym samym czasie hurtowni farmaceutycznej i nie kontroluje
więcej niż 1% rynku na terenie danego województwa. Lekarze oraz stomatolodzy
składają dodatkowo oświadczenie o zaniechaniu praktyki zawodowej, z uwagi na
złożony kontekst etyczno-moralny łączenia funkcji medycznej i handlowej w branży
z nią bezpośrednio powiązanej.
Zezwolenie na otwarcie apteki warunkuje się przede wszystkim zatrudnieniem
kadry o odpowiednim stażu i umiejętnościach, jak również dopełnieniem procedur
administracyjnych, w tym uzyskaniem pozytywnej opinii państwowego inspektora
sanitarnego. Niezwykle ważna na tym etapie jest infrastruktura lokalowa regulowana
na drodze ustawowej. Dopuszcza się, aby placówka nie stanowiła odrębnego budynku, o ile została wydzielona od innych części obiektu oraz posiada zarazem powierzchnię podstawową (izbę spedycyjną) i pomocniczą. Jej minimalną wielkość
ustalono generalnie na 80 m2, przy czym w miejscowościach liczących do 1500
mieszkańców lub na obszarach wiejskich przyjmuje się 60 m2 za wartość wystarczającą.
Polskie regulacje na tle innych krajów europejskich należą do jednych z najbardziej liberalnych (tabela 1.).
Jak ławo zauważyć z przytoczonych danych, w rodzimej praktyce nie stosuje się
sprawdzonych i powszechnie akceptowalnych wskaźników, co sprawia, iż lokalizacja
aptek jest nierzadko przypadkowa i nieracjonalna ekonomicznie. Przedsiębiorcy nie
zawsze bowiem analizują ich przyszłe położenie pod tym kątem, a jednocześnie słabo interesują się pozostałymi czynnikami determinującymi rentowność planowanej
175
Czynniki lokalizacji aptek
inwestycji. W rezultacie nadmiernej podaży usług, w 2008r. po raz pierwszy zaobserwowano niewielki spadek liczby zarejestrowanych jednostek (o 4) względem roku
2007. Problem ten będzie przypuszczalnie narastać w najbliższych latach, a minimalizacją jego implikacji winno zająć się planowanie przestrzenne, wychodząc naprzeciw ze stosownymi dyrektywami urbanistycznymi.
TABELA 1.
Kryterium demograficzne i geograficzne lokalizacji aptek
w wybranych krajach Unii Europejskiej
Państwo
Austria
Belgia
Chorwacja
Estonia
Francja
Włochy
Portugalia
Słowenia
Hiszpania
Minimalna liczba ubezpieczonych
na 1 aptekę
Minimalna odległość pomiędzy
aptekami w metrach
5500
2000–3000
3000–5000
3000
2500–3000
4000–12500
4000
5000
2800
500
1000–1500
200–500
500–1000
nie ma
200
500
400
250
Źródło: [Community Pharmacy in Europe, PGEU Selected Facts and Figures, 2008].
3. Podstawowe determinanty wyboru miejsca lokalizacji apteki
Profity z każdej działalności gospodarczej w dużej mierze zależą od jej prawidłowej orientacji przestrzennej względem: najważniejszych grup odbiorców, kooperantów i konkurentów. Nie ulega wątpliwości, że w przypadku aptek będzie to społeczność lokalna, wytwórnie i hurtownie farmaceutyczne oraz inni świadczeniodawcy o podobnym profilu handlowo-usługowym (np. sklepy zielarskie). Analiza otoczenia, które można określić mianem swoistego, stanowi jednak dopiero preludium
w procesie lokalizacyjnym. W drugiej fazie należy równie starannie przyjrzeć się pozostałym elementom charakteryzującym daną jednostkę osadniczą, choćby z pozoru
wydawały się mało istotne. Doświadczenia praktyczne wskazują bowiem, iż takie
komponenty niekiedy wzajemnie się uzupełniają lub nakładają, odgrywając nawet rolę nadrzędną. Warto ponadto pamiętać, że funkcje pełnione przez apteki nierozerwalnie kojarzą się z udzielanymi poradami lekarskimi, będąc ich naturalną konsekwencją na płaszczyźnie medycznej, ale często także architektoniczno-urbanistycznej. Znajdują siedzibę w budynkach publicznej i prywatnej służby zdrowia lub
ich bliskim sąsiedztwie. Rozmieszczenie to, obok usytuowania w śródmieściu
i w ramach centrów handlowo-rozrywkowych, gwarantuje dodatni wynik finansowy
wynikający z koncentracji ludności na stosunkowo niewielkim obszarze bądź jej stałych strumieni przepływu przez większą część dnia. Pozwala w rezultacie na zaproponowanie wysokich stawek czynszu za m2 zajętej powierzchni, czym uzyskuje się
przewagę konkurencyjną nad mniej dochodowymi przedsięwzięciami. Zjawiska ta-
176
Mariusz Chudak
kiego nie obserwuje się na terenach wiejskich oraz w małych miastach z tytułu zbyt
słabo zaznaczonego oddziaływania renty gruntowej. Dlatego trudno tutaj mówić
o najbardziej dogodnej lokalizacji, ale jest ona prawdopodobnie wypadkową odległości od centrum i miejscowej przychodni, co zapewnia najlepszą dostępność przestrzenną. Pogląd ten znajduje szczególne uzasadnienie, jeśli funkcjonuje tylko jedna
apteka, a układ zabudowy posiada charakter rozproszony.
Dokonując przeglądu literatury przedmiotu można znaleźć co najmniej kilka ciekawych klasyfikacji czynników lokalizacyjnych, które kompleksowo odnoszą się do
działalności podmiotów ukierunkowanych na maksymalizację zysku. Dotychczas
traktowano je głównie w kategoriach korzyści zachodzących wówczas, gdy firma
miała powstać w konkretnej miejscowości [Godlewska 2001 s. 13]. Marginalizowano
zatem znaczenie położenia w wewnętrznej strukturze miasta, a przecież inwestor
musi dysponować działką o określonym przeznaczeniu i powierzchni umożliwiającą
posadowienie wszelkich niezbędnych budynków, budowli i urządzeń. Równocześnie
nadmierne gloryfikowano tzw. czynniki miękkie (niemierzalne), do jakich zalicza się
np.: przychylne nastawienie władz publicznych, klimat społeczny, różnorodność
sposobów spędzania wolnego czasu, atrakcyjność miasta wraz z jego ofertą kulturalną i edukacyjną [Dziemianowicz 1998 s. 220]. W rzeczywistości lista okoliczności
i elementów, branych pod uwagę przez przedsiębiorców inicjujących swoją aktywność, od lat nie podlega radykalnym zmianom, ale zupełnie inaczej dokonuje się ich
waloryzacji. Obecnie o wiele bardziej, niż w połowie XX w., ceni się wiedzę od zasobów taniej siły roboczej i środków kapitałowych, które stały się łatwiejsze do pozyskania. Nowe technologie transportowo-komunikacyjne, a przede wszystkim innowacyjność procesów produkcji i poszczególnych dóbr powodują, że jednostki gospodarcze są coraz mniej uzależnione od przestrzennej lokalizacji, co definiuje się
pod pojęciem foot-loose (bez przywiązania do miejsca), [Czerny 2005 s. 175]. Niemniej nadal, poza kilkoma wyjątkami, nie stracił kluczowej pozycji potencjał ośrodka miejskiego wyrażony liczbą jego mieszkańców czy też funkcją w systemie administracyjnym kraju. Ujęcie to, w powiązaniu z wtórnymi przesłankami aktywizującymi
przedsiębiorczość na poziomie lokalnym, jest niedostatecznie reprezentowane
w pracach teoretycznych, a zarazem uwzględniane w badaniach empirycznych [Chudak 2009a s. 214]. Z dobrym skutkiem wzbogaca jednak końcowe wnioskowanie
i pełniej wyjaśnia decyzje lokalizacyjne. W odniesieniu do aptek znajduje bardziej niż
skromne zastosowanie, a mimo to będzie podjęta interpretacja stawianego problemu
w owym kontekście. Niniejsze postępowanie ma również odzwierciedlać wyraźnie
zaznaczony dysonans autora wobec dominujących ostatnio tendencji do nadmiernego uogólniania i upraszczania zjawisk społeczno-gospodarczych.
4. Drugoplanowe czynniki lokalizacji aptek
Całokształt pobudek wpływających na rozmieszczenie aptek, obok omówionych
wcześniej uwarunkowań (także prawno-administracyjnych), można podzielić na
3 komplementarne względem siebie grupy: demograficzno-społeczne, finansowoekonomiczne oraz techniczno-infrastrukturalne. W każdej z nich wyróżnia się od
2 do 5 składowych, którym nadano hipotetyczną rangę (znaczenie), posługując się
Czynniki lokalizacji aptek
177
czterostopniową skalą jakościową. Systematyzacja taka nie jest z pewnością doskonała, albowiem, nie operując parametrami skwantyfikowanymi, odnosi się tylko
do subiektywnych odczuć i winna zostać potwierdzona lub skorygowana poprzez
reprezentatywne badania przeprowadzone na próbie ogólnopolskiej. W żadnym wypadku nie należy bowiem arbitralnie wykluczać istnienia innych, racjonalnych czynników lokalizacyjnych, zwłaszcza występujących lokalnie.
Zbiór elementów demograficzno-społecznych otwiera traktowana oddzielnie
struktura wieku i płci mieszkańców (tabela 2.). Postępujący proces starzenia się społeczeństw wysoko-rozwiniętych wymaga zapewnienia coraz liczniejszym pokoleniom kompleksowej opieki geriatrycznej, w którą wpisują się usługi farmaceutyczne.
Dotyczy to przede wszystkim terenów wiejskich i małych miast, skąd osoby młode
w poszukiwaniu szans rozwoju zawodowego lub intelektualnego migrują do większych ośrodków, głównie aglomeracji.
Zdecydowanie mniejszą rolę odgrywają nierówności wynikające z przewagi jednej
płci nad drugą, ale egzemplifikują, z kolei, asortyment oferty handlowej. W metropoliach wskaźnik feminizacji przekracza 115, gdy na obszarach rolniczych Polski północno-wschodniej mamy do czynienia z wysoką maskulinizacją, oscylującą w granicach 90 mężczyzn na 100 kobiet. Przyczynia się to w obu przypadkach do kłopotów
z zawieraniem małżeństw oraz zmniejsza poziom dzietności, który z teoretycznego
punktu widzenia stanowi o przyszłości aptekarstwa, generując nowe zastępy klientów.
Wyniki badań naukowych pozwalają ponadto na stwierdzenie, że w centralnych
częściach miast zdecydowanie wyższe są udziały pań, malejąc ku peryferiom, z wyjątkiem nowych osiedli mieszkaniowych, gdzie występuje równowaga płci [Jelonek
2008 s.100]. Strefy śródmiejskie zamieszkują zwykle wdowy – samotne i starsze kobiety po 50–60 roku życia. Wyjaśnienia takiego stanu rzeczy poszukuje się nie tylko
w ich predyspozycjach biologicznych, ale także w większej dbałości o własne zdrowie (zbilansowana dieta, unikanie używek, aktywność ruchowa).
Kolejnym, ważnym czynnikiem w tej grupie jest zapadalność na choroby cywilizacyjne. W zależności od wielkości jednostki osadniczej nie wykazuje ona jakiejś
szczególnej dywersyfikacji, aczkolwiek uważa się, że mieszkańcy zespołów miejskich
są nieco bardziej narażeni na występowanie poważniejszych dolegliwości, do czego
upoważnia: zanieczyszczenie środowiska, hałas, stres oraz wypadki komunikacyjne
i w trakcie pracy. Środowiska medyczne od lat alarmują o negatywnym wpływie
urbanizacji na rozwój niektórych nowotworów (płuc, piersi, jelita grubego, żołądka,
wątroby i trzustki), nadciśnienia tętniczego i miażdżycy prowadzącej w prostej linii
do zawałów serca, cukrzycy, alergii oraz zaburzeń psychicznych (schizofrenii, depresji i nerwic lękowych). Spotęgowaniu ulega jednocześnie rozprzestrzenianie się chorób zakaźnych z uwagi na: przeludnienie, dużą mobilność mieszkańców, złe warunki
sanitarne lub niewłaściwe gospodarowanie odpadami komunalnymi [Tarkowski
2008 s. 456]. Niektórzy specjaliści, niestety, bagatelizują te fakty, tłumacząc je większą świadomością populacji wielkomiejskich w odniesieniu dokonywania prewencyjnej diagnostyki, co sprzyja wykrywalności schorzeń i urazów wymagających leczenia.
Dlatego też liczba działających aptek w obrębie aglomeracji winna być nieznacznie
wyższa, aniżeli poza nimi.
178
Mariusz Chudak
TABELA 2.
Czynniki demograficzno-społeczne lokalizacji aptek
Wyszczególnienie
Struktura wg wieku
Struktura wg płci
Ogólny poziom
zachorowalności
Podatność
na reklamę
Dostępność
wykwalifikowanych
kadr
Miasto duże
Miasto średnie
(pow. 200 tys.
(20 tys. do 200 tys.
Miasto małe
mieszkańców) –
mieszkańców) –
(do 20 tys.
stolica kraju,
ośrodek wojemieszkańców) –
ośrodek wojewódzki, miasto na ośrodek gminny,
wódzki, miasto
prawach powiatu, siedziba powiatu
na prawach
siedziba powiatu
powiatu
Wieś
(niezależnie
od wielkości)
**
**
***
*
****
*
****
**
***
**
*
*
*
*
*
*
**
**
***
***
Źródło: Opracowanie własne: (skala: * niewielkie znaczenie, ** umiarkowane znaczenie, ***
istotne znaczenie, **** szczególnie istotne znaczenie).
Podatność na reklamę wyrobów medyczno-leczniczych jest trudna do oszacowania przynajmniej z dwóch względów. Wynika to z jej wszechobecności w miastach
powyżej 20 tys. (bilbordy uliczne, większy wybór czasopism oraz lokalnych rozgłośni radiowych i stacji telewizyjnych, ulotki i afisze w poczekalniach gabinetów lekarskich, informacje przekazywane przez licznych pacjentów), a także większych dochodów ludności, pozwalających na zakup dóbr wyższego rzędu. Będzie to sprzyjać
lokalizacji aptek, podobnie jak, niższe od średniej krajowej, wykształcenie mieszkańców wsi i miasteczek. Niedostatki wiedzy osłabiają bowiem odporność na wyrafinowane techniki marketingowe, a jednocześnie nastręczają trudności w prawidłowej
ocenie swojego zdrowia i najbliższych, które może wymagać bardziej zdecydowanej
interwencji farmakologicznej, nie wspominając o potrzebie hospitalizacji.
Wykaz czynników demograficzno-społecznych zamyka malejąca dostępność wykwalifikowanego personelu wraz ze spadkiem wielkości miejscowości oraz jej odległością od ośrodka akademickiego. Najłatwiej go znaleźć w rejonach silnie zurbanizowanych, gdzie panuje wprawdzie duża konkurencja, ale należy się również spodziewać wysokich żądań płacowych, adekwatnych do kosztów utrzymania w mieście. Na obszarach położonych peryferyjnie staje się konieczny natomiast transfer
kapitału ludzkiego, często związany ze zmianą miejsca zamieszkania kandydatów na
pracowników. Cechą współczesnych czasów jest jednak wzrastająca skłonność do
podejmowania migracji, za czym przemawiają przyczyny ekonomiczne i ekologiczne.
Warto nadmienić, że ich wyrazem w Polsce są między innymi odwrócone kierunki
przemieszczeń pomiędzy miastem a wsią, a zatem dotychczasowa urbanizacja przeszła w fazę ruralizacji [Parysek 2007 s. 120–121].
179
Czynniki lokalizacji aptek
W segmencie finansowo-ekonomicznym racjonalność usytuowania aptek wyznacza przede wszystkim polityka cen obejmująca wachlarz artykułów najczęstszego
zakupu w powiązaniu z zamożnością mieszkańców, a dopiero w dalszej kolejności
kapitał oraz szeroko rozumiane koszty prowadzenia działalności gospodarczej (tabela 3.).
TABELA 3.
Czynniki finansowo-ekonomiczne lokalizacji aptek
Wyszczególnienie
Ceny oferowanych
dóbr a dochody
ludności
Kapitał oraz
instytucje finansowe
Koszty prowadzenia
działalności
Miasto średnie
Miasto duże
(20 tys. do 200
(pow. 200 tys.
tys. mieszkańMiasto małe
mieszkańców) –
ców) – ośrodek (do 20 tys. mieszstolica kraju,
wojewódzki,
kańców) –
ośrodek
miasto na pra- ośrodek gminny,
wojewódzki,
wach powiatu, siedziba powiatu
miasto na
siedziba powiaprawach powiatu
tu
Wieś
(niezależnie
od wielkości)
*
**
***
****
*
*
**
**
**
**
*
*
Źródło: Opracowanie własne: (skala: * niewielkie znaczenie, ** umiarkowane znaczenie, ***
istotne znaczenie, **** szczególnie istotne znaczenie).
Jak powszechnie wiadomo, cena leków nie zawsze jest równoznaczna z ich wartością rynkową, albowiem część preparatów podlega mniejszej lub większej refundacji ze strony budżetu państwa. Dotacje są tutaj absolutnie konieczne dla zapewnienia
masowego dostępu do leczenia, co określają odrębne przepisy o ubezpieczeniach
społecznych i zdrowotnych. Istnieją jednakże specyfiki (głównie sprzedawane bez
recepty), dla których kształtowanie cen pozostawiono w gestii handlowców. Oznacza to, że w ustalaniu ich wysokości powinni kierować się mechanizmami popytowo-podażowymi, jakie obowiązują na danym rynku. Najważniejszym elementem
podlegającym ocenie będzie zatem status ekonomiczny miejscowego społeczeństwa
wyrażony w dochodach czyli sumie pieniędzy uzyskanych lub zarobionych w pewnym okresie [Samuelson i Nordhaus 2004 s. 353–356]. Poprawa sytuacji gospodarstw domowych spowoduje wzrost zapotrzebowania na medykamenty i odwrotnie
– intensyfikacja bezrobocia wymusi oszczędzanie kosztem zaniechania realizacji odpłatnych kuracji. Natężenie tego zjawiska zależy od wielkości jednostki osadniczej,
przy czym stosunkowo najlepsze perspektywy wydają się mieć duże miasta, a najgorsze wsie. W ośrodkach pełniących ważne funkcje administracyjne o silnie zróżnicowanej strukturze gospodarczej wszelkie wahania koniunkturalne są bowiem znacznie
łagodniej odczuwalne oraz istnieją większe zdolności przystosowawcze, aniżeli
w jednostkach wiejskich z dominującym i na dodatek nieefektywnym rolnictwem.
180
Mariusz Chudak
Kapitał jest ogólną kategorią obejmującą różnorodne zasoby wykorzystywane
w procesach produkcji i usług, aczkolwiek w sensie stricte ekonomicznym tworzą go
jedynie dobra rzeczowe, jakim są: nieruchomości, instalacje i maszyny oraz środki
finansowe w różnych formach (gotówce, kredycie lub papierach wartościowych) dające tytuł własności do majątku. Ich pozyskaniu służy rozbudowany system bankowy
funduszy inwestycyjnych oraz instytucji pośredniczących, np. giełd [Pakulska 2009
s. 128–129].
Podmioty te są łatwo dostępne w dużych i średniej wielkości miastach, a ponadto
oferty współpracy redagują pod kątem wymagań poszczególnych grup klientów,
w tym środowisk medyczno-farmaceutycznych. Mimo że jakość i różnorodność
proponowanych świadczeń finansowych generalnie maleje wraz ze spadkiem potencjału demograficznego miejscowości, to nie należy tego utożsamiać z trudnościami
w dostępie do kapitału, gdyż charakteryzuje się on znaczną mobilnością przestrzenną, a także może pochodzić z kilku źródeł (wkładu własnego, spadków i darowizn,
dotacji unijnych itp.). Uzasadnia to jego zakwalifikowanie do czynników co najwyżej
o umiarkowanym znaczeniu dla lokalizacji aptek.
Koszty działalności gospodarczej dzieli się na stale ponoszone nawet wówczas, jeśli firma nie funkcjonuje oraz zmienne determinowane przez skalę prowadzonego
biznesu. W odniesieniu do handlu farmaceutykami będą nimi, poza wspomnianymi już
wynagrodzeniami pracowników, głównie wydatki na utrzymanie lokum (czynsz, remonty, zabezpieczenia antywłamaniowe i przeciwpożarowe) oraz media infrastruktury
technicznej. Spośród nich pewną funkcję ekonomiczną pełnią jedynie ceny wynajmu,
zwykle proporcjonalne do atrakcyjności usytuowania nieruchomości w przestrzeni
zwłaszcza większych miast, estetyki i funkcjonalności obiektu oraz charakteru otoczenia (pasaż handlowy, zabudowa mieszkaniowa, placówki służby zdrowia).
Dla prawidłowej lokalizacji apteki względnie istotne są tylko 2 czynniki techniczno-infrastrukturalne, a mianowicie: dojazd wiążący się równocześnie z zapewnieniem powierzchni parkingowej oraz obecność sieci energetycznej, wodno-kanalizacyjnej i telefonicznej (tabela 4.).
TABELA 4.
Czynniki techniczno-infrastrukturalne lokalizacji aptek
Wyszczególnienie
Dojazd i parkingi
Dostęp do energii
elektrycznej, wody,
kanalizacji i telefonu
Miasto duże
(pow. 200 tys.
mieszkańców) –
stolica kraju,
ośrodek
wojewódzki,
miasto na prawach powiatu
Miasto średnie (20
tys. do 200 tys.
mieszkańców) –
ośrodek wojewódzki, miasto na
prawach powiatu,
siedziba powiatu
Miasto małe
(do 20 tys.
mieszkańców)
– ośrodek
gminny,
siedziba
powiatu
Wieś
(niezależnie
od wielkości)
*
**
**
***
****
****
****
****
Źródło: Opracowanie własne: (skala: * niewielkie znaczenie, ** umiarkowane znaczenie, ***
istotne znaczenie, **** szczególnie istotne znaczenie).
Czynniki lokalizacji aptek
181
W pierwszym przypadku znaczenie dostępności komunikacyjnej spada wraz ze
wzrostem wielkości jednostki osadniczej, albowiem mamy do czynienia z dużą konkurencją, co umożliwia konsumentom wybór odpowiadającego im podmiotu,
w zależności od osobistych preferencji dotyczących ścieżek i sposobów przemieszczania się. Na obszarach wiejskich o wiele ważniejszy jest natomiast dystans fizyczny
mierzony za pomocą czasu dotarcia (własnym lub publicznym środkiem lokomocji),
uwarunkowany pośrednio jakością lokalnego układu drogowego.
Infrastruktura techniczna, w przeciwieństwie do rozwiązań transportowych, nie
wywiera wartościującego wpływu na ocenę przestrzeni z racji jej przydatności dla
usług farmaceutycznych. Bez względu na miejsce lokalizacji, trudno sobie wyobrazić
funkcjonowanie jakiegokolwiek podmiotu gospodarczego niekorzystającego z podstawowych zdobyczy cywilizacji, do których w XXI w. zalicza się również Internet.
Należy jednak pamiętać, że równie ważne, jak samo występowanie instalacji przesyłowych i odbiorczych, są właściwe ich parametry techniczne gwarantujące możliwość podłączenia się kolejnych klientów do systemu. W praktyce bowiem, nierzadko zdarza się, że sieć infrastruktury bywa maksymalnie obciążona i nie ma warunków zwiększenia dostawy mediów jeśli nie zostaną poniesione znaczące nakłady
pracy i kapitału [Chudak 2009b s. 33].
5. Podsumowanie (Rekomendacje dla urbanistyki)
Znajomość czynników lokalizacyjnych decydujących o rozmieszczeniu różnorodnych form aktywności gospodarczej jest niezwykle przydatna dla miejscowego
planowania przestrzennego. W Polsce niemal całkowicie odstąpiono od szczegółowego wyznaczania funkcji nieruchomości, formułując je w sposób lakoniczny, aby
nie zachodziła potrzeba dokonywania długotrwałych i kosztownych zmian. Urbaniści, jak i władze lokalne nie zwracają przy tym odpowiedniej uwagi na kształtowanie
się cen gruntów w określonym czasie i w zależności od ich położenia. Wskaźniki zabudowy oraz intensywności zagospodarowania terenu zbyt rzadko nawiązują do
cech przestrzeni, a powinny być rezultatem wielokryterialnej analizy uwzględniającej
także skomplikowane relacje kapitałowe na linii środowisko przyrodnicze – możliwości technologiczno-organizacyjne budownictwa [Chudak 2006 s. 67].
Obecnie stosowana metodologia projektowania urbanistycznego, działalność aptek
dopuszcza w ramach zbilansowanych jednostek handlowych i usługowych, pozostawiając kwestię docelowego umiejscowienia przedsiębiorcom. Brak uregulowań
prawnych dotyczących liczebności placówek oraz odległości pomiędzy nimi sprawia,
że potrzeby społeczne nie zawsze są równomiernie zaspokojone. Poruszone zagadnienia mogą stać się zatem pomocne na etapie sporządzania planów miejscowych
przez gminy. Obowiązujący od kilkunastu lat, model zarządzania przestrzenią zostanie wówczas samoczynnie zreformowany w części dotyczącej usług o priorytetowym znaczeniu dla ludności – zarówno publicznych, jak i komercyjnych. Rozumie
się przez to ich konkretyzację w określonych punktach miasta (wsi) przy pozostawieniu dużego zakresu swobody realizacji samych obiektów w wymiarze architektonicznym. Prawdopodobnie nie spowoduje jednak wyraźnego zmniejszenia liczby
placówek aptecznych, albowiem Polskę powszechnie zalicza się do największych
182
Mariusz Chudak
konsumentów leków na świecie, zwłaszcza przeciwbólowych, łagodzących objawy
grypy i przeziębienia oraz usprawniających pracę przewodu pokarmowego. Ze względu
na konieczność szybkiej reakcji na pogarszający się stan zdrowia, zadania tego nigdy
nie przejmie handel elektroniczny obarczony minimum jednodniowym oczekiwaniem na przesyłkę.
Literatura
Altkorn J., Kramer T. 1998 Leksykon Marketingu, Warszawa.
Bezpośrednie inwestycje zagraniczne 1998, (red.) Z. Olesiński, Warszawa.
Chudak M. 2006 Planowanie przestrzenne a marketing gminy, „Przegląd Komunalny”, nr 172,
Poznań.
Chudak M. 2009b. Lokalizacja przedsiębiorstw a miejscowe planowanie przestrzenne. Studium
przypadku miasta Leszna, Leszno.
Czerny M, 2005. Globalizacja a rozwój. Wybrane zagadnienia geografii społeczno-gospodarczej
świata, Warszawa.
Encyklopedia przyrody i techniki 1969, Warszawa.
Geografia ekonomiczna 2009, (red.) K. Kuciński, Kraków.
Geografia społeczno-gospodarcza Polski 2007, (red.) H. Rogacki, Warszawa.
Geografia urbanistyczna 2008, (red.) S. Liszewski, Łódź.
Godlewska H. 2001 Lokalizacja działalności gospodarczej. Wybrane zagadnienia, Warszawa.
Gospodarka lokalna i regionalna w teorii i praktyce 2009, (red.) R. Brol, Wrocław.
Samuelson P.A., Nordhaus W.D. 2004 Ekonomia (t. 1), Warszawa.
Tarkowski S. 2008 Aspekty ekologii człowieka w zdrowiu publicznym, „Zdrowie Publiczne”
nr 118, Warszawa.
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Paweł JAMRÓZ1
WERYFIKACJA SŁABEJ FORMY EFEKTYWNOŚCI GPW
ZA POMOCĄ TESTU AUTOKORELACJI ORAZ TESTU SERII
Streszczenie
Efektywność rynku w formie słabej oznacza, iż bieżące kursy akcji powinny odzwierciedlać wszystkie historyczne informacje, które mogą mieć wpływ na ich wycenę. Celem pracy było zbadanie za pomocą testów autokorelacji i serii czy Giełda Papierów Wartościowych w Warszawie charakteryzuje się
słabą formą efektywności. Badania przeprowadzono dla indeksów WIG, WIG20, sWIG80 i mWIG40
w oparciu o dzienne logarytmiczne stopy zwrotu dla danych z okresu od 31.12.1997 r. do 30.04.2009 r.
Uzyskane wyniki spółek małych i średnich świadczą o występowaniu nieefektywności wśród tych firm.
W podejściu praktycznym dla całości rynku badania te nie pozwalają jednoznacznie odrzucić występowania słabej efektywności polskiego rynku akcji.
Słowa kluczowe: efektywność informacyjna, giełda papierów wartościowych, test autokorelacji,
test serii, słaba forma efektywności
VERIFICATION OF THE WEAK FORM EFFICIENCY WSE
BY MEANS OF AUTOCORRELATION TEST AND SERIES TEST
Summary
The market efficiency in a weak form means that current stock prices should reflect all historical
information which can influence their valuation. The aim of the research was to test, by means of autocorrelation and series tests, if the Warsaw Stock Exchange is in a weak condition as regards efficiency.
The research was done with WIG, WIG20, sWIG80 and mWIG40 indexes on the basis of daily logarithmic rates of return for data of 31st Dec, 1997 to 30th Apr, 2009. The obtained results for small and
medium companies say about their inefficiency. In practical approach, taking the whole market into
consideration the research does not give rise to rejection of the fact of weak efficiency on Polish stock
market.
Keywords: informational efficiency, stock exchange, autocorrelation test, runs test, weak form of
efficiency
1. Wstęp
Giełda Papierów Wartościowych S.A. (GPW) w Warszawie jest zaliczana do rynków rozwijających się i mających coraz większy wpływ na gospodarkę Polski. Świadczyć o tym może wskaźnik kapitalizacji GPW do wartości PKB. Na koniec 1995 r.
1
Mgr Paweł Jamróz – Wydział Ekonomii i Zarządzania, Uniwersytet w Białymstoku.
184
Paweł Jamróz
wynosił 3,3% PKB, w 2005 r. 31,9% PKB, a w 2007 r. 43,3% PKB. W wyniku kryzysu finansowego spadł w 2008 r. do poziomu 21% PKB, by w 2009 r. wzrosnąć do
wartości 31,4% PKB2. Dynamiczny rozwój rynku kapitałowego i wzrost znaczenia
informacji w gospodarce uzasadniają weryfikację efektywności informacyjnej3 giełdy
warszawskiej. Głównym celem pracy jest zastosowanie wybranych testów statystycznych do badania słabej formy efektywności polskiego rynku akcji. Otrzymane
wyniki wskazują na występowanie nieefektywności, szczególnie wśród małych
i średnich spółek polskiego rynku akcji.
2. Koncepcja słabej formy efektywnego rynku
Zgodnie ze słabą formą efektywności informacyjnej rynku, bieżące ceny akcji
odzwierciedlają wszystkie istotne informacje zawarte w notowaniach historycznych
[Fama 1970 s. 383]. Natomiast, w innym ujęciu, rynek jest mało efektywny w sytuacji, gdy ceny walorów finansowych odzwierciedlają tylko historyczne informacje.
Konsekwencją tego jest brak zależności pomiędzy zmianami kursów akcji, w wyniku
czego nie można permanentnie osiągać ponadprzeciętnych zysków, stosując strategię inwestycyjną opartą na historycznych notowaniach. Słaba forma efektywności
rynku jest w praktyce często utożsamiana z analizą techniczną, która na podstawie
przeszłych notowań prognozuje przyszłe zachowanie kursów [Haugen 1996 s. 717–
718]. Wydaje się, iż efektywność w formie słabej jest najłatwiejsza do osiągnięcia
przez rynek, ponieważ obecnie informacje dotyczące historycznych notowań są szeroko dostępne, a nawet często publikowane nieodpłatnie.4 Stąd, wymieniany przez
E. Famę jako jeden z dostatecznych warunków, jakie ma spełniać rynek, aby był
efektywny, jest zasadniczo spełniony w warunkach polskiego rynku akcji.
Efektywność rynku w formie słabej oznacza, że bieżące kursy akcji powinny odzwierciedlać wszystkie osiągalne informacje, które mogą mieć wpływ na ich wycenę.
Kursy notowań zmieniają się losowo, ponieważ rynek reaguje bezzwłocznie i w pełni adekwatnie do napływających na rynek informacji w sposób niemożliwy do przewidzenia [Haugen 1996 s. 727]. W literaturze przedmiotu losowość zmian cen akcji
przyjęto określać mianem hipotezy błądzenia losowego (ang. random walk). Dlatego
losowość zmian kursów jest ściśle powiązana ze słabą formą efektywności. L. Bachelier zaobserwował już na początku dwudziestego wieku, iż ceny akcji zmieniają
się przypadkowo [Bachelier 1964 s. 17–75]. Losowość oznacza, że na obecne notowania nie oddziałuje ich kształtowanie się w przeszłości, czyli nie jesteśmy w stanie
powiedzieć, o ile jutrzejszy kurs będzie się różnił od dzisiejszego.
2 Na podstawie szacunku wstępnego GUS-u, Produkt Krajowy Brutto w 2009 roku wyniósł 1 341
880,7 mln zł, a kapitalizacja spółek krajowych na koniec 2009 r. wyniosła 421 178 mln zł. Por. Dokument elektroniczny, tryb dostępu: [http://www.stat.gov.pl/gus/5840_1338_PLK_HTML.htm, data
wejścia: 30.04.2010 r.].
3 Literatura przedmiotu wyróżnia na przykład efektywność: alokacyjną, informacyjną i transakcyjną.
4 Jako przykład powszechnego i bezpłatnego dostępu do danych można wymienić serwis informacyjny: [GPWInfoStrefa.pl] oraz bezpłatne dane z notowaniami w serwisach m.in.: [www.parkiet.com.pl]
czy [www.bossa.pl].
Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ...
185
Statystyczne testy właściwości rozkładu cen walorów finansowych są najczęściej
stosowanymi w badaniach empirycznych słabej efektywności [Czekaj, Woś, Żarnowski 2001 s. 35]. Badanie słabej formy efektywności informacyjnej rynku przeprowadza się często w sposób pośredni, sprawdzając brak statystycznie istotnych zależności pomiędzy kolejnymi ruchami kursów walorów. Hipoteza błądzenia losowego jest silniejsza od hipotezy o słabej formie efektywności, dlatego że, jeżeli występuje błądzenie losowe (przypadkowe) w badanych szeregach czasowych, to prawdziwe jest również zdanie o co najmniej słabej efektywności rynku [Szyszka 2003
s. 97]. Należy jednak pamiętać, że rynek może być efektywny, a ceny akcji, indeksów
mogą nie podlegać błądzeniu losowemu. Bowiem, jeśli odrzuci się hipotezę błądzenia losowego, to następnie należy sprawdzić, czy inwestowanie na podstawie wykrytych zależności przynosi dochody wyższe od średniej rynkowej.
Jedno z pierwszych badań polskiego rynku akcji testem autokorelacji przeprowadził K. Jajuga [Metody ekonometryczne i statystyczne... 2000 s. 46–57]. Zaobserwował,
iż dla większości analizowanych spółek oraz indeksów: WIG i WIG20 autokorelacje
pierwszego rzędu dla dziennych stóp zwrotu są istotnie różne od zera. Jednak
otrzymane autokorelacje były niewielkie (największa wyniosła 0,18), co oznacza, że
ceny mogą być skorelowane zbyt słabo, aby inwestor mógł je wykorzystać w podejmowaniu decyzji inwestycyjnych. Szeroko cytowana, kolejna praca, stosująca test autokorelacji, należy do A. Szyszki, w której zaobserwował istotne statystycznie
współczynniki korelacji. Świadczy to o tym, że w niektórych obserwacjach zmiany
cen akcji nie następowały w sposób całkowicie losowy. Autor zwraca uwagę, że
współczynniki korelacji dziennych stóp zwrotu w latach 1994–1999 nie odbiegają
istotnie od wielkości uzyskanych na innych giełdach światowych [Szyszka 2003
s. 98–102].
Testy serii polskiego rynku akcji przeprowadzili m.in.: J. Czekaj, M. Woś, J. Żarnowski oraz A. Szyszka. Wyniki uzyskane przez: Czekaja, Wosia i Żarnowskiego
[Czekaj, Woś, Żarnowski 2001 s. 71–77] dają w pierwszej części badań świadectwo
występowania krótkookresowej zależności notowań. Natomiast, po uwzględnieniu
długookresowego trendu w danych, poprzez eliminację zerowych stóp zwrotu, zaobserwowano identyczną liczbę serii oczekiwaną i faktyczną. Otrzymane wyniki autorów nie dają podstaw do odrzucenia hipotezy błądzenia losowego w badanym
okresie na podstawie testu serii. Z kolei, Szyszka analizował dwa okresy, pierwszy do
końca września 1994 r., a drugi od 3 października 1994 r. do 1 października 1999 r.
W pierwszym okresie występowała wyraźna dodatnia zależność między kierunkiem
zmiany notowań na sesji bieżącej a zmianą dzień wcześniej, co było spowodowane
silnym trendem wzrostowym na warszawskiej giełdzie. Drugi okres nie wykazywał
aż tak istotnych zależności i wśród badanych spółek obserwowano nadal mniejszą
przeciętną rzeczywistą liczbę serii niż liczba oczekiwana. Zaledwie w 3 przypadkach
na 29 różnice przekraczały 10%, a przeciętna różnica rzeczywistej liczby serii dla badanej próby była o 5,9% mniejsza od wartości oczekiwanej. Dlatego autor zauważa,
że wraz z rozwojem polskiego rynku akcji wzajemne zależności między ruchami cen
zanikają, co może świadczyć o wzroście efektywności rynku [Szyszka 2003 s. 102–
108]. Kontynuacja badań nad słabą formą efektywności polskiego rynku akcji, używając wybranych testów statystycznych, oraz przeprowadzenie ich dla okresu późniejszego jest wkładem własnym pracy.
186
Paweł Jamróz
3. Charakterystyka podejścia badawczego
Istnienie słabej formy efektywności weryfikują testy sprawdzające losowość
zmian cen, do których należą m. in.: test autokorelacji oraz test serii. Ze statystycznego punktu widzenia, prostym sposobem zbadania losowości szeregu jest badanie
autokorelacji notowań. Testowanie autokorelacji szeregu czasowego polega na zbadaniu, czy obserwacje z różnych okresów są ze sobą skorelowane za pomocą współczynnika autokorelacji (korelacji) k-tego rzędu [Witkowska, Matuszewska, Kompa
2008 s. 96–97]:
T
ρˆ k =
∑ ( rt − r )( rt −k − r )
t =k
T
∑ ( rt − r )
,
(1)
2
t =1
gdzie: ρ̂k – oszacowany współczynnik autokorelacji rzędu k; rt, rt-1 – logarytmiczne stopy
zwrotu indeksu w okresie: t i t-k; r – średnia logarytmiczna stopa zwrotu w badanym okresie; T – liczba obserwacji w badanym szeregu (długość szeregu czasowego); k – wielkość
opóźnienia.
Test autokorelacji ma na celu zbadanie, czy współczynniki autokorelacji statystycznie nieistotnie różnią się od zera.
W praktyce, najczęściej stosowanym testem, umożliwiającym wykrycie łącznej
autokorelacji, jest test oparty na statystyce Q* Ljunga-Boxa o następującej postaci
[Osińska 2006 s. 35]:
ρˆ i
,
i =1 T − i
k
Q * = T( T + 2 )∑
(2)
gdzie: i to testowany rząd autokorelacji i = 1, 2, 3, ..., k.
Statystyka Q* posiada rozkład zbieżny do chi-kwadrat o k stopniach swobody.
Znaczenie autokorelacji dla badania efektywności rynku polega na tym, że gdyby istniała silna korelacja stóp zwrotu, to można by wykorzystać ten fakt do prognozowania zmian cen w przyszłości.
Badania dokonano dla dziennych kursów zamknięcia (n=2957 obserwacji) za
pomocą testu autokorelacji, wykorzystując logarytmiczne stopy zwrotu (rt) indeksów
giełdowych: WIG, WIG20, mWIG40 oraz sWIG80, wyznaczonych według następującej formuły:
⎛ p ⎞
(3)
rt = ln⎜⎜ t ⎟⎟ ,
⎝ pt −1 ⎠
gdzie: pt jest kursem zamknięcia wybranego indeksu w dniu t, a pt-1 jest kursem zamknięcia
indeksu w dniu poprzednim.
Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ...
187
Pogrubioną czcionką oznaczono przypadki odrzucenia hipotezy zerowej (błądzenia losowego) przy poziomie istotności α = 0,05. Natomiast wszystkie obliczenia
wykonano przy użyciu programu Gretl [Kufel 2009 s. 72–74] oraz arkusza Excel.
Następnym, przeprowadzonym badaniem sprawdzającym, czy szereg jest szeregiem błądzenia przypadkowego, jest test serii, który został przeprowadzony dla indeksów giełdowych: WIG, WIG20, sWIG80 i mWIG40 w wybranych okresach.
W dużych próbach test serii pozwala określić, czy dane, zawarte w analizowanym
szeregu, mają charakter losowy. Analizując zmiany stóp zwrotu za pomocą testu serii, przyjęto dwa elementy serii. Serią nazywamy sekwencję zmian stóp zwrotu o tym
samym znaku (dodatnim lub ujemnym), a jej długością liczbę następujących po sobie obserwacji tego samego typu [Żebrowska-Suchodolska 2009 s. 59]. Stawiane hipotezy: zerowa (H0) oraz alternatywna (HA) przyjmują następującą postać [Aczel
2005 s. 711]:
H0: zmiany stóp zwrotu indeksu są losowe,
HA: zmiany stóp zwrotu indeksu nie są losowe.
Sprawdzianem testu jest statystyka Z, która jeśli liczebność próby jest duża, ma
standaryzowany rozkład normalny i następującą postać [Aczel 2005 s. 712]:
Z=
R − E( R̂ )
,
σ( R̂ )
(4)
gdzie: R to liczba serii, E( R̂ ) to wartość średnia liczby serii wyznaczona z formuły (5),
a σ( R̂ ) to odchylenie standardowe liczby serii wyznaczone z formuły (6), [Domański, Pruska 2000 s. 209–211]:
2n1n 2
(5)
E( R̂ ) =
+ 1,
n1 + n 2
σ( R̂ ) =
2n 1n 2 ( 2n 1n 2 − n 1 − n 2 )
,
( n 1 + n 2 )2 ( n 1 + n 2 − 1)
(6)
przy czym n1 i n2 to liczba symboli dodatnich i ujemnych elementów w badanym szeregu.
Gdy wartość bezwzględna zmiennej Z przekroczy wartość krytyczną 1,95996
przy przyjętym poziomie istotności α = 0,05, to należy odrzucić hipotezę zerową, iż
szereg podlega procesowi błądzenia przypadkowego. W obliczeniach stosowano
dzienne kursy zamknięcia, wykorzystując logarytmiczne stopy zwrotu (rt) indeksów
giełdowych: WIG, WIG20, mWIG40 oraz sWIG80, wyznaczonych według formuły
(3).
1888
Paweł Jamróz
4. Wyniki empiryczne uzyskane za pom
mocą testu autok
korelacji
b
dotyczy występowania
w
auutokorelacji na całym rynku akcjji,
Pierwsza część badań
a jaako najlepsze oddzwierciedlenie sytuacji panująącej na rynku wśród
w
wszystkicch
spó
ółek notowanych
h na GPW przyyjęto szeroki inddeks WIG5 z podziałem na sześść
okrresów: P1 od 31.12.1997 r. do 30.04.2009
3
r. ob
bejmujący cały okres badania, naastęp
pnie został on podzielony
p
na po
odokresy ze wzgględu na występuującą koniunkturrę
rynkową (por. wykrres 1.); P2 od 31.12.1997 r. do 12.10.1998 r. tenddencja spadkowaa;
r do 27.03.2000 r. tendencja wzzrostowa (bańka internetowa); P4
P
P3 od 13.10.1998 r.
o 07.10.2002 r. teendencja spadkow
wa (bessa); P5 odd 08.10.2002 r. do
d
od 28.03.2000 r. do
ncja wzrostowa (hossa); P6 od 100.07.2007 r. do 30.04.2009
3
r. ten
n09.007.2007 r. tenden
den
ncja spadkowa (bessa
b ).
WYKRES 1.
1
Notowania kursu zamknięęcia indeksu WIG z obrotami (w tys. zł)
w okresie: od 31.12.1997
3
r. do 30.04.2009 r.
Źró
ódło: Opracowaniee własne.
Tabela 1. przedstawia wyniki ob
bliczeń współczyynników autoko
orelacji oraz statyystykki Q* Ljunga-Boxa, przyjmując za
z maksymalną ddługość opóźnieenia k = 25 okreesów
w6. Pogrubioną czcionką
c
i zacien
niowanym obszarrem zaznaczono
o te wartości, któ
óre wskazują
w
na odrzzucenie hipotezyy zerowej, co jestt równoznaczne ze stwierdzeniem
m
wysstępowania autokkorelacji k-tego rzędu. W testacch na występowaanie autokorelaccji
5 Indeks WIG jest indeksem dochodo
owym i przy jego o
obliczaniu uwzględn
nia się zarówno cen
ny
zawaartych w nim akcji, jak i dochody z dyw
ywidend i praw pobo
oru. Por.: Dokumen
nt elektroniczny, tryyb
dosttępu: [http://www.ggpw.pl, data wejścia: 17.08.2009 r.].
6 Przy obliczaniu ws
spółczynników auto
okorelacji na przykłaad W. Tarczyński jakko maksymalną liczb
bę
opóźnień przyjmuje ¼ długości
d
badanego okresu.
o
Zob.: [Tarczzyński 2002 s. 145–1150].
Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ...
189
stawia się hipotezy: zerową (H0) oraz alternatywną (HA) o następującej postaci [Witkowska, Matuszewska, Kompa 2008 s. 98]:
H0 : ρk = 0,
HA : ρk ≠ 0.
Zatem, w hipotezie zerowej zakłada się, iż współczynnik autokorelacji jest równy
zeru, czyli nie występuje autokorelacja, natomiast w hipotezie alternatywnej zakłada
się, że autokorelacja w analizowanym szeregu występuje i może być dodatnia bądź
ujemna.
W analizowanym okresie P1 można zauważyć, że istotne statystycznie okazały się
autokorelacje rzędów dla k = 1, 9, 10, 13, 14, 15, 17, 20, 25, zaś statystyka LjungaBoxa jest istotna dla wszystkich opóźnień, czyli występuje łączna autokorelacja. Stąd
można stwierdzić, że w badanym okresie P1 polski rynek akcji nie podlegał procesowi błądzenia losowego. Wśród istotnych statystycznie współczynników autokorelacji przewagę stanowiły współczynniki dodatnie (6 dodatnich, 2 ujemne), które
można interpretować następująco, iż wzrost kursu na poprzedniej sesji oznacza bardziej prawdopodobny wzrost kursu na bieżącej sesji. Świadczyć to może również
o zbyt wolnej reakcji rynku na napływające informacje. Podobne wyniki uzyskali
m.in. K. Jajuga [Metody ekonometryczne i statystyczne... 2000 s. 46–57] oraz A. Szyszka [Szyszka 2003 s. 98–102], mimo przyjętego przez nich krótszego okresu badawczego. Autokorelacje pierwszego rzędu są istotne statystycznie również dla podokresów: P2, P5 i P6.
Analiza istotnych współczynników autokorelacji w kolejnych podokresach: P2,
P3, P4, P5 i P6 świadczy o tym, że w 12% przypadków stopy zwrotu indeksu WIG
nie następowały w sposób całkowicie losowy, a więc ceny akcji nie były generowane
przez proces błądzenia przypadkowego. Zwraca uwagę podokres P6, w którym to
jedynie autokorelacje rzędu k = 1, 20 są istotne statystycznie. Zatem, można stwierdzić, że okres od 10 lipca 2007 r. do 30 kwietnia 2009 r. był najbliższy procesowi losowemu spośród badanych podokresów. Aby stwierdzić nieefektywność ryku akcji
w formie słabej, należy pamiętać, że hipoteza o błądzeniu losowym jest hipotezą
bardziej rygorystyczną niż hipoteza o słabej efektywności. Dlatego, zanim stwierdzi
się brak efektywności rynku w formie słabej, należy zwrócić uwagę, iż otrzymane
współczynniki autokorelacji są niewielkie, najwyższa wartość wynosi 0,1866, a zdecydowana większość 93,3% przyjmuje wartości poniżej 0,1. Niewątpliwie, na uzyskane wyniki miał wpływ przyjęty długi okres badawczy, który to cechował się silnymi wahaniami rynkowymi. Kolejną kwestią jest trwałość uzyskanych korelacji, jedynie współczynniki autokorelacji rzędu k = 1, 10, 17, 20 i 25 powtórzyły się w wyodrębnionych podokresach, czyli można stwierdzić, iż większość występujących korelacji nie ma trwałego charakteru. Natomiast, ostatni okres P6 wskazuje o zanikaniu
tych zależności, co może świadczyć o wzroście efektywności rynku w ostatnich latach. Wartości współczynników autokorelacji przyjmują niskie wartości, tak więc po
uwzględnieniu kosztów transakcji i analiz może okazać się, z ekonomicznego punktu
widzenia, że niemożliwe jest osiąganie ponadprzeciętnych zysków ze znajomości
tych zależności [Fama 1970 s. 393–394].
-0,0035
0,0151
0,0020
-0,0001
-0,0202
-0,0199
-0,0031
0,0402
0,0450
0,0117
0,0025
0,0477
0,0340
0,0396
0,0004
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
55,0942
55,0937
50,4499
47,0298
40,2987
40,2806
39,8728
33,8662
29,0765
29,0475
27,8808
26,6780
26,6779
26,6661
25,9923
25,9560
-0,0856
0,0655
0,1194
0,1271
-0,0021
0,0664
0,1583
0,0468
-0,0102
-0,1007
-0,0762
-0,0509
-0,0460
-0,0247
0,0271
28,0553
26,4188
25,4646
22,3129
18,7560
18,7550
17,7957
12,3661
11,8940
11,8717
9,7105
8,4785
7,9315
7,4873
7,3599
7,2073
0,1866
0,0938
Q*
ρ̂ k
Q*
ρ̂ k
1.
k
P2: 31.12.97–
12.10.98
P1: 31.12.97–
30.04.09
0,0481
0,0709
-0,0168
0,0282
-0,0289
-0,0289
0,1470
-0,0001
-0,0416
-0,0024
0,0091
0,0349
-0,0774
-0,0325
-0,1215
0,0593
ρ̂ k
23,4054
22,4817
20,4841
20,3724
20,0572
19,7273
19,3979
10,9161
10,9161
10,2405
10,2384
10,2064
9,7356
7,4219
7,0151
1,3478
Q*
P3: 13.10.98–
27.03.00
0,0173
0,0089
0,0362
0,0246
0,1032
0,0512
-0,0301
0,0506
0,0105
0,0434
-0,0928
-0,0661
0,0454
-0,0056
0,0348
0,0359
ρ̂ k
25,9231
25,7190
25,6655
24,7783
24,3678
17,1721
15,4013
14,7902
13,0682
12,9948
11,7337
5,9773
3,0581
1,6832
1,6620
0,8568
Q*
P4: 28.03.00–
07.10.02
-0,0197
0,0493
-0,0411
-0,0116
-0,0449
0,0150
-0,0219
0,0241
-0,0111
-0,0854
0,0541
0,0310
-0,0484
0,0282
0,0407
0,0657
ρ̂ k
35,4508
34,9624
31,9040
29,7802
29,6100
27,0767
26,7963
26,1940
25,4681
25,3143
16,1969
12,5444
11,3457
8,4234
7,4329
5,3720
Q*
P5: 08.10.02–
09.07.07
Współczynniki autokorelacji stóp zwrotu indeksu WIG
w wybranych okresach: P1, P2, P3, P4, P5 i P6
0,0188
0,0080
0,0618
0,0527
-0,0269
-0,0523
-0,0092
0,0362
-0,0108
-0,0135
-0,0519
0,0100
0,0694
0,0440
-0,0344
0,0941
ρ̂ k
15,0382
14,8670
14,8359
12,9951
11,6591
11,3120
10,0050
9,9648
9,3421
9,2866
9,1998
7,9234
7,8759
5,6075
4,6994
4,1454
Q*
P6: 10.07.07–
30.04.09
TABELA 1.
-0,0034
-0,0242
-0,0365
-0,0142
-0,0181
0,0352
0,0248
0,0557
18.
19.
20.
21.
22.
23.
24.
25.
83,8879
74,6668
72,8432
69,1648
68,1943
67,5991
63,6378
61,9006
61,8661
0,1427
0,0362
-0,0013
-0,0292
-0,0389
-0,0012
-0,0425
-0,0504
-0,1445
39,3605
34,5825
34,2773
34,2769
34,0806
33,7337
33,7333
33,3225
32,7489
-0,0714
-0,0114
0,0700
-0,0049
0,0254
-0,0588
-0,0252
0,0309
-0,0882
Źródło: Obliczenia własne przy użyciu programu GRETL.
-0,0478
17.
32,9454
30,8623
30,8089
28,8144
28,8048
28,5437
27,1508
26,8963
26,5132
0,0998
0,0338
0,0138
-0,0087
-0,0378
-0,0630
-0,1168
-0,0320
-0,0750
51,2940
44,4284
43,6422
43,5109
43,4593
42,4823
39,7663
30,4528
29,7533
0,0415
0,0141
0,0175
-0,0751
0,0157
0,0060
-0,0213
-0,0398
0,0007
48,3308
46,1429
45,8912
45,5056
38,3725
38,0596
38,0145
37,4444
35,4515
0,0643
0,0077
0,0214
0,0053
-0,0275
-0,0958
0,0246
0,0444
0,0043
23,4589
21,4169
21,3877
21,1619
21,1480
20,7785
16,2970
16,0035
15,0472
0,0537
-0,0167
-0,0391
16.
17.
0,0389
10.
15.
0,0150
9.
0,0226
0,0212
8.
14.
-0,0584
7.
0,0490
-0,0109
6.
13.
-0,0189
5.
0,0101
0,0204
4.
-0,0108
-0,0168
3.
12.
0,0350
2.
11.
0,0046
ρ̂ k
46,9404
42,3970
41,5647
33,0051
31,4930
24,3795
24,0354
23,7320
19,2406
18,5761
17,2477
7,1435
6,7927
5,7421
4,5142
3,6781
0,0617
Q*
P1: 31.12.97–20.04.09
1.
k
-0,0779
-0,0603
0,0752
0,0955
0,1132
0,0548
0,0506
0,1353
-0,0747
0,0195
-0,1382
0,0317
-0,1252
0,0275
-0,0227
26,3984
25,0341
24,2218
22,9660
20,9488
18,1298
17,4734
16,9156
12,9510
11,7486
11,6675
7,5935
7,3800
4,0719
3,9128
3,8055
1,2684
-0,0783
0,1104
Q*
ρ̂ k
P2: 31.12.97–12.10.98
-0,0726
-0,0220
0,1319
-0,0323
0,0584
-0,1187
0,0655
0,0558
0,0124
0,0382
-0,0732
-0,0262
0,0259
0,0105
-0,1214
0,0448
-0,0294
ρ̂ k
28,7490
26,6921
26,5031
19,7622
19,3585
18,0433
12,6288
10,9863
9,7949
9,7360
9,1799
7,1496
6,8899
6,6374
6,5960
1,0718
0,3219
Q*
P3: 13.10.98–13.03.00
-0,0595
-0,0070
0,0335
0,0186
0,0412
0,0482
0,0183
0,0005
0,0056
0,0482
-0,0144
-0,0630
-0,0304
0,0404
-0,0271
0,0450
0,0028
ρ̂ k
16,9576
14,1030
14,0641
13,1645
12,8869
11,5255
9,6673
9,3988
9,3986
9,3733
7,5271
7,3621
4,2092
3,4744
2,1836
1,6034
0,0064
Q*
P4: 14.03.00–17.03.03
0,0126
-0,0133
0,0517
-0,0282
-0,0218
-0,0328
0,0182
-0,0305
0,0318
-0,0150
-0,0856
0,0418
0,0019
-0,0440
-0,0129
0,0334
0,0277
ρ̂ k
25,4363
25,2407
25,0254
21,7633
20,7924
20,2122
18,8977
18,4962
17,3619
16,1289
15,8560
6,9548
4,8313
4,8270
2,4822
2,2799
0,9282
Q*
P5: 18.03.03–29.10.07
Współczynniki autokorelacji stóp zwrotu indeksu WIG20
w wybranych okresach: P1, P2, P3, P4, P5 i P6
-0,0023
0,0113
0,0008
0,0513
0,0580
-0,0360
-0,0617
0,0024
0,0380
-0,0297
-0,0396
-0,0685
0,0004
0,0301
0,0454
-0,0809
0,0617
ρ̂ k
13,0934
13,0913
13,0399
13,0396
11,9785
10,6266
10,1069
8,5857
8,5834
8,0108
7,6606
7,0418
5,1921
5,1920
4,8376
4,0319
1,4796
Q*
P6: 30.10.07–30.04.09
TABELA 2.
0,0308
0,0103
0,0784
23.
24.
25.
80,7744
62,4712
62,1539
59,3356
54,7553
54,6636
48,7591
47,2907
0,1669
-0,0355
0,0114
-0,0376
0,0432
-0,0658
0,0220
-0,1013
37,4356
30,8940
30,6005
30,5701
30,2428
29,8147
28,8244
28,7148
-0,0016
-0,0482
0,0607
-0,0256
0,0156
-0,0262
-0,0227
0,0393
Źródło: Obliczenia własne przy użyciu programu GRETL.
0,0056
-0,0392
-0,0446
20.
22.
-0,0222
19.
21.
-0,0109
18.
32,5664
32,5654
31,6407
30,1783
29,9198
29,8242
29,5545
29,3526
0,1226
0,0354
0,0313
-0,0225
-0,0237
-0,0665
-0,1029
-0,0492
45,9411
33,7069
32,6911
31,8943
31,4853
31,0321
27,4535
18,9093
0,0265
-0,0165
-0,0070
-0,0686
0,0029
-0,0142
-0,0053
-0,0279
33,7212
32,8578
32,5229
32,4624
26,6792
26,6689
26,4231
26,3891
0,0650
0,0417
0,0352
-0,0259
0,0194
-0,0981
0,0116
0,0440
21,2861
19,5311
18,8133
18,3016
18,0258
17,8720
13,9372
13,8821
0,1223
0,0745
0,0440
0,0650
0,0133
-0,0122
-0,0361
0,0365
0,0447
0,0818
0,0214
-0,0138
0,0552
0,0596
0,0511
-0,0036
-0,0428
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
ρ̂ k
147,9314
142,4957
142,4562
134,7101
124,1636
115,1191
114,5585
113,2015
93,3923
87,4907
83,5541
79,7106
79,2724
78,7480
66,2671
60,5611
44,1600
Q*
P1: 31.12.97–30.04.09
1.
k
-0,1158
-0,0872
0,0239
0,1138
0,0677
-0,0843
0,0026
0,1361
0,0698
0,0396
-0,1086
-0,0114
-0,0351
0,0181
-0,0626
34,3923
29,4681
26,6877
26,4796
21,7678
20,1080
17,5396
17,5372
10,8826
9,1368
8,5764
4,3781
4,3317
3,8946
3,7794
2,4012
1,4609
0,0646
0,0518
Q*
ρ̂ k
P2: 31.12.97–30.04.99
-0,0489
0,0133
0,1079
-0,0066
0,0233
0,0278
0,0409
0,1248
0,0163
0,0307
-0,0267
-0,0642
-0,0096
0,0595
0,0150
0,0505
0,0789
ρ̂ k
58,1642
55,4410
55,2404
42,0256
41,9762
41,3613
40,4876
38,5917
20,9914
20,6922
19,6303
18,8245
14,1762
14,0721
10,0900
9,8374
6,9770
Q*
P3: 03.05.99–13.08.03
-0,0055
-0,0123
0,0563
-0,0077
0,0350
0,0096
0,0296
0,0212
0,0210
0,0146
-0,0431
-0,0251
0,0376
-0,0295
0,0970
0,1025
0,1509
ρ̂ k
54,9460
54,9144
54,7578
51,5067
51,4458
50,1946
50,1000
49,2062
48,7481
48,2980
48,0813
46,1934
45,5502
44,1111
43,2306
33,6819
23,0450
Q*
P4: 14.08.03–26.06.07
Współczynniki autokorelacji stóp zwrotu indeksu mWIG40
(d. MIDWIG) w wybranych okresach: P1, P2, P3, P4 i P5
-0,0127
0,0490
-0,0046
0,0540
0,0274
-0,0103
-0,0242
-0,0333
0,0156
0,0039
0,0018
0,0001
0,0286
0,1519
0,1306
0,0630
0,1800
ρ̂ k
41,0764
40,9964
39,8136
39,8031
38,3704
38,0026
37,9512
37,6662
37,1263
37,0084
37,0010
36,9994
36,9994
36,6052
25,5237
17,3574
15,4618
Q*
P5: 27.06.07–30.04.09
TABELA 3.
0,0290
0,0033
-0,0257
-0,0226
0,0320
0,0102
0,0528
19.
20.
21.
22.
23.
24.
25.
168,1398
159,8593
159,5526
156,5128
154,9943
153,0262
152,9948
150,5056
0,0272
0,0161
-0,0084
-0,0950
-0,0522
-0,0073
0,0169
0,0417
39,9324
39,6541
39,5568
39,5306
36,1693
35,1565
35,1368
35,0318
Źródło: Obliczenia własne przy użyciu programu GRETL.
0,0294
18.
0,0600
-0,0047
0,0450
-0,0450
-0,0007
0,0146
0,0126
-0,0137
67,5795
63,4617
63,4367
61,1164
58,8033
58,8027
58,5593
58,3787
0,0238
0,0510
0,0403
-0,0098
0,0397
0,0194
-0,0102
-0,0060
62,1647
61,5787
58,8818
57,2007
57,1024
55,4785
55,0900
54,9837
0,0440
-0,0552
0,0152
0,0315
-0,1106
-0,0526
0,0520
0,0308
53,4717
52,4969
50,9712
50,8556
50,3595
44,2618
42,8850
41,5450
0,0271
0,0269
0,0593
0,0395
0,0772
0,0548
11.
12.
13.
14.
15.
16.
0,0159
7.
0,0741
0,0453
6.
10.
0,0770
5.
0,0235
0,0791
4.
0,0647
0,1035
3.
9.
0,0426
2.
8.
0,1758
ρ̂ k
1.
k
247,2983
238,3945
220,7384
216,1091
205,6748
203,5346
201,3585
185,0967
172,7241
171,0843
170,3367
164,2681
146,7588
128,2805
96,6469
91,2827
Q*
P1: 31.12.97–
30.04.09
-0,0056
0,0190
0,0721
0,0469
-0,0376
0,0195
0,1622
0,0824
-0,0393
-0,0885
0,0365
0,0475
0,0124
0,0804
17,8674
17,8603
17,7799
16,6288
16,1455
15,8363
15,7531
10,0528
8,5907
8,2591
6,5900
6,3072
5,8316
5,7991
4,4466
3,7143
0,1339
-0,0593
Q*
ρ̂ k
P2: 31.12.97–
12.10.1998
0,0594
0,0981
-0,0089
0,0187
0,0521
0,0238
0,0432
-0,0117
-0,0425
-0,0213
0,0107
0,0901
0,0220
-0,0244
-0,0933
0,0594
ρ̂ k
22,7484
20,8370
15,6362
15,5935
15,4061
13,9457
13,6431
12,6444
12,5707
11,6098
11,3691
11,3079
7,0081
6,7515
6,4376
1,8541
Q*
P3: 13.10.98–
12.10.00
0,0769
0,0526
-0,0349
-0,0123
0,0074
-0,0123
-0,0018
-0,0192
0,0342
0,0124
0,0257
-0,0460
0,0232
0,0032
0,0051
0,0764
ρ̂ k
12,4334
8,9143
7,2716
6,5489
6,4588
6,4261
6,3365
6,3346
6,1176
5,4319
5,3417
4,9551
3,7181
3,4056
3,3997
3,3845
Q*
P4: 13.10.00–
30.12.02
0,0307
0,0832
-0,0007
0,0749
0,0130
0,0204
0,0356
0,0604
0,0249
-0,0242
0,0191
0,0560
0,0402
0,1398
0,1197
0,2156
ρ̂ k
125,3201
124,1941
115,9108
115,9102
109,2055
109,0041
108,5091
107,0015
102,6597
101,9228
101,2280
100,7937
97,0698
95,1572
71,9892
55,0142
Q*
P5: 31.12.02–
09.07.07
Współczynniki autokorelacji stóp zwrotu indeksu sWIG80 (d. WIRR)
w wybranych okresach: P1, P2, P3, P4, P5 i P6
0,0293
-0,0075
0,0197
-0,0020
-0,0372
-0,0452
-0,0126
0,0463
0,0213
0,0628
0,0197
0,0413
0,1351
0,1288
0,0503
0,1994
ρ̂ k
42,6355
42,2207
42,1933
42,0055
42,0036
41,3386
40,3605
40,2842
39,2654
39,0495
37,1810
36,9980
36,1912
27,5981
19,7963
18,6095
Q*
P6: 10.07.07–
30.04.09
TABELA 4.
0,0332
0,0638
0,0376
0,0211
0,0152
0,0445
0,0458
0,0452
18.
19.
20..
21.
22.
23.
24.
25.
287,1863
281,1000
274,8510
268,9676
268,2826
266,9596
262,7574
250,6578
247,3934
0,0470
-0,0408
-0,0218
-0,0140
-0,0110
0,0069
0,0244
-0,0271
-0,0691
20,3434
19,8244
19,4359
19,3255
19,2799
19,2522
19,2415
19,1058
18,9395
-0,0270
0,0765
0,0266
-0,0673
0,0025
0,0327
0,0461
0,0414
-0,0519
Źródło: Obliczenia własne przy użyciu programu GRETL.
0,0057
17.
33,3876
32,9860
29,7659
29,3761
26,8921
26,8888
26,3037
25,1469
24,2129
0,0301
0,0456
0,0194
0,0018
0,0348
0,0153
0,0108
-0,0257
0,0508
17,3422
16,7922
15,5381
15,3112
15,3092
14,5820
14,4410
14,3717
13,9758
0,0287
0,0182
0,0391
-0,0083
0,0568
0,0653
0,0246
0,0078
0,0064
138,4973
137,5011
137,1025
135,2615
135,1784
131,3022
126,1702
125,4427
125,3688
0,0515
0,0057
0,0040
0,0465
-0,0807
-0,0438
0,0894
0,0148
0,0089
53,1829
51,8762
51,8603
51,8526
50,7938
47,6123
46,6753
42,7808
42,6739
1988
Paweł Jamróz
Następnym, baddanym rynkiem był rynek spó
ółek dużych za pomocą indekssu
WIG207, który skłłada się z akcji 20 największych
h i najbardziej płynnych spółeek
odstawowego ryynku akcji. Na po
odstawie notowaań WIG20 (zob. wykres 2.) doko
oz po
nan
no podziału na podokresy,
p
ze względu na występującą koniunktuurę rynkową.
WYKRES 2.
2
k
zamknięccia indeksu WIG
G20 z obrotamii (w tys. zł)
Notowania kursu
w okresie
o
od 31.122.1997 roku do 30.04.2009 roku
u
Źró
ódło: Opracowaniee własne.
Cały okres badaania indeksu WIIG20 obejmowaał, analogicznie jak przy WIG-uu,
okrres od 31.12.19977 r. do 30.04.20009 r. oznaczony jjako P1. Następn
nie cały okres zo
ostałł podzielony na podokresy: P2 od 31.12.1997 rr. do 12.10.1998 r. spadki; P3 od
o
13.110.1998 r. do 133.03.2000 r. wzro
osty; P4 od 14.033.2000 r. do 17.003.2003 r. spadkki;
P5 od 18.03.2003 r.
r do 29.10.2007 r. wzrosty i P6 od 30.10.2007 r.. do 30.04.2009 r.
w
nspadki. Wartości współczynników
autokorelacji orraz statystyki Q* Ljunga-Boxa in
dekksu WIG20 przeddstawia tabela 2.
W okresie P1 isstotne statystyczn
nie (α = 0,05) sąą współczynnikii autokorelacji dlla
opó
óźnień rzędu k = 7, 10, 13, 15, 17, 20, 22, i 25, natomiast 50% istotnych współłczynników jest doddatnich. Z kolei, statystyka Ljungga-Boxa jest isto
otna dla k = 7–225
o
P1, natomiast w podokrresie P2 nieistottna, w P3 istotna dla k = 15–188,
w okresie
w P4
P istotna dla k = 19 i 25, w P5 istotna dla k = 7––10, a w podokrresie P6 wszystkiie
stattystyki Q* są nieistotne statystyczznie.
7 WIG20 jest indek
ksem typu cenowego
o, co oznacza, że prrzy jego obliczaniu bierze się pod uwaggę
jedyynie ceny zawartych w nim transakcji, a nie uwzględnia się dochodów z akcji, takich jak dywidend
dy
czy prawa poboru. Porr.: Dokument elekttroniczny, tryb dosttępu: [http://www.gpw.pl, data wejściia:
17.008.2009 r.].
Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ...
199
Otrzymane wyniki pozwalają odrzucić hipotezę błądzenia losowego. Uwagę
zwraca ostatni okres P6, w którym to wszystkie autokorelacja są nieistotne, stąd
podokres ten jest najbliższy procesowi losowemu, podobnie jak dla indeksu giełdowego WIG. W podokresach: P2, P3, P4, P5 i P6 współczynniki autokorelacji istotne
statystycznie stanowiły zaledwie 7,2% wszystkich współczynników w analizowanych
okresach. Uzyskane korelacje cechują się niskimi wartościami oraz brakiem trwałości
występowania. Należy również pamiętać, interpretując wyniki, że na współczynniki
korelacji duży wpływ wywierają obserwacje nietypowe.
Analizując współczynniki autokorelacji rynku spółek małych i średnich za pomocą indeksów: sWIG808 i mWIG409, należy stwierdzić, iż ich stopy zwrotu nie
podlegają procesowi losowemu w badanych okresach (zob. tabele: 3. i 4.). W przypadku indeksu sWIG80 łącznie dla okresów: P1, P2, P3, P4, P5 i P6 przewagę stanowiły (96,7%) współczynniki dodatnie. Z kolei, dla indeksu mWIG40 łącznie dla
okresów: P1, P2, P3, P4 i P5 istotne współczynniki dodatnie stanowiły 82,8%.
Statystyka Ljunga-Boxa dla indeksu sWIG80 była statystycznie istotna w całym
okresie badawczym P1 oraz podokresach: P5 i P6. Co ciekawe, w odniesieniu do
rynku małych spółek, najbliższe procesowi błądzenia losowego były podokresy: P2,
P3 i P4, w których to zanotowano łącznie jedynie 6,7% istotnych współczynników
autokorelacji. Istotne autokorelacje dla indeksu mWIG40 występowały łącznie we
wszystkich podokresach w 23,2% przypadkach, z przewagą dodatnich współczynników (24 dodatnich, 5 ujemnych). Natomiast statystyki Q* dla indeksu mWIG40 były
istotne we wszystkich podokresach, co pozwala odrzucić losowość zmian stóp
zwrotu, oprócz okresu P2 i opóźnień rzędu k = 1–9.
5. Wyniki empiryczne uzyskane za pomocą testu serii
Wyniki testu serii dla czterech indeksów przedstawia tabela 5., pogrubioną
czcionką oraz zacieniowanym obszarem oznaczono przypadki, które znalazły się
w obszarze odrzucenia. W przypadku indeksu WIG nie ma podstaw do odrzucenia
hipotezy zerowej o tym, że proces podlega błądzeniu losowemu w badanym okresie
P1 oraz podokresach: P2, P3, P4, P5 i P6. Analogiczne wyniki uzyskano dla rynku
największych spółek, otóż stopy zwrotu indeksu WIG20 we wszystkich analizowanych okresach podlegały błądzeniu losowemu. Natomiast dla indeksu sWIG80
w okresach: P1, P4, P5 i P6 odrzucono hipotezę zerową o losowości zmian stóp
zwrotu indeksu.
8 Indeks sWIG80 do dnia 16.03.2007 r. nosił nazwę WIRR, jest indeksem cenowym i przy jego obliczaniu bierze się pod uwagę jedynie 80 małych spółek, wchodzących w jego skład, spośród spółek
notowanych na parkiecie. W indeksie sWIG80 nie uczestniczą spółki z indeksów: WIG20 i mWIG40
oraz spółki zagraniczne notowane na giełdzie oraz innych rynkach o kapitalizacji w dniu rankingu
powyżej 100 mln euro. Por.: Dokument elektroniczny, tryb dostępu: [http://www.gpw.pl, data wejścia:
17.08.2009 r.].
9 Indeks mWIG40 jest obliczany od 31.12.1997 r. i obejmuje 40 średnich spółek notowanych na
giełdzie, jest indeksem cenowym. Do dnia 16.03.2007 r. indeks nosił nazwę MIDWIG. W indeksie
mWIG40 nie uczestniczą spółki z indeksów: WIG20 i sWIG80 oraz spółki zagraniczne notowane na
giełdzie oraz innych rynkach o kapitalizacji w dniu rankingu powyżej 1 mld euro. Por.: Dokument elektroniczny, tryb dostępu: [http://www.gpw.pl, data wejścia: 17.08.2009 r.].
0,81077
-0,23943
0,56803
0,57095
0,0000
-7,8275
0,0000
-5,4157
0,26145
-1,1229
0,77891
0,280745
0,09209
-1,68447
p-value
0,628497
Z
-0,48384
P2: 31.12.97–30.04.99
p-value
Z
P2: 31.12.97–12.10.1998
p-value
Z
P2: 31.12.97–12.10.98
p-value
Z
P2: 31.12.97–12.10.98
0,355175
p-value
0,91708
p-value
0,56936
p-value
-1,61572
Z
0,106154
p-value
P3: 03.05.99–13.08.03
-0,568995
Z
P3: 13.10.98–12.10.00
0,104116
Z
P3: 13.10.98–13.03.00
0,924598
Z
P3: 13.10.98–27.03.00
Źródło: Obliczenia własne przy użyciu programu GRETL.
p-value
Z
mWIG40
P1: 31.12.97–
30.04.09
p-value
Z
sWIG80
P1: 31.12.97–
30.04.09
p-value
Z
WIG20
P1: 31.12.97–
30.04.09
p-value
Z
P1: 31.12.97–30.04.09
WIG
0,086529
p-value
0,2113
p-value
0,00309
p-value
-4,44108
Z
0,0000
p-value
P4: 14.08.03–26.06.07
-2,9583
Z
P4: 13.10.00–30.12.02
-1,25
Z
P4: 14.03.00–17.03.03
-1,714
Z
P4: 28.03.00–07.10.02
0,15547
p-value
0,05349
p-value
0,0000
p-value
-4,41408
Z
0,0000
p-value
P5: 27.06.07–
30.04.09
-6,4654
Z
P5: 31.12.02–
09.07.07
1,9309
Z
P5: 18.03.03–
29.10.07
1,42048
Z
P5: 08.10.02–09.07.07
Wyniki testów serii indeksów WIG, WIG20, sWIG80, mWIG40
w wybranych okresach: P1, P2, P3, P4, P5 i P6
0,21004
p-value
0,44399
p-value
-4,41026
Z
0,0000
p-value
P6: 10.07.07–
30.04.09
-0,76547
Z
P6: 30.10.07–
30.04.09
-1,2534
Z
P6: 10.07.07–30.04.09
TABELA 5.
Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ...
201
Jedynie w podokresach: P2 i P3 nie ma podstaw do odrzucenia hipotezy. Indeks
mWIG40 nie podlegał procesowi błądzenia losowego w okresach: P1, P4 i P5, z kolei w okresach: P2 i P3 nie było podstaw do odrzucenia hipotezy o losowości.
W przypadkach odrzucenia hipotezy zerowej statystka Z przyjmuje wartości ujemne,
co świadczy o istotnym występowaniu trendów, ponieważ w danych szeregach następuje mniej serii niż wynikałoby to z błądzenia losowego [Metody ekonometryczne
i statystyczne... 2000 s. 60–61; Żebrowska-Suchodolska 2009 s. 65].
Uzyskane wyniki świadczą o tym, iż inwestując w sektorze małych i średnich
przedsiębiorstw, można było uzyskiwać ponadprzeciętne stopy zwrotu. Wartość p
(ang. p-value), czyli empiryczny współczynnik istotności, informuje, jakie jest prawdopodobieństwo popełnienia błędu I rodzaju, polegającego na odrzuceniu hipotezy
zerowej, mimo że jest ona prawdziwa [Stanisz 1998 s. 146]. Interpretując otrzymane
wyniki, należy stwierdzić, iż odrzucenie hipotezy zerowej o losowych zmianach stóp
zwrotu indeksu WIG w okresie P1 wiąże się z popełnieniem błędu wynoszącym
81,077%, dlatego przy tak wysokim błędzie nie możemy hipotezy odrzucić. Natomiast, na przykład w podokresie P5, odrzucenie losowości zmian stóp zwrotu WIG-u
wiąże się z błędem równym jedynie 15,547%. Zatem, im mniejsza jest wartość p,
z tym większym przekonaniem możemy odrzucić hipotezę zerową o losowych zmianach stóp zwrotu analizowanych indeksów. Najwyższą wartość p osiągnęły zmiany
stóp zwrotu WIG20 w podokresie P3, wynosząc 91,708%.
6. Podsumowanie
Rozpatrując uzyskane wyniki dla całego okresu badawczego z wynikami dla podokresów wzrostów czy spadków wartości indeksów, wskazane jest wykonywanie badań oddzielnie dla okresów o różnej koniunkturze giełdowej. Podsumowując otrzymane wyniki, można zaobserwować zwiększającą się w czasie efektywność polskiego
rynku akcji jako całości mierzonego indeksem WIG (por. podokresy: P2 i P6 w tabeli 1.), natomiast największą efektywność wykazują spółki duże z indeksu WIG20.
Wyniki spółek małych i średnich z indeksów: sWIG80 i mWIG40 świadczą o przypadkach nieefektywności wśród tych firm, co może wyjaśniać na ich mniejszą efektywność informacyjną w formie słabej [Witkowska, Żebrowska-Suchodolska 2008
s. 155–164]. Mimo występujących nieefektywności w odniesieniu do segmentu małych i średnich spółek oraz istotnych statystycznie autokorelacji dużych spółek,
to w podejściu praktycznym dla całości rynku uzyskane wyniki nie pozwalają jednoznacznie odrzucić występowania słabej efektywności polskiego rynku akcji.
Prezentowane wyniki nasuwają szereg spostrzeżeń, którymi warto zająć się
w przyszłych badaniach. Z jednej strony mogą być to badania nad zastosowaniem
innych testów statystycznych, jak na przykład obecności pierwiastków jednostkowych czy teorii chaosu, a z drugiej wpływu czynników mikro- i makroekonomicznych na kształtowanie się cen na Giełdzie Papierów Wartościowych.
202
Paweł Jamróz
Literatura
Aczel A. D. 2005 Statystyka w zarządzaniu, Warszawa.
Bachelier L. 1964 Theory of Speculation, [Tłumaczenie na język angielski zamieszczone w:]
Cootner P. (ed.), The Random Character of Stock Market Prices, Cambridge.
Czekaj J. Woś M., Żarnowski J. 2001 Efektywność giełdowego rynku akcji w Polsce. Z perspektywy dziesięciolecia, Warszawa.
Domański C., Pruska K. 2000 Nieklasyczne metody statystyczne, Warszawa.
Fama E. F. 1970 Efficient Capital Markets: A Review of Theory and Empirical Work, „Journal
of Finance”, 25.
Fama E. F. 1991 Efficient Capital Markets: II, „Journal of Finance”, 46.
Haugen R. A. 1996 Teoria nowoczesnego inwestowania, Warszawa.
Metody ekonometryczne i statystyczne w analizie rynku kapitałowego 2000, Jajuga K. (red.),
Wrocław.
Jóźwiak J., Podgórski J. 2000 Statystyka od podstaw, Warszawa.
Kufel T. 2009 Ekonometria. Rozwiązywanie problemów z wykorzystaniem programu GRETL,
Warszawa.
Osińska M. 2006 Ekonometria finansowa, Warszawa.
Stanisz A. 1998 Przystępny kurs statystyki w oparciu o program STATISTICA PL na przykładach z medycyny, Kraków.
Szyszka A. 2003 Efektywność Giełdy Papierów Wartościowych w Warszawie na tle rynków dojrzałych, Poznań.
Tarczyński W. 2002 Fundamentalny portfel papierów wartościowych, Warszawa.
Witkowska D., Matuszewska A., Kompa K. 2008 Wprowadzenie do ekonometrii dynamicznej
i finansowej, Warszawa.
Witkowska D., Żebrowska-Suchodolska D. 2008 Badanie słabej formy efektywności informacyjnej
GPW, [w:] Studia i Prace Wydziału Nauk Ekonomicznych i Zarządzania, nr 9, Szczecin.
Żebrowska-Suchodolska D. 2009 Weryfikacja słabej formy efektywności za pomocą testów statystycznych na GPW w Warszawie, „Optimum. Studia Ekonomiczne”, 1 (41), Białystok.
Dokument elektroniczny, tryb dostępu: [http://www.stat.gov.pl/gus/5840_1338_PLK_
HTML.htm, data wejścia: 30.04.2010 r.].
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Bogna GAWROŃSKA-NOWAK1
REŻIM KURSOWY A PRESJA KRYZYSOWA
W WYBRANYCH GOSPODARKACH NOWYCH KRAJÓW
CZŁONKOWSKICH UNII EUROPEJSKIEJ2
Streszczenie
Przebieg światowego kryzysu finansowego z 2008 roku był zróżnicowany dla gospodarek Europy
Środkowo – Wschodniej. Dylematy dotyczące wyboru odpowiedniego reżimu kursowego znów zyskują
na aktualności wobec kryzysu strefy EURO oraz widocznych rozbieżności pomiędzy rozwiązaniami
przyjętymi przesz nowych członków – w przypadku Bułgarii czy Litwy jest to izba walutowa, Łotwy –
kurs sztywny, podczas gdy Czechy i Polska mają kursy płynne. Jednak w literaturze można znaleźć wiele ambiwalentnych ocen dotyczących znaczenia reżimu kursowego dla tzw. makroekonomicznej stabilności kraju, a więc również dla prawdopodobieństwa wystąpienia ataku spekulacyjnego czy pojawienia
się zjawiska kryzysu. W niniejszym opracowaniu podjęto próbę zidentyfikowania napięć na rynku walutowym dla wybranych przypadków krajów transformowanych różniących się reżimem kursowym.
Celem badania jest zaobserwowanie pewnych tendencji wskazujących na brak lub istnienie relacji
pomiędzy typem reżimu a wzmożoną presją. Dane użyte dla potrzeb analizy pochodzą z International
Financial Stastistics Międzynarodowego Funduszu Walutowego oraz z bazy OECD. Są to dane miesięczne dla: Bułgarii, Czech, Litwy, Łotwy i Polski i obejmują okres: styczeń 1996 – grudzień 2009.
Wszystkie kraje, objęte badaniem, spełniają następujące kryteria: należą do grupy europejskich gospodarek transformowanych, pozostają poza strefą EURO aspirując do niej (choć z różnym zaangażowaniem) i mają skrajnie różne reżimy kursowe.
Słowa kluczowe: reżim kursowy, wskaźnik presji rynkowej, kryzys walutowy, kraje transformowane
EXCHANGE REGIME AND CRISIS PRESSURE IN SELECTED ECONOMIES
OF NEW EU MEMBER STATES
Summary
The course of the global financial crisis of 2008 was different for the economies of Central and
Eastern Europe. The dilemmas concerning a choice of an appropriare exchange regime are beginning
to gain currency again in the crisis situation connected with the area of EURO and visible divergences
between solutions adopted by new member states; in the case of Bulgaria or Lithuania we have to do
with clearing exchange, Latvia – fixed rate of exchange, whereas the Czech Republic and Poland have
floating exchange rates. However, it is possible to find in literature many ambivalent assessments of the
importance of the exchange regime for the so-called macroeconomic stability of the country, and conDr Bogna Gawrońska-Nowak, Wyższa Szkoła Handlu i Prawa im. R. Łazarskiego.
Artykuł powstał jako rezultat badań finansowanych przez środki przyznane autorce przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach projektu badawczego: „Efektywność interwencji
walutowej dla gospodarek zbliżonych do warunków polskich” (N N113 270637).
1
2
204
Bogna Gawrońska-Nowak
sequently, also for the possibility of a real chance of the emergence of speculations or crisis phenomena. In this article an attempt has been made to identify tensions on the currency market for selected
cases of transformed countries of different exchange regime. This research is aimed at observing certain tendencies indicating lack or existence of relations between the regime type and increased pressure.
The applied data was taken from International Financial Stastistics by the International Monetary
Fund and from the OECD data base. This is monthly data for Bulgaria, The Czech Republic, Lithuania, Latvia and Poland and it covers the period between January 1996 and December 2009. All the
countries in question meet the following criteria: they belong to the group of European economies being under transformation, they remain outside the EURO area, aspiring to it, (although with different
degree of commitment) and they have totally different exchange regimes.
Keywords: exchange regime, market pressure index, monetary crisis, countries undergoing transformation
1. Wstęp
Jak wiadomo, światowy kryzys finansowy z 2008 roku miał różny przebieg w gospodarkach krajów transformowanych. Jeśli porównamy skalę recesji w tych krajach,
to Polska odnotowała pozytywne tempo wzrostu gospodarczego, podczas gdy Łotwa i Litwa podlegały wysokim spadkom PKB, jednym z najwyższych w Europie
i na świecie. Powstaje więc pytanie, w jakim stopniu zróżnicowane strategie rozwoju
tych krajów, ich różne rozwiązania w zakresie polityki gospodarczej – szerzej – różnice w ich makroekonomicznym otoczeniu czy wreszcie odrębne charakterystyki ich
sektorów bankowych przyczyniły się do innego przebiegu światowego kryzysu
w tych krajach. W ramach tej całej, obszernej grupy potencjalnych czynników kryzysogennych na zainteresowanie zasługują wyraźne różnice w ramach przyjętych,
w tych gospodarkach reżimów kursowych. Na przykład w przypadku Bułgarii czy
Litwy – izba walutowa, Łotwy – kurs sztywny, podczas gdy Czechy i Polska mają
kursy płynne.
W literaturze można znaleźć wiele ambiwalentnych ocen dotyczących znaczenia
reżimu kursowego dla tzw. makroekonomicznej stabilności kraju, a więc również dla
prawdopodobieństwa wystąpienia ataku spekulacyjnego czy pojawienia się zjawiska
kryzysu. Trudno znaleźć wystarczająco przekonujący materiał teoretyczny czy empiryczny, który pozwalałby na jednoznaczną interpretację znaczenia reżimu kursowego dla wzmacniania bądź osłabiania podatności gospodarki na zjawiska kryzysowe.
Biorąc powyższe przesłanki, warto przyjrzeć się temu zagadnieniu dla wybranych
krajów transformowanych, tzw. nowych członków UE.
Struktura niniejszego opracowania jest następująca. W punkcie drugim dokonano krótkiego przeglądu literatury dotyczącego relacji pomiędzy reżimem kursu
walutowego a podatnością gospodarek na kryzys (w szczególności w odniesieniu do
gospodarek wschodzących). W punkcie trzecim, korzystając z konstrukcji wskaźnika presji rynkowej (Exchange Market Pressure), [Eichengreen, Rose, Wyplosz 1986],
zidentyfikowano momenty napięć na rynku walutowym dla wybranych przypadków
krajów transformowanych różniących się reżimem kursowym. Chodziło tutaj o zaobserwowanie pewnych tendencji wskazujących na brak lub istnienie relacji pomiędzy typem reżimu a wzmożoną presją. Punkt trzeci zawiera krótkie podsumowanie.
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
205
Dane użyte dla potrzeb analizy pochodzą z International Financial Stastistics
Międzynarodowego Funduszu Walutowego oraz z bazy OECD. Są to dane miesięczne dla: Bułgarii, Czech, Litwy, Łotwy i Polski i obejmują okres: styczeń 1996 –
grudzień 2009. Wszystkie kraje, objęte badaniem, spełniają następujące kryteria: należą do grupy europejskich gospodarek transformowanych, pozostają poza strefą
EURO, aspirując do niej (choć z różnym zaangażowaniem) i mają skrajnie, różne
reżimy kursowe. W przypadku Węgier, które nie zostały uwzględnione w badaniu,
zachodził problem z pełną dostępnością danych o wymaganej częstotliwości. Ponadto, reżim kursowy Węgier należy zaklasyfikować jako reżim pośredni, co utrudnia weryfikację hipotezy na temat roli reżimów kursowych w ich wyraźnie spolaryzowanym ujęciu.
2. Reżim kursowy a kryzys – rozwiązania dla krajów wschodzących
Zgodnie z historycznym podejściem Mundella [Mundell 1963], utrata autonomii
w ramach polityki monetarnej pociąga za sobą również utratę możliwości neutralizowania efektów szoków realnych. Zatem, rozstrzygnięcie na rzecz sztywnego lub
płynnego kursu jest determinowane (obok stopnia mobilności kapitału) charakterem
doświadczanych przez gospodarkę szoków – przed realnym lepiej chroni kurs płynny, a przed nominalnymi kurs sztywny [Bordo 2003]. Jednak, jeśli próbować doprecyzować te prawidłowości, koncentrując się na wpływie danego reżimu kursowego
na możliwość pojawienia się kryzysu finansowego czy walutowego, to istniejący dorobek publikacyjny obejmuje wiele rozbieżnych ocen.
Przedstawiane następnie kwestie sporne odnoszą się głównie do skrajnych rozstrzygnięć pomiędzy kursem sztywnym a kursem płynnym, chociaż, jak powszechnie
wiadomo, bogactwo rozwiązań kursowych obejmuje wiele różnych kategorii, w tym
również rozwiązań pośrednich3. Argumenty przemawiające za faworyzowaniem
skrajnych reżimów kursowych można znaleźć u Bordo [Bordo 2003] czy Frankela
[Frankel 2003]4:
–
słynna zasada „Wykluczającej się Trójcy” (Impossible Trinity) wskazująca na
konieczność wyeliminowania jednego z trzech celów, niemożliwych w pełnym ich zestawie do realizacji: stabilności kursu walutowego, integracji rynków finansowych i niezależności monetarnej;
–
niebezpieczeństwo związane z nieczytelnością przekazu płynącego z reżimów pośrednich i w tym sensie podważającego wiarygodność tej polityki;
3 Frankel [Frankel 2003 s. 5] wyróżnia aż 9 różnych podstawowych kategorii reżimów kursowych
(w tym cztery reżimy pośrednie obejmujące jeszcze ich pochodne odmiany). MFW, w swojej klasyfikacji, de facto z 2006 r. posługuje się 8 głównymi odmianami reżimów. Zob.: Dokument elektroniczny,
tryb dostępu: [http://www.imf.org/external/np/mfd/er/2006/eng/0706.htm].
4 Jak przypomina Eichengreen [Eichengreen 2008], autorem pionierskiego opracowania wskazującego na możliwość polaryzowania rozwiązań kursowych, jako naturalnie zarysowującej się tendencji,
jest Swoboda [Swoboda 1986] oraz Genberg i Swoboda [Genberg, Swoboda 1987]. Traktowali oni bowiem wzrastającą mobilność kapitału jako czynnik zmuszający kraje do rezygnacji z rozwiązań pośrednich.
206
Bogna Gawrońska-Nowak
–
zalecenia płynące do Międzynarodowego Funduszu Walutowego, by kierować środki do tych krajów, które decydują się na skrajne modele reżimu
kursowego.
Jaka jest zatem rola sztywnego kursu walutowego w mechanizmie generowania
kryzysu w gospodarkach rozwijających się czy wschodzących? Proces powstawania
presji kryzysowej zaczyna się tutaj od naturalnej potrzeby każdej transformowanej
gospodarki, jaką jest zwiększenie wiarygodności w relatywnie łatwy sposób i w możliwie krótkim czasie. Usztywnienie kursu wydaje się być optymalnym rozwiązaniem.
Dla porównania, realizowanie polityki celu inflacyjnego wymaga więcej wysiłków,
choćby w zakresie budowania instytucjonalnej i rzeczywistej niezależności Banku
Centralnego, co musi iść w parze z utrzymaniem dyscypliny fiskalnej, a wiarygodność jest uzyskiwana stopniowo i mozolnie, zgodnie z wymiernym postępem osiąganym w walce z inflacją. Przyjęcie kursu sztywnego czy izby walutowej pozornie
oferuje mniej złożone uwarunkowania, sprowadza je właściwie do poprawnego wyboru parytetu i dysponowania odpowiednim poziomem rezerw, przy jednoczesnej
zgodzie na rezygnację z polityki monetarnej, jako aktywnego narzędzia interwencji.
Wstępne sukcesy w zachodzących przeobrażeniach gospodarczych, tj. dobre wyniki
makroekonomiczne, widocznie satysfakcjonujące efekty rozpoczętych reform, stanowią zazwyczaj dodatkową zachętę do przyjęcia sztywnego kursu i stwarzają korzystne perspektywy na jego utrzymanie w przyszłości. Już wkrótce samopoczucie
polityków ulega dalszej poprawie, gdyż decyzja o usztywnieniu kursu zaczyna szybko
przekładać się na zwiększony napływ kapitału, tak niezbędny dla dynamicznego
rozwoju kraju. W konsekwencji, rodzima waluta podlega procesowi realnej aprecjacji
i następuje kumulacja deficytu rachunku obrotów bieżących w czasie. Ta sytuacja nie
musi jednak stanowić automatycznego zagrożenia kryzysem, jeżeli poziom deficytu
podlega realnej ocenie i kontroli. Jest to jednak trudne w warunkach sztywnego kursu, gdyż taki reżim wytwarza atmosferę bezkarności, poczucie zamrożenia w czasie
całego otoczenia makroekonomicznego, stabilności „podarowanej jakby raz na zawsze”. Iluzji tej ulegają zarówno politycy gospodarczy, jak i inwestorzy. Ci pierwsi tolerują zbyt długo drastycznie wysokie poziomy deficytów oraz nie szukają dodatkowych rozwiązań regulacyjnych, chroniących stabilność systemu finansowego w kraju
(system jest stabilny per se tylko z samego powodu istnienia sztywnego kursu).
Ci drudzy zaś pozwalają sobie na ignorowanie sygnałów płynących z gospodarki,
nawet wobec systematycznie narastającej aprecjacji realnej i w związku z tym również nie podejmują żadnych działań zabezpieczających w postaci transakcji terminowych czy opcji, a więc tym gwałtowniejsza jest ich reakcja i dlatego zgubna
w skutkach dla gospodarki, gdy wreszcie dochodzi do dewaluacji.
Poniekąd, podstawy opisu powyższego mechanizmu „pokusy nadużycia” (moral
hazard) można odnaleźć w ramach ugruntowanej już teorii w zakresie ekonomii
międzynarodowej, zwłaszcza tzw. trzeciej generacji modeli kryzysów walutowych5.
5 Rozpoznanie czynników prowadzących do wybuchu kryzysu walutowego stanowi przedmiot dociekań w ramach znanych modeli: pierwszej, drugiej i trzeciej generacji. Podejście to ewoluuje wraz
z historią kryzysów. Wczesne doświadczenia: Meksyku (1973–82), Argentyny (1978–81) oraz Chile
(1983) z pewnością były inspirujące dla modeli pierwszej generacji. Kryzysy w Meksyku i w Europie na
początku lat dziewięćdziesiątych są związane z rozwojem modeli drugiej generacji. Wreszcie, wiele
aspektów kryzysu, który dotknął kraje Południowo-Wschodniej Azji w drugiej połowie tej samej deka-
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
207
Grupa tych modeli powstała po wybuchu kryzysu w Południowo-Wschodniej Azji
w 1997 roku. Wówczas w gospodarce Tajlandii, która usztywniła bata głównie w relacji do dolara amerykańskiego, zachodziły obie tendencje jednocześnie, tj. realna
aprecjacja w połączeniu ze sporym deficytem obrotów bieżących. Sukcesywny proces umacniania się rodzimej waluty spowodował zahamowanie eksportu, a następnie
odbił się negatywnie zarówno na rynku nieruchomości – ostatecznie obnażając jego
przeinwestowanie – a także na giełdzie papierów wartościowych, gdzie gwałtownie
spadały ceny. Załamanie giełdy papierów wartościowych i rynku nieruchomości postawiło przedsiębiorstwa w trudnym położeniu, drastycznie wpływając na ich wypłacalność. Tendencje te znalazły swoje odbicie w fali bankructw i upadku narodowej waluty. Wydarzenia w Tajlandii spowodowały następnie falę ataków spekulacyjnych na waluty państw – sąsiadów: Malezji, Indonezji i Filipin. Waluty tajlandzkie
i indonezyjskie straciły około 50%, a waluty Malezji i Filipin 30% swojej wartości,
jeszcze w bardzo wczesnej fazie kryzysu. Kryzys rozlał się na rynki międzynarodowe.
Krugman [Krugman 1999] trafnie projektuje opisane doświadczenia azjatyckie na
język teorii w ramach, wspomnianej, trzeciej generacji modeli. To w jego koncepcji
centralne miejsce w procesie powstawania kryzysu zajmują inwestycje – czy raczej
silna potrzeba tych inwestycji występująca w przypadku krajów rozwijających się –
wraz z całym mechanizmem ich finansowania, który opiera się na majątku przedsiębiorców krajowych i kredytach, jakie mogą oni zaciągnąć za granicą. Zdolność do
zaciągania zagranicznych kredytów zależy od stopy zwrotu z aktywów oraz zaufania
pożyczkodawców co do zdolności spłaty zobowiązań przez inwestorów rodzimych.
Odmowa finansowania inwestycji przez pożyczkodawców oznacza deprecjację realnego kursu, co w zasadzie jest jednoznaczne z bankructwem krajowych przedsiębiorców i stanowi jednocześnie potwierdzenie negatywnego werdyktu wydanego
przez pożyczkodawców. Oczywiście, Krugman [Krugman 1999] stara się doprecyzować warunki brzegowe powstania kryzysu – w jego modelu, tym większa możliwość wystąpienia kryzysu, im:
–
wyższy pułap możliwości pożyczkowych,
–
niższa krańcowa skłonność do importu,
–
wyższa relacja pożyczki zagranicznej do eksportu.
Jednak, z punktu widzenia polityki kursowej, na szczególną uwagę zasługuje element pewnej uznaniowości, zawarty w ocenie poziomu zaufania dokonywanej przez
pożyczkodawców. Wydaje się dość oczywiste, że informacje na temat tzw. fundamentów makroekonomicznych mają dla tej oceny istotne znaczenie. Jednak tutaj nie
sposób oprzeć się wrażeniu, że usztywnienie kursu może zdominować pozostałe sygnały płynące z rynku i w tym sensie właśnie wypaczać czy zniekształcać prawdziwy
dy, próbowano rozwikłać, posługując się modelami trzeciej generacji. Podział na trzy generacje modeli
wynika zatem z historycznych różnic, obejmujących charakter i przebieg zjawisk kryzysowych i stąd następnie wynikających różnych stanowisk teoretycznych. Trzecia generacja koncepcji stanowi próbę połączenia tzw. czynników fundamentalnych, stanowiących zestaw kluczowych, zmiennych makroekonomicznych z elementami rozumowania typowymi dla zwolenników samospełniającej się prognozy –
nurtu eksplorującego znaczenie oczekiwań, zachowań spekulacyjnych dla wystąpienia kryzysu. Wśród
licznych autorów modeli trzeciej generacji można wymienić: Corsettiego, Pensetiego, Roubiniego [Corsetti, Penseti, Roubini 1998] oraz Krugmana [Kurgman 1999].
208
Bogna Gawrońska-Nowak
przekaz i wpływać na formułowanie ocen przez pożyczkodawców, czasami być może przesądzając o dynamice i skali zjawiska kryzysowego.
Co zatem pokazują wyniki badań mających na celu analizę relacji pomiędzy reżimem kursowym a kryzysem finansowym? Według Chang i Velasco [Chang, Velasco
1998], wprawdzie groźba kryzysu walutowego w warunkach izby walutowej czy kursu sztywnego jest mało istotna, to zagrożenie kryzysem bankowym pozostaje w mocy. Inne stanowisko prezentują: Ghosh, Gulde i Wolf [Ghosh, Gulde, Wolf 2002],
którzy twierdzą, że, bez względu na poziom dochodu danego kraju, kryzysy walutowe występują częściej w warunkach kursu płynnego, aniżeli kursu sztywnego.
Jednocześnie, mimo większej podatności na kryzys walutowy, gospodarki z płynnym
kursem przechodzą go w sposób łagodniejszy, ponoszą niższe koszty kryzysu.
Zdaniem tych samych autorów, w przypadku kryzysu bankowego, wybór reżimu
sztywnego dla gospodarek wschodzących czy krajów rozwijających się nie powinien
być brany pod uwagę, jako istotny czynnik determinujący prawdopodobieństwo jego
wystąpienia.
Warto w tym miejscu przypomnieć, że pomiędzy kryzysem bankowym a kryzysem walutowym może zachodzić tzw. „bliźniacza” zależność (twin crisis). Pojawienie
się kryzysu walutowego często jest poprzedzone zjawiskiem kryzysu bankowego, następnie kryzys walutowy pogłębia kryzys bankowy i w ten sposób powstaje swego
rodzaju wzajemnie napędzający się mechanizm [Kaminsky, Reinhart 1999]6.
Uwzględnienie tej współzależności komplikuje jednoznaczną ocenę kursu sztywnego, jeśli chodzi o ryzyko wystąpienia kryzysu w tych warunkach. Jak dowodzą na
przykład: Husain, Mody i Rogoff [Husain, Mody, Rogoff 2004], częstotliwość epizodów kryzysów bankowych oraz kryzysów bliźniaczych była wyższa dla reżimów
usztywnionych, co można było stwierdzić, głównie, w odniesieniu do gospodarek
wschodzących w latach dziewięćdziesiątych. Ograniczenia interpretacyjne nie powinny być zaskakujące, gdy doda się, że kryzysy bliźniacze są uważane właśnie za fenomen gospodarek wschodzących, rzadko spotykany w gospodarkach krajów rozwijających się i wysoko rozwiniętych.
Jeszcze więcej ambiwalentności w ocenie relacji pomiędzy wyborem reżimu kursowego a wybuchem kryzysu przynoszą wyniki badania: Bordo, Eichengreena, Klingebiela i Soledada-Martineza [Eichengreen, Klingebiel, Soledada-Martinez 2001].
Według autorów, kursy sztywne czy stałe (crawling pegs) przyjmowane przez gospodarki wschodzące są obciążone wyższym ryzykiem kryzysu walutowego niż reżimy
płynne (w tym również sterowane managed float). Stanowi to widoczny kontrast do
wyników badań, na które powołują się, wcześniej przywołani, Ghosh, Gulde i Wolf
[Ghosh, Gulde, Wolf 2002].
6 Zgodnie z definicją przyjętą przez Kaminsky’ego i Reinhart [Kaminsky, Reinhart 1999 s. 478],
zjawisko „kryzysów bliźniaczych” występuje w takiej sytuacji, gdy w ciągu 48 miesięcy, od daty uznanej
za początek kryzysu bankowego, pojawi się kryzys bilansu płatniczego (walutowy).
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
209
3. Analiza wskaźnika presji rynkowej
Zdefiniowanie pojęcia kryzysu finansowego czy też jego subkategorii, takich jak
kryzys walutowy czy bankowy, zwłaszcza dla potrzeb tworzenia konkretnej, aplikacyjnej miary nastręcza trudności. Po pierwsze, zjawiska te mogą bowiem koegzystować ze sobą, pozostawać we współzależności, jednocześnie zachowując swój niezależny status. Po drugie, dynamiczny rozwój gospodarki światowej, stanowiący ich
naturalne środowisko, zmienia charakterystykę tych zjawisk, dodając często nowe,
nieuwzględnione wcześniej elementy. Po trzecie, istnieje szereg ważnych cech kryzysu ciężko mierzalnych, przykładowo, takich jak: panika, stan oczekiwań czy mechanizm ataku spekulacyjnego. Są one zawarte nawet w prostych wariantach definicyjnych [Gawrońska-Nowak 2008]:
–
kryzys bankowy – aktualny lub potencjalny stan paniki w sektorze bankowym (tzw. bank runs), w wyniku którego system traci swoją płynność, a władze
monetarne są zmuszone, wobec zastałej sytuacji, do interwencji na masową
skalę;
–
kryzys walutowy – będący przez pewien czas synonimem kryzysu bilansu
płatniczego (zgodnie z teorią modeli pierwszej generacji), występujący na
skutek ataku spekulacyjnego na walutę danego kraju.
Eichengreen, Rose i Wyplosz [Eichengreen, Rose, Wyplosz 1986] proponują
atrakcyjne rozwiązanie dla problemu właściwego zdefiniowania zjawiska kryzysu walutowego, uwzględniające jego złożoność i spełniające postulat jego kwantyfikacji.
Są oni bowiem twórcami indeksu presji rynkowej (exchange market pressure) stosowanego w licznych opracowaniach7:
EMPit ≡ [(α % Δei ,t ) + (β Δ (ii ,t − iG ,t ) ) − (γ (% Δ ri ,t − % Δ rG ,t ) )],
(1)
gdzie: w oryginalnym tekście: ei,t – cena niemieckiej marki wyrażoną w walucie i w okresie t;
iG – krótkookresowa stopa procentowa Niemiec; r – rezerwy zagraniczne; α, β, γ – wagi.
Indeks ów jest więc średnią ważoną zmian trzech opisanych, powyżej zmiennych.
Kryterium zdefiniowania kryzysu, w tym ujęciu, są wartości krytyczne osiągane
przez indeks, co można zapisać:
Krysysi,t = 1;
Krysysi,t = 1; jeżeli EMPi,t > 1,5σEMP + μEMP ;
Krysysi,t = 0; w przeciwnym przypadku;
gdzie: σEMP – odchylenie standardowe EMP, μEMP – średnia wartość EMP.
Należy zaznaczyć, że indeks, prezentowany powyższym równaniem, jest wynikiem ewolucji. W celu
spojrzenia retrospektywnego, trzeba zapoznać się z innymi opracowaniami tych samych autorów [Eichengreen, Rose, Wyplosz 1994, 1995]. W opracowaniach tych wiele uwagi poświęcono czynnikom determinującym atak spekulacyjny, a sam indeks presji rynkowej powstał jako próba spełnienia potrzeby
stworzenia obiektywnego miernika presji spekulacyjnej, który uwzględniałby zarówno skuteczne, jak
i nieskuteczne ataki spekulacyjne. Ideałem byłby wskaźnik pozwalający na określenie nadwyżkowego
popytu na walutę zagraniczną, na drodze wyodrębnienia tej zmiennej z modelu kursu walutowego.
7
210
Bogna Gawrońska-Nowak
Autorzy zwracają uwagę na trudności związane z odpowiednim doborem wag.
Najprościej byłoby z nich zrezygnować i wyliczyć zwykłą średnią, jednak charakterystyka zmienności składowych indeksu, tj. rezerw, kursu walutowego i stopy procentowej, jest istotnie różna, stąd potrzeba odpowiedniego zneutralizowania tych różnic
poprzez wagi, tak by żadna ze zmiennych nie zdominowała ostatecznie wartości
wskaźnika. Mimo tych zastrzeżeń, wskaźnik zdał egzamin jako powszechnie stosowane narzędzie badawcze, podlegając również wielu późniejszym modyfikacjom,
które jednak nie zmieniły istotnie jego zasadniczej konstrukcji [Stavarek, Dohnal
2009; Gawrońska-Nowak , Grabowski 2009].
W celu zaobserwowania wzmożonych momentów napięć na badanych rynkach
gospodarek wschodzących, ostatecznie dla potrzeb niniejszego opracowania, przyjęto następującą postać wskaźnika presji rynkowej (EMP)8:
⎛ rt ,j − rt −1,j ⎞
⎟,
EMPt = ωi i t ,j − i t ,E − ⎜ ωr
⎜
⎟
r
t −1, j
⎝
⎠
(
)
(2)
gdzie: t – okres czasu, j – badany kraj, E – strefa EURO, ω – odwrotność odchylenia standardowego dla szeregu obserwacji danej zmiennej, i – stopa procentowa r – poziom rezerw
zagranicznych (bez złota).
Wartości wskaźnika dla poszczególnych krajów przedstawiono na wykresach: 1.–5.
Reżimy kursowe przyjęte przez analizowane kraje różnią się istotnie. Czechy oficjalnie przyjęły politykę kursu sterowanego płynnego (managed floating). Litwa i Łotwa
weszły do ERM II. Jednak Litwa zdecydowała się na izbę walutową – tak jak Bułgaria, podczas gdy Łotwa tylko usztywniła kurs. Polska ma kurs płynny.
Trzeba w tym miejscu wyraźnie zaznaczyć, że często oficjalnie deklarowane intencje w zakresie polityki kursowej (reżimy kursowe de iure) rozmijają się z faktyczną
ich realizacją (reżimy kursowe de facto). Odnośniki do stosowania takiego podejścia
przez kraje Środkowej i Wschodniej Europy można znaleźć miedzy innymi w opracowaniu: Friedena, Leblanga i Valeva [Frieden, Leblang, Valev 2009].
Shimizu [Shimizu 2009], w celu lepszego zdefiniowania typów reżimów występujących faktycznie w Środkowej i Wschodniej Europie, poddaje weryfikacji model
Frankela i Weia [Frankel, Wei 1994] dla danych DATASTREAM w okresie: 1 stycznia 1999 roku – 24 grudnia 2008 roku. Uzyskane przez niego wyniki potwierdzają
oficjalny podział na kraje o reżimach sztywnych (hard pegs): Bułgaria, Estonia, Litwa,
Łotwa i miękkie czy płynne (soft pegs): Czechy, Polska, Węgry. Jednak, w ramach tego podziału, zarysowują się znaczne różnice wewnątrz dwóch wyróżnionych grup.
Kraje z reżimami sztywnymi niejednakowo mocno i konsekwentnie związały swoje
kursy z walutą EURO. W grupie tej jedynie Bułgaria bezsprzecznie utrzymywała parytet w EURO dla całego badanego okresu. W krajach nadbałtyckich Litwa miała
doskonale sztywny kurs wobec EURO od połowy 2002 roku (co koresponduje
z faktem, że do 2 lutego 2002 roku kurs na Litwie był usztywniony w stosunku do
8 Jak widać, kurs walutowy został pominięty ze względu na możliwość porównania miary również
dla gospodarek o reżimach sztywnych.
211
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
dolara amerykańskiego), a Łotwa od początku 2005 roku (1 stycznia 2005 roku zrezygnowano na Łotwie z parytetu wyrażonego w SDR i zamieniono go na EURO).
Również w przypadku krajów z reżimem płynnym można mówić o różnym wpływie
EURO na kształtowanie się wartości rodzimej waluty w czasie.
Jednak, pomimo świadomości istnienia tych różnic, wartości prostych współczynników korelacji (Pearsona) podane w tabeli 1. wydają się umacniać przekonanie,
że dla presji kryzysowej pozostaje istotny raczej ten zasadniczy podział na reżimy
sztywne i płynne. Jednym z możliwych argumentów, przemawiającym za taką interpretacją, są bowiem obserwowane wysokie poziomy współczynnika dla krajów należących do tej samej ogólnej kategorii reżimu i niskie dla par krajów z dwóch różnych
kategorii. Podobieństwo w typie reżimu (mimo widocznych niuansów) nasuwa się
dość naturalnie jako jedna z przyczyn zaobserwowanej korelacji. Jednocześnie warto
pamiętać o szerszym, makroekonomicznym kontekście poczynionych obserwacji.
Gospodarki posiadające pokrewne reżimy kursowe reżimów mają z pewnością wiele
innych podobieństw w ramach swojej ogólnej charakterystyki, co może znacząco
wpływać na wyniki korelacji.
TABELA 1.
Wartości współczynnika korelacji liniowej Pearsona dla miesięcznych wartości wskaźnika presji rynkowej w okresie: styczeń 1996 – grudzień 2009
BLG
CZ
PL
LIT
LOT
BLG
CZ
PL
LIT
LOT
1,000
0,251
0,211
0,421
0,278
0,251
1,000
0,511
0,234
0,028
0,211
0,511
1,000
0,209
0,052
0,421
0,234
0,209
1,000
0,503
0,278
0,028
0,052
0,503
1,000
Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line).
Jeśli porównamy zachowanie wskaźnika (EMP) w okresie kryzysu azjatyckiego
(1997–1998) oraz kryzysu rosyjskiego (1998) z kształtowaniem się jego poziomów
w dalszych okresach, to jest widoczne, że w późnych latach 90-tych mamy do czynienia z długim pasmem zwiększonych wartości, podczas gdy po roku 2000 (co
obejmuje również ostatni epizod kryzysowy) wzmożona presja ma miejsce na ogół
w pojedynczych miesiącach i trudno mówić tutaj o serii. Obserwacja ta dotyczy właściwie wszystkich pięciu analizowanych gospodarek. Być może wynika to z faktu, że
postępujący proces otwarcia na świat badanych gospodarek europejskich zachodził
z dużym zaangażowaniem inwestycji bezpośrednich, wprowadzaniem banków zagranicznych w rodzimy system finansowy, utrzymywaniem rozsądnych proporcji
udziału aktywów zagranicznych w odniesieniu do PKB i wobec tego większą możliwością „buforowania” wstrząsów po 2000 roku. Należy również odnotować,
że procesy te zachodziły jednak ze zróżnicowanym tempem w odniesieniu do poszczególnych krajów, tym samym nieco luzując znaczenie wspólnych zaszłości
212
Bogna Gawrońska-Nowak
historycznych dla definiowania tożsamości tej grupy i zastępując je nową tożsamością indywidualną. Widać to w rozbiciu momentów powstawania wzmożonych napięć dla konkretnych rynków.
Mimo wszystko, obserwacja tych różnic nie pozwala uchwycić klarownej tendencji, mogącej świadczyć na przykład na rzecz znaczenia polityki kursowej dla absorpcji szoków. Co najwyżej, wnikliwe przyjrzenie się wykresowi Polski – która utrzymuje najbardziej wolnorynkowy kurs – w porównaniu z wykresami wykonanymi dla
pozostałych krajów może przypominać o roli kursu płynnego dla absorpcji szoków.
Na wykresie tym widać „najmniej zdyscyplinowane” ułożenie wartości wskaźnika
pomiędzy progami jego wartości krytycznych, co zdaje się tym samym potwierdzać
większą skłonność do szybkiego dostosowania się do zmieniających się warunków
rynkowych. Oczywiście, prawdą jest, że kurs sztywny nie powinien ograniczać możliwości dostosowawczych po stronie kursu realnego, jednak pod warunkiem doskonałej elastyczności cen i płac. W praktyce ceny i płace charakteryzuje często relatywna sztywność, zwłaszcza jeśli porównać dynamikę ich reakcji z dynamiką reakcji
nominalnego kursu walutowego.
Warto przy tej okazji odnotować, że na przykład wyniki badań Pancaro i Rueffera
[Pancaro, Rueffer 2009] przeprowadzonych dla 22 krajów przemysłowych w okresie
1970–2007 forsują hipotezę, że dynamika zmian w obrotach bieżących nie podlega
zróżnicowaniu ze względu na typ reżimu. Dodatkowo, autorzy zauważają, że warunki reżimu kursu płynnego (wbrew tradycyjnym poglądom obecnym w teorii makroekonomii), a nie reżimu kursu sztywnego oddziałują silniej w sposób negatywny
na wzrost PKB w trakcie korekty deficytu obrotów bieżących. Jednocześnie ci sami
autorzy przyznają, że jest trudno znaleźć wyczerpujący materiał empiryczny weryfikujący relację pomiędzy reżimem kursowym a deficytem obrotów bieżących.
Tymczasem w opracowaniach opublikowanych jeszcze przed rokiem 2008 można znaleźć wiele obaw, czy postępująca realna aprecjacja walut krajów nadbałtyckich,
połączona z wysokim poziomem deficytu obrotów bieżących, nie stanowi zagrożenia dla utrzymania reżimu kursu sztywnego [Burgess, Fabrizio i Xiao 2004], czy nie
prowadzi do nadmiernego zawyżania wartości walut tych krajów, tym bardziej że reżimy sztywne predysponują do realnej aprecjacji bardziej niż reżimy płynne czy pośrednie [Coudert i Couharde 2003].
4. Podsumowanie
Reasumując, zaprezentowane obserwacje wskaźnika presji rynkowej w wybranych krajach nowych członków UE w danym okresie nie dostarczają wyczerpującego materiału, który pomógłby wyraźnie rozstrzygać, czy uzależnianie wzmożonego
poziomu presji kryzysowej od wpływu określonego rodzaju reżimu jest właściwe.
Mimo to, biorąc pod uwagę zarówno zaprezentowaną analizę, jak i przytoczoną
wcześniej literaturę, wydaje się, iż tak zdefiniowany obszar bardziej złożonych dociekań jest aktualny, nadal niedostatecznie wyeksplorowany i obiecujący w sensie korzyści, jakie mogą przynieść otrzymane rezultaty badań dla realnego kształtowania
polityki kursowej, jak i lepszego poznania, niełatwej przecież, materii kryzysów finansowych w ogóle.
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
213
Opisując znaczenie wyboru reżimu kursowego przez kraje wschodzące, nie należy chyba wyłącznie kierować się Mundellowskim podziałem na szoki nominalne
i realne i wynikającą z tego różną wrażliwością gospodarki na dany rodzaj szoku
w zależności od danego typu polityki kursowej. Równie ważne wydaje się szersze
zrozumienie mechanizmu generującego kryzys walutowy, czy szerzej, finansowy,
w którym reżim kursu sztywnego może stwarzać swoistą odmianę pokusy nadużycia
i tym samym prowadzić do zaniedbań w ramach polityki makroekonomicznej czy
w rozwoju sfery regulacyjnej rynków finansowych. Mechanizm ów wydaje się częściowo rozpoznany przez doświadczenia krajów azjatyckich, które przechodziły kryzys na końcu lat 90-tych czy przez wydarzenia składające się na późniejszy epizod
kryzysowy w Argentynie w 2001 roku. Przyjęcie izby walutowej w Argentynie początkowo zapewniło krajowi stabilizację i rozwój, a potem bez należytego postępu w
reformach i przy negatywnych tendencjach gospodarki światowej stwarzało tylko
niepotrzebną i zwodniczą iluzję stabilności. Szczególnie doświadczenia krajów azjatyckich zostały utrwalone w literaturze w formie kanonu teoretycznego.
Jednak sama świadomość istnienia stosownych źródeł literaturowych, z których
można korzystać przy podejmowaniu decyzji dotyczących wyboru reżimu kursowego, nie jest oczywiście w stanie ustrzec decydentów przed popełnianiem tych samych błędów. Trudno oprzeć się wrażeniu, że wydarzenia kryzysowe, które dotknęły w ostatnim okresie kraje nadbałtyckie, wpisują się jakoś negatywnie w schemat
„nieodrobionej lekcji”. Chodzi tutaj zwłaszcza o niewykorzystywanie doświadczeń
innych krajów boleśnie dotkniętych przez kryzysy w przeszłości. W tym kontekście,
szczególnie zdumiewają te opinie ekspertów, które dość bezkrytycznie wychwalają
instytucję kursu sztywnego jako remedium na wszystkie bolączki gospodarek
wschodzących, ignorując tym samym nieubłaganą zmienność czasu i otoczenia.
Opinie takie można było często spotkać przed 2008 rokiem w odniesieniu do krajów nadbałtyckich. Wskazane byłoby raczej podejście wrażliwe na upływ czasu,
zgodnie z którym wprowadzenie sztywnego kursu traktuje się jedynie jako jeden
z elementów planu pozwalający poprawić wyjściowe parametry gospodarki, zwiększyć jej wiarygodność i relatywnie szybko uzyskać poziom kapitału niezbędny do
awansowania wzrostu. Jednak poziomy deficytów rachunku obrotów bieżących
i skala aprecjacji realnej powinny być stale monitorowane, a otoczenie regulacyjne
rynków finansowych kształtowane dynamicznie i z wyobraźnią. Zatem, możliwość
utrzymania sztywnego kursu należy rozumieć jako złożony proces zależny od postępu w reformach i podlegający rzetelnej analizie obejmującej zarówno otoczenie globalne, jak i wyniki krajowe. Wystarczy tylko przypomnieć, jak ważna dla sprawnego
mechanizmu buforowania wstrząsów może okazać się sama elastyczność cen
w przypadku reżimu kursu stałego.
Literatura
Bordo M. 2003 Exchange Rate Regime Choice in Historical Perspective, NBER Working Paper,
No. 9654.
Bordo M., Eichengreen B., Klingebiel D. i Soledad Martinez-Peria M. 2001 Is the crisis problem growing more severe?, Vol. 16, No. 32.
Burgess R., Fabrizio S., Xiao Y. 2004 The Baltics Competitiveness on the Eve of EU Accession.
214
Bogna Gawrońska-Nowak
Chang R., Velasco A. 1998 Financial crises in emerging markets: a canonical model, Working
Paper 98–10, Federal Reserve Bank of Atlanta.
Corsetti G., Pesenti P.A., Roubini N. 1998 Paper Tigers? A Model of the Asian Crisis, NBER
Working Paper, No. W6783.
Coudert V. and Cécile Couharde 2003 Exchange Rate Regimes and Sustainable Parities for
CEECS in the Run-up to emu Membership, Revue économique, Presses de Sciences-Po,
Vol. 54(5).
Eichengreen B. 2008 Exchange Rate Regimes and Capital Mobility: How Much of the Swoboda
Thesis Survives?, NBER Working Papers, 14100.
Eichengreen B., Rose A.K., Wyplosz Ch.1986 Contagious Currency Crises, NBER Working
Paper, No. W5681.
Frankel J. 2003 Experience of and Lessons from Exchange Rate Regimes in Emerging Economies,
NBER Working Paper, No. 10032.
Frankel J., Schmukler S.L., Serven L. 2004 Global transmission of interest rates: monetary independence and currency regime, „Journal of International Money and Finance”, No. 23.
Frankel J.A., Wei S.-J. 1994 Yen bloc or dollar bloc? Exchange rate policies of the East Asian
economies, [w:] T. Ito, A. O. Krueger (eds.), Macroeconomic Linkage: Savings, Exchange
Rates, and Capital Flows, Chicago.
Frieden J., Leblang D., Valev N. 2009 The political economy of exchange rate regimes in transition economies, The Review of International Organizations, Vol.5, No. 1.
Gawrońska-Nowak B. 2008 Niepewność na rynku walutowym. Teoretyczne podstawy, Warszawa.
Gawronska-Nowak B., Grabowski W. 2009 Kryzysy walutowe – doświadczenia przydatne dla
rozwoju polskiej gospodarki, [w:] Rozważania o rozwoju gospodarczym Polski, W. Bienkowski, K. Szczygielski (red.).
Ghosh A., Gulde A-M, Wolf H. 2002 Exchange rate regimes. Choices and consequences.
Husain A. M., Mody A., Rogoff K. 2004 Exchange Rate Regime Durability and Performance in
Developing Countries Versus Advanced Economies, NBER Working Paper ,No. 10673.
International Monetary Fund, Washington, DC, dokument elektroniczny, tryb dostępu:
[http://imf.org/external/pubs/nft/SI/baltics.pdf].
Kaminsky G., C. Reinhart 1999 The Twin Crises: Causes of Banking and Balance-of-Payments
Problems, American Economic Review, June.
Krugman P. 1999 Balance Sheets, the Transfer Problem, and Financial Crises, Preliminary
Draft.
Mundell R. 1963 Inflation and Real Interest, „Journal of Political Economy”, Vol. 71.
Nerlich, C. 2002 Exchange rate strategies of EU accession countries: Does exchange rate policy matter?
[Paper presented at the KOBE Research Seminar on „Regional, economic, financial and monetary cooperation: the European and Asian experience”, Frankfurt, 15–16 April 2002]
Frankfurt am Main, dokument elektroniczny, tryb dostępu: [www.mof.go.jp/ jouhou/
kokkin/tyousa/tyou046.pdf].
Shimizu J. 2009 Financial crisis and the choice of currency regime in CEE Countries, Senshu
University, dokument elektroniczny, tryb dostępu: [http://www.euij-tc.org/news/events
_2007/20090223/shimizu.pdf].
Stavarek, D., M. Dohnal 2009 Exchange Market Pressure in Central Europe: An Application of
the Girton-Roper Model, „MPRA Paper”, 15744.
215
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
WYKRES 1.
Miesięczne wartości wskaźnika presji rynkowej (EMP)
dla Bułgarii w okresie: styczeń 1996 r. – grudzień 2009 r.
8
6
4
2
0
‐2
0
50
100
150
200
‐4
‐6
‐8
‐10
Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line).
WYKRES 2.
Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Czech w okresie:
styczeń 1996 r. – grudzień 2009 r.
8
6
4
2
Serie1
0
Serie2
‐2
0
50
100
150
200
Serie3
‐4
‐6
‐8
Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line).
216
Bogna Gawrońska-Nowak
WYKRES 3.
Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Litwy w okresie:
styczeń 1996 r. – grudzień 2009 r.
6
4
2
0
‐2
0
50
100
150
200
‐4
‐6
‐8
Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line).
WYKRES 4.
Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Łotwy w okresie:
styczeń 1996 r. – grudzień 2009 r.
8
6
4
2
0
0
50
100
150
‐2
‐4
Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line).
200
217
Reżim kursowy a presja kryzysowa w wybranych gospodarkach...
WYKRES 5.
Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Polski w okresie:
styczeń 1996 r. – grudzień 2009 r.
5
4
3
2
1
0
‐1 0
50
100
150
‐2
‐3
‐4
Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line).
200
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Łukasz SIEMIENIUK1
SYSTEM SYMFONIA JAKO PRZYKŁAD ZINTEGROWANEGO
SYSTEMU INFORMATYCZNEGO W RACHUNKOWOŚCI
Streszczenie
Aktualnie na rynku polskim funkcjonuje dużo firm zajmujących się tworzeniem, a także wdrażaniem systemów finansowo-księgowych. Twórcy oprogramowania oferują nie tylko własne programy
obsługi księgowej, ale również liczne moduły uzupełniające zarządzanie innymi działami przedsiębiorstwa. Moduły powyższe mogą obsługiwać zagadnienia finansowe, kadrowo-płacowe, itp. Systemy
komputerowe są tworzone pod konkretne potrzeby, często nie spełniają oczekiwań użytkowników.
Istotne jest, aby konkretne oprogramowanie posiadało zdolność do emitowania dokumentów, wymaganych przez przepisy gospodarki polskiej i Unii Europejskiej.
Jednym z bardziej znanych systemów komputerowych jest system Symfonia. Symfonia stanowi
pakiet zintegrowanych programów wspomagających zarządzanie w firmach. Wspierając zarządzanie,
ułatwia on zarówno codzienną działalność firmy w zakresie ewidencji i obsługi zdarzeń gospodarczych,
jak również umożliwia uzyskanie precyzyjnych informacji, niezbędnych do podejmowania kluczowych
decyzji ekonomicznych w przedsiębiorstwie.
Celem artykułu jest omówienie podstawowych zagadnień dotyczących funkcjonowania systemu
komputerowego Symfonia w praktyce gospodarczej przedsiębiorstw.
Słowa kluczowe: systemy finansowo-księgowe, Symfonia, systemy zintegrowane
THE SYMFONIA SYSTEM AS AN EXAMPLE
OF THE INTEGRATED INFORMATION SYSTEM IN ACCOUNTANCY
Summary
Currently, on the Polish market there are many firms dealing with the creation and also implementation of financial and accounting systems. Software authors offer not only their own programmes of
accounting services but also numerous complementary modules for management of other divisions of
an enterprise. The above-mentioned modules can be used to deal with financial, HR, wage and other
issues. The computer systems are created to satisfy concrete needs, however, they often fall short of
the users' expectations. What matters is that specific software should be capable of issuing documents
required by regulations of the Polish economy and those of the European Union.
One of the best known computer systems is the Symfonia system. Symfonia constitutes a packet of
integrated programs that enhance management in companies. By assisting management, it enables both
daily activities of the company when it comes to keeping records and concerning business events, and
it also makes it possible to obtain precise information, crucial for making key economic decisions in an
enterprice.
1
Mgr Łukasz Siemieniuk – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania.
System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 219
The article is aimed at discussing basic issues concerning the functioning of the Symfonia computer system in business activities of enterprises.
Keywords: finance and accountancy systems, Symfonia, integrated systems
1. Wstęp
Rozwój gospodarki rynkowej w Polsce doprowadził do wzrostu konkurencyjności firm. Spowodowało to zwiększenie zapotrzebowania na szybką, rzetelną i aktualną informację o stanie finansowym firmy: posiadanych składnikach majątku, źródłach ich finansowania, przychodach i kosztach. Obecnie coraz rzadziej można spotkać przedsiębiorstwa, w których księgowość byłaby prowadzona ręcznie. W praktyce są tworzone wciąż nowe systemy, co sprawia, że firmy stają przed dylematem doboru odpowiedniego oprogramowania. Jest to o tyle ważny problem, że system
komputerowy powinien być dostosowany zarówno do specyfiki działalności firmy,
jej struktury organizacyjnej, jak również możliwości finansowych. Poszukując właściwego oprogramowania, należy pamiętać o różnicach w: metodach budowy systemów informatycznych, podziałach funkcjonalnych i możliwościach poszczególnych
modułów wchodzących w skład danego systemu, jak i zgodności z obowiązującymi
zasadami formalnoprawnymi funkcjonowania firm na rynku polskim. Analizując
powyższą problematykę, można stwierdzić, iż dobór właściwego systemu wspomagającego finanse i rachunkowość firm jest jednym z trudniejszych problemów dla
przyszłego użytkownika.
2. Ustawa o Rachunkowości a systemy informatyczne
Ustawa o Rachunkowości precyzuje zasady prowadzenia ksiąg rachunkowych
z wykorzystaniem systemów informatycznych. Według wskazanych uregulowań, systemy te muszą spełniać wymagania obowiązujące w rachunkowości, czyli: wiarygodność danych, systematyczność prowadzenia zapisów księgowych, bezbłędność
i możliwość sprawdzenia wprowadzonych danych. System komputerowy musi posiadać określone cechy, aby został dopuszczony do użytkowania. Dokumentacja
opisująca dany program powinna zawierać: opis systemu informatycznego, zawierającego wykaz programów, procedur lub funkcji, w zależności od struktury oprogramowania
wraz z opisem algorytmów i parametrów oraz programowych zasad ochrony danych,
w szczególności metod zabezpieczenia dostępu do danych i systemu ich przetwarzania,
a ponadto określenie wersji oprogramowania i daty rozpoczęcia jego eksploatacji.2
Z kolei, artykuł 71 Ustawy o Rachunkowości posiada zapis informujący o używaniu odpornych na zagrożenia nośników danych, a także systematycznym tworzeniu kopii zapasowych zbiorów danych, dzięki którym jest zapewniona ciągłość zapisów bez możliwości późniejszych dopisów lub zmian.
2
Ustawa o Rachunkowości z dnia 29 września 1994 r., Dz.U., Nr 54, poz. 694 ze zmianami.
220
Łukasz Siemieniuk
Prowadzenie rachunkowości, przy zastosowaniu systemu komputerowego, zwalnia firmy z obowiązku drukowania ksiąg rachunkowych na koniec roku obrotowego.3
Zgodnie z Ustawą o Rachunkowości, księgi rachunkowe powinny być oznaczone pełną lub skróconą nazwą i posiadać nadawany automatycznie numer pozycji,
pod którą zostaną wprowadzone do dziennika, a także zawierać informacje, dzięki
którym będzie możliwe ustalenie osoby odpowiedzialnej za ten zapis. Powyższa,
Ustawa wskazuje również na warunki, które muszą spełniać zapisy w księgach rachunkowych, aby być równoważnymi z dowodami księgowymi, a mianowicie4:
–
informacje zawarte w zapisach muszą być trwałe, czytelne i zgodne z rzeczywistymi;
–
istnieje możliwość stwierdzenia źródła pochodzenia danych;
–
dane powinny być poprawnie przetworzone, a zapisy kompletne i identyczne;
–
dane źródłowe powinny być odpowiednio chronione i posiadać niezmienioną formę.
Ustawa o Rachunkowości zawiera również wskazówki dla twórców informatycznych systemów, które muszą być przestrzegane przy projektowaniu aplikacji wykorzystywanych w finansach i rachunkowości.
3. Charakterystyka zintegrowanego systemu informatycznego Symfonia
Pojawienie się w otoczeniu gospodarczym zaawansowanych rozwiązań z zakresu:
technologii informacyjnych IT, zintegrowanych systemów informatycznych, jak
również nowych metod zarządzania i kalkulacji kosztów w przedsiębiorstwie, przełamujących dotychczasowe reguły organizacyjne, było spowodowane zmianami na
rynku, na którym konsument i jego satysfakcja z konsumpcji dóbr i usług stały się
kluczowym celem działalności przedsiębiorstw. Konkurencja przedsiębiorców na
polu cenowym nie stanowi już czynnika wpływającego w istotny sposób na pozycję
konkurencyjną na rynku. Determinantem sukcesu przedsiębiorstwa staje się: jakość
oferowanych usług, terminowość dostaw, sprawność realizacji zamówień czy obsługa posprzedażna. Kluczową rolę odgrywają nowoczesne metody zarządzania, polegające na skoncentrowaniu działalności firmy na najlepszym zaspokajaniu potrzeb
klientów oraz budowaniu sieci bliskich i skutecznych relacji z klientem. Uzyskanie
lepszej pozycji konkurencyjnej przedsiębiorstwa na rynku oraz sprawne i efektywne
nim zarządzanie jest ułatwione dzięki systemowi klasy ERP, który jest traktowany
jako jądro infrastruktury organizacyjno-informatycznej nowoczesnego przedsiębiorstwa. System ERP jako system transakcyjny, który służy do rejestrowania i przetwarzania na bieżąco zdarzeń gospodarczych, integruje procesy i dane w przedsiębiorstwie.
3 Wskazuje na to Artykuł 13, który określa, iż podczas prowadzenia ksiąg za pomocą komputera za
równoważne z nim uważa się odpowiednio: zasoby informacyjne rachunkowości, zorganizowane
w formie oddzielnych komputerowych zbiorów danych, bazy danych lub wyodrębnionych jej części,
bez względu na miejsce ich powstawania i przechowywania.
4 Ustawa o Rachunkowości z dnia 29 września 1994 r., Dz. U., Nr 54, poz. 694 ze zmianami.
System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 221
Doświadczenia przedsiębiorstw, korzystających ze zintegrowanych rozwiązań
klasy ERP, wskazują na to, że dokładna ocena korzyści, wynikająca z implementacji
rozwiązań tego typu, nie poddaje się prostej kwantyfikacji. Jednak system ERP porządkuje strukturę przedsiębiorstwa oraz realizowane procesy i jednocześnie integruje wszystkie elementy przedsiębiorstwa. Powstaje stabilny i w pełni zintegrowany
system, charakteryzujący się synergią działań wewnętrznych i kooperatywnym funkcjonowaniem wszystkich części składowych w warunkach zmieniającego się otoczenia.
Na rynku polskim funkcjonuje duża ilość firm zajmujących się tworzeniem,
a także wdrażaniem różnego rodzaju oprogramowania. Oferowane są zarówno własne programy księgowe, jak również liczne moduły umożliwiające zarządzanie wybranymi działami przedsiębiorstwa. Moduły te mogą obsługiwać: zagadnienia kadrowo-płacowe, gospodarkę magazynową, zaopatrzenie itp. Mimo mnogości oferowanych programów, często nie spełniają oczekiwań użytkowników. Istotne jest to,
aby oprogramowania miały zdolność do emitowania dokumentacji spełniającej właściwe kryteria. W zależności od wielkości firmy i profilu jej działalności, należy wybrać odpowiedni system tak, aby spełnił wszystkie oczekiwania użytkownika i jednocześnie nie wymagał potrzeby instalowania dodatkowych, zbędnych aplikacji.
Odpowiedni program księgowy może znacznie usprawnić działalność firmy, bez
względu na jej wielkość i profil działalności. Jednym z nich na pewno jest Symfonia,
pakiet programów do pracy w przedsiębiorstwie [Chomuszko 2006 s. 5].
Analizując ofertę systemów finansowo-księgowych na rynku, można spotkać
oprogramowania oparte na prostych rozwiązaniach na bazie arkusza kalkulacyjnego
MS Excel, po bardziej rozbudowane. Jednym z systemów, który znajduje coraz większe zastosowanie, jest Symfonia firmy Sage. Można nawet przyjąć stwierdzenie, iż należy on do wiodących systemów księgowych na rynku polskim.
RYSUNEK 1.
Elementy systemu Symfonia
Moduły systemu Symfonia Finanse i księgowość Środki trwałe Kadry i płace Handel Płace Faktura Analiza finansowa Źródło: Opracowanie własne na podstawie: Dokument elektroniczny, tryb dostępu; [www.
sage.com.pl, data wejścia: 19.01.2010].
222
Łukasz Siemieniuk
System Symfonia jest to pakiet zintegrowanych programów wspomagających zarządzanie przedsiębiorstwami w dziedzinie księgowości. Tworzące go moduły
umożliwiają obsługę wielu firm i równoczesną pracę wielu użytkowników w sieci.
Program, wspierając zarządzanie, ułatwia zarówno codzienną działalność firmy
w zakresie ewidencji i obsługi zdarzeń gospodarczych, jak również umożliwia uzyskanie precyzyjnych informacji, niezbędnych do podejmowania kluczowych decyzji
biznesowych w przedsiębiorstwie [Dokument elektroniczny, tryb dostępu: www.sage.
com.pl, data wejścia: 19.01.2010].
W systemie Symfonia jest dostępny wewnętrzny język programowania raportów,
pozwalający wykorzystywać informacje zgromadzone w bazach danych. Stosowana
jest wymiana informacji pomiędzy programami systemu, dzięki mechanizmowi integracji baz danych oraz eksportowi i importowi plików tekstowych [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010].
Każdy z wymienionych modułów może funkcjonować samodzielnie lub współpracować ze sobą, wymieniając dane.
Pierwszy moduł Finanse i Księgowość realizuje wszystkie najważniejsze operacje
księgowe, od tworzenia planu kont i księgowania dokumentów, przez automatyczny
bilans zamknięcia, pełne rozrachunki i rozliczenia, aż do gotowych lub zdefiniowanych przez użytkownika zestawień i sprawozdań. System umożliwia definiowanie:
rejestrów VAT, układów bilansu, rachunku zysków i strat oraz parametrów stałych
(np. wysokości odsetek). Ponadto, ułatwia automatyczne księgowanie różnic kursowych i odsetek za zwłokę, z wykorzystaniem definiowanych kont specjalnych, prowadzenie rachunku kosztów w różnych układach (automatyczne księgowanie równolegle między zespołem: „4” i „5”). Program Finanse i Księgowość oferuje także
funkcjonalność, umożliwiając ewidencję i rozliczanie rachunków z kontrahentami
[Lech 2003 s. 38]. Panel główny modułu Finanse i Księgowość ilustruje rysunek 2.
Drugi moduł programu – Środki Trwałe wspomaga: ewidencjonowanie, aktualizację, inwentaryzację i umarzanie środków trwałych, niskocennych składników majątku oraz wartości niematerialnych i prawnych. Prowadzi ewidencję miejsc użytkowania środków i ich części składowych [Lech 2003 s. 39]. Wspomaga on ewidencję
majątku trwałego i wyposażenia w przedsiębiorstwie. Pozwala na uzyskanie stałego
dostępu do bieżącej informacji o przydzielonych elementach wyposażenia i środkach
trwałych oraz każdej zmianie w tym zakresie. Program umożliwia także przeprowadzenie kompletnej ewidencji środków trwałych: zakup, wykorzystanie, zdjęcie ze
stanu na skutek likwidacji, sprzedaży lub nieodpłatnego przekazania.5 Przykładowe
okno programu, dotyczące modułu Środki Trwałe, przedstawia rysunek 3.
5 Symfonia Środki Trwałe, Podręcznik użytkownika, dokument elektroniczny, tryb dostępu: [www.
sage.com.pl, data wejścia: 19.01.2010.].
System SYMFO
ONIA jako przykłład zintegrowaneggo systemu inform
matycznego ... 22
23
RYSUNEK 2.
2
Panel główny modułu
m
Finansse i Księgowość
Źró
ódło: Dokument ellektroniczny, tryb dostępu: [www.biiurosoft.pl, data wejścia:19.01.2010]
w
].
RYSUNEK 3.
3
Okno progrramu, dotyczącce modułu
Środki Trwałe – Ewid
dencjonowanie da
danych podatku VAT
V
Źró
ódło: Dokument ellektroniczny, tryb dostępu: [www.os.com.pl, data wejścia:19.01.2010].
224
Łukasz Siemieniuk
Moduł Kadry i Płace wspomaga zarządzanie płacami oraz danymi kadrowymi
pracowników danego przedsiębiorstwa. Umożliwia on prowadzenie dokumentacji
kadrowo-płacowej, pozwala na planowanie, ewidencję czasu pracy i płac pracowników konkretnej firmy. Program jest zgodny z obowiązującym prawem pracy oraz
umożliwia wspomaganie rozliczeń z Zakładem Ubezpieczeń Społecznych [Lech
2003 s. 39]. Symfonia Płace wspomaga zarządzanie płacami w przedsiębiorstwie.
Uwzględnia różne sposoby wynagrodzenia, dzięki temu przyśpiesza comiesięczne i
roczne rozliczenia. W programie są generowane następujące dokumenty: listy płac,
niezbędne zestawienia, druki, raporty i przelewy [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010].
Sprzedaż i gospodarkę magazynową (pełną ewidencję stanów magazynowych)
wspomaga moduł Handel. Pozwala na rejestrację zdarzeń gospodarczych i wystawianie odpowiednich dokumentów. Aktualna wersja programu jest dostosowana do
obsługi zmian prawnych związanych z akcesją Polski do Unii Europejskiej. Program
udostępnia narzędzia wspomagające zarządzanie działalnością w firmach handlowych i usługowych. Umożliwia on wystawianie dokumentów dotyczących: sprzedaży, rozliczeń magazynowych, zakupu i płatności [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010].
Moduł Faktura wspomaga obsługę sprzedaży w przedsiębiorstwach usługowych
oraz handlowych. Zadaniem programu jest wspomaganie działalności firm przez
ułatwienie rejestracji zdarzeń gospodarczych i wystawienie odpowiednich dokumentów. Moduł umożliwia rozliczenia gotówkowe i bezgotówkowe w różnych walutach.
Pozwala zaplanować i prowadzić określoną politykę sprzedażową w firmie [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010].
Przydatnym w praktyce modułem jest Analiza Finansowa. Wspomaga on i przyśpiesza pracę działów finansowo-ekonomicznych w przedsiębiorstwie. Umożliwia
szybkie przygotowanie dowolnych analiz danych zaewidencjonowanych w programie Symfonia Finanse i Księgowość. Wykorzystuje wzbogacony o dodatkowe funkcje
arkusz kalkulacyjny Excel, dzięki któremu można w łatwy, szybki i wygodny sposób
wykorzystywać wszystkie jego funkcje. System umożliwia tworzenie gotowych wzorów raportów, modelowania danych oraz wspomaga proces budżetowania. Rozwiązania, zastosowane w programie, pozwalają wykonywać, szeroko rozumianą, analizę
danych od typowych zagadnień rachunkowości finansowej, takiej jak: rachunek zysków i strat czy bilans, po analizy zarządcze, tj.: raporty przychodowo-kosztowe
w dowolnym układzie przedmiotowo-podmiotowym. Ułatwia on definiowanie dowolnych wskazówek finansowych i ekonomicznych pomocnych w monitorowaniu
kondycji przedsiębiorstwa. 6
Można stwierdzić, iż moduł Analiza Finansowa wspomaga pracę analityka finansowego, umożliwiając przeprowadzenie dodatkowych analiz różnorodnie agregowanych danych, zewidencjonowanych w aplikacji Finanse i Księgowość. [Analizy Finansowe Wersja 2010 2010 s. 1]
Wykorzystanie poszczególnych modułów systemu Symfonia zależy od faktycznego zapotrzebowania i wielkości przedsiębiorstwa. Firmom posiadającym rozbudo6 Symfonia Analiza Finansowa, Podręcznik użytkownika, dokument elektroniczny, tryb dostępu:
[www.sage.com.pl, data wejścia: 19.01.2010].
System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 225
wane procedury i złożone procesy biznesowe jest oferowany System Zarządzający
Symfonia Forte. Jest on zintegrowanym systemem o budowie modułowej, umożliwiającym kontrolę oraz zarządzanie strategicznymi dla przedsiębiorstwa procesami
i obszarami. Jest to zaawansowane rozwiązanie klasy ERP, umożliwiające rozwój
systemu wraz z rosnącymi potrzebami klientów [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 19.01.2010]. Dzięki modułowej budowie oraz
integracji z innymi systemami, System Zarządzający Forte tworzy rozwiązanie dla dużych i średnich przedsiębiorstw.
Biorąc pod uwagę rosnące potrzeby ze strony najmniejszych przedsiębiorstw
(mikrofilm), zostało wypracowane rozwiązanie typu System Symfonia Start. W skład
tego systemu wchodzą następujące programy: Mała Księgowość Start, Handel Start,
Faktura i Kasa Start. Są to rozwiązania informatyczne usprawniające funkcjonowanie
małej firmy. Ułatwiają wystawianie dokumentów, prowadzenie małej księgowości,
obsługi sprzedaży. [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data
wejścia: 20.01.2010]
Program Mała Księgowość Start jest przeznaczony dla firm prowadzących Księgę
Przychodów i Rozchodów lub ewidencję w postaci zryczałtowanego podatku dochodowego. Wspomaga on ewidencję i obsługę rozliczeń podatkowych oraz ułatwia
analizę efektywności podejmowanych działań gospodarczych. [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010]
System Symfonia jest pierwszym na rynku polskim zintegrowanym pakietem
wspomagającym zarządzanie w firmach, pracującym w środowisku Windows [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, , data wejścia: 20.01.2010]. System ten nie tylko umożliwia informatyzację rachunkowości, ale także wspomaga zarządzanie, wspierając zarówno codzienną działalność firmy w zakresie ewidencji
i obsługi zdarzeń gospodarczych, jak również umożliwia uzyskanie precyzyjnych informacji, niezbędnych do podejmowania najważniejszych decyzji. Zastosowanie zaawansowanych narzędzi umożliwia analizę i planowanie zarówno na poziomie ogólnym, jak i szczegółowym. System Symfonia to, niewątpliwie, funkcjonalny i elastyczny system, który usprawnia działanie danej firmy przez: zautomatyzowanie procesów, dostarczając niezbędnych informacji biznesowych oraz ułatwiając zarządzanie.
[Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010]
System Symfonia współpracuje także z różnymi systemami, oferując coraz szersze rozwiązania branżowe i specjalistyczne, tj. [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010]: bankowość elektroniczna, budownictwo, handel detaliczny, hotele i gastronomia, produkcja, rejestracja czasu pracy,
rozwiązania dla biur rachunkowych i kancelarii, rozwiązania wspomagające kontakt
z klientem, sklepy internetowe, służba zdrowia, wspólnoty mieszkaniowe, wyższe
uczelnie oraz zdalny dostęp. Odpowiednia konfiguracja zarówno środowiska informatycznego, w tym komputerów i sieci, jak i optymalne ustawienie parametrów
Systemu Symfonia FK, w sposób adekwatny do własnych potrzeb, umożliwia optymalne i bezpieczne wykorzystanie systemu w danej firmie.
226
Łukasz Siemieniuk
4. Podsumowanie
Oprogramowanie Symfonia tworzy system produktów wspierających zarządzanie
i podejmowanie decyzji w dziedzinie finansów i rachunkowości firm o dowolnym
profilu działalności. Rozwiązania proponowane przez system Symfonia powstały
z myślą o wsparciu właścicieli, kadry zarządzającej oraz menedżerów i pracowników
w takich obszarach, jak: finanse i księgowość, kadry i płace, obsługa sprzedaży i magazynów oraz zarządzanie relacjami z klientami [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010]. Jakość wdrażanych systemów
klasy ERP, takich jak: system Symfonia, zależy w dużym stopniu od sposobów interakcji pomiędzy zleceniodawcą a zaangażowaną w proces komputeryzacji firmą informatyczną [Wilk 2001 s. 167]. Dobre wykorzystanie oprogramowania Symfonia w
firmie może przyczynić się do wzrostu efektywności prowadzonej działalności gospodarczej, a także optymalizacji kosztów i poprawy konkurencyjności.
System Symfonia to funkcjonalny i elastyczny program, który umożliwia usprawnienie działalności firmy w kluczowych dla niego obszarach decyzyjnych. Dzięki
szeroko rozbudowanym modułom, jest w stanie wspierać zarządzanie strategicznymi obszarami i procesami zachodzącymi w przedsiębiorstwie. Natychmiastowy dostęp do bazy danych i spójnej informacji zarządczej pozwala elastycznie reagować na
zmiany rynkowe, wpływać na zwiększenie konkurencyjności oraz obniżyć ogólne ryzyko prowadzenia działalności.
Zaletą Systemu Symfonia jest fakt zaprojektowania i stworzenia w całości przez
polską firmę informatyczną, a obecnie rozwijaną przez światowego lidera w branży
[Dokument elektroniczny, tryb dostępu: www.damal.pl, data wejścia: 22.01.2010].
Dzięki temu, system jest zgodny z polskim prawodawstwem oraz dostosowany do
zmian w przepisach związanych z przystąpieniem Polski do Unii Europejskiej.
Umożliwia on modyfikację ustawień do specyfikacji działania firmy oraz tworzenia
własnych: dokumentów, raportów i zestawień. Łatwość w modyfikacjach pozwala
w perspektywie na zmiany wzorcowych ustawień (np. modyfikacji: planu kont, działów firmy, formularzy). Modułowa budowa systemu umożliwia wybór najodpowiedniejszych komponentów niezbędnych do prowadzenia własnej działalności.
Nowoczesne technologie informatyczne, wykorzystane przy tworzeniu aplikacji, zapewniają ich wysoką wydajność oraz bezpieczeństwo zgromadzonych danych. System umożliwia przyznawanie zakresu uprawnień poszczególnym użytkownikom,
a także odczyt danych za pomocą innych programów. Intuicyjność obsługi systemu
pozwala na zwiększenie efektywności i komfortu pracy związanej z obsługą księgowości firmy. Integracja programów, wchodzących w skład systemu, pozwala na wymianę danych między poszczególnymi elementami systemu, eliminując w ten sposób
konieczność wielokrotnego wprowadzania tego samego dokumentu [Dokument
elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 22.01.2010].
Kolejnymi zaletami systemu Symfonia jest możliwość przeszukiwania bazy danych, uwzględniając różnorodne kryteria: przeszukiwania, filtrowania i sortowania
danych. Dodatkowym atutem jest możliwość przypisania do dokumentów dowolnych, zdefiniowanych przez użytkownika informacji. Modułowa budowa systemu
umożliwia elastyczną i wydajną wymianę informacji między użytkownikami,
co umożliwia pracę w różnych miejscach. Zastosowanie technologii Microsoftu Visual
System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 227
Basic for Applications (VBA) pozwala na realizację specyficznych procesów biznesowych. VBA umożliwia m.in. modyfikowanie istniejącej funkcjonalności aplikacji
i tworzenie nowych funkcji (nowe okna w programie, dowolne raporty i zestawienia). Jest to system w pełni zintegrowany z pakietami: MS Office, MS Internet Explorer, otwarty na inne aplikacje korzystające z VBA. [Dokument elektroniczny, tryb
dostępu: www.sage.com.pl, data wejścia: 23.02.2010]
Szeroki zakres analiz (Symfonia Analizy Finansowe) oraz wbudowane mechanizmy kontrolne pozwalają na bieżącą kontrolę sytuacji finansowej firmy oraz szybkie
reagowanie na obniżenie rentowności przedsiębiorstwa. Rozbudowane mechanizmy
sterowania ceną oferowanych towarów i usług pomagają w zwiększeniu konkurencyjności firmy na rynku. [Dokument elektroniczny, tryb dostępu: www.sage.com.pl,
data wejścia: 23.02.2010]
Program jest konsekwentnie modyfikowany i dostosowywany do zmieniających
się przepisów. Użytkownik może unowocześniać program z zachowaniem wszystkich danych przez instalacje uaktualnień udostępnianych przez producenta.
System Symfonia, choć z przejrzystym interfejsem, może okazać się dość skomplikowanym programem dla początkujących użytkowników. Na przygotowanie do
pracy z programem należy poświęcić określoną ilość czasu, ponieważ dane, z których korzysta się w systemie, należy ręcznie wprowadzić, ewentualnie przetransferować z kompatybilnej bazy danych. Kolejną wadą systemu może okazać się jego
cena w pełnej konfiguracji. Aby zakupić pełny pakiet oprogramowania na wiele stanowisk komputerowych, należy się liczyć z ogromnymi kosztami. Producent przewidział wersje dla małych i mikro firm, ale wyposażył program jedynie w podstawowe funkcje finansowo-księgowe.
Literatura
Analizy Finansowe Wersja 2010, Podręcznik użytkownika, Warszawa.
Adamczewski P. 2004 Zintegrowane systemy informatyczne w praktyce,Warszawa.
Chomuszko M. 2006 Księgowość komputerowa – praca z programem Symfonia FK, Warszawa.
Lech P. 2003 Zintegrowane systemy zarządzania ERP/ERP II, Warszawa.
Ustawa o Rachunkowości z dnia 29 września 1994 r. (Dz.U., Nr 54, poz. 694 ze zmianami).
Wilk J. 2001 Zintegrowany system zarządzania przedsiębiorstwem, Warszawa.
Dokument elektroniczny, tryb dostępu: [www.biurosoft.pl, , data wejścia: 19.01.2010].
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
Ewa TOKAJUK1
MOŻLIWOŚCI INWESTYCYJNE
GOSPODARSTW DOMOWYCH
NA POLSKIM RYNKU FINANSOWYM
Streszczenie
Współczesny rynek finansowy stwarza wiele możliwości inwestowania pieniędzy, które dają szansę
pomnożenia kapitału. Biorąc pod uwagę szeroki wachlarz produktów, można inwestować na różne
sposoby. W zależności od oczekiwań inwestora, jego wieku i znajomości form inwestowania można
dokonać podziału inwestycji, uwarunkowanych od czynników, które na nie wpływają. Z przedstawionej analizy struktury aktywów finansowych wynika, że najpopularniejsze są depozyty i lokaty bankowe.
Zwiększa się jednak udział aktywów otwartych funduszy emerytalnych, towarzystw funduszy inwestycyjnych i ubezpieczeń na życie. Od strony podażowej tendencja ta wynika z rozwoju i działań marketingowych instytucji rynku finansowego, a od strony popytowej – rosnących dochodów, wiedzy i zaufania klientów do tych form gromadzenia nadwyżek finansowych.
Słowa kluczowe: gospodarstwo domowe, aktywa finansowe, inwestowanie, rynek finansowy
INVESTMENT POTENTIAL OF HOUSEHOLDS ON POLISH FINANCIAL MARKET
Summary
The contemporary financial market provides numerous possibilities of investing money which
provide a chance to increase the capital. Considering a wide range of products, we can invest in many
different ways. Depending on investors' expectations, their age and knowledge of different forms of
investment, it is possible to categorize investments according to factors determining investmet decisions. From the presented analysis of the structure of financial assests it emerges that bank deposits are
most popular among investors. However, we can observe an increased share of the assets of open
pension funds, investment funds societies and life insurance funds. As far as supply is concerned, this
tendency results from development and marketing activities of the financial market institutions, but,
where demand is concerned, it is the result of rising earnings, knowledge and customers' confidence in
these forms of amassing a budget surplus.
Keywords: a household, financial assets, investments, financial market
1
Dr Ewa Tokajuk – pracownik Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania.
Możliwości inwestycyjne gospodarstw domowych na polskim rynku ...
229
1. Wstęp
Na rynku finansowym istnieje wiele możliwości inwestowania pieniędzy, które
dają szansę pomnożenia kapitału. Jednymi z najbardziej efektywnych inwestycji finansowych są: inwestycyjne fundusze, lokaty terminowe, akcje, obligacje, waluty.
Istnieją również inwestycje w dobra rzeczowe, takie jak: nieruchomości, metale, surowce, monety kolekcjonerskie emitowane przez NBP. Biorąc pod uwagę szeroki
wachlarz produktów, można inwestować na różne sposoby. W zależności od oczekiwań inwestora, jego wieku i znajomości form inwestowania można dokonać podziału inwestycji, według czynników, które na nie wpływają.
Celem niniejszego artykułu jest analiza najpopularniejszych na polskim rynku finansowym form inwestowania wykorzystywanych przez gospodarstwa domowe.
2. Gospodarstwo domowe – pojęcie
Gospodarstwo domowe jest podmiotem gospodarczym nie prowadzącym działalności komercyjnej, w przeciwieństwie do przedsiębiorstw, działającym w celu powiększania zysków. W standardowej, neoklasycznej ekonomii przyjęło się zakładać,
że w gospodarstwie domowym odbywa się konsumpcja, której celem jest powiększanie korzyści, satysfakcji czerpanych z faktu konsumowania coraz większych ilości
dóbr konsumpcyjnych [Dokument elektroniczny, tryb dostępu: http://www.wiedza
info.pl/wyklady/112/bilans_gospodarstwa_domowego.html].
W praktyce ekonomicznej i życiu społecznym gospodarstwo domowe kojarzy się
najczęściej z rodziną i to niejednokrotnie do takiego stopnia, że te dwie kategorie
uznaje się za synonimiczne. U podstaw owego skojarzenia tkwi przede wszystkim
statystyka demograficzna. Przez gospodarstwo domowe rozumie się zespół osób
wspólnie gospodarujących posiadanym majątkiem w celu zaspokojenia potrzeb jego
członków [Bywalec 2009 s. 15].
Wyróżnia się dwie funkcje ludzkiej aktywności: produkcyjną, czyli wytwarzanie
dóbr, oraz konsumpcyjną, czyli ich użytkowanie w celu zaspokojenia nieustannie
odnawiających się potrzeb człowieka. Wszelkie ludzkie działania oraz zachowania
można zakwalifikować bezpośrednio lub pośrednio do grup produkcyjnych lub konsumpcyjnych [Bywalec 2009 s. 17].
Podsumowując, głównym celem gospodarstwa domowego jest maksymalizacja
zaspokajania wspólnych oraz indywidualnych potrzeb jego członków. Funkcja ta realizowana jest przez konsumpcję dóbr materialnych i usług [Kędzior 1998 s. 71].
Gospodarstwa domowe można klasyfikować według różnych kryteriów. Podstawowym podziałem jest wielkość gospodarstwa mierzona liczbą osób wchodzących
w jego skład. Przyjmując to kryterium, można wyróżnić:
–
gospodarstwa jednoosobowe – tworzone tylko przez jedną osobę;
–
gospodarstwa wieloosobowe – gospodarstwa obejmujące dwie i więcej osób
[Dokument elektroniczny, tryb dostępu: http://www.stat.gov.pl/lodz/
69_160_PLK_HTML.htm, data wejścia: 10.07.2010].
230
Ewa Tokajuk
Ważnym kryterium klasyfikacyjnym gospodarstw domowych może być miejsce
zamieszkania większości ich członków:
–
gospodarstwo miejskie – stanowią gospodarstwa ulokowane w miastach;
–
gospodarstwo wiejskie – stanowią gospodarstwa, których stałym miejscem
jest wieś [Bywalec 2009 s. 20].
3. Aktywa finansowe polskich gospodarstw domowych
Przez aktywa finansowe gospodarstw domowych rozumie się nieskonsumowaną
część dochodów tych podmiotów, ulokowaną na rynku finansowym lub odłożoną
w postaci gotówki. W skład aktywów finansowych nie wchodzi majątek trwały, mimo że w niektórych przypadkach może on służyć jako zabezpieczenie kredytów
i pożyczek. Można go także sprzedać, a uzyskane środki ulokować na rynku finansowym [Fatuła 2010 s.117].
Na początku lat 90. XX wieku aktywami finansowymi polskich gospodarstw
domowych były wyłącznie lokaty bankowe oraz gotówka, w dużej mierze w obcych
walutach, przechowywana w domu. Było to spowodowane obawą przed szybką dewaluacją złotówki, wynikającą z wysokiej inflacji. Od 1991 r., oszczędności gospodarstw domowych zaczęły być także lokowane w akcje prywatyzowanych przedsiębiorstw oraz obligacje skarbu państwa, a rok później w jednostki funduszy powierniczych, przekształconych później w towarzystwa funduszy inwestycyjnych i ubezpieczenia na życie z funduszem kapitałowym. Znaczący wzrost udziału innych form
aktywów nastąpił po 1999 r., kiedy rozpoczęła się reforma emerytalna i otwarte fundusze emerytalne zaczęły zarządzać środkami gromadzonymi na przyszłe emerytury.
RYSUNEK 1.
Wzrost aktywów finansowych gospodarstw domowych
na tle dynamiki przeciętnego wynagrodzenia w gospodarce
1000
800
600
400
200
0
4000
3000
2000
1000
0
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
Przeciętne wynagrodzenie brutto w gospodarce (w zł/miesiąc)
Aktywa finansowe gospodarstw domowych (w mld zł)
Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu:
http://www.izfa.pl – Aktywa funduszy inwestycyjnych, data wejścia: 10.07.2010; dokument
elektroniczny, tryb dostępu: http://www.nbp.pl – Należności i zobowiązania monetarnych
instytucji finansowych, Rozwój systemu finansowego w Polsce, data wejścia: 10.07.2010].
Możliwości inwestycyjne go
ospodarstw domow
wych na polskim rynku
r
...
2331
Kolejnym, przełłomowym momentem, jeśli choddzi o strukturę aktywów
a
finanso
owycch polskich gosp
podarstw domo
owych, było wprrowadzenie, podd koniec 2001 r.,
r
poddatku od odsetekk kapitałowych [F
Fatuła 2010 s. 1118].
RYSUNEK 2.
2
Wzrost oszczędności gospodarstw
g
do
omowych (w mld
m zł)
Źró
ódło: [Analizy Onlline, na podstawie danych: NBP, MF
F, GUS i TFI].
4. Lokaty
L
bankow
we
ogo przekonywaćć, że lokaty ban
nkowe nie są to najbardziej efekkNie trzeba niko
tyw
wne formy oszczzędzania. Dosyć wysoki, dotych
hczasowy poziom
m stóp procento
owycch nie zmuszałł jednak do po
oszukiwania inn
nych form loko
owania pieniędzyy.
W chwili
c
obecnej obraz ten z wolnaa zaczyna ulegać zmianie. Po częęści przyczynia siię
do tego wprowadzeenie podatku od odsetek od lokat.
Lokaty bankow
we gospodarstw domowych przyyrastały w latach
h 90. i osiągnęłły
k
2001 r. po
oziom 224,5 mld
d zł. Następnie p
przez trzy kolejne lata ich wartośść
w końcu
mallała (od wprowaadzenia „podatkuu Belki”) do 2100 mld zł w 20044 r., by ponowniie
zaczząć rosnąć w 2005 r., osiągając poziom
p
391 mld zł pod koniec 2009
2
r. Udział deepozzytów terminow
wych w lokatach
h bankowych sp
padał z 78% w 2001 r. do 47%
%
w 2007r.,
2
następniee wzrósł w 20088 r. do 56%. N
Na początku tego
o okresu wysokiie
bezzrobocie nie sprrzyjało gromadzzeniu oszczędno
ości. Spadek warrtości depozytów
w
wyn
nikał z: wykorzyystywania części środków na biieżące potrzeby gospodarstw do
omow
wych, finansowaania wyjazdów zagranicznych
z
w poszukiwaniu pracy oraz loko
owan
nia w fundusze inwestycyjne, kttóre zaczęły przzynosić wyższe stopy zwrotu niiż
wyn
nosiły odsetki bankowe.
b
Popraw
wa koniunktury na rynku pracyy, która nastąpiłła
w 2005
2
r., spowodo
owała znaczny przyrost
p
depozyttów bieżących i dalszy
d
spadek deepozzytów terminowyych. Kryzys finaansowy i spadkii cen na rynku akcji,
a
pod konieec
20007 r., spowodow
wały wycofywaniie środków z fuunduszy inwestyccyjnych i ich po
onow
wne inwestowaniie w bezpieczne lokaty bankowe [Wałęga 2006 s. 119].
232
Ewa Tokajuk
RYSUNEK 3.
Depozyty i odsetki gospodarstw domowych
w latach 1999–2009 (w mld zł)
500
400
300
200
100
0
1999
2000
2001
2002
Depozyty bieżące
2003
2004
2005
Depozyty terminowe
2006
2007
2008
2009
Odsetki
Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu:
http://emerytury.wp.pl/kat,7071,title,Aktywa-OFE-spadly-w-maju-o-15-proc-do-193-mldzl,wid,12332827,wiadomosc.html, data wejścia: 10.07.2010].
5. Aktywa funduszy inwestycyjnych
Najdynamiczniej rosnącymi aktywami gospodarstw domowych są środki zgromadzone w funduszach inwestycyjnych. Ich wartość w ciągu 16 lat przyrastała średnio kilkadziesiąt procent rocznie. Tylko w: 1995 r., 1998 r. i 2008 r. nastąpił spadek
wartości aktywów w stosunku do lat poprzednich. Pod koniec 2008 r. około 2,6 mln
Polaków posiadało jednostki uczestnictwa w funduszach inwestycyjnych, warte ok.
74,2 mld zł. Zmniejszenie się wartości aktywów w 2008 r. było spowodowane spadkiem wartości instrumentów finansowych. W 2009 r. nastąpił jednak wzrost środków zgromadzonych w funduszach inwestycyjnych i wyniósł ok. 86 mld zł [Dokument elektroniczny, tryb dostępu: http://www.money.pl/fundusze/wiadomosci/
artykul/rosnie;wartosc;aktywow;funduszy;inwestycyjnych, /gospodarka/wskazniki/
wynagrodzenie, data wejścia: 09.06.2009].
Największy udział w aktywach (ok. 51%) mają fundusze akcyjne i mieszane, które charakteryzują się stosunkowo wysokim ryzykiem inwestycyjnym. Bezpieczniejsze
fundusze – dłużne, pieniężne, gotówkowe i ochrony kapitału – stanowiły tylko ok.
28% wszystkich aktywów. Proporcje te są odwrotne niż przed 2005 r., kiedy znacznie wzrosła liczba osób lokujących w ten sposób swoje oszczędności. Od tego roku
następował systematyczny przepływ środków z bezpieczniejszych do bardziej ryzykownych form funduszy [Fatuła 2010 s. 117].
Możliwości inwestycyjne gospodarstw domowych na polskim rynku ...
233
RYSUNEK 4.
Aktywa zarządzane przez towarzystwa funduszy inwestycyjnych
w latach 1992–2009 (w mln zł)
160000
140000
120000
100000
80000
60000
40000
20000
0
1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009
Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http://
www.wiedzainfo.pl/wyklady/112/bilans_gospodarstwa_domowego.html, data wejścia: 10.07.
2010].
RYSUNEK 5.
Udział poszczególnych typów funduszy inwestycyjnych
w zarządzanych aktywach na koniec 2009 r.
Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http://
www.wiedzainfo.pl/wyklady/112/bilans_gospodarstwa_domowego.html, data wejścia: 10.07.
2010].
2344
Ewa Tokajuk
6. Skarbow
we papiery warttościowe
bu Państwa, dzięęki intensywnej kkampanii inform
macyjnej i promo
oObligacje Skarb
cyjn
nej w środkach masowego
m
przekkazu, są w ostatn
nich latach jednym
m z najlepiej rozzpozznawanych, obokk bankowych lokkat terminowych
h, produktem oszzczędnościowym
m.
Mim
mo to, stanowiąą one ok. 2%-4%
% wszystkich akttywów finansow
wych gospodarstw
w
dom
mowych, poniew
waż ich oprocento
owanie nie jest kkonkurencyjne.
Ten rodzaj inweestycji jest cenio
ony przez gospodarstwa domow
we, ze względu na
n
bezzpieczeństwo ulo
okowanego kapiitału. Jego gwarrantem jest sam
m Skarb Państwaa,
który zobowiązuje się do wykupuu obligacji oraz wypłacenia usttalonych odsetekk.
mowe, dysponująące nawet niewieelkimi kwotami,, mogą zaangażo
oGospodarstwa dom
dwaćć się w tę formęę inwestycji, gdyżż minimalna waartość dokonaneggo, w tym przed
mio
ocie, zakupu wyn
nosi zaledwie 1000 zł. Kolejnym
m pozytywem oszczędnościowycch
obliigacji skarbowycch jest możliwość wycofania zain
nwestowanych śrrodków w dowolnym
m momencie, beez zagrożenia utrraty odsetek. W przypadku 3-letniego okresu in
nwesstowania istniejee zaś możliwośćć ich sprzedaży na rynku wtórrnym [Dokumen
nt
elekktroniczny, tryb dostępu: http://www.money.pll/fundusze/wiaddomosci/artykull/
rosn
nie; wartosc;aktyywow;funduszy;iinwestycyjnych, /gospodarka/ wskazniki/
w
wynaagrodzenie/ z dnia 09.06.2009
0
r.].
RYSUNEK 6.
6
Skarbu Państw
wa
Sprrzedaż obligacji detalicznych S
mln zł)
w latach 2006–2009 (w m
Źró
ódło: Dokument elektroniczny,
e
tryb
b dostepu: http:///www.mf.gov.pl, data
d wejścia: 10.066.
2010.
większą popularn
nością cieszyły się
s obligacje trzyyNa początku teego stulecia najw
letn
nie. Sposób obliiczania i wypłatty odsetek gwarrantował nadążaanie za zmianam
mi
rynkowymi stóp procentowych
p
w stosunkowo kkrótkich, półroccznych okresach
h.
Możliwości inwestycyjne gospodarstw domowych na polskim rynku ...
235
Przeprowadzona kampania promocyjna obligacji oraz spadek notowań giełdowych
i rynkowych stóp procentowych przyczyniały się do większego zainteresowania
przede wszystkim obligacjami dwuletnimi. Znacznie zwiększyły się zakupy obligacji
pięcioletnich i hurtowych. W połowie lat 2000 wzrosła natomiast wartość portfeli
obligacji długoterminowych.
RYSUNEK 7.
Miesięczna sprzedaż skarbowych obligacji detalicznych
w okresie: VI 2009 r. – VI 2010 r.
Źródło: [Dokument elektroniczny, tryb dostępu: http://www.nbp.pl – Należności i zobowiązania monetarnych instytucji finansowych, Rozwój systemu finansowego w Polsce, data
wejścia: 10.06.2010].
W 2004 r. nastąpił wzrost sprzedaży obligacji o stałym oprocentowaniu i spadek
wartości obligacji o zmiennym oprocentowaniu. W 2005 r. zmniejszyła się wartość
wszystkich obligacji w portfelach gospodarstw domowych, oprócz długoterminowych. Wzrosty indeksów giełdowych zachęciły do zainwestowania środków w bardziej ryzykowne instrumenty. Lata 2006–2007 charakteryzowały się ogromnym
spadkiem zainteresowania obligacjami, aż do pojawienia się kryzysu finansowego.
Ze względu na obawy związane z wahaniami rynku finansowego, gospodarstwa domowe ponownie zaczęły lokować swoje środki w bezpiecznych papierach, począwszy od końca 2008 roku.
236
Ewa Tokajuk
7. Indywidualne konta emerytalne, pracownicze programy emerytalne,
pracownicze fundusze emerytalne
Indywidualne konta emerytalne, pracownicze programy emerytalne, pracownicze
fundusze emerytalne jako formy gromadzenia środków na emeryturę wchodzą w zakres tzw. III dobrowolnego filaru systemu emerytalnego.
Indywidualne konta emerytalne (IKE) stanowią część sformalizowanego indywidualnego oszczędzania na ten cel. Do końca 2008 r. na taką formę oszczędzania
zdecydowało się niespełna 854 tys. osób, czyli dwa razy więcej niż w 2005 r. W 2009
r. liczba zamykanych rachunków, w związku z dokonaniem wypłaty, wypłaty transferowej i zwrotu, była wyższa od liczby nowo otwieranych kont o 45,7 tys.
TABLICA 1.
Liczba prowadzonych IKE
Liczba IKE
(w szt.)
Zakłady ubezpieczeń
Towarzystwa funduszy
inwestycyjnych
Podmioty prowadzące
działalność maklerską
Banki
OGÓŁEM
Udział w wartości ogółem
(w %)
Dynamika
(w %)
31.12.2008
31.12.2009
31.12.2008
31.12.2009
2009/2008
633665
592973
74,2
73,3
93,6
173 776
172 532
20,4
21,3
99,3
9 985
11 732
1,2
1,4
117,5
36 406
31 982
4,3
4,0
87,8
853 832
809 219
100,0
100,0
94,8
Źródło: Obliczenia własne na podstawie: [Dokument elektroniczny, tryb dostępu: http://
www.money.pl/fundusze/wiadomosci/artykul/rosnie;wartosc;aktywow;funduszy;inwestycyj
nych, /gospodarka/wskazniki/wynagrodzenie, daty wejścia: 09.06.2009, 09.07.2010].
Pracownicze programy emerytalne, zgodnie z przepisami ustawy o ppe, pracodawca tworzy dla swoich pracowników jako program umożliwiający gromadzenie
środków na przyszłą emeryturę. Do wskazanej w zakładowej umowie emerytalnej
instytucji finansowej są odprowadzane środki z tytułu składki podstawowej, którą
finansuje pracodawca, oraz z tytułu składki dodatkowej wnoszonej dobrowolnie
przez uczestników programu z własnych środków.
Według danych uzyskanych od podmiotów zarządzających, w 2009 r. liczba
uczestników pracowniczych programów emerytalnych wzrosła w porównaniu
z rokiem poprzednim o 2,6% i wyniosła na koniec 2009 r. prawie 334 tys. osób, natomiast wartość aktywów zgromadzonych w ramach ppe wzrosła w porównaniu
z 2008 r. o 38,5% i na koniec omawianego okresu wyniosła prawie 5,0 mld zł.
Możliwości inwestycyjne gospodarstw domowych na polskim rynku ...
237
RYSUNEK 8.
Rozwój ppe – liczba programów oraz liczba uczestników ppe
w latach 1999–2009
Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http://
www.money.pl/fundusze/wiadomosci/artykul/rosnie;wartosc;aktywow;funduszy; inwestycyjnych, /gospodarka/wskazniki/wynagrodzenie, daty wejścia: 09.06.2009, 09.07. 2010].
Pracownicze fundusze emerytalne (PFE) są zarządzane przez pracownicze towarzystwa emerytalne (PTE). Towarzystwa te muszą mieć formę spółki akcyjnej, powołanej do zarządzania gromadzonymi środkami na zasadzie non profit. Pod koniec
2008 r. działało tylko pięć PFE, dysponujących łącznie kwotą ok. 1 mld zł. Na dzień
31 marca 2010 roku rynek pracowniczych funduszy emerytalnych (PFE) składał się
z 5 podmiotów (Telekomunikacja Polska, Nowy Świat, Nestle Polska, Unilever Polska, PZU „Słoneczna Jesień”). Łączna wartość aktywów netto PFE na koniec marca
2010 r. kształtowała się na poziomie 1,43 mld złotych (wzrost w okresie ostatnich
36 miesięcy o 52,4%). Aktywa zgromadzone w tej formie pracowniczych programów emerytalnych stanowiły, na koniec marca 2010 roku, 0,75% aktywów netto
otwartych funduszy emerytalnych (II filar ubezpieczeń społecznych). Dominującą
pozycję na rynku PFE, pod względem zarządzanych aktywów netto, zajmował na
koniec analizowanego okresu Pracowniczy Fundusz Emerytalny Telekomunikacji
Polskiej. Dysponował on aktywami o wartości 0,89 mld zł, co dawało mu 61,8%
udziału w rynku [Dokument elektroniczny, tryb dostępu: http://www.money.pl/
fundusze/ wiadomosci/ artykul/ rosnie;wartosc;aktywow;funduszy;inwestycyjnych,/
gospodarka/wskazniki/wynagrodzenie, daty wejścia: 09.06.2009, 09.07.2010].
2388
Ewa Tokajuk
8. Aktywa finaansowe polskicch gospodarstw
w domowych – porównanie
p
nansowych w 20009 r. wynika, że
ż
Z analizy przeddstawionej strukttury aktywów fin
naddal najpopularnieejsze są depozytty i lokaty banko
owe. Z wyjątkieem 2008 r., kied
dy
nastąpił transfer śro
odków z funduszy inwestycyjnycch, udział tych form
f
lokat kapitaas
spada, zwiększa się
s natomiast udzział aktywów otw
wartych funduszzy
łu systematycznie
emeerytalnych, towaarzystw funduszyy inwestycyjnych
h i ubezpieczeń na
n życie. Od stro
ony podażowej tenddencja ta wynikaa z rozwoju i dzziałań marketinggowych instytuccji
opytowej – z ro
osnących dochoddów, wiedzy i zaarynku finansowego, a od strony po
nia klientów do tych form gromaadzenia nadwyżeek finansowych [Cudowska-Sojkko
ufan
20006 s. 149–154].
RYSUNEK 9.
9
uktura oszczędności gospodarrstw domowych
h,
Stru
w
według
rodzaju
u instrumentów
w finansowych
Źró
ódło: [Analizy Onlline, na podstawie danych: NBP, MF
F, GUS, TFI i PTE
E].
9. Podsumowanie
P
e
J ukazało oprracowanie, wachlarz możliwości inwestycyjnych gospodarstw do
Jak
omow
wych jest bardzo
o szeroki. Uwzgllędniając swoje p
potrzeby, a takżee sytuację panująącą na
n rynku zarówno polskim, jakk i światowym, ttzw. inwestorzy indywidualni po
owin
nni wybrać te fo
ormy lokowania kapitału, które odpowiadają im
m najbardziej. Niie
zap
pominając jednakk o dywersyfikaccji produktów, co
o, nawet przy ryzzykownych inweestyccjach, pozwoli zw
większyć bezpiecczeństwo kapitałłu.
Struktura aktyw
wów finansowycch gospodarstw domowych ulegga zmianie. Ilośść
lokaat bankowych zmniejszyła się niemal
n
dwukrotn
nie, udział aktyw
wów funduszy in
nwesstycyjnych wzróssł trzykrotnie, jeeszcze większy w
wzrost w tym zakresie
z
osiągnęłły
Możliwości inwestycyjne gospodarstw domowych na polskim rynku ...
239
otwarte fundusze emerytalne, z 3% do 20%. Natomiast udział, zgromadzonych
w III dobrowolnym filarze, ubezpieczeń emerytalnych jest niski i wynosi ok. 0,4%.
Świadczy to o małej skłonności do dobrowolnego oszczędzania na emeryturę. Przyczyną są nie tylko niskie dochody, nie pozwalające odłożyć znaczących środków, ale
także przenoszenie odpowiedzialności za wysokość przyszłej emerytury na państwo
lub pracodawcę.
Literatura
Bywalec Cz. 2009 Ekonomika i finanse gospodarstw domowych, Warszawa.
Cudowska-Sojko A., Dzun A. 2006 Skłonność do oszczędzania jako determinanta wielkości
i struktury oszczędności gospodarstw domowych w Polsce, [w:] Kopycińska D. (red.), Zachowania rynkowe gospodarstw domowych i przedsiębiorstw w okresie transformacji systemowej
w Polsce , Szczecin.
Fatuła D. 2010 Zachowania polskich gospodarstw domowych na rynku finansowym, Kraków.
Kędzior Z. 1998 Gospodarstwo domowe jako obiekt badań, [w:] Konsument – przedsiębiorstwo –
rynek, Katowice.
Kopycińska D. 2006 Zachowania rynkowe gospodarstw domowych i przedsiębiorstw w okresie
transformacji systemowej w Polsce, Szczecin.
Wałęga G. 2006 Zadłużenie polskich gospodarstw domowych z tytułu kredytów bankowych, [w:]
Kopycińska D. (red.), Zachowania rynkowe gospodarstw domowych i przedsiębiorstw w okresie
transformacji systemowej w Polsce, Szczecin.
Zalega T. 2007 Gospodarstwo domowe jako podmiot konsumpcji, Warszawa.
Źródła internetowe
Dokument elektroniczny, tryb dostępu: [http://www.stat.gov.pl/lodz/69_160_PLK_ HTML.
htm, data wejścia: 10.07.2010].
Dokument elektroniczny, tryb dostępu: [http://www.wiedzainfo.pl/wyklady/112/bilans_
gospodarstwa_domowego.html, data wejścia: 10.07.2010].
Dokument elektroniczny, tryb dostępu: [http://emerytury.wp.pl/kat,7071,title,AktywaOFE-spadly-w-maju-o-15-proc-do-193-mld-zl,wid,12332827,wiadomosc.html, data wejścia: 10.07.2010].
Dokument elektroniczny, tryb dostępu: [http://www.nbp.pl – Należności i zobowiązania monetarnych instytucji finansowych, Rozwój systemu finansowego w Polsce, data wejścia:
10.07.2010].
Dokument elektroniczny, tryb dostępu: [http://www.money.pl/fundusze/wiadomosci/ artykul/
rosnie; wartosc; aktywow; funduszy; inwestycyjnych, /gospodarka/wskazniki/ wynagrodzenie, data wejścia: 09.06.2009].
Dokument elektroniczny, tryb dostępu: [http://www.mf.gov.pl, data wejścia: 10.06.2010].
Dokument elektroniczny, tryb dostępu: [http://www.knf.gov.pl, data wejścia: 09.07.2010].
Dokument elektroniczny, tryb dostępu: [www.analizy.onlina.pl, data wejścia: 10.07.2010].
OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011
INFORMACJE
Projekt jest współfinansowany ze środków Unii Europejskiej
w ramach Europejskiego Funduszu Społecznego
W ramach Programu Operacyjnego Kapitał Ludzki, Priorytet IV. Szkolnictwo
Wyższe i Nauka, Działanie 4.2. Rozwój kwalifikacji kadr systemu B+R i wzrost
świadomości roli nauki w rozwoju gospodarczym jest realizowany w Katedrze
Zrównoważonego Rozwoju i Gospodarki Opartej na Wiedzy, Wyższej Szkoły Ekonomicznej w Białymstoku projekt „BADANIA I ROZWÓJ W GOSPODARCE OPARTEJ
NA WIEDZY”.
Realizacja działań opisanych w projekcie przyczynia się do budowy społeczeństwa i gospodarki opartej na wiedzy poprzez uświadomienie roli badań naukowych
i wdrożeń w kreowaniu rozwoju kraju. W dotychczasowej praktyce obserwuje się
niedostateczną współpracę przedsiębiorców z jednostkami sektora B+R. Skutkiem
tego jest niedostosowanie badań i prac rozwojowych do potrzeb rynku oraz ograniczony przepływ wiedzy, informacji i technologii z sektora B+R do gospodarki. Polska zajmuje dalekie miejsce w rankingach współpracy nauki i gospodarki, patentowania czy wdrażania innowacji do praktyki gospodarczej. Konieczne jest zatem
podniesienie kwalifikacji kadr sektora B+R, w zakresie umiejętności zarządzania
projektami oraz komercjalizacji badań, a także zwiększania zakresu i stopnia współpracy sfery B+R z przedsiębiorstwami.
Cel projektu stanowi odpowiedź na powyższe potrzeby i uwzględnia wzrost
zdolności pracowników sektora B+R do zarządzania projektami badawczymi i pracami rozwojowymi oraz wzrost zakresu upowszechniania rezultatów badań i współpracy naukowców z przedsiębiorcami. Projekt jest skierowany tylko i wyłącznie do
pracowników jednostek naukowych, w tym szkół wyższych, placówek Polskiej Akademii Nauk, jednostek badawczo-rozwojowych oraz podmiotów działających na
rzecz nauki. Niewątpliwą zaletą realizowanego projektu jest jego dostępność. Nie ma
ograniczeń terytorialnych i dziedzinowych. W projekcie mogą brać udział osoby
z terenu całego kraju, bez względu na reprezentowaną dziedzinę i dyscyplinę nauki.
W ramach projektu przewidziano trzy działania. Są to:
1.
Studia podyplomowe Zarządzanie badaniami naukowymi i pracami roz­
wojowymi. Program studiów obejmie trzy bloki: metodyczny, zarządzania
projektami i komercjalizacji rezultatów badań. Blok metodyczny ma na celu
udoskonalenie warsztatu naukowego oraz usystematyzowanie wiedzy w zakre-
Informacje
241
sie metodologii badań naukowych i prac rozwojowych. Przedmioty wchodzące w jego skład to przede wszystkim metodologia nauk społecznych, przyrodniczych i technicznych, warsztat naukowca, współczesne trendy i koncepcje zarządzania zespołem naukowymi oraz zastosowanie metod ilościowych
w badaniach. Na realizację bloku metodycznego przewidziano 88 godzin dydaktycznych. Blok zarządzania projektami ma celu wskazać możliwości finansowania projektów oraz rozwinąć umiejętności skutecznego opracowywania i realizacji badań naukowych i prac rozwojowych. W skład tego bloku
wchodzą przedmioty związane z aplikowaniem środków krajowych i unijnych oraz zarządzaniem i kontrolą projektów, oprócz nich przewidziano
przedmioty związane z konceptualizacją projektów, liderem zespołu i informatycznymi narzędziami zarządzania. Na realizację tego bloku zaplanowano
80 godzin dydaktycznych. Blok trzeci odnoszący się do komercjalizacji rezultatów badań ma na celu wskazać możliwości i problemy wynikające z upowszechniania rezultatów badań naukowych i prac rozwojowych w gospodarce, a także zwiększyć orientację badań naukowych i prac rozwojowych na
praktykę. W ramach tego bloku omawiane będą przede wszystkim zagadnienia innowacji i postępu technicznego, komercjalizacji badań i ochrony własności intelektualnej. Realizacja tego bloku obejmuje 56 godzin dydaktycznych.
Zaplanowano tryb studiów niestacjonarny - wyłącznie w soboty i niedziele. System taki ułatwia pogodzenie uczestnictwa w studiach z pracą zawodową. Studia trwają 2 semestry po 7 zjazdów w każdym. Łączna ilość zrealizowanych godzin dydaktycznych wynosi 224. W ramach studiów przewidziano pokrycie kosztów noclegu, wyżywienie w czasie zjazdu oraz materiały
szkoleniowe, w tym minimum trzy publikacje dla każdego słuchacza.
Dobiega końca pierwsza edycja studiów, wzięło w niej udział 29 uczestników. Zapraszamy do uczestnictwa w drugiej edycji, którą zaplanowano na
październik 2011 r. – czerwiec 2012 r. 2.
W ramach projektu zaplanowano realizację dwóch rodzajów warsztatów:
Identyfikacja kierunków rozwoju nauki oraz Identyfikacja potrzeb gospo­
darki. W przypadku pierwszych celem jest podniesienie umiejętności korzystania z własnej wiedzy, prognozowania rozwoju wiedzy, poszukiwania nowych obszarów badawczych na granicy dyscyplin nauki oraz komercjalizacji
wyników badań do gospodarki, w tym: ochrona i wycena własności intelektualnej, transfer technologii, komunikacja i negocjacje z przedsiębiorcami.
Odnośnie drugich warsztatów tj. Identyfikacji potrzeb gospodarki celem jest
nabycie umiejętności identyfikacji oczekiwań przedsiębiorcy, sposobów badania jego potrzeb i diagnozy tych potrzeb, doboru rozwiązań do zidentyfikowanych potrzeb. Warsztaty są świetną formą działania, ponieważ pozwalają w nieformalnej atmosferze nawiązać kontakty, poznać wzajemnie potrzeby
i oczekiwania oraz sposób myślenia. Zaplanowano jednodniowe warsztaty,
a w ich ramach przewidziano pokrycie kosztów noclegu uczestników, wyżywienie i materiały szkoleniowe. Druga edycja warsztatów odbędzie się w październiku 2011 roku w Katowicach. 242
3.
Informacje
W założeniach projektu zaplanowano również realizację 62 trzymiesięcznych staży w przedsiębiorstwach. Ich głównym celem jest podniesienie stopnia
współpracy pomiędzy jednostkami naukowymi, a przedsiębiorcami, skutkującego wzrostem transferu wiedzy i innowacji pomiędzy tymi dwoma sektorami. Możliwość odbycia stażu jest dla pracowników nauki ogromną szansą
praktycznego wykorzystania pomysłów oraz zapoznania się z funkcjonowaniem firmy, jej rzeczywistymi problemami i wyzwaniami. Przewidziano dodatek stażowy w wysokości 3000 zł miesięcznie dla stażysty oraz wynagrodzenie opiekuna stażysty ze strony przedsiębiorstwa w wysokości 500 zł miesięcznie brutto. Rekrutacja na staże jest prowadzona w trybie ciągłym.
Do końca 2011 roku zrealizowanych zostanie łącznie 32 staże. Na rok 2012
i 2013 zaplanowano kolejnych 30. Posiedzenia Komisji rekrutacyjno-oceniającej dokonującej oceny złożonych aplikacji odbywa się raz na kwartał, przy
czym najbliższe dotyczące oceny dokumentów stażowych przewidziano na
początek listopada 2011 roku.
Zachęcamy do udziału w projekcie, zapewniamy znakomitych wykładowców
z najlepszych ośrodków naukowych z całego kraju oraz specjalistów – praktyków
z instytucji publicznych oraz przedsiębiorstw wiodących we wdrażaniu nowych systemów zarządzania, technologii i innowacji.
Warunkiem uczestnictwa jest złożenie w biurze projektu kompletu dokumentów
(formularze są dostępne na stronie internetowej projektu: www.bir-gow.pl).
Dane kontaktowe biura projektu:
Wyższa Szkoła Ekonomiczna w Białymstoku Katedra Zrównoważonego Rozwoju i Gospodarki Opartej na Wiedzy 15‐732 Białystok, ul. Choroszczańska 31, p. 33 tel./fax. 85 65 26 915 www.bir‐gow. pl; e‐mail: biuro@bir‐gow.pl Katarzyna Poskrobko
Koordynator projektu
Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku
poleca publikacje naukowe:
Henryk Wnorowski
INSTYTUCJONALNE UWARUNKOWANIA DZIAŁALNOŚCI
PRZEDSIĘBIORSTW W KRAJACH UNII EUROPEJSKIEJ
Spis treści: 1. Teoretyczne i metodologiczne podstawy badania aktywności
gospodarczej; 2. Bariery instytucjonalne w sferze działalności gospodarczej;
3. Zróżnicowanie w poziomie rozwoju gospodarczego oraz sile ograniczeń
instytucjonalno-prawnych w sferze aktywności gospodarczej w wybranych
krajach UE; 4. Metodologia „DOING BUSINESS” jako argument na
rzecz wykorzystania danych Banku Światowego w procesie weryfikacji
hipotezy głównej niniejszego badania; 5. Opis zróżnicowania państw UE
pod względem warunków instytucjonalno-prawnych, traktowanych jako
zmienne objaśniające poziom aktywności gospodarczej; 6. Uwarunkowania
instytucjonalno-prawne a poziom aktywności gospodarczej w krajach UE wyniki badań i wnioski końcowe.
Adam Wyszkowski
PODATKI POŚREDNIE I DOCHODOWE W SYSTEMIE
PODATKOWYM
Spis treści: 1. System podatkowy w gospodarce rynkowej; 2. Ewolucja
systemu podatkowego w Polsce; 3. Podatki pośrednie jako źródło
dochodów budżetu państwa; 4. Podatki dochodowe jako źródło
dochodów budżetu państwa; 5. Wybrane zagadnienia konstrukcji
optymalnego systemu podatkowego; 6. Wnioski końcowe
Barbara Roszkowska-Mądra
OBSZARY WIEJSKIE O NIEKORZYSTNYCH
WARUNKACH GOSPODAROWANIA W ASPEKCIE ICH
ZRÓWNOWAŻONEGO ROZWOJU
Spis treści: 1. Współczesne koncepcje rozwoju rolnictwa i obszarów
wiejskich; 2. Charakterystyka obszarów o niekorzystnych warunkach
gospodarowania (ONW) i podstawy teoretyczne polityki ich wspierania; 3.
Polityka Unii Europejskiej wobec gospodarowania na obszarach ONW; 4.
Obszary ONW w Polsce; 5. Propozycja wydzielania nizinnych obszarów
ONW i ich rodzajów na podstawie typologii systemów gospodarowania w
rolnictwie; 6. Uwarunkowania rozwoju obszarów wiejskich województwa
podlaskiego; 7. Zastosowanie typologii systemów gospodarowania w
rolnictwie gmin w województwie podlaskim do wydzielania rodzajów nizinnych obszarów ONW; 8. Kierunki rozwoju i zalecane formy wsparcia dla
wyróżnionych rodzajów ONW w województwie podlaskim
Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku
poleca publikacje dydaktyczne:
Zdzisław Czajka
GOSPODAROWANIE KAPITAŁEM LUDZKIM
Białystok 2011, ISBN 978-83-7431-258-5
Ewa Roszkowska
WYBRANE MODELE NEGOCJACJI
Białystok 2011, ISBN 978-83-7431-259-2
Krzysztof Barteczko, Andrzej F. Bocian
PROGNOZOWANIE I SYMULACJE PROCESÓW
GOSPODARCZYCH
Białystok 2010, ISBN 978-83-7431-272-1
PODYPLOMOWE STUDIA
RACHUNKOWOŚCI I AUDYTU WEWNĘTRZNEGO
W JEDNOSTKACH SEKTORA PUBLICZNEGO
15-062 Białystok
ul. Warszawska 63
pok. 208
tel. (085) 7457702,
fax (085) 7457702
Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB
Sekretariat: Grażyna Majewska
CEL STUDIÓW
− zdobycie i pogłębienie wiedzy z zakresu organizacji i funkcjonowania
sektora finansów publicznych,
− pogłębienie wiedzy w zakresie prawa finansów publicznych i administracji publicznej,
− przekazanie słuchaczom wiedzy na temat szczególnych zasad i metod
prowadzenia rachunkowości w jednostkach sektora finansów,
− poznanie nowych regulacji dotyczących organizacji i zasad przeprowadzania wewnętrznej kontroli finansowej w jednostkach sektora finansów publicznych,
− zdobycie praktycznych umiejętności w zakresie tworzenia oraz analizy
funkcjonowania i oceny komórek kontroli finansowej i audytu wewnętrznego.
STUDIA ADRESOWANE SĄ DO:
− głównych księgowych i kadry kierowniczej w jednostkach sektora finansów publicznych
− pracowników odpowiedzialnych za prowadzenie nowoczesnego systemu audytu wewnętrznego i kontroli finansowej w jednostkach sektora publicznego.
Zasady naboru:
- decyduje kolejność zgłoszeń.
Warunki rekrutacji:
- odpis dyplomu,
- kwestionariusz osobowy,
- podanie,
- poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego.
PODYPLOMOWE STUDIA
FINANSÓW I RACHUNKOWOŚCI
PRZEDSIĘBIORSTW
15-062 Białystok
ul. Warszawska 63
pok. 208
tel. (085) 7457702,
fax (085) 7457702
Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB
Sekretariat: Grażyna Majewska
Podyplomowe Studia Finansów i Rachunkowości Przedsiębiorstw istnieją
od roku akademickiego 1992/1993. Przeznaczone są dla absolwentów szkół
wyższych różnej specjalności.
Celem studiów jest przygotowanie kadr dla przedsiębiorstw i instytucji
w zakresie finansów i rachunkowości oraz przygotowanie słuchaczy do
działalności usługowej w zakresie prowadzenia ksiąg rachunkowych.
Studia trwają dwa semestry, kończą się zaliczeniami lub egzaminami z poszczególnych przedmiotów. Zajęcia odbywają się w formie 7 dwudniowych zjazdów
w weekendy w każdym semestrze i obejmują ponad 300 godz. zajęć dydaktycznych. Studia kończą się wydaniem świadectwa ukończenia studiów podyplomowych.
Wykładane są następujące przedmioty:
- rachunkowość finansowa,
- sprawozdawczość finansowa,
- rachunek kosztów,
- system podatkowy,
- papiery wartościowe,
- prawo cywilne, gospodarcze i administracyjne,
- system informatyczny i podstawy informatyki,
- wykłady okolicznościowe.
Zasady naboru:
- decyduje kolejność zgłoszeń.
Warunki rekrutacji:
- odpis dyplomu,
- kwestionariusz osobowy,
- podanie,
- poświadczenie opłaty manipulacyjnej oraz pierwszej wpłaty czesnego.
PODYPLOMOWE STUDIA MENEDŻERSKIE
15-062 Białystok
ul. Warszawska 63
pok. 229
tel. (0~85) 745 77 25
fax (0~85) 741 46 85
Kierownik: dr hab. Tadeusz Truskolaski, prof. UwB
Sekretariat: Anna Kitlasz
Podyplomowe Studia Menedżerskie istnieją od roku 1992. Przeznaczone jest dla
absolwentów szkół wyższych, różnych specjalności.
Wykładowcami są pracownicy naukowi oraz praktycy, dyrektorzy banków i specjaliści
z poszczególnych dziedzin. Program i treści nauczania dostosowane są do potrzeb i wymagań rynku. Studium daje szansę nawiązania ciekawych kontaktów oraz konsultacji z wieloma specjalistami z różnych branż.
Zasady naboru: decyduje kolejność zgłoszeń.
Warunki rekrutacji:
odpis dyplomu,
kwestionariusz osobowy,
podanie,
opłata manipulacyjna.
Studia trwają dwa semestry. Zajęcia odbywają się w formie 2-dniowych zjazdów
(w soboty i niedziele) i obejmują 256 godzin zajęć dydaktycznych. Studia kończą się egzaminem i wydaniem świadectwa ukończenia studiów podyplomowych.
Wykładane są następujące przedmioty:
Organizacja i zarządzanie
•
•
Zarządzanie finansami i rynek kapitałowy
•
Marketing
•
Zarządzanie zasobami pracy
•
Zarządzanie strategiczne
•
Biznes plan
•
System podatkowy
•
Funkcjonowanie gospodarki rynkowej
•
Rachunkowość zarządcza
•
Negocjacje w biznesie
•
Public relations
•
Prawo pracy
•
Zamówienia publiczne
•
Rynek i wycena nieruchomości
•
Zajęcia komputerowe
•
Seminaria - wykłady okolicznościowe
PODYPLOMOWE STUDIA
ZARZĄDZANIA PROJEKTAMI UNII EUROPEJSKIEJ
15-062 Białystok, ul. Warszawska 63, pok. 234,
tel. (085) 7457721, fax (085) 7414685
e-mail: [email protected]
http://www.weiz.uwb.edu.pl/
Kierownik: dr Elżbieta Sulima
Sekretariat: mgr Jolanta Wiszniewska
Cele studiów
Przekazanie praktycznych umiejętności opracowania projektu i jego zarządzania (w
tym finansowego) oraz wypełniania wniosków, gwarantujących pozyskanie
środków finansowych z Unii Europejskiej.
Adresaci
Wszystkie osoby, które są zobowiązane lub pragną z tytułu potrzeb lub planów
zawodowych otrzymać wiedzę dotyczącą pozyskiwania środków finansowych
z Unii Europejskiej.
W szczególności program kierowany jest do:
–
przedsiębiorców,
–
pracowników administracji samorządowej, organizacji pozarządowych,
–
nauczycieli
–
absolwentów szkół wyższych
–
i innych osób zamierzających uzyskać kwalifikacje niezbędne do pozyskiwania środków finansowych z UE
Korzyści
Przygotowanie specjalistów w dziedzinie zarządzania projektami Unii Europejskiej.
Studia dają możliwość nawiązania kontaktów z osobami bezpośrednio zaangażowanymi w realizację projektów finansowanych z funduszy strukturalnych
Zasady naboru: decyduje kolejność zgłoszeń.
Należy złożyć następujące dokumenty:
–
odpis dyplomu
–
podanie – kwestionariusz osobowy
–
oświadczenie
–
opłata manipulacyjna
–
opłata I raty czesnego.
PODYPLOMOWE STUDIA
WYCENY I GOSPODARKI NIRUCHOMOŚCI
Specjalności:
WYCENA NIERUCHOMOŚCI
ZARZĄDZANIE NIERUCHOMOŚCIAMI
POŚREDNICTWO W OBROCIE NIERUCHOMOŚCIAMI
Kierownik Studiów:
dr Dorota Wyszkowska
e-mail: [email protected]
Sekretariat:
mgr Jolanta Wiszniewska
tel. 085 745 77 21
fax 085 741 46 85
e-mail: [email protected]
CEL STUDIÓW:
Celem Studiów jest przygotowanie słuchaczy, w zależności od wybranej specjalności, do ubiegania się, po spełnieniu dodatkowych wymogów (praktyki zawodowe)
o uzyskanie uprawnień zawodowych:
–
–
–
RZECZOZNAWCY MAJĄTKOWEGO
POŚREDNIKIA W OBROCIE NIERUCHOMOSCIAMI
LUB ZARZĄDCY NIERUCHOMOŚCI.
Uczestnikami Studiów mogą być absolwenci szkół wyższych.
Studia trwają 2 semestry od października do czerwca w wymiarze godzin
określonym w ramowych programach studiów.
Programy zgodne są z „minimum programowym” zalecanym przez Ministerstwo Infrastruktury, zawartym w Rozporządzeniu Ministra Infrastruktury z dnia 7 czerwca 2010 r. w sprawie ustalenia minimalnych wymogów programowych dla studiów podyplomowych w zakresie wyceny
nieruchomości (Dz. Urz. Min. Bud. Nr 3, poz. 16).
Zajęcia odbywają się w 2-dniowych zjazdach (soboty i niedziele) co 2 tygodnie i kończą się przygotowaniem pracy dyplomowej oraz egzaminem
Zasady naboru:
o przyjęciu decyduje kolejność zgłoszeń
WYMAGANE DOKUMENTY:
–
–
–
–
–
odpis dyplomu
kwestionariusz
oświadczenie
opłata manipulacyjna
opłata I raty czesnego
PODYPLOMOWE STUDIA
ZARZĄDZANIA ZASOBAMI LUDZKIMI
15-062 Białystok
ul. Warszawska 63, pok. 225
tel. (085) 745-77-19,
fax (085) 741-46-85
e-mail: agrzes@ uwb.edu.pl
http://www.weiz.uwb.edu.pl
Kierownik: dr Anna Grześ
CEL STUDIÓW:
Przekazanie specjalistycznej wiedzy teoretycznej i praktycznych umiejętności z zakresu zarządzania zasobami ludzkimi niezbędnych do skutecznego funkcjonowania organizacji.
Zakres ten obejmuje m.in.:
–
zasady i metody rekrutacji i selekcji,
–
system ocen pracowniczych,
–
systemy wynagradzania,
–
prawo pracy i zbiorowe stosunki pracy,
–
negocjacje zbiorowe,
–
zarządzanie karierami i rozwojem pracowników, itp.
ORGANIZACJA STUDIÓW:
Studia trwają 2 semestry. Obejmują 188 godzin dydaktycznych. Zajęcia odbywają się w 2-dniowych zjazdach (w soboty i niedziele) co 2 tygodnie i kończą
się obroną pracy dyplomowej oraz wydaniem świadectwa ukończenia studiów
podyplomowych.
STUDIA ADRESOWANE SĄ DO:
–
kadry kierowniczej przedsiębiorstw,
–
pracowników działu kadr,
–
osób zainteresowanych zdobyciem oraz pogłębieniem wiedzy z zakresu
problematyki zarządzania zasobami ludzkimi w nowoczesnych organizacjach.
WYMAGANE DOKUMENTY:
–
kwestionariusz osobowy
–
odpis dyplomu,
–
oświadczenie,
–
poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego
Zasady naboru:
–
decyduje kolejność zgłoszeń.

Podobne dokumenty

Pobierz numer

Pobierz numer Summary The aim of this article is to present trends and tendencies which may be encountered while modelling economic phenomena, processes as well as social interactions, and to illustrate how the ...

Bardziej szczegółowo