Pobierz numer - Optimum - Uniwersytet w Białymstoku
Transkrypt
Pobierz numer - Optimum - Uniwersytet w Białymstoku
Czasopismo poświęcone potrzebom nauki i praktyki 2011 Nr 1 (49) OPTIMUM STUDIA EKONOMICZNE SPIS TREŚCI STUDIA I ROZPRAWY.............................................................................................. 3 István Takács, Pál Csapodi, Katalin Takács-György – Corruption as a deviant attitude of inter-sector cooperation ........................................................... 3 Andrzej F. Bocian – Makroekonomia wzrostu – uwarunkowania globalne .......... 18 Anna Chmielak – Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych .................................................................................................................. 41 Adam Oleksiuk – Innowacje jako czynnik rozwoju gospodarki światowej w świetle strategii innowacyjności OECD .......................................................................... 52 Anna Wierciszewska, Mirosława Lasek – Dynamika systemów jako narzędzie modelowania procesów rozwoju gospodarczego.............................................................. 63 Ewa Roszkowska – Procedury podejmowania decyzji społecznych a optimum społeczne ............................................................................................................... 80 Dorota Mierzyńska – Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce ............................................................................................................. 103 MISCELLANEA ....................................................................................................... 115 Jacek Marcinkiewicz – Analiza porównawcza poziomu rozwoju europejskich giełd ..................................................................................................................... 115 Elżbieta Szymańska – Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw .................................................................................................................. 128 Katarzyna Lewkowicz-Grzegorczyk – Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego od osób fizycznych ................................................ 148 Mariusz Chudak – Czynniki lokalizacji aptek ................................................................. 171 Paweł Jamróz – Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji oraz testu serii ........................................................................ 183 Bogna Gawrońska-Nowak – Reżim kursowy a presja kryzysowa w wybranych gospodarkach nowych krajów członkowskich Unii Europejskiej ............ 203 Łukasz Siemieniuk – System SYMFONIA jako przykład zintegrowanego systemu informatycznego w rachunkowości ............................................................................ 218 Ewa Tokajuk – Możliwości inwestycyjne gospodarstw domowych na polskim rynku finansowym .......................................................................................................................... 228 INFORMACJE .......................................................................................................... 239 Katarzyna Poskrobko – Projekt „Badania i rozwój w gospodarce opartej na wiedzy” ................................................................................................................... 239 STUDIA I ROZPRAWY István TAKÁCS1, Pál CSAPODI2, Katalin TAKÁCS-GYÖRGY1 CORRUPTION AS A DEVIANT ATTITUDE OF INTER-SECTOR COOPERATION Summary Corruption is a specific field of cooperation between social sectors. It is a deviant behavior which hampers and deteriorates the efficiency of normal cooperation. Corruption can be led back to a lot of reasons: the nature of economic and social regime as well as cultural aspects. The aim of corruption is to obtain advantages. Private advantages, however, are usually paired with significant social disadvantages, they decrease the efficiency of utilizing public sources, thus reducing the amount of public goods which could be obtained from them. The corrupt behavior often becomes a social norm, thus operating as a social trap because the citizen basically wants to follow the norms, but the norm itself is the corruption. The paper analyzes corruption as deviant social attitude within the framework of cooperation among institutions. Examining the countries of the Central Eastern European region, it can be stated that they are moderately infected with corruption which requires national strategy against corruption and the establishment of institutional conditions for the implementation of the strategy. The paper emphasizes that corruption should be addressed not only within national framework, it is also necessary to build up close cooperation among countries belonging to the same economic and social system. Keywords: corrupion, public sector, inter-sector cooperation KORUPCJA JAKO DEWIACYJNE PODEJŚCIE DO MIĘDZYSEKTOROWEJ WSPÓŁPRACY Streszczenie Korupcja jest specyficzną dziedziną współpracy pomiędzy sektorami. Jest to dewiacyjne zachowanie się, które hamuje i pogarsza efektywność normalnej współpracy. Korupcja może mieć szereg przyczyn: natura rządów ekonomicznych i społecznych, jak również aspekty kulturowe. Celem korupcji jest osiągnięcie korzyści. Jednak korzyści osobiste idą zazwyczaj w parze ze znacznymi stratami społecznymi, zmniejszeniem efektywności wykorzystania zasobów publicznych, a co za tym idzie – redukcją dóbr publicznych, które mogą być z tych zasobów uzyskane. Korupcyjne działania stają się często normą społeczną działającą jak pułapka, ponieważ obywatel zasadniczo chce postępować według norm, ale norma już sama w sobie jest korupcją. Autorzy analizują problem korupcji jako dewiacyją postawę społeczną w ramach współpracy między instytucjami. Analizując kraje regionu Środkowo-Wschodniej Europy mozna stwierdzić, że są one w sposób umiarkowany skażone korupcją, co wymaga odpowiedniej strategii narodowej wymierzonej przeciwko korupcji i stworzenia instytucjonalnych uwarunkowań dla realizacji takiej strategii. W artykule podkreśla się, że korupcją należy zajmować się nie tylko w aspekcie narodowym. Należy również budować ścisłą współpracę między krajami należącymi do tego samego systemu społeczno-ekonomicznego. Słowa kluczowe: korupcja, sektor publiczny, współpraca międzysektorowa 1 2 Dr hab. István Takács – Szent István University, Gödöllő, Hungary. Dr Pál Csapodi – State Audit Office, Budapest, Hungary. 4 István Takács, Pál Csapodi, Katalin Takács-György “Audire necesse est, corrumpare non est necesse” [Csapodi 2010] 1. Introduction The inter-sector cooperation (public administration – economy – non-profit sector) is the vital condition of sustainable social development. Those social models, which do not intend to form and sustain balanced relationships, will be sooner or later torn apart by inner tensions. The operation of socio-economic interrelations is realized through interest mechanisms, the key element of which is the man who basically follows own interests and it affects the quality of cooperation, too. The present article examines that specific feature of inter-sector cooperation which hit all the countries of the Central Eastern European region: corruption. According to several international comparative analyses, the countries of the region are similarly infected, which enables them to understand the problem and – following the exploration of reasons – utilize each other’s experiences connected with the treatment of the issues. In a sense, corruption is as old as human civilization. Corruption can be found all over the world, in all the political and economic regimes, to different degrees. [Blackburn et al., 2006] Its social precondition is the hierarchic relations in the disposal of goods, the division of labor within the society, the limited available resources and the privileges of some social groups in obtaining and distributing the related gains. The word comes from the Latin ’corruptio’ which means moral decay (wicked behavior, putridity, rottenness). [Osipian, 2009] The nuances of the expression indicate that corruption has a more wider meaning than simply offering bribe to obtain some advantages, it also includes e.g. patronage or influence. One of the possible definitions of corruption, that is’behaviour that deviates from formal duties because of private gain’ suggests that the corrupt acts are deviations from implicit and explicit norms of behavior (in legal and ethical sense). In many societies, the expansion of corruption in so wide ranges indicates that the corrupt behavior is the norm itself, in spite of the fact that it is generally condemned and not efficient. [Mishra, 2005] The first articles about the reasons and consequences of corruption were published in the 1960s. [Clarke – Xu, 2004] During the last few decades the number of publications about corruption has considerably soared. [Reinikka – Svensson, 2005] A large group of publications consists of country cross analyses and analyses of corruption perception indices, as well as studies about corruption, as function of state policies and institutional environment. Corruption is a complex social phenomenon which has – besides political and economic factors – deep rooted cultural reasons, and the social traditions significantly determine its existence and degree. This aspect should be especially underlined because if corruption is treated as deviance of economic relations only, it is not possible to reduce the degree of corruption to a socially acceptable level, which Corruption as a deviant attitude of inter-sector cooperation 5 would not harm the efficient operation of society. Those fighting against corruption should understand the nature of corruption if they want to fight efficiently. [Blackburn – Forgues-Puccio, 2009] The permanence of corruption can be explained by the fact that it soaks everything and becomes a social norm. The corrupt behaviour of individuals is able to survive and operate successfully in the long term through an evolution process (adaptation). Thus, the actions against corruption require a strategic approach, ad hoc measures cannot bring any real achievements. [Mishra, 2005] One of the main conditions of acts against corruption is the recognition of corruption itself. The political structure, as the precondition of corruption and the corruption itself cannot be measured directly. The problem of measuring is in the measuring methods. Corruption is a hidden phenonemon and its degree can be estimated primarily in an indirect way. The widespread methods (Corruption Perception Index of Transparency International, Control of Corruption as part of World Bank Institute’s Governance Indicators) are based on experts’ estimations, which also include the possibility of artificial ‘inertia’, which means that if a country is once qualified corrupt, the survey respondents will qualify it corrupt later on and it will lead to the overestimation of corruption. [Dreher et al. 2007] CPI ranks more than 150 countries according to the degree of perceivable corruption, based on experts’ evaluation and public opinion polls. The World Bank Institute has a Worldwide Governance Indicators (WGI) project, which reports aggregate and individual governance indicators for 212 countries and territories over the period 1996–2008 for six dimensions of governance: Voice and Accountability; Political Stability and Absence of Violence; Government Effectiveness; Regulatory Quality; Rule of Law; Control of Corruption. [World Bank Institute, 2010] The indicators are constructed with the help of unobserved components methodology. The six governance indicators are measured in units ranging from about -2.5 to 2.5, with higher values corresponding to better governance outcomes. [Kaufmann et al. 2008] According to a research, the Corruption Perception Index and Governance Indicators can strongly correlate. [Seligson, 2005] Other methods were also elaborated for measuring the corruption. These methods, as described below, estimate the degree of corruption not on the basis of subjective perception, but by following the economic processes: The PETS (public expenditure tracking survey) is a survey among frontline providers (schools, clinics and their staff), and local governments (politicians and public officers), complemented with central budget and other related data. The QSDS (quantitative service delivery survey) method elaborated for the estimation of corruption connected with services is a type of frontline provider survey. [Reinikka – Svensson, 2005] Instead of reported corruption perception, Olken [2009] tested a method in Indonesia on the road construction projects. He examined the perception of corruption among village citizens in the regions involved in the projects and made estimations about the missing expenditures and missing quantities. The corruption perceptions of local citizens is in weak correlation with the more objective measuring of missing quantities. 6 István Takács, Pál Csapodi, Katalin Takács-György The above examples prove that the perception of corruption based on experts’ estimations can be rather imperfect but the implementation of alternative methods has significant costs which can be undertaken occasionally (e.g. selecting the fields to be examined in the frames of supervisor programs, at project level by analyzing the risks). They cannot be applied, however, as a general method ensuring full coverage, due to their costliness and resource needs. Corruption can be perceived differently in different fields of economy and society, mostly where there are significant money flows. It is only partly connected to the public sphere, but it can also be traced in the relations between the actors of the economic life. The former, however, has more significant public weight and damage. According to the surveys, the political parties and some institutions belonging to the state administration are considered to be the most corrupt social-economic sectors and organizations [Bribe payers index 2008]. It follows from this, that only the cleaning of the key elements of the political system will lead to success in the fight against corruption. Political corruption concerns everybody. It is an expectation from the elected politicians and political parties that they work in the interest of the public, the people. Through their election they get an access to public funds and have such a power which may influence the whole society. Due to their privileged situation, the politicians or political parties can cause huge damages with their greed. The corruption risks also depend on the depth of corruption interwovenness between parties and their supporters. The transparency and accountability can considerably decrease the risks of political corruption. According to the survey of Transparency International [Global corruption barometer 2009], the state investments and construction industry, the real estate trade and development, the oil and gas industry, the heavy industry and mining are the most affected by corruption. This evaluation is a bit refined by the observation that the higher military expenditures compared to GDP and state expenditures are linked up with corruption. [Gupta et al., 2001] According to the international experience, the public procurement and privatization are especially endangered in regard to corruption. Corruption in public procurement processes distorts competition, leads to a waste of limited sources and inadequate fulfillment of basic social needs. Corruption destroys market efficiency and the utilization of development possibilities. According to some estimations, the corruption extending on whole systems may increase the costs of public procurement by 20-25% and often results – sometimes completely unnecessary – procurement of bad quality goods or services. That’s why Csáki – Gelléri [2005] suggest that corruption and its impact can be reduced by implementing appropriate decision technology solutions. Corruption was especially closely related to the issues of privatization during the great economic and social transformation of the last two decades in the Central and Eastern European region. The aims of privatization also included the establishment of national owners’ class – at any cost – and the increase of state privatization revenues – often at any cost. The home investors were preferred in the first case and the foreign investors were preferred in the second case. Corruption as a deviant attitude of inter-sector cooperation 7 The privatization is less efficient in highly corrupted systems and can lead to the development of monopolies. [Bjorvatn – Søreide, 2005] According to comparative analyses, the economy is more efficient if the civil servants are less corrupt. [Ades – di Tella, 1999; Djanilov et al., 2002] It is also proved that corruption is in positive correlation with market concentration. This market structure experience raises the question how the corruption and institutional decentralization as well as increasing decision levels are connected to each other. A lot of authors say that the government decentralization has advantages and disadvantages, but the advantages prevail. Fisman – Gatti [2002] proved a strongly negative correlation between decentralization and corruption, which justifies the supporters of decentralization. There are also some other research projects which intend to refine this opinion and prove that corruption does not always decrease by centralization, sometimes even grows by it. [Fan et al., 2009] They revealed that higher state administration salaries reduce the perceivable corruption, but there is no such relation at subnational level in general, except for enterprise licences, governmental contracts, public utility services or customs services. Lessmann – Markwardt [2010] say that efficient monitoring of bureaucracy and the competition boosting decentralization have a positive impact on the reduction of corruption. If monitoring does not work, the negative impacts, like double space (for corruption) prevail over the positive effect of decentralization and increase corruption. The revealed statistical relation is strong. The outcome is not sensitive for the measuring methods of corruption and decentralization. All the above means that the decentralization is a possible tool for decreasing corruption if the monitoring of bureaucracy does not work. If this condition does not exist, it will lead to higher level of corruption. So the existence of free press is a basic condition for the efficient struggle against corruption. The freedom of speech and freedom of press are important human rights and strong control against the mistakes made by the government. Independent media are the most powerful institution to disclose the unlawful acts of government officials. A lot of research proved clear and strong negative correlation between freedom of press and corruption. [Freille et al., 2007, Brunetti – Weder, 2003] It is very promising for the citizens of the Central-Eastern European region that the international organizations examining the freedom of press (like e.g. Freedom House) regard the press of the region free in our days. The next important question is the relation between corruption and efficiency of economy or, in other words, economic growth. The impact of bureaucratic corruption on economic growth has been debated for forty years. Some research has proved that a political regime determines the relation between corruption and economic growth. In the case of free countries, a non-linear relation was revealed between corruption and economic growth, which was not affected by the size of government expenditures. [Méndez – Sepúlveda 2006] It is also very interesting outcome that the corruption level belonging to the maximization of growth is higher than zero. The corruption in the developing countries is the consequence of government policy and the socio-economic conditions, therefore the achievement of 8 István Takács, Pál Csapodi, Katalin Takács-György optimal growth cannot be the exclusive reason for the efforts to eliminate public policy corruption. The research also confirms that corruption is more harmful to investments and growth in smaller developing countries than in the bigger ones. There is a specific Eastern-Asian paradox: greater corruption results higher growth. This can be due to the fact that bureaucrats (state clerks at different level) prefer the obtained/obtainable advantages (privileges) to bribes and kickbacks. The interwovenness between state and business sector is stronger which enhances growth (technology-demanding production). [Rock – Bonnett, 2004] The above outlined also supports the thesis that there can be an optimum level of corruption but it cannot be described without precise knowledge of the nature of anti-corruption methods. [Bose et al., 2007] So the corruption can increase or decrease the rate of growth depending on the features of the bureaucratic structure. [Evrensel, 2010] Corruption can contribute to an improvement on efficiency in a weak institution system, thus enabling the individuals to avoid the institutional deficiencies. [Aidt et al. 2008] The „grease” or bribe, which accelerates business in inefficient bureaucracies can significantly reduce the costs of waiting. Higher corruption can be beneficial in poorly governed countries, in the case of ineffective institutional systems. [Méon – Weill, 2010] Corruption also diminishes the legitimacy of government in the eyes of citizens. It leads to serious moral crises, affects political stability and it is the key element in the poor countries’ failed attempts to utilize the development possibilities. Greater state involvement increases the chances of corruption and the regulating state encourages corruption because the profit is more influenced by the government policy than by traditional management or the corporation competency. [Del Monte – Papagni, 2007] One of the key factors of powerful institutional system is the efficient legal system (legal regulations and judiciary practice) which has a threatening force by inflicting adequate punishment for corruption, together with a profound corruption disclosure (free press and investigation authority). The question is very complex. Herzfeld and Weiss [2003] used cross-sectoral and panel data models and found significant relations between legal regulations and varied levels of corruption. They revealed that more civil servants become corrupt if the efficiency of the legal system decreases, and it has a feedback effect on the expectations concerning corruption. The salaries of civil servants can have an important role in the motivating factors of corruption. Their wages come from the redistribution of centralized sources and if this money is below the socially expected level, they are more inclined to accept bribes. One of the methods of cracking down on corrupt bureaucracy, or – as Fan [2006] named it – kleptocracy is the appropriate salary paired with relatively efficient monitoring. The problem is very serious: for example the civil servants in Ukraine earn less by 24-32% than their private sector partners. The degree of corruption, however, is indicated by the fact that their consumption – on the basis of household expenditures and asset holding – is more or less the same. According to some estimations, the bribery in Ukraine is 0,9-1,2% of GDP, that is about 460-580 million USD. [Gorodnichenko – Sabirianova Peter, 2007] Corruption as a deviant attitude of inter-sector cooperation 9 A lot of studies emphasize the fact that people are basically norm followers, but it is a problem when the corrupt behavior becomes the norm. [Csermely et al., 2009] The theories of the new institutional economics stress the interest-following behavior of people. The following questions arise: (1) Which institutional arrangement has the relatively lowest cost and highest efficiency in the case of different types of coordination problems of economic processes? (2) What are the effects of problems, costs and efficiency of exchange relations on the setup and changes of institutions? The theory suggests a simple model with the following factors as an answer to the questions: institution, exchange transaction, cost and efficiency. [Menard, 2004] In this approach the institution itself is the corruption network, the subject of exchange transaction is the privilege and its cost is the bribe. The private and social efficiency, however, is separated. The private efficiency is ensured by the two actors of corruption – the civil servant and the entrepreneur – because the entrepreneur uses the privilege which often means a higher income than the actual value of services and it is financed from public funds. Considerable share from this goes back to the corrupt civil servant, who possesses public funds which enable him to realize some extra profit (like risk charge). The social efficiency, however, is deteriorating because the cost of corruption, as external impact, is internalized [De Alessi, 1980] by the entrepreneur – with the participation of corrupt civil servant – shifting it to the taxpayers and, at the same time, decreasing the value of public goods and public consumption from the taxpayers’ money. In other cases, when the amount of public spending cannot be risen, the source of transaction costs will be the wages, and not the profit: the bureaucrats receive part of the income of workers. [Evrensel, 2010] According to the agency theory of the new institutional economics, there is a principal – agent relation between the corrupting and corrupted person. It is clear that in this special principal-agent relation, where the aim of the principal is to set up an institution system for managing the bureaucracy, the measures for eliminating corruption cannot be efficient and the costs of corruption are the same as the profit achieved by them. [Del Monte – Papagni, 2007] The fight against corruption is a very important task in the developed countries because the social privileges (the elimination of possible institutional inefficiency) obtained through corruption are considerably exceeded by social losses. The case of Italy is a good example for the necessity of fight against corruption and the positive effects of these actions. The changes in the political arrangement during the former decades increased corruption and extended it even to those levels of public administration and jurisdiction) where it had not existed before. A harmful social impact has become obvious. The expansion of corruption has weakened the loyalty to civil and organized society, the feeling of corruption encouraged further corruption because the risk of punishing corruption seemed to be low. The main reason for the success of anti-corruption campaign was the shift of political regime. Institutional changes are inevitable conditions of fight against corruption. [Del Monte – Papagni, 2007] The key to success of anti-corruption programs, the best corruption prevention is not only the total transparency, but the minimization of an environmental impact which encourage violation of rules by diminishing the possibilities of avoiding punishment. [Lízal – Kocenda, 2001] 10 István Takács, Pál Csapodi, Katalin Takács-György The aim of the study is to describe the social expenses and profits of corruption in functions, to discuss possible outputs and to identify possible aims and tools of fight against corruption. 2. Material and methods Based on the results of critical review of documents, the paper identifies and classifies the arguments concerning corruption. Considering the interests of corruption actors, the principal-agent theory of institutional economics and the theory of transaction costs, the paper sets up a theoretical model for the identification of social costs of corruption and for the classification of objectives of fight against corruption in Hungary and factors influencing possible tools. The corruption perception level of Central Eastern European countries, including the so-called Visegrad 4 (V4) countries, as well as the changes of corruption was evaluated on the basis of Corruption Perception Index of 2008 by Transparency International and the 2002-2008 average and linear change (slope) of Control of Corruption index out of the World Bank Institute Governance Indicators. 3. Results On the basis of special references and own experience, the corruption-related money flows of those concerned (corrupted bureaucrat, corrupting party and society). (Relations (1)-(3)) Money flow of the bureaucrat RB = B(r,s) – FB(r) (1) Money flow of corrupting party RC = – B(r,s) + (1-α)· ΔP(c) – FC(r) (2) Money flow of taxpayers RT = IC – B(r,s) + α·ΔP(r) – J(r) + ϕB FB(r) + ϕC·FC(r) (3) where: R = revenues of participants from corruption (B: bureaucrat; C: corrupting party; T: taxpayer); IC = reduction of losses owing to corruption from the inefficiency of the system; B(r,s) = amount of bribe, which depends on the risk of discovering corruption (r), and the size of corruption (s); ΔP(c) = profit change due to corruption, which can be an extra profit or a loss; α = key to profit tax; if ΔP(c)>0; then α>0, if ΔP(c)≤0; then α=0; FB(r) = the expected loss of the bureaucrat in case of getting caught; FC(r) = the expected loss of the corrupting party in case of getting caught; J(r) = costs of disclosing corruption and jurisdiction; ϕB és ϕC = efficiency of corruption penalties, ϕ≤1. Corruption as a deviant attitude of inter-sector cooperation 11 It can be declared that the risk is worth for a bureaucrat until his expected losses (either penalty or losses due to the changing livelihood) are lower than the bribes or the profit that can be achieved through the privileges ensured by corruption. The transaction is closed with positive profit for a bribing entrepreneur, until an extra income obtained through corruption is higher than the bribe or the expected losses or penalty, weighted with risk, from getting caught. If the corruption competition is big and the bribe payer’s aims are to ensure his survival, he may commit corruption even with negative balance because his objective in this case is the minimization of losses. In regard to society, the money flow is negative in most of the cases. Except for the very special cases (see the above mentioned example of Georgia, that is the case of very weakly functioning state organization), the amount spent on the disclosure and overcoming of corruption is considerably higher than the advantages obtained through corruption. Hereinafter, the corruption infection of the Central Eastern European region is evaluated. The Corruption Perception Index (CPI) of the Transparency International is widely criticized but we use it for the comparison of the countries in the region since there is not any better and more widely used index. Based on V4 countries we drafted the CPI value of all the reported countries and the confidence interval given by the organization. It is clear from the confidence intervals that the perception of corruption in V4 countries is not significantly different, they belong to the same group (G1 on the right of Figure 1). On the left of Figure 1 it can be seen that the countries of that group are regarded moderately infected by the classifiers. It is also obvious that Group 2 (Estonia and Slovenia) are considered significantly clearer than Group 4 (Belarus, Ukraine and Russia are significantly more corrupt). Group 3 is a transition between G1 and G4. If all the examined countries are compared with the corruption level of V4 countries, the following groups of countries can be defined: – European countries with significantly lower corruption level: Denmark, Sweden, Finland, Switzerland, Iceland, Netherlands, Luxembourg, Austria, Germany, Norway, Ireland, United Kingdom, Belgium, France, Slovenia, Estonia. – Moderately corrupt European countries, not significantly different from V4 countries: Bulgaria, Croatia, Cyprus, Czech Republic, Georgia, Greece, Hungary, Italy, Latvia, Lithuania, Macedonia, Malta, Montenegro, Poland, Portugal, Romania, Serbia, Slovakia, Spain, Turkey. – European countries with significantly higher corruption: Albania, Armenia, Azerbaijan, Belarus, Bosnia-Herzegovina, Moldova, Russia, Ukraine. 12 P Csapodi, Kataliin Takács-Györgyy István Takács, Pál FIGURE 1. 1 Corrup ption Perception n Index and co orruption percep ption in Eastern Ceentral European n countries Confidence range r of V4 countrries 8,00 G2 7,00 G1 6,00 5,00 4,00 G3 3,00 2,00 G4 1,00 0,00 CZE HUN SVK POL LTU LVA EST SVN ROM M BGR BLR UKR RUS Souurce: Own construuction on the basis of Transparenccy International. Corruption C Percep ption n Index, 2008. In the followingg we introduce the t changes of ccorruption in thee countries of th he regiion (Figure 2). The T countries aree arranged into ffour plus one gro oups on the basiis of the t seven-year average a of WBII Control of Co orruption Index, the tendency of o chaanges (+ = impro oving situation; – = declining situuation) and the pace p of changes:: Co orruption as a deviiant attitude of intter-sector cooperaation – – – – – 13 relatively good g corruption situation with iimproving tendeency (EST, LVA A, SVK, SVN N) relatively good g corruption situation with ddeclining tenden ncy (CZE, HUN N, LTU, POL L) relatively bad b corruption situation s with im mproving tenden ncy (BLR, ROM M, UKR) b corruption siituation with decclining tendency (RUS) relatively bad moderate corruption c situattion with declinin ng tendency (BG GR) FIGURE 2. 2 T changing corruption situaation of Eastern The n Central Europ pean countries n to the averagee value of contrrol of corruption index in relation a the averagee pace of chang and ge (2002-2008) Souurce: own construcction on the basis of World Bank In nstitute, 2010. A declining tenddency is a warniing for V4 coun ntries (except forr Slovakia) and it drivves the attention n to the importan nce of fight again nst corruption. The fight againsst corruption is a comprehensivve task, even in a moderately in nfectted country. It can c be read from m the theoreticall model that in those moderatelly devveloped countriees, like V4 countries, social costts are higher thaan social benefitts from m corruption wh hich can hardly be b quantified oth herwise. The maapping of corrup ption n risks is an impo ortant contributiion to the successs of this processs. The State Auditt Office in Hunggary elaborated a proposal, whicch applied the in ntegrrity-based approach. [Báger et all. 2008] The worrd ’integrity’ com mes from the Latt- 14 István Takács, Pál Csapodi, Katalin Takács-György in phrase in-tangere which means ’intact’. In other words, this phrase indicates something or somebody who or which is undamaged, faultless, unscathed. It also refers to merit, incorruptibility and purity. Integrity is used for the evaluation of the performance of individuals and organizations. There are similar features in the proposal of a group of scientists, called ‘Council of the Wise’. [Csermely et al., 2009]. Comparing and agreeing with the two proposals, the main points are summarized below. In regards to the operation of the public administration system, the following should be fulfilled in order to overcome corruption: – commitment at the highest level to really fight corruption, for this – transformation of the institutional system in order to increase the efficiency of organizations dealing with the disclosure of corruption; – development and implementation of a national program against corruption; – review and modification of legal regulations concerning the areas infected with corruption (party finance, election, public procurement, support, etc.); – increasing the role of publicity and transparency: ensuring the public access to the information and research results concerning integrity, constructing public maps about corruption risks; – integrity-based development of national (internal and external) monitoring practice and public administration culture; – improving the public trust and transparency of public sector; – improving the monitoring system for public procurement and grant applications; – encouraging the transformation of public administration culture; – encouraging the participation of the public (including press and media) and civil sector; – implementation of a program to decrease corruption within health sector; – improving the efficiency of internal control of state institutions, their involvement in the fight against corruption. The above proposals were drafted in national frames, but it is obvious that corruption does not stop at the borders. The countries frequently experience that the – often multinational – companies of other countries corrupt influential civil servants in more countries at a time. (See the issues only from this region about the sale of SAAB Gripen aircrafts or the sale of Daimler government cars.) That is why it is necessary, but not enough, to develop and consequently implement adequate national strategy against corruption. The harmonization of corruption strategies and in some fields the cooperation of countries belonging to the same culture, with the same economic and social system is required for the realization of national objectives. 4. Conclusion Corruption is an economic and social phenomenon which is deeply rooted in traditions and has been existing for thousands of years. In a sense, it is part of human culture. Corruption – with some exceptions – is harmful for the whole society, even if some individuals can profit from it. Corruption as a deviant attitude of inter-sector cooperation 15 The socio-economic development and corruption are generally in reverse relation. The complex social transition from the weak, traditional country to a healthy, liberal democracy goes together with the drastic reduction of corruption. The corruption transition cannot be precisely allocated on the way, but it has a certain transition trend towards the lower level of corruption. Transition depends on culture: the transition is similar on the same cultural basis. Culture is an inferior explanatory factor of corruption. A seesaw phenomenon can be observed around the transition trend. The growth of inflation, which often goes together with economic transition, increases corruption in the short run (5-10 years) and interacts with culture. Overregulated countries with low economic freedom tend to higher corruption (interact with inflation and culture). The political consequences that can be drawn: an acceleration of transition can help to cure the disease of corruption. [Paldam, 2002] The fight against corruption is an important task. Its organizer can be the government, but high level commitment is required for the successful implementation. Inter-sectoral cooperation is needed between government, economic and civil sector. The government can contribute to the cooperation by developing the control mechanisms, improving the efficiency of disclosure, and – through jurisdiction – reducing the probability of avoiding punishment and encouraging the norm-follower behavior (at the same time eliminating corruption as a norm). The economic sector can participate in the reduction of corruption by preferring competitive neutrality, raising fair competition (market behavior) as a norm, while the civil sector, including free media, should require publicity and live with the control possibilities of publicity. According to Plutarchos (AD 45–120), ‘navigare necesse est, vivere non est’ means ‘navigating is necessary but living is not’, which phrase originated from his biography written from Gnaeus Pompeius Magnus on Greek language. The phrase became famous in Latin and it was ascribed to Pompeius. According to Csapodi (2010), it could be actualized as ‘audire necesse est, corrumpare non est necesse’, which means ’audit is necessary but bribery is not’. References Ades A., Di Tella R. (1999) Rents, Competition and Corruption. American Economic Review 89. 982–993. Aidt T., Dutta J., Sena V. (2008): Governance Regimes, Corruption and Growth: Theory and Evidence. Journal of Comparative Economics. 36. 195–220. Báger G. (Ed.), Pulay Gy., Korbuly A. (2008): Korrupciós kockázatok feltérképezése a magyar közszférában. Állami Számvevőszék Fejlesztési és Módszertani Intézet. Budapest. p. 64. Bjorvatn K., Søreide T. (2005): Corruption and Privatization. European Journal of Political Economy. 21. 903–914. Blackburn K., Bose N., Haque M.E. (2006): The Incidence and Persistence of Corruption in Economic Development. Journal of Economic Dynamics & Control. 30. 2447–2467. Blackburn K., Forgues-Puccio G.F. (2009): Why is Corruption Less Harmful in Some Countries than in Others. Journal of Economic Behavior & Organization. 72. 797–810. Bose N., Capasso S., Panini Murshid A. (2007): Threshold Effect of Corruption: Theory and Evidence. World Development. 36 (7). 1173–1191. 16 István Takács, Pál Csapodi, Katalin Takács-György Bribe payers index 2008 (2008). Transparency International. Berlin. p. 22. Brunetti A., Weder B. (2003): A free Press is Bad News for Corruption. Journal of Public Economics. 87. 1801–1824. Clarke G.R.G., Xu L.C. (2004): Privatization, Competition, and Corruption: How Characteristics of Bribe Takers and Payers Affect Bribes to Utilities. Journal of Public Economics. 88. 2067–2097. Csáki Cs., Gelléri P. (2005): Condition and Benefits of Applying Decision Technological Solutions as a Tool to Curb Corruption within the Procurement Process: The Case of Hungary. Journal of Purchasing and Supply Management. 11. 252–259. Csermely P., Fodor I., Eva J., Lámfalussy S. (2009): A korrupció ellen. (Against corruption) In: Szárny és teher. Bölcsek Tanácsa Alapítvány. Budapest. pp. 16–19., 127–215. De Alessi L. (1980): The Economics of Property Rights: A Review of the Evidence. Research in Law and Economics. 2 (l). 1-47. Del Monte A., Papagni E. (2007): The Determinants of Corruption in Italy: Regional Panel Data Analysis. European Journal of Political Economy. 23. 379–396. Dreher A., Kotsogiannis C., McCorriston S. (2007): Corruption around the World: Evidence from a Structural Model. Journal of Comparative Economics. 35. 443–466. Evrensel A.Y. (2010): Corruption, Growth, and Growth Volatility. International Review of Economics and Finance. 19. 501–514. Fan C.S., Lin C., Treisman D. (2009): Political Decentralization and Corruption: Evidence from around the World. Journal of Public Economics. 93. 14–34. Fan C.S. (2006): Kleptocracy and Corruption. Journal of Comparative Economics. 34. 57–74. Fisman R., Gatti R. (2002): Decentralization and Corruption: Evidence across Countries. Journal of Public Economics. 83. 325–345. Freille S., Haque M.E., Kneller R. (2007): A Contribution to the Empirics of Press Freedom and Corruption. European Journal of Political Economy. 23. 838–862. Global corruption barometer 2009 (2009). Transparency International. Berlin. p. 38. Global Corruption Report 2009. Corruption and the Private Sector (2009). Transparency International. Cambridge University Press. 493 p. Gorodnichenko Y., Sabirianova P.K. (2007): Public Sector Pay and Corruption: Measuring Bribery from Micro Data. Journal of Public Economics. 91. 963–991. Gupta S., de Mello L., Sharan R. (2001): Corruption and Privatization. European Journal of Political Economy. 17. 749–777. Herzfeld T., Weiss C. (2003): Corruption and Legal (In)Effectiveness: an Empirical Investigation. European Journal of Political Economy. 19. 621–632. Kaufmann D., Kraay A., Mastruzzi M. (2008): Governance Matters VII: Governance Indicators for 1996-2007. World Bank Policy Research Working Paper 4654. 105 p. Lessmann C., Markwardt G. (2010): One Size Fits all? Decentralization, Corruption, and the Monitoring of Bureaucrats. World Development. 38 (4). 631–646. Lízal L., Kocenda E. (2001): State of Corruption in Transition: Case of the Czech Republic. Emerging Markets Review. 2. 137–159. Menard C. (2004): A New Institutional Approach to Organization. In: Menard C., Shirley N. (szerk.): Handbook of New Institutional Economics. Kluwer: Boston-Dordrect. 281-318. Méndez F., Sepúlveda F. (2006): Corruption, Growth and Political Regimes: Cross Country Evidence. European Journal of Political Economy. 22. 82–98. Corruption as a deviant attitude of inter-sector cooperation 17 Méon P-G., Weill L. (2010): Is Corruption an Efficient Grease?. World Development. 38 (3). 244–259. Mishra A. (2005): Persistence of Corruption: Some Theoretical Perspectives. World Development. 34 (2). 349–358. Olken B.A. (2009): Corruption Perceptions vs. Corruption Reality. Journal of Public Economics. 93. 950–964. Osipian A.L. (2009): Corruption Hierarchies in Higher Education in the Former Soviet Bloc. International Journal of Educational Development. 29. 321–330. Paldam M. (2002): The Cross-Country Pattern of Corruption: Economics, Culture and Seesaw dynamics. European Journal of Political Economy. 18. 215–240. Reinikka R., Svensson J. (2005): Using Micro-Surveys to Measure and Explain Corruption. World Development. 34 (2). 359–370. Report on the Transparency International Global Corruption Barometer 2007. (2007). Transparency International. Berlin. 25 p. Rock M.T., Bonnett H. (2004): The Comparative Politics of Corruption: Accounting for the East Asian Paradox in Empirical Studies of Corruption, Growth and Investment. World Development. 32. (6) 999–1017. Seligson M.A. (2005): The Measurement and Impact of Corruption Victimization: Survey Evidence from Latin America. World Development. 34 (2). 381–404. World Bank Institute (2010): Governance Matters 2009. Worldwide Governance Indicators, 1996-2008. Online: http://info.worldbank.org/governance/wgi/index.asp. Download: 08.04.2010. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Andrzej F. Bocian1 MAKROEKONOMIA WZROSTU – UWARUNKOWANIA GLOBALNE Streszczenie Wzrost gospodarczy jest podstawową kategorią makroekonomiczną i wszystkie zagadnienia z nim związane są traktowane powszechnie jako najważniejsze w polityce gospodarczej. W artykule uwagę poświęcono kwestii globalizacyjnych uwarunkowań wzrostu gospodarczego, co jest zagadnieniem relatywnie nowym w ramach badań nad wzrostem. W artykule naszkicowano główne teorie i modele wzrostu, pokazując ich ewolucję na przestrzeni ostatnich kilku dekad. Zilustrowano także skalę zróżnicowania wzrostu gospodarczego między krajami, prezentując przekrojowe dane statystyczne za ostatnie lata. Skomentowano również turbulencje w gospodarkach narodowych, jakie spowodował kryzys światowy lat 2007-2009. Słowa kluczowe: wzrost gospodarczy: teorie i modele:, PKB jako miernik, zróżnicowanie dynamiki na świecie, prognozy, kryzys gospodarczy, zadłużenie gospodarek, globalizacja MACROECONOMY OF GROWTH – GLOBAL CONDITIONS Summary Economic growth is a fundamental macroeconomic category and any related issues are commonly treated as the most important problems in the economic policy. The article deals with the question of economic growth against a background of global economy which is a relatively new issue within the framework of the research into the question of economic growth. The author provides an outline of main theories and models of growth showing their evolution over the last decades. Furthermore, the article provides an illustration of the range of the economic growth diversity between countries and cross-sectional statistical data for recent years. Finally, the author comments on the economic turbulence in national economies which was due to the global crisis of the period 2007-2009. Keywords: economic growth: theories and models, GDP as a measure, the diversity of dynamics in the world, forecasts. Economic crisis. Economies debt. Globalization 1 Prof. dr hab. Andrzej F. Bocian – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania. Makroekonomia wzrostu – uwarunkowania globalne 19 1. Wzrost – problemy z definicją i pomiarem Wzrost jest definiowany najczęściej jako powiększanie fizycznych rozmiarów kapitału: rzeczowego, ludzkiego i finansowego2, a także jako rozszerzenie zdolności wytwórczych do produkcji towarów i usług. Rozszerzenie zdolności wytwórczych jest tożsame ze zwiększaniem i ulepszaniem czynników: produkcji, akumulacji kapitału, postępu technicznego, oraz z doskonaleniem ludzkich umiejętności. Wzrost charakteryzuje ilościową stronę procesów produkcyjnych. Miarą wzrostu jest wielkość produktu krajowego brutto, stanowiącą sumę nowo wytworzonych wartości dóbr i usług w danym roku. Natomiast rozwój gospodarczy – możliwy dzięki postępowi w sferze materialnej gospodarki i przeobrażeniom strukturalnym w relacjach nakładczych, a także dzięki zmianie w strukturze tworzenia i podziału produktu krajowego brutto – w swej istocie dotyczy jakościowych elementów wzrostu, które są związane z: poprawą warunków życia społeczeństwa, ochroną środowiska naturalnego, szerokim dostępem do dóbr kulturowych, nauki i oświaty, ochrony zdrowia i bezpieczeństwa.3 Wzrost przez większość ekonomistów jest uważany za najważniejszy temat ekonomii i podstawowy problem w polityce gospodarczej. Wszystkie pozostałe tematy można bez mała traktować jako uzupełniające, wyjaśniające czy tworzące warunki dla jego zaistnienia. Wzrost rozumiany jako powiększanie bogactwa i dochodów społeczeństwa jest bardzo często przyjmowany za cel działalności gospodarczej. Niejednokrotnie również jest traktowany jako miernik sprawności danego systemu gospodarczego. Wielkość i tempo wzrostu produktu krajowego brutto czy także produktu krajowego brutto na mieszkańca ma pokazywać bogactwo danego kraju i określać efektywność ekonomiczną jego gospodarki oraz dynamikę jej wzrostu. Nie można jednak pominąć faktu, że tego typu mierniki są coraz częściej krytykowane4. 2 R.J. Barro w swoim podręczniku Makroekonomia, w rozdziale zatytułowanym Wzrost gospodarczy, określa zakres, jakiego dotyczy pojęcie wzrostu gospodarczego: W tym rozdziale rozważania dotyczą trzech kluczowych czynników określających długookresowy wzrost gospodarczy: akumulacji kapitału, wzrostu liczby ludności i postępu technicznego [Barro 1997 s. 306]. 3 N. Acocella w Zasadach polityki gospodarczej formułuje to tak: Wzrost jest to zwiększenie dochodu i bogactwa materialnego kraju. Rozwój to pojęcie bardziej ogólne, zawierające zazwyczaj wzrost, ale uwzględniające również inne aspekty zmian ekonomicznych i społecznych. Rozwój pojawia się wówczas, gdy zwiększa się dobrobyt. Rozróżnienie tych pojęć jest ważne, gdyż wzrost nie zawsze oznacza rozwój, a rozwój nie zawsze oznacza wzrost [Acocella 2002 s.196]. Tym szerokim spektrum zjawisk, związanych z rozwojem na tle wzrostu gospodarczego, zajmuje się makroekonomia, co D. Romer precyzuje w następujący sposób: Makroekonomia jest to nauka o gospodarce jako całości. Zajmuje się więc najważniejszymi kwestiami ekonomii. Dlaczego jedne kraje są bogate, a inne biedne? Dlaczego kraje przeżywają wzrost? Co jest źródłem recesji i boomów? Dlaczego istnieje bezrobocie i co określa jego rozmiary? Jakie są źródła inflacji? W jaki sposób polityka państwa oddziałuje na produkcję, bezrobocie i inflację?. Por.: [Romer 2000 s. 17]. 4 Pod koniec 2009 r. na spotkaniu grupy G-20, którego tematem były przyczyny i skutki kryzysu lat 2007–2009, został powołany zespół ekonomistów (w skład którego wszedł m.in. J. Stiglitz), mający opracować metodologię obliczania nowego wskaźnika makroekonomicznego, który miałby zastąpić kategorie produktu krajowego brutto i jego pochodną PKB na mieszkańca. Warto w tym miejscu przypomnieć, że wcześniejsza krytyka PKB, jako miernika, dotyczyła zastrzeżeń, iż PKB nie obejmuje produkcji wytwarzanej w szarej strefie. To pominięcie w większości statystyk międzynarodowych zostało już usunięte. Regułą stało się doszacowywanie, w ramach rachunków narodowych wartości wytworzonych w szarej strefie. 20 Andrzej F. Bocian Produkt krajowy brutto, jako wielkość sumaryczna, reprezentuje jednocześnie – sumę wszystkich dochodów społeczeństwa, także agregat popytu krajowego i zagranicznego, w ramach popytu krajowego dzieli się na spożycie (publiczne i indywidualne) i akumulację brutto (w tym nakłady brutto na środki trwałe), jak również sumę wartości dodanej (nowo wytworzonej) w strukturze sektorowej lub działowej. Zatem, produkty krajowe brutto o tych samych rozmiarach mogą się różnić pod względem wszystkich tu wyróżnionych struktur, choć jest oczywiste, że istnieją określone związki pomiędzy, wymienionymi, elementami poszczególnych rodzajów struktur. Weźmy przykładowo strukturę dochodów, która przecież bezpośrednio wpływa na wielkość i strukturę popytu konsumpcyjnego. Krańcowa skłonność do konsumpcji jest bowiem funkcją wielkości dochodów, jak i ich dynamiki wzrostu. W 2008 r. stosunek średnich dochodów w grupie 20% osób o najwyższym poziomie dochodów do średnich dochodów w grupie 20% osób o najniższych dochodach w całej Unii Europejskiej wynosił, według Eurostatu, 5,0, zaś w Polsce 5,1. W innych krajach ta relacja ukształtowała się odpowiednio: w Czechach na poziomie – 3,4, w Bułgarii – 6,5, w Szwecji – 3,5, a w Rumunii – 7,0. Wskaźnik ten obrazuje skalę zróżnicowania dochodowego społeczeństw wymienionych krajów, a z tego wynika dalszy ciąg różnic strukturalnych. Trzeba także pamiętać, iż występują znaczne różnice między krajami, jeśli chodzi o wielkość PKB przypadającego na mieszkańca, co również generuje istotne różnice w strukturach popytu konsumpcyjnego i inwestycyjnego oraz w działowej strukturze wartości dodatkowej. W 2008 r., w wyżej wymienionych krajach, PKB przypadające na mieszkańca stanowiło w przypadku Polski 57,1% średniej unijnej, ale w Czechach już – 81,5%, natomiast w Bułgarii i Rumunii – odpowiednio: 40,1% i 41,1%, zaś w Szwecji stanowiło aż 121,4% średniej notowanej w UE. Traktat Adama Smitha zatytułowany Badania nad naturą i przyczynami bogactwa narodów, który legł u podstaw nauk ekonomicznych, po dzień dzisiejszy wskazuje główny nurt badań ekonomicznych i prawdopodobnie przez następne dekady tematyka ta będzie przedmiotem uwagi ekonomistów i polityków. Pytania, czym jest bogactwo i w jaki sposób powstaje, są odwiecznymi pytaniami stawianymi przez osoby oddane gospodarce. Jednak obecnie zmianie ulega rozłożenie akcentów w zadawanych pytaniach. Jedna ze współcześnie wydanych książek nosi tytuł Bogactwo i nędza narodów [Landes 2005]. Ten tytuł sygnalizuje najważniejszy problem współczesności – narastające zróżnicowanie ekonomiczne we współczesnym świecie. Dokonania Adama Smitha podlegają coraz to nowym interpretacjom [Zabieglik 2003]. Najczęściej A. Smith jest przedstawiany jako ekonomista, jako ojciec klasycznej ekonomii politycznej i jako autor jednego z najczęściej cytowanych zwrotów w ekonomii „niewidzialna ręka rynku”. Prezentuje się A. Smitha jako moralistę i humanistę, a także myśliciela uczulonego na problemy sprawiedliwości społecznej i prekursora budowy społeczeństwa obywatelskiego. Uznawany jest wreszcie za orędownika powstającego systemu kapitalistycznego. Zaskakujące jest odczytanie dzieł A. Smitha przez N. Chomsky’ego, który wręcz uważa A. Smitha za krytyka kapitalizmu. Próbuje także swoją interpretację idei A. Smitha rozszerzyć na krytykę współczesnego globalizmu. Na szczęście pogląd N. Chomsky’ego jest odosobniony. Makroekonomia wzrostu – uwarunkowania globalne 21 2. Modele i teorie wzrostu Teoria wzrostu gospodarczego ma długą historię za sobą i należy jej wieszczyć równie długą i burzliwą przyszłość, bowiem końca sporów nie widać, a tematów do dyskusji i zagadnień nierozpoznanych ciągle nie brakuje [Barro 1997; Romer 2000]. Dynamicznie rozwijające się procesy integracyjne i globalizacyjne powodują wydłużanie się listy tematów do rozpoznania o nowe zagadnienia. Dyskusji na temat czynników wzrostu towarzyszy dążenie do jak najlepszej ich kwantyfikacji. Do prognozowania wzrostu gospodarczego używa się coraz bardziej złożonych metod ekonometrycznych, a modele mają coraz bardziej skomplikowaną strukturę. W gospodarce dosyć trudno jest wskazać jednoznacznie czynnik, który odgrywa podstawową rolę lub decyduje o tempie wzrostu gospodarczego. Bezpieczniej jest twierdzić, że dany czynnik w analizach nie powinien być pominięty. W ciągu ostatnich dziesięcioleci XX wieku i początku XXI wieku w gospodarce światowej nastąpił, niespotykany dotąd, postęp ekonomiczny i cywilizacyjny. Zasoby materialne i intelektualne zostały zwielokrotnione i nic nie wskazuje na to, aby proces postępu został zahamowany (kryzys światowy 2007–2009 należy potraktować jako epizod w ciągłości procesu rozwoju). Mnożą się odkrycia naukowe, które nie tylko ułatwiają życie, ale także je wydłużają i pozwalają na walkę z nieuleczalnymi dotychczas chorobami, prowadzą do poznania struktury genetycznej organizmów żywych i struktury wszechświata, skracają czas potrzebny do pokonywania odległości między regionami, przyśpieszają obieg informacji itp. Postęp ten przynosi pomnażanie bogactwa, ale jest ono zlokalizowane punktowo. Na progu XXI wieku – jak nigdy dotychczas – rozpiętości w poziomie życia i zasobności w dobra pomiędzy poszczególnymi regionami, krajami czy też grupami społecznymi – są ogromne, a w niektórych przypadkach ulegają nawet powiększeniu. Niwelacja tych różnic jest mało realna, nawet na przestrzeni życia trzech-czterech pokoleń. Widać to wyraźnie na przykładzie zestawienia zawierającego wielkości produktu krajowego brutto przypadające na jednego mieszkańca w różnych krajach (por. tablica 1.). Zaprezentowane dane i relacje każą sądzić, że nierówności będą jeszcze przez wiele dziesięcioleci (jeśli nie dłużej) immanentną właściwością gospodarki światowej. Podejmowane wysiłki, mające zmniejszać dystans między poziomem życia a krajami różnych regionów, nie są w stanie skutecznie niwelować istniejących różnic. Działania krajów rozwiniętych i organizacji międzynarodowych, zmierzające do podnoszenia poziomu życia w rejonach historycznie zaniedbanych i poszkodowanych przez kataklizmy, warunki klimatyczne i wojny, są dokonywane bowiem z postępującym równolegle procesem bogacenia się społeczeństw krajów zamożnych. Wynikiem tych dwutorowo postępujących procesów jest niedostatecznie i zbyt wolno zmniejszająca się rozpiętość w wielkości PKB na mieszkańca między krajami. 22 798,97 20 288,61 22 110,82 21 256,18 22 464,47 20 571,66 Kanada Wielka Brytania Niemcy Francja Japonia Włochy 7 256,31 6 248,79 5 864,08 5 176,81 Litwa Łotwa 8 991,15 Węgry Estonia 8 795,94 Słowacja Polska 12 718,30 Czechy Kraje EU-7 27 826,60 17 617,13 USA Kraje G7 EU-27 Wyszczególnienie 1995 13 181,39 14 218,14 16 618,43 13 571,35 16 945,33 16 020,00 20 263,33 28 129,64 30 315,33 30 546,03 30 472,53 32 083,72 35 150,18 42 680,64 26 701,70 2005 17 471,33 18 093,96 20 885,57 16 370,57 18 952,71 20 370,88 24 181,96 30 515,70 33 630,70 33 563,51 34 326,15 35 512,01 38 555,24 46 629,69 29 974,39 USD 2007 14 254,65 16 542,30 17 908,19 18 072,40 18 566,85 21 244,92 24 093,27 29 109,46 32 607,87 33 678,53 34 212,32 34 618,98 38 025,32 46 380,91 29 729,29 2009 18 361,16 21 463,36 23 694,69 24 676,56 24 888,60 29 894,95 31 908,65 33 223,12 40 506,87 40 496,14 41 725,77 42 337,63 45 760,49 56 092,27 36 160,89 2015 29,4 33,3 35,5 41,2 51,0 49,9 72,2 116,8 127,5 120,7 125,5 115,2 129,4 158,0 100,0 1995 105,3 113,5 114,4 114,1 120,2 131,6 159,8 49,4 53,2 62,2 50,8 63,5 60,0 75,9 2007 58,3 60,4 69,7 54,6 63,2 68,0 80,7 101,8 112,2 112,0 114,5 118,5 128,6 155,6 100,0 2009 47,9 55,6 60,2 60,8 62,5 71,5 81,0 97,9 109,7 113,3 115,1 116,4 127,9 156,0 100,0 % EU-27 = 100 100,0 2005 Produkt krajowy brutto na mieszkańca według parytetu siły nabywczej 50,8 59,4 65,5 68,2 68,8 82,7 88,2 91,9 112,0 112,0 115,4 117,1 126,5 155,1 100,0 2015 275,4 282,1 286,6 249,1 206,5 241,5 189,4 141,5 145,2 158,4 154,7 170,6 166,8 166,7 168,8 1995=100 2009 TABLICA 1. 1 513,68 1 090,67 Chiny Indie 1 792,41 2 085,40 4 064,34 8 603,36 11 832,45 2005 2 059,51 2 582,00 5 388,45 9 892,37 14 756,90 USD 2007 2 178,88 2 940,74 6 567,00 10 513,79 14 919,96 2009 2 842,16 4 804,48 12 255,39 14 319,52 21 390,46 2015 Źródło: [International Monetary Fund, World Economic Outlook Database, April 2010]. Uwaga: dane sortowane malejąco wg PKB na mieszkańca w 2009 r. Afryka SubSaharyjska 1 209,55 6 466,11 Brazylia Region najuboższy 6 444,13 Rosja Kraje BRIC Wyszczególnienie 1995 6,9 6,2 8,6 36,7 36,6 1995 6,7 7,8 15,2 32,2 44,3 2005 6,9 8,6 18,0 33,0 49,2 2009 7,3 9,9 22,1 35,4 50,2 % EU-27 = 100 2007 7,9 13,3 33,9 39,6 59,2 2015 180,1 269,6 433,8 162,6 231,5 1995=100 2009 24 Andrzej F. Bocian Trudno przewidzieć, kiedy i w jakim zakresie zmniejszy się skala tych nierówności. Nie oznacza to jednak, że nie będziemy mieli do czynienia z przypadkami szybkiego podnoszenia się poziomu życia w niektórych krajach dotychczas zaniedbanych. W przykładowych Chinach, między rokiem 1995 a rokiem 2009, nastąpił ponad 4-krotny wzrost PKB na mieszkańca. Według prognoz MFW, produkt na mieszkańca w Chinach, w 2015 r., będzie aż ponad 8-krotnie większy niż w 1995 r., co oznacza, że podwoi się w stosunku do poziomu osiągniętego w 2009 r. Tym samym w 1995 r. PKB, przypadający na Chińczyka, stanowił zaledwie 8,6% PKB przypadającego na mieszkańca EU-27, ale już w 2009 r. – 22%, natomiast w 2015 r. – prawie 34%. W kontraście do tych danych pozostają informacje o sytuacji mieszkańców Afryki Sub-Saharyjskiej, gdzie w 1995 r. poziom KPB na mieszkańca stanowił zaledwie 6,9% PKB na mieszkańca UE-27, w 2009 r. – niewiele więcej, gdyż tylko 7,3%. Z prognoz MFW wynika, że w 2015 r. relacja ta wyniesie 7,9%. Stanowi to dowód na utrzymywanie się biegunów nędzy w globalnej gospodarce. W Polsce nie dokonał się tak spektakularny postęp, jak w Chinach, bowiem w latach 1995–2009 nastąpił tylko 2,5-krotny wzrost PKB przypadającego na Polaka, ale także w 2009 r. stopa życiowa w Polsce (mierzona PKB na mieszkańca) była 2,8 razy wyższa niż w Chinach. W 2015 r. prawdopodobnie będzie jednak już tylko 2-krotnie wyższa. Identyfikacja i kwantyfikacja czynników wzrostu oraz poszukiwanie przyczyn, które powodują, że jedne kraje mają szybszą, a inne wolniejszą dynamikę wzrostu i dobrobytu z roku na rok – zastanawiał i niepokoił badaczy poszczególnych szkół myśli ekonomicznej prawie od zawsze. Obecnie jest to tym ważniejsze, że na rozwiązanie tych kwestii niecierpliwie czekają politycy gospodarczy, próbujący szukać optymalnych ścieżek rozwojowych dla swoich krajów. Model, jako uproszczone odwzorowanie rzeczywistości, daje podstawy do weryfikacji sformułowanych hipotez, określa ramy dla budowy nowej teorii, a także umożliwia prognozy i projekcje oraz analizy symulacyjne – pokazujące wariantowo kształtowanie się badanych relacji w przyszłości. Model i modelowanie najpełniej pełnią swe funkcje przy formułowaniu polityki odpowiedzialnej za wzrost gospodarczy. Możliwości aplikacyjne modeli są także duże przy badaniu konsekwencji ogólnogospodarczych wywołanych osiąganiem określonego wzrostu. Modele wzrostu są budowane na podstawie funkcji produkcji, w której kategoria produktu jest objaśniana trzema zmiennymi: kapitałem, siłą roboczą oraz postępem technicznym lub „wiedzą”. Większość modeli wzrostu bądź makromodeli strukturalnych, które powstały w ciągu ostatnich pięćdziesięciu lat, wykorzystuje formułę funkcji produkcji [Welfe, Welfe 1996]. Modele wzrostu gospodarczego można podzielić na modele egzogeniczne i endogeniczne. Egzogeniczne modele wzrostu są nazywane także modelami neoklasycznymi lub podażowymi. W tych modelach jest przyjmowane założenie, że istniejące czynniki produkcji są w pełni wykorzystywane oraz że nie ma ograniczeń popytowych. Modele te opisują długookresowy i zrównoważony wzrost gospodarczy, którego stopa jest określona przez egzogeniczną stopę postępu technicznego. Do modeli typu egzogenicznego zalicza się modele: Solowa, Mankwina, Romera i Weila. Makroekonomia wzrostu – uwarunkowania globalne 25 W endogenicznych modelach wzrostu gospodarczego przyjmuje się, że postęp techniczny (który jest reprezentowany przez: akumulację, wiedzę naukowotechniczną i kapitał ludzki) stanowi efekt decyzji inwestycyjnych konsumentów i producentów oraz państwa. W modelach tych przyjmuje się założenie o endogenicznym charakterze stopy postępu technicznego. Model R. Solowa praktycznie leży u podstaw każdej analizy wzrostu. W modelu Solowa wyróżnia się trzy czynniki, które oddziałują na wzrost: postęp techniczny (reprezentowany przez stopę wzrostu ogólnej produktywności czynników wytwórczych), akumulację kapitału i nakłady pracy. Nakłady pracy i kapitału są mierzalne, natomiast produktywność czynników wytwórczych nie można bezpośrednio powiązać z żadnym czynnikiem produkcji. Na podstawie próbki zagregowanych danych dla USA, za lata 1909–1949, Solow próbował wyodrębnić miarę postępu technicznego. Stwierdził jednak, że miara jest „neutralna”, wobec tego, stopę wzrostu ogólnej produktywności czynników wytwórczych obliczył jako średnią ważoną stóp wzrostu produktywności kapitału i pracy [Solow 1957]. Oderwanie się od myślenia w kategoriach kanonów modelu Solowa stanowi punkt wyjścia do nowej teorii wzrostu. W ujęciach tej teorii, postęp techniczny ma charakter endogeniczny, proces inwestowania w akumulację wiedzy uznaje się za niezwykle ważny, zaś kapitał ludzki odgrywa kluczowa rolę w procesie wzrostu. Stanowi to wyjście poza sferę realną w relacjach przyczynowo-skutkowych opisujących równanie wzrostu oraz zawiera poszerzoną interpretację kapitału o kapitał ludzki [Romer 2000]. Rola kapitału niematerialnego (intelektualnego) w nowej gospodarce – w której decydującą rolę odgrywa wiedza – tworzy ważny przyczynek do dyskusji o czynnikach wzrostu. Oznacza to, że kapitał ludzki reprezentowany przez: wiedzę, doświadczenie, umiejętność kreatywnego myślenia i działania, zdolność do współpracy jest czynnikiem determinującym dynamikę wzrostu. Oczywiście – jeżeli rozpatruje się problem z punktu widzenia makroekonomicznego – kapitał ten musi być związany z różnymi strukturami wytwórczymi, a szerzej, z określoną strukturą gospodarczą. Powyższe procesy należy zatem postrzegać w kontekście zmian dokonujących się w strukturach gospodarczych, a przede wszystkim w strukturze tworzenia produktu narodowego (zmiana proporcji udziału: rolnictwa, przemysłu i sfery usług w wytwarzaniu PKB) i w strukturach zatrudnienia. W ramach zmian sektorowej struktury tworzenia produktu narodowego następują obecnie przekształcenia struktury wytwórczości w ramach poszczególnych sektorów. W sektorze drugim – przemysłowym – następuje zmiana proporcji na rzecz przemysłów nowoczesnych, nasyconych myślą techniczną. Ewolucja sektora trzeciego polega zaś przede wszystkim na zwiększaniu udziału usług związanych z generowaniem i przekazem informacji, a także związanych z sektorem bankowofinansowym. Model Fishera-Clarka rozpatruje problemy wzrostu gospodarczego w ramach trzech sektorów. Stan rozwoju poszczególnych sektorów świadczy o etapie rozwojowym, na którym znajduje się dana gospodarka. Rozwinięty trzeci sektor mają gospodarki: o wysokim dochodzie, bogate, najbardziej rozwinięte. Wiedzę i kapitał intelektualny uznaje się bezsprzecznie za czynnik decydujący o możliwościach rozwojowych kraju. Wiedza staje się zasobem, którego wartość rośnie wraz z „użyciem”. Aby przedsiębiorstwo mogło skutecznie działać w struktu- 26 Andrzej F. Bocian rach globalnego rynku, musi być konkurencyjne. Konkurencyjność zaś nie jest funkcją wielkości kapitału czy też rozmiarów wytwarzanej produkcji, lecz jej faktycznym źródłem są nowe produkty, sztuka marketingu itp., a wszystko to może być pomnażane dzięki nowym pomysłom i konstrukcjom powstającym na bazie rozwijającej się wiedzy. Tradycyjna funkcja produkcji pozwalała na osiąganie wzrostu, dysponując tylko kapitałem i pracą. Funkcja produkcji, uwzględniająca kapitał wiedzy i umiejętności, wskazuje, że ekonomiki, dysponujące skromnymi zasobami kapitałowymi, mają także szansę na rozwój. Podstawowym warunkiem jest jednak nowoczesność gospodarki i jej łatwa adaptacyjność do zmian. Problemy wzrostu należy rozpatrywać od strony czynników go generujących, aby po ich identyfikacji móc wybrać najefektywniejszy zestaw narzędzi polityki ekonomicznej stymulujących wzrost gospodarczy. Tę rolę dobrze wypełniają wszystkie ujęcia modelowe opisujące wzrost jako funkcję wyróżnionych czynników. Należy tu wspomnieć o modelach wzrostu takich twórców, jak: R.F. Harrod, E.D. Domar, J.R. Hicks, L.R. Kleine, P.A. Samuelson, J. Timbergen i W. Leontief, które to modele w większości powstały w latach sześćdziesiątych XX wieku. Model Harroda jest jednosektorowym modelem popytowym. Harrod, wychodząc z keynesowskiej zależności, że inwestycje równają się oszczędnościom, wyprowadza zależność tempa wzrostu od ilorazu stopy oszczędności i współczynnika kapitałochłonności. [Landreth, Colander 1998] Model Domara to model popytowo-podażowy, w którym strona popytowa jest reprezentowana przez przyrost nakładów inwestycyjnych i mnożnik inwestycyjny, a strona podażowa – przez ogólną sumę nakładów inwestycyjnych i potencjalny współczynnik produkcyjności inwestycji. Model wyznacza tempo powiększania nakładów inwestycyjnych jako iloczyn mnożnika inwestycyjnego i potencjalnego współczynnika produktywności inwestycji. [Domar 1962] Modele: Kleine‘a, Timbergena i Leontiefa są modelami sektorowymi. Reprezentują one szeroką rodzinę modeli makroekonomicznych budowanych specjalnie dla opracowywania programów i prognoz rozwoju gospodarczego [Barteczko, Bocian 2008]. Podejście popytowe jest rekomendowane przez ekonomię nurtu keynesowskiego. J. M. Keynes podkreślił znaczenie zagregowanego popytu w wahaniach makroekonomicznych. Natomiast podejście podażowe jest proponowane przez ekonomię klasyczną i ekonomię nurtu liberalnego. Powstanie teorii J.M. Keynesa w latach trzydziestych XX wieku, w okresie wielkiego kryzysu światowego, dało początek makroekonomii i stworzyło teoretyczne podstawy polityki interwencjonizmu państwowego w gospodarce konkurencyjnej. [Keynes 1985] J.M. Keynes zakwestionował mechanizmy samoregulacji rynkowej, które miałyby zapewnić stan równowagi na rynkach cząstkowych. Stąd konieczność ingerencji państwa w procesy gospodarcze i pełnienia przez państwo roli stabilizacyjnej. Stan nierównowagi – dotyczący równoważenia poziomu oszczędności i poziomu inwestycji – jest związany z pojęciem krańcowej skłonności do konsumpcji (która jest relacją przyrostu konsumpcji do przyrostu dochodów). Stały wzrost dochodów na mieszkańca wywołuje zmniejszanie się psychologicznej skłonności do konsumpcji – Makroekonomia wzrostu – uwarunkowania globalne 27 w ten sposób następuje szybszy wzrost oszczędności niż konsumpcji, a gdy w gospodarce występuje nadmiar kapitału – wówczas nie wszystkie oszczędności przekształcają się w inwestycje. W długim okresie krańcowa rentowność kapitału jest odwrotnie proporcjonalna do ilości kapitału zainwestowanego. W długim czasie prawidłowością jest także zmniejszanie się krańcowej rentowności kapitału, co powoduje, że występuje stan stałej przewagi oszczędności nad inwestycjami, który prowadzi do długofalowej recesji i bezrobocia. Szkoła keynesowska w swojej działalności położyła nacisk na analizę agregatową popytu globalnego. Zwiększenie popytu globalnego przyśpiesza tempo wzrostu i ogranicza bezrobocie. Polityka gospodarcza, skierowana na pobudzenie wzrostu globalnych wydatków, doprowadza do wzrostu popytu konsumpcyjnego, następnie stopy inwestycji oraz przyrostu popytu efektywnego i wzrostu zatrudnienia, co w efekcie powoduje rozwój gospodarczy. Państwo steruje globalnym popytem, wykorzystując narzędzia polityki fiskalno-budżetowej i polityki pieniężnej. W zestawie narzędzi polityki gospodarczej, proponowanych przez keynesistów, można znaleźć między innymi: – progresję skali podatkowej (krańcowa skłonność do konsumpcji jest większa przy niższych dochodach – mniejsza zaś przy wyższych dochodach); – zasiłki i świadczenia społeczne dla bezrobotnych i niżej uposażonych; – ulgi podatkowe związane z działalnością inwestycyjną; – inwestycje i roboty publiczne. Nurty ekonomii liberalnej w wolnym rynku i ograniczeniu wpływu państwa na gospodarkę upatrują główne źródło osiągania stabilności we wzroście. Monetaryści uważają, że gospodarka jest stabilna w długim okresie, jeśli państwo nie zakłóca funkcjonowania rynku, a w polityce gospodarczej decydującą rolę spełnia polityka pieniężna. Głównym celem polityki gospodarczej powinno być ograniczanie inflacji i zapewnienie stabilności cen. M. Friedman [Landreth, Colander 1998], najbardziej znany przedstawiciel kierunku monetarystycznego, uważa, że aktywność państwa powinna dotyczyć: – ochrony i umocnienia wolnego społeczeństwa; – zapewnienia bezpieczeństwa wewnętrznego i zewnętrznego; – umocnienia zasad gospodarki wolnorynkowej; – opieki nad jednostkami nieprzystosowanymi do życia społecznego. Przedstawiciele kierunku ekonomii racjonalnych oczekiwań (R. Lucas, G.S. Becker i inni) zakładają, że ludzie formułują swoje oczekiwania co do przebiegu procesów ekonomicznych, opierając się na dostępnej wiedzy i że nie popełniają w swych decyzjach systematycznych błędów. Polityka gospodarcza powinna uwzględniać fakt, że jednostki potrafią zrozumieć intencje realizatorów polityki i odpowiednio szybko zareagować. Zakłócenia gospodarcze są równoważone przez reakcje dostosowawcze uczestników rynku. Rola polityki gospodarczej jest ograniczona, ponieważ podmioty gospodarcze podejmują decyzje na podstawie wielkości realnych i nie dokonują błędnych wyborów przy formułowaniu oczekiwań dotyczących kształtowania przyszłych procesów gospodarczych. Polityka gospodarcza powinna zatem utrzymywać stabilne ceny oraz stymulować podażową stronę gospodarki. 28 Andrzej F. Bocian W nowej szkole austriackiej (najwybitniejszy przedstawiciel – F. Von Hayek [von Hayek 2006]) są formułowane następujące oceny: – procesy gospodarcze charakteryzują się dużą niepewnością i stałymi zakłóceniami równowagi; – rynek jest najlepszym koordynatorem procesów gospodarczych; – rynek umożliwia pozyskiwanie informacji przez mechanizm cenowy oraz dokonuje jej sortowania i selekcji; – dla realizacji tych procesów jest niezbędny swobodny mechanizm cenowy; – procesy gospodarcze mają związek z procesami uczenia się i gromadzenia wiedzy. Przedstawiciele tej szkoły kładą nacisk na politykę pieniężną jako na ważny czynnik stymulowania wzrostu i kształtowania równowagi gospodarczej. Przedstawiciele szkoły ekonomii podaży, nawiązując do ekonomii klasycznej, przyjmują, że funkcjonowanie systemu gospodarczego w długim okresie charakteryzuje się stabilnością oraz, że w życiu społeczno-gospodarczym rola jednostki ma decydujące znaczenie. W celu emitowania procesu wzrostu i rozwoju gospodarczego należy do minimum ograniczyć rolę państwa. Polityka gospodarcza (dzięki stosowaniu narzędzi właściwych dla polityk: monetarnej i fiskalnej) powinna skupiać się na pobudzaniu strony podażowej procesów gospodarczych przez zwiększenie wydajności poszczególnych czynników produkcji. Wzrost gospodarczy, jako syntetyczny wymiar funkcjonowania całego systemu gospodarczego, może być uznawany za miarę skuteczności prowadzenia polityki gospodarczej. I tak najczęściej jest to interpretowane. Kraj, który cechuje się szybkim tempem wzrostu i rosnącą wielkością PKB na mieszkańca, jest oceniany jako kraj, w którym jest prowadzona dobra polityka gospodarcza. W takiej gospodarce z reguły efektywnie są wykorzystywane posiadane czynniki produkcji. 3. Globalny wymiar wzrostu Światowy kryzys 2007–2009 spowodował zawirowanie nie tylko we wszystkich gospodarkach na świecie, ale również wykazał luki w teorii ekonomii oraz ograniczoność prognozowania i modelowania, nawet w krótkim horyzoncie czasowym. Wydarzenia ostatnich dwóch lat nasiliły również dyskusje między zwolennikami i przeciwnikami zjawisk globalizacyjnych zachodzących w gospodarce światowej. Kryzys wyraźnie pomnożył liczbę wątpliwości i pytań, na które muszą znaleźć odpowiedź wszyscy uczestnicy: rynku, polityki i świata nauki. W tym ogólnym chaosie myśli można natknąć się na różnorodne opinie. Spora grupa komentatorów życia gospodarczego twierdzi, że to globalizacja, jako spontanicznie rozwijające się od lat zjawisko gospodarcze, spowodowała erupcję kryzysową, inni twierdzą zaś, że pazerność korporacji transnarodowych i banków przez niekontrolowane działania w cyberprzestrzeni wygenerowała najpierw kryzys finansowy, który przerodził się w kryzys obejmujący całą sferę realną gospodarki światowej. Można także spotkać się ze zdaniem, że kryzys stanowi podzwonne dla globalizacji, a zarazem jest dowodem bankructwa doktryny neoliberalnej [Kołodko 2009; Żyżyński 2009]. Ten pogląd już tylko niewielki krok dzieli od nawoływań o powrót do interwencjonizmu. Jedno jest Makroekonomia wzrostu – uwarunkowania globalne 29 jednak pewne, że procesy globalizacyjne, pod wpływem ujawnionych w związku z kryzysem zjawisk, będą musiały ewoluować. Globalizacja gospodarki światowej jest procesem związanym z tworzeniem sieci powiązań i współzależności między krajami i regionami – zarówno w sferze gospodarczej, jak i w sferze technologicznej i kulturowej, ale przede wszystkim w obszarze relacji finansowych i handlowych. Wiąże się to z rosnącymi przepływami dóbr i usług, kapitału rzeczowego i kapitału finansowego, ale także kapitału ludzkiego [Scholie; Szymański 2005; Friedman 2006; Mankiw 2008; Borowski 2008; Polak 2009]. Tego typu przekształcanie się życia gospodarczego, społecznego i politycznego we wszystkich krajach globu trwa już od ponad trzydziestu lat i stało się możliwe dzięki: – rewolucji naukowo-technologicznej; – burzliwemu rozwojowi nowych technologii informatycznych, głównie Internetu, który umożliwia nie tylko błyskawiczny dostęp do informacji, ale także szybki przesył informacji; – rozwojowi różnych form transportu (ludzi i towarów); – liberalizacji wymiany handlowej; – deregulacji rynków finansowych. O bogactwie danego kraju stopniowo przestają decydować zasoby naturalne przypisane danej ziemi, ale na plan pierwszy wysuwa się kapitał intelektualny i wiedza. Te wartości, w ramach globalnej gospodarki, zatraciły narodowość, stając się mobilnym elementem bogacenia jednostki i narodów. Również kapitał stopniowo zatraca narodowość na globalnym ryku finansowym, zapadają stanowiące decyduje o rozmiarach i kierunkach przepływów międzynarodowych kapitałów. Podmioty funkcjonujące w sferze finansów z czasem okazały się być ponadnarodowymi, faktycznymi centrami władzy gospodarczej. Podmiotami globalizacji są, bez wątpienia, korporacje transnarodowe, ale także różne organizacje międzynarodowe, takie jak: Bank Światowy, Międzynarodowy Fundusz Walutowy, Światowa Organizacja Handlu czy OECD. Udział 200 najpotężniejszych Wielkich Korporacji Transnarodowych (WKT) w wytwarzaniu światowego produktu szacuje się obecnie na 25%-30%. Jest to udział większy niż udział gospodarki amerykańskiej w tworzeniu tego produktu (w 2009 r. wynosił on 20,5%). Procesy globalizacyjne nie tylko są indukowane przez działalność korporacji transnarodowych, ale również są przez nie na bieżąco zabezpieczane i sterowane. Wydaje się, że sposób działania tych korporacji ogranicza funkcjonowanie rynku, że najważniejsze decyzje nie zapadają w wyniku równoważenia się sił rynkowych, lecz stanowią wynik negocjacji i gry wielkich partnerów biznesowych. Fakt ten powoduje, że utrwala się nierównowaga w podziale bogactwa światowego, a z niewątpliwych dobrodziejstw globalizacji korzysta zaledwie kilkadziesiąt z 183 krajów świata, notowanych w statystyce Międzynarodowego Funduszu Walutowego. Kraje obszarów ubogich nie znajdują się zatem na liście beneficjentów globalizacji. W dalszym ciągu jest znaczny dystans między dobrobytem mieszkańców różnych regionów świata. Wszystko wskazuje na to, że świat jest skazany na globalizację, choć z pewnością zmodyfikowaną pod wpływem doświadczeń bieżącego kryzysu. Rodzi się zatem pytanie o ocenę jej udziału w kreowaniu światowego wzrostu gospodarczego i wzrostu poszczególnych gospodarek narodowych. Na tak sformułowane pytanie, w chwili 30 Andrzej F. Bocian n o cho oć wiadomo, jakki jest udział po oobeecnej, nie ma jeszcze gotowej odpowiedzi, szczzególnych krajów w tworzeniu światowego PK KB i że w tym względzie Stan ny Zjednoczone zajmuują stale pierwszzą pozycję i w peerspektywie kilkuu najbliższych laat ż innej gosp podarce (por.: wykres w 1.). Jednakknie oddadzą palmy pierwszeństwa żadnej s udziału gospodarki g amerykańskiej w tw worzeniu światow wego PKB już siię że spadek zaryysował i wydaje się być nieuunikniony, wobeec ekspansji kraajów azjatyckich h. Według najnowszejj oceny (z kwietn nia 2010 r.) Międzynarodowego Funduszu Waluuwego, udział gosspodarki amerykkańskiej w tworrzeniu PKB zm mniejszy się z do d tow 18,33% w 2015 r., po odczas gdy w 1995 r. wynosił 23%, a w 2005 r. 22,4%. 2 Miejsce zwalniaane przez gospo odarkę amerykaańską zaczynają zajmować dynaamiccznie rozwijającee się kraje nowe. Do tej grupy naależą kraje Azji, a w szczególnoścci Chiiny. Nie ulega wąątpliwości, że krryzys wpłynie na ukształtowanie się nowego świaatow wego ładu i że rynki r wschodzącce będą beneficjjentami tego pro ocesu. Natomiasst pew wne obszary glob bu, tradycyjnie zaniedbane, stale pozostają na ob brzeżach wzrostuu. Pro ognozy nie wskazzują, aby w krajaach afrykańskich nastąpiła, chociaaż mała, popraw wa warrunków życia, ab by dokonał się, przynajmniej p niezznaczny skok cyw wilizacyjny. WYKRES 1. 1 U Udział wybranycch krajów w św wiatowym PKB (według siły s nabywczej)) – w % * Czzechy, Estonia, Liitwa, Łotwa, Polskka, Słowacja, Węgrry Źró ódło: [Internationaal Monetary Fund, World Economic Outlook Databasse 2010]. Makroekonomia wzrostu – uwarunkowania globalne 31 Z punktu widzenia bieżącej sytuacji tworzenia się nowego układu sił gospodarczych w świecie, istotna jest obserwacja rosnącego udziału krajów grupy BRIC. Tym skrótem określa się kraje z rynków wschodzących – Brazylię, Rosję, Indie i Chiny. Kraje BRIC w 2009 r. wytworzyły 23,5% światowego produktu, a w 2015 r. ich udział ma wzrosnąć – już do 28,8%. Warto zwrócić uwagę, że w 1995 r. kraje te wytworzyły 15% światowego PKB. W 2007 r. 24,6% przyrostu światowego PKB powstało w krajach BRIC5, a w kryzysowym roku 2008 – już 32,2%, co unaocznia rolę tych krajów w rozwoju gospodarki światowej. MFW ocenia, że w 2015 r. światowy przyrost PKB powstanie w 38,2% w krajach BRIC. Załamanie gospodarcze dotknęło te kraje w znacznie mniejszym stopniu niż kraje wysoko rozwinięte. W 2009 r. obniżka światowego PKB tylko w 2,3% stała się udziałem krajów grupy BRIC. Obserwacje dotyczące dotychczasowego przebiegu procesów globalizacji oraz doświadczenia wynikające z analizy światowego kryzysu gospodarczego, co gorsza związanego z silnym kryzysem zaufania do globalizacji, skłaniają do stwierdzenia, że globalnie znaczy na skalę ponadnarodową, bez granic i barier, ale zgodnie z prawami rynku i ekonomii, gdyż „ekonomia nie kłamie”. 4. Perspektywy wzrostu gospodarki światowej Ostatnie dwa-trzy lata były trudną próbą dla gospodarki światowej, przy czym perspektywy na najbliższe lata są przedmiotem wielu kontrowersji. Wydarzenia tych lat stanowiły dla nauki ekonomii próbę przekraczającą jej możliwości analityczne. Mam na myśli: dążenie do zdiagnozowania przyczyn kryzysu, opracowanie skutecznej terapii oraz dokonanie projekcji sytuacji pokryzysowej. Wielość poglądów i propozycji wykorzystania instrumentarium antykryzysowego wydaje się być większa niż liczba kierunków i szkół współczesnej myśli ekonomicznej. Idea ekonomii głównego nurtu powinna zatem poszukiwać redefinicji celów oraz sposobów i narzędzi ich realizacji, aby móc objąć całą złożoność świata globalnego. Rzeczywistym kontekstem wzrostu gospodarczego stała się globalizacja i to stwierdzenie nie znajduje, jak dotychczas, alternatywy. To tworzy wyzwanie metodologiczne związane z kwantyfikacją wpływu procesów globalizacyjnych na pomnażanie bogactwa narodów. Wydaje się, że temu zadaniu naukowcy jeszcze długo nie będą w stanie sprostać. Przyczyna braku jednoznacznej odpowiedzi leży jednak nie tylko po stronie zawiłości dokonującego się procesu globalizacji, ale także po stronie samego zjawiska wzrostu gospodarczego, o czym wcześniej była już mowa. Bez wątpienia, coraz większa jest wiedza na temat mechanizmów i czynników pobudzających wzrost, lecz, niestety, nie jest to wiedza pełna [Frydman 2009]. Międzynarodowy Fundusz Walutowy co pół roku (w kwietniu i październiku) ujawnia swoje diagnozy stanu obecnego i prognozy dotyczące przyszłego kształtowania się dynamiki wzrostu większości krajów świata. Najnowsze szacunki, dotyczą- 5 W celu porównania, warto wspomnieć, że udział krajów BRIC w przyroście światowego PKB wyniósł w 1995 r. tylko 14,4%. 32 Andrzej F. Bocian ce dynamiki PKB6 w 2009 r. oraz prognozy do roku 2015, zostały opublikowane w kwietniu 2010 r. Wynika z nich, że już w 2010 r. światowy produkt osiągnie wzrost na stosunkowo wysokim poziomie 4,2%, co nastąpi po jednorocznym spadku PKB o 0,6% w 2009 r. Spośród 14 krajów, których gospodarki mają największy wkład do światowego PKB7, w większości z nich, po spadku PKB w 2009 r., nastąpi wzrost już w 2010 r. (por.: tablica 2.). Rok 2009 stał się probierzem dynamizmu rozwojowego krajów i skuteczności prowadzonej przez nie polityki gospodarczej. Spośród krajów europejskich jedynie w Polsce PKB wzrosło8. Wśród czternastu największych gospodarek tylko w trzech krajach azjatyckich (Chiny, Indie i Korea) w 2009 r. nie zanotowano spadku PKB. Co więcej, prognozy MFW z kwietnia 2010 r. wskazują, że dobra sytuacja w tych krajach, a zwłaszcza dotyczy to: Chin i Indii, będzie się utrzymywała w horyzoncie najbliższych sześciu lat. Prognozowane tempo wzrostu gospodarek, wymienionych trzech, krajów spowoduje wzrost ich łącznego udziału w światowym PKB z 19,5% w 2009 r. do 25% w 2015 r., co siłą rzeczy ograniczy wpływ pozostałych dużych gospodarek na wielkość produktu światowego. Spełnienie się, powyższych, prognoz do 2015 r., dotyczących dynamiki PKB zarówno w Chinach, jak i ogólnie na świecie oraz zakładających wolne tempo wzrostu gospodarek krajów Unii Europejskiej, jak i krajów Grupy G7 oraz Stanów Zjednoczonych, będących dotychczas światową potęgą gospodarczą, której podstawy zostały mocno zachwiane na skutek kryzysu finansowego przełomu lat 2007–2008, może oznaczać znaczne przewartościowanie w ciągu kilku lat sił w gospodarce światowej. 6 Trzeba zaznaczyć, że MFW nie ogranicza się jedynie do prognoz w zakresie PKB, ale także wypowiada się na temat kształtowania się w przyszłości m.in.: inflacji, bilansu płatniczego, ludności. 7 Czternaście krajów wyróżnionych w tablicy 2. wytworzyło w 2009 r. aż 70,5% światowego PKB (w 1995 r. – 71,6%). Polska z udziałem prawie na poziomie 1% zajmowała 21. miejsce, a Czechy – mimo małej gospodarki – były na 42. miejscu, mając 0,4%-owy wkład do światowego PKB. W 2009 r. 169 krajów świata miało zaledwie 29,5%-owy udział w produkcie światowym. 8 Według MFW, o 1,7%, ale najnowsze dane, opublikowane 31 maja 2010 r. przez GUS, wskazują, że ten wzrost był nieco wyższy, czyli 1,8%. 100,0 20,46 12,52 6,00 5,06 4,03 3,10 3,05 3,03 2,87 2,51 2,09 1,96 1,94 1,85 0,98 0,37 Udział w światowym PKB w % 2009 4,5 3,1 10,4 1,9 9,2 0,7 2,2 6,4 1,9 3,2 0,7 3,2 3,6 4,0 3,0 3,6 6,3 2005 5,1 2,7 11,6 2,0 9,8 3,2 2,9 7,7 2,4 4,0 2,0 4,9 4,0 5,2 2,9 6,2 6,8 2006 5,2 2,1 13,0 2,4 9,4 2,5 2,6 8,1 2,3 6,1 1,5 3,3 3,6 5,1 2,5 6,8 6,1 2007 3,0 0,4 9,6 -1,2 7,3 1,2 0,5 5,6 0,3 5,1 -1,3 1,5 0,9 2,3 0,4 5,0 2,5 2008 2010 2011 -0,6 -2,4 8,7 -5,2 5,7 -5,0 -4,9 -7,9 -2,2 -0,2 -5,0 -6,5 -3,6 0,2 -2,6 1,7 -4,3 4,2 3,1 10,0 1,9 8,8 1,2 1,3 4,0 1,5 5,5 0,8 4,2 -0,4 4,5 3,1 2,7 1,7 4,3 2,6 9,9 2,0 8,4 1,7 2,5 3,3 1,8 4,1 1,2 4,5 0,9 5,0 3,2 3,2 2,6 Tempo zmian w % 2009 Źródło: [International Monetary Fund, World Economic Outlook Database, April 2010]. Uwaga: Kolejność krajów, według udziału w światowym PKB w 2009 r. Świat (183 kraje) Stany Zjednoczone Chiny Japonia Indie Niemcy Wielka Brytania Rosja Francja Brazylia Włochy Meksyk Hiszpania Korea Kanada Polska Czechy Wyszczególnienie 4,5 2,4 9,8 2,0 8,0 2,0 2,9 3,7 2,0 4,1 1,5 5,2 1,5 4,1 3,0 3,9 3,5 2012 Dynamika wzrostu PKB w wybranych krajach (ceny stałe, poprzedni rok = 100) 4,5 2,5 9,7 1,8 8,1 1,8 2,8 4,1 2,1 4,1 1,4 4,9 1,6 4,1 2,6 4,0 3,5 2013 4,6 2,4 9,6 1,8 8,1 1,6 2,7 4,4 2,2 4,1 1,3 4,4 1,8 4,0 2,4 4,0 3,5 2014 4,6 2,4 9,5 1,7 8,1 1,2 2,5 5,0 2,2 4,1 1,3 4,0 1,7 4,0 2,1 4,0 3,5 2015 100,0 18,28 16,92 5,28 6,12 3,44 2,81 2,97 2,65 2,77 2,12 2,16 1,64 1,98 1,68 0,95 0,34 Udział w światowym PKB w % 2015 TABLICA 2. 34 Andrzej F. Bocian Zarówno przebieg, jak i kierunek tych zmian jest trudny do przewidzenia – ważną rolę pełnią tu zarówno czynniki: strukturalne, instytucjonalne, polityczne i społeczne, jak i kulturowe i cywilizacyjne, ale również poziom rozwoju gospodarczego, jakość kapitału ludzkiego oraz stratyfikacja dochodowa społeczeństwa i struktura konsumpcji. Bez wątpienia, gospodarka światowa znalazła się w zaklętym labiryncie narodowych i globalnych uwikłań finansowych, których oddziaływania na sferę realną są odkrywane od kilku miesięcy w różnych krajach prawie każdego dnia. Polska, która jako jedyna gospodarka unijna w 2009 r. osiągnęła wzrost, w najbliższych latach będzie stopniowo przyśpieszać i w 2012 r. może osiągać wzrost PKB na poziomie 3%, by w ciągu kolejnych trzech lat rozwijać się 4% rocznie. Gospodarka Polski ma rozwinięty rynek wewnętrzny, efektywnie działający sektor małych i średnich przedsiębiorstw, konkurencyjny – w miarę zdywersyfikowany – eksport, stosunkowo mało zadłużone gospodarstwa domowe i zapewniony napływ środków unijnych. Jednocześnie gospodarka polska, będąc silnie sprzężoną z rynkiem europejskim, narażona jest na wstrząsy generowane w gospodarkach Unii Europejskiej, co wpływa ograniczająco na jej tempo wzrostu. Niezadowalająco jednak kształtują się w gospodarce polskiej wskaźniki fiskalne (deficyt budżetowy, dług publiczny, wielkość wydatków sztywnych) oraz relacje z rynku pracy (współczynnik aktywności zawodowej, a także współczynniki obciążenia ogólnego i obciążenia osobami w wieku poprodukcyjnym). W 2009 r. relacja długu publicznego do PKB osiągnęła poziom 51%9. Taki wskaźnik plasuje Polskę w Unii Europejskiej wprawdzie na odległej 15. pozycji, daleko za Włochami, które legitymują się wskaźnikiem 115,8% (czyli wartość ich długu publicznego przekroczyła o prawie 16% wartość produktu krajowego), ale jest to relacja, która powinna budzić uzasadniony niepokój (por.: wykres 2 A.). Spośród krajów Europy ŚrodkowoWschodniej w 2009 r. tylko Węgry miały tę relację gorszą – na poziomie 78,3%. Relacja długu publicznego do PKB w pozostałych krajach tego obszaru była nie wyższa niż 36,1% (Łotwa), a w Estonii wynosiła zaledwie 7,2% (por.: wykres 2 B.). Większość krajów świata dotyczy problem długu publicznego, a zwłaszcza dynamika wzrostu jego relacji do PKB. Staje się to głównym problemem gospodarki światowej, o którym coraz głośniej w mediach i w dyskusjach ekonomistów i polityków. Relacja światowego długu do światowego produktu w 2009 r. wyniosła 80%, a w wielu krajach przekracza 100% – co jest uznawane za granicę bezpieczeństwa ekonomicznego. Eksplozja długu publicznego w skali globalnej może wpłynąć na silne spowolnienie światowego wzrostu gospodarczego w najbliższej dekadzie. Problemy gospodarki greckiej z ostatnich miesięcy i krajów grupy PIIGS10 oraz zadawniona sytuacja Japonii, której dług publiczny od wielu lat przekracza PKB (w 2009 r. – aż ponad 2-krotnie), dodatkowo, wzmacniają opinię o czekającym gospodarkę spowolnieniu i możliwej fali nowego kryzysu gospodarki światowej. 9 W 2004 r. Polska została przyjęta do Unii Europejskiej z długiem publicznym w relacji do PKB na poziomie 45,7% PKB. 10 Są to: Portugalia, Włochy, Irlandia, Grecja i Hiszpania. Makroekonomia wzrostu – uwarunkowania globalne 35 WYKRES 2. Dług publiczny jako procent PKB w krajach Unii Europejskiej w 2009 r. [%] 2A. O wysokiej relacji długu do PKB Źródło: [Eurostat 2010]. 36 Andrzej F. Bocian 2B. O niskiej relacji długu do PKB Źródło: [Eurostat 2010]. Bank Rozliczeń Międzynarodowych11 opublikował w marcu 2010 r. raport na temat światowego długu publicznego [Cecchetti, Mohanty, Zampolli 2010]. Gwałtowny wzrost długu publicznego w wielu gospodarkach narodowych, uznawanych dotychczas za silne, został zauważony na początku 2010 r. Wzrost długu jest skutkiem programów pomocowych udzielanych sektorowi prywatnemu podczas kryzysu i zamianą tego zadłużenia na dług publiczny, ale jest także efektem nadmiernych wydatków publicznych realizowanych przez wiele krajów w ciągu ostatnich kilku lat (dotyczy to głównie Europy). Dynamika narastania długu jest także związana z sytuacją demograficzną – starzejące się społeczeństwa i pogarszające się relacje współczynników obciążenia ogólnego i obciążenia osobami w wieku poprodukcyjnym. Rosnący dług wiąże się także ze wzrostem kosztów jego obsługi (wzrost stóp procentowych), a pogarszające się oceny stanu poszczególnych gospodarek dodatkowo wpływają na wzrost stóp procentowych. Papiery rządowe, dotychczas bezpieczna 11 Bank for International Settlements (BIS). 37 Makroekonomia wzrostu – uwarunkowania globalne forma inwestowania, z uwagi na możliwość bankructwa krajów, przestają stanowić zabezpieczenie, co dodatkowo wpływa na wzrost stóp procentowych. Ekonomiści i politycy są zgodni, że sytuacja dojrzała do wprowadzenia w wielu krajach głębokich i kompleksowych reform strukturalnych, ale tego typu propozycje są kontestowane przez społeczeństwa, a zwłaszcza tam, gdzie ta potrzeba reform jest najpilniejsza – dotyczy to zwłaszcza: Grecji, Hiszpanii i Włoszech. W, wyżej wspomnianym, raporcie BIS zostały zaprezentowane trzy scenariusze kształtowania się rozmiarów długu publicznego w perspektywie 2040 r. dla 12 krajów (por.: tablica 3.). Scenariusze różnią się między sobą założeniami, co do zakresu przeprowadzonych reform (m.in.: zmianami w zakresie realizacji świadczeń społecznych i emerytalnych, zmianami w relacjach pracujących do emerytów, a także innymi formami i ograniczeniami wydatków publicznych). TABLICA 3. Relacja długu publicznego do PKB w 2040 r. Scenariusze Wyszczególnienie Austria Francja Grecja Hiszpania Irlandia Japonia Niderlandy Niemcy Portugalia USA Wielka Brytania Włochy bazowy stopniowego przystosowania ostrych cięć świadczeń społecznych 300% 400% 400% 300% 320% 600% 400% 320% 280% 450% 520% 250% 150% 250% 280% 180% 220% 420% 220% 150% 140% 300% 380% 100% 70% 180% 150% 110% 150% 400% 80% 50% 100% 200% 300% 40% Źródło: [OECD, projekcja autorska w: Cecchetti, Mohanty, Zampolli 2010]. W raporcie wyraźnie wskazuje się na zagrożenia płynące z długu ukrytego, który niosą ze sobą procesy demograficzne starzejących się społeczeństw, zwłaszcza krajów europejskich. Jednym z radykalniejszych środków przeciwdziałania jest podniesienie wieku emerytalnego, co wydaje się być rozwiązaniem znacznie lepszym niż cięcia zagwarantowanych świadczeń i podnoszenie podatków. W raporcie wręcz się stwierdza, że rządy poszczególnych państw ulegają fascynacji wzrostem PKB, nie widząc zagrożeń, jakie dla tego wzrostu niesie z sobą powiększający się dług publiczny, który, powodując napięcia finansowe, odbija się rykoszetem na gospodarce realnej. 38 Andrzej F. Bocian Wykres 3., sporządzony dla sześciu z, omawianych wyżej, krajów pokazuje ścieżkę dojścia przez te kraje do stanu wysokiego obciążenia długiem publicznym oraz trajektorię wzrostu relacji długu do PKB do 2015 r., która została zaprognozowana przez MFW. WYKRES 3. Dług publiczny jako procent PKB w wybranych, najbardziej zadłużonych, krajach Unii Europejskiej oraz w Japonii i w Stanach Zjednoczonych, w latach 2004–2015 Źródło: [International Monetary Fund, World Economic Outlook Database, April 2010]. Makroekonomia wzrostu – uwarunkowania globalne 39 5. Podsumowanie Rozszerzający się w gospodarce światowej kryzys dał asumpt do wznowienia odwiecznego sporu toczącego się wokół zagadnień wzrostu gospodarczego w rozumieniu dwóch szkół ekonomii – szkoły neoliberalnej i szkoły keynesowskiej [Madej 2009]. Mam wątpliwości, czy rzeczywiście jest to spór między zwolennikami rynku, jako głównego regulatora procesów gospodarczych, a etatystami, którzy eksponują rolę państwa w działalności gospodarczej i czy rzeczywiście obydwie szkoły tworzą dwa bieguny ekonomii. Żaden z tych dwóch kierunków myśli ekonomicznej nie kwestionuje przecież obecności i roli polityki gospodarczej w funkcjonujących aktualnie systemach ekonomicznych, a granice przejścia między etatyzmem a rynkiem są bardzo płynne i trzeba wszechstronnej i wnikliwej analizy, by je uwypuklić. Według krystalizujących się już ocen współczesnych zjawisk kryzysowych, zawiódł jedynie system kontroli nadbudowany nad systemami finansowymi państw, który był niedostatecznie dobrze opracowany i wdrażany do gospodarek poszczególnych krajów, a zwłaszcza dotyczy to gospodarki amerykańskiej. Banki i sektor finansowy – w pogoni za coraz większymi zyskami – prowadziły bardzo ryzykowną grę, generując coraz to bardziej wyrafinowane instrumenty finansowe, co wymknęło się spod kontroli. Jednocześnie System Rezerwy Federalnej od połowy lat dziewięćdziesiątych prowadził politykę „łatwego” kapitału i deregulacji finansowej. Wzrastały aktywa i ceny nieruchomości, Amerykanie się bogacili i zaciągali coraz większe pożyczki na zakup domów i samochodów, a banki proponowały coraz łatwiej dostępne kredyty. W tej grze brali udział wszyscy – nie tylko banki i ich klienci, ale także producenci znajdujący popyt u konsumentów wyposażonych w gotówkę przez instytucje finansowe. Wszystkie strony były zadowolone z szerzącego się dobrobytu, każda ze stron notowała wzrost satysfakcji do czasu przerwania się tego „zaczarowanego kręgu” wzajemnych uzależnień opartych na zaufaniu społecznym. Nastał moment załamania. Kredyty trzeba było zacząć spłacać, gospodarstwa domowe zaczęły zmniejszać konsumpcję, spadł popyt, podaż musiała być ograniczana, nastąpiły zwolnienia pracowników, ceny nieruchomości zaczęły gwałtownie spadać, a banki i instytucje finansowe tracić swoje aktywa. Mimo że gospodarka amerykańska wygenerowała kryzys lat 2007–2009, była i przez najbliższe dekady pozostanie najsilniejszą gospodarką światową, bowiem zagrożenie ze strony Chin czy Indii wydaje się być, jak na razie, mało realne. Zresztą w rywalizacji tych dwóch azjatyckich gospodarek, w perspektywie trzydziestu-czterdziestu lat, większą szansę rozwojową ma gospodarka Indii z uwagi na większy potencjał demograficzny, na bardziej demokratyczne struktury społeczne i większe zasoby kapitału ludzkiego, a przede wszystkim intelektualnego. Doświadczenie wynikające z kryzysu początku XXI wieku wskazuje, że rynek nie zawiódł w swojej funkcji regulacyjnej – zmusił do korekty postępowania, wystawiając ujemną ocenę systemowi funkcjonowania społeczeństw konsumpcyjnych, żyjących ponad stan, ulegających reklamom i marketingowi. Obecny krach powinien zmusić do przewartościowania funkcjonujących paradygmatów, powinien wymusić nowe rozwiązania systemowe i instytucjonalne, a przede wszystkim dać początek rzetelnej dyskusji na temat zrównoważonego rozwoju globalnego. 40 Andrzej F. Bocian Wyjątkowość obserwowanych zjawisk (w sensie powszechności i równoczesności ich występowania) wskazuje, że świat biznesu czekają ogromne zmiany, a teoria ekonomii musi uporać się z nowymi wyzwaniami. Pojęcie globalizacji musi na nowo zostać zdefiniowane. Światowa gospodarka rynkowa pilnie wymaga nowych idei i poważnego zainteresowania się procesami zachodzącymi pomiędzy gospodarką, polityką i społeczeństwem, wymaga nowego paradygmatu12. Literatura Acocella N. 2002 Zasady polityki gospodarczej, Warszawa. Barro R.J. 1997 Makroekonomia, Warszawa. Barteczko K., Bocian A.F. 2008 Prognozowanie i symulacje gospodarcze. Metody, modele, zastosowania, Białystok. Borowski J. 2008 Globalizacja, konkurencyjność międzynarodowa i strategie przedsiębiorstw, Białystok. Cecchetti S.G., Mohanty M.S., Zampolli F. 2010 The future of public debt: prospects and implications, „BIS Working Papers”, No. 30, March. Domar E.D. 1962 Szkice z teorii wzrostu gospodarczego. Friedman T.L. 2006 Świat jest płaski. Krótka historia XXI wieku, Poznań. Frydman R., Goldberg M.D. 2009 Ekonomia wiedzy niedoskonałej, Warszawa. Hayek von F.A. 2006 Konstytucja wolności, Warszawa. Keynes J.M. 1985 Ogólna teoria zatrudnienia, procentu i pieniądza, Warszawa. Kołodko G. 2009 Neoliberalizm i światowy kryzys gospodarczy, „Ekonomista”, nr 3; J. Żyżyński 2009 Neoliberalizm jako strukturalna przyczyna kryzysu a poszukiwanie dróg naprawy, „Ekonomista” nr 3. Landes D.S. 2005 Bogactwo i nędza narodów, Warszawa. Landreth H., Colander D.C. 1998 Historia myśli ekonomicznej, Warszawa. Madej Z. 2009 Idee rządzą światem, „Ekonomista”, nr 5. Mankiw N.G. 2008 Makroekonomista jako naukowiec i inżynier, „Gospodarka Narodowa”, nr 4. Phelps E.S. 2010 Makroekonomia dla nowoczesnej gospodarki, „Gospodarka Narodowa, nr 3. Polak E. 2009 Globalizacja a zróżnicowanie społeczno-ekonomiczne, Difin, Warszawa. Romer D. 2000 Makroekonomia dla zaawansowanych, Warszawa. Scholie J.A. Globalizacja. Krytyczne wprowadzenie, Sosnowiec 2006. Solow R.M. 1957 Technical Change and the Aggregate Production Function, „The Review of Economics and Statistics”, No 39. Szymański W. 2004 Interesy i sprzeczności globalizacji, Warszawa. Welfe W., Welfe A. 1996 Ekonometria stosowana, Warszawa. Wojtyna A. 2008 Współczesna ekonomia – kontynuacja czy poszukiwanie nowego paradygmatu?, „Ekonomista”, nr 1. Zabieglik S. 2003 Adam Smith, Warszawa. 12 Por.: [Wojtyna 2008; Phelps 2010]. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Anna CHMIELAK1 WYZWANIA WOBEC PAŃSTWA JAKO PODMIOTU STOSUNKÓW MIĘDZYNARODOWYCH Streszczenie Uczestnikami stosunków międzynarodowych w coraz większym stopniu stają się podmioty pozapaństwowe. W takich okolicznościach pozycja państwa, jego siła i identyfikacja wykraczają poza wymiar: militarny, polityczny bądź ekonomiczny. Wyzwania współczesnego świata, oczekiwania społeczeństwa wobec swoich rządów i państw skłaniają do uznania wymiaru kulturowego jako podstawy bytu państwa na arenie międzynarodowej. Zarówno w aspekcie krajowym, jak i ponadkrajowym fundamentem funkcjonowania państwa są wartości. Na arenie krajowej są istotne wartości specyficzne dla danej: kultury, tradycji, religii, natomiast na arenie ponadkrajowej ujawnia się pewna kompozycja wspólnych wartości, to jest dobra wspólnego. Słowa kluczowe: państwo jako uczestnik stosunków międzynarodowych, kulturowy wymiar państwa, interesy i wartości a sens istnienia państwa CHALLENGES FACED BY STATE AS SUBJECT OF INTERNATIONAL RELATIONS Summary Non-state subjects are becoming more and more active participants of international relations. In such circumstances the position of the state, its power and identity go beyond militar, political or economic dimensions. Challenges of the contemporary world, social expectations of national governments and states induce us to acknowledge the cultural aspect as the basis for the existence of a state in the international arena. Both on a national and an international level, values constitute a prerequsite for the existence of a state. On a national level, those values are crucial which are unique to a given culture, tradition, religion, whereas internationally there appears a certain composition of common values, i.e. the common good. Keywords: State as participant in international relations, cultural dimension of State, interests and values versus the sense of the existence of State. 1 Dr hab. Anna Chmielak – Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 42 Anna Chmielak 1. Wstęp Interpretacja roli i miejsca państwa jako podmiotu stosunków międzynarodowych jest pochodną podejścia zarówno w wymiarze politycznym, jak i ekonomicznym. Od wielu lat toczy się ożywiona dyskusja nie tylko wokół umiejscowienia i ważności państwa w obszarze gospodarki krajowej, ale także w kontekście zmniejszania się jego roli w obliczu rosnącego znaczenia i pozycji korporacji międzynarodowych i podmiotów transnarodowych. Z należną powagą są traktowane państwa o znaczącym potencjale ekonomicznym bądź militarnym. Ich pozycja wśród uczestników stosunków międzynarodowych nie podlega dyskusji. Nieco mniejszą rolę przypisuje się państwom: średniej wielkości, słabo rozwiniętym, objętym procesem długotrwałej transformacji, a takich jest zdecydowana większość. Konfrontacja takich treści i rozważań teoretycznych z rzeczywistością międzynarodową ujawnia pewną, delikatnie rzecz biorąc, nieadekwatność wobec globalnych zagrożeń, problemów i potrzeb licznej grupy państw rozwiniętych, rozwijających się i podlegających systemowym przekształceniom w kierunku zakorzenienia reguł rynku i demokracji. Powszechne, rozległe i szybko postępujące procesy globalizacji doprowadziły do zderzenia tradycyjnej roli państwa z dynamiczną i zróżnicowaną liczbą pozapaństwowych uczestników stosunków międzynarodowych. Równocześnie mamy do czynienia z procesem ujawniania się i ścierania różnych systemów wartości i celów, interesów oraz motywów aktywności na arenie międzynarodowej, a także oczekiwań wobec pozostałych uczestników tych stosunków. Ścieranie się różnych cywilizacji, zmiany, jakie dokonują się w każdej z nich będą nasilać się i pogłębiać, przy równoczesnej potrzebie tworzenia powszechnego, względnie spójnego, prawa i podstaw funkcjonowania różnych rodzajów organizacji międzynarodowych. Każda cywilizacja wnosi do stosunków międzynarodowych: własne wartości, tradycję, normy religijne i zasady postępowania. To, czy współczesne relacje międzynarodowe będą służyć realizacji wartości społecznych (godne życie, poczucie bezpieczeństwa, wolności i sprawiedliwości, szanse postępu i rozwoju), zależy od gotowości i umiejętności państw – reprezentujących różne kultury – w zakresie kształtowania warunków poszanowania i realizacji wspólnych wartości, to jest tych wartości, które wykraczają poza jedną kulturę. Poszanowanie różnorodności kulturowej dokonuje się przez poszanowanie godności członka każdej społeczności i każdego narodu. Zasadniczy problem, podjęty w niniejszym artykule, można określić następująco: rozważanie roli i miejsca państwa w gronie wielu, innych uczestników stosunków międzynarodowych, prowadzone odrębnie dla wymiaru ekonomicznego i politycznego, nie odzwierciedla realiów współczesnego świata, w tym oczekiwań społeczeństw wobec poszczególnych państw. W konsekwencji, jako hipotezę przyjmuje się następującą: podstawą określenia miejsca państwa we współczesnych stosunkach międzynarodowych jest jego baza (wymiar) kulturowa. Zarówno w aspekcie krajowym, jak i ponadkrajowym fundamentem funkcjonowania państwa są wartości. Na arenie krajowej są istotne wartości specyficzne dla danej: kultury, tradycji, religii, natomiast na arenie ponadkrajowej kształt poszczególnych państw w pewnym stopniu jest podobny, ponieważ dotyka powszechnie podzielanych, wspólnych wartości. Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych 43 2. Tradycyjne interpretacje państwa jako podmiotu stosunków międzynarodowych Najogólniej rzecz biorąc, na płaszczyźnie międzynarodowej można wyróżnić tak zwane realistyczne, liberalne oraz transnarodowe ujęcie państwa. Każde z nich posiada pewne cechy adekwatności do rzeczywistości i cechy, które uległy znacznej ewolucji. W ujęciu realistycznym, państwo jest traktowane jako podstawowy uczestnik stosunków międzynarodowych. Wszystkie państwa są tu suwerenne, nie ma centrum, które mogłoby podejmować decyzje zamiast lub w imieniu państw, przyjmować cele i środki ich realizacji. W rezultacie brakuje wyraźnego ośrodka, który mógłby określać reguły działania państw, relacje między nimi czy także – w razie potrzeby – zapobiegać konfliktom. W zabiegach o kształtowanie poczucia bezpieczeństwa poszczególne państwa są zdane na siebie, co motywuje je do troski o budowę i utrzymanie potęgi własnego państwa. Siła poszczególnych państw jest, w konsekwencji, definiowana względem siły (potęgi) pozostałych, liczących się państw. W takich warunkach, dążenie do potęgi można określić jako konieczność, co wprowadza atmosferę rywalizacji i walki na arenie międzynarodowej. Czynnikiem stabilizującym relacje między państwami staje się prawo oraz tzw. moralność międzynarodowa (niezależnie od możliwości powstawania sytuacji tzw. równowagi sił). Równowaga sił daje szansę na pewną, minimalną choćby, stabilność i ład na arenie międzynarodowej, ogranicza racjonalność działań zbrojnych, tonuje napięcia i konflikty. Zwolennicy wizji liberalnej wskazują na różnice między interesem państw i narodów. Sugerują jednakże istnienie pewnej harmonii interesów narodów i społeczeństw i kształtowania się swoistego ładu społecznego. Ich zdaniem, egoistyczne interesy wolnych ludzi skłaniają do nawiązywania współpracy i kształtowania się więzi społecznych i ładu społeczno-gospodarczego. Harmonia dotyczy przede wszystkim stosunków nawiązywanych i powstających spontanicznie w sferze gospodarczej, co w długim okresie przysparza korzyści wszystkim uczestnikom. Interesy państw natomiast są reprezentowane przez rząd i siły polityczne sprawujące władzę, co może skłaniać je do walki o swoją pozycję. Dla ograniczenia tych napięć należy upowszechniać system demokratyczny wyłaniania i sprawowania władzy. Ograniczanie zasięgu przestrzennego systemów politycznych, innych niż demokratyczny, zbliży do siebie interesy państw, narodów i społeczeństw w skali świata. Należy zauważyć, że swobodny handel i wymiana między państwami służy, w ich ujęciu, powiązaniu interesów narodowych państw z interesami społeczności międzynarodowej – pod warunkiem ustanowienia spójnego prawa międzynarodowego. Proces ten jest wzmacniany przez tworzenie instytucji transnarodowych celem zapobiegania naruszaniu interesów i ładu międzynarodowego. Przy okazji, niejako powstają społeczne i humanitarne przesłanki: pokoju, bezpieczeństwa, poszanowania godności jednostki ludzkiej Trzeci wymiar stosunków międzynarodowych można określić jako transnarodowy. Zgodnie z nim, wzrost liczby i aktywności poza państwowych uczestników stosunków międzynarodowych obniża pozycję państw w ich kształtowaniu. Rozszerzają się więzi narodowych grup i interesów w ramach struktur transnarodowych, co osłabia 44 Anna Chmielak znaczenie granic państwowych. Równocześnie ogranicza się perspektywa kontrolowania takich aktorów przez państwa. Aktorzy ci stają się autonomiczni i zdolni do prowadzenia własnej polityki, głównie międzynarodowej. Na przesunięcie i modyfikację roli państwa w stosunkach międzynarodowych oddziałuje wzrost współzależności państw, który poszerza pole zbieżności ich interesów. Państwa coraz bardziej liczą się z interesami partnerów, poszerzają współpracę, poszukują źródeł i warunków obopólnych korzyści. Polityka zagraniczna państw staje się zewnętrznym wymiarem troski o rozwój ekonomiczny i poprawę poziomu życia (dobrobyt) obywateli. Rozprasza się też potęga w stosunkach międzynarodowych, ponieważ państwa nie mają monopolu na posiadanie siły, a zbrojenia i wojny są bardzo kosztowne. Wyrazem potęgi stają się względne zasoby (także miękkich) czynników produkcji będących nośnikami postępu i dobrobytu. Żadna z, zarysowanych powyżej, wizji stosunków międzynarodowych i umiejscowienia w nich państwa nie jest w pełni adekwatna do rzeczywistości i przez to zadowalająca. W każdej z nich można odnaleźć ważne elementy, lecz nie składają się one na spójną wizję państwa jako uczestnika stosunków międzynarodowych. Jest to pierwsza przesłanka do stawiania i weryfikowania hipotez. Drugą jest konieczność istnienia silnego i sprawnego państwa – w obliczu postępującej globalizacji. W warunkach funkcjonowania, w większej części świata, systemów niedojrzałej gospodarki rynkowej i instytucji demokratycznych raczej o kruchych podstawach, zadania państwa nie sprowadzają się tylko do zapewnienia uczciwych, zgodnych z prawem relacji między podmiotami, zabezpieczenia transakcji rynkowych i warunków sprawowania władzy. Ważne jest także zapewnienie respektowania reguł między podmiotami, poszczególnymi rynkami towarów i czynników produkcji, przestrzegania zasad uczciwej konkurencji i odpowiedzialności za działania i decyzje zarówno w sferze ekonomicznej, jak i politycznej. Sukces otwierania gospodarki na rynek światowy, poddawania się globalizacji zależy od tego, czy zostaną zachowane podstawy ładu społecznego. Drastyczne różnice ekonomiczne, brak rozwoju, ubóstwo, wykluczenie społeczne i polityczne są kluczową przyczyną konfliktów domowych i międzynarodowych. Wydaje się, że żaden podmiot nie zastąpi aktywności państw w zakresie odpowiedzialności za realizację: ekonomicznych, społecznych i kulturalnych praw człowieka, zachowania jego godności i szansy rozwoju. 3. Kulturowy wymiar państwa Istotną część dialogu między cywilizacjami stanowi dyskusja o miejscu, roli i funkcjach państwa oraz jego relacjach ze społeczeństwem bardzo różnie postrzeganych w dziedzictwie kulturowo-cywilizacyjnym Zachodu i Azji Wschodniej. Dla zgłębienia przesłanek rozważania kulturowego wymiaru państwa, obok politycznego i ekonomicznego, zasadne jest zaprezentowanie, choćby tylko niektórych, charakterystycznych cywilizacji i typowego dla nich postrzegania państwa. U podstaw państwa chińskiego, posiadającego długą tradycję i ciągłość, leży kilka istotnych okoliczności: – sformalizowany układ hierarchiczny na bazie rodziny; – pojmowanie jednostki jako integralnej części kolektywu; Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych – – – 45 wolność rozumiana jako dążenie jednostki do samodoskonalenia; rytualne normy jako regulator życia społecznego i politycznego; niski poziom aspiracji społeczeństwa osadzony na konfucjanizmie. [Rowiński, Pawłowski 2009 s. 299–300] Konfucjanizm, bardzo głęboko osadzony w relacjach rodzinno-społecznych, przeniknął do świadomości chińskiego społeczeństwa, stając się sposobem oglądu rzeczywistości. Państwo postrzega się tu jako organizację opartą na zespole zasad etycznych i moralnych dających gwarancję ładu i harmonii. Z upływem czasu stało się ono instrumentem kreowania i utrwalania właściwych norm postępowania i określonego ładu moralnego. Rządzenie państwem, pojmowane jako moralne przywództwo, doprowadziło do wykształcenia się, niepowtarzalnej w innych częściach świata (cywilizacjach), kultury politycznej2. Chiny wywarły znaczący wpływ kulturowo-cywilizacyjny na państwa sąsiedzkie z kręgu konfucjańsko-buddyjskiego. Łączą je bowiem historyczne więzi, doświadczenie i podobieństwo struktur hierarchicznych. Dawało to władcom szansę dominacji nad otaczającym światem. Siły militarnej używano do pacyfikacji sąsiadów w celu poszerzania terytorium państwa. Jest faktem, że Chiny dość długo były wiodącą potęgą: polityczną, gospodarczą, militarną w swoim regionie. Obecnie, po wielu doświadczeniach, państwo to buduje swój wizerunek jako odpowiedzialnego, skłonnego do współpracy, pokojowo nastawionego członka społeczności światowej. Równocześnie forsuje obraz uczestnika stosunków międzynarodowych, przestrzegającego przyjęte powszechnie standardy i zasady ładu międzynarodowego, gotowego ponosić odpowiedzialność z tytułu członkostwa w organizacjach międzynarodowych. Indie są największym krajem demokratycznym, chociaż jako pierwsze skojarzenie z takim systemem politycznym raczej nie występują w naszej świadomości. Jest to starożytna cywilizacja, której wiele elementów nadal jest aktywnych, co oznacza ciągłość tradycji i współczesnej państwowości. Pojęcie państwa w hinduskiej tradycji politycznej kształtują: różnorodność kulturowo-językowa, struktura społeczna, brak jedności politycznej [Zajączkowski 2009, s. 325–348]. Ideałem państwa, według hinduizmu, jest imperium, którego zestaw podstawowych celów jest jasny: zapewnienie ładu i bezpieczeństwa wewnętrznego, ochrona i obrona przed zagrożeniem zewnętrznym, kształtowanie warunków postępu i poczucia dobrobytu. Obecnie demokracja indyjska stoi przed wyzwaniem zapewnienia oraz podtrzymania hinduskiej dumy i przekonania o wielkiej hinduskiej tradycji, przy równoczesnej obronie uprawnień muzułmanów. Jest jej trudno realizować określoną politykę z powodu: rozdrobnienia politycznego, braku autorytetu, ograniczeń wynikających z sytuacji społeczno-politycznej. Indie, w konsekwencji, są miękkim państwem. Mimo to, są przykładem sukcesu w rozwoju demokracji wielokulturowej, której podstawą są: federalizm, konstytucjonalizm, prawa obywatelskie i polityczne dla osób, mniejszości: religijnych, językowych, etnicznych. 2 Jest to zupełnie odmienne podejście wobec państwa, jako instytucji neutralnej aksjologicznie i opartej na rządach prawa stanowionego. 46 Anna Chmielak Najważniejszą kwestią dla Indii jest rywalizacja z USA i Chinami o status rangi najwyższej, bowiem aspirują one do roli mocarstwa odpowiedzialnego za pokój i stabilność. Oczekują, wobec tego, uznania swego państwa jako stabilizatora bezpieczeństwa i równowagi azjatyckiej, gwaranta porządku w regionie Azji i Pacyfiku, mediatora w konfliktach sąsiedzkich oraz strategicznego partnera mocarstw, liczącego się w kształtowaniu ładu międzynarodowego. Istota i charakter indyjskiej wizji państwa tkwi w uwarunkowaniach kulturowocywilizacyjnych, w przekonaniu o wielkości swojej historii i kultury. Wizja ta łączy nowe i stare elementy, co wynika z faktu, że Indie są starą cywilizacją, ale nowym narodem. Elementy nowoczesności i tradycji łączą się w ramach dialogu kultur. Demokrację indyjską cechuje elastyczność i żywotność, a państwo federalizm i świeckość. W Ameryce Łacińskiej ukształtowało się wiele: ras, kultur, języków jako efekt ścierania się cywilizacji zachodniej i afrykańskiej. Instytucja państwa ukształtowała się chyba na wzór państwa republikańskiego USA i Francji. Państwo republikańskie jest tu rządzone przez: lokalnych, regionalnych i ogólnonarodowych możnowładców. Ich interesy i wizja rozwoju dominuje w całości strategii i polityki rozwoju państw tego regionu. Jako podstawowe przyczyny słabości państw latynoamerykańskich można wskazać następujące: brak stabilności politycznej w wyniku ciągłych wojen domowych; niestabilność ekonomiczną wynikającą z gospodarki monokulturowej, znacznych nierówności społecznych, wrażliwości na zmiany w gospodarce światowej; uleganie wpływom zewnętrznym (kolonizatorów); liczne i trwałe problemy separatystyczne, korupcję, zorganizowaną przestępczość, handel narkotykami; brak u elit wizji jednego narodu [Gawrycki 2009, s. 355–356]. Idea państwa narodowego nie była tu obecna, państwo stawało się emanacją grupy oligarchów (plantatorów rolnych, właścicieli kopalń, hierarchów kościoła katolickiego, wojska). Społeczeństwo jest tu heterogeniczne, niezwykle podzielone i rozwarstwione, co hamuje postęp w budowaniu tożsamości narodowej. W państwach Ameryki Łacińskiej dominuje system prezydencki, przeniesiony z tradycji anglosaskiej, ale poddany silnym wpływom tradycji hiszpańskiej, opartej na koncentracji władzy w rękach monarchy. Czyni to w tradycji politycznej supremację jednostki nad każdą formą władzy sprawowanej przez instytucje (np. demokratyczne). Powracający często do władzy wojskowi nie posiadają ani zrozumienia dla roli instytucji państwa, ani kwalifikacji do kierowania nimi. Z kolei, państwa afrykańskie w momencie powstawania były tworami sztucznymi, ponieważ obejmowały terytoria nie związane z: tradycją, kulturą, jednością etniczną. W ramach ruchów wyzwoleńczych i kształtowania się państwowości podzielono kontynent według stref wpływów kolonizatorów. Złożona struktura etniczna, zróżnicowanie kulturowe populacji wykluczają kształtowanie się państw na wzór np. europejski. Znaczny negatywny wpływ na kształt państwa mają tu elity, które wykształcone na wzór europejski powielają metropolitarny model organizacji państwa. Afrykańskie systemy parlamentarno-gabinetowe oparte na wzorach brytyjskich lub prezydenckie oparte na rozwiązaniach francuskich bądź amerykańskich z czasem nabierają cech autorytaryzmu politycznego. Po części jest to skutek zupełnie innej kultury politycznej. Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych 47 W Afryce mamy do czynienia z: niskim poziomem wykształcenia, brakiem klasy średniej, słabością instytucji społeczeństwa obywatelskiego. Przy braku poczucia więzi obywatelskiej wobec własnego państwa, występowaniu ogromnych podziałów etnicznych, prymacie tożsamości plemiennej pojawia się niebezpieczeństwo ukształtowania się systemu partyjnego odzwierciedlającego interesy wybranych grup etnicznych, powstających na bazie różnic ekonomicznych. Rodzi to wewnętrzne napięcia, konflikty, wojny domowe. W takich warunkach tradycyjne formy kultury politycznej nakazują zachowania wyborcze oparte na lojalności plemiennej. W dłuższym okresie większe grupy mają możliwość utrwalenia i wzmocnienia swojej pozycji, zaś mniejsze tracą szansę na współudział w procesie decyzyjnym. Demokracja nie nabiera cech systemu realnie istniejącego. Co więcej, demokracja oparta na istnieniu etnicznych partii politycznych może zagrażać integralności terytorialnej państwa. Administrację państw afrykańskich cechuje niska efektywność, a przyczyn takiej sytuacji jest wiele. Klasa polityczna skupia się na zdobyciu lub utrzymaniu władzy i urzędu politycznego wraz z korzyściami, jakie z tego płyną. Instytucje państwa, od początku powstania, stały się przedmiotem walki nowych elit politycznych. Stały się obiektem zainteresowania zagranicznych rządów i korporacji transnarodowych w poszukiwaniu przywilejów gospodarczych. Czy wobec takiej palety kultur i specyfiki państw można próbować określić, choćby tylko wstępnie, fundament państwa na arenie światowej? 4. Wspólne wartości jako idea globalna Kultury są zwykle związane z: dużymi grupami społecznymi, narodami, grupami etnicznymi, plemionami. Żaden system wartości kulturowych, jak dotąd, nie zyskał charakteru uniwersalnego, głównie z powodu utrwalonych tożsamości grup oraz etnocentryzmu. W takim razie, czy istnieje szansa na wspólne wartości systemu światowego? Miałyby one posiadać identyczną treść, lecz niekoniecznie treść uwarunkowaną kulturowo. Przekonanie o uniwersalności podstawowych cech i dążeń ludzi w dowolnej kulturze może stanowić bazę do poszukiwania uniwersalnych uprawnień człowieka, niejako norm stanowionych, ale w sposób naturalny związanych z człowiekiem. Uniwersalizm miałby jednak oznaczać tendencję do upowszechniania, trend dominujący i zyskujący przewagę nad innymi. Na przeszkodzie takiej wspólnocie stoi tożsamość kulturowa, rozumiana jako suma specyficznych cech wyróżniających kulturę danej grupy społecznej i stanowiących podstawę identyfikacji jej członków [Michałowska 2004 s. 253]. Obecnie, przyśpieszony postęp cywilizacyjny i globalizacja prowadzą do: ograniczenia regulacji wewnętrznych poszczególnych rynków kulturalnych, przemieszczania się poszczególnych wartości w systemach kulturowych, pojawiania się ponadnarodowych zachowań kulturowych o cechach patologicznych oraz swoistej kultury masowej. Zmian kulturowych jednakże nie da się powstrzymać, tak jak nie wyhamuje się zbliżania pewnych warstw kultury, głównie materialnej, w skali międzynarodowej. Każda kultura stanowi unikalny zespół wartości. Dzięki własnej tradycji i środkom wyrazu narody zaznaczają swoją obecność w świecie. Wszystkie kultury cieszą się jednakowym uznaniem, a każdy naród, każda społeczność ma prawo umacniać, 48 Anna Chmielak chronić i zabiegać o poszanowanie swojej tożsamości kulturowej. Obecnie, można wskazać wiele argumentów przeciw relatywizmowi kulturowemu (wojny plemienne, łamanie praw grup etnicznych, dyskryminacja religijna). Nasuwa się ważne pytanie: czy te zachowania mają swoje źródło w kulturze czy w polityce? Jaką rolę w tych walkach odgrywa potrzeba zaspokojenia podstawowych potrzeb egzystencjalnych? Wydaje się, że zasadniczą (dominującą) przesłanką tych walk nie były i nie stają się aktualnie odrębne cechy kulturowe. Obok nich, ujawniają się interesy: polityczne, ekonomiczne, terytorialne. Co więcej, w stabilnych, rozwiniętych społecznościach zróżnicowane tożsamości kulturowe nie zakłócają sobie nawzajem współistnienia i rozwoju. Wartości wszystkich kultur mogą rozwijać się i zbliżać do siebie bez konieczności absolutyzmu etycznego (przyjęcia jednej, wspólnej moralności dla wszystkich ludzi, niezmienności i trwałości standardów moralnych), bez potrzeby ingerencji i narzucania wartości uznanych za bardziej doskonałe. W obszarze kultury globalizacji towarzyszą, co najmniej, trzy procesy: – następuje upodobnienie infrastruktury kulturowej i upowszechnianie materialnych elementów różnych kultur; zwykle upowszechniają się cechy kultur najwyżej rozwiniętych państw i rozszerza się pole oddziaływania tzw. kultury masowej wywodzącej się ze społeczności amerykańskiej; – wzmacnia się promocja wartości etycznych kultury zachodniej, przez wyznawców i zwolenników traktowanych jako uniwersalne; – ujawnia się i nasila opór przeciwników dominacji kulturowej i homogenizacji kultury (zauważa się nasilenie tendencji narodowych, nacjonalistycznych działań na rzecz manifestowania i zachowania tożsamości kulturowej).3 Katalog, tzw. uniwersalnych wartości, można odnieść do definicji dobra wspólnego. Jakkolwiek trudno jest odnaleźć wiarygodną i jednoznaczną definicję tej kategorii społecznej, to można za takową uznać takie dobra, które są wyróżnione przez większość decydującą, stając się pewną sumą dóbr jednostkowych. Dobra wspólne dla wspólnoty cechuje to, że pozwalają na jej przetrwanie w najtrudniejszych okolicznościach. Dobro wspólne może być traktowane jako filozoficzny cel państwa, ale z drugiej strony państwo staje się samo dobrem wspólnym obywateli.4 Kategoria dobra wspólnego nabiera cech wartości konkretnej dzięki decyzjom władzy państwowej i stanowi pewne ramy ideologiczne ograniczające jej decyzje i funkcjonowanie.5 Należy zauważyć, że dobrem wspólnym państwa nie jest suma jego podstawowych funkcji lub celów nadrzędnych (dobrobyt, sprawiedliwość, wolność, postęp). Raczej ujmuje ono pewną ideę satysfakcjonującego stanu współżycia i egzystencji oraz pomyślności i zadowolenia wszystkich członków społeczności. Staje się przez to swoistą całością warunków życia i rozwoju społecznego, umożliwiających grupom społecznym i jednostkom samorealizację, poczucie godności i satysfakcji. Szerzej na ten temat zob. np.: [Michałowska, op. cit. s. 261–263]. Szersze rozważania na ten temat znajdują się w opracowaniu: [Współczesne państwo w teorii i praktyce. Wybrane elementy 2008 s. 176–188]. 5 B.J. Jeliński pisze, że polityka jest reprezentacją wszystkich interesów całego społeczeństwa. O jej wartości decyduje dobro wspólne, związane z ideą prymatu całości nad częścią. Tworząc politykę, należy kierować się wolą i interesem większości, a decyzje uzgadniać ze wszystkimi podmiotami (w miarę możliwości). Zob.: [Jeliński 2009 s. 18–19]. 3 4 Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych 49 Wyjściową przesłanką spełnienia warunków realizacji dobra wspólnego jest wolność obywateli, która daje szansę na wnoszenie przez poszczególne jednostki swego wkładu do dobra wspólnego. Kontrowersje wokół tej kategorii wiążą się z faktem powstawania dylematu: czy interes społeczeństwa (sprawiedliwość społeczna, poczucie bezpieczeństwa) jest nadrzędny w stosunku do wartości uznawanych za kluczowe przez poszczególne jednostki. Konflikt dobra wspólnego z innymi wartościami można zauważyć na przykład w procesie stanowienia prawa zapewniającego korzyści jednym grupom społecznym kosztem innych grup społecznych (publiczna edukacja, pomoc ubogim, powszechna opieka zdrowotna). Bywa to traktowane jako niesprawiedliwe – niezależnie od sposobu stanowienia i funkcjonowania. Współczesna debata wokół państwa toczy się przede wszystkim między liberałami i komunitarystami. Cechami podstawowymi filozofii liberalnej jest pierwszeństwo wolności indywidualnej przed dobrem wspólnym, neutralność państwa w sprawach: filozoficznych, etycznych, religijnych. Podejmując decyzje, człowiek stwarza pewien wzór wyboru dla innych ludzi, dlatego powinna go cechować odpowiedzialność za siebie i innych. Prawo stanowione przez państwo ma kształtować takie warunki, w których jednostki mogą bez różnych ingerencji samodzielnie decydować o celach i sposobach swojego życia. Podstawowe wolności i prawa powinny być poza zakresem ingerencji państwa. Ogólnie rzecz biorąc, system szanujący wolność jednostki umożliwia całemu społeczeństwu kreatywność i rozwój. Zgodnie z koncepcją komunitaryzmu, polityczny i moralny rozwój jednostki dokonuje się w kontekście wspólnoty. Jej główne cechy to uznanie, że dobro wspólne ma pierwszeństwo przed prawami jednostki. Przyjęcie ochrony dóbr wspólnych jako głównego zadania państwa, aktywna postawa państwa w kształtowaniu postaw: religijnych, etycznych, filozoficznych jednostek, uznanie, że prawa i obowiązki jednostki są równie ważne jako wartości wspólnoty. Wyróżnia się tu przede wszystkim przedkładanie dobra wspólnego nad prawa jednostki. Ważne jest, jak się wydaje, określenie zakresu dobra wspólnego i w związku z tym podejmowanie prób godzenia różnych wartości. Podejście liberalne propaguje tolerancję przy równoczesnym skupieniu się nie na wartościach naczelnych, ale raczej instrumentalnych. Wspólnota jest jednakże niezbędna dla poczucia bezpieczeństwa i wspierania jednostek, nadania sensu ich działaniom. Zatem, gdzie tu jest miejsce dla państwa? Geoekonomia i geopolityka są konsekwencją dominacji wymiaru ekonomicznego lub politycznego w stosunkach międzynarodowych, mającej miejsce w warunkach akceptacji wybranych cywilizacji i ram kultury. Jedno i drugie zjawisko wyraża nie tyle interesy narodu lub poszczególnych państw, co wybranych, związanych z władzą grup, interesów (ekonomicznych, politycznych).6 Akceptacja jednej bądź drugiej fiCelem geoekonomii nie jest poprawa poziomu życia, tylko zdobycie i (lub) utrzymanie pożądanej pozycji w gospodarce światowej. Chodzi tu głównie o pozycję w strategicznych dziedzinach działalności gospodarczej o dużej wartości dodanej. Jej konsekwencje to głównie: poważne straty przedsiębiorstw pozbawionych wsparcia ze strony państwa, nadwyżki zdolności produkcyjnych we wspieranych gałęziach, marnotrawstwo zasobów na skutek przeinwestowania, wzrost znaczenia rządzących elit. Zob. np.: [Luttwak 2000 s. 161]. Paradygmat geoekonomii opiera się na założeniu o autonomiczności i wyłączności zjawisk ekonomicznych wobec celów politycznych i wojskowych. 6 50 Anna Chmielak lozofii kształtowania relacji między państwami, podmiotami stosunków międzynarodowych ociera się o hipokryzję. Dzieje się to, bowiem przy pełnej świadomości różnicowania pozycji poszczególnych grup, tak w strukturze własności, jak i w strukturze władzy politycznej, jest wyrazem nie silnego, skupionego na realizacji dobra wspólnego państwa, ale państwa słabego, podatnego na naciski i oczekiwania wybranych, lecz wpływowych grup interesu. Jednakże państwo musi być silne, lecz nie z tytułu potęgi ekonomicznej lub militarnej, tylko w wyniku akceptującej postawy swoich obywateli, a więc poprzez legitymizację. Wyjściowym elementem dobra wspólnego społeczności światowej jest zapewne poczucie, szeroko rozumianego, bezpieczeństwa, godności i zadowolenia z życia.7 Nie stoi to w sprzeczności z wartościami poszczególnych cywilizacji i wyrosłych na ich bazie kultur i religii.8 Realizacja tych wartości jest ściśle związana ze sprawnością i efektywnością sektora publicznego. Dyskusja o państwie w epoce globalnej może toczyć się wokół określenia ram systemowych rozwoju sektora usług publicznych. Jeżeli miałby on nie przyjmować cech geoekonomii i troszczyć się o interesy określonych grup bądź państw, to musi być podporządkowany realizacji idei dobra wspólnego społeczności światowej, a więc tych wspólnych, niekwestionowanych wartości. Trudno jest w takim razie zaakceptować jako dopuszczalną strategiczną politykę handlową prowadzoną przez państwa (głównie rozwinięte), ponieważ ona nie jest funkcjonalna wobec rozwoju i funkcjonowania gospodarki światowej9. Jeżeli w wyniku różnych procesów dokonujących się w poszczególnych państwach i społecznościach międzynarodowych dochodzi do wyobcowania i atomizacji pewnych systemów wartości (np. świata zachodniego), to stają się one przeszkodą w realizowaniu potrzeb (wartości) społeczności światowej. Interesy i działania budowane na układach wartości określonych grup społecznych nie są w stanie zapewnić nawet minimum uczciwości i zaufania, stanowiących podstawę funkcjonowania gospodarki rynkowej i systemu demokratycznego. Są one bowiem fundamentem instytucji tych systemów. Upowszechnianie idei wolnego handlu nie dynamizuje rozwoju i społecznie akceptowanych przemian strukturalnych, zaś demokratyzacja świata, tzw. nie-zachodniego, nie łagodzi sprzeczności i poczucia niesprawiedliwości [Pawluczuk 2008 s. 73–74]. Nie buduje atmosfery troski o dobro wspólne, a nawet nie wskazuje jego istoty. Forsowanie określonych wzorców i paradygmatów życia kulturowocywilizacyjnego nie przyjmuje się na dowolnym gruncie kulturowym, raczej rodzi się opór społeczny.10 Wystarczy zwrócić uwagę na zapis ONZ dotyczący Milenijnych Celów Rozwoju. Na przykład. A. Giddens stoi na stanowisku, że nowy porządek świata będzie budowany na: suwerennych państwach narodowych, demokracji, systemie kapitalistycznym. Równocześnie podkreśla konieczność zaspokajania potrzeb podstawowych, stanowiących bazę dla: porządku, poczucia bezpieczeństwa i ograniczenia ryzyka. Zob.: [Giddens 2008 s. 54]. 9 Można wskazać kilka źródeł sprzeczności i rywalizacji państw: stosowanie metod działania właściwych dla sfery wojskowości, wypaczenie reguł rynku, powstawanie bloków handlowych nabywających określone uprawnienia. 10 Na przykład w Chinach, dynamicznej dziś gospodarce, jest wysoki opór społeczny przed przyjmowaniem standardów zachodniej kultury. Funkcjonuje tu stabilny, autorytarny system polityczny, rozbudowany jest interwencjonizm państwa, minimalna aktywność państwa w sferze społecznej, brak 7 8 Wyzwania wobec państwa jako podmiotu stosunków międzynarodowych 51 Koncepcja dobra wspólnego odnosi się do interpretacji głównych, globalnych zagrożeń. Zalicza się do nich m. in. następujące: rozwój lub jego brak, bezpieczeństwo szeroko rozumiane, zmiany środowiska przyrodniczego. W tej sytuacji racjonalny jest kompleks działań międzynarodowych prowadzonych na forum światowym [Gryz 2009, s. 82–84]. Potrzeba taka nasila się z tytułu: powszechnego zjawiska migracji, braku jednolitości etnicznej i kulturowej, nie tylko w wymiarze ponadkrajowym, ale także w ramach granic państw.11 Spory kulturowe pozostają bowiem główną przyczyną konfliktów. 5. Podsumowanie Jakkolwiek nie jest działaniem prostym i jednoznacznym poszukiwanie kwantum wspólnych wartości, należy podejmować takie próby w imię kształtowania atmosfery współpracy w wymiarze ponadkrajowym. Alternatywą jest bowiem atmosfera: rywalizacji, dominacji, walki interesów grupowych i marginalizacji znacznej części społeczności światowej. Literatura Gawrycki M.F. 2009 Specyfika, tradycje i formy państw w Ameryce Łacińskiej, [w:] Państwo w teorii i praktyce stosunków międzynarodowych, (red.) M. Sułek, J. Simonides, Warszawa. Giddens E. 2008 Konsekwencje nowoczesności, Kraków. Gryz J. 2009 Globalne czynniki destabilizacji ładu międzynarodowego: Czynniki stabilizacji i destabilizacji w stosunkach międzynarodowych na początku XXI wieku, (red.) I. SławowyKawa, Kraków. Rowiński J., Pawłowski J. 2009 Specyfika i tradycje państwa w Azji Wschodniej na przykładzie Chin, [w:] Państwo w teorii i praktyce..., op. cit. Jagiełło B. 2009 Dialog międzykulturowy – nowy element stabilizacji w stosunkach międzynarodowych, [w:] Czynniki stabilizacji i destabilizacji..., op. cit. Jeliński B.J. 2009 Polityka współpracy gospodarczej z zagranicą, Gdańsk. Luttwak E. 2000 Turbokapitalizm. Zwycięzcy i przegrani światowej gospodarki, Wrocław. Michałowska G. 2004 Uniwersalizm, tożsamość i relatywizm kulturowy a globalizacja, [w:] Globalizacja a stosunki międzynarodowe, (red.) E. Haliżak, R. Kuźniar, J. Symonides, Bydgoszcz – Warszawa. Pawluczuk W. 2008 Wprowadzenie do teorii cywilizacji, Cz. 1., Systemy teoretyczne, Białystok. Polak E. 2009 Jakie państwa zyskują na globalizacji?, [w:] Ekonomiczne i polityczne wyzwania we współczesnym ładzie globalnym, red. Maria Giedz, Artur R. Kozłowski, Rafał Majewski, Warszawa. Współczesne państwo w teorii i praktyce. Wybrane elementy 2008, (red.) J. Oniszczuk, Warszawa. Zajączkowski J. 2009 Wizja państwa w indyjskiej teorii i praktyce politycznej, Warszawa. sektora publicznego, w tym: edukacji, opieki zdrowotnej, zabezpieczenia społecznego. Zob. szerzej na ten temat: [Polak 2009]. 11 Zob. analiza skutków tego procesu w opracowaniu: [Jagiełło 2009 s. 180–181]. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Adam OLEKSIUK1 INNOWACJE JAKO CZYNNIK ROZWOJU GOSPODARKI ŚWIATOWEJ W ŚWIETLE STRATEGII INNOWACYJNOŚCI OECD Streszczenie Opracowanie koncentruje się na omówieniu roli innowacji i innowacyjności we współczesnym świecie. Przygotowana przez Organizację Współpracy Gospodarczej i Rozwoju w 2010 roku Strategia Innowacyjności stała się punktem wyjścia do rozważań na temat miejsca innowacji w rozwoju gospodarki światowej, szczególnie w obliczu zjawisk kryzysowych, jak też wielu innych wyzwań natury ekonomicznej i społecznej. W artykule zaprezentowano najważniejsze korzyści wynikające z inwestowania w nowoczesne, innowacyjne rozwiązania, jak też przedstawiono bariery, które hamują możliwości rozwoju ludzkiej kreatywności i przedsiębiorczości. W pracy sformułowano tezę, że innowacyjność poszczególnych państw i regionów, będzie stawać się coraz bardziej niezbędna w kreowaniu wzrostu gospodarczego, zatrudnienia oraz poprawy standardów życia. Autor jednocześnie wyraża przekonanie, że samo wsparcie z publicznych środków projektów o charakterze innowacyjnym jest niewystarczające i może nie przełożyć się na szybki rozwój gospodarki, zaś ewentualne pozytywne efekty mogą być widoczne dopiero w dłuższej perspektywie czasowej. Słowa kluczowe: innowacje, innowacyjność, Organizacja Współpracy Gospodarczej i Rozwoju, strategia, badania i rozwój, produkt krajowy brutto INNOVATION AS A GLOBAL ECONOMY FACTOR DEVELOPMENT STRATEGIES BY INNOVATION STRATEGY OECD Summary The paper is focused on discussing the role of innovation and innovativeness in the contemporary world. Prepared by the Organisation for Economic Cooperation and Development in 2010 Innovation Strategy has become a starting point for reflection on the placement innovation in the development of world economy, especially in the face of crisis phenomena, as well as many challenges of an economic and social nature. The paper presents the benefits of investing in modern, innovative solutions, as well as barriers that inhibit the development of human creativity and entrepreneurship. The paper formulates the thesis that innovation of individual countries and regions will become increasingly essential in creating economic growth, employment and improvement of living standards. The author also believes that mere support of innovative projects from public funds is insufficient and may not translate into rapid development of economy and possible positive effects can only be visible in the long term. Keywords: innovations, innovativeness, OECD, strategy, R&D, GDP. 1 Dr Adam Oleksiak – Uniwersytet Warmińsko-Mazurski w Olsztynie, Zakład Stosunków Międzynarodowych. Innowacje jako czynnik rozwoju gospodarki światowej ... 53 1. Wstęp Innowacje stanowią czynnik napędzający wzrost gospodarki i pozwalają stawić czoło wyzwaniom w sferze ekonomicznej i społecznej. W latach 2008–2010 doszło do: obniżenia poziomu wzrostu światowego produktu krajowego brutto (szczególnie w krajach rozwiniętych), zwiększenia stopy bezrobocia oraz zwiększenia długu publicznego. Niezbędne dla ożywienia gospodarki i wejścia na ścieżkę bardziej zrównoważonego rozwoju są nowe (alternatywne) źródła wzrostu gospodarczego, z powodu słabnięcia znaczenia niektórych tradycyjnych. W wielu krajach obserwuje się spadek liczby ludności, co zmniejsza rolę czynnika pracy w długoterminowym wzroście PKB. Co więcej, szczególnie w przypadku rozwiniętych gospodarek, inwestycje w kapitał rzeczowy przynoszą coraz mniejsze zyski i mogą okazać się niewystarczające do wzmocnienia długoterminowego rozwoju. Powyższa obserwacja odnosi się także do „gospodarek wschodzących” (ang. emerging economies), które postrzegają innowacje jako sposób na zwiększenie konkurencyjności, zdywersyfikowania gospodarki i przechodzenia ku działalności przynoszącej wyższą wartość dodaną [OECD a 2010 s. 1]. Jednym z ważniejszych, aczkolwiek nie jedynym, wskaźnikiem określającym innowacyjność danej gospodarki są wydatki na badania i rozwój. Mimo że w Polsce są one w stosunku do PKB relatywnie małe na tle państw lepiej rozwiniętych (według danych GUS, w 2009 r. było to zaledwie 0,57% PKB), to jednak w ujęciu realnym zwiększają się, ponieważ PKB polskiej gospodarki systematycznie wzrasta. Ten rozwój gospodarczy zawdzięczamy w dużej mierze, implementowanym przez MŚP, innowacjom. Ważnym stymulatorem są oczywiście środki unijne, ale niezależnie od pomocy z UE nie można bazować tylko i wyłącznie na nich. Jak wskazuje prof. Tadeusz Baczko z Polskiej Akademii Nauk: Polska jest jednym z nielicznych krajów na świecie, przynajmniej w grupie krajów uprzemysłowionych, gdzie nakłady państwowe na badania są wyższe niż nakłady przedsiębiorstw (inwestycje firm na B+R to 0,18 proc. PKB, a nakłady publiczne 0,39 proc. PKB). W niemal wszystkich krajach rozwiniętych jest bowiem odwrotnie – więcej inwestują w badania przedsiębiorstwa niż państwo. Według danych Banku Światowego w Szwecji, inwestycje przedsiębiorstw w B+R wynoszą 2,92 proc. PKB, przy wydatkach państwa 0,92 proc. PKB. W pracy sformułowano tezę, że innowacyjność poszczególnych państw i regionów będzie stawać się coraz bardziej niezbędna w kreowaniu wzrostu gospodarczego, zatrudnienia oraz poprawy standardów życia. Autor wyraża jednocześnie przekonanie, że samo wsparcie projektów o charakterze innowacyjnym ze środków publicznych jest niewystarczające i może nie przełożyć się na szybki rozwój gospodarki, zaś ewentualne pozytywne efekty mogą stać się widoczne w dłuższej perspektywie czasowej. Potrzebne są inwestycje w projekty dobrze przemyślane, w innym wypadku będziemy mieli do czynienia z marnotrawieniem środków publicznych. Obserwując działania niektórych agend rządowych w Polsce, można odnieść wrażenie, że tak właśnie się dzieje. 54 Adam Oleksiuk 2. Rola innowacji w osiąganiu celów gospodarczych i społecznych Innowacje już obecnie stanowią ważny czynnik rozwoju gospodarek wielu krajów. Wspieranie działań innowacyjnych i promowanie innowacyjności jest jednym z wiodących celów polityki gospodarczej między innymi krajów Unii Europejskiej. Istotnym dokumentem Unii Europejskiej, który kładzie nacisk na znaczenie innowacji jako ważnego paradygmatu rozwoju współczesnej gospodarki, jest Strategia Europa 2020, w którym ważnym projektem jest „Unia Innowacji” [European Commission 2010]. Nakreślony w nim główny cel akcentuje wykorzystywanie działalności badawczo-rozwojowej i innowacyjnej do rozwiązywania wielu globalnych problemów, takich jak np.: zmiany klimatu, poprawa efektywności energetycznej, ochrona zdrowia, walka z ubóstwem, zmiany demograficzne czy dostęp do czystej wody [European Commission 2010 s. 9–10]. Według autorów Strategii Europa 2020, współczesne wyzwania gospodarcze muszą odpowiadać powyższym wyzwaniom społecznym. Wiele z owych wyzwań ma charakter globalny, a w związku z tym wymaga globalnych działań. Zwraca na to uwagę Robert B. Tucker, przenosząc jednak akcent na coraz większe znaczenie kooperacji w tym obszarze [Tucker 2002 s. 163–166]. Wyzwaniom tym nie mogą stawić czoło pojedyncze państwa, co sprawia, że staje się niezbędna lepsza koordynacja wysiłków międzynarodowych poprzez interwencje zarówno po stronie podażowej, jak i popytowej2. W dokumencie za istotne należy uznać odejście od „sztywnego” wskaźnika 3% PKB nakładów na B+R w krajach UE. Strategia Europa 2020 zakłada, że każdy kraj będzie uwzględniał swoje potrzeby i możliwości przy określaniu wydatków na badania i rozwój3. W ten sposób większość krajów UE nie będzie funkcjonowała w sytuacji niemożliwości spełnienia podstawowego z punktu widzenia innowacyjności wskaźnika, jakim jest procent produktu krajowego brutto przeznaczany na badania i rozwój. Ministerstwo Nauki i Szkolnictwa Wyższego określiło, że polskie wydatki ogółem na badania i rozwój w 2020 r. (tzw. GERD) względem PKB mogą przybrać trzy scenariusze, pierwszy – 1,9 proc. PKB, drugi – 1,7 proc. PKB lub trzeci 1,45 proc. PKB. Najbardziej optymistyczny wariant został uzależniony od możliwości pozyskania odpowiednio wysokiego wsparcia z funduszy unijnych w perspektywie finansowej w latach 2014–2020 oraz zmiany dotychczasowej struktury finansowania nakładów na badania i rozwój. Wskaźnik nakładów na badania i rozwój, według tych założeń, ma być generowany w głównej mierze ze środków publicznych, w tym przede wszystkim unijnych, a nie ze środków prywatnych. Kryzys, który miał miejsce w skali globalnej w końcu pierwszej dekady XXI wieku, uwypuklił jeszcze większą potrzebę inwestowania w innowacje, które wielu anality2 W przypadku braku innowacji, stawienie czoła np. zmianom klimatycznym będzie znacznie bardziej kosztowne. Ponadto, napędzany innowacjami wzrost ułatwia rządom dokonywanie niezbędnych inwestycji i podejmowanie interwencji publicznych. 3 Równocześnie należy uwypuklić fakt, że innowacje stają się powoli czymś więcej niż tylko samymi wydatkami na badania i rozwój. Podkreśla to już wielu badaczy, zarówno teoretyków, jak i praktyków. Wynika to z faktu, że innowacje są wysoce interaktywnym i interdyscyplinarnym procesem i w coraz większym stopniu obejmują współpracę rosnącej i zróżnicowanej sieci: interesariuszy, instytucji i użytkowników. Poza tym, pojawienie się nowych, ważnych graczy zwiększyło złożoność wieloaspektowej panoramy międzynarodowych innowacji. Innowacje jako czynnik rozwoju gospodarki światowej ... 55 ków i ekspertów uznaje za istotny sposób kreowania nowych, alternatywnych rozwiązań globalnych problemów. O ile, generalnie, cięcia wydatków publicznych są niezbędne, o tyle rządy muszą nadal inwestować w badania i rozwój, edukację czy infrastrukturę. Redukcja wydatków publicznych na działania wspierające innowacyjność może, co prawda, przynieść krótkoterminowe korzyści dla budżetu, ale jednocześnie jest wysoce prawdopodobne, że doprowadzi do podkopania fundamentów długoterminowego wzrostu gospodarczego. Eksperci OECD zwracają uwagę na to, że publiczne inwestycje w badania podstawowe stanowią szczególną pożywkę dla przyszłych innowacji (jak to miało miejsce w przeszłości w przypadku np. Internetu i badań nad ludzkim genomem) i będą niezbędne do wspierania przełomowych technologii mających przeciwdziałać zmianom klimatycznych oraz innym, globalnym wyzwaniom. Jednocześnie, istnieją znaczne możliwości poprawy efektywności wydatków budżetowych i bardziej innowacyjnego podejścia do świadczenia usług publicznych. Na przykład nowe podejście do systemu edukacji i kształcenia może tylko zwiększyć zyski z publicznych inwestycji w innowacje. Ponadto, wiele działań w sferze polityki gospodarczej, mogących sprzyjać wzrostowi innowacyjności, nie wymaga dodatkowych lub znaczących inwestycji publicznych. Reformy strukturalne, odnoszące się do bazowych warunków odpowiadających wspieraniu innowacji (takie jak usuwanie barier prawnych dla innowacyjności i przedsiębiorczości, w tym przepisów administracyjnych, oraz sprzyjające wzrostowi gospodarczemu reformy podatkowe), mogą w istotny sposób zwiększyć innowacyjność i stymulować wzrost gospodarczy. Większość krajów powinna dążyć do wzmocnienia sił „oddolnych” sprzyjających wyzwoleniu popytu na innowacyjne produkty i usługi, zaspokajające potrzeby społeczne i globalne. Służyć temu może np.: urealnienie cen, większe otwarcie rynków na konkurencję oraz opracowanie regulacji sprzyjających pobudzeniu i uruchomieniu innowacyjnych rozwiązań w takich obszarach, jak profilaktyka zdrowia czy ochrona środowiska. Innym, ważnym przykładem jest lepsze wykorzystanie zamówień publicznych, co może również okazać się skuteczne, zwłaszcza gdy rząd jest istotnym aktorem w tej materii. Dobrze zaprojektowana polityka oddziaływania na popyt jest mniej kosztowna niż bezpośrednie środki wsparcia. Jest ona skierowana nie do konkretnych firm, ale bezpośrednio nagradza innowacyjność i efektywność. Popyt jest ściśle związany z podażą, w związku z tym, prowadzenie odpowiedniej polityki oddziaływania na podaż jest również niezbędne do stworzenia warunków sprzyjających innowacyjnym działaniom biznesu. Analizując czynniki popytowe i podażowe, warto równocześnie zaznaczyć, że w ciągu kilku lat nie sposób uzyskać odpowiednio dynamiczny wzrost gospodarczy za pomocą „działań dotyczących samych innowacji”. Faktem jest, co pokazują doświadczenia różnych krajów i na co wskazuje literatura przedmiotu, że innowacyjny pomysł może powstać z dnia na dzień, a nawet z godziny na godzinę, niełatwo jednak zapewnić, że równie szybko pojawią się jego efekty rynkowe. Tym bardziej trudno oczekiwać, by wywarły one rzeczywisty wpływ na gospodarkę w terminie na tyle krótkim, żeby w realny sposób wspomóc „podnoszenie się z kryzysu”. Samo wsparcie innowacyjności nie gwarantuje szybkiego jej wzrostu, efekty będą widoczne dopiero w dłuższej perspektywie czasowej. Ważną rolę w zakresie innowacji spełnia także infrastruktura instytucjonalna, której zadaniem jest promowanie i wpieranie działalności innowacyjnej oraz transferu technologii do przedsiębiorstw. Jeśli jednak 56 Adam Oleksiuk polityka na rzecz innowacji ma być skuteczna, musi ona odzwierciedlać sposób, w jaki innowacje powstają już obecnie. Zakończone powodzeniem przekształcenie wynalazku w innowacje (finalny efekt) wymaga szeregu wzajemnie uzupełniających się działań, w tym zmian: organizacyjnych, prawnych, marketingowych i edukacyjnych. Ten ostatni czynnik należy uznać za bardzo znaczący, biorąc pod uwagę, że nauka nadal pozostaje istotnym składnikiem innowacji. 3. Strategia Innowacyjności OECD – cel, priorytety, wyzwania. Próba oceny Celem Strategii Innowacyjności OECD jest wsparcie procesu tworzenia polityki w zakresie, szeroko rozumianej, innowacyjności. Dokument ten jest zbudowany z pięciu priorytetowych działań państwa, które razem tworzą spójne i kompleksowe podejścia do polityki innowacyjnej, wspierać ożywienie gospodarcze stymulowane przez innowacje oraz wzmacniać rolę innowacji w perspektywie długoterminowej [OECD b 2010]. Priorytet pierwszy odnosi się do ludzkiego aspektu innowacji i dotyczy zalecenia, aby zapewnić ludziom prawo do innowacji. W tej części dokumentu podkreśla się między innymi znaczenie opracowywania strategii edukacyjnych, promujących kulturę przedsiębiorczości oraz międzynarodową mobilności uzdolnionych pracowników. Drugi priorytet koncentruje się na innowacjach w przedsiębiorstwach, gdyż, jak czytamy, w dokumencie: firmy są niezbędne do przekształcenia dobrych pomysłów w miejsca pracy i dobrobyt. Trzeci priorytet odnosi się do dystrybucji wiedzy. Strategia wzywa kraje do promowania technologii informacyjnych i komunikacyjnych, a w szczególności sieci szerokopasmowego dostępu do Internetu. Czwarty priorytet skupia się na roli innowacji w rozwiązywaniu najważniejszych problemów współczesnego świata. Strategia zachęca rządy do większej internacjonalizacji, podejmowanych w tych obszarach, działań poprzez współpracę na rzecz rozwiązywania najważniejszych problemów, jakie stają dzisiaj przed społeczeństwami całego świata. Można to osiągnąć dzięki nowemu modelowi zarządzania wielostronną współpracą w zakresie: międzynarodowej nauki, technologii i innowacji. Priorytet piąty koncentruje się na zarządzaniu oraz sposobach oceny indywidualnych strategii na rzecz innowacyjności. Ewaluacja ma zasadnicze znaczenie dla poprawy efektywności i skuteczności strategii na rzecz promowania innowacji i zapewnienia dobrobytu społecznego – napisano w, omawianym, dokumencie OECD. Istotne jest zapewnienie spójności polityki innowacji i traktowanie jej jako głównego elementu polityki rządu, z silnym przywództwem ze strony najwyższych szczebli politycznych. W promocję innowacji powinny być włączone również podmioty regionalne i lokalne. W dokumencie zarysowano wiele kierunków działań, jednak brakuje wyraźnego określenia, które z nich są najpilniejsze i konieczne do natychmiastowej realizacji, a z których można będzie ewentualnie zrezygnować w sytuacji niedostatku szeroko rozumianych środków. Wyodrębnienie priorytetów strategii powinno oznaczać identyfikację obszarów, których aktywne wsparcie przez państwo będzie służyć osiągnięciu celów strategii. W dokumencie tego nie widać, a wyznaczenie aż pięciu priorytetów, w ramach których planuje się realizację wszystkich postulatów w zakresie in- Innowacje jako czynnik rozwoju gospodarki światowej ... 57 nowacyjności, moim zdaniem, powoduje, że dokument ma charakter bardzo ogólny i rozkłada akcenty na zbyt wiele obszarów, co stawia pod znakiem zapytania możliwości implementacyjne Strategii Innowacyjności OECD. Rozbudowanym wątkiem, w widocznym w całym dokumencie, jest problematyka kapitału ludzkiego, który – co autorzy wielokrotnie podkreślają – jest istotą innowacji. Stworzenie ludziom możliwości tworzenia innowacji jest zależne m.in. od posiadanego przez nich wykształcenia, jak również od rozwoju różnorodnych umiejętności nabywanych poza systemem formalnej edukacji. Programy studiów i metody nauczania muszą kształcić w studentach umiejętność uczenia się i stosowania nowo nabytych umiejętności przez całe życie. Dokument OECD podkreśla, że systemy edukacyjne, służące rozwojowi kwalifikacji, powinny zostać zreformowane, tak by mogły efektywnie funkcjonować na rzecz zaspokajania wymagań współczesnego społeczeństwa [OECD b 2010 s. 55–85]. Uniwersytety, szkoły i ośrodki szkolenia zawodowego są niezbędnymi węzłami systemu innowacji, jeśli chodzi o generowanie i przyciąganie kapitału ludzkiego stanowiącego warunek sine quo non do powstania innowacji4. Instytucje te działają jako podstawowe „mosty” łączące różne podmioty – przedsiębiorstwa, rządy i państwa – w bardziej otwarte systemy innowacyjne [OECD b 2010 s. 68–72]. Trudno się z tym nie zgodzić. Głównym jednak wyzwaniem dla polityki państwa jest dostrzeżenie zasadniczej roli uniwersytetów w działalności innowacyjnej, zamiast postrzegania ich – jak to zbyt często się dzieje – jako jedynie dostarczycieli określonych dóbr publicznych. Aby tak się stało, konieczna jest większa koncentracja decydentów na zapewnieniu: niezależności uczelni, konkurencji między nimi, ducha przedsiębiorczości akademickiej i elastyczności uniwersytetów. Innowacyjność gospodarki kraju zależy przede wszystkim od innowacyjności przedsiębiorstw. Przedsiębiorstwa w wielu państwach inwestują już nie tylko w kapitał rzeczowy (maszyny i urządzenia), ale coraz częściej dostrzegają znaczenie wartości niematerialnych i prawnych, takich jak: badania i rozwój (B+R), oprogramowanie, bazy danych, a także umiejętności i kwalifikacje pracowników oraz kadry zarządzającej. Znaczna część wzrostu, tzw. wydajności wieloczynnikowej (MFP), jest we współczesnym świecie związana z innowacjami. Wstępne szacunki wskazują, że w: Austrii, Finlandii, Szwecji, Wielkiej Brytanii i Stanach Zjednoczonych inwestycje w wartości niematerialne i prawne oraz wzrost wydajności wieloczynnikowej (MFP) odpowiadały łącznie za 2/3–3/4 wzrostu wydajności pracy, odnotowanego w latach 1995–2006, co oznacza, że to właśnie innowacje były głównym motorem wzrostu. Różnice w wydajności wieloczynnikowej (MFP) odpowiadają w znacznym stopniu za poziom zróżnicowań pomiędzy krajami rozwiniętymi i rozwijającymi się. Sugeruje to, że innowacyjność będzie w przyszłości głównym źródłem wzrostu gospodarczego w tzw. krajach wschodzących [OECD a 2010 s. 4–5]. Przedsiębiorcy są, jak można wywnioskować z lektury dokumentu, szczególnie ważnymi aktorami w procesie 4 Polityka rynku pracy powinna zapewniać elastyczność potrzebną do przesunięcia zasobów z firm „schyłkowych” ku przedsiębiorstwom innowacyjnym, a jednocześnie udzielać wsparcia procesowi kształcenia się przez całe życie oraz przekwalifikowania pracowników (re-skilling). 58 Adam Oleksiuk tworzenia innowacji, ponieważ przyczyniają się oni do komercyjnego zastosowania pomysłów. Autorzy Strategii podkreślają, że jest niezbędna edukacja w zakresie przedsiębiorczości. Jest to fakt, jednak – co trzeba podkreślić – tylko niewielka część ludności ma dostęp do edukacji w zakresie postaw przedsiębiorczych. Należy wiec dążyć do tego, aby polityka kształcenia i szkolenia sprzyjała przedsiębiorczości przez promowanie umiejętności i proinnowacyjnych postaw niezbędnych do podejmowania twórczych działań jednostek najbardziej kreatywnych. Międzynarodowa mobilność talentów przyczynia się do tworzenia i rozpowszechniania wiedzy, w szczególności wiedzy „ukrytej” („tacit”). Aby stymulować ów przepływ wiedzy, państwo powinno budować zdolność absorpcyjną, otwierać rynki pracy dla zagranicznych studentów i zapewniać, by systemy podatkowe nie karały mobilnych wykwalifikowanych pracowników. Ze swojej strony kraje wysyłające powinny prowadzić politykę sprzyjającą ponownemu wchodzeniu naukowców powracających z emigracji na krajowy rynek pracy. Rozwiązania w zakresie migracji wysoko wykwalifikowanych pracowników powinny być: skuteczne, przejrzyste, proste i umożliwiać krótkoterminowe lub „okrężne” przepływy osób. Odpowiednie polityki w tym zakresie powinny być spójne z szerszą strategią migracji oraz politykami dotyczącymi rozwoju i pomocy, tak aby przyczynić się do skutecznego zarządzania migracjami. Ludzie partycypują w tworzeniu innowacji, nie tylko przez tworzenie, rozpowszechnianie czy też adaptację technologii w miejscu pracy, ale także jako konsumenci. Edukacja konsumentów powinna prowadzić do poprawy funkcjonowania rynków, przyczyniając się do tego, żeby konsumenci mogli stać się aktywnymi uczestnikami procesu tworzenia innowacji i umożliwienia im podejmowania świadomych wyborów. Koncepcję tę nazywa się w literaturze user-driven innovation; kładzie ona akcent na jak najszersze korzystanie z pomysłowości (kreatywności) konsumentów, co tym samym wzmacnia konkurencję między przedsiębiorstwami. W tym kontekście szczególnie istotne jest zapewnienie, by informacje dostarczane konsumentom były zrozumiałe i uwzględniały różnorodność form i sposobów przyswajania informacji przez ludzi. Szczególnie ważną rolę do odegrania w tym procesie mają nowe i „młode” przedsiębiorstwa, często dążące do wykorzystania możliwości technologicznych lub komercyjnych, które były zaniedbywane przez przedsiębiorstwa działające dłużej na rynku. Zarówno łatwiejsze wejście na rynek, jak i wyjście z niego stanowią warunek konieczny prowadzenia działalności w obszarze rozwoju nowych technologii. Uproszczenie ograniczenie regulacji i obciążeń administracyjnych, związanych z podejmowaniem działalności gospodarczej, prowadzi do ograniczenia owych barier wejścia na rynek. Prawo upadłościowe powinno być mniej represyjne w stosunku do przedsiębiorców i powinno oferować korzystniejsze warunki restrukturyzacji przedsiębiorstw znajdujących się w złej kondycji jednocześnie przykładać należytą wagę, w odniesieniu do kwestii zarządzania ryzykiem i potrzeby uniknięcia pokusy nadużycia. Według różnych badań, między 20% a 40% nowo powstających firm upada w ciągu pierwszych dwóch lat działalności. Realokacja zasobów ku bardziej efektywnym i innowacyjnym przedsiębiorstwom ma kluczowe znaczenie dla innowacji i wzrostu gospodarczego. Rozwój sektora przedsiębiorstw może w wielu krajach stanowić szczególnie trudne wyzwa- Innowacje jako czynnik rozwoju gospodarki światowej ... 59 nie. Niskie bariery regulacyjne mogą sprawić jednak, że szybko rozwijające się firmy nie będą marnotrawić środków, mogących służyć ich rozwojowi, na pokonywanie biurokratycznych przeszkód. Odpowiednia polityka może pomóc istniejącym, małym i średnim przedsiębiorstwom w zwiększeniu swej zdolności innowacyjnej, np. wspierając je w formowaniu odpowiednich umiejętności. Wyniki badania pt. Innowacyjność mikroprzedsiębiorstw w Polsce, zrealizowanego na zlecenie Polskiej Agencji Rozwoju Przedsiębiorczości, pokazują, że dostęp do finansowania jest kluczowym ograniczeniem dla innowacji w sektorze biznesu, gdyż wiąże się z tym określone ryzyko oraz, dość często, konieczność przyjęcia długookresowej perspektywy działania, zanim innowacja zacznie przynosić konkretne korzyści. Tym samym przywrócenie dobrej kondycji sektora finansowego powinno być działaniem priorytetowym. Strategia Innowacyjności OECD podkreśla, że efektywnie funkcjonujące rynki kapitałowe podwyższonego ryzyka (venture capital market) oraz sekurytyzacja związanych z innowacją aktywów (np. własności intelektualnej) to kluczowe źródła finansowania dla wielu innowacyjnych firm i należy je w dalszym ciągu rozwijać. Rynki finansowe muszą bowiem być w stanie zapewniać w wystarczającym stopniu możliwość inwestycji długoterminowych oraz służyć rozwojowi przedsiębiorczości należących do głównych sił napędowych innowacji, jednocześnie oferując zabezpieczenia przed ryzykiem. Jeśli poprawa dostępu do finansowania odbywa się przez zaangażowanie środków publicznych, to te ostatnie powinny być przekazywane za pośrednictwem istniejącego systemu rynkowego na podstawie podejścia rynkowego. Tworzenie, rozpowszechnianie i wykorzystanie wiedzy mają zasadnicze znaczenie, jeżeli chodzi o zdolność firm i państw do innowacji oraz ich rozwój w coraz bardziej konkurencyjnej gospodarce globalnej. A to oznacza, że nauka nadal powinna pozostać w centrum innowacji, natomiast publiczne instytucje badawcze powinny zostać zreformowane, tak by były w stanie utrzymać i poprawić współpracę z sektorem biznesu. Obecnie, szybkie sieci komunikacyjne wspierają innowacje w całej gospodarce tak, jak w przeszłości czyniły to: sieć elektryczna i transportowa. Zadaniem rządu jest więc wspieranie rozwoju technologii informacyjno-komunikacyjnych, w szczególności sieci szerokopasmowych, stanowiących platformę innowacji, przez utrzymywanie otwartego, swobodnego, zdecentralizowanego i dynamicznego charakteru Internetu. Oprócz sprzętu i oprogramowania, infrastruktura ICT obejmuje informacje, które są generowane lub finansowane ze środków publicznych. Dostarczanie tych informacji po niskich kosztach lub za darmo może stymulować innowacje i poprawić przejrzystość i efektywność działań władz. Przeszkody utrudniające komercyjne i niekomercyjne wykorzystywanie informacji tworzonych przez sektor publiczny powinny być usuwane (dotyczy to również: nadmiernie restrykcyjnych lub niejasnych przepisów dotyczących warunków dostępu i ponownego wykorzystania; niejasnego i niespójnego systemu wyceny informacji, w przypadku gdy ponowne ich wykorzystanie jest odpłatne, a także skomplikowanych i długotrwałych procedur licencyjnych). Generalnie, informacje natury publicznej powinny pozostawać otwartymi, tak aby wyeliminować umowy o wyłączności i pozwolić na innowacyjne ich wykorzystanie do celów zarówno komercyjnych, jak i niekomercyjnych. Można zauważyć, że prawo własności intelektualnej (IPR) stanowi istotną za- 60 Adam Oleksiuk chętę do inwestowania w innowacje. Prawa te powinny być dobrze chronione i egzekwowane. Przyczyniają się one bowiem do tworzenia innowacji i są istotne dla upowszechniania wiedzy oraz tworzenia wartości dodanej. Niektóre, dobre praktyki w tym względzie już istnieją, ale jest wymagana szersza skala tego typu rozwiązań. Strategia OECD kładzie nacisk – co było już wcześniej podkreślane – na zwiększenie rządowych inwestycji w: edukację, badania naukowe i inteligentne infrastruktury, aby umocnić potencjał rozwojowy. Niemniej, w obliczu deficytu budżetowego i narastającego długu publicznego wielu krajów, istnieje ryzyko, że wydatki te będą ograniczane. Wielu analityków podkreśla – z czym trudno się nie zgodzić – że byłoby to błędem. Otwarcie dostępu do danych z badań finansowanych ze środków publicznych może zwiększyć skuteczność ponoszonych z tych środków nakładów na innowacje. Rządy powinny również usunąć przeszkody administracyjne, utrudniające życie nowo powstającym przedsiębiorstwom, oraz zapewnić większą przyjazność polityki podatkowej w stosunku do innowacji i przedsiębiorczości. Istniejące globalne wyzwania wymagają skoordynowanego podejścia mającego na celu przyśpieszenie rozwoju nowych technologii i upowszechnianie oraz wprowadzanie na rynek innowacyjnych produktów i usług. Nowy model zarządzania współpracą wielostronną w zakresie: nauki, technologii i innowacji staje się coraz bardziej znaczącym paradygmatem rozwoju [Stoneman 1987 s. 23–28]. Mógłby on skupić się na: ustalaniu priorytetów, finansowaniu i rozwiązaniach instytucjonalnych oraz procedurach służących zapewnieniu dostępu do wiedzy i transferowi technologii, rozwijaniu potencjału innowacyjnego oraz implementowaniu innowacji do powszechnego stosowania5. Autorzy Strategii Innowacyjności podkreślają, że w niedługiej przyszłości rządy będą musiały przejąć rolę przewodnią (przez inwestycje w badania publiczne i dobrze zaprojektowane wsparcie dla tych badań sektora prywatnego, które nie prowadzą bezpośrednio do korzyści komercyjnych) w tych dziedzinach, które firmy uznają za zbyt ryzykowne i niepewne. Kraje o niskim produkcie krajowym brutto per capita borykają się ze szczególnymi wyzwaniami, jeśli chodzi o uczynienie innowacji motorem rozwoju gospodarczego. Owe wyzwania odnoszą się m.in. do: niekorzystnych „warunków ramowych” oraz niskiego poziomu kapitału ludzkiego i społecznego. W krajach tych polityka powinna koncentrować się na zwiększeniu poziomu wykształcenia oraz wzmocnieniu warunków ramowych. Biorąc pod uwagę coraz bardziej kluczową rolę innowacji w osiąganiu szerokiego spektrum celów gospodarczych i społecznych, konieczne jest „zintegrowane” (obejmujące działanie całego rządu) podejścia do polityki innowacyjnej. Wymaga to: stworzenia stabilnej platformy koordynacji działań, koncentracji na polityce średnio- i długoterminowej oraz przywództwa decydentów politycznych najwyższego szczebla. Włączenie interesariuszy do tworzenia tego typu polityki może pomóc w opracowaniu wspólnej wizji i prowadzeniu polityki bardziej skutecznie osiągającej cele społeczne. Dotyczy to 5 Ocena skutków w odniesieniu do środowiska (ang. environmental externalities), takich jak emisja dwutlenku węgla, będzie stanowić ważny bodziec w odniesieniu do innowacji. Polityki podatkowa lub inne instrumenty ekonomiczne mogą dostarczyć odpowiednich sygnałów, a tym samym służyć tworzeniu rynku innowacji – podobną rolę może odegrać wyeliminowanie szkodliwych dla środowiska subsydiów. Innowacje jako czynnik rozwoju gospodarki światowej ... 61 również spójności i komplementarności pomiędzy szczeblami: lokalnym, regionalnym, krajowym i międzynarodowym [OECD c 2010 s. 12–25]. Warto także na koniec zwrócić uwagę, że ewaluacja polityki proinnowacyjnej jest niezbędna do zwiększenia efektywności i skuteczności działań służących wsparciu innowacji i zwiększeniu dobrobytu społecznego. Niezbędna jest znacząca poprawa mechanizmów owej oceny, tak by były one w stanie uchwycić coraz szerszy charakter innowacji oraz zapewnić lepszą informację zwrotną na linii ewaluacja – tworzenie polityki proinnowacyjnej. Wymaga to również doskonalenia metod pomiaru innowacji, w tym wskaźników realizacji badających wpływ na gospodarkę i społeczeństwo (ang. outcomes and impacts), [Arnold 2004 s. 3–17]. 4. Podsumowanie Innowacje stanowią sposób stawiania czoła wyzwaniom natury gospodarczej i społecznej oraz mają kluczowe znaczenie dla pobudzania rozwoju ekonomicznego, dlatego nie powinno się ograniczać wydatków na działania, które mają zasadnicze znaczenie dla przyszłości krajów. Nakłady w zakresie wsparcia innowacji poczynione dzisiaj, przyniosą w przyszłości (zresztą już przynoszą) korzyści dla światowej, w tym i polskiej gospodarki. Polska w najbliższej przyszłości powinna więcej nie tylko środków publicznych, ale może przede wszystkim pieniędzy przedsiębiorstw przeznaczać na sferę B+R, gdyż jest to warunek niezbędny do tego, aby być konkurencyjnym nie tylko na rynku europejskim, lecz również globalnym. Pamiętajmy, że dzisiejszy wzrost gospodarczy Chin, Indii czy Brazylii, sterowany przez czynniki wytwórcze, w ciągu najbliższych kilku dziesięcioleci przekształci się w rozwój stymulowany przez innowacje (przekształcenie to jest już obecnie coraz bardziej widoczne). Z tego też powodu dla polskiej gospodarki ważny jest coraz większy udział sektora prywatnego w tworzeniu innowacji. Jednak, jak ze wszystkim, tak i w podejściu do innowacji i innowacyjności trzeba zachować pewną dozę ostrożności, dlatego mimo pokazanych w opracowaniu wielu dobrodziejstw, moim zdaniem, zbyt odważne jest przypisywanie innowacyjności zdolności rozwiązywania szerokiego spektrum problemów społeczno-gospodarczych (ang. innovation is a means of dealing with global and social challenges). Owszem, innowacyjność jest kluczem do części ze światowych wyzwań, szczególnie w sferze gospodarczej, ale nie sposób oczekiwać od innowatorów rozwiązań „na wszystko”. Autorzy Strategii Innowacyjności OECD prezentują pod tym względem podejście nieco utopijne, oczekując m.in.: nowego modelu wielostronnej, międzynarodowej współpracy w zakresie nauki, technologii i innowacji. Pamiętać należy o takich zjawiskach, jak (często sprzeczne) interesy narodowe, chęć dyskontowania sukcesów płynących z własnych dokonań (zamiast dzielenia się z innymi) czy też prywatna chęć zysku, stanowiąca siłę napędową przedsiębiorczości – wszystkie z tych czynników działają przeciw wizji altruistycznej współpracy dla wspólnego dobra, zarysowanej w dokumencie OECD. Tak więc, wspieranie firm innowacyjnych jest pomysłem słusznym i pożytecznym, lecz nie powinno być prowadzone za wszelką cenę. Koszty niejednokrotnie 62 Adam Oleksiuk mogą przewyższyć oczekiwane korzyści. To, co byłoby pożądane dla danej branży czy grupy przedsiębiorstw, może nie być już tak trafne dla gospodarki jako całości. Literatura Arnold A. 2004 Research Evaluation, „Evaluating Research and Innovation Policy: A Systems World Needs Systems Evaluations”, Vol. 13, No. 1. Baczko T. (red.) 2010 Raport o innowacyjności Polski w 2009 roku, Warszawa. EUROPE 2020, A European strategy for smart, sustainable and inclusive growth Strategy, European Commission, dokument elektroniczny, tryb dostępu: [http://ec.europa.eu/eu 2020/pdf/COMPLET%20EN%20BARROSO%20%20%20007%20%20Europe%2020 20%20–%20EN%20version.pdf, Brussels 2010, data wejścia: 28.07.2010]. Juchniewicz M., Grzybowska B. (red.) 2010 Innowacyjność mikroprzedsiębiorstw w Polsce, Warszawa. Measuring Innovation: A New Perspective 2010 OECD c, Paris. Ministerial report on the OECD Innovation Strategy Innovation to strengthen growth and address global and social challenges, Key Findings, OECD Innovation Strategy, dokument elekroniczny, tryb dostępu: [http://www.oecd.org/innovation/strategy, Paris OECD a, 2010, data wejścia: 27.07.2010]. Rodrik D. 2008 One Economics, Many Recipes: Globalisation, Institutions and Economic Growth, Princeton. Roundtable on OECD Innovation Strategy – Towards new perception of innovation, Ministerstwo Gospodarki, 29.06.2010. Mazurek-Kucharska B., Block A., Wojtczuk-Turek A. 2008 Społeczne determinanty innowacyjności przedsiębiorstw. Raport z badania ankietowego, Warszawa. Stoneman P. 1987 The Economic Analysis of Technology Policy, Oxford. The OECD Innovation Strategy. Getting a Head Start on Tomorrow, dokument elektroniczny, tryb dostępu: [http://www.oecd.org/innovation/strategy, Paris OECD b 2010, data wejścia: 27.07.2010]. Tucker B. Robert 2002 Driving growth through innovation. How leading firms are transforming their futures, San Francisco. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Anna WIERCISZEWSKA, Mirosława LASEK1 DYNAMIKA SYSTEMÓW JAKO NARZĘDZIE MODELOWANIA PROCESÓW ROZWOJU GOSPODARCZEGO Streszczenie W artykule zostało podjęte zagadnienie stosowania dynamiki systemów w modelowaniu procesów rozwoju gospodarczego. Celem było przedstawienie możliwości i zalet wykorzystania dynamiki systemów w modelowaniu procesów rozwoju gospodarczego Polski. Przedstawiono nie tylko zalety, ale także pewne wady i kontrowersje związane z wykorzystywaniem modeli dynamiki systemów w rozwiązywaniu problemów rozwoju gospodarczego i ze sterowaniem rozwojem gospodarczym. Rozważania zawarte w artykule zilustrowano samodzielnie zbudowanym modelem dynamiki systemów. Słowa kluczowe: dynamika systemów, metody modelowania, rozwój gospodarczy SYSTEM DYNAMICS AS A TOOL FOR MODELING OF PROCESSES OF ECONOMIC GROWTH AND DEVELOPMENT Summary In the article, problems concerning applications of system dynamics in modeling of processes of economic growth and development are discussed. The main aim of the article is to present major possibilities and advantages of usage of system dynamics in modeling of economic growth and development in Poland. Not only merits, but also some drawbacks and controversies connected with applying system dynamics models to solve economic growth and development problems and to control economic growth and development are described. Considerations included in the article are illustrated with a system dynamics model. Keywords: system dynamics, modeling methods, economic growth and development 1. Wstęp Dynamika systemów została opracowana w latach 60-tych jako narzędzie przeznaczone do modelowania złożonych systemów, również gospodarczo-społecznych, które może być pomocne w lepszym zrozumieniu procesów rozwojowych i w lepszym zarządzaniu nimi. Mimo że dynamika systemów nadal rozwija się i jest dość szeroko stosowana w świecie, zwłaszcza w Stanach Zjednoczonych, w Polsce obecnie jest prawie nieznana i niewykorzystywana. Wydaje się, że dynamika systemów 1 Prof. Mirosława Lasek, Mgr Anna Wierciszewska – Uniwersytet Warszawski, Wydział Nauk Ekonomicznych, Katedra Informatyki Gospodarczej i Analiz Ekonomicznych. 64 Anna Wierciszewska, Mirosława Lasek mogłaby być szerzej stosowana do modelowania polskiej gospodarki i byłaby użyteczna w lepszym zrozumieniu i zarządzaniu tym systemem. Celem artykułu jest zaprezentowanie możliwości i zalet zastosowania dynamiki systemów w modelowaniu procesów rozwoju gospodarczego Polski, aby zachęcić czytelników do jej intensywniejszego wykorzystywania, co z pewnością mogłoby dostarczać wielu pożytecznych wskazówek co do sterowania efektywnością i rozwojem procesów gospodarowania. Do budowy modelu, ilustrującego rozważania przedstawiane w artykule, wykorzystano program komputerowy Vensim, służący do budowania i symulacji modeli dynamiki systemów, opracowany przez Ventana Systems, Inc. (w wersji podstawowej dostępny nieodpłatnie na stronie: [http://www.vensim.com/software.html]). 2. Powstanie dynamiki systemów i rozwój jej zastosowań do modelowania procesów rozwoju gospodarczego Dynamikę systemów opracował, na przełomie lat 50-tych i 60-tych, Jay W. Forrester, profesor Massachusetts Institute of Technology (MIT). W roku 1961 wydał on książkę Industrial Dynamics (Dynamika przemysłu), w której opisał główne zasady nowego podejścia do zarządzania złożonymi systemami. Publikacja ta była zwieńczeniem jego kilkuletnich studiów nad różnymi problemami zarządzania przedsiębiorstwem. Podczas tych studiów Forrester rozwinął metodologię symulacji, którą uważał za integralną część procesu poznawania i modelowania każdego systemu. Równolegle z rozwojem metodologii następował rozwój oprogramowania, co zapewne odegrało znaczną rolę w rozwoju praktycznych zastosowań proponowanych koncepcji Forrestera. Na potrzeby badań Forrestera, programista Richard Benet stworzył pierwszy kompilator symulacji modeli dynamiki systemowej. Kompilator ten, o nazwie SIMPLE (Simulation of Industrial Management Problems with Lots of Equations), umożliwiał automatyczne kodowanie i rozwiązywanie rozbudowanych układów równań różniczkowych przedstawiających funkcjonowanie, opisanego za pomocą takich równań, systemu. Symulacja komputerowa towarzyszyła więc od początku rozwojowi dynamiki systemów. W kolejnych latach Forrester wraz z innymi, dostrzegającymi potencjał tkwiący w koncepcji dynamiki systemów, zaczął poszerzać zastosowanie dynamiki systemów do modelowania coraz to innych zagadnień gospodarczych i społecznych. Okazywało się, że jego nowatorskie, wówczas, podejście można stosować z powodzeniem w przypadku wielu różnorodnych zagadnień. W 1968 roku Forrester napisał książkę Urban Dynamics, w której przedstawił zastosowanie dynamiki systemów do analizowania problemów zarządzania przestrzenią i gospodarską miejską. Publikacją, która okazała się niezwykle ważna dla rozpowszechnienia i rozwoju dynamiki systemów, była kolejna książka Forrestera, nosząca tytuł World Dynamics (1971), [Forrester 1973]. Książka ta osiągnęła duży rozgłos, z uwagi na nawiązujący do niej znany raport The Limits to Growth (1972), sporządzony na potrzeby Klubu Rzymskiego i alarmujący o ograniczonych możliwościach rozwoju gospodarki światowej. W World Dynamics i The Limits to Growth, posługując się podejściem dynamiki systemów, ukazano realne groźby wyczerpania się surowców naturalnych i wystąpienia poważnych problemów z zanieczyszczeniem śro- Dynamika systemów jako narzędzie modelowania procesów ... 65 dowiska, o ile nie zostanie zmieniona, obserwowana w tym czasie, dynamika i sposób rozwoju gospodarczego świata. Mimo że World Dynamics miała nie tylko swoich entuzjastów, ale i krytyków, grono zwolenników samej koncepcji dynamiki systemów znacznie się powiększyło. Powstało System Dynamics Society, wydające kwartalnik System Dynamics Review oraz organizujące coroczne światowe konferencje, na których są prezentowane najnowsze osiągnięcia z dziedziny dynamiki systemów. Dynamikę systemów zaczęto stosować w najrozmaitszych dziedzinach nauki, począwszy od biologii i chemii, poprzez ekonomię, marketing i zarządzanie, aż do socjologii i psychologii. Z tematów artykułów, prezentowanych na konferencjach oraz publikowanych w System Dynamics Review, można wnioskować, że w ostatnich latach dynamika systemów jest najintensywniej stosowana w następujących dziedzinach: szeroko pojęty biznes (zarządzanie, strategie rozwoju, łańcuchy dostaw, systemy informatyczne), ochrona środowiska i ekologia, energia i zasoby naturalne, ochrona zdrowia, ekonomia teoretyczna, polityka gospodarcza i społeczna, edukacja. Współcześnie, po dziesięcioleciach rozwoju, dynamika systemów jest obszerną dziedziną wiedzy o systemach, wraz z: ilościowymi metodami analizy, procedurami badawczymi, technikami przetwarzania informacji ilościowej i jakościowej, zestawami norm: technologicznych, jakościowych, etycznych, prawnych [Elementy... 2008 s. 9]. Po opracowaniu przez Forrestera wspomnianego modelu gospodarki światowej, dynamikę systemów jeszcze wiele razy stosowano do modelowania systemów gospodarczych. Można tu wymienić model Threshold 21, opracowany przez Millennium Institute. Stanowi on rozbudowany model społeczno-gospodarczy wraz ze zmiennymi opisującymi stan środowiska naturalnego. Model ten był dość intensywnie wykorzystywany w praktyce, między innymi do analiz stosowania różnego rodzaju polityk rozwoju w ponad dwudziestu krajach rozwijających się, a jego, odrębnie opracowana wersja, do analizy i planowania polityki energetycznej Stanów Zjednoczonych. W Polsce, dynamika systemów nie zdobyła zbyt dużej popularności. Spośród osób rozwijających w Polsce tę dziedzinę należy wymienić Ryszarda Łukaszewicza, którego książka Dynamika systemów zarządzania jest zazwyczaj wymieniana jako podstawowa pozycja w polskiej literaturze z zakresu dynamiki systemów, Elżbietę Kasperską i Jerzego Tarajkowskiego. Dynamika systemów nie była szerzej używana w Polsce do modelowania gospodarki, jej zastosowania dotyczyły tu raczej problemów inżynieryjnych i zarządzania organizacjami. 3. Podstawy koncepcji dynamiki systemów Punktem wyjścia do opracowania dynamiki systemów była obserwacja złożoności i zachowania istniejących systemów gospodarczych i społecznych. Przyjęto, że modele dynamiki systemów będą uwzględniać i analizować trudne do ujęcia cechy istniejących systemów: odporność na ingerencje z zewnątrz, nieintuicyjne zachowanie i sprzężenia zwrotne w relacjach miedzy zmiennymi. Odporność na ingerencje z zewnątrz przejawia się tym, że polityka zmiany funkcjonowania systemu, wprawdzie początkowo, wytrąca jego zachowanie z równowagi 66 Anna Wierciszewska, Mirosława Lasek w pożądanym kierunku, jednak po jakimś czasie zmienne powracają do wartości sprzed ingerencji lub zmieniają się w inny, nieprzewidziany sposób. Zgodnie z założeniami dynamiki systemów, błędy w planowaniu ingerencji w systemy społecznogospodarcze wynikają głównie z niedostrzegania złożoności i dynamicznej istoty tych systemów [Sterman 1987 s. 1–2]. Błędom tym można w dużej mierze zapobiec, poprzedzając stworzenie polityki zmian zbadaniem systemu za pomocą metod dynamiki systemów. Zgodnie z założeniami Forrestera, zachowanie będące wynikiem działania systemu można rozłożyć na zbiór podstawowych zachowań (wykładniczych wzrostów i/lub spadków), które są wytwarzane przez pętle przyczynowoskutkowe, zwane sprzężeniami zwrotnymi (feedback loops). Trzema podstawowymi elementami modelowanego systemu, połączonymi sprzężeniami zwrotnymi, są: kumulujące materię lub informację poziomy, łączące poziomy strumienie (dopływy i odpływy) oraz regulujące natężenie strumieni stanowiska decyzyjne [Kasperska 2005 s.13]. Po przedstawieniu systemu jako zbioru poziomów wraz ze swoimi dopływami i odpływami oraz regulującymi strumienie stanowiskami decyzyjnymi, dzięki symulacji całego gotowego modelu, możliwe jest badanie konsekwencji ingerencji w system i zaplanowanie skutecznej polityki. Analiza struktury i wyników symulacji umożliwia zrozumienie odporności systemu na ingerencje z zewnątrz oraz jego nieintuicyjnego zachowania. Struktury systemów, stworzone przy pomocy: sprzężeń zwrotnych, poziomów i strumieni, są prezentowane w postaci dwóch rodzajów diagramów: diagramów pętli przyczynowo-skutkowych (causal loop diagrams) oraz diagramów poziomów i strumieni (stock and flow diagrams). 4. Diagramy pętli przyczynowo-skutkowych oraz diagramy poziomów i strumieni Tworzenie diagramów pętli przyczynowo-skutkowych ma na celu wybranie najbardziej istotnych zmiennych w systemie, który jest przedmiotem modelowania, i połączenie ich zależnościami przyczynowo-skutkowymi. Każda pętla w diagramie jest graficznym zapisem sprzężenia zwrotnego. Forrester uznaje sprzężenia zwrotne za podstawowy element struktury każdego systemu. Dynamiczne zachowanie systemu jest wytwarzane właśnie przez działające w nim sprzężenia zwrotne [Forrester 1968, rozdz. 4. s. 5]. Tworzenie diagramów pętli przyczynowo-skutkowych jest uważane za konieczny etap poprzedzający budowę diagramów poziomów i strumieni [Sterman 2000 s. 102]. Występujące w systemach społeczno-gospodarczych dodatnie i ujemne sprzężenia zwrotne są przyczyną powstawania takich zjawisk, jak oscylacje czy samonapędzający się wzrost lub spadek. W przypadku sprzężeń dodatnich (positive/reinforcing loops) przyrost jednej zmiennej powoduje wzrost kolejnych zmiennych w pętli, co wywołuje coraz szybszy wzrost pierwszej zmiennej [Kasperska 2005 s. 14]. W dynamice systemów dodatnie sprzężenia zwrotne są uznawane za przyczynę wykładniczego wzrostu wartości zmiennych w systemie. Drugim podstawowym elementem diagramów pętli przyczynowo-skutkowych jest ujemne sprzężenie zwrotne (negative/balancing loop). W wyniku działania ujemnych sprzężeń zwrotnych obser- Dynamika systemów jako narzędzie modelowania procesów ... 67 wujemy coraz wolniejsze zbieganie zmiennej do jakiejś ustalonej granicy (goal seeking behaviour). Podobnie, jak dodatnie oraz ujemne sprzężenia zwrotne uważane są przez dynamikę systemów za podstawowe jednostki budowy każdego systemu, tak i wywoływane przez nie zachowania zmiennych, a więc wykładniczy wzrost oraz dążenie do granicy, są uznawane za podstawowe elementy, na które można rozłożyć zachowanie całego systemu [Sterman 2000 s. 108 i 112]. Połączenie ze sobą wielu pętli sprzężenia zwrotnego sprawia, że podstawowe zachowania zmiennych, a więc wykładniczy wzrost oraz dążenie do granicy łączą się ze sobą, tworząc inne, często obserwowane zjawiska, takie jak: wzrost w kształcie litery „S”, oscylacje, wzrost z następującym zaraz po nim spadkiem (kształt odwróconej litery „U”) itd. [Sterman 2000 s. 108]. Chociaż diagramy pętli przyczynowo-skutkowych są niezbędne w procesie budowania modeli dynamiki systemów, to jednakże są one niezbyt precyzyjne i nie wiążą zmiennych żadnymi zależnościami ilościowymi, na podstawie których można byłoby przeprowadzać symulacje i wnioskowanie. Te braki uzupełniają diagramy poziomów i strumieni. Diagramy pętli przyczynowo-skutkowych są tworzone w celu zapisania sposobu myślenia o systemie, natomiast doprecyzowujące je diagramy poziomów i strumieni są budowane w celu umożliwienia symulacji działania zakładanego modelu myślowego i skonfrontowania jego wyników z rzeczywistymi wartościami zmiennych. W trakcie symulacji wartości zmiennych są wyliczane na podstawie zapisanych w modelu równań w ustalonych odcinkach czasu. Zmienne pomocnicze oraz zmienne na stanowiskach decyzyjnych (podające natężenie strumieni) są liczone dla danej chwili na podstawie ilościowych zależności z innymi zmiennymi, podczas gdy poziomy akumulują strumienie i ich wielkość w chwili t jest obliczana według wzoru [Sterman 2000 s. 194]: t poziom( t ) = ∫ [doplyw( s ) − odplyw( s )] ds + poziom( t 0 ) , t0 gdzie: t – czas, dla którego jest obliczana wielkość poziomu, t0 – czas rozpoczęcia symulacji. Wybranie odpowiednich zmiennych w systemie, które zostaną przedstawione w modelu jako poziomy, jest bardzo ważnym zadaniem w procesie budowy modelu dynamiki systemów. Poziomy mają kluczowe znaczenie w generowaniu dynamiki systemu, za ich pomocą można przedstawić opóźnienia w modelu (akumulują przepływy, przez co opóźniają ich dotarcie do kolejnych poziomów), ich wielkości charakteryzują stan systemu, są jego pamięcią. 5. Etapy modelowania W literaturze można znaleźć różne propozycje etapów procesu tworzenia modeli dynamiki systemów. Można zauważyć wiele podobieństw między nimi. Podajmy przykładową propozycję podziału procesu modelowania na etapy, która w sposób 68 Anna Wierciszewska, Mirosława Lasek szczególnie logiczny, uporządkowany sugeruje realizację prac nad modelem. Przedstawił ją John D. Sterman, w swojej książce Business Dynamics, Systems thinking and modeling for complex world [Sterman 2000 s. 194]. Proces pracy nad modelowanym systemem został podzielony na pięć etapów: 1) Zdefiniowanie problemu; 2) Sformułowanie dynamicznych hipotez; 3) Stworzenie modelu do symulacji; 4) Przetestowanie zachowania modelu; 5) Zaprojektowanie polityki działania i jej ewaluacja. Ze szczegółowym opisem poszczególnych etapów można się zapoznać w wymienionej pracy J. D. Stermana, jak i w pracy magisterskiej [Wierciszewska 2010 s. 16–18]. 6. Wady, zalety i kontrowersje wykorzystywania modeli dynamiki systemów Zwolennicy dynamiki systemów za jedną z jej głównych zalet uważają zdolność do badania międzyokresowych, dynamicznych związków między zmiennymi [Porwit 1975]. Poziomy w modelu dynamiki systemów, nazywane przez J.D. Stermana „pamięcią systemu” [Sterman 2000 s. 192], kumulują przepływy informacji i materiałów w przeciągu lat i tym samym są źródłem informacji o przeszłych okresach. Razem z uwzględnianymi w systemie opóźnieniami, poziomy umożliwiają harmonijne i przejrzyste powiązanie przeszłych wydarzeń z przyszłymi skutkami. D. Meadows, jedna z prekursorek dynamiki systemów, wyraziła opinię, że metoda ta nadaje się bardzo dobrze do modelowania systemów społeczno-gospodarczych, z powodu specyficznych cech tych systemów, z którymi nie radzą sobie dobrze modele ekonometryczne, a które z łatwością można ująć za pomocą modeli dynamiki systemów [Podano za: Porwit 1975]. Do tych cech należy częste występowanie dużych odległości w czasie i przestrzeni pomiędzy pojawiającą się zmianą w systemie a jej skutkiem. Ponadto, w systemach społeczno-gospodarczych można zaobserwować zupełnie inne reakcje bezpośrednio po zajściu zmian, a zupełnie inne po dłuższym czasie. Często można nawet zauważyć, że w systemach tych pojawiają się siły przeciwdziałające zmianom, których działanie można dostrzec w perspektywie długookresowej. Analizowanie tych sił jest możliwe dzięki dynamice systemów, poprzez analizowanie hamujących sprzężeń zwrotnych. Analiza symulacji modelu ze sprzężeniami zwrotnymi pozwala zaobserwować skutki, jakie wywołuje zmiana w systemie zarówno w krótkim, jak i w długim okresie. Wartą podkreślenia zaletą dynamiki systemów jest przejrzystość i komunikatywność tworzonych modeli. Forrester, w swojej pracy Principles of Systems, podkreśla, że modele dynamiki systemów powinny być przejrzyste, dostarczając konkretnych, łatwo czytelnych wniosków [Forrester 1968 rozdz. 3. s. 4]. Modele powinny umożliwiać rozkładanie złożonych siatek powiązań między zmiennymi na proste, chociaż często nieliniowe, zależności. Podstawowe narzędzia graficzne modelowania (tj. diagramy pętli przyczynowo-skutkowych oraz diagramy poziomów i strumieni) starano się zaprojektować tak, aby były intuicyjne, pozwalały dobrze odzwierciedlić logikę Dynamika systemów jako narzędzie modelowania procesów ... 69 systemu i wyobrażenie o systemie oraz ułatwiały wyjaśnianie zaproponowanego sposobu rozwiązania problemu. Jednakże, niektóre cechy dynamiki systemów, które przez jej zwolenników są uważane za zalety, przez innych są krytykowane i uważane raczej za wady. Jako przykład można podać, podzielany przez zwolenników dynamiki systemów, pogląd o konieczności uwzględniania w modelach, zmiennych jakościowych i wszelkich zmiennych trudno mierzalnych, ponieważ odgrywają one czasem nawet decydującą rolę w modelowanych systemach [Kwaśnicki 1998 s. 9]. Zwolennicy dynamiki systemów uważają, że wartościowe jest uwzględnianie w modelach nawet niedokładnego, przybliżonego wpływu czynników trudno mierzalnych. Przeciwnicy twierdzą, że w żaden sposób nie będzie to zgodne z rzeczywistością, a raczej jedynie będzie odpowiadać subiektywnej opinii tworzącego modele. Można spotkać także pogląd, że nawet całe modele, tworzone zgodnie z założeniami dynamiki systemów, opierają się na subiektywizmie ich twórców w tak dużym stopniu, że nie uwzględniają ani żadnych właściwych zmiennych, ani relacji, ponieważ nie opierają się na dostatecznie wnikliwych badaniach empirycznych [Por. Nordhaus 1973 s. 1156–1183]. Zwolennicy dynamiki systemów twierdzą z kolei, że skupia się ona na badaniu dynamicznych relacji przyczynowo-skutkowych między zmiennymi w systemie i brak czy też nieuwzględnianie dokładnych zależności i danych ilościowych nie powoduje spadku jej przydatności. TABELA 1. Porównanie dynamiki systemów z ekonometrią Dynamika systemów Podejście holistyczne (system) Modele zamknięte (niewiele zmiennych niezależnych) Zorientowana na strukturę Bada relacje przyczynowo-skutkowe w strukturze systemów Przyjmuje perspektywę długookresową Modele odporne na warunki ekstremalne Modele generują zmienne w czasie zachowanie Zorientowana na proces modelowania (nauka) Bada związki jakościowe Celem jest ogólne zrozumienie systemu Ekonometria Podejście szczegółowe (podsystem) Modele otwarte (niewiele zmiennych zależnych) Zorientowana na dane Bada korelacje w danych dotyczących systemów Przyjmuje perspektywę krótkookresową Modele działają w otoczeniu punktów równowagi Modele generują jednomodalne zachowanie lub stan równowagi Zorientowana na produkt modelowania (wyniki) Bada związki ilościowe Celem jest predykcja i estymacja Źródło: [Myrtveit 2005]. Innym zarzutem, stawianym wobec dynamiki systemów, jest to, że aby, zgodnie z jej założeniami tworzyć modele holistyczne i zamknięte, do budowy modeli są wykorzystywane zmienne na bardzo wysokim poziomie agregacji. Agregacja oczywiście 70 Anna Wierciszewska, Mirosława Lasek zmniejsza poziom dokładności wyników symulacji modeli, ale nie uniemożliwia całkowicie pozyskania wielu ciekawych spostrzeżeń. Dynamika systemów bywa porównywana z ekonometrią, a modele dynamiki systemów z modelami ekonometrycznymi. Prawdziwy wydaje się pogląd, że modele te mają inne założenia i inne zastosowanie. Są modelami, które powinny być traktowane jako uzupełniające się, a nie konkurujące ze sobą. Porównanie dynamiki systemów z ekonometrią zamieszczono w tabeli 1., zwracając uwagę na te cechy, którymi obie dziedziny znacznie się różnią i sugerując, że być może dopiero zastosowanie obu podejść może zapewnić kompletną analizę problemów. 7. Założenia modelowania procesów rozwoju gospodarczego za pomocą dynamiki systemów Struktura budowanych modeli opiera się na: teoriach ekonomicznych, wiedzy eksperckiej, dynamice zmian uwzględnianych zmiennych, obserwowanych w posiadanych, rzeczywistych danych. Początkowo, ustalona struktura jest doskonalona w przebiegu kolejnych symulacji tworzonego modelu. Wykorzystywane teorie ekonomiczne to różnorodne teorie oraz modele wzrostu i rozwoju gospodarczego [Wierciszewska 2010 s. 22–33]. W zależności od przeznaczenia modeli, ukierunkowanie na rozwiązywanie konkretnych problemów i pomoc w projektowaniu polityki działania w konkretnych sytuacjach, wykorzystywane są różne teorie oraz modele wzrostu i rozwoju. Jako przykładowe, wybierane do zastosowań w modelowaniu można wymienić: neoklasyczne modele wzrostu gospodarczego (np. neoklasyczny model Solowa-Swana), modele wzrostu endogenicznego, koncepcje teorii rozwoju gospodarczego w ekonomii shumpeterowskiej i ewolucyjnej, idee nowej geografii ekonomicznej Paula Krugmana [Krugman 1991]. Na potrzeby modelowania są wykorzystywane nowo powstające, współczesne koncepcje i strategie rozwoju. Obok tradycyjnych czynników rozwoju gospodarczego, takich jak kapitał i praca, uwzględniane są: kapitał ludzki, wiedza, innowacyjność. W opracowywanych modelach rozwoju gospodarczego dynamiki systemów są brane pod uwagę gospodarcze strategie rozwojowe, mające znaczenie dla prowadzonej polityki gospodarczej, umożliwiając badanie poprzez model konsekwencji dla gospodarki i społeczeństwa prowadzenia różnych polityk w ramach tych strategii. W przypadku Polski istotne jest uwzględnienie założeń Strategii Lizbońskiej oraz Strategii Rozwoju Kraju 2007–2015 wraz z bardziej szczegółowymi dokumentami opracowanymi dla zapewnienia jej realizacji. 8. Ilustracja budowy i przydatności modelu dynamiki systemów dla analizy procesów rozwoju gospodarczego Polski Model został zbudowany przez Annę Wierciszewską i przedstawiony w pracy [Wierciszewska 2010]. Autorka jako cel przyjęła zbudowanie takiego modelu, który byłby pomocny w zarządzaniu procesem rozwoju Polski. Podstawowy problem, ujęty do rozważenia dzięki modelowi, to: ustalenie wpływu czynników zależnych od pań- Dynamika systemów jako narzędzie modelowania procesów ... 71 stwa na proces rozwoju kraju [Wierciszewska 2010 s. 49]. Starano się zbudować model tak, aby ujmował: dynamikę zmian poziomu technologii, wielkości kapitału ludzkiego, kapitału fizycznego oraz produkcji. Zostały uwzględnione w ten sposób zarówno tradycyjne, jak i „współczesne” czynniki rozwoju, co powinno zapewnić możliwość śledzenia realizacji strategii rozwoju w Polsce. Wyznaczone dla zbudowania modelu zmienne zostały połączone siecią zależności, tak aby stanowiły zmienne endogeniczne w modelu. Dzięki temu zabiegowi, dynamika ich zmian powstaje w rezultacie funkcjonowania całego systemu. Wskazano także te zmienne w systemie, na które mają wpływ władze państwowe z racji prowadzonej polityki. Biorąc pod uwagę założenia modelu rozwoju regionalnego Ugo Fratesiego [Fratesi 2004], przyjęto, że w budowanym modelu rozwoju gospodarczego będą wykorzystane zmienne agregowane na poziomie wojewódzkim. W celu zbadania przydatności budowanego modelu, został on skalibrowany dla dwóch przykładowych województw: śląskiego i małopolskiego (województwa regionu południowego). Kalibracja, a więc numeryczne rozwiązanie równań modelu, została przeprowadzona za pomocą szeregu symulacji, podczas których ustalono takie wartości parametrów, dla których uzyskane z modelu wartości zmiennych są jak najbliższe ich rzeczywistym odpowiednikom. Na obecnym etapie budowy, model umożliwia analizę dynamiki rozwoju dwóch województw. Jednak w strukturze modelu uwzględniono również powiązania międzywojewódzkie, tak więc, po skalibrowaniu go dla pozostałych województw, będzie możliwe badanie dynamiki rozwoju gospodarczego całego kraju. Ponieważ dane dotyczące większości zmiennych są udostępniane począwszy od roku 1995, ramy czasowe modelu zostały wyznaczone na lata 1995–2008. Okres lat 1995–2008 został podzielony na dwa podokresy. Model został skalibrowany dla danych z lat 1995–2005, a więc jego parametry zostały tak dobrane, aby model dobrze symulował dynamikę zmiennych w tym okresie. Dla lat 2006–2008 przeprowadzono prognozę na podstawie modelu (tzw. prognoza ex post), aby porównać jej wyniki z rzeczywistymi danymi i sprawdzić w ten sposób możliwości prognostyczne modelu. Model został tak opracowany, że jeśli chodzi o jego podstawy teoretyczne, to opiera się on przede wszystkim na teoriach wzrostu endogenicznego, a ściślej na modelu Paula Romera. Z teorii tych została zaczerpnięta jego ogólna struktura, w której wyróżniono trzy sektory: sektor technologii, sektor kapitału ludzkiego oraz sektor produkcji. W modelu przyjęto założenie, że wzrost PKB wynika z akumulacji kapitału fizycznego, technologii oraz kapitału ludzkiego. Takie podejście, zgodne z teoriami wzrostu endogenicznego, eksponuje jednocześnie te czynniki, które w Strategii Lizbońskiej są uznawane za podstawowe w stymulacji rozwoju gospodarczego i tym samym, na które należy skierować największy wysiłek inwestycyjny. Diagram pętli przyczynowo-skutkowych modelu zilustrowano na rysunku 1. Na rysunku przedstawiono zachodzenie dodatnich sprzężeń zwrotnych pomiędzy kapitałem fizycznym, PKB, poziomem technologii oraz kapitałem ludzkim. Zwiększenie się poziomu jakiejkolwiek zmiennej będzie powodować zwiększanie się powiązanych z nią zmiennych. 72 Anna Wierciszewska, Mirosława Lasek RYSUNEK 1. Diagram pętli przyczynowo-skutkowych Źródło: Opracowanie własne przy wykorzystaniu programu Vensim. Opisywany model przyjmuje pewne założenia nowej geografii ekonomicznej – jest pod tym względem podobny do modelu rozwoju regionalnego Fratesiego. Zgodnie z tymi założeniami, są rozpatrywane oddzielnie poszczególne regiony, dla każdego województwa są oddzielnie kalibrowane parametry. Takie podejście wynika ze spostrzeżenia, że każdy region charakteryzują: specyficzne warunki, inna historia, położenie geograficzne, instytucje, zasoby naturalne. Wszystko to powoduje, że inne jest tempo akumulacji zasobów, inna siła powiązań między zmiennymi makroekonomicznymi. Te dysproporcje są przyczyną różnic w wartościach parametrów. Województwa są połączone ze sobą wieloma powiązaniami. Jednakże akumulacja czynników produkcji odbywa się w ramach pojedynczego województwa. Potwierdza to proste spostrzeżenie, że czynniki produkcji w różnym natężeniu występują w różnorodnych regionach tego samego kraju. Dotyczy to zarówno kapitału fizycznego, kapitału ludzkiego czy też poziomu technologii. Jeszcze jednym argumentem, aby badać procesy rozwojowe, biorąc pod uwagę perspektywę województw, a nie całego kraju, jest łatwo dostrzegalny fakt, że wszelkie procesy aglomeracyjne, opisywane przez nową geografię ekonomiczną, mają miejsce w ramach mniejszych obszarów niż cały kraj. Również w unijnych, jak i krajowych strategiach rozwoju podkreśla się słuszność ujmowania zjawisk dotyczących całego kraju jako efektu konkurowania ze sobą, jak i wzajemnej współpracy pojedynczych regionów. Przyjęte zależności pomiędzy zmiennymi w ramach każdego z trzech sektorów budowanego modelu, tj.: sektora technologii, sektora kapitału ludzkiego oraz sektora produkcji, można prześledzić na diagramach poziomów i strumieni, tak jak je przedstawiono kolejno na rysunkach: 2., 3. i 4. Dynamika systemów jako narzędzie modelowania procesów ... 73 Dla odczytania diagramów poziomów i strumieni jest niezbędna znajomość następujących symboli: – poziomy, – stanowiska decyzyjne, – strumienie, – źródła/ujścia zewnętrzne dla modelu. Cienkie strzałki przedstawiają, że dana zmienna jest używana przy obliczaniu wartości innej zmiennej. Z uwagi na ograniczoną objętość artykułu, szczegółowy opis diagramów, z uzasadnieniem przyjmowanych rozwiązań, został pominięty. Zainteresowany czytelnik może zapoznać się z dokładnym opisem diagramów w pracy Wierciszewskiej [Wierciszewska 2010 s. 52–59]. RYSUNEK 2. Diagram poziomów i strumieni: sektor technologii Źródło: Opracowanie własne przy wykorzystaniu programu Vensim. 74 Anna Wierciszewska, Mirosława Lasek RYSUNEK 3. Diagram poziomów i strumieni: sektor kapitału ludzkiego Źródło: Opracowanie własne przy wykorzystaniu programu Vensim. RYSUNEK 4. Diagram poziomów i strumieni: sektor produkcji Źródło: Opracowanie własne przy wykorzystaniu programu Vensim. Dynamika systemów jako narzędzie modelowania procesów ... 75 9. Kalibracja i analiza parametrów w modelu dynamiki systemów Jak zostało to już wspomniane w artykule (s. 10), opracowany model rozwoju poddano kalibracji dla województw: śląskiego i małopolskiego, dla lat 1995–2005. Kalibracja modelu pozwoliła znaleźć parametry umożliwiające za pomocą modelu na symulację zachowań rzeczywistych zmiennych. W przypadku większości modeli dynamiki systemów przeprowadzanie kalibracji jest niezbędne, ponieważ nie jest możliwa estymacja parametrów ze względu na występowanie nieliniowości zależności między zmiennymi oraz dużej ilości zmiennych endogenicznych. Tak okazało się także w przypadku budowanego tu modelu. Program Vensim, o którym była mowa we wstępie pracy, ułatwia przeprowadzanie kalibracji, ponieważ automatycznie znajduje optymalne wartości parametrów przez dopasowywanie zmiennych w modelu do wskazanych, rzeczywistych danych przy wprowadzanych przez użytkownika wagach, czyli mnożnikach umożliwiających ustalenie poziomu pożądanej precyzyjności w dopasowywaniu poszczególnych zmiennych. W przypadku budowanego modelu, wielkości niektórych parametrów ustalono bez kalibracji. Dotyczyło to: stopy urodzeń, stopy umieralności, części PKB przeznaczonej na inwestycje oraz stopy amortyzacji. Parametry te potraktowano jako stałe modelu, przyjmując, że są równe średnim z ich rzeczywistych wartości, z lat 1995–2005. Przyjęto założenie, że pozostałe parametry, będące w większości elastycznościami (równania w modelu przeważnie mają postać iloczynów, gdzie parametry są potęgami), przyjmują określone, dopuszczalne zakresy wartości. Za pomocą programu Vensim była możliwa optymalizacja wielkości tych parametrów. Wyznaczenie parametrów modelu pozwoliło na opracowanie prognozy dla lat 2006–2008 i porównanie tej prognozy z rzeczywistą sytuacją, jaka miała miejsce w latach 2006–2008. Duże różnice między rzeczywistymi wartościami zmiennych a pochodzącymi z modelu mogą świadczyć o tym, że przyjęto nieprawidłowe założenia dotyczące związków między zmiennymi lub zostały pominięte istotne czynniki decydujące o przebiegu procesów. Dla badania przebiegu procesów rozwoju gospodarczego interesująca może okazać się już sama analiza parametrów modelu, po ich wyznaczeniu. Przykładowo, w przypadku opisywanego w artykule modelu, interesująca wydaje się analiza parametrów występujących w równaniu produkcji. Wygląda na to, że spośród dwóch analizowanych województw: śląskiego i małopolskiego, województwo śląskie ma wyższy współczynnik kapitał/praca od małopolskiego i niższą elastyczność PKB względem kapitału. Tak więc, we względnie zasobniejszym w kapitał fizyczny województwie śląskim dodatkowa jednostka kapitału przynosiłaby mniejszy przyrost PKB niż w województwie małopolskim, nawet gdyby stosunki kapitał/praca były równe w tych województwach. Województwo małopolskie ma natomiast wyższy poziom technologii od śląskiego i niższą elastyczność produkcji względem technologii. Można stąd wnioskować, że efekt malejących przychodów z poszczególnych czynników produkcji, który powinien prowadzić do ujednolicenia między województwami stosunku czynników produkcji (np. kapitał/praca), jest dodatkowo wzmacniany przez różnice w elastycznościach PKB między województwami. 76 Anna Wierciszewska, Mirosława Lasek 10. Modelowanie procesów rozwoju gospodarczego na przykładzie opracowanego modelu dynamiki systemów Przed rozpoczęciem zamierzonego, zgodnie z przyjętymi założeniami, modelowania procesów rozwoju gospodarczego przydatne może być przeanalizowanie zachowania zmiennych utworzonego modelu dynamiki systemów. Wiele korzyści poznawczych, potrzebnych do modelowania, może dać porównanie wyników symulacji na podstawie skalibrowanego modelu z rzeczywistymi wartościami zmiennych. W przypadku opisywanym w artykule, porównania takiego dokonano dla lat 1995–2008. Rozpoczęto analizę od podstawowego miernika wzrostu gospodarczego, jakim jest PKB. Posłużono się najpierw przykładem województwa śląskiego. Model nie odwzorowuje w pełni rzeczywistych danych. W latach 1995–2005, dla których model był kalibrowany, różnica między symulacją a danymi sięga 13074 mln zł dla roku 2001, co stanowi 12,5% PKB. W latach 2006 i 2007 zachowuje trend wzrostowy, zbliżony do rzeczywistego, jednak różnica między symulacją i danymi powiększa się i osiąga w 2007 roku – 14 309 mln zł. W czasie prowadzonej analizy, dane dotyczące PKB w roku 2008 nie były udostępnione przez GUS. Trafniejsza, niż dla PKB, okazała się symulacja akumulacji środków trwałych w województwie śląskim. Symulowane wartości poziomu Kapitał jedynie w niewielkim stopniu odbiegały od rzeczywistych. Maksymalna różnica występuje w roku 2000 i wynosi 6 514 mln zł. Stanowi to jedynie 3,4% rzeczywistej wielkości środków trwałych w tym roku. Nieco gorzej, ale także zadowalająco, zachowuje się wielkość symulacji akumulacji kapitału w województwie małopolskim. W obu województwach za zadowalające można uznać uzyskane prognozy. Rozbieżności między symulacją i danymi w roku 2008 sięgają zaledwie 1,5% rzeczywistych środków trwałych (w obu województwach). W kalibrowanym okresie, symulacja PKB w województwie małopolskim, w porównaniu z województwem śląskim, wypadła gorzej. W 2001 roku różnica między symulacją a danymi rzeczywistymi sięgnęła 9 438 mln zł (17% PKB). Natomiast w okresie prognozy, lata 2006 i 2007, wielkości symulowane i rzeczywiste osiągają podobne wartości. Błąd prognozy dla roku 2007 sięga tylko 841 mln zł (1% PKB). Zamieszczony w pracy Wierciszewskiej [Wierciszewska 2010], wykres symulowanego PKB może budzić jednak, ze względu na swój kształt, pewne zaniepokojenie. W latach 1995–2001, funkcja wydaje się zbyt płaska w porównaniu z rzeczywistym PKB, a po 2001 roku odznacza się bardzo wyraźnym, dużym kątem nachylenia (podobnie można zauważyć w przypadku województwa śląskiego). Przyczyn niedokładności symulacji PKB można dopatrywać się w problemach dotyczących modelowania poziomu technologii [Wierciszewska 2010 s. 62]. Przyjęta na potrzeby analiz, liczba wniosków patentowych na milion mieszkańców nie okazała się poprawnym miernikiem technologii. Odzwierciedlany za jej pomocą poziom technologii nie spełnia, jak wcześniej przyjęto, założenia o monotoniczności. Ponadto, obserwowana, duża zmienność poziomu technologicznego jest trudna do ujęcia w zależnościach przyczynowo-skutkowych i sprawiająca kłopoty do odtworzenia w symulacji. Zauważalną zaletą modelu jest fakt, że dla województwa śląskiego, w okresie kalibracji (1995–2005), dobrze odzwierciedla ogólne, kilkuletnie trendy dotyczące Dynamika systemów jako narzędzie modelowania procesów ... 77 zmian w liczbie pracowników wykwalifikowanych, jak i niewykwalifikowanych. Mankamentem jest fakt, że model nie jest w stanie odtworzyć jedno-, dwuletnich odchyleń. Można również zauważyć niepokojące zjawisko, że jeśli chodzi o pracowników niewykwalifikowanych, w okresie prognozy wielkości wynikające z symulacji w sposób widoczny różnią się od rzeczywistych. Model skalibrowany dla województwa małopolskiego daje gorsze wyniki niż w przypadku kalibracji dla województwa śląskiego. Nie daje poprawnej, symulowanej liczby pracowników wykwalifikowanych (w porównaniu z ich liczbą rzeczywistą). Jak łatwo zauważyć, liczba pracowników wykwalifikowanych odznacza się tu bardzo silną zmiennością (w rzeczywistości) i można sądzić, że na tę liczbę wpływają dodatkowe czynniki, które nie zostały uwzględnione w modelu. Model przedstawia dobrze ogólny trend, jeśli chodzi o zmienność liczby pracowników niewykwalifikowanych. Jednak i tu pojawia się pewna wada. Model nie sygnalizuje nagłej zmiany trendu w 2008 roku, polegającego na niespodziewanym przyroście ich liczby. Zmienne w modelach dynamiki systemów, które są łatwiejsze do modelowania (symulowania trendów), to zmienne, które nie charakteryzują się gwałtowną, częstą zmianą zachowania. Taką zmienną w, opisywanym w artykule, modelu okazała się zmienna określająca liczbę ludności. Trend zmian ogólnej liczby ludności przez model został dobrze zasymulowany zarówno dla województwa śląskiego, jak i małopolskiego. Rozbieżności pomiędzy rzeczywistymi wielkościami liczby ludności a wskazywanymi przez model były bardzo niewielkie. Modele dynamiki systemów, w tym model opisywany w artykule, zawierają wiele zmiennych, które mogą być przedmiotem określonych decyzji i przez kształtowanie których można próbować odpowiednio modelować zachodzące procesy rozwoju gospodarczego. W opisywanym modelu do zmiennych, na które można wpływać w różnorodny sposób (bezpośredni lub pośredni) i badać dzięki modelowi, a ściślej symulacjom komputerowym (np. za pomocą wspomnianego programu Vensim) ich zarówno bezpośrednie, jak i pośrednie oddziaływanie na procesy rozwoju gospodarczego w celu odpowiedniego kształtowania, należą tu, przykładowo: – nakłady na badania i rozwój; można analizować, jak silnie zmiany nakładów wpływają na rozwój gospodarczy i jakie zwiększenie tych nakładów okaże się rzeczywiście znaczące, czy też opłacalne; w tym można analizować, jaka jest wrażliwość poziomu technologii lub/i PKB na zmiany nakładów na badania i rozwój; – nakłady na kształcenie (lub powszechność kształcenia); można analizować wpływ tej zmiennej, podobnie jak uprzednio wpływ zmiennej nakłady na badania i rozwój; – wielkość inwestycji w środki trwałe (dopływ poziomu Kapitał); można na przykład analizować wrażliwość PKB na zmiany procentu PKB przeznaczonego na inwestycje. Dynamika systemów, dzięki możliwości przeprowadzania symulacji modeli, pozwala badać zależności między zmianami wybranych parametrów a zachowaniem zmiennych makroekonomicznych zamieszczanych w modelach. Zdarza się, że niewielka ingerencja może wywołać nadspodziewanie duże efekty, podczas gdy innym 78 Anna Wierciszewska, Mirosława Lasek razem zerowe. Takie zjawiska możemy analizować, dzięki sieci powiązań między zmiennymi, budowanej jako połączone pętle sprzężeń zwrotnych. Nie do przecenienia w badaniach dynamiki systemów jest możliwość automatyzacji działań, dzięki programom komputerowym, takim jak wspomniany program Vensim. Program komputerowy umożliwia realizację ciągu symulacji, dzięki którym jest możliwe znalezienie optymalnych wartości parametrów odpowiadających przyjętym celom (np. określonym poziomom wydatków), tak aby określić niezbędne zmiany innych zmiennych. Przeprowadzane symulacje umożliwiają uwzględnienie różnorodnych efektów ubocznych i długookresowych konsekwencji. Bez modeli dynamiki systemów, z ujmowanymi przez nie zależnościami, powiązaniami i oddziaływaniami, długookresowe skutki zmian mogłyby pozostać całkowicie niewidoczne i nieuchwytne. 11. Podsumowanie Celem artykułu było zaprezentowanie możliwości i zalet zastosowania dynamiki systemów w modelowaniu procesów rozwoju gospodarczego Polski. Przedstawiany w artykule model ma jedynie charakter ilustracyjny, sygnalizujący użyteczność dynamiki systemów i zachęcający do jej stosowania. Aby stał się przydatny dla konkretnych zastosowań, wymagałby znacznej rozbudowy i wielu modyfikacji, jak krótko wskazano to w pracy [Wierciszewska 2010 s. 68–70]. Zachęcając do stosowania dynamiki systemów jako narzędzia modelowania procesów rozwoju gospodarczego, podsumowując zawarte w artykule rozważania, należy podkreślić, że w szczególności następujące, trzy cechy dynamiki systemów istotnie wpływają na jej użyteczność: – podejście holistyczne i długookresowe; – umożliwianie symulacji działania złożonych systemów społeczno-gospodarczych; – nastawienie na poszukiwanie rozwiązań problemów i projektowanie konkretnej polityki działania. Mamy nadzieję, że przynajmniej na większość tych cech udało nam się zwrócić uwagę w niniejszym artykule. Literatura Elementy Dynamiki Systemów 2008, Tarajkowski J. (red.), Poznań. Forrester J.W. 1968 Principles of Systems, Cambridge. Forrester J.W. 1973 World Dynamics, wydanie drugie, Cambridge. Fratesi U. 2004 Regional Economies, Innovation and Competitiveness in a System Dynamics Representation, Quaderni di Ricerca, n. 204. Kasperska E. 2005 Dynamika Systemowa – symulacja i optymalizacja, Gliwice. Krugman P. 1991 Increasing Returns and Economic Geography, „The Journal of Political Economy”, Vol. 99, No. 3. Dynamika systemów jako narzędzie modelowania procesów ... 79 Kwaśnicki W. 1998 Dynamika Systemów jako metoda nauczania, [w:] Symulacja komputerowa w nauczaniu ekonomii, Edward Radosiński (red.), Wrocław. Myrtveit M. 2005 The World Model controversy, Working Papers in System Dynamics, Bergen. Nordhaus W.D. 1973 World Dynamics: measurement Without Data, „The Economic Journal”, Vol. 83, No. 332. Porwit K. 1975 Uwagi o przydatności metody „dynamiki systemów”, Warszawa. Sterman J.D. 1987 Misperceptions of Feedback in Dynamic Decisionmaking, Working Paper, Cambridge. Sterman J.D. 2000 Business Dynamics, Systems thinking and modeling for complex world, Boston. Wierciszewska A. 2010 Użyteczność dynamiki systemów w zarządzaniu procesem rozwoju gospodarczego Polski, Praca magisterska napisana pod kierunkiem M. Lasek z Katedry Informatyki Gospodarczej i Analiz Ekonomicznych, Wydział Nauk Ekonomicznych, Uniwersytet Warszawski, Warszawa. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Ewa ROSZKOWSKA1 PROCEDURY PODEJMOWANIA DECYZJI SPOŁECZNYCH A OPTIMUM SPOŁECZNE Streszczenie W pracy przedstawiono koncepcję optimum społecznego w ujęciu kompleksów reguł. Powiemy, że stan społeczny jest optymalny społecznie (optimum społecznym), jeśli w wyniku stosowania uznawalnych procedur przez agentów mających odpowiednie uprawnienia decyzyjne nie jest możliwe społecznie uznawalne polepszenie tego stanu społecznego. Dokonano omówienia wybranych społecznie uznawalnych procedur tj. sądy, negocjacje, mediacje, głosowanie, wybory zwracając szczególną uwagę na normatywne aspekty podejmowania grupowych decyzji w oparciu o te procedury. Uświadomienie sposobu przebiegu tych procedur, wad i zalet każdej z nich, uwarunkowań prawnych, kulturowych, społecznych czy etycznych ich wyboru może wpłynąć na zwiększenie efektywności ich stosowania. Słowa kluczowe: optimum społeczne, gra społeczna, podejmowanie decyzji, procedura, reguły PROCEDURES OF SOCIAL DECSION MAKING AND SOCIAL OPTIMUM Summary In this work the concept of social optimum is presented in the context of rules and complexes of rules. We say that a social state is social optimal if in the case of usage of legitimate procedures by agents having authority to make decisions, is no possible to obtain legitimate social improvement of this social state. We described here selected legitimate social procedures such as judgements, negotiation, mediation, voting or election paying special attention to normative aspects of group decisionmaking based on those procedures. Awareness of the way in which these procedures operate, disadvantages and advantages of each of them, legal, cultural, social or ethical conditioning, can enhance their effectiveness. Keywords: social optimum, social game, decision making , procedure, rules 1. Wstęp Decyzje podejmowane za pomocą uznawalnych procedur społecznych są istotnym elementem funkcjonowania współczesnych społeczeństw demokratycznych. Problem podejmowania decyzji grupowych, jak również przekształcania preferencji Dr hab. Ewa Roszkowska, prof. UwB – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania, Zakład Ekonometrii i Statystyki. 1 Procedury podejmowania decyzji społecznych a optimum społeczne 81 indywidualnych w preferencje społeczne to podstawowe aspekty np.: teorii wyboru społecznego, teorii wyboru publicznego, psychologii społecznej czy zarządzania2. Teoria wyboru społecznego ma charakter normatywny, ocenie podlega metoda podejmowania decyzji i jej rezultat, poszukuje się najlepszych sposobów podejmowania grupowych decyzji na podstawie indywidualnych ocen dostępnych alternatyw społecznych oraz metod wyboru z rozważanego zestawu alternatyw, alternatywy najlepszej wraz z normatywnym uzasadnieniem jej wyboru. Teoria wyboru publicznego ma charakter opisowy, bada zachowania ludzi, podmiotów biorących udział w podejmowaniu decyzji oraz przebieg procesu prowadzącego do podjęcia decyzji społecznej [Arrow 1951; Jakubowski 2005; Lissowski 2001; Sen 1970; Sosnowska 2005; Wilkin 2005]. Podejmowanie decyzji grupowych ma służyć rozwiązywaniu sporów, polepszaniu sytuacji społecznych, a w konsekwencji prowadzić do tzw. optimum społecznego. W ekonomii, szczególnie w ekonomii dobrobytu, szeroko jest stosowana koncepcja optimum Pareto. Stan społeczny jest optymalny (efektywny) w sensie Pareto, jeśli nie jest możliwa poprawa sytuacji, co najmniej jednego podmiotu bez pogorszenia sytuacji pozostałych podmiotów. Dwa podstawowe twierdzenia ekonomii dobrobytu opisują związek między wolnokonkurencyjnymi rynkami a efektywnością ekonomiczną w sensie optimum Pareto. Pierwsze twierdzenie głosi, że gospodarka, w której istnieje konkurencja rynkowa, jest efektywna w sensie Pareto. Drugie z nich stwierdza, że mechanizm konkurencji umożliwia osiągnięcie efektywnego w sensie Pareto podziału zasobów. Do wad zasady Pareto można zaliczyć: brak obiektywnych kryteriów służących do oceny przewagi jednej sytuacji społecznej nad inną, wpływ początkowej sytuacji na wybory oparte na tej zasadzie, możliwość wystąpienia wielu nieporównywalnych sytuacji optymalnych w sensie Pareto, traktowanie indywidualnych preferencji jako jedynej podstawy preferencji społecznych czy utożsamianie dobrobytu społeczeństwa z dobrobytem jednostek je tworzących. Krytyka zasady Pareto doprowadziła do poszukiwania dodatkowych warunków i zasad oceny celowości przejścia z jednego stanu do innego np.: zasada efektywności Kaldora-Hicksa, aksjomaty Arrowa, tworzenie funkcji społecznego wyboru, jak również poszukiwanie innych koncepcji optymalności (efektywności) w sensie społecznym [Acocella 2002]. W niniejszym opracowaniu przedstawiono koncepcję optimum społecznego z wykorzystaniem reguł i kompleksów reguł, która może być pewną alternatywą w stosunku do optimum Pareto. Stan społeczny nazywamy optymalnym społecznie, jeśli w wyniku stosowania uznawalnych procedur, tj.: sądy, negocjacje, mediacje, głosowanie czy wybory przez agentów mających odpowiednie uprawnienia decyzyjne, nie jest możliwa społecznie uznawalna poprawa tego stanu społecznego. Ponieważ wybór procedury może przesądzać o ostatecznej decyzji, istotne jest pełne rozpoznanie własności procedur, możliwości stosowania, ograniczeń czy wrażliwości na manipulację. 2 W opracowaniu przyjmuje się, że grupa jest zbiorową całością, którą tworzy zestaw jednostek, przy czym zrozumienie jej zachowania wymaga badania cech grupy i cech jej członków. Decyzje społeczne to decyzje grupowe, na przebieg których wpływ ma zarówno struktura społeczeństwa, role pełnione przez jej członków, jak i normy społeczne. 82 Ewa Roszkowska Praca została podzielona na 5 części. Po niniejszym wstępie, rozdział 2.1. zawiera definicje podstawowych pojęć matematycznych, tj.: reguła, kompleks reguł, podkompleks reguł oraz uogólniona gra. Wykorzystując terminologię z rozdziału 2.1., w rozdziale 2.2. przedstawiono model gry społecznej, a w rozdziale 2.3. koncepcję optimum społecznego opartego na mechanizmach podejmowania decyzji społecznych. Rozdział 3. zawiera przegląd uznawalnych procedur społecznych, tj.: sądy, arbitraż, negocjacje, mediacje, głosowanie. Rozdział 4. poświęcono normatywnym aspektom społecznie uznawalnych procedur. Pracę zamyka krótkie podsumowanie oraz literatura. 2. Optimum społeczne w ujęciu kompleksów reguł 2.1. Koncepcja i własności uogólnionej gry Na wstępie zaprezentowano podstawowe pojęcia matematyczne związane z koncepcją uogólnionej gry [Burns, Roszkowska 2005; Gomolińska 1999; Roszkowska 2007 s. 15–39]. Definicja 1. Przez L oznaczmy język, w którym występują zmienne oznaczające obiekty i meta obiekty. Przez FOR oznaczmy zbiór formuł języka L. Regułą nazywamy dowolny element: ( X , Y , γ ) ∈ ( FIN (℘( FOR ))) 2 × FOR , gdzie: X – zbiór przesłanek Y – zbiór uzasadnień, γ – konkluzja, ℘( FOR ) − zbiór potęgowy zbioru FOR, FIN(℘( FOR ) − rodzina wszystkich skończonych podzbiorów zbioru ℘( FOR ) . Regułę rozumiemy następująco: Jeśli wszystkie elementy X zachodzą oraz wszystkie elementy Y mogą zajść, to mamy γ. Definicja 2. Kompleksem reguł nazywamy zbiór, który spełnia następujące warunki: i) dowolny skończony zbiór reguł jest kompleksem reguł; ii) jeśli C1, C2 są kompleksami reguł, to C1 ∪ C2 oraz ℘(C1 ) są kompleksami reguł; iii) jeśli C1 ⊆ C2, C2 jest kompleksem reguł, to C1 jest również kompleksem reguł. Definicja 3. Powiemy, że kompleks reguł C jest podkompleksem kompleksu D, jeśli C = D lub C został otrzymany z D przez opuszczenie pewnych (lub wszystkich) reguł w kompleksie D oraz opuszczenie zbędnych nawiasów i wystąpień zbioru pustego. Procedury podejmowania decyzji społecznych a optimum społeczne 83 Definicja 4. Przez uogólnioną grę G rozumiemy proces interakcji między graczami pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach. Formalnie, gra jest reprezentowana przez kompleks reguł G = [ROLE(I,G),R], gdzie I oznacza zbiór graczy, ROLE(I,G) kompleks ról pełnionych przez graczy w grze G [Burns, Roszkowska 2005; Roszkowska 2007 s. 15–39]. Wśród podkompleksów G wyróżniamy cztery podstawowe komponenty: – MODEL(I,G), który zawiera reguły opisujące kontekst sytuacyjny oraz ogólne zasady determinujące proces interakcji; – ACTL(I,G), który zawiera: opis możliwych aktywności podejmowanych przez graczy, zachowania rutynowe, instrumentalne, prawne, normatywne; – VALUE(I,G), który zawiera reguły reprezentujące wartości i normy uznawane przez graczy; – J(I,G), który zawiera reguły opisujące sposoby rozumowania graczy oraz metody podejmowania przez nich decyzji. Gracze mogą mieć ograniczoną informację związaną z: kontekstem sytuacyjnym gry, możliwościami działania, funkcjami wypłat. Nie wszystkie reguły gry muszą być znane, reguły mogą być nieprecyzyjne lub niekompletne, mogą być także modyfikowane w trakcie gry. Zachowanie gracza może być: rutynowe, związane np. z przestrzeganiem zwyczajowych zasad, procedur, przepisów prawnych; normatywne oparte na stosowaniu się do norm i wartości występujących w kompleksie VALUE(I,G); instrumentalne zorientowane na osiągnięcie pożądanych wyników; emocjonalne, gdy graczem rządzą emocje, lub kombinacją wymienionych. Celem analizy uogólnionej gry jest znalezienie rozwiązania gry, czyli układu możliwych aktywności podejmowanych przez graczy, realizujących wartości i normy przez nich uznawane i prowadzących do akceptowalnego stanu, nazywanego także stanem równowagi. 2.2. Model gry społecznej Przez stan społeczny będziemy rozumieli opis sytuacji, w której znajduje się społeczeństwo w relacji do działań ludzkich lub zdarzeń naturalnych [Acocella 2002 s. 22–36]. Zbiór możliwych (osiągalnych) stanów społecznych oznaczmy przez ST. Społeczeństwo podejmuje decyzje o zmianie stanu społecznego lub wyborze jednego ze stanów ze zbioru ST za pośrednictwem agentów (graczy), czyli osób uprawnionych do podejmowania grupowych decyzji zgodnie z określonymi procedurami ze zbioru PR. Niech I oznacza zbiór graczy, Iaut zbiór agentów (graczy) posiadających uprawnienia do podejmowania decyzji grupowych, gdzie Iaut ⊆ I. Mamy Iaut ⊆ I, może zajść również I=Iaut. Rozważa się grę społeczną G = [ROLE(I,G),R] jako proces interakcji między agentami (tj.: jednostki, grupy osób itp.) ze zbioru I, pełniącymi w tej grze określone role oraz pozostającymi ze sobą w określonych relacjach w kontekście sytuacji St, opisanych przez stany społeczne w momencie czasu t3. Kompleks ROLE(I,G) opisuje role pełnione przez graczy w grze G: ich siłę, relacje między nimi, społeczne, 3 Szerzej o matematycznych podstawach uogólnionej gry, jej własnościach, zastosowaniach w: [Burns, Roszkowska 2005; Gomolińska 1999; Roszkowska 2007]. 84 Ewa Roszkowska ekonomiczne, kulturowe czy psychologiczne aspekty ich zachowań, R zawiera ogólne reguły regulujące przebieg gry [Burns, Roszkowska 2005; Roszkowska 2007 s. 15–39], MODEL(I,G), ACT(I,G), VALUE(I,G), J(I,G) oznaczają odpowiednie komponenty kompleksu ROLE(I,G). Zbiór procedur PR jest zawarty w kompleksie ACT(I,G), [Burns, Roszkowska 2009]. SCHEMAT 1. Model gry społecznej G Źródło: Opracowanie własne: [Por. Burns, Roszkowska 2009; Roszkowska 2009]. Gracze ze zbioru I dokonują indywidualnej oceny stanów społecznych ze zbioru ST, kierując się własnymi: motywami, preferencjami, uwarunkowaniami społecznoprawnymi (np.: normami społecznymi, kulturowymi, tradycją, zasadami prawnymi Procedury podejmowania decyzji społecznych a optimum społeczne 85 itp.). Definiują oni stany społeczne, które z ich punktu widzenia są „podobne”, „lepsze” niż inne, „gorsze” niż inne, lub wybierają, ich zdaniem, „najlepszy” stan społeczny4. Następnie, agenci mający uprawnienia do podejmowania grupowych decyzji, czyli agenci ze zbioru Iaut, dokonują agregacji indywidualnych ocen stanów społecznych w ocenę społeczną za pomocą określonej procedury (np.: postępowanie sądowe, negocjacje, mediacje, głosowanie), biorąc pod uwagę własną ocenę stanów społecznych, konteksty sytuacyjny (ocenę tych stanów przez pozostałych członków społeczności, uwarunkowania społeczne, prawne itp.), jak również własności samej procedury. W sytuacji, gdy rezultat końcowy jest niezadowalający, gracz lub gracze mogą go jednak ostatecznie zaakceptować ze względu na to, że został otrzymany zgodnie z uznaną przez nich procedurą, lub podejmować próby zmiany decyzji np. przez modyfikację procedury, zmianę agentów mających uprawnienia do podejmowania decyzji itd. Model tak określonej gry społecznej G przedstawia schemat 1. 2.3. Koncepcja optimum społecznego Na wstępie wprowadzimy pojęcie instytucjonalnego mechanizmu, uznawalnej procedury oraz społecznie uznawalnej poprawy stanu społecznego [Por. Roszkowska 2009]. Definicja 5. Procedurą społeczną Cpro ze zbioru procedur PR nazywamy instytucjonalny mechanizm (institutional mechanizm) pozwalający ocenić możliwości przejścia ze stanu społecznego A∈ST do stanu społecznego B∈ST. Definicja 6. Procedurę społeczną Cpro ze zbioru PR nazywamy uznawalną (legitimize), jeśli agenci stosujący tę procedurę lub związani z wynikami jej stosowania uznają ją za właściwą do podjęcia decyzji o zmianie lub wyborze określonego stanu społecznego. Definicja 7. Społecznie uznawalna poprawa stanu społecznego jest to zmiana stanu społecznego dokonana w wyniku decyzji podjętej przez zastosowanie uznawalnej procedury Cpro ze zbioru PR. Definicja 8. Powiemy, że stan społeczny A∈ST jest efektywny społecznie lub optymalny społecznie, jeśli przejście ze stanu A∈ST do dowolnego stanu B∈ST nie jest społecznie uznawalną poprawą. Zatem, stan społeczny jest optymalny społecznie (optimum społecznym), jeśli, w wyniku stosowania uznawalnych procedur przez agentów mających odpowiednie uprawnienia decyzyjne, nie jest możliwa społecznie uznawalna poprawa tego stanu społecznego. 4 Wybór lub uporządkowanie stanów społecznych to złożony interdyscyplinarny problem decyzyjny. Wspomaganiu podejmowania decyzji mogą tutaj służyć np. metody wielokryterialne, gdzie za opcje decyzyjne przyjmujemy stany społeczne. 86 Ewa Roszkowska SCHEMAT 2. Model podejmowania decyzji społecznych prowadzących do optimum społecznego Źródło: Opracowanie własne: [Por. Burns, Roszkowska 2009; Roszkowska 2009]. Proces podejmowania grupowych decyzji oraz poprawy stanu społecznego można opisać następująco (Zob. schemat 2.), [Burns, Roszkowska 2009; Roszkowska 2009]: 1) Norma ze zbioru VALUE wyznacza procedurę (instytucjonalny mechanizm) Cpro ze zbioru PR jak uprawnioną (właściwą) do podejmowania grupowych decyzji. 2) Procedura Cpro jest stosowana przez agentów ze zbioru Iaut, czyli agentów posiadających uprawnienia do podejmowania grupowych decyzji. 3) Podejmowanie grupowych decyzji przebiega zgodnie z regułami opisanymi przez procedurę Cpro. 4) Wszyscy agenci ze zbioru I akceptują stosowanie tej procedury oraz otrzymane wyniki, nawet jeśli nie są one w pełni satysfakcjonujące. Procedury podejmowania decyzji społecznych a optimum społeczne 87 W sytuacji, gdy część graczy nie zaakceptuje otrzymanego wyniku mogą oni podejmować próby zmiany decyzji np. przez modyfikację procedury, zmianę agentów mających uprawnienia do podejmowania decyzji itd. W teorii wyboru społecznego zakłada się, że grupa podejmująca decyzję jest reprezentowana za pomocą profili indywidualnych preferencji lub użyteczności, które w trakcie społecznego procesu przyjmuje się za ustalone i niezmienne. Za pomocą zasady zbiorowej oceny lub funkcji społecznego wyboru dokonuje się agregacji indywidualnych preferencji w preferencję społeczną. Zasada zbiorowej oceny jest funkcją, która profilowi indywidualnych preferencji, określonych na zbiorze alternatyw społecznych, przyporządkowuje pewną społeczną binarną relację określoną na tym zbiorze. Funkcja społecznego dobrobytu jest to funkcja, która każdemu profilowi indywidualnych preferencji, określonych na zbiorze alternatyw społecznych, przyporządkowuje racjonalną relację preferencji społecznych, czyli relację, która umożliwia uporządkowanie zbioru alternatyw od najlepszej do najgorszej [Szerzej np.: Metelska-Szaniawska 2005 s. 15–20; Kamiński 2003]. W analizowanym modelu indywidualna ocena stanów społecznych może przybierać dowolną formę, zakłada się jedynie, że agregacja indywidualnych ocen stanów społecznych następuje w wyniku stosowania określonej procedury. Na znaczenie procedur w podejmowaniu społecznych decyzji zwrócił uwagę między innymi Buchanan. Buchanan sceptycznie podchodzi do koncepcji „społecznych preferencji”, sugeruje – przez swoje konsekwencje ostrożność w nakładaniu silnego warunku zgodności preferencji w wyborze społecznym, ale nacisk, jaki kładzie on na procedury społecznego wyboru, można zrozumieć jako ogólniejszy postulat mówiący, że – rezygnując z prób oceniania społecznych decyzji nie ze względu na kryterium ich wewnętrznej zgodności – warto koncentrować się na podejściu proceduralnym. W swojej czystej postaci podejście to sprowadza się do poszukiwania „właściwych” instytucji, nie zaś „dobrych” rezultatów i przyznaje priorytet odpowiednim procedurom (łącznie z konsekwencjami tych procedur), [Cyt. za: Lissowski 2001 s. 49]. 3. Wybrane uznawalne procedury podejmowania decyzji społecznych Do społecznie uznawalnych procedur podejmowania decyzji można zaliczyć np.: procedury sądowe, negocjacje czy mediacje, głosowanie, wybory, referendum. 3.1. Procedura sądowa Sąd jest niezawisłym organem państwowym, funkcjonującym w szczególnej formie, powołanym do: stosowania prawa, rozstrzygania sporów, decydowania o przysługujących uprawnieniach oraz dokonywania innych czynności określonych w ustawach lub umowach. Interesy stron są zwykle reprezentowane przez prawników, a sędzia podejmuje decyzje na podstawie zasad kodeksu prawa. Decyzja sądu jest dla obu stron wiążąca, a niepodporządkowanie się jest obwarowane sankcjami prawnymi. Arbitraż to metoda rozwiązywania sporów prawnych bez udziału sądu, przy czym strony muszą na to wyrazić zgodę. W arbitrażu jednorazowym każda ze stron sporu wybiera własnego arbitra (lub arbitrów), a ci następnie powołują supe- 88 Ewa Roszkowska rarbitra, potem wybrany skład rozstrzyga spór oparty na, uzgodnionej wcześniej, zasadzie. Arbitraż instytucjonalny funkcjonuje na podstawie profesjonalnej organizacji zajmującej się arbitrażem. Podstawą arbitrażu jest to, że strony postępowania mają bezpośredni lub pośredni wpływ na wybór arbitrów oraz zasady rozstrzygania sporów. Postępowanie arbitrażowe jest coraz chętniej stosowane, ze względu na: szybkość rozstrzygania sporów, mniejsze koszty w porównaniu z postępowaniem sądowym oraz przekonanie, że arbitrzy znają się lepiej niż sędziowie na specyficznych problemach podlegających rozstrzyganiu. Podstawową cechą zarówno procedury sądowniczej, jak i arbitrażowej jest przyporządkowanie poszczególnych elementów przedmiotu sporu określonym paragrafom kodeksowym. 3.2. Negocjacje lub mediacje Negocjacje to zazwyczaj dobrowolne rozmowy, podjęte przez strony konfliktu, których celem jest: zawarcie porozumienia, realizacja umowy, osiągnięcie kompromisu w spornej kwestii [np.: Bargiel-Matusiewicz 2007; Kamiński 2003; Nęcki 1995; Roszkowska 2007; Rządca 2003]. Przy czym strony sporu cały czas sprawują kontrolę nad procesem negocjacji, ponoszą odpowiedzialność za ich przebieg oraz wynik. Negocjacje umożliwiają dogłębne rozpoznanie konfliktu, poszukiwanie rozwiązania satysfakcjonującego obie strony, są mniej kosztowne niż walka, nie powodują strat moralnych oraz prowadzą do poprawnych stosunków między stronami. Negocjacje zbiorowe są obecnie rozpowszechnioną metodą kształtowania zbiorowych stosunków pracy w krajach o gospodarce rynkowej. Opierając się na idei kompromisu korzystnego dla obu stron, sprzyjają budowaniu pokoju i ładu społecznego umożliwiającego sprawny i efektywny przebieg procesów gospodarczych. W ramach Harvardzkiego Projektu Negocjacyjnego została opracowana procedura prowadzenia skutecznych negocjacji [Fisher, Ury, Patton 1996]. Polega ona na podejmowaniu decyzji w poszczególnych kwestiach, opierając się na zasadach, czyli na „meritum”. Poleca się poszukiwanie wspólnych korzyści, a w razie konfliktu rozstrzygnięcie go na podstawie kryteriów obiektywnych. Metoda ta jest „twarda” w stosunku do problemu, a „miękka” w stosunku do ludzi. Proces negocjacji polega na poszukiwaniu optymalnego rozwiązania, które pogodzi interesy obu stron. Uczestnicy rozwiązują wspólny problem, a celem jest osiągnięcie rozsądnego wyniku uzyskanego sprawnie i w dobrej atmosferze, opartego na kryteriach niezależnych od subiektywnych życzeń. Ten rodzaj negocjacji cechuje delikatność wobec ludzi, a twardość wobec problemu. Negocjator: – przekonuje, ale jest również otwarty na przekonania; – jest w stanie zaakceptować zasadne argumenty, lecz nie ulega presji; – unika formułowania dolnej granicy akceptacji. Cztery główne reguły prowadzenia negocjacji, zgodnie z tą procedurą, to [Fisher, Ury, Patton 1996]: 1. Oddzielaj ludzi od problemu – nie mieszaj swego stosunku do negocjowanego zagadnienia ze stosunkiem do negocjatorów. 2. Koncentruj się na interesach, a nie na stanowiskach. Procedury podejmowania decyzji społecznych a optimum społeczne 89 3. Wymyślaj możliwie wiele wariantów rozwiązania. Należy poszukiwać wielu możliwości niosących korzyści dla obu stron, wielu rozwiązań problemu. 4. Ustalaj obiektywne kryteria oceny osiągniętego problemu. Mediacje są zwykle podejmowane, gdy strony nie wierzą, że mogą samodzielnie go rozwiązać, nie mają zaufania do drugiej strony, nastąpił impas w negocjacjach [Bargiel-Matusiewicz 2007; Moore 1986]. Mediacja jest skuteczna wtedy, gdy strony zrozumieją, że są od siebie zależne, a zawarcie porozumienia jest niezbędne i wzajemnie korzystne. Podobnie jak w przypadku negocjacji, to strony zaangażowane w konflikt decydują ostatecznie o kształcie umowy w celu ustalenia przedmiotu sporu. Mediacja pozwala na uniknięcie: stresu postępowania sądowego, sali sądowej, arbitralnych decyzji sędziów, przedłużania procedur sądowych z przyczyn formalnych, skrócenia czasu czy zmniejszenia kosztów związanych z rozstrzyganiem sporów. Podstawowe cechy procedury mediacyjnej to: zgoda stron na osobę mediatora, wysłuchanie przez mediatora racji obu stron z zachowaniem pełnej neutralności. Skuteczność mediacji zależy od zapewnienia swobodnej wymiany informacji z każdą ze stron. 3.3. Głosowanie i wybory Głosowanie, wybory czy referendum są podstawowymi mechanizmami demokracji [Acocella 2002 s. 21–88; Antoszewski 2008; Golański, Kasprzyk 2005; Hamman 2004; Jakubowski 2005; Lissowski 2001; Sosnowska 2005]. Stanowią próbę rozstrzygnięcia konfliktu przez większość, są najczęstszym sposobem wyrażania grupowej woli pewnej zbiorowości dotyczącej wyboru wariantu czy kandydata. W głosowaniu, każdy z jej uczestników oddaje swój głos, następnie głosy są obliczane i stanowią podstawę decyzji. System głosowania określa sposób dokonywania wyboru pomiędzy dostępnymi alternatywami na podstawie preferencji głosujących. Składa się on z reguł opisujących preferencje głosujących oraz sposobu, w jaki preferencje są agregowane, by wyłonić ostateczny wynik głosowania. Każda sytuacja głosowania może być opisana przez zestaw reguł, wśród których wyróżniamy reguły związane z: – wybierającym, czyli opisem, kto może głosować, liczby głosów, jakie uczestnik może oddać; – procedurą głosowania i obejmuje ustalenie propozycji poddawanych pod głosowanie (np. kto może takie propozycje wysuwać), właściwej procedury głosowania (reguła binarna, czyli jedna para możliwości lub reguła pluralistyczna, gdy pod głosowanie poddaje się kilka możliwości) czy porządku głosowania; – procedurą ustalania wyniku głosowania (np.: jednomyślne, większościowe), [Acocella 2002 s. 52–54; Hamman 2004; Jakubowski 2005; Lissowski 2001; Sosnowska 2005]. Tylko dla dwóch alternatyw można określić w sposób jednoznaczny większość. Z dwóch alternatyw uznaje się za lepszą społecznie (zwycięzcę) tę, którą więcej jednostek przedkłada nad drugą (metoda zwykłej większości). Jeśli mamy trzy lub więcej alternatyw, to w sytuacji braku jednoznacznego rozwiązania poszukuje się innych 90 Ewa Roszkowska sposobów określania „większości”. Badania nad technikami głosowania zostały zapoczątkowane przez prace Jeana Charlesa de Bordy oraz Jeana de Condorceta5. Do podstawowych (bazowych) technik głosowania zalicza się technikę większościową, aprobującą Condorceta, Bordy,6. Techniki większościowe są oparte na analizie „większości głosów” oddanych na alternatywy, techniki Condorceta na porównaniach wariantów parami, techniki Bordy na ocenie punktowej tworzonej na podstawie indywidualnych profili, aprobujące na analizie aprobowanych alternatyw. Najbardziej znane metody głosowań to: głosowanie jednomyślne, głosowanie większościowe (większością zwykłą), większość pierwszeństwa (plurality rule), prosta większość (simple majority), większość pierwszeństwa z dogrywką (plurality run off), metoda sekwencyjnej eliminacji (sequential run off), metoda Bordy, metoda Condorceta, metoda Copelanda czy głosowanie aprobujące [Hamman 2004; Jakubowski 2005; Lissowski 2001; Sosnowska 2005]. Stosując metodę jednomyślności, głosujący decydują się na wybór alternatywy A przed alternatywą B wtedy i tylko wtedy, gdy wszystkie jednostki przedkładają alternatywę A nad B. Metoda większości pierwszeństwa (plurality rule) polega na tym, że każda jednostka oddaje głos na jedną, najwyżej ocenianą alternatywę (znajdującą się na pierwszym miejscu w jego profilu indywidualnym), a społeczną preferencję wyznacza się ze względu na liczbę głosów uzyskanych przez poszczególne alternatywy. Alternatywą zwycięską jest ta, która uzyska największą ilość głosów. Stosując metodę prostej większości (simple majority), porównuje się dwie pierwsze alternatywy, alternatywę zwycięską w tym porównaniu zestawia się z następną alternatywą aż ostatniego porównania, którego zwycięzca jest uważany za alternatywę zwycięską w całym głosowaniu. Metoda większości pierwszeństwa z dogrywką (plurality run off) polega na tym, że każda jednostka oddaje jeden głos na jedną alternatywę. Wybrane zostają dwie alternatywy, z których wybiera się jedną metodą zwykłej większości. Zgodnie z metodą sekwencyjnej eliminacji (sequential run off), każdy głosujący oddaje jeden głos na jedną alternatywę. Odpada ta alternatywa, która uzyskała najmniej głosów. Głosowanie jest powtarzane dotąd, aż pozostanie jedna, zwycięska alternatywa. Metoda Bordy polega na przypisywaniu alternatywom punktów za pozycje, jakie zajmują w indywidualnych uporządkowaniach. Przy n możliwościach, poddanych pod głosowanie, każdy głosujący przypisuje zero punktów od najmniej preferowanej opcji do n-1 dla najbardziej preferowanej opcji. Sumując punkty dla każdej opcji, wybieramy tę z najwyższym wynikiem. Zgodnie z metodą Condorceta, alternatywę zwycięską otrzymuje się na drodze eliminacji, krok po kroku, tych alternatyw, które w danym momencie mają najmniejszą większość popierającą, czyli tych, które popiera najmniejsza liczba głosujących. Stosując metodę aprobującą (approval voting), każdy 5 Przez technikę głosowania rozumiemy każdy sposób, dzięki któremu indywidualne preferencje głosujących są przetwarzane w decyzję grupową uznawaną przez tych głosujących [np.: Mercik 1999 s. 115]. 6 Na bazie technik podstawowych przez modyfikacje założeń są tworzone inne metody głosowania. Zatem, na bazie techniki większościowej m.in.: metoda większościowa wielokrotna, Hare’a, Coombsona, techniki uniwersyteckie; na bazie techniki Condorceta powstały m.in.: metoda Schwarza, Dobsona, Blacka, Copelanda, maksyminowa; na bazie techniki Bordy m.in.: metoda rang średnich, minimalnej wariancji, Nansona, jury , a na bazie techniki aprobującej m.in.: metoda dezaprobująca, kumulująca, negatywna [Hamman 2004; Lissowski 2001; Mercik 1999 s. 115–118]. Procedury podejmowania decyzji społecznych a optimum społeczne 91 z głosujących oddaje po jednym głosie na każdą aprobowaną przez siebie alternatywę (niekoniecznie jedną). W głosowaniu wygrywa ta alternatywa, który zyska maksymalną liczbę głosów. Metoda Copelanda polega na porównaniu wszystkich alternatyw parami metodą zwykłej większości. Wygrywa alternatywa, dla której różnica pomiędzy liczbą alternatyw, z którymi wygrała, liczbą alternatyw, z którymi przegrała parami, jest największa. 3.4. Systemy wyborcze Wybory to proces, w którym dokonuje się wyboru spośród zgłoszonych kandydatów przedstawicieli do: organów władzy, stowarzyszeń, spółek, komisji itp. Referendum to forma głosowania o charakterze powszechnym, w której wszyscy obywatele uprawnieni do głosowania wyrażają swoją opinię w kwestii poddawanej do głosowania. Referendum może być: obligatoryjne lub fakultatywne, opiniotwórcze lub wiążące, ogólnokrajowe lub lokalne. System wyborczy zawiera reguły określające [Antoszewski 2008; Golański, Kasprzyk 2005; Hamman 2004; Hołubiec 2005]: – wyborcę i jego uprawnienia w trakcie głosowania, w tym prawo uczestniczenia w wyborach (uprawnienia, kategoryczne, gdy wyborca posiada jeden głos, który oddaje na jednego kandydata albo listę partyjną, lub porządkujące, gdy ma on: możliwość oznaczenia kolejności kandydatów na liście, jej przedstawienia, kumulacji większej liczby głosów w stosunku do osoby jednego kandydata, bądź zestawienia kandydatów z poszczególnych list); – formułę wyborczą, czyli zespół reguł rozstrzygających o tym, który kandydat zostanie wybrany w danym okręgu oraz, w jaki sposób następuje przetworzenie liczby uzyskanych przez daną partię głosów w liczbę przypadających jej mandatów; – klauzulę zaporową, czyli sztuczny próg poparcia, którego przekroczenie jest niezbędne do udziału w podziale mandatów; – wyrównawczą dystrybucję mandatów zawierającą możliwości dokonania korekty wyniku wyborów na poziomie całego kraju, celem zmniejszenia strat partii, które zostały poszkodowane na poziomie okręgów wyborczych i są, w związku z tym, reprezentowane; – kontrolę prawidłowości postępowania wyborczego. Można mówić o systemie wyborczym: większościowym, semiproporcjonalnym, proporcjonalnym czy mieszanym [Antoszewski 2008; Hamman 2004]. 1) Systemy większościowe (pluralistyczne) A. System większości względnej obejmuje jednomandatowe i wielomandatowe okręgi wyborcze. Jednomandatowe okręgi wyborcze – głosowanie odbywa się w okręgach jednomandatowych, kandydatów zgłaszają partie polityczne, a do uzyskania mandatu jest potrzebne uzyskanie względnej większości głosów przez kandydata, czyli uzyskanie większej liczby głosów niż każdy, inny kandydat z osobna (np.: Wielka Brytania, USA, Kanada). Wielomandatowe okręgi wyborcze – głosowanie odbywa się w okręgach wielomandatowych, przy czym każdy wyborca dysponuje tyloma głosami, ile jest mandatów do obsadzenia w okręgu. Wybrani są ci kandydaci, 92 Ewa Roszkowska którzy uzyskali kolejne największe ilości głosów (np.: Polska – wybory do Senatu, Turcja). B. System większości absolutnej obejmuje jednomandatowe okręgi wyborcze z głosowaniem dwutorowym lub alternatywnym oraz wielomandatowe okręgi wyborcze z głosowaniem dwutorowym lub alternatywnym. Jednomandatowe okręgi wyborcze, głosowanie dwuturowe – wybory przeprowadza się w okręgach jednomandatowych, do uzyskania mandatu w I turze jest niezbędne uzyskanie bezwzględnej większości głosów (ponad 50% ważnie oddanych głosów). Jeśli żaden z kandydatów nie uzyska takiego poziomu poparcia, odbywa się druga tura, w której bierze udział dwóch kandydatów, którzy w I turze uzyskali największe poparcie wyborców lub też biorą udział kandydaci, którzy otrzymali w I turze pewne procentowo uzyskane poparcie. Do zdobycia mandatu w II turze wystarcza większość względna. Jednomandatowe okręgi wyborcze, głosowanie alternatywne – wybory są przeprowadzane w okręgach jednomandatowych, w jednej turze. Każdy wyborca szereguje kandydatów, począwszy od tego, którego popiera najsilniej, do tego, którego popiera najmniej. W przypadku, gdy żaden z kandydatów nie uzyska bezwzględnej większości, eliminuje się kandydata z najmniejszą ilością głosów, a jego poparcie jest rozdzielane kandydatom wskazanym przez jego wyborców na kolejnym miejscu. Proces ten trwa do czasu uzyskania przez jednego z kandydatów bezwzględnej większości głosów. Wielomandatowe okręgi wyborcze, głosowanie dwuturowe – zasady analogiczne, jak w systemie dwuturowym w okręgach jednomandatowych, z tym, że do drugiej tury przechodzi podwójna liczba kandydatów w stosunku do nieobsadzonych mandatów. Wielomandatowe okręgi wyborcze, głosowanie alternatywne – zasady analogiczne, jak w systemie alternatywnego głosowania w okręgach jednomandatowych. 2) Systemy semiproporcjonalne A. System listy niepełnej. Wykorzystywany w okręgach trzymandatowych. Dwa mandaty otrzymują kandydaci z listy, która otrzymała największą liczbę głosów, zaś trzeci lista, która uzyskała drugą, kolejną liczbę głosów (np.: Meksyk, Boliwia). B. SNTV (The Single Non-Transferable Vote). System ten polega na tym, że w okręgu wielomandatowym wyborca ma możliwość głosowania wyłącznie na jednego kandydata spośród wszystkich umieszczonych na jednej wspólnej liście, zaś mandaty otrzymują kolejno kandydaci z największą liczbą oddanych głosów. C. Metoda Bordy (Jean-Charles de Borda). System ten może być uznany za pośredni pomiędzy systemem głosowania alternatywnego a systemem STV. Stosowany jest w małych okręgach wyborczych liczących od jednego do kilku mandatów. Polega on na tym, że, w wersji klasycznej wyborca szereguje wszystkich kandydatów w kolejności od najbardziej do najmniej pożądanego, przyznając im tym samym punkty. Pierwszy z kandydatów otrzymuje tyle punktów, ilu jest kandydatów, kolejni otrzymują zaś po jednym punkcie mniej, w zależności od zajmowanego miejsca. Istnieje również zmodyfikowana odmiana tej metody, zgodnie z którą kolejni kandydaci otrzymują: 1, 1/2, 1/3, 1/4, 1/5 punktu itd. W wyborach mandaty uzyskują: kandydat bądź kandydaci w liczbie równiej liczbie mandatów w okręgu, którzy otrzymali Procedury podejmowania decyzji społecznych a optimum społeczne 93 największą liczbę punktów (wersja klasyczna: prezydent Kiribati, wersja zmodyfikowana: Słowenia dla mandatów kandydatów mniejszości narodowych). 3) Systemy proporcjonalne A. Listy partyjne. Głosowanie polega na tym, iż wyborca oddaje swój głos na poszczególne listy partyjne. Występują dwie metody takiego głosowania. Pierwsza z nich pozwala wyborcy na dokonywanie preferencji w ramach listy, co powoduje, że mandaty z listy otrzymują kolejno kandydaci, którzy uzyskali największe liczby głosów w ramach listy. Druga metoda (np. Ameryka Łacińska) nie pozwala na preferowanie kandydatów, a o uzyskaniu mandatu decyduje wyłącznie kolejność umieszczenia kandydata na liście. Występują również rozwiązania pośrednie, gdzie, co do zasady decyduje miejsce na liście, chyba że na kandydata oddano, co najmniej określoną ustawowo, procentową liczbę głosów (np. Republika Czeska). Do zasady podziału mandatów, przysługujących poszczególnym listom, najczęściej stosuje się np. formuły: d’Hondta, St. Lague’a, St. Lague’a (wersję skandynawską), Huntingtona, duńską, Hare’a-Niemeyera, Hagenbacha-Bischoffa, Imperiali, Droopa. Stosując Formułę d’Hondta, liczby głosów oddane na poszczególne listy dzieli się przez kolejne liczby naturalne (1,2,3,4 itd.) w ilości równej ilości mandatów do obsadzenia. Mandaty otrzymują te listy, które posiadają kolejne, największe ilorazy (np.: Holandia, Belgia, Austria, Hiszpania, Portugalia, Grecja). Parlament Europejski wykorzystuje system d’Hondta do obsadzania najbardziej istotnych stanowisk, takich jak: Przewodniczący, Wiceprzewodniczący, Kwestorzy, Przewodniczący Komitetów oraz Delegacji Międzyparlamentarnych. Stosując formułę St. Lague’a, liczby głosów oddane na poszczególne listy dzieli się przez kolejne liczby nieparzyste (1,3,5,7 itd.), w ilości równej ilości mandatów do obsadzenia. Mandaty otrzymują te listy, które posiadają kolejne największe ilorazy (np.: Łotwia, Izrael). Formuła St. Lague’a (wersja skandynawska) różni się w stosunku do wersji klasycznej tym, że pierwszym dzielnikiem, zamiast liczby 1 są liczby: 1,4 (np.: Dania, Szwecja, Norwegia, Polska). Formuła Huntingtona zakłada, że liczby głosów oddane na poszczególne listy dzieli się przez pierwiastek z liczby n (n-1), gdzie n jest kolejną liczbą naturalną, począwszy od 2, w ilości równej ilości mandatów do obsadzenia. Mandaty otrzymują te listy, które posiadają kolejne, największe ilorazy. Stosując formułę duńską, liczby głosów oddane na poszczególne partie dzieli się przez formułę (3n-2), gdzie n stanowi kolejne liczby naturalne; mandaty otrzymują te listy, które posiadają kolejne największe ilorazy. Formuła Hare’a – Niemeyera zakłada, że wyniki poszczególnych list partyjnych dzieli się przez dzielnik wyborczy, którym jest iloraz liczby ważnie oddanych głosów oraz ilości mandatów do obsadzenia. Liczby całkowite z tego działania oznaczają liczbę mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty nieobsadzone, są możliwe dwa sposoby ich podziału. Zgodnie z metodą największej reszty, mandaty dodatkowe przyznaje się kolejno ugrupowaniom, które posiadają największe reszty z danego dzielenia, stosując metodę największej średniej, dodatkowe mandaty są przyznawane ugrupowaniom, które uzyskają kolejne, największe średnie, czyli posiadają największy stosunek liczby uzyskanych głosów do liczby zdobytych mandatów w pierwszej fazie powiększonej o jeden mandat fikcyjny (np.: Niemcy, Włochy). Według formuły Hagenbacha – Bischoffa, wyniki poszczególnych list par- 94 Ewa Roszkowska tyjnych dzieli się przez dzielnik wyborczy, którym jest iloraz liczby ważnie oddanych głosów oraz ilości mandatów do obsadzenia powiększonej o jeden mandat fikcyjny. Liczby całkowite z tego działania oznaczają liczbę mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty nieobsadzone, stosuje się metodę największej reszty, zgodnie z którą mandaty dodatkowe przyznaje się kolejno ugrupowaniom, które posiadają największe reszty z danego dzielenia (np. Republika Czeska do 2000 roku). Formuła Imperiali zakłada, że wyniki poszczególnych list partyjnych dzieli się przez dzielnik wyborczy, którym jest iloraz liczby ważnie oddanych głosów oraz ilości mandatów do obsadzenia powiększonej o dwa mandaty fikcyjne. Liczby całkowite z tego działania oznaczają liczbę mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty nieobsadzone stosuje się metodę największej reszty. Analogicznie postępuje się, gdy mandatów rozdzielonych będzie zbyt dużo. Wtedy odejmuje się je ugrupowaniom, które posiadają najmniejsze reszty (np. Włochy do 1993 roku). Stosując formułę Droopa, wyniki poszczególnych list partyjnych dzieli się przez dzielnik wyborczy, którym jest powiększony o jeden iloraz liczby ważnie oddanych głosów oraz ilości mandatów do obsadzenia powiększonej o jeden mandat fikcyjny. Liczby całkowite z tego działania oznaczają liczbę mandatów uzyskanych przez poszczególne listy. W sytuacji, gdy pozostaną mandaty nieobsadzone, stosuje się metodę największej reszty. B. STV (The Single Transferable Vote). W systemie tym nie występują listy partyjne, przy czym, jak każdy system proporcjonalny, może być on stosowany wyłącznie w okręgach wielomandatowych. Polega on na tym, że wszyscy kandydaci ujęci są na jednej liście, a wyborca, glosując, szereguje kandydatów od najbardziej preferowanego do najmniej preferowanego. Przy podziale mandatów najpierw dokonuje się obliczenia ilorazu wyborczego w sposób analogiczny, jak przy formule Droopa. Następnie dokonuje się podziału mandatów. Jeśli jeden z kandydatów przekroczy określoną przez iloraz wyborczy liczbę głosów, to uzyskuje on mandat, a nadwyżkę głosów, czyli różnicę pomiędzy liczbą otrzymanych głosów a ilorazem wyborczym, dzieli się pomiędzy pozostałych kandydatów proporcjonalnie do liczby uzyskanych przez nich drugich miejsc u głosujących na kandydata wybranego uprzednio. Podobnie, gdy iloraz wyborczy zostanie przekroczony przez większą liczbę kandydatów. Jeśli żaden z kandydatów nie przekroczy ilorazu wyborczego, eliminuje się kandydata z najmniejszą liczbą głosów, a jego głosy przyznaje się kandydatom z drugich miejsc, przy czym postępowanie to ponawia się, aż do obsadzenia wszystkich mandatów w okręgu (np.: Irlandia, Malta). 4) Systemy mieszane Systemy mieszane polegają na obsadzaniu części mandatów metodą większościową, zaś części metodą proporcjonalną (np.: Litwa, Ukraina, Rosja, Włochy, Meksyk). Może to odbywać się w sposób bardziej skomplikowany, np. część jest obsadzana w okręgach jednomandatowych, część z list partyjnych w okręgach wielomandatowych, zaś część z list partyjnych z list krajowych (np. Węgry). Procedury podejmowania decyzji społecznych a optimum społeczne 95 4. Normatywny charakter społecznie uznawalnych procedur Za jedną z ważniejszych funkcji współczesnego państwa przyjmuje się tworzenie i zapewnianie funkcjonowania odpowiedniego ładu instytucjonalno-prawnego regulującego funkcjonowanie gospodarki oraz społeczeństwa. Jest to funkcja długookresowa, polegająca na ustanawianiu stosunkowo trwałych, stabilnych instytucji i „reguł gry”, które wynikają z ogólnie przyjętych norm i zasad postępowania. Analizą ograniczeń wyborów dokonywanych przez podmioty gospodarcze, wypływających z przyjętego ładu społeczno-gospodarczego, zajmuje się ekonomia konstytucyjna. Samą konstytucję Buchanan definiuje jako: zestaw zasad, które ograniczają aktywność osób i jednostek w dążeniu do osiągnięcia własnych kresów i celów [Metelska-Szaniawska 2005]. Konstytucja to najwyższy rangą akt, który obejmuje cały system prawa, ograniczenia nałożone przez podmiot na samego siebie lub powstałe przez zawarcie umów. Nurt normatywny w ekonomii konstytucyjnej zajmuje się legitymizacją władzy państwowej, jej instrumentów i przedstawicieli. W kręgu jego zainteresowania są: sposoby ustalania przez społeczeństwo zasad konstytucyjnych spełniających kryterium sprawiedliwości lub efektywności, treść tych zasad, zbiór zagadnień będących przedmiotem regulacji za pomocą konstytucji, cechy zasad konstytucyjnych, podział działań pomiędzy odpowiednie szczeble władzy publicznej, alternatywnych rozwiązań, jak i korzyści z nich płynące [Metelska-Szaniawska 2005]. W przypadku negocjacji lub mediacji, procedury prowadzenia rozmów mogą być mniej lub bardziej sformalizowane. Na negocjacje mają wpływ: charakterystyki negocjatorów (np.: osobowość negocjatorów, ich normy postępowania, indywidualne różnice między stronami, dysproporcje w procesie poznania czy też percepcji sytuacji, emocje), kontekst sytuacyjny obejmujący czynniki określające sytuację, w jakiej znajdują się negocjatorzy (np.: związki zachodzące między stronami, rodzaje alternatyw, jakimi dysponuje każda ze stron procesu negocjacji, ograniczenia czasowe, uwarunkowania geograficzne, kulturowe, społeczne itp.) oraz proces negocjacji uwzględniający aktywności podejmowane przez negocjatorów, czyli interakcje zachodzące między uczestnikami rozmów od momentu rozpoczęcia do zakończenia negocjacji, w tym: komunikację werbalną i niewerbalną, realizację strategii, taktyk i stylów negocjacyjnych [Fisher, Ury, Patton 1996; Kamiński 2003]. Ze względu na nastawienie stron do sytuacji negocjacyjnej, można wyróżnić negocjacje typu: wygrana-wygrana, gdzie strony współpracują w celu znalezienia rozstrzygnięcia, które będzie satysfakcjonowało każdą ze stron i w optymalny sposób będzie zaspokajało ich interesy; wygrana-przegrana, gdy jedna ze stron przyjmuje zwykle twardą taktykę narzucania warunków i wymagań, nie oferując ustępstw, a wygrana jednej ze stron oznacza przegraną drugiej lub przegrana-przegrana, gdy żadna ze stron nie uzyskała korzyści i każda poniosła straty czasu oraz koszty, a jedyną korzyścią psychologiczną jest poczucie pognębienia przeciwnika [Nęcki 1995 s. 31–38]. Analizą systemu głosowania zajmuje się teoria społecznego wyboru [Acocella 2002; Hamman 2004; Hołubiec 2005; Jakubowski 2005; Lissowski 2001; Sosnowska 2005]. W jej polu zainteresowania są: metody zbiorowego podejmowania decyzji w wyniku głosowania członków grupy lub wybranych przez nich reprezentantów; sposoby dokonywania społecznego wyboru lub społecznej oceny rozwiązań, których konsekwencje są różne dla poszczególnych głosujących; reguły głosowania 96 Ewa Roszkowska prowadzące do agregacji indywidualnych preferencji w preferencje zbiorowe; jak również określanie warunków, jakie spełniają lub także, jakich nie spełniają; różne metody podejmowania zbiorowych decyzji. Teoria społecznego wyboru stara się między innymi odpowiedzieć na pytania, czy i kiedy wybór metody głosowania decyduje o końcowym wyniku, czym różnią się metody głosowania, które z nich mają „pożądane” własności. Technika głosowania powinna odzwierciedlać rzeczywiste preferencje głosujących, nie powinna być ani zbyt skomplikowana, ani podatna na nierzetelne głosowania, czyli głosowania wbrew swoim profilom indywidualnym, w celu wpłynięcia na wynik końcowy. Alternatywę, która zwycięża wszystkie pozostałe alternatywy w porównaniu parami, nazywamy zwycięzcą Condorceta, a tę, która przegrywa z pozostałymi alternatywami w porównaniach parami – przegranym Condorceta. Condorcet twierdził, że najlepszą wybraną alternatywą powinien być zwycięzca Condorceta, jeżeli istnieje (tzw. kryterium Condorceta), oraz alternatywa, która jest przegranym Condorceta, nigdy nie powinna być wybierana. Niektóre techniki, np.: metoda zwykłej większości pierwszeństwa, metoda Bordy, prostej większości, aprobująca, nie spełniają warunków Condorceta. Metoda Bordy nie zawsze spełnia pierwszy warunek Condorceta, ale spełnia drugi7. Na postulacie Condorceta, który mówi, że wariant akceptowany przez większość powinien być zwycięzcą głosowania, są oparte niebazowe techniki głosowania. Poszukuje się także technik głosowania, gdy brak jest alternatywy będącej zwycięzcą Condorceta lub także nie ma jednego rozwiązania według techniki Condorceta (np.: metoda Schwarza, metoda Dogsona, metoda Blacka). Pożądane własności metod głosowania są wyrażane w języku naturalnym, np. „wszyscy głosujący powinni być tak samo traktowani”, następnie przedstawiane w sposób precyzyjny w formie postulatów. Bada się konsekwencje określonych postulatów, przy czym wynik może mieć postać twierdzenia o istnieniu lub nieistnieniu metody spełniającej określony zestaw postulatów [Lissowski 2001 s. 9–43]. Kenneth O. May (1952) nałożył cztery warunki na metodę agregacji preferencji indywidualnych i pokazał, że warunki te charakteryzują metodę zwykłej większości [Hamman 2004 s. 48–50; Jakubowski 2005 s. 49–52; Acocella 2002 s. 62–64]8. Analizowane przez K. Maya warunki to: nieograniczona dziedzina (metoda powinna być określona na zbiorze wszystkich możliwych profili racjonalnych preferencji indywidualnych), anonimowość (zmiana uporządkowania indywidualnych preferencji określonym osobom nie powinna zmieniać preferencji społecznej), neutralność (jeżeli preferencje wszystkich osób wobec pary alternatyw: A i B są takie same, jak wobec pary alternatyw: C i D, to preferencje społeczne wobec tych dwóch par alternatyw muszą być identyczne) oraz mocna monotoniczność (zmiana indywidualnych preferencji między alternatywami: A i B na korzyść alternatywy A powinna pociągać za 7 Przykład. W wyborach bierze udział pięciu głosujących nad wyborem trzech wariantów decyzji. Trzech wyborców preferuje A nad B i B nad C, dwóch wyborców preferuje B nad C i C nad A. Zwycięzcą, według kryterium Condorceta, jest alternatywa A. Według metody Bordy, zwycięzcą jest kandydat B, zdobywając 7 punktów. 8 Metody wyboru społecznego przyporządkowują profilom indywidualnym preferencji lub użyteczności społeczne uporządkowanie tego zbioru alternatyw (funkcje społecznej oceny) lub podzbiory alternatyw wybranych z różnych zestawów alternatyw (funkcje społecznego wyboru), [Lissowski 2001 s. 10]. Procedury podejmowania decyzji społecznych a optimum społeczne 97 sobą jedynie zmianę decyzji społecznej na korzyść alternatywy A, przy czym, jeżeli przed tą zmianą obie alternatywy były uznane za społecznie równie dobre, to po zmianie alternatywa A powinna być uznana za społecznie lepszą od alternatywy B). Kenneth O. May udowodnił (twierdzenie Maya o metodzie zwykłej większości), że jedyną metodą agregacji preferencji indywidualnych między dwiema alternatywami, spełniającymi warunki: nieograniczonej dziedziny, anonimowości, neutralności, mocnej monotoniczności, jest metoda zwykłej większości [Acocella 2002 s. 62–64; Jakubowski 2005 s 49–52]. Metoda większościowa, co prawda, gwarantuje równość praw każdemu głosującemu, ale ma również pewne wady. Nie gwarantuje tego, że wspólna decyzja doprowadzi do rozwiązania Pareto-optymalnego. Metoda zwykłej większości nie zawsze wyznacza relację preferencji społecznej, umożliwia uporządkowanie alternatyw i wybór najlepszej z nich, może także prowadzić do niezadowalajacych lub dwuznacznych rezultatów. Alternatywa zwycięska w głosowaniu większościowym może być inna niż alternatywa zwycięstwa według metody Bordy. Z kolei, Kenneth Arrow (1951) przedstawił cztery aksjomaty, które powinna spełniać funkcja dobrobytu społecznego [Jakubowski 2005 s. 60–63; Sosnowska 2005; Sosnowska 2005 s. 52–54]9. Są to: nieograniczona dziedzina (funkcja dobrobytu społecznego jest określona dla wszystkich profili preferencji indywidualnych), zasada Pareto (jeśli wszyscy jednomyślnie przedkładają alternatywę A nad B, to funkcja dobrobytu społecznego powinna przedkładać A nad B), niezależność od alternatyw niezwiązanych (relacja społecznej preferencji względem alternatyw: A i B może zależeć jedynie od preferencji indywidualnych względem tych alternatyw, a preferencje związane z innymi alternatywami nie mają więc wpływu na wybór pomiędzy: A i B) oraz wykluczenie dyktatury (nie istnieje taka osoba i para alternatyw A i B, że jeśli osoba ta mocno przedkłada A nad B, to relacja społeczna także przedkłada A nad B, niezależnie od preferencji indywidualnych pozostałych osób). Kenneth Arrow pokazał (twierdzenie Arrowa o niemożliwości), że nie istnieje funkcja dobrobytu społecznego jednocześnie spełniająca aksjomaty nieograniczonej dziedziny, zasady Pareto, niezależności od alternatyw niezwiązanych oraz wykluczenia dyktatury [Jakubowski 2005 s. 60–63; Sosnowska 2005; Acocella 2002 s. 52–54]. W innym sformułowaniu twierdzenie to mówi, że jedyną funkcją dobrobytu społecznego, spełniającą aksjomaty: nieograniczonej dziedziny, zasady Pareto, niezależności od alternatyw niezwiązanych, jest funkcja dyktatorska. Jednomyślne decyzje spełniają kryterium Pareto oraz warunki twierdzenia Arrowa „o niemożliwości”. Istotną wadą tego typu głosowania jest jednak to, że zachowuje ono status quo w przypadku, gdy preferencje jednostek nie są jednorodne. W sytuacji, gdy mamy do czynienia z głosowaniem binarnym z wykluczeniem, czyli, gdy przegrana propozycja nie może być rozważana powtórnie w drugiej run- 9 Funkcją społecznego dobrobytu nazywamy funkcję, która każdemu profilowi indywidualnych preferencji, określonych na zbiorze alternatyw społecznych, przyporządkowuje pewną racjonalną relację preferencji społecznej, tzn. relację, która umożliwia uporządkowanie zbioru alternatyw od: najlepszej do najgorszej. Funkcje społecznego dobrobytu są najważniejszym typem funkcji społecznej oceny [Lissowski 2001 s. 15–20]. 98 Ewa Roszkowska dzie, na końcowy wynik ma wpływ kolejność, w jakiej są głosowane alternatywy (Paradoks Condorceta)10. Systemy głosowana analizuje się także z punktu widzenia odporności na manipulacje. Metody głosowania cechuje możliwość wpływania na wynik przez ukrywanie swoich rzeczywistych preferencji, w niektórych sytuacjach takie manipulacje, czyli nieszczere głosowania w celach „strategicznych”, mogą być proste, w innych skomplikowane i trudne do zastosowania w rzeczywistości. Przykładowo, w przypadku metody Bordy strategiczne głosowanie polega na tym, aby alternatywie, która najbardziej nam zagraża, przypisać 0 punktów, niezależnie od naszego stosunku do niej11. Powiemy, że funkcja wyboru społecznego jest manipulowana, jeśli dla rozpatrywanego zbioru alternatyw istnieje profil preferencji indywidualnych i osoba, która przez strategiczne przedstawienie swoich preferencji może zmieniać wybór społeczny na korzystny dla siebie. Alan Gibbard oraz Mark A. Satterthwaite (1973, 1975) pokazali, że nie istnieje funkcja wyboru społecznego, która byłaby jednocześnie niemanipulowalna i niedyktatorska [Jakubowski 2005 s. 62–64; Lissowski 2001; Sosnowska 2005]. Dokładniej, twierdzenie Gibbarda-Satterthwaite’a brzmi: Jeśli zbiór rozpatrywanych alternatyw zawiera więcej niż dwa elementy, funkcja wyboru społecznego dla dowolnego profilu preferencji indywidualnych określa pojedyncze, społecznie preferowane alternatywy, a przy tym jest niemanipulowalna, to jest to funkcja dyktatorska. W sytuacji, gdy alternatywy są oceniane ze względu na jeden wymiar, Duncan Black (1948, 1952) przedstawił metodę prowadzącą do wyboru alternatywy zwycięskiej w sensie Condorceta [Jakubowski 2005; Wiklin 2005; Acocella 2002 s. 62–64]. Przyjął on następujące założenia o indywidualnych preferencjach: grupa wyborców wybiera spośród alternatyw oznaczonych jako punkty na prostej, każdy wyborca ma określoną alternatywę stanowiącą jego punkt idealny oraz im dana alternatywa jest położona dalej na lewo lub prawo od punktu idealnego wyborcy, tym niższą użyteczność jej on przypisuje. Preferencje, spełniające powyższe założenia, nazywamy preferencjami jednowierzchołkowymi (single peaked preferences). Medianowym wyborcą nazywamy wyborcę, którego punkt idealny stanowi medianę w zbiorze punktów idealnych rozpatrywanej grupy wyborców. Black pokazał (twierdzenie Blacka o medianowym wyborcy), że dla preferencji jednowierzchołkowych o nieparzystej liczbie wyborców punkt idealny wyborcy medianowego stanowi zwycięzcę Condorceta, a relacja preferencji społecznej, ustalona przez głosowanie większościowe, jest przechodnia z punktem idealnym wyborcy medianowego jako najbardziej preferowanym [Jakubowski 2005; Lissowski 2001; Acocella 2002 s. 62–64]. W sytuacji, gdy alternatywy są oceniane ze względu na więcej niż jeden wymiar, trudno jest wskazać na wynik głosowania niezależnego od manipulacji sekwencji 10 Przykład (Profil Condorceta). Dane są preferencje trzech wyborców dla trzech kandydatów, od najbardziej preferowanego do najmniej preferowanego: Wyborca 1. ABC; Wyborca 2. BCA; Wyborca 3. CAB. Paradoks Condorceta polega na tym, że preferencje grupy wyborców są cykliczne, czyli relacja społecznej preferencji, ustalona przez głosowanie większościowe, nie jest przechodnia. Dla tak określonego układu preferencji głosowanie większościowe może dać dowolny wynik w zależności od kolejności głosowania, co pozwala manipulować wynikiem przez osobę ustalającą porządek porównań. 11 Borda na uwagę o niedoskonałościach (możliwości manipulacji) tej metody miał powiedzieć: Moja metoda jest tylko dla ludzi honoru. Cyt. za: [Lissowski 2001 s. 12]. Procedury podejmowania decyzji społecznych a optimum społeczne 99 głosowań. Mówi o tym tzw. twierdzenie o chaosie: Jeśli dla wielowymiarowych preferencji przestrzennych nie istnieje mediana we wszystkich kierunkach, to można wskazać skończoną liczbę, których włączenie do zbioru rozważanych alternatyw powoduje, że przez sekwencyjne głosowanie większościowe jest możliwe osiągnięcie dowolnego punktu [Jakubowski 2005; Lissowski 2001]. Wybór odpowiedniego sytemu wyborczego ma duże konsekwencje dla funkcjonowania danego państwa oraz jego stabilności. Metoda przeliczania głosów na mandaty wpływa bezpośrednio na ostateczny wynik wyborów. Zarówno formuła wyborcza, klauzula zaporowa czy wyrównawcza dystrybucja mandatów mogą być źródłem deformacji systemu wyborczego, czyli niezgodności podziału mandatów z faktycznymi preferencjami wyborców wyrażonymi w głosowaniu (różnica między uzyskanymi głosami przez partie polityczne a ich rzeczywistym poparciem). Ściśle związana z deformacją woli wyborców jest nadreprezentacja silniejszych partii, redukcja tzw. efektywnej liczby partii, czyli liczba partii reprezentowanych w parlamencie, jest zawsze niższa niż ugrupowań rywalizujących o głosy na arenie wyborczej o procent mandatów, jaki zyskują partie najsilniejsze, jest wyższy niż procent zdobytych przez nich głosów. System wyborczy zachęca czasem do zawierania koalicji wyborczych, kompromisów czy do zmiany strategii wyborczej. System większości względnej sprawdza się w systemie dwupartyjnym, faworyzuje duże partie, eliminuje partie słabe i małe, przez co prowadzi do stabilizacji sceny politycznej, wzmacniana jest więź między wyborcą i deputowanym (wyborca oddaje glos na konkretną osobę). Jego wadą jest to, że może doprowadzić do sytuacji, gdy część wyborców nie będzie reprezentowana, a rządy obejmie partia popierana przez mniejszość wyborców. System większościowy zmusza wyborców do „strategicznego” głosowania, czasem wbrew preferencjom politycznym. The Single NonTransferable Vote, ze względu na możliwość rozproszenia głosów, zmusza partie polityczne do ostrożnego nominowania kandydatów, z reguły w liczbie mniejszej niż wynosi liczba mandatów w okręgu. System proporcjonalny wydaje się najbardziej sprawiedliwy pod względem ukazania rzeczywistych preferencji, choć nie zapewnia takiej więzi z wyborcą, jak system większościowy (w systemie większościowym głosuje się na konkretnego kandydata, a tu przede wszystkim na partię polityczną). Nie wprowadza zdecydowanej jasności podziału na to, kto jest naprawdę w opozycji. W przypadku państw, w których występuje system wielopartyjny, może dojść do rozdrobnienia sceny politycznej, dlatego jest stosowany próg wyborczy (klauzula zaporowa), który musi uzyskać partia lub koalicja wyborcza, aby znaleźć się w parlamencie. Wyniki wyborów w systemie proporcjonalnym, przede wszystkim wielopartyjnym, mogą doprowadzić do tego, że żadna partia nie jest na tyle silna, by dominować w parlamencie i samodzielnie rządzić. Wówczas dochodzi do zawierania koalicji, na którą wyborcy nie mają wpływu, a które są sprzeczne z ich rzeczywistą wolą polityczną. Formuła d’Hondta należy do najbardziej rozpowszechnionych i popularnych w Europie, korzystna dla partii większych i silniejszych, uważana za umiarkowanie proporcjonalną (zwłaszcza gdy jest skorelowana z niewielkimi okręgami wyborczymi oraz klauzulą zaporową). Użycie metody d’Hondta, w połączeniu z niewielkim rozmiarem okręgu, może prowadzić do nadreprezentacji partii, które cieszą się znacznym poparciem. Z kolei, metoda St Lague’a jest korzystniejsza dla 100 Ewa Roszkowska partii małych. Za najwierniej odzwierciedlającą wolę wyborców jest uznawana metoda najwyższych reszt Hare-Niemeyera. Istotnym problemem przy analizie podejmowania decyzji zbiorowych jest także charakterystyka znaczenia jej uczestników. Ocenie tej służą parametry zwane indeksami siły, które mierzą względną siłę poszczególnych uczestników głosowania. Jednym z ważniejszych indeksów siły jest indeks Shapleya-Shubika [Sosnowska 2005; Mercik 1999]. System wyborczy jest opisywany przez zbiór uczestników oraz koalicje wyborcze (podzbiory zbioru uczestników), które są wygrywające. Zakładamy ponadto, że system wyborczy spełnia następujące warunki: koalicja wszystkich graczy jest wygrywająca (jest możliwe wygranie głosowania), koalicja pusta nie jest wygrywająca (jest możliwe przegranie głosowania), jeśli koalicja już jest wygrywająca, to dołączenie do niej dodatkowych graczy nie spowoduje jej przegranej, jeżeli jakaś koalicja już jest wygrywająca, to z pozostałych uczestników nie da się zbudować innej koalicji wygrywającej (w systemach wyborczych „każdy gracz ma jeden głos”, oznacza to, że próg zwycięstwa nie może być niżej niż 50% + jeden głos). Zakładamy, że do grupy popierającej pewien projekt dołączają kolejni głosujący, aż do momentu, w którym koalicja jest zdolna do uchwalenia projektu. Indeks siły Shapleya-Shubika mierzy siłę danego uczestnika w związku z formowaniem koalicji, jest to procent układów, w którym jest on wyborcą krytycznym, czyli, że po jego przyłączeniu nastąpi uchwalenie projektu12. System wyborczy może efektywnie rozstrzygać konflikty między konkurentami o stanowiska publiczne lub być źródłem dodatkowych napięć. Można go zmienić, gdy większość o wspólnych interesach będzie za jego zmianą. Czasem główne elementy systemu wyborczego (np. formuła wyborcza) zostają określone w konstytucji i wówczas do zmiany zapisów jest potrzebna większość kwalifikowana. 5. Podsumowanie Współczesne modele demokracji ściśle wiążą się z kulturą uczestnictwa i zaangażowania w życiu społecznym. Dobrze działająca demokracja nie istnieje bez wspólnoty obywatelskiej i jej kapitału społecznego, gdzie relacje międzyludzkie, sieci powiązań społecznych uznaje się za ważny kapitał ułatwiający jednostkom i grupom realizację wyznaczonych celów, tworzenie wspólnych dóbr. Dochodzenie do rozwiązania problemów przez współdziałanie przebiega m.in. za pomocą określonych procedur społecznych. W pracy przedstawiono koncepcję optimum społecznego w ujęciu kompleksów reguł, którego warunkiem jest stosowanie uznawalnych procedur społecznych, tj.: postępowanie sądowe, negocjacje, mediacje, głosowanie, wybory. Wybór określonej procedury może przesądzać o ostatecznej decyzji. Stąd istotne jest pełne rozpoznanie: własności tych procedur, możliwości stosowania, ograniczeń, wrażliwości na manipulację. 12 Inne indeksy siły to np.: indeks siły Banzhafa, absolutny indeks siły Banzhafa, Colemana (podtrzymania koalicji), Colemana (inicjowania akcji), Colemana (pojemności grupowej), indeks siły Rae’a. Zob.: [Mercik 1999 s. 120–127]. Procedury podejmowania decyzji społecznych a optimum społeczne 101 Literatura Acocella N. 2002 Zasady polityki gospodarczej, Warszawa. Antoszewski A., Alberski R. 2008 Systemy wyborcze, [w:] Demokracje zachodnioeuropejskie. Analiza porównawcza, (red.) Antoszewski A., Herbut R., Wrocław. Arrow K. 1951 Social Choice and Individual Values, New York. Bargiel-Matusiewicz K. 2007 Negocjacje i mediacje, Warszawa. Burns T., Roszkowska E. 2005 Generalized Game Theory: Assumptions, Principles, and Elaborations Grounded in Social Theory, „In Search of Social Order”, Series Studies in Logic, Grammar and Rhetoric, No. 8(21). Burns T., Roszkowska E. 2009 A social procedural approach to the Pareto optimization problematique: Part I: Pareto Optimization and Its Limitations versus the GGT Conception of the Solution of Multi-value Conflict Problems Through Societal Procedures, Quality& Quantity, Vol. 43, No. 5. Burns T., Roszkowska E. 2009 A social procedural approach to the Pareto optimization problematique: Part II. Institutionalized Procedures and Their Limitation, Quality& Quantity, Vol. 43, No. 5. Fisher R.R., Ury W., Patton B. 1996 Dochodząc do TAK. Negocjowanie bez poddawania się, Warszawa. Golański R., Kasprzyk K. 2005 Wybór publiczny, [w:] Grupowe podejmowanie decyzji, (red.). H. Sosnowska, Warszawa. Gomolińska A. 1999 Rule Complexes for Representing Social Actor and Interactions, Series Studies in Logic, Grammar, and Rhetoric, No. 3(16). Hamman J. 2004 Demokracja, decyzje, wybory, Warszawa. Hołubiec J. 2005 Prognozowanie wyników wyborów, [w:] Grupowe podejmowanie decyzji, (red.) H. Sosnowska, Warszawa. Jakubowski M. 2005 Teoria wyboru społecznego, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej, (red.) Wilkin J., Warszawa. Kamiński J. 2003 Negocjowanie techniki rozwiązywania konfliktów, Warszawa. Lissowski G. (red.) 2001 Elementy teorii wyboru społecznego, Warszawa. Metelska-Szaniawska K. 2005 Ekonomia konstytucyjna – ekonomia polityczna ładu gospodarczego, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej, (red.) Wilkin J., Warszawa. Metelska-Szaniawska K. 2005 Ekonomiczna teoria władzy ustawodawczej i sądowniczej, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej, (red.) Wilkin J., Warszawa. Mercik J. 1999 Siła i oczekiwania. Decyzje grupowe, Warszawa – Wrocław. Moore Ch.W. 1986 The mediation process. Practical Strategies for Resolving Conflict, JosseyBass Publishers. Nęcki Z. 1995 Negocjacje w biznesie, Kraków. Roszkowska E. 2007 Modelowanie procesów decyzyjnych oraz negocjacji za pomocą kompleksów reguł, Białystok. Rządca R. 2003 Negocjacje w interesach, Warszawa. Roszkowska E. 2009 Koncepcja optimum społecznego w ujęciu kompleksów reguł, [w:] Podlasie regionem przyszłości, (red.) A. Bocian, Białystok. Sen A.K. 1970 Collective Choice and Social Welfare, Edinburgh. 102 Ewa Roszkowska Sosnowska H. 2005 Indeks siły, [w:] Grupowe podejmowanie decyzji, (red.) H. Sosnowska, Warszawa. Sosnowska H. 2005 Klasyfikowanie reguł decyzyjnych, [w:] Grupowe podejmowanie decyzji, (red.) H. Sosnowska, Warszawa. Wilkin J. 2005 Teoria wyboru publicznego – homo oeconomicus w sferze polityki, [w:] Teoria wyboru publicznego. Wstęp do ekonomicznej analizy polityki i funkcjonowania sfery publicznej, (red.) Wilkin J., Warszawa. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Dorota MIERZYŃSKA1 POMIAR DOBROBYTU W ŚWIETLE HIERARCHICZNEJ TEORII POTRZEB W POLSCE Streszczenie Głównym celem artykułu jest zaprezentowanie pomiaru dobrobytu w świetle hierarchicznej teorii potrzeb według Maslowa. Potrzeby człowieka można podzielić na: fizjologiczne, bezpieczeństwa, przynależności i miłości, szacunku i uznania oraz samorealizacji. Dopiero, w miarę zaspokajania niższych potrzeb, w hierarchii zaczynają uwidaczniać się potrzeby wyższe. Dobrobyt społecznoekonomiczny to zjawisko złożone (wielowymiarowe), które nie jest bezpośrednio obserwowalne. Analiza dobrobytu zostanie dokonana dla Polski w latach 1999–2008 z wykorzystaniem bezwzorcowej metody taksonomicznej. Słowa kluczowe: dobrobyt, hierarchia potrzeb, syntetyczny indeks dobrobytu PROSPERITY MEASUREMENT IN THE LIGHT OF HIERARCHICAL THEORY OF NEEDS IN POLAND Summary The main objective of the paper is to present prosperity measurement in the light of hierarchical theory of needs by Maslov. Human needs can be categorized as: physiological, the need for safety, membership and love, esteem, recognition and fulfilment. Only as we satisfy our most urgent needs, loftier ambitions are beginning to be apparent. Socioeconomic prosperity is a complex (multidimensional) phenomenon which cannot be directly monitored. An analysis of prosperity shall be done for Poland during the period 1999-2008 by making use of a non-standard taxonomic method. Keywords: prosperity, hierarchy of needs, synthetical prosperity index 1. Wstęp Sprawność funkcjonowania państwa i sfery publicznej można ocenić, dokonując analizy dobrobytu społeczno-ekonomicznego. Wysoki poziom dobrobytu społeczeństwa jest zawsze związany z właściwą współpracą między sektorami: publicznym, biznesowym i społecznym. Potrzeby człowieka i to zarówno te w sferze mate1 Dr Dorota Mierzyńska – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania, Zakład Ekonometrii i Statystyki. 104 Dorota Mierzyńska rialnej, jak i niematerialnej będą właściwie zaspokajane, jeśli gospodarka i państwo będą w pełni służyć społeczeństwu. Dobrobyt społeczny to pojęcie złożone, którego definicje nie są precyzyjne i jednoznaczne, a to komplikuje pomiar. W badaniach naukowych nad tym zagadnieniem spotykamy się z różnorodnością podstaw terminologicznych i metodologicznych. W artykule zostanie zaprezentowany pomiar dobrobytu w świetle hierarchicznej teorii potrzeb Maslowa z wykorzystaniem metody taksonomicznej. Analiza dobrobytu zostanie dokonana dla Polski w latach 1999–2008. 2. Dobrobyt a hierarchiczna teoria potrzeb według Maslowa Podstawowym celem działalności gospodarczej i państwowej jest zaspokojenie potrzeb człowieka. Zakres potrzeb nie jest kategoria stałą i ulega modyfikacjom zarówno w przestrzeni, jak i w czasie. Stopień zaspokojenia potrzeb człowieka pojawia się w badaniach społeczno-ekonomicznych takich kategorii, jak: poziom życia, warunki życia, jakość życia, dobrobyt, dobrostan oraz godność życia. Pojęcia te nie są jednoznacznie zdefiniowane. Wśród wielu określeń poziomu życia ludności w Polsce najczęściej przyjmuje się definicję, według której: poziom życia to stopień zaspokojenia materialnych i kulturalnych potrzeb gospodarstw domowych realizowanych (w sensie zabezpieczenia) poprzez strumień towarów i usług odpłatnych i nieodpłatnych funduszy konsumpcji społecznej i spożycia naturalnego [Luszniewicz 1990 s. 13]. Poziom życia jest definiowany zatem jako stopień zaspokojenia przede wszystkim materialnych potrzeb człowieka. Natomiast: jakość życia zawiera te wszystkie elementy życia człowieka, bycia kimś i odczuwania różnych stanów emocjonalnych, wypływających np. z faktu posiadania rodziny, kolegów, przyjaciół [Słaby 2004 s. 66]. W innej definicji jakość życia określono jako: kategorię wyrażająca stopień samorealizacji człowieka w ujęciu holistycznym (przy równowadze dobrobytu, dobrostanu i błogostanu) lub w ujęciu węższym, np. z punktu widzenia konsumpcji dóbr materialnych zaspokajających jego potrzeby (przy dominacji dobrobytu nad dobrostanem i błogostanem [Borys, Rogala 2008 s. 9]. Definicję dobrobytu społecznego, która łączy powyższe kategorie, przedstawił, fiński socjolog, E. Allardt. Według niego, dobrobyt społeczny to trzy sfery potrzeb ludzkich: posiadanie (to have), uczucie (to love) oraz istnienie (to be). Dobrobyt społeczny jest podzielony na dwie części: poziom życia (potrzeby materialne), określony przez pierwszy czynnik potrzeb ludzkich (to have) oraz jakość życia (potrzeby pozamaterialne), która jest scharakteryzowana przez dwa pozostałe czynniki (to love, to be), [Por. Zeliaś 2004 s. 13]. Jeszcze inne podejście zaproponował A. Sen, który pojęcie dobrobytu wiąże ze „sposobami funkcjonowania” i „zbiorami możliwości”, jakie są dostępne dla człowieka. Brak możliwości prowadzi do ubóstwa. A. Sen uznaje za ubóstwo niedostatek podstawowych możliwości, które pozwalają jednostce żyć zgodnie z własnymi pragnieniami [Sen 2002]. Jeśli zostaną zaspokojone potrzeby człowieka, to prowadzi do osiągnięcia dobrego bytu (dobrobytu), zarówno w aspekcie materialnym, jak i niematerialnym. W połowie XX wieku klasyfikację potrzeb opracował A. Maslow. Potrzeby człowieka zostały podzielone na następujące kategorie [Maslow 1964]: Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce – – – – – 105 potrzeby fizjologiczne – podstawowe potrzeby zapewniające możliwość przeżycia: żywność, mieszkanie, odzież itp.; potrzeby bezpieczeństwa – poczucie bezpieczeństwa osobistego i najbliższych w chwili obecnej i w przyszłości (ochrona zdrowia, pokój itp.); potrzeby przynależności i miłości – chęć posiadania rodziny oraz tworzenia i uczestniczenia w związkach społecznych; potrzeby szacunku i uznania (poczucia własnej godności) – potrzeby uznania i prestiżu we własnych oczach oraz w oczach innych ludzi; potrzeby samorealizacji – dążenie człowieka do rozwoju osobistego. RYSUNEK 1. Hierarchia potrzeb według Maslowa SAMOREALIZACJI POCZUCIE WŁASNEJ GODNOŚCI PRZYNALEŻNOŚCI I MIŁOŚCI BEZPIECZEŃSTWA FIZJOLOGICZNE Źródło: Opracowanie własne na podstawie: [Maslow 1964]. Potrzeby fizjologiczne są traktowane jako podstawowe i kolejne grupy i powinny być zaspokajane zgodnie z ich hierarchią. Struktura potrzeb może być zaprezentowana w postaci tzw. „piramidy potrzeb Maslowa” (rysunek 1.). Dopiero, w miarę zaspokajania potrzeb niższych, w hierarchii zaczynają uwidaczniać się potrzeby wyższe. Powyższa klasyfikacja potrzeb została zaproponowana przez Maslowa w teorii zaspokojenia indywidualnych potrzeb człowieka i nie w pełni da się przenieść na rozwój całego społeczeństwa. W odniesieniu do społeczeństwa, ta klasyfikacja jest nieostra i poszczególne kategorie potrzeb nakładają się i splatają przy ich zaspokajaniu [Hagerty 1999]. W badaniu dobrobytu społeczeństwa pominięto najwyższą grupę potrzeb – samorealizacji, którą indywidualnie może zaspokoić człowiek. Do ana- 106 Dorota Mierzyńska lizy dobrobytu społeczeństwa zastosowano ostatecznie cztery grupy potrzeb: fizjologiczne, bezpieczeństwa, przynależności i poczucia własnej godności. W podstawie piramidy występują potrzeby fizjologiczne, które dominują nad wszystkimi innymi. Ich zaspokojenie wiąże się z aspektem materialnym, który tylko w ograniczonym stopniu wskazuje na stopień zadowolenia człowieka z jego życia. Jeśli potrzeby zapewniające możliwość przeżycia, takie jak: żywność, mieszkanie, odzież, nie zostaną zaspokojone, to nie pozwala jednostce żyć zgodnie z jej własnymi pragnieniami. Do pomiaru potrzeb podstawowych często są wykorzystywane następujące zmienne: przeciętne dzienne spożycie w przeliczeniu na wartość energetyczną na 1 osobę, procent ludności z dostępem do czystej wody [Clarke i in. 2006 s. 937]. W Polsce, według danych statystycznych, w ostatnim dziesięcioleciu nastąpiło zmniejszenie się ilości dostarczanych kalorii (zob. tabela 1.), co nie jest związane z brakiem żywności, a bardziej z racjonalną dietą i różnorodnością spożywanych produktów. W grupie potrzeb fizjologicznych występują potrzeby materialne, których zaspokojenie następuje wraz ze wzrostem dochodu, stąd do pomiaru można wykorzystać produkt krajowy brutto na 1 mieszkańca [Hagerty 1999 s. 253]. TABELA 1. Przeciętne dzienne spożycie w przeliczeniu na wartość energetyczną na 1 osobę w Polsce, w latach 1999–2008 Lata Wartość energetyczna 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2530 2474 2471 2461 2511 2452 2299 2245 2208 2189 Źródło: [Rocznik Statystyczny Rzeczypospolitej Polskiej 2000–2009]. Potrzeby bezpieczeństwa, na terenach nie objętych konfliktami zbrojnymi, są związane ze stanem zdrowia społeczeństwa i poziomem przestępczości. W badaniach jakości życia jako wskaźniki stanu zdrowia społeczeństwa przyjmuje się często śmiertelność niemowląt czy też wskaźniki zgonów, np. na nowotwory, choroby układu krążenia [Zeliaś 2004 s. 27]. Uzupełnieniem tego rodzaju wskaźników mogą być informacje o dostępności służby zdrowia, np.: liczba lekarzy, dentystów, łóżek szpitalnych na 100 tys. mieszkańców. Zmienną, która odzwierciedla zarówno informację o stanie zdrowia, jak również dostępność do służby zdrowia, jest przeciętna długość życia. Uwzględnia ona: zarówno skutek oddziaływania czynników zewnętrznych (np. środowiskowych, polityki społecznej), jak i efektów o charakterze endogenicznym, wynikających z decyzji jednostki – warunków mieszkaniowych, stylu życia, sposobu odżywiania [Berbeka 2006 s. 49]. Wzrost przestępczości ma negatywne skutki zarówno społeczne, jak i gospodarcze. Społeczeństwo ma poczucie bezpieczeństwa, gdy sprawnie działają organa powołane do zwalczania przestępczości. Głównym elementem zaspokojenia potrzeb przynależności i miłości jest rodzina. To w rodzinie człowiek może zaspokoić potrzebę uczuć i ma to ogromny wpływ na jego postawę i aktywność życiową. W rodzinie kształtują się podstawowe relacje Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce 107 społeczne. J.J. Sztaudynger wskazuje, że osłabienie więzi rodzinnych ma negatywny wpływ na wzrost gospodarczy [Sztaudynger 2009]. Na podstawie badań empirycznych stwierdza, że na skutek osłabienia więzi rodzinnych, mierzonych wskaźnikiem rozwodów, w Polsce w latach 1967–2006 nastąpiło średnioroczne spowolnienie wzrostu gospodarczego o około 0,6 punktu procentowego [Sztaudynger 2009 s. 201]. Do pomiaru zaspokojenia potrzeb przynależności i miłości związanych z funkcjonowaniem rodziny są wykorzystywane następujące zmienne: współczynnik dzietności i współczynnik rozwodów [Clarke i in. 2006 s. 937; Hagerty 1999 s. 253]. Życie w zintegrowanej grupie, którą między innymi jest rodzina, chroni przed działaniami samodestrukcyjnymi. Wysoki wskaźnik samobójstw wskazuje na problemy zdrowia psychicznego (depresja, zaburzenia osobowości, alkoholizm, narkomania itp.) oraz problemy społeczne (konflikty w rodzinie, utrata pracy lub problemy w pracy, problemy finansowe itp.). W krajach postkomunistycznych wzrost liczby samobójstw świadczy o złej kondycji społeczeństwa w kontekście zmian ustrojowych i gospodarczych (na podstawie danych EUROSTAT w 2008 r. liczba samobójstw na 100 tys. mieszkańców na Litwie wynosiła 30,4, na Węgrzech – 21,5, w Polsce – 13,9, a w 2007 roku w całej Unii Europejskiej – 9,8). Do zaspokojenia potrzeb szacunku i uznania jest niezbędne wykształcenie i praca. Rozwój edukacji jest ważnym elementem polityki gospodarczej. Odpowiednio wykształceni obywatele wpływają pozytywnie na rzeczywistość społeczną, gospodarczą, a także polityczną swoich krajów. We współczesnej gospodarce za poziom wykształcenia zapewniający największe możliwości rozwoju i zapewnienia dobrobytu należy przyjąć wykształcenie wyższe. Studenci szkół wyższych w 1999 roku w Polsce stanowili 38,1% ludności w wieku 19–24 lat, natomiast w 2008 roku odsetek ten wynosił już 52,7%. Należy jednak pamiętać, że wskaźniki te informują jedynie o powszechności nauczania, a nie jakości nauczania. Wraz ze wzrostem liczby osób studiujących w Polsce, rośnie bezrobocie wśród absolwentów studiów wyższych, co stanowi bardzo poważny problem społeczny. Brak pracy jest jednym z głównych czynników przyczyniających się do powstawania i utrwalania ubóstwa i wykluczenia społecznego. Jak pisał Papież Jan Paweł II: Praca jest dobrem człowieka – dobrem jego człowieczeństwa – przez pracę bowiem człowiek nie tylko przekształca przyrodę, dostosowując ją do swoich potrzeb, ale także urzeczywistnia siebie jako człowieka, a także poniekąd bardziej „staje się człowiekiem” [Jan Paweł II 1981 s. 9]. W wyniku pracy człowiek może zaspokoić przede wszystkim potrzeby materialne, ale także praca nadaje sen życiu, daje możliwość rozwoju. Poszczególne kategorie w hierarchicznej strukturze potrzeb są zjawiskami złożonymi. Nie jest możliwy ich pomiar za pomocą jednej liczby. Na podstawie przesłanek merytorycznych przyjęto następujące zmienne obserwowalne (indykatory) opisujące poszczególne grupy potrzeb: – fizjologiczne: • PKB per capita w zł – x1; – bezpieczeństwa: • śmiertelność niemowląt (zgony niemowląt na 1000 urodzeń żywych) – x2; • przeciętne dalsze trwanie życia mężczyzn i kobiet w latach – x3 i x4; • wskaźnik wykrywalności sprawców przestępstw stwierdzonych w % – x5; 108 Dorota Mierzyńska – przynależności i miłości: • współczynnik dzietności – x6; • współczynnik rozwodów (małżeństwa rozwiązane przez rozwód na 1000 istniejących małżeństw) – x7; • liczba samobójstw na 100 tys. mieszkańców – x8; – poczucia własnej godności (szacunku i uznania): • liczba studentów na 10 tys. mieszkańców – x9; • stopa bezrobocia rejestrowanego w % – x10. Należy zwrócić uwagę, że o doborze zmiennych diagnostycznych powinien decydować opis teoretyczny badanego zjawiska, przy czym bardzo często ostatecznym kryterium jest dostępność i porównywalność danych statystycznych w czasie i przestrzeni. 3. Syntetyczna miara dobrobytu w świetle hierarchicznej teorii potrzeb Próby konstrukcji mierników syntetycznych dobrobytu opartych na hierarchicznej teorii Maslowa można znaleźć między innymi w pracach Clarke i Hagerty [Clarke i in. 2006; Hagerty 1999]. Niestety, nie jest jednoznacznie rozwiązany sposób tworzenia miernika agregatowego (zastosowana metoda statystyczno-ekonometryczna), a także dobór zmiennych diagnostycznych. Prezentowany w artykule sposób konstrukcji syntetycznego indeksu dobrobytu (DP) w świetle hierarchicznej teorii potrzeb został oparty na budowie wskaźnika rozwoju społecznego HDI2 (Human Development Index). Od 1990 roku, w ramach Programu Narodów Zjednoczonych d.s. Rozwoju, badany jest poziom rozwoju społecznego na świecie za pomocą wskaźnika HDI. Miernik ten jest oparty na trzech podstawowych czynnikach: poziomie zdrowotności, poziomie wykształcenia oraz dostępności dóbr materialnych, które decydują o powiększaniu zdolności i możliwości człowieka. Wskaźnik HDI łączy w sobie ocenę społecznego i ekonomicznego rozwoju danego obszaru, przy czym nie uwzględnia bezpośrednio stanu środowiska naturalnego. Wskaźnik HDI jest to średnia arytmetyczna z unormowanych wartości zmiennych mierzalnych. Należy podkreślić, że miara ta jest w badaniach międzynarodowych wyznaczana corocznie od kilkunastu lat, co umożliwia porównania rozwoju społecznego krajów świata w coraz dłuższym okresie. Wszystkie zmienne diagnostyczne są poddane normalizacji, przy czym w przypadku stymulant zastosowano wzór następującej postaci: y ij = x ij { }, max x ij j gdzie: i – numer zmiennej będącej stymulantą, j – numer jednostki czasu, natomiast dla destymulant normalizację przeprowadzono według wzoru: 2 Sposób konstrukcji wskaźnika HDI jest omawiany w corocznym globalnym raporcie UNDP Human Development Report i raportach krajowych. Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce y ij = { } min x ij j 109 x ij , gdzie: i – numer zmiennej będącej destymulantą, j – numer jednostki czasu. Wśród zaproponowanych zmiennych diagnostycznych dobrobytu, jako stymulanty, przyjęto: – PKB per capita – x1; – przeciętne dalsze trwanie życia mężczyzn i kobiet – x3 i x4; – wskaźnik wykrywalności sprawców przestępstw stwierdzonych – x5; – współczynnik dzietności – x6; – liczbę studentów na 10 tys. mieszkańców – x9; natomiast w grupie destymulant znalazły się: – śmiertelność niemowląt – x2; – współczynnik rozwodów – x7; – liczba samobójstw na 100 tys. mieszkańców – x8; – stopa bezrobocia rejestrowanego w % – x10. Zanim zostanie wyznaczony indeks DP, obliczono cztery indeksy cząstkowe: indeks potrzeb fizjologicznych (P1), indeks potrzeb bezpieczeństwa (P2), indeks potrzeb przynależności i miłości (P3), indeks potrzeb szacunku i uznania (P4), każdy jako średnią nieważoną unormowanych zmiennych diagnostycznych z danej grupy. Jeśli zastosowana zostałaby średnia ważona, to należałoby nadać system wag zmiennym obserwowalnym, czyli ustalić ich hierarchię pod względem ważności. W analizie przyjęto formułę nieważoną, zatem wszystkie zmienne mają jednakowe znaczenie. W kolejnym kroku jest wyznaczany syntetyczny indeks dobrobytu według następującego wzoru: 1 4 DPj = ∑ Pnj . 4 n =1 Miara DP przyjmuje wartości od 0 do 1 i czym wyższa wartość, tym wyższy jest poziom dobrobytu w rozważanych jednostkach czasu. Do obliczenia indeksu dobrobytu w Polsce w latach 1999–2008 wykorzystano dane statystyczne udostępnione na stronach internetowych: GUS, EUROSTAT oraz wydań książkowych Roczników Statystycznych Rzeczypospolitej Polskiej 2000–2009. W badaniach dobrobytu bardzo często jest stosowany wskaźnik makroekonomiczny: produkt krajowy brutto. Jako zmienną diagnostyczną, opisującą aspekt materialny, PKB wykorzystuje się między innymi we wskaźniku rozwoju społecznego HDI [Human... 2009], indeksie jakości życia [The Economist... 2005]. Pamiętać należy, że PKB określa całkowitą wartość dóbr i usług wytworzonych w ciągu roku na danym obszarze, a więc poprawnie charakteryzuje produkcję, a nie dobrobyt [Zienkowski 2008 s. 25]. W Polsce w badanym dziesięcioleciu następował wzrost realnego PKB per capita średnio o 4,2% z roku na rok. Niestety, wzrost PKB per capita nie pociągał za sobą redukcji ubóstwa materialnego. Jak widać na wykresie 2., zasięg ubóstwa obiektywnego (linia ubóstwa rela- 110 Dorota Mierzyńska tywna, ustawowa i minimum egzystencji) w Polsce, w badanym okresie, wzrastał aż do 2004 roku i dopiero w ostatnich latach nastąpił spadek. WYKRES 1. Zasięg ubóstwa w Polsce, w latach 1999–2008 25 % osób 20 15 10 5 0 1999 2000 2001 2002 Relatywna (*) 2003 2004 2005 Ustawowa 2006 2007 2008 Minimum egzystencji (*) Relatywna granica ubóstwa to 50% średnich miesięcznych wydatków gospodarstw domowych. Źródło: Opracowanie własne na podstawie danych GUS. WYKRES 2. Indeksy potrzeb fizjologicznych, P1 i P1U, w latach 1999–2008 1 0,9 0,8 0,7 0,6 1999 2000 2001 2002 2003 P1 Źródło: Opracowanie własne. 2004 2005 P1U 2006 2007 2008 Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce 111 W 2004 roku 19,2% osób w gospodarstwach domowych stanowiły osoby żyjące poniżej ustawowej granicy ubóstwa i jest to najwyższy odsetek w badanym okresie. W ostatnich latach nastąpił spadek zasięgu ubóstwa obiektywnego. Czy tendencja zmniejszania się biedy utrzyma się w kolejnych latach? Kryzys, który rozpoczął się na świecie w latach 2007–2008, może mieć negatywny wpływ na dobrobyt społeczny, a co za tym idzie może pogłębić się ubóstwo. W Polsce, w badanym okresie, zmienne: PKB per capita i zasięg ubóstwa względnego nie są skorelowane, a zatem wzrost PKB nie zawsze przyczynia się do wzrostu dobrobytu materialnego. Na podstawie powyższych rozważań, wśród zmiennych opisujących grupę potrzeb fizjologicznych, można uwzględnić wskaźnik ubóstwa (wykorzystano wskaźnik ubóstwa oparty na ustawowej linii ubóstwa). Indeks potrzeb fizjologicznych (bez wskaźnika ubóstwa) P1 oraz indeks potrzeb fizjologicznych (ze wskaźnikiem ubóstwa) P1U przedstawiono dla lat 1999–2008 na wykresie 2. Indeks P1 wzrastał w badanym okresie, natomiast indeks P1U początkowo wzrósł, następnie nastąpił spadek, by w kolejnych latach znowu rozpoczął się wzrost. Wszystkie zmienne związane z grupą potrzeby bezpieczeństwa w badanym okresie wykazywały pozytywne tendencje. W Polsce społeczeństwo jest coraz zdrowsze (wzrasta w rozważanych latach zarówno przeciętne dalsze trwanie życia kobiet i mężczyzn, a także maleje śmiertelność niemowląt) i może czuć się coraz bezpieczniej (wzrasta wykrywalność sprawców przestępstw). W kolejnej grupie potrzeb wykorzystano następujące zmienne: współczynnik dzietności, wskaźnik rozwodów i samobójstw. W Polsce w 1999 roku współczynnik dzietności wynosił 1,366 i w kolejnych latach malał, aż do roku 2003, a następnie rozpoczął się wzrost, by w 2008 roku osiągnąć poziom zbliżony do pierwszego roku badanego okresu – 1,390. Współczynnik rozwodów wykazywał podobną tendencję, z tą różnicą, że najwyższa wartość – 8,1 – występowała w 2006 roku i zmalała do poziomu 7,3 w 2008 roku, gdy w 1999 roku wynosiła – 4,9. Analogiczne zmiany w czasie występują w przypadku liczby samobójstw na 100 tys. mieszkańców. Pomiaru potrzeb poczucia własnej godności dokonano, wykorzystując dwie zmienne: liczbę studentów na 10 tys. mieszkańców i stopę bezrobocia. W ostatnim dziesięcioleciu w Polsce nastąpił znaczny wzrost absolutnej liczby studentów (w 1999 roku liczba studentów wynosiła 1421,3 tys., a w 2008 roku – 1911,5 tys.), co oczywiście należy traktować jako sukces polskiego szkolnictwa wyższego, ale ciągle należy pamiętać, że nie zawsze „ilość idzie w parze z jakością”. Natomiast bezrobocie w Polsce na początku XXI wieku było na dosyć wysokim poziomie (stopa bezrobocia rejestrowanego w % oscylowała wokół 20% – dane GUS). W ostatnich latach badanego okresu nastąpił spadek i w 2008 roku stopa bezrobocia wynosiła ok. 10%. Na wykresie 3. przedstawiono indeksy cząstkowe czterech grup potrzeb w Polsce, w latach 1999–2008. Jedynie indeks potrzeb bezpieczeństwa P2 wzrastał z roku na rok w badanym okresie, natomiast pozostałe indeksy cząstkowe dopiero po początkowym spadku (P1 i P4 do 2002 roku, P3 do 2005 roku) zanotowały wzrost. Syntetyczny indeks dobrobytu, który jest wypadkową indeksów cząstkowych, w badanych latach, do roku 2005 ulegał nieznacznym wahaniom, a począwszy od 2005 roku wzrastał z roku na rok (zob. wykres 4.). Poziom syntetycznego indeksu 112 Dorota Mierzyńska dobrobytu z 1999 roku został w przybliżeniu osiągnięty ponownie właśnie w 2005 roku i już do końca badanego okresu następował wzrost indeksu DP. WYKRES 3. Indeksy cząstkowe potrzeb w Polsce, w latach 1999–2008 1,000 0,900 0,800 0,700 0,600 1999 2000 2001 2002 P1U 2003 2004 P2 2005 P3 2006 2007 2008 P4 Źródło: Opracowanie własne. WYKRES 4. Syntetyczny indeks dobrobytu DP w Polsce, w latach 1999–2008 1,000 0,968 0,898 0,900 0,847 0,807 0,818 1999 2000 0,811 0,800 0,788 0,794 0,793 0,804 2002 2003 2004 2005 0,700 0,600 2001 Źródło: Opracowanie własne. 2006 2007 2008 113 Pomiar dobrobytu w świetle hierarchicznej teorii potrzeb w Polsce Na wykresie 5. zaprezentowano poziom syntetycznego indeksu dobrobytu DP i indeksu PKB w Polsce, w latach 1999–2008. W rozważanym dziesięcioleciu następował w kolejnych latach wzrost PKB, co nie było zgodne ze zmianami dobrobytu. W literaturze wskazuje się, że poziom i zmiany PKB nie dają pełnego obrazu dobrobytu społeczno-ekonomicznego [Zienkowski 2008 s. 25]. Otrzymane wyniki potwierdzają zatem, że produkt krajowy brutto nie odzwierciedla rzeczywistej sytuacji społecznej. Miara dobrobytu społeczno-ekonomicznego powinna brać pod uwagę nie tylko aspekt materialny, ale również niematerialny. WYKRES 5. Syntetyczny indeks dobrobytu DP i indeks PKB w Polsce, w latach 1999–2008 1,000 0,900 0,800 0,700 0,600 1999 2000 2001 2002 2003 2004 DP 2005 2006 2007 2008 PKB Źródło: Opracowanie własne. 4. Podsumowanie W Polsce w latach 1999–2008 występował wzrost gospodarczy, PKB per capita wzrastał średnio o około 4% z roku na rok. Pamiętać jednak należy, że wzrost gospodarczy nie zawsze przynosi poprawę dobrobytu społeczeństwa. W badaniach społeczno-ekonomicznych coraz częściej wskazuje się, że produkt krajowy czy też dochód narodowy nie odzwierciedlają wszystkich aspektów gospodarowania i nie powinny być utożsamiane z dobrobytem. Należy zatem poszukiwać nowej formuły pomiaru dobrobytu. W artykule zaprezentowano jedną z wielu propozycji pomiaru dobrobytu, która jest oparta na hierarchicznej teorii potrzeb. Syntetyczny indeks dobrobytu DP uwzględnia zarówno potrzeby materialne, jak i niematerialne, których zaspokojenie w wyższych fazach rozwoju staje się głównym celem gospodarowania. Każdy z eta- 114 Dorota Mierzyńska pów budowy syntetycznego indeksu dobrobytu DP: dobór zmiennych diagnostycznych, sposób normalizacji, agregacji może wzbudzić dyskusję. Niestety, brak jest uniwersalnych rozwiązań w zakresie pomiaru dobrobytu społeczno-ekonomicznego, co wiąże się z tym, że nie ma powszechnie stosowanych miar dobrobytu. Trwają poszukiwania formuły, stąd pomiar dobrobytu społeczno-ekonomicznego jest otwartym problemem badawczym. Literatura Anand S., Sen A. 2000 The Income Component of the Human Development Index, „Journal of Human Development”, No. 1. Berbeka J. 2006 Poziom życia ludności a wzrost gospodarczy w krajach Unii Europejskiej, Kraków. Borys T., Rogala P. 2008 Jakość życia na poziomie lokalnym – ujęcie wskaźnikowe, Warszawa. Clarke M., Islam S.M.N., Peach S. 2006 Measuring Australia’s well-being using hierarchical needs, „The Journal of Socio-Economics”, 35. Hagerty M.R. 1999 Testing Maslow’s hierarchy of needs: national quality of life across time, „Social Indicators Research”, 46. Human Development Report 2009, United Nations Development Programme, dokument elektroniczny, tryb dostępu: [http://hdr.undp.org/en/raports, data wejścia: marzec 2010]. Jan Paweł II Papież 1981 Leborem Exercens, Encyklika, O pracy ludzkiej, Watykan. Luszniewicz A. 1990 Statystyka a rzeczywistość: refleksje analityczne, [w:] Poziom życia ludności Polski w latach 1988–1989, Raport, nr 3, IGS SGPiS, Warszawa. Maslow A.H. 1964 Teoria hierarchii potrzeb, [w:] Problemy osobowości i motywacji w psychologii amerykańskiej,Warszawa. Mierzyńska D. 2007 Pomiar ubóstwa za pomocą wskaźnika HPI, [w:] Rozwój regionalny. Podstawowe cele i wyzwania, (red.) Bocian A. F., Białystok. Report by the Commission on the Measurement of Economic Performance and Social Progress 2009, dokument elektroniczny, tryb dostepu: [www.stiglitz-sen-fitoussi.fr, data wejścia: marzec 2010]. Sachs J. 2006 Koniec z nędzą. Zadanie dla naszego pokolenia, Warszawa. Sen A. 2002 Rozwój i wolność, Poznań. Słaby T. 2004 Poziom i jakość życia, [w:] Panek T., Szulc A. (red.), Statystyka społeczna, wybrane zagadnienia, Warszawa. Sztaudynger J.J. 2009 Rodzinny kapitał społeczny a wzrost gospodarczy w Polsce, dokument elektroniczny, tryb dostępu: [http://www.jjsztaudynger.yoyo.pl/e2009-2-sztaudynger.pdf, data wejścia: marzec 2010]. The Economist Intelligence Unit’s quality-of-life index 2005, dokument elektroniczny, tryb dostępu: [http://www.economist.com /media/pdf/QUALITY_OF_LIFE.pdf, data wejścia: marzec 2010]. Zeliaś A. (red.) 2005 Poziom życia w Polsce i w krajach Unii Europejskiej, Warszawa. Zienkowski L. 2008 Rachunki narodowe wczoraj, dziś, jutro, [w:] Plich M. (red.), Rachunki narodowe. Wybrane problemy i przykłady zastosowań, Warszawa. MISCELLANEA Jacek MARCINKIEWICZ1 ANALIZA PORÓWNAWCZA POZIOMU ROZWOJU EUROPEJSKICH GIEŁD Streszczenie W artykule podjęto próbę porównania poziomu rozwoju europejskich giełd papierów wartościowych na podstawie wskaźników ilościowych opisujących sytuację na rynku papierów wartościowych oraz analizę roli spełnianej przez giełdę w gospodarce danego kraju. Wśród wskaźników ilościowych informujących o poziomie rozwoju wtórnego rynku akcji, wybrano: kapitalizację giełdy, liczbę notowanych spółek, średni dzienny obrót, średnią wartość transakcji oraz liczbę zawartych transakcji. Na ich podstawie zbudowano dwa mierniki taksonomiczne. Analiza taksonomiczna, przeprowadzona dla dwóch okresów pokazała, że dystans dzielący warszawską giełdę od największych giełd europejskich nieznacznie uległ zmniejszeniu. W artykule dostrzeżono również wzrost makroekonomicznej roli spełnianej przez GPW w gospodarce polskiej. Słowa kluczowe: rynek kapitałowy, giełda papierów wartościowych, taksonomia A COMPARATIVE ANALYSIS OF THE DEVELOPMENT LEVEL OF EUROPEAN STOCK EXCHANGES Summary In the article an attempt has been made to compare the level of European stock exchanges based on quantitative indices describing the situation on the stock market and an analysis of the role of the stock market in the economy of a given country. The following quantitative indices informing about the level of secondary stock market have been taken into consideration: capitalization of stock exchange, the number of registered companies, average daily turnover, average transaction value and the number of transactions. Based on these indices two taxonomic measures have been built. A taxonomic analysis of two periods showed that the gap between the Warsaw Stock Exchange and the biggest European stock exchanges had decreased. The article also highlights an increasingly important macroeconomic role of GPW /Stock Exchange/ in the Polish economy. Keywords: capital market, stock exchange, taxonomy 1 Dr Jacek Marcinkiewicz – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania. 116 Jacek Marcinkiewicz 1. Wstęp Blisko dwudziestoletni okres działalności Giełdy Papierów Wartościowych w Warszawie pozwala na analizę jej rozwoju oraz wyciągnięcie wniosków dotyczących jej pozycji wśród giełd europejskich. Porównanie poziomu rozwoju giełd papierów wartościowych jest możliwe na podstawie zestawienia regulacji prawnych i rodzaju notowanych instrumentów, wskaźników ilościowych oraz analizy roli spełnianej przez giełdę w gospodarce danego kraju. Przedmiotem niniejszego artykułu jest analiza porównawcza, oparta na wskaźnikach ilościowych oraz roli makroekonomicznej giełdy. Wśród wskaźników ilościowych, informujących o poziomie rozwoju wtórnego rynku akcji, najczęściej są wymieniane dane informujące o liczbie i wielkości spółek notowanych na giełdzie. Jednak badania rynku nie można dokonywać w oderwaniu od stopnia płynności, o którym mogą informować takie wielkości, jak: wartość obrotów instrumentami finansowymi, liczba i wielkość zawieranych transakcji. 2. Dane Giełda Papierów Wartościowych w Warszawie rozwinęła się najszybciej spośród młodych giełd Europy Środkowej, co obrazują wybrane wskaźniki przedstawione w tabeli 1. W świetle, zaprezentowanych w tabeli informacji, pierwszą dekadę funkcjonowania Giełdy Papierów Wartościowych należy uznać za sukces. Po upływie pierwszych lat można powiedzieć, że warszawska Giełda Papierów Wartościowych ustabilizowała się. Minął okres niepewności, czas pierwszych zachwytów oraz rozczarowań. Pierwsze lata XXI wieku to okres ilościowego i jakościowego rozwoju GPW. Wprowadzone zostają do obrotu nowe instrumenty finansowe (jednostki indeksowe, opcje), a od 2003 roku akcje spółek zagranicznych (z wymienionych giełd, tylko na giełdzie w Pradze są notowane spółki zagraniczne). Dane liczbowe za rok 2007 pozwalają na uznanie warszawskiej GPW za najlepiej rozwiniętą giełdę z grupy państw, które przeszły transformację systemową. TABELA 1. Wskaźniki giełdowe Europy Środkowej Giełda Liczba spółek Kapitalizacja (mln dol.) Liczba spółek (zagraniczne) IX 2000 Bratysława Budapeszt Bukareszt Lublana Praga Warszawa Sofia 7 61 38 63 224 - Kapitalizacja (mln euro) 2007 403 12 261 2 019 9 629 26 324 - 160 41 55 87 32 (8) 373 (23) 364 Źródło: [Nasz Rynek Kapitałowy 2000 s. 11; Banaszak-Sroka 2008 s. 203–205]. 4 555 31 528 21 524 19 695 47 987 144 323 14 253 Analiza porównawcza poziomu rozwoju europejskich giełd 117 Danych o rozwoju wtórnego regulowanego rynku kapitałowego dostarcza wiele wskaźników, spośród których do analizy porównawczej 17 europejskich2 giełd zostaną wybrane: – kapitalizacja giełdy, – liczba notowanych spółek, – średni dzienny obrót, – średnia wartość transakcji, – liczba zawartych transakcji. Pierwsze dwie cechy dostarczają informacji o podażowej stronie giełdy papierów wartościowych. Jeden z tych czynników obrazuje liczbę przedsiębiorstw, które pozyskały długoterminowe środki finansowe przy pomocy rynku publicznego. Kapitalizacja, uważana za podstawową kategorię rynków finansowych, odwzorowuje potencjał gospodarczy notowanych spółek oraz oczekiwania inwestorów w zakresie ich dynamiki rozwojowej. Stronę popytową na udziałowe papiery wartościowe obrazują pozostałe trzy wskaźniki. Choć popyt na akcje można nazwać „elastycznym”, co oznacza powiązanie z poziomem i dynamiką cen notowanych walorów, to jest on czynnikiem pośrednio wpływającym na liczbę i wielkość nowych emisji. Poziom dochodów inwestorów, alternatywne możliwości inwestycyjne, chęć do podejmowania ryzyka czy „modę” na inwestowanie na GPW można zaliczyć do pozacenowych determinant popytu na papiery wartościowe. Obliczenia zostaną przeprowadzone na podstawie danych publikowanych przez Międzynarodową Federację Giełd Papierów Wartościowych pochodzących z dwóch okresów (zwanych w artykule umownie pierwszym i drugim okresem obliczeniowym). W pierwszym okresie dane o kapitalizacji i liczbie notowanych spółek pochodzą z ostatniego dnia października 2008 roku, a pozostałe 3 wskaźniki, ulegające znacznym dziennym fluktuacjom, są obliczone na podstawie danych z roku 2007. W drugim okresie informacje o podażowej stronie giełdy papierów wartościowych pochodzą z końca kwietnia 2010 roku, natomiast informacje o popytowej stronie rynku są z 2009 roku. Porównanie wyników badań może pozwolić na sformułowanie wniosku dotyczącego konwergencji lub dywergencji rozwoju europejskich rynków kapitałowych. Możliwe będzie również wskazanie kierunku, w którym podąża warszawska Giełda Papierów Wartościowych. 2 Analizie porównawczej zostanie poddanych 17 europejskich giełd będących, na koniec 2007 roku członkami Międzynarodowej Federacji Giełd Papierów Wartościowych – Word Federation of Exchanges (dawniej FIBV). Euronext jest platformą handlu giełdowego, stworzoną przez giełdy w: Paryżu, Amsterdamie, Brukseli i Lizbonie. OMX to sojusze giełd w: Sztokholmie, Helsinkach, Kopenhadze, Tallinie, Rydze, Reykiawiku, Erewaniu i Wilnie. Również giełda z siedzibą w Madrycie (Bolsay Mercados Espanoles) jest konglomeratem powstałym z połączenia, w 2002 roku, giełd w: Madrycie, Barcelonie, Bilbao i Walencji. Wymienione przykłady są dowodem skutecznie stworzonych aliansów giełdowych. Zmiany, które miały miejsce po roku 2007, takie jak przyjęcie giełdy papierów wartościowych w Moskwie do grona WFE oraz wejście giełdy papierów wartościowych z siedzibą w Mediolanie w skład London Stock Exchange Group, nie zostały ujęte w obliczeniach. 118 Jacek Marcinkiewicz TABELA 2. Podstawowe wielkości charakteryzujące giełdy europejskie (kapitalizacja i liczba notowanych spółek z dnia 31 października 2008, pozostałe wskaźniki na podstawie danych z roku 2007) – pierwszy okres obliczeniowy Giełda Ateny Budapeszt Cypr Euronext Dublin Frankfurt Zurych Mediolan Londyn Lublana Luksemburg Madryt (BME) Malta OMX Oslo Warszawa Wiedeń Kapitalizacja (mln USD) 92 760,1 19 423,9 9 524,1 2 083 611,5 56 010,6 1 097 030,0 865 596,8 509 780,8 2 042 144,8 13 788,0 71 043,7 923 856,2 3 431,9 576 359,9 165 814,3 99 926,4 78 212,8 Liczba notowanych spółek (z funduszami inwestycyjnymi) 287 43 123 1 015 68 840 324 303 3 156 86 263 3 584 19 832 264 441 118 Średni dzienny obrót (w mln USD) 669,3 194,7 20,6 22 030,3 539,1 17 162,4 7 575,5 9 176,7 40 683,8 18,3 1,1 11 691,0 0,4 7 370,2 2 192,4 353,8 526,6 Średnia wartość transakcji (w tys. USD) 14,5 29,3 7,0 36,4 158,7 29,8 58,8 31,9 64,2 18,9 19,0 85,2 8,8 38,4 45,3 5,8 23,3 Liczba zawartych transakcji (w tys.) 11 616,0 1 624,4 729,0 154 277,4 609,4 86 880,7 30 348,0 72 500,3 138 833,6 237,5 14,6 34 637,2 10,1 46 087,7 11 916,7 15 203,9 5 576,6 Źródło: [Dokument elektroniczny, tryb dostępu: WWW.warld-exchanges.org, data wejścia: 12.11.2008, 15.05.2010]. Z uwagi na kapitalizację rynku akcji, Giełda Papierów Wartościowych w Warszawie znajduje się na 9. miejscu (porównaj: tabela 3.). Giełdy o największej kapitalizacji (Euronext, Londyn) ponad 17-krotnie wyprzedzają parkiet warszawski. Również kapitalizacja: giełd we Frankfurcie, Madrycie, giełdy szwajcarskiej, giełdy włoskiej oraz grupy OMX wielokrotnie przekracza kapitalizację rynku akcji GPW. Giełdę w Warszawie, obok giełd w: Oslo, Atenach, Wiedniu, Luksemburgu i Dublinie, można zaliczyć do grupy „europejskich średniaków” o kapitalizacji kilkakrotnie przekraczającej kapitalizację giełd w Budapeszcie czy Lublanie. Na koniec kwietnia 2010 r. najmniejszą kapitalizację zanotowano na giełdach: w Cyprze i na Malcie, co jest zrozumiałe z uwagi na wielkość tych państw. Należy również pamiętać, że w zestawieniu podano jedynie, uznane na rynku międzynarodowym, giełdy papierów wartościowych, będące członkami WFE. 119 Analiza porównawcza poziomu rozwoju europejskich giełd TABELA 3. Podstawowe wielkości charakteryzujące giełdy europejskie (kapitalizacja i liczba notowanych spółek z dnia 30 kwietnia 2010, pozostałe wskaźniki na podstawie danych z roku 2009) – drugi okres obliczeniowy Giełda Ateny Budapeszt Cypr Euronext Dublin Frankfurt Zurych Mediolan Londyn Lublana Luksemburg Madryt (BME) Malta OMX Oslo Warszawa Wiedeń Kapitalizacja (mln USD) 89 439,9 32 550,8 8 189,3 2 711 821,6 66 139,6 1 257 931,7 1 075 045,4 583 551,3 2 766 760,7 10 925,4 96 262,1 1 224 105,7 3 850,5 892 417,2 220 596,1 159 551,1 111 564,4 Liczba notowanych spółek (z funduszami inwestycyjnymi) 286 46 115 1 158 63 778 333 296 2 747 76 278 3 414 20 787 234 504 114 Średni dzienny obrót (w mln USD) 269,0 101,2 6,9 7 740,3 138,6 8 608,0 3 025,4 3 486,5 13 403,6 4,8 1,1 5 949,0 0,1 2 887,4 976,1 226,2 193,4 Średnia Liczba wartość zawartych transakcji transakcji (w tys. USD) (w tys.) 6,6 7,6 4,7 11,8 30,7 21,3 23,7 13,9 20,4 8,9 19,7 47,0 4,9 13,7 15,5 4,3 9,5 10 108,9 3 349,8 358,8 167 127,7 915,1 86 868,0 31 990,1 63 898,0 156 441,6 135,9 14,3 32 206,8 6,8 51 159,9 15 780,8 13 275,0 5 067,3 Źródło: [Dokument elektroniczny, tryb dostępu: WWW.warld-exchanges.org, daty wejścia: 12.11.2008, 15.05.2010]. Pod względem liczby notowanych spółek, giełda w Warszawie plasuje się na 6. miejscu. Na czołowych miejscach są giełdy w: Madrycie oraz Londynie o około 6 razy większej liczbie spółek niż na GPW w Warszawie. Więcej spółek niż na GPW jest notowanych również na: giełdzie Euronext, giełdzie niemieckiej oraz w grupie bałtycko-skandynawskiej OMX. W świetle przedstawionych danych, liczbę oraz wielkość notowanych w obrocie giełdowym spółek można uznać za zadowalającą. Nieco gorzej przedstawia się sytuacja, jeśli analizie zostaną poddane wskaźniki dostarczające informacji o stopniu płynności rynku. Pod względem średniego dziennego obrotu, bezkonkurencyjna jest giełda w Londynie; dzienny obrót przekracza blisko 60 razy obrót na GPW. Na kolejnych miejscach można ulokować giełdę: we Frankfurcie, Euronext oraz giełdę w Madrycie. GPW znajduje się na 10. pozycji, wyprzedzając giełdy w: Wiedniu, Dublinie, Budapeszcie oraz giełdy małych państw (Luksemburg, Malta, Cypr, Słowenia). 120 Jacek Marcinkiewicz O wartości obrotów decyduje liczba oraz wartość zawieranych transakcji. W roku 2009 na warszawskim parkiecie zawarto ponad 13 milionów transakcji (9. miejsce). Jest to dwunastokrotnie mniej niż na przodujących w tej statystyce giełdach: Euronext i LSE. Jeśli jednak weźmiemy pod uwagę średnią wartość transakcji na GPW w Warszawie, to należy zauważyć, że jest ona najniższa spośród analizowanych giełd. Nie licząc giełd na Malcie i Cyprze, średnia wartość transakcji na innych giełdach jest co najmniej kilkakrotnie (a na giełdzie w Madrycie prawie 11-krotnie) większa niż na GPW. Niska wartość tego wskaźnika może być wynikiem stosunkowo dużej liczby drobnych inwestorów indywidualnych. 3. Konstrukcja syntetycznej miary rozwoju giełdy 3.1. Odległość euklidesowa od wzorca Brak jednego wskaźnika, zawierającego kompleksowe informacje o rozwoju rynku kapitałowego, pozwala uznać poziom rozwoju giełdy za zmienną nieobserwowalną. Wszystkie, wymienione, zmienne opisujące rozwój giełdy powinny być stymulantami, przez co się rozumie, że ich wysoka wartość powinna informować o wysokim poziomie rozwoju rynku kapitałowego [Tarczyński 2002 s. 97–98]. Aby doprowadzić do porównywalności zmiennych, dokonano ich standaryzacji według wzoru [Pociecha, Podolec, Sokołowski 1988 s. 41]: z ij = x ij − x j sj , (1) gdzie: x ij – i-ta obserwacja j-tej zmiennej (i=1,2,...,17; j=1,2,...,5), x j – średnia arytmetyczna j-tej zmiennej, s j – odchylenie standardowe j-tej zmiennej. Następnie wygenerowano wzorzec, czyli sztuczny obiekt o maksymalnym, pozytywnym nasileniu wszystkich cech. Kolejnym krokiem było obliczenie odległości każdej giełdy od giełdy wzorcowej przy zastosowaniu miary euklidesowej [Pociecha, Podolec, Sokołowski 1988 s. 42]: ⎡m d i 0 = ⎢∑ zij − z0 j ⎢⎣ j=1 ( 1 ⎤2 2 ⎥ , ⎥⎦ ) (2) gdzie: z ij – wystandaryzowana wartość j-tego wskaźnika dla i-tej giełdy (i=1,2,...,17; j=1,2,...,5), z 0 j – wystandaryzowana wartość j-tego wskaźnika dla wzorcowej giełdy (j=1,2,...,5). Odległości przedstawione w tabeli 4. ukazują dystans dzielący poszczególne giełdy od wzorca. Wśród europejskich giełd nie ma jednej giełdy posiadającej największe wartości wszystkich pięciu, wskazanych wcześniej, cech. Giełda w Londynie mo- 121 Analiza porównawcza poziomu rozwoju europejskich giełd że poszczycić się największą kapitalizacją oraz najwyższym, średnim dziennym obrotem. Najwyższa średnia wartość transakcji oraz najwięcej spółek notowanych jest na giełdzie w Madrycie. Z kolei, w liczbie zawartych transakcji przoduje giełda Euronext. Zarówno w pierwszym, jak i w drugim okresie obliczeniowym najbliżej sztucznego obiektu o maksymalnym nasileniu cech jest giełda w Londynie. Kolejne miejsca zajmują giełdy: Euronext i BME (choć w przypadku tych giełd nastąpiła zamiana lokat). Zaproponowana miara nakazuje wymienić, wśród znaczących giełd europejskich, giełdy: we Frankfurcie, w Zurychu, grupę bałtycko-skandynawską OMX oraz giełdę włoską z siedzibą w Mediolanie. Giełda w Dublinie znalazła się na wyższej niż GPW pozycji, z racji dużej wartości transakcji na niej zawieranych. Właśnie niska wartość tego wskaźnika jest powodem, że giełda w Warszawie znalazła się w tych rankingach na odpowiednio: 12. i 11. miejscu. Podobne odległości od wzorca posiadają giełdy: w Wiedniu i w Budapeszcie, z którymi GPW rywalizuje o prymat najważniejszej giełdy w Europie Środkowej. TABELA 4. Miernik poziomu rozwoju europejskich giełd – odległość od wzorca Pierwszy okres obliczeniowy Giełda Drugi okres obliczeniowy Odległość euklidesowa od wzorca Miejsce Odległość euklidesowa od wzorca Miejsce 7,40 7,46 7,74 4,42 6,56 5,21 5,94 6,12 2,58 7,59 7,49 4,43 7,77 6,00 6,90 7,45 7,42 10. 13. 16. 2. 8. 4. 5. 7. 1. 15. 14. 3. 17. 6. 9. 12. 11. 7,24 7,40 7,54 4,19 6,65 4,40 5,61 5,94 2,51 7,38 6,84 3,60 7,58 5,71 6,70 7,20 7,23 13. 15. 16. 3. 8. 4. 5. 7. 1. 14. 10. 2. 17. 6. 9. 11. 12. Ateny Budapeszt Cypr Euronext Dublin Frankfurt Zurych Mediolan Londyn Lublana Luksemburg Madryt (BME) Malta OMX Oslo Warszawa Wiedeń Źródło: Opracowanie własne. Odległości od wzorca, dzielące giełdę w Warszawie, w obu okresach obliczeniowych różnią się nieznacznie. Należy jednak dostrzec zmniejszenie odległości pomiędzy warszawską giełdą a największymi giełdami w Europie, zwłaszcza że miało to miejsce w latach kryzysu finansowego. Rosnąca szybkość przepływu informacji oraz 122 Jacek Marcinkiewicz procesy globalizacji powodują, że ten czynnik okazał się silniejszym argumentem niż korzystna sytuacja w gospodarce polskiej i wywarł większy wpływ na zachowanie inwestorów na GPW. Rozwój społeczeństwa informacyjnego, unifikacja stosowanych systemów transakcyjnych przy liberalizacji handlu światowego, prowadzące do wzrastającej sieci współzależności gospodarczych i finansowych, powstawania oraz działalności korporacji transnarodowych, sprawia, że globalizacja jest widoczna na rynkach finansowych [Por. Bocian 2004 s. 7–11]. Porównanie wskaźników dostarczających informacji o rodzimym rynku kapitałowym w obu okresach obliczeniowych pozwala zauważyć wzrost kapitalizacji oraz liczby notowanych spółek przy spadku wartości pozostałych zmiennych, mówiących o płynności. Niższe wartości (obserwowane w drugim okresie obliczeniowym) zmiennych przyjętych do analizy są typowym zjawiskiem w przypadku większości giełd. Kryzys finansowy, niewątpliwie, nadwątlił zaufanie inwestorów do rynków kapitałowych we wszystkich krajach. Jednak skala zmian, które zaszły na skutek kryzysu, nie była jednakową na wszystkich giełdach. Giełdy w Atenach i w Wiedniu zanotowały zmniejszenie wartości wszystkich 5 zmiennych przyjętych do analizy, dzięki czemu warszawskiej GPW udało się wyprzedzić te giełdy w rankingu. 3.2. Metoda porządkowania linowego Alternatywna, taksonomiczna metoda porządkowania liniowego, używana w sytuacji gdy wiele cech dostarcza informacji o poziomie rozwoju rynku kapitałowego, polega na przypisaniu wag wartościom, wcześniej podanych, zmiennych [Chudy, Wierzbińska 2001 s. 12–16; Kowalczyk-Lizak 2001 s. 179]. Obliczone zostają współczynniki zmienności (ilorazy odchyleń standardowych i średnich wartości danych zmiennych), a następnie przypisane poszczególnym zmiennym wagi według formuły [Tarczyński 2002 s. 100]: wj = Vj 5 ∑ Vj , (3) j=1 gdzie: wj – waga j-tej zmiennej (j=1,2,...,5), Vj – współczynnik zmienności j-tej zmiennej. Obliczono średnią arytmetyczną z wystandaryzowanych wartości zmiennych [Pociecha, Podolec, Sokołowski 1988 s. 69]: 5 c i = ∑ z ij ⋅ w j (i=1,2,...,17; j=1,2,...,5). j =1 (4) Syntetyczny wskaźnik unormowano tak, aby przyjmował wartości od zera do jednego [Ogólną metodę postępowania można znaleźć w pracy: Pociecha, Podolec, Sokołowski 1988 s. 69]. Wskaźnik względnego poziomu rozwoju obliczono według formuły: 123 Analiza porównawcza poziomu rozwoju europejskich giełd c *i = c i + c min c max + c min , (5) gdzie: ci – średnia arytmetyczna i-tej giełdy ważona współczynnikami zmienności (i=1,2,...,17), cmax, cmin – maksymalna i minimalna wartość średniej arytmetycznej. Wartość „1” będzie miarą syntetyczną giełdy o najwyższym poziomie rozwoju, „0” będzie cechowało giełdę najsłabiej rozwiniętą. Uznaje się, że im wyższa wartość wskaźnika syntetycznego, tym dana giełda cechuje się wyższym poziomem rozwoju. Wyniki analizy są przedstawione w tabeli 5. TABELA 5. Unormowany wskaźnik taksonomiczny oceny rozwoju europejskich giełd Pierwszy okres obliczeniowy Giełda Drugi okres obliczeniowy Unormowany wskaźnik taksonomiczny Miejsce Unormowany wskaźnik taksonomiczny Miejsce 0,058 0,034 0,007 0,697 0,207 0,445 0,271 0,271 1,000 0,019 0,038 0,588 0,000 0,275 0,114 0,061 0,045 11. 14. 16. 2. 8. 4. 6. 7. 1. 15. 13. 3. 17. 5. 9. 10. 12. 0,055 0,021 0,008 0,737 0,103 0,520 0,286 0,264 1,000 0,020 0,081 0,694 0,000 0,299 0,115 0,074 0,044 12. 14. 16. 2. 9. 4. 6. 7. 1. 15. 10. 3. 17. 5. 8. 11. 13. Ateny Budapeszt Cypr Euronext Dublin Frankfurt Zurych Mediolan Londyn Lublana Luksemburg Madryt (BME) Malta OMX Oslo Warszawa Wiedeń Źródło: Opracowanie własne. W przypadku wyników uzyskanych przy użyciu unormowanego wskaźnika taksonomicznego, kolejność pierwszych siedmiu giełd w pierwszym i drugim okresie obliczeniowym jest identyczna. Miejscami: 8. i 9. zamieniają się giełdy w Oslo i Dublinie, a znaczny awans (z miejsca 13. na 10.) notuje giełda w Luksemburgu. Warszawska giełda, choć w rankingu spada o jedna pozycję, to odnotowuje wyższą wartość unormowanego wskaźnika. Giełdzie Papierów Wartościowych w Warszawie w ciągu 2 lat udało się nieznacznie zmniejszyć dystans dzielący ją z najwyżej (według rankingu) rozwiniętą europejską giełdą LSE. Wyniki uzyskane na podstawie unor- 124 Jacek Marcinkiewicz mowanego wskaźnika taksonomicznego są potwierdzeniem wyników uzyskanych metryką euklidesową. 4. Makroekonomiczna rola rynku kapitałowego Z uwagi na źródła pochodzenia kapitału, przedsiębiorstwo może finansować swoje działania własnymi funduszami lub środkami pochodzącymi z zewnątrz. We współczesnej gospodarce finansowanie dużych przedsięwzięć gospodarczych może się odbywać przy aktywnym udziale systemu bankowego (finansowanie zewnętrzne obce) lub przy pomocy publicznej emisji akcji (finansowanie zewnętrzne własne). Te dwa sposoby umożliwiają sprawne przemieszczanie na masową skalę kapitału od podmiotów dysponujących jego nadwyżkami do zgłaszających nań zapotrzebowanie instytucji [Por.: Proniewski, Niedźwiecki 2009 s. 82–85; Nawrot 2010 s. 43–45, s. 59–64]. W „systemie zorientowanym bankowo” pozyskanie kapitału odbywa się głównie przy pomocy kredytów bankowych. Znacząca rola alokacyjna banków, przy ich awersji do ryzyka, sprzyja finansowaniu ustabilizowanych, „tradycyjnych” działalności gospodarczych. Z kolei, w „systemie rynkowym” pozyskiwanie środków na prowadzenie działalności wymaga prawidłowo funkcjonującego rynku papierów wartościowych. Podstawowym pośrednikiem w transferach finansowych jest giełda papierów wartościowych, na której inwestorzy, dostarczający kapitał na rynek, kierują się głównie wysoką dochodowością inwestycji. Aprobata wyższego poziomu ryzyka stwarza dogodne warunki do finansowania nowoczesnych, pionierskich inwestycji [Rayan, Zingales 2002 s. 17]. O poziomie rozwoju rynku kapitałowego w danej gospodarce może świadczyć rynkowa wartość przedsiębiorstw krajowych notowanych na giełdzie, wyrażona jako procent Produktu Krajowego Brutto. Wskaźnik ten wyraża również stopień powiązania giełdy z gospodarką i może być postrzegany pod kątem reprezentatywności wtórnego rynku kapitałowego dla całej gospodarki. Można przyjąć, że jest to najbardziej syntetyczna miara znaczenia giełdy papierów wartościowych w gospodarce kraju [Ciborowski 2005 s. 54; Kulpaka 2007 s. 154; Milo 2000 s. 111]. Informacje o kapitalizacji, PKB oraz stosunek tych wielkości podaje tabela 6. Spośród, analizowanych wcześniej, 17 giełd papierów wartościowych w analizie znaczenia rynku kapitałowego w gospodarce kraju pominięto trzy najbardziej odległe od wzorca giełdy (Malta, Cypr, Lublana). Z powodu przyjęcia do obliczeń wielkości PKB dla poszczególnych krajów za rok 2007, również dane o kapitalizacji krajowych rynków akcji przyjęto z końca 2007 roku. Największą kapitalizacją w stosunku do PKB mogą się poszczycić giełdy: luksemburska i szwajcarska. W Wielkiej Brytanii finansowanie przedsięwzięć gospodarczych odbywa się w znacznej mierze za pośrednictwem rynku papierów wartościowych, również na giełdzie w Madrycie oraz giełdach: Euronext i OMX dominował system „anglo-amerykański”, a kapitalizacja rynku akcji była większa od PKB w roku 2007. Ze zdecydowanie większą rolą systemu bankowego w finansowaniu przedsięwzięć gospodarczych mamy do czynienia w gospodarce: niemieckiej, włoskiej, irlandzkiej czy austriackiej. Kapitalizacja rodzimych spółek, notowanych na tych rynkach 125 Analiza porównawcza poziomu rozwoju europejskich giełd akcji w roku 2007, nie przekroczyła 70% wypracowanego PKB. Dowodzi to mniejszej roli spełnianej przez giełdy papierów wartościowych w przepływie środków finansowych. System taki zwany jest „kontynentalnym” z uwagi na położenie geograficzne tych państw. Należy dodać, że różnice w finansowaniu projektów gospodarczych pomiędzy krajami zmniejszają się. Często spotyka się zasilenie finansowe dużych przedsięwzięć zarówno przy pomocy kredytu, jak i przy wykorzystaniu mechanizmu giełdowego. TABELA 6. Kapitalizacja rynku papierów wartościowych w stosunku do PKB Giełda Ateny Budapeszt Euronext Dublin Frankfurt Zurych Mediolan Londyn Luksemburg Madryt OMX Oslo Warszawa Wiedeń Kapitalizacja (w mld USD na koniec roku 2007) PKB (w mld USD w roku 2007) 265,0 46,2 4 222,7 143,9 2 105,2 1 271,0 1 072,5 3 851,7 166,1 1 799,8 1 242,6 353,4 211,6 236,4 312,3 138,4 4 047,53 260,9 3 316,1 426,7 2 101,6 2 764,4 49,5 1 437,9 1 157,94 388,4 421,9 370,7 Wartość notowanych spółek wyrażona jako procent PKB 84,8 33,4 104,3 55,2 63,5 297,9 51,0 139,3 335,5 125,2 107,3 91,0 50,2 63,8 Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: WWW.warld-exchanges.org, daty wejścia: 12.11.2008, 15.05.2010]. Najmniejsze wartości analizowanego wskaźnika są obserwowane w krajach, które przeszły transformację systemową. Porównanie roli giełd w gospodarkach: polskiej i węgierskiej wypada na korzyść GPW w Warszawie. Kwota kapitalizacji rynku akcji na parkiecie warszawskim stanowiła w roku 2007 połowę PKB wytworzonego przez polską gospodarkę. Pozwala to na wyciągnięcie wniosku, iż finansowanie przedsięwzięć gospodarczych w Polsce w niewielkim stopniu opiera się na kapitale zgromadzonym na rynku udziałowych papierów wartościowych. Większa jest rola systemu bankowego w przepływnie środków finansowych, od podmiotów gospodarczych dysponujących wolnymi środkami do podmiotów zgłaszających na nie zapotrzebowanie. Ukształtowany w Polsce po II wojnie światowej system, w którym nie działała giełda papierów wartościowych, a pierwszoplanową rolą w procesie cyrkulacji 3 4 Przyjęto sumę PKB: Francji, Holandii, Belgii i Portugalii. Przyjęto sumę PKB: Szwecji, Danii, Finlandii, Islandii, Łotwy, Estonii, Armenii i Litwy. 126 Jacek Marcinkiewicz kapitału odgrywał system bankowy, niewątpliwie, wpłynął na przyzwyczajenia uczestników rynku kapitałowego. Z powodu krótkiego, niespełna 20-letniego, okresu funkcjonowania w Polsce gospodarki rynkowej możemy uważać polski rynek papierów wartościowych za rynek ciągle się rozwijający. Należy wspomnieć w tym miejscu, że dla architektów polskiego rynku kapitałowego wzorem była, wchodząca obecnie w skład sojuszu Euronext, giełda francuska, pełniąca ważną rolę w transformacji kapitału w gospodarce Francji. O rosnącej roli giełdy w zasileniu przedsiębiorstw w kapitał świadczy również stały (nie licząc wahań spowodowanych panującą na rynku akcji hossą lub bessą) wzrost relacji kapitalizacji do PKB [Kulpaka 2007 s. 155]. W roku 1998 wielkość analizowanego wskaźnika przekroczyła 20%. Taka wartość jest uważana za minimalny próg, po przekroczeniu którego można mówić o poważnej roli makroekonomicznej spełnianej przez giełdę w gospodarce [Projekcja rozwoju rynku kapitałowego do roku 2002 1998 s. 3]. Choć w roku 2008 kapitalizacja rynku akcji spółek krajowych znacznie zmalała na skutek kryzysu światowego, udział kapitalizacji w PKB na koniec roku był znacznie wyższy od 20%. Należy zwrócić uwagę, że największe banki działające Polsce są spółkami notowanymi na warszawskim parkiecie. Sektor ten należy do największych pod względem kapitalizacji oraz wielkości obrotów. Sektor bankowy pozyskuje środki finansowe przy pomocy emisji akcji na Giełdzie Papierów Wartościowych w celu użycia ich do działalności kredytowej. Owa działalność, w skali makroekonomicznej, powoduje wzrost roli systemu bankowego, jednocześnie przyczyniając się do osłabienia alokacyjnej roli giełdy. Powstałe w ten sposób „sprzężenie zwrotne” może przyczyniać się do niejednoznaczności oceny roli GPW w pozyskiwaniu środków przez sektor bankowy. 5. Podsumowanie Rynek kapitałowy jest integralną częścią gospodarki rynkowej. Spełnia ważną rolę w koncentracji kapitału, dzięki agregowaniu popytu i podaży papierów wartościowych. W skali makroekonomicznej przyczynia się do zwiększania efektywności całej gospodarki, w wyniku mobilizacji i transformacji rozproszonego kapitału oraz oceny jego wartości. Z kolei, w skali mikroekonomicznej giełda papierów wartościowych stanowi źródło środków finansowych możliwych do pozyskania przez przedsiębiorstwo, wpływając w ten sposób na jego funkcjonowanie na rynku. Jest również alternatywą dla posiadaczy wolnych środków finansowych, choć oferowany przez giełdę zysk nie jest pozbawiony ryzyka. Giełda papierów wartościowych jest uważana za „barometr” informujący o sytuacji gospodarczej, dlatego jest ważny poziom rozwoju giełdy papierów wartościowych. Przedstawione zestawiania pokazują, że warszawska GPW jest najlepiej rozwiniętą z giełd Europy Środkowej. Samo pojawienie się „młodej”, dwudziestoletniej giełdy z Warszawy, w tych notowaniach, należy uznać za sukces. Choć dystans dzielący warszawską giełdę od najlepiej rozwiniętych giełd europejskich jest znaczny, to za zadowalające należy uznać jego zmniejszenie w ciągu 2 lat objętych analizą. Przewidywanie kierunków ewolucji polskiego rynku kapitałowego jest trudnym procesem, w którym pomocna może się okazać analiza sytuacji panującej zarówno na rynku kapitałowym, jak i w całej gospodarce. Na podstawie analizy porównawczej makro- Analiza porównawcza poziomu rozwoju europejskich giełd 127 ekonomicznej roli giełd europejskich można wyciągnąć wniosek, że proces tworzenia z Giełdy Papierów Wartościowych centralnej instytucji rozwiniętego rynku kapitałowego nie został jeszcze zakończony. Przyszłość warszawskiej giełdy w znacznym stopniu zależy od sytuacji gospodarczej. Bezspornym problemem polskiego rynku kapitałowego jest bariera płynności. Zbyt niski popyt na udziałowe papiery wartościowe, notowane na regulowanym rynku wtórnym, znacznie ogranicza możliwości pozyskiwania kapitałów na rynku pierwotnym. Analiza porównawcza europejskich giełd pozwala na wyciągnięcie wniosku, że to właśnie płynność jest „piętą achillesową” giełdy w Warszawie. Przyczyny niskiej wartości obrotów można upatrywać w wysokich kosztach transakcji zawieranych na Giełdzie Papierów Wartościowych w Warszawie oraz w, kształtowanych latami wśród gospodarstw domowych, wzorcach gromadzenia i lokowania wolnych środków finansowych. Literatura Adamska L. 2003 Procesy konsolidacji giełd w Europie z perspektywy Giełdy Papierów Wartościowych w Warszawie, „Bank i Kredyt”, nr 5. Banaszak-Soroka U. 2008, Instytucje i uczestnicy rynku kapitałowego, Warszawa. Bocian A.F. 2004 Globalizacja – rozwój regionalny. Dążenie do określenia relacji, [w:] A.F. Bocian (red.), Rozwój regionalny a procesy globalizacji, Białystok. Chudy K., Wierzbińska M. 2001 Próba wykorzystania metod taksonomicznych w analizie rynku kapitałowego w Polsce, [w:] M. Król (red.), Analiza i perspektywy rozwoju polskiego rynku kapitałowego, Rzeszów. Ciborowski R. 2005 Innowacyjność w warunkach neoliberalnej polityki ekonomicznej, [w:] A.F. Bocian (red.), Ekonomia, polityka, etyka, Białystok. Kowalczyk-Lizak P. 2002 Ocena działalności lokacyjnej i klasyfikacja zakładów ubezpieczeń, [w:] K. Jajuga, M. Walesiak (red.), Taksonomia 9 – Klasyfikacja i analiza danych – Teoria i zastosowania, Wrocław. Kulpaka P. 2007 Giełdy w gospodarce, Warszawa. Milo W. 2000 Finansowe rynki kapitałowe, Warszawa. „Nasz Rynek Kapitałowy” 2000, nr 11. Nawrot W. 2008 Rynek kapitałowy i jego rozwój, Warszawa. Nowak E. 1990 Metody taksonomiczne w klasyfikacji obiektów społeczno-gospodarczych, Warszawa. Pociecha J., Podolec B., Sokołowski A., Zając K. 1988 Metody taksonomiczne w badaniach społeczno-ekonomicznych, Warszawa. Projekcja rozwoju rynku kapitałowego do roku 2002 1998, E. Pietrzak (red.), Gdańsk. Proniewski M., Niedźwiecki A. 2009 Giełda Papierów Wartościowych w Warszawie – ujęcie retrospektywne, Białystok. Rayan R., Zingales L. 2002 The Transformation of The European Financial System. Banks and Markets. The Changing Character of European Finance, Frankfurt. Tarczyński W. 2002 Fundamentalny portfel papierów wartościowych, Warszawa. Dokument elektroniczny, tryb dostępu: [www.warld-exchanges.org, daty wejścia: 12.11.2008, 15.05.2010]. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Elżbieta SZYMAŃSKA1 KORZYŚCI I KOSZTY WSPÓŁPRACY MIĘDZYSEKTOROWEJ DLA PRZEDSIĘBIORSTW Streszczenie Bezpośrednim impulsem do podjęcia badań nad współpracą międzysektorową jest potrzeba dokonania analizy korzyści i kosztów, jakie płyną ze współpracy między organizacjami pozarządowymi a przedsiębiorstwami. Celem niniejszej publikacji jest próba zdiagnozowania tychże korzyści i kosztów. Artykuł składa się z czterech części oraz wstępu i wniosków. W części pierwszej przedstawiono formy współpracy międzysektorowej przedsiębiorstw oraz podjęto próbę klasyfikacji instytucji otoczenia biznesu, które wspierają rozwój tego sektora. Część drugą poświęcono prezentacji organizacji pozarządowych w Polsce. W części trzeciej omówiono współpracę międzysektorową przedsiębiorstw z organizacjami pozarządowymi, zaś część czwartą poświecono dociekaniom na temat korzyści, jakie płyną dla przedsiębiorstw ze współpracy międzysektorowej z branżowymi organizacjami pozarządowymi. Dwa początkowe rozdziały opracowania oparto na studiach literaturowych, natomiast dwa końcowe – na przeprowadzonych badaniach własnych. Podsumowanie stanowią wnioski z przeprowadzonych badań. Do realizacji celu wykorzystano metodę ankietową, gdzie badania przeprowadzono na dwóch grupach przedsiębiorstw w Polsce (grupie 100 małych i średnich przedsiębiorstw o zróżnicowanym profilu działalności i grupie 215 przedsiębiorstw turystycznych) oraz 10 organizacjach pozarządowych skupiających przedsiębiorców. Wnioski, jakie wykazano po analizie przeprowadzonych badań, utwierdzają w przekonaniu, że współpraca międzysektorowa przynosi przedsiębiorstwom wiele różnorakich korzyści, gdyż wśród badanych przedsiębiorców jedynie dwóch wskazało na szkody płynące z członkostwa w organizacjach pozarządowych, pozostali zaś, w znacznej większości, ocenili pozytywnie działalność organizacji pozarządowych na rzecz przedsiębiorstw. Słowa kluczowe: organizacja pozarządowa, przedsiębiorstwo, współpraca międzysektorowa ADVANTAGES AND COSTS OF INTERSECTORAL COOPERATION FOR ENTERPRISES Summary A direct impulse to undertake research on intersectoral cooperation is the need to do an analysis of benefits and costs that emerge from the cooperation between non-governmental organizations and enterprises. This paper is aimed at making an attempt to diagnose those benefits and costs. The article consists of four parts, an introduction and conlusions. In part 1 the author presents forms of the intersectoral cooperation of enterprises and makes an attempt to classify the institutions of business environment that enhance the development of this sector. Part 2 provides presentation of 1 Dr Elżbieta Szymańska – Politechnika Białostocka, Wydział Zarządzania, Katedra Turystyki i Rekreacji. Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 129 non-governmental organizations in Poland. In part 3 the author discusses the intersectoral cooperation between enterprises and non-govermental organizations, whereas part 4 is devoted to inquiries into the benefits of intersectoral cooperation between enterprises and non-governmental business organizations. The first two chapters of this paper are based on data from specialist literature, whereas the two final chapters are based on own research. The summary includes conclusions from the research. To realise the objective, the author applied the questionnaire survey method where two groups of enterprises in Poland were tested (one group of 100 small and medium-sized enterprises representing different lines of business and a group of 215 tourist enterprises) and 10 non-governmental organizations open to entrepreneurs. Conclusions that emerge from the research confirm us in our belief that the intersectoral cooperation is very profitable since only two out of the entire number of tested enterprises had pointed out that being member of a non-governmental organization brings harm to a company while a large proportion of entrepreneurs had assessed the activities of non-gevernmental organizations in favour of enterprises as positive. Keywords: non-governmental organization, enterprise, intersectoral cooperation 1. Wstęp Zjawisko współdziałania między różnymi sektorami jest coraz częściej spotykane w gospodarce światowej, a szczególnie w Unii Europejskiej, czemu sprzyja polityka integracyjna. J. Wilkin wyróżnia sektor: publiczny i prywatny, które należy odróżnić od sfer: publicznej i prywatnej, stanowiących pojęcia szersze, niż określenie „sektor” [Wilkin 2008]. Można tu mówić o trzech głównych sektorach: sektorze publicznym2, sektorze prywatnym3 i sektorze pozarządowym, które tworzą różne organizacje, zwane też grupami nacisku4. Każdy z, wymienionych, sektorów podlega ewolucji pod wpływem zmian: ekonomicznych, technicznych, politycznych i społecznych [Kleer 2008] oraz w związku z powstawaniem relacji zachodzących pomiędzy oraz w ramach poszczególnych sektorów5. Niestety, jak wynika z badań GUS [Dokument elektroniczny, tryb dostępu: www.stat.gov.pl], zjawisko współdziałania nie jest jeszcze powszechne wśród polskich przedsiębiorstw. Jest to poważny problem, który autorka objęła badaniami w odniesieniu do grupy polskich przedsiębiorstw i zakresu ich współpracy z innymi podmiotami, głównie branżowymi organizacjami pozarzą2 Zdefiniowanie określenia „sektor publiczny” napotyka na pewne trudności, na co wskazują między innymi R. Przygodzka w swojej publikacji. Zob. [Przygodzka 2008 s. 156–157; Wiatrak 2005]. 3 Kategoria „sektor prywatny” jest pojęciem złożonym i według J. Kleera dzieli się na dwie podstawowe grupy: przedsiębiorstwa prywatne i gospodarstwa domowe. W niniejszej publikacji będziemy się odwoływać jedynie do pierwszej podgrupy, czyli do przedsiębiorstw prywatnych. Porównaj: [J. Kleer 2008 s. 32]. 4 Organizacje te mogą mieć charakter formalny, bądź nieformalny; w literaturze przedmiotu można napotkać wiele różnych definicji i klasyfikacji w odniesieniu do tego sektora, w niniejszej publikacji są brane pod uwagę jedynie organizacje formalne, mające osobowość prawną. Porównaj między innymi: [Michałowska, Gorywoda 2002 s. 298–326; Bez zysków i strat. Sztuka kierowania organizacjami sektora pozarządowego 2002 s.197; Anheier, Seibel 1993 s.1]. 5 Przy czym, należy zgodzić się z opinią, że wzrost udziału wydatków własnych przedsiębiorstw, przy równoczesnym ograniczaniu roli państwa w gospodarce, prowadzi do wyższej efektywności gospodarczej. Porównaj: [Ciborowski 2004 s. 64]. 130 Elżbieta Szymańska dowymi. Konieczność rozwoju struktur demokratycznych, jaką wymusił na naszym kraju proces przedakcesyjny, sprzyjała także stabilizacji i porządkowaniu prawodawstwa w tym zakresie. Stąd w polskim ustawodawstwie pojawiło się pojęcie organizacji pożytku publicznego oraz statusu wolontariatu [Ustawa z dnia 24 kwietnia 2003 r. o działalności pożytku...]. Powstała również ustawa o lobbingu [Ustawa z dnia 7 lipca 2005 r. o działalności lobbingowej...], która ma porządkować delikatną kwestię wywierania przez środowisko przedsiębiorców legalnego i oficjalnego nacisku na twórców prawa, z korzyścią dla obu stron oraz dla wzrostu gospodarczego, a tym samym dla całego społeczeństwa. Celem niniejszej publikacji jest próba zdiagnozowania korzyści i kosztów, jakie płyną ze współpracy międzysektorowej między organizacjami pozarządowymi a przedsiębiorstwami. Podjęto także próbę odpowiedzi na pytanie o rolę organizacji pozarządowych w rozwoju przedsiębiorstw. Publikacja składa się z czterech części oraz wstępu i wniosków. W części pierwszej przedstawiono formy współpracy międzysektorowej przedsiębiorstw oraz podjęto próbę klasyfikacji instytucji otoczenia biznesu, które wspierają rozwój tego sektora. Część drugą poświęcono prezentacji organizacji pozarządowych w Polsce. W części trzeciej omówiono współpracę międzysektorową przedsiębiorstw z organizacjami pozarządowymi, zaś część czwartą poświęcono dociekaniom na temat korzyści, jakie czerpią przedsiębiorstwa ze współpracy międzysektorowej w ramach współpracy z organizacjami pozarządowymi. Dwie pierwsze części opracowania oparto na studiach literaturowych, podczas gdy dwie końcowe – na badaniach własnych. Podsumowanie stanowią wnioski z przeprowadzonych badań. W publikacji wykorzystano metodę analizy literaturowej oraz metodę ankietową. Należy tu zaznaczyć, że w omawianym zakresie wykorzystano różne wyniki badań prowadzonych przez autorkę w omawianym obszarze, gdzie w próbie badawczej znalazły się zarówno przedsiębiorstwa (dwie tury, gdzie w turze I wzięło udział 100 przedsiębiorstw, zaś w turze II uczestniczyło 215 przedsiębiorstw), jak i organizacje pozarządowe wspierające przedsiębiorczość w Polsce (10 podmiotów). Wyniki badań mogą stanowić pewną wskazówkę praktyczną zarówno dla przedsiębiorców, jak i przedstawicieli organizacji pozarządowych, a także winny się stać przyczynkiem do dalszych dociekań badawczych w omawianym temacie. 2. Współpraca międzysektorowa przedsiębiorstw Kooperacja przedsiębiorstw na każdej płaszczyźnie sprzyja podnoszeniu ich konkurencyjności na dwa sposoby [Innowacje...2005 s.109]: – prowadzi do podziału pracy, czyli do specjalizacji; – może być kanałem transferu wiedzy, przyczyniając się w ten sposób do redukcji kosztów transakcji przez ograniczenie niepewności i wzrostu zaufania, szczególnie w przypadku związków systematycznych i długofalowych. Kooperacja może mieć charakter pionowy (dostawca – przedsiębiorca – użytkownik) lub poziomy (między konkurującymi firmami), zaś te drugie, zdaniem D. B. Audretsch i M. P. Feldmana [Audretsch 1996; Feldman 1996], są bardziej istotne. Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 131 Do tych dwóch, podstawowych schematów należałoby dodać system mieszany (wertykalno-horyzontalny), czyli taki, w którym stykają się i współpracują ze sobą różne jednostki. Przykładem takiego systemu mogą być organizacje pozarządowe, zrzeszające różne podmioty, czy klastry będące formą sformalizowanej współpracy instytucji użyteczności publicznej, przedsiębiorstw i jednostek samorządu gospodarczego. Mówiąc o współpracy przedsiębiorstw z organizacjami pozarządowymi, autorka wskazuje na dwie jej formy, a mianowicie: współpracę w ramach członkostwa oraz współpracę przedsiębiorstw z organizacjami pozarządowymi bez bezpośredniego udziału w ich strukturach. Przy czym, należy zaznaczyć, że członkostwo świadczy o ścisłym powiązaniu podmiotu gospodarczego z daną organizacją, podczas gdy, nie będąc członkiem organizacji pozarządowej, przedsiębiorcy mogą korzystać z niektórych form pomocy przez nie oferowanych. W odniesieniu do omawianej problematyki, autorka obie formy określa mianem współpracy, przy czym, dodatkowo, zostały wyodrębnione przedsiębiorstwa będące członkami organizacji pozarządowych. Należy zauważyć, że znacznie szersze od członkostwa pojęcie współpracy przedsiębiorstw może przybierać różne formy, co przedstawiono w tabeli 1. TABELA 1. Instytucjonalne formy współpracy międzysektorowej przedsiębiorstw Rodzaj instytucji Ośrodki przekazu informacji Parki naukowo-technologiczne Centra transferu technologii Przykłady instytucji Główne cele IRC East Poland, IRC South Promocja innowacyjności i wymiany Poland, IRC West Poland, IRC technologicznej między organizacjami Central Poland i regionami w Europie poprzez: doradztwo, konsulting, szkolenia Międzynarodowe Stowarzysze- Dokonywanie przepływu wiedzy nie Parków Naukowych, i technologii pomiędzy jednostkami Konsorcjum Parków Nauko- naukowymi a przedsiębiorcami, powo-Technologicznych przez doradztwo w zakresie innowaw Polsce, regionalne parki cyjności i tworzenie korzystnych wanaukowo-techniczne, np.: runków prowadzenia działalności goKrakowski Park Technolospodarczej przez preferencyjne korzygiczny, Technopark Gliwice stanie z nieruchomości i infrastruktury technicznej Rada Federacji Stowarzyszeń Inspirowanie współpracy nauki Naukowo-Technicznych NOT, i przemysłu oraz pomoc przedsiębiorWschodni Ośrodek Transferu stwom w uzyskaniu technologii poTechnologii na Uniwersytecie przez: doradztwo, poszukiwanie partw Białymstoku, Centrum nerów, promocję, pomoc w zakresie Innowacji i Transferu Techno- certyfikacji i w dostępie do funduszy, logii na Politechnice Białostoc- szkolenia kiej 132 Rodzaj instytucji Klastry Elżbieta Szymańska Przykłady instytucji Główne cele Wspólne Inicjatywy Technologiczne (Joint Technology Initiatives), Północno-Wschodni Innowacyjny Klaster Turystyczny „Kryształ Europy” Klaster składa się z grupy firm i/lub usług publicznych i prywatnych jednostek, które w jakiś sposób zależą od siebie, włączając w to: dostawców, konsultantów, banki, prawników, jednostki prowadzące szkolenia, system edukacji i nauczania, związki biznesu i profesjonalistów czy agencje rządowe Inkubatory Asysta w tworzeniu oraz pomoc Stowarzyszenie Inkubatorów technologiczne w pierwszym okresie działania małej Przedsiębiorczości (inkubatory technologicznej firmy poprzez: przedsiębiorczości) szkolenia i doradztwo, preferencyjne stawki czynszu, dostęp do infrastruktury technicznej i biznesowej Partnerstwo PPP, zwane Wspólnymi Inicja- Długoterminowe partnerstwa publiczPublicznotywami Technologicznymi (Jo- no-prywatne (PPP) -prywatne int Technology Initiatives) Organizacje Izby gospodarcze, izby rzeLobbing na rzecz przedsiębiorczości, pozarządowe mieślnicze, stowarzyszenia pra- wspieranie rozwoju firmy poprzez: codawców, fundacje nastawio- pomoc w nawiązywaniu kontaktów ne na wspieranie przedsiębior- biznesowych, poszukiwanie partnerów, czości wywiad gospodarczy, wspólny marketing, konferencje, szkolenia, doradztwo Regionalne Organizacje pozarządowe na- Pomoc w zakładaniu małej lub średInstytucje leżące do systemu nadzorowa- niej firmy i wprowadzaniu innowacji Finansujące nego przez PARP poprzez: doradztwo, fundusze (RIF) pożyczkowe, realizację projektów unijnych, przyjmowanie wniosków o dotacje na poziomie regionalnym Źródło: Opracowanie własne na podstawie: [Kats 1997 s. 525–529; Ciborowski 2004 s. 221, s. 223–224; Analiza stanu i kierunków rozwoju parków naukowo-technologicznych, inkubatorów technologicznych, centrów transferu technologii w Polsce. Raport końcowy z badań 2004; Ośrodki innowacji w Polsce 2005; Plawgo 2006; Dokument elektroniczny, tryb dostępu: www.mg.gov.pl; www.parp.gov.pl, data wejścia: 12.02.2010; Dokument elektroniczny, tryb dostępu: www.ec.europa.eu; www.innowacyjność.pl], data wejścia: 15.12.2009. Przedstawione instytucje mogą skupiać przedsiębiorstwa z różnych branż, jednostki samorządu terytorialnego i inne instytucje, a ich głównym celem jest wspieranie rozwoju gospodarczego regionów i całego kraju. Szczególne miejsce wśród form współpracy mogą odgrywać sieci innowacyjne, zwane też „klastrami”. Klaster prowadzi do stworzenia szans i okazji dla słabo rozwiniętych regionów do akceleracji zmian, głównie technologicznych [Innowacje... 2005 s. 103]. Struktury klastrowe są szansą dla rozwoju gospodarczego firm i regionów, co widać w krajach Europy Zachodniej, gdzie stają się one podstawowym źródłem ewolucji wzrostu i zamożności lokalnych społeczności. Firmy z branży są wy- Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 133 soce skoncentrowane, co powoduje, że wykazują wyższą konkurencyjność, ale także wspólnie promują region. Włączenie się do klastra nie wiąże się z poważnymi zobowiązaniami. Klaster nie buduje bowiem wspólnego kapitału ani nie utrzymuje rozbudowanych struktur. Natomiast uczestniczenie w przedsięwzięciach jest dobrowolne i wiąże się z takim zakresem odpowiedzialności i takim udziałem w dochodach, jaki wynika z zaangażowania poszczególnych podmiotów. Jedyną strukturą właściwą dla całego klastra może być wspólne „centrum rozliczeniowe”. Komisja Europejska proponuje ustanawianie długoterminowych partnerstw publiczno-prywatnych [www.ec.europa.eu.; Gasz 2008 s. 250–261], które mogą okazać się dla Polski potencjalnie optymalnym instrumentem, gdyż stałym problemem jest brak wolnych państwowych środków finansowych na modernizację gospodarki. PPP, zdaniem A.H. Jasińskiego [Jasiński 2007 s. 19], stwarza możliwość realizacji różnorodnych prorozwojowych inwestycji, tym bardziej że obowiązuje już ustawa o partnerstwie publiczno-prawnym. Jednakże klastry i inne formy PPP są instytucjami dotychczas rzadko stosowanymi w Polsce i innych krajach Europy Środkowo-Wschodniej. Organizacje pozarządowe, skupiające przedsiębiorców, wpisały się na trwałe w rzeczywistość gospodarczą naszego kraju. Szczególny ich rozkwit przypada na początkowy okres przemian ustrojowych, czyli na początek lat 90. zeszłego stulecia. Badania zdają się potwierdzać ich znaczący wpływ na działalność gospodarczą, co zostanie przedstawione w kolejnej części artykułu. 3. Organizacje pozarządowe w Polsce – zadania i struktura Artykuł 58 Konstytucji Rzeczypospolitej Polskiej zapewnia każdemu „wolność zrzeszania się”, a w Artykule 12 zapewnia się wszystkim obywatelom: wolność tworzenia i działania związków zawodowych, organizacji społeczno-zawodowych rolników, stowarzyszeń, ruchów obywatelskich, innych dobrowolnych zrzeszeń oraz fundacji. Organizacją pozarządową (NGO od non-governmental organization) jest, nie będąca jednostką sektora finansów publicznych, w rozumieniu przepisów o finansach publicznych, i nie działająca w celu osiągnięcia zysku, osoba prawna lub jednostka nie posiadająca osobowości prawnej utworzona na podstawie przepisów ustaw, w tym fundacja i stowarzyszenie [Art. 3, ust. 2 Ustawy z dnia 24 kwietnia 2003 r. o działalności pożytku... 2003]. Zgodnie z innym określeniem, organizacje pozarządowe to ogół prywatnych organizacji, działających społecznie i nie dla zysku [Dokument elektroniczny, tryb dostępu; http://osektorze.ngo.pl]. Organizacje pozarządowe koncentrują się zazwyczaj na realizacji „celów wyższych”, zaspokajaniu potrzeb społecznych w krajach demokratycznych, przy czym jest znamienne, że im bardziej ugruntowane są wartości demokratyczne w danym kraju, oraz im wyższy jest poziom życia jego mieszkańców, tym większa jest aktywność społeczna i ilość organizacji pozarządowych [Dokument elektroniczny, tryb dostępu: http://osektorze.ngo.pl]. Organizacje pozarządowe często są najbardziej aktywnym rzecznikiem interesów przedsiębiorców. Różny jest status prawny i sytuacja finansowa tych instytucji. Na obszarze rozwiniętych krajów Unii Europejskiej są to: organizacje członkowskie, agencje, izby przemysłowo-handlowe, stowarzyszenia, spółki akcyjne czy związki 134 Elżbieta Szymańska przedsiębiorców. Mogą to być fundacje lub inne instytucje specjalizujące się we wspieraniu inicjatyw na rzecz rozwoju lokalnego i regionalnego, w których przedsiębiorczość odgrywa dużą rolę, ze względu na walkę z bezrobociem, działaniami na rzecz kobiet, edukacją i ochroną środowiska [Janiuk 2004 s. 50]. Polskie ustawodawstwo dotyczące NGO jest nieco rozproszone i cały czas modyfikowane. Pomimo że sektor pozarządowy obejmuje swym zasięgiem tak szerokie obszary, przenikając zarówno politykę, jak i gospodarkę, przez wiele lat strefa ta działała bez precyzyjnego ustawodawstwa, lub wręcz w zupełnej luce prawnej. Rekonstrukcja systemu gospodarczego w Polsce po 1989 roku była trudnym zadaniem. Musiała być prowadzona w bardzo szybkim tempie, z wykorzystaniem wielu zastanych elementów. Podobną strategię przyjęto w stosunku do tworzących się organizacji biznesu. Ożywiono te struktury, które pozostawały wprawdzie przez dziesiątki lat pod kontrolą państwa, tym niemniej pretendowały do reprezentacji interesów drobnych przedsiębiorców prywatnych. Do takich enklaw można zaliczyć związki rzemiosła, z których wystarczyło zdjąć kuratelę państwa, by zaczęły pełnić rolę organizacji dobrowolnych, zorientowanych na wspieranie zbiorowych interesów swoich członków. Umożliwiła to Ustawa o rzemiośle z 22 marca 1989. Zmiany zmierzające do przekształcenia izb gospodarczych wprowadzono Ustawą o izbach gospodarczych z 30 lipca 1992. W krótkim czasie dało to pozytywny efekt uaktywnienia się dotychczasowych członków izb gospodarczych oraz wzrostu ich aspiracji do bycia obligatoryjną strukturą samorządową. Pewną próbą uporządkowania działalności organizacji pozarządowych, których głównym celem jest wspieranie rozwoju przedsiębiorczości była Ustawa o organizacjach pracodawców z 23 maja 1991, wzorowana na rozwiązaniu niemieckim, zakładająca jednak pełną dobrowolność członkostwa [Społeczne... 1999 s. 28]. W myśl intencji ustawodawcy każdy pracodawca ma prawo założyć wraz z innymi pracodawcami związek, którego funkcje definiowano poprzez odniesienie do szeroko rozumianych stosunków pracy. Ustawa ta wypełniła pewną lukę prawną, trafiając na podatny grunt społeczny i dała podstawę do zakładania licznych lokalnych i branżowych związków pracodawców. Sejm uchwalił ustawę o organizacjach pracodawców, nadając im teoretycznie szerokie kompetencje w dziedzinie prowadzenia negocjacji o układy zbiorowe pracy. Koncesjonowano udział wybranej organizacji pracodawców w Komisji Trójstronnej, typowego ciała korporacyjnego. Zmierzano do powołania obligatoryjnych struktur samorządowych w biznesie. W efekcie kilkuletnich prac nie doszło do uchwalenia ustawy o samorządzie gospodarczym, a ustawodawca poprzestał na aktach prawnych dających przedsiębiorcy możliwość wyboru przynależności do jednej lub kilku spośród istniejących izb, związków i stowarzyszeń bez konieczności przystępowania do jakiejkolwiek organizacji. Prawo o stowarzyszeniach [Ustawa z dnia 7 kwietnia 1989 r. ... 2007] także stanowi podstawę powoływania społecznych organizacji biznesu [Społeczne...1999 s. 28]. Prawo to daje otwartą przestrzeń dla legalizacji wszystkich takich działań biznesu, które nie mieszczą się w formułach bardziej wyspecjalizowanych. W praktyce działają obok siebie organizacje pozarządowe o bardzo zróżnicowanej strukturze organizacyjnej. Obok klubów osiedlowych, grup wsparcia, czy parafialnych zespołów charytatywnych, funkcjonują inne organizacje pozarządowe, takie jak: – stowarzyszenia i związki, Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw – – 135 fundacje, federacje czy luźno skonfederowane porozumienia organizacji. Na końcu listy pojawiają się organizacje o ściśle określonej strukturze, powoływane oddzielnymi aktami prawnymi. Do grupy tej należą m.in. komitety społeczne [Ustawa z dn. 15.03.1933], związki zawodowe [Ustawa z dn. 8.10.1982 z późniejszymi zmianami] czy też organizacje samorządów różnych grup zawodowych [Izby Gospodarcze – Ustawa z dn. 30.05.1989; Izby Lekarskie – Ustawa z dn. 17.05.1989; Cechy i Izby Rzemieślnicze – Ustawa z dn. 22.03.1989]. We wrześniu 2008 roku w bazie danych, zarządzanej przez organizację Klon Jawor, znalazło się 142027 różnych organizacji pozarządowych [Dokument elektroniczny, tryb dostępu: www.ngo.pl, data wejścia: 26.09.2008]. Z danych Głównego Urzędu Statystycznego wynika, że na koniec roku 2007 w Polsce działało 91976 organizacji, które prowadziły działalność jako pozostałe organizacje członkowskie, gdzie indziej niesklasyfikowane6. Zakłada się, że ponad połowa spośród założonych organizacji działa aktywnie, podobna liczba nie zatrudnia żadnego stałego personelu i w prace połowy organizacji są zaangażowani wolontariusze, których liczbę szacuje się na ok. 1,6 miliona osób [Raport...2002 s. 3]. Najwięcej stowarzyszeń i fundacji w Polsce jako pole działania wybrało sport (59,3%), w drugiej kolejności organizacje pozarządowe zajmują się problematyką oświaty i edukacji (48,2%), a także ochroną zdrowia, rehabilitacją i pomocą niepełnosprawnym (32,6%) oraz kulturą i sztuką (27,4%), [Raport...2002 s. 3]. We współczesnych systemach demokracji organizacje pozarządowe, które można zaliczyć do tzw. grup interesu, mogą stanowić ważny czynnik budowy i rozwoju społeczeństwa obywatelskiego. W tym właśnie kontekście wskazuje się na cztery podstawowe funkcje grup interesu [Gospodarka...2006 s. 15]: – reprezentowanie pluralistycznych interesów różnych grup społecznych; – edukowanie organów państwa oraz społeczeństwa, informowanie opinii publicznej o zagrożeniach i istotnych kwestiach wymagających rozwiązań systemowych; – partycypowanie obywateli w procesie podejmowania decyzji przez wywieranie nacisku na organy państwa; – monitorowanie działalności organów państwa i podmiotów gospodarczych. Funkcje powyższe mają spełniać również organizacje pozarządowe skupiające przedsiębiorców i działające w ich interesie. Główne funkcje, które realizują organizacje pozarządowe wspierające rozwój przedsiębiorczości, obejmują [Janiuk 2004 s. 45]: – doradztwo prawne i ekonomiczne; – pomoc w opracowywaniu materiałów reklamowych; Podana tu liczba organizacji pozarządowych nie obejmuje wszystkich tego typu jednostek, ze względu na brak odpowiednich danych w GUS – informacje uzyskane w dniu 26.09.2008 r. w Dziale Udostępniania Danych Statystycznych (jeden z aktualnych numerów telefonicznych: 0857497747); Urząd Statystyczny nie prowadzi statystyki dotyczącej wszystkich organizacji pozarządowych, wyodrębniając oddzielnie partie polityczne, organizacje specjalistyczne (pod numerem PKD 9112z), których jednak liczba jest niedostępna, a w której to grupie mieszczą się organizacje branżowe, w tym turystyczne. 6 136 Elżbieta Szymańska – analizę stanu firm, prognoz ekonomiczno-finansowych przedsięwzięć gospodarczych, planów marketingowych, strategii rozwojowych i programów naprawczych; – ekspertyzy, analizy finansowe, sporządzanie biznesplanów; – konferencje, szkolenia i seminaria o różnym stopniu specjalizacji i zaawansowania; – kojarzenie partnerów krajowych i zagranicznych; – poszukiwania rynków zbytu oraz udzielania informacji o konkurencji. Reasumując, można uznać, że organizacje pozarządowe obejmują swym zasięgiem i pomocą prawie wszystkie formy aktywności ludzkiej, poza administracją państwową i bezpośrednią produkcją dóbr i usług, chociaż często dla realizacji swych celów statutowych organizacje te prowadzą działalność gospodarczą. Wśród wymienionych znajdują się także NGO wspierające przedsiębiorczość prywatną i zgodnie z Raportem [Raport...2002 s. 3] stanowią ponad 6 procent (6,5%) ogółu fundacji i stowarzyszeń działających na obszarze Polski. 4. Współpraca międzysektorowa przedsiębiorstw z organizacjami pozarządowymi w świetle badań Oceniając korzyści i koszty wynikające ze współpracy międzysektorowej organizacji pozarządowych i przedsiębiorstw, można odnieść się do wyników dwóch tur badań, jakie przeprowadziła w tym obszarze autorka. Pierwsze badania, dotyczące roli organizacji pozarządowych we wspieraniu przedsiębiorstw, przeprowadzono w latach 2002–2004 na grupie stu małych i średnich przedsiębiorstw z obszaru województwa podlaskiego. Nieprzypadkowo wybrano okres i obszar badań. Okres badań nałożył się na czas najgorętszych przygotowań Polski do akcesji do Wspólnot Europejskich oraz na moment samego przystąpienia oraz pierwszych miesięcy przynależności do tychże Wspólnot – był to więc optymalny czas dla przeprowadzenia tego typu analiz. Województwo podlaskie to region stosunkowo biedny nie tylko w porównaniu z innymi obszarami Unii Europejskiej, ale także jego zacofanie gospodarcze wyraźnie widać na tle kraju, który należy do tych o najniższym poziomie dochodu narodowego brutto przypadającego na jednego mieszkańca. Wnioski z tych badań można skonfrontować z przeprowadzonymi przez autorkę w latach 2006–2009 na grupie 215 przedsiębiorstw turystycznych7. Celem omawianych badań było ustalenie zewnętrznych źródeł transferu wiedzy w przedsiębiorstwach turystycznych oraz określenie wagi poszczególnych źródeł. W sferze zainteresowań naukowych, w tym zakresie, znalazły się między innymi organizacje pozarządowe. 7 Liczebność podmiotów w populacji, w badanym okresie, wynosiła 5007, wśród których znalazło się: 2228 biur podróży, 2301 obiektów hotelarskich i 487 przedsiębiorstw przewozu pasażerskiego; spośród tej grupy drogą doboru losowego wybrano: 98 biur podróży, 100 obiektów hotelarskich i 17 przedsiębiorstw przewozu pasażerskiego. Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 137 Obie tury badań zostały przeprowadzone z wykorzystaniem metody ankietowej i w każdym przypadku odpowiedzi udzielili zarówno przedsiębiorcy należący do organizacji pozarządowych, jak i niezrzeszeni. Respondentów II tury badań poproszono o wskazanie na instytucje, z którymi współpracują, przy czym zaproponowano zewnętrzne źródła transferu wiedzy z możliwością wielokrotnego wyboru, wśród których znalazły się następujące instytucje: organizacje branżowe, klastry, inkubatory przedsiębiorczości, firmy doradcze, uczelnie wyższe, GUS, OECD, Eurostat i Instytut Turystyki [Szymańska 2009]. Na rysunku, poniżej, przedstawiono wstępne wyniki tych dociekań. RYSUNEK 1. Współpraca z innymi instytucjami (w liczbach bezwzględnych)* Źródło: Opracowanie własne na podstawie przeprowadzonych badań. Badania wykazały, że spośród wszystkich zewnętrznych źródeł transferu wiedzy to właśnie organizacje pozarządowe wysuwają się na plan pierwszy. Dalsze badania nad zewnętrznymi źródłami transferu wiedzy potwierdziły te wyniki [Porównaj: Szymańska 2009]. Należy tu zaznaczyć, że usługi organizacji pozarządowych nie są zarezerwowane jedynie dla ich członków, gdyż często z oferty mogą korzystać przedsiębiorstwa nie będące członkami NGO. Możliwa jest również sytuacja członkostwa w kilku różnych organizacjach pozarządowych. Najbardziej jednak korzystna wydaje się bezpośrednia przynależność do organizacji branżowej. Liczebność tej ostatniej grupy na tle wszystkich respondentów w obu turach badań przedstawiono na poniższych wykresach. Spośród stu badanych przedsiębiorstw, z I tury badawczej, 37% zadeklarowało członkostwo w minimum jednej organizacji pozarządowej. W związku z tym, ponad 138 Elżbieta Szymańska 62% badanych nie należało do żadnej organizacji. Nie znaczy to oczywiście, iż nie korzystali z ich usług, co będzie przedmiotem analizy w dalszej części opracowania8. RYSUNEK 2A. Przynależność do organizacji pozarządowych MŚP na przykładzie stu firm z obszaru województwa podlaskiego Źródło: Opracowanie własne na podstawie przeprowadzonych badań. RYSUNEK 2B. Członkostwo badanych przedsiębiorstw turystycznych w organizacjach pozarządowych Źródło: Opracowanie własne na podstawie przeprowadzonych badań. 8 Trudno jest wynik ten porównać z podobnymi danymi dla innych regionów kraju, gdyż autorce nie udało się odszukać wyników badań w tym zakresie, które byłyby przeprowadzone dla poszczególnych regionów naszego kraju. Korzyścii i koszty współpraacy międzysektoro owej dla przedsięb biorstw 1339 W kwestionariuuszu ankiety II tury badań znaalazły się dwa pytania p dotyczącce zwiiązków przedsięb biorstw turystyccznych z organizzacjami pozarząądowymi – jedn no z niich dotyczyło czzłonkostwa w rzzeczonych organ nizacjach, drugiee zaś współpraccy z niimi. W odniesien niu do pierwszeggo obszaru zbaddano liczbę przeedsiębiorstw turyystyccznych należącycch do organizacjji branżowych n na tle pozostałycch respondentów w. W każdej z wyodrębnionych warstw przedsiębiorstwa deklarowałły takie członko owo. Ogólną aktyw wność badanych przedsiębiorstw przedstawia rysuunek poniżej. stw Łącznie, przynalleżność do różnych organizacji p pozarządowych zadeklarowały 44 4 firm my, co stanowi 20% 2 respondentó ów. Aktywność ta kształtowała się jednak różniie w poszczególnych p w warstwach, co prrzedstawiono naa kolejnym rysunku. RYSUNEK 3. 3 C Członkostwo baadanych przedssiębiorstw w orrganizacjach po ozarządowych w poszcczególnych gru upach 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Przew. Biuraa podróży Baza n noclegowa Nie n należą do żadnej organiizacji lub brak odpowied dzi Członkostwo w N NGO Źró ódło: Opracowaniee własne na podsttawie przeprowadzzonych badań. biorstw turystyczznych jest członkkami tychże orgaaNajwięcej, gdyż aż 28 przedsięb nizaacji z grupy biurr podróży, co staanowi 13% wszyystkich respondeentów, ale równo o9. Wśród cześnie 29% ogółu badanych biur podróży p d gestorów bazyy noclegowej 14% % 9 Najczęściej, wśród d biur podróży, wym mienianą organizacją jest Polska Izba Turystyki T oraz jej od ddziały regionalne, do której k należy 17 przedsiębiorstw. Inne, wymieniane, organ nizacje to: IATA (A Air American Society of Travel T Agents), ZHP (Związek Harcerstw wa Polskiego), ZHR RP Travvel Agents), ASTA (A (Zw wiązek Harcerstwa Rzeczypospolitej Polsskiej) i WTO (Worldd Travel Organizatioon). 140 Elżbieta Szymańska badanych było członkami organizacji pozarządowych10. W warstwie przedsiębiorstw przewozu pasażerskiego jedynie dwie firmy zadeklarowały członkostwo w organizacjach pozarządowych. Stanowi to niespełna 12% tej grupy respondentów. Drugim obszarem, objętym badaniami w II turze, była współpraca przedsiębiorstw turystycznych z organizacjami pozarządowymi. Autorka wyszła z założenia, że z oferty tych organizacji mogą korzystać także przedsiębiorstwa w nich nie zrzeszone. Badania potwierdziły te założenia. TABELA 3. Zależność między warstwą badanych przedsiębiorstw a współpracą z branżowymi organizacjami pozarządowymi Warstwa Biura podróży: % z kolumny % z wiersza % z całości Obiekty hotelarskie: % z kolumny % z wiersza % z całości Przewoźnicy: % z kolumny % z wiersza % z całości Razem w kol. % z całości Podsumowująca tabela dwudzielcza: częstości obserwowane (Tabela zbiorcza) Brak członkostwa w NGO 54 38,30% 55,10% 25,12% 70 49,65% 70,00% 32,56% 17 12,06% 100,00% 7,91% 141 65,58% Członkostwo w NGO 44 59,46% 44,90% 20,47% 30 40,54% 30,00% 13,95% 0 0,00% 0,00% 0,00% 74 34,42% Razem 98 45,58% 100 46,51% 17 7,91% 215 100,00% Źródło: Opracowanie własne na podstawie przeprowadzonych badań, z wykorzystaniem programu Statistica. Do ustalenia korelacji zastosowano program Statistica, co pozwoliło na wyliczenie współczynnika korelacji (chi2 Pearsona), który dla, wspomnianej, relacji wyniósł p=,00069, co świadczy o dużej zależności między warstwą a członkostwem w organizacji pozarządowej, a to wskazuje na większą częstotliwość występowania cechy, Najczęściej wymienianą, w tej grupie przedsiębiorstw, organizacją była Izba Gospodarcza Polskie Zrzeszenie Hoteli, respondenci wymieniali również: – Polskie Stowarzyszenie Hotelarstwa i Turystyki, – Augustowskie Towarzystwo Kajakowe, – Regionalne Stowarzyszenie Turystyczno-Uzdrowiskowe w Kołobrzegu, – Krajowe Centrum Hotelowe, – Polską Izbę Turystyki. 10 Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 141 jaką jest członkostwo w organizacjach pozarządowych w niektórych grupach przedsiębiorstw, w tym wypadku najwięcej członków zanotowano w warstwie biur podróży, w następnej kolejności wśród gestorów bazy noclegowej, podczas gdy żaden z przewoźników nie był członkiem organizacji branżowej. Analizując powyższe dane i porównując je z przedstawionymi wcześniej w odniesieniu do przedsiębiorstw turystycznych, można zauważyć wyraźną różnicę w zakresie wykorzystania współpracy badanych przedsiębiorstw z organizacjami branżowymi, a mianowicie, podczas gdy członkami tych organizacji było zaledwie 20% badanych, to już korzystających z ich pomocy było 40%. Przy czym, na uwagę zasługuje fakt, że podczas gdy biura podróży w szerokim zakresie współpracowały z tymi organizacjami (45%), obiekty hotelarskie także sięgały do oferty NGO (30%), o tyle przedstawiciele przedsiębiorstw przewozu pasażerskiego wskazali na brak takiej współpracy, co dziwi w kontekście wcześniejszej deklaracji członkostwa dwóch podmiotów reprezentujących tę warstwę. W powyższych badaniach widać pewną dysproporcję między członkostwem w organizacjach pozarządowych przedsiębiorstw z branży turystycznej a przyjętymi do badań przedsiębiorstwami z tury I, gdzie członkowie NGO stanowili prawie dwukrotnie liczniejszą grupę (37% respondentów), niż wskazali na to uczestnicy badań z tury II, przy czym można także zaobserwować znaczące dysproporcje w omawianym zakresie – występujące między poszczególnymi warstwami w grupie przedsiębiorstw turystycznych. Należy więc uznać, że członkostwo przedsiębiorstw w branżowych organizacjach pozarządowych obejmuje mniejszość przedsiębiorstw i w różnorodnych dziedzinach może kształtować się w różny sposób. Równocześnie należy odróżnić członkostwo w NGO od korzystania z usług organizacji, które może przybierać znacznie powszechniejszy charakter. 5. Korzyści ze współpracy międzysektorowej organizacji pozarządowych i przedsiębiorstw w świetle badań Podejmując próbę ustalenia działań oferowanych przez organizacje pozarządowe na rzecz rozwoju przedsiębiorstw oraz określenie (pozytywnej i negatywnej) roli tych organizacji w procesie rozwoju przedsiębiorstw, wykorzystano, wzmiankowaną wyżej, I turę badań przeprowadzonych przez autorkę w latach 2002–2004 na grupie stu przedsiębiorstw oraz dziesięciu organizacji pozarządowych działających na rzecz przedsiębiorczości na obszarze województwa podlaskiego11. Organizacje pozarządowe, zrzeszające przedsiębiorców lub w inny sposób wspierające działalność gospodarczą, wykazują wiele kierunków aktywności w omawianym zakresie. Główne kierunki działania tych organizacji, uwzględnione w kwestio- 11 Do chwili oddania do druku niniejszej publikacji, badania nad rolą organizacji pozarządowych w rozwoju przedsiębiorstw turystycznych, prowadzone przez autorkę, nie zostały ukończone, toteż nie było możliwe przedstawienie kompleksowych wyników; przygotowanie raportu i wydanie publikacji są planowane na rok 2011. 142 Elżbieta Szymańska nariuszach ankiety skierowanych do organizacji pozarządowych i do przedsiębiorców12, to: – kongresy i konferencje, – szkolenia, – wywiad gospodarczy, – wydanie biuletynu informacyjnego i katalogu członków, – doradztwo i konsultacje ekspertów, – misje gospodarcze, – organizowane konkursy przedsiębiorczości, – strona internetowa (gdzie znajdują się informacje związane z działalnością organizacji), – spotkania z politykami i przedstawicielami władz regionalnych, – wystąpienia przedstawicieli na forum publicznym w imieniu i interesie przedsiębiorców. Przeprowadzone badania wykazały, że żadna z badanych instytucji nie realizowała równocześnie wszystkich wymienionych działań (najwięcej działań, gdyż 9 spośród zaproponowanych dziesięciu, realizował jeden z respondentów), jednakże większość posiadała w swojej ofercie kilka spośród wyszczególnionych propozycji. Jedną z najbardziej popularnych ofert organizacji pozarządowych skierowanych do przedsiębiorców, szczególnie z sektora małych i średnich przedsiębiorstw, okazały się szkolenia [Noe 2005]. Aż 70% badanych organizacji realizowało szkolenia z zakresu rozwoju przedsiębiorczości, organizowało spotkania z politykami, występowało publicznie w interesie przedsiębiorców oraz ta sama liczba korzystała w interesie firm z doradztwa ekspertów. Są to więc najpopularniejsze i najbardziej dostępne formy pomocy, z których mogli skorzystać przedsiębiorcy w badanym okresie. Nieco mniejsze znaczenie miało doradztwo, którego udzielało 60% badanych organizacji pozarządowych. Najmniejszym zaś powodzeniem cieszyło się wydawanie katalogu członków organizacji, co zadeklarowała tylko jedna z nich i tylko w jednym nakładzie (i w jednym roku). Przedstawiciele organizacji pozarządowych, według uzyskanych wyników badań, stosunkowo rzadko składają jakiekolwiek petycje do władz czy publikują informacje w mediach. Petycja zaś bywa często skuteczną formą nacisku i jest to: [...] jedna z najstarszych metod [...], w swojej tradycyjnej formie metoda ta wywodzi się ze źródeł lobbingu [Clamen 2005 s.149]. Jedynie dwie spośród badanych dziesięciu instytucji zastosowało tę formę w przeciągu trzech lat. Organizacje pozarządowe nieco częściej starają się znaleźć w mediach. Zazwyczaj są to jednak wywiady przeprowadzane z przedstawicielami branży albo relacje z organizowanych imprez. W ten sposób przedsiębiorstwa należące do danej organizacji mają możliwość zaistnieć szerzej na rynku. Największą dynamiką wzrostu w okresie, gdy prowadzono badania nad organizacjami pozarządowymi, odznaczało się doradztwo na rzecz przedsiębiorstw. W przeciągu stosunkowo krótkiego okresu 3 lat zainteresowanie doradztwem biznesowym wzrosło niemal trzykrotnie, co było prawdopodobnie związane z występującymi 12 Zadając respondentom pytanie, zastosowano kafeterię półotwartą umożliwiającą zaznaczenie kilku wybranych odpowiedzi i równocześnie zaproponowanie innych możliwości. Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 143 wątpliwościami w związku z akcesją Polski do Unii Europejskiej, a także możliwościami, jakie się z tą akcesją wiązały, na co wskazuje zakres porad13. Podobnie jak doradztwo czy wywiad gospodarczy, zainteresowaniem cieszyły się spotkania z politykami i przedstawicielami władz regionalnych. Powyższe oferty nie wyczerpują wszystkich działań realizowanych przez organizacje pozarządowe, jednakże nadal jedną z najważniejszych, jeśli nie najważniejszą funkcją organizacji pozarządowych, działających w sferze biznesu, jest lobbing na rzecz członków. Lobbing stanowi jeden z głównych czynników przyciągających przedstawicieli biznesu do wstąpienia w szeregi tych organizacji. Na szczeblu regionalnym lub narodowym, zdaniem L. Graniszewskiego, organizacje pozarządowe, zwane też grupami interesu, stosują wszelkie środki wpływające na decyzje władz [Graniszawski, Piątkowski 2004 s.95]. Skuteczność lobbingu można jednakże ocenić głównie po efektach, jakie przynosi, a te częstokroć są niemierzalne lub też przedsiębiorcy nie zawsze mogą, lub chcą, ujawnić przedsięwzięcia, które udało im się zrealizować dzięki bezpośrednim znajomościom z przedstawicielami władz rządowych lub samorządowych danego regionu. Wprawdzie w żadnej z ofert badanych organizacji pozarządowych14 nie znalazła się propozycja pomocy w budowaniu dobrej marki firmy czy tworzenia produktu markowego, lecz wiele działań w rzeczywistości jest spójnych z tym właśnie celem. Przecież samo uczestnictwo w działaniach organizacji pozarządowych, a szczególnie członkostwo w tychże organizacjach, niewątpliwie, przyczyniają się do budowy marki firmy czy też popularyzacji jej oferty, chociażby wśród innych członków organizacji. Na budowę dobrej marki firmy mają wpływ wszelkie działania o charakterze marketingowym [Public 2005]. Do takich przedsięwzięć należy zaliczyć: udział w konkursach przedsiębiorczości, udział w spotkaniach okolicznościowych, reklamę w katalogach lub biuletynach informacyjnych, umieszczenie informacji o firmie na stronie internetowej organizacji oraz inne działania związane z budową dobrego wizerunku firmy. Każde z wymienionych przedsięwzięć sprzyja promocji, a co za tym idzie, wspiera rozwój przedsiębiorstwa. W zakresie oceny roli NGO w rozwoju przedsiębiorstw posłużono się metodą rangowania, gdzie ankietowanym zaproponowano siedem wariantów odpowiedzi, stopniując je od „bardzo pomocna” do oceny o negatywnym zabarwieniu, mianowicie, „szkodliwa”. Uwzględniono również ocenę „rozrywkowa”, gdyż należy zdawać sobie sprawę, że częstokroć także taką towarzysko-rozrywkową rolę pełnią tego typu organizacje. Oto propozycje przedstawione respondentom: – bardzo pomocna, Respondenci wskazywali na następującą tematykę: – pozyskiwanie funduszy z Unii Europejskiej; – legislacja dokumentów w eksporcie; – badanie rynków i wyszukiwanie potencjalnych partnerów; – rejestracja działalności gospodarczej, prawo pracy, świadczenia na rzecz ZUS; – finanse firmy z naciskiem na opodatkowanie; – eksport na rynki zagraniczne, głównie Unii Europejskiej; – standardy i normy europejskie, zwłaszcza certyfikacja: ISO, HCCP oraz CE. 14 I tura badań. 13 1444 – – – – – – Elżbieta E Szymańskka wspierającaa, prestiżowaa, rozrywkow wa, średnio pomocna, żadna, szkodliwa. dani przedstawion no na rysunku. Odpowiedzi, jakkich udzielili bad RYSUNEK 4. 4 biorstw Rola orgaanizacji pozarzządowych w rozzwoju przedsięb 18% 2% 3% 14% B Bardzo pomocna 25% Ś Średnio pomocna W Wspierająca 7% P Prestiżowa R Rozrywkowa Ż Żadna S Szkodliwa 10% 21% B Brak odpowiedzi Źró ódło: Opracowaniee własne na podsttawie przeprowadzzonych badań. o pozaarządowych w ro ozwoju przedsięębiorstw, ankieto oOceniając rolę organizacji wan ni najliczniej (255% odpowiedzi) ocenili, że orgganizacje te są śrrednio pomocnee. Kollejną, najczęścieej zaznaczaną, odpowiedzią o była ocena „wspieerająca” (21% reespo ondentów). Osiem mnaście zaś pro ocent przedsiębio orców oceniło, że ż pomoc organizacjji pozarządowycch jest „żadna”, przy p czym nie dzziwi taka opinia ze z strony firm niie zrzeeszonych, gdyż nie mając dobreego zdania lub ttakże rozeznaniaa o organizacjach h, po prostu do nich nie przystępują. Interesująca jestt natomiast tak negatywna n opiniia c „bardzo po oprzedsiębiorców, kttórzy należą do organizacji. Oceenę najwyższą, czyli % ankietowanych h, zaś 10% badan nych firm oceniło mocna”, wydało orrganizacjom 14% ozarządowych jakko prestiżową, n natomiast 7% zaznaczyło z odpo orolęę organizacji po wieedź „rozrywkowa”. Dwie firmy,, spośród badan nych, oceniły te organizacje jakko szkodliwe dla ich fuunkcjonowania15. 15 Oceny krytyczne,, pod adresem niektó órych organizacji po ozarządowych wspierrających przedsiębio orczośść (głównie PARP), można znaleźć w ko omentarzach respon ndentów na stronie: [www.parp. gov.pl].. Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 145 Opinie pozytywne pochodzą głównie od przedsiębiorstw będących członkami tychże organizacji, jednakże także wśród firm, nie członków NGO, opinia pozytywna zdecydowanie przeważa nad negatywną, podczas gdy 18 było zdania, że pomoc ich jest „żadna”, dwie zaś wypowiedzi mówią o szkodliwości członkostwa w NGO w związku z koniecznością płacenia składek członkowskich oraz dużym nakładem czasu związanym z uczestnictwem w działaniach organizacji. 6. Podsumowanie Wyniki przeprowadzonych badań wykazały, że w ramach współpracy międzysektorowej przedsiębiorcy najczęściej wybierają współpracę z organizacjami pozarządowymi. Współpraca ta może polegać na członkostwie w tych organizacjach (na co wskazało 37% respondentów w I turze badań, którymi były objęte małe i średnie przedsiębiorstwa z województwa podlaskiego, oraz średnio 20% dla przedsiębiorstw turystycznych z obszaru kraju, przy różnym rozkładzie w odniesieniu do poszczególnych warstw) lub na korzystaniu z ofert organizacji pozarządowych, bez bezpośredniego członkostwa. Autorka wyszła z założenia, że z oferty tych organizacji mogą korzystać także przedsiębiorstwa w nich nie zrzeszone. Badania potwierdziły to założenie, wykazując prawie dwukrotnie większą liczbę współpracujących z organizacjami pozarządowymi przedsiębiorstw (tu: turystycznych), niż członków organizacji branżowych. Biorąc pod uwagę, przedstawiony powyżej, szeroki wachlarz działań oferowanych przez organizacje pozarządowe – tak niska aktywność przedsiębiorstw turystycznych jest zastanawiająca, można wręcz twierdzić, że na tle średniej przynależności przedsiębiorców do różnych organizacji pozarządowych firmy turystyczne (poza biurami podróży) wykazują się dużą powściągliwością w tym zakresie. Podsumowując zebrane opinie przedsiębiorców, należy jednoznacznie stwierdzić, że organizacje pozarządowe przynoszą wiele korzyści współpracującym z nimi przedsiębiorstwom, gdyż pozytywnie na ten temat wypowiedziało się 77% ankietowanych. Wprawdzie jedna czwarta respondentów uważa, iż organizacje te są „średnio pomocne”, jednakże 35% jest zdania, że organizacje pozarządowe są „bardzo pomocne” lub „wspierające”. Główne korzyści płynące ze współpracy międzysektorowej, na które wskazywali respondenci, to, niewątpliwie, usługi doradcze oraz szkoleniowe. W tym też zakresie badane instytucje wykazywały największą aktywność. Stale rosnącym powodzeniem cieszył się również wywiad gospodarczy. Lobbing, w którym organizacje pozarządowe skupiające przedsiębiorców są niezastąpione, dając możliwość artykułowania swych oczekiwań i nawiązywania bezpośrednich kontaktów z decydentami, rozwija się stosunkowo dynamicznie, angażując 70% badanych NGO. W zakresie nawiązania bliższych kontaktów z przedstawicielami władz administracyjnych i samorządowych – możliwość spotkań i bezpośredniej rozmowy podczas oficjalnych imprez organizowanych przez reprezentujące przedsiębiorców organizacje – jest optymalnym i często jedynym, możliwym wariantem nawiązania tychże kontaktów. Organizacje pozarządowe sprzyjają także zawieraniu bezpośrednich znajomości między przedsiębiorcami, co owocuje nowymi pomysłami współpracy i wymiany doświad- 146 Elżbieta Szymańska czeń. Dzięki takim kontaktom, rodzi się niejedno przedsięwzięcie, zaś połączenie przedsiębiorstw i ich kapitału jest jednym z głównych czynników dynamizujących ich rozwój. Respondenci, generalnie, nie wskazywali na straty czy niedogodności związane z członkostwem czy współpracą z organizacjami pozarządowymi, poza dwoma wyjątkami, gdzie zasygnalizowano straty związane z koniecznością opłacania składek członkowskich oraz z uznaniem za stratę czasu działalności na rzecz organizacji. Pozostali respondenci nie wskazali na żadne koszty w badanym obszarze, chociaż członkostwo w NGO wiąże się zwykle z koniecznością uiszczania składek członkowskich. Należy więc wnioskować, że organizacje przynoszą przedsiębiorcom zdecydowanie więcej korzyści, niż pociągają za sobą koszty, które można, w świetle przeprowadzonych badań, uznać za marginalne. Zagadnienie współpracy międzysektorowej przedsiębiorstw i organizacji pozarządowych wydaje się na tyle istotne, że pogłębienie studiów i badań w tym zakresie powinno wnieść wiele zarówno do teorii ekonomii i zarządzania, jak i do praktyki prowadzenia działalności gospodarczej. Literatura Analiza stanu i kierunków rozwoju parków naukowo-technologicznych, inkubatorów technologicznych, centrów transferu technologii w Polsce 2004, Raport końcowy z badań, Konsorcjum Parków Naukowo-Technologicznych w Polsce, Gdańsk. Anheier H., Seibel W. 1993 Defining the Nonprofit Sector, [in:] The Johns Hopkins Comparative Nonprofit Sector Project, Germany, „Working Paper”, No. 6. Audretsch D. B., Feldman M. P. 1996 R&D Spillovers and the Geography of Innovation and Production, „American Economic Review”, No. 86. Bez zysków i strat. Sztuka kierowania organizacjami sektora pozarządowego 2002, Phare Dialog Społeczny, Warszawa. Społeczne organizacje biznesu w Polsce a stosunki pracy 1999, W. Kozek (red.), Centrum Partnerstwa Społecznego „Dialog” im. Andrzeja Bączkowskiego, Warszawa. Ciborowski R. 2004 Wpływ zmian w polityce ekonomicznej i globalizacji na postęp techniczny i konkurencyjność gospodarki Wielkiej Brytanii, Białystok. Clamen M. 2005 Lobbing i jego sekrety, Warszawa. Gasz M. 2008 PPP jako instrument realizacji zadań publicznych, [w:] Sektor publiczny we współczesnej gospodarce, R. Przygodzka (red.), Białystok. Gospodarka turystyczna a grupy interesu 2006, S. Wodejko (red.), Warszawa. Graniszawski L., Piątkowski C. 2004 Grupy interesu w Unii Europejskiej, Warszawa. Innowacje w działalności przedsiębiorstw w integracji z Unią Europejską 2005, W. Janasz (red.), Warszawa. Janiuk I. 2004 Strategiczne dostosowanie polskich MSP do konkurencji europejskiej, Warszawa. Jasiński A. H. 2007 Narodowy system innowacji w Polsce wobec wyzwań integracyjnych, [w:] Działalność innowacyjna przedsiębiorstw w warunkach globalnych, J. Bogdanienko, M. Kuzela, I. Sobczak (red.), Toruń. Korzyści i koszty współpracy międzysektorowej dla przedsiębiorstw 147 Kleer J. 2008 Sektor publiczny w warunkach współczesnych, „Optimum. Studia Ekonomiczne”, nr 4 (40). Michałowska-Gorywoda K. 2002 Podejmowanie decyzji w Unii Europejskiej, Warszawa. Noe R. A. 2005 Employee training and development, Singapore. Ośrodki innowacji w Polsce 2005, PARP, Warszawa. Polska wschodnia – determinanty rozwoju 2006, B. Plawgo (red.), Białystok. Public relations instytucji użyteczności publicznej 2005, E. Hope (red.), Gdańsk. Przygodzka R. 2008 Efektywność sektora publicznego, „Optimum. Studia Ekonomiczne”, nr 4 (40). Raport z badania 2002 2002, Stowarzyszenie Klon/Jawor, Warszawa. Samoorganizacja społeczeństwa polskiego: trzeci sektor 2002, P. Gliński, B. Lewenstein, A. Siciński (red.), Warszawa. Sektor publiczny we współczesnej gospodarce 2008, R. Przygodzka (red.), Białystok. Skrzypiński D. 2001 Organizacje pracodawców i przedsiębiorców w procesie kształtowania się stosunków przemysłowych w Polsce po 1989 r., Toruń. The Human Side of Managing Technological Innovation 1997, Kats R. (ed.), New York – Oxford. Ustawa z dnia 22 marca 1989 r. o rzemiośle, Dz. U. 1989, Nr 17, poz. 92 z późniejszymi zmianami. Ustawa z dnia 23 maja 1991 r. o organizacjach pracodawców, Dz. U. z 1991 r., Nr 55, poz. 235 z późniejszymi zmianami. Ustawa z dnia 24 kwietnia 2003 r. o działalności pożytku publicznego i o wolontariacie, Dz. U. 2003, Nr 96, poz. 873 z późniejszymi zmianami. Ustawa z dnia 30 maja 1989r. o izbach gospodarczych, Dz. U. 1989, Nr 35, poz. 195 z późniejszymi zmianami. Ustawa z dnia 30 maja 1989r. o samorządzie zawodowym niektórych podmiotów gospodarczych, Dz. U. 1989, Nr 35, poz. 194 z późniejszymi zmianami. Ustawa z dnia 6 kwietnia 1984r. o fundacjach, Dz. U. 1991, Nr 46, poz. 203 z późniejszymi zmianami. Ustawa z dnia 7 kwietnia 1989 r. Prawo o stowarzyszeniach, Dz. U. z 2001 r., Nr 79, poz. 855 z późniejszymi zmianami. Ustawa z dnia 7 lipca 2005 r. o działalności lobbingowej w procesie stanowienia prawa, Dz. U. 2005, Nr 169, poz. 1414 z późniejszymi zmianami. Wiatrak A. P. 2005 Strategiczne myślenie i działanie w organizacjach publicznych, „Współczesne Zarządzanie”, nr 2. Wilkin J. 2008 Sfera publiczna i sfera prywatna: co je dzieli i łączy? – ujęcie instytucjonalne, „Optimum. Studia Ekonomiczne”, nr 4 (40). Dokument elektroniczny, tryb dostępu: [http://osektorze.ngo.pl]. Data wejścia 15.12.2009. Dokument elektroniczny, tryb dostępu: [www.ec.europa.eu]. Data wejścia 15.12.2009. Dokument elektroniczny, tryb dostępu: [www.ec.europa.eu]. Data wejścia 15.12.2009. Dokument elektroniczny, tryb dostępu: [www.innowacyjność.pl]. Data wejścia 15.12.2009. Dokument elektroniczny, tryb dostępu: [www.mg.gov.pl]. Data wejścia 12.02.2010. Dokument elektroniczny, tryb dostępu: [www.ngo.pl]. Data wejścia 12.02.2010. Dokument elektroniczny, tryb dostępu: [www.parp.gov.pl]. Data wejścia 12.02.2010. Dokument elektroniczny, tryb dostępu: [www.stat.gov.pl]. Data wejścia 12.02.2010. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Katarzyna LEWKOWICZ-GRZEGORCZYK1 REALIZACJA ZASADY SPRAWIEDLIWOŚCI NA PRZYKŁADZIE PODATKU DOCHODOWEGO OD OSÓB FIZYCZNYCH Streszczenie Przedmiotem artykułu jest analiza urzeczywistnienia zasady sprawiedliwości podatkowej w podatku dochodowym od osób fizycznych. Na wstępie autor prezentuje zasady podatkowe w ujęciu historycznym i współczesnym. Następnie analizuje kwestie sprawiedliwości podatkowej. Obecna interpretacja zasady sprawiedliwości znacznie odbiega od rozumienia jej w czasach, gdy została stworzona. Przyjmuje się, iż podatek sprawiedliwy to podatek zróżnicowany i zindywidualizowany, uwzględniający wiele czynników wpływających na jego wielkość. Podatek dochodowy od osób fizycznych cechuje się personalizacją oznacza to, że jest dostosowany do indywidualnej sytuacji podatnika. Dzięki temu, spełnia zasadę sprawiedliwości, przy czym nie wszystkie przyjęte w nim rozwiązania są z nią zgodne. Słowa kluczowe: zasady podatkowe, sprawiedliwość podatkowa, podatek dochodowy od osób fizycznych IMPLEMENTATION OF TAXATION EQUITY AS EXEMPLIFIED BY THE POLISH INDIVIDUAL INCOME TAX Abstract The subject of the article is the analysis of taxation equity in individual income tax. Firstly, the taxation rules are presented from a historical and modern point of view. This is followed by a detailed analysis of the rule of taxation equity. The current understanding of this rule is different from what it was when it had been created. It is assumed that a fair tax is varied and personalised, including many factors influencing its scale. Individual income tax is personalised, adapted to the individual situation of the taxpayer, which means, in general terms, that it fulfils the rule of equity, although not all of the rules governing taxation are in compliance with the rule of taxation equity. Keywords: taxation rules, taxation equity, income tax, individual income tax 1. Wstęp Współcześnie, coraz większą wagę przywiązuje się do kwestii sprawiedliwości systemu podatkowego. Zakładając, że prawo podatkowe jest gwarantem sprawiedliwego traktowania podatników, a państwo stoi na straży przestrzegania tego prawa, 1 Mgr Katarzyna Lewkowicz-Grzegorczyk – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania. Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 149 to podatnicy będą bardziej skłonni do podejmowania aktywności, aniżeli w systemie, w którym zasada sprawiedliwości podatkowej pozostaje jedynie martwym postulatem. W doktrynie podatkowej wyraźnie formułowany jest pogląd, że sprawiedliwość jest fundamentem budowy systemu podatkowego, a rezygnacja z idei sprawiedliwości jest jednocześnie rezygnacją z sukcesu reform podatkowych [Famulska, Znaniecka 2003 s. 15]. Interpretacja zasady sprawiedliwości budzi we współczesnej teorii opodatkowania najwięcej kontrowersji. Obecnie, przy rozumieniu normy sprawiedliwości, często odchodzi się od pierwotnych wzorców, które uznawały system podatkowy za sprawiedliwy, jeśli cechowała go powszechność i równość opodatkowania. Przyjmuje się, że podatek sprawiedliwy to podatek zróżnicowany i zindywidualizowany, uwzględniający wiele czynników wpływających na jego wielkość. Przy takim założeniu, podatek jest sprawiedliwy, jeżeli cechuje się personalizacją, czyli jest dostosowany do indywidualnej sytuacji podatnika [Gaudement 2000 s. 510–511]. Podatkiem, który w największym stopniu uwzględnia tak rozumianą zasadę sprawiedliwości, jest podatek dochodowy, przy czym nie wszystkie przyjęte w nim rozwiązania są zawsze zgodne z tą zasadą. Celem niniejszego opracowania jest próba ukazania realizacji zasady sprawiedliwości podatkowej na przykładzie podatku dochodowego od osób fizycznych w Polsce. Artykuł przygotowano na podstawie studiów literaturowych oraz analizy danych statystycznych dotyczących rozliczenia podatku dochodowego od osób fizycznych, corocznie publikowanych przez Ministerstwo Finansów. 2. Funkcje podatków w gospodarce Sposób oddziaływania podatków na gospodarkę kraju oraz ich rola są odzwierciedlone w spełnianych przez podatki funkcjach. W literaturze przedmiotu wyróżnia się najczęściej trzy podstawowe funkcje podatków: fiskalną, redystrybucyjną i stymulacyjną [Kosikowski, Ruśkowski 2006 s. 497]. Funkcje te, utożsamiane z rolą podatku, określają miejsce, jakie zajmuje on w gospodarce. Bez wątpienia, podstawowe znaczenie ma funkcja fiskalna, której celem jest dostarczenie państwu dochodów w odpowiedniej wysokości. Podatek musi bowiem służyć pokryciu obciążeń publicznych. Stanowi on główne źródło dochodów budżetowych. Za pośrednictwem podatków, państwo i samorząd terytorialny gromadzą większość swoich dochodów. Realizacja polityki dochodowej powinna być skuteczna, co oznacza, ze podatki powinny dostarczać określoną sumę środków pieniężnych budżetowi państwa. Warunkiem skuteczności polityki dochodowej jest [Dziemianowicz, Przygodzka 2003 s. 434–435]: – odpowiednia konstrukcja podatków, uwzględniająca obiektywne i subiektywne możliwości danego państwa; – konsekwencja w realizacji funkcji dochodowej, oznaczająca utrzymanie w dłuższym okresie określonego kierunku polityki podatkowej; – stabilność prawa podatkowego; 150 Katarzyna Lewkowicz-Grzegorczyk – konieczność przewidywania najważniejszych skutków (fiskalnych i pozafiskalnych) przyjmowanych rozwiązań podatkowych, w tym także kosztów ich poboru. Należy jednak pamiętać, że podatek nie jest tylko świadczeniem służącym do pokrywania potrzeb gospodarczych, stanowi także narzędzie regulowania podziału dochodów i majątków w warunkach gospodarki rynkowej. Ponadto, funkcja ta zawiera różne treści, a w szerokim znaczeniu, obejmuje również elementy polityki społecznej oraz ekonomicznej [Głuchowski 2006 s. 16]. Stąd też przedstawiona funkcja fiskalna łączy się ściśle z funkcją redystrybucyjną podatku. Traktuje ona podatki jako narzędzie wtórnego podziału dochodów, dzięki przesuwaniu środków finansowych w odpowiednich proporcjach między podatnikami a budżetem. Za sprawą podatków dochodzi bowiem do zmniejszenia dochodu i przejęcia jego części na rzecz budżetu, w wyniku czego powstaje korekta dochodów. Ponowna redystrybucja następuje przez system budżetowy, który zgromadzone dochody rozdziela zgodnie z, wcześniej ustalonymi, celami. Tak więc, przez odpowiednie konstrukcje podatkowe państwo może kierować procesem dystrybucji produktu krajowego brutto, łagodzić nierówności społeczne2. Państwo, stosując progresywny podatek dochodowy, ogranicza siłę nabywczą najzamożniejszych i jednocześnie zwiększa siłę nabywczą osiągających niższe dochody [Dziemianowicz 2007 s. 36]. Redystrybucja podatkowa ma charakter jednostronny – sprowadza się do zabierania określonej części dochodów podatników i przekazywania ich na rzecz budżetu – dlatego uważa się, że w odniesieniu do podatków trafniejsze jest określenie funkcja dystrybucyjna [Gajl 1992 s. 127]. Z kolei, funkcja stymulacyjna polega na kształtowaniu określonych reakcji podatników – ich zachowań i działań oraz procesów społeczno-gospodarczych. Stymulacyjne oddziaływanie podatków polega na wykorzystywaniu ich wpływu na warunki działania jednostek oraz na kierunki i tempo ich rozwoju. Warto podkreślić, że funkcja stymulacyjna podatków ma charakter uniwersalny i występuje w państwach o różnych założeniach ustrojowych. Może ona polegać na wprowadzeniu określonego podatku, na różnicowaniu stawek podatkowych, stosowaniu zwyżek bądź też ulg i zwolnień [Głuchowski 2006 s. 20]. Można zatem stwierdzić, że współczesne systemy podatkowe, poza funkcją fiskalną polegającą na gromadzeniu dochodów budżetu państwa, realizują także cele gospodarcze i społeczne. Cele gospodarcze podatku wyrażają się w oddziaływaniu na sferę gospodarczą w sposób ogólny lub selektywny. Oddziaływanie ogólne polega na wykorzystywaniu podatków do kształtowania siły nabywczej i jest stosowane zazwyczaj w walce z inflacją lub do wywołania ożywienia gospodarczego (zmniejszanie ciężarów podatkowych). Oddziaływanie selektywne sprowadza się natomiast 2 Powszechnie stosowanym podatkiem, służącym łagodzeniu nierówności dochodów, jest progresywny podatek dochodowy od osób fizycznych. Podatek ten ma wbudowany mechanizm różnicujący ciężar podatkowy – z założenia bardziej opodatkowuje osoby zamożniejsze. Rzeczywista jego progresja zależy jednak nie tylko od liczby i wysokości stawek czy granic przedziałów skali podatkowej, lecz także od innych elementów konstrukcji podatku, a zwłaszcza od ulg podatkowych. Ulgi w podatku dochodowym od osób fizycznych na ogół wpływają w odwrotnym kierunku – łagodzą progresję. Dzieje się tak, gdy z ulg, choć adresowanych do wszystkich, częściej korzystają osoby zamożniejsze [MałeckaZiembińska 2006 s. 8]. Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 151 do przyznawania korzyści podatkowych, np. zwolnień i ulg podatkowych [System finansowy... 2008 s. 298]. Cele społeczne podatku także mogą mieć wymiar ogólny i selektywny. Cel ogólny wiąże się z łagodzeniem nierówności społecznych i może być osiągany wielokierunkowo (np. przez progresywne opodatkowanie dochodu i majątku, wysokie opodatkowanie artykułów luksusowych i wyłączenie spod opodatkowania artykułów pierwszej potrzeby). Oddziaływanie selektywne polega na preferencyjnym traktowaniu określonych grup społecznych (np. przyznanie ulg podatkowych osobom samotnie wychowującym dzieci i rodzinom wielodzietnym), [System finansowy... 2008 s. 298]. Społeczne cele systemu podatkowego powinny być realizowane z myślą o racjonalnym dopasowaniu interesów publicznych i interesów prywatnych. Opodatkowanie bowiem ma służyć przede wszystkim zaspokajaniu dobra wspólnego. Podatników nie można zatem traktować jedynie jako podmioty, które dostarczają dochodów budżetowych. Należy ich widzieć w szerszym kontekście socjalnym, jako członków danego społeczeństwa, reprezentujących często różne interesy grupowe (np.: rolnicy, pracownicy, pracodawcy, wolne zawody). Istotne jest także, aby system podatkowy był kształtowany z uwzględnieniem odczuć społecznych, jakie temu towarzyszą, jak również, aby jego twórcy przewidywali możliwe reakcje społeczne z tym związane [Mastalski 2000 s. 31]. Cele fiskalne, gospodarcze i społeczne systemu podatkowego powinny być kształtowane z uwzględnieniem techniczno-prawnych aspektów opodatkowania i możliwości ujęcia ich w formach właściwych dla prawa. Chodzi zwłaszcza o respektowanie podstawowych zasad ustroju politycznego i gospodarczego, zawartych w konstytucji, a także zasad funkcjonowania gospodarki, uregulowanych w prawie cywilnym [Mastalski 2000 s. 31]. Jak widać, podatki spełniają różne cele, nie tylko finansowe. Podatek może być wykorzystywany również do zadań gospodarczych i społecznych podejmowanych przez państwo. Wobec, wyżej omówionych, celów powstaje jednak kwestia ich priorytetu3. 3. Zasady sprawiedliwości podatkowej jako kryterium oceny podatku Teoria opodatkowania wskazuje zasady podatkowe, które są postulatami nauki, określającymi warunki, jakim powinien odpowiadać poprawnie zbudowany system podatkowy i poszczególne podatki. Zasady podatkowe nie tworzą zamkniętego katalogu, a poszczególne ich zestawy są budowane według cech, które, w opinii wybranych autorów, wydają się najważniejsze [Głuchowski 2006 s. 14]. Treść formułowanych zasad oraz ich znaczenie zmieniały się na przełomie dziejów. Niemniej, o czym niżej, niektóre z zasad podatkowych, sformułowanych przed wiekami, do dzisiaj zachowały swoją aktualność. Świadczy to o ich uniwersalnym charakterze, co przesądza o konieczności ich uwzględniania w obowiązującym systemie podatkowym [Prawo podatkowe 2008 s. 54–59]. 3 Szerzej ten problem analizuje R. Rosiński [Zob. Polski system...2010 s. 16–18]. 152 Katarzyna Lewkowicz-Grzegorczyk Jeden z pierwszych katalogów zasad podatkowych ustalił Adam Smith [Smith 2007 s. 500–503]. Zasady te są znane do dzisiaj jako: równość, pewność, dogodność i taniość podatku. Zasada równości oznacza, że każdy powinien być opodatkowany stosownie do wysokości swojego dochodu lub wartości majątku. Odwołuje się ona do zdolności płatniczej podatnika i przewiduje powszechność opodatkowania. Zasada pewności podatkowej oznacza, że podatek, jaki każda jednostka jest obowiązana płacić, powinien być wyraźnie z góry określony, a nie dowolny. Nawiązuje ona do zasady państwa prawa. Z zasady dogodności podatkowej wynika, że każdy podatek powinno się ściągać w takim czasie i w taki sposób, aby podatnikowi było go jak najdogodniej zapłacić. Zasada taniości mówi z kolei o tym, że wymiar i pobór podatku powinien być zorganizowany w sposób najbardziej oszczędny, aby nie zwiększać ciężaru podatkowego i zapewnić możliwie szybki dopływ środków do budżetu. Znaczący wpływ na współczesne zasady podatkowe wywarł Adolf Wagner. Rozbudował on katalog zasad podatkowych zaproponowany przez A. Smitha i podzielił je na cztery grupy: zasady społeczne, fiskalne, gospodarcze i techniczne [Prawo podatkowe 2008 s. 54–59]. W grupie zasad społecznych istotną rolę odgrywała zasada sprawiedliwości rozumiana jako postulat powszechności i równości opodatkowania. Powszechność oznaczała opodatkowanie wszystkich grup społecznych, bez wyjątku, gdyż wszelkie zwolnienia lub przywileje są przejawem niesprawiedliwości. Opodatkowanie powinno jednak pozostawać w proporcji do zdolności płatniczej osoby oraz być zróżnicowane ze względu na jego stan majątkowy. Takim założeniom odpowiada progresywne, a nie proporcjonalne, jak u A. Smitha, opodatkowanie dochodów. Zatem, podatki muszą ponosić wszyscy w „proporcji do ekonomicznej zdolności płatniczej”. Uwzględnienie „proporcji zdolności płatniczej” może zapewnić progresywność opodatkowania [Gomułowicz 2001 s. 95]. Mamy tu do czynienia z wyraźnym postulatem zastosowania skali progresywnej, w celu korekty wytworzonego produktu przez gospodarkę. Należy jednak zaznaczyć, że Gomułowicz opowiada się za łagodnym jej przebiegiem. Przestrzeganie zasad fiskalnych, według Wagnera, miało zapewnić wysokie wpływy do Skarbu Państwa z tytułu poboru podatków – przede wszystkim – przez realizację dwóch zasad: elastyczności i wydajności podatków. Przez podatki elastyczne rozumiał on te, których konstrukcja pozwalała na zwiększenie lub zmniejszenie osiąganych z nich dochodów, w zależności od potrzeb państwa, natomiast za podatki wydajne – te, które były w stanie pokryć aktualne zapotrzebowanie finansowe państwa. Zasady gospodarcze miały ochraniać źródła podatkowe, czyli kapitał i majątek. System podatkowy, zdaniem Wagnera, powinien być tak skonstruowany, by przedsiębiorcy, mimo nakładania podatków, pomnażali swój kapitał i przyczyniali się do rozwoju gospodarki. Osiągnąć to można było jedynie stosując progresję, która umożliwiała z jednej strony ochronę źródeł opodatkowania, z drugiej – eliminowanie nadmiernych nierówności majątkowych w społeczeństwie. Zasady techniczne Wagnera pokrywały się zatem z trzema zasadami A. Smitha, które polegały na: pewności, dogodności i taniości opodatkowania. Zarówno w przeszłości, jak i obecnie wiele emocji budzi kwestia sprawiedliwości podatkowej. Współcześnie, równość nie oznacza proporcjonalnego opodatkowania dochodu czy majątku podatnika, lecz opodatkowanie zgodne z jego możliwo- Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 153 ściami finansowymi. Wynika to z teorii o malejącej krańcowej użyteczności dochodów, według której każda dodatkowa jednostka dochodu jest przeznaczana na zaspokojenie coraz mniej pilnych potrzeb, co sprawia iż dla dysponenta dochodów jest ona coraz mniej użyteczna. Konsekwencją tej teorii jest, sformułowana przez J.S. Milla, zasada „równości ofiary” przy opodatkowaniu. Jej stosowanie ma wyrównać krańcowe użyteczności dochodów, pobieranych przez podatek od różnych podatników. Zasada ta prowadzi również do progresywnego opodatkowania dochodów. We współczesnym pojmowaniu zasady równości nie jest z nią sprzeczne stosowanie opodatkowania progresywnego oraz różnego rodzaju ulg i zwolnień. Identyczna podstawa opodatkowania nie zawsze powoduje powstanie zobowiązania podatkowego w tej samej wysokości. Jest ona wyrazem dążenia do sprawiedliwego rozłożenia ciężaru opodatkowania między różne jednostki i grupy społeczne jako podmioty obowiązku podatkowego. Tak rozumiana równość zakłada redystrybucję dochodów. Kontrowersje oraz odejście od klasycznego postrzegania zasady sprawiedliwości podatkowej są konsekwencją toczącej się od lat teoretycznej debaty nad istotą sprawiedliwości. Debata ta jest prowadzona przez przedstawicieli różnych dyscyplin naukowych, m.in.: etyki, filozofii, socjologii, metafizyki. Ekonomiści na ogół nie lubią tej kategorii [...]. Większość z nich zapewne uważa, iż sprawiedliwość nie jest kategorią ekonomiczną; nie wiadomo jak ją zdefiniować, zmierzyć i zestawić z kategoriami typowo ekonomicznymi. Zdaniem R. Przygodzkiej, ekonomiści od kwestii sprawiedliwości nie mogą uciec, ponieważ istotnym problemem stabilności gospodarowania jest sfera podziału (dochodów, dóbr i usług). Nadmierne nierówności dochodowe są określane jako niesprawiedliwe i stanowią zagrożenie dla sprawności i efektywności gospodarowania [Przygodzka 2006 s. 190]. Zdaniem N. Gajl: obecnie przy rozumieniu zasady sprawiedliwości odchodzi się daleko od wzorów Smitha i Wagnera, zakładających, że sprawiedliwy – to taki system podatkowy, który cechuje powszechność i równość opodatkowania. Ten dogmatyczny pogląd nie jest na ogół utrzymywany. Obecnie uważa się wręcz przeciwnie, iż sprawiedliwym jest system podatkowy zróżnicowany i zindywidualizowany, uwzględniający wiele czynników wpływających na opodatkowanie [Gajl 1992 s. 142]. Stąd tak ważną kwestią jest uwzględnienie zasady zdolności płatniczej. Podatek spełnia tę zasadę, jeżeli każdy jest obciążony według swoich możliwości. Zwraca się przy tym uwagę na wysokość dochodu oraz na jego źródło, a także sytuację podatnika. O realizacji zasady zdolności płatniczej decyduje również minimum wolne od opodatkowania, czyli kwota, do której nie wymierza się podatku. Obok wymienionych elementów, dla praktycznego stosowania zasady sprawiedliwości istotny jest problem rodzaju podatków wchodzących w skład systemu podatkowego i zakresu ich stosowania. Systemy podatkowe, w których przeważają podatki bezpośrednie, uważa się za bardziej sprawiedliwe4. Przy czym, powszechność 4 Podatki można klasyfikować według różnorodnych kryteriów. Jednym z nich jest kryterium prawne, zgodnie z którym podatki dzielimy na: bezpośrednie i pośrednie [Dolata 2009 s. 41–42]. Do podatków bezpośrednich zalicza się te, w których zdolność podatkową podatnika określa się na podstawie jego dochodów, posiadanego kapitału itp., a do podatków pośrednich – podatki ujawniające zdolność podatkową podatnika przez działania, których zakres jest uwarunkowany jego możliwościami finansowymi, tj. ujawniające poziom jego dochodów i wielkość posiadanego kapitału. W związku 154 Katarzyna Lewkowicz-Grzegorczyk opodatkowania jest tutaj inaczej rozumiana. Na przykład, nie każdy osiągnięty dochód powinien być opodatkowany, a jedynie dochód przekraczający określoną kwotę uznaną za minimalną [Dolata 1999 s. 66]. Rosnąca rola podatku w gospodarce powoduje, że zasadom podatkowym poświęca się co raz więcej uwagi. Współcześnie, zdaniem J.E. Stiglitza, można wymienić pięć powszechnie akceptowanych cech/zasad „dobrego” systemu podatkowego: po pierwsze, efektywność – system podatkowy nie powinien wywoływać zniekształceń; jeśli to możliwe, to powinien być wykorzystywany do zwiększania efektywności ekonomicznej. Po drugie, prostota administracyjna – koszty funkcjonowania systemu podatkowego i zarządzania nim powinny być niskie. Po trzecie, elastyczność – system podatkowy powinien łatwo dostosowywać się do zmieniających się warunków. Po czwarte, odpowiedzialność polityczna – system podatkowy powinien być przejrzysty. I po piąte, sprawiedliwość – system podatkowy powinien być sprawiedliwy i powinien być postrzegany jako słuszny. Powinien traktować podobnie osoby znajdujące się w podobnej sytuacji i nakładać wyższe podatki na tych, którzy mogą udźwignąć większe obciążenia podatkowe [Stiglitz 2004 s. 550–553]. Do zasad podatkowych odwołują się także współcześni reformatorzy systemów podatkowych. Współczesny katalog zasad – postulatów konstrukcji optymalnego systemu podatkowego, został sformułowany także przez amerykański Joint Economic Comittee of Senate and House of Representative [Brzeziński 2008 s.73–74]: – Podatnicy powinni mieć pełny dostęp do informacji o zasadach opodatkowania oraz o własnej sytuacji podatkowej. – Formy opodatkowania powinny być widoczne, a nie ukryte. – System podatkowy powinien zapewniać równe traktowanie wszystkich kategorii podatników, unikając zróżnicowania na podstawie kryterium źródła dochodów czy sposobu jego wykorzystania. – System podatkowy powinien zapewniać przede wszystkim jednakowe traktowanie wszystkich podobnych rodzajów aktywności gospodarczej, a niekoniecznie jednakowe traktowanie podatników z punktu widzenia ich sytuacji osobistej. – Należy unikać podwójnego opodatkowania. – System podatkowy powinien być możliwie prosty. – System podatkowy powinien być neutralny wobec gospodarki i ma wpływać na decyzję podmiotów gospodarujących. – Podatki powinny być oparte na możliwie szerokiej bazie opodatkowania (tj.: bez zwolnień, ulg podatkowych itp.) – przy jednoczesnym stosowaniu możliwie niskich stawek podatkowych. z powyższym, do podatków bezpośrednich zalicza się podatki od kapitału oraz od dochodu, a do podatków pośrednich – podatki od konsumpcji, lub szerzej, podatki od wydatków. Powyższy podział podatków odgrywa niezwykłą rolę w praktyce podatkowej, wynika to z zalet i wad tych grup podatków. Do zalet podatków bezpośrednich zalicza się: stałą wydajność, elastyczność, oszczędność kosztu poboru, personalizację, a do wad: powolność poboru, ostentacyjność i niesprawiedliwość pobrania oraz złożoność opodatkowania. Zaletami podatków pośrednich są: wydajność fiskalna, znieczulenie podatkowe, elastyczność ekonomiczna, szybkość poboru, a wadami są: znaczne koszty poboru, przerzucalność, niesprawiedliwość oraz pośrednie krępowanie działalności gospodarczej. Szerzej: [Pomorska (i in.) 2003 s. 11–13]. Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 155 – Zmiany w prawie podatkowym, których rezultatem byłoby podwyższenie obciążenia podatkowego, nie mogą być wprowadzane ze skutkiem wstecznym. – Krajowy system podatkowy powinien stwarzać niemniej korzystne warunki opodatkowania niż systemy innych państw o porównywalnym stopniu rozwoju gospodarki. Można zatem przyjąć, że do podstawowych kryteriów oceny każdego systemu podatkowego zalicza się [Dziemianowicz 2007 s. 73–74]: efektywność (podatkową i ekonomiczną), sprawiedliwość i prostotę (taniość zastosowanych rozwiązań) opodatkowania. Normy te mają charakter uniwersalny i pozwalają na ocenę zarówno nowego, jak i istniejącego systemu podatkowego. Zdaniem R. Dziemianowicz, podejście tradycyjne, oparte na tzw. zasadach podatkowych, łączy się częściowo z oceną systemu podatkowego wynikającą z teorii optymalnego opodatkowania. Mimo że w tym drugim przypadku podatki weryfikuje się z punktu widzenia maksymalizacji funkcji dobrobytu społecznego, to ekonomiczna efektywność systemu podatkowego, jak i koszty egzekucji fiskalnej i jego sprawiedliwość są tu bardzo istotne. Reasumując, należy stwierdzić, że współcześnie następuje adaptacja zasad klasycznych do bieżącej sytuacji, ale także formułuje się nowe zasady podatkowe, które są wynikiem zmian w systemie podatkowym. Należy także zgodzić się z N. Gajl, że wśród formułowanych w teorii opodatkowania zasad szczególne znaczenie ma zasada sprawiedliwości opodatkowania, która staje się istotnym kryterium oceny współczesnych podatków (systemów podatkowych), [Gajl 1992 s. 142]. 4. Pojęcie i zakres sprawiedliwości podatkowej Pojęcie sprawiedliwość znajduje się w powszechnym użyciu, tak w znaczeniu potocznym, jak w: filozofii5, etyce6, prawie7 i w teorii podatków. Encyklopedyczna 5 W. Morawski wyróżnia trzy filozoficzne pojęcia sprawiedliwości społecznej. Po pierwsze, hobbesowskie pojęcie sprawiedliwości to system reguł zabezpieczających ludziom „wzajemne korzyści”. Jeżeli państwo – Lewiatan nie zagwarantuje tych reguł, ludzie nie zaznają pokoju społecznego i nie będą mieli zapewnionej minimalnej kooperacji. Po drugie, rawlsowskie reguły sprawiedliwości społecznej mają, z kolei, zapewnić „sprawiedliwość jako bezstronność”. Rawls uważa, że interes własny jednostek może mieć mniejsze znaczenie, kiedy zawierają one hipotetyczną umowę społeczną w warunkach „zasłony niewiedzy”, ściślej, gdy mają zapewnioną równość w zakresie wolności osobistej i minimum życiowego. Po trzecie, „sprawiedliwość jako odwzajemnianie”. Brian Barry stara się zbudować syntetyczną alternatywę wobec obu, wyżej przedstawionych, wizji, gdyż widzi możliwość zbudowania systemu sprawiedliwości będącego kombinacją systemu „wzajemnych korzyści” jako kryterium dla reguł, a zarazem systemu, który zapewnia „bezstronność” [Morawski 2001 s. 15]. 6 Pojęcie sprawiedliwość (ang. Justice), z punktu widzenia etyki, to jedna z czterech – siedmiu cnót kardynalnych polegająca na oddawaniu każdemu wszystkiego, co mu się należy (sumum cuique). W odróżnieniu od caritas, sprawiedliwość nie wykracza poza to, do czego inny człowiek jest uprawniony: a) sprawiedliwość zamienna (wymienna), (iustitia commutativa) – dotyczy wymiany dóbr między osobami prywatnymi i równowartości tych dóbr, przy czym chodzi tu zarówno o dobra wewnętrzne, jak i o dobra zewnętrzne; b) sprawiedliwość prawna (legalna), (iustitia legalis) – podporządkowuje działanie członków społeczeństwa dobru społecznemu; c) sprawiedliwość rozdzielcza (dystrybutywna), (iustitia distributiva) – dotyczy: rozdziału dóbr, podziału pracy, równomiernego rozłożenia ciężarów, 156 Katarzyna Lewkowicz-Grzegorczyk definicja sprawiedliwości zaczyna się od stwierdzenia, że jest to pojęcie o wieloznacznej treści [Nowa Encyklopedia...1996 s. 977]. W znaczeniu filozoficznym, Arystoteles rozróżniał pojęcia sprawiedliwości rozdzielczej i wyrównawczej. Sprawiedliwość rozdzielcza sprowadza się do równego traktowania wszystkich podmiotów należących do tej samej kategorii, natomiast sprawiedliwość wyrównawcza wyraża się w takiej samej odpłacie dobra za dobro, zła za zło, aby kara odpowiadała winie, a nagroda zasłudze. Z definicji Arystotelesa, do podatków można zastosować pojęcie sprawiedliwości rozdzielczej, sprowadzające się do równego traktowania podatników. Równe traktowanie podatników jest jedną z podstawowych zasad podatkowych i istotnym kryterium oceny systemu podatkowego [Nowa Encyklopedia.... 1996 s. 977]. W znaczeniu prawniczym, sprawiedliwość oznacza cechę decyzji w procesie stosowania prawa, w ujęciu pozytywistycznym, sprawiedliwość jest to decyzja, która została podjęta przez kompetentny organ zgodnie z ustaloną procedurą. Poszukiwanie stałych i obiektywnych kryteriów sprawiedliwości jest dążeniem charakterystycznym dla różnych szkół prawa natury [Nowa Encyklopedia...1996 s. 977]. Sprawiedliwość podatkowa jest rozumiana jako powszechne i równomierne obciążenie różnych grup społecznych, wyznacza moralnie akceptowaną granicę opodatkowania. Powszechność i równość opodatkowania powinna uzmysławiać obywatelom, że ciężar utrzymania państwa spoczywa na wszystkich. Zaś sprawiedliwe rozłożenie ciężaru podatkowego to takie, które uwzględnia zdolność opodatkowanego do poniesienia tego ciężaru [Formy zmniejszania... 2002 s. 16]. Poszukując dalej odpowiedzi na pytanie dotyczące sprawiedliwości w zakresie podatków, można przyjąć dwie perspektywy oceny: obiektywną i subiektywną [Famulska 1996 s. 3–4]. Sprawiedliwość, w ujęciu obiektywnym, ma szczególny walor praktyczny, ponieważ w tym rozumieniu stara się ją uwzględnić władzę publiczną, nakładając podatki. Natomiast sprawiedliwość subiektywna, zwana także spostrzeganą, dotyczy postrzegania podatków jako sprawiedliwych przez samych podatników8. Kierunkiem, w którym powinna zmierzać polityka podatkowa, jest dążenie do np. podatków, dokonywanego przez społeczność między jej członków. Częścią sprawiedliwości rozdzielczej jest sprawiedliwość karząca (iustitia vindicativa), która polega na stosowaniu kar za naruszenie porządku moralnego; d) Sprawiedliwość społeczna (iustitia socialis) – polega na przestrzeganiu prawa naturalnego lub prawa pozytywnego, regulującego stosunki między społecznością a jednostkami, grupami, także stosunki między społecznościami (Ch. Perelman), [Słownik terminów ... s. 822–823]. 7 W prawodawstwie pojęcie sprawiedliwość to: zasada polegająca na określonym zastosowaniu idei równości, traktowana jako idealna lub naturalna norma – prawa: a) Sprawiedliwość formalna, czyli abstrakcyjna – zasada, zgodnie z którą wszystkie osoby należące do tej samej kategorii istotnej powinny być traktowane jednakowo; b) Sprawiedliwość konkretna – formuła będąca uszczegółowieniem sprawiedliwości abstrakcyjnej przez określenie, co jest podstawą tworzenia kategorii istotnych, tzn. cech charakterystycznych, jakie należy brać pod uwagę przy wymiarze sprawiedliwości bądź też przez określenie sposobu przynależności do tej samej kategorii. Przykłady różnych formuł konkretnych: każdemu to samo; każdemu według zasług; każdemu według pracy; każdemu według potrzeb; każdemu według jego pozycji; każdemu według prawa itp. (Ch. Perelman), [Słownik terminów ... s. 822–823]. 8 Psychologowie, zajmujący się podatkami, interesują się przede wszystkim subiektywną sprawiedliwością systemu podatkowego – tym, co ludzie faktycznie odczuwają jako słuszne i sprawiedliwe. Prowadzone badania w tym zakresie nie są zbyt optymistyczne. Na przykład w USA 70% badanych Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 157 osiągnięcia zbieżności sprawiedliwości spostrzeganej z obiektywną. W ekonomii dominuje pierwsza z nich. Ekonomiści, określając obiektywną sprawiedliwość systemu podatkowego, odwołują się jednocześnie do dwóch kryteriów: sprawiedliwości poziomej i sprawiedliwości pionowej. O sprawiedliwości poziomej mówimy, gdy podmioty, będące w podobnej lub identycznej sytuacji, są tak samo opodatkowane. Zastosowanie tej zasady jest tylko na pozór proste. Nie realizują jej podatki rzeczowe, natomiast uwzględniają ją bardziej złożone podatki osobiste, biorąc pod uwagę indywidualną sytuację opodatkowanego, np.: stan zdrowia, liczbę osób na utrzymaniu. Kierowanie się tą zasadą może doprowadzić do niesprawiedliwości poziomej. Uwzględnienie różnych cech przy określaniu podobieństwa może prowadzić do znacznie zróżnicowanych wyników (chodzi tu m. in. o zasadność uwzględniania w procesie opodatkowania sytuacji rodzinnej podatnika)9. Natomiast sprawiedliwość pionowa w opodatkowaniu polega na tym, że podmioty lepiej sytuowane są bardziej obciążone, niż podmioty znajdujące się w gorszej sytuacji materialnej [Famulska 1996 s. 3–4]. To znaczy podatnicy w lepszej sytuacji powinni płacić wyższe podatki. Analiza tej zasady wymaga zdefiniowania, jak należy rozumieć lepszą sytuację podatnika (może ona oznaczać wyższy dochód) oraz „wyższe podatki”. Zasada sprawiedliwości pionowej jest związana bezpośrednio z redystrybucyjnymi własnościami systemu podatkowego10. Wiąże się ona z udzieleniem odpowiedzi na pytanie: czy system podatkowy powinien wpływać na rozkład dochodu w populacji, a jeśli tak, to w jakim stopniu i w jaki sposób? [Kośny 2007 s. 69]. Znaczenie i rangę zasady sprawiedliwości podatkowej podnosi konstytucyjne jej zagwarantowanie, wyrażone jako powszechność i równość opodatkowania. Powszechność opodatkowania jest rozumiana w teorii jako sytuacja, w której każdy uczestniczy stosownie do zdolności płatniczej w pokrywaniu wydatków publicznych [Gomułowicz 2003 s. 19]11. Zatem, idea powszechności zostaje naruszona wówczas, uważa, iż płaci zbyt wysokie podatki w porównaniu z podatnikami posiadającymi wyższe bądź niższe dochody (sprawiedliwość pionowa). Z kolei, blisko 60% badanych ocenia, że płaci więcej aniżeli ludzie osiągający podobne dochody (sprawiedliwość pozioma). Szerzej: [Famulska 1998 s. 21]. 9 Szerzej: [Kośny 2007 s. 68 i nast.]. 10 Podstawowy zakres wymagań interpretacji zasady sprawiedliwości pionowej z wybranymi ekonomicznymi modelami podatku przedstawił Kośny [Kośny 2007 s. 69, za: Kakwani, Lambert 1998 s. 369–380]. 11 Zdolność płatnicza jest jednym z elementów urzeczywistnienia sprawiedliwości podatkowej zakładającej powszechność podatkową i równość, z pełnym uwzględnieniem sytuacji materialnej podatnika [Kosikowski, Ruśkowski 2006 s. 497]. Uważa się, że stosowanie zasady zdolności płatniczej jest przejawem uwzględnienia pewnej „zasady nadrzędnej”, która uzasadnia istnienie państwa. Zasada ta nakazuje finansować potrzeby publiczne zgodnie z możliwościami państwa przy uwzględnieniu interesów całego społeczeństwa, a nie wybranych grup [Gomułowicz, Małecki 2010 s. 80]. A. Gomułowicz wskazuje na zespół cech charakteryzujących zdolność płatniczą. Po pierwsze, powinna być ujmowana przede wszystkim w kategoriach ekonomicznych. Po drugie, jest uzależniona od rodzaju i sposobu powstawania dochodu. Po trzecie, powinna obejmować wszystkie elementy ekonomiczne, które świadczą o indywidualnej możliwości poniesienia podatku. Te wyróżniki zdolności płatniczej pozwalają na stwierdzenie, iż dla przestrzegania równomierności opodatkowania konieczne są interpersonalne porównania. Jeżeli porównuje się sytuację dwóch podmiotów: podmiotu A i podmiotu B, to równomierność nakazuje, by podatnicy, którzy reprezentują taką samą zdolność płatniczą w odniesieniu do danego podatku, byli traktowani jednakowo [Gomułowicz 2001 s. 37–38]. 158 Katarzyna Lewkowicz-Grzegorczyk gdy odmiennie traktuje się pewne grupy podatników, aniżeli pozostałe. Problem pojawia się w przypadku stosowania ulg i zwolnień podatkowych. Wmontowany w progresję podatkową, przede wszystkim w podatkach od dochodów osobistych, system ulg i zwolnień znacząco zmienia rozkład realnie płaconych podatków w porównaniu z podatkami, jakie wynikają z samego rozkładu wielkości dochodów. Z kolei, równomierność zaleca, aby wszystkie podmioty, które znajdują się w takich samych podatkowych warunkach, traktować tak samo [Gomułowicz 2001 s. 34]. W literaturze przedmiotu wyróżnia się trzy koncepcje sprawiedliwości podatkowej [Bouvier 2000 s. 242–243]. Pierwsze podejście nawiązuje do pojmowania sprawiedliwości opartej na wymianie. Oznacza ona, że każdy podatnik powinien zapłacić tyle samo, bez uwzględniania jego sytuacji indywidualnej i ewentualnych nierówności ekonomicznych lub społecznych między podatnikami. Druga koncepcja sprawiedliwości podatkowej opiera się na podejściu proporcjonalnym, które określa się mianem sprawiedliwości dystrybucyjnej. Koncepcja ta zakłada, że opodatkowanie powinno być zróżnicowane w zależności od stopnia, w jakim podatnik korzysta z wytworzonych bogactw. Podatkiem sprawiedliwym jest podatek proporcjonalny. W tym przypadku sprawiedliwość nie jest tożsama z bezpośrednią równością między jednostkami, lecz z równością stosunku między tym, co każdy wnosi i wynosi z produktu wytworzonego przez wszystkich. Trzecie podejście powołuje się na ścisły związek sprawiedliwości podatkowej ze sprawiedliwością społeczną. Za pomocą podatku dąży się do zmniejszenia nierówności dochodów. Tu podatek musi być progresywny, zindywidualizowany oraz musi uwzględniać zdolność podatkową podatnika. Tak więc, zadaniem państwa jest skonstruowanie takich podatków i takiego systemu podatkowego, które będą mogły uwzględniać ekonomiczne i społeczne granice obciążenia podatników. Jeżeli społeczeństwo musi przyjąć na siebie określone ciężary podatkowe, to powinno się to odbywać według określonych norm i zasad. W tym właśnie wyraża się współcześnie rozumiana sprawiedliwość podatkowa, która w państwie prawa powinna być podstawowym elementem prawa podatkowego. Jeżeli tego nie ma, można tylko mówić o pewnym ładzie lub nieładzie podatkowym, w którym opodatkowanie stałoby się procesem pozbawionym etyczno-prawnego podłoża [Tegler 1994 s. 138]. W Raporcie „Paying Taxes 2009” autorzy również piszą o prostym i sprawiedliwym systemie podatkowym. Przez prostotę rozumieją szerokie zastosowanie zasad ogólnych i zmniejszenie znaczenia wszelkiego rodzaju wyjątków. Z kolei, praktyczne rozumienie sprawiedliwości prowadzi do wniosku, że opodatkowanie powinno uwzględniać tzw. zdolność płatniczą podatników, a ponadto, powinno mieć charakter powszechny. Innymi słowy, wszelkie zwolnienia ograniczające zasadę powszechności powinny zostać uchylone, chyba że mają szczególnie gruntowne uzasadnienie [Czarnecka-Żochowska, Kaim 2009 s.7]. Autorzy, wyżej wymienionego, raportu podkreślają, że prostota systemu podatkowego, podobnie jak jego sprawiedliwość, jest wartością samą w sobie, niezależnie od wysokości obciążeń. Uważają również, że ustawodawca powinien posługiwać się stawkami możliwie niskimi i jednolitymi. W zamian za to może, a nawet powinien, dążyć do powiększenia podstawy opodatkowania przez rezygnację ze stosowania: ulg, preferencji czy zwolnień. Tego typu narzędzia naruszają zasadę powszechności Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 159 opodatkowania i pociągają za sobą nadmierne obciążenie tych obywateli, którzy z preferencji nie korzystają. Wspomniane, nadmierne obciążenie to wynik niepotrzebnie zawyżonych stawek, które mogłyby zostać obniżone, gdyby opodatkowanie było powszechne [Czarnecka-Żochowska, Kaim 2009 s.7]. Sprawiedliwe opodatkowanie stanowi, niewątpliwie, argument pozwalający uzyskać społeczną akceptację dla systemu podatkowego. W swoim subiektywnym podejściu, podatnicy utożsamiają najczęściej sprawiedliwość podatkową z obniżaniem ciężarów podatkowych, a w skrajnych przypadkach nawet z ich całkowitym wyeliminowaniem. Z kolei, nakładanie podatków przez władzę publiczną, przy odpowiednim rozłożeniu obciążeń podatkowych na poszczególne podmioty, obiektywizuje sprawiedliwość podatkową [Formy zmniejszania... 2002 s.15]. 5. Urzeczywistnienie postulatów sprawiedliwości w konstrukcji podatku dochodowego od osób fizycznych Podatek dochodowy od osób fizycznych to podatek bezpośredni obejmujący dochody uzyskiwane przez osoby fizyczne12. Jest obciążeniem osobistym, co oznacza, że podatnikiem jest każda osoba fizyczna osiągająca dochód. Polska konstrukcja podatku dochodowego od osób fizycznych zawiera liczne wyjątki od ogólnej zasady powszechności opodatkowania. Ustawodawca wyłącza niektóre przychody z opodatkowania13. Zgodnie z przepisami ustawy, nie stosuje się jej m.in. do przychodów z działalności rolniczej (z wyjątkiem przychodów z działów specjalnych produkcji rolnej), przychodów z gospodarki leśnej oraz przychodów podlegających przepisom o podatku od spadków i darowizn, przychodów wynikających z czynności, które nie mogą być przedmiotem prawnie skutecznej umowy, świadczeń na zaspokojenie potrzeb rodziny, przychodów (dochodów) armatora opodatkowanych na zasadach wynikających z ustawy o podatku tonażowym. Podatek dochodowy pobiera się od podstawy jego obliczenia, według dwustopniowej skali, która obowiązuje od 1 stycznia 2009 roku14. Warunkiem sprawiedliwego obciążenia podatkowego są nie tylko odpowiednie stawki podatku, ale także odpowiednie uwzględnienie poziomu dochodu, przyjętego w danych warunkach za minimalny, konieczny do przeżycia. Zgodnie z teorią opodatkowania, przyjmuje się, że dochód, nieprzekraczający pewnego poziomu, stanowi minimum życiowe, które nie powinno być opodatkowane – to minimum nie podlegające opodatkowaniu nazywa się kwotą wolną od podatku [Gaudement 2000 s. 462]. Wyłączenie tej kwoty z obciążenia stanowi element budowy skali podatkowej. W podatku dochodowym od osób fizycznych jest to pomniejszenie podatku w pierwszym szczeblu skali poW Polsce jest uregulowany ustawą z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych [Dz.U. z 2010 r., Nr 51, poz. 307]. 13 Art. 2 ust. 1 ustawy z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych... op. cit. 14 W momencie uchwalania ustawy o podatku dochodowym od osób fizycznych ustalono stawki na poziomie: 20%, 30% i 40%. W 1994 r. stawki wzrosły do poziomu: 21%, 33% i 45%. W 1997 roku dokonano kolejnej zmiany wysokości stawek i ustalono je na poziomie: 20%, 32% i 44%, natomiast już od 1998 r. stawki te zostały odpowiednio obniżone do: 19%, 30% i 40% i obowiązywały aż do 2009 r. 12 160 Katarzyna Lewkowicz-Grzegorczyk datkowej o wysokość podatku należnego od kwoty uznanej za wolną od podatku (w 2010 roku dochód nie podlegający opodatkowaniu wynosi 3 091 zł). Często omawianym elementem sprawiedliwości jest postulat wprowadzenia do systemu fiskalnego podatku liniowego, uważanego przez część ekonomistów i polityków za sprawiedliwszy. Zwolennicy twierdzą, że jest on najkorzystniejszy dla gospodarki i najbardziej sprawiedliwy. Każdy obywatel powinien oddawać na rzecz państwa taką samą część swoich dochodów i to niezależnie, czy są to dochody z: pracy, działalności gospodarczej, wynajmu domu czy lokat kapitałowych [Olechowska 2003 s.45]. W praktyce podatki od dochodów osobistych bywają jednak zazwyczaj progresywne15. Z punktu widzenia efektywnego osiągania celów fiskalnych i pozafiskalnych polityki podatkowej, opodatkowanie powinno stanowić równomierne i umiarkowane obciążenie obywateli podatkami. Zbyt wysokie progresywne stawki podatkowe hamują motywację do wydajniejszej pracy i zwiększania tym samym własnych zarobków i majątku, co powoduje zmniejszanie oszczędności, a w konsekwencji możliwość dokonywania inwestycji. Takie postępowanie może przyczyniać się do ucieczki zamożniejszych podatników przed płaceniem podatków do krajów o niższych obciążeniach. W konsekwencji, cel rozłożenia ciężaru podatków, według zdolności płatniczej podatnika, nie zostanie osiągnięty, a obciążenia fiskalne będą ponosić przede wszystkim podatnicy mało i średnio zamożni. Sosnowski twierdzi, że obciążenia podatkowe w latach 1998–2007: nie zostały rozłożone na tyle równomiernie pomiędzy podatników, aby mogły pozytywnie wpływać na ich zachowania i umożliwić skuteczną stymulację do zwiększania ich aktywności gospodarczej i osiągania wyższych dochodów [Sosnowski 2009 s. 366]. Dane z rozliczenia podatku dochodowego pokazują, że w Polsce większa część podatników płacących podatek dochodowy od osób fizycznych według najniższej stawki (tj. podatników o relatywnie mniejszych dochodach) dostarcza budżetowi państwa tylko nieco powyżej połowy wszystkich wpływów z tego podatku16. Natomiast pozostałe grupy podatników drugą połowę tych wpływów. Potwierdza to tylko fakt, iż około 5% obywateli, uzyskujących wyższe i najwyższe dochody, zasila budżet państwa z tytułu płaconych kwot podatków niemal w takim samym stopniu, co pozostałe 95% obywateli. Należy podkreślić, że w opinii publicznej poglądy na temat progresji podatkowej w podatku od dochodów osobistych w dużym stopniu odzwierciedlają postulat sprawiedliwości społecznej. Zgodnie z nim, podatnicy osiągający wyższe dochody muszą proporcjonalnie więcej świadczyć na rzecz budżetu państwa niż podatnicy z niższych grup podatkowych. Istnieje wiele argumentów przemawiających za pro15 Cechą charakterystyczną progresywnego opodatkowania dochodów jest wzrost stawki podatkowej wraz ze wzrostem podstawy opodatkowania. Tempo wzrostu wysokości podatku obliczonego, według takiej stawki, jest szybsze od tempa wzrostu podstawy opodatkowania. O stopniu obciążenia podatkiem, przy zastosowaniu stawek progresywnych, przede wszystkim decyduje konkretna konstrukcja skali podatkowej. Ma to, z kolei, ważny wpływ na postrzeganie konkretnego podatku albo jako antybodźca do osiągania coraz wyższych dochodów, albo też jako daniny publicznej, która wywoływałby negatywne konsekwencje dla rozwoju przedsiębiorczości [Sosnowski 2009 s. 360]. 16 W 2008 r. podatnicy z I przedziału dostarczyli budżetowi państwa 52,30% ogółu wpływów z tego podatku, z II przedziału – 23,19%, z III – 24,51% [Informacja dotycząca rozliczenia podatku dochodowego od osób fizycznych za 2008 r., za: Ministerstwo Finansów 2009 s.14]. Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 161 gresją podatkową. P. Kuwalczuk zwraca uwagę na trzy następujące przyczyny dominacji konstrukcji progresywnej w opodatkowaniu dochodów osobistych. Po pierwsze, degresywny charakter podatków pośrednich (osoby o niższych dochodach są bardziej obciążone podatkami pośrednimi), a w związku z tym progresywne podatki dochodowe są tylko wyrównaniem degresji podatków pośrednich. Po drugie, zdolność podatkowa osób o wysokich dochodach do płacenia wyższych podatków jest wyższa, a zatem trzeba pobierać podatki ze źródeł, które rzeczywiście istnieją. Po trzecie, wymogi wyborcze i polityczne. Wśród wyborców osoby o dużych dochodach stanowią niewielki procent i nie trzeba liczyć się z ich znaczeniem wyborczym. Co więcej, według opinii publicznej, nie wszystkie dochody osób zamożnych pochodzą z legalnych źródeł. W związku z czym, trzeba je dodatkowo obciążyć. Ten swoisty „podatek penitencjarny” pełni ogromną rolę, w szczególności w takim kraju, jak Polska [Kulawczuk 2006]. W rozważaniach dotyczących sprawiedliwości opodatkowania pojawia się pytanie, czy ulgi podatkowe17, będące odstępstwem od zasady powszechności opodatkowania, nie pozostają w sprzeczności z zasadą sprawiedliwości podatkowej. Ocena zwolnień i ulg podatkowych jest skrajnie zróżnicowana. Jednocześnie mają one swoich zwolenników i przeciwników. Jedni podkreślają, że spełniają dwie istotne funkcje. Po pierwsze, dzięki nim możliwe jest uwzględnienie indywidualnej sytuacji podatnika. Po drugie, mogą one mobilizować najbogatszych do zwiększania inwestycji i oszczędności [Żyżyński 2009 s. 270]. Według innych, ulgi i zwolnienia są przejawem dyskryminacji wobec tych, którzy z nich nie korzystają. Występuje tu naruszenie zasady powszechności opodatkowania. Zwolnienie z obowiązku podatkowego określonej grupy osób wiąże się ze zwiększeniem obciążeń podatkowych w pozostałych. Rozbudowa uprawnień podatkowych oznacza więc zachwianie równości opodatkowania, co może stwarzać podstawę do twierdzenia, że prawo podatkowe jest niesprawiedliwe. Jest tak w sytuacji, gdy z ulg mogą korzystać jedynie osoby o wysokich dochodach. Ponadto, przywileje podatkowe obniżają wpływy, jakie trafiają do budżetu. Stosowanie ulg podatkowych jest, zdaniem J. Głuchowskiego, potwierdzeniem przez prawodawcę w sposób pośredni, że obciążenia fiskalne są zbyt duże [Głuchowski 1999 s. 38–46]. 17 Zgodnie z przepisami ordynacji podatkowej, przez ulgę podatkową rozumie się: przewidziane w przepisach prawa podatkowego zwolnienia, odliczenia, obniżki albo zmniejszenia, których zastosowanie powoduje obniżenie podstawy opodatkowania lub wysokości podatku, z wyjątkiem obniżenia kwoty podatku należnego o kwotę podatku naliczonego, w rozumieniu przepisów o podatku od towarów i usług, oraz innych odliczeń stanowiących element konstrukcji tego podatku [Art. 3 pkt. 6 Ustawy z dnia 29.08.1997 r. Ordynacja podatkowa (Dz. U. z 2005, Nr 8, poz. 60 z późn. zm.)]. Z punktu widzenia kryterium wpływu ulg podatkowych na podstawę opodatkowania oraz na wielkość podatku dochodowego od osób fizycznych, można je podzielić na [Gomułowicz, Małecki 2010 s. 657]: 1) podlegające odliczeniu od uzyskanego dochodu, 2) podlegające odliczeniu od podatku, 3) zastosowanie niższych stawek podatkowych. Obecnie, do pierwszej kategorii ulg należą: straty z lat poprzednich, składki na ubezpieczenia społeczne, wydatki rehabilitacyjne, darowizny, użytkowanie sieci Internet, zwrot kwot nienależnych, ulga odsetkowa, nowe technologie. Do drugiej kategorii ulg można zaliczyć: składkę na ubezpieczenie zdrowotne, oszczędzanie w kasie mieszkaniowej, wpłatę na rzecz organizacji pożytku publicznego, pomoc domową, ulgę na wychowywanie dzieci, podatek zapłacony za granicą. Ulga podatkowa może także przybrać postać obniżenia stawki podatkowej kwotowej lub procentowej o wskazane w ustawach podatkowych wielkości w ustawowo określonych okolicznościach. 162 Katarzyna Lewkowicz-Grzegorczyk Ulgi podatkowe w podatku dochodowym od osób fizycznych mogą występować albo w formie odliczenia od dochodu albo odliczenia od podatku. Zastosowanie każdej z tych konstrukcji powoduje inne zmniejszenie ciężaru podatkowego. Stosowanie ulgi podatkowej w postaci odliczenia od dochodu powoduje zmniejszenie podstawy opodatkowania, a ostateczna wysokość, uzyskanej w ten sposób, ulgi zależy od wysokości dochodów podatnika i zastosowanej do nich stawki podatkowej. Natomiast odliczenia od podatku bezpośrednio zmniejszają jego ciężar, a ich wysokość (ustalona kwotowo) jest taka sama, niezależnie od wysokości dochodów osiąganych przez podatników [Ślesicka 2009 s. 3]. Tabela 1. obrazuje wysokość wybranych ulg odliczanych od dochodów w stosunku do uzyskanego przez podatników dochodu (dochodu pomniejszonego o składki na ubezpieczenia społeczne) w latach 2001–2009. TABELA 1. Ulgi odliczane od dochodu w poszczególnych przedziałach dochodowych w latach 2001–2009 (jako % dochodu) Przedziały dochodów I II III Ogółem 2001 2002 2003 2004 2005 2006 2007 2008 2009 1,15 2,04 4,66 1,66 1,03 1,17 1,48 1,1 1,03 1,25 3,39 1,31 0,82 0,44 0,38 0,74 0,97 0,64 0,55 0,89 1,04 0,66 0,79 0,95 1,09 0,76 0,81 1,02 1,10 0,83 0,76 1,02 1,03 0,61 0,99 Źródło: Opracowanie własne na podstawie: [Informacja Ministerstwa Finansów dotyczących rozliczenia podatku dochodowego od osób fizycznych w latach 2001–2009]. Lata 2001–2003 to okres, kiedy ulgi od dochodu stanowiły największy udział dochodów uzyskiwanych przez podatników, których dochody kwalifikowały się do trzeciego przedziału dochodowego. Z kolei, lata 2004–2009 to czas, w którym ulgi od dochodu stanowiły największy udział dochodów podatników z pierwszego przedziału dochodowego. Rok 2001 to rok przełomowy, ponieważ wtedy nastąpił najwyższy wzrost udziału odliczanych przez podatników ulg od dochodu w stosunku do uzyskiwanych przez nich dochodów. Ulgi te wynosiły odpowiednio: 1,15%, 2,04% i 4,66% dochodu uzyskanego przez podatników z pierwszego, drugiego i trzeciego przedziału dochodowego. W latach 2002 i 2004 (z wyjątkiem roku 2003) udział tych ulg w dochodzie ciągle ulegał obniżeniu. Zmiana ta była spowodowana m.in. zniesieniem niektórych ulg, jak i zmianami przepisów dotyczących ich stosowania. W roku 2005 nastąpił jednak wyraźny wzrost udziału ulg w stosunku do uzyskiwanych dochodów. Stało się to m.in. na skutek wprowadzenia nowej ulgi od dochodu. Od tegoż bowiem roku podatnicy mają prawo do obniżenia swojego dochodu o wydatki z tytułu użytkowania sieci Internet w lokalu mieszkalnym, będącym miejscem zamieszkania podatnika. W roku 2010 kwota ta wynosi 760 zł rocznie18. 18 Art. 26 ust.1 pkt. 6a Ustawy z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych... op. cit. Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 163 W tabeli 2. przedstawiono udział wybranych odliczeń od dochodu według tytułów w latach 2001–2009. Szczególną uwagę zwrócono tu na wydatki rehabilitacyjne oraz odliczenia związane z użytkowaniem sieci Internet, którym można przypisać prorodzinny charakter. W latach 2001–2004 udział ulgi rehabilitacyjnej19, odliczanej od dochodu w stosunku do pozostałych ulg odliczonych z tego tytułu przez wszystkich podatników, wyraźnie zwiększył się. Największy wzrost udziału ulg, z poziomu 25,1% do 72,50%, zanotowano w roku 2004. W latach 2005–2009 miał miejsce, z kolei, spadek udziału wydatków na cele rehabilitacyjne do około 44% ogólnej kwoty odliczeń od dochodu. Z danych z rozliczenia podatku dochodowego od osób fizycznych w roku 2005 wynika, że z ulgi tej skorzystało w sumie 950 944 podatników, co stanowi około 4% ogółu podatników. Podkreślić także warto, iż ulga ta stanowiła wówczas 60,26% ogólnej kwoty odliczeń, jakich dokonano w 2005 roku od dochodu. TABELA 2. Struktura odliczeń od dochodu w latach 2001–2009 (jako % ogólnej kwoty odliczeń od dochodu) Tytuł odliczenia 2001 Wydatki na cele 25,10 rehabilitacyjne Wydatki z tytułu użytkowania sieci Internet Wydatki 37,84 mieszkaniowe Darowizny 23,64 Wydatki na spłatę odsetek od kredytu (pożyczki) mieszkaniowego Ulgi inwestycyjne 4,03 powszechne 2002 2003 2004 2005 2006 2007 2008 2009 39,92 35,76 72,5 60,26 54,42 49,91 44,58 44,01 - - - 25,23 29,10 29,82 35,38 39,15 26,60 31,90 22,80 7,90 9,41 17,30 13,76 9,97 15,56 13,13 4,71 6,61 6,68 5,31 5,32 6,00 0,12 1,16 - - - - - - 0,88 0,10 - - - - - - Źródło: Jak w tabeli 1. Z danych zamieszczonych w tabeli 2. wynika jednocześnie, że w roku 2009 ulga rehabilitacyjna stanowiła 44,01% ogólnej kwoty odliczeń i skorzystało z niej łącznie 1 094 625 podatników (tj. 4,48% ogółu podatników). Mniejszy udział ulgi rehabilitacyjnej, w ogólnej kwocie odliczeń, w roku 2009 wynikał m.in. ze zmniejszenia się liczOdliczeniu podlegają wydatki na cele rehabilitacyjne oraz wydatki związane z ułatwieniem czynności życiowych niepełnosprawnych. Przysługuje ona niepełnosprawnym lub tym, którzy mają na utrzymaniu takie osoby (niepełnosprawność musi być potwierdzona urzędowo przez wydanie odpowiedniego orzeczenia). Można odliczyć m.in.: wydatki na leki czy koszty utrzymania samochodu, adaptacje i wyposażenie mieszkań dla niepełnosprawnych, koszt pobytu na turnusie rehabilitacyjnym, utrzymanie psa przewodnika itd. [Art. 26 ust. 1 pkt. 6, ust. 7a i nast. Ustawy z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych ... op. cit.]. 19 164 Katarzyna Lewkowicz-Grzegorczyk by wydanych przez ZUS orzeczeń o niepełnosprawności. W przypadku wydatków z tytułu użytkowania sieci Internet należy zauważyć, że ich udział systematycznie wzrastał (z 25,23% w 2005 roku do 39,15% w 2009 roku). W ciągu pięciu lat funkcjonowania tej ulgi liczba podatników, którzy dokonali odliczeń, wzrosła ponad dwukrotnie (tj. z 6% do 14,81% ogółu podatników). Świadczy to o dużym zainteresowaniu tego rodzaju ulgą ze strony podatników. Z punktu widzenia państwa, ulga ta miała głównie za zadanie zrekompensować podatnikom obłożenie usług dostępu do sieci 22-procentową stawką VAT. TABELA 3. Ulgi odliczane od podatku w poszczególnych przedziałach dochodowych, w latach 2001–2009 (w%) Przedziały dochodów I II III Ogółem 2001 2002 2003 2004 2005 18,87 18,30 4,92 14,64 18,45 15,06 4,96 13,68 19,78 14,44 5,43 14,95 15,34 10,97 3,75 12,33 15,19 9,26 2,86 11,56 2006 2,93 1,74 1,35 2,32 2007 2008 2009 19,53 8,65 1,97 14,38 17,85 8,39 2,19 12,31 14,95 2,48 12,37 Źródło: Jak w tabeli 1. Udział ulg, odliczonych od podatku w poszczególnych przedziałach dochodowych, ukazuje tabela 3. Lata 2001–2006, z wyjątkiem roku 2003, to okres, w którym udział ulg odliczonych od podatku, w stosunku do obliczonego podatku w poszczególnych przedziałach dochodowych, uległ wyraźnemu zmniejszeniu. Spadek wykorzystywanych ulg przez podatników w pierwszym przedziale dochodowym wyniósł z 18,87% do 2,93%, w drugim przedziale dochodowym z 18,3% do 1,74% i w trzecim z 4,92% do 1,35%. Wyraźny spadek udziału ulg w poszczególnych przedziałach dochodowych był spowodowany m.in. likwidacją większości ulg w roku 2004. Lata 2007–2008 to ponownie wzrost udziału ulg w stosunku do obliczonego podatku, które stanowiły średnio aż: 18,69%, 8,52% i 2,08% dochodu uzyskanego przez podatników, odpowiednio z: pierwszego, drugiego i trzeciego przedziału dochodowego. Zmiana ta była spowodowana przede wszystkim wprowadzeniem nowej ulgi od podatku, a mianowicie tzw. ulgi na wychowywanie dzieci. Tabela 4. przedstawia udział wybranych odliczeń od podatku według tytułów w latach 2001–2009. Prorodzinny charakter odliczeń od podatku można przypisać tu uldze na wychowywanie dzieci oraz wydatkom mieszkaniowym. Wydatki na cele mieszkaniowe to ulga, która w latach 2001–2006 „przodowała” wśród ulg od podatku. W roku 2001 stanowiła 80,77% wszystkich odliczeń od podatku, zaś w roku 2005 aż 96,32%. W roku 2009 zanotowano gwałtowne zmniejszenie się udziału odliczeń związanych z wydatkami mieszkaniowymi do poziomu 1,97%. Podatnicy, rozliczając się z podatku dochodowego od osób fizycznych, do końca 2005 roku korzystali z tzw. ulgi remontowej. Od 2006 r. została ona jednak zniesiona. Mimo to, podatnicy, którym zabrakło podatku do całego rozliczenia tej ulgi, mogli ją rozliczyć w latach następnych, w tym m.in. w zeznaniu za rok 2006. Ulga ta odgrywała wówczas znaczącą rolę. Do ulg mieszkaniowych odliczanych od podatku można zaliczyć Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 165 także: wydatki na remont i modernizację budynku oraz wpłaty na fundusz remontowy, czyli bardzo „popularne” i w znacznym stopniu wykorzystywane przez podatników ulgi. W końcowym okresie obowiązywania tych ulg (tj. w latach 2005–2006) ich udział w ogólnej kwocie ulg odliczanych od podatku uległ znacznemu zwiększeniu. W latach 2001–2005 liczba podatników, którzy dokonali z tego tytułu odliczeń od podatku, wynosiła średnio 38%. W kolejnych latach gwałtownie spadła do 5,38% w roku 2006, 1,79% w 2007 roku, 1,09% w 2008 roku i 0,78% w 2009 roku, co było spowodowane, jak już wspomniano, likwidacją tej ulgi. TABELA 4. Struktura odliczeń od podatku według tytułów w latach 2001–2009 (jako % ogólnej kwoty odliczeń od podatku) Tytuł odliczenia 2001 Ulga na wychowanie dzieci Wydatki 80,77 mieszkaniowe Ulga na wyszkole4,59 nie uczniów Wydatki na dojazd 0,07 dzieci do szkół Wydatki na zakup przyrządów i po2,31 mocy naukowych Wydatki na odpłatne dokształcanie i dosko2,30 nalenie zawodowe podatników Wydatki na odpłatne kształ6,18 cenie w szkołach wyższych 2002 2003 2004 2005 2006 2007 2008 2009 - - - - - 94,02 95,57 96,21 82,06 81,69 96,31 96,32 73,29 4,05 2,40 1,97 5,44 4,73 2,66 2,11 14,86 1,88 1,34 1,09 0,06 0,05 - - - - - - 2,2 2,64 - - - - - - 2,45 2,68 - - - - - - 7,16 7,18 - - - - - - Źródło: Jak w tabeli 1. W roku 2007 pojawiła się nowa ulga – ulga na wychowanie dzieci20. W rozliczeniu podatku dochodowego za: 2007, 2008 i 2009 rok z ulgi na wychowanie dzieci skorzystało odpowiednio: 3,97 mln podatników (tj. 16,43% ogółu podatników), 4,2 mln podatników (17,21%) i 4,3 mln podatników (17,77% ogółu podatników), 20 Od 2008 roku istnieje możliwość odpisu podatku należnego, określonej ustawowo, kwoty na każde dziecko własne lub przysposobione, tzw. ulga prorodzinna. Obecnie kwota ta wynosi 1/6 rocznej kwoty wolnej od podatku na dziecko za każdy miesiąc sprawowania opieki rodzicielskiej, tj. 92,67 zł/miesiąc. W poprzednich latach kwoty te, w ujęciu rocznym, wynosiły odpowiednio: w 2007 r. – 1145,08 zł, w 2008 r. – 1173,70 zł, w 2009 roku – 1112,04 zł. [Art. 27 f Ustawy z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych ... op. cit.]. 166 Katarzyna Lewkowicz-Grzegorczyk którzy w tym roku podatkowym osiągnęli dochód. W 2009 roku łączna kwota odliczeń z tytułu ulgi na wychowanie dzieci wyniosła 5,6 mld zł, tj. 11,9% kwoty należnego podatku po odliczeniu składki na ubezpieczenie zdrowotne. Przeciętna kwota odliczona na dziecko wyniosła 898 zł. Należy podkreślić, że aby skorzystać z tej ulgi, trzeba mieć odpowiednio wysokie zobowiązanie podatkowe, niskie zobowiązanie, niestety, uniemożliwia wykorzystanie ulgi w pełnej wysokości. Podatek może być obniżony maksymalnie do poziomu zerowego, a nie wykorzystana część ulgi nie może być skonsumowana w następnym roku. Sytuacja taka występuje najczęściej wśród podatników osiągających najniższe dochody, co może wywołać poczucie braku sprawiedliwości podatkowej i negatywne nastawienie do całego systemu podatkowego [Ślesicka 2009 s. 4]. Tak więc, dla rodzin najbiedniejszych odliczenie od podatku nie jest w stanie zagwarantować pełnego wykorzystania ulgi. Wprowadzenie ulgi na wychowanie dzieci pokazało, że przyniosła ona rzeczywiste korzyści podatnikom. Wyraźnie widać, iż w badanym okresie ulga ta cieszy się bardzo dużym powodzeniem. Korzystanie w pełni z jej zalet jest możliwe jedynie przy odpowiednio wysokich dochodach. Jak pokazuje statystyka wśród podatników z pierwszego progu podatkowego, tylko 15,51% skorzystało z możliwości odliczenia tej ulgi [Pismo MF...2010]. Gdzie szukać powodów tak niskiego wykorzystania ulgi na wychowywanie dzieci? W konstrukcji tej ulgi brakuje nadal rozwiązania, które okazałoby się korzystne dla najbiedniejszych, często wielodzietnych rodzin. Zwiększanie jej wysokości, bez zapewnienia najmniej zarabiającym podatnikom możliwości pełnego jej wykorzystania, powoduje, iż rozwiązanie to jest bardziej dogodne dla podatników o średnich i wysokich dochodach. W rzeczywistości ulga ta jest skierowana bardziej do rodzin zamożniejszych niż do rodzin biedniejszych. Mimo że celem wprowadzenia tej ulgi było wspieranie rodzin najuboższych, w praktyce okazało się, że skorzystały one najmniej [Ślesicka 2009 s. 3–4]. Podatnicy często powołują się na zasadę sprawiedliwości podatkowej. Najczęściej utożsamiają przy tym sprawiedliwość z obniżeniem ciężarów podatkowych, a niekiedy całkowitym ich wyeliminowaniem, szczególnie w przypadku tych podatków, które ich bezpośrednio dotyczą. Opowiadają się natomiast za wzrostem fiskalizmu dla innych grup społecznych. Badania ankietowe, przeprowadzone w 2009 r., pokazują, że polski system podatkowy uważa za niesprawiedliwy 70% Polaków21. Na ich poczucie niesprawiedliwości może wpływać między innymi skomplikowane prawo podatkowe. Trzeba zauważyć, że są osoby, które postrzegają polski system podatkowy jako raczej sprawiedliwy lub zdecydowanie sprawiedliwy. Takich osób jest około 20%. Co jednak najciekawsze, że aż 10% badanych nie ma w tym zakresie zdania. Opinie respondentów, dotyczące oceny systemu podatkowego, przedstawia wykres 1. Badanie zostało zrealizowane w dniach 8–10 maja 2009 r. przez PBS DGA na ogólnopolskiej, reprezentatywnej 1030-osobowej próbie Polaków, którzy ukończyli 15. rok życia. Badanie zostało przeprowadzone w technice CAPI (Computer Assisted Personal Interview), czyli bezpośredniego wywiadu kwestionariuszowego wspomaganego komputerowo, w ramach badania Omnibus, realizowanego co dwa tygodnie przez PBS DGA. Przy zrealizowanej liczbie wywiadów, błąd oszacowania wynosi ±3%, co oznacza, że wyniki uzyskane w wylosowanej próbie respondentów nie różnią się o więcej niż 3% od danych dla całej badanej populacji. Zakłada się przy tym 95-procentowy poziom ufności. 21 Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 167 WYKRES 1. Ocena systemu podatkowego w Polsce (Pytanie: Czy podatki w Polsce są sprawiedliwe?) 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 8 30 47 14 11 10 29 28 27 43 44 41 trudno powiedzieć zdecydowanie niesrawiedliwe raczej niesprawiedliwe raczej sprawiedliwe 14 1 15 1 16 1 19 1 2006 2007 2008 2009 Źródło: [„Gazeta Prawna” z dnia 26.05.2009 r.]. WYKRES 2. Ocena systemu podatkowego w Polsce (Pytanie: Stawki podatkowe i liniowość systemu podatkowego, z którym stwierdzeniem się Pan(i) zgadza?) 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% trudno powiedzieć 7 24 11 28 7 2 25 30 wszyscy powinni płacić taki sam procent dochodów 69 2006 61 2007 68 2008 68 2009 osoby o wyższych dochodach powinny płacić wyższy procent swoich dochodów w postaci podatków Źródło: [„Gazeta Prawna” z dnia 26.05.2009 r.]. Z przeprowadzonych badań wynika również, że zdecydowana większość respondentów chciałaby, aby osoby o niższych dochodach płaciły niższe podatki, a osoby o wyższych dochodach – wyższe niż obecnie. Zatem, Polacy preferują progresywny system podatku dochodowego od osób fizycznych. Twierdzą, że osoby zarabiające 168 Katarzyna Lewkowicz-Grzegorczyk najwięcej powinny oddawać fiskusowi wyższe podatki, w konsekwencji spada liczba zwolenników podatku liniowego. Opinie badanej grupy przedstawia wykres 2. Podsumowując, można stwierdzić, że podstawowym celem podatku jest pokrycie obciążeń podatkowych, niemniej jednak dzięki systemowi podatkowemu państwo może osiągać również cele gospodarcze i społeczne. Urzeczywistnieniem zamierzeń społecznych jest np. prorodzinność podatku, a narzędziem tego są odpowiednie ulgi podatkowe. Jest to cecha systemów podatkowych państw demokratycznych, które realizują zasadę państwa przyjaznego obywatelowi funkcjonującemu w rodzinie. Prorodzinność wynika z rozpoznania przez państwo problemów rodziny, do których zalicza się: mieszkanie, dzieci, zdrowie, starość. Zdaniem J. Żyżyńskiego, służą temu: po pierwsze, ulgi i zwolnienia w podatkach od dochodów indywidualnych. Po drugie, możliwość łącznego opodatkowania się małżonków oraz stosowanie progresji. System podatkowy prorodzinny rozwiązuje te cztery problemy m.in. przez zmniejszenie obciążeń związanych z uzyskaniem mieszkania (ulgi na budowę mieszkania i spłaty odsetek od pożyczek hipotecznych, ulgi z tytułu oszczędzania na mieszkanie przez odejmowanie od podstawy opodatkowania kwot oszczędzanych i in.) oraz możliwość odjęcia od podstawy opodatkowania kwot wydawanych na: kształcenie dzieci (pomoce naukowe, dojazdy do szkół), ochronę zdrowia, zabezpieczenie starości oraz opiekę nad ludźmi starymi [Żyżyński 2009 s.278–279]. Polski podatek dochodowy od osób fizycznych spełnia niektóre, wyżej wymienione, wymogi. Tabela 4. pokazuje, że możliwość odliczenia od podatku wydatków związanych m. in. z kształceniem dzieci istniała tylko do roku 2003. Natomiast, ulgi wspomagające zaspokojenie potrzeb mieszkaniowych rodziny nie istnieją, istnieje tylko możliwość skorzystania z praw nabytych. Ponadto, z ulg korzystają głównie podatnicy o średnich i wysokich dochodach. 6. Podsumowanie W Polsce podatek dochodowy od osób fizycznych, w aspekcie realizacji zasady sprawiedliwości podatkowej, posiada zarówno cechy zgodne, jak i przeczące tej zasadzie. Głównym jego mankamentem jest to, że nie spełnia on podstawowych założeń podatku prorodzinnego, gdyż jego wysokość nie zależy od liczby dzieci będących na wychowaniu, wieku i stanu zdrowia podatnika. Ponadto, nie ma w nim odpowiedniego minimum wolnego od opodatkowania. W szczególności jest to ważne w stosunku do osób fizycznych, gdzie jest takie minimum, raczej symboliczne i nie spełnia w ogóle swojej roli. Osobisty i bezpośredni charakter podatku dochodowego od osób fizycznych wyznacza szczególną rolę, jaką spełnia on w realizacji zasady sprawiedliwości. Kwestią sporną jest, czy i jak dostosować ciężar podatku do indywidualnej zdolności podatkowej. Do cech polskiego podatku dochodowego od osób fizycznych, zgodnych z zasadą sprawiedliwości, można niewątpliwie zaliczyć: możliwość wspólnego opodatkowania małżonków i specjalne opodatkowanie osób wychowujących samotnie dzieci oraz istnienie ulg, zwolnień i odliczeń o charakterze społecznym i gospodar- Realizacja zasady sprawiedliwości na przykładzie podatku dochodowego ... 169 czym. Należy podkreślić, że ustawodawca, tylko w niewielkim stopniu, uwzględnia w tym podatku sytuację zdrowotną podatnika lub jego najbliższych krewnych22. Przeprowadzone w latach 2006–2009 badania ankietowe pokazują, że Polacy preferują progresywny system opodatkowania. Zdecydowanie mniej jest natomiast zwolenników podatku liniowego. Samo zastosowanie skali progresywnej można przyjąć, przy pewnych założeniach, jako sprawiedliwe, ale, biorąc pod uwagę brak realnego minimum wolnego od opodatkowania oraz stosunkowo wysoką stawkę podatku dla osób o najniższych dochodach, forma ta traci jednak swój walor. Należy jednak podkreślić, że stworzenie sprawiedliwego dla wszystkich systemu podatkowego jest trudne. Zdaniem Gaudementa, jest to zadanie wręcz niemożliwe: Podobnie jak alchemicy poszukujący kamienia filozoficznego, tak partie polityczne, grupy nacisku, indywidualni badacze i osoby nawiedzone od wieków próbują stworzyć idealny system podatkowy [...] nigdy, rzecz jasna, go nie znajdując [Gaudement 2000 s. 444]. Literatura Bouvier M. 2000 Wprowadzenie do prawa podatkowego i teorii podatku, Warszawa. Brzeziński B. 2008 Wprowadzenie do prawa podatkowego, Toruń. Czarnecka-Żochowska K., Kaim P. 2009 Raport „Paying Taxes 2009”: Obraz polskich podatków i recepty na przyszłość, „Przegląd Podatkowy”, nr 4. Dolata S. 1999 Podstawy wiedzy o podatkach i systemie podatkowym, Opole. Dolata S. 2009 Podstawy wiedzy o polskim systemie podatkowym, Warszawa. Dziemianowicz R. 2003 System podatkowy, [w:] J. Zarzecki (red.), Finanse, Białystok. Dziemianowicz R.I. 2007 Efektywność systemu opodatkowania rolnictwa, Białystok. Dziemianowicz R., Przygodzka R. 2003 Funkcje podatków i ocena ich sprawności w rolnictwie, [w:] A. Pomorska (red.), Kierunki reformy polskiego systemu podatkowego, Lublin. Etel L. 2008 Prawo podatkowe, Warszawa. Famulska T. 1996 Sprawiedliwość podatkowa, „Przegląd Podatkowy”, nr 5. Famulska T. 1998 Oddziaływanie systemu podatkowego na rynek finansowy, Katowice. Famulska T., Znaniecka K. 2003 Obciążenia fiskalne w Polsce na podstawie badań, Katowice. Gajl N. 1992 Teorie podatkowe w świecie, Warszawa. Gaudement P.M., Molinier J. 2000 Finanse publiczne, Warszawa. Głuchowski J. 2002 Formy zmniejszania wysokości podatków Polsce, Warszawa. Głuchowski J. 1999 Sprawiedliwość podatkowa: założenia teoretyczne i możliwości aplikacyjne, [w:] System podatkowy. Stan, kierunki reformy, wpływ na wzrost gospodarczy, Stanowisko Rady Strategii Społeczno-Gospodarczej, Raport, nr 36, Warszawa. Głuchowski J. 2006 Polskie prawo podatkowe, Warszawa. Gomułowicz A. 2001 Zasada sprawiedliwości podatkowej, Warszawa. Gomułowicz A. 2003 Zasada sprawiedliwości podatkowej w orzecznictwie Trybunału Konstytucyjnego. Aspekt materialny, Warszawa. Gomułowicz A., Małecki J. 2010, Podatki i prawo podatkowe, Warszawa. 22 Dotyczy wyłącznie osób niepełnosprawnych lub osób mających na utrzymaniu osoby niepełnosprawne. 170 Katarzyna Lewkowicz-Grzegorczyk Informacja dotycząca rozliczenia podatku dochodowego od osób fizycznych za lata 2000 2009, Ministerstwo Finansów, Warszawa. Kosikowski C. Ruśkowski E. 2006 Finanse publiczne i prawo finansowe, Warszawa. Kośny M. 2007 Podatki a dobrobyt społeczny, Wrocław. Kulawczuk P. 2006 Paradoksalne oddziaływanie progresji podatkowej na dobrobyt społeczny i skuteczność wyborczą, „Ekonomista”, nr 3. Kulicki J. Sokół P. 1996 Podatki i prawo podatkowe, Warszawa. Małecka-Ziembińska E. 2006 Podatek dochodowy jako regulator dochodów osób fizycznych w Polsce okresu transformacji ustrojowej, Poznań. Mastalski R. 2000 Prawo podatkowe, Warszawa. Matyszewska E. 2008 Podatek liniowy ma mniej zwolenników, „Gazeta Prawna” z 29.05.2008 r. Morawski W. 2001 Sprawiedliwość społeczna a transformacja systemowa, [w:] B. Cichomski, W. Kozek, P. Morawski, W. Morawski (red.), Sprawiedliwość społeczna. Polska lat dziewięćdziesiątych, Warszawa. Nowa Encyklopedia Powszechna 1996, Kolisiewicz D. (red.), Warszawa. Olechowska K. 2003 Konkurencyjność reform podatkowych – Polska na tle innych krajów, Zeszyty BRE Bank-Case, Warszawa. Pietrzak B., Polański Z., Woźniak B. 2008 System finansowy w Polsce cz. II, Warszawa. Pismo Ministerstwa Finansów, Departament Podatków Dochodowych, Znak DD1/016/36/ GRZ/2010/BOC-2430 z 30 czerwca 2010r. Podsiad A. 2000 Słownik terminów i pojęć filozoficznych, Warszawa. Pomorska A., Szołno-Koguc J., Wojtowicz K. 2003 Proces dostosowywania polskich podatków pośrednich do standardów Unii Europejskiej, Lublin. Przygodzka R. 2006 Fiskalne instrumenty wspierania rozwoju rolnictwa – przyczyny stosowania, mechanizmy i skutki, Białystok. Rosiński R. 2010 Polski system podatkowy. Poszukiwanie optymalnych rozwiązań, Warszawa. Smith A. 2007 Badania nad naturą i przyczynami bogactwa narodów, Warszawa. Sosnowski M. 2009 Opodatkowania dochodów osób fizycznych na zasadach ogólnych w Polsce w latach 1998–2007 – wybrane zagadnienia, [w:] T. Lubińska, A. Szewczuk (red.), Finanse 2009 – Teoria i praktyka. Finanse Publiczne I, Zeszyty Naukowe, nr 546, Ekonomiczne Problemy Usług, nr 36, Szczecin. Stiglitz J.E. 2004 Ekonomia sektora publicznego, Warszawa. Ślesicka A. 2009 Ulga podatkowa na wychowanie dzieci, Infos BAS, nr 5, Warszawa. Tegler E. 1994 Wybrane zagadnienia zdolności podatkowej, [w:] E. Czerwińska (red.), Zdolność podatkowa i wiarygodność kredytowa przedsiębiorstwa, Poznań. Ustawa z dnia 26 lipca 1991 r. o podatku dochodowym od osób fizycznych (Dz.U. z 2010 r., Nr 51, poz. 307 ze zm.). Dokument elektroniczny, tryb dostępu: [www.gazetaprawna.pl]. Żyżyński J. 2009 Budżet i polityka podatkowa. Wybrane zagadnienia, Warszawa. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Mariusz CHUDAK1 CZYNNIKI LOKALIZACJI APTEK Streszczenie W latach 1990-2008 liczba aptek w Polsce wzrosła o ponad 250%, przy potencjale demograficznym pozostającym praktycznie na identycznym poziomie. Zachodzi zatem kluczowe pytanie – czy istnieją obiektywne przesłanki uzasadniające tak wysoką gęstość rozmieszczenia podstawowych placówek opieki farmaceutycznej, która należy do najwyższych w Unii Europejskiej. Celem artykułu w powyższym kontekście jest przedstawienie wymagań formalno-prawnych stawianych na etapie ubiegania się o zgodę na ich działalność oraz wyodrębnienie czynników wpływających na decyzje lokalizacyjne wraz z próbą systematyzacji pod względem ważności. Jednocześnie w planowaniu przestrzennym poszukuje się rozwiązania optymalizującego stan ilościowy i usytuowanie aptek jako usług z grupy priorytetowego znaczenia dla zaspakajania potrzeb społecznych Słowa kluczowe: apteka, lokalizacja, planowanie przestrzenne, miasto, wieś THE FACTORS OF LOCATION PHARMACIES Summary During the period of 1990-2008 the number of pharmacies in Poland increased by more than 250% along with the demographic potencial remaining on identical level. The key question is – Do objective reasons justyfying such high location density (the highest in the European Union) of the basic pharmaceutical care centres really exist? The aim of this article, in the above context, is to present formal and legal requirements set at the stage of applying for the commercial activity consent as well as to distinguish factors which make an impact on the location decisions along with an attempt to systematize them taking into account their importance. At the same time, in town-plannig (regional planning) planners search for an optional solution showing the most favourable number of outlets. What is more, the pharmacies should be situated as services of priority significance in ordrer to satisfy social needs. Keywords: pharmacy, location, spatial planning, city, village 1. Społeczny wymiar rozwoju farmacji w ujęciu retrospektywnym Historia medycyny sięga początków istnienia ludzkości kiedy człowiek jako istota rozumna zaczął poszukiwać antidotum na różnorodne dolegliwości. Przez długi okres wykorzystywał w tym celu jedynie bogactwa zaczerpnięte ze świata natury, 1 Dr Mariusz Chudak – Instytut Ekonomii i Zarządzania, Państwowa Wyższa Szkoła Zawodowa im. J.A. Komeńskiego w Lesznie. 172 Mariusz Chudak a w szczególności zioła i minerały. Nie dysponując skomplikowaną aparaturą badawczą, ani też żadnymi procedurami postępowania, w obecnym rozumieniu, całą swoją erudycję opierał na wcześniejszych doświadczeniach oraz intuicji, co z reguły pozwalało na ustalenie właściwego dawkowania substancji leczniczej w zależności od objawów chorobowych. Z upływem czasu receptury medykamentów udoskonalono, a także zauważono dodatni efekt synergii wynikający z łączenia dwóch lub więcej specyfików. Równocześnie zgłębiano tajniki innych kuracji, stopniowo odkrywając właściwości lecznicze: produktów pochodzenia zwierzęcego, roztworów metali kolorowych, a nawet alkoholu w różnym stężeniu i postaciach. Zasób dostępnych leków ulegał więc istotnemu zwiększeniu, choć nadal lekarz i aptekarz były pojęciami odnoszącymi się do jednej osoby. Prawdopodobnie, dopiero intensywny rozwój starożytnych miast przyczynił się do wykształcenia odrębnych specjalizacji zawodowych. Cywilizacje antyczne ukierunkowane na postęp naukowy, technologiczny i organizacyjny wychodziły bowiem naprzeciw potrzebom ludzkim, stwarzając coraz dogodniejsze warunki egzystencjalne. Niezwykle ważnym elementem stały się w tym procesie apteki zakładane przy świątyniach, szpitalach i klasztorach, które służyły zarówno braciom zakonnym, jak i ludności cywilnej. Pierwsza świecka placówka powstała jednak stosunkowo późno, gdyż dopiero w VIII w., z inicjatywy Arabów na obszarze Bagdadu. W Europie wzorzec ten utrwalał się, począwszy od XI w., obejmując swoim zasięgiem również Polskę, kiedy w 1248r. rozpoczęła działalność apteka publiczna w Świdnicy, a następnie w Krakowie (1333) i Poznaniu (1446), [Encyklopedia... 1969 s. 60]. Ich funkcjonowanie dawało mieszkańcom poczucie większego bezpieczeństwa (bardziej w kategoriach psychologicznych niż rzeczywistych), a właścicielom należny szacunek i prestiż. Przez wieki repertuar stosowanych środków o charakterze farmakologicznym podlegał nieustannym modyfikacjom, aczkolwiek niezwykle rzadko pojawiały się innowacyjne mikstury, stanowiące przełom w walce z dotychczas nieuleczalnymi przypadłościami. Nieznana była bowiem etiologia wielu chorób lub mylnie je utożsamiano ze zjawiskami nie mającymi nic wspólnego z prawdziwym podłożem (magią, przepowiedniami, układem ciał niebieskich). Ponadto, ciało ludzkie, jego budowa i mechanizmy pracy poszczególnych narządów, pozostawało w znacznej części nierozpoznane, co wpływało nie tylko na prawidłowość diagnoz lekarskich, ale także przekładało się na niewielką skuteczność leczenia. Sytuacja taka panowała w zasadzie do początku XX wieku, gdy na skutek rozwoju wiedzy oraz wdrażania licznych wynalazków technicznych pojawiła się szansa ich zastosowania również do wskazań medycznych. Opracowano wówczas asortyment zupełnie nowych leków powstałych poprzez syntezę związków chemicznych. Jednocześnie rozpowszechnienie się systemów produkcji taśmowej ułatwiło: pełniejsze zaspokojenie potrzeb rynkowych, ilościowo-jakościową standaryzację preparatów oraz znaczne obniżenie kosztów jednostkowych w porównaniu z wcześniejszymi formami wytwórczości. Tym samym wzrosła dostępność i efektywność leczenia, a przeciętne trwanie życia ludzkiego stopniowo zwiększało się, osiągając w Polsce, na początku lat 50. ubiegłego stulecia, wartości: ok. 64 lat dla kobiet i 58 lat dla mężczyzn2. Faktowi temu w pewnym 2 Wszystkie zawarte w artykule dane o długości życia pochodzą z publikacji GUS. Zob.: [Rocznik Demograficzny 2009]. Czynniki lokalizacji aptek 173 stopniu sprzyjała zapewne ekspansja aptekarstwa, które przestało być domeną miast, wkraczając coraz śmielej na tereny wiejskie wraz z tworzeniem gminnych ośrodków zdrowia. Następne dekady przyniosły niebywały postęp dyscyplin naukowych związanych z medycyną i farmakologią, zwłaszcza: mikrobiologii, inżynierii genetycznej oraz biotechnologii. Informatyka dostarczyła, z kolei: narzędzi usprawniających wykonywanie skomplikowanych obliczeń matematyczno-statystycznych, prowadzenie symulacji komputerowych czy też prognozowanie wyników eksperymentalnych prac badawczych. Dzięki temu, terapeutyczne przeznaczenie znalazło przynajmniej kilkadziesiąt specyfików o atypowych mechanizmach działania, pozwalających na relatywne przedłużenie życia pacjentom dotkniętym przede wszystkim schorzeniami kardiologicznymi i onkologicznymi, uznawanymi za dwie podstawowe przyczyny przedwczesnej umieralności. Z osiągnięć tych, ze względu na permanentny brak dewiz korzystano tylko w bardzo ograniczonej skali, co wyjaśnia, utrzymujący się na zbliżonym poziomie, w latach 1970–1990 wiek zgonu statystycznego mieszkańca naszego kraju (ok. 75 lat dla kobiet i 67 lat dla mężczyzn). Od mniej więcej połowy lat 90. XX w. skierowano w światowej medycynie większą uwagę na czynniki środowiskowe oraz odnoszące się do zachowań patogennych jako potencjalnego źródła dolegliwości somatycznych i psychicznych. Koncerny farmaceutyczne, opierając się na relacjach naukowych (nie zawsze całkowicie zweryfikowanych), szybko uruchomiły produkcję tzw. suplementów diety oraz wyrobów zielarskich pozbawionych rzekomo skutków ubocznych. Lansowana przez środki masowego przekazu moda na uprawianie sportu i turystyki stymulowała dodatkowo popyt na biokomponenty zwiększające wydolność organizmu lub poprawiające tężyznę fizyczną. W tych segmentach rynku oraz w grupie leków wydawanych bez recepty obserwuje się zarazem intensywną kampanię promocyjną adresowaną do wszystkich grup odbiorów. Jest ona instrumentem marketingu-mix, za pomocą którego dąży się do wzrostu ogólnej znajomości dobra lub firmy [Altkorn i Kramer 1999 s. 197]. Wykorzystuje się tutaj zazwyczaj reklamę telewizyjną, radiową i prasową, to niemniej wszystkie inne sposoby dotarcia do konsumenta są praktykowane, przynosząc satysfakcjonujące rezultaty. Otwarcie granic, sukcesy farmakologii, propagowanie higienicznych i ekologicznych modeli egzystencji oraz wszechstronna popularyzacja artykułów wspomagających ochronę zdrowia wpłynęły łącznie nie tylko na szybki wzrost oczekiwanej długości życia Polaków (80 lat dla kobiet i 71 lat dla mężczyzn w 2008 r.), ale również na znacznie zwiększone zainteresowanie społeczeństwa ofertą aptek, co znalazło, z kolei, odzwierciedlenie w ich dynamicznie rosnącej liczbie na przestrzeni ostatnich kilkunastu lat. Dla porównania, w 1990 r. mieliśmy w Polsce blisko 4000 podmiotów handlowych o takim profilu sprzedaży, w 2000 r. – 8300, a osiem lat później już 106003. Oznacza to, iż przy praktycznie nie zmieniającym się potencjale demograficznym państwa przeciętna liczba mieszkańców przypadająca na 1 aptekę spadła w analizowanym okresie o ponad 250% (z 9500 do 3600). W tym miejscu zachodzi podstawowe pytanie – czy istnieją obiektywne przesłanki uzasadniające tak wysoką gęstość rozmieszczenia placówek opieki farmaceu3 Wszystkie zawarte w artykule dane o liczbie aptek pochodzą z publikacji GUS. Zob.: [Rocznik Statystyczny Rzeczypospolitej Polskiej 2009]. 174 Mariusz Chudak tycznej, która należy do najwyższych w Unii Europejskiej. W niniejszym kontekście celem artykułu jest przedstawienie wymagań formalno-prawnych stawianych na etapie ubiegania się o zgodę na ich otwarcie oraz wyodrębnienie czynników wpływających na decyzje lokalizacyjne w tej materii wraz z próbą systematyzacji pod względem ważności. W końcowej części pracy proponuje się natomiast rozwiązanie dla planowania przestrzennego mającego w zamyśle odgrywać optymalizującą rolę podczas wyboru miejsca usytuowania apteki. 2. Wybrane aspekty prowadzenia apteki w świetle uregulowań prawnych Zasady obrotu detalicznego produktami leczniczymi i wyrobami medycznymi wyznaczają aktualnie art.: 86–107 Ustawy z dnia 6 września 2001r. Prawo farmaceutyczne (tj. Dz. U. Nr 45, poz. 271 z 2008r. ze zmianami). Na tej kanwie za aptekę uważa się jednostkę służby zdrowia publicznego, w której osoby uprawnione świadczą usługi farmaceutyczne polegające w szczególności na wydawaniu i sporządzaniu leków oraz udzielaniu informacji o sposobach ich dawkowania, interakcjach klinicznych bądź działaniach niepożądanych. Rozstrzyga się ponadto: kwalifikacje personelu, zasób niezbędnego asortymentu i jego przechowywanie, prowadzenie reklamy, a także kwestie urzędowej koordynacji czasu pracy w odniesieniu do potrzeb społecznych. Legislator nie precyzuje natomiast żadnych wytycznych dotyczących lokalizacji aptek ani także minimalnej odległości pomiędzy nimi. Należy zatem przyjąć, że obowiązuje tutaj, prawie niczym nieskrępowana, konkurencja, zwłaszcza że ich właścicielem, po spełnieniu ściśle określonych wymagań, może zostać praktycznie każdy, jeśli nie prowadzi w tym samym czasie hurtowni farmaceutycznej i nie kontroluje więcej niż 1% rynku na terenie danego województwa. Lekarze oraz stomatolodzy składają dodatkowo oświadczenie o zaniechaniu praktyki zawodowej, z uwagi na złożony kontekst etyczno-moralny łączenia funkcji medycznej i handlowej w branży z nią bezpośrednio powiązanej. Zezwolenie na otwarcie apteki warunkuje się przede wszystkim zatrudnieniem kadry o odpowiednim stażu i umiejętnościach, jak również dopełnieniem procedur administracyjnych, w tym uzyskaniem pozytywnej opinii państwowego inspektora sanitarnego. Niezwykle ważna na tym etapie jest infrastruktura lokalowa regulowana na drodze ustawowej. Dopuszcza się, aby placówka nie stanowiła odrębnego budynku, o ile została wydzielona od innych części obiektu oraz posiada zarazem powierzchnię podstawową (izbę spedycyjną) i pomocniczą. Jej minimalną wielkość ustalono generalnie na 80 m2, przy czym w miejscowościach liczących do 1500 mieszkańców lub na obszarach wiejskich przyjmuje się 60 m2 za wartość wystarczającą. Polskie regulacje na tle innych krajów europejskich należą do jednych z najbardziej liberalnych (tabela 1.). Jak ławo zauważyć z przytoczonych danych, w rodzimej praktyce nie stosuje się sprawdzonych i powszechnie akceptowalnych wskaźników, co sprawia, iż lokalizacja aptek jest nierzadko przypadkowa i nieracjonalna ekonomicznie. Przedsiębiorcy nie zawsze bowiem analizują ich przyszłe położenie pod tym kątem, a jednocześnie słabo interesują się pozostałymi czynnikami determinującymi rentowność planowanej 175 Czynniki lokalizacji aptek inwestycji. W rezultacie nadmiernej podaży usług, w 2008r. po raz pierwszy zaobserwowano niewielki spadek liczby zarejestrowanych jednostek (o 4) względem roku 2007. Problem ten będzie przypuszczalnie narastać w najbliższych latach, a minimalizacją jego implikacji winno zająć się planowanie przestrzenne, wychodząc naprzeciw ze stosownymi dyrektywami urbanistycznymi. TABELA 1. Kryterium demograficzne i geograficzne lokalizacji aptek w wybranych krajach Unii Europejskiej Państwo Austria Belgia Chorwacja Estonia Francja Włochy Portugalia Słowenia Hiszpania Minimalna liczba ubezpieczonych na 1 aptekę Minimalna odległość pomiędzy aptekami w metrach 5500 2000–3000 3000–5000 3000 2500–3000 4000–12500 4000 5000 2800 500 1000–1500 200–500 500–1000 nie ma 200 500 400 250 Źródło: [Community Pharmacy in Europe, PGEU Selected Facts and Figures, 2008]. 3. Podstawowe determinanty wyboru miejsca lokalizacji apteki Profity z każdej działalności gospodarczej w dużej mierze zależą od jej prawidłowej orientacji przestrzennej względem: najważniejszych grup odbiorców, kooperantów i konkurentów. Nie ulega wątpliwości, że w przypadku aptek będzie to społeczność lokalna, wytwórnie i hurtownie farmaceutyczne oraz inni świadczeniodawcy o podobnym profilu handlowo-usługowym (np. sklepy zielarskie). Analiza otoczenia, które można określić mianem swoistego, stanowi jednak dopiero preludium w procesie lokalizacyjnym. W drugiej fazie należy równie starannie przyjrzeć się pozostałym elementom charakteryzującym daną jednostkę osadniczą, choćby z pozoru wydawały się mało istotne. Doświadczenia praktyczne wskazują bowiem, iż takie komponenty niekiedy wzajemnie się uzupełniają lub nakładają, odgrywając nawet rolę nadrzędną. Warto ponadto pamiętać, że funkcje pełnione przez apteki nierozerwalnie kojarzą się z udzielanymi poradami lekarskimi, będąc ich naturalną konsekwencją na płaszczyźnie medycznej, ale często także architektoniczno-urbanistycznej. Znajdują siedzibę w budynkach publicznej i prywatnej służby zdrowia lub ich bliskim sąsiedztwie. Rozmieszczenie to, obok usytuowania w śródmieściu i w ramach centrów handlowo-rozrywkowych, gwarantuje dodatni wynik finansowy wynikający z koncentracji ludności na stosunkowo niewielkim obszarze bądź jej stałych strumieni przepływu przez większą część dnia. Pozwala w rezultacie na zaproponowanie wysokich stawek czynszu za m2 zajętej powierzchni, czym uzyskuje się przewagę konkurencyjną nad mniej dochodowymi przedsięwzięciami. Zjawiska ta- 176 Mariusz Chudak kiego nie obserwuje się na terenach wiejskich oraz w małych miastach z tytułu zbyt słabo zaznaczonego oddziaływania renty gruntowej. Dlatego trudno tutaj mówić o najbardziej dogodnej lokalizacji, ale jest ona prawdopodobnie wypadkową odległości od centrum i miejscowej przychodni, co zapewnia najlepszą dostępność przestrzenną. Pogląd ten znajduje szczególne uzasadnienie, jeśli funkcjonuje tylko jedna apteka, a układ zabudowy posiada charakter rozproszony. Dokonując przeglądu literatury przedmiotu można znaleźć co najmniej kilka ciekawych klasyfikacji czynników lokalizacyjnych, które kompleksowo odnoszą się do działalności podmiotów ukierunkowanych na maksymalizację zysku. Dotychczas traktowano je głównie w kategoriach korzyści zachodzących wówczas, gdy firma miała powstać w konkretnej miejscowości [Godlewska 2001 s. 13]. Marginalizowano zatem znaczenie położenia w wewnętrznej strukturze miasta, a przecież inwestor musi dysponować działką o określonym przeznaczeniu i powierzchni umożliwiającą posadowienie wszelkich niezbędnych budynków, budowli i urządzeń. Równocześnie nadmierne gloryfikowano tzw. czynniki miękkie (niemierzalne), do jakich zalicza się np.: przychylne nastawienie władz publicznych, klimat społeczny, różnorodność sposobów spędzania wolnego czasu, atrakcyjność miasta wraz z jego ofertą kulturalną i edukacyjną [Dziemianowicz 1998 s. 220]. W rzeczywistości lista okoliczności i elementów, branych pod uwagę przez przedsiębiorców inicjujących swoją aktywność, od lat nie podlega radykalnym zmianom, ale zupełnie inaczej dokonuje się ich waloryzacji. Obecnie o wiele bardziej, niż w połowie XX w., ceni się wiedzę od zasobów taniej siły roboczej i środków kapitałowych, które stały się łatwiejsze do pozyskania. Nowe technologie transportowo-komunikacyjne, a przede wszystkim innowacyjność procesów produkcji i poszczególnych dóbr powodują, że jednostki gospodarcze są coraz mniej uzależnione od przestrzennej lokalizacji, co definiuje się pod pojęciem foot-loose (bez przywiązania do miejsca), [Czerny 2005 s. 175]. Niemniej nadal, poza kilkoma wyjątkami, nie stracił kluczowej pozycji potencjał ośrodka miejskiego wyrażony liczbą jego mieszkańców czy też funkcją w systemie administracyjnym kraju. Ujęcie to, w powiązaniu z wtórnymi przesłankami aktywizującymi przedsiębiorczość na poziomie lokalnym, jest niedostatecznie reprezentowane w pracach teoretycznych, a zarazem uwzględniane w badaniach empirycznych [Chudak 2009a s. 214]. Z dobrym skutkiem wzbogaca jednak końcowe wnioskowanie i pełniej wyjaśnia decyzje lokalizacyjne. W odniesieniu do aptek znajduje bardziej niż skromne zastosowanie, a mimo to będzie podjęta interpretacja stawianego problemu w owym kontekście. Niniejsze postępowanie ma również odzwierciedlać wyraźnie zaznaczony dysonans autora wobec dominujących ostatnio tendencji do nadmiernego uogólniania i upraszczania zjawisk społeczno-gospodarczych. 4. Drugoplanowe czynniki lokalizacji aptek Całokształt pobudek wpływających na rozmieszczenie aptek, obok omówionych wcześniej uwarunkowań (także prawno-administracyjnych), można podzielić na 3 komplementarne względem siebie grupy: demograficzno-społeczne, finansowoekonomiczne oraz techniczno-infrastrukturalne. W każdej z nich wyróżnia się od 2 do 5 składowych, którym nadano hipotetyczną rangę (znaczenie), posługując się Czynniki lokalizacji aptek 177 czterostopniową skalą jakościową. Systematyzacja taka nie jest z pewnością doskonała, albowiem, nie operując parametrami skwantyfikowanymi, odnosi się tylko do subiektywnych odczuć i winna zostać potwierdzona lub skorygowana poprzez reprezentatywne badania przeprowadzone na próbie ogólnopolskiej. W żadnym wypadku nie należy bowiem arbitralnie wykluczać istnienia innych, racjonalnych czynników lokalizacyjnych, zwłaszcza występujących lokalnie. Zbiór elementów demograficzno-społecznych otwiera traktowana oddzielnie struktura wieku i płci mieszkańców (tabela 2.). Postępujący proces starzenia się społeczeństw wysoko-rozwiniętych wymaga zapewnienia coraz liczniejszym pokoleniom kompleksowej opieki geriatrycznej, w którą wpisują się usługi farmaceutyczne. Dotyczy to przede wszystkim terenów wiejskich i małych miast, skąd osoby młode w poszukiwaniu szans rozwoju zawodowego lub intelektualnego migrują do większych ośrodków, głównie aglomeracji. Zdecydowanie mniejszą rolę odgrywają nierówności wynikające z przewagi jednej płci nad drugą, ale egzemplifikują, z kolei, asortyment oferty handlowej. W metropoliach wskaźnik feminizacji przekracza 115, gdy na obszarach rolniczych Polski północno-wschodniej mamy do czynienia z wysoką maskulinizacją, oscylującą w granicach 90 mężczyzn na 100 kobiet. Przyczynia się to w obu przypadkach do kłopotów z zawieraniem małżeństw oraz zmniejsza poziom dzietności, który z teoretycznego punktu widzenia stanowi o przyszłości aptekarstwa, generując nowe zastępy klientów. Wyniki badań naukowych pozwalają ponadto na stwierdzenie, że w centralnych częściach miast zdecydowanie wyższe są udziały pań, malejąc ku peryferiom, z wyjątkiem nowych osiedli mieszkaniowych, gdzie występuje równowaga płci [Jelonek 2008 s.100]. Strefy śródmiejskie zamieszkują zwykle wdowy – samotne i starsze kobiety po 50–60 roku życia. Wyjaśnienia takiego stanu rzeczy poszukuje się nie tylko w ich predyspozycjach biologicznych, ale także w większej dbałości o własne zdrowie (zbilansowana dieta, unikanie używek, aktywność ruchowa). Kolejnym, ważnym czynnikiem w tej grupie jest zapadalność na choroby cywilizacyjne. W zależności od wielkości jednostki osadniczej nie wykazuje ona jakiejś szczególnej dywersyfikacji, aczkolwiek uważa się, że mieszkańcy zespołów miejskich są nieco bardziej narażeni na występowanie poważniejszych dolegliwości, do czego upoważnia: zanieczyszczenie środowiska, hałas, stres oraz wypadki komunikacyjne i w trakcie pracy. Środowiska medyczne od lat alarmują o negatywnym wpływie urbanizacji na rozwój niektórych nowotworów (płuc, piersi, jelita grubego, żołądka, wątroby i trzustki), nadciśnienia tętniczego i miażdżycy prowadzącej w prostej linii do zawałów serca, cukrzycy, alergii oraz zaburzeń psychicznych (schizofrenii, depresji i nerwic lękowych). Spotęgowaniu ulega jednocześnie rozprzestrzenianie się chorób zakaźnych z uwagi na: przeludnienie, dużą mobilność mieszkańców, złe warunki sanitarne lub niewłaściwe gospodarowanie odpadami komunalnymi [Tarkowski 2008 s. 456]. Niektórzy specjaliści, niestety, bagatelizują te fakty, tłumacząc je większą świadomością populacji wielkomiejskich w odniesieniu dokonywania prewencyjnej diagnostyki, co sprzyja wykrywalności schorzeń i urazów wymagających leczenia. Dlatego też liczba działających aptek w obrębie aglomeracji winna być nieznacznie wyższa, aniżeli poza nimi. 178 Mariusz Chudak TABELA 2. Czynniki demograficzno-społeczne lokalizacji aptek Wyszczególnienie Struktura wg wieku Struktura wg płci Ogólny poziom zachorowalności Podatność na reklamę Dostępność wykwalifikowanych kadr Miasto duże Miasto średnie (pow. 200 tys. (20 tys. do 200 tys. Miasto małe mieszkańców) – mieszkańców) – (do 20 tys. stolica kraju, ośrodek wojemieszkańców) – ośrodek wojewódzki, miasto na ośrodek gminny, wódzki, miasto prawach powiatu, siedziba powiatu na prawach siedziba powiatu powiatu Wieś (niezależnie od wielkości) ** ** *** * **** * **** ** *** ** * * * * * * ** ** *** *** Źródło: Opracowanie własne: (skala: * niewielkie znaczenie, ** umiarkowane znaczenie, *** istotne znaczenie, **** szczególnie istotne znaczenie). Podatność na reklamę wyrobów medyczno-leczniczych jest trudna do oszacowania przynajmniej z dwóch względów. Wynika to z jej wszechobecności w miastach powyżej 20 tys. (bilbordy uliczne, większy wybór czasopism oraz lokalnych rozgłośni radiowych i stacji telewizyjnych, ulotki i afisze w poczekalniach gabinetów lekarskich, informacje przekazywane przez licznych pacjentów), a także większych dochodów ludności, pozwalających na zakup dóbr wyższego rzędu. Będzie to sprzyjać lokalizacji aptek, podobnie jak, niższe od średniej krajowej, wykształcenie mieszkańców wsi i miasteczek. Niedostatki wiedzy osłabiają bowiem odporność na wyrafinowane techniki marketingowe, a jednocześnie nastręczają trudności w prawidłowej ocenie swojego zdrowia i najbliższych, które może wymagać bardziej zdecydowanej interwencji farmakologicznej, nie wspominając o potrzebie hospitalizacji. Wykaz czynników demograficzno-społecznych zamyka malejąca dostępność wykwalifikowanego personelu wraz ze spadkiem wielkości miejscowości oraz jej odległością od ośrodka akademickiego. Najłatwiej go znaleźć w rejonach silnie zurbanizowanych, gdzie panuje wprawdzie duża konkurencja, ale należy się również spodziewać wysokich żądań płacowych, adekwatnych do kosztów utrzymania w mieście. Na obszarach położonych peryferyjnie staje się konieczny natomiast transfer kapitału ludzkiego, często związany ze zmianą miejsca zamieszkania kandydatów na pracowników. Cechą współczesnych czasów jest jednak wzrastająca skłonność do podejmowania migracji, za czym przemawiają przyczyny ekonomiczne i ekologiczne. Warto nadmienić, że ich wyrazem w Polsce są między innymi odwrócone kierunki przemieszczeń pomiędzy miastem a wsią, a zatem dotychczasowa urbanizacja przeszła w fazę ruralizacji [Parysek 2007 s. 120–121]. 179 Czynniki lokalizacji aptek W segmencie finansowo-ekonomicznym racjonalność usytuowania aptek wyznacza przede wszystkim polityka cen obejmująca wachlarz artykułów najczęstszego zakupu w powiązaniu z zamożnością mieszkańców, a dopiero w dalszej kolejności kapitał oraz szeroko rozumiane koszty prowadzenia działalności gospodarczej (tabela 3.). TABELA 3. Czynniki finansowo-ekonomiczne lokalizacji aptek Wyszczególnienie Ceny oferowanych dóbr a dochody ludności Kapitał oraz instytucje finansowe Koszty prowadzenia działalności Miasto średnie Miasto duże (20 tys. do 200 (pow. 200 tys. tys. mieszkańMiasto małe mieszkańców) – ców) – ośrodek (do 20 tys. mieszstolica kraju, wojewódzki, kańców) – ośrodek miasto na pra- ośrodek gminny, wojewódzki, wach powiatu, siedziba powiatu miasto na siedziba powiaprawach powiatu tu Wieś (niezależnie od wielkości) * ** *** **** * * ** ** ** ** * * Źródło: Opracowanie własne: (skala: * niewielkie znaczenie, ** umiarkowane znaczenie, *** istotne znaczenie, **** szczególnie istotne znaczenie). Jak powszechnie wiadomo, cena leków nie zawsze jest równoznaczna z ich wartością rynkową, albowiem część preparatów podlega mniejszej lub większej refundacji ze strony budżetu państwa. Dotacje są tutaj absolutnie konieczne dla zapewnienia masowego dostępu do leczenia, co określają odrębne przepisy o ubezpieczeniach społecznych i zdrowotnych. Istnieją jednakże specyfiki (głównie sprzedawane bez recepty), dla których kształtowanie cen pozostawiono w gestii handlowców. Oznacza to, że w ustalaniu ich wysokości powinni kierować się mechanizmami popytowo-podażowymi, jakie obowiązują na danym rynku. Najważniejszym elementem podlegającym ocenie będzie zatem status ekonomiczny miejscowego społeczeństwa wyrażony w dochodach czyli sumie pieniędzy uzyskanych lub zarobionych w pewnym okresie [Samuelson i Nordhaus 2004 s. 353–356]. Poprawa sytuacji gospodarstw domowych spowoduje wzrost zapotrzebowania na medykamenty i odwrotnie – intensyfikacja bezrobocia wymusi oszczędzanie kosztem zaniechania realizacji odpłatnych kuracji. Natężenie tego zjawiska zależy od wielkości jednostki osadniczej, przy czym stosunkowo najlepsze perspektywy wydają się mieć duże miasta, a najgorsze wsie. W ośrodkach pełniących ważne funkcje administracyjne o silnie zróżnicowanej strukturze gospodarczej wszelkie wahania koniunkturalne są bowiem znacznie łagodniej odczuwalne oraz istnieją większe zdolności przystosowawcze, aniżeli w jednostkach wiejskich z dominującym i na dodatek nieefektywnym rolnictwem. 180 Mariusz Chudak Kapitał jest ogólną kategorią obejmującą różnorodne zasoby wykorzystywane w procesach produkcji i usług, aczkolwiek w sensie stricte ekonomicznym tworzą go jedynie dobra rzeczowe, jakim są: nieruchomości, instalacje i maszyny oraz środki finansowe w różnych formach (gotówce, kredycie lub papierach wartościowych) dające tytuł własności do majątku. Ich pozyskaniu służy rozbudowany system bankowy funduszy inwestycyjnych oraz instytucji pośredniczących, np. giełd [Pakulska 2009 s. 128–129]. Podmioty te są łatwo dostępne w dużych i średniej wielkości miastach, a ponadto oferty współpracy redagują pod kątem wymagań poszczególnych grup klientów, w tym środowisk medyczno-farmaceutycznych. Mimo że jakość i różnorodność proponowanych świadczeń finansowych generalnie maleje wraz ze spadkiem potencjału demograficznego miejscowości, to nie należy tego utożsamiać z trudnościami w dostępie do kapitału, gdyż charakteryzuje się on znaczną mobilnością przestrzenną, a także może pochodzić z kilku źródeł (wkładu własnego, spadków i darowizn, dotacji unijnych itp.). Uzasadnia to jego zakwalifikowanie do czynników co najwyżej o umiarkowanym znaczeniu dla lokalizacji aptek. Koszty działalności gospodarczej dzieli się na stale ponoszone nawet wówczas, jeśli firma nie funkcjonuje oraz zmienne determinowane przez skalę prowadzonego biznesu. W odniesieniu do handlu farmaceutykami będą nimi, poza wspomnianymi już wynagrodzeniami pracowników, głównie wydatki na utrzymanie lokum (czynsz, remonty, zabezpieczenia antywłamaniowe i przeciwpożarowe) oraz media infrastruktury technicznej. Spośród nich pewną funkcję ekonomiczną pełnią jedynie ceny wynajmu, zwykle proporcjonalne do atrakcyjności usytuowania nieruchomości w przestrzeni zwłaszcza większych miast, estetyki i funkcjonalności obiektu oraz charakteru otoczenia (pasaż handlowy, zabudowa mieszkaniowa, placówki służby zdrowia). Dla prawidłowej lokalizacji apteki względnie istotne są tylko 2 czynniki techniczno-infrastrukturalne, a mianowicie: dojazd wiążący się równocześnie z zapewnieniem powierzchni parkingowej oraz obecność sieci energetycznej, wodno-kanalizacyjnej i telefonicznej (tabela 4.). TABELA 4. Czynniki techniczno-infrastrukturalne lokalizacji aptek Wyszczególnienie Dojazd i parkingi Dostęp do energii elektrycznej, wody, kanalizacji i telefonu Miasto duże (pow. 200 tys. mieszkańców) – stolica kraju, ośrodek wojewódzki, miasto na prawach powiatu Miasto średnie (20 tys. do 200 tys. mieszkańców) – ośrodek wojewódzki, miasto na prawach powiatu, siedziba powiatu Miasto małe (do 20 tys. mieszkańców) – ośrodek gminny, siedziba powiatu Wieś (niezależnie od wielkości) * ** ** *** **** **** **** **** Źródło: Opracowanie własne: (skala: * niewielkie znaczenie, ** umiarkowane znaczenie, *** istotne znaczenie, **** szczególnie istotne znaczenie). Czynniki lokalizacji aptek 181 W pierwszym przypadku znaczenie dostępności komunikacyjnej spada wraz ze wzrostem wielkości jednostki osadniczej, albowiem mamy do czynienia z dużą konkurencją, co umożliwia konsumentom wybór odpowiadającego im podmiotu, w zależności od osobistych preferencji dotyczących ścieżek i sposobów przemieszczania się. Na obszarach wiejskich o wiele ważniejszy jest natomiast dystans fizyczny mierzony za pomocą czasu dotarcia (własnym lub publicznym środkiem lokomocji), uwarunkowany pośrednio jakością lokalnego układu drogowego. Infrastruktura techniczna, w przeciwieństwie do rozwiązań transportowych, nie wywiera wartościującego wpływu na ocenę przestrzeni z racji jej przydatności dla usług farmaceutycznych. Bez względu na miejsce lokalizacji, trudno sobie wyobrazić funkcjonowanie jakiegokolwiek podmiotu gospodarczego niekorzystającego z podstawowych zdobyczy cywilizacji, do których w XXI w. zalicza się również Internet. Należy jednak pamiętać, że równie ważne, jak samo występowanie instalacji przesyłowych i odbiorczych, są właściwe ich parametry techniczne gwarantujące możliwość podłączenia się kolejnych klientów do systemu. W praktyce bowiem, nierzadko zdarza się, że sieć infrastruktury bywa maksymalnie obciążona i nie ma warunków zwiększenia dostawy mediów jeśli nie zostaną poniesione znaczące nakłady pracy i kapitału [Chudak 2009b s. 33]. 5. Podsumowanie (Rekomendacje dla urbanistyki) Znajomość czynników lokalizacyjnych decydujących o rozmieszczeniu różnorodnych form aktywności gospodarczej jest niezwykle przydatna dla miejscowego planowania przestrzennego. W Polsce niemal całkowicie odstąpiono od szczegółowego wyznaczania funkcji nieruchomości, formułując je w sposób lakoniczny, aby nie zachodziła potrzeba dokonywania długotrwałych i kosztownych zmian. Urbaniści, jak i władze lokalne nie zwracają przy tym odpowiedniej uwagi na kształtowanie się cen gruntów w określonym czasie i w zależności od ich położenia. Wskaźniki zabudowy oraz intensywności zagospodarowania terenu zbyt rzadko nawiązują do cech przestrzeni, a powinny być rezultatem wielokryterialnej analizy uwzględniającej także skomplikowane relacje kapitałowe na linii środowisko przyrodnicze – możliwości technologiczno-organizacyjne budownictwa [Chudak 2006 s. 67]. Obecnie stosowana metodologia projektowania urbanistycznego, działalność aptek dopuszcza w ramach zbilansowanych jednostek handlowych i usługowych, pozostawiając kwestię docelowego umiejscowienia przedsiębiorcom. Brak uregulowań prawnych dotyczących liczebności placówek oraz odległości pomiędzy nimi sprawia, że potrzeby społeczne nie zawsze są równomiernie zaspokojone. Poruszone zagadnienia mogą stać się zatem pomocne na etapie sporządzania planów miejscowych przez gminy. Obowiązujący od kilkunastu lat, model zarządzania przestrzenią zostanie wówczas samoczynnie zreformowany w części dotyczącej usług o priorytetowym znaczeniu dla ludności – zarówno publicznych, jak i komercyjnych. Rozumie się przez to ich konkretyzację w określonych punktach miasta (wsi) przy pozostawieniu dużego zakresu swobody realizacji samych obiektów w wymiarze architektonicznym. Prawdopodobnie nie spowoduje jednak wyraźnego zmniejszenia liczby placówek aptecznych, albowiem Polskę powszechnie zalicza się do największych 182 Mariusz Chudak konsumentów leków na świecie, zwłaszcza przeciwbólowych, łagodzących objawy grypy i przeziębienia oraz usprawniających pracę przewodu pokarmowego. Ze względu na konieczność szybkiej reakcji na pogarszający się stan zdrowia, zadania tego nigdy nie przejmie handel elektroniczny obarczony minimum jednodniowym oczekiwaniem na przesyłkę. Literatura Altkorn J., Kramer T. 1998 Leksykon Marketingu, Warszawa. Bezpośrednie inwestycje zagraniczne 1998, (red.) Z. Olesiński, Warszawa. Chudak M. 2006 Planowanie przestrzenne a marketing gminy, „Przegląd Komunalny”, nr 172, Poznań. Chudak M. 2009b. Lokalizacja przedsiębiorstw a miejscowe planowanie przestrzenne. Studium przypadku miasta Leszna, Leszno. Czerny M, 2005. Globalizacja a rozwój. Wybrane zagadnienia geografii społeczno-gospodarczej świata, Warszawa. Encyklopedia przyrody i techniki 1969, Warszawa. Geografia ekonomiczna 2009, (red.) K. Kuciński, Kraków. Geografia społeczno-gospodarcza Polski 2007, (red.) H. Rogacki, Warszawa. Geografia urbanistyczna 2008, (red.) S. Liszewski, Łódź. Godlewska H. 2001 Lokalizacja działalności gospodarczej. Wybrane zagadnienia, Warszawa. Gospodarka lokalna i regionalna w teorii i praktyce 2009, (red.) R. Brol, Wrocław. Samuelson P.A., Nordhaus W.D. 2004 Ekonomia (t. 1), Warszawa. Tarkowski S. 2008 Aspekty ekologii człowieka w zdrowiu publicznym, „Zdrowie Publiczne” nr 118, Warszawa. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Paweł JAMRÓZ1 WERYFIKACJA SŁABEJ FORMY EFEKTYWNOŚCI GPW ZA POMOCĄ TESTU AUTOKORELACJI ORAZ TESTU SERII Streszczenie Efektywność rynku w formie słabej oznacza, iż bieżące kursy akcji powinny odzwierciedlać wszystkie historyczne informacje, które mogą mieć wpływ na ich wycenę. Celem pracy było zbadanie za pomocą testów autokorelacji i serii czy Giełda Papierów Wartościowych w Warszawie charakteryzuje się słabą formą efektywności. Badania przeprowadzono dla indeksów WIG, WIG20, sWIG80 i mWIG40 w oparciu o dzienne logarytmiczne stopy zwrotu dla danych z okresu od 31.12.1997 r. do 30.04.2009 r. Uzyskane wyniki spółek małych i średnich świadczą o występowaniu nieefektywności wśród tych firm. W podejściu praktycznym dla całości rynku badania te nie pozwalają jednoznacznie odrzucić występowania słabej efektywności polskiego rynku akcji. Słowa kluczowe: efektywność informacyjna, giełda papierów wartościowych, test autokorelacji, test serii, słaba forma efektywności VERIFICATION OF THE WEAK FORM EFFICIENCY WSE BY MEANS OF AUTOCORRELATION TEST AND SERIES TEST Summary The market efficiency in a weak form means that current stock prices should reflect all historical information which can influence their valuation. The aim of the research was to test, by means of autocorrelation and series tests, if the Warsaw Stock Exchange is in a weak condition as regards efficiency. The research was done with WIG, WIG20, sWIG80 and mWIG40 indexes on the basis of daily logarithmic rates of return for data of 31st Dec, 1997 to 30th Apr, 2009. The obtained results for small and medium companies say about their inefficiency. In practical approach, taking the whole market into consideration the research does not give rise to rejection of the fact of weak efficiency on Polish stock market. Keywords: informational efficiency, stock exchange, autocorrelation test, runs test, weak form of efficiency 1. Wstęp Giełda Papierów Wartościowych S.A. (GPW) w Warszawie jest zaliczana do rynków rozwijających się i mających coraz większy wpływ na gospodarkę Polski. Świadczyć o tym może wskaźnik kapitalizacji GPW do wartości PKB. Na koniec 1995 r. 1 Mgr Paweł Jamróz – Wydział Ekonomii i Zarządzania, Uniwersytet w Białymstoku. 184 Paweł Jamróz wynosił 3,3% PKB, w 2005 r. 31,9% PKB, a w 2007 r. 43,3% PKB. W wyniku kryzysu finansowego spadł w 2008 r. do poziomu 21% PKB, by w 2009 r. wzrosnąć do wartości 31,4% PKB2. Dynamiczny rozwój rynku kapitałowego i wzrost znaczenia informacji w gospodarce uzasadniają weryfikację efektywności informacyjnej3 giełdy warszawskiej. Głównym celem pracy jest zastosowanie wybranych testów statystycznych do badania słabej formy efektywności polskiego rynku akcji. Otrzymane wyniki wskazują na występowanie nieefektywności, szczególnie wśród małych i średnich spółek polskiego rynku akcji. 2. Koncepcja słabej formy efektywnego rynku Zgodnie ze słabą formą efektywności informacyjnej rynku, bieżące ceny akcji odzwierciedlają wszystkie istotne informacje zawarte w notowaniach historycznych [Fama 1970 s. 383]. Natomiast, w innym ujęciu, rynek jest mało efektywny w sytuacji, gdy ceny walorów finansowych odzwierciedlają tylko historyczne informacje. Konsekwencją tego jest brak zależności pomiędzy zmianami kursów akcji, w wyniku czego nie można permanentnie osiągać ponadprzeciętnych zysków, stosując strategię inwestycyjną opartą na historycznych notowaniach. Słaba forma efektywności rynku jest w praktyce często utożsamiana z analizą techniczną, która na podstawie przeszłych notowań prognozuje przyszłe zachowanie kursów [Haugen 1996 s. 717– 718]. Wydaje się, iż efektywność w formie słabej jest najłatwiejsza do osiągnięcia przez rynek, ponieważ obecnie informacje dotyczące historycznych notowań są szeroko dostępne, a nawet często publikowane nieodpłatnie.4 Stąd, wymieniany przez E. Famę jako jeden z dostatecznych warunków, jakie ma spełniać rynek, aby był efektywny, jest zasadniczo spełniony w warunkach polskiego rynku akcji. Efektywność rynku w formie słabej oznacza, że bieżące kursy akcji powinny odzwierciedlać wszystkie osiągalne informacje, które mogą mieć wpływ na ich wycenę. Kursy notowań zmieniają się losowo, ponieważ rynek reaguje bezzwłocznie i w pełni adekwatnie do napływających na rynek informacji w sposób niemożliwy do przewidzenia [Haugen 1996 s. 727]. W literaturze przedmiotu losowość zmian cen akcji przyjęto określać mianem hipotezy błądzenia losowego (ang. random walk). Dlatego losowość zmian kursów jest ściśle powiązana ze słabą formą efektywności. L. Bachelier zaobserwował już na początku dwudziestego wieku, iż ceny akcji zmieniają się przypadkowo [Bachelier 1964 s. 17–75]. Losowość oznacza, że na obecne notowania nie oddziałuje ich kształtowanie się w przeszłości, czyli nie jesteśmy w stanie powiedzieć, o ile jutrzejszy kurs będzie się różnił od dzisiejszego. 2 Na podstawie szacunku wstępnego GUS-u, Produkt Krajowy Brutto w 2009 roku wyniósł 1 341 880,7 mln zł, a kapitalizacja spółek krajowych na koniec 2009 r. wyniosła 421 178 mln zł. Por. Dokument elektroniczny, tryb dostępu: [http://www.stat.gov.pl/gus/5840_1338_PLK_HTML.htm, data wejścia: 30.04.2010 r.]. 3 Literatura przedmiotu wyróżnia na przykład efektywność: alokacyjną, informacyjną i transakcyjną. 4 Jako przykład powszechnego i bezpłatnego dostępu do danych można wymienić serwis informacyjny: [GPWInfoStrefa.pl] oraz bezpłatne dane z notowaniami w serwisach m.in.: [www.parkiet.com.pl] czy [www.bossa.pl]. Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ... 185 Statystyczne testy właściwości rozkładu cen walorów finansowych są najczęściej stosowanymi w badaniach empirycznych słabej efektywności [Czekaj, Woś, Żarnowski 2001 s. 35]. Badanie słabej formy efektywności informacyjnej rynku przeprowadza się często w sposób pośredni, sprawdzając brak statystycznie istotnych zależności pomiędzy kolejnymi ruchami kursów walorów. Hipoteza błądzenia losowego jest silniejsza od hipotezy o słabej formie efektywności, dlatego że, jeżeli występuje błądzenie losowe (przypadkowe) w badanych szeregach czasowych, to prawdziwe jest również zdanie o co najmniej słabej efektywności rynku [Szyszka 2003 s. 97]. Należy jednak pamiętać, że rynek może być efektywny, a ceny akcji, indeksów mogą nie podlegać błądzeniu losowemu. Bowiem, jeśli odrzuci się hipotezę błądzenia losowego, to następnie należy sprawdzić, czy inwestowanie na podstawie wykrytych zależności przynosi dochody wyższe od średniej rynkowej. Jedno z pierwszych badań polskiego rynku akcji testem autokorelacji przeprowadził K. Jajuga [Metody ekonometryczne i statystyczne... 2000 s. 46–57]. Zaobserwował, iż dla większości analizowanych spółek oraz indeksów: WIG i WIG20 autokorelacje pierwszego rzędu dla dziennych stóp zwrotu są istotnie różne od zera. Jednak otrzymane autokorelacje były niewielkie (największa wyniosła 0,18), co oznacza, że ceny mogą być skorelowane zbyt słabo, aby inwestor mógł je wykorzystać w podejmowaniu decyzji inwestycyjnych. Szeroko cytowana, kolejna praca, stosująca test autokorelacji, należy do A. Szyszki, w której zaobserwował istotne statystycznie współczynniki korelacji. Świadczy to o tym, że w niektórych obserwacjach zmiany cen akcji nie następowały w sposób całkowicie losowy. Autor zwraca uwagę, że współczynniki korelacji dziennych stóp zwrotu w latach 1994–1999 nie odbiegają istotnie od wielkości uzyskanych na innych giełdach światowych [Szyszka 2003 s. 98–102]. Testy serii polskiego rynku akcji przeprowadzili m.in.: J. Czekaj, M. Woś, J. Żarnowski oraz A. Szyszka. Wyniki uzyskane przez: Czekaja, Wosia i Żarnowskiego [Czekaj, Woś, Żarnowski 2001 s. 71–77] dają w pierwszej części badań świadectwo występowania krótkookresowej zależności notowań. Natomiast, po uwzględnieniu długookresowego trendu w danych, poprzez eliminację zerowych stóp zwrotu, zaobserwowano identyczną liczbę serii oczekiwaną i faktyczną. Otrzymane wyniki autorów nie dają podstaw do odrzucenia hipotezy błądzenia losowego w badanym okresie na podstawie testu serii. Z kolei, Szyszka analizował dwa okresy, pierwszy do końca września 1994 r., a drugi od 3 października 1994 r. do 1 października 1999 r. W pierwszym okresie występowała wyraźna dodatnia zależność między kierunkiem zmiany notowań na sesji bieżącej a zmianą dzień wcześniej, co było spowodowane silnym trendem wzrostowym na warszawskiej giełdzie. Drugi okres nie wykazywał aż tak istotnych zależności i wśród badanych spółek obserwowano nadal mniejszą przeciętną rzeczywistą liczbę serii niż liczba oczekiwana. Zaledwie w 3 przypadkach na 29 różnice przekraczały 10%, a przeciętna różnica rzeczywistej liczby serii dla badanej próby była o 5,9% mniejsza od wartości oczekiwanej. Dlatego autor zauważa, że wraz z rozwojem polskiego rynku akcji wzajemne zależności między ruchami cen zanikają, co może świadczyć o wzroście efektywności rynku [Szyszka 2003 s. 102– 108]. Kontynuacja badań nad słabą formą efektywności polskiego rynku akcji, używając wybranych testów statystycznych, oraz przeprowadzenie ich dla okresu późniejszego jest wkładem własnym pracy. 186 Paweł Jamróz 3. Charakterystyka podejścia badawczego Istnienie słabej formy efektywności weryfikują testy sprawdzające losowość zmian cen, do których należą m. in.: test autokorelacji oraz test serii. Ze statystycznego punktu widzenia, prostym sposobem zbadania losowości szeregu jest badanie autokorelacji notowań. Testowanie autokorelacji szeregu czasowego polega na zbadaniu, czy obserwacje z różnych okresów są ze sobą skorelowane za pomocą współczynnika autokorelacji (korelacji) k-tego rzędu [Witkowska, Matuszewska, Kompa 2008 s. 96–97]: T ρˆ k = ∑ ( rt − r )( rt −k − r ) t =k T ∑ ( rt − r ) , (1) 2 t =1 gdzie: ρ̂k – oszacowany współczynnik autokorelacji rzędu k; rt, rt-1 – logarytmiczne stopy zwrotu indeksu w okresie: t i t-k; r – średnia logarytmiczna stopa zwrotu w badanym okresie; T – liczba obserwacji w badanym szeregu (długość szeregu czasowego); k – wielkość opóźnienia. Test autokorelacji ma na celu zbadanie, czy współczynniki autokorelacji statystycznie nieistotnie różnią się od zera. W praktyce, najczęściej stosowanym testem, umożliwiającym wykrycie łącznej autokorelacji, jest test oparty na statystyce Q* Ljunga-Boxa o następującej postaci [Osińska 2006 s. 35]: ρˆ i , i =1 T − i k Q * = T( T + 2 )∑ (2) gdzie: i to testowany rząd autokorelacji i = 1, 2, 3, ..., k. Statystyka Q* posiada rozkład zbieżny do chi-kwadrat o k stopniach swobody. Znaczenie autokorelacji dla badania efektywności rynku polega na tym, że gdyby istniała silna korelacja stóp zwrotu, to można by wykorzystać ten fakt do prognozowania zmian cen w przyszłości. Badania dokonano dla dziennych kursów zamknięcia (n=2957 obserwacji) za pomocą testu autokorelacji, wykorzystując logarytmiczne stopy zwrotu (rt) indeksów giełdowych: WIG, WIG20, mWIG40 oraz sWIG80, wyznaczonych według następującej formuły: ⎛ p ⎞ (3) rt = ln⎜⎜ t ⎟⎟ , ⎝ pt −1 ⎠ gdzie: pt jest kursem zamknięcia wybranego indeksu w dniu t, a pt-1 jest kursem zamknięcia indeksu w dniu poprzednim. Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ... 187 Pogrubioną czcionką oznaczono przypadki odrzucenia hipotezy zerowej (błądzenia losowego) przy poziomie istotności α = 0,05. Natomiast wszystkie obliczenia wykonano przy użyciu programu Gretl [Kufel 2009 s. 72–74] oraz arkusza Excel. Następnym, przeprowadzonym badaniem sprawdzającym, czy szereg jest szeregiem błądzenia przypadkowego, jest test serii, który został przeprowadzony dla indeksów giełdowych: WIG, WIG20, sWIG80 i mWIG40 w wybranych okresach. W dużych próbach test serii pozwala określić, czy dane, zawarte w analizowanym szeregu, mają charakter losowy. Analizując zmiany stóp zwrotu za pomocą testu serii, przyjęto dwa elementy serii. Serią nazywamy sekwencję zmian stóp zwrotu o tym samym znaku (dodatnim lub ujemnym), a jej długością liczbę następujących po sobie obserwacji tego samego typu [Żebrowska-Suchodolska 2009 s. 59]. Stawiane hipotezy: zerowa (H0) oraz alternatywna (HA) przyjmują następującą postać [Aczel 2005 s. 711]: H0: zmiany stóp zwrotu indeksu są losowe, HA: zmiany stóp zwrotu indeksu nie są losowe. Sprawdzianem testu jest statystyka Z, która jeśli liczebność próby jest duża, ma standaryzowany rozkład normalny i następującą postać [Aczel 2005 s. 712]: Z= R − E( R̂ ) , σ( R̂ ) (4) gdzie: R to liczba serii, E( R̂ ) to wartość średnia liczby serii wyznaczona z formuły (5), a σ( R̂ ) to odchylenie standardowe liczby serii wyznaczone z formuły (6), [Domański, Pruska 2000 s. 209–211]: 2n1n 2 (5) E( R̂ ) = + 1, n1 + n 2 σ( R̂ ) = 2n 1n 2 ( 2n 1n 2 − n 1 − n 2 ) , ( n 1 + n 2 )2 ( n 1 + n 2 − 1) (6) przy czym n1 i n2 to liczba symboli dodatnich i ujemnych elementów w badanym szeregu. Gdy wartość bezwzględna zmiennej Z przekroczy wartość krytyczną 1,95996 przy przyjętym poziomie istotności α = 0,05, to należy odrzucić hipotezę zerową, iż szereg podlega procesowi błądzenia przypadkowego. W obliczeniach stosowano dzienne kursy zamknięcia, wykorzystując logarytmiczne stopy zwrotu (rt) indeksów giełdowych: WIG, WIG20, mWIG40 oraz sWIG80, wyznaczonych według formuły (3). 1888 Paweł Jamróz 4. Wyniki empiryczne uzyskane za pom mocą testu autok korelacji b dotyczy występowania w auutokorelacji na całym rynku akcjji, Pierwsza część badań a jaako najlepsze oddzwierciedlenie sytuacji panująącej na rynku wśród w wszystkicch spó ółek notowanych h na GPW przyyjęto szeroki inddeks WIG5 z podziałem na sześść okrresów: P1 od 31.12.1997 r. do 30.04.2009 3 r. ob bejmujący cały okres badania, naastęp pnie został on podzielony p na po odokresy ze wzgględu na występuującą koniunkturrę rynkową (por. wykrres 1.); P2 od 31.12.1997 r. do 12.10.1998 r. tenddencja spadkowaa; r do 27.03.2000 r. tendencja wzzrostowa (bańka internetowa); P4 P P3 od 13.10.1998 r. o 07.10.2002 r. teendencja spadkow wa (bessa); P5 odd 08.10.2002 r. do d od 28.03.2000 r. do ncja wzrostowa (hossa); P6 od 100.07.2007 r. do 30.04.2009 3 r. ten n09.007.2007 r. tenden den ncja spadkowa (bessa b ). WYKRES 1. 1 Notowania kursu zamknięęcia indeksu WIG z obrotami (w tys. zł) w okresie: od 31.12.1997 3 r. do 30.04.2009 r. Źró ódło: Opracowaniee własne. Tabela 1. przedstawia wyniki ob bliczeń współczyynników autoko orelacji oraz statyystykki Q* Ljunga-Boxa, przyjmując za z maksymalną ddługość opóźnieenia k = 25 okreesów w6. Pogrubioną czcionką c i zacien niowanym obszarrem zaznaczono o te wartości, któ óre wskazują w na odrzzucenie hipotezyy zerowej, co jestt równoznaczne ze stwierdzeniem m wysstępowania autokkorelacji k-tego rzędu. W testacch na występowaanie autokorelaccji 5 Indeks WIG jest indeksem dochodo owym i przy jego o obliczaniu uwzględn nia się zarówno cen ny zawaartych w nim akcji, jak i dochody z dyw ywidend i praw pobo oru. Por.: Dokumen nt elektroniczny, tryyb dosttępu: [http://www.ggpw.pl, data wejścia: 17.08.2009 r.]. 6 Przy obliczaniu ws spółczynników auto okorelacji na przykłaad W. Tarczyński jakko maksymalną liczb bę opóźnień przyjmuje ¼ długości d badanego okresu. o Zob.: [Tarczzyński 2002 s. 145–1150]. Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ... 189 stawia się hipotezy: zerową (H0) oraz alternatywną (HA) o następującej postaci [Witkowska, Matuszewska, Kompa 2008 s. 98]: H0 : ρk = 0, HA : ρk ≠ 0. Zatem, w hipotezie zerowej zakłada się, iż współczynnik autokorelacji jest równy zeru, czyli nie występuje autokorelacja, natomiast w hipotezie alternatywnej zakłada się, że autokorelacja w analizowanym szeregu występuje i może być dodatnia bądź ujemna. W analizowanym okresie P1 można zauważyć, że istotne statystycznie okazały się autokorelacje rzędów dla k = 1, 9, 10, 13, 14, 15, 17, 20, 25, zaś statystyka LjungaBoxa jest istotna dla wszystkich opóźnień, czyli występuje łączna autokorelacja. Stąd można stwierdzić, że w badanym okresie P1 polski rynek akcji nie podlegał procesowi błądzenia losowego. Wśród istotnych statystycznie współczynników autokorelacji przewagę stanowiły współczynniki dodatnie (6 dodatnich, 2 ujemne), które można interpretować następująco, iż wzrost kursu na poprzedniej sesji oznacza bardziej prawdopodobny wzrost kursu na bieżącej sesji. Świadczyć to może również o zbyt wolnej reakcji rynku na napływające informacje. Podobne wyniki uzyskali m.in. K. Jajuga [Metody ekonometryczne i statystyczne... 2000 s. 46–57] oraz A. Szyszka [Szyszka 2003 s. 98–102], mimo przyjętego przez nich krótszego okresu badawczego. Autokorelacje pierwszego rzędu są istotne statystycznie również dla podokresów: P2, P5 i P6. Analiza istotnych współczynników autokorelacji w kolejnych podokresach: P2, P3, P4, P5 i P6 świadczy o tym, że w 12% przypadków stopy zwrotu indeksu WIG nie następowały w sposób całkowicie losowy, a więc ceny akcji nie były generowane przez proces błądzenia przypadkowego. Zwraca uwagę podokres P6, w którym to jedynie autokorelacje rzędu k = 1, 20 są istotne statystycznie. Zatem, można stwierdzić, że okres od 10 lipca 2007 r. do 30 kwietnia 2009 r. był najbliższy procesowi losowemu spośród badanych podokresów. Aby stwierdzić nieefektywność ryku akcji w formie słabej, należy pamiętać, że hipoteza o błądzeniu losowym jest hipotezą bardziej rygorystyczną niż hipoteza o słabej efektywności. Dlatego, zanim stwierdzi się brak efektywności rynku w formie słabej, należy zwrócić uwagę, iż otrzymane współczynniki autokorelacji są niewielkie, najwyższa wartość wynosi 0,1866, a zdecydowana większość 93,3% przyjmuje wartości poniżej 0,1. Niewątpliwie, na uzyskane wyniki miał wpływ przyjęty długi okres badawczy, który to cechował się silnymi wahaniami rynkowymi. Kolejną kwestią jest trwałość uzyskanych korelacji, jedynie współczynniki autokorelacji rzędu k = 1, 10, 17, 20 i 25 powtórzyły się w wyodrębnionych podokresach, czyli można stwierdzić, iż większość występujących korelacji nie ma trwałego charakteru. Natomiast, ostatni okres P6 wskazuje o zanikaniu tych zależności, co może świadczyć o wzroście efektywności rynku w ostatnich latach. Wartości współczynników autokorelacji przyjmują niskie wartości, tak więc po uwzględnieniu kosztów transakcji i analiz może okazać się, z ekonomicznego punktu widzenia, że niemożliwe jest osiąganie ponadprzeciętnych zysków ze znajomości tych zależności [Fama 1970 s. 393–394]. -0,0035 0,0151 0,0020 -0,0001 -0,0202 -0,0199 -0,0031 0,0402 0,0450 0,0117 0,0025 0,0477 0,0340 0,0396 0,0004 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 55,0942 55,0937 50,4499 47,0298 40,2987 40,2806 39,8728 33,8662 29,0765 29,0475 27,8808 26,6780 26,6779 26,6661 25,9923 25,9560 -0,0856 0,0655 0,1194 0,1271 -0,0021 0,0664 0,1583 0,0468 -0,0102 -0,1007 -0,0762 -0,0509 -0,0460 -0,0247 0,0271 28,0553 26,4188 25,4646 22,3129 18,7560 18,7550 17,7957 12,3661 11,8940 11,8717 9,7105 8,4785 7,9315 7,4873 7,3599 7,2073 0,1866 0,0938 Q* ρ̂ k Q* ρ̂ k 1. k P2: 31.12.97– 12.10.98 P1: 31.12.97– 30.04.09 0,0481 0,0709 -0,0168 0,0282 -0,0289 -0,0289 0,1470 -0,0001 -0,0416 -0,0024 0,0091 0,0349 -0,0774 -0,0325 -0,1215 0,0593 ρ̂ k 23,4054 22,4817 20,4841 20,3724 20,0572 19,7273 19,3979 10,9161 10,9161 10,2405 10,2384 10,2064 9,7356 7,4219 7,0151 1,3478 Q* P3: 13.10.98– 27.03.00 0,0173 0,0089 0,0362 0,0246 0,1032 0,0512 -0,0301 0,0506 0,0105 0,0434 -0,0928 -0,0661 0,0454 -0,0056 0,0348 0,0359 ρ̂ k 25,9231 25,7190 25,6655 24,7783 24,3678 17,1721 15,4013 14,7902 13,0682 12,9948 11,7337 5,9773 3,0581 1,6832 1,6620 0,8568 Q* P4: 28.03.00– 07.10.02 -0,0197 0,0493 -0,0411 -0,0116 -0,0449 0,0150 -0,0219 0,0241 -0,0111 -0,0854 0,0541 0,0310 -0,0484 0,0282 0,0407 0,0657 ρ̂ k 35,4508 34,9624 31,9040 29,7802 29,6100 27,0767 26,7963 26,1940 25,4681 25,3143 16,1969 12,5444 11,3457 8,4234 7,4329 5,3720 Q* P5: 08.10.02– 09.07.07 Współczynniki autokorelacji stóp zwrotu indeksu WIG w wybranych okresach: P1, P2, P3, P4, P5 i P6 0,0188 0,0080 0,0618 0,0527 -0,0269 -0,0523 -0,0092 0,0362 -0,0108 -0,0135 -0,0519 0,0100 0,0694 0,0440 -0,0344 0,0941 ρ̂ k 15,0382 14,8670 14,8359 12,9951 11,6591 11,3120 10,0050 9,9648 9,3421 9,2866 9,1998 7,9234 7,8759 5,6075 4,6994 4,1454 Q* P6: 10.07.07– 30.04.09 TABELA 1. -0,0034 -0,0242 -0,0365 -0,0142 -0,0181 0,0352 0,0248 0,0557 18. 19. 20. 21. 22. 23. 24. 25. 83,8879 74,6668 72,8432 69,1648 68,1943 67,5991 63,6378 61,9006 61,8661 0,1427 0,0362 -0,0013 -0,0292 -0,0389 -0,0012 -0,0425 -0,0504 -0,1445 39,3605 34,5825 34,2773 34,2769 34,0806 33,7337 33,7333 33,3225 32,7489 -0,0714 -0,0114 0,0700 -0,0049 0,0254 -0,0588 -0,0252 0,0309 -0,0882 Źródło: Obliczenia własne przy użyciu programu GRETL. -0,0478 17. 32,9454 30,8623 30,8089 28,8144 28,8048 28,5437 27,1508 26,8963 26,5132 0,0998 0,0338 0,0138 -0,0087 -0,0378 -0,0630 -0,1168 -0,0320 -0,0750 51,2940 44,4284 43,6422 43,5109 43,4593 42,4823 39,7663 30,4528 29,7533 0,0415 0,0141 0,0175 -0,0751 0,0157 0,0060 -0,0213 -0,0398 0,0007 48,3308 46,1429 45,8912 45,5056 38,3725 38,0596 38,0145 37,4444 35,4515 0,0643 0,0077 0,0214 0,0053 -0,0275 -0,0958 0,0246 0,0444 0,0043 23,4589 21,4169 21,3877 21,1619 21,1480 20,7785 16,2970 16,0035 15,0472 0,0537 -0,0167 -0,0391 16. 17. 0,0389 10. 15. 0,0150 9. 0,0226 0,0212 8. 14. -0,0584 7. 0,0490 -0,0109 6. 13. -0,0189 5. 0,0101 0,0204 4. -0,0108 -0,0168 3. 12. 0,0350 2. 11. 0,0046 ρ̂ k 46,9404 42,3970 41,5647 33,0051 31,4930 24,3795 24,0354 23,7320 19,2406 18,5761 17,2477 7,1435 6,7927 5,7421 4,5142 3,6781 0,0617 Q* P1: 31.12.97–20.04.09 1. k -0,0779 -0,0603 0,0752 0,0955 0,1132 0,0548 0,0506 0,1353 -0,0747 0,0195 -0,1382 0,0317 -0,1252 0,0275 -0,0227 26,3984 25,0341 24,2218 22,9660 20,9488 18,1298 17,4734 16,9156 12,9510 11,7486 11,6675 7,5935 7,3800 4,0719 3,9128 3,8055 1,2684 -0,0783 0,1104 Q* ρ̂ k P2: 31.12.97–12.10.98 -0,0726 -0,0220 0,1319 -0,0323 0,0584 -0,1187 0,0655 0,0558 0,0124 0,0382 -0,0732 -0,0262 0,0259 0,0105 -0,1214 0,0448 -0,0294 ρ̂ k 28,7490 26,6921 26,5031 19,7622 19,3585 18,0433 12,6288 10,9863 9,7949 9,7360 9,1799 7,1496 6,8899 6,6374 6,5960 1,0718 0,3219 Q* P3: 13.10.98–13.03.00 -0,0595 -0,0070 0,0335 0,0186 0,0412 0,0482 0,0183 0,0005 0,0056 0,0482 -0,0144 -0,0630 -0,0304 0,0404 -0,0271 0,0450 0,0028 ρ̂ k 16,9576 14,1030 14,0641 13,1645 12,8869 11,5255 9,6673 9,3988 9,3986 9,3733 7,5271 7,3621 4,2092 3,4744 2,1836 1,6034 0,0064 Q* P4: 14.03.00–17.03.03 0,0126 -0,0133 0,0517 -0,0282 -0,0218 -0,0328 0,0182 -0,0305 0,0318 -0,0150 -0,0856 0,0418 0,0019 -0,0440 -0,0129 0,0334 0,0277 ρ̂ k 25,4363 25,2407 25,0254 21,7633 20,7924 20,2122 18,8977 18,4962 17,3619 16,1289 15,8560 6,9548 4,8313 4,8270 2,4822 2,2799 0,9282 Q* P5: 18.03.03–29.10.07 Współczynniki autokorelacji stóp zwrotu indeksu WIG20 w wybranych okresach: P1, P2, P3, P4, P5 i P6 -0,0023 0,0113 0,0008 0,0513 0,0580 -0,0360 -0,0617 0,0024 0,0380 -0,0297 -0,0396 -0,0685 0,0004 0,0301 0,0454 -0,0809 0,0617 ρ̂ k 13,0934 13,0913 13,0399 13,0396 11,9785 10,6266 10,1069 8,5857 8,5834 8,0108 7,6606 7,0418 5,1921 5,1920 4,8376 4,0319 1,4796 Q* P6: 30.10.07–30.04.09 TABELA 2. 0,0308 0,0103 0,0784 23. 24. 25. 80,7744 62,4712 62,1539 59,3356 54,7553 54,6636 48,7591 47,2907 0,1669 -0,0355 0,0114 -0,0376 0,0432 -0,0658 0,0220 -0,1013 37,4356 30,8940 30,6005 30,5701 30,2428 29,8147 28,8244 28,7148 -0,0016 -0,0482 0,0607 -0,0256 0,0156 -0,0262 -0,0227 0,0393 Źródło: Obliczenia własne przy użyciu programu GRETL. 0,0056 -0,0392 -0,0446 20. 22. -0,0222 19. 21. -0,0109 18. 32,5664 32,5654 31,6407 30,1783 29,9198 29,8242 29,5545 29,3526 0,1226 0,0354 0,0313 -0,0225 -0,0237 -0,0665 -0,1029 -0,0492 45,9411 33,7069 32,6911 31,8943 31,4853 31,0321 27,4535 18,9093 0,0265 -0,0165 -0,0070 -0,0686 0,0029 -0,0142 -0,0053 -0,0279 33,7212 32,8578 32,5229 32,4624 26,6792 26,6689 26,4231 26,3891 0,0650 0,0417 0,0352 -0,0259 0,0194 -0,0981 0,0116 0,0440 21,2861 19,5311 18,8133 18,3016 18,0258 17,8720 13,9372 13,8821 0,1223 0,0745 0,0440 0,0650 0,0133 -0,0122 -0,0361 0,0365 0,0447 0,0818 0,0214 -0,0138 0,0552 0,0596 0,0511 -0,0036 -0,0428 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. ρ̂ k 147,9314 142,4957 142,4562 134,7101 124,1636 115,1191 114,5585 113,2015 93,3923 87,4907 83,5541 79,7106 79,2724 78,7480 66,2671 60,5611 44,1600 Q* P1: 31.12.97–30.04.09 1. k -0,1158 -0,0872 0,0239 0,1138 0,0677 -0,0843 0,0026 0,1361 0,0698 0,0396 -0,1086 -0,0114 -0,0351 0,0181 -0,0626 34,3923 29,4681 26,6877 26,4796 21,7678 20,1080 17,5396 17,5372 10,8826 9,1368 8,5764 4,3781 4,3317 3,8946 3,7794 2,4012 1,4609 0,0646 0,0518 Q* ρ̂ k P2: 31.12.97–30.04.99 -0,0489 0,0133 0,1079 -0,0066 0,0233 0,0278 0,0409 0,1248 0,0163 0,0307 -0,0267 -0,0642 -0,0096 0,0595 0,0150 0,0505 0,0789 ρ̂ k 58,1642 55,4410 55,2404 42,0256 41,9762 41,3613 40,4876 38,5917 20,9914 20,6922 19,6303 18,8245 14,1762 14,0721 10,0900 9,8374 6,9770 Q* P3: 03.05.99–13.08.03 -0,0055 -0,0123 0,0563 -0,0077 0,0350 0,0096 0,0296 0,0212 0,0210 0,0146 -0,0431 -0,0251 0,0376 -0,0295 0,0970 0,1025 0,1509 ρ̂ k 54,9460 54,9144 54,7578 51,5067 51,4458 50,1946 50,1000 49,2062 48,7481 48,2980 48,0813 46,1934 45,5502 44,1111 43,2306 33,6819 23,0450 Q* P4: 14.08.03–26.06.07 Współczynniki autokorelacji stóp zwrotu indeksu mWIG40 (d. MIDWIG) w wybranych okresach: P1, P2, P3, P4 i P5 -0,0127 0,0490 -0,0046 0,0540 0,0274 -0,0103 -0,0242 -0,0333 0,0156 0,0039 0,0018 0,0001 0,0286 0,1519 0,1306 0,0630 0,1800 ρ̂ k 41,0764 40,9964 39,8136 39,8031 38,3704 38,0026 37,9512 37,6662 37,1263 37,0084 37,0010 36,9994 36,9994 36,6052 25,5237 17,3574 15,4618 Q* P5: 27.06.07–30.04.09 TABELA 3. 0,0290 0,0033 -0,0257 -0,0226 0,0320 0,0102 0,0528 19. 20. 21. 22. 23. 24. 25. 168,1398 159,8593 159,5526 156,5128 154,9943 153,0262 152,9948 150,5056 0,0272 0,0161 -0,0084 -0,0950 -0,0522 -0,0073 0,0169 0,0417 39,9324 39,6541 39,5568 39,5306 36,1693 35,1565 35,1368 35,0318 Źródło: Obliczenia własne przy użyciu programu GRETL. 0,0294 18. 0,0600 -0,0047 0,0450 -0,0450 -0,0007 0,0146 0,0126 -0,0137 67,5795 63,4617 63,4367 61,1164 58,8033 58,8027 58,5593 58,3787 0,0238 0,0510 0,0403 -0,0098 0,0397 0,0194 -0,0102 -0,0060 62,1647 61,5787 58,8818 57,2007 57,1024 55,4785 55,0900 54,9837 0,0440 -0,0552 0,0152 0,0315 -0,1106 -0,0526 0,0520 0,0308 53,4717 52,4969 50,9712 50,8556 50,3595 44,2618 42,8850 41,5450 0,0271 0,0269 0,0593 0,0395 0,0772 0,0548 11. 12. 13. 14. 15. 16. 0,0159 7. 0,0741 0,0453 6. 10. 0,0770 5. 0,0235 0,0791 4. 0,0647 0,1035 3. 9. 0,0426 2. 8. 0,1758 ρ̂ k 1. k 247,2983 238,3945 220,7384 216,1091 205,6748 203,5346 201,3585 185,0967 172,7241 171,0843 170,3367 164,2681 146,7588 128,2805 96,6469 91,2827 Q* P1: 31.12.97– 30.04.09 -0,0056 0,0190 0,0721 0,0469 -0,0376 0,0195 0,1622 0,0824 -0,0393 -0,0885 0,0365 0,0475 0,0124 0,0804 17,8674 17,8603 17,7799 16,6288 16,1455 15,8363 15,7531 10,0528 8,5907 8,2591 6,5900 6,3072 5,8316 5,7991 4,4466 3,7143 0,1339 -0,0593 Q* ρ̂ k P2: 31.12.97– 12.10.1998 0,0594 0,0981 -0,0089 0,0187 0,0521 0,0238 0,0432 -0,0117 -0,0425 -0,0213 0,0107 0,0901 0,0220 -0,0244 -0,0933 0,0594 ρ̂ k 22,7484 20,8370 15,6362 15,5935 15,4061 13,9457 13,6431 12,6444 12,5707 11,6098 11,3691 11,3079 7,0081 6,7515 6,4376 1,8541 Q* P3: 13.10.98– 12.10.00 0,0769 0,0526 -0,0349 -0,0123 0,0074 -0,0123 -0,0018 -0,0192 0,0342 0,0124 0,0257 -0,0460 0,0232 0,0032 0,0051 0,0764 ρ̂ k 12,4334 8,9143 7,2716 6,5489 6,4588 6,4261 6,3365 6,3346 6,1176 5,4319 5,3417 4,9551 3,7181 3,4056 3,3997 3,3845 Q* P4: 13.10.00– 30.12.02 0,0307 0,0832 -0,0007 0,0749 0,0130 0,0204 0,0356 0,0604 0,0249 -0,0242 0,0191 0,0560 0,0402 0,1398 0,1197 0,2156 ρ̂ k 125,3201 124,1941 115,9108 115,9102 109,2055 109,0041 108,5091 107,0015 102,6597 101,9228 101,2280 100,7937 97,0698 95,1572 71,9892 55,0142 Q* P5: 31.12.02– 09.07.07 Współczynniki autokorelacji stóp zwrotu indeksu sWIG80 (d. WIRR) w wybranych okresach: P1, P2, P3, P4, P5 i P6 0,0293 -0,0075 0,0197 -0,0020 -0,0372 -0,0452 -0,0126 0,0463 0,0213 0,0628 0,0197 0,0413 0,1351 0,1288 0,0503 0,1994 ρ̂ k 42,6355 42,2207 42,1933 42,0055 42,0036 41,3386 40,3605 40,2842 39,2654 39,0495 37,1810 36,9980 36,1912 27,5981 19,7963 18,6095 Q* P6: 10.07.07– 30.04.09 TABELA 4. 0,0332 0,0638 0,0376 0,0211 0,0152 0,0445 0,0458 0,0452 18. 19. 20.. 21. 22. 23. 24. 25. 287,1863 281,1000 274,8510 268,9676 268,2826 266,9596 262,7574 250,6578 247,3934 0,0470 -0,0408 -0,0218 -0,0140 -0,0110 0,0069 0,0244 -0,0271 -0,0691 20,3434 19,8244 19,4359 19,3255 19,2799 19,2522 19,2415 19,1058 18,9395 -0,0270 0,0765 0,0266 -0,0673 0,0025 0,0327 0,0461 0,0414 -0,0519 Źródło: Obliczenia własne przy użyciu programu GRETL. 0,0057 17. 33,3876 32,9860 29,7659 29,3761 26,8921 26,8888 26,3037 25,1469 24,2129 0,0301 0,0456 0,0194 0,0018 0,0348 0,0153 0,0108 -0,0257 0,0508 17,3422 16,7922 15,5381 15,3112 15,3092 14,5820 14,4410 14,3717 13,9758 0,0287 0,0182 0,0391 -0,0083 0,0568 0,0653 0,0246 0,0078 0,0064 138,4973 137,5011 137,1025 135,2615 135,1784 131,3022 126,1702 125,4427 125,3688 0,0515 0,0057 0,0040 0,0465 -0,0807 -0,0438 0,0894 0,0148 0,0089 53,1829 51,8762 51,8603 51,8526 50,7938 47,6123 46,6753 42,7808 42,6739 1988 Paweł Jamróz Następnym, baddanym rynkiem był rynek spó ółek dużych za pomocą indekssu WIG207, który skłłada się z akcji 20 największych h i najbardziej płynnych spółeek odstawowego ryynku akcji. Na po odstawie notowaań WIG20 (zob. wykres 2.) doko oz po nan no podziału na podokresy, p ze względu na występującą koniunktuurę rynkową. WYKRES 2. 2 k zamknięccia indeksu WIG G20 z obrotamii (w tys. zł) Notowania kursu w okresie o od 31.122.1997 roku do 30.04.2009 roku u Źró ódło: Opracowaniee własne. Cały okres badaania indeksu WIIG20 obejmowaał, analogicznie jak przy WIG-uu, okrres od 31.12.19977 r. do 30.04.20009 r. oznaczony jjako P1. Następn nie cały okres zo ostałł podzielony na podokresy: P2 od 31.12.1997 rr. do 12.10.1998 r. spadki; P3 od o 13.110.1998 r. do 133.03.2000 r. wzro osty; P4 od 14.033.2000 r. do 17.003.2003 r. spadkki; P5 od 18.03.2003 r. r do 29.10.2007 r. wzrosty i P6 od 30.10.2007 r.. do 30.04.2009 r. w nspadki. Wartości współczynników autokorelacji orraz statystyki Q* Ljunga-Boxa in dekksu WIG20 przeddstawia tabela 2. W okresie P1 isstotne statystyczn nie (α = 0,05) sąą współczynnikii autokorelacji dlla opó óźnień rzędu k = 7, 10, 13, 15, 17, 20, 22, i 25, natomiast 50% istotnych współłczynników jest doddatnich. Z kolei, statystyka Ljungga-Boxa jest isto otna dla k = 7–225 o P1, natomiast w podokrresie P2 nieistottna, w P3 istotna dla k = 15–188, w okresie w P4 P istotna dla k = 19 i 25, w P5 istotna dla k = 7––10, a w podokrresie P6 wszystkiie stattystyki Q* są nieistotne statystyczznie. 7 WIG20 jest indek ksem typu cenowego o, co oznacza, że prrzy jego obliczaniu bierze się pod uwaggę jedyynie ceny zawartych w nim transakcji, a nie uwzględnia się dochodów z akcji, takich jak dywidend dy czy prawa poboru. Porr.: Dokument elekttroniczny, tryb dosttępu: [http://www.gpw.pl, data wejściia: 17.008.2009 r.]. Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ... 199 Otrzymane wyniki pozwalają odrzucić hipotezę błądzenia losowego. Uwagę zwraca ostatni okres P6, w którym to wszystkie autokorelacja są nieistotne, stąd podokres ten jest najbliższy procesowi losowemu, podobnie jak dla indeksu giełdowego WIG. W podokresach: P2, P3, P4, P5 i P6 współczynniki autokorelacji istotne statystycznie stanowiły zaledwie 7,2% wszystkich współczynników w analizowanych okresach. Uzyskane korelacje cechują się niskimi wartościami oraz brakiem trwałości występowania. Należy również pamiętać, interpretując wyniki, że na współczynniki korelacji duży wpływ wywierają obserwacje nietypowe. Analizując współczynniki autokorelacji rynku spółek małych i średnich za pomocą indeksów: sWIG808 i mWIG409, należy stwierdzić, iż ich stopy zwrotu nie podlegają procesowi losowemu w badanych okresach (zob. tabele: 3. i 4.). W przypadku indeksu sWIG80 łącznie dla okresów: P1, P2, P3, P4, P5 i P6 przewagę stanowiły (96,7%) współczynniki dodatnie. Z kolei, dla indeksu mWIG40 łącznie dla okresów: P1, P2, P3, P4 i P5 istotne współczynniki dodatnie stanowiły 82,8%. Statystyka Ljunga-Boxa dla indeksu sWIG80 była statystycznie istotna w całym okresie badawczym P1 oraz podokresach: P5 i P6. Co ciekawe, w odniesieniu do rynku małych spółek, najbliższe procesowi błądzenia losowego były podokresy: P2, P3 i P4, w których to zanotowano łącznie jedynie 6,7% istotnych współczynników autokorelacji. Istotne autokorelacje dla indeksu mWIG40 występowały łącznie we wszystkich podokresach w 23,2% przypadkach, z przewagą dodatnich współczynników (24 dodatnich, 5 ujemnych). Natomiast statystyki Q* dla indeksu mWIG40 były istotne we wszystkich podokresach, co pozwala odrzucić losowość zmian stóp zwrotu, oprócz okresu P2 i opóźnień rzędu k = 1–9. 5. Wyniki empiryczne uzyskane za pomocą testu serii Wyniki testu serii dla czterech indeksów przedstawia tabela 5., pogrubioną czcionką oraz zacieniowanym obszarem oznaczono przypadki, które znalazły się w obszarze odrzucenia. W przypadku indeksu WIG nie ma podstaw do odrzucenia hipotezy zerowej o tym, że proces podlega błądzeniu losowemu w badanym okresie P1 oraz podokresach: P2, P3, P4, P5 i P6. Analogiczne wyniki uzyskano dla rynku największych spółek, otóż stopy zwrotu indeksu WIG20 we wszystkich analizowanych okresach podlegały błądzeniu losowemu. Natomiast dla indeksu sWIG80 w okresach: P1, P4, P5 i P6 odrzucono hipotezę zerową o losowości zmian stóp zwrotu indeksu. 8 Indeks sWIG80 do dnia 16.03.2007 r. nosił nazwę WIRR, jest indeksem cenowym i przy jego obliczaniu bierze się pod uwagę jedynie 80 małych spółek, wchodzących w jego skład, spośród spółek notowanych na parkiecie. W indeksie sWIG80 nie uczestniczą spółki z indeksów: WIG20 i mWIG40 oraz spółki zagraniczne notowane na giełdzie oraz innych rynkach o kapitalizacji w dniu rankingu powyżej 100 mln euro. Por.: Dokument elektroniczny, tryb dostępu: [http://www.gpw.pl, data wejścia: 17.08.2009 r.]. 9 Indeks mWIG40 jest obliczany od 31.12.1997 r. i obejmuje 40 średnich spółek notowanych na giełdzie, jest indeksem cenowym. Do dnia 16.03.2007 r. indeks nosił nazwę MIDWIG. W indeksie mWIG40 nie uczestniczą spółki z indeksów: WIG20 i sWIG80 oraz spółki zagraniczne notowane na giełdzie oraz innych rynkach o kapitalizacji w dniu rankingu powyżej 1 mld euro. Por.: Dokument elektroniczny, tryb dostępu: [http://www.gpw.pl, data wejścia: 17.08.2009 r.]. 0,81077 -0,23943 0,56803 0,57095 0,0000 -7,8275 0,0000 -5,4157 0,26145 -1,1229 0,77891 0,280745 0,09209 -1,68447 p-value 0,628497 Z -0,48384 P2: 31.12.97–30.04.99 p-value Z P2: 31.12.97–12.10.1998 p-value Z P2: 31.12.97–12.10.98 p-value Z P2: 31.12.97–12.10.98 0,355175 p-value 0,91708 p-value 0,56936 p-value -1,61572 Z 0,106154 p-value P3: 03.05.99–13.08.03 -0,568995 Z P3: 13.10.98–12.10.00 0,104116 Z P3: 13.10.98–13.03.00 0,924598 Z P3: 13.10.98–27.03.00 Źródło: Obliczenia własne przy użyciu programu GRETL. p-value Z mWIG40 P1: 31.12.97– 30.04.09 p-value Z sWIG80 P1: 31.12.97– 30.04.09 p-value Z WIG20 P1: 31.12.97– 30.04.09 p-value Z P1: 31.12.97–30.04.09 WIG 0,086529 p-value 0,2113 p-value 0,00309 p-value -4,44108 Z 0,0000 p-value P4: 14.08.03–26.06.07 -2,9583 Z P4: 13.10.00–30.12.02 -1,25 Z P4: 14.03.00–17.03.03 -1,714 Z P4: 28.03.00–07.10.02 0,15547 p-value 0,05349 p-value 0,0000 p-value -4,41408 Z 0,0000 p-value P5: 27.06.07– 30.04.09 -6,4654 Z P5: 31.12.02– 09.07.07 1,9309 Z P5: 18.03.03– 29.10.07 1,42048 Z P5: 08.10.02–09.07.07 Wyniki testów serii indeksów WIG, WIG20, sWIG80, mWIG40 w wybranych okresach: P1, P2, P3, P4, P5 i P6 0,21004 p-value 0,44399 p-value -4,41026 Z 0,0000 p-value P6: 10.07.07– 30.04.09 -0,76547 Z P6: 30.10.07– 30.04.09 -1,2534 Z P6: 10.07.07–30.04.09 TABELA 5. Weryfikacja słabej formy efektywności GPW za pomocą testu autokorelacji ... 201 Jedynie w podokresach: P2 i P3 nie ma podstaw do odrzucenia hipotezy. Indeks mWIG40 nie podlegał procesowi błądzenia losowego w okresach: P1, P4 i P5, z kolei w okresach: P2 i P3 nie było podstaw do odrzucenia hipotezy o losowości. W przypadkach odrzucenia hipotezy zerowej statystka Z przyjmuje wartości ujemne, co świadczy o istotnym występowaniu trendów, ponieważ w danych szeregach następuje mniej serii niż wynikałoby to z błądzenia losowego [Metody ekonometryczne i statystyczne... 2000 s. 60–61; Żebrowska-Suchodolska 2009 s. 65]. Uzyskane wyniki świadczą o tym, iż inwestując w sektorze małych i średnich przedsiębiorstw, można było uzyskiwać ponadprzeciętne stopy zwrotu. Wartość p (ang. p-value), czyli empiryczny współczynnik istotności, informuje, jakie jest prawdopodobieństwo popełnienia błędu I rodzaju, polegającego na odrzuceniu hipotezy zerowej, mimo że jest ona prawdziwa [Stanisz 1998 s. 146]. Interpretując otrzymane wyniki, należy stwierdzić, iż odrzucenie hipotezy zerowej o losowych zmianach stóp zwrotu indeksu WIG w okresie P1 wiąże się z popełnieniem błędu wynoszącym 81,077%, dlatego przy tak wysokim błędzie nie możemy hipotezy odrzucić. Natomiast, na przykład w podokresie P5, odrzucenie losowości zmian stóp zwrotu WIG-u wiąże się z błędem równym jedynie 15,547%. Zatem, im mniejsza jest wartość p, z tym większym przekonaniem możemy odrzucić hipotezę zerową o losowych zmianach stóp zwrotu analizowanych indeksów. Najwyższą wartość p osiągnęły zmiany stóp zwrotu WIG20 w podokresie P3, wynosząc 91,708%. 6. Podsumowanie Rozpatrując uzyskane wyniki dla całego okresu badawczego z wynikami dla podokresów wzrostów czy spadków wartości indeksów, wskazane jest wykonywanie badań oddzielnie dla okresów o różnej koniunkturze giełdowej. Podsumowując otrzymane wyniki, można zaobserwować zwiększającą się w czasie efektywność polskiego rynku akcji jako całości mierzonego indeksem WIG (por. podokresy: P2 i P6 w tabeli 1.), natomiast największą efektywność wykazują spółki duże z indeksu WIG20. Wyniki spółek małych i średnich z indeksów: sWIG80 i mWIG40 świadczą o przypadkach nieefektywności wśród tych firm, co może wyjaśniać na ich mniejszą efektywność informacyjną w formie słabej [Witkowska, Żebrowska-Suchodolska 2008 s. 155–164]. Mimo występujących nieefektywności w odniesieniu do segmentu małych i średnich spółek oraz istotnych statystycznie autokorelacji dużych spółek, to w podejściu praktycznym dla całości rynku uzyskane wyniki nie pozwalają jednoznacznie odrzucić występowania słabej efektywności polskiego rynku akcji. Prezentowane wyniki nasuwają szereg spostrzeżeń, którymi warto zająć się w przyszłych badaniach. Z jednej strony mogą być to badania nad zastosowaniem innych testów statystycznych, jak na przykład obecności pierwiastków jednostkowych czy teorii chaosu, a z drugiej wpływu czynników mikro- i makroekonomicznych na kształtowanie się cen na Giełdzie Papierów Wartościowych. 202 Paweł Jamróz Literatura Aczel A. D. 2005 Statystyka w zarządzaniu, Warszawa. Bachelier L. 1964 Theory of Speculation, [Tłumaczenie na język angielski zamieszczone w:] Cootner P. (ed.), The Random Character of Stock Market Prices, Cambridge. Czekaj J. Woś M., Żarnowski J. 2001 Efektywność giełdowego rynku akcji w Polsce. Z perspektywy dziesięciolecia, Warszawa. Domański C., Pruska K. 2000 Nieklasyczne metody statystyczne, Warszawa. Fama E. F. 1970 Efficient Capital Markets: A Review of Theory and Empirical Work, „Journal of Finance”, 25. Fama E. F. 1991 Efficient Capital Markets: II, „Journal of Finance”, 46. Haugen R. A. 1996 Teoria nowoczesnego inwestowania, Warszawa. Metody ekonometryczne i statystyczne w analizie rynku kapitałowego 2000, Jajuga K. (red.), Wrocław. Jóźwiak J., Podgórski J. 2000 Statystyka od podstaw, Warszawa. Kufel T. 2009 Ekonometria. Rozwiązywanie problemów z wykorzystaniem programu GRETL, Warszawa. Osińska M. 2006 Ekonometria finansowa, Warszawa. Stanisz A. 1998 Przystępny kurs statystyki w oparciu o program STATISTICA PL na przykładach z medycyny, Kraków. Szyszka A. 2003 Efektywność Giełdy Papierów Wartościowych w Warszawie na tle rynków dojrzałych, Poznań. Tarczyński W. 2002 Fundamentalny portfel papierów wartościowych, Warszawa. Witkowska D., Matuszewska A., Kompa K. 2008 Wprowadzenie do ekonometrii dynamicznej i finansowej, Warszawa. Witkowska D., Żebrowska-Suchodolska D. 2008 Badanie słabej formy efektywności informacyjnej GPW, [w:] Studia i Prace Wydziału Nauk Ekonomicznych i Zarządzania, nr 9, Szczecin. Żebrowska-Suchodolska D. 2009 Weryfikacja słabej formy efektywności za pomocą testów statystycznych na GPW w Warszawie, „Optimum. Studia Ekonomiczne”, 1 (41), Białystok. Dokument elektroniczny, tryb dostępu: [http://www.stat.gov.pl/gus/5840_1338_PLK_ HTML.htm, data wejścia: 30.04.2010 r.]. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Bogna GAWROŃSKA-NOWAK1 REŻIM KURSOWY A PRESJA KRYZYSOWA W WYBRANYCH GOSPODARKACH NOWYCH KRAJÓW CZŁONKOWSKICH UNII EUROPEJSKIEJ2 Streszczenie Przebieg światowego kryzysu finansowego z 2008 roku był zróżnicowany dla gospodarek Europy Środkowo – Wschodniej. Dylematy dotyczące wyboru odpowiedniego reżimu kursowego znów zyskują na aktualności wobec kryzysu strefy EURO oraz widocznych rozbieżności pomiędzy rozwiązaniami przyjętymi przesz nowych członków – w przypadku Bułgarii czy Litwy jest to izba walutowa, Łotwy – kurs sztywny, podczas gdy Czechy i Polska mają kursy płynne. Jednak w literaturze można znaleźć wiele ambiwalentnych ocen dotyczących znaczenia reżimu kursowego dla tzw. makroekonomicznej stabilności kraju, a więc również dla prawdopodobieństwa wystąpienia ataku spekulacyjnego czy pojawienia się zjawiska kryzysu. W niniejszym opracowaniu podjęto próbę zidentyfikowania napięć na rynku walutowym dla wybranych przypadków krajów transformowanych różniących się reżimem kursowym. Celem badania jest zaobserwowanie pewnych tendencji wskazujących na brak lub istnienie relacji pomiędzy typem reżimu a wzmożoną presją. Dane użyte dla potrzeb analizy pochodzą z International Financial Stastistics Międzynarodowego Funduszu Walutowego oraz z bazy OECD. Są to dane miesięczne dla: Bułgarii, Czech, Litwy, Łotwy i Polski i obejmują okres: styczeń 1996 – grudzień 2009. Wszystkie kraje, objęte badaniem, spełniają następujące kryteria: należą do grupy europejskich gospodarek transformowanych, pozostają poza strefą EURO aspirując do niej (choć z różnym zaangażowaniem) i mają skrajnie różne reżimy kursowe. Słowa kluczowe: reżim kursowy, wskaźnik presji rynkowej, kryzys walutowy, kraje transformowane EXCHANGE REGIME AND CRISIS PRESSURE IN SELECTED ECONOMIES OF NEW EU MEMBER STATES Summary The course of the global financial crisis of 2008 was different for the economies of Central and Eastern Europe. The dilemmas concerning a choice of an appropriare exchange regime are beginning to gain currency again in the crisis situation connected with the area of EURO and visible divergences between solutions adopted by new member states; in the case of Bulgaria or Lithuania we have to do with clearing exchange, Latvia – fixed rate of exchange, whereas the Czech Republic and Poland have floating exchange rates. However, it is possible to find in literature many ambivalent assessments of the importance of the exchange regime for the so-called macroeconomic stability of the country, and conDr Bogna Gawrońska-Nowak, Wyższa Szkoła Handlu i Prawa im. R. Łazarskiego. Artykuł powstał jako rezultat badań finansowanych przez środki przyznane autorce przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach projektu badawczego: „Efektywność interwencji walutowej dla gospodarek zbliżonych do warunków polskich” (N N113 270637). 1 2 204 Bogna Gawrońska-Nowak sequently, also for the possibility of a real chance of the emergence of speculations or crisis phenomena. In this article an attempt has been made to identify tensions on the currency market for selected cases of transformed countries of different exchange regime. This research is aimed at observing certain tendencies indicating lack or existence of relations between the regime type and increased pressure. The applied data was taken from International Financial Stastistics by the International Monetary Fund and from the OECD data base. This is monthly data for Bulgaria, The Czech Republic, Lithuania, Latvia and Poland and it covers the period between January 1996 and December 2009. All the countries in question meet the following criteria: they belong to the group of European economies being under transformation, they remain outside the EURO area, aspiring to it, (although with different degree of commitment) and they have totally different exchange regimes. Keywords: exchange regime, market pressure index, monetary crisis, countries undergoing transformation 1. Wstęp Jak wiadomo, światowy kryzys finansowy z 2008 roku miał różny przebieg w gospodarkach krajów transformowanych. Jeśli porównamy skalę recesji w tych krajach, to Polska odnotowała pozytywne tempo wzrostu gospodarczego, podczas gdy Łotwa i Litwa podlegały wysokim spadkom PKB, jednym z najwyższych w Europie i na świecie. Powstaje więc pytanie, w jakim stopniu zróżnicowane strategie rozwoju tych krajów, ich różne rozwiązania w zakresie polityki gospodarczej – szerzej – różnice w ich makroekonomicznym otoczeniu czy wreszcie odrębne charakterystyki ich sektorów bankowych przyczyniły się do innego przebiegu światowego kryzysu w tych krajach. W ramach tej całej, obszernej grupy potencjalnych czynników kryzysogennych na zainteresowanie zasługują wyraźne różnice w ramach przyjętych, w tych gospodarkach reżimów kursowych. Na przykład w przypadku Bułgarii czy Litwy – izba walutowa, Łotwy – kurs sztywny, podczas gdy Czechy i Polska mają kursy płynne. W literaturze można znaleźć wiele ambiwalentnych ocen dotyczących znaczenia reżimu kursowego dla tzw. makroekonomicznej stabilności kraju, a więc również dla prawdopodobieństwa wystąpienia ataku spekulacyjnego czy pojawienia się zjawiska kryzysu. Trudno znaleźć wystarczająco przekonujący materiał teoretyczny czy empiryczny, który pozwalałby na jednoznaczną interpretację znaczenia reżimu kursowego dla wzmacniania bądź osłabiania podatności gospodarki na zjawiska kryzysowe. Biorąc powyższe przesłanki, warto przyjrzeć się temu zagadnieniu dla wybranych krajów transformowanych, tzw. nowych członków UE. Struktura niniejszego opracowania jest następująca. W punkcie drugim dokonano krótkiego przeglądu literatury dotyczącego relacji pomiędzy reżimem kursu walutowego a podatnością gospodarek na kryzys (w szczególności w odniesieniu do gospodarek wschodzących). W punkcie trzecim, korzystając z konstrukcji wskaźnika presji rynkowej (Exchange Market Pressure), [Eichengreen, Rose, Wyplosz 1986], zidentyfikowano momenty napięć na rynku walutowym dla wybranych przypadków krajów transformowanych różniących się reżimem kursowym. Chodziło tutaj o zaobserwowanie pewnych tendencji wskazujących na brak lub istnienie relacji pomiędzy typem reżimu a wzmożoną presją. Punkt trzeci zawiera krótkie podsumowanie. Reżim kursowy a presja kryzysowa w wybranych gospodarkach... 205 Dane użyte dla potrzeb analizy pochodzą z International Financial Stastistics Międzynarodowego Funduszu Walutowego oraz z bazy OECD. Są to dane miesięczne dla: Bułgarii, Czech, Litwy, Łotwy i Polski i obejmują okres: styczeń 1996 – grudzień 2009. Wszystkie kraje, objęte badaniem, spełniają następujące kryteria: należą do grupy europejskich gospodarek transformowanych, pozostają poza strefą EURO, aspirując do niej (choć z różnym zaangażowaniem) i mają skrajnie, różne reżimy kursowe. W przypadku Węgier, które nie zostały uwzględnione w badaniu, zachodził problem z pełną dostępnością danych o wymaganej częstotliwości. Ponadto, reżim kursowy Węgier należy zaklasyfikować jako reżim pośredni, co utrudnia weryfikację hipotezy na temat roli reżimów kursowych w ich wyraźnie spolaryzowanym ujęciu. 2. Reżim kursowy a kryzys – rozwiązania dla krajów wschodzących Zgodnie z historycznym podejściem Mundella [Mundell 1963], utrata autonomii w ramach polityki monetarnej pociąga za sobą również utratę możliwości neutralizowania efektów szoków realnych. Zatem, rozstrzygnięcie na rzecz sztywnego lub płynnego kursu jest determinowane (obok stopnia mobilności kapitału) charakterem doświadczanych przez gospodarkę szoków – przed realnym lepiej chroni kurs płynny, a przed nominalnymi kurs sztywny [Bordo 2003]. Jednak, jeśli próbować doprecyzować te prawidłowości, koncentrując się na wpływie danego reżimu kursowego na możliwość pojawienia się kryzysu finansowego czy walutowego, to istniejący dorobek publikacyjny obejmuje wiele rozbieżnych ocen. Przedstawiane następnie kwestie sporne odnoszą się głównie do skrajnych rozstrzygnięć pomiędzy kursem sztywnym a kursem płynnym, chociaż, jak powszechnie wiadomo, bogactwo rozwiązań kursowych obejmuje wiele różnych kategorii, w tym również rozwiązań pośrednich3. Argumenty przemawiające za faworyzowaniem skrajnych reżimów kursowych można znaleźć u Bordo [Bordo 2003] czy Frankela [Frankel 2003]4: – słynna zasada „Wykluczającej się Trójcy” (Impossible Trinity) wskazująca na konieczność wyeliminowania jednego z trzech celów, niemożliwych w pełnym ich zestawie do realizacji: stabilności kursu walutowego, integracji rynków finansowych i niezależności monetarnej; – niebezpieczeństwo związane z nieczytelnością przekazu płynącego z reżimów pośrednich i w tym sensie podważającego wiarygodność tej polityki; 3 Frankel [Frankel 2003 s. 5] wyróżnia aż 9 różnych podstawowych kategorii reżimów kursowych (w tym cztery reżimy pośrednie obejmujące jeszcze ich pochodne odmiany). MFW, w swojej klasyfikacji, de facto z 2006 r. posługuje się 8 głównymi odmianami reżimów. Zob.: Dokument elektroniczny, tryb dostępu: [http://www.imf.org/external/np/mfd/er/2006/eng/0706.htm]. 4 Jak przypomina Eichengreen [Eichengreen 2008], autorem pionierskiego opracowania wskazującego na możliwość polaryzowania rozwiązań kursowych, jako naturalnie zarysowującej się tendencji, jest Swoboda [Swoboda 1986] oraz Genberg i Swoboda [Genberg, Swoboda 1987]. Traktowali oni bowiem wzrastającą mobilność kapitału jako czynnik zmuszający kraje do rezygnacji z rozwiązań pośrednich. 206 Bogna Gawrońska-Nowak – zalecenia płynące do Międzynarodowego Funduszu Walutowego, by kierować środki do tych krajów, które decydują się na skrajne modele reżimu kursowego. Jaka jest zatem rola sztywnego kursu walutowego w mechanizmie generowania kryzysu w gospodarkach rozwijających się czy wschodzących? Proces powstawania presji kryzysowej zaczyna się tutaj od naturalnej potrzeby każdej transformowanej gospodarki, jaką jest zwiększenie wiarygodności w relatywnie łatwy sposób i w możliwie krótkim czasie. Usztywnienie kursu wydaje się być optymalnym rozwiązaniem. Dla porównania, realizowanie polityki celu inflacyjnego wymaga więcej wysiłków, choćby w zakresie budowania instytucjonalnej i rzeczywistej niezależności Banku Centralnego, co musi iść w parze z utrzymaniem dyscypliny fiskalnej, a wiarygodność jest uzyskiwana stopniowo i mozolnie, zgodnie z wymiernym postępem osiąganym w walce z inflacją. Przyjęcie kursu sztywnego czy izby walutowej pozornie oferuje mniej złożone uwarunkowania, sprowadza je właściwie do poprawnego wyboru parytetu i dysponowania odpowiednim poziomem rezerw, przy jednoczesnej zgodzie na rezygnację z polityki monetarnej, jako aktywnego narzędzia interwencji. Wstępne sukcesy w zachodzących przeobrażeniach gospodarczych, tj. dobre wyniki makroekonomiczne, widocznie satysfakcjonujące efekty rozpoczętych reform, stanowią zazwyczaj dodatkową zachętę do przyjęcia sztywnego kursu i stwarzają korzystne perspektywy na jego utrzymanie w przyszłości. Już wkrótce samopoczucie polityków ulega dalszej poprawie, gdyż decyzja o usztywnieniu kursu zaczyna szybko przekładać się na zwiększony napływ kapitału, tak niezbędny dla dynamicznego rozwoju kraju. W konsekwencji, rodzima waluta podlega procesowi realnej aprecjacji i następuje kumulacja deficytu rachunku obrotów bieżących w czasie. Ta sytuacja nie musi jednak stanowić automatycznego zagrożenia kryzysem, jeżeli poziom deficytu podlega realnej ocenie i kontroli. Jest to jednak trudne w warunkach sztywnego kursu, gdyż taki reżim wytwarza atmosferę bezkarności, poczucie zamrożenia w czasie całego otoczenia makroekonomicznego, stabilności „podarowanej jakby raz na zawsze”. Iluzji tej ulegają zarówno politycy gospodarczy, jak i inwestorzy. Ci pierwsi tolerują zbyt długo drastycznie wysokie poziomy deficytów oraz nie szukają dodatkowych rozwiązań regulacyjnych, chroniących stabilność systemu finansowego w kraju (system jest stabilny per se tylko z samego powodu istnienia sztywnego kursu). Ci drudzy zaś pozwalają sobie na ignorowanie sygnałów płynących z gospodarki, nawet wobec systematycznie narastającej aprecjacji realnej i w związku z tym również nie podejmują żadnych działań zabezpieczających w postaci transakcji terminowych czy opcji, a więc tym gwałtowniejsza jest ich reakcja i dlatego zgubna w skutkach dla gospodarki, gdy wreszcie dochodzi do dewaluacji. Poniekąd, podstawy opisu powyższego mechanizmu „pokusy nadużycia” (moral hazard) można odnaleźć w ramach ugruntowanej już teorii w zakresie ekonomii międzynarodowej, zwłaszcza tzw. trzeciej generacji modeli kryzysów walutowych5. 5 Rozpoznanie czynników prowadzących do wybuchu kryzysu walutowego stanowi przedmiot dociekań w ramach znanych modeli: pierwszej, drugiej i trzeciej generacji. Podejście to ewoluuje wraz z historią kryzysów. Wczesne doświadczenia: Meksyku (1973–82), Argentyny (1978–81) oraz Chile (1983) z pewnością były inspirujące dla modeli pierwszej generacji. Kryzysy w Meksyku i w Europie na początku lat dziewięćdziesiątych są związane z rozwojem modeli drugiej generacji. Wreszcie, wiele aspektów kryzysu, który dotknął kraje Południowo-Wschodniej Azji w drugiej połowie tej samej deka- Reżim kursowy a presja kryzysowa w wybranych gospodarkach... 207 Grupa tych modeli powstała po wybuchu kryzysu w Południowo-Wschodniej Azji w 1997 roku. Wówczas w gospodarce Tajlandii, która usztywniła bata głównie w relacji do dolara amerykańskiego, zachodziły obie tendencje jednocześnie, tj. realna aprecjacja w połączeniu ze sporym deficytem obrotów bieżących. Sukcesywny proces umacniania się rodzimej waluty spowodował zahamowanie eksportu, a następnie odbił się negatywnie zarówno na rynku nieruchomości – ostatecznie obnażając jego przeinwestowanie – a także na giełdzie papierów wartościowych, gdzie gwałtownie spadały ceny. Załamanie giełdy papierów wartościowych i rynku nieruchomości postawiło przedsiębiorstwa w trudnym położeniu, drastycznie wpływając na ich wypłacalność. Tendencje te znalazły swoje odbicie w fali bankructw i upadku narodowej waluty. Wydarzenia w Tajlandii spowodowały następnie falę ataków spekulacyjnych na waluty państw – sąsiadów: Malezji, Indonezji i Filipin. Waluty tajlandzkie i indonezyjskie straciły około 50%, a waluty Malezji i Filipin 30% swojej wartości, jeszcze w bardzo wczesnej fazie kryzysu. Kryzys rozlał się na rynki międzynarodowe. Krugman [Krugman 1999] trafnie projektuje opisane doświadczenia azjatyckie na język teorii w ramach, wspomnianej, trzeciej generacji modeli. To w jego koncepcji centralne miejsce w procesie powstawania kryzysu zajmują inwestycje – czy raczej silna potrzeba tych inwestycji występująca w przypadku krajów rozwijających się – wraz z całym mechanizmem ich finansowania, który opiera się na majątku przedsiębiorców krajowych i kredytach, jakie mogą oni zaciągnąć za granicą. Zdolność do zaciągania zagranicznych kredytów zależy od stopy zwrotu z aktywów oraz zaufania pożyczkodawców co do zdolności spłaty zobowiązań przez inwestorów rodzimych. Odmowa finansowania inwestycji przez pożyczkodawców oznacza deprecjację realnego kursu, co w zasadzie jest jednoznaczne z bankructwem krajowych przedsiębiorców i stanowi jednocześnie potwierdzenie negatywnego werdyktu wydanego przez pożyczkodawców. Oczywiście, Krugman [Krugman 1999] stara się doprecyzować warunki brzegowe powstania kryzysu – w jego modelu, tym większa możliwość wystąpienia kryzysu, im: – wyższy pułap możliwości pożyczkowych, – niższa krańcowa skłonność do importu, – wyższa relacja pożyczki zagranicznej do eksportu. Jednak, z punktu widzenia polityki kursowej, na szczególną uwagę zasługuje element pewnej uznaniowości, zawarty w ocenie poziomu zaufania dokonywanej przez pożyczkodawców. Wydaje się dość oczywiste, że informacje na temat tzw. fundamentów makroekonomicznych mają dla tej oceny istotne znaczenie. Jednak tutaj nie sposób oprzeć się wrażeniu, że usztywnienie kursu może zdominować pozostałe sygnały płynące z rynku i w tym sensie właśnie wypaczać czy zniekształcać prawdziwy dy, próbowano rozwikłać, posługując się modelami trzeciej generacji. Podział na trzy generacje modeli wynika zatem z historycznych różnic, obejmujących charakter i przebieg zjawisk kryzysowych i stąd następnie wynikających różnych stanowisk teoretycznych. Trzecia generacja koncepcji stanowi próbę połączenia tzw. czynników fundamentalnych, stanowiących zestaw kluczowych, zmiennych makroekonomicznych z elementami rozumowania typowymi dla zwolenników samospełniającej się prognozy – nurtu eksplorującego znaczenie oczekiwań, zachowań spekulacyjnych dla wystąpienia kryzysu. Wśród licznych autorów modeli trzeciej generacji można wymienić: Corsettiego, Pensetiego, Roubiniego [Corsetti, Penseti, Roubini 1998] oraz Krugmana [Kurgman 1999]. 208 Bogna Gawrońska-Nowak przekaz i wpływać na formułowanie ocen przez pożyczkodawców, czasami być może przesądzając o dynamice i skali zjawiska kryzysowego. Co zatem pokazują wyniki badań mających na celu analizę relacji pomiędzy reżimem kursowym a kryzysem finansowym? Według Chang i Velasco [Chang, Velasco 1998], wprawdzie groźba kryzysu walutowego w warunkach izby walutowej czy kursu sztywnego jest mało istotna, to zagrożenie kryzysem bankowym pozostaje w mocy. Inne stanowisko prezentują: Ghosh, Gulde i Wolf [Ghosh, Gulde, Wolf 2002], którzy twierdzą, że, bez względu na poziom dochodu danego kraju, kryzysy walutowe występują częściej w warunkach kursu płynnego, aniżeli kursu sztywnego. Jednocześnie, mimo większej podatności na kryzys walutowy, gospodarki z płynnym kursem przechodzą go w sposób łagodniejszy, ponoszą niższe koszty kryzysu. Zdaniem tych samych autorów, w przypadku kryzysu bankowego, wybór reżimu sztywnego dla gospodarek wschodzących czy krajów rozwijających się nie powinien być brany pod uwagę, jako istotny czynnik determinujący prawdopodobieństwo jego wystąpienia. Warto w tym miejscu przypomnieć, że pomiędzy kryzysem bankowym a kryzysem walutowym może zachodzić tzw. „bliźniacza” zależność (twin crisis). Pojawienie się kryzysu walutowego często jest poprzedzone zjawiskiem kryzysu bankowego, następnie kryzys walutowy pogłębia kryzys bankowy i w ten sposób powstaje swego rodzaju wzajemnie napędzający się mechanizm [Kaminsky, Reinhart 1999]6. Uwzględnienie tej współzależności komplikuje jednoznaczną ocenę kursu sztywnego, jeśli chodzi o ryzyko wystąpienia kryzysu w tych warunkach. Jak dowodzą na przykład: Husain, Mody i Rogoff [Husain, Mody, Rogoff 2004], częstotliwość epizodów kryzysów bankowych oraz kryzysów bliźniaczych była wyższa dla reżimów usztywnionych, co można było stwierdzić, głównie, w odniesieniu do gospodarek wschodzących w latach dziewięćdziesiątych. Ograniczenia interpretacyjne nie powinny być zaskakujące, gdy doda się, że kryzysy bliźniacze są uważane właśnie za fenomen gospodarek wschodzących, rzadko spotykany w gospodarkach krajów rozwijających się i wysoko rozwiniętych. Jeszcze więcej ambiwalentności w ocenie relacji pomiędzy wyborem reżimu kursowego a wybuchem kryzysu przynoszą wyniki badania: Bordo, Eichengreena, Klingebiela i Soledada-Martineza [Eichengreen, Klingebiel, Soledada-Martinez 2001]. Według autorów, kursy sztywne czy stałe (crawling pegs) przyjmowane przez gospodarki wschodzące są obciążone wyższym ryzykiem kryzysu walutowego niż reżimy płynne (w tym również sterowane managed float). Stanowi to widoczny kontrast do wyników badań, na które powołują się, wcześniej przywołani, Ghosh, Gulde i Wolf [Ghosh, Gulde, Wolf 2002]. 6 Zgodnie z definicją przyjętą przez Kaminsky’ego i Reinhart [Kaminsky, Reinhart 1999 s. 478], zjawisko „kryzysów bliźniaczych” występuje w takiej sytuacji, gdy w ciągu 48 miesięcy, od daty uznanej za początek kryzysu bankowego, pojawi się kryzys bilansu płatniczego (walutowy). Reżim kursowy a presja kryzysowa w wybranych gospodarkach... 209 3. Analiza wskaźnika presji rynkowej Zdefiniowanie pojęcia kryzysu finansowego czy też jego subkategorii, takich jak kryzys walutowy czy bankowy, zwłaszcza dla potrzeb tworzenia konkretnej, aplikacyjnej miary nastręcza trudności. Po pierwsze, zjawiska te mogą bowiem koegzystować ze sobą, pozostawać we współzależności, jednocześnie zachowując swój niezależny status. Po drugie, dynamiczny rozwój gospodarki światowej, stanowiący ich naturalne środowisko, zmienia charakterystykę tych zjawisk, dodając często nowe, nieuwzględnione wcześniej elementy. Po trzecie, istnieje szereg ważnych cech kryzysu ciężko mierzalnych, przykładowo, takich jak: panika, stan oczekiwań czy mechanizm ataku spekulacyjnego. Są one zawarte nawet w prostych wariantach definicyjnych [Gawrońska-Nowak 2008]: – kryzys bankowy – aktualny lub potencjalny stan paniki w sektorze bankowym (tzw. bank runs), w wyniku którego system traci swoją płynność, a władze monetarne są zmuszone, wobec zastałej sytuacji, do interwencji na masową skalę; – kryzys walutowy – będący przez pewien czas synonimem kryzysu bilansu płatniczego (zgodnie z teorią modeli pierwszej generacji), występujący na skutek ataku spekulacyjnego na walutę danego kraju. Eichengreen, Rose i Wyplosz [Eichengreen, Rose, Wyplosz 1986] proponują atrakcyjne rozwiązanie dla problemu właściwego zdefiniowania zjawiska kryzysu walutowego, uwzględniające jego złożoność i spełniające postulat jego kwantyfikacji. Są oni bowiem twórcami indeksu presji rynkowej (exchange market pressure) stosowanego w licznych opracowaniach7: EMPit ≡ [(α % Δei ,t ) + (β Δ (ii ,t − iG ,t ) ) − (γ (% Δ ri ,t − % Δ rG ,t ) )], (1) gdzie: w oryginalnym tekście: ei,t – cena niemieckiej marki wyrażoną w walucie i w okresie t; iG – krótkookresowa stopa procentowa Niemiec; r – rezerwy zagraniczne; α, β, γ – wagi. Indeks ów jest więc średnią ważoną zmian trzech opisanych, powyżej zmiennych. Kryterium zdefiniowania kryzysu, w tym ujęciu, są wartości krytyczne osiągane przez indeks, co można zapisać: Krysysi,t = 1; Krysysi,t = 1; jeżeli EMPi,t > 1,5σEMP + μEMP ; Krysysi,t = 0; w przeciwnym przypadku; gdzie: σEMP – odchylenie standardowe EMP, μEMP – średnia wartość EMP. Należy zaznaczyć, że indeks, prezentowany powyższym równaniem, jest wynikiem ewolucji. W celu spojrzenia retrospektywnego, trzeba zapoznać się z innymi opracowaniami tych samych autorów [Eichengreen, Rose, Wyplosz 1994, 1995]. W opracowaniach tych wiele uwagi poświęcono czynnikom determinującym atak spekulacyjny, a sam indeks presji rynkowej powstał jako próba spełnienia potrzeby stworzenia obiektywnego miernika presji spekulacyjnej, który uwzględniałby zarówno skuteczne, jak i nieskuteczne ataki spekulacyjne. Ideałem byłby wskaźnik pozwalający na określenie nadwyżkowego popytu na walutę zagraniczną, na drodze wyodrębnienia tej zmiennej z modelu kursu walutowego. 7 210 Bogna Gawrońska-Nowak Autorzy zwracają uwagę na trudności związane z odpowiednim doborem wag. Najprościej byłoby z nich zrezygnować i wyliczyć zwykłą średnią, jednak charakterystyka zmienności składowych indeksu, tj. rezerw, kursu walutowego i stopy procentowej, jest istotnie różna, stąd potrzeba odpowiedniego zneutralizowania tych różnic poprzez wagi, tak by żadna ze zmiennych nie zdominowała ostatecznie wartości wskaźnika. Mimo tych zastrzeżeń, wskaźnik zdał egzamin jako powszechnie stosowane narzędzie badawcze, podlegając również wielu późniejszym modyfikacjom, które jednak nie zmieniły istotnie jego zasadniczej konstrukcji [Stavarek, Dohnal 2009; Gawrońska-Nowak , Grabowski 2009]. W celu zaobserwowania wzmożonych momentów napięć na badanych rynkach gospodarek wschodzących, ostatecznie dla potrzeb niniejszego opracowania, przyjęto następującą postać wskaźnika presji rynkowej (EMP)8: ⎛ rt ,j − rt −1,j ⎞ ⎟, EMPt = ωi i t ,j − i t ,E − ⎜ ωr ⎜ ⎟ r t −1, j ⎝ ⎠ ( ) (2) gdzie: t – okres czasu, j – badany kraj, E – strefa EURO, ω – odwrotność odchylenia standardowego dla szeregu obserwacji danej zmiennej, i – stopa procentowa r – poziom rezerw zagranicznych (bez złota). Wartości wskaźnika dla poszczególnych krajów przedstawiono na wykresach: 1.–5. Reżimy kursowe przyjęte przez analizowane kraje różnią się istotnie. Czechy oficjalnie przyjęły politykę kursu sterowanego płynnego (managed floating). Litwa i Łotwa weszły do ERM II. Jednak Litwa zdecydowała się na izbę walutową – tak jak Bułgaria, podczas gdy Łotwa tylko usztywniła kurs. Polska ma kurs płynny. Trzeba w tym miejscu wyraźnie zaznaczyć, że często oficjalnie deklarowane intencje w zakresie polityki kursowej (reżimy kursowe de iure) rozmijają się z faktyczną ich realizacją (reżimy kursowe de facto). Odnośniki do stosowania takiego podejścia przez kraje Środkowej i Wschodniej Europy można znaleźć miedzy innymi w opracowaniu: Friedena, Leblanga i Valeva [Frieden, Leblang, Valev 2009]. Shimizu [Shimizu 2009], w celu lepszego zdefiniowania typów reżimów występujących faktycznie w Środkowej i Wschodniej Europie, poddaje weryfikacji model Frankela i Weia [Frankel, Wei 1994] dla danych DATASTREAM w okresie: 1 stycznia 1999 roku – 24 grudnia 2008 roku. Uzyskane przez niego wyniki potwierdzają oficjalny podział na kraje o reżimach sztywnych (hard pegs): Bułgaria, Estonia, Litwa, Łotwa i miękkie czy płynne (soft pegs): Czechy, Polska, Węgry. Jednak, w ramach tego podziału, zarysowują się znaczne różnice wewnątrz dwóch wyróżnionych grup. Kraje z reżimami sztywnymi niejednakowo mocno i konsekwentnie związały swoje kursy z walutą EURO. W grupie tej jedynie Bułgaria bezsprzecznie utrzymywała parytet w EURO dla całego badanego okresu. W krajach nadbałtyckich Litwa miała doskonale sztywny kurs wobec EURO od połowy 2002 roku (co koresponduje z faktem, że do 2 lutego 2002 roku kurs na Litwie był usztywniony w stosunku do 8 Jak widać, kurs walutowy został pominięty ze względu na możliwość porównania miary również dla gospodarek o reżimach sztywnych. 211 Reżim kursowy a presja kryzysowa w wybranych gospodarkach... dolara amerykańskiego), a Łotwa od początku 2005 roku (1 stycznia 2005 roku zrezygnowano na Łotwie z parytetu wyrażonego w SDR i zamieniono go na EURO). Również w przypadku krajów z reżimem płynnym można mówić o różnym wpływie EURO na kształtowanie się wartości rodzimej waluty w czasie. Jednak, pomimo świadomości istnienia tych różnic, wartości prostych współczynników korelacji (Pearsona) podane w tabeli 1. wydają się umacniać przekonanie, że dla presji kryzysowej pozostaje istotny raczej ten zasadniczy podział na reżimy sztywne i płynne. Jednym z możliwych argumentów, przemawiającym za taką interpretacją, są bowiem obserwowane wysokie poziomy współczynnika dla krajów należących do tej samej ogólnej kategorii reżimu i niskie dla par krajów z dwóch różnych kategorii. Podobieństwo w typie reżimu (mimo widocznych niuansów) nasuwa się dość naturalnie jako jedna z przyczyn zaobserwowanej korelacji. Jednocześnie warto pamiętać o szerszym, makroekonomicznym kontekście poczynionych obserwacji. Gospodarki posiadające pokrewne reżimy kursowe reżimów mają z pewnością wiele innych podobieństw w ramach swojej ogólnej charakterystyki, co może znacząco wpływać na wyniki korelacji. TABELA 1. Wartości współczynnika korelacji liniowej Pearsona dla miesięcznych wartości wskaźnika presji rynkowej w okresie: styczeń 1996 – grudzień 2009 BLG CZ PL LIT LOT BLG CZ PL LIT LOT 1,000 0,251 0,211 0,421 0,278 0,251 1,000 0,511 0,234 0,028 0,211 0,511 1,000 0,209 0,052 0,421 0,234 0,209 1,000 0,503 0,278 0,028 0,052 0,503 1,000 Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line). Jeśli porównamy zachowanie wskaźnika (EMP) w okresie kryzysu azjatyckiego (1997–1998) oraz kryzysu rosyjskiego (1998) z kształtowaniem się jego poziomów w dalszych okresach, to jest widoczne, że w późnych latach 90-tych mamy do czynienia z długim pasmem zwiększonych wartości, podczas gdy po roku 2000 (co obejmuje również ostatni epizod kryzysowy) wzmożona presja ma miejsce na ogół w pojedynczych miesiącach i trudno mówić tutaj o serii. Obserwacja ta dotyczy właściwie wszystkich pięciu analizowanych gospodarek. Być może wynika to z faktu, że postępujący proces otwarcia na świat badanych gospodarek europejskich zachodził z dużym zaangażowaniem inwestycji bezpośrednich, wprowadzaniem banków zagranicznych w rodzimy system finansowy, utrzymywaniem rozsądnych proporcji udziału aktywów zagranicznych w odniesieniu do PKB i wobec tego większą możliwością „buforowania” wstrząsów po 2000 roku. Należy również odnotować, że procesy te zachodziły jednak ze zróżnicowanym tempem w odniesieniu do poszczególnych krajów, tym samym nieco luzując znaczenie wspólnych zaszłości 212 Bogna Gawrońska-Nowak historycznych dla definiowania tożsamości tej grupy i zastępując je nową tożsamością indywidualną. Widać to w rozbiciu momentów powstawania wzmożonych napięć dla konkretnych rynków. Mimo wszystko, obserwacja tych różnic nie pozwala uchwycić klarownej tendencji, mogącej świadczyć na przykład na rzecz znaczenia polityki kursowej dla absorpcji szoków. Co najwyżej, wnikliwe przyjrzenie się wykresowi Polski – która utrzymuje najbardziej wolnorynkowy kurs – w porównaniu z wykresami wykonanymi dla pozostałych krajów może przypominać o roli kursu płynnego dla absorpcji szoków. Na wykresie tym widać „najmniej zdyscyplinowane” ułożenie wartości wskaźnika pomiędzy progami jego wartości krytycznych, co zdaje się tym samym potwierdzać większą skłonność do szybkiego dostosowania się do zmieniających się warunków rynkowych. Oczywiście, prawdą jest, że kurs sztywny nie powinien ograniczać możliwości dostosowawczych po stronie kursu realnego, jednak pod warunkiem doskonałej elastyczności cen i płac. W praktyce ceny i płace charakteryzuje często relatywna sztywność, zwłaszcza jeśli porównać dynamikę ich reakcji z dynamiką reakcji nominalnego kursu walutowego. Warto przy tej okazji odnotować, że na przykład wyniki badań Pancaro i Rueffera [Pancaro, Rueffer 2009] przeprowadzonych dla 22 krajów przemysłowych w okresie 1970–2007 forsują hipotezę, że dynamika zmian w obrotach bieżących nie podlega zróżnicowaniu ze względu na typ reżimu. Dodatkowo, autorzy zauważają, że warunki reżimu kursu płynnego (wbrew tradycyjnym poglądom obecnym w teorii makroekonomii), a nie reżimu kursu sztywnego oddziałują silniej w sposób negatywny na wzrost PKB w trakcie korekty deficytu obrotów bieżących. Jednocześnie ci sami autorzy przyznają, że jest trudno znaleźć wyczerpujący materiał empiryczny weryfikujący relację pomiędzy reżimem kursowym a deficytem obrotów bieżących. Tymczasem w opracowaniach opublikowanych jeszcze przed rokiem 2008 można znaleźć wiele obaw, czy postępująca realna aprecjacja walut krajów nadbałtyckich, połączona z wysokim poziomem deficytu obrotów bieżących, nie stanowi zagrożenia dla utrzymania reżimu kursu sztywnego [Burgess, Fabrizio i Xiao 2004], czy nie prowadzi do nadmiernego zawyżania wartości walut tych krajów, tym bardziej że reżimy sztywne predysponują do realnej aprecjacji bardziej niż reżimy płynne czy pośrednie [Coudert i Couharde 2003]. 4. Podsumowanie Reasumując, zaprezentowane obserwacje wskaźnika presji rynkowej w wybranych krajach nowych członków UE w danym okresie nie dostarczają wyczerpującego materiału, który pomógłby wyraźnie rozstrzygać, czy uzależnianie wzmożonego poziomu presji kryzysowej od wpływu określonego rodzaju reżimu jest właściwe. Mimo to, biorąc pod uwagę zarówno zaprezentowaną analizę, jak i przytoczoną wcześniej literaturę, wydaje się, iż tak zdefiniowany obszar bardziej złożonych dociekań jest aktualny, nadal niedostatecznie wyeksplorowany i obiecujący w sensie korzyści, jakie mogą przynieść otrzymane rezultaty badań dla realnego kształtowania polityki kursowej, jak i lepszego poznania, niełatwej przecież, materii kryzysów finansowych w ogóle. Reżim kursowy a presja kryzysowa w wybranych gospodarkach... 213 Opisując znaczenie wyboru reżimu kursowego przez kraje wschodzące, nie należy chyba wyłącznie kierować się Mundellowskim podziałem na szoki nominalne i realne i wynikającą z tego różną wrażliwością gospodarki na dany rodzaj szoku w zależności od danego typu polityki kursowej. Równie ważne wydaje się szersze zrozumienie mechanizmu generującego kryzys walutowy, czy szerzej, finansowy, w którym reżim kursu sztywnego może stwarzać swoistą odmianę pokusy nadużycia i tym samym prowadzić do zaniedbań w ramach polityki makroekonomicznej czy w rozwoju sfery regulacyjnej rynków finansowych. Mechanizm ów wydaje się częściowo rozpoznany przez doświadczenia krajów azjatyckich, które przechodziły kryzys na końcu lat 90-tych czy przez wydarzenia składające się na późniejszy epizod kryzysowy w Argentynie w 2001 roku. Przyjęcie izby walutowej w Argentynie początkowo zapewniło krajowi stabilizację i rozwój, a potem bez należytego postępu w reformach i przy negatywnych tendencjach gospodarki światowej stwarzało tylko niepotrzebną i zwodniczą iluzję stabilności. Szczególnie doświadczenia krajów azjatyckich zostały utrwalone w literaturze w formie kanonu teoretycznego. Jednak sama świadomość istnienia stosownych źródeł literaturowych, z których można korzystać przy podejmowaniu decyzji dotyczących wyboru reżimu kursowego, nie jest oczywiście w stanie ustrzec decydentów przed popełnianiem tych samych błędów. Trudno oprzeć się wrażeniu, że wydarzenia kryzysowe, które dotknęły w ostatnim okresie kraje nadbałtyckie, wpisują się jakoś negatywnie w schemat „nieodrobionej lekcji”. Chodzi tutaj zwłaszcza o niewykorzystywanie doświadczeń innych krajów boleśnie dotkniętych przez kryzysy w przeszłości. W tym kontekście, szczególnie zdumiewają te opinie ekspertów, które dość bezkrytycznie wychwalają instytucję kursu sztywnego jako remedium na wszystkie bolączki gospodarek wschodzących, ignorując tym samym nieubłaganą zmienność czasu i otoczenia. Opinie takie można było często spotkać przed 2008 rokiem w odniesieniu do krajów nadbałtyckich. Wskazane byłoby raczej podejście wrażliwe na upływ czasu, zgodnie z którym wprowadzenie sztywnego kursu traktuje się jedynie jako jeden z elementów planu pozwalający poprawić wyjściowe parametry gospodarki, zwiększyć jej wiarygodność i relatywnie szybko uzyskać poziom kapitału niezbędny do awansowania wzrostu. Jednak poziomy deficytów rachunku obrotów bieżących i skala aprecjacji realnej powinny być stale monitorowane, a otoczenie regulacyjne rynków finansowych kształtowane dynamicznie i z wyobraźnią. Zatem, możliwość utrzymania sztywnego kursu należy rozumieć jako złożony proces zależny od postępu w reformach i podlegający rzetelnej analizie obejmującej zarówno otoczenie globalne, jak i wyniki krajowe. Wystarczy tylko przypomnieć, jak ważna dla sprawnego mechanizmu buforowania wstrząsów może okazać się sama elastyczność cen w przypadku reżimu kursu stałego. Literatura Bordo M. 2003 Exchange Rate Regime Choice in Historical Perspective, NBER Working Paper, No. 9654. Bordo M., Eichengreen B., Klingebiel D. i Soledad Martinez-Peria M. 2001 Is the crisis problem growing more severe?, Vol. 16, No. 32. Burgess R., Fabrizio S., Xiao Y. 2004 The Baltics Competitiveness on the Eve of EU Accession. 214 Bogna Gawrońska-Nowak Chang R., Velasco A. 1998 Financial crises in emerging markets: a canonical model, Working Paper 98–10, Federal Reserve Bank of Atlanta. Corsetti G., Pesenti P.A., Roubini N. 1998 Paper Tigers? A Model of the Asian Crisis, NBER Working Paper, No. W6783. Coudert V. and Cécile Couharde 2003 Exchange Rate Regimes and Sustainable Parities for CEECS in the Run-up to emu Membership, Revue économique, Presses de Sciences-Po, Vol. 54(5). Eichengreen B. 2008 Exchange Rate Regimes and Capital Mobility: How Much of the Swoboda Thesis Survives?, NBER Working Papers, 14100. Eichengreen B., Rose A.K., Wyplosz Ch.1986 Contagious Currency Crises, NBER Working Paper, No. W5681. Frankel J. 2003 Experience of and Lessons from Exchange Rate Regimes in Emerging Economies, NBER Working Paper, No. 10032. Frankel J., Schmukler S.L., Serven L. 2004 Global transmission of interest rates: monetary independence and currency regime, „Journal of International Money and Finance”, No. 23. Frankel J.A., Wei S.-J. 1994 Yen bloc or dollar bloc? Exchange rate policies of the East Asian economies, [w:] T. Ito, A. O. Krueger (eds.), Macroeconomic Linkage: Savings, Exchange Rates, and Capital Flows, Chicago. Frieden J., Leblang D., Valev N. 2009 The political economy of exchange rate regimes in transition economies, The Review of International Organizations, Vol.5, No. 1. Gawrońska-Nowak B. 2008 Niepewność na rynku walutowym. Teoretyczne podstawy, Warszawa. Gawronska-Nowak B., Grabowski W. 2009 Kryzysy walutowe – doświadczenia przydatne dla rozwoju polskiej gospodarki, [w:] Rozważania o rozwoju gospodarczym Polski, W. Bienkowski, K. Szczygielski (red.). Ghosh A., Gulde A-M, Wolf H. 2002 Exchange rate regimes. Choices and consequences. Husain A. M., Mody A., Rogoff K. 2004 Exchange Rate Regime Durability and Performance in Developing Countries Versus Advanced Economies, NBER Working Paper ,No. 10673. International Monetary Fund, Washington, DC, dokument elektroniczny, tryb dostępu: [http://imf.org/external/pubs/nft/SI/baltics.pdf]. Kaminsky G., C. Reinhart 1999 The Twin Crises: Causes of Banking and Balance-of-Payments Problems, American Economic Review, June. Krugman P. 1999 Balance Sheets, the Transfer Problem, and Financial Crises, Preliminary Draft. Mundell R. 1963 Inflation and Real Interest, „Journal of Political Economy”, Vol. 71. Nerlich, C. 2002 Exchange rate strategies of EU accession countries: Does exchange rate policy matter? [Paper presented at the KOBE Research Seminar on „Regional, economic, financial and monetary cooperation: the European and Asian experience”, Frankfurt, 15–16 April 2002] Frankfurt am Main, dokument elektroniczny, tryb dostępu: [www.mof.go.jp/ jouhou/ kokkin/tyousa/tyou046.pdf]. Shimizu J. 2009 Financial crisis and the choice of currency regime in CEE Countries, Senshu University, dokument elektroniczny, tryb dostępu: [http://www.euij-tc.org/news/events _2007/20090223/shimizu.pdf]. Stavarek, D., M. Dohnal 2009 Exchange Market Pressure in Central Europe: An Application of the Girton-Roper Model, „MPRA Paper”, 15744. 215 Reżim kursowy a presja kryzysowa w wybranych gospodarkach... WYKRES 1. Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Bułgarii w okresie: styczeń 1996 r. – grudzień 2009 r. 8 6 4 2 0 ‐2 0 50 100 150 200 ‐4 ‐6 ‐8 ‐10 Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line). WYKRES 2. Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Czech w okresie: styczeń 1996 r. – grudzień 2009 r. 8 6 4 2 Serie1 0 Serie2 ‐2 0 50 100 150 200 Serie3 ‐4 ‐6 ‐8 Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line). 216 Bogna Gawrońska-Nowak WYKRES 3. Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Litwy w okresie: styczeń 1996 r. – grudzień 2009 r. 6 4 2 0 ‐2 0 50 100 150 200 ‐4 ‐6 ‐8 Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line). WYKRES 4. Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Łotwy w okresie: styczeń 1996 r. – grudzień 2009 r. 8 6 4 2 0 0 50 100 150 ‐2 ‐4 Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line). 200 217 Reżim kursowy a presja kryzysowa w wybranych gospodarkach... WYKRES 5. Miesięczne wartości wskaźnika presji rynkowej (EMP) dla Polski w okresie: styczeń 1996 r. – grudzień 2009 r. 5 4 3 2 1 0 ‐1 0 50 100 150 ‐2 ‐3 ‐4 Źródło: Obliczenia własne na podstawie danych z IFS IMF (baza dostępna on line). 200 OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Łukasz SIEMIENIUK1 SYSTEM SYMFONIA JAKO PRZYKŁAD ZINTEGROWANEGO SYSTEMU INFORMATYCZNEGO W RACHUNKOWOŚCI Streszczenie Aktualnie na rynku polskim funkcjonuje dużo firm zajmujących się tworzeniem, a także wdrażaniem systemów finansowo-księgowych. Twórcy oprogramowania oferują nie tylko własne programy obsługi księgowej, ale również liczne moduły uzupełniające zarządzanie innymi działami przedsiębiorstwa. Moduły powyższe mogą obsługiwać zagadnienia finansowe, kadrowo-płacowe, itp. Systemy komputerowe są tworzone pod konkretne potrzeby, często nie spełniają oczekiwań użytkowników. Istotne jest, aby konkretne oprogramowanie posiadało zdolność do emitowania dokumentów, wymaganych przez przepisy gospodarki polskiej i Unii Europejskiej. Jednym z bardziej znanych systemów komputerowych jest system Symfonia. Symfonia stanowi pakiet zintegrowanych programów wspomagających zarządzanie w firmach. Wspierając zarządzanie, ułatwia on zarówno codzienną działalność firmy w zakresie ewidencji i obsługi zdarzeń gospodarczych, jak również umożliwia uzyskanie precyzyjnych informacji, niezbędnych do podejmowania kluczowych decyzji ekonomicznych w przedsiębiorstwie. Celem artykułu jest omówienie podstawowych zagadnień dotyczących funkcjonowania systemu komputerowego Symfonia w praktyce gospodarczej przedsiębiorstw. Słowa kluczowe: systemy finansowo-księgowe, Symfonia, systemy zintegrowane THE SYMFONIA SYSTEM AS AN EXAMPLE OF THE INTEGRATED INFORMATION SYSTEM IN ACCOUNTANCY Summary Currently, on the Polish market there are many firms dealing with the creation and also implementation of financial and accounting systems. Software authors offer not only their own programmes of accounting services but also numerous complementary modules for management of other divisions of an enterprise. The above-mentioned modules can be used to deal with financial, HR, wage and other issues. The computer systems are created to satisfy concrete needs, however, they often fall short of the users' expectations. What matters is that specific software should be capable of issuing documents required by regulations of the Polish economy and those of the European Union. One of the best known computer systems is the Symfonia system. Symfonia constitutes a packet of integrated programs that enhance management in companies. By assisting management, it enables both daily activities of the company when it comes to keeping records and concerning business events, and it also makes it possible to obtain precise information, crucial for making key economic decisions in an enterprice. 1 Mgr Łukasz Siemieniuk – Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania. System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 219 The article is aimed at discussing basic issues concerning the functioning of the Symfonia computer system in business activities of enterprises. Keywords: finance and accountancy systems, Symfonia, integrated systems 1. Wstęp Rozwój gospodarki rynkowej w Polsce doprowadził do wzrostu konkurencyjności firm. Spowodowało to zwiększenie zapotrzebowania na szybką, rzetelną i aktualną informację o stanie finansowym firmy: posiadanych składnikach majątku, źródłach ich finansowania, przychodach i kosztach. Obecnie coraz rzadziej można spotkać przedsiębiorstwa, w których księgowość byłaby prowadzona ręcznie. W praktyce są tworzone wciąż nowe systemy, co sprawia, że firmy stają przed dylematem doboru odpowiedniego oprogramowania. Jest to o tyle ważny problem, że system komputerowy powinien być dostosowany zarówno do specyfiki działalności firmy, jej struktury organizacyjnej, jak również możliwości finansowych. Poszukując właściwego oprogramowania, należy pamiętać o różnicach w: metodach budowy systemów informatycznych, podziałach funkcjonalnych i możliwościach poszczególnych modułów wchodzących w skład danego systemu, jak i zgodności z obowiązującymi zasadami formalnoprawnymi funkcjonowania firm na rynku polskim. Analizując powyższą problematykę, można stwierdzić, iż dobór właściwego systemu wspomagającego finanse i rachunkowość firm jest jednym z trudniejszych problemów dla przyszłego użytkownika. 2. Ustawa o Rachunkowości a systemy informatyczne Ustawa o Rachunkowości precyzuje zasady prowadzenia ksiąg rachunkowych z wykorzystaniem systemów informatycznych. Według wskazanych uregulowań, systemy te muszą spełniać wymagania obowiązujące w rachunkowości, czyli: wiarygodność danych, systematyczność prowadzenia zapisów księgowych, bezbłędność i możliwość sprawdzenia wprowadzonych danych. System komputerowy musi posiadać określone cechy, aby został dopuszczony do użytkowania. Dokumentacja opisująca dany program powinna zawierać: opis systemu informatycznego, zawierającego wykaz programów, procedur lub funkcji, w zależności od struktury oprogramowania wraz z opisem algorytmów i parametrów oraz programowych zasad ochrony danych, w szczególności metod zabezpieczenia dostępu do danych i systemu ich przetwarzania, a ponadto określenie wersji oprogramowania i daty rozpoczęcia jego eksploatacji.2 Z kolei, artykuł 71 Ustawy o Rachunkowości posiada zapis informujący o używaniu odpornych na zagrożenia nośników danych, a także systematycznym tworzeniu kopii zapasowych zbiorów danych, dzięki którym jest zapewniona ciągłość zapisów bez możliwości późniejszych dopisów lub zmian. 2 Ustawa o Rachunkowości z dnia 29 września 1994 r., Dz.U., Nr 54, poz. 694 ze zmianami. 220 Łukasz Siemieniuk Prowadzenie rachunkowości, przy zastosowaniu systemu komputerowego, zwalnia firmy z obowiązku drukowania ksiąg rachunkowych na koniec roku obrotowego.3 Zgodnie z Ustawą o Rachunkowości, księgi rachunkowe powinny być oznaczone pełną lub skróconą nazwą i posiadać nadawany automatycznie numer pozycji, pod którą zostaną wprowadzone do dziennika, a także zawierać informacje, dzięki którym będzie możliwe ustalenie osoby odpowiedzialnej za ten zapis. Powyższa, Ustawa wskazuje również na warunki, które muszą spełniać zapisy w księgach rachunkowych, aby być równoważnymi z dowodami księgowymi, a mianowicie4: – informacje zawarte w zapisach muszą być trwałe, czytelne i zgodne z rzeczywistymi; – istnieje możliwość stwierdzenia źródła pochodzenia danych; – dane powinny być poprawnie przetworzone, a zapisy kompletne i identyczne; – dane źródłowe powinny być odpowiednio chronione i posiadać niezmienioną formę. Ustawa o Rachunkowości zawiera również wskazówki dla twórców informatycznych systemów, które muszą być przestrzegane przy projektowaniu aplikacji wykorzystywanych w finansach i rachunkowości. 3. Charakterystyka zintegrowanego systemu informatycznego Symfonia Pojawienie się w otoczeniu gospodarczym zaawansowanych rozwiązań z zakresu: technologii informacyjnych IT, zintegrowanych systemów informatycznych, jak również nowych metod zarządzania i kalkulacji kosztów w przedsiębiorstwie, przełamujących dotychczasowe reguły organizacyjne, było spowodowane zmianami na rynku, na którym konsument i jego satysfakcja z konsumpcji dóbr i usług stały się kluczowym celem działalności przedsiębiorstw. Konkurencja przedsiębiorców na polu cenowym nie stanowi już czynnika wpływającego w istotny sposób na pozycję konkurencyjną na rynku. Determinantem sukcesu przedsiębiorstwa staje się: jakość oferowanych usług, terminowość dostaw, sprawność realizacji zamówień czy obsługa posprzedażna. Kluczową rolę odgrywają nowoczesne metody zarządzania, polegające na skoncentrowaniu działalności firmy na najlepszym zaspokajaniu potrzeb klientów oraz budowaniu sieci bliskich i skutecznych relacji z klientem. Uzyskanie lepszej pozycji konkurencyjnej przedsiębiorstwa na rynku oraz sprawne i efektywne nim zarządzanie jest ułatwione dzięki systemowi klasy ERP, który jest traktowany jako jądro infrastruktury organizacyjno-informatycznej nowoczesnego przedsiębiorstwa. System ERP jako system transakcyjny, który służy do rejestrowania i przetwarzania na bieżąco zdarzeń gospodarczych, integruje procesy i dane w przedsiębiorstwie. 3 Wskazuje na to Artykuł 13, który określa, iż podczas prowadzenia ksiąg za pomocą komputera za równoważne z nim uważa się odpowiednio: zasoby informacyjne rachunkowości, zorganizowane w formie oddzielnych komputerowych zbiorów danych, bazy danych lub wyodrębnionych jej części, bez względu na miejsce ich powstawania i przechowywania. 4 Ustawa o Rachunkowości z dnia 29 września 1994 r., Dz. U., Nr 54, poz. 694 ze zmianami. System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 221 Doświadczenia przedsiębiorstw, korzystających ze zintegrowanych rozwiązań klasy ERP, wskazują na to, że dokładna ocena korzyści, wynikająca z implementacji rozwiązań tego typu, nie poddaje się prostej kwantyfikacji. Jednak system ERP porządkuje strukturę przedsiębiorstwa oraz realizowane procesy i jednocześnie integruje wszystkie elementy przedsiębiorstwa. Powstaje stabilny i w pełni zintegrowany system, charakteryzujący się synergią działań wewnętrznych i kooperatywnym funkcjonowaniem wszystkich części składowych w warunkach zmieniającego się otoczenia. Na rynku polskim funkcjonuje duża ilość firm zajmujących się tworzeniem, a także wdrażaniem różnego rodzaju oprogramowania. Oferowane są zarówno własne programy księgowe, jak również liczne moduły umożliwiające zarządzanie wybranymi działami przedsiębiorstwa. Moduły te mogą obsługiwać: zagadnienia kadrowo-płacowe, gospodarkę magazynową, zaopatrzenie itp. Mimo mnogości oferowanych programów, często nie spełniają oczekiwań użytkowników. Istotne jest to, aby oprogramowania miały zdolność do emitowania dokumentacji spełniającej właściwe kryteria. W zależności od wielkości firmy i profilu jej działalności, należy wybrać odpowiedni system tak, aby spełnił wszystkie oczekiwania użytkownika i jednocześnie nie wymagał potrzeby instalowania dodatkowych, zbędnych aplikacji. Odpowiedni program księgowy może znacznie usprawnić działalność firmy, bez względu na jej wielkość i profil działalności. Jednym z nich na pewno jest Symfonia, pakiet programów do pracy w przedsiębiorstwie [Chomuszko 2006 s. 5]. Analizując ofertę systemów finansowo-księgowych na rynku, można spotkać oprogramowania oparte na prostych rozwiązaniach na bazie arkusza kalkulacyjnego MS Excel, po bardziej rozbudowane. Jednym z systemów, który znajduje coraz większe zastosowanie, jest Symfonia firmy Sage. Można nawet przyjąć stwierdzenie, iż należy on do wiodących systemów księgowych na rynku polskim. RYSUNEK 1. Elementy systemu Symfonia Moduły systemu Symfonia Finanse i księgowość Środki trwałe Kadry i płace Handel Płace Faktura Analiza finansowa Źródło: Opracowanie własne na podstawie: Dokument elektroniczny, tryb dostępu; [www. sage.com.pl, data wejścia: 19.01.2010]. 222 Łukasz Siemieniuk System Symfonia jest to pakiet zintegrowanych programów wspomagających zarządzanie przedsiębiorstwami w dziedzinie księgowości. Tworzące go moduły umożliwiają obsługę wielu firm i równoczesną pracę wielu użytkowników w sieci. Program, wspierając zarządzanie, ułatwia zarówno codzienną działalność firmy w zakresie ewidencji i obsługi zdarzeń gospodarczych, jak również umożliwia uzyskanie precyzyjnych informacji, niezbędnych do podejmowania kluczowych decyzji biznesowych w przedsiębiorstwie [Dokument elektroniczny, tryb dostępu: www.sage. com.pl, data wejścia: 19.01.2010]. W systemie Symfonia jest dostępny wewnętrzny język programowania raportów, pozwalający wykorzystywać informacje zgromadzone w bazach danych. Stosowana jest wymiana informacji pomiędzy programami systemu, dzięki mechanizmowi integracji baz danych oraz eksportowi i importowi plików tekstowych [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010]. Każdy z wymienionych modułów może funkcjonować samodzielnie lub współpracować ze sobą, wymieniając dane. Pierwszy moduł Finanse i Księgowość realizuje wszystkie najważniejsze operacje księgowe, od tworzenia planu kont i księgowania dokumentów, przez automatyczny bilans zamknięcia, pełne rozrachunki i rozliczenia, aż do gotowych lub zdefiniowanych przez użytkownika zestawień i sprawozdań. System umożliwia definiowanie: rejestrów VAT, układów bilansu, rachunku zysków i strat oraz parametrów stałych (np. wysokości odsetek). Ponadto, ułatwia automatyczne księgowanie różnic kursowych i odsetek za zwłokę, z wykorzystaniem definiowanych kont specjalnych, prowadzenie rachunku kosztów w różnych układach (automatyczne księgowanie równolegle między zespołem: „4” i „5”). Program Finanse i Księgowość oferuje także funkcjonalność, umożliwiając ewidencję i rozliczanie rachunków z kontrahentami [Lech 2003 s. 38]. Panel główny modułu Finanse i Księgowość ilustruje rysunek 2. Drugi moduł programu – Środki Trwałe wspomaga: ewidencjonowanie, aktualizację, inwentaryzację i umarzanie środków trwałych, niskocennych składników majątku oraz wartości niematerialnych i prawnych. Prowadzi ewidencję miejsc użytkowania środków i ich części składowych [Lech 2003 s. 39]. Wspomaga on ewidencję majątku trwałego i wyposażenia w przedsiębiorstwie. Pozwala na uzyskanie stałego dostępu do bieżącej informacji o przydzielonych elementach wyposażenia i środkach trwałych oraz każdej zmianie w tym zakresie. Program umożliwia także przeprowadzenie kompletnej ewidencji środków trwałych: zakup, wykorzystanie, zdjęcie ze stanu na skutek likwidacji, sprzedaży lub nieodpłatnego przekazania.5 Przykładowe okno programu, dotyczące modułu Środki Trwałe, przedstawia rysunek 3. 5 Symfonia Środki Trwałe, Podręcznik użytkownika, dokument elektroniczny, tryb dostępu: [www. sage.com.pl, data wejścia: 19.01.2010.]. System SYMFO ONIA jako przykłład zintegrowaneggo systemu inform matycznego ... 22 23 RYSUNEK 2. 2 Panel główny modułu m Finansse i Księgowość Źró ódło: Dokument ellektroniczny, tryb dostępu: [www.biiurosoft.pl, data wejścia:19.01.2010] w ]. RYSUNEK 3. 3 Okno progrramu, dotyczącce modułu Środki Trwałe – Ewid dencjonowanie da danych podatku VAT V Źró ódło: Dokument ellektroniczny, tryb dostępu: [www.os.com.pl, data wejścia:19.01.2010]. 224 Łukasz Siemieniuk Moduł Kadry i Płace wspomaga zarządzanie płacami oraz danymi kadrowymi pracowników danego przedsiębiorstwa. Umożliwia on prowadzenie dokumentacji kadrowo-płacowej, pozwala na planowanie, ewidencję czasu pracy i płac pracowników konkretnej firmy. Program jest zgodny z obowiązującym prawem pracy oraz umożliwia wspomaganie rozliczeń z Zakładem Ubezpieczeń Społecznych [Lech 2003 s. 39]. Symfonia Płace wspomaga zarządzanie płacami w przedsiębiorstwie. Uwzględnia różne sposoby wynagrodzenia, dzięki temu przyśpiesza comiesięczne i roczne rozliczenia. W programie są generowane następujące dokumenty: listy płac, niezbędne zestawienia, druki, raporty i przelewy [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010]. Sprzedaż i gospodarkę magazynową (pełną ewidencję stanów magazynowych) wspomaga moduł Handel. Pozwala na rejestrację zdarzeń gospodarczych i wystawianie odpowiednich dokumentów. Aktualna wersja programu jest dostosowana do obsługi zmian prawnych związanych z akcesją Polski do Unii Europejskiej. Program udostępnia narzędzia wspomagające zarządzanie działalnością w firmach handlowych i usługowych. Umożliwia on wystawianie dokumentów dotyczących: sprzedaży, rozliczeń magazynowych, zakupu i płatności [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010]. Moduł Faktura wspomaga obsługę sprzedaży w przedsiębiorstwach usługowych oraz handlowych. Zadaniem programu jest wspomaganie działalności firm przez ułatwienie rejestracji zdarzeń gospodarczych i wystawienie odpowiednich dokumentów. Moduł umożliwia rozliczenia gotówkowe i bezgotówkowe w różnych walutach. Pozwala zaplanować i prowadzić określoną politykę sprzedażową w firmie [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 19.01.2010]. Przydatnym w praktyce modułem jest Analiza Finansowa. Wspomaga on i przyśpiesza pracę działów finansowo-ekonomicznych w przedsiębiorstwie. Umożliwia szybkie przygotowanie dowolnych analiz danych zaewidencjonowanych w programie Symfonia Finanse i Księgowość. Wykorzystuje wzbogacony o dodatkowe funkcje arkusz kalkulacyjny Excel, dzięki któremu można w łatwy, szybki i wygodny sposób wykorzystywać wszystkie jego funkcje. System umożliwia tworzenie gotowych wzorów raportów, modelowania danych oraz wspomaga proces budżetowania. Rozwiązania, zastosowane w programie, pozwalają wykonywać, szeroko rozumianą, analizę danych od typowych zagadnień rachunkowości finansowej, takiej jak: rachunek zysków i strat czy bilans, po analizy zarządcze, tj.: raporty przychodowo-kosztowe w dowolnym układzie przedmiotowo-podmiotowym. Ułatwia on definiowanie dowolnych wskazówek finansowych i ekonomicznych pomocnych w monitorowaniu kondycji przedsiębiorstwa. 6 Można stwierdzić, iż moduł Analiza Finansowa wspomaga pracę analityka finansowego, umożliwiając przeprowadzenie dodatkowych analiz różnorodnie agregowanych danych, zewidencjonowanych w aplikacji Finanse i Księgowość. [Analizy Finansowe Wersja 2010 2010 s. 1] Wykorzystanie poszczególnych modułów systemu Symfonia zależy od faktycznego zapotrzebowania i wielkości przedsiębiorstwa. Firmom posiadającym rozbudo6 Symfonia Analiza Finansowa, Podręcznik użytkownika, dokument elektroniczny, tryb dostępu: [www.sage.com.pl, data wejścia: 19.01.2010]. System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 225 wane procedury i złożone procesy biznesowe jest oferowany System Zarządzający Symfonia Forte. Jest on zintegrowanym systemem o budowie modułowej, umożliwiającym kontrolę oraz zarządzanie strategicznymi dla przedsiębiorstwa procesami i obszarami. Jest to zaawansowane rozwiązanie klasy ERP, umożliwiające rozwój systemu wraz z rosnącymi potrzebami klientów [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 19.01.2010]. Dzięki modułowej budowie oraz integracji z innymi systemami, System Zarządzający Forte tworzy rozwiązanie dla dużych i średnich przedsiębiorstw. Biorąc pod uwagę rosnące potrzeby ze strony najmniejszych przedsiębiorstw (mikrofilm), zostało wypracowane rozwiązanie typu System Symfonia Start. W skład tego systemu wchodzą następujące programy: Mała Księgowość Start, Handel Start, Faktura i Kasa Start. Są to rozwiązania informatyczne usprawniające funkcjonowanie małej firmy. Ułatwiają wystawianie dokumentów, prowadzenie małej księgowości, obsługi sprzedaży. [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 20.01.2010] Program Mała Księgowość Start jest przeznaczony dla firm prowadzących Księgę Przychodów i Rozchodów lub ewidencję w postaci zryczałtowanego podatku dochodowego. Wspomaga on ewidencję i obsługę rozliczeń podatkowych oraz ułatwia analizę efektywności podejmowanych działań gospodarczych. [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010] System Symfonia jest pierwszym na rynku polskim zintegrowanym pakietem wspomagającym zarządzanie w firmach, pracującym w środowisku Windows [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, , data wejścia: 20.01.2010]. System ten nie tylko umożliwia informatyzację rachunkowości, ale także wspomaga zarządzanie, wspierając zarówno codzienną działalność firmy w zakresie ewidencji i obsługi zdarzeń gospodarczych, jak również umożliwia uzyskanie precyzyjnych informacji, niezbędnych do podejmowania najważniejszych decyzji. Zastosowanie zaawansowanych narzędzi umożliwia analizę i planowanie zarówno na poziomie ogólnym, jak i szczegółowym. System Symfonia to, niewątpliwie, funkcjonalny i elastyczny system, który usprawnia działanie danej firmy przez: zautomatyzowanie procesów, dostarczając niezbędnych informacji biznesowych oraz ułatwiając zarządzanie. [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010] System Symfonia współpracuje także z różnymi systemami, oferując coraz szersze rozwiązania branżowe i specjalistyczne, tj. [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010]: bankowość elektroniczna, budownictwo, handel detaliczny, hotele i gastronomia, produkcja, rejestracja czasu pracy, rozwiązania dla biur rachunkowych i kancelarii, rozwiązania wspomagające kontakt z klientem, sklepy internetowe, służba zdrowia, wspólnoty mieszkaniowe, wyższe uczelnie oraz zdalny dostęp. Odpowiednia konfiguracja zarówno środowiska informatycznego, w tym komputerów i sieci, jak i optymalne ustawienie parametrów Systemu Symfonia FK, w sposób adekwatny do własnych potrzeb, umożliwia optymalne i bezpieczne wykorzystanie systemu w danej firmie. 226 Łukasz Siemieniuk 4. Podsumowanie Oprogramowanie Symfonia tworzy system produktów wspierających zarządzanie i podejmowanie decyzji w dziedzinie finansów i rachunkowości firm o dowolnym profilu działalności. Rozwiązania proponowane przez system Symfonia powstały z myślą o wsparciu właścicieli, kadry zarządzającej oraz menedżerów i pracowników w takich obszarach, jak: finanse i księgowość, kadry i płace, obsługa sprzedaży i magazynów oraz zarządzanie relacjami z klientami [Dokument elektroniczny, tryb dostępu: www.symfonia.pl, data wejścia: 20.01.2010]. Jakość wdrażanych systemów klasy ERP, takich jak: system Symfonia, zależy w dużym stopniu od sposobów interakcji pomiędzy zleceniodawcą a zaangażowaną w proces komputeryzacji firmą informatyczną [Wilk 2001 s. 167]. Dobre wykorzystanie oprogramowania Symfonia w firmie może przyczynić się do wzrostu efektywności prowadzonej działalności gospodarczej, a także optymalizacji kosztów i poprawy konkurencyjności. System Symfonia to funkcjonalny i elastyczny program, który umożliwia usprawnienie działalności firmy w kluczowych dla niego obszarach decyzyjnych. Dzięki szeroko rozbudowanym modułom, jest w stanie wspierać zarządzanie strategicznymi obszarami i procesami zachodzącymi w przedsiębiorstwie. Natychmiastowy dostęp do bazy danych i spójnej informacji zarządczej pozwala elastycznie reagować na zmiany rynkowe, wpływać na zwiększenie konkurencyjności oraz obniżyć ogólne ryzyko prowadzenia działalności. Zaletą Systemu Symfonia jest fakt zaprojektowania i stworzenia w całości przez polską firmę informatyczną, a obecnie rozwijaną przez światowego lidera w branży [Dokument elektroniczny, tryb dostępu: www.damal.pl, data wejścia: 22.01.2010]. Dzięki temu, system jest zgodny z polskim prawodawstwem oraz dostosowany do zmian w przepisach związanych z przystąpieniem Polski do Unii Europejskiej. Umożliwia on modyfikację ustawień do specyfikacji działania firmy oraz tworzenia własnych: dokumentów, raportów i zestawień. Łatwość w modyfikacjach pozwala w perspektywie na zmiany wzorcowych ustawień (np. modyfikacji: planu kont, działów firmy, formularzy). Modułowa budowa systemu umożliwia wybór najodpowiedniejszych komponentów niezbędnych do prowadzenia własnej działalności. Nowoczesne technologie informatyczne, wykorzystane przy tworzeniu aplikacji, zapewniają ich wysoką wydajność oraz bezpieczeństwo zgromadzonych danych. System umożliwia przyznawanie zakresu uprawnień poszczególnym użytkownikom, a także odczyt danych za pomocą innych programów. Intuicyjność obsługi systemu pozwala na zwiększenie efektywności i komfortu pracy związanej z obsługą księgowości firmy. Integracja programów, wchodzących w skład systemu, pozwala na wymianę danych między poszczególnymi elementami systemu, eliminując w ten sposób konieczność wielokrotnego wprowadzania tego samego dokumentu [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 22.01.2010]. Kolejnymi zaletami systemu Symfonia jest możliwość przeszukiwania bazy danych, uwzględniając różnorodne kryteria: przeszukiwania, filtrowania i sortowania danych. Dodatkowym atutem jest możliwość przypisania do dokumentów dowolnych, zdefiniowanych przez użytkownika informacji. Modułowa budowa systemu umożliwia elastyczną i wydajną wymianę informacji między użytkownikami, co umożliwia pracę w różnych miejscach. Zastosowanie technologii Microsoftu Visual System SYMFONIA jako przykład zintegrowanego systemu informatycznego ... 227 Basic for Applications (VBA) pozwala na realizację specyficznych procesów biznesowych. VBA umożliwia m.in. modyfikowanie istniejącej funkcjonalności aplikacji i tworzenie nowych funkcji (nowe okna w programie, dowolne raporty i zestawienia). Jest to system w pełni zintegrowany z pakietami: MS Office, MS Internet Explorer, otwarty na inne aplikacje korzystające z VBA. [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 23.02.2010] Szeroki zakres analiz (Symfonia Analizy Finansowe) oraz wbudowane mechanizmy kontrolne pozwalają na bieżącą kontrolę sytuacji finansowej firmy oraz szybkie reagowanie na obniżenie rentowności przedsiębiorstwa. Rozbudowane mechanizmy sterowania ceną oferowanych towarów i usług pomagają w zwiększeniu konkurencyjności firmy na rynku. [Dokument elektroniczny, tryb dostępu: www.sage.com.pl, data wejścia: 23.02.2010] Program jest konsekwentnie modyfikowany i dostosowywany do zmieniających się przepisów. Użytkownik może unowocześniać program z zachowaniem wszystkich danych przez instalacje uaktualnień udostępnianych przez producenta. System Symfonia, choć z przejrzystym interfejsem, może okazać się dość skomplikowanym programem dla początkujących użytkowników. Na przygotowanie do pracy z programem należy poświęcić określoną ilość czasu, ponieważ dane, z których korzysta się w systemie, należy ręcznie wprowadzić, ewentualnie przetransferować z kompatybilnej bazy danych. Kolejną wadą systemu może okazać się jego cena w pełnej konfiguracji. Aby zakupić pełny pakiet oprogramowania na wiele stanowisk komputerowych, należy się liczyć z ogromnymi kosztami. Producent przewidział wersje dla małych i mikro firm, ale wyposażył program jedynie w podstawowe funkcje finansowo-księgowe. Literatura Analizy Finansowe Wersja 2010, Podręcznik użytkownika, Warszawa. Adamczewski P. 2004 Zintegrowane systemy informatyczne w praktyce,Warszawa. Chomuszko M. 2006 Księgowość komputerowa – praca z programem Symfonia FK, Warszawa. Lech P. 2003 Zintegrowane systemy zarządzania ERP/ERP II, Warszawa. Ustawa o Rachunkowości z dnia 29 września 1994 r. (Dz.U., Nr 54, poz. 694 ze zmianami). Wilk J. 2001 Zintegrowany system zarządzania przedsiębiorstwem, Warszawa. Dokument elektroniczny, tryb dostępu: [www.biurosoft.pl, , data wejścia: 19.01.2010]. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 Ewa TOKAJUK1 MOŻLIWOŚCI INWESTYCYJNE GOSPODARSTW DOMOWYCH NA POLSKIM RYNKU FINANSOWYM Streszczenie Współczesny rynek finansowy stwarza wiele możliwości inwestowania pieniędzy, które dają szansę pomnożenia kapitału. Biorąc pod uwagę szeroki wachlarz produktów, można inwestować na różne sposoby. W zależności od oczekiwań inwestora, jego wieku i znajomości form inwestowania można dokonać podziału inwestycji, uwarunkowanych od czynników, które na nie wpływają. Z przedstawionej analizy struktury aktywów finansowych wynika, że najpopularniejsze są depozyty i lokaty bankowe. Zwiększa się jednak udział aktywów otwartych funduszy emerytalnych, towarzystw funduszy inwestycyjnych i ubezpieczeń na życie. Od strony podażowej tendencja ta wynika z rozwoju i działań marketingowych instytucji rynku finansowego, a od strony popytowej – rosnących dochodów, wiedzy i zaufania klientów do tych form gromadzenia nadwyżek finansowych. Słowa kluczowe: gospodarstwo domowe, aktywa finansowe, inwestowanie, rynek finansowy INVESTMENT POTENTIAL OF HOUSEHOLDS ON POLISH FINANCIAL MARKET Summary The contemporary financial market provides numerous possibilities of investing money which provide a chance to increase the capital. Considering a wide range of products, we can invest in many different ways. Depending on investors' expectations, their age and knowledge of different forms of investment, it is possible to categorize investments according to factors determining investmet decisions. From the presented analysis of the structure of financial assests it emerges that bank deposits are most popular among investors. However, we can observe an increased share of the assets of open pension funds, investment funds societies and life insurance funds. As far as supply is concerned, this tendency results from development and marketing activities of the financial market institutions, but, where demand is concerned, it is the result of rising earnings, knowledge and customers' confidence in these forms of amassing a budget surplus. Keywords: a household, financial assets, investments, financial market 1 Dr Ewa Tokajuk – pracownik Uniwersytet w Białymstoku, Wydział Ekonomii i Zarządzania. Możliwości inwestycyjne gospodarstw domowych na polskim rynku ... 229 1. Wstęp Na rynku finansowym istnieje wiele możliwości inwestowania pieniędzy, które dają szansę pomnożenia kapitału. Jednymi z najbardziej efektywnych inwestycji finansowych są: inwestycyjne fundusze, lokaty terminowe, akcje, obligacje, waluty. Istnieją również inwestycje w dobra rzeczowe, takie jak: nieruchomości, metale, surowce, monety kolekcjonerskie emitowane przez NBP. Biorąc pod uwagę szeroki wachlarz produktów, można inwestować na różne sposoby. W zależności od oczekiwań inwestora, jego wieku i znajomości form inwestowania można dokonać podziału inwestycji, według czynników, które na nie wpływają. Celem niniejszego artykułu jest analiza najpopularniejszych na polskim rynku finansowym form inwestowania wykorzystywanych przez gospodarstwa domowe. 2. Gospodarstwo domowe – pojęcie Gospodarstwo domowe jest podmiotem gospodarczym nie prowadzącym działalności komercyjnej, w przeciwieństwie do przedsiębiorstw, działającym w celu powiększania zysków. W standardowej, neoklasycznej ekonomii przyjęło się zakładać, że w gospodarstwie domowym odbywa się konsumpcja, której celem jest powiększanie korzyści, satysfakcji czerpanych z faktu konsumowania coraz większych ilości dóbr konsumpcyjnych [Dokument elektroniczny, tryb dostępu: http://www.wiedza info.pl/wyklady/112/bilans_gospodarstwa_domowego.html]. W praktyce ekonomicznej i życiu społecznym gospodarstwo domowe kojarzy się najczęściej z rodziną i to niejednokrotnie do takiego stopnia, że te dwie kategorie uznaje się za synonimiczne. U podstaw owego skojarzenia tkwi przede wszystkim statystyka demograficzna. Przez gospodarstwo domowe rozumie się zespół osób wspólnie gospodarujących posiadanym majątkiem w celu zaspokojenia potrzeb jego członków [Bywalec 2009 s. 15]. Wyróżnia się dwie funkcje ludzkiej aktywności: produkcyjną, czyli wytwarzanie dóbr, oraz konsumpcyjną, czyli ich użytkowanie w celu zaspokojenia nieustannie odnawiających się potrzeb człowieka. Wszelkie ludzkie działania oraz zachowania można zakwalifikować bezpośrednio lub pośrednio do grup produkcyjnych lub konsumpcyjnych [Bywalec 2009 s. 17]. Podsumowując, głównym celem gospodarstwa domowego jest maksymalizacja zaspokajania wspólnych oraz indywidualnych potrzeb jego członków. Funkcja ta realizowana jest przez konsumpcję dóbr materialnych i usług [Kędzior 1998 s. 71]. Gospodarstwa domowe można klasyfikować według różnych kryteriów. Podstawowym podziałem jest wielkość gospodarstwa mierzona liczbą osób wchodzących w jego skład. Przyjmując to kryterium, można wyróżnić: – gospodarstwa jednoosobowe – tworzone tylko przez jedną osobę; – gospodarstwa wieloosobowe – gospodarstwa obejmujące dwie i więcej osób [Dokument elektroniczny, tryb dostępu: http://www.stat.gov.pl/lodz/ 69_160_PLK_HTML.htm, data wejścia: 10.07.2010]. 230 Ewa Tokajuk Ważnym kryterium klasyfikacyjnym gospodarstw domowych może być miejsce zamieszkania większości ich członków: – gospodarstwo miejskie – stanowią gospodarstwa ulokowane w miastach; – gospodarstwo wiejskie – stanowią gospodarstwa, których stałym miejscem jest wieś [Bywalec 2009 s. 20]. 3. Aktywa finansowe polskich gospodarstw domowych Przez aktywa finansowe gospodarstw domowych rozumie się nieskonsumowaną część dochodów tych podmiotów, ulokowaną na rynku finansowym lub odłożoną w postaci gotówki. W skład aktywów finansowych nie wchodzi majątek trwały, mimo że w niektórych przypadkach może on służyć jako zabezpieczenie kredytów i pożyczek. Można go także sprzedać, a uzyskane środki ulokować na rynku finansowym [Fatuła 2010 s.117]. Na początku lat 90. XX wieku aktywami finansowymi polskich gospodarstw domowych były wyłącznie lokaty bankowe oraz gotówka, w dużej mierze w obcych walutach, przechowywana w domu. Było to spowodowane obawą przed szybką dewaluacją złotówki, wynikającą z wysokiej inflacji. Od 1991 r., oszczędności gospodarstw domowych zaczęły być także lokowane w akcje prywatyzowanych przedsiębiorstw oraz obligacje skarbu państwa, a rok później w jednostki funduszy powierniczych, przekształconych później w towarzystwa funduszy inwestycyjnych i ubezpieczenia na życie z funduszem kapitałowym. Znaczący wzrost udziału innych form aktywów nastąpił po 1999 r., kiedy rozpoczęła się reforma emerytalna i otwarte fundusze emerytalne zaczęły zarządzać środkami gromadzonymi na przyszłe emerytury. RYSUNEK 1. Wzrost aktywów finansowych gospodarstw domowych na tle dynamiki przeciętnego wynagrodzenia w gospodarce 1000 800 600 400 200 0 4000 3000 2000 1000 0 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Przeciętne wynagrodzenie brutto w gospodarce (w zł/miesiąc) Aktywa finansowe gospodarstw domowych (w mld zł) Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http://www.izfa.pl – Aktywa funduszy inwestycyjnych, data wejścia: 10.07.2010; dokument elektroniczny, tryb dostępu: http://www.nbp.pl – Należności i zobowiązania monetarnych instytucji finansowych, Rozwój systemu finansowego w Polsce, data wejścia: 10.07.2010]. Możliwości inwestycyjne go ospodarstw domow wych na polskim rynku r ... 2331 Kolejnym, przełłomowym momentem, jeśli choddzi o strukturę aktywów a finanso owycch polskich gosp podarstw domo owych, było wprrowadzenie, podd koniec 2001 r., r poddatku od odsetekk kapitałowych [F Fatuła 2010 s. 1118]. RYSUNEK 2. 2 Wzrost oszczędności gospodarstw g do omowych (w mld m zł) Źró ódło: [Analizy Onlline, na podstawie danych: NBP, MF F, GUS i TFI]. 4. Lokaty L bankow we ogo przekonywaćć, że lokaty ban nkowe nie są to najbardziej efekkNie trzeba niko tyw wne formy oszczzędzania. Dosyć wysoki, dotych hczasowy poziom m stóp procento owycch nie zmuszałł jednak do po oszukiwania inn nych form loko owania pieniędzyy. W chwili c obecnej obraz ten z wolnaa zaczyna ulegać zmianie. Po częęści przyczynia siię do tego wprowadzeenie podatku od odsetek od lokat. Lokaty bankow we gospodarstw domowych przyyrastały w latach h 90. i osiągnęłły k 2001 r. po oziom 224,5 mld d zł. Następnie p przez trzy kolejne lata ich wartośść w końcu mallała (od wprowaadzenia „podatkuu Belki”) do 2100 mld zł w 20044 r., by ponowniie zaczząć rosnąć w 2005 r., osiągając poziom p 391 mld zł pod koniec 2009 2 r. Udział deepozzytów terminow wych w lokatach h bankowych sp padał z 78% w 2001 r. do 47% % w 2007r., 2 następniee wzrósł w 20088 r. do 56%. N Na początku tego o okresu wysokiie bezzrobocie nie sprrzyjało gromadzzeniu oszczędno ości. Spadek warrtości depozytów w wyn nikał z: wykorzyystywania części środków na biieżące potrzeby gospodarstw do omow wych, finansowaania wyjazdów zagranicznych z w poszukiwaniu pracy oraz loko owan nia w fundusze inwestycyjne, kttóre zaczęły przzynosić wyższe stopy zwrotu niiż wyn nosiły odsetki bankowe. b Popraw wa koniunktury na rynku pracyy, która nastąpiłła w 2005 2 r., spowodo owała znaczny przyrost p depozyttów bieżących i dalszy d spadek deepozzytów terminowyych. Kryzys finaansowy i spadkii cen na rynku akcji, a pod konieec 20007 r., spowodow wały wycofywaniie środków z fuunduszy inwestyccyjnych i ich po onow wne inwestowaniie w bezpieczne lokaty bankowe [Wałęga 2006 s. 119]. 232 Ewa Tokajuk RYSUNEK 3. Depozyty i odsetki gospodarstw domowych w latach 1999–2009 (w mld zł) 500 400 300 200 100 0 1999 2000 2001 2002 Depozyty bieżące 2003 2004 2005 Depozyty terminowe 2006 2007 2008 2009 Odsetki Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http://emerytury.wp.pl/kat,7071,title,Aktywa-OFE-spadly-w-maju-o-15-proc-do-193-mldzl,wid,12332827,wiadomosc.html, data wejścia: 10.07.2010]. 5. Aktywa funduszy inwestycyjnych Najdynamiczniej rosnącymi aktywami gospodarstw domowych są środki zgromadzone w funduszach inwestycyjnych. Ich wartość w ciągu 16 lat przyrastała średnio kilkadziesiąt procent rocznie. Tylko w: 1995 r., 1998 r. i 2008 r. nastąpił spadek wartości aktywów w stosunku do lat poprzednich. Pod koniec 2008 r. około 2,6 mln Polaków posiadało jednostki uczestnictwa w funduszach inwestycyjnych, warte ok. 74,2 mld zł. Zmniejszenie się wartości aktywów w 2008 r. było spowodowane spadkiem wartości instrumentów finansowych. W 2009 r. nastąpił jednak wzrost środków zgromadzonych w funduszach inwestycyjnych i wyniósł ok. 86 mld zł [Dokument elektroniczny, tryb dostępu: http://www.money.pl/fundusze/wiadomosci/ artykul/rosnie;wartosc;aktywow;funduszy;inwestycyjnych, /gospodarka/wskazniki/ wynagrodzenie, data wejścia: 09.06.2009]. Największy udział w aktywach (ok. 51%) mają fundusze akcyjne i mieszane, które charakteryzują się stosunkowo wysokim ryzykiem inwestycyjnym. Bezpieczniejsze fundusze – dłużne, pieniężne, gotówkowe i ochrony kapitału – stanowiły tylko ok. 28% wszystkich aktywów. Proporcje te są odwrotne niż przed 2005 r., kiedy znacznie wzrosła liczba osób lokujących w ten sposób swoje oszczędności. Od tego roku następował systematyczny przepływ środków z bezpieczniejszych do bardziej ryzykownych form funduszy [Fatuła 2010 s. 117]. Możliwości inwestycyjne gospodarstw domowych na polskim rynku ... 233 RYSUNEK 4. Aktywa zarządzane przez towarzystwa funduszy inwestycyjnych w latach 1992–2009 (w mln zł) 160000 140000 120000 100000 80000 60000 40000 20000 0 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http:// www.wiedzainfo.pl/wyklady/112/bilans_gospodarstwa_domowego.html, data wejścia: 10.07. 2010]. RYSUNEK 5. Udział poszczególnych typów funduszy inwestycyjnych w zarządzanych aktywach na koniec 2009 r. Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http:// www.wiedzainfo.pl/wyklady/112/bilans_gospodarstwa_domowego.html, data wejścia: 10.07. 2010]. 2344 Ewa Tokajuk 6. Skarbow we papiery warttościowe bu Państwa, dzięęki intensywnej kkampanii inform macyjnej i promo oObligacje Skarb cyjn nej w środkach masowego m przekkazu, są w ostatn nich latach jednym m z najlepiej rozzpozznawanych, obokk bankowych lokkat terminowych h, produktem oszzczędnościowym m. Mim mo to, stanowiąą one ok. 2%-4% % wszystkich akttywów finansow wych gospodarstw w dom mowych, poniew waż ich oprocento owanie nie jest kkonkurencyjne. Ten rodzaj inweestycji jest cenio ony przez gospodarstwa domow we, ze względu na n bezzpieczeństwo ulo okowanego kapiitału. Jego gwarrantem jest sam m Skarb Państwaa, który zobowiązuje się do wykupuu obligacji oraz wypłacenia usttalonych odsetekk. mowe, dysponująące nawet niewieelkimi kwotami,, mogą zaangażo oGospodarstwa dom dwaćć się w tę formęę inwestycji, gdyżż minimalna waartość dokonaneggo, w tym przed mio ocie, zakupu wyn nosi zaledwie 1000 zł. Kolejnym m pozytywem oszczędnościowycch obliigacji skarbowycch jest możliwość wycofania zain nwestowanych śrrodków w dowolnym m momencie, beez zagrożenia utrraty odsetek. W przypadku 3-letniego okresu in nwesstowania istniejee zaś możliwośćć ich sprzedaży na rynku wtórrnym [Dokumen nt elekktroniczny, tryb dostępu: http://www.money.pll/fundusze/wiaddomosci/artykull/ rosn nie; wartosc;aktyywow;funduszy;iinwestycyjnych, /gospodarka/ wskazniki/ w wynaagrodzenie/ z dnia 09.06.2009 0 r.]. RYSUNEK 6. 6 Skarbu Państw wa Sprrzedaż obligacji detalicznych S mln zł) w latach 2006–2009 (w m Źró ódło: Dokument elektroniczny, e tryb b dostepu: http:///www.mf.gov.pl, data d wejścia: 10.066. 2010. większą popularn nością cieszyły się s obligacje trzyyNa początku teego stulecia najw letn nie. Sposób obliiczania i wypłatty odsetek gwarrantował nadążaanie za zmianam mi rynkowymi stóp procentowych p w stosunkowo kkrótkich, półroccznych okresach h. Możliwości inwestycyjne gospodarstw domowych na polskim rynku ... 235 Przeprowadzona kampania promocyjna obligacji oraz spadek notowań giełdowych i rynkowych stóp procentowych przyczyniały się do większego zainteresowania przede wszystkim obligacjami dwuletnimi. Znacznie zwiększyły się zakupy obligacji pięcioletnich i hurtowych. W połowie lat 2000 wzrosła natomiast wartość portfeli obligacji długoterminowych. RYSUNEK 7. Miesięczna sprzedaż skarbowych obligacji detalicznych w okresie: VI 2009 r. – VI 2010 r. Źródło: [Dokument elektroniczny, tryb dostępu: http://www.nbp.pl – Należności i zobowiązania monetarnych instytucji finansowych, Rozwój systemu finansowego w Polsce, data wejścia: 10.06.2010]. W 2004 r. nastąpił wzrost sprzedaży obligacji o stałym oprocentowaniu i spadek wartości obligacji o zmiennym oprocentowaniu. W 2005 r. zmniejszyła się wartość wszystkich obligacji w portfelach gospodarstw domowych, oprócz długoterminowych. Wzrosty indeksów giełdowych zachęciły do zainwestowania środków w bardziej ryzykowne instrumenty. Lata 2006–2007 charakteryzowały się ogromnym spadkiem zainteresowania obligacjami, aż do pojawienia się kryzysu finansowego. Ze względu na obawy związane z wahaniami rynku finansowego, gospodarstwa domowe ponownie zaczęły lokować swoje środki w bezpiecznych papierach, począwszy od końca 2008 roku. 236 Ewa Tokajuk 7. Indywidualne konta emerytalne, pracownicze programy emerytalne, pracownicze fundusze emerytalne Indywidualne konta emerytalne, pracownicze programy emerytalne, pracownicze fundusze emerytalne jako formy gromadzenia środków na emeryturę wchodzą w zakres tzw. III dobrowolnego filaru systemu emerytalnego. Indywidualne konta emerytalne (IKE) stanowią część sformalizowanego indywidualnego oszczędzania na ten cel. Do końca 2008 r. na taką formę oszczędzania zdecydowało się niespełna 854 tys. osób, czyli dwa razy więcej niż w 2005 r. W 2009 r. liczba zamykanych rachunków, w związku z dokonaniem wypłaty, wypłaty transferowej i zwrotu, była wyższa od liczby nowo otwieranych kont o 45,7 tys. TABLICA 1. Liczba prowadzonych IKE Liczba IKE (w szt.) Zakłady ubezpieczeń Towarzystwa funduszy inwestycyjnych Podmioty prowadzące działalność maklerską Banki OGÓŁEM Udział w wartości ogółem (w %) Dynamika (w %) 31.12.2008 31.12.2009 31.12.2008 31.12.2009 2009/2008 633665 592973 74,2 73,3 93,6 173 776 172 532 20,4 21,3 99,3 9 985 11 732 1,2 1,4 117,5 36 406 31 982 4,3 4,0 87,8 853 832 809 219 100,0 100,0 94,8 Źródło: Obliczenia własne na podstawie: [Dokument elektroniczny, tryb dostępu: http:// www.money.pl/fundusze/wiadomosci/artykul/rosnie;wartosc;aktywow;funduszy;inwestycyj nych, /gospodarka/wskazniki/wynagrodzenie, daty wejścia: 09.06.2009, 09.07.2010]. Pracownicze programy emerytalne, zgodnie z przepisami ustawy o ppe, pracodawca tworzy dla swoich pracowników jako program umożliwiający gromadzenie środków na przyszłą emeryturę. Do wskazanej w zakładowej umowie emerytalnej instytucji finansowej są odprowadzane środki z tytułu składki podstawowej, którą finansuje pracodawca, oraz z tytułu składki dodatkowej wnoszonej dobrowolnie przez uczestników programu z własnych środków. Według danych uzyskanych od podmiotów zarządzających, w 2009 r. liczba uczestników pracowniczych programów emerytalnych wzrosła w porównaniu z rokiem poprzednim o 2,6% i wyniosła na koniec 2009 r. prawie 334 tys. osób, natomiast wartość aktywów zgromadzonych w ramach ppe wzrosła w porównaniu z 2008 r. o 38,5% i na koniec omawianego okresu wyniosła prawie 5,0 mld zł. Możliwości inwestycyjne gospodarstw domowych na polskim rynku ... 237 RYSUNEK 8. Rozwój ppe – liczba programów oraz liczba uczestników ppe w latach 1999–2009 Źródło: Opracowanie własne na podstawie: [Dokument elektroniczny, tryb dostępu: http:// www.money.pl/fundusze/wiadomosci/artykul/rosnie;wartosc;aktywow;funduszy; inwestycyjnych, /gospodarka/wskazniki/wynagrodzenie, daty wejścia: 09.06.2009, 09.07. 2010]. Pracownicze fundusze emerytalne (PFE) są zarządzane przez pracownicze towarzystwa emerytalne (PTE). Towarzystwa te muszą mieć formę spółki akcyjnej, powołanej do zarządzania gromadzonymi środkami na zasadzie non profit. Pod koniec 2008 r. działało tylko pięć PFE, dysponujących łącznie kwotą ok. 1 mld zł. Na dzień 31 marca 2010 roku rynek pracowniczych funduszy emerytalnych (PFE) składał się z 5 podmiotów (Telekomunikacja Polska, Nowy Świat, Nestle Polska, Unilever Polska, PZU „Słoneczna Jesień”). Łączna wartość aktywów netto PFE na koniec marca 2010 r. kształtowała się na poziomie 1,43 mld złotych (wzrost w okresie ostatnich 36 miesięcy o 52,4%). Aktywa zgromadzone w tej formie pracowniczych programów emerytalnych stanowiły, na koniec marca 2010 roku, 0,75% aktywów netto otwartych funduszy emerytalnych (II filar ubezpieczeń społecznych). Dominującą pozycję na rynku PFE, pod względem zarządzanych aktywów netto, zajmował na koniec analizowanego okresu Pracowniczy Fundusz Emerytalny Telekomunikacji Polskiej. Dysponował on aktywami o wartości 0,89 mld zł, co dawało mu 61,8% udziału w rynku [Dokument elektroniczny, tryb dostępu: http://www.money.pl/ fundusze/ wiadomosci/ artykul/ rosnie;wartosc;aktywow;funduszy;inwestycyjnych,/ gospodarka/wskazniki/wynagrodzenie, daty wejścia: 09.06.2009, 09.07.2010]. 2388 Ewa Tokajuk 8. Aktywa finaansowe polskicch gospodarstw w domowych – porównanie p nansowych w 20009 r. wynika, że ż Z analizy przeddstawionej strukttury aktywów fin naddal najpopularnieejsze są depozytty i lokaty banko owe. Z wyjątkieem 2008 r., kied dy nastąpił transfer śro odków z funduszy inwestycyjnycch, udział tych form f lokat kapitaas spada, zwiększa się s natomiast udzział aktywów otw wartych funduszzy łu systematycznie emeerytalnych, towaarzystw funduszyy inwestycyjnych h i ubezpieczeń na n życie. Od stro ony podażowej tenddencja ta wynikaa z rozwoju i dzziałań marketinggowych instytuccji opytowej – z ro osnących dochoddów, wiedzy i zaarynku finansowego, a od strony po nia klientów do tych form gromaadzenia nadwyżeek finansowych [Cudowska-Sojkko ufan 20006 s. 149–154]. RYSUNEK 9. 9 uktura oszczędności gospodarrstw domowych h, Stru w według rodzaju u instrumentów w finansowych Źró ódło: [Analizy Onlline, na podstawie danych: NBP, MF F, GUS, TFI i PTE E]. 9. Podsumowanie P e J ukazało oprracowanie, wachlarz możliwości inwestycyjnych gospodarstw do Jak omow wych jest bardzo o szeroki. Uwzgllędniając swoje p potrzeby, a takżee sytuację panująącą na n rynku zarówno polskim, jakk i światowym, ttzw. inwestorzy indywidualni po owin nni wybrać te fo ormy lokowania kapitału, które odpowiadają im m najbardziej. Niie zap pominając jednakk o dywersyfikaccji produktów, co o, nawet przy ryzzykownych inweestyccjach, pozwoli zw większyć bezpiecczeństwo kapitałłu. Struktura aktyw wów finansowycch gospodarstw domowych ulegga zmianie. Ilośść lokaat bankowych zmniejszyła się niemal n dwukrotn nie, udział aktyw wów funduszy in nwesstycyjnych wzróssł trzykrotnie, jeeszcze większy w wzrost w tym zakresie z osiągnęłły Możliwości inwestycyjne gospodarstw domowych na polskim rynku ... 239 otwarte fundusze emerytalne, z 3% do 20%. Natomiast udział, zgromadzonych w III dobrowolnym filarze, ubezpieczeń emerytalnych jest niski i wynosi ok. 0,4%. Świadczy to o małej skłonności do dobrowolnego oszczędzania na emeryturę. Przyczyną są nie tylko niskie dochody, nie pozwalające odłożyć znaczących środków, ale także przenoszenie odpowiedzialności za wysokość przyszłej emerytury na państwo lub pracodawcę. Literatura Bywalec Cz. 2009 Ekonomika i finanse gospodarstw domowych, Warszawa. Cudowska-Sojko A., Dzun A. 2006 Skłonność do oszczędzania jako determinanta wielkości i struktury oszczędności gospodarstw domowych w Polsce, [w:] Kopycińska D. (red.), Zachowania rynkowe gospodarstw domowych i przedsiębiorstw w okresie transformacji systemowej w Polsce , Szczecin. Fatuła D. 2010 Zachowania polskich gospodarstw domowych na rynku finansowym, Kraków. Kędzior Z. 1998 Gospodarstwo domowe jako obiekt badań, [w:] Konsument – przedsiębiorstwo – rynek, Katowice. Kopycińska D. 2006 Zachowania rynkowe gospodarstw domowych i przedsiębiorstw w okresie transformacji systemowej w Polsce, Szczecin. Wałęga G. 2006 Zadłużenie polskich gospodarstw domowych z tytułu kredytów bankowych, [w:] Kopycińska D. (red.), Zachowania rynkowe gospodarstw domowych i przedsiębiorstw w okresie transformacji systemowej w Polsce, Szczecin. Zalega T. 2007 Gospodarstwo domowe jako podmiot konsumpcji, Warszawa. Źródła internetowe Dokument elektroniczny, tryb dostępu: [http://www.stat.gov.pl/lodz/69_160_PLK_ HTML. htm, data wejścia: 10.07.2010]. Dokument elektroniczny, tryb dostępu: [http://www.wiedzainfo.pl/wyklady/112/bilans_ gospodarstwa_domowego.html, data wejścia: 10.07.2010]. Dokument elektroniczny, tryb dostępu: [http://emerytury.wp.pl/kat,7071,title,AktywaOFE-spadly-w-maju-o-15-proc-do-193-mld-zl,wid,12332827,wiadomosc.html, data wejścia: 10.07.2010]. Dokument elektroniczny, tryb dostępu: [http://www.nbp.pl – Należności i zobowiązania monetarnych instytucji finansowych, Rozwój systemu finansowego w Polsce, data wejścia: 10.07.2010]. Dokument elektroniczny, tryb dostępu: [http://www.money.pl/fundusze/wiadomosci/ artykul/ rosnie; wartosc; aktywow; funduszy; inwestycyjnych, /gospodarka/wskazniki/ wynagrodzenie, data wejścia: 09.06.2009]. Dokument elektroniczny, tryb dostępu: [http://www.mf.gov.pl, data wejścia: 10.06.2010]. Dokument elektroniczny, tryb dostępu: [http://www.knf.gov.pl, data wejścia: 09.07.2010]. Dokument elektroniczny, tryb dostępu: [www.analizy.onlina.pl, data wejścia: 10.07.2010]. OPTIMUM. STUDIA EKONOMICZNE NR 1 (49) 2011 INFORMACJE Projekt jest współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego W ramach Programu Operacyjnego Kapitał Ludzki, Priorytet IV. Szkolnictwo Wyższe i Nauka, Działanie 4.2. Rozwój kwalifikacji kadr systemu B+R i wzrost świadomości roli nauki w rozwoju gospodarczym jest realizowany w Katedrze Zrównoważonego Rozwoju i Gospodarki Opartej na Wiedzy, Wyższej Szkoły Ekonomicznej w Białymstoku projekt „BADANIA I ROZWÓJ W GOSPODARCE OPARTEJ NA WIEDZY”. Realizacja działań opisanych w projekcie przyczynia się do budowy społeczeństwa i gospodarki opartej na wiedzy poprzez uświadomienie roli badań naukowych i wdrożeń w kreowaniu rozwoju kraju. W dotychczasowej praktyce obserwuje się niedostateczną współpracę przedsiębiorców z jednostkami sektora B+R. Skutkiem tego jest niedostosowanie badań i prac rozwojowych do potrzeb rynku oraz ograniczony przepływ wiedzy, informacji i technologii z sektora B+R do gospodarki. Polska zajmuje dalekie miejsce w rankingach współpracy nauki i gospodarki, patentowania czy wdrażania innowacji do praktyki gospodarczej. Konieczne jest zatem podniesienie kwalifikacji kadr sektora B+R, w zakresie umiejętności zarządzania projektami oraz komercjalizacji badań, a także zwiększania zakresu i stopnia współpracy sfery B+R z przedsiębiorstwami. Cel projektu stanowi odpowiedź na powyższe potrzeby i uwzględnia wzrost zdolności pracowników sektora B+R do zarządzania projektami badawczymi i pracami rozwojowymi oraz wzrost zakresu upowszechniania rezultatów badań i współpracy naukowców z przedsiębiorcami. Projekt jest skierowany tylko i wyłącznie do pracowników jednostek naukowych, w tym szkół wyższych, placówek Polskiej Akademii Nauk, jednostek badawczo-rozwojowych oraz podmiotów działających na rzecz nauki. Niewątpliwą zaletą realizowanego projektu jest jego dostępność. Nie ma ograniczeń terytorialnych i dziedzinowych. W projekcie mogą brać udział osoby z terenu całego kraju, bez względu na reprezentowaną dziedzinę i dyscyplinę nauki. W ramach projektu przewidziano trzy działania. Są to: 1. Studia podyplomowe Zarządzanie badaniami naukowymi i pracami roz wojowymi. Program studiów obejmie trzy bloki: metodyczny, zarządzania projektami i komercjalizacji rezultatów badań. Blok metodyczny ma na celu udoskonalenie warsztatu naukowego oraz usystematyzowanie wiedzy w zakre- Informacje 241 sie metodologii badań naukowych i prac rozwojowych. Przedmioty wchodzące w jego skład to przede wszystkim metodologia nauk społecznych, przyrodniczych i technicznych, warsztat naukowca, współczesne trendy i koncepcje zarządzania zespołem naukowymi oraz zastosowanie metod ilościowych w badaniach. Na realizację bloku metodycznego przewidziano 88 godzin dydaktycznych. Blok zarządzania projektami ma celu wskazać możliwości finansowania projektów oraz rozwinąć umiejętności skutecznego opracowywania i realizacji badań naukowych i prac rozwojowych. W skład tego bloku wchodzą przedmioty związane z aplikowaniem środków krajowych i unijnych oraz zarządzaniem i kontrolą projektów, oprócz nich przewidziano przedmioty związane z konceptualizacją projektów, liderem zespołu i informatycznymi narzędziami zarządzania. Na realizację tego bloku zaplanowano 80 godzin dydaktycznych. Blok trzeci odnoszący się do komercjalizacji rezultatów badań ma na celu wskazać możliwości i problemy wynikające z upowszechniania rezultatów badań naukowych i prac rozwojowych w gospodarce, a także zwiększyć orientację badań naukowych i prac rozwojowych na praktykę. W ramach tego bloku omawiane będą przede wszystkim zagadnienia innowacji i postępu technicznego, komercjalizacji badań i ochrony własności intelektualnej. Realizacja tego bloku obejmuje 56 godzin dydaktycznych. Zaplanowano tryb studiów niestacjonarny - wyłącznie w soboty i niedziele. System taki ułatwia pogodzenie uczestnictwa w studiach z pracą zawodową. Studia trwają 2 semestry po 7 zjazdów w każdym. Łączna ilość zrealizowanych godzin dydaktycznych wynosi 224. W ramach studiów przewidziano pokrycie kosztów noclegu, wyżywienie w czasie zjazdu oraz materiały szkoleniowe, w tym minimum trzy publikacje dla każdego słuchacza. Dobiega końca pierwsza edycja studiów, wzięło w niej udział 29 uczestników. Zapraszamy do uczestnictwa w drugiej edycji, którą zaplanowano na październik 2011 r. – czerwiec 2012 r. 2. W ramach projektu zaplanowano realizację dwóch rodzajów warsztatów: Identyfikacja kierunków rozwoju nauki oraz Identyfikacja potrzeb gospo darki. W przypadku pierwszych celem jest podniesienie umiejętności korzystania z własnej wiedzy, prognozowania rozwoju wiedzy, poszukiwania nowych obszarów badawczych na granicy dyscyplin nauki oraz komercjalizacji wyników badań do gospodarki, w tym: ochrona i wycena własności intelektualnej, transfer technologii, komunikacja i negocjacje z przedsiębiorcami. Odnośnie drugich warsztatów tj. Identyfikacji potrzeb gospodarki celem jest nabycie umiejętności identyfikacji oczekiwań przedsiębiorcy, sposobów badania jego potrzeb i diagnozy tych potrzeb, doboru rozwiązań do zidentyfikowanych potrzeb. Warsztaty są świetną formą działania, ponieważ pozwalają w nieformalnej atmosferze nawiązać kontakty, poznać wzajemnie potrzeby i oczekiwania oraz sposób myślenia. Zaplanowano jednodniowe warsztaty, a w ich ramach przewidziano pokrycie kosztów noclegu uczestników, wyżywienie i materiały szkoleniowe. Druga edycja warsztatów odbędzie się w październiku 2011 roku w Katowicach. 242 3. Informacje W założeniach projektu zaplanowano również realizację 62 trzymiesięcznych staży w przedsiębiorstwach. Ich głównym celem jest podniesienie stopnia współpracy pomiędzy jednostkami naukowymi, a przedsiębiorcami, skutkującego wzrostem transferu wiedzy i innowacji pomiędzy tymi dwoma sektorami. Możliwość odbycia stażu jest dla pracowników nauki ogromną szansą praktycznego wykorzystania pomysłów oraz zapoznania się z funkcjonowaniem firmy, jej rzeczywistymi problemami i wyzwaniami. Przewidziano dodatek stażowy w wysokości 3000 zł miesięcznie dla stażysty oraz wynagrodzenie opiekuna stażysty ze strony przedsiębiorstwa w wysokości 500 zł miesięcznie brutto. Rekrutacja na staże jest prowadzona w trybie ciągłym. Do końca 2011 roku zrealizowanych zostanie łącznie 32 staże. Na rok 2012 i 2013 zaplanowano kolejnych 30. Posiedzenia Komisji rekrutacyjno-oceniającej dokonującej oceny złożonych aplikacji odbywa się raz na kwartał, przy czym najbliższe dotyczące oceny dokumentów stażowych przewidziano na początek listopada 2011 roku. Zachęcamy do udziału w projekcie, zapewniamy znakomitych wykładowców z najlepszych ośrodków naukowych z całego kraju oraz specjalistów – praktyków z instytucji publicznych oraz przedsiębiorstw wiodących we wdrażaniu nowych systemów zarządzania, technologii i innowacji. Warunkiem uczestnictwa jest złożenie w biurze projektu kompletu dokumentów (formularze są dostępne na stronie internetowej projektu: www.bir-gow.pl). Dane kontaktowe biura projektu: Wyższa Szkoła Ekonomiczna w Białymstoku Katedra Zrównoważonego Rozwoju i Gospodarki Opartej na Wiedzy 15‐732 Białystok, ul. Choroszczańska 31, p. 33 tel./fax. 85 65 26 915 www.bir‐gow. pl; e‐mail: biuro@bir‐gow.pl Katarzyna Poskrobko Koordynator projektu Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku poleca publikacje naukowe: Henryk Wnorowski INSTYTUCJONALNE UWARUNKOWANIA DZIAŁALNOŚCI PRZEDSIĘBIORSTW W KRAJACH UNII EUROPEJSKIEJ Spis treści: 1. Teoretyczne i metodologiczne podstawy badania aktywności gospodarczej; 2. Bariery instytucjonalne w sferze działalności gospodarczej; 3. Zróżnicowanie w poziomie rozwoju gospodarczego oraz sile ograniczeń instytucjonalno-prawnych w sferze aktywności gospodarczej w wybranych krajach UE; 4. Metodologia „DOING BUSINESS” jako argument na rzecz wykorzystania danych Banku Światowego w procesie weryfikacji hipotezy głównej niniejszego badania; 5. Opis zróżnicowania państw UE pod względem warunków instytucjonalno-prawnych, traktowanych jako zmienne objaśniające poziom aktywności gospodarczej; 6. Uwarunkowania instytucjonalno-prawne a poziom aktywności gospodarczej w krajach UE wyniki badań i wnioski końcowe. Adam Wyszkowski PODATKI POŚREDNIE I DOCHODOWE W SYSTEMIE PODATKOWYM Spis treści: 1. System podatkowy w gospodarce rynkowej; 2. Ewolucja systemu podatkowego w Polsce; 3. Podatki pośrednie jako źródło dochodów budżetu państwa; 4. Podatki dochodowe jako źródło dochodów budżetu państwa; 5. Wybrane zagadnienia konstrukcji optymalnego systemu podatkowego; 6. Wnioski końcowe Barbara Roszkowska-Mądra OBSZARY WIEJSKIE O NIEKORZYSTNYCH WARUNKACH GOSPODAROWANIA W ASPEKCIE ICH ZRÓWNOWAŻONEGO ROZWOJU Spis treści: 1. Współczesne koncepcje rozwoju rolnictwa i obszarów wiejskich; 2. Charakterystyka obszarów o niekorzystnych warunkach gospodarowania (ONW) i podstawy teoretyczne polityki ich wspierania; 3. Polityka Unii Europejskiej wobec gospodarowania na obszarach ONW; 4. Obszary ONW w Polsce; 5. Propozycja wydzielania nizinnych obszarów ONW i ich rodzajów na podstawie typologii systemów gospodarowania w rolnictwie; 6. Uwarunkowania rozwoju obszarów wiejskich województwa podlaskiego; 7. Zastosowanie typologii systemów gospodarowania w rolnictwie gmin w województwie podlaskim do wydzielania rodzajów nizinnych obszarów ONW; 8. Kierunki rozwoju i zalecane formy wsparcia dla wyróżnionych rodzajów ONW w województwie podlaskim Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku poleca publikacje dydaktyczne: Zdzisław Czajka GOSPODAROWANIE KAPITAŁEM LUDZKIM Białystok 2011, ISBN 978-83-7431-258-5 Ewa Roszkowska WYBRANE MODELE NEGOCJACJI Białystok 2011, ISBN 978-83-7431-259-2 Krzysztof Barteczko, Andrzej F. Bocian PROGNOZOWANIE I SYMULACJE PROCESÓW GOSPODARCZYCH Białystok 2010, ISBN 978-83-7431-272-1 PODYPLOMOWE STUDIA RACHUNKOWOŚCI I AUDYTU WEWNĘTRZNEGO W JEDNOSTKACH SEKTORA PUBLICZNEGO 15-062 Białystok ul. Warszawska 63 pok. 208 tel. (085) 7457702, fax (085) 7457702 Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB Sekretariat: Grażyna Majewska CEL STUDIÓW − zdobycie i pogłębienie wiedzy z zakresu organizacji i funkcjonowania sektora finansów publicznych, − pogłębienie wiedzy w zakresie prawa finansów publicznych i administracji publicznej, − przekazanie słuchaczom wiedzy na temat szczególnych zasad i metod prowadzenia rachunkowości w jednostkach sektora finansów, − poznanie nowych regulacji dotyczących organizacji i zasad przeprowadzania wewnętrznej kontroli finansowej w jednostkach sektora finansów publicznych, − zdobycie praktycznych umiejętności w zakresie tworzenia oraz analizy funkcjonowania i oceny komórek kontroli finansowej i audytu wewnętrznego. STUDIA ADRESOWANE SĄ DO: − głównych księgowych i kadry kierowniczej w jednostkach sektora finansów publicznych − pracowników odpowiedzialnych za prowadzenie nowoczesnego systemu audytu wewnętrznego i kontroli finansowej w jednostkach sektora publicznego. Zasady naboru: - decyduje kolejność zgłoszeń. Warunki rekrutacji: - odpis dyplomu, - kwestionariusz osobowy, - podanie, - poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego. PODYPLOMOWE STUDIA FINANSÓW I RACHUNKOWOŚCI PRZEDSIĘBIORSTW 15-062 Białystok ul. Warszawska 63 pok. 208 tel. (085) 7457702, fax (085) 7457702 Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB Sekretariat: Grażyna Majewska Podyplomowe Studia Finansów i Rachunkowości Przedsiębiorstw istnieją od roku akademickiego 1992/1993. Przeznaczone są dla absolwentów szkół wyższych różnej specjalności. Celem studiów jest przygotowanie kadr dla przedsiębiorstw i instytucji w zakresie finansów i rachunkowości oraz przygotowanie słuchaczy do działalności usługowej w zakresie prowadzenia ksiąg rachunkowych. Studia trwają dwa semestry, kończą się zaliczeniami lub egzaminami z poszczególnych przedmiotów. Zajęcia odbywają się w formie 7 dwudniowych zjazdów w weekendy w każdym semestrze i obejmują ponad 300 godz. zajęć dydaktycznych. Studia kończą się wydaniem świadectwa ukończenia studiów podyplomowych. Wykładane są następujące przedmioty: - rachunkowość finansowa, - sprawozdawczość finansowa, - rachunek kosztów, - system podatkowy, - papiery wartościowe, - prawo cywilne, gospodarcze i administracyjne, - system informatyczny i podstawy informatyki, - wykłady okolicznościowe. Zasady naboru: - decyduje kolejność zgłoszeń. Warunki rekrutacji: - odpis dyplomu, - kwestionariusz osobowy, - podanie, - poświadczenie opłaty manipulacyjnej oraz pierwszej wpłaty czesnego. PODYPLOMOWE STUDIA MENEDŻERSKIE 15-062 Białystok ul. Warszawska 63 pok. 229 tel. (0~85) 745 77 25 fax (0~85) 741 46 85 Kierownik: dr hab. Tadeusz Truskolaski, prof. UwB Sekretariat: Anna Kitlasz Podyplomowe Studia Menedżerskie istnieją od roku 1992. Przeznaczone jest dla absolwentów szkół wyższych, różnych specjalności. Wykładowcami są pracownicy naukowi oraz praktycy, dyrektorzy banków i specjaliści z poszczególnych dziedzin. Program i treści nauczania dostosowane są do potrzeb i wymagań rynku. Studium daje szansę nawiązania ciekawych kontaktów oraz konsultacji z wieloma specjalistami z różnych branż. Zasady naboru: decyduje kolejność zgłoszeń. Warunki rekrutacji: odpis dyplomu, kwestionariusz osobowy, podanie, opłata manipulacyjna. Studia trwają dwa semestry. Zajęcia odbywają się w formie 2-dniowych zjazdów (w soboty i niedziele) i obejmują 256 godzin zajęć dydaktycznych. Studia kończą się egzaminem i wydaniem świadectwa ukończenia studiów podyplomowych. Wykładane są następujące przedmioty: Organizacja i zarządzanie • • Zarządzanie finansami i rynek kapitałowy • Marketing • Zarządzanie zasobami pracy • Zarządzanie strategiczne • Biznes plan • System podatkowy • Funkcjonowanie gospodarki rynkowej • Rachunkowość zarządcza • Negocjacje w biznesie • Public relations • Prawo pracy • Zamówienia publiczne • Rynek i wycena nieruchomości • Zajęcia komputerowe • Seminaria - wykłady okolicznościowe PODYPLOMOWE STUDIA ZARZĄDZANIA PROJEKTAMI UNII EUROPEJSKIEJ 15-062 Białystok, ul. Warszawska 63, pok. 234, tel. (085) 7457721, fax (085) 7414685 e-mail: [email protected] http://www.weiz.uwb.edu.pl/ Kierownik: dr Elżbieta Sulima Sekretariat: mgr Jolanta Wiszniewska Cele studiów Przekazanie praktycznych umiejętności opracowania projektu i jego zarządzania (w tym finansowego) oraz wypełniania wniosków, gwarantujących pozyskanie środków finansowych z Unii Europejskiej. Adresaci Wszystkie osoby, które są zobowiązane lub pragną z tytułu potrzeb lub planów zawodowych otrzymać wiedzę dotyczącą pozyskiwania środków finansowych z Unii Europejskiej. W szczególności program kierowany jest do: – przedsiębiorców, – pracowników administracji samorządowej, organizacji pozarządowych, – nauczycieli – absolwentów szkół wyższych – i innych osób zamierzających uzyskać kwalifikacje niezbędne do pozyskiwania środków finansowych z UE Korzyści Przygotowanie specjalistów w dziedzinie zarządzania projektami Unii Europejskiej. Studia dają możliwość nawiązania kontaktów z osobami bezpośrednio zaangażowanymi w realizację projektów finansowanych z funduszy strukturalnych Zasady naboru: decyduje kolejność zgłoszeń. Należy złożyć następujące dokumenty: – odpis dyplomu – podanie – kwestionariusz osobowy – oświadczenie – opłata manipulacyjna – opłata I raty czesnego. PODYPLOMOWE STUDIA WYCENY I GOSPODARKI NIRUCHOMOŚCI Specjalności: WYCENA NIERUCHOMOŚCI ZARZĄDZANIE NIERUCHOMOŚCIAMI POŚREDNICTWO W OBROCIE NIERUCHOMOŚCIAMI Kierownik Studiów: dr Dorota Wyszkowska e-mail: [email protected] Sekretariat: mgr Jolanta Wiszniewska tel. 085 745 77 21 fax 085 741 46 85 e-mail: [email protected] CEL STUDIÓW: Celem Studiów jest przygotowanie słuchaczy, w zależności od wybranej specjalności, do ubiegania się, po spełnieniu dodatkowych wymogów (praktyki zawodowe) o uzyskanie uprawnień zawodowych: – – – RZECZOZNAWCY MAJĄTKOWEGO POŚREDNIKIA W OBROCIE NIERUCHOMOSCIAMI LUB ZARZĄDCY NIERUCHOMOŚCI. Uczestnikami Studiów mogą być absolwenci szkół wyższych. Studia trwają 2 semestry od października do czerwca w wymiarze godzin określonym w ramowych programach studiów. Programy zgodne są z „minimum programowym” zalecanym przez Ministerstwo Infrastruktury, zawartym w Rozporządzeniu Ministra Infrastruktury z dnia 7 czerwca 2010 r. w sprawie ustalenia minimalnych wymogów programowych dla studiów podyplomowych w zakresie wyceny nieruchomości (Dz. Urz. Min. Bud. Nr 3, poz. 16). Zajęcia odbywają się w 2-dniowych zjazdach (soboty i niedziele) co 2 tygodnie i kończą się przygotowaniem pracy dyplomowej oraz egzaminem Zasady naboru: o przyjęciu decyduje kolejność zgłoszeń WYMAGANE DOKUMENTY: – – – – – odpis dyplomu kwestionariusz oświadczenie opłata manipulacyjna opłata I raty czesnego PODYPLOMOWE STUDIA ZARZĄDZANIA ZASOBAMI LUDZKIMI 15-062 Białystok ul. Warszawska 63, pok. 225 tel. (085) 745-77-19, fax (085) 741-46-85 e-mail: agrzes@ uwb.edu.pl http://www.weiz.uwb.edu.pl Kierownik: dr Anna Grześ CEL STUDIÓW: Przekazanie specjalistycznej wiedzy teoretycznej i praktycznych umiejętności z zakresu zarządzania zasobami ludzkimi niezbędnych do skutecznego funkcjonowania organizacji. Zakres ten obejmuje m.in.: – zasady i metody rekrutacji i selekcji, – system ocen pracowniczych, – systemy wynagradzania, – prawo pracy i zbiorowe stosunki pracy, – negocjacje zbiorowe, – zarządzanie karierami i rozwojem pracowników, itp. ORGANIZACJA STUDIÓW: Studia trwają 2 semestry. Obejmują 188 godzin dydaktycznych. Zajęcia odbywają się w 2-dniowych zjazdach (w soboty i niedziele) co 2 tygodnie i kończą się obroną pracy dyplomowej oraz wydaniem świadectwa ukończenia studiów podyplomowych. STUDIA ADRESOWANE SĄ DO: – kadry kierowniczej przedsiębiorstw, – pracowników działu kadr, – osób zainteresowanych zdobyciem oraz pogłębieniem wiedzy z zakresu problematyki zarządzania zasobami ludzkimi w nowoczesnych organizacjach. WYMAGANE DOKUMENTY: – kwestionariusz osobowy – odpis dyplomu, – oświadczenie, – poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego Zasady naboru: – decyduje kolejność zgłoszeń.
Podobne dokumenty
Pobierz numer
Summary The aim of this article is to present trends and tendencies which may be encountered while modelling economic phenomena, processes as well as social interactions, and to illustrate how the ...
Bardziej szczegółowo