spis treści - POLITECHNIKA RZESZOWSKA im. Ignacego
Transkrypt
spis treści - POLITECHNIKA RZESZOWSKA im. Ignacego
SPIS TREŚCI J. ABRAMCZYK: A new proposal for determination of ruled surfaces ...... 5 L. BICHAJŁO: Alternatywa dla wiaduktów nad liniami kolejowymi ......... 19 B. JANUSZEWSKI: Pewien sposób graficznego zapisu perspektywy pionowej figur przestrzeni M4 .................................................................. 27 J. JAREMSKI, G. STRAŻ: Badania parametrów gruntowych pyłów rzeszowskich przy pomocy aparatu GDS instruments LTD .................... 37 J. JAREMSKI, K. WILK: Analiza wpływu zmian zawilgocenia gruntów madowych wywołanych stanami powodziowymi na parametry geotechniczne ........................................................................................... 47 P. LUDERA: Charakterystyka cech mechanicznych młodego betonu w elementach średniomasywnych. Przegląd literatury i badania własne ................................................................................................. 55 J. ŁAKOMY: Wpływ włókien szklanych i polipropylenowych na właściwości zapraw cementowych ............................................................... 73 L. PIANOWSKI: Problem dokładności pomiarów kontrolnych w budownictwie ................................................................................................ 81 A. PROKOPSKA: Koncepcja architektoniczna rozbudowy i modernizacji istniejącego budynku .......................................................................... 93 G. PROKOPSKI, J. HALBINIAK, B. LANGIER: Wpływ czasu dojrzewania na właściwości betonu żwirowego ........................................... 109 A. RYBKA, B. DROZD: Kształtowanie domów jednorodzinnych wykorzystujących energię słoneczną ........................................................... 121 T. SIWOWSKI, M. PIEKIEŁEK: Studium modernizacji mostu przez Wisłę w Nagnajowie z wykorzystaniem pomostu aluminiowego ........... 135 4 A. STARAKIEWICZ: Azbest w budynkach – problem do mądrego rozwiązania .............................................................................................. 151 A. STARAKIEWICZ: Hydroizolacje w obiektach budowlanych – przegląd materiałów .................................................................................. 159 S. WOLIŃSKI: Metody symulacyjne w probabilistycznym projektowaniu konstrukcji z betonu ............................................................................ 169 J. ZYGMUNT: Zastosowanie prefabrykacji na przykładach wybranych obiektów ............................................................................................. 187 ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Jacek ABRAMCZYK Rzeszów University of Technology A NEW PROPOSAL FOR DETERMINATION OF RULED SURFACES The paper describes a uniform geometrical way of determination all ruled surfaces including undevelopable ones. The presented way is based on the properties of ruled surfaces known from projective and differential geometries but it is different from the conventional methods. This way has been by the author called the way of striction line. 1. Introduction Each ruled surface is made up of infinitely large number of straight lines vi called rulings [1, 2]. We assume that each ruled surface σ is determined if it is possible to create every ruling vi of the ruled surface σ [3-5]. A set of geometrical elements including points, lines, planes determining required ruled surface σ is called the Γ figure determining the σ surface [4, 5]. We can determine each ruling of σ on the basis of Γ and with the help of well-known operations [3-6]. For example, the Γ figure for a hyperbolical paraboloid can be made up of three straight lines being skew lines in relation to each other. These lines also have to be parallel to the same plane and are called directrices of σ. If we want to obtain any ruling of the paraboloid, we ought to pass a plane through one directrix. This plane intersects two other directices at two points determining the ruling being sought. In the same way we can determine the others rulings. Classical ways of determination of each type ruled surfaces applied in projective geometry are generally based on separating the ways of creating different types of developable and undevelopable ruled surfaces [3-5], including the following: 1) various types of the Γ figures and different from each other rules of determination of the ruled surfaces, 2) different descriptions of creating both types of the ruled surfaces and then general similarities between various types of these surfaces are shown. In the paper, a new uniform method is proposed for the creation the σ ruled surfaces and the Γ figure determining σ. This is a difference – geometric method 6 J. Abramczyk the author called the one of striction line. In this method, the determination of all sorts of the σ surfaces is generally different from the ones known from descriptive [3-6] and differential [1, 2, 7, 8] geometries although it is based on both classes of geometry. Therefore, it is possible to classify various ruled surfaces in the way different from those used in teaching geometry at technical schools. The author proposed to make capital of the presented method of determining the ruled surfaces for shaping corrugated building shells Pb made up of many deformed profiled sheets in the way describing particular geometric properties appearing during deformation of the sheets [9-11]. A general ruled surface of relatively free type can be an ideal geometric model for Pb [9, 12]. Each sheet of Pb can be shaped as the central patch Wi of a ruled paraboloid ωi, Fig. 1 [10, 13, 14]. The Σ structure having, as a rule, disturbances of the smoothness appearing themselves along the segments common for each pair of the adjacent Wi–1 and Wi patches, is a result of the composition of these Wi, Fig. 2 [12, 16]. Therefore, it is the imperative to create the Σ structure of which configuration will be approximated to the σ ruled surface – the ideal model of Pb [12, 16]. Fig. 1 Fig. 2 A new proposal for determination ... 7 2. Assumptions for the method of the striction line First, the general vector equation of a ruled surface is presented: uur ur uur σ i (t , m ) = ci (t ) + m ⋅ pi (t ) (1) where: uur ci (t ) – the position vector of the Ci point of the c directrix of σ, uuur p (t ) – the direct versor of the rulings of σ, uuri uuur ci (t ) and pi (t ) – the vectors dependent on the same t parameter as well as σ [1, 2, 7, 8], m – the parameter of the position of each Ci point of the vi ruling. From eq. (1) it follows that the Γ figure is made up of: 1) the c directrix, uuur 2) the {pi} vector field – continuous set of the pi (t ) versors starting from the same Os point, uuur 3) any interdependence between the Ci points of c and the pi (t ) versors called by the author the K definite homology, Fig. 3. Fig. 3 The Os point is the center of the Φ sphere of elementary radius. A bundle of all pi straight lines the author called the Xp directing form. Each of the vi rulings of the σ surface is received with the help of the Xp directing form in the uuur following way. The K homology and the Ci points of c and the pi (t ) versors can be assumed arbitrarily in continuous way. Each vi ruling is a straight line passing 8 J. Abramczyk uuur through the Ci point of the c line in conformity with the pi (t ) direct versor (vi || pi), Fig. 3. If we want to create a ruled surface then the p line defined as the sum of the ending points of those versors have to be smooth. This p line, called the spherical indicatix of the ruling directions, lies on the Φ sphere of the unitary uuur radius and it is a hodograph of the pi (t ) versors. Thus two conicoid surfaces created by two sets of the ci and pi straight lines have to be continuous surfaces. The former has to be made up of the ci(O, Ci) straight lines and the latter composed of the pi(Os, Pi) straight lines. The above mentioned way of the determination of the ruled surfaces is uuur a very general because the c line and the K homology and the pi (t ) versors can be accepted almost arbitrarily. Additionally, we do not know the way of determining of the particular types of ruled surfaces. Therefore, we ought to impose additional conditions for the Γ figure. The basic assumption to the author’s argumentation is that the c line has to be a striction line of the σ ruled surface. To impose additional requirements on uuur the pi (t ) vectors and the K dependence we can take into consideration eq. (2): uur uur ci '(t ) · pi '(t ) uur m(t ) = [ pi '(t )]2 (2) where: m(t) – parameter circumscribing the position of the Ci point of the striction line on the vi ruling [1, 2, 7, 8], uur uuur ci '(t ) and pi '(t ) – vectors tangent to the c and p lines at the Ci and Pi points are uur uuur vectorial derivatives of the ci (t ) and pi (t ) vectors for the t parameter. According to the eq. (2), the value of the m(t) parameter is zero, when the Ci pont of the vi ruling of the σ ruled surface is a point of the c striction line of σ [1, 7]. If for every vi ruling there exists one Ci point for which this condition is executed then the c line is the sum of all these Ci points and it is called striction line of the σ ruled surface. On the ground of the eq. (2) it is possible to draw the following Theorem. Theorem. Two adequately accepted c and p lines are the Γ figure determining a general ruled surface σ if c is a striction line of σ and p is an spherical indicatrix of the directions of the rulings of σ. Proof. From the above mentioned argumentation and from eq. (1) it follows that two ci(t), pi(t) lines and the K homology, arranging the Ci and Pi points in A new proposal for determination ... 9 pairs, are the Γ figure determining a general ruled surface. Thus we accept the striction line as the ci(t) and the indicatrix of the directions of the rulings of this σ ruled surface as the pi(t). From eq. (2) we obtain the K homology. For the ci(t) striction line the m(t) parameter of eq. (2) is zero [7, 8]. Therefore, the scalar uur uuur product of the ci '(t ) and pi '(t ) vectors also have to be zero so that these vectors uur uuur are orthogonal. Finally, from the orthogonality of the ci '(t ) and pi '(t ) vectors results the way of the arrangement of the Ci ∈ c and Pi ∈ p points in pairs deuur uuur termining the vi rulings of σ. Additionally, because ci '(t ) and pi '(t ) are the vecuur uuur tor derivatives of the position vectors ci (t ) and pi (t ) then these vectors cannot be totally interdependent. If we assume the c line as the striction line of σ and the p line as the spherical indicatrix of σ then the spi straight line tangent to the p line at the Pi point has to lie on the ξPi plane parallel to the ξCi plane perpendicular to the c curve at the Ci point corresponding with the Pi point, Fig. 4. Fig. 4 Inverse operation is also possible. Thus, first, we have to assume the p line and then we have to find the c line as an envelope of the suitable planes. uur The direction of the sci straight line and the direction of the ci '(t ) vectors are uuur the same and the direction of the spi straight line and the direction of the pi '(t ) vectors too. The distances between the ξPi planes and the Os centre of the Φ sphere as well as the distances between ξCi planes and the O origin of the global coordinate system have to be dependent on the t parameter of σ. Therefore, these distances have to be functions of one parameter t. In order to determine the Pi points and p line it is the imperative to assume the ways of variations of the values of the t parameter, the positions of the Ci 10 J. Abramczyk points and the ξPi planes. It should be noticed that each ξPi plane has to cut the Φ sphere at the oi circle and each spi straight line has to be tangent to the oi circle as uuur well as to the p line at the same Pi point, Fig. 5 [16]. The pi '(t ) vector of the spi straight line obviously lies on the ξPi plane parallel to the ξCi plane. Thus the uuur uur pi '(t ) vector is perpendicular to the ci '(t ) vector. The oi circle ought to be tangent to the p line at the Pi point and it need not be the osculatory circle for the p line. Fig. 5 Eq. (2) is the basic criterion deciding whether the c line is a striction line of the ruled surface or not. The Pi points, which are successively created and fulfilling the above mentioned requirements including eq. (2), yield the p line. Let us recapitulate the results we have so far obtained. The c line and the ξPi planes parallel to the ξCi planes perpendicular to the c line at the suitable Ci point and the known function of the location each of the ξPi planes yield the Γ universal figure determining σ [16]. These three elements determine a ruled surface if the c line is a striction line of this surface and the set of the ξPi planes cut Φ. This uur uuur always occurs, when the ci '(t ) and pi '(t ) vectors corresponding to one another are orthogonal. The p line is an envelope of the oi circles as well as the spi straight lines tangent to these circles at the Pi points. We can also obtain another figure Γ (determining σ) made up of the c striction line and the p indicatrix [16]. In the author’s opinion, it is the imperative to consider the p and c lines as the Γ figure determining the universal ruled surface in the detailed manner because the configurations of these two lines are dependent on themselves in a certain manner. Thus both lines cannot be assumed as totally arbitrary lines. This dependence is especially evident in the case of irregular points of these lines. It is the imperative to describe exactly the dependences between the configurations of these lines. The other author’s paper should include a description of this problem. A new proposal for determination ... 11 3. Additional requirements for the Γ figure to determine the expected type of the ruled surface The shape of the σ ruled surface created according to the presented method of the striction line is conditioned by: 1) the geometrical characteristics of the c line, 2) the positions of the ξPi planes, for example, their distances from Os. The p line, which is an envelope of a set of the oi = ξPi ∩ Φ circles, has to be dependent on the t parameter of σ as well as the c line. The following conclusion can be drown. It may be reasonable to try dividing the ruled surfaces into many classes different from the ones used in teaching geometry. This division ought to be dependent on the elements considered at points 1 and 2, which influence the formation the Γ figure and the configuration of the σ surface. In order to illustrate the dependences of these elements on a configuration of σ we shall investigate the following instance. Let us accept a conic curve as the c striction line and the different from zero dksi constant values of the distances between the ξPi planes and the Os centre of Φ. All of the ξCi planes are perpendicular to the plane of the c line and the ξPi planes are tangent to the p circle that is an envelope of the oi = ξPi ∩ Φ circles. In this case we get the Xp directing form as the conicoid surface of revolution of the second order, Fig. 6. Fig. 6 Additionally, if we assume the c line as a circle then the σ ruled surface will be a hyperboloid of one sheet of revolution (ruled hyperboloid of revolution). If we take the c line as the conic curve and zero values of these dksi distances, all ξPi planes will have to pass through the Os point and all Pi points are united at one point. In this case Xp is one straight line and σ is a cylindrical surface of the second order. 12 J. Abramczyk We should obtain conical surface if we assume the c line as one point. No conical surface will be determined in another case. Let us put forward the following arguments as the proof. All pi(Os,Pi) straight lines have one Os common point and the vi rulings have to have one common point. Therefore, vi have to determine the form congruent to the Xp directing form because each of the vi lines has to be parallel to the corresponding with it the pi line, Fig. 7. In fact, developable surface is the determined σ conical surface. Fig. 7 On the other hand we know that the turning (reverse) line is a special kind of the striction line on the developable surface. We would like to prove that turning line of the conical surface degenerates itself to one point. Hence, if the turning line is the line of striction on the developable surface then the ξPi planes are tangent to the Φ sphere because: 1) they have to be perpendicular to c as well as to vi tangent to c, 2) they have to be tangent to p lying on Φ, 3) the pi have to be parallel to vi including pi = vi. In this case the c curve perpendicular to all of the ξCi and ξPi planes does not exist because it does not exist any curve tangent to all vi || pi including vi = pi straight lines. The united C = ... = Ci = ... = Cj points, yielding the c degenerated turning line are only elements fulfilling the above mentioned requirements. Simultaneously, it is impossible to determine any developable surface with the help of the c line not degenerated to the C point and the unification of the vi and pi lines. If the c line is a parabola and the plane of the p circle takes one of permissible positions [7], the σ determined surface is a hyperbolical paraboloid (ruled paraboloid). A new proposal for determination ... 13 uur A tangent surface can be obtained if the pi straight lines and the ci '(t ) vectors are collinear, i.e. if the ξPi planes are tangent to Φ, Fig. 8. It is not difficult to determine an open helicoid if we assume the c line as a helix. Fig. 8 The paper does not precisely show the dependence between a well-known conventional classification of the ruled surfaces taught during geometry courses at schools and the properties of the Γ figure of the method presented in the paper. The author does not discus this problem. On the ground of the presented method, a new division of ruled surfaces into many different classes so that the two surfaces belonging to the different classes will have the configurations different from each other but the two ones belonging to the same group will have the configurations similar to each other. The division will pass across the conventional classifications so that the terminology cannot also be based on that usually applied. 4. Discussion about particular properties of the c, p lines and the σ ruled surfaces The presented method of determining of the ruled surfaces and a new classification of these surfaces based on this method apply to the following properties of the c and p lines. The c striction line is the shortest directrix (intersecting all rulings) of the ruled surface, when c has finite length as ellipse. If c is infinitely long such as parabola, i.e. it has a point in infinity, we cannot define the length of the c line. Therefore, we ought to specify the patch of the ruled surface limited by two vs and vc different rulings. Then the csk curve of the striction line having ending points belonging to the vs and vk border lines is the shortest line lying on this patch and intersecting each vi rulings of its, Fig. 9. 14 J. Abramczyk ] Fig. 9 Truthfulness of the above mentioned statement can be proved in the following way. The c striction line is a sum of the Ci central points of the σ ruled surface. Each lCi striction axis of σ passes the Ci central point and reaches a limiting direction of a straight line perpendicular to the vi ruling (passing through Ci) and the vi+1 neighboring ruling of σ [8]. The l Ci direct vector of the lCi axis is a uuur uuuur product of pi (t ) and pi '(t ) . The lCi axis is also the instantaneous axis of the Oi rotation of vi to vi+1. Thus the c striction line is the shortest one of σ because there are fulfilled the following conditions. Whereas the vi ruling displacements to the neighboring vi+1 ruling of σ, each point of vi is submitted only: uur 1) the same Ui translation along the ∆u i vector parallel to lCi, uur 2) the same Ti translation along the ∆t i vector perpendicular to lCi, 3) the same Oi rotation around lCi for the ∆α i angle, Fig. 10. uur uur The ∆u i , ∆t i vectors of the Ui, Ti translations are constant for each point of vi. Fig. 10 A new proposal for determination ... 15 Each σ ruled surface has only one striction line suitable for only one family of all rulings of σ. Ruled quadrics including hyperbolical paraboloid and hyperboloid of one sheet have two striction lines because they have also two families of rulings. In the case of ruled hyperboloid of revolution, both striction lines become the same circle. A configuration of the c striction line heavily influences the shape of a general ruled surface and generates a contraction of the σ surface. This property of c is especially important for designing engineer and engineering objects and the characteristic sections of these objects, i.e. for technical documentations. Thanks to distinguishing both c and p lines on the σ ruled surface we can verify in a simple way the precision of the approximation of the models to the building covers. This issue is one of the most important so that it was [16] and will be more described in the others author’s papers. 5. Conclusions The application of the presented way based on a striction line inducts difficulties during determining some kinds of the ruled surfaces known from classical geometry. These difficulties occurs when the dependences between positions of the Ci and Pi points corresponding to themselves on the c and p lines are not known, that is, when we do not know the K dependence of the positions of the Ci and Pi points of the c and p lines on the t parameter. If we know these dependence of the distances from the ξPi planes to the Os point on the t parameter then we will obtain the K dependence. The analytical aspects of this question was described in [16] and will be continued in the author’s paper during the LCSE Local Seminar of IASS POLISH CHAPTER 2003 in Poland. The determination of the suitable representatives of these types is very easy if we specify the K dependence for each type of the ruled surfaces. The way, how to obtain these dependences for various types of ruled surfaces, is beyond the scope of this paper. The easy division of ruled surfaces, determined in the presented way, different from those conventional ones commonly used makes it possible to determine many groups of approximating each other ruled surfaces. That gives the designer great freedom at geometric shaping realizable objects [17, 18]. The engineer should also select the most suitable one from among many approximated models. Thus it is possible to select satisfactory geometric models from the large assortment of approximated ruled surfaces according to the criterion suitable for designer of the building and engineering shells. 16 J. Abramczyk References [1] Gray A.: Modern Differential Geometry Curves and Surfaces. CRC PRES, Inc. Florida 1993 [2] Carmo M.P. do: Differential Geometry of Curves and Surfaces, Pentice-Hall, Inc. Englewood Cliffs, New Jersey 1976 [3] Przewłocki S.: Kształtowanie geometryczne konstrukcji powłokowych. Biblioteka Inżynierii i Budownictwa, t. 22, Warszawa 1969 [4] Januszewski B.: Geometryczne podstawy grafiki inżynierskiej. Skrypt PRz, Rzeszów 1999 [5] Polański S.: Geometria powłok budowlanych. PWN, Warszawa 1986 [6] Abramczyk J.: O kinetycznym sposobie wyznaczania powierzchni prostokreślnych. Zeszyty Naukowe PRz, Budownictwo i Inżynieria Środowiska, z. 27, Rzeszów 1997 [7] Trajdos T.: Matematyka dla inżynierów. WNT, Warszawa 1981 [8] Biernacki M.: Geometria różniczkowa. Cz.1, 2, PWN, Warszawa 1995 [9] Reichhart A.: Corrugated Deformed Steel Sheets as Material for Shells. Proc. International Conference on Lightweight Structures in Civil Engineering, Vol. I, Warsaw 1995 [10] Kiełbasa Z.: Modelowanie komputerowe skręconego arkusza blachy fałdowej. Mat. sympozjum z cyklu: Nowe osiągnięcia nauki i techniki w budownictwie: „Projektowanie koncepcyjne – kształtowanie konstrukcji, konstrukcje z blach fałdowych, konstrukcje cięgnowe”, Rzeszów 2000 [11] Abramczyk J.: Curves on One Sphere – Select Problems of Analytical Geometry and Their Utilization in Numerical Determination of These Curves, IV Seminarium z cyklu: Geometria i grafika w kształtowaniu współczesnego inżyniera, Szczyrk 2003 [12] Abramczyk J.: Models for shells made up of free tweest sheets. Proceedings of the International Conference on Light Structures in Civil Engineering, Warsaw 2002 [13] Reihchart A.: Kształtowanie geometryczne i konstrukcyjne powłok z blach fałdowych, Oficyna Wydawnicza PRz, Rzeszów 2002 [14] Reichhart A.: Morfologia powłok z blach fałdowych. X Międzynarodowa Konferencja Naukowo-Techniczna „Konstrukcje Metalowe”, Materiały konferencyjne, t. 3, Gdańsk 2001 [15] Abramczyk J.: Geometrical Formation of Building Shells Composed of Profiled Metal Sheets, Proc. of 7-th Seminar Geometry and Computer, Wisła 2001 [16] Abramczyk J.: Geometric Optimization of Models for Corrugated Building Shells, Materiały konferencyjne VI Konferencji Naukowo-Technicznej „Aktualne problemy naukowo-badawcze budownictwa”, Olsztyn–Kortowo 2003 [17] Michajlenko V.E., Kovalev S.N.: Konstruirovanie form sovremennych architekturnych sooruženij, Kijev, Budivelnik 1978 [18] Michajlenko V.E., Obuchova V.S., Podgornyj A.L.: Formoobrazovanie oboloček v architekture, Kijev, Budivelnik 1972 A new proposal for determination ... 17 O PEWNYM NOWYM SPOSOBIE WYZNACZANIA POWIERZCHNI PROSTOKREŚLNYCH Streszczenie Artykuł prezentuje pewien ujednolicony, geometryczny sposób ustalania dowolnych powierzchni prostokreślnych, tak rozwijalnych, jak i skośnych. Chociaż sposób ten bazuje na właściwościach powierzchni prostokreślnych znanych z geometrii rzutowej i różniczkowej, to jest on różny od klasycznych sposobów ustalania wymienionych powierzchni. Sposób ten został nazwany przez autora sposobem linii zwężenia. Złożono w Oficynie Wydawniczej w maju 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Lesław BICHAJŁO Politechnika Rzeszowska ALTERNATYWA DLA WIADUKTÓW NAD LINIAMI KOLEJOWYMI W pracy przedstawiono zaobserwowany w Niemczech sposób budowy dwupoziomowych skrzyżowań dróg z kolejami. Droga przebiega tunelem pod wiaduktem kolejowym. Omówiono podstawowe rozwiązania konstrukcyjne oraz koszty budowy. 1. Ogólna charakterystyka problemu Co roku dochodzi do ponad 300 wypadków na przejazdach kolejowych, w których życie traci około 70 osób, a około 140 zostaje rannych [1]. Najważniejsze przyczyny wypadków na przejazdach kolejowych to [2]: • na przejazdach kategorii A (z rogatkami lub ruchem kierowanym przez osoby uprawnione) − wina pracowników obsługujących rogatki (54% wypadków), a więc niezamykanie lub zbyt późne zamykanie rogatek, otwieranie rogatek po przejeździe jednego pociągu, gdy wkrótce będzie przejeżdżał następny, − wina kierowców (46%) – wyłamywanie lub omijanie zamkniętych rogatek, nietrzeźwość, brak reakcji na sygnały dróżnika, • na przejazdach kategorii B (z półrogatkami i samoczynną sygnalizacją świetlną) − ominięcie lub wyłamanie półrogatek przez kierowcę, • na przejazdach kategorii C (z sygnalizacją świetlną samoczynną lub manualną) − brak reakcji na sygnalizację świetlną, − pozostawienie pojazdu na przejeździe, • na przejazdach kategorii D (bez rogatek, półrogatek i sygnalizacji świetlnej) − zlekceważenie znaku STOP, − nieostrożność i nieuwaga kierowcy, − awaria samochodu na pomoście. 20 L. Bichajło Radykalną poprawę bezpieczeństwa na skrzyżowaniach dróg z kolejami może przynieść tylko budowa skrzyżowań dwupoziomowych. Aktualnie obowiązujące akty prawne zobowiązują do budowy skrzyżowania dwupoziomowego, gdy: • jest budowana nowa linia kolejowa, • jest zmieniana trasa istniejącej linii kolejowej, • linia kolejowa jest modernizowana przez zwiększenie liczby torów, zwiększana jest prędkość pociągów, częstotliwość ich kursowania lub elektryfikowana linia kolejowa [3]. Budowa obiektów mostowych na użytkowanych liniach kolejowych jest jednym z trudniejszych przedsięwzięć inwestycyjnych. Oprócz typowych problemów związanych z budową dochodzi konieczność utrzymania ruchu kolejowego, decydując niejednokrotnie o przyjęciu technologii wykonania obiektu mostowego. Projektowanie obiektów na czynnych liniach kolejowych wymaga: • dokładnego rozpoznania warunków terenowych i gruntowych w miejscu budowy (ewentualność komplikacji i zwiększenia kosztów), • zinwentaryzowania terenu budowy, • zapoznania się z wielkością i strukturą ruchu na linii kolejowej oraz na trasie komunikacyjnej przecinającej linię kolejową, • zinwentaryzowania uzbrojenia terenu i opracowania sposobów zabezpieczania lub przełożenia (a więc urządzeń technicznych związanych z ruchem pociągów, sieci trakcyjnej, linii energetycznych i telekomunikacyjnych, kolektorów kanalizacyjnych, ciepłociągów, gazociągów, wodociągów), • opracowania zabezpieczeń, m.in. ruchu na i pod obiektem mostowym, • zapewnienia odpowiedniej skrajni pod obiektem (wymiary skrajni według obowiązujących przepisów podano w tab. 1. i na rys. 1.). Tabela 1. Wymiary wybranych skrajni Rodzaj skrajni Pieszego, zwykła Pojazdu kierowanego, zwykła Wysokość 3,0 4,50 Szerokość 0,75 3,00 Podczas budowy skrzyżowań najczęstszym utrudnieniem jest: • konieczność stosowania różnych zabezpieczeń, • duża ilość drobnych robót dodatkowych, • konieczność etapowania robót i ich koordynacji, • niekorzystne oddziaływanie ww. utrudnień na robotników. Nadrzędną zasadą jest konieczność dostosowania konstrukcji obiektu mostowego i technologii jego budowy przy użytkowanej linii kolejowej do organizacji robót uwzględniającej wymagania bezpieczeństwa ruchu pociągów. Alternatywa dla wiaduktów ... 21 Rys. 1. Wymiary skrajni drogowej 2. Metody budowy skrzyżowań dwupoziomowych dróg z kolejami W przypadkach gdy tory kolejowe są w poziomie terenu lub na niskim nasypie, najczęstszym rozwiązaniem skrzyżowania dwupoziomowego jest wiadukt drogowy nad linią kolejową. Wtedy unika się dużych wykopów i uniezależnia od wody gruntowej. W innych przypadkach drogę sprowadza się do tunelu pod linią kolejową. Ponieważ rozwiązania wiaduktów nad liniami kolejowymi są powszechnie znane, dlatego poniżej omówiono przykład skrzyżowania drogi z linią kolejową, w którym droga przebiega pod torami. Aby umożliwić budowę obiektów mostowych w ciągu użytkowanych linii kolejowych, stosuje się następujące metody [4]: • objazd tymczasowy, • tymczasową linię jednotorową, • odcięcie, • konstrukcje odciążające, • metodę przeciskową. Metoda objazdu tymczasowego polega na przełożeniu toru poza obręb robót. Jest to najłatwiejsza metoda. Jest stosowana w przypadku budowy dużych obiektów mostowych, wymagającej długiego czasu. Jej duży koszt wynika z konieczności budowy nowego podtorza toru, ewentualnie sieci trakcyjnej, obiektów tymczasowych i infrastruktury technicznej. Metoda tymczasowej linii jednotorowej jest stosowana na liniach wielotorowych. Polega na pozostawieniu jednego toru czynnego. Tor ten jest zabezpieczany konstrukcjami odciążającymi. Pozostałe tory na odcinku robót są rozbierane i tam są prowadzone prace budowlane. Po ich wykonaniu odtwarza się jeden z rozebranych torów, a dotychczasowy czynny tor się rozbiera i pod nim wykonuje prace budowlane. Metoda odcięcia jest stosowana wówczas, gdy jest możliwe wykonanie obiektu mostowego obok linii kolejowej. Kompletny obiekt, wraz z torowi- 22 L. Bichajło skiem, wstawia się w miejsce usuniętego odcinka toru. Ta metoda wymaga szybkiego i sprawnego prowadzenia robót. Metoda konstrukcji odciążających pozwala na wykonanie obiektu pod czynnymi torami, które są oparte na tymczasowych dźwigarach. Ta metoda jest stosowana najczęściej, mimo że jej koszt nie jest najmniejszy. Są różne typy konstrukcji odciążających, od najprostszych, z wiązek szyn, do gotowych przęseł. Konstrukcje odciążające są wykorzystywane przede wszystkim w celu umożliwienia robót w wykopach. W przypadku budowy przepustów można uniknąć rozbierania nasypu linii kolejowej, stosując metodę przecisku (wcisku bocznego). Wykonanie przecisku polega na zagłębianiu prefabrykowanej konstrukcji głowicy roboczej w nasyp za pomocą siłowników hydraulicznych lub sprężonego powietrza [5]. Grunt z wnętrza głowicy jest usuwany pneumatycznie, hydraulicznie lub ślimakiem. Inna metoda wykonywania przecisków polega na wciskaniu głowicy i segmentów budowli siłownikami hydraulicznymi. W odróżnieniu od poprzedniej, wymaga budowy bloków oporowych do oparcia siłowników. Wydłuża to czas i podnosi koszty wykonania przecisku. Wiele infomacji i oryginalnych rozwiązań związanych z budową obiektów mostowych pod czynnymi liniami kolejowymi można zaczerpnąć z prac A. Jarominiaka [6], K. Grzegorzewicza [7] i A. Niemierki [8]. 3. Przykład z RFN dwupoziomowego skrzyżowania drogi z linią kolejową Opis dotyczy tunelu zbudowanego pod istniejącą linią DB (Deutsche Bundesbahn) Mannheim-Frankfurt n. Menem, w miejscowości Stockstadt, jednak zastosowana tu konstrukcja i technologia są typowe dla innych obiektów. Ewentualne różnice polegają na dostosowaniu do warunków miejscowych wymiarów geometrycznych oraz elementów wyposażenia i wykończenia obiektu. Na tej linii pociągi ekspresowe jeżdżą z prędkością 200 km/h. Wymiary poprzeczne budowli zostały tak dobrane, że pod wiaduktem mieści się jezdnia szerokości 5,50 m, ścieżka rowerowa szerokości 3,00 m oraz chodnik szerokości 1,50 m. Podstawowe dane techniczne zestawiono w tab. 2. [9]. Konstrukcja tunelu składa się z dwóch zasadniczych, niezależnych od siebie części: obiektu kolejowego oraz drogowej części przejazdowej w postaci wodoszczelnej wanny. Technologię wykonania obiektów dostosowano do wysokiego poziomu zwierciadła wody gruntowej, a ich konstrukcję zabezpieczono przed przemieszczeniami wskutek wyporu wody. Alternatywa dla wiaduktów ... 23 Tabela 2. Podstawowe dane techniczne budowli Długość budowli Liczba sekcji Długość sekcji Beton konstrukcyjny Stal zbrojeniowa Beton podwodny Długość pali wielkośrednicowych Czas budowy Koszt budowy 220 m 22 10 m B25 zbrojony BSt 500S/ 500M B25 niezbrojony 80m 26 miesięcy 14 mln DM Opis budowy części przejazdowej (rys. 2. i 3.) Rys. 2. Przekrój podłużny w osi drogi Faza I Zbudowano w niej przyczółki wiaduktu. Posadowiono je na żelbetowych palach wierconych średnicy 120 cm. Korpusy przyczółków wykonano z betonu hydrotechnicznego. Faza II Wzdłuż obrysu części drogowej, długości 220 m, wykonano stalowe ścianki szczelne, głębokości dochodzącej do 11,5 m. W celu umożliwienia etapowania robót oraz ułatwienia robót poniżej wody gruntowej, wykonano również ze ścianek szczelnych poprzeczne przepony w rozstawach 22 m. W ten sposób utwo- 24 L. Bichajło rzono 10 segmentów konstrukcji „wanny”. Następnie w każdej sekcji wykonywano wykop koparką, w miarę postępu robót rozpierając ścianki szczelne. Pierwsze rozpory były montowane po usunięciu około 1 m gruntu. Na szerokości wiaduktu ścianki szczelne przymocowywano kotwami stalowymi do korpusów przyczółków. Mimo wbicia ścianek szczelnych woda gruntowa podsączała się do wykopu. Rys. 3. Przekrój poprzeczny w osi przęsła kolejowego Faza III Po osiągnięciu projektowych rzędnych dna wykopu wykonywano w rozstawach 4–5 m, stosowano pale RI – iniekcyjne, wibrowane. Pale te pełnią funkcję kotew, przeciwdziałając pionowym ruchom „wanny” wskutek wyporu wody. Faza IV Na dnie wykopu wykonano metodą betonowania podwodnego płytę betonową grubości około 1 m. Użyto betonu klasy B25. Płyta otoczyła górne odcinki pali kotwiących i stanowiła korek odcinający dopływ wody. Po związaniu betonu wodę z wykopu wypompowano i w celu lepszego uszczelnienia zaspawano zamki ścianek szczelnych. Alternatywa dla wiaduktów ... 25 Faza V Na płycie – korku ułożono warstwę wyrównawczą z betonu B15, a na niej warstwę betonu szczelnego B25WU grubości około 0,5 m. Następnie wykonywano betonowe ściany każdej sekcji do poziomu przerwy roboczej poniżej rozparć. W dylatacjach między sekcjami zainstalowano zewnętrzne i wewnętrzne taśmy uszczelniające. Faza VI Po stwardnieniu betonu ścian demontowano rozparcia i dobetonowywano górne odcinki ścian. Później wykonywano drenaż, beton filtracyjny, izolację, beton ochronny oraz konstrukcję jezdni. Ściany wyłożono elementami dźwiękochłonnymi. 4. Podsumowanie Rezygnacja przez PKP w coraz większym zakresie ze strzeżonych przejazdów kolejowych powinna iść w parze ze wzrastającą liczbą bezkolizyjnych skrzyżowań dwupoziomowych. Skrzyżowania te, w zależności od warunków miejscowych, powinny być wykonywane jako wiadukty drogowe lub tunele. Decydującym kryterium powinien być rachunek ekonomiczny kosztów budowy i kosztów zajęcia terenu oraz wpływu nowego zagospodarowania na środowisko. W przypadku tuneli koszty wykupu gruntów są niższe niż w przypadku wiaduktów z dojazdami na nasypach. Następstwem konstrukcyjnego rozdzielenia tunelu na dwie niezależne części – kolejową i drogową jest ułatwienie podziału odpowiedzialności służb kolejowych i drogowych za jego utrzymanie. Literatura [1] Ogólnopolskie seminarium „Jednopoziomowe skrzyżowania dróg z koleją – bezpieczeństwo ruchu i usprawnienia”, Warszawa 2000 [2] Barburski W.: Analiza przyczyn wypadków na liniach kolejowych. Ogólnopolska konferencja „Problemy skrzyżowań dróg kołowych z liniami kolejowymi w Polsce”, Warszawa 1996 [3] Ustawa z dnia 21 marca 1985 r. o drogach publicznych (Dz.U. Nr 14, poz. 60 z późniejszymi zmianami) [4] Cholewo J., Sznurowski M.: Mosty kolejowe. WKŁ, Warszawa 1974 [5] Materiały reklamowe firm Terra, Tracto-Technik [6] Jarominiak A. i inni: Podpory mostów – wybrane zagadnienia, WKŁ, Warszawa 1981 [7] Grzegorzewicz K.: Budowa podpór mostowych na użytkowanych szlakach komunikacyjnych, IBDM, Warszawa 1977 26 L. Bichajło [8] Niemierko A.: Budowa obiektów mostowych przy ruchu pociągów. Drogowy Przegląd Kolejowy, nr 4/74 [9] Materiały reklamowe firmy Krebs und Kiefer, Frankfurt nad Menem, Niemcy AN ALTERNATIVE FOR VIADUCTS OVER RAILROADS Summary The paper presents the construction of two-level road-railway crossing. The alternative for typical construction (viaduct over railroad) is a road tunel under rail viaduct. The example, build in Germany, is given. Złożono w Oficynie Wydawniczej w październiku 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Bogusław JANUSZEWSKI Politechnika Rzeszowska PEWIEN SPOSÓB GRAFICZNEGO ZAPISU PERSPEKTYWY PIONOWEJ FIGUR PRZESTRZENI M4 W artykule przedstawiono pewien sposób graficznego zapisu perspektyw pionowych figur przestrzeni M4. Charakteryzuje się on tym, że korzysta się w nim z działań konstrukcyjnych wykazujących pełne analogie merytoryczne i formalne do odpowiednich działań tradycyjnie stosowanych w zapisach perspektyw pionowych figur przestrzeni M3. Perspektywę pionową figur przestrzeni M3 daje się zdefiniować jako dwurzutowe odwzorowanie wiązkowe częściowo złożeniowe PC3, w którym głównym przekształceniem jest rzutowanie środkowe C ze środka S na płaskie tło τ, a przekształceniem pomocniczym – rzutowanie prostokątne R na podstawę π, przy czym efekty rzutowania R są dodatkowo zapisywane na tle τ za pomocą rzutowania C [1]. Odwzorowanie PC3 jest zazwyczaj wspomagane dwupłaszczyznowym układem śladowym złożonym z płaszczyzny tła τ i płaszczyzny niewłaściwej µ∞ ⊂ M3. W niniejszym opracowaniu, rozwijając pomysł zasygnalizowany w artykule [2], pokazano graficzny sposób zapisu perspektywy pionowej figur przestrzeni M4. Oryginalność proponowanego zapisu wyraża się w tym, że korzysta się w nim w szerokim zakresie z planimetrycznych rozwiązań konstrukcyjnych tradycyjnie stosowanych w zapisach realizowanych metodą PC3 [3]. Na wstępie zauważono, że główne zasady odwzorowania PC3 dają się bez komplikacji przenieść na analogiczne odwzorowanie PC4 figur przestrzeni M4. Wystarczy w tym celu przyjąć, że perspektywa pionowa figur przestrzeni M4 jest również dwurzutowym odwzorowaniem częściowo złożeniowym PC4, w którym: • przekształceniem głównym jest rzutowanie środkowe proste CI z właściwego środka SI na właściwą hiperrzutnię – tło PI, • przekształceniem pomocniczym jest rzutowanie normalne RII ze środka 1 SII∞ ∈ PI na właściwą hiperrzutnię – podstawę PII prostopadłą PI, 3 28 B. Januszewski • utworem wspomagającym jest hiperpłaszczyznowy układ hiperśladowy złożony z hiperpłaszczyzn PI i M∞, gdzie M∞ jest niewłaściwą hiperpłaszczyzną przestrzeni M4, • usytuowanie odwzorowywanej figury względem aparatu realizowanego odwzorowania charakteryzyje się tym, że trzy spośród czterech kierunków wymiarów głównych tej figury są równoległe do podstawy PII, natomiast czwarty z tych kierunków jest równoległy do tła PI. Opisane odwzorowanie PC4 daje obraz odwzorowywanej figury Γ ⊂ M4 w postaci, zawartych w trójwymiarowym tle PI, rzutów Γ I = RI(Γ) i Γ II,I = = RI(Γ II), gdzie Γ II = RII(Γ). W celu dokonania graficznego zapisu tego obrazu w niniejszym opracowaniu zaproponowano posłużenie się dodatkowym dwurzutowym wiązkowym odwzorowaniem MP3 podprzestrzeni PI na rzutnię π = = PI ∩ PII. Rzutowaniami składającymi się na odwzorowanie MP3 są: • rzutowanie ukośne R1 tła PI na rzutnię π, którego środek jest niewłaściwym punktem S1∞, należącym do prostych pęku prostych równoległych podprzestrzeni PI i nachylonych do π pod kątami o mierze 45o, • rzutowanie prostokątne R2 tła PI na rzutnię π ze środka S2∞ = SII∞. Złożenie MP3 PC4 = PV4 jest docelowym odwzorowaniem graficznym analizowanym w niniejszym opracowaniu. Rysunek 1. przedstawia „poglądowo” strukturę aparatu tego odwzorowania. Rys. 1. Budowa aparatu odwzorowania PV4 Pewien sposób graficznego zapisu ... 29 W każdej metodzie odwzorowania posługującej się zapisem graficznym podstawową rolę odgrywają: • konstrukcje obrazów punktów różnie usytuowanych względem elementów aparatu odwzorowania, • konstrukcje obrazów prostych o ogólnych i szczególnych ułożeniach względem elementów aparatu odwzorowania, • zapisy podstawowych relacji miarowych i niemiarowych zachodzących pomiędzy punktami, prostymi i ich złączami. W związku z tym, w dalszej części niniejszego opracowania analizuje się kolejno wszystkie wymienione zagadnienia konstrukcyjne. I tak, na rys. 2. przedstawiono obrazy punktów przestrzeni M4 różnie usytuowanych względem aparatów {PI, SI} i {PII, SII∞}. W pierwszej kolejności ustalono obraz odwracalny środka SI rzutowania CI, poprzez podanie zapisu w odwzorowaniu MP3 rzutu normalnego SnI punktu SI na tło PI oraz określenie odległości d środka SI od PI za pomocą promienia, tradycyjnie wyróżnianego w perspektywie pionowej, okręgu głębokości tłowej o środku w punkcie SIn,1. Ważne są również następujące spostrzeżenia: • długość odcinka S In,1S In,2 jest równa odległości h = σ (SI, PII) = σ (SIn, PII) = σ (SIn, π), zwanej zwyczajowo wysokością horyzontu, Rys. 2. Obrazy proste punktów w metodzie PV4 30 B. Januszewski • kolejność ułożenia punktów SIn,1 oraz SIn,2 w odnoszącej tych rzutów uznawana jest za charakterystyczną cechę odwzorowania wszystkich punktów leżących w PI przed rzutnią π zjednoczoną z płaszczyzną zawierającą wykorzystywaną do zapisu powierzchnię arkusza rysunkowego. Środki SII∞ = S2∞ oraz S1∞ pozostałych rzutowań RII, R2 i R1 są jednoznacznie określone przez podane na rys. 2. ich rzuty, przez założoną normalność SII∞ = S2∞ do PII oraz przez wcześniej zasygnalizowaną umowę, iż kolejność rzutów SIn,1 oraz SIn,2 w ich odnoszącej odpowiada położeniu punktu SIn przed płaszczyzną π. Rysunek 2. zawiera ponadto obrazy: • dowolnego właściwego punktu A przestrzeni M4, • dowolnego punktu B podstawy PII, • dowolnego punktu C należącego do tła PI, • dowolnego niewłaściwego punktu D∞ przestrzeni M4. Z kolei na rys. 3. wykreślono obraz odwracalny prostej właściwej a ⊂ M4, ogólnie usytuowanej względem elementów aparatu odwzorowania PV4. Podobnie jak to ma miejsce w konstrukcjach perspektyw pionowych prostych przestrzeni M3, w odwzorowaniu pokazanym na rys. 3. wyróżniono obrazy śladu Rys. 3. Obraz prosty dowolnej prostej a ⊂ M4 uzyskany metodą PV4 Pewien sposób graficznego zapisu ... 31 tłowego Ta i śladu zbiegu Za prostej a, co jest wynikiem ogólnie respektowanego dążenia do unifikacji elementów obrazów prostych. W odwzorowaniu PV4, jak w każdej odmianie perspektywy pionowej, szczególną rolę odgrywają proste zawarte w podstawie – hiperpłaszczyźnie PII oraz proste prostopadłe do tej hiperpłaszczyzny. Rysunki 4. i 5. przedstawiają obrazy takich prostych uzyskane metodą PV4, przy czym odwzorowana: • na rys. 4a prosta b jest zawarta w PII i prostopadła do PI, • na rys. 4b prosta b jest prostą zawartą w PII lecz nie jest prostopadła do PI, • na rys. 5a prosta c, to prosta tła PI prostopadła do PII, • na rys. 5b prosta c jest prostą prostopadłą do podstawy PII niezawartą w P I. Rys. 4. Przykłady konstrukcji obrazów miarowych prostej b ⊂ PII uzyskanych metodą PV4 W każdej z rozważanych prostych wyróżniono odcinek AB o ustalonej długości. W przypadku prostej c ⊥ PII i c ⊂ PI (rys. 5a) odcinek ten odwzorowuje się bez deformacji w rzutowaniu R1CI ( A1,I B1,I = AB ). Natomiast we wszystkich pozostałych przypadkach (rys. 4a,b i rys. 5b) konstrukcja obrazu odcinka AB została oparta o tzw. punkt mierzenia wyznaczany w rzutowaniu R1 (lub R2) w sposób analogiczny do konstrukcji stosowanych w tradycyjnej perspektywie pionowej przestrzeni M3. 32 B. Januszewski Rys. 5. Przykłady miarowych obrazów prostej c ⊂ PII uzyskanych metodą PV4 Podsumowując możliwości zapisu graficznego figur przestrzeni M4 metodą PV4, skonstruowano tą metodą na rys. 6. i 7. obrazy (perspektywy pionowe) ośmiohiperścianu foremnego, będącego odpowiednikiem w M4 sześcianu przestrzeni M3. Rysunek 6. przedstawia graficzny zapis tzw. perspektywy czołowej ośmiohiperścianu. Tego rodzaju perspektywę otrzymuje się przy założeniu, że jedna z sześciennych hiperścian ośmiohiperścianu zawarta jest w tle PI, a kwadrat jej ściany (na rys. 6. – <ABCD>) leży bezpośrednio w rzutni π. Z kolei na rys. 7. wykreślono tzw. perspektywę trójzbieżną ośmiohiperścianu foremnego Γ. Nazwa skonstruowanej perspektywy wiąże się z faktem, że proste należące do trzech spośród czterech parami prostopadłych kierunków wymiarów głównych odwzorowanego ośmiohiperścianu zapisują się w rzutowaniu R1CI jako proste wiązek o właściwych punktach wierzchołkowych (czyli jako proste zbieżne w tych wierzchołkach). Taka właściwość rzutów wyróżnionych pęków prostych jest konsekwencją przyjęcia, że hiperściana sześcienna ośmiohiperścianu Γ zawarta w podstawie PII jest całkowicie ogólnie ustawiona względem tła PI (jedynie wierzchołek A tej hiperściany należy do rzutni π ⊂ PI). Pewien sposób graficznego zapisu ... 33 Rys. 6. Przykład zapisu graficznego uzyskanego metodą PV4 czołowej perspektywy pionowej ośmiohiperścianu foremnego Z kolei na rys. 7. wykreślono tzw. perspektywę trójzbieżną ośmiohiperścianu foremnego Γ. Nazwa skonstruowanej perspektywy wiąże się z faktem, że proste należące do trzech spośród czterech parami prostopadłych kierunków wymiarów głównych odwzorowanego ośmiohiperścianu zapisują się w rzutowaniu R1CI jako proste wiązek o właściwych punktach wierzchołkowych (czyli jako proste zbieżne w tych wierzchołkach). Taka właściwość rzutów wyróżnionych pęków prostych jest konsekwencją przyjęcia, iż hiperściana sześcienna ośmiohiperścianu Γ zawarta w podstawie PII jest całkowicie ogólnie ustawiona względem tła PI (jedynie wierzchołek A tej hiperściany należy do rzutni π ⊂ PI). Nowością wśród działań konstrukcyjnych zrealizowanych zarówno na rys. 6. jak i 7. jest dokonanie zapisu prostych należących do czterech parami prostopadłych pęków, z których trzy mają swych reprezentantów w podstawie PII. Szczegółowa analiza przebiegu tych konstrukcji wykazuje ich daleko idące podobieństwo do analogicznych konstrukcji stosowanych w zapisie perspektywy pionowej figur przestrzeni M3. 34 B. Januszewski Rys. 7. Przykład zapisu graficznego uzyskanego metodą PV4 trójzbieżnej perspektywy pionowej ośmiohiperścianu foremnego Całość zaprezentowanych w niniejszym opracowaniu konstrukcji, a w szczególności przedstawione na rys. 6. i 7. odwzorowania, zdefiniowanego przez właściwości niemiarowe i miarowe, ośmiohiperścianu foremnego dowodzą, że zaproponowana tutaj metoda PV4 pozwala na efektywną realizację graficznych zapisów perspektyw pionowych figur przestrzeni M4. Literatura [1] Januszewski B.: O zapisie graficznym perspektywy pionowej figur przestrzeni M4. Proceedings of 3rd Seminar „Geometry and Graphics in Teaching Contemporary Engineer”, Wisła 2000 [2] Dźwierzyńska J., Januszewski B.: Odwzorowanie częściowo złożeniowe Z trójwymiarowej przestrzeni rzutowej na płaszczyzną, Zeszyty Naukowe Politechniki Rzeszowskiej, „Budownictwo i Inżynieria Środowiska”, Nr 3, Rzeszów 2000 Pewien sposób graficznego zapisu ... 35 [3] Grochowski B.: Geometria wykreślna z perspektywą stosowaną. PWN, Warszawa 1995 MAPPING OF VERTICAL PERSPECTIVE PROJECTION OF M4 SPACE FIGURES Summary A way of mapping of the vertical perspective of M4 space figures is presented in the paper. Abilities of using the traditional constructions, known in the vertical perspective of M3 space figures, is characteristic of the recommended representation. Złożono w Oficynie Wydawniczej w maju 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Jan JAREMSKI Grzegorz STRAŻ Politechnika Rzeszowska BADANIA PARAMETRÓW GRUNTOWYCH PYŁÓW RZESZOWSKICH PRZY POMOCY APARATU GDS INSTRUMENTS LTD Praca zawiera informacje na temat aparatu trójosiowego ściskania firmy GDS Instruments Ltd, używanego do badań gruntów, który jest jednym z najnowszych osiągnięć w geotechnice na skalę światową. Przedstawiono ogólny opis aparatu, zakres możliwości badawczych oraz zagadnienia związane z jego eksploatacją. W pracy zamieszczono wyniki badań pyłów rzeszowskich. Poruszono problem powtarzalności i weryfikacji uzyskanych parametrów geotechnicznych oraz temat przyszłości badań gruntów małospoistych przy pomocy aparatu typu GDS. 1. Wprowadzenie Grunty pylaste zalegają na znacznym obszarze województwa podkarpackiego, a także występują w innych regionach kraju. Ustalenie ich parametrów geotechnicznych jest wyjątkowo trudne. Opisane we wcześniejszych pracach badania wskazują na podstawową trudność w pozyskiwaniu próbek o nienaruszonej strukturze (NNS) ze względu na niszczenie ich struktur. Badany grunt jest z reguły inny od występującego w warunkach rzeczywistych. Ponadto grunty te cechuje wyjątkowa wrażliwość na zmiany zawilgocenia. Poszukuje się metod badania tych gruntów na próbkach preparowanych [1, 2], a także podjęto próbę wyjaśnienia zmian parametrów geotechnicznych przez opisanie udziału budowy mineralogicznej we wcześniejszych badaniach [3]. Stwierdzono, że o wytrzymałości gruntów pylastych decydują między innymi zjawiska wywołane zmianą zawilgocenia frakcji iłowej łączącej ziarna kwarcu. We frakcji iłowej, którą stanowią minerały grup ilitu i częściowo smektytu, przy narastającym zawilgoceniu gruntu następuje powiększenie się warstw dyfuzyjnych micel koloidalnych. Minerały ilaste zeskalające połączenia międzyziarnowe kwarcu stają się mikropłaszczyznami poślizgu, w efekcie których powstaje nowy układ międzyziarnowy [4, 5]. Cząstki kwarcowe zagęszczają się i zakleszczają, towarzyszą temu deformacje warstw poddających się tym zmianom zawilgocenia. W pracy podjęto próbę badań gruntów pylastych z zawartością części organicz- 38 J. Jaremski, G. Straż nych. Z przyczyn praktycznych do badań wytypowano poligon w pobliżu laboratorium, tak aby analizowany grunt zachowywał w maksymalnym stopniu parametry występujące w warunkach rzeczywistych. Na tym poligonie zawartość części organicznych oscyluje w granicach od 3,63 do 4,37% (średnio 4,00%). Ustalenie wpływu zawartości występujących tu części organicznych na parametry geotechniczne tych pyłów jest podstawowym problemem w rozpoczętych badaniach. 2. Materiał badawczy Badania przeprowadzono na pyłach rzeszowskich pobieranych na jednym z poligonów w najmniejszej odległości od laboratorium badawczego. Próbki były pobierane z głębokości ok. 1,5 m. Badania podstawowe wykazały, że gęstość objętościowa pobieranego materiału gruntowego wynosi od 2,01 do 2,10 g/cm3, a wilgotność naturalna od 22,11 do 24,79%. Wstępna analiza areometryczna wykazała, że w badanym gruncie znajduje się 6,77% frakcji iłowej, a stopień plastyczności oscyluje w granicach od –0,02 do 0,23. Po zbadaniu próbek pod względem zawartości węglanów nie stwierdzono śladów reakcji, tak więc zawartość węglanów w badanym gruncie nie przekracza 1,0%. Badania przeprowadzono na próbkach cylindrycznych NNS (o naturalnej strukturze) o wymiarach φ38/100 mm. 3. Ogólny opis zestawu do badań gruntów i skał GDS Instruments Ltd Zestaw ten (rys. 1.) jest systemem sterowanym wyłącznie elektronicznie. W skład systemu badawczego wchodzą następujące elementy: • komora trójosiowa typu Bishopa&Wesleya oraz dolna zamknięta komora do wymuszania ciśnienia, • urządzenie kontrolujące ciśnienie I, które umożliwia sterowanie ciśnieniem w komorze obciążeniowej oraz przemieszczeniem próbki, • urządzenie kontrolujące ciśnienie II, które umożliwia sterownie ciśnieniem w komorze trójosiowej, • urządzenie kontrolujące ciśnienie III, które służy do zadawania lub pomiaru ciśnienia wody w porach gruntu, • elektroniczny układ zbierania danych (skrzynka nadawczo-odbiorcza wszystkich sygnałów), • komputer sterujący, zbierający, przetwarzający i przechowujący dane, • urządzenia dodatkowe, jak: czujnik do pomiaru odkształceń bocznych, dodatkowe wyposażenie umożliwiające badanie próbki podczas jej „roz- Badania parametrów ... 39 ciągania”, czujniki do bezpośredniego pomiaru przemieszczeń próbki oraz przewody łączące i łączniki [6, 7]. Rys. 1. Zestaw do badań parametrów geotechnicznych gruntów i skał firmy GDS Instruments Ltd Aparat umożliwia badanie próbek cylindrycznych średnicy 38 i 50 mm oraz wysokości 80–100 mm przy maksymalnym ciśnieniu 17 000 kPa i sile ścinającej do 5,0 kN. Ciśnienie wody w porach może być zadawane zarówno od dołu, jak i od góry próbki. Parametry badań można wprowadzać programowo przez sterowanie z komputera oraz za pomocą poszczególnych urządzeń kontrolujących. Zestaw do badań GDS Instruments Ltd może służyć do pomiaru parametrów geotechnicznych [4] w zakresie: • sprawdzenia współczynnika β (parametr Skemptona), • testu trójosiowego ściskania − UU – próbki nieskonsolidowane bez odpływu, − CU – próbki skonsolidowane bez odpływu, − CD – próbki skonsolidowane z odpływem, • przepuszczalności − badania przepuszczalności, − współczynnik filtracji, • funkcji ścieżki odkształceń/naprężeń przy badaniu próbek nienasyconych − ścieżka odkształceń, − ścieżka naprężeń, • standardowej konsolidacji − obciążenie skokowe, − CRS (stały wskaźnik odkształceń), − CLR (stały wskaźnik naprężeń), 40 J. Jaremski, G. Straż • funkcji zaawansowanych obciążeń (niezależna kontrola nad wybranymi parametrami) − obciążenie osiowe [kN], − naprężenie osiowe [kPa], − osiowe zniekształcenie [mm], − dewiator naprężeń [kPa], • modułu konsolidacji KO − przez bezpośredni pomiar, − przez zmianę objętości, • funkcji obliczeń w teście trójosiowego ściskania [7]. Rys. 2. Pogram GDSLAB podczas pracy z zestawem GDS Instruments Ltd Ważną rolę w badaniu odgrywa program sterujący GDSLAB w wersji 1.4.0 (rys. 2.). Oprogramowane to umożliwia modernizację i zautomatyzowanie czynności laboratoryjnych i obsługę samego urządzenia GDS [7]. Na podkreślenie zasługuje fakt, że program ten działa w systemie WINDOWS, umożliwia to obróbkę plików z wynikami badań w programach działających na tej platformie. Pozwala to na bezpośrednie i ciągłe rejestrowanie wyników, jak również obserwowanie przebiegu badania „na bieżąco” na wykresach, które można dowolnie konfigurować w zależności od potrzeb. W dowolnej chwili można również zatrzymać lub zmienić przebieg testu. Korzystając z programu GDSLAB, oprócz gromadzenia danych, jest możliwe dokonywanie przeliczeń standardowych pa- Badania parametrów ... 41 rametrów i umieszczanie ich w pliku, np. arkusza kalkulacyjnego, który umożliwia znaczne uproszczenie dalszej obróbki danych zapisanych w tabelach: Stage Number, Time since start of test, Time since start of stage, Radial Pressure, Radial Volume, Back Pressure, Back Volume, Load Cell, Pore Pressure, Axial Displacement, L/C Pressure, L/C Volume, Hall Axial 1, Hall Axial 2, Hall Radial, Base Pressure, Base Volume, Back Differential Pressure, Axial Displacement 2, Axial Force, Axial Strain, Av Diameter Change, Radial Strain, Axial Stress, Eff. Axial Stress, Eff. Radial Stress, Deviator Stress, Total Stress Ratio, Eff. Stress Ratio, Current Area, Shear Strain, Cambridge p, Eff. Cambridge p, Max Shear Stress t, Volume Change, B Value, Mean Stress s, Permeability IN, Permeability OUT, Lower Chamber Displacement, Lower Chamber Axial Load, oczywiście w zależności od rodzaju zadanego testu, a tym samym ułatwia przedstawianie wyników badań, np. w postaci graficznej, interesujących nas zależności (rys. 3.). Rys. 3. Wykres przedstawiający przykładowy test trójosiowego ściskania w aparacie GDS Instruments Ltd 4. Przebieg badań pyłów rzeszowskich W miarę postępujących badań okazało się, że parametry badanych próbek gruntu, które były przygotowywane w niemal identyczny sposób, tzn. pobrane z 42 J. Jaremski, G. Straż tego samego poligonu, głębokości i w taki sam sposób, przechowywane w takich samych warunkach oraz badane przy takich samych parametrach zadanego testu (σ3 = 100 kPa, v = 0,1 mm/min) są bardzo rozbieżne. Wielokrotne powtarzanie badań również nie przynosiło spodziewanych wyników. Podjęto szereg badań mających na celu wyjaśnienie zaistniałej sytuacji. Rozpoczęto od sprawdzenia samego aparatu pod względem zarówno sprzętowym, jak i oprogramowania. Dokonano również wtórnej instalacji systemu operacyjnego komputera sterującego, ponownej kalibracji aparatu, sprawdzono prawidłowość komunikacji poszczególnych podzespołów transmisyjnych urządzenia badawczego oraz prawidłowość działania przetworników. Wynik kontroli potwierdził prawidłowość działania zespołu badawczego. Kontrola prawidłowości działania poszczególnych elementów pod kątem mechanicznym również nie wykazała nieprawidłowości. Kolejnym etapem było wyeliminowanie ewentualności błędu związanego ze sposobem pobierania próbek. Próbki NNS pobierano przy pomocy cylindrów stalowych bezpośrednio w terenie, a następnie przy pomocy wyciskarki umieszczano próbkę w cylinderkach z tworzywa sztucznego, szczelnie zamykając i przechowując w eksykatorze. Chcąc zminimalizować wpływ siły tarcia na zmianę struktury próbki, wprowadzano substancje zmniejszające współczynnik tarcia, tj. olej roślinny, wazelina kosmetyczna i techniczna oraz różne rodzaje smarów. Efekty były minimalnie korzystne, lecz jednocześnie nie było żadnej pewności czy dana substancja smarująca poprzez penetrację powierzchniowych warstw próbki nie powoduje zmiany parametrów badanego gruntu, szczególnie w warstwie narażonej na bezpośredni kontakt. Przystąpiono więc do bardzo pracochłonnego sposobu pozyskiwania próbek NNS, a mianowicie do pobierania całych bloków gruntu, a następnie, przy pomocy ostrego noża i przyrządu obrotowego, do wykrawania próbek gruntu. Szczególną uwagę podczas przygotowywania próbek zwrócono na prostopadłość i równoległość odpowiednich powierzchni, poprawność i zgodność kształtu oraz wymiary próbek. Po dostatecznym opanowaniu opisanej metody pobierania próbek przystąpiono do badań. Wystąpiły podobne, znaczne rozbieżności w rezultatach badań. Stwierdzono jednak, że próbki NNS przygotowane przez wykrawanie to próbki, które są przygotowane prawidłowo, a więc zminimalizowano ewentualność błędu powodowanego uszkodzeniem naturalnej struktury próbki. Przygotowane próbki podzielono na serie i poddano badaniom, tym razem zmieniając parametry testu danej serii. Kolejne badania wykonywano przy prędkości ścinania próbki w zakresie: 0,02–0,5 mm/min oraz zmiany ciśnienia wewnątrz komory w zakresie: 50,0–400,0 kPa. Otrzymane tym sposobem wyniki badań nie były zadawalające (rys. 4.). W trakcie badań zaobserwowano, że w próbkach gruntu znajdują się znaczne ilości ciemnych części organicznych. Sprawdzono jaka jest ich zawartość. Po oznaczeniu średniej zawartości części organicznych metodą wyprażania stwier- Badania parametrów ... 43 dzono, że średnia zawartość części organicznych w gruncie jest stała i wynosi średnio 4,00%, a ich rozmieszczenie jest w miarę podobne. Rys. 4. Przykładowe próbki pyłu NNS po badaniu na zestawie GDS Instruments Ltd Podczas prowadzenia badań stwierdzono, że aparat jest bardzo wrażliwy na najmniejsze niedokładności podczas zakładania próbki. Skupiono się więc na perfekcyjnym opanowaniu zakładania próbek gruntu w aparacie badawczym. Bardzo pomocnym urządzeniem do umieszczania próbek w lateksowych osłonach okazała się podciśnieniowa pompa wodna, minimalizująca możliwość uszkodzenia próbki na tym etapie przygotowania badania, co w praktyce oznacza zakładanie próbki niemal bez dotykania ścianek bocznych próbki. Kamienie filtracyjne umieszczane w podstawie dolnej i górnej próbki były każdorazowo wygotowywane, a następnie suszone do stałej masy. Podczas samego „zakładania” próbek na stoliku aparatu bardzo przydatnym okazał się trójdzielny cylinder mocujący, który oprócz wstępnej stabilizacji próbek doskonale chronił je przed przypadkowym uszkodzeniem podczas montażu w aparacie. Aby maksymalnie zmniejszyć tę ewentualność, próbki skrócono do wymiarów 38/88 mm. Cylinder trójdzielny spełnił jeszcze jedną, bardzo istotną rolę, zapewniał bowiem współosiowość badanej próbki z trzpieniem kontrolnym aparatu. Zredukowano do minimum ewentualny mimośród, który mógł powodować poślizg trzpienia w prowadnicy stolika górnego próbki, a tym samym zniszczenie próbki przez wyboczenie. Przeprowadzono kolejne serie badań i nie uzyskano zadowalającej powtarzalności wyników. Po przeanalizowaniu wykonanych dotąd badań stwierdzono, że czynnikiem powodującym tak rozbieżne wyniki badań może być niejednorodność gruntu w warunkach in situ. Przystąpiono do badań na próbkach preparowanych, podobnie jak w pracach wcześniejszych [2]. Przygotowano więc próbki preparowane 38/88 mm, które wykonano z takiego samego jak do opisanych badań gruntu w warunkach in situ poprzez pobranie go z różnych miejsc warstwy, wymieszanie, wysuszenie do stałej masy, ponowne nawilżenie i jednakowe zagęszczanie warstwami w cylindrach pomocniczych. Uzyskane w ten sposób próbki teoretycznie powinny mieć bardzo zbliżoną do siebie, jednorodną 44 J. Jaremski, G. Straż strukturę, a tym samym powinny posiadać jednakowe parametry gruntowe, jak i wytrzymałościowe (rys. 5.). Rys. 5. Przykładowe wyniki badań wybranych serii badawczych Badania parametrów ... 45 Po przeprowadzeniu kolejnych badań na wspomnianych próbkach okazało się, że tylko część wyników jest powtarzalna. Po badaniach na próbkach preparowanych, celem potwierdzenia wysuniętej w czasie badań tezy, że aparat GDS jest urządzeniem pozwalającym na uchwycenie wpływu nawet najmniejszych niejednorodności badanego ośrodka, przystąpiono do badań na próbkach specjalnie preparowanych z materiału używanego do wyrobu świec. Użyty materiał do wykonywania prób testowych ma tę zaletę, że jest łatwo formowalny. Formowanie wykonywano przy pomocy cylindrów z tworzywa sztucznego, które wypełniano rozgrzanym do ustabilizowanej temperatury materiałem używanym do wyrobu świec. Po zastygnięciu substancji otrzymano próbki o wymiarach 38/100 mm i gęstości objętościowej ρ = 0,93 g/cm3 o poprawnym kształcie i jednakowej gęstości objętościowej. Przystąpiono do badań, ścinając próbki poddane ciśnieniu komorowemu σ3 = 100 kPa i prędkości ścinania V = = 0,2 mm/min. Po wykonaniu serii badań i odrzuceniu dwóch skrajnych wyników reszta mieściła się w zakresie 2178,42 kPa ± 4%. Przeprowadzone badania pozwalają stwierdzić, że zestaw do badań trójosiowych typu GDS Instruments Ltd działa w sposób prawidłowy, a otrzymywane tą metodą wyniki są wiarygodne (rys. 6.). Zarejestrowane różnice w wynikach badań pyłów rzeszowskich pozwalają przypuszczać, że są one wywołane zawartymi w nich częściami organicznymi, a także wynikają z ich składu mineralogicznego i budowy mikrostrukturalnej. Rys. 6. Wykres przedstawiający wyniki badań wytrzymałości na ścinanie próbek wykonanych z parafiny 5. Podsumowanie W świetle przeprowadzonych badań możemy stwierdzić, że wyznaczenie interesujących nas parametrów gruntowych wcale nie jest rzeczą prostą, mimo zastosowania bardzo zaawansowanych technik badawczych. Wpływ na ostateczny wynik badania może mieć bardzo duża liczba czynników, które czasami 46 J. Jaremski, G. Straż pozornie wydają się błahe a czasami wręcz niezauważalne. Bardzo ważny jest nadal problem pobierania próbek NNS gruntów małospoistych, ponieważ ma istotny wpływ na jakość uzyskiwanych wyników badań. Naprzeciw tym wymaganiom wychodzi system kontrolno-pomiarowy firmy GDS Instruments Ltd spełniający nie tylko europejskie, ale i światowe wymagania dotyczące badań parametrów geotechnicznych. Dzięki rozległemu wachlarzowi funkcji jest bardzo efektywnym i dokładnym narzędziem w realizacji bardzo złożonych i skomplikowanych badań. Literatura [1] Jaremski J.: O niektórych aspektach zmian parametrów geotechnicznych lessów i gruntów lessopodobnych rejonu Rzeszowa. V Konferencja Naukowo-Techniczna „Aktualne problemy naukowo-badawcze budownictwa”. Olsztyn–Łańsk 2002 [2] Jaremski J.: Wybrane zagadnienia geotechniczne występujące na obszarze województwa podkarpackiego. V Konferencja Naukowa Rzeszowsko–Lwowsko– Koszycka, Rzeszów 2000 [3] Grabowska-Olszewska B., Osipov V., Sokolov V.: Atlas of microscructure of clay soils. PWN, Warszawa 1994 [4] Grabowska-Olszewska B.: Free swell of bentonite from Radzionków. 7-th Int. IAEG Cong. A.A. Balkema, Rotterdam 1994 [5] Grabowska-Olszewska B.: Influence of sorption properties upon the hydrophility of selected clay soils. Bulletin of Geology 10: 5-144. Warsaw University Press, Warszawa 1968 [6] Świdziński W.: System badań w aparacie trójosiowego ściskania sterowany komputerem. Inżynieria Morska i Geotechnika, 1, 2000 [7] Menzies B.K.: A computer controlled hydraulic triaxial testing system. Advanced Traxial Testing of Soil and Rock, ASTM STP 977, 1988 INVESTIGATIONS OF RZESZOW SILTS GROUND PARAMETERS BY MEANS OF GDS INSTRUMENTS LTD APPARATUS Summary The contribution includes information on the triaxial testing system of GDS Instruments Ltd firm using to soil investigations which is one of the latest world solutions in geotechnics field. The general description of the system, range of its possibilities and problems connected with the exploitation have been presented. The results of Rzeszów silt samples tests have been run in the paper. The problem of repeatability and verification of the received geotechnical parameters and subject of the future of low-cohesive soils investigations by means of the GDS apparatus have been also touched on. Złożono w Oficynie Wydawniczej w maju 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Jan JAREMSKI Krzysztof WILK Politechnika Rzeszowska ANALIZA WPŁYWU ZMIAN ZAWILGOCENIA GRUNTÓW MADOWYCH WYWOŁANYCH STANAMI POWODZIOWYMI NA PARAMETRY GEOTECHNICZNE W pracy przedstawiono krótką charakterystykę gruntów sedymentacji powodziowej. Ich podstawowe cechy omówiono na przykładzie mad rzeki Wisły z okolic Gorzyc oraz rzeki Odry w obrębie miasta Opola, z dzielnicy Zaodrze. Zwrócono szczególną uwagę na wrażliwość tych gruntów na zmiany zawilgocenia. Niekorzystny wpływ zmian parametrów wytrzymałościowych podłoża, spowodowanych stanami powodziowymi, na budynki posadowione na terenach zalewowych opisano na podstawie zniszczeń wywołanych przez powódź z lipca 2001 r. w miejscowości Zalesie Gorzyckie. Zwrócono również uwagę na problemy fundamentowania oraz konieczność prawidłowego rozpoznania podłoża gruntowego na obszarach teras zalewowych. 1. Wprowadzenie Wiele dzielnic miast i osiedli jest zlokalizowanych na obszarach teras zalewowych, których grunty cechuje wyjątkowa wrażliwość na zmiany zawilgocenia. W pracy przeanalizowano wpływ stanów powodziowych wywołujących wzrost wilgotności gruntu na skutek infiltracji pionowej i poziomej na zmniejszenie się jego parametrów wytrzymałościowych. Określenie wpływu zmiany stanów wód powodziowych na poziom wód gruntowych jest bardzo trudne, bowiem zmienność tych stanów jest nieregularna, związana z wielką liczbą czynników i dlatego poziomy wód gruntowych charakteryzują się także nieregularnością [1]. Wpływ zmian stanów wody w rzece na odpowiednie zmiany stanu wody gruntowej zależy głównie od budowy geologicznej, współczynnika filtracji, wysokości i prędkości kształtowania się fali powodziowej [2]. Stan obiektów budowlanych na obszarach powodziowych, jak również wykonane badania laboratoryjne gruntów z tamtych terenów, w tym badania próbek gruntu o symulowanym zawilgoceniu, potwierdzają wyniki utraty nośności pod- 48 J. Jaremski, K. Wilk łoża. Za konieczne uważa się poszerzenie badań parametrów geotechnicznych gruntów występujących na terenach zagrożonych powodzią. 2. Charakterystyka powodziowych gruntów aluwialnych i zmienności ich parametrów Grunty dolin rzecznych naniesione w czasie stanów powodziowych wyraźnie się wyróżniają, spośród innych rodzajów gruntów powstałych drogą sedymentacji, niejednorodnością cech i parametrów, będących wynikiem sposobu ich powstawania. Na podstawie wieloletnich doświadczeń, prowadzonych prac badawczych mających na celu ustalenie właściwości inżyniersko-geologicznych gruntów aluwialnych badacze zajmujący się tematem wskazują na złożoność czynników wpływających na znaczną ich zmienność [3-5]. Podstawowym z nich, najbardziej wpływającym na fizyczno-mechaniczne właściwości utworów powodziowych jest ich litologia, na którą nakładają się również inne czynniki sedymentacyjne oraz postsedymentacyjne. Zróżnicowanie litologiczne mad jest z kolei wynikiem sposobu rozwinięcia doliny rzecznej, sposobu rozwinięcia koryta rzeki i charakteru geologiczno-litologicznego terenów alimentacyjnych poszczególnych odcinków doliny [6]. W większości dolin rzecznych dojrzałych, swobodnych wyróżniają się dwie serie utworów aluwialnych osadzonych na drobnoziarnistych piaskach korytowych [4, 5]. Są to mady gliniaste, starsze osady rzeki meandrującej oraz mady piaszczysto-pylaste, współczesne osady rzeki dzikiej, roztokowej. Geneza gruntów aluwialnych, z której wynika duże ich uwarstwienie, przewarstwienia, wśród których można wyróżnić frakcje piaskowe, pyłowe, iłowe, często zawierające części organiczne, klasyfikują je pomiędzy innymi gruntami słabymi. Zaznaczyć należy, że grunty te nigdy na przestrzeni wieków nie były poddane znaczącemu obciążeniu konsolidacyjnemu. Niewielka konsolidacja następowała jedynie pod ciężarem własnym tychże gruntów, ewentualnie pod krótko działającym obciążeniem wodami powodziowymi. Brak skonsolidowania gruntów wpływa znacząco na zmienność w czasie, pod wpływem czynników zewnętrznych, właściwości gruntów madowych. Między innymi procesy filtracji, zmiany zawilgocenia przebiegają w nich znacznie szybciej niż w innych gruntach podobnych granulometrycznie, lecz poddanych konsolidacji. 3. Charakterystyka gruntów madowych Zalesia Gorzyckiego i Opola – Zaodrza Na analizowanym terenie miejscowości Zalesie Gorzyckie, położonej kilka kilometrów na wschód od Sandomierza, na prawym brzegu Wisły, w pradolinie Analiza wpływu zmian zawilgocenia ... 49 tej rzeki, pomiędzy ujściami rzek Łęgu i Trześniówki, udało się również wyodrębnić typowe ułożenie utworów aluwialnych. Wstępne badania, które przeprowadzono w terenie potwierdziły występowanie dwóch podstawowych serii gruntów madowych. Obydwie serie stanowiły gliny pylaste, różniące się jednakże właściwościami. Głębiej zalegająca na korytowych piaskach drobnych i średnich seria szaro-popielatych glin pylastych znajduje się średnio od 1,5 do 2,5 m poniżej poziomu terenu. Nad nią ułożona jest druga seria glin pylastych barwy jasnobrązowej, a głębokość tej warstwy można określić szacunkowo od 0,5 do 1,5 m poniżej poziomu terenu. Różnice pomiędzy obydwiema seriami utworów madowych, zaobserwowane podczas analizy makroskopowej poparte zostały wynikami standardowych badań laboratoryjnych. Zalegająca głębiej warstwa glin pylastych posiada większy wskaźnik plastyczności, o czym świadczą określone granice plastyczności, średnio 20,5% oraz płynności, średnio 56%. W przypadku jasnobrązowej gliny pylastej granice te wynoszą po uśrednieniu odpowiednio 16,7% i 44%. Mając na uwadze wrażliwość gruntów madowych na zmiany zawilgocenia, wykonane zostały również badania parametrów wytrzymałościowych w aparacie trójosiowego ściskania dla próbek o symulowanym, zmiennym zawilgoceniu. Wyniki tych badań w odniesieniu do dwóch podstawowych wielkości charakteryzujących nośność podłoża gruntowego zostały przedstawione na wykresach (rys. 1., 2.). Wykresy podzielono na dwie grupy charakteryzujące obydwie serie utworów aluwialnych pochodzenia rzecznego. Rys. 1. Przedstawione badania własne na próbkach gruntu o symulowanych zmianach zawilgocenia dla mad serii pierwszej rzeki Wisły w miejscowości Zalesie Gorzyckie Przedstawione wyniki badań na próbkach gruntów i symulowanych zmianach zawilgocenia, przedstawione na wykresach (rys. 1., 2.), mogą odbiegać od wartości parametrów występujących w warunkach naturalnych. Powyższe analizy potwierdzają jednak podstawowy wpływ zmian zawilgocenia na parametry wytrzymałościowe gruntów spoistych, a szczególnie utworów facji powodziowej ze względu na ich niski stopień skonsolidowania. 50 J. Jaremski, K. Wilk Rys. 2. Przedstawione badania własne na próbkach gruntu o symulowanych zmianach zawilgocenia dla mad serii drugiej rzeki Wisły w miejscowości Zalesie Gorzyckie Podobnie, celem określenia właściwości fizycznych i mechanicznych gruntów madowych, w rejonie dzielnicy Opole – Zaodrze przeprowadzono badania laboratoryjne, pobierając próbki ze ścian wykopu w ciągu jednej z ulic. Teren objęty programem badań stanowi terasę holoceńską rzeki Odry. W obrębie tej części terasy występują dwa starorzecza. W podłożu znajdują się margle górnokredowe przykryte warstwą osadów rzecznych holoceńskich. Margle w terasie zalewowej występują na głębokości od 5,5 do 9,5 m i są przykryte warstwą osadów rzecznych, piasków, żwirów oraz mad, których miąższość waha się od 0,5 do 4,5 m. Poziom wód gruntowych na opracowanym terenie jest uzależniony od zmian poziomu wody w rzece oraz od ilości opadów i przepuszczalności gruntu. Wahania wody dochodzą do około 1 m. Mady tego rejonu są reprezentowane głównie przez gliny pylaste, niekiedy gliny piaszczyste, piaski gliniaste i pyły. Stopień plastyczności tych gruntów zmieniał się w zależności od ich zawilgocenia od 0 do 0,25, a miejscami nawet do 0,35. Wilgotność naturalna wahała się od 13,52% do 22,65%, gęstość objętościowa od 1,89 do 2,09 g/cm3, edometryczny moduł ściśliwości od 740 do 4300 kPa. Kąt tarcia wewnętrznego wahał się według badania w aparacie bezpośredniego ścinania od 13o i spójności 8 kPa do 9o i spójności 28 kPa. Badania w aparacie bezpośredniego ścinania były wykonywane na próbkach o naruszonej strukturze. Kąt tarcia badany na próbkach o nienaruszonej strukturze w aparacie trójosiowego ściskania zmieniał się od 7o przy spójności 58 kPa do 10o przy spójności 100 kPa. Dla scharakteryzowanych powyżej mad rzeki Odry podano wyniki badań gruntów przy naturalnej wilgotności. 4. Uszkodzenia budynków wywołane stanami powodziowymi Na podstawie przeprowadzonego rozpoznania stanu budynków po powodzi ustalono, że znaczna część trwałych uszkodzeń konstrukcji budynków była spo- Analiza wpływu zmian zawilgocenia ... 51 wodowana zmniejszeniem nośności gruntu stanowiącego podłoże fundamentów na skutek wzrostu zawilgocenia gruntu wywołanego stanami powodziowymi rzeki Wisły [7]. Utrata wytrzymałości podłoża i nierównomierne osiadanie budynków może być również wynikiem zawilgocenia gruntów na skutek infiltracji pionowej i poziomej na obszarach uprzywilejowanej filtracji i infiltracji, tzn. w bliskim sąsiedztwie rowów i starorzeczy. Na terenie wsi Zalesie Gorzyckie znajduje się kilka starych dolin erozyjnych, zarówno samej Wisły, jak i jej dopływów – Łęgu i Trześniówki. Główna zabudowa tej miejscowości przebiega wzdłuż jednej z takich dolin. Są w nich osadzone grunty niejednorodne, o małej nośności, w postaci pyłów piaszczystych, piasków pylastych drobnych i średnich oraz namułów. W części omawianych dolin utworzyły się zbiorniki wody stojącej. Doliny starorzeczy sięgają znacznej głębokości, nawet 4,0–5,0 m poniżej poziomu terenu, dochodząc do warstwy piasków drobnych i średnich, a skarpy ich brzegów wykazują miejscami znaczne pochylenie. Sytuacja taka może być przyczyną ruchu poziomego mas gruntowych, które mogą osuwać się do tych dolin również z powodu zmian właściwości i parametrów gruntu wywołanych właśnie zwiększeniem wilgotności. Uplastycznienie podłoża do stanu, w którym ruch i poślizg w gruncie jest możliwy prowadzi do powstania osuwisk powodujących uszkodzenia konstrukcji budynków. Osuwiska takie zaobserwowano w Zalesiu Gorzyckim. Przykładowy przekrój doliny erozyjnej przebiegającej przez omawianą miejscowość został przedstawiony na rys. 3. Rys. 3. Charakterystyczny przekrój geotechniczny doliny starorzecza Wisły w miejscowości Zalesie Gorzyckie 5. Podsumowanie Tereny zagrożone powodziami wymagają kompleksowych badań geotechnicznych. Istnieje potrzeba wyodrębnienia wśród nich obszarów, których grunty 52 J. Jaremski, K. Wilk są szczególnie wrażliwe na niekorzystne zmiany parametrów geotechnicznych na skutek wzrostu zawilgocenia. Konieczność ta wiąże się z ryzykiem zniszczenia konstrukcji obiektów znajdujących się na takim terenie. Znajomość zmian parametrów geotechnicznych podłoża gruntowego umożliwi projektantowi wybór optymalnych rozwiązań posadowienia oraz konstrukcji obiektu budowlanego. Nieuniknione, być może, stanie się całkowite wyłączenie części terenów zalewowych spod zabudowy. Byłyby to nie tylko obszary, gdzie zmiany cech wytrzymałościowych gruntu wykluczają płytkie posadowienie, ale również obszary dawnych dolin erozyjnych oraz ich sąsiedztwa. Znajomość ułożenia, pochylenia warstw geotechnicznych wraz z ich właściwościami pozwoli wskazać na niebezpieczeństwo wystąpienia osuwisk. Takie osuwiska mogą powodować nie tylko różnice wysokości terenu. W przypadku skarp dolin starorzeczy, nawet wypełnionych już naniesionymi pakietami gruntów, z reguły słabych, o znikomej nośności, jest to niebezpieczeństwo zupełnie realne. Zainteresowanie badaniami geotechnicznymi terenów zalewowych powinny wykazać przede wszystkim jednostki administracji państwowej, zwłaszcza Urzędy Gmin i Powiatów. Właściwie opracowane plany zagospodarowania przestrzennego, uwzględniające w obrębie obszarów zalewowych właśnie takie tereny „podwyższonego ryzyka” mogą zapobiec w przyszłości zniszczeniom wielu budynków i budowli. Uszkodzenia budynków spowodowane utratą nośności podłoża wiążą się z awariami ich konstrukcji i bardzo często dyskwalifikują te obiekty do dalszego użytkowania, konieczna jest ich rozbiórka. Oczywiście niemożliwe jest zrezygnowanie z takich terenów w chwili obecnej, ze względu na istniejącą infrastrukturę. Należałoby jednak pozwolenie na nową zabudowę na tych obszarach uzależnić od spełnienia szeregu warunków zwiększających bezpieczeństwo budynku, a nawet całkowicie zabronić wznoszenia nowych obiektów. Nową zabudowę osiedli należy planować w miejscach, gdzie parametry podłoża pomimo wzrostu zawilgocenia zmieniają się w ograniczonym, bezpiecznym zakresie. Należy również zwrócić uwagę na tereny okołozalewowe, gdzie utrata nośności przez grunt jest możliwa wskutek infiltracji poziomej wody w gruncie. Także tereny skarp i wzniesień, których podstawy są narażone na zmiany wilgotności stwarzają niebezpieczeństwo powstawania osuwisk, a co za tym idzie znacznych strat materialnych oraz zagrożenia życia. Literatura [1] Jaremski J.: Zmiana własności geotechnicznych gruntów miasta Opola na skutek budowy kanału „Ulgi”. Zeszyty Naukowe Wyższej Szkoły Inżynierskiej w Opolu, Opole 1974 [2] Wieczysty A.: Hydrogeologia inżynierska. PWN, Warszawa 1982 Analiza wpływu zmian zawilgocenia ... 53 [3] Frankowski Z.: Metody ustalania własności gruntów słabonośnych na przykładzie utworów facji powodziowej doliny Wisły koło Karczewa. Biuletyn Instytutu Geologicznego, 324, Warszawa 1980 [4] Myślińska E.: Kryteria oceny inżyniersko-geologicznych właściwości mad. Kwartalnik Geologiczny, t. 28, 1, 1984 [5] Myślińska E.: Engineering-geological problems in investigations on soft soils in river valleys. 6th International IAEG Congress, Balkema, Rotterdam 1990 [6] Myślińska E.: Zróżnicowanie litologiczne mad w wybranych odcinkach doliny Wisły. Przegląd Geologiczny, t. 30, 8, 1982 [7] Jaremski J., Wilk K.: Wpływ zmian parametrów geotechnicznych wywołanych stanami powodziowymi na obiekty budowlane. XII Ogólnopolska Szkoła Gospodarki Wodnej, Jachranka 2002 THE ANALYSIS OF INFLUENCE OF MUD SOILS HUMIDITY CHANGES CAUSED BY FLOOD STATES ON GEOTECHNICAL PARAMETERS Summary The short profile of flood sedimentation soils has been presented in the paper. The basic features of them have been described on the example of Vistula River muds from Gorzyce region and Odra River muds occurring in Opole city, district Opole – Zaodrze. The special attention has been paid to sensitivity to humidity changes of these soils. The unfavourable influence of the subsoil strength parameters changes caused by flood states on buildings found in flood areas has been described on the basis of destructions evoked by the flood of July 2001 in Zalesie Gorzyckie. The authors have also paid attention to foundation engineering problems and necessity of correct reconnaissance of subsoil on flood plains. Złożono w Oficynie Wydawniczej w maju 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Paweł LUDERA Politechnika Rzeszowska CHARAKTERYSTYKA CECH MECHANICZNYCH MŁODEGO BETONU W ELEMENTACH ŚREDNIOMASYWNYCH. PRZEGLĄD LITERATURY I BADANIA WŁASNE W artykule przedstawiono charakterystykę cech mechanicznych młodego betonu z uwzględnieniem warunków dojrzewania. Przedstawiono warunki dojrzewania betonu w elementach średniomasywnych. Podano sposoby oceny dojrzałości betonu i przedstawiono własną propozycję określania stopnia hydratacji dojrzewającego betonu. Charakterystyki cech młodego betonu podano na podstawie wyników przeprowadzonych badań niszczących i nieniszczących młodego betonu w okresie do 30 godzin od betonowania. 1. Wprowadzenie Problematyka związana badaniami właściwości mechanicznych betonu jest szeroko prezentowana w literaturze polskiej i zagranicznej. Zasadniczo większość autorów skupia się głównie na cechach betonu już dojrzałego (beton wykazujący stałość cech w czasie). Począwszy od lat 50-tych zaczęto szerzej się zajmować również cechami betonu będącego jeszcze w czasie dojrzewania w okresie do umownych 28 dni. W celu odpowiedniego opisu dojrzewającego betonu wprowadzono podział okresu dojrzewania na fazy rozwoju. Podział taki podaje Kiernożycki [1], wyróżniając trzy fazy rozwoju w zależności od wieku betonu: świeży beton do 6–8 godzin, młody beton od 6–8 do 24–48 godzin, beton stwardniały po 24–48 godzinach. W każdej z faz dojrzewania betonu jego cechy mechaniczne ulegają rozwojowi z różną intensywnością. Szczególną uwagę zwraca się na cechy betonu w pierwszych dwóch fazach dojrzewania, ze względu na zjawiska, jakie zachodzą w konstrukcjach w okresie dojrzewania oraz dużą wrażliwość konstrukcji na zarysowanie. Główną uwagę zwraca się obecnie na zjawiska i ich konsekwencje w konstrukcjach o dużych przekrojach poprzecznych elementów (konstrukcje masywne). Zagadnieniami tymi zajmowali się między innymi Kiernożycki, Flaga, Witakowski [2, 3, 4] oraz inni, szeroka jest również literatura zagraniczna na ten temat. 56 P. Ludera Zasadniczo innym problemem jest opis cech mechanicznych dojrzewającego betonu w elementach o mniejszych gabarytach przekroju (średniomasywnych). Zagadnieniami tymi szeroko zajmowali się van Breugel (Delft Holandia) [5] oraz Emborg (Szwecja) [6]. Ich badania są ukierunkowane na ocenę stanu naprężeń i odkształceń w dojrzewających konstrukcjach betonowych w celu oceny ich zagrożeń związanych z zarysowaniem. Problemy te dotyczą zbiorników żelbetowych, obudów tuneli i innych konstrukcji o średniej masywności przekrojów, wymagających odpowiedniej szczelności. W artykule przeprowadzono analizę obecnego stanu wiedzy dotyczącego cech mechanicznych młodego betonu oraz podano własne propozycje określania charakterystyk młodego betonu, w oparciu o prowadzone w dalszym ciągu badania ścian żelbetowych. 2. Temperatura samoocieplenia dojrzewającego betonu w ścianach żelbetowych Temperatura jest podstawowym czynnikiem wpływającym na przebieg procesów związanych z dojrzewaniem betonu. Równocześnie kinetyka zmian temperatury jest ściśle związana z przebiegiem procesu hydratacji cementu oraz ze składem mieszanki betonowej. Czynnikiem wpływającym na rozwój temperatury samoocieplenia, jak i na rozwój kinetyki zmian struktury dojrzewającego betonu jest masywność elementu betonowego. Podział konstrukcji betonowych ze względu na ich masywność podano w pracach [2, 3], wyróżniono konstrukcje niemasywne, średniomasywne i masywne. Cechą decydującą o przynależności do odpowiedniej grupy jest masywność elementu definiowana jako: • moduł powierzchniowy M= ΣA [m–1] V (1) gdzie: ΣA – sumaryczne pole powierzchni zewnętrznych, przez które odbywa się wymiana ciepła z otoczeniem, V – objętość elementu, • grubość zastępcza em = 2A [m] U (2) Charakterystyka cech mechanicznych ... 57 gdzie: A – pole powierzchni przekroju, U – długość obwodu, przez który odbywa się wymiana ciepła z otoczeniem, • grubość zastępcza zmodyfikowana d eq = γ a Ω s lub d eq = γ a V [m] S (3) gdzie: Ω – powierzchnia przekroju, s – długość krawędzi przekroju, przez którą odbywa się wymiana ciepła z otoczeniem, γa – współczynnik kształtu powierzchni przepływu, V – objętość elementu, S – powierzchnia, przez którą odbywa się wymiana ciepła z otoczeniem. Grubość zastępcza zmodyfikowana podana została przez de Schuttera i Tearwego [7]. Według Flagi [3] i Kiernożyckiego [2] przyjęto następujące przedziały masywności dla poszczególnych grup elementów: • niemasywne (M ≥ 15 m–1, em ≤ 0,15 m), • średniomasywne (2 ≤ M < 15m–1, 0,15 < em ≤ 1,0 m), • masywne (M < 2 m–1, em > 1,0 m). W przypadku ściany betonowej grubości d odpowiednie parametry wynoszą: • moduł powierzchniowy M = 2/d (ściana średniomasywna 13 cm < d < 100 cm), (ściana średniomasywna • grubość zastępcza em = d 15 cm < d < 100 cm), (ściana średniomasywna • grubość zastępcza deq = d 15 cm < d < 100 cm). Jednak, patrząc na otrzymany zakres grubości ścian średniomasywnych, należy się liczyć z dużym zróżnicowaniem właściwości tych ścian. W związku z tym przyjęto ograniczenie grubości ścian, uwzględnianych w analizach prowadzonych przez autora, do 0,5 m, w związku ze stosowanymi grubościami ścian w takich konstrukcjach jak zbiorniki. Dodatkowo stwierdzono, że ściany grubości około 1 m charakteryzują się już warunkami dojrzewania zbliżonymi do warunków adiabatycznych (głównie chodzi o środkową część ściany), które odpowiadają warunkom dojrzewania elementów masywnych. Można wyróżnić kilka podstawowych czynników wpływających na wielkość przyrostu temperatury oraz na przebieg jej zmian w dojrzewającym betonie: rodzaj i ilość użytego cementu, pojemność cieplna oraz ilość kruszywa, 58 P. Ludera ilość wody w mieszance betonowej, temperatura początkowa dojrzewającego betonu (temperatura mieszanki) oraz temperatura otoczenia. Określenie przebiegu zmian temperatury dojrzewającego betonu stało się podstawowym zagadnieniem do właściwej analizy procesów dojrzewania betonu oraz oceny zmian struktury młodego betonu. Należy zaznaczyć, że zadanie to jest trudne ze względu na złożoność zagadnienia oraz wielość czynników wpływających na temperaturę. Określeniem przebiegu zmian temperatury dojrzewającego betonu metodami analitycznymi, w odniesieniu do elementów masywnych zajmował się szeroko Kiernożycki [2]. Otrzymane zależności zmian temperatury w czasie dojrzewania charakteryzują się dużą złożonością i wymagają określenia szczegółowych cech struktury dojrzewającego betonu. Drugim sposobem określenia temperatur dojrzewającego betonu są badania numeryczne. Analizy rozwoju temperatury konstrukcji betonowych metodami numerycznymi przedstawione były w literaturze przez van Breugela [5, 8]. Podał on opis modelu dojrzewającego betonu symulujący rozwój struktury w rzeczywistej konstrukcji, co pozwala na wyznaczenie temperatury w zmieniających się warunkach związanych z dojrzewaniem młodego betonu. Trzecim sposobem określenia temperatury dojrzewającego betonu są pomiary bezpośrednie w rzeczywistej konstrukcji. Pomiary temperatur w konstrukcjach masywnych były przedstawiane w literaturze, odnosiły się do masywnych bloków żelbetowych w zaporach wodnych w Solinie i Świnnej Porębie oraz w elektrowni Żarnowiec. Wyniki pomiarów temperatur w konstrukcjach średniomasywnych dotyczą budownictwa mostowego (wiadukt we Wrocławiu oraz most w Ottawie w Kanadzie). Autor po analizie literatury stwierdził konieczność wykonania własnych badań doświadczalnych rozwoju temperatury samoocieplenia młodego betonu w konstrukcjach średniomasywnych. Badania przeprowadzono na modelach rzeczywistych ścian betonowych grubości 50 cm, wysokości 150 cm i długości 300 cm oraz 900 cm. Grubość 50 cm została przyjęta jako reprezentatywna w przypadku elementów średniomasywnych (masywność M = 4 m–1, em = 0,5 m, deq = 0,5 m). Dodatkowo wyboru takiego wymiaru dokonano ze względu na wykorzystanie przez autora przedstawianych zjawisk do analizy ścian zbiorników żelbetowych na wodę lub ścieki. Przyjęta grubość ściany jest najczęściej stosowaną grubością przy połączeniu ściany z płytą fundamentową. W badaniach założono skład mieszanki betonowej dla betonu klasy B25, beton towarowy stosowany z odpowiednio dobranym dodatkiem do wykonywania zbiorników żelbetowych na oczyszczalniach ścieków. Skład mieszanki betonowej: cement 390 kg (C35 Ożarów), piasek 823 kg, żwir 1294 kg, woda 169l, w/c = 0,43. Temperatury początkowe dojrzewającego betonu wyniosły 15°C oraz 23°C (można przyjąć, że odpowiadają warunkom wiosenno-jesiennym oraz letnim). Do pomiaru temperatury wykorzystano specjalny układ pomiarowy temperatury z czujnikami elektronicznymi. Szczegółowe wyniki pomiarów tem- Charakterystyka cech mechanicznych ... 59 peratury przedstawiono w pracy [9]. Rozwój zmian temperatury w ścianach oraz temperatury otoczenia przedstawiono na rys. 1 i 2. Porównanie średnich temperatur w obu ścianach przedstawiono na rys. 3. Rys. 1. Zmiany temperatury dojrzewającego betonu ściany żelbetowej grubości 50 cm Rys. 2. Zmiana temperatury dojrzewającego betonu ściany betonowej grubości 50 cm przy temperaturze początkowej 15ºC Rys. 3. Zmiana temperatury dojrzewającego betonu w ścianach betonowych grubości 50 cm 60 P. Ludera Przedstawione wykresy temperatur dojrzewającego betonu w ścianach opisują środowisko, w jakim dojrzewa młody beton. Widać silną zależność charakteru zmian temperatury w czasie od temperatury początkowej. Przy wyższej temperaturze początkowej przebieg zjawisk jest bardziej dynamiczny. Otrzymane wyniki rozwoju temperatury dojrzewającego betonu w ścianach przyjęto jako termiczne cechy środowiska, w jakim dojrzewa beton w ścianach betonowych (na przykładzie ściany grubości 50 cm). 3. Określenie dojrzałości młodego betonu Dojrzałość młodego betonu można przedstawić za pomocą wskaźnika dojrzałości betonu lub stopnia hydratacji cementu. Wskaźnik dojrzałości betonu jest przedstawiany jako stosunek odpowiedniej wartości cechy materiału po pewnym czasie dojrzewania do jej wartości końcowej. Najczęściej wykorzystuje się w tym celu wytrzymałość na ściskanie: D(t) = fc(t)/fc,28 (4) gdzie: fc(t) – wytrzymałość betonu na ściskanie po czasie t, fc,28 – wytrzymałość betonu na ściskanie po 28 dniach. Stopień hydratacji cementu jest definiowany ogólnie jako stosunek masy cementu zhydratyzowanego do całkowitej masy cementu w mieszance betonowej. Bezpośrednie określenie tej cechy dojrzałości jest możliwe w badaniach strukturalnych [10]. Pośrednio stopień hydratacji może być określany przez następujące zależności [2, 4]: • α(t) = wht/wh (5) gdzie: wht, wh – ilość wody związanej chemicznie przez jednostkę masy cementu w czasie t oraz całkowita ilość wody związanej chemicznie podczas procesu hydratacji • α(t) = Q(t)/Qc (6) gdzie: Q(t), Qc – ciepło hydratacji wydzielone po czasie t dojrzewania oraz całkowite ciepło hydratacji odniesione do masy cementu. Charakterystyka cech mechanicznych ... 61 W literaturze można spotkać również zależności empiryczne określające stopień hydratacji w zależności od czasu dojrzewania, najczęściej stosowany jest wzór podany przez Danielssona [11]: α (ta ) = 0,1ta1/ 3 − ta c −4 10 w (7) gdzie: ta – skorygowany czas dojrzewania w temperaturze porównawczej 20°C, c/w – stosunek ilości cementu do wody. Dyskusyjną sprawą w zależności (7) jest skorygowany czas dojrzewania ta odnoszący dojrzewanie w temperaturze rzeczywistej do temperatury porównawczej 20°C. Postać zależności skorygowanego czasu dojrzewania można przyjąć zgodnie z tradycją niemiecką [12]: ta = ∑ i Ti + 10o C ∆ti [h] 30o C (8) gdzie: Ti – temperatura dojrzewania betonu, ti – czas dojrzewania w temperaturze Ti. Inną zależnością, na podstawie której można określić skorygowany upływ czasu dojrzewania jest tak zwana funkcja temperatury oparta na prawie Arrheniusa podana przez Kiernożyckiego, Pesersena oraz van Breugela [2, 4, 5]. Funkcję temperatury można przedstawić następującą zależnością: E T −T f (t ) = exp k ⋅ t o R TtTo (9) gdzie: Ek – energia aktywacji cementu, R – stała gazowa, To – temperatura porównawcza, najczęściej 293K, Tt – temperatura betonu. Dyskusyjną sprawą jest wielkość energii aktywacji Ek, którą Jonasson [4] uzależnia od temperatury w następujący sposób: 30 Ek = 5700 R T + 10 0,54 [° K ] (10) 62 P. Ludera a Pedersen podaje dla odpowiednich zakresów temperatury: dla T ≥ 20°C 33,5 Ek = 33,5 + 1, 47(20 − T ) dla T < 20°C Kiernożycki natomiast przyjmuje stałą wartość Ek = 40÷42 kJ/mol. Innym sposobem określenia energii aktywacji są pomiary w badaniach kalorymetrycznych dla poszczególnych rodzajów cementów przedstawione przez Kiernożyckiego [2]. Skorygowany czas dojrzewania betonu z wykorzystaniem funkcji temperatury będzie całką oznaczoną z tej funkcji: t E T −T ta = ∫ exp k ⋅ t o dt R TtTo 0 (11) Inne postacie związków dotyczących stopnia hydratacji cementu są przedstawione w pracy [13]. Bardziej rozwiniętą metodę określania stopnia hydratacji podaje van Breugel [5, 8], opierając się na opracowanym przez siebie numerycznym modelu dojrzewającego betonu. Przyjmuje on w modelu stopniowy przyrost produktów hydratacji w poszczególnych krokach obliczeń. Analizy przeprowadził na autorskim programie HYMOSTRUCTUR. Obliczenia poparte są dużą bazą danych zawierającą cechy betonów o różnych składach mieszanki z uwzględnieniem różnych cementów i kruszyw. Metoda ta dotyczy jednak pewnej zamkniętej grupy betonów. Dodatkowo autor referatu nie miał możliwości skorzystania z przedstawionego programu. Wykorzystując wzór (6) do określenia stopnia hydratacji oraz wyniki wcześniej przedstawionych badań rozwoju temperatury w rzeczywistej ścianie żelbetowej, stwierdzono możliwość alternatywnego sposobu określenia stopnia hydratacji cementu. Wykorzystując pomiary rzeczywiste temperatury dojrzewającego betonu uwzględniające parametry geometryczne ściany, przeprowadzono analizę zmian stopnia hydratacji w takich warunkach cieplnych. Równanie bilansu cieplnego dla dojrzewającej ściany będzie miało następującą postać: ∆Q (t ) = q(t ) − QS (t ) (12) gdzie: • ∆Q (t ) – zmiana ciepła betonu w czasie dojrzewania ∆Q (t ) = mcb ∆T (t ) ∆T (t ) = T (t ) − Tp (13) Charakterystyka cech mechanicznych ... 63 • QS (t ) – strata ciepła betonu w czasie dojrzewania λb ⋅ 3600∆TS 0,5d 0 ∆TS = T (t ) − To (t ) t QS (t ) = ∫ (14) • q(t) – ciepło wydzielone w procesie hydratacji w rozpatrywanej ścianie betonowej. Oznaczenia we wzorach (12)÷(14) są następujące: t – czas dojrzewania betonu [h], m – masa betonu, T(t) – zmierzona temperatura dojrzewającego betonu po czasie dojrzewania t, Tp – temperatura początkowa betonu, cb – ciepło właściwe betonu, λb – współczynnik przewodności cieplnej dojrzewającego betonu, d – grubość ściany betonowej, To(t) – zmierzona temperatura otoczenia dojrzewającej ściany betonowej po czasie dojrzewania t. Przyjęto założenie, że straty ciepła ze ściany do otoczenia zmieniają się w elemencie proporcjonalnie do grubości elementu oraz założono stałą wartość temperatury w całym przekroju w danym czasie (różnica temperatur zmierzonych w przekroju ściany grubości 50 cm nie przekroczyła 3°C). Rozpatrując ścianę grubości 0,5 m, przyjęto w obliczeniach jej powierzchnię równą 1 m2, ilość cementu w mieszance betonowej dla tej ściany 195 kg. Parametry betonu przyjęto na podstawie danych literaturowych: ciepło właściwe młodego betonu cb = 0,94kJ/kg⋅K [2], współczynnik przewodności cieplnej λb = 1,75 W/m2⋅K [2, 4], całkowite ciepło hydratacji dla cementu C35 Ożarów Qc = 394kJ/kg [4]. Na podstawie pomiarów temperatury ściany przyjęto temperaturę początkową betonu Tp = 23°C oraz Tp = 15°C, temperaturę otoczenia przyjęto na podstawie badań bezpośrednich prowadzonych równocześnie z pomiarami wewnątrz ścian. Ze wzoru (12) dla bilansu cieplnego dojrzewającej ściany obliczono ciepło q(t): t q (t ) = mcb ∆T (t ) + 3600λb ∆TS dt 0,5d ∫0 (15) 64 P. Ludera t Obliczenia sumarycznych zmian temperatury w czasie ∫ ∆TS dt przeprowa- 0 dzono metodą przybliżoną, obliczając odpowiednie pole powierzchni ograniczone wykresami temperatury w betonie i temperatury otoczenia. Rys. 4. Stopień hydratacji w czasie dojrzewania ściany betonowej Wyniki analizy zmian stopnia hydratacji w czasie dojrzewania ściany betonowej grubości 50 cm przedstawiono na rys. 4., przyjmując wzór (6) opisujący stopień hydratacji w postaci: α(t) = q(t)/Qc 4. Przegląd charakterystyk wytrzymałościowych młodego betonu Charakterystyki wytrzymałościowe młodego betonu były przedmiotem wielu opracowań literaturowych. Podane są również pewne wytyczne normowe (CEB-FIB) określające zależności wytrzymałości od wieku betonu: Ec(t) = βE(t)Ec (16) fct(t)=βcc(t)fct (17) Charakterystyka cech mechanicznych ... 65 1/ 2 5,3 β E (t ) = β cc (t ) = exp s 1 − t (18) gdzie: t – czas dojrzewania betonu, s – współczynnik. Dokładną analizę zależności wytrzymałości od czasu dojrzewania przeprowadził Kiernożycki [2] i zaproponował następujące postacie wzorów wytrzymałościowych: fc = 54,4α ( t ) , w 6,3 − 1,906α ( t ) c Ec = 25900 α (t )2 (0,2 w + 0,656α (t )) 2 c (19) gdzie: α(t) – stopień hydratacji cementu. Wzory (19) mają zastosowanie w odniesieniu do betonów o stosunku w/c > 0,40 i wytrzymałości na ściskanie nieprzekraczającej 73,5 MPa. Dodatkowo w pracy [2] zostały przedstawione zależności na współzależność wytrzymałości i modułu sprężystości: Ec = 7130 fc 2 ( 0,376 fc + 0,905 ) 2 (20) W literaturze obcej można znaleźć również inne wzory wiążące wytrzymałość z wiekiem dojrzewającego betonu [14]. Wzory te podają zależności dla młodych betonów uzależnione od stopnia hydratacji: α (t ) − α o f c (t a ) = f c , ∞ a 1 − αo f ct (ta ) = f ct ,∞ 3/ 2 (21) α (ta ) − α o 1 − αo α (t ) − α o Ecm (ta ) = Ecm ,∞ a 1 − αo (22) 2/3 (23) 66 P. Ludera gdzie: f c ,∞ , f ct ,∞ , Ecm,∞ – cechy wytrzymałościowe dojrzałego betonu przy α(ta) = 1,0, αo – wartość progowa stopnia hydratacji. Wzory (21)–(23) są jednak obowiązujące dopiero po osiągnięciu przez beton progowego stopnia hydratacji przyjmowanego na poziomie 0,2 [14]. Jak łatwo zauważyć podane zależności powiązane są bezpośrednio ze stopniem hydratacji cementu jako czynnikiem charakteryzującym stopień rozwoju struktury w czasie, co zostało omówione we wcześniejszym punkcie. Czas dojrzewania betonu należy przyjmować według zależności podanych w punkcie 3. 5. Badania wytrzymałości młodego betonu na ściskanie Badania wykonano dla betonu o recepturze mieszanki takiej jak w przypadku wcześniejszych badań termicznych dojrzewającego betonu w ścianach grubości 50 cm. Próbki formowano w formach sześciennych o boku 10 cm. Po zabetonowaniu próbek umieszczono je w komorze cieplnej, utrzymując temperaturę dojrzewania zgodną z warunkami termicznymi uzyskanymi w badanych wcześniej ścianach. Badania niszczące próbek betonu wykonano po odpowiednich okresach dojrzewania: 4, 6, 8, 10, 12, 16, 20, 24, 30, 36, 48 h. Dla każdego z czasów dojrzewania wykonano po 6 próbek. Otrzymane wyniki badań niszczących przedstawiono na rys. 5. Otrzymane wyniki wytrzymałości młodego betonu porównano z obliczonymi według zależności (19), przyjmując warunki dojrzewania jak dla badanych próbek. Wykorzystano zależność dla stopnia hydratacji według wzoru (7) oraz skorygowany czas dojrzewania według zależności (8). Wyniki obliczeń przedstawiono również na rys. 5. Rys. 5. Zmiany wytrzymałości młodego betonu w czasie w zależności od temperatury betonu Charakterystyka cech mechanicznych ... 67 Różnice w przebiegu zmian wytrzymałości w czasie dojrzewania betonu, pomiędzy wynikami otrzymanymi z badań i obliczeń opartych na uogólnionych wzorach są tak znaczne (dwukrotnie), że trudno uznać wzory (7), (8) i (19) za racjonalnie uogólnione na cały okres dojrzewania. 6. Badania nieniszczące młodego betonu metodą ultradźwiękową Badania przeprowadzono na próbkach przygotowanych do badań na ściskanie bezpośrednio przed zniszczeniem w prasie. Pomiaru czasu przepływu fali przez beton dokonano przy użyciu testera betonu. W związku z tym próbki można uznać za reprezentatywne dla rzeczywistych warunków panujących w ścianie betonowej grubości 50 cm. Zależność prędkości przepływu fali ultradźwiękowej przez dojrzewający beton od czasu dojrzewania przedstawiono na rys. 6. Rys. 6. Prędkość przepływu fali ultradźwiękowej przez młody beton Przeprowadzono analizę statystyczną otrzymanych wyników, na podstawie której uzyskano linię dopasowania podaną na wykresie. Zależność prędkości przepływu fali przez młody beton od czasu dojrzewania, w podanych warunkach dojrzewania, uogólniono wzorem: v (t ) = 0,0147t 4 − 0,6607t 3 − 0,6067t 2 + 359,98t (24) Przedstawiono również zależność wytrzymałości uzyskanej w badaniach niszczących od pomierzonej prędkości przepływu fali przez młody beton (rys. 7.). Na podstawie uzyskanych wyników podano uogólnioną zależność fc(v): f c ( v ) = 2 ⋅ 10−20 v 5,8594 (25) Należy zaznaczyć, że uogólnione wzory dotyczące prędkości fali ultradźwiękowej i wytrzymałości dotyczą konkretnych warunków dojrzewania betonu. 68 P. Ludera Pomiary prędkości przepływu fali ultradźwiękowej przez dojrzewający beton zostały wykorzystane również do określenia wartości modułu sprężystości i uzależnienia wyników od wieku młodego betonu. Wykorzystano zależność podaną przez Kiernożyckiego [2]: E ( v ) = γ b v 2 a (ν d ) (26) gdzie: γb – gęstość pozorna młodego betonu przyjęta jako wartość stała 24kN/m3, νd – dynamiczna wartość liczby Poissona uzależniona od wieku betonu, v – szybkość przepływu fali ultradźwiękowej przez beton. Rys. 7. Zależność wytrzymałości młodego betonu od prędkości fali ultradźwiękowej Rys. 8. Zmiana modułu sprężystości młodego betonu Zależność a(νd) = 0,000177v przyjęto według Kiernożyckiego [2], który podał ją na podstawie bezpośrednich pomiarów modułu sprężystości i prędkości przepływu fali ultradźwiękowej oraz przy założeniu stałej wartości dynamicznej Charakterystyka cech mechanicznych ... 69 liczby Poissona νd = 0,5 we wczesnej fazie dojrzewania. Zmiany modułu sprężystości w zależności od czasu dojrzewania według wzoru (26) przedstawiono na rys. 8. 7. Podsumowanie Wykonane badania własne dotyczące określenia zmian termicznych dojrzewających ścian żelbetowych o średniej masywności pokazują zasadnicze różnice wyników w stosunku do konstrukcji masywnych. Porównując rozwój temperatur, można zaobserwować mniejszy przyrost temperatury w przypadku ścian średniomasywnych, jak również zupełnie inny charakter zmian tych temperatur w czasie. W ścianach średniomasywnych przebieg ten jest dużo bardziej gwałtowny. Obserwuje się również znaczny wpływ temperatury początkowej na przebieg zmian temperatur samoocieplenia. Można stwierdzić na podstawie tych badań, że charakter zmian temperatury w elementach średniomasywnych odbiega znacznie od zmian w elementach masywnych, dla których przyjmowane są warunki dojrzewania zbliżone do adiabatycznych. W analizach dotyczących charakterystyk młodego betonu znaczącym czynnikiem jest określenie stopnia dojrzałości młodego betonu w danej chwili. Najczęściej do tego celu wykorzystuje się obecnie stopień hydratacji cementu, to jest zaawansowanie przebiegu reakcji chemicznych w betonie. Stopień hydratacji cementu w literaturze jest określany w różny sposób. Ze względu na trudność wykonania pomiarów bezpośrednich w konstrukcji najczęściej spotykany opis opiera się na zależnościach empirycznych. Po analizie tych zależności zaproponowano, w odniesieniu do konstrukcji średniomasywnych, metodę określenia stopnia hydratacji na podstawie szczegółowych pomiarów temperatury dojrzewającego betonu, temperatury otoczenia i temperatury początkowej mieszanki betonowej. Dysponując takimi badaniami, w trakcie wznoszenia konstrukcji można określić dość dokładnie stopień rozwoju wytrzymałości młodego betonu. Przewiduje się dalszą weryfikację przedstawionej metody. Podobną metodę określenia stopnia dojrzałości betonu, wraz z opisem wykorzystywanego sprzętu, przedstawił Witakowski [4, 15]. Wykonane badania niszczące wytrzymałości młodego betonu, dojrzewającego w warunkach odpowiadających ścianom betonowym grubości 50 cm, pokazały charakter przyrostów wytrzymałości w początkowym okresie dojrzewania. Porównanie wyników badań opartych na zależnościach proponowanych przez różnych autorów z wynikami otrzymanymi z obliczeń pokazuje znaczne różnice tych wyników. Świadczy to o konieczności dalszych badań zmierzających do uzyskania dokładniejszych wzorów określających wytrzymałości młodego betonu w konstrukcjach średniomasywnych. Wydaje się właściwym wykorzystanie pojęcia stopnia hydratacji cementu do określenia zmian wytrzymałości. W połączeniu z przedstawioną metodą określania stopnia hydratacji dałoby to 70 P. Ludera możliwość kontroli rozwoju wytrzymałości młodego betonu bezpośrednio w konstrukcji. Niestety, jak podano wcześniej jego bezpośrednie określenie jest bardzo trudne. Przedstawiono również alternatywną metodę badań do określania cech wytrzymałościowych młodego betonu. Oparto się na badaniach nieniszczących betonu z wykorzystaniem metod ultradźwiękowych (pomiar prędkości fali ultradźwiękowej) i porównano wyniki z badaniami niszczącymi. Ta metoda umożliwiła określenie zależności wytrzymałości na ściskanie i modułu sprężystości od prędkości fali ultradźwiękowej. Wspomniane badania wskazują na możliwość wykorzystania metod nieniszczących w młodym betonie. Przewiduje się kontynuowanie tych badań celem określenia dokładniejszych korelacji i uogólnienia zależności f(v) dla różnych warunków dojrzewania. Literatura [1] Kiernożycki W.: Obciążenia termiczne twardniejącego betonu masywnych konstrukcji. Przegląd Budowlany, 5, 1992 [2] Kiernożycki W.: Termiczne naprężenia wymuszone w betonowych budowlach masywnych z uwzględnieniem zjawisk reologicznych. Prace Naukowe Politechniki Szczecińskiej, Szczecin 1992 [3] Flaga K.: Naprężenia własne termiczne typu „makro” w elementach i konstrukcjach z betonu. Zeszyty Naukowe Politechniki Krakowskiej, Kraków 1990 [4] Witakowski P.: Termodynamiczna teoria dojrzewania. Zastosowanie do konstrukcji masywnych z betonu. Zeszyty Naukowe Politechniki Krakowskiej, 1998 [5] Van Breugel K.: Numerical simulation of the development of the concrete properties and risk of cracking in early age concrete. First Slovak Conference on Concrete Structures, Bratysława 1994 [6] Emborg M., Bernarder S.: Thermal stresses computed by the method for manual calculation. Int. RILEM Symposium on Thermal Cracking at Early Age, Monachium 1994 [7] De Schutter G., Tearwe L.: Influence of geometry of hardening concrete elements of the early age thermal crack formation. Int. RILEM Symposium on Thermal Cracking at Early Age, Monachium 1994 [8] Van Breugel K.: Numerical simulation of the effect of curing temperature on the maximum strength of the cement-based materials. Int. RILEM Symposium on Thermal Cracking at Early Age, Monachium 1994 [9] Kuś S. i in.: Sprężanie młodego betonu jako metoda eliminacji zarysowań termiczno-skurczowych ścian zbiorników żelbetowych, sprawozdanie z badań, Rzeszów 1998 [10] Kiernożycki W.: Wytrzymałość i współczynnik sprężystości betonu o różnym stopniu przemian strukturalnych, Archiwum Inżynierii Lądowej, Warszawa 1991 [11] Danielsson U.: Heat of hydration of cement as affected by water-cement ratio. Proc. 474 Int. Symposium on Chemistry of Cements, Waszyngton 1960 [12] Rüsch H., Jungwirth D.: Skurcz i pełzanie w konstrukcjach betonowych. Arkady, Warszawa 1979 Charakterystyka cech mechanicznych ... 71 [13] Byfors J.: Plain concrete at early ages. Swedish Cement and Concrete Research Institute at the Institute of Technology, Stockholm 1980 [14] Eierle B., Schikora K.: Computational modeling of concrete at early ages using DIANA, 1998 [15] Witakowski P.: Kompleksowe zarządzanie jakością robót. Zdalne monitorowanie robót betonowych. Konferencja „Dni Betonu. Tradycja i Nowoczesność”, Szczyrk 2002 CHARACTERIZATION OF MECHANICAL FEATURES OF YOUNG CONCRETE IN MEDIUM-MASIVITY ELEMENTS. REVIEW OF LITERATURE AND OWN RESEARCH Summary In article mechanical characteristic of young concrete with regard to conditions of ripening are presented. Conditions of ripening of concrete in medium-masivity elements are described. Estimating of maturity of concrete methods and authors proposal of qualifying degree of hydration ripening concrete are presented. Early age concrete of propriety describtion based on experiment destructive and non-destructive test in period up to 30 hours from concreting are given. Złożono w Oficynie Wydawniczej w czerwcu 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Janusz ŁAKOMY Politechnika Rzeszowska WPŁYW WŁÓKIEN SZKLANYCH I POLIPROPYLENOWYCH NA WŁAŚCIWOŚCI ZAPRAW CEMENTOWYCH W pracy przedstawiono wyniki badań zapraw z dodatkiem włókien szklanych i polipropylenowych. Przeprowadzono badania cech mechanicznych oraz obserwacje powierzchniowe zapraw. Obecnie, jako tzw. zbrojenie przeciwskurczowe, stosowane są najczęściej włókna polipropylenowe. Badania wykazały, że włókna szklane produkcji krajowej znacząco ograniczyły pęknięcia od skurczu oraz polepszyły cechy mechaniczne zapraw. 1. Wprowadzenie Zaprawom cementowym z dużą ilością cementu lub wody towarzyszy zjawisko skurczu. Pojawiające się wówczas na powierzchni elementów zarysowania pogarszają wygląd oraz trwałość elementu. Podejmowane były próby zaradzenia temu za pomocą różnych środków i sposobów, jednak w większości przypadków były one mało efektywne lub znacznie zwiększały koszty. Jednym z nowszych i skutecznych rozwiązań jest stosowanie zbrojenia rozproszonego z włókien polipropylenowych lub szklanych. W przypadku stosowania zbrojenia przeciwskurczowego nie bez znaczenia pozostaje wpływ włókien na właściwości fizyczne i mechaniczne zapraw. 2. Cel i zakres badań Podjęte badania miały na celu określenie wpływu włókien szklanych i polipropylenowych na powstrzymywanie pęknięć zaprawy od skurczu oraz na właściwości mechaniczne zapraw. Przyjęto następujące założenia w odniesieniu do wszystkich badanych zapraw: • stały stosunek w/c = 0,38, • stały stosunek C:P = 1:1 (cement:piasek), • stałą konsystencję zaprawy. 74 J. Łakomy Na podstawie własnych badań oraz doświadczeń innych autorów [1], za miarodajny przyjęto pomiar konsystencji określony za pomocą plastyczności zaprawy [2]. Jako bazową przyjęto konsystencję 9 cm zanurzenia stożka opadowego, co odpowiadało średnicy rozpływu próbki zaprawy na stoliku wstrząsowym równej 23 cm. Stałą konsystencję wszystkich zapraw uzyskano za pomocą upłynniacza, którego ilość wynosiła od 0 do 1% masy cementu, zależnie od rodzaju, ilości i długości dodawanych włókien. Materiały użyte do badań Do wykonania próbek użyto następujących materiałów: • cement portlandzki CEM I 32,5R z cementowni Ożarów, • piasek naturalny z Lipia, • włókna szklane z huty szkła Krosno S.A, • włókna polipropylenowe FIBERMIX, • upłynniacz Addiment FM 34. Włókna szklane zostały specjalnie przygotowane w hucie szkła tak, aby wiązka włókien uległa rozpadowi na pojedyncze włókna po wymieszaniu z zaprawą. Składy zapraw Badaniom poddano 18 serii zapraw z włóknami szklanymi i polipropylenowymi o zróżnicowanej długości i zawartości oraz 1 zaprawę bez dodatku włókien. Długość włókien wynosiła 3, 6 i 12 mm, a ich zawartość objętościowa 0,5; 0,75 i 1% przy gęstości włókien szklanych 2,5 kg/dm3 oraz 0,9 kg/dm3 włókien polipropylenowych. Główne składniki zapraw oraz ich oznaczenie przedstawiono w tab. 1. Tabela 1. Oznaczenie serii zapraw Oznaczenie zaprawy Długość włókien [mm] 1 2 3 4 3 3 3 Zawartość objętościowa włókien [%] 0,5 0,75 1,0 5 6 7 6 6 6 0,5 0,75 1,0 8 9 10 12 12 12 0,5 0,75 1,0 Wpływ włókien szklanych i polipropylenowych ... 75 Zakres przeprowadzonych badań Przeprowadzone badania zapraw obejmowały: • wytrzymałość na zginanie, • wytrzymałość na ściskanie, • odporność na pękanie, • moduł sprężystości poprzecznej G, • moduł sprężystości podłużnej E, • skurcz powstrzymywany. 3. Opis badań oraz uzyskane wyniki Badania cech mechanicznych przeprowadzono po 28 dniach dojrzewania próbek przy wilgotności względnej ok. 95% oraz temperaturze ok. 20ºC. Wytrzymałość na zginanie Badania wytrzymałości na zginanie przeprowadzono na standardowych dla zapraw próbkach 40×40×160 mm, według normy [2]. Uzyskane wyniki badań podano w tab. 2. jako średnią z 3 pomiarów. Wytrzymałość na ściskanie Badania wytrzymałości na ściskanie przeprowadzono zgodnie z normą [2] na połówkach beleczek przy użyciu wkładek 40×40 mm. Wyniki badań podano w tab. 2. jako średnią z 6 pomiarów. Odporność na pękanie Badania odporności na pękanie przeprowadzono według I modelu pękania (rozciąganie przy zginaniu), zgodnie z procedurą podaną w zaleceniach RILEM dla betonów [3]. Badaniom poddano próbki o wymiarach 360×80×40 mm z jedną szczeliną pierwotną. Wymiary próbek betonowych zalecane przez RILEM zależą od rozmiaru największego ziarna kruszywa. Ze względu na maksymalny rozmiar ziaren kruszywa w zaprawie, który wynosił 2 mm, uznano, że można adaptować tę metodę do zapraw przy zastosowaniu mniejszych próbek. Odporność na pękanie określono za pomocą wartości krytycznych współczynnika intensywności naprężeń KIC. Wyniki badań podano w tab. 2. jako średnią z 5 pomiarów. 76 J. Łakomy Moduł sprężystości poprzecznej G Moduł sprężystości poprzecznej wyznaczono na próbkach o wymiarach 360×360×20 mm na specjalnie przygotowanym stanowisku do badania płyt w stanie czystego ścinania metodą opisaną w artykule [4]. Otrzymane wyniki podano w tab. 2. jako średnią z 3 pomiarów. Moduł sprężystości podłużnej E Moduł sprężystości podłużnej wyznaczono przy 4-punktowym zginaniu (obciążenie co 1/3 rozpiętości). Badania przeprowadzono na próbkach o wymiarach 360×50×20 mm, według zaleceń normy do betonów z włóknami szklanymi [5]. Korzystając z teorii sprężystości oraz wyników badań innych autorów [6], moduł E obliczono z zależności: E= gdzie: l b h ∆P/∆d ∆P 23 ⋅ l 3 ⋅ 3 108 ⋅ b ⋅ h ∆d (1) – rozstaw podpór (300 mm), – szerokość próbki (50 mm), – wysokość próbki (20 mm), – tangens nachylenia prostej, określony z wykresu siła – ugięcie. W badaniach wykorzystano specjalny przyrząd własnej konstrukcji, tzw. „Yoke” (rys. 1.), służący do pomiaru ugięć bezwzględnych [7]. Wartość siły mierzono siłomierzem pałąkowym, połączonym z czujnikiem elektromagnetycznym, natomiast wartość ugięcia bezwzględnego mierzono przy użyciu „Yoke” oraz czujnika elektromagnetycznego. Mierzone wielkości przekazywane były do systemu pomiarowego GEOLAB co 1 s i automatycznie zapisywane w komputerze. Rys. 1. Widok stanowiska badawczego do badania modułu E Wpływ włókien szklanych i polipropylenowych ... 77 W celu wyznaczenia zakresu sprężystego dokonano pomiaru emisji akustycznej. Po przekroczeniu zakresu sprężystego pojawiają się pęknięcia kompozytu, którym towarzyszy wzrost poziomu efektów akustycznych, co rejestrowano za pomocą sondy, jako wzrost liczby zliczeń. Przykładowy wykres siła – ugięcie wraz z emisją akustyczną przedstawia rys. 2. Wyniki badań podano w tab. 2., jako średnią z 5 pomiarów. Rys. 2. Wykres siła – ugięcie z emisją akustyczną Skurcz powstrzymywany Jedną z przyczyn powstawania zarysowań powierzchniowych jest skurcz powstrzymywany. Zjawisko to było badane m.in. na próbkach typu „Dog Bone” [8] oraz na pierścieniach [9,10]. W niniejszej pracy przedstawiono wyniki badań skurczu powstrzymywanego na próbkach powierzchniowych (rys. 3.). Próbki powierzchniowe wykonano na podłożu ze starego betonu, przy zmiennej grubości zaprawy 0,5÷2,5 cm. Zaprawa bez włókien pękła w jednym miejscu, przy grubości zaprawy ok. 0,7 cm. Zaprawy z włóknami zachowywały się w zróżnicowany sposób, w zależności od ilości i długości włókien. Przy małej zawartości włókien zaprawa pękała poprzecznie i podłużnie, tworząc siatkę zarysowań. Rozwarcie szczelin w próbkach z włóknami było kilkakrotnie mniejsze niż w zaprawach bez włókien. W przypadku zapraw z najkrótszymi włóknami (3 mm), przy największej ich zawartości (1%), po 1 miesiącu dojrzewania w warunkach suchych nie pojawiły się zarysowania widoczne gołym okiem, zarówno w przypadku zapraw z dodatkiem włókien szklanych, jak i włókien polipropylenowych. 78 J. Łakomy Rys. 3. Widok próbki powierzchniowej Otrzymane wyniki badań cech mechanicznych zapraw oraz współczynniki zmienności przedstawiono w tab. 2. Oznaczenie zaprawy Tabela 2. Zestawienie wyników badań 1 Wytrzymałość na zginanie [MPa] S P Wytrzymałość na ściskanie [MPa] S P Odporność na pękanie [MN/m3/2] S P Moduł G [GPa] S P Moduł E [GPa] S P 30,12 12,35 0,55 53,84 8,00 8,0 % 3,1 % 3,8 % 9,8 % 6,4 % 2 20,0 10,35 26,58 10,79 0,52 0,59 45,53 42,88 5,89 8,01 5,6 % 0,8 % 1,1 % 7,1 % 6,1 % 15,6 % 7,8 % 5,0 % 1,5 % 7,2% 3 8,26 6,57 42,29 42,82 0,56 0,50 10,78 11,11 25,68 21,46 4,0 % 18,2 % 4,7 % 5,5 % 5,1 % 3,1 % 3,9 % 8,1 % 10,1 % 9,4 % 4 8,61 5,62 42,82 33,98 0,58 0,51 11,57 8,99 28,45 18,65 4,6 % 6,2 % 4,8 % 4,8 % 6,3 % 1,2 % 5,2 % 7,0 % 5,4 % 7,6 % 5 12,43 25,30 25,56 10,72 0,59 0,55 40,81 58,55 6,47 7,98 6,8 % 6,0 % 7,5 % 4,0 % 9,5 % 6,0 % 6,5 % 9,0 % 3,5 % 6,6 % 6 12,72 27,39 24,87 11,17 0,59 0,61 44,74 51,78 7,07 8,77 5,3 % 5,2 % 4,2 % 4,0 % 7,8 % 4,4 % 4,2 % 22,8 % 5,3 % 5,9 % 7 9,23 6,41 44,72 47,13 0,60 0,64 13,07 11,29 32,19 25,26 3,3 % 16,4 % 5,6 % 8,6 % 7,1 % 2,4 % 5,7 % 4,5 % 8,9 % 2,6 % 8 12,42 34,48 27,75 14,17 0,52 0,59 51,82 47,95 7,13 9,83 2,3 % 23,6 % 0,4 % 28,5 % 5,3 % 2,2 % 3,2 % 8,5 % 5,8 % 4,3 % 9 9,90 6,92 51,41 45,31 0,78 0,54 16,42 12,25 39,55 24,54 2,5 % 19,8 % 3,1 % 7,0 % 6,7 % 2,5 % 3,5 % 5,3 % 4,1 % 7,7 % 10 10,05 5,89 52,83 49,68 0,79 0,48 17,71 11,81 42,58 24,09 7,7 % 10,1 % 4,3 % 6,8 % 7,4 % 16,0 % 12 % 8,4 % 6,8 % 8,5 % S – zaprawy z włóknami szklanymi, P – zaprawy z włóknami polipropylenowymi. Wpływ włókien szklanych i polipropylenowych ... 79 4. Podsumowanie i wnioski Dodatek włókien szklanych i polipropylenowych w różny sposób wpłynął na właściwości fizyczne i mechaniczne badanych zapraw. Włókna szklane i polipropylenowe spowodowały znaczne pogorszenie urabialności zaprawy. Na podstawie przeprowadzonych badań za najbardziej miarodajny pomiar konsystencji zapraw z dodatkiem włókien uznano pomiar za pomocą dynamicznego rozpływu stożka. Włókna szklane zwiększyły wytrzymałość zapraw na zginanie do 25%, odporność na pękanie do 45%, moduł sprężystości poprzecznej dla zaprawy z najdłuższymi włóknami do 43%. Najdłuższe włókna szklane miały także duży wpływ na moduł Younga – wzrost do 40%. Włókna szklane spowodowały natomiast obniżenie wytrzymałości na ściskanie do 24%. Włókna polipropylenowe obniżyły wytrzymałość zapraw na zginanie do 30% oraz moduł sprężystości podłużnej do 38%. Dla większości zapraw z włóknami polipropylenowymi obniżyła się wytrzymałość na ściskanie, odporność na pękanie oraz moduł sprężystości poprzecznej. Badania skurczu powstrzymywanego wykazały znaczący wpływ włókien szklanych i polipropylenowych na powstawanie zarysowań. Obserwacje powierzchniowe nie wykazały zarysowań zapraw z włóknami lub wykazały zarysowania w późniejszym okresie. Rysy w tym przypadku miały mniejszą szerokość niż w przypadku zapraw bez włókien. Najlepsze efekty w powstrzymywaniu zarysowań od skurczu uzyskano w przypadku zapraw z włóknami najkrótszymi (3 mm), zarówno szklanymi, jak i polipropylenowymi, przy ich maksymalnej zawartości (1%). Wyniki przeprowadzonych prac dowodzą, że włókna szklane produkcji krajowej poprawiają wiele cech mechanicznych i fizycznych zapraw i mogą być stosowane jako zbrojenie przeciwskurczowe zapraw cementowych. Literatura [1] Szwabowski J., Ponikiewski T.: Analiza testów i czynników urabialności fibrobetonów. III Konferencja Naukowo-Techniczna: „Zagadnienia Materiałowe w Inżynierii Lądowej”, Kraków – Mogilany, 28-30 czerwiec 2000, MATBUD 2000, s. 331-338 [2] PN-85/B-04500. Zaprawy budowlane. Badanie cech fizycznych i wytrzymałościowych [3] RILEM Draft Recommendation, Determination of fracture parameters (KIcs and CTODc) of plain concrete using three-point bend tests, TC FMT Fracture Mechanics of Concrete Test Methods, Materials and Structures, 23, 1990, p. 457-460 [4] Prokopski G., Konkol J., Łakomy J.: Metody wyznaczania stałych materiałowych kompozytów cementowych. Zeszyty Naukowe Politechniki Rzeszowskiej, Budownictwo i Inżynieria Środowiska, nr 32, 2000, s. 411-418 [5] PN-EN 1170-1. Metoda badania betonu zbrojonego włóknem szklanym 80 J. Łakomy [6] Glinicki A.M.: Mechanizmy kruchości i trwałość kompozytów cementowych z włóknami szklanymi. Praca habilitacyjna. IPPT PAN, 11, 1999 [7] Brandt A.M.: Toughness of Fiber Reinforced Cement Based Materials. Archiwum Inżynierii Lądowej, t. XLII, z. 4, 1996, s. 471-493 [8] Bloom R., Bentur A.: Free and Restrained Shrinkage of Normal and High-Strength Concretes. ACI Materials Journal, March-April 1995, p. 211-217 [9] Shah S.P., Ouyang Ch., Marikunte S., Yang W., Becq-Giraudon E.: A Method to Predict Shrinkage Cracking of Concrete. ACI Materials Journal, July-August 1998, pp. 339-346 [10] Łakomy J., Prokopski G.: Zbrojenie przeciwskurczowe zapraw cementowych, The 7th International Scientific Conference, Koszyce, maj 2002, s. 195-198 THE INFLUENCE OF GLASS AND POLYPROPYLENE FIBERS ON CEMENT MORTARS PROPERTIES Summary In this paper the results of mortars with glass and polypropylene fibers investigations are presented. The main objective of this work was to evaluate the influence of shrinkage reinforcement on mechanical properties of mortars. Obtained results showed, that kind of fibers have significant influence on mechanical properties of mortars. Glass fibers significantly increased bending strength, fracture toughness, Young’s and shear modulus. Polypropylene fibers significantly decreased bending strength and Young’s modulus. For investigated mortars with fibers cracks did not appear or occurred later and the cracks widths were several times smaller than in mortars without fibers. Obtained results showed that glass fibers significantly improved cracking resistance and mechanical properties of mortars and can be use as shrinkage reinforcement. Złożono w Oficynie Wydawniczej w kwietniu 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Lesław PIANOWSKI Politechnika Rzeszowska PROBLEM DOKŁADNOŚCI POMIARÓW KONTROLNYCH W BUDOWNICTWIE W pracy autor przedstawia problemy oceny dokładności pomiarów kontrolnych Wyprowadzone wzory do obliczenia prawdopodobieństwa spełnienia tolerancji wynikają z wartości odchyłki, tolerancji i błędów pomiarów. Autor analizuje możliwość wykonania obliczeń odchyłek z wykorzystaniem wyrównania obserwacji metodą najmniejszych kwadratów. Zamieszczona tabela i wykres prawdopodobieństwa ułatwia uzyskanie informacji o spełnieniu tolerancji. 1. Wprowadzenie Celem pomiarów kontrolnych, którymi obejmuje się wybrane elementy budowli jest uzyskanie informacji o odchyłkach wymiarów budowli od teoretycznego modelu. W praktyce modelem budowli jest obiekt opisany przez zbiór punktów i linii przedstawiony w dokumentacji projektowej. Pomiary kontrolne wykonuje się w celu pozyskania danych o wybranych cechach geometrycznych, tj. pionowość, prostoliniowość, odchylenia od projektowanego kształtu, lokalizacja (usytuowanie) i odkształcenia budowli lub jej elementu. Często pomiary kontrolne są identyfikowane z inwentaryzacją powykonawczą obiektów budowlanych. Obiekt budowlany zlokalizowany na mapie do celów projektowych i zwymiarowany w projekcie jest wykonywany w terenie z dokładnością wynikającą z ustalonych i przyjętych tolerancji [1]. Tolerancje te w sposób bezpośredni określają wymaganą dokładność pomiarów, wymagany zakres i decydują o wyborze odpowiednich metod i instrumentów pomiarowych. Wyniki wykonanych pomiarów kontrolnych charakteryzują zgodność wykonanego obiektu budowlanego z projektem co do nieprzekroczenia odchyłek dopuszczalnych. Wyróżnia się trzy przypadki, w których są prowadzone pomiary kontrolne: • ocena jakości produkcji prefabrykowanych materiałów budowlanych, • kontrola poprawności wykonania budowli i montażu jej elementów (zgodności z projektem), po każdym etapie budowy i eksploatacji budowli, ale w innym zakresie w przypadku różnych zadań inżynierskich, • kontrola zmian położenia elementów budowli w czasie jej użytkowania (jednokrotna lub okresowa). 82 L. Pianowski W każdym z wymienionych wypadków przeprowadza się interpretację stwierdzonych odchyłek. Błędy pomiarów kontrolnych nie powinny zniekształcać wartości odchyłek. Dlatego należy wybrać takie metody pomiarów, konstrukcje geometryczne osnowy pomiarowej i aparaturę pomiarową, które zapewnią dostateczną dokładność wyznaczenia pozycji punktów budowli. Jest to ważne z punktu widzenia interpretacji odchyłek wymiarów, gdyż przyjmuje się za istotne odchyłki, których wartość przekracza odchyłkę dopuszczalną. Norma PN-ISO 3443/8 [2] zaleca, by projektant wskazywał te szczególnie ważne cechy geometryczne, które norma nazywa krytycznymi, podając sposób kontroli tych cech. Norma ta podaje wykaz cech geometrycznych podlegających pomiarom kontrolnym i okres wykonania kontroli, który może obejmować czas trwania budowy lub być przedłużony na czas trwania okresu gwarancyjnego. Wspomniana norma dodaje do szczególnych cech geometrycznych tzw. „gabarytowe”, jak np. pionowość w obrębie kondygnacji czy też płaszczyznowość powierzchni, wskazując zakres pomiarów oraz usytuowanie punktów i przekrojów pomiarowych. Normy PN-ISO w znacznym stopniu rozszerzają postanowienia dotychczas obowiązujących norm krajowych. Dotyczy to zarówno stosowanych terminów i określeń, jak również zakresu i metod prowadzenia kontroli wymiarów budowli oraz sposobu przedstawiania danych dokładnościowych [3]. Procedury obliczeniowe zalecane przez normy wymagają, aby zakres zmienności kontrolowanych wymiarów był charakteryzowany każdorazowo za pomocą odchyłki systematycznej i odchylenia standardowego, pozyskiwanych jako dane dokładnościowe z wykonanych pomiarów kontrolnych [4]. 2. Kryterium oceny odchyłek wymiarów budowli Kontrola wymiarów budowli sprowadza się do obliczenia odchyłek ∆L = N – L, jako różnic miar stwierdzonych L i nominalnych N (projektowych) oraz geometrycznej interpretacji tych odchyłek. Mogą to być odchyłki wymiarów, kształtu, położenia lub orientacji elementów budowli. Na wielkość odchyłek wpływają: • dokładność wykonania robót budowlanych, • błędy pomiarów realizacyjnych i kontrolnych (odchyłki technologiczne), • zmieniające się warunki otoczenia (środowiska), • reakcja materiałów budowlanych (odchyłki własne). Wyniki pomiarów kontrolnych mających na celu sprawdzenie zgodności z projektem wybranych cech geometrycznych budowli powinny charakteryzować się odchyleniem standardowym nie większym od 0,1 wartości odchyłki dopuszczalnej przewidzianej dla sprawdzanej cechy [3, 5]. Wiadomo (z teorii błędów), że z prawdopodobieństwem P = 0,9973, błędy pomiarów mieszczą się w przedziale <–3mL, 3mL>, którego granice odpowiadają błędowi granicznemu [6, 7]. Problem dokładności pomiarów ... 83 Normy wymagają, aby błędy wykonania i błędy pomiarów kontrolnych mieściły się w przedziale tolerancji wymiarów. Bardzo ważne jest stwierdzenie w oparciu o uzyskaną odchyłkę ∆L, czy wymiar rzeczywisty należy do przedziału <N – T/2; N + T/2>, czyli ocena spełnienia tolerancji. Potwierdzenie tego zdarzenia wymaga poznania prawdopodobieństwa spełnienia tolerancji PT, które uwzględnia odstępstwa rzeczywistego wymiaru od jego nominalnej wartości, a także zależność od błędów pomiaru kontrolnego. Kryterium oceny można ustalić na podstawie teorii testów statystycznych opartych na przedziałach ufności. Wiąże się to z poszukiwaniem prawdopodobieństwa zdarzenia dotyczącego wzajemnego położenia uzyskanego z pomiarów oszacowania nieznanego parametru i jego prawdziwej wartości. Przedział ufności jest przedziałem losowym, a więc w każdej próbie będzie innej długości [6]. Zawsze istnieje taki przedział, który zawiera wartość rzeczywistą parametru. Rozkładem teoretycznym wyników pomiarów geodezyjnych jest najczęściej rozkład normalny. Niekiedy w badaniach empirycznych autorzy zalecają kompozycje kilku różnych rozkładów [6, 7]. Założono, że wyniki pomiarów kontrolnych są zmiennymi losowymi o rozkładzie normalnym lub asymptotycznie normalnym. Oszacowaniem nieznanej, prawdziwej odchyłki wymiaru z populacji o rozkładzie N(µ, σ) będzie przedział ufności przy poziomie ufności PT. Estymatorem wartości oczekiwanej µ w tym przypadku jest odchyłka ∆L. Przedział <∆L ±σ> pokrywa nieznaną szacowaną wielkość z prawdopodobieństwem 0.6826 i to prawdopodobieństwo jest niezależne od odchylenia standardowego. Można skonstruować przedział ufności w celu oszacowania wartości oczekiwanej przy poziomie ufności PT. Jeżeli znane jest odchylenie standardowe σ rozkładu odchyłki wymiarów, to przedział może przyjąć postać: P(∆L– rd σ ≤ µ ≤ ∆L + rg σ) = PT (1) Przy założeniu rozkładu normalnego, wartość PT może być obliczona jako różnica dystrybuanty: PT = Φ(rg) – Φ(rd) Granice przedziału uzyskamy po dokonaniu kilku niezbędnych przekształceń i przybliżeń. Przyjęto: rd σ = N – L – T/2 i rg σ = N – L + T/2 Wartość odchylenia standardowego zastąpiono jego przybliżeniem obliczonym w oparciu o dane z pomiaru σ ≈ mL, utożsamiając odchylenie standardowe z błędem średnim wyznaczenia wymiaru. Współczynniki rg i rd występujące w (1) otrzymają postać: 84 L. Pianowski rg = T T N+ −L −L 2 2 , rd = mL mL N+ po przekształceniu: rg = T T ∆L + 2, r = 2 d mL mL ∆L + (2) współczynniki dla dolnej i górnej granicy tolerancji: rg = T T ∆L + 2, r = 2 d mL mL ∆L + gdzie: rg, rd – współczynniki wielokrotności błędu średniego dla dolnej i górnej granicy przedziału, Φ(rg) ,Φ(rd) – wartości dystrybuanty rozkładu normalnego, mL – błąd średni wyznaczenia wymiaru L, równoważny z błędem odchyłki ∆L (empiryczna wartość odchylenia standardowego σ). Odchyłka o wartości równej 3mL powinna być uważana za wysoce istotną w przypadku rozkładów zbliżonych do normalnego, zaś odchyłki przekraczające 4mL można uważać za istotne nawet przy rozkładach znacznie odbiegających od rozkładu normalnego. Prawdopodobieństwo PT, które można nazywać prawdopodobieństwem spełnienia tolerancji, zależy od wartości tolerancji T, błędu średniego mL i odchyłki ∆L. Aby zbadać te zależności, wprowadzono dwa wyrażenia: T/mL i ∆L/T. Analiza zmian tych wyrażeń przy ustalonej wartości prawdopodobieństwa PT = const pozwala uzyskać wiele cennych wniosków dotyczących przede wszystkim błędu średniego mL. Wartości funkcji F(∆L/T, T/mL) mogą być obliczone metodą numeryczną z rozwiązania równania nieliniowego: 1 2π rg (∫ e −∞ −r2 dr − rd ∫e -∞ −r2 dr ) = PT (3) Problem dokładności pomiarów ... 85 Podstawiając nowe zmienne u = ∆L/T i v = T/mL do wzorów (2), granice całek w równaniu (3) wyrazi się następująco: rg = (u + 0,5)v, rd = (u – 0,5)v. Wyznaczone wartości u = ∆L/T dla przyjętych v = T/mL i PT zostały zestawione w tab. 1. Tabela 1. Wartości ∆L/T dla wybranych PT i przyjętych T/mL PT T/mL 2 3 4 5 6 7 8 9 10 11 12 13 14 15 20 25 30 35 40 0,9973 0,9876 0,9545 0,9000 0 0 0 0 0,094 0,103 0,153 0,190 0,221 0,248 0,269 0,285 0,302 0,315 0,360 0,388 0,406 0,420 0,430 0 0 0 0,059 0,125 0,179 0,219 0,250 0,275 0,295 0,312 0,326 0,339 0,352 0,387 0,409 0,424 0,435 0,442 0 0 0,014 0,161 0,217 0,258 0,288 0,311 0,330 0,345 0,358 0,369 0,378 0,390 0,415 0,431 0,443 0,451 0,457 0 0,080 0,174 0,242 0,285 0,316 0,339 0,357 0,371 0,382 0,392 0,400 0,408 0,414 0,435 0,448 0,456 0,462 0,465 Rysunek 1. przedstawia wykres PT = const w układzie współrzędnych T/mL i ∆L/T. Wykresy krzywych PT = const przebiegają asymptotycznie do prostej ∆L/T = 0,5. Przy dużych wartościach T/mL obserwuje się nieznaczne zmiany ∆L/T towarzyszące dużym przyrostom T/mL. Jeżeli ∆L jest znacznie mniejsze od T/2, wnioskowanie o spełnieniu tolerancji przebiega bez problemów. Przy ∆L bliskich T/2 ocena spełnienia tolerancji stwarza trudności. Wyrażenie T/mL dla przyjętego PT osiąga w takim przypadku duże wartości. Uzyskanie tak dużych wartości wymaga znacznego zmniejszenia błędu mL. Zmniejszenie błędu mL z przyczyn technicznych może się okazać bardzo trudne, a niekiedy niemożliwe. 86 L. Pianowski Rys 1. Wykresy prawdopodobieństwa tolerancji Duże wartości ∆L/T mogą świadczyć o niespełnieniu tolerancji. Wraz ze wzrostem zmiennej v, zmiany wartości zmiennej u są coraz mniejsze. Potwierdzenie faktu, że badana cecha geometryczna budowli spełnia tolerancję, wymaga by PT było większe od normatywnego Pmin, co stanowi kryterium wnioskowania o spełnieniu tolerancji ∆L < T/2 i PT ≥ Pmin (4) W praktyce inżynierskiej jako Pmin proponuje się wartości: 0,9545, 0,9876 lub 0,9973, przypisane współczynnikom wielokrotności błędu średniego: r = 2, r = 2,5 lub r = 3. Odpowiada to prawdopodobieństwu zawierania się błędu prawdziwego ε w przedziale, którego granice są wielokrotnością błędu średniego mL [8]: P(r) = P(–r mL ≤ ε ≤ r mL) Aby spełnić wymagania tolerancji na poziomie ufności Pmin zgodnie z relacjami (4), należy pomiary kontrolne wykonać z taką dokładnością, aby wartość wyrażenia T/mL była odpowiednio duża, co wynika z wykresu (rys. 1.). Wartość α = 1 – Pmin określa prawdopodobieństwo błędnego wnioskowania lub prawdopodobieństwo niespełnienia tolerancji i jest poziomem istotności testu [9]. Problem dokładności pomiarów ... 87 Teoretyczna analiza wykazuje, że zależnie od przyjętego minimalnego poziomu ufności testowania odchyłek dokładność pomiaru kontrolnego wyrażona przez błąd średni powinna spełnić relacje: mL < 0,25T przy Pmin = 0,954 mL < 0,2T przy Pmin = 0,988 mL < 0,15T przy Pmin = 0,997 (5) Wskazane zależności są podstawą wstępnych analiz dokładności przy planowaniu pomiarów kontrolnych. Tolerancję lub jej część można interpretować w przybliżeniu jako dopuszczalny błąd pomiaru kontrolnego [5]: T = 2 r mL (6) gdzie: T – tolerancja wymiaru, r – współczynnik krotności błędu średniego mL, zależny od przyjętego w analizie poziomu ufności związanego z prawdopodobieństwem spełnienia tolerancji PT. Według normy PN-ISO4322 [3], dopuszczalna odchyłka powinna stanowić zmianę wymiarów w przedziale 2,5 krotnego błędu średniego. Wartości współczynnika r = 2,5 odpowiada poziom istotności α = 0,0124. Chcąc uzyskać potwierdzenie przekroczenia tolerancji z prawdopodobieństwem 1 – PT, należy wykonać pomiary kontrolne z dokładnością co najmniej taką, by błąd średni wyznaczenia odchyłki spełnił relację: mL ≤ T 2r Najczęściej pomiary kontrolne wykonuje się w celu sprawdzenia jednej cechy geometrycznej obiektu (np. ugięcie, prostoliniowość itp.). W przypadku inwentaryzacji budowli ocena geometrii wymaga wyznaczenia odchyłek wybranych wymiarów, a także poznania kształtu i usytuowania obiektu. W takich przypadkach najkorzystniejszym rozwiązaniem jest operowanie współrzędnymi punktów w wybranym układzie współrzędnych. Odchyłki ∆x, ∆y, ∆z są obliczane jako wartości funkcji bezpośrednich obserwacji. Błędy odchyłek współrzędnych punktów są funkcjami błędów różnych rodzajów obserwacji (długości, kątów, różnic wysokości). 88 L. Pianowski W praktyce inżynierskiej ma się do czynienia z bardzo złożonymi konstrukcjami pomiarowymi. Wynika to stąd, że poszczególne elementy budowli są dostępne w różnym stopniu do bezpośrednich pomiarów. Na błąd wyznaczenia odchyłki składają się przypadkowe błędy pomiaru, błędy aparatury pomiarowej, oddziaływania środowiska, wpływ założonej konstrukcji pomiarowej oraz błąd identyfikacji punktów (znaków) pomiarowych. Do oceny odchyłki orientacji i lokalizacji budowli stosuje się konstrukcje pomiarowe w postaci wcięć kątowych, liniowych lub kombinowanych, powiązanych z osnową pomiarową, w innych zadaniach stosuje się na ogół metodę biegunową. Każde z wymienionych na wstępie zadań wymaga określenia koniecznej dokładności przeprowadzenia pomiarów. Jako dane wyjściowe można wykorzystać podane zależności (5) i (6). Jeżeli analizę dokładności pomiarów przeprowadzi się zgodnie z zasadami wyrównania metodą parametryczną, powinny być spełnione warunki teorii błędów dotyczące charakteru błędów pomiaru i przenoszenia się błędów w przyjętych konstrukcjach pomiarowych. W większości przypadków pomiarów kontrolnych stosuje się pośrednie metody pomiarów i do oceny błędów obliczonych odchyłek mogą być zastosowane metody analizy wariancji funkcji obserwacji. Empiryczne wariancje wyznaczonych odchyłek pozwalają uzasadnić poprawność przyjętej metody pomiarów i uzyskanych wyników. Z analizy wariancji, w oparciu o elementy macierzy wariancyjno-kowariancyjnej uzyskuje się ocenę błędów współrzędnych wybranych punktów budowli. Oceniany wymiar elementu budowli (testowany przez pomiar kontrolny) jest funkcją różnych obserwowanych wielkości, ogólnie F(L). Wymagany w metodzie parametrycznej zbiór obserwacji (L) będzie zawierał wyniki pomiarów bezpośrednich: długości, kierunków, kątów i różnic wysokości, zależnie od przyjętych konstrukcji pomiarowych i sposobu powiązania z osnową pomiarową. Postać analityczna funkcji F(L) zależy od rodzaju obserwacji i konstrukcji pomiarowej. Każda obserwowana (metodą biegunową lub metodą wcięć) wielkość zostaje włączona do zbioru danych poddawanych łącznemu wyrównaniu razem z obserwacjami wiążącymi je z osnową pomiarową, będą to również tzw. „miary czołowe”, czyli długości odcinków pomiędzy punktami kontrolowanymi obiektu. Każda obserwacja otrzyma również wagę dokładności, reprezentowaną przez założony błąd średni obserwacji z pomiarów bezpośrednich. Do obliczenia prawdopodobieństwa PT, według wzorów (2), niezbędne są błędy średnie współrzędnych punktów. Natomiast błędy średnie miar kontrolnych (długości odcinków, kątów) obliczymy po przekształceniu macierzy wariancyjno-kowariancyjnej układu normalnego, wprowadzając odpowiednie funkcje niewiadomych: Problem dokładności pomiarów ... BF = fT QX f m2F = m2o BF T mo = 2rBF gdzie: BF – QX – f – P – A – QX = (AT PA)–1 89 (7) współczynnik wagowy funkcji F, macierz wariancyjno-kowariancyjna, wektor pochodnych cząstkowych funkcji F, macierz wag, macierz współczynników układu równań zbioru obserwacji. Macierz QX zawiera pełną informację o dokładności wyznaczenia współrzędnych zespołu punktów budowli, jest więc podstawową charakterystyką błędów konstrukcji pomiarowej analizowanej metodą parametryczną. Na podstawie analizy dokładności można obliczyć estymatory wariancji dla każdego elementu zbioru danych, korzystając z zależności przedstawionych wzorami (7), które z kolei można utożsamić z błędami wyznaczenia tych elementów. W celu uniknięcia rozbieżności w ocenie wag, przyjęte wartości błędów średnich powinny rozróżnić poszczególne obserwacje lub grupy obserwacji w pomiarach kontrolnych. Taki sposób obliczenia błędów średnich daje bardziej wiarygodne wyniki oceny, gdyż uwzględnia wpływ błędów pomiarów bezpośrednich i błędów konstrukcji pomiarowej. 3. Wyniki obliczeń W celu przedstawienia sposobu interpretacji odchyłek, wybrano dane z pomiarów inwentaryzacyjnych. Pomiary wykonano metodą biegunową i wcięć kątowo-liniowych. Współrzędne punktów kontrolowanych uzyskano z wyrównania obserwacji bezpośrednich metodą parametryczną. Wyrównaniu poddano dane geodezyjne z pomiaru osnowy geodezyjnej i dane z pomiarów inwentaryzacyjnych łącznie z miarami kontrolnymi (długości odcinków pomiędzy wybranymi punktami). Dla każdej obserwacji długości, kierunku, z pomiaru biegunowego utworzono równanie błędów zgodnie z zasadami parametrycznej metody wyrównania sieci kątowo-liniowej. Wagi obserwacji wprowadzonych do wyrównania uzyskano po analizie danych z testowania sprzętu pomiarowego. W tabeli 2. zostały zestawione odchyłki współrzędnych, obliczone błędy średnie współrzędnych kontrolowanych punktów budowli. Do demonstracji wybrano tylko punkty, dla których odchyłki położenia były bliskie T/2 i sprawiły trudności w ocenie spełnienia tolerancji. 90 L. Pianowski Tabela 2. Wartości odchyłek z pomiarów kontrolnych i obliczone prawdopodobieństwa PT Lp. 1 2 3 4 5 6 8 12 ∆x ∆y 12 6 9 8 5 –5 3 4 3 6 –8 –1 –13 –9 7 –5 mx my 9 3 8 4 8 4 9 4 8 4 8 4 –9 5 10 2 ∆g ∆d rg rd PT 22 18 19 18 15 5 13 14 13 16 2 9 –3 1 17 5 2 –4 –1 –2 –5 –15 –7 –6 –7 –4 –18 –11 –23 –19 –3 –15 2,44 6,00 2,37 4,50 1,88 1,25 1,44 3,50 1,62 2,00 0,25 2,25 –0,33 0,20 1,70 2,50 0,22 –1,33 –0,12 –0,50 –0,62 –3,75 –0,78 –1,50 –0,88 –1,00 –2,25 –2,75 –2,56 –3,80 –0,30 –7,50 0,4056 0,9082 0,5389 0,6915 0,7023 0,8939 0,7074 0,9330 0,7580 0,8186 0,5868 0,9848 0,3654 0,5792 0,5732 0,9946 Wartości odchyłek ∆x, ∆y i błędów mx, my zamieszczone w tab. 2. podano w mm. Odpowiadają one odpowiednio górnej i dolnej granicy przedziału tolerancji T = 20 mm: ∆ g = ∆L + T/2, ∆d = ∆L – T/2 Błędy średnie współrzędnych są równoważne błędom wyznaczenia odchyłek pozycji punktów budowli. Wnioskowanie o spełnieniu tolerancji opiera się na obliczonych według wzorów (2) wartościach współczynników rg, rd i prawdopodobieństwach PT oraz ich ocenie zgodnie z przyjętym kryterium (4). Mimo spełnienia warunku wyrażonego w pierwszej z relacji (4), odchyłki z pomiaru kontrolnego nie potwierdzają spełnienia tolerancji na poziomie Pmin = 0,9876. 4. Wnioski Prowadząc pomiary kontrolne, należy przeprowadzić dwukrotnie analizę dokładności. Pierwsza jest teoretyczną, wstępną analizą, która powinna dać informacje odnośnie do zaproponowanych metod pomiaru, konstrukcji pomiarowej i sprzętu pomiarowego. Druga to powykonawcza analiza dokładności przeprowadzona po uzyskaniu danych z pomiarów, która powinna dać informacje o poprawności przyjętych założeń. Metody analizy dokładności powinny być oparte na wzorach, które umożliwią obliczenie miar niezbędnych do wyznacze- Problem dokładności pomiarów ... 91 nia pozycji punktów budowli, czyli na analizie konstrukcji pomiarowej przyjętej przy pomiarach kontrolnych. Metody analizy dokładności powinny być dostosowane do sposobu opracowania wyników pomiarów kontrolnych. Jeżeli przewiduje się wyznaczenie pozycji punktów przez zastosowanie metody najmniejszych kwadratów, to analizę należy przeprowadzić w oparciu o wzory tej metody. Proponowany sposób nie wymaga dużego nakładu pracy i pozwala na dokonanie oceny błędu średniego wyznaczenia odchyłek wymiarów budowli. Zastosowanie metody najmniejszych kwadratów do rozwiązania zadania daje oprócz wartości współrzędnych punktów także ocenę dokładności wyznaczenia tych współrzędnych. Wyniki analizy dokładności mogą pociągnąć za sobą konieczność zweryfikowania konstrukcji pomiarowej lub aparatury pomiarowej wykorzystanej przy pomiarach kontrolnych. Projekt konstrukcji pomiarowych powinien zapewniać możliwość kontroli wyników pomiarów, eliminację błędów grubych i wiarygodną ocenę błędów. Wartość prawdopodobieństwa tolerancji PT zależy od dokładności pomiaru (błędu wyznaczenia odchyłki), reprezentowanej tutaj przez błąd średni mL, ale także od rezultatów pomiaru kontrolnego, czyli od wartości stwierdzonej odchyłki. Wykonawca pomiarów kontrolnych powinien dysponować obiektywnym kryterium interpretacji odchyłek. Nie można ograniczyć się wyłącznie do porównania odchyłki stwierdzonej z odchyłką dopuszczalną ∆L ≤ ∆dop (∆L ≤ T/2) przypisaną przez normę kontrolowanym wymiarom bez uwzględnienia błędów wyznaczenia tej odchyłki. Nie zawsze kryterium rozstrzyga o spełnieniu tolerancji. Zakładając graniczny poziom ufności Pmin = 0,9876, można przeanalizować wszystkie spotykane przypadki przy interpretacji odchyłki. Przy ocenie wartości uzyskanych odchyłek należy rozważać 3 przypadki: • spełnienie tolerancji, gdy spełniona jest relacja: Pmin < PT < 1, (∆L < T/2), 0,9876 < PT < 1, • brak możliwości podjęcia decyzji o spełnieniu tolerancji PT = Pmin, 0,0124 < PT < 0,9876 (Nie jest to zdarzenie równoznaczne z niespełnieniem tolerancji z uwagi na wartość prawdopodobieństwa α = 1 – PT, które określa prawdopodobieństwo niespełnienia tolerancji. Uzyskanie jednoznacznej odpowiedzi wymaga dokonania oceny błędów wyznaczenia odchyłki lub powtórzenia pomiaru kontrolnego po zmianie konstrukcji pomiarowej, metod pomiaru, a często instrumentów pomiarowych), • niespełnienie tolerancji, jeśli PT < Pmin, (∆L > T/2), 0 < PT < 0,0124. Często spełnienie wymagań stawianych przez normy wiąże się z wykorzystaniem odpowiedniej klasy sprzętu pomiarowego i specjalnych warunków przeprowadzania pomiarów kontrolnych. 92 L. Pianowski Literatura [1] PN-ISO4464. Związki pomiędzy różnymi rodzajami odchyłek i tolerancji [2] PN-ISO3443/8. Tolerancje w budownictwie. Nadzór i kontrola wymiarowa robót budowlanych [3] Przewłocki S., Pawłowski W.: Kształtowanie geometryczne obiektów budowlanych w ujęciu nowych norm ISO. Inżynieria i Budownictwo 4, 1996 [4] Pawłowski W.: Wyrażenie dokładności wymiarowej w budownictwie w ujęciu normy międzynarodowej ISO 1803: 1997, Zeszyty Naukowe Politechniki Zielonogórskiej, z.127, Budownictwo z. 35, Zielona Góra 2001 [5] Janusz W.: Obsługa geodezyjna budowli i konstrukcji, Warszawa 1975 [6] Hausbrandt S.: Rachunek wyrównawczy, t. 2, PPWK, Warszawa 1970 [7] Ney B.: Metody statystyczne w geodezji, skrypt AGH, Kraków 1976 [8] Janusz W.: Określenie podstawowych zależności między tolerancjami w budownictwie a dokładnościami prac geodezyjnych, prace IGIK, t. XV, z. 2(35), Warszawa 1968 [9] Fisz M.: Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1969 THE PROBLEM OF ACCURACY OF CHECK MEASUREMENTS IN CONSTRUCTION WORK Summary In the paper are presented problems of estimation of check measurements accuracy. The work presents method of criterion of deviations of dimensions was introduced in support about supervisory measurements. Derived formulae for calculations of dimensional tolerance of probability in dependence to deviation, tolerance and measurements errors. Author presents of possibility of using of adjustment of data from supervisory measurements by the last square method to determination of deviations and estimation of accuracy of position points. Probability diagram presents dependence of two variables: ∆L/T and T/mL, which help obtain information about requirement measurements accuracy. Author contained development formulae to calculate the probability, that the result of control survey confirms the tolerance of demanded value to have been attained in the true survey. As an example there were used data from check measurements executed by polar survey. Złożono w Oficynie Wydawniczej w listopadzie 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Aleksandra PROKOPSKA Politechnika Rzeszowska KONCEPCJA ARCHITEKTONICZNA ROZBUDOWY I MODERNIZACJI ISTNIEJĄCEGO BUDYNKU Praca dotyczy opisu koncepcji projektu architektonicznego modernizacji i rozbudowy istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska Politechniki Rzeszowskiej. Podjęto wybrane praktyczne i teoretyczne aspekty interdyscyplinarnych problemów projektowych i realizacyjnych architektury w środowisku miejskim. 1. Wprowadzenie Architektura, posiadając wartości ponadczasowe, praktycznie wyrasta z rzemiosła, jest obrazem epoki, w której powstaje. Jedna z wielu istniejących i funkcjonujących definicji architektury mówi o tym, że architektura jako sztuka lub nauka o budownictwie i o budowanych rzeczach dotyczy stylu budowania i konstrukcji. Inżynieria, materiały i techniki budowania są narzędziami w kreowaniu architektury i wywierają na nią niepodważalny wpływ. Architektura jest obrazem epoki, w której powstaje, gdyż jest uwarunkowana konkretnym etapem technicznego, społecznego i cywilizacyjnego rozwoju, otoczeniem, naturalnym środowiskiem, wraz z materiałami (w tym budowlanymi), jakie można w nim odnaleźć lub stworzyć szeroko pojętą tradycją i poszukiwaniem przez człowieka jego tożsamości [1, 2], a w końcu twórczą kreatywnością projektanta. Współczesna architektura polska i proces zmian charakteru miast polskich jako układów funkcjonalnych w przestrzeni, związany z permanentną rozbudową i modernizacją ich elementów jest napędzany wigorem procesów wolnorynkowych. Proponowaną koncepcję architektoniczną rozbudowy i modernizacji istniejącego budynku znajdującego się w terenie miejskim zrealizowano zgodnie z przekonaniem, że architektura jest sztuką organizacji i kształtowania przestrzeni środowiska życia człowieka, w tym również środowiska miejskiego. Jest to pogląd pozostający w zgodzie ze współczesną wiedzą architektoniczną, metodologią projektowania, wiedzą prakseologiczną oraz ekologią, szczególnie ekologią miasta. Omawiana w artykule i zaprezentowana w formie graficznej koncepcja architektoniczna wynika z wielości analizowanych uwarunkowań architektonicznych i wielodyscyplinowych i podlega im. Koncepcja ta jednocześnie w 94 A. Prokopska ujęciu syntetycznym prezentuje, zgodnie z definicją architektury sformułowaną przez Witruwiusza, jedność formy (firmitas), funkcji (utylitas) i konstrukcji (venustas). Przedstawiana przestrzenna koncepcja architektoniczna została zaprezentowana w formie projektu architektonicznego (rys. 1.) rozbudowy i modernizacji istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska w Rzeszowie*. Projekt ten dostosowany został do konkretnej lokalizacji i środowiska architektonicznego. Rys. 1. Projekt architektoniczny rozbudowy i modernizacji istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska Politechniki Rzeszowskiej Program użytkowy, zgodnie z którym opracowano przedstawiany projekt rozbudowy i modernizacji istniejącego budynku P Wydziału Budownictwa Politechniki Rzeszowskiej, został opracowany przez władze Uczelni. W projekcie tym nadbudowywana i rozbudowywana część budynku P, o kubaturze 15245,70 m3, mieści pomieszczenia dydaktyczne, tj. dużą, atrakcyjną przestrzennie salę audytoryjną, sale wykładowe, pracownie: komputerowe, rzeźby, fotografii oraz modelarnie, a także pomieszczenia dla pracowników naukowodydaktycznych, technicznych i administracyjnych. Projektowana modernizacja, rozbudowa i dobudowa istniejącego budynku jest związana z możliwością poszerzenia kształcenia na Wydziale o nowy kierunek: architektura. * Projekt został opracowany przez autorkę pracy. Jest to wyróżniona praca konkursowa ogłoszonego w 1998 r. przez Politechnikę Rzeszowską konkursu architektonicznego na projekt rozbudowy i modernizacji istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska w Rzeszowie. Koncepcja architektoniczna ... 95 2. Wybrane elementy projektu Plan zagospodarowania przestrzennego Plan ten (rys. 2.), na bazie aktualnego planu zagospodarowania przestrzennego istniejącego budynku, opracowano w skali 1:500. Działka jest terenem płaskim, wyposażonym w infrastrukturę techniczną. Rys. 2. Plan zagospodarowania przestrzennego Przedstawiana na działce koncepcja architektoniczna obejmuje projekt nadbudowy istniejącego budynku P o dwie kondygnacje oraz projekt dobudowy segmentu do budynku P od jego strony północno-wschodniej (rys. 3.). Projekt ten zakłada rozbudowę i modernizację, łącznie o około 4350 m2 dodatkowej powierzchni w odniesieniu do istniejącego budynku. Zaprojektowane „cofnięcie” głównego wejścia do projektowanego budynku (rys. 2., 4.) w stosunku do istniejącej krawędzi jezdni, gwarantuje bezkolizyjność i bezpieczeństwo ruchu ulicznego oraz przemieszczania się użytkowników projektowanego budynku. W szczególności przestrzeń dzieląca wejście do budynku od krawędzi pasa jezdni umożliwia swobodne i bezpieczne zatrzymywanie się oraz wejście i nagłe wyjście dużej liczby studentów z i do budynku. 96 A. Prokopska a) b) Rys. 3. Projektowany obiekt Wydziału Budownictwa i Inżynierii Środowiska: a) elewacja główna, b) widok tej samej oświetlonej elewacji w godzinach popołudniowych Rys. 4. Rzut poziomy parteru; widoczne wejście główne i dobudowywana część obiektu Koncepcja architektoniczna ... 97 Łukowaty kształt dobudowywanej części budynku wynika z dostosowania się bryły części dobudowywanej do istniejącego układu ulic i kształtu powierzchni przeznaczonej na dobudowę (rys. 1., 3., 5–8), czyli wynika z dostosowania się do istniejącego środowiska architektonicznego. Decyzja ta miała bezpośredni wpływ na kształtowanie bryły audiowizualnej sali wykładowej zaprojektowanej w formie żelbetowej muszli jako konstrukcji wylewanej na mokro (rys. 1.). Rys. 5. Przekrój pionowy przez dobudowywaną część budynku; widok sali i przestrzeni pod salą audiowizualną Rys. 6. Elewacja zachodnia projektowanego budynku Wydziału Budownictwa i Inżynierii Środowiska 98 A. Prokopska Rys. 7. Elewacja wschodnia projektowanego budynku Wydziału Budownictwa i Inżynierii Środowiska z widocznymi w konstrukcji stalowej zadaszeniami umożliwiającymi realizacje "ogrodu na dachu" Rys. 8. Przekrój pionowy przez salę audiowizualną i część pomieszczeń znajdujących się nad salą: w przekroju są widoczne zadaszenia na płaskim dachu budynku, ich kształt umożliwia montaż baterii słonecznych Plan zagospodarowania przestrzennego (rys. 2.) przewiduje: w układzie funkcjonalnym dojścia i przejścia piesze, miejsca parkingowe od strony południowo-wschodniej oraz tereny zielone – rekreacyjne. Koncepcja architektoniczna ... 99 Organizacja przestrzeni Projektowana główna sala audiowizualna obejmuje część przestrzeni pierwszego i drugiego piętra (rys. 9.). Nad tą salą zaprojektowano dwie kondygnacje, przeznaczone na pokoje pracowników naukowych i administracyjnych oraz małe sale wykładowe (rys. 8.). Rys. 9. Fragment rzutu poziomego pierwszego piętra, obejmujący rzut sali audiowizualnej wraz z przestrzennymi schodami ewakuacyjnymi, prowadzącymi na parter budynku i do wyjścia 100 A. Prokopska W części nadbudowywanej zachowano generalnie układ komunikacyjny i funkcjonalny niższych, istniejących już kondygnacji. Na skraju bryły części nadbudowywanej, nad istniejącym budynkiem zaprojektowano dodatkową klatkę schodową jako drogę ewakuacyjną (rys. 3.). Jest to klatka schodowa z wachlarzowymi schodami (rys. 4.). Do klatki schodowej prowadzi obszerny, wygodny przedsionek. Schody zaproponowano w konstrukcji żelbetowej, wylewane na mokro, z prefabrykowanymi spocznikami. Przedsionek zaprojektowany w poziomie parteru został otoczony łukowatą kolorową (jasno-turkusową) szklaną ścianą o konstrukcji samonośnej (lub inaczej samoniosącej) stalowej lub żelbetowej. Jest to widoczne na elewacji głównej projektowanego budynku (rys. 3.), wykonanej w skali 1:100 i na rzucie poziomym parteru budynku (rys. 4.) wykonanym również w skali 1:100. Na elewacjach: głównej, wschodniej i zachodniej (rys. 3., 6., 7.) oraz przekrojach pionowych (rys. 5., 8.) są widoczne świetliki na dachu, których kształt dostosowany jest do sprawnego zainstalowania i efektywnego funkcjonowania baterii słonecznych. Uzyskana w ten sposób energia wykorzystywana byłaby do częściowego ogrzewania budynku w sezonie grzewczym. Proponowane układy funkcjonalne oraz przestrzenne budynku są widoczne na rysunkach rzutu poziomego parteru projektowanego budynku (rys. 4.) oraz fragmentu rzutu poziomego pierwszego piętra (rys. 9.). Pozostała, nieprzedstawiana na załączonych rysunkach, część istniejąca budynku nie ulega w projekcie zmianom. Część istniejąca, nadbudowa i dobudowa łączą się ze sobą, tworząc spójną całość i sprawny układ funkcjonalny modernizowanego budynku. Elewacje Wszystkie powierzchnie elewacji budynku zaprojektowano ze szkła odblaskowego, według technologii firmy Reconal. Rzuty, przekroje i elewacje wykonano w skali 1:100. Detale elewacji dotyczące szczegółów rozwiązań technicznych i materiałów elewacyjnych zostały przedstawione w skali 1:5 (rys. 10.). Są to „szczegóły” proponowane i opracowane dla ściany zewnętrznej z nadprożem okiennym i samej ściany. Ich wzajemne porównanie uwidacznia stosunkową łatwość wykonania projektowanej elewacji przy zastosowaniu proponowanej technologii. Proponowane w rozwiązaniu materiały to różnej klasy beton i/lub stal, szkło elewacyjne (technologia firmy Reconal) w kolorze na przemian jasnym i ciemnym turkusowym, współgrającym z otoczeniem projektowanego budynku. Elewacja frontowa modernizowanego nadbudowanego i rozbudowywanego budynku została zaprojektowana atrakcyjnie przestrzennie i jednocześnie zgodnie z wcześniejszą ekspertyzą budowlaną dotyczącą stanu technicznego konstrukcji tego budynku (rys. 11.). Koncepcja architektoniczna ... 101 Rys. 10. Szczegóły techniczne dotyczące części szklanej fasady budynku zaproponowane zostały do realizacji w technologii Reconal Rys. 11. Fragment elewacji nadbudowywanej i istniejącej wzmacnianej; widoczna ozdobna „krata” żelbetowa do wysokości trzech pięter istniejącego budynku i dwa pasy szklanej fasady dwóch pięter nadbudowy 102 A. Prokopska Wybrane problemy konstrukcyjne i architektoniczne przedstawianej koncepcji Projekt konstrukcji części nadbudowywanej wykonany zgodnie z ekspertyzą zleconą przez Politechnikę Rzeszowską proponuje wzmocnienie konstrukcji budynku, głównie przez wzmocnienie fundamentów w części podpiwniczonej budynku i słupków międzyokiennych. Wzmocnienie słupków międzyokiennych zaproponowano w postaci ozdobnej żelbetowej „kraty przestrzennej”, czyli układu konstrukcyjnego będącego elementem przestrzennym wysuniętym poza linię istniejącej elewacji na około 30–50 cm, do wysokości trzech istniejących pięter (rys. 3., 11.). Zgodnie z przedstawianą koncepcją architektoniczną elementy kraty żelbetowej byłyby związane z konstrukcją nośną budynku, np. na poziomie stropów, i wzmacniałyby całość konstrukcji istniejącego budynku. Wszystkie elementy poziome i wszystkie elementy pionowe tego nośnego układu kratowego, zrealizowanego w konstrukcji żelbetowej mogłyby posiadać te same wymiary. Ta proponowana krata żelbetowa grubości np. 50 cm przebiegałaby przez trzy kondygnacje po zewnętrznej powierzchni elewacji (rys. 11.) istniejącego budynku, wzmacniając ją, i posadowiona byłaby na osobnym fundamencie. W efekcie, z architektonicznego punktu widzenia ta żelbetowa konstrukcja przestrzenna stałaby się pretekstem do aranżacji nowej interesującej elewacji (rys. 4. i 11.). Proponowane wzmocnienie składa się z widocznych na elewacji dwóch typów prostokątnych żelbetowych elementów wstawianych w omawianą konstrukcję kratową i powiązanych z konstrukcją nośną (np. z wieńcami stropów) istniejącego budynku. Rozwiązanie to wyraźnie uatrakcyjnia istniejącą monotonną elewację i jednocześnie pozwala na bezpieczną nadbudowę i eksploatację istniejącego budynku. Przedstawiane rozwiązanie wymaga szczegółowych opracowań technicznych, konstrukcyjnych i plastycznych, których prezentowany projekt nie obejmuje. Warto jednak wspomnieć, że rozwiązanie to można wykorzystać do nieznacznego powiększenia wybranych istniejących po tej stronie budynku pokoi. Są to w większości pokoje przeznaczone dla pracowników Wydziału. Poszerzenie owych wnętrz wynika z odsunięcia części powierzchni elewacji i budowy nowej ściany osłonowej. Jednocześnie to działanie umożliwia racjonalną technicznie realizację dodatkowego, brakującego układu wodociągowego na kolejnych piętrach istniejącego budynku. Opisana inwestycja w dużym stopniu podniosłaby komfort użytkowników (w tym komfort cieplny uzyskany przez realizację nowej ściany osłonowej zgodnie z obowiązującą normą cieplną) i zapewniłaby większą higienę pracy użytkowników budynku. W elewacji (rys. 3.), po jej lewej stronie, jest widoczna forma żelbetowej muszli oparta na żelbetowych słupach. Kształt muszli widoczny byłby dla przechodniów za półprzeźroczystą szklaną ścianą. Zróżnicowany wygląd wypukłej elewacji w godzinach przedpołudniowych i godzinach popołudniowych podnosi atrakcyjność estetyczną projektowanej bryły budynku. Prezentują to dwie wersje Koncepcja architektoniczna ... 103 elewacji głównej budynku. Szklana ściana w tej elewacji mogłaby być zrealizowana np. jako aluminiowa konstrukcja samonośna. Dalej, na tej samej elewacji głównej, w centrum budynku (rys. 3.) znajduje się przekryty szkłem owalny przedsionek wejścia głównego o konstrukcji żelbetowej (rys. 4.). Na skraju budynku (rys. 3.), po prawej stronie jest widoczny fragment wejścia bocznego. Wejście to składa się z zaprojektowanej dodatkowo żelbetowej (np. wylewanej na mokro) klatki schodowej „zamkniętej w szklanej tubie”, czyli otoczonej szklaną ścianą, oraz owalnego parterowego przedsionka również osłoniętego, tak jak wcześniej omawiany, ścianą ze szkła refleksyjnego. Kształt i wnętrze sali audiowizualnej oraz układy funkcjonalne I i II piętra Wnętrze zaprojektowanej sali audiowizualnej o kolistym kształcie muszli żelbetowej, tworzącej ciekawą atmosferę, połączone zostało w spójny układ funkcjonalny przestrzennymi schodami ewakuacyjnymi z parterem części dobudowywanej. Indywidualny charakter przestrzeni parteru (rys. 8., 12., 13.) tworzy: • spód muszli, czyli dolna powierzchnia żelbetowej konstrukcji muszli, • zaprojektowane ozdobne, przestrzenne, jednobelkowe schody o konstrukcji żelbetowej, stanowiące istotny element aranżacji wnętrza, ułatwiający jednocześnie natychmiastową, sprawną ewakuację użytkowników sali wykładowej, • szklana ściana samonośna. Rys. 12. Widok wnętrza parteru dobudowywanej części budynku; owalna szklana ściana, „spód” muszli żelbetowej i schody przestrzenne tworzące klimat wnętrza 104 A. Prokopska Rys. 13. Szkic aranżacji wnętrza parteru budynku – dobudowa (odręczny szkic autorki pracy) Zaprojektowany kształt sali audiowizualnej decyduje o jej dobrej akustyce, atmosferze i atrakcyjności oraz o równie atrakcyjnej przestrzeni wnętrza parteru budynku. Ta część budynku jest otoczona szklaną ścianą samonośną. W tej dwukondygnacyjnej przestrzeni parteru (części dobudowywanej do istniejącego budynku) zaprojektowano powierzchnię ekspozycyjną i barową oraz zaplecze widoczne na rys. 8. Przestrzeń w części najniższej (lecz zgodnej z normami budowlanymi i architektonicznymi) przeznaczono na bary wraz z zapleczem. Realizacja Projekt umożliwia realizację modernizacji w co najmniej dwóch etapach**. Pierwszy z nich obejmowałby realizację szybu windowego oraz części dobudowywanej. Drugi etap obejmowałby wzmocnienie konstrukcji istniejącego budynku oraz jego nadbudowę. ** W zakresie przedstawień graficznych, jak i w zakresie wymiarowania, załączone do artykułu rzuty i przekroje projektowanego obiektu nie są wykonane zgodnie z funkcjonującymi obecnie w Polsce (jedynie w formie fakultatywnej) przepisami normowymi. Wspomniana fakultatywność, czyli nieobligatoryjność, owych zaleceń normowych pozwala na ich ominięcie przy akceptacji stron posługujących się graficznymi elementami dokumentacji projektowej, co w niniejszej pracy uczyniono. Nie zmienia to jednak faktu, że wraz z rozwojem technik i technologii budowlanych oraz wzrostem poziomu dokładności wykonawstwa w budownictwie wspomniane zalecenia normowe będą nabierać coraz większego praktycznego znaczenia. Koncepcja architektoniczna ... 105 Możliwe modyfikacje Istnieje możliwość modyfikacji koncepcji architektonicznej i rozbudowy przedstawianego projektu (rys. 14., 15.). Jest możliwe zaprojektowanie dodatkowych mniejszych audiowizualnych sal wykładowych na piątym i szóstym piętrze w części dobudowywanej. Sal tych nie zaprojektowano ze względu na kubaturowe ograniczenia konkursowe. Zmiana proporcji projektowanej (jako dobudowa) bryły, czyli jej wypiętrzenie nie wpływa na zmniejszenie jej atrakcyjności przestrzennej (rys. 16.). Rys. 14. Wariantowe rozwiązanie projektowe, przy zachowaniu wcześniej przyjętych w projekcie zasad oraz rozwiązań konstrukcyjnych i funkcjonalnych Rys. 15. Kolejna możliwa modyfikacja przyjętego wcześniej rozwiązania przestrzennego 106 A. Prokopska Rys. 16. Wariant rozwiązania architektonicznego z przyjętą sześciokondygnacyjną dobudową, skutkującą zmianą kubatury i proporcji projektowanej bryły oraz rozbudową jej funkcji użytkowych (np. o następne sale wykładowe), lecz niezmieniającą koncepcji proponowanego rozwiązania przestrzennego 3. Podsumowanie Współcześnie i w przeszłości tkanka miejska poddawana jest i była nieustannym procesom przemian i przekształceń. Współczesna teoria i praktyka projektowania architektonicznego oraz konstrukcyjnego pozwalają w coraz większym stopniu zrozumieć procesy zachodzące w przestrzeni oraz dobierać narzędzia kształtowania i zarządzania środowiskiem architektonicznym w sposób najpewniej prowadzący do zaspokojenia określonych potrzeb indywidualnych i społecznych oraz osiągnięcia założonego celu projektowego [1–5]. Przykładem wieloaspektowych problemów tego typu przekształceń, związanych również z możliwościami i graniczeniami współczesnych technologii budowlanych jest przedstawiana koncepcja zrealizowana w postaci projektu architektonicznego. Elementy składowe tego proponowanego do realizacji projektu wraz z omawianą muszlą żelbetową tworzą harmonijną całość architektoniczną, konstrukcyjną i funkcjonalną. Jest to przykład rozwiązania architektonicznego zachowującego jedność i spójność formy, funkcji i konstrukcji. Projekt ten, m.in. ze względu na obszerną żelbetową muszlę audytoryjną, pozostaje atrakcyjny przestrzennie i aktualny ze względu na istniejące potrzeby środowiska akademickiego. Koncepcja ta proponuje wystarczająco dużą, repre- Koncepcja architektoniczna ... 107 zentacyjną i funkcjonalną salę mogącą pomieścić większość społeczności akademickiej, nie tylko w dniu inauguracji nowego roku akademickiego, ale i z innych równie ważnych powodów. Literatura [1] Prokopska A.: Morfologia dzieła architektonicznego. Analiza metodologiczna wybranych morfologicznych układów środowisk naturalnego i architektonicznego. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 2002 [2] Prokopska A.: Interdyscyplinarny proces projektowania architektonicznego na wybranych przykładach. VII Vedecka konferencia s medzinarodnou ucastou, Technicka Univerzita w Kosiciach, 22-24 maja 2002 r. [3] Prokopska A.: Zastosowanie metody analizy morfologicznej w projektowaniu architektonicznym na przykładzie twórczości Le Corbusiera. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 1997 [4] Cross N., Naughton J., Walker D.: Design method and scientific method. Design Studies, Vol. 2, No 4, 1981 [5] Gawłowski J.T.: Propozycja przyszłościowych systemów zagospodarowania obszarów GOP. W: Modelowe formy zagospodarowania Górnośląskiego Okręgu Przemysłowego, Tom 1., Ossolineum, Wrocław-Warszawa-Kraków 1979 CONCEPTION ARCHITECTURAL DESIGN MODERNIZATION AND DEVELOP OF BUILD Summary This work is about concept architectural design modernization of build Civil Engineering and Environmental Department of Rzeszow University of Technology. Undertake and analysis of selected different interdisciplinary aspects environment architectural. Złożono w Oficynie Wydawniczej w lutym 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Grzegorz PROKOPSKI Politechnika Rzeszowska Jacek HALBINIAK Bogdan LANGIER Politechnika Częstochowska WPŁYW CZASU DOJRZEWANIA NA WŁAŚCIWOŚCI BETONU ŻWIROWEGO Przedstawiono wyniki badań betonu żwirowego klasy B40 oraz betonu wysokowartościowego (BWW) po 7, 14, 28 i 90 dniach dojrzewania. Określono zależności wytrzymałości na ściskanie fc, odporności na pękanie KSIc oraz modułu Younga E od wieku betonów*. 1. Wprowadzenie W praktyce wytrzymałość betonu jest określana tradycyjnie po upływie 28 dni, także niektóre inne właściwości betonu są często odnoszone do 28-dniowej wytrzymałości. Taki sposób podejścia nie ma naukowego uzasadnienia; 28 dni stanowi pewną cezurę czasową w procesie wykonawczym – na placu budowy oraz służy do tego, aby te same cechy różnych betonów mogły być porównywane. W czasach kiedy ustaliło się badanie betonów, po 28 dniach dojrzewania cementy uzyskiwały powoli końcową wytrzymałość i dlatego badania prowadzono po upływie czasu, po którym zaszła już znacząca część procesu hydratacji cementu. W nowoczesnych cementach portlandzkich szybkość hydratacji jest znacznie większa niż w przeszłości, co wynika głównie ze znacznie większej powierzchni właściwej tych cementów oraz większej zawartości C3S. Także stosowanie we współczesnych betonach dodatków (np. pyłu krzemionkowego) i domieszek w postaci różnego rodzaju plastyfikatorów, polepszających urabialność mieszanek (możliwe jest więc zmniejszenie w/c), spowodowało uzyskiwanie betonów o znacznie większej wytrzymałości, przy znacznie większej dynamice przyrostu wytrzymałości w czasie [1]. * Pracę zrealizowano w ramach projektu badawczego KBN nr 8 T07E 023 20 pt. „Zastosowanie metod badawczych inżynierii materiałowej do oceny właściwości betonów w procesie ich dojrzewania”. 110 G. Prokopski i inni Znajomość zależności wytrzymałość–czas jest ważna wtedy, gdy konstrukcja ma być oddana do użytku, czyli poddana pełnym obciążeniom, w późniejszym czasie. Wówczas w projektowaniu może być brany pod uwagę przyrost wytrzymałości po okresie 28 dni, natomiast w przypadku prefabrykacji czy w konstrukcjach sprężonych lub też, gdy wymagane jest wczesne usunięcie deskowań, niezbędna jest znajomość wytrzymałości we wczesnym wieku (przed upływem 28 dni). Sformułowanie ogólnych zależności dotyczących właściwości betonów w procesie dojrzewania jest zagadnieniem złożonym, ponieważ są one funkcją wielu czynników, z których główne to: rodzaj cementu i kruszywa, stosunek wodno-cementowy i warunki pielęgnacji betonu [2]. Dane literaturowe podają zależność między stosunkiem wodno-cementowym i wytrzymałością betonu dla jednego cementu i określonego wieku betonu. Według artykułu [3] cementy portlandzkie produkowane na początku XX w. (o dużej zawartości C2S i małej powierzchni właściwej) zapewniały wzrost wytrzymałości betonów przechowywanych na zewnątrz proporcjonalnie do logarytmu wieku betonu aż do 50 lat. Wytrzymałość 50-letnia betonów wykonanych z tych cementów była 2,4 razy większa od wytrzymałości 28-dniowej. Betony wykonywane z cementów produkowanych od lat 30. XX w. (o mniejszej zawartości C2S i dużej powierzchni właściwej) osiągały największą wytrzymałość po okresie 10–25 lat, a następnie traciły na wytrzymałości. Stwierdzono także [4], że względny przyrost wytrzymałości był większy w przypadku betonów wykonywanych przy większym w/c. Bardzo rzadkie są prace zmierzające do określenia związków między właściwościami betonu, a jego strukturą, także znacząco zmieniającą się w procesie dojrzewania. Poznanie zależności ilościowych występujących pomiędzy strukturą i właściwościami daje możliwość ingerencji w strukturę w taki sposób, aby uzyskiwać materiał o oczekiwanych właściwościach. W ostatnich dwudziestu latach badania wytrzymałościowe betonów są coraz częściej wykonywane z zastosowaniem parametrów mechaniki pękania, takich jak krytyczne wartości współczynnika intensywności naprężeń Kc, rozwarcia szczeliny CTODc, energii pękania Gc. Parametry mechaniki pękania są określone na podstawie rzeczywistej wartości naprężeń w chwili zniszczenia, czyli w momencie propagacji najdłuższej bądź najostrzejszej szczeliny znajdującej się w materiale. Stanowią one podstawę do określenia zależności między wytrzymałością betonu, a jego strukturą. Struktura może być analizowana w sposób ilościowy na podstawie badań stereologicznych prowadzonych na płaskich przekrojach i badań morfologii powierzchni przełomów (z użyciem wymiaru fraktalnego D czy stopnia rozwinięcia linii profilowych przełomu RL) oraz jakościowy z zastosowaniem mikroskopii skaningowej. Badania przedstawione w niniejszej pracy zmierzają do uzyskania danych określających zmiany odporności na pękanie betonów, jak również ich wytrzymałości na ściskanie Wpływ czasu dojrzewania na właściwości betonu ... 111 w procesie dojrzewania. Badania te mają duże znaczenie poznawcze i są szczególnie istotne wobec obecnego, gwałtownego rozwoju betonów nowej generacji (z dodatkami i domieszkami), których odpowiednie wykorzystanie (w mostownictwie, drogownictwie, budownictwie przemysłowym i in.) będzie zależeć od rozpoznania ich właściwości w procesie niszczenia, w trakcie propagacji szczelin, których istnienie w betonach jest nieuniknione. 2. Cel i zakres badań Celem badań było określenie właściwości wytrzymałościowych betonów z kruszywa żwirowego: klasy B40 oraz betonu wysokowartościowego w trakcie ich dojrzewania. Badania wytrzymałości na ściskanie i odporności na pękanie oraz badania mikrostrukturalne w obszarze warstwy przejściowej kruszywo żwirowe–zaczyn cementowy, przeprowadzono po 7, 14, 28 i 90 dniach dojrzewania. Badania wytrzymałości na ściskanie prowadzono na kostkach o krawędzi 0,15 m (5 sztuk w serii), natomiast badania odporności na pękanie według I modelu pękania (rozciąganie przy zginaniu), zgodnie z artykułem [3], na beleczkach o wymiarach 0,08 x 0,15 x 0,70 m z jedną szczeliną pierwotną, odwzorowaną w środku rozpiętości (po 6 sztuk w serii). Badania wytrzymałości na ściskanie przeprowadzono na maszynie wytrzymałościowej ZWICK o nacisku 3000 kN. Wyniki badań wytrzymałości na ściskanie podano w tab. 1. Tabela 1. Wyniki badań wytrzymałości na ściskanie Wytrzymałość na ściskanie fc [MPa] Wartość średnia fcm ±δ Wytrzymałość na ściskanie fc [MPa] Wartość średnia fcm ±δ Beton zwykły B40 – okres dojrzewania [dni] 7 14 28 90 36,2 38,8 45,7 64,5 35,7 38,5 44,8 62,7 35,3 38,1 44,6 61,0 35,1 37,8 44,2 55,8 34,6 37,4 42,7 54,5 38,1 ± 0,5 44,4 ± 1,0 59,7 ± 1,0 35,4 ± 0,5 Beton wysokowartościowy – okres dojrzewania [dni] 7 14 28 90 80,2 84,5 89,2 94,9 79,8 83,5 88,5 93,3 78,2 82,6 87,9 93,3 77,9 81,5 87,5 91,2 77,0 80,4 86,9 89,6 82,5 ± 1,4 88,0 ± 0,8 92,5 ± 1,8 78,6 ± 1,2 112 G. Prokopski i inni Betony wykonano z kruszywa żwirowego 2–16 mm z ZEK Glinica, piasku 0–2 mm z Antonówki i cementu portlandzkiego CEM I 32,5R i CEM I 42,5R z cementowni Rudniki. Masy składników w 1 m3 mieszanki betonowej były następujące: Beton zwykły B40 Beton wysokowartościowy Kruszywo – 1900 kg Kruszywo – 1875 kg Cement CEM I 32,5R – 345 kg Cement CEM I 42,5R – 460 kg Woda – 165,5 kg Woda – 147,5 kg Punkt piaskowy mieszanki Mikrokrzemionka – 34,5 kg kruszywa 30% Plastyfikator Addiment BV-34 – 10,12 kg Punkt piaskowy mieszanki kruszywa 30% 3. Badania odporności na pękanie Badania odporności na pękanie przeprowadzono na maszynie wytrzymałościowej ze sprzężeniem zwrotnym MTS 810. W badaniach tych, wykonywanych według I modelu (rozciąganie przy zginaniu), prowadzonych zgodnie z projektem zaleceń RILEM [5], określano wartości krytyczne: współczynnika intensywności naprężeń K IcS , rozwarcia szczeliny CTODc i długości rysy ac. Badaniom odporności na pękanie poddawano próbki o wymiarach 80 x 150 x x 700 mm z jedną szczeliną pierwotną (rys. 1.). Szybkość obciążania próbek była tak dobrana, aby obciążenie maksymalne zostało osiągnięte w ciągu około 5 minut. Przyłożone obciążenie było następnie zmniejszane (odciążanie), gdy przekroczyło maksimum i wynosiło około 95% obciążenia maksymalnego. Po zmniejszeniu obciążenia do zera ponownie cyklicznie obciążano próbkę. Rys. 1. Schemat próbki użytej w badaniach według I modelu, HO – grubość uchwytu sprawdzianu zaciskowego, CMOD – przemieszczenie rozwarcia wylotu szczeliny, P – siła Wpływ czasu dojrzewania na właściwości betonu ... 113 W trakcie badań, dla każdej próbki rejestrowano wykres siły obciążającej w funkcji przemieszczenia wylotu szczeliny (CMOD). Przykładowy wykres CMOD – obciążenie próbki przedstawia rys. 2. Rys. 2. Przykładowy wykres CMOD – obciążenie Na podstawie uzyskanych wykresów wyznaczono dla każdej próbki wartości krytycznego współczynnika intensywności naprężeń K IcS oraz krytycznego rozwarcia wierzchołka szczeliny CTODc. Krytyczny współczynnik intensywności naprężeń K IcS obliczono z zależności [5]: K IcS = 3 ( Pmax + 0.5w ) S ( Π ⋅ ac ) 1/ 2 ⋅ F (α ) 2 ⋅W ⋅ b w której: F (α ) = ( 1,99 − α (1 − α ) 2,15 − 3,93α + 2,7α 2 Π1/ 2 ⋅ (1 + 2α )(1 − α ) gdzie: Pmax – maksymalne obciążenie, α = ac/W, w = WoS/L, Wo – ciężar własny próbki [N], S, ao, W, b, L – zgodnie z rys. 1. 3/ 2 ) 114 [5]: G. Prokopski i inni Krytyczne rozwarcie wierzchołka szczeliny CTODc określono z zależności CTODc = 6Pmax ⋅ S ⋅ acV1(α) [(1 − β )2 + (1,081 −1,149α)(β − β 2 )]1/ 2 2 EW b gdzie: β = ao/a, ao – długość szczeliny pierwotnej. Wyniki badań odporności na pękanie podano w tab. 2. Tabela 2. Wyniki badań odporności na pękanie Beton zwykły z kruszywa żwirowego – 7-dniowy Numer próbki Z 7- 1 Z 7 -2 Z7-3 Z7-4 Z7-5 Z7-6 Wartość średnia ±δ E [GPa] 24,77 18,74 18,72 19,33 26,41 23,62 21,9 ± 3,4 ac [mm] 112,2 81,9 101,0 110,9 107,7 99,6 112,0 ± 15,5 CTODc ⋅103 [mm] 26,6 19,2 23,0 24,6 26,2 24,0 23,9 ± 2,3 KSIc [MN/m3/2] 1,90 1,00 1,18 1,43 1,98 1,53 1,50 ± 0,39 Beton zwykły z kruszywa żwirowego – 14-dniowy Numer próbki Z 14 - 1 Z 14 - 2 Z 14 - 3 Z 14 - 4 Z 14 - 5 Z 14 - 6 Wartość średnia ±δ E [GPa] 25,68 30,47 30,92 31,63 29,63 32,20 30,1 ± 2,3 ac [mm] 119,2 104,7 107,9 113,3 93,7 94,6 105,6 ± 10,1 CTODc ⋅103 [mm] 21,1 26,1 25,9 25,4 25,0 22,5 24,3 ± 2,0 KSIc [MN/m3/2] 1,75 2,19 2,25 2,37 1,98 1,95 2,08 ± 0,23 Beton zwykły z kruszywa żwirowego – 28-dniowy Numer próbki Z 28 - 1 Z 28 - 2 Z 28 - 3 Z 28 - 4 Z 28 - 5 Z 28 - 6 Wartość średnia ±δ E [GPa] 36,58 29,85 30,72 35,17 34,85 32,66 33,3 ± 2,7 ac [mm] 111,4 95,7 99,3 118,3 114,1 112,8 108,6 ± 9,0 CTODc ⋅103 [mm] 23,7 23,1 25,7 23,7 22,7 25,1 23,9 ± 1,2 KSIc [MN/m3/2] 2,51 1,84 2,12 2,52 2,30 2,38 2,28 ± 0,26 Wpływ czasu dojrzewania na właściwości betonu ... 115 Tabela 2 (cd.) Beton zwykły z kruszywa żwirowego – 90-dniowy Numer próbki Z 90 - 1 Z 90 - 2 Z 90 - 3 Z 90 - 4 Z 90 - 5 Z 90 - 6 Wartość średnia ±δ E [GPa] 35,21 34,86 29,63 33,87 36,75 34,24 34,1 ± 2,4 ac [mm] 104,4 107,6 114,6 114,6 108,5 104,5 109,0 ± 4,1 CTODc ⋅103 [mm] 31,8 32,6 37,3 30,6 32,7 32,4 32,9 ± 1,8 KSIc [MN/m3/2] 3,10 3,21 3,35 3,14 3,43 3,07 3,22 ± 0,14 Beton wysokowartościowy z kruszywa żwirowego – 7-dniowy Numer próbki WZ 7- 1 WZ 7 -2 WZ 7 - 3 WZ 7 - 4 WZ 7 - 6 Wartość średnia ±δ E [GPa] 33,55 49,95 49,29 31,54 49,29 42,7 ± 9,3 ac [mm] 66,7 95,0 81,4 71,4 81,1 79,1 ± 10,9 CTODc ⋅103 [mm] 15,8 23,3 19,7 24,0 19,9 20,5 ± 3,3 KSIc [MN/m3/2] 1,67 2,93 2,52 2,19 2,56 2,37 ± 0,47 Beton wysokowartościowy z kruszywa żwirowego – 14-dniowy Numer próbki WZ 14 - 1 WZ 14 - 2 WZ 14 - 3 WZ 14 - 4 WZ 14 - 5 WZ 14 - 6 Wartość średnia ±δ E [GPa] 43,81 44,96 38,43 38,51 47,31 45,35 43,1 ± 3,7 ac [mm] 74,8 83,1 60,1 93,1 64,7 86,9 82,0 ± 14,0 CTODc ⋅103 [mm] 18,3 23,7 13,7 28,7 26,2 22,9 22,3 ± 5,4 KSIc [MN/m3/2] 2,21 2,75 2,05 2,77 3,12 2,64 2,59 ± 0,39 Beton wysokowartościowy z kruszywa żwirowego – 28-dniowy Numer próbki WZ 28 - 1 WZ 28 - 2 WZ 28 - 3 WZ 28 - 4 WZ 28 - 5 WZ 28 - 6 Wartość średnia ±δ E [GPa] 53,24 32,86 37,86 34,53 53,43 55,20 44,5 ± 10,5 ac [mm] 78,3 86,7 90,0 101,6 110,1 104,5 95,1 ± 12,1 CTODc ⋅103 [mm] 16,3 29,1 28,5 31,1 25,0 23,4 25,6 ± 5,3 KSIc [MN/m3/2] 2,31 2,43 2,71 2,75 3,63 3,35 2,86 ± 0,52 116 G. Prokopski i inni Tabela 2 (cd.) BETON wysokowartościowy z kruszywa żwirowego – 90-dniowy Numer próbki WZ 90 - 1 WZ 90 - 2 WZ 90 - 3 WZ 90 - 4 WZ 90 - 5 WZ 90 - 6 Wartość średnia ±δ E [GPa] 44,21 42,13 56,33 51,88 47,85 54,77 49,5 ± 5,7 ac [mm] 105,1 85,1 97,3 91,3 81,2 111,1 95,2 ± 11,6 CTODc ⋅103 [mm] 30,1 25,7 27,4 22,2 21,0 24,6 25,2 ± 3,4 KSIc [MN/m3/2] 3,47 2,76 3,90 2,89 2,62 3,68 3,22 ± 0,53 Przeprowadzone badania wykazały, że w miarę dojrzewania betonów następował wzrost wszystkich badanych parametrów, tj. wytrzymałości na ściskanie, odporności na pękanie oraz modułu Younga. W przypadku betonu B40 wzrost wytrzymałości na ściskanie nastąpił od wartości 35,4 MPa (beton 7-dniowy) do wartości 44,4 MPa (beton 28-dniowy), tj. o 25,4% i do wartości 59,7 MPa (beton 90-dniowy), wzrost o 68,6% w porównaniu do betonu po 7 dniach dojrzewania. Beton wysokowartościowy uzyskał bardzo dużą wytrzymałość na ściskanie już po 7 dniach dojrzewania – 78,6 MPa. Po 28 dniach dojrzewania wytrzymałość na ściskanie wyniosła 88,0 MPa (wzrost o 12%), a po 90 dniach 92,5 MPa, wzrost o około 17,6% w porównaniu do betonu po 7 dniach dojrzewania. Wykresy porównawcze wytrzymałości na ściskanie fc obu betonów przedstawiono na rys. 3. Rys. 3. Zależność wytrzymałości na ściskanie od wieku betonu Współczynnik intensywności naprężeń KSIc wykazał jeszcze większą wrażliwość na zmiany w strukturze dojrzewającego betonu, szczególnie w wypadku Wpływ czasu dojrzewania na właściwości betonu ... 117 betonu B40. Wartość KSIc tego betonu po 7 dniach dojrzewania wynosiła 1,50 MN/m3/2, po 28 dniach jego wartość wyniosła 2,28 MN/m3/2 (wzrost o 52%), a po 90 dniach 3,22 MN/m3/2 (wzrost o 114,7% w stosunku do wartości KSIc betonu 7-dniowego). W wypadku betonu wysokowartościowego wzrost KSIc nastąpił od wartości 2,37 MN/m3/2 (beton 7-dniowy) do wartości 2,85 MN/m3/2 (beton 28-dniowy), tj. o 20%, i do wartości 3,22 MN/m3/2 (beton 90-dniowy), wzrost o około 36% w porównaniu do betonu 7-dniowego. Graficzną ilustrację zmian współczynnika intensywności naprężeń KSIc w zależności od wieku betonu podano na rys. 4. Rys. 4. Zależność odporności na pękanie od wieku betonu Wartość modułu Younga betonu B40 wyniosła 21,93 GPa po 7 dniach dojrzewania, po 28 dniach jego wartość wyniosła 33,30 GPa (wzrost o 51,9%), natomiast po 90 dniach dojrzewania 34,10 GPa (wzrost o 55,5%) w stosunku do betonu 7 dniowego. Moduł Younga betonu wysokowartościowego wzrósł od wartości 42,72 GPa (beton 7-dniowy) do wartości 44,52 GPa dla betonu 28-dniowego (o 4,2%) i do wartości 49,53 GPa (beton 90-dniowy), czyli o 15,9% w stosunku do betonu 7-dniowego. Jak można zauważyć, procentowy przyrost wszystkich badanych parametrów między 7. i 90. dniem dojrzewania jest znacznie większy w przypadku betonu B40 (o 68,6% w przypadku wytrzymałości na ściskanie, o 55,5% w przypadku modułu Younga i aż o 114,7% w przypadku współczynnika intensywności naprężeń KSIc). Odpowiednie przyrosty tych parametrów w przypadku betonu wysokowartościowego wyniosły: 17,6%, 15,9% i 20%. Zmiany wartości modułu Younga w zależności od wieku betonu przedstawiono na rys. 5. 118 G. Prokopski i inni Rys. 5. Zależność modułu Younga od wieku betonu Znacznie mniejsze procentowe przyrosty badanych parametrów w przypadku betonu wysokowartościowego, aniżeli betonu B40, są spowodowane głównie tym, że beton wysokowartościowy uzyskał bardzo duże wartości tych parametrów już po 7 dniach dojrzewania. Dalsze przyrosty wartości między 7. i 90. dniem dojrzewania były nieznaczne. Istotne znaczenie mają proporcje odpowiednich parametrów obu betonów, które przy porównywaniu betonów 7- i 90-dniowych są następujące: • stosunek wytrzymałości na ściskanie betonu wysokowartościowego do wytrzymałości na ściskanie betonu B40 – fcBWW/fcB40, po 7 dniach dojrzewania – 2,16, a po 90 dniach dojrzewania – 1,55, • stosunek modułów Younga EBWW/EB40 – odpowiednio 1,89 i 1,45, • stosunek współczynników intensywności naprężeń KSIcBWW/KSIcB40 – odpowiednio 1,58 i 1,0. Jak widać we wszystkich przypadkach po 90 dniach dojrzewania odnotowano dla betonu wysokowartościowego znacznie większe wartości badanych parametrów, niż dla betonu B40 (poza współczynnikiem intensywności naprężeń KSIc, który po 90 dniach dojrzewania miał taką samą wartość dla obu betonów). Zmniejszanie się odpowiednich stosunków wartości badanych parametrów po 90 dniach dojrzewania w porównaniu do tych wartości uzyskanych po 7 dniach dojrzewania wynika ze zmniejszania się różnic tych wartości, co jest spowodowane wolniej postępującym dojrzewaniem betonu B40. Na rysunku 6. przedstawiono zmiany procentowe poszczególnych parametrów wytrzymałościowych w trakcie dojrzewania, przyjmując za 100% wartości tych parametrów po 90 dniach. Wykres ilustruje wyraźnie odmienność zachowań obu betonów. W wypadku betonu B40 procentowe przyrosty są znaczące w całym okresie trwania dojrzewania. Beton wysokowartościowy natomiast uzyskał bardzo duże wartości badanych parametrów po 7 dniach dojrzewania i dalsze przyrosty wartości były już nieznaczne. Wpływ czasu dojrzewania na właściwości betonu ... 119 Rys. 6. Względne zmiany w czasie wartości badanych parametrów 4. Wnioski Przeprowadzone badania wykazały silny wpływ czasu dojrzewania na uzyskiwane parametry wytrzymałościowe obu betonów żwirowych: B40 i wysokowartościowego. W badaniach stwierdzono uzyskiwanie znacznie większych wartości badanych parametrów w przypadku betonu wysokowartościowego (poza współczynnikiem intensywności naprężeń KSIc, który po 90 dniach dojrzewania w przypadku obu betonów miał tę samą wartość). Badania wykazały ponadto znacznie większą dynamikę wzrostu wszystkich parametrów betonu wysokowartościowego w pierwszych 7 dniach dojrzewania (skutek dodania pyłu krzemionkowego i superplastyfikatora). Wytrzymałość na ściskanie fc, odporność na pękanie KSIc i moduł Younga E po 7 dniach dojrzewania tego betonu wyniosły, w stosunku do końcowych wartości tych parametrów po 90 dniach dojrzewania, odpowiednio: 85%, 73,6% i 86,3%. W przypadku betonu B40 wartości tych parametrów po 7 dniach dojrzewania stanowiły odpowiednio 59,3%, 46,6% i 64,3% końcowych wartości tych parametrów (po 90 dniach dojrzewania). Beton wysokowartościowy uzyskał zasadniczą część wartości badanych parametrów w ciągu pierwszych 7 dni dojrzewania, natomiast w przypadku betonu B40 dojrzewanie następowało równomiernie, w trakcie całego okresu prowadzonych badań, tak też wzrastały wartości badanych parametrów wytrzymałościowych (rys. 6.). Zastosowana procedura badawcza i uzyskane wyniki mogą być wykorzystane w praktyce inżynierskiej, zarówno przez projektantów konstrukcji, jak i w procesie wykonawczym, szczególnie w tych wypadkach, kiedy istotna jest znajomość właściwości wytrzymałościowych betonów po czasie krótszym niż 120 G. Prokopski i inni tradycyjnie przyjęte 28 dni (gdy wymagane jest np. szybsze zdjęcie deskowań) lub dłuższym (gdy konstrukcja będzie poddana pełnym obciążeniom w okresie późniejszym), umożliwiającym projektantowi konstrukcji uwzględnienie większych wartości wytrzymałości betonu. Literatura [1] Prokopski G., Halbiniak J., Langier B.: Właściwości wytrzymałościowe betonu wysokowartościowego w procesie jego dojrzewania. Przegląd Budowlany, 5, 2003 [2] Neville A.M.: Właściwości betonu. Polski Cement, 2000 [3] Washa G.W., Wendt K.F.: Fifty years properties of concrete. J. Amer.Concr.Inst., 72(1), 1975 [4] Wood S.L.: Evaluation of the long-therm properties of concrete. ACI Materials Journal, 88(6), 1991 [5] Determination of fracture parameters (KSIc and CTODC) of plain concrete using three-point bend test. RILEM Draft Recommendations, TC 89 - FMT Fracture Mechanics of Concrete Test Methods. Materials and Structures, 23, 1990 INFLUENCE OF THE CURING TIME ON PROPERTIES OF GRAVEL CONCRETE Summary The results of the investigations of the gravel concretes: the ordinary concrete (B40) and the high strength concrete (HSC) had been showed. The examinations of concretes had been done after 7, 14, 28 and 90 days curing. The realationships of the compressive strength fc, the stress intensity factor KSIc and the Young’s modulus E versus the age of the concretes have been plotted. Złożono w Oficynie Wydawniczej w marcu 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Adam RYBKA Bogumiła DROZD Politechnika Rzeszowska KSZTAŁTOWANIE DOMÓW JEDNORODZINNYCH WYKORZYSTUJĄCYCH ENERGIĘ SŁONECZNĄ Praca obejmuje projekty architektoniczno-budowlane trzech domów jednorodzinnych, obliczenia bilansu cieplnego, omówienie systemów wykorzystujących energię słoneczną. Duży wpływ na energooszczędność projektowanego budynku ma jego kształt, kubatura oraz zastosowanie aktywnych i pasywnych systemów słonecznych, a także odpowiednich przegród budowlanych. 1. Wprowadzenie Potrzeby energetyczne w Polsce są zaspokajane głównie przez spalanie paliw kopalnych. Globalne zapasy konwencjonalnych źródeł energii: węgla, ropy naftowej, gazu ziemnego oraz uranu są ograniczone. Bardzo ważnym problemem związanym z wykorzystywaniem tych surowców jest zanieczyszczenie środowiska naturalnego produktami spalania oraz problem unieszkodliwiania powstałych odpadów, zwłaszcza promieniotwórczych. Obecnie coraz częściej sięga się po niekonwencjonalne źródła energii. Zaliczamy do nich: energię promieniowania słonecznego, energię kinetyczną powietrza i wód morskich, energię geotermiczną oraz energię z paliw niekonwencjonalnych. Są to źródła odnawialne i bezpieczne dla środowiska. Energia słoneczna stanowi atrakcyjne źródło energii ze względu na jej znaczny potencjał i powszechność występowania. Polska położona jest w strefie klimatu umiarkowanego między 49 a 54,5° szerokości geograficznej północnej. Warunki klimatyczne panujące w naszym kraju pozwalają na wykorzystanie energii słonecznej do celów grzewczych w budownictwie. Na terenie Polski roczne sumy promieniowania są podobne jak na obszarach północnych i środkowych Niemiec, północnej Francji czy Danii [1]. Na obszarze Polski obserwuje się niewielkie różnice regionalne w zasobach energii słonecznej, które prezentuje tab. 1. [2]. 122 A. Rybka, B. Drozd Tabela 1. Przeciętne roczne nasłonecznienie różnych regionów Region Polski Stołeczny Suwalszczyzna Podhale Dolny Śląsk Zamojszczyzna Pas nadmorski Przeciętna roczna dawka napromieniowania słonecznego [RW⋅h/m2] 967 975 988 1030 1033 1064 Przeciętne roczne usłonecznienie [h] 1580 1576 1467 1529 1572 1624 Na okres wiosenno-letni (kwiecień–wrzesień) w przeważającej części naszego kraju przypada około 80% promieniowania całkowitego. Wyjątek stanowią tereny górskie, w których udział promieniowania w okresie jesiennozimowym (październik–marzec) jest wyższy w stosunku do pozostałych obszarów kraju [3]. Promieniowanie całkowite jest sumą promieniowania bezpośredniego i rozproszonego, które z kolei są uzależnione od czynników miejscowych, tj. szerokość geograficzna, klimat lokalny oraz zanieczyszczenie atmosfery. 2. Systemy pozyskiwania energii słonecznej wykorzystywane w budownictwie jednorodzinnym 2.1. Klasyfikacja ogólna Wyróżniamy następujące rodzaje systemów słonecznych: 1) czynne (aktywne), które zamieniają energię promieniowania słonecznego na energię cieplną, w różnego typu urządzeniach instalacyjnych (w tym wypadku w transmisji energii bierze udział czynnik pośredniczący), 2) bierne (pasywne), które zamieniają energię promieniowania słonecznego na energię cieplną, wykorzystując do tego celu tradycyjne lub nowe elementy struktury budynku. Przepływ uzyskanej energii cieplnej zachodzi w sposób naturalny z dopuszczeniem elementów regulujących komfort cieplny, 3) hybrydowe (kompilacyjne), uważane za ulepszone systemy bierne lub za odrębną kategorię systemów wykorzystujących powietrze jako czynnik transmitujący energię cieplną w obiegu wymuszonym, 4) fotowoltaiczne ogniwa słoneczne, które bezpośrednio zamieniają energię promieniowania słonecznego na prąd elektryczny. 2.2. Charakterystyka systemów słonecznych Systemy czynne Systemy czynne (aktywne) stanowią modyfikację konwencjonalnych instalacji powietrznych i wodnych z obiegiem grawitacyjnym lub wymuszonym. Kształtowanie domów jednorodzinnych ... 123 Wymagają one instalowania szeregu elementów składowych, a w niektórych wypadkach dostarczania energii elektrycznej niezbędnej do funkcjonowania systemu, co jest związane z kosztami. Podstawowy schemat systemu czynnego zawiera kolektory słoneczne. Rolę kolektora w tym systemie spełnia ściana zewnętrzna umieszczona zaraz za przeszkleniem. Jeśli jest to masywna ściana bez izolacji termicznej, to pełni ona także funkcję zasobnika ciepła. Określa się ją wtedy mianem ściany kolektorowo-akumulacyjnej [4]. Promieniowanie słoneczne po przejściu przez szybę (lub szyby) jest absorbowane przez zewnętrzną powierzchnię przegrody, następnie część energii przekazywana jest jako ciepło do wnętrza budynku. Pomiędzy przeszkleniem a ścianą zewnętrzną znajduje się szczelina powietrzna. W celu optymalnego pochłaniania energii słonecznej zaleca się, aby powierzchnia ściany była lekko chropowata i miała ciemną barwę. Grubość ściany kolektorowo-akumulacyjnej zależy od pojemności cieplnej zastosowanych materiałów oraz od warunków klimatycznych. Waha się ona w granicach od 30 do 50 cm. W zależności od tego czy istnieje możliwość wymiany powietrza (poprzez odpowiednie otwory) z pomieszczeniem wewnętrznym, wyróżniamy przegrody wentylowane i niewentylowane. Przykładem przegrody kolektorowo-akumulacyjnej jest ściana Trombe'a. Do jej budowy używa się materiałów o dużej gęstości i pojemności cieplnej. Najlepszym materiałem jest beton z kruszywem kamiennym, żelbet i cegła pełna klinkierowa. Mur Trombe'a pełni funkcje: kolektora, zasobnika i emitora ciepła. Z uwagi na dużą masę może zgromadzić ciepło nawet na pięć dób. Aby poprawić cyrkulację powietrza, wykonuje się w murze otwory i zachowuje około 12 cm odległości ściany od zewnętrznego przeszklenia. W dni pochmurne oraz na noc, w celu zmniejszenia strat ciepła, stosuje się ruchome, zewnętrzne izolacje cieplne (żaluzje). Korzystne jest również pokrycie zewnętrznej części muru powłokami selektywnymi, które nie pogarszają sprawności pochłaniania ciepła, a znacznie ograniczają straty. Skuteczność ich jest taka sama jak izolacji cieplnych [5]. Systemy kolektorowe Ciepło absorbowane przez płytę pochłaniającą odbiera czynnik roboczy przepływający przez kolektor. Ze względu na rodzaj stosowanego czynnika roboczego wyróżniamy kolektory powietrzne i cieczowe. Spośród cieczy najczęściej stosowanym czynnikiem roboczym jest woda. Należy jednak pamiętać, że woda może być stosowana w kolektorach eksploatowanych tylko w okresie wiosenno-letnim. Jeżeli chcemy eksploatować kolektory również w okresie zimowym, należy je wówczas napełnić cieczą o dostatecznie niskiej temperaturze krzepnięcia lub płynem o niskiej temperaturze wrzenia (30-60ºC). Do cieczy stosowanych w okresie zimowym należą: wodny roztwór glikolu etylenowego lub propylenowego oraz płyny stosowane do chłodzenia silników spalinowych 124 A. Rybka, B. Drozd (samochodowych), np. borygo [3]. Kolektory z płynnym czynnikiem roboczym wymagają jednak specjalnego wymiennika ciepła, w którym wrząca ciecz oddaje ciepło przepływającej wodzie. W celu zmniejszenia strat ciepła do otoczenia, spowodowanych ruchami konwekcyjnymi powietrza wewnątrz kolektora, można zastosować próżnię pomiędzy absorberem a materiałem pokrywającym [6]. W powietrznych kolektorach słonecznych energia pochłonięta przez absorber jest oddawana w postaci ciepła strumieniowi przepływającego powietrza w odpowiednio ukształtowanym kanale kolektora [7]. Kolektory, w których czynnikiem roboczym jest powietrze są najczęściej stosowane do ogrzewania pomieszczeń. Mogą one być eksploatowane nawet przy niskich temperaturach. Na przykład w celu ogrzania pomieszczeń powietrze musi być podgrzane do temperatury 30°C, co jest łatwe do uzyskania nawet przy małym nasłonecznieniu w zimie. Obecnie najczęściej stosowanymi instalacjami słonecznymi, służącymi do przetwarzania energii promieniowania słonecznego w energię użyteczną dla człowieka są instalacje z kolektorami płaskimi, w których czynnikiem roboczym jest woda. Zbiorniki magazynujące energię cieplną wraz z pomocniczym systemem ogrzewania Ilość energii promieniowania słonecznego dostarczanej w ciągu roku w naszych warunkach klimatycznych jest bardzo zróżnicowana. Najkorzystniejszym okazuje się być okres letni, a w szczególności południowe godziny doby. Aby zmniejszyć zależność systemu słonecznego od wahań intensywności promieniowania słonecznego, stosuje się różne metody akumulacji energii. Do tego celu służą różnego rodzaju zasobniki. Najprostszym sposobem akumulacji ciepła jest podgrzewanie wody w zbiornikach zamkniętych lub otwartych. Zamknięte zasobniki ciepła wykonywane są jako zbiorniki stalowe ciśnieniowe, z odpowiednią izolacją termiczną, mogą również posiadać wężownicę grzejną. Duże zbiorniki akumulacyjne mogą być wykonane z betonu właściwie zaizolowanego i zakopanego (lub nie) w ziemi. Otwarte zbiorniki zewnętrzne, np. stawy, wykorzystuje się, gdy wymagana jest bardzo duża pojemność. Muszą one być wyposażone w izolowane przykrycia, w celu ograniczenia strat ciepła w wyniku parowania i promieniowania. Jako zasobnik ciepła może też być wykorzystany grunt. W tym wypadku wężownica, która jest połączona z kolektorem, jest układana na głębokości 1–2 metrów. Jest ona wykonana z rur z tworzyw sztucznych. W okresie letnim przez wężownicę przepływa woda, podgrzewając grunt. W okresie zimowym ta sama wężownica pobiera ciepło z gruntu, ochładzając go maksymalnie do temperatury 2°C. Kształtowanie domów jednorodzinnych ... 125 W urządzeniach, w których czynnikiem roboczym jest powietrze można stosować zasobniki wypełnione porowatym granulatem adsorbującym parę wodną (np. żwir nasycony chlorkiem litu, silikagel, chlorek wapnia). Problem magazynowania energii rozwiązuje częściowo stosowanie transformatorów ciepła, czyli pomp cieplnych. Urządzenie to bardzo podnosi efektywność systemów czynnych używanych do całorocznego ogrzewania. Pompy ciepła są to systemy, które pozwalają przekazywać ciepło od ciała mniej do ciała bardziej nagrzanego. Oddając ciepło gorącemu ciału, chłodne źródło ciepła oziębia się jeszcze bardziej. Pompa ciepła zastępuje urządzenie grzewcze i wykorzystuje konwencjonalne nośniki energii. Najprostszymi, a jednocześnie najpowszechniej stosowanymi systemami czynnymi są instalacje przygotowujące ciepłą wodę użytkową. Systemy te są bardzo zróżnicowane: od prostych przenośnych urządzeń, przez np. czarne beczki z wodą umieszczone w skrzyniach z refleksyjnymi ścianami, które są jednocześnie kolektorami i magazynami ciepłej wody, aż do całorocznych systemów przygotowania ciepłej wody. Ze względu na mechanizm przekazywania ciepła wodzie użytkowej wyróżniamy dwa podstawowe rodzaje instalacji: • instalacje z obiegiem bezpośrednim, w których woda użytkowa nagrzewa się bezpośrednio w kolektorach słonecznych, • instalacje z obiegiem pośrednim, gdzie następuje oddzielenie obiegu kolektorowego od obiegu wody użytkowej; przekazywanie ciepła odbywa się w wymienniku. Systemy bierne Systemy bierne nie wymagają stosowania specjalnych instalacji, w których cyrkuluje medium pośredniczące. Funkcje kolektorów w tych systemach spełniają przeszklenia i poszczególne części budynków. Przez przeszklenia wnika do wnętrz promieniowanie słoneczne, które zostaje pochłaniane przez specjalnie do tego celu przystosowane elementy pochłaniające. Rolę pochłaniaczy mogą spełniać ściany wewnętrzne, posadzki i stropy, masywne lub lekkie ściany zewnętrzne, jak również masywne ściany oddzielające oszkloną werandę od pozostałej części budynku. Zasada biernego wykorzystania energii słonecznej do ogrzewania pomieszczeń opiera się na występowaniu w budynku efektu szklarniowego, polegającego na przepuszczaniu promieniowania krótkofalowego przez odpowiednio rozmieszczone przezroczyste fragmenty obudowy zewnętrznej, pochłanianiu go na powierzchni przegród i konwersji w ciepło emitowane następnie w postaci promieniowania długofalowego (cieplnego), nieprzepuszczanego już z powrotem na zewnątrz [4]. Systemy bierne (pasywne) dzielimy na: a) systemy zysków bezpośrednich, b) systemy zysków pośrednich, c) systemy kompilacyjne. 126 A. Rybka, B. Drozd System zysków bezpośrednich W systemie zysków bezpośrednich promieniowanie słoneczne wnika do wnętrza budynku przez okna. Następnie jest akumulowane w przegrodach wewnętrznych, które pełnią funkcję zasobnika ciepła. Pozyskiwanie, akumulacja i wykorzystanie energii słonecznej odbywa się w obrębie tego samego pomieszczenia. Głównym magazynem ciepła są przede wszystkim ściany, których barwa i faktura powinny sprzyjać pochłanianiu promieni słonecznych. W okresie bezsłonecznym oraz w nocy, w celu ograniczenia strat ciepła należy zasłaniać okna żaluzjami, roletami, foliami refleksyjnymi itp. W naszym klimacie konieczne jest stosowanie podwójnego przeszklenia. System zysków pośrednich Pokrycie kolektorów najczęściej jest wykonywane ze szkła zwykłego, hartowanego lub specjalnego, ewentualnie z przezroczystych tworzyw sztucznych, tj. polimetakrylan metylu, tworzywa epoksydowe i poliestrowe zbrojone włóknem szklanym. Kolektory przeznaczone do pracy w okresie wiosenno-letnim mają zazwyczaj osłony pojedyncze, natomiast kolektory pracujące przez cały rok osłony podwójne. Materiały stosowane do pokrywania kolektorów powinny charakteryzować się dużą przepuszczalnością promieniowania, małym zaciemnieniem oraz stabilnością barwy. Ponadto muszą posiadać dobre właściwości mechaniczne i nie powinny tworzyć ładunków elektrostatycznych. Grubość pokrycia zależy od wymiarów kolektora. Powierzchnia najczęściej spotykanych kolektorów wynosi 1,5–2 m2. Płyty pochłaniające (absorbery) są wykonywane z materiałów, które cechuje: dobra przewodność ciepła, mała gęstość, łatwa obróbka mechaniczna, odporność na korozję oraz odporność na wysokie temperatury. Najlepszym materiałem na płyty jest miedź, a w dalszej kolejności aluminium, stal i tworzywa sztuczne. Płyty pochłaniające mogą być wykonane w formie płaskiej płyty, do której jest przymocowana wężownica lub złożone z dwóch tłoczonych blach połączonych ze sobą w ten sposób, że między nimi powstaje układ kanałów, przez który przepływa czynnik roboczy. Czołowa strona płyty jest pokryta warstwą pochłaniającą, od której zależy moc cieplna oraz sprawność kolektora. Warstwa pochłaniająca powinna się charakteryzować dużą selektywnością, tzn. mieć możliwie dużą wartość współczynnika pochłaniania promieniowania i odpowiednio małą wartość współczynnika emisji przy danych długościach fali. Na warstwy pochłaniające stosuje się różne materiały, przeważnie w kolorze czarnym, np.: farbę czarną, nikiel czarny, czerń chromową, miedź polerowaną lub tlenki magnezu. Najbardziej powszechną metodą uzyskiwania warstwy pochłaniającej jest pokrywanie płyty czarną, matową farbą o konsystencji dającej powierzchnię chropowatą [3]. Izolacja cieplna ma za zadanie ograniczenie strat ciepła do otoczenia. Powinna się charakteryzować małą przewodnością cieplną, małą masą właściwą Kształtowanie domów jednorodzinnych ... 127 oraz dużą wytrzymałością mechaniczną. Ponadto materiał izolacyjny powinien być odporny na zmiany temperatury i zawilgocenie. Najczęściej stosowanymi materiałami izolacyjnymi są: wełna mineralna, wata szklana i pianka poliuretanowa. W naszych warunkach klimatycznych stosuje się warstwy izolacyjne grubości od 30 do 50 mm. Ramy kolektora są konstrukcją usztywniającą, która łączy poszczególne części kolektora. Najczęściej ramy wykonuje się z profili aluminiowych, stali ocynkowanej, drewna lub tworzyw sztucznych. Systemy hybrydowe i kompilacyjne System hybrydowy jest systemem pośrednim między aktywnym a biernym systemem wykorzystującym energię słoneczną. Pozyskiwanie energii promieniowania słonecznego przebiega w sposób bierny, natomiast transport ciepła do zasobnika i ogrzewanego pomieszczenia jest wymuszony mechanicznie. System może współpracować z pompą ciepła. Czynnikiem pośredniczącym w wymianie ciepła jest powietrze. System ten w sposób bardziej równomierny rozdziela ciepło do pomieszczeń, nawet do usytuowanych z dala od kolektorów. Ułatwiona jest też regulacja ilości ciepła dostarczanego do pomieszczenia, choć obecność mechanicznych urządzeń zmniejsza niezawodność systemu [8]. System kompilacyjny jest jednym z trzech podstawowych systemów biernych. Polega on na tym, że promienie słoneczne przenikają przez przeszklenie i dzięki efektowi szklarniowemu ogrzewają oszkloną przestrzeń. Szklane przybudówki, tj. szklarnie, werandy lub oszklone loggie umieszcza się od strony południowej. Mogą one być wykorzystane jako przestrzeń komunikacyjna, balkony, obudowane szkłem przedsionki, a także przestrzeń połączona z pokojem dziennym. Pełnią one funkcje kolektora lub równocześnie kolektora i zasobnika ciepła. Dodatkowo stanowią element ochrony termicznej budynku, ograniczając w znacznym stopniu straty ciepła w dni pochmurne. W naszych warunkach klimatycznych zaleca się stosować podwójne przeszklenie, a także różnego typu kotary i parawany, które latem zabezpieczają szklarnię przed przegrzaniem, a zimą i w dni bezsłoneczne przed stratami ciepła. Fotowoltaiczne ogniwa słoneczne Energia promieniowania słonecznego może być bezpośrednio przetwarzana w energię elektryczną w tzw. ogniwach słonecznych, których działanie oparte jest na efekcie fotowoltaicznym, jaki zachodzi w półprzewodnikach pod wpływem światła [9]. Działanie pojedynczego fotoelementu polega na przeniesieniu fotoelektronów w materiałach półprzewodnikowych do pasm przewodzenia za pomocą energii uzyskanej z absorpcji światła słonecznego. Najpowszechniej stosuje się krzemowe ogniwa fotowoltaiczne. Moduły fotowoltaiczne (złożone z ogniw słonecznych) są idealnymi elementami do pokrywania dachów, zamiast tradycyjnych pokryć dachowych. Można nimi również pokrywać ściany. Obecnie baterie fotowoltaiczne są stosowane głównie 128 A. Rybka, B. Drozd w komunikacji, turystyce (np. domki campingowe, łódki) oraz w urządzeniach powszechnego użytku, tj. zegarki, kalkulatory. 3. Założenia projektowo-badawcze Celem pracy było wykazanie, na przykładzie projektów trzech domów jednorodzinnych oraz odpowiednich obliczeń, jaki wpływ na energooszczędność budynku ma jego kształt, kubatura oraz zastosowanie systemów słonecznych i odpowiednich przegród budowlanych. Celem pracy było również wykonanie projektu energooszczędnego budynku jednorodzinnego wykorzystującego energię słoneczną, a także opracowanie podstawowych zasad projektowania tego typu obiektów. 4. Zestawienie wyników badań Podsumowaniem wyników badań stało się opracowanie projektów budowlanych trzech domów jednorodzinnych. Jako punkt wyjścia przyjęto typowy projekt domu jednorodzinnego. W kolejnych etapach projektowania dom ten był modyfikowany w celu poprawienia jego parametrów cieplnych. Rysunki 1–3 prezentują rozwiązania architektoniczne poszczególnych domów. BUDYNEK 1. Dom słoneczny Budynek charakteryzuje się następującymi parametrami użytkowymi. Jest to obiekt parterowy zaopatrzony w poddasze użytkowe. W domu tym nie przewidywano podpiwniczenia. Ściany zewnętrzne zaprojektowane zostały jako warstwowe. Przewidziano następujący układ warstw od wewnątrz do zewnątrz: beton komórkowy odmiany 500 – grubość warstwy 24 cm, styropian – grubość warstwy 10 cm, cegła kratówka – grubość warstwy 12 cm. Wykonano odpowiednie obliczenia cieplne ściany. Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo = 0,26 [W/m2⋅K]. W celu poprawienia warunków pozyskiwania ciepła słonecznego zastosowano dodatkową przegrodę kolektorowo-akumulacyjną o następującej budowie: cegła pełna – grubość warstwy 38 cm, warstwa powietrza 5 cm, szyba zespolona FIBERGLASS (pakiet 4/12/4T). Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo = = 0,73 [W/m2⋅K]. Kształtowanie domów jednorodzinnych ... 129 Rys. 1. Budynek 1.; dom parterowy z poddaszem użytkowym, niepodpiwniczony: a) elewacja południowa, b) rzut parteru 130 A. Rybka, B. Drozd Rys. 2. Budynek 2.; dom parterowy z poddaszem użytkowym, niepodpiwniczony: a) elewacja południowa, b) rzut parteru Kształtowanie domów jednorodzinnych ... 131 Rys. 3. Budynek 3.; dom parterowy z poddaszem użytkowym, podpiwniczony: a) elewacja południowa, b) rzut parteru Opracowana w Zakładzie Budownictwa Ogólnego PRz metoda porównawcza przewidywania efektywności przegród kolektorowo-akumulacyjnych dowodzi, że przegroda heliogrzewcza może być formalnie traktowana jako przegroda konwencjonalna o równoważnym współczynniku przenikania ciepła Ur: Ur = U⋅[1 – B⋅A]; Ur = –0,362 [W/m2⋅K] 132 A. Rybka, B. Drozd BUDYNEK 2. Budynek bez elementów wykorzystujących energię słoneczną Jest to obiekt parterowy zaopatrzony w poddasze użytkowe. W domu tym nie przewidywano podpiwniczenia. Budynek 2. ma taki sam kształt i bryłę jak budynek 1. Ściana zewnętrzna zaprojektowana została jako warstwowa. Przewidziano następujący układ warstw od wewnątrz do zewnątrz: cegła kratówka – grubość warstwy 25 cm, styropian – grubość warstwy 10 cm. Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo = 0,32 [W/m2⋅K]. BUDYNEK 3. Dom katalogowy Jest to budynek parterowy z poddaszem użytkowym, częściowo podpiwniczony. Budynki 2. i 3. mają przegrody budowlane zbudowane z tych samych materiałów. Przewidziano następujący układ warstw od wewnątrz do zewnątrz: cegła kratówka – grubość warstwy 25 cm, styropian – grubość warstwy 10 cm. Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo = = 0,32 [W/m2⋅K]. Dla projektowanych budynków 1., 2. i 3. wykonane zostały obliczenia współczynnika przenikania ciepła U poszczególnych przegród budowlanych oraz obliczenia sezonowych strat i zysków ciepła dla całych budynków. Wyniki obliczeń przedstawiono w tab. 2. Tabela 2. Zestawienie strat ciepła i zapotrzebowania na ciepło dla poszczególnych budynków Parametry Straty ciepła Zapotrzebowanie na ciepło Kubatura Wskaźnik E Jednostka Budynek 1. Budynek 2. Budynek 3. kWh/rok kWh/rok m3 kWh/(m3⋅rok) 16905,01 11351,58 718,13 15,81 23015,47 16136,75 732,11 22,04 22388,50 15785,54 550,03 28,70 5. Podsumowanie i wnioski Dom słoneczny (budynek 1.) odznacza się najniższym wskaźnikiem zapotrzebowania na ciepło do ogrzewania, tzn. jest najtańszy w eksploatacji. Straty ciepła zostały znacznie ograniczone, ponieważ: • zastosowano przegrody zewnętrzne o małym współczynniku przenikania ciepła (U = 0,26 W/m2⋅K), • korzystnie zaprojektowano bryłę budynku, której nadano formę jednolitą, zwartą, • ścianę południową stanowi przegroda kolektorowo-akumulacyjna, tzw. ściana Trombego, • dodatkowo, w celu obniżenia kosztów uzyskania ciepłej wody użytkowej zastosowano kolektory słoneczne, Kształtowanie domów jednorodzinnych ... 133 • usytuowano powierzchnię przeszkloną (szklarnię) po stronie południowej, aby zapewnić duże zyski ciepła od nasłonecznienia w sezonie grzewczym, • odpowiednio dobrano okna i drzwi o małym współczynniku przenikania ciepła, • utworzono strefę buforową od strony północnej z pomieszczeń niewymagających ogrzewania (garaż). Porównując budynki 1. i 2., posiadające porównywalną kubaturę i kształt można stwierdzić, że przez wprowadzenie energooszczędnych przegród budowlanych, odpowiedni dobór okien i systemów heliogrzewczych można znacznie zmniejszyć zapotrzebowanie na ciepło do ogrzewania, a więc obniżyć koszty eksploatacji budynku. Na przykładzie domów 2. i 3. można stwierdzić, jak duże znaczenie ma właściwie zaprojektowana bryła budynku. Zaproponowano podobną technologię i te same materiały do budowy ścian. Mimo że budynek 2. ma większą kubaturę, to jego wskaźnik zapotrzebowania na ciepło do ogrzewania jest mniejszy niż w przypadku budynku 3. Przyczyną większych strat ciepła w domu 3. jest niekorzystnie zaprojektowana bryła budynku, której forma jest rozczłonkowana i mało zwarta. Wynika stąd wniosek, że już w fazie projektowania architektonicznego budynku należy zwrócić szczególną uwagę na problem energooszczędności i dążyć do takich rozwiązań, by nie zwiększając kosztów inwestycji, zostały zmniejszone przyszłe koszty eksploatacji budynku. Kilka podstawowych zasad projektowania Projektując dom, który ma wykorzystywać energię słoneczną należy: 1) odpowiednio zaprojektować bryłę budynku o jak najkorzystniejszym stosunku powierzchni ścian zewnętrznych do kubatury wewnętrznej [A/V], 2) właściwie ukierunkować budynek w stosunku do stron świata N–S, E–W 3) korzystnie usytuować dom w terenie, najlepiej na stoku południowym, 4) odpowiednio zaprojektować układ pomieszczeń użytkowych – strefy użytkowe, strefy chroniące, 5) dobrać energooszczędne przegrody budowlane o małym współczynniku przenikania ciepła U, 6) stosować znaczną, maksymalną z punktu widzenia ekonomiki, grubość izolacji termicznej, 7) od strony południowej domu instalować dużą ilość okien i systemy słoneczne – przegrody kolektorowo-akumulacyjne. 134 A. Rybka, B. Drozd Literatura a) Literatura cytowana [1] Bogdanienko J.: Odnawialne źródła energii. PWN, Warszawa 1989 [2] Chochowski A., Czekalski D.: Słoneczne instalacje grzewcze. COIB, Warszawa 1999 [3] Miszczak M., Waszkiewicz Cz.: Energia Słońca, wiatru i inne. N.K.,Warszawa 1988 [4] Laskowski L.: Systemy biernego ogrzewania słonecznego. Komitet Inżynierii Lądowej i Wodnej PAN, Warszawa 1993 [5] Wołoszyn M.A.: Wykorzystanie energii słonecznej w budownictwie jednorodzinnym. COIB, Warszawa 1991 [6] Starakiewicz A.: Funkcjonowanie przegród kolektorowo-akumulacyjnych w polskich warunkach klimatycznych. Praca doktorska, l PPT PAN, Warszawa 1993 [7] Wiśniewski G.: Kolektory słoneczne. COIB, Warszawa 1992 [8] Kolarska K., Kolarski Z.: Ogrzewanie energią słoneczną. WCziKT, Warszawa 1989 [9] Lipiński M.: Pozyskiwanie energii elektrycznej ze słońca. IGSMiE, Warszawa 1998 b) Literatura podstawowa [10] Drozd B.: Projekt architektoniczno-budowlany domu jednorodzinnego wykorzystującego odnawialne źródła energii. Praca dyplomowa (promotor A. Rybka), WBilŚ, PRz, Rzeszów 2001 [11] Instrukcja ITB nr 330/94. Obliczenie sezonowego zapotrzebowania na ciepło do ogrzewania budynków mieszkalnych [12] PN-B-02025. Obliczanie sezonowego zapotrzebowania na ciepło do ogrzewania budynków mieszkalnych i użyteczności publicznej [13] PN-EN ISO 6946. Opór cieplny i współczynnik przenikania ciepła [14] Rybka A.: Centralny Okręg Przemysłowy a polska awangardowa urbanistyka międzywojenna. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 1995 THE ARCHITECTURAL SHAPING OF THE DETACHED HOUSE USING THE SUN ENERGY SOURCE Summary The thesis contains the architect-building projects of the three detached houses, the thermal balance calculations, the discussion of the sun energy systems. A great influence on the energy thrift of the projected building has its form, cubature and the usage of the active and passive sun systems also appropriate building barriers. Złożono w Oficynie Wydawniczej w marcu 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Tomasz SIWOWSKI Politechnika Rzeszowska Marcin PIEKIEŁEK Pracownia Projektowa Promost Consulting Rzeszów STUDIUM MODERNIZACJI MOSTU PRZEZ WISŁĘ W NAGNAJOWIE Z WYKORZYSTANIEM POMOSTU ALUMINIOWEGO W ostatnich latach bardzo ważnym problemem technicznym i ekonomicznym w mostownictwie jest proces „starzenia się” obiektów mostowych zbudowanych w pierwszej połowie XX w. lub wcześniej. Wiele z tych mostów musi być modernizowane lub przebudowywane ze względu na zbyt małą nośność. W niniejszej pracy opisano przykład modernizacji starego mostu stalowego, w której zastosowano nową płytę pomostu, wykonaną z nowoczesnych stopów aluminium o wysokiej wytrzymałości i trwałości. Zaprezentowano również szczegółową analizę numeryczną MES trójwymiarowego modelu pomostu aluminiowego, która potwierdziła spełnienie wymagań projektowych. 1. Wprowadzenie W ostatnich latach bardzo ważnym problemem technicznym i ekonomicznym w mostownictwie jest proces „starzenia się” obiektów mostowych. Problem ten dotyczy szczególnie stalowych mostów kratownicowych, zbudowanych w pierwszej połowie XX w. lub wcześniej. Obiekty te mają zazwyczaj zbyt małą nośność i niewystarczającą skrajnię, dlatego konieczne staje się ich dostosowanie do współczesnych wymagań. Utrzymanie takich obiektów jest dużym problemem technicznym i ekonomicznym. Wiele z tych mostów ze względu na niewystarczające parametry geometryczne lub zbyt małą nośność, musi być wyłączane z eksploatacji i modernizowane lub przebudowywane, a w skrajnych przypadkach usuwane. Jednak przed podjęciem decyzji o przebudowie i/lub przeznaczeniu starej konstrukcji „na złom” przeprowadza się zwykle analizę możliwości adaptacji mostu do nowych warunków użytkowych. Z licznych doświadczeń wynika, że konstrukcja stalowa wielu mostów kratownicowych jest w dobrym stanie technicznym [1, 2]. Po przeprowadzeniu prac modernizacyjnych lub wzmacniających mosty te mogą uzyskać pożądaną – wyższą nośność. Ponadto stare mosty 136 T. Siwowski, M. Piekiełek kratownicowe w wielu wypadkach są uznane za zabytki budownictwa mostowego i są wpisane do rejestru zabytków. Często sylwetki tych mostów są na trwałe wtopione w otaczający je krajobraz. Dlatego też, biorąc pod uwagę wyżej wymienione względy, w wielu wypadkach administracja drogowa stara się „ratować” istniejące obiekty, dostosowując je do współczesnych wymagań. Tym bardziej, że współcześni konstruktorzy mają obecnie do dyspozycji materiały nowej generacji, pozwalające w połączeniu z istniejącą konstrukcją wykorzystać do maksimum występujące w niej, dość znaczne w niektórych wypadkach, rezerwy nośności. W niniejszej pracy opisano przykład modernizacji obiektu, w którym do ratowania istniejącej konstrukcji mostowej użyto nowoczesnych stopów aluminium o wysokiej wytrzymałości i trwałości. Pozwoliło to na zwiększenie nośności obiektu bez zmiany jego formy konstrukcyjnej. Stopy aluminium w budownictwie przemysłowym są stosowane już ponad kilkadziesiąt lat. Pierwsze zastosowanie konstrukcyjne stopu aluminium datuje się na 1931 r., kiedy w USA zaczął pracować dźwig z 46-metrowym ramieniem, wykonanym w całości ze stopu aluminium. W Polsce w latach pięćdziesiątych i sześćdziesiątych powstało wiele konstrukcji aluminiowych, w tym także jeden obiekt mostowy [3]. Jednakże dopiero współczesny postęp inżynierii materiałowej, który doprowadził do powstania nowej generacji stopów aluminiowych o bardzo dobrych cechach wytrzymałościowych oraz o wysokiej trwałości, pozwolił na szersze zastosowanie tego materiału, m.in. w budownictwie komunikacyjnym. O perspektywach rozwoju stopów aluminium dzięki współczesnej inżynierii materiałowej pisano m.in. w pracach [4, 5]. 2. Opis i założenia do modernizacji mostu Wymagający modernizacji most drogowy przez Wisłę jest zlokalizowany w miejscowości Nagnajów w ciągu drogi krajowej nr 9 Radom – Barwinek, w km 128 + 862. Jest to most stały, składający się z pięcioprzęsłowej stalowej kratownicy ciągłej z jezdnią dolną oraz żelbetowego przęsła dojazdowego. Kratownica jest bezsłupkowa, typu Warrena. Całkowita długość mostu mierzona pomiędzy osiami skrajnych łożysk wynosi 425 m, a rozpiętości teoretyczne poszczególnych przęseł wynoszą: 72 m + 3×90 m + 72 m + 11 m. Wysokość dźwigara kratowego jest równa 9 m, a osiowy rozstaw dźwigarów 8,50 m. Pręty główne kratownicy są spawane, połączone w węzłach na nity. Pasy i krzyżulce ściskane mają przekrój skrzynkowy, natomiast krzyżulce rozciągane – przekrój dwuteowy. Dźwigary kratowe stężono w poziomie pasa górnego dwuteownikami, a pasa dolnego kątownikami w układzie x. Pomost jest wykonany z płyty żelbetowej grubości 24 cm, opartej na ruszcie stalowym. Ruszt składa się z podłużnic spawanych wysokości 0,90 m, umieszczonych w rozstawie 4,40 m oraz poprzecznic spawanych wysokości 1,20 m i rozstawie 9,0 m. Płyta jest zespolona ze stalowymi belkami rusztu za pomo- Studium modernizacji mostu ... 137 cą łączników stalowych. Na płycie pomostu pomiędzy dźwigarami znajduje się jezdnia szerokości 7 m, a na prawostronnym wsporniku stalowym – chodnik szerokości 1,50 m (rys. 1.). a) b) Rys. 1. Most przez Wisłę w Nagnajowie: a) widok ogólny, b) przekrój poprzeczny przęsła kratownicowego Na podstawie prac inwentaryzacyjnych oraz oceny stanu technicznego poszczególnych elementów konstrukcji stwierdzono, że ogólny stan techniczny mostu, a zwłaszcza konstrukcji dźwigarów głównych, jest bardzo dobry [6]. 138 T. Siwowski, M. Piekiełek Podczas przeglądu nie wykryto żadnych deformacji plastycznych w płaszczyźnie dźwigara, natomiast w płaszczyźnie prostopadłej do niej stwierdzono jedynie niewielkie uszkodzenia spowodowane uderzeniami pojazdów. Na konstrukcji stalowej występują lokalne zniszczenia powłoki antykorozyjnej, a niewielkie uszkodzenia korozyjne nie wpływają na zmniejszenie nośności przęseł. Natomiast żelbetowa płyta pomostu jest w złym stanie technicznym. Otulina zbrojenia płyty w wielu miejscach jest zbyt mała lub skorodowana. Na całej długości płyty występują lokalne ubytki otuliny, głębokości 2–3 cm, odsłaniające skorodowane pręty zbrojeniowe. Na powierzchni płyty występują rysy, które powstały w wyniku korozji zbrojenia, a także lokalne odbarwienia betonu. Intensywna korozja betonu oraz zacieki występują zwłaszcza w sąsiedztwie rur spustowych. Wyposażenie pomostu jest również w bardzo złym stanie technicznym, występują liczne ubytki nawierzchni jezdni i krawężników, są widoczne oznaki nieszczelności izolacji płyty pomostu, niedrożna jest większość wpustów odwadniających. Podstawowe założenia do modernizacji mostu ustaliła administracja drogowa. Zawierały one m.in. następujące wymagania: • nośność obiektu po modernizacji powinna odpowiadać klasie obciążenia A, według normy [7], tj. 50 ton, • nośność płyty pomostu powinna umożliwić przejazd pojazdu typu STANAG 2021, według zarządzenia [8], • szerokość użytkowa obiektu powinna wynosić: − szerokość jezdni 7 m (2 x 3,50 m), − szerokość chodników 1,50 m. W celu określenia aktualnej nośności mostu przeprowadzono szczegółowe obliczenia statyczno-wytrzymałościowe, przyjmując charakterystyki materiałów konstrukcyjnych według normatywów [9–12] oraz na podstawie dokumentacji archiwalnej. Model numeryczny konstrukcji przęseł kratownicowych wykonano w programie ROBOT V6 jako ramę przestrzenną, definiując zwolnienia stopni swobody wybranych węzłów konstrukcji. Zgodnie z zaleceniami [11, 13] przyjęto jako przegubowe połączenia nitowane, tj. połączenie krzyżulców z pasami dźwigara oraz połączenia poprzecznic z dźwigarami. Również połączenia podłużnic z poprzecznicami oraz połączenia elementów stężeń zamodelowano jako przegubowe. Pozostałe, spawane węzły stalowej konstrukcji przęseł przyjęto jako sztywne. Przekroje poprzeczne prętów kratownic ustalono na podstawie inwentaryzacji geometrycznej. W przekrojach belek pomostu uwzględniono elementy płyty żelbetowej, zespolonej z konstrukcją stalową. Na podstawie przeprowadzonej analizy statyczno-wytrzymałościowej wszystkich elementów konstrukcji przęseł stwierdzono, że aktualna nośność mostu nie odpowiada klasie A podanej w normie [7], czyli nie jest wystarczająca w stosunku do wymagań stawianych przez administratora obiektu. Najsłabszymi elementami konstrukcji są: Studium modernizacji mostu ... 139 • żelbetowa płyta pomostu – przekroczenie nośności w stali zbrojeniowej o 48% przy przejeździe pojazdem specjalnym STANAG 2021 według pozycji [8], • poprzecznice stalowe – przekroczenie nośności o maksymalnie 104% przy obciążeniu ruchomym klasy A, według normy [7], • elementy dźwigarów kratownicowych – nieznaczne przekroczenie nośności w 7 elementach, o maksymalnie 13% w przypadku obciążenia ruchomego klasy A według normy [7]. Na podstawie wyników analizy przyjęto główne założenia do modernizacji mostu. Podstawowym działaniem modernizacyjnym jest wymiana istniejącej żelbetowej płyty pomostu wraz z jej wyposażeniem. W wyniku dodatkowych analiz ustalono, że w przypadku wymiany płyty żelbetowej na lekką płytę aluminiową nastąpi zmniejszenie ciężaru własnego pomostu o około 70%. Takie znaczące odciążenie mostu pozwoli na redukcję naprężeń w przeciążonych elementach konstrukcji kratowej, co w rezultacie umożliwi zwiększenie dopuszczalnych obciążeń użytkowych, bez znacznej ingerencji w istniejącą konstrukcję stalową. 3. Konstrukcja pomostu aluminiowego Pomost aluminiowy można wykonać i zamontować bardzo szybko, minimalizując czas zamknięcia obiektu. Niskie są koszty jego utrzymania, nie jest konieczne okresowe zabezpieczanie antykorozyjne, a stop aluminium jest odporny na działanie soli. Pomost aluminiowy pracuje podobnie jak płyta żelbetowa, lecz ma większą nośność w strefach momentów ujemnych. Ponieważ stop aluminium ma większy stosunek wytrzymałości do ciężaru niż beton, ciężar betonowej płyty pomostu wynosi zazwyczaj około 500 – 600 kg/m2, a pomostu aluminiowego jedynie 20% tego ciężaru, tj. około 100 – 120 kg/m2. W przypadku analizowanego mostu obciążenie podłużnic ciężarem betonowej płyty pomostu wynosi 26,81 kN/m, a płytą aluminiową 2,98 kN/m. Ta różnica powoduje, że podczas modernizacji most może zostać wzmocniony (odciążony), bez ponoszenia nakładów związanych z adaptacją pozostałych elementów przęseł lub podpór. Kombinacja małego ciężaru i dużej wytrzymałości stanowi podstawową zaletę pomostów aluminiowych przy renowacji starych, przeciążonych obiektów, przy których zmniejszenie ciężaru własnego jest jedyną możliwością przedłużenia ich „życia technicznego” [4, 14]. Aluminiowa płyta pomostu jest pewną odmianą pomostu ortotropowego. Zaprojektowano rozwiązanie płyty składającej się ze specjalnie zaprojektowanych kształtowników aluminiowych, połączonych podłużnymi spoinami czołowymi. Modułowe wymiary przekroju poprzecznego kształtownika to wysokość 167 mm oraz szerokość 130 mm. Ograniczenie przekroju pojedynczego kształtownika wynika z możliwości technologicznych polskich wytwórni wyrobów 140 T. Siwowski, M. Piekiełek aluminiowych. Przekrój poprzeczny kształtownika musi być wpisany w koło średnicy 200 mm, gdyż takie są dostępne w Polsce maksymalne prasy do wyciskania elementów aluminiowych. Zaprojektowany kształtownik składa się z pasa górnego grubości 7 mm, pasa dolnego grubości 6 mm oraz dwóch ukośnych środników grubości 4 mm. Połączenie kształtowników jest wykonywane przez spawanie metodą MIG za pomocą automatów spawalniczych. Po połączeniu kształtowników uzyskuje się panel płyty pomostu (rys. 2.). a) b) c) Rys. 2. Konstrukcja pomostu aluminiowego: a) przekrój poprzeczny pojedynczego kształtownika, b) panel płyty pomostu, c) próbne spawanie kształtowników metodą MIG Przy wymianie pomostu jest stosowany zazwyczaj układ paneli z kształtownikami ułożonymi wzdłuż osi mostu, ponieważ sztywność płyty w tym układzie jest największa. W przypadku analizowanego mostu aluminiowa płyta pomostu będzie oparta na istniejących podłużnicach blachownicowych oraz na dodatkowych podłużnicach z kształtowników IPE 450 (podłużnice skrajne) oraz HEB 550 (podłużnica środkowa). Dodatkowe podłużnice wprowadzono w celu odciążenia istniejących oraz zmniejszenia rozpiętości poprzecznej nowej płyty pomostu. W ten sposób uzyskano schemat statyczny płyty ciągłej czteroprzę- Studium modernizacji mostu ... 141 słowej o rozpiętościach 1,70 m + 2 x 2,20 m + 1,70 m. Schemat taki jest zbliżony do typowego układu pomostu w mostach belkowych, co pozwala na bardziej uniwersalne zastosowanie zaprojektowanego pomostu. Zespolenie płyty ze stalowymi belkami pomostu jest realizowane przy pomocy specjalnych sworzni i zaprawy epoksydowej. W celu uniknięcia korozji galwanicznej na styku stal – aluminium górne półki stalowych belek pomostu są zabezpieczone antykorozyjnie natryskiwaną cieplnie powłoką aluminiową grubości 250 µm. Nawierzchnię pomostu stanowi mieszanka poliuretanowo-epoksydowa grubości min. 10 mm (rys. 3). Rys. 3. Przekrój poprzeczny mostu z pomostem aluminiowym 4. Analiza numeryczna pomostu Analizę statyczno-wytrzymałościową badanego pomostu przeprowadzono, wykorzystując zintegrowany system komputerowy Sofistic, oparty na metodzie elementów skończonych. W modelowaniu pomostu wykorzystano wcześniejsze doświadczenia, uzyskane w pracy nad analizą pomostów aluminiowych z użyciem systemu Adina [15]. Jednym z celów niniejszej pracy było porównanie przyjętych założeń modelowania MES w różnych systemach obliczeniowych oraz w odniesieniu do różnych rodzajów elementów skończonych (shell, plate, brick). System Sofistic składa się z szeregu osobnych modułów (programów), 142 T. Siwowski, M. Piekiełek które pozwalają na przeprowadzenie szczegółowych analiz numerycznych różnych typów konstrukcji, zarówno w zakresie sprężystym, jak i nieliniowym. Do wprowadzania danych o konstrukcji wykorzystano moduł Teddy – program umożliwiający definiowanie rodzaju materiałów, siatki węzłów, rodzaju elementów (prętowych, powierzchniowych, bryłowych), obciążeń i ich kombinacji. Dane do programu można zapisywać w formie tekstowej, posługując się szeregiem komend oraz pętli, które ułatwiają w znacznym stopniu wprowadzanie dużej ilości danych. Analizę wyników obliczeń przeprowadzono z pomocą następujących modułów systemu: • Animator – program umożliwia przeprowadzenie wizualizacyjnej analizy zaprojektowanej konstrukcji, jej zachowania podczas obciążenia oraz tworzenie uproszczonych map naprężeń, • Graph interactiv – program umożliwia przeprowadzenie bardzo dokładnej graficznej analizy konstrukcji oraz uzyskanych wyników, tj. naprężeń i przemieszczeń, • DBView – program przedstawia siły wewnętrzne, naprężenia oraz przemieszczenia w postaci tekstowej, • Ursula – program, który wykonuje raport z przeprowadzonych obliczeń, ułatwia odszukanie ewentualnych ostrzeżeń i błędów w analizowanej konstrukcji oraz przedstawia dane w formie tekstowej. Opracowano model numeryczny płyty pomostu, złożony z elementów powierzchniowych w przestrzeni trójwymiarowej. Wybrano elementy płytowe, którym nadano odpowiednią grubość. Elementy te składają się z czterech węzłów, z których każdy ma trzy stopnie swobody. Elementom nadano długość 40 mm, szerokość 25, 37 lub 40 mm oraz grubość 4, 6 lub 7 mm. Szerokości elementów przyspoinowych przyjęto zbliżone do 1 cala (25,4 mm), aby uwzględnić zmiany materiałowe spowodowane wpływem ciepła spawania, zgodnie z regułą 1 cala [16]. Szerokości pozostałych elementów przyjęto z równomiernego podziału boku. Grubość elementów (ścianek kształtownika) dobrano na podstawie wstępnych analiz wytrzymałościowych kształtownika (rys. 4a). Szerokość modelowanego panelu aluminiowego przyjęto równą 20-krotnej szerokości pojedynczego kształtownika, natomiast długość panelu – równą 4 m. Rozstaw podparć panelu przyjęto równą ok. 2,50 m, gdyż jest to najczęściej spotykany rozstaw podłużnic (belek) w tego typu mostach. Ponieważ model jest symetryczny względem dwóch płaszczyzn oraz ustawienia obciążeń normowych są również symetryczne, ograniczono analizę do wycinka – ćwiartki panelu (rys. 4b). W związku z tym, węzłom leżącym w płaszczyznach symetrii zadano odpowiednie warunki brzegowe. Węzłom leżącym wzdłuż płaszczyzny symetrii z-y (w poprzek pomostu) zablokowano przemieszczenia w kierunku x oraz rotację względem osi y. Dla węzłów leżących wzdłuż płaszczyzny symetrii z-x (wzdłuż pomostu) zablokowano przemieszczenia w kierunku y oraz rotację Studium modernizacji mostu ... 143 względem osi x. Natomiast dwu węzłom narożnym leżącym na skrzyżowaniu płaszczyzn symetrii z-x i z-y zablokowano przemieszczenia w kierunku x, y oraz rotację względem osi x i y. Przyjęte do obliczeń parametry materiałowe stopu aluminium były następujące: • moduł Younga E = 70 GPa, • współczynnik Poissona ν = 0,3, a) b) c) Rys. 4. Numeryczny model pomostu: a) podział przekroju kształtownika na elementy skończone, b) przekrój i rzut z góry modelu obliczeniowego pomostu, c) widok modelu ćwiartki pomostu w programie Animator 144 T. Siwowski, M. Piekiełek • ciężar objętościowy ρ = 27 kN/m3, • współczynnik rozszerzalności termicznej εt = 0,00002. W analizie numerycznej uwzględniono wszystkie najniekorzystniejsze warianty mostowego obciążenia normowego w postaci kół pojazdów K i S według normy [7]. Analizę przeprowadzono w odniesieniu do ośmiu schematów obciążeń: • schemat 1. – ciężar własny pomostu i nawierzchni, • schemat 2. – 4 koła pojazdu K ustawione w osi pomostu (rys. 5a); • schemat 3. – 4 koła pojazdu K ustawione wzdłuż krawędzi podparcia (rys. 5b); • schemat 4. – 2 koła pojazdu K ustawione w osi pomostu, • schemat 5. – 1 koło pojazdu K ustawione w środku pomostu, • schemat 6. – 4 koła pojazdu S (dwie najbardziej obciążone osie) ustawione w środku pomostu, w rozstawie właściwym dla klasy A według normy [7], tj. 1 m, • schemat 7. – 4 koła pojazdu S ustawione w środku pomostu, w rozstawie właściwym klasie B według normy [7], tj. 1,25 m, • schemat 8. – 4 koła pojazdu S ustawione wzdłuż krawędzi podparcia pomostu, w rozstawie właściwym klasie A według normy [7], tj. 1 m. a) Schemat 2. Schemat 2 A pojazd K, klasa pojazd K, klasa A b) Schemat 3. Schemat 3 pojazd K, K, klasa klasa A A pojazd Rys. 5. Wybrane schematy obciążenia panelu pomostu: schemat 2., schemat 3. Obciążenie przyłożono na powierzchni śladu normowego koła samochodu o wymiarach 20 x 60 cm. Chcąc wyznaczyć nośność obliczeniową (normową) Studium modernizacji mostu ... 145 pomostu, obliczenia przeprowadzono dla wartości obciążeń obliczeniowych z uwzględnieniem współczynnika dynamicznego. Przeprowadzona analiza pozwoliła określić zakres naprężeń obliczeniowych występujących w aluminiowej płycie pomostu przy najbardziej niekorzystnych układach obciążenia. 5. Analiza uzyskanych wyników Wyniki analizy uzyskano w postaci graficznej – tzw. map naprężeń, oraz tekstowej, tabelarycznie. W celu ustalenia dopuszczalnej klasy obciążenia pomostu aluminiowego na podstawie uzyskanych wyników wykorzystano wartości wytrzymałości obliczeniowych wybranego stopu aluminium według Eurokodu 9, dotyczącego projektowania konstrukcji aluminiowych [17]. Jednakże, aby uprościć analizę wyników porównano bezpośrednio naprężenia uzyskane od obciążenia obliczeniowego według polskiej normy [7] z wytrzymałością obliczeniową aluminium według Eurokodu 9, a nie, jak to jest przy projektowaniu według Eurokodu, obliczeniowych sił wewnętrznych z nośnością obliczeniową przekroju. Przedstawiono przykładowe mapy naprężeń dla najbardziej miarodajnego układu obciążeń (rys. 6a,b,c). Zbiorcze wyniki analizy przedstawiono także w tab. 1. i 2. Wartości wytrzymałości obliczeniowej według pracy [16] przyjęto dla stopu aluminium EN AW–6061 w stanie T6 oraz dla drutu spawalniczego ze stopu EN AW–5356, najbardziej odpowiednich do opisanego zastosowania konstrukcyjnego. Wartości uzyskane w wyniku obliczeń zestawiono w tab. 2., przyjmując następujące oznaczenia: • fO – wytrzymałość obliczeniowa stopu przy zginaniu, • fW – wytrzymałość obliczeniowa spoiny, • fOHAZ – wytrzymałość obliczeniowa stopu w strefie wpływu ciepła. a) Rys. 6. Wyniki analizy numerycznej: a) naprężenia wypadkowe do schematu 1. 146 T. Siwowski, M. Piekiełek b) c) Rys. 6(cd.). Wyniki analizy numerycznej: b) naprężenia wypadkowe do schematu 2., c) naprężenia wypadkowe do schematu 3. W obliczeniach wartości wytrzymałości obliczeniowych uwzględniono zalecane przez EC9 współczynniki materiałowe: γM1 = 1,10 dla stopu, γMw = 1,25 dla spoiny. Punkty pomostu, w których występowały maksymalne naprężenia wypadkowe są zlokalizowane w sąsiedztwie spoin, czyli w tzw. strefie wpływu ciepła (HAZ). Ciepło powstające podczas spawania powoduje zmianę właściwości materiałowych stopu aluminium, powodującą m.in. lokalne obniżenie wytrzymałości. Zakres tych zmian ocenia się według tzw. reguły 1 cala, tj. na szerokości 25,4 mm od osi spoiny. Zmianę właściwości materiałowych stopu aluminium w strefie HAZ uwzględniono w sposób uproszczony zgodnie z EC9. Studium modernizacji mostu ... 147 Zastosowano współczynnik strefy HAZ ρHAZ = 0,65, zmniejszający wytrzymałość obliczeniową materiału. Tabela 1. Zestawienie maksymalnych naprężeń w pomoście dla klas obciążeń A–E według normy [6] Klasa obciążenia według normy [6] Naprężenia Maks. y-y [MPa] (w poprzek Min. pomostu) [MPa] Naprężenia Maks. x-x [MPa] (wzdłuż Min. pomostu) [MPa] Naprężenie ścinające [MPa] Naprężenie wypadkowe [MPa] A (x 1,0) B (x 0,75) C (x 0,5) D (x 0,4) E (x 0,3) 75,27 56,45 37,64 30,11 22,58 –233,36 –175,02 –116,68 –93,34 –70,00 36,20 27,15 18,10 14,48 10,86 –73,19 –54,89 –36,60 –29,28 –21,96 19,33 14,50 9,67 7,73 5,80 –254,03 –190,52 –127,02 –101,61 –76,21 Tabela 2. Porównanie maksymalnych naprężeń do wytrzymałości obliczeniowych według Eurokodu 9 Klasa Maksymalne Wytrzymałość obliczeniowa według [16] [MPa] obciążenia naprężenie według wypadkowe fW fOHAZ fO normy [6] [MPa] Stosunek naprężenie/wytrzymałość σmax/fO σmax/fW σmax/fOHAZ A 254,03 1,16 1,67 1,79 B 190,52 0,87 1,25 1,34 C 127,02 0,58 0,83 0,89 D 101,61 0,47 0,67 0,72 E 76,21 0,35 0,50 0,54 218 152 142 Zgodnie z oczekiwaniami, układem obciążeń wywołującym maksymalne wartości naprężeń w elementach pomostu był układ zawierający cztery kolejne koła pojazdu K, ustawione w osi pomostu (schemat 2.). Naprężenia maksymalne podane w tab. 1. i 2. dotyczą tego schematu obliczeniowego. Przeprowadzona uproszczona analiza porównawcza wykazała, że najwyższą klasą obciążenia, dla której w strefie wpływu ciepła nie przekroczono wytrzymałości obliczeniowej, jest klasa C według [7]. Dla dwóch najwyższych klas obciążeń mostowych uzyskane naprężenia przekraczały wytrzymałość obliczeniową o 34% i 79%. W przeprowadzonej analizie przyjęto szereg uproszczeń, które wpłynęły niekorzystnie na otrzymane wartości naprężeń w pomoście, m.in.: 148 T. Siwowski, M. Piekiełek • Przyjęto swobodnie podparty układ panelu. W rzeczywistości, w obiektach lub pomostach wielodźwigarowych będzie występował układ ciągły lub utwierdzony. Zmiana schematu obniży naprężenia w środku rozpiętości płyty od kilkanastu do kilkudziesięciu procent. • Przyjęto liniowe podparcie panelu. W rzeczywistości podparcie będzie na pewnej płaszczyźnie (szerokości pasa górnego belki). Obniży to naprężenia o kilka procent. • W miejscach połączeń ścianek panelu przyjęto (w celu uproszczenia modelowania w MES) ostre krawędzie. Są to miejsca występowania maksymalnych naprężeń ścinających i wypadkowych, decydujących o nośności pomostu. W rzeczywistości krawędzie te są zaokrąglone, co zmniejszy naprężenia ze względu na „łagodność” ich przepływu. • Uproszczono modelowanie materiału, przyjmując jedynie jego główne parametry. W przypadku opisu w programie pełnej krzywej σ/ε wybranego stopu aluminium do określenia nośności można wykorzystać nieliniowość materiałową, co zwiększy zakres dopuszczalnych naprężeń. • Uproszczono modelowanie wpływu strefy HAZ, przyjmując współczynnik normowy. W przypadku przyjęcia pełnej krzywej σ/ε dla metalu spawanego można otrzymać ww. korzyści. • W celu uproszczenia analizy wyników porównano bezpośrednio uzyskane w MES naprężenia od obciążenia obliczeniowego według normy [7] z wytrzymałością obliczeniową aluminium według Eurokodu 9 [16]. Oceniając bezpieczeństwo konstrukcji aluminiowej w ścisłej zgodności z Eurokodem, należałoby porównać obliczeniowe siły wewnętrzne z nośnością obliczeniową przekroju płyty. Ponieważ Eurokod nie podaje sposobu wyznaczenia tej nośności w przypadku analizowanego typu pomostu, dlatego przyjęto metodę uproszczoną. 6. Wnioski Przeprowadzona analiza statyczno-wytrzymałościowa pomostu aluminiowego, pomimo wstępnego i uproszczonego zakresu wykazała, że ten rodzaj konstrukcji pomostu może być stosowany w modernizacji mostów drogowych. Potwierdzona obliczeniowo nośność pomostu klasy „C” jest zazwyczaj wystarczająca w przypadku modernizacji, lecz może być zbyt niska w stosunku do współczesnych wymagań co do nowych obiektów. Dlatego będą prowadzone dalsze prace analityczne i badawcze w celu zwiększenia nośności tego typu pomostu, m.in. przez zwiększenie wysokości panelu do około 20–22 cm, zwiększenie grubości blach górnej i dolnej itp. Zwiększenie wymiarów kształtowników będzie możliwe już w niedalekiej przyszłości, gdyż polscy producenci aluminiowych wyrobów wyciskanych stale zwiększają swoje możliwości technologiczne. Studium modernizacji mostu ... 149 Ponadto w nowych mostach możliwy jest taki dobór układu rusztu belek, który pozwoli na regulację sił wewnętrznych w pomoście. Uzyskane analitycznie wyniki pracy pomostu aluminiowego zostaną także zweryfikowane doświadczalnie. W Katedrze Mostów Politechniki Rzeszowskiej są bowiem prowadzone badania opisanego powyżej fragmentu konstrukcji pomostu. Ustalona w wyniku badań rzeczywista nośność konstrukcji zostanie wykorzystana do opracowania odpowiednich zaleceń konstrukcyjnych i obliczeniowych. Literatura [1] Mańko Z.: Rekonstrukcja zabytkowego Mostu Tumskiego przez rzekę Odrę we Wrocławiu. Materiały z konferencji naukowo-technicznej „Mosty w drodze do XXI wieku”. Gdańsk, 3–5 września 1999 [2] Siwowski T., Kusek T.: Sposoby modernizacji kratowych przęseł mostów drogowych. Materiały z konferencji naukowo-technicznej „Mosty w drodze do XXI wieku”. Gdańsk, 3–5 września 1999 [3] Barabach S., Głomb J., Pyster J.: Spawany most aluminiowy. Inżynieria i Budownictwo, 2, 1968 [4] Jarominiak A.: Perspektywy stosowania aluminium w budownictwie mostowym. Inżynieria i Budownictwo, 9, 2001 [5] Siwowski T.: Wykorzystanie stopów aluminium do modernizacji istniejących mostów. Proceedings of VI International Scientific Conference. Current Issues of Civil and Environmental Engineering. Lviv, September 2001 [6] Piekiełek M., Maślanka R.: Studium techniczne przebudowy mostu przez Wisłę w Nagnajowie. Praca dyplomowa przygotowana pod kierunkiem dr. inż. T. Siwowskiego. Politechnika Rzeszowska, Rzeszów 2002 [7] PN-85/S-10030. Obiekty mostowe. Obciążenia [8] Rozporządzenie Ministra Transportu i Gospodarki Morskiej z dnia 30 maja 2000 r. w sprawie warunków technicznych jakim powinny odpowiadać drogowe obiekty inżynierskie i ich usytuowanie. Dz.U., Nr 63, Warszawa, 3 sierpnia 2000 [9] Bryl S., Bryl J.: Tablice inżynierskie. Tom II. PWN, Poznań 1957 [10] PN-58/B-03261. Betonowe i żelbetowe konstrukcje mostowe. Obliczenia statyczne i projektowanie [11] PN-82/S-10052. Obiekty mostowe. Konstrukcje stalowe. Projektowanie [12] PN-91/S-10042. Obiekty mostowe. Konstrukcje betonowe, żelbetowe i sprężone. Projektowanie [13] Pszenicki A.: Mosty stalowe nitowane. WK, Warszawa 1954 [14] Siwowski T.: Wykorzystanie pomostów aluminiowych do modernizacji mostów. Inżynieria i Budownictwo, 3–4, 2002 [15] Siwowski T. Analiza statyczno-wytrzymałościowa pomostu ze stopu aluminium. Materiały z XLVII Konferencji Naukowej KILiW PAN i KN PZiTB, Krynica 2001 [16] Dwight J.: Aluminium Design and Construction. E&FN Spon, London–New York 1999 [17] Eurocode No. 9. Design of aluminium structures, 1999 150 T. Siwowski, M. Piekiełek THE MODERNISATION STUDY OF OLD BRIDGE OVER VISTULA RIVER IN NAGNAJOW WITH THE UTILIZATION OF ALUMINIUM DECK Summary The obsolescence of old bridges, built in the early XX century, has recently became the very important issue, both technically and economically. Many of these bridges have to be rehabilitated due to low carrying capacity. The example of such kind of modernisation works, with the utilisation of high strength and durability aluminium deck, has been described in the paper. The detailed numerical simulation using a 3D FEM computer model of the deck has been also presented, which confirmed fulfilment of design requirements. Złożono w Oficynie Wydawniczej w maju 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Aleksander STARAKIEWICZ Politechnika Rzeszowska AZBEST W BUDYNKACH – PROBLEM DO MĄDREGO ROZWIĄZANIA W artykule przedstawiono krótką historię pochodzenia azbestu, jego zastosowanie w różnych działach gospodarki oraz zagrożenie dla zdrowia ludzkiego. Scharakteryzowano materiały budowlane pod względem ich gęstości, procentowej zawartości azbestu oraz zastosowania tych materiałów w budownictwie. Przytoczono akty prawne związane z występowaniem i oceną wyrobów zawierających azbest, podano sposoby postępowania z wyrobami azbestowymi. 1. Wprowadzenie Azbest jest nazwą handlową minerałów włóknistych z grupy serpentynu i amfiboli. Minerały te charakteryzują się unikalnymi właściwościami chemicznymi i fizycznymi, tj. elastyczność, wytrzymałość na rozciąganie, odporność na wysoką temperaturę, odporność na działanie kwasów, zasad i innych chemikaliów, zdolność tłumienia dźwięków oraz niska przewodność cieplna. Początki stosowania azbestu stwierdzono w Finlandii w okolicach miejscowości Paakkila na podstawie wykopalisk, około 4500 lat temu. Występują tam eksploatowane do 1974 r. złoża azbestu antofyllitowego. Starożytni Rzymianie używali azbestu do wyrobu płótna zwanego linum vivum („żyjące płótno”), w które owijali zwłoki władców, aby po spaleniu zachować ich prochy. Znane i cenione od dawna właściwości tego minerału spowodowały, że trzy minerały azbestowe zyskały popularność i szerokie zastosowanie w gospodarce światowej. Są to: powszechnie stosowany chryzotyl (azbest biały), w mniejszym stopniu wykorzystywany krokidolit (azbest niebieski) i jeszcze rzadziej stosowany amosyt (azbest brązowy) [1]. Wyroby azbestowe były powszechnie wykorzystywane w wielu dziedzinach gospodarki, tj. budownictwo, energetyka, komunikacja, przemysł stoczniowy, lotniczy. W budownictwie azbest i wyroby azbestowe stosowano w różnych obiektach, gdzie potrzebna była podwyższona odporność ogniowa i zabezpieczenie ogniochronne elementów narażonych na wysoką temperaturę (np. zabezpieczenia konstrukcji stalowych, klapy przeciwpożarowe), do pokryć dachowych 152 A. Starakiewicz i elewacyjnych (płyty faliste i prasowane), w sieciach wodociągowych i kanalizacyjnych, na przewody wentylacyjne, spalinowe i dymowe (rury wysokociśnieniowe, rury kanalizacyjne). Azbest stosowano także w tkaninach tłumiących hałas (tłumiki w wentylacji i klimatyzacji). W energetyce azbest stosowany był w obmurzach bloków energetycznych (jako izolacje termiczne kotłów i turbin w postaci sznurów i tektur), w uszczelnieniach urządzeń pracujących w wysokiej temperaturze (zaworach, wymiennikach ciepła), w izolacjach sieci ciepłowniczych (płaszcze azbestowo-cementowe lub azbestowo-gipsowe). W komunikacji kolejowej azbest był stosowany do termoizolacji elektrycznych urządzeń grzewczych, natomiast w komunikacji samochodowej do termoizolacji silników pojazdów, w uszczelkach elementów pracujących w wysokiej temperaturze, w elementach ciernych (tarczach sprzęgieł, klockach hamulcowych). 2. Zagrożenie zdrowia azbestem Wyniki badań epidemiologicznych i eksperymentalnych wykazały, że patogenne działanie azbestu jest wynikiem wdychania włókien zawieszonych w powietrzu. Szczególnie istotna jest średnica i długość poszczególnych włókien. Włókna o dużej średnicy – powyżej 5 µm, odkładają się w górnej części dróg oddechowych, podczas gdy cienkie, o średnicy poniżej 3 µm, są przenoszone i odkładają się w końcowych odcinkach dróg oddechowych. W przemieszczaniu się włókien istotną rolę odgrywa ich kształt. Skręcone włókna chryzotylu o dużej średnicy mają tendencję do zatrzymywania się wyżej niż igłowate włókna amfiboli, z łatwością są przenoszone do obrzeży płuc. W oczyszczaniu dolnej części układu oddechowego z włókien uczestniczą głównie trzy mechanizmy biologiczne. Większość pyłu jest usuwana z dróg oddechowych za pośrednictwem śluzu, odkrztuszania, wypluwania lub połykania. Krótkie włókna są pochłaniane w drogach oddechowych przez makrofagi na drodze mechanizmu oczyszczania układu oddechowego. Niektóre włókna azbestu są wychwytywane przez komórki nabłonkowe wyścielające drogi oddechowe; włókna gromadzą się w warstwie śródmiąższowej i są przenoszone do gruczołów chłonnych. Około 1/3 wdychanych włókien umiejscawia się w końcowych odcinkach układu oddechowego. Prawie połowa wdychanych włókien jest usuwana z organizmu człowieka w ciągu kilku dni, pozostałe w dłuższym czasie. Negatywną rolę w procesie usuwania zanieczyszczeń z płuc odgrywają czynniki zewnętrzne, takie jak dym tytoniowy i inne zanieczyszczenia powietrza. Największe zagrożenie dla organizmu ludzkiego stanowią: stężenie i długość trwania procesu oraz włókna respirabilne (włókna, które z powietrzem dostają się do pęcherzyków płucnych, skąd mogą penetrować tkankę płucną). Azbest w budynkach ... 153 Średnica włókien respirabilnych jest mniejsza od 3 µm. Włókna respirabilne długości poniżej 5 µm częściowo są wydalane oraz pochłaniane przez makrofagi. Włókna długości powyżej 5 µm są zatrzymywane, przy czym najbardziej szkodliwa jest retencja w układzie oddechowym włókien długości około 20 µm. Włókna azbestu wnikające głęboko do układu oddechowego mogą powodować groźne choroby, takie jak: pylica azbestowa (azbestoza), międzybłoniak opłucnej lub otrzewnej, nowotwór płuc. Schorzenia te występują szczególnie u osób zawodowo narażonych na duże dawki pyłu azbestowego lub u osób przebywających okresowo w powietrzu silnie zanieczyszczonym pyłami respirabilnymi azbestu. Ryzyko dla zdrowia wynikające z wchłaniania pyłu azbestowego drogą pokarmową jest znikome [1]. 3. Materiały budowlane zawierające azbest i występujące w budynkach Azbest w materiałach budowlanych może się znajdować w różnej ilości oraz być bardziej lub mniej trwale związany. Dlatego też wyroby zawierające azbest można podzielić według trwałości i ilości zastosowanego spoiwa wiążącego na miękkie i twarde. Wyroby miękkie gęstości mniejszej niż 500 kg/m3 charakteryzują się dużym procentowym udziałem azbestu, szybko ulegają uszkodzeniom, emitują duże ilości pyłu azbestowego. Wyroby miękkie to m.in.: sznury, płótna, tkaniny z dodatkiem azbestu (lub wykonane z samego azbestu), płyty i uszczelki, płaszcze azbestowo-gipsowe (stosowane w izolacji rur), płyty i tektury miękkie (stosowane w izolacjach ognioochronnych), płyty ognioochronne typu PYRAL lub SOKALIT (zawierające ok. 30–50% azbestu), natryski azbestowe na konstrukcje stalowe. Wyroby twarde, gęstości większej niż 1000 kg/m3, to wyroby zawierające azbest najpowszechniej występujące w krajowym budownictwie. Charakteryzują się dużym stopniem zwięzłości, dużym udziałem spoiwa cementowego, niską procentową zawartością azbestu (ok. 5% w płytach płaskich lignocementowych modyfikowanych, 12–13% w płytach płaskich i falistych azbestowo-cementowych i ok. 20% w rurach azbestowo-cementowych). W przeciwieństwie do wyrobów miękkich emitują małe ilości pyłu azbestu. Dlatego też uważa się je za mniej groźne w użytkowaniu, jak i w trakcie prowadzenia prac remontowych. Za takie same są uważane też ich odpady. Jednak największa emisja pyłu azbestowego od wyrobów twardych powstaje podczas ich obróbki mechanicznej (piłowania, wiercenia lub szlifowania narzędziami elektrycznymi), gdy brak jest miejscowego odciągu pyłu. Emisja pyłu azbestowego występuje także w trakcie trwania eksploatacji wyrobów pod wpływem czynników atmosferycznych lub 154 A. Starakiewicz chemicznych. Wyroby twarde to m.in.: płyty azbestowo-cementowe faliste, płaskie prasowane, płaskie KARO, rury azbestowo-cementowe, gąsiory dachowe, płaszcze azbestowo-cementowe do izolacji cieplnej rur. W budownictwie materiały azbestowo-cementowe zastosowane były w takich systemach jak: OWT, WK-70, W-70, SBM-75. W systemach tych stosowano ściany osłonowe o nazwie: WW–78, Progor (na ruszcie drewnianym LSO–D, na ruszcie stalowym LSO-S), Gdańsk, Bistyp–2, Bistyp–3, Bistyp–4, Skold. Wszystkie te ściany osłonowe posiadały w swojej konstrukcji jedną lub dwie płyty azbestowo-cementowe. Płyty azbestowo-cementowe umiejscowione były wewnątrz ściany osłonowej lub na zewnątrz jako okładziny elewacyjne. Od wewnątrz (od pomieszczenia) pokrywały je płyty gipsowo-kartonowe (jedna lub dwie). 4. Postępowanie z wyrobami azbestowymi znajdującymi się w budynkach Kilka lat temu w środkach masowego przekazu została nagłośniona sprawa szkodliwości azbestu. Wywołało to w społeczeństwie ogólny lęk związany z wyrobem, w którego nazwie było słowo azbest, lub gdy azbest stanowił komponent wyrobu. W związku z tym w czerwcu 1997 r. została uchwalona ustawa o zakazie stosowania wyrobów zawierających azbest [2]. W kolejnym, 1998 r. zostało wydanych kilka rozporządzeń ministerialnych m.in. w sprawie „bezpiecznego użytkowania oraz warunków usuwania wyrobów zawierających azbest” [3], „zasad bhp przy zabezpieczaniu i usuwaniu wyrobów zawierających azbest oraz programu szkolenia w zakresie bezpiecznego użytkowania takich wyrobów” [4]. Natomiast w styczniu 2001 r. Ministerstwo Gospodarki przygotowało dokument pt. „Program usuwania azbestu i wyrobów zawierających azbest stosowanych na terenie Polski”. Wydaje się, że jest to popadanie z jednej skrajności (media i psychoza społeczna) w drugą skrajność (nakazy usuwania wszystkiego co jest związane z azbestem). To, że azbest jest szkodliwy zostało udowodnione, ale usuwanie wszelkich wyrobów zawierających azbest jest działaniem mocno przesadzonym. Profesor W. Płoński w swoim artykule o azbeście [5] pisze „...Zrealizowanie tego programu jest konieczne, ale mało osób ma rozeznanie, jak trudny i kosztowny będzie to program. Około 80% wiejskich budynków mieszkalnych i gospodarczych w naszym kraju jest pokryte płytami azbestowo-cementowymi, popularnie zwanymi eternitem... W 1995 roku widziałem co robili Niemcy z płytami azbestowo-cementowymi, które były okładzinami ścian lub stanowiły pokrycia dachów. Okładziny ścian były w dobrym stanie technicznym, dlatego malowano je, aby na powierzchni związać włókna i pył azbestowy... płyty nadające się do dalszego użytkowania oczyszcza się, nakłada warstwę wzmacniającą, a następnie się je maluje.” Azbest w budynkach ... 155 Dlatego też, przystępując do prac mających na celu zmniejszenie wpływu azbestu na środowisko, niezbędna jest inwentaryzacja wyrobów zawierających azbest oraz określenie jego rodzaju. Niezbędna jest specjalistyczna identyfikacja i lokalizacja tego materiału w obiekcie oraz ocena stanu technicznego wyrobu i ryzyka emisji pyłu. Prace identyfikacyjne utrudnia brak znakowania produkowanych w Polsce wyrobów zawierających azbest. Skutkuje to tym, że w trakcie prac remontowych często dochodzi do nieświadomego ich uszkadzania i niekontrolowanej emisji pyłu azbestowego. Podczas inwentaryzacji należy zwracać szczególną uwagę na występowanie miękkich wyrobów azbestowych (elementy instalacji wentylacyjnych, urządzeń wodno-kanalizacyjnych i grzewczych, zabezpieczenia ognioochronne konstrukcji stalowych w budynkach, wyposażenie maszyn wymagających izolacji termicznej, ognioochronnej i elektrycznej). Zgodnie z Rozporządzeniem Ministra Gospodarki (Dz.U. nr 138, poz. 895) [3] wyroby azbestowe znajdujące się w budynku powinny być ocenione w czasie przeglądu technicznego przeprowadzonego zgodnie z wymogami Prawa budowlanego, tj. m.in. z udziałem osoby posiadającej uprawnienia budowlane (wskazane jest, żeby osoba ta posiadała uprawnienia rzeczoznawcy w tej problematyce) [6]. Wyniki przeglądu powinny być udokumentowane w „Ocenie stanu i możliwości bezpiecznego użytkowania wyrobów zawierających azbest” (załącznik nr 1 do ww. rozporządzenia). Ocena kończy się zsumowaniem przyjętej punktacji, a ostateczny wynik jest uzależniony m.in. od sposobu zastosowania azbestu, rodzaju zastosowanego azbestu, struktury powierzchni wyrobu z azbestem, stanu zewnętrznego wyrobu z azbestem, ryzyka uszkodzenia powierzchni wyrobu azbestowego, sposobu wykorzystania budynku lub pomieszczenia, usytuowania wyrobu. Obecność azbestu wewnątrz lub na zewnątrz obiektu nie oznacza automatycznie konieczności jego usuwania. Działania są uzależnione od wyniku oceny stanu technicznego i możliwości bezpiecznego użytkowania wyrobów z azbestem. Przy sumie punktów powyżej 60 (stopień pilności I) występuje konieczność podjęcia działań polegających na wymianie lub naprawie ocenianego wyrobu najszybciej, jak to jest możliwe. Przy sumie punktów 35–55 (stopień pilności II) – konieczność powtórzenia oceny w ciągu 1 roku. Przy sumie punktów 25–35 (stopień pilności III) – konieczność powtórzenia oceny technicznej w ciągu 5 lat. Należy mieć świadomość, że liczba punktów ma charakter uznaniowy i nie jest w pełni obiektywna. Nie przeprowadza się działań naprawczych, gdy łącznie są spełnione następujące warunki. Wynik oceny stanu technicznego wyrobu mieści się w granicach 25–55 punktów (oceniany wyrób jest w dobrym stanie technicznym), wyrób nie należy do grupy „miękkich”, jest zainstalowany zgodnie z wcześniejszymi przepisami i przyjętym projektem technologicznym, eksploatacja w nor- 156 A. Starakiewicz malnych warunkach nie powoduje znaczącej emisji włókien azbestu do otoczenia (zaleca się laboratoryjny pomiar stężenia respirabilnych włókien azbestu w powietrzu). Wystarczającymi środkami ostrożności są: oznakowanie wyrobu (zabezpieczenie przed nieświadomym, nieumyślnym uszkodzeniem lub samoistnym niszczeniem), utrzymanie go w dobrym stanie technicznym, okresowa kontrola wizualna i pomiary zanieczyszczenia powietrza. Wymagana jest ponowna ocena techniczna wyrobów w okresie do 1 roku lub 5 lat, w zależności od liczby punktów, które uzyskał wyrób. W Polsce nie ustanowiono akceptowalnej wartości stężenia pyłów azbestu w pomieszczeniach przeznaczonych na stały pobyt ludzi. Można jednak przyjąć, że działania naprawcze nie są konieczne, jeśli wynik pomiarów pyłów respirabilnych azbestu jest niższy niż 1000 wł./m3, w zależności od przeznaczenia pomieszczenia. Bardziej rygorystycznie należy oceniać pomieszczenia, w których przebywają dzieci i młodzież. W tym miejscu trzeba przypomnieć, że MPiPS proponuje nowe wartości NDS (najwyższe dopuszczalne stężenie na stanowisku pracy) wszystkich pyłów zawierających azbest na poziomie 0,2 wł./cm3, tj. 200 000 wł./m3. Działania naprawcze (powyżej 60 pkt.) należy podejmować szczególnie wobec wyrobów miękkich oraz tych wyrobów twardych, które są uszkadzane w trakcie eksploatacji. Od opinii specjalistów zależy zakres prac naprawczych, do których zaliczamy: 1) usunięcie azbestu – demontaż całości lub części materiałów wbudowanych (najbardziej zagrażających), 2) zabudowę – zamknięcie przestrzeni, w której znajduje się azbest szczelną przegrodą, 3) uszczelnianie – malowanie powierzchni wyrobów głęboko penetrującymi środkami wiążącymi azbest, 4) renowacja – czyszczenie powierzchni wyrobów na mokro, gruntowanie polimerowymi masami wnikającymi w pory wyrobu, nakładanie masy wierzchniej, wzmacniającej i chroniącej wyrób przed czynnikami atmosferycznymi. W krajach Unii Europejskiej stosuje się kilka prostych metod naprawczych płyt azbestowo-cementowych, które można udoskonalać lub opracować inne (według opinii autorów tych rozwiązań). Natomiast zrywanie płyt nadających się do renowacji uważa się za rozwiązanie najgorsze. Usunięcie azbestu z budynku ma charakter prac rewitalizacyjnych i powinno się je prowadzić podczas głównych remontów budynku. Prace te podnoszą koszt remontu, ale i wartość całego obiektu. Decyzja o usunięciu azbestu z budynku rozwiązuje definitywnie problem zagrożenia zdrowia osób przebywających w budynku. Azbest w budynkach ... 157 Za przygotowanie i realizację robót usuwania azbestu, zgodnie ze specjalnymi wymaganiami bhp dotyczącymi prac z azbestem, odpowiada wykonawca posiadający zezwolenie na wytwarzanie odpadów niebezpiecznych. Na wykonawcy wytwarzającym odpady ciążą obowiązki związane z właściwym postępowaniem z odpadami, w tym również z usuwaniem, wykorzystaniem lub unieszkodliwianiem wytworzonych odpadów i prowadzeniem ewidencji odpadów. Obowiązki te wynikają z ustawy z 27 czerwca 1997 r. o odpadach (Dz.U. nr 96, poz. 592 z późn. zm.) [7] oraz § 3 ust. 1 rozporządzenia Ministra Gospodarki z 14 sierpnia 1998 r. w sprawie sposobów bezpiecznego użytkowania oraz warunków usuwania wyrobów zawierających azbest (Dz.U. nr 138, poz. 895) [3] oraz innych rozporządzeń ministerialnych [8–10]. Literatura [1] Szeszenia-Dąbrowska N.: Problemy zanieczyszczenia powietrza włóknami azbestu. Biblioteka Monitoringu Środowiska, Państwowa Inspekcja Ochrony Środowiska, Warszawa 1993 [2] Ustawa z 19 czerwca 1997 r. o zakazie stosowania wyrobów zawierających azbest (Dz.U. nr 101, poz. 628) [3] Rozporządzenie Ministra Gospodarki z 14 sierpnia 1998 r. w sprawie bezpiecznego użytkowania oraz warunków usuwania wyrobów zawierających azbest (Dz.U. nr 138, poz. 895) [4] Rozporządzenie Ministra Pracy i Polityki Socjalnej z 2 kwietnia 1998 r. w sprawie zasad bezpieczeństwa i higieny pracy przy zabezpieczaniu i usuwaniu wyrobów zawierających azbest oraz programu szkolenia w zakresie bezpiecznego użytkowania takich wyrobów (Dz.U. nr 45, poz. 280) [5] Płoński W.: Co jeszcze trzeba wiedzieć o azbeście? Przegląd Budowlany, Nr 6, 2001 [6] Ustawa z 7 lipca 1994 r. Prawo budowlane (Dz.U. nr 89, poz. 414) [7] Ustawa z 27 czerwca 1997 r. o odpadach (Dz.U. nr 96, poz. 592, zm. Dz.U. z 2000 r. nr 22, poz. 272) [8] Rozporządzenie Ministra Gospodarki z 21 października 1998 r. w sprawie szczegółowych zasad usuwania, wykorzystywania i unieszkodliwiania odpadów niebezpiecznych (Dz.U. nr 145, poz. 942) [9] Rozporządzenie Ministra Zdrowia i Opieki Społecznej z 11 września 1996 r. w sprawie czynników rakotwórczych w środowisku pracy oraz nadzoru nad stanem zdrowia pracowników zawodowo narażonych na te czynniki (Dz.U. nr 121, poz. 571) [10] Rozporządzenie Ministra Ochrony Środowiska, Zasobów Naturalnych i Leśnictwa z 12 września 1998 r. w sprawie wzorów dokumentów stosowanych na potrzeby ewidencji odpadów oraz służących do przekazywania informacji o rodzaju i ilości odpadów umieszczonych na składowisku odpadów i o czasie ich składowania (Dz.U. nr 121, poz. 794) 158 A. Starakiewicz ASBESTOS IN THE BUILDINGS – THE PROBLEM FOR THE SENSIBLE SOLUTION Summary The following paper presents the short history of asbestos, its usage in various branches of economy and its threat to human health. Materials used in buildings have been characterized due to their usage of these materials in the constructions industry their density and the asbestos content percentage. Legal documents connected with the ocurence and the estimation of products containing asbestos have been quoted. Several different ways of handling the products containing asbestos have been given. Złożono w Oficynie Wydawniczej w marcu 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Aleksander STARAKIEWICZ Politechnika Rzeszowska HYDROIZOLACJE W OBIEKTACH BUDOWLANYCH – PRZEGLĄD MATERIAŁÓW W początkowej części artykułu przedstawiono ogólny podział hydroizolacji w zależności od pełnionych funkcji ochronnych w obiektach budowlanych, warunków wodno-gruntowych, rodzaju zastosowanego materiału. W dalszej jego części przedstawiono szczegółowe rozwiązania technologiczno-materiałowe. 1. Podział hydroizolacji W zależności od spełnianych funkcji ochronnych w obiektach budowlanych, hydroizolacje można podzielić na [1, 2]: • izolacje przeciwwilgociowe – przeznaczone do ochrony obiektów budowlanych lub ich części przed działaniem wody niewywierającej parcia hydrostatycznego (związana w gruncie woda, która może być podciągana kapilarnie, ewentualnie nagromadzona przy fundamencie piwnic woda opadowa), • izolacje przeciwwodne – przeznaczone do ochrony obiektów budowlanych lub ich części przed działaniem wody wywierającej ciśnienie hydrostatyczne (posadowienie poniżej poziomu wody gruntowej, w gruntach spoistych, na zboczach), • izolacje parochronne – przeznaczone do zabezpieczenia elementów budowlanych przed działaniem pary wodnej. W zależności od warunków wodno-gruntowych można wyróżnić następujące izolacje przeciwwilgociowe [1, 2]: • typu lekkiego – stosowane w celu ochrony przegród budynku przed przenikaniem wilgoci (posadowienie w gruntach przepuszczalnych powyżej poziomu wody gruntowej). Funkcję tę pełnią izolacje bitumiczne bez wkładek, np. powłoki gruntujące, izolacje z mas powłokowych, powłoki z tworzyw sztucznych oraz środki uszczelniające powierzchnie materiałów konstrukcji. Są dość wrażliwe na uszkodzenia mechaniczne, nie zapewniają pełnej ochrony budowli przed szkodliwymi wpływami chemicznymi, 160 A. Starakiewicz • typu średniego – stosowane jako ochrona budowli przed wodą opadową bezpośrednią (niewywierającą ciśnienia hydrostatycznego), izolacje pionowe i poziome w budynkach, tarasy, przepusty, zbiorniki podziemne itp. Do tego rodzaju izolacji można zaliczyć izolacje bitumiczne, izolacje bitumiczne z jedną lub dwiema warstwami wkładek, izolacje z plastycznych mas bitumiczno-mineralnych, powłoki z tworzyw sztucznych, asfaltów lanych, tynków wodoszczelnych itp., • typu ciężkiego – stosowane w celu zabezpieczenia budowli przed wodą naporową (wywierającą ciśnienie hydrostatyczne). Są to przeważnie izolacje bitumiczne z wkładkami z papy lub cienkich blach metalowych, tkaniny asfaltowe, warstwy lub laminaty z mas plastycznych itp. Ilość wkładek jest większa i wynosi zwykle od trzech do sześciu. Stosowana jest również warstwa dociskowa z cegły klinkierowej lub betonu. Podział izolacji przeciwwilgociowych pod względem materiałowym [3]: • materiały powłokowe (emulsje i laminaty bitumiczne, materiały płynne do wykonywania izolacji zbrojonych i niezbrojonych, wyprawy na bazie cementu: zwykłe i elastyczne). Zaletą tych materiałów jest ciągłość powłok, łatwe pokrywanie skomplikowanych detali, dobra przyczepność do podłoża, • membrany i materiały rolowe (całkowicie zespolone z podłożem – klejone, zgrzewane, samoprzylepne, mocowane mechanicznie; membrany wytłaczane ze złączami szczelnymi i otwartymi). Ich zaletami są: szybkie i łatwe układanie, wodoodporność prawie natychmiast po ułożeniu, trwałość i odporność na uszkodzenia mechaniczne, • bentonity (panele, maty, geomaty, taśmy, kompozyty, bentonity z urządzeniami wspomagającymi). Ich zalety to: możliwość wykonywania prac przez cały rok, paroprzepuszczalność i zapobieganie kondensacji pary wodnej w przegrodzie budowlanej. • inne wyroby wspomagające hydroizolacje (płyty z cementu i celulozy, systemy odwadniania i drenażu). 2. Rozwiązania technologiczno-materiałowe 2.1. Hydroizolacje powłokowe Bitumiczne powłoki izolujące Są to masy asfaltowe modyfikowane w różny sposób, które można podzielić następująco [3–5]: • Roztwory z asfaltów ponaftowych, tzw. gruntujące, (upłynniane rozpuszczalnikami organicznymi). Ich działanie polega na wnikaniu w pory betonu i uszczelnianiu powierzchni oraz na stworzeniu warunków przy- Hydroizolacje w obiektach budowlanych ... 161 czepności warstw izolacyjnych do podłoża. Nie należy ich stosować na mokrych i przemrożonych powierzchniach betonowych. Roboty należy prowadzić w temperaturze powyżej +5°C. • Powłoki z asfaltów ponaftowych rozprowadzane na podłożu betonowym lub cementowym tworzą po wyschnięciu silnie przylegającą powłokę asfaltową o dużej elastyczności. Stosuje się je do tworzenia zewnętrznych warstw izolacji powłokowych typu lekkiego. Powłokę rozprowadza się cienką warstwą na zimno na zagruntowanym podłożu w temperaturze powyżej +5°C. Przykłady roztworów gruntujących i powłok asfaltowych [3–5]: a) Abizol R, Cyklolep R – roztwory asfaltowe do gruntowania podłoży betonowych, wypraw cementowych, murów, b) Abizol KL, Cyklolep KL – lepiki asfaltowe do przyklejania do podłoży i sklejania między sobą warstw papy asfaltowej oraz do wykonywania powłok przeciwwilgociowych typu lekkiego. Producent: Zakłady Chemii Budowlanej Inco-Veritas z Warszawy, c) Izobud Br – roztwór asfaltowo-żywiczny do gruntowania i wykonywania powłokowych izolacji przeciwwilgociowych. Producent: Izohan z Gdyni, d) Ceresit CP-41 – emulsja gruntująca (przed zastosowaniem masy bitumicznej Ceresit CP-43). Producent: Henkel. • Dyspersyjne masy asfaltowo-kauczukowe (emulsje rozcieńczane wodą) z możliwością wzmocnienia tkaninami zbrojącymi i posypkami mineralnymi. Istotną zaletą powłok jest paroprzepuszczalność (można je układać na powierzchniach zawilgoconych) i możliwość łączenia z płytami styropianowymi. Przykłady mas dyspersyjnych [3–5]: a) Dysperbit – dyspersyjna masa asfaltowa do wykonywania izolacji przeciwwilgociowych, z co najmniej dwóch warstw po zagruntowaniu podłoża masą rozcieńczoną wodą w stosunku 1:1 (zużycie ok. 1,0 kg/m2 na jedną warstwę), b) Bitgum – masa dyspersyjna asfaltowo-gumowa do gruntowania podłoża (rozcieńczona wodą w stosunku 1:1) oraz wykonywania powłok izolacyjnych przeciwwilgociowych i przeciwwodnych. Producent: Materiały izolacyjne Izolacja SA ze Zduńskiej Woli, c) DAG – masa dyspersyjna asfaltowo-gumowa do wykonywania izolacji z laminatów, d) Silfition Dickbeschichtung – emulsja asfaltowo–polimerowa, o konsystencji pasty, do wykonywania pionowych izolacji przeciwwilgociowych (zużycie ok. 4 l/m2). Producent: Remmers, 162 A. Starakiewicz e) Isodämm – masa kauczukowo-bitumiczna, nakładana na izolowane powierzchnie szpachlą lub kielnią, warstwą o grubości 3–6 mm (zużycie 3–5 kg/m2). Producent: Ultramment GmbH, f) COMBIFLEX-C2 – elastyczna masa do uszczelniania podziemnych części budowli. Producent: Schomburg, g) Eurolan 3K – roztwór asfaltowy (rozcieńczany wodą w stosunku 1:10) do gruntowania podłoży betonowych, wypraw cementowych, murów. Producent: Deitermann z Wrocławia, h) Superflex-10 – elastyczna, nie zawierająca rozpuszczalnika, dwuskładnikowa masa bitumiczna do wykonywania izolacji przeciwwilgociowych i przeciwwodnych, nakładana na izolowane powierzchnie szpachlą lub kielnią, warstwą grubości 3–6 mm (zużycie 4–6 l/m2). Producent: Deitermann z Wrocławia, i) Ceresit CP-43 – elastyczna masa bitumiczna, dwuskładnikowa, zbrojona włóknami, modyfikowana kauczukiem. Producent: Henkel. • Lepiki asfaltowe z wypełniaczami lub bez (mogą zawierać również dodatek substancji uplastyczniających) stosowane na gorąco. Mogą służyć do wykonywania powłok wodoszczelnych typu lekkiego. Uszczelniające powłoki i zaprawy cementowe, tzw. sztywne Przygotowane fabrycznie suche mieszanki cementów portlandzkich (zwykle marki 35 bez dodatków), kruszywa o starannie dobranym uziarnieniu i chemicznych środków modyfikujących, po dodaniu odpowiedniej ilości wody (lub specjalnej emulsji) stanowią zaprawy uszczelniające zwane często szlamami. Konsystencja (gęstej śmietany) umożliwia nakładanie ich pędzlem, szczotką a nawet aparatem natryskowym na mineralne podłoże (beton, mur, tynk), uprzednio dobrze zmoczone, ale bez wody zastoinowej. Najczęściej wymagane jest ułożenie 2–3 warstw grubości ok. 1 mm każda, według zasady „mokre na mokre” oraz pielęgnowanie, zależnie od temperatury otoczenia i nasłonecznienia (zraszanie wodą). Podczas prowadzenia prac należy przestrzegać zaleceń podawanych przez producenta danego wyrobu [3, 6]. Powłoki uszczelniające chronią powierzchnie przed działaniem wilgoci, lecz nie zabezpieczają przed stałym działaniem wody pod ciśnieniem. Przykładowe materiały [3, 4]: Ceresit CR-65 firmy Henkel, Aquafin-1K firmy Schomburg, Aida Sulfatexschlämme firmy Remmers, Cerinol DS firmy Deitermann. Powłoki cementowe uszczelniające przez krystalizację – XYPEX XYPEX to materiał i metoda do wgłębnego beziniekcyjnego uszczelniania betonu. Jest to unikalny chemiczny sposób wgłębnego beziniekcyjnego uszczelniania i zabezpieczania betonu. Pełną wodoszczelność uzyskuje się przez krystalizację. Preparat ten jest wytwarzany i dostarczany w postaci suchego proszku Hydroizolacje w obiektach budowlanych ... 163 będącego specjalną kompozycją cementu portlandzkiego, drobnoziarnistego piasku krzemionkowego i wielu aktywnych (firmowych) substancji chemicznych. Po zmieszaniu z wodą XYPEX jest nanoszony na powierzchnię betonu w postaci powłoki z zaczynu cementowego, tzw. szlamu. Zawarte w tym zaczynie aktywne substancje szybko przenikają w głąb wilgotnego betonu, inicjując tam reakcje katalityczne, w wyniku których tworzą się nierozpuszczalne substancje, krystaliczne związki. Rozbudowują się one szybko, wypełniając włóknistym „rusztem” krystalicznym pory, kapilary i szczeliny betonu. Wypierają z nich wodę wraz z innymi zawartymi w niej substancjami. W ten sposób w coraz to głębszych partiach następuje osuszanie i trwałe samouszczelnienie się betonu przeciwko przenikaniu wody i innych płynów z dowolnego kierunku. XYPEX umożliwia dyfuzję pary wodnej. Może być nakładany na świeży beton już po 20 godzinach od wylania, a najlepiej przed upływem 72 godzin. Nie można nakładać XYPEX-u w czasie opadów i temperatur poniżej +4°C. Najlepsze rezultaty uzyskuje się, gdy nakładanie przeprowadza się w temperaturach powyżej +7°C. Pielęgnacja odbywa się przez spryskiwanie powierzchni mgiełką wody 2–3 razy dziennie przez 2–3 doby. W tym czasie należy chronić powierzchnię pokrytą XYPEX-em przed słońcem, deszczem, mrozem i polewaniem wodą. Zbiorniki na wodę mogą być napełnione dopiero po upływie 12 dni od momentu zastosowania XYPEX-u. Elastyczne, wodoodporne powłoki i zaprawy Są wytwarzane na bazie cementu z dodatkiem środków polimerowych. Przygotowanie i sposób nakładania są podobne jak w przypadku powłok sztywnych. Stosuje się je jako zabezpieczenie wodochronne konstrukcji poddanych ruchom strukturalnym. Są skuteczną ochroną w wypadku niewielkiego ciśnienia hydrostatycznego działającego okresowo [3, 6]. Przykładowe materiały [3, 4]: Ceresit CR-166 firmy Henkel, Aquafin-2K firmy Schomburg, Aida Elastoschlämme firmy Remmers, Cerinol DS oraz Flex firmy Deitermann, Webac 6511 firmy Webac, Icosit Membrane firmy Sika. Betony i zaprawy uszczelniające Poza cienkimi warstwami uszczelniającymi, układanymi na powierzchniach elementów budowlanych, można z nich wykonywać nowe tynki, gładzie cementowe a nawet elementy betonowe wodoszczelne. Uzyskuje się je przez dodanie do przygotowywanych mieszanek odpowiednich środków uszczelniających w postaci proszku lub płynu [3, 6]. Przykładowe materiały [3, 4]: Ceresit CC-92 (proszek) i Ceresit CC-93 (płyn) firmy Henkel, Aida Pulver (proszek) firmy Remmers, Hydrostop firmy Hydrostop z Warszawy. 164 A. Starakiewicz Warstwy kontaktowe, tzw. obrzutki Są wykonywane w celu uzyskania dobrej przyczepności do podłoża układanych warstw tynku lub betonu. Składają się z cementu, kruszywa oraz wody zarobowej z dodatkiem specjalnej emulsji. Obrzutką zwykle pokrywa się 50– 70% powierzchni a następnie, na nie w pełni stwardniały materiał, układa się pierwszą warstwę tynku. Emulsję kontaktową można również dodawać do zapraw i betonów, poprawiając w ten sposób przyczepność do podłoża, urabialność, elastyczność, odporność na spękanie układanych warstw [3, 6]. Przykładowe materiały [3]: emulsja kontaktowa Ceresit CC-81 firmy Henkel, mineralna warstwa szczepna – Cerinol firmy Deitermann. Preparaty do tamowania wycieków wody Są to mieszanki cementów hydraulicznych, starannie dobranego kruszywa oraz środków modyfikujących. Po wymieszaniu z wodą tworzą prawie natychmiast wiążącą zaprawę wodoszczelną, która tamuje wycieki wody (nawet pod ciśnieniem). Przykładowe materiały [3, 4]: Ceresit CX-5 firmy Henkel, Aida Rapid-harter firmy „Remmers”, FIX 10-s firmy Schomburg, Hydrostop-Fix firmy Hydrostop z Warszawy. 2.2. Hydroizolacje z membran i materiałów rolowych Papy na osnowie z tektury Są produkowane jako podkładowe i wierzchniego krycia. Stosuje się je głównie w pokryciach dachowych nowych budynków i do renowacji pokryć istniejących. Do niedawna były one powszechnie stosowane do wykonywania poziomych i pionowych izolacji przeciwwilgociowych i przeciwwodnych. Papę asfaltową przykleja się lepikiem do zagruntowanego podłoża, a następnie (również na lepiku) przykleja się papę wierzchniego krycia (z posypką). Obecnie nie zaleca się stosować pap asfaltowych na osnowie z tektury budowlanej w izolacjach przeciwwodnych będących pod stałym działaniem wody naporowej, podobnie jak pap izolacyjnych l/400. Zastępują je obecnie papy asfaltowe produkowane na osnowie z włókna szklanego lub włókniny poliestrowej. Papy termozgrzewalne Są produkowane na osnowie z włókna szklanego lub włókniny poliestrowej i masy asfaltowej modyfikowanej elastomerem SBS lub plastomerem APP. Papy na osnowie z włókniny poliestrowej charakteryzują się znaczną (30–40%) wydłużalnością przy rozciąganiu w porównaniu z ok. 2% wydłużalnością pap asfaltowych na osnowie z tektury budowlanej lub włókna szklanego. Papy termozgrzewalne przykleja się do zagruntowanego podłoża oraz skleja między sobą przez nadtopienie masy bitumicznej (naniesionej fabrycznie na spód papy) płomieniem palnika gazowego i dociśnięcie do izolowanej powierzchni. Papy ter- Hydroizolacje w obiektach budowlanych ... 165 mozgrzewalne przeznaczone są do wykonywania pokryć dachowych i do wszelkiego rodzaju hydroizolacji. Papy samoprzylepne Po zagruntowaniu podłoża odpowiednim dla danego rodzaju papy preparatem gruntującym, konieczne są tylko dwie czynności: ściągnięcie przekładki antyadhezyjnej (folia lub papier woskowany) i przyciśnięcie papy do podłoża. Papy samoprzylepne mogą być stosowane do wszystkich hydroizolacji z warstwą osłaniającą i dociskającą do podłoża. Przykładowe materiały [3–5]: papy asfaltowe zgrzewalne Phonix PF5500 wierzchniego krycia i Phonix PF3500SBS podkładowa, firmy Dach-Dek z Pruszcza Gdańskiego, papy asfaltowe zgrzewalne na osnowie z włókniny poliestrowej firmy Izolacja-Matizol w Gorlicach, polimerowo-asfaltowe papy zgrzewalne na osnowie z włókniny poliestrowej Polbit WF i Polbit PF firmy Izolacja S.A. Zduńska Wola, papy asfaltowe zgrzewalne AWA, Bonnaplan, Awaplan firmy Tengger West-Awa z Kielc, papy asfaltowe zgrzewalne Vedatect firmy Vedag Polska z Zielonej Góry. Folie izolacyjne Wodoodporne folie budowlane wykonane z PVC i PE, mogą stanowić samodzielne izolacje wodochronne pod warunkiem, że będą ułożone na równym i czystym podłożu oraz właściwie połączone na zakładach arkuszy. Folie często układa się luzem na powierzchniach izolowanych, klejąc je do podłoża jedynie punktowo lub na załamaniach powierzchni. Złącza arkuszy mogą być zgrzewane, klejone odpowiednimi klejami, można też je uszczelnić przez naklejenie pasków papy samoprzylepnej lub taśmy uszczelniającej. Przykładowe materiały [3–5]: • folie polietylenowe budowlane Lignofol firmy ZTS Egr-Bieruń z Bierunia, • folia izolacyjna PVC (Benzowinyl W) grubości 0,8; 1,0; 1,5; 2,0; 2,5 mm firmy ZTS Egr z Oławy, • folia budowlana PVC grubości 1,0; 1,5; 2,0 mm firmy ZTS Gamrat z Jasła, • folia izolacyjna z polietylenu małej gęstości (PE-LD), grubości 0,15; 0,165; 0,18; 0,2; 0,5 mm firmy OBR Przemysłu Rafineryjnego z Płocka, • folia izolacyjna z polietylenu, wysokiej gęstości (PE-HD) Junifol firmy Foleko Sp. ze Świdnicy, • folia budowlana z odpadów PCW-Plastpapa firmy PTS Pol-Win z Kępna, • membrana izolacyjna Ceresit BT-21 – samoprzylepna, odporna na rozrywanie, podwójnie laminowana folia polietylenowa z naniesioną bitumiczno-kauczukową masą klejąco-uszczelniającą firmy Henkel. 166 A. Starakiewicz Folie wytłaczane Są wykonane z polietylenu dużej gęstości (PE-HD) z wytłoczeniami w kształcie stożków ściętych lub prostopadłościanów wysokości 6–20 mm. Producenci zalecają układać je na płaszczyznach poziomych i pionowych. Do powierzchni pionowych folię mocuje się mechanicznie, na górnej krawędzi zakłada się listwę osłonową, a połączenia arkuszy folii wykonuje się na zakład z ewentualnym uzupełnieniem taśmą uszczelniającą. Folie wytłaczane są dobrym zabezpieczeniem izolacji przeciwwilgociowych i przeciwwodnych przed mechanicznymi uszkodzeniami podczas zasypywania wykopu, przy osiadaniu budynku oraz przed niszczącym działaniem korzeni. Ułożone na ścianach fundamentowych powodują szybki odpływ wody opadowej oraz zapewniają dodatkową wentylację izolacji przeciwwilgociowej. Nie zaleca się ich stosować jako samodzielnych izolacji przeciwwodnych, ponieważ nie zapewniają pełnego zabezpieczenia przeciwwilgociowego izolowanych powierzchni. Przykładowe materiały [3–5]: folie tłoczone z polietylenu (PE-HD) DeltaMS firmy Dorken Gutta, folie tłoczone z polietylenu (PE-HD) Tefond, Tefond Plus, Tefond HP firmy Tegola Polonia z Łodzi, folie tłoczone z polietylenu (PE-HD) Fondaline firmy Onduline. Materiały Budowlane z Warszawy, folie tłoczone z polietylenu (PE-HD) systemu Platon firmy Isola As, Fabrik Platon z Norwegii. Materiały uzupełniające Do tej grupy należą następujące materiały: • Taśmy uszczelniające do izolowania styków elementów budowlanych, rys i pęknięć oraz dylatacji. Mogą mieć różną osnowę i masę powłokową. Produkowane są też z tworzyw sztucznych, np. taśmy do dylatacji konstrukcji. • Masy i kity uszczelniające (silikonowe, akrylowe, poliuretanowe, butylenowe, polisulfidowe itd.) służące do wypełniania szczelin, fug, połączeń elementów budowlanych, w instalacjach sanitarnych, do osadzania stolarki budowlanej itp. • Środki hydrofobowe w postaci płynów na rozcieńczalnikach organicznych lub wodnych, stosowane do hydrofobizacji powierzchniowej (np. w zabezpieczeniach elewacji) lub strukturalnej, do wytwarzania w murach blokady hydrofobowej przed kapilarnym wznoszeniem się wilgoci. • Do grupy materiałów izolacyjnych można też zaliczyć niektóre farby i lakiery chroniące drewno i metale, tynki renowacyjne, masy na bazie żywic poliestrowych i epoksydowych, uszczelki. Hydroizolacje w obiektach budowlanych ... 167 2.3. Wyroby z bentonitu Umożliwiają skuteczne zabezpieczenie przed infiltracją wody. Minerał ten, chłonąc wodę, pęcznieje nawet 15-krotnie, ale przy ograniczeniu swobody pęcznienia przekształca się w żelową przeponę blokującą przedostawanie się wody. W zależności od rodzaju izolowanego elementu i od warunków wodnogruntowych można stosować granulat bentonitu w różnych formach, jako: • wypełnienie płyt z tektury falistej (zewnętrzna powłoka ścian, spód płyt fundamentowych), • membrany kompozytowe (ściany fundamentowe, otwarte wykopy, tarasy), • maty (podziemne części budynków), • geomaty (składowiska odpadów, zbiorniki wodne, torowiska w obszarach chronionych). Zaletą tego typu izolacji jest zdolność do samoczynnego naprawiania (jeśli po zainstalowaniu nastąpi z jakiegoś powodu przebicie izolacji, miejsce to zabliźni się samoczynnie pod wpływem wody – powstała przestrzeń sprzyja pęcznieniu bentonitu), wnikanie w zabezpieczaną powierzchnię i jej uszczelnianie, odporność na znaczne ciśnienia hydrostatyczne, możliwość szybkiego i łatwego układania przy niemal każdej pogodzie, niezastąpione przy stosowaniu bezpośrednio na stałych obudowach wykopów lub deskowaniach fundamentowych, pełna kontrola przed przykryciem. 2.4. Inne wyroby do hydroizolacji budynków Płyty z cementu i celulozy z hydroizolacją Są niepodatne na rozwój grzybów i pleśni. Nadają się do miejsc ciągle narażonych na stałe oddziaływanie wody lub wysokiej wilgotności powietrza. Montuje się je analogicznie jak płyty gipsowo-kartonowe (można z nich również wykonywać ścianki działowe). Do uszczelnień i połączeń stosuje się elastyczne, wodoodporne masy lub zaprawy. Na płytach można bezpośrednio układać płytki ceramiczne lub kleić tapety. Systemy odwadniania i drenażu Niewątpliwym postępem technologicznym w tej dziedzinie jest zastąpienie rur ceramicznych karbowanymi rurami z tworzyw sztucznych. Godne polecenia są, odmienne od rurowego, systemowe rozwiązania konstrukcyjne drenażu, począwszy od siatek pokrywanych geowłókniną, przez maty ze spętlonych drucików, aż po profile obłożone dwustronnie włókniną do drenażu kierunkowego, które pozwalają na skuteczniejsze odwodnienie terenu niż tradycyjny system drenarski. 168 A. Starakiewicz Literatura [1] [2] [3] [4] Żenczykowski W.: Budownictwo ogólne. T. 3., Arkady, Warszawa 1992 Poradnik majstra budowlanego. Praca zbiorowa, Arkady, Warszawa 1985 Materiały budowlane. Nr 10/97, 9/98, 11/98 Budowlany Informator Techniczny. Nr 5/99, 2/00, 3/00, 7/8/01, 11/01, 12/01, 2/02, 6/02 [5] Murator. Nr 7/94, 9/99, 2/00, 6/00, 1/01, 4/01 [6] Budownictwo fachowe. Nr 1/01 HYDROISOLATIONS IN THE BUILDINGS – REVIEW OF MATERIALS Summary First the paper presents the general division of hydroisolations depending on the protective functions in the structures, water-ground conditions and the type of used material. The final part gives detailed technological-material solutions. Złożono w Oficynie Wydawniczej w marcu 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Szczepan WOLIŃSKI Politechnika Rzeszowska METODY SYMULACYJNE W PROBABILISTYCZNYM PROJEKTOWANIU KONSTRUKCJI Z BETONU W pracy przedstawiono przegląd metod symulacyjnych stosowanych w probabilistycznym projektowaniu konstrukcji z betonu. Szczegółowo opisano procedury probabilistycznego projektowania i oceny niezawodności konstrukcji budowlanych z wykorzystaniem metody bezpośredniej symulacji Monte Carlo. Przedstawiono również zwięźle udoskonalone metody symulacji Monte Carlo: symulacji według funkcji ważności, symulacji kierunkowej i metodę losowania według hipersześcianów łacińskich. W celu zilustrowania procedur wymiarowania probabilistycznego metodami symulacyjnymi i porównania wyników z uzyskanymi metodą półprobabilistyczną, podano przykłady liczbowe wymiarowania żelbetowego elementu mimośrodowo ściskanego. 1. Wprowadzenie Podstawową i najprostszą metodą symulacyjną jest metoda Monte Carlo. Nazwa tej metody wiąże się z kasynem Monte Carlo w Monaco i trafnie odzwierciedla jej istotę, którą jest losowa gra. Naukowe podstawy i pierwsze praktyczne zastosowania metody symulacyjnej Monte Carlo (MSMC) wiąże się z programem budowy bomby atomowej (projekt Manhattan – Los Alamos, USA), w szczególności z zagadnieniem dyfuzji w materiałach rozszczepialnych. Opracowanie podstaw naukowych metody jest w dużym stopniu zasługą polskiego matematyka S. Ulama [1]. Duże znaczenie metod symulacyjnych w stochastycznej mechanice i teorii niezawodności konstrukcji budowlanych przewidywał już w latach czterdziestych XX w. M. Freudenthal [2]. Pierwsze znaczące prace dotyczące zastosowań metod symulacyjnych w mechanice konstrukcji opublikował na przełomie lat sześćdziesiątych i siedemdziesiątych M. Shinozuka [3, 4]. Informacje na temat obecnego stanu wiedzy w tej dziedzinie można znaleźć w opracowaniu [5]. Ogromny wzrost możliwości obliczeniowych i powszechny dostęp do komputerów w latach dziewięćdziesiątych ubiegłego wieku, umożliwiły efektywne zastosowania MSMC w wielu dziedzinach nauki, medycyny i techniki. Metody symulacyjne są najbardziej uniwersalnymi i efektyw- 170 S. Woliński nymi metodami analizy i projektowania konstrukcji w warunkach niepewności. Coraz bardziej powszechny i akceptowany jest ostatnio pogląd, że możliwości praktycznego wykorzystania probabilistycznych metod projektowania konstrukcji budowlanych wiążą się z zastosowaniami metod symulacyjnych [6, 7]. 2. Procedura bezpośredniej symulacji Monte Carlo Podstawą metod symulacyjnych jest odpowiednio liczny zbiór liczb losowych lub częściej liczb pseudolosowych, tzn. generowanych przez program komputerowy. Jakość liczb pseudolosowych, a przede wszystkim możliwość generowania różnych, bardzo długich sekwencji statystycznie niezależnych liczb równomiernie rozłożonych w przedziale (0, 1) i ich transformacji na liczby o określonym, nierównomiernym rozkładzie w dowolnym przedziale (a, b), decydują o dokładności obliczeń symulacyjnych. Zagadnienia opracowania i weryfikacji algorytmów wyznaczania liczb pseudolosowych są od wielu lat przedmiotem intensywnych badań wielu matematyków [8]. W obliczeniach inżynierskich wykorzystywane są zwykle dobrze sprawdzone i szeroko stosowane standardowe programy-generatory liczb pseudolosowych. Symulację można zdefiniować jako sztuczne eksperymentowanie, najczęściej z wykorzystaniem modelu rzeczywistego systemu, konstrukcji czy zjawiska, a jej celem jest obserwacja zdarzeń związanych z funkcjonowaniem systemu. W przypadku konstrukcji lub elementu konstrukcyjnego takimi zdarzeniami mogą być zniszczenia, uszkodzenia, zarysowania, ugięcia lub inne wielkości charakteryzujące odpowiedź konstrukcji na oddziaływania. Zachowanie się konstrukcji można w większości przypadków opisać za pomocą modeli matematycznych. Symulacja eksperymentu polega wówczas na obliczeniu odpowiedzi konstrukcji na oddziaływania o ustalonych wartościach, wielokrotnym powtórzeniu obliczeń w odniesieniu do różnych wartości oddziaływań, opracowaniu, przechowaniu i interpretacji uzyskanego zbioru wyników. Jeśli wszystkie charakterystyki i operacje związane z symulacją są zdeterminowane, to jest ona symulacją deterministyczną. W przypadku symulacji losowej co najmniej jedna z charakterystyk konstrukcji lub operacji ma charakter losowy. Procedury projektowania i oceny niezawodności Procedurę probabilistycznego projektowania konstrukcji (tzn. wymiarowania miarodajnych przekrojów lub fragmentów konstrukcji) za pomocą symulacji Monte Carlo można przedstawić w następujący sposób (rys. 1.): a) założyć liczbę symulacji N i wygenerować m ciągów po N liczb pseudolosowych o rozkładach prawdopodobieństwa zgodnych z rozkładami wejściowych zmiennych losowych Zj, j = 1, 2, ..., n, Metody symulacyjne w probabilistycznym projektowaniu ... 171 Rys. 1. Procedura probabilistycznego wymiarowania konstrukcji metodą symulacji Monte Carlo b) z warunku rozważanego stanu granicznego lub zniszczenia przekroju obliczyć wartości poszukiwanej losowej zmiennej wyjściowej (np. pola przekroju zbrojenia) dla wszystkich N zbiorów wartości zmiennych wejściowych, c) na podstawie obliczonego zbioru N wartości zmiennej wyjściowej oszacować poszukiwaną wielkość jako wartość tej zmiennej (kwantyl), której zaniżenie jest dopuszczalne z założonym docelowym prawdopodobieństwem pfd, i ocenić dokładność uzyskanego rozwiązania. Procedura oceny niezawodności konstrukcji za pomocą symulacji Monte Carlo może być przedstawiona w następujący sposób (rys. 2.): a) jak w przypadku projektowania, b) obliczyć wartości efektu oddziaływań i nośności (odporności, odkształceń itp.) konstrukcji dla wszystkich wygenerowanych zbiorów wartości zmiennych wejściowych, c) obliczyć prawdopodobieństwo pf, że wartości oddziaływań będą większe od nośności (odporności, odkształceń itp.) jako iloraz liczby wyników zdarzeń polegających na przekroczeniu nośności i ogólnej liczby wyników lub jako różnicę zmiennych losowo nośności i efektu oddziaływań oraz ocenić dokładność wyniku obliczeń. 172 S. Woliński Rys. 2. Procedura oceny niezawodności konstrukcji metodą symulacji Monte Carlo Zmienne losowe uwzględnione w obliczeniach można przedstawić w postaci parametrycznej (określając rodzaj rozkładu i jego parametry) lub w postaci nieparametrycznej, najczęściej w formie histogramu słupkowego. Drugi sposób jest częściej stosowany, przede wszystkim ze względu na łatwość zapisu i przetwarzania tak zapisanej informacji. Pierwszym krokiem procedur projektowania i oceny niezawodności jest wygenerowanie N liczb pseudolosowych xi równomiernie rozłożonych w przedziale (0, 1); X ∈ {U (0, 1)}, a następnie przekształcenie ich w liczby zi rozłożone zgodnie z rozkładami zmiennych wejściowych w określonym przedziale (a, b); Zi ∈ {Di (ai, bi), gdzie: i = 1, 2,..., n, a D oznacza rodzaj rozkładu zmiennej losowej. W tym celu stosuje się najczęściej metodę transformacji odwrotnej; Z = F–1(U), gdzie F–1 jest funkcją odwrotną dystrybuanty zmiennej losowej Z. Schemat tej metody przedstawiono na rys. 3. W zależności od rodzaju rozkładu rozwiązanie można uzyskać analitycznie (np. w przypadku rozkładu wykładniczego) lub numerycznie (np. dla rozkładu normalnego). Jako zmienne losowe w obliczeniach probabilistycznych są najczęściej przyjmowane: oddziaływania Q, właściwości materiałowe (np. wytrzymałości) f, wymiary geometryczne d, współczynniki charakteryzujące dokładność obliczeń η. Są nimi również zmienne obliczane jako efekt oddziaływań na konstrukcję (np. siły wewnętrzne) S i nośność lub odporność konstrukcji R. Metody symulacyjne w probabilistycznym projektowaniu ... 173 Rys. 3. Schemat metody transformacji odwrotnej Przedstawione procedury projektowania probabilistycznego i oceny niezawodności konstrukcji dotyczą sytuacji, kiedy zmienne losowe występujące w obliczeniach są niezależne. W praktyce są one często skorelowane, co wpływa znacząco na wyniki obliczeń. Jednak znając dowolną, pełną macierz kowariancji, można za pomocą transformacji ortogonalnej przekształcić zbiór takich zmiennych w zbiór zmiennych niezależnych i zastosować opisane wcześniej procedury MSMC. Dokładność obliczeń symulacyjnych Korzystając z centralnego twierdzenia granicznego i nierówności Czebyszewa [8], przy założeniu, że wartość estymatora pf = 1 N N ∑p fi jest zawar- i ta w przedziale ufności ( p f – ε, p f + ε) na poziomie ufności 1 – α, można oszacować minimalną liczbę symulacji Nn Φ −1 (1 − α / 2) N n = p f (1 − p f ) ε 2 (1) gdzie Φ –1 jest funkcją odwrotną dystrybuanty rozkładu normalnego, a Nn jest dostatecznie dużą liczbą. Wariancję estymatora wartości oczekiwanej prawdopodobieństwa zniszczenia var{ p f} można oszacować z zależności var{ p f }= p f (1 − p f ) N (2) 174 S. Woliński a współczynnik zmienności oceny prawdopodobieństwa zniszczenia vpf można obliczyć ze wzoru v pf = 1− p f Np f (3) Z powyższych zależności wynika, że bezwzględny błąd estymacji wartości p f obliczonej symulacyjną metodą Monte Carlo zmniejsza się z wartością N–1/2, niezależnie od liczby zmiennych losowych n uwzględnionych w obliczeniach. Natomiast liczba symulacji niezbędnych do uzyskania wyniku obliczeń z założonym dopuszczalnym błędem jest proporcjonalna do 1/pfd. W przypadku zastosowania metod analitycznych lub numerycznych błąd obliczeń zmniejsza się z wartością N–1/n, czyli znacznie wolniej niż w obliczeniach MSMC [9]. Teoretycznie, uzyskanie dokładności obliczeń akceptowalnej w projektowaniu i ocenie niezawodności konstrukcji budowlanych wymaga liczby symulacji N ≥ (25 ÷ 100) pfd–1, co wobec bardzo małych dopuszczalnych (docelowych) wartości prawdopodobieństwa zniszczenia lub osiągnięcia stanu granicznego pfd = 10–3 ÷ 10–7 prowadzi do wartości N ≥ 25 × 103 ÷ 109. W praktyce zadowalającą zbieżność wyników symulacji otrzymuje się w przypadkach typowych obliczeń już dla N ≥ 105. Możliwość zastosowania bezpośredniej symulacji Monte Carlo do projektowania i oceny niezawodności konstrukcji daje zestaw programów komputerowych opracowany przez P. Marka i M. Gustara [7, 10]. Programy te opracowano, wykorzystując standardowy program Borland Pascal 7.0 jako generator liczb pseudolosowych, i przedstawiając zmienne losowe uwzględnione w obliczeniach w postaci histogramów słupkowych. 3. Udoskonalone procedury symulacji Monte Carlo Zastosowanie metody bezpośredniej symulacji Monte Carlo jest często jedynym sposobem uzyskania rozwiązania zagadnień probabilistycznego projektowania i oceny niezawodności konstrukcji, zwłaszcza kiedy warunek zniszczenia zawiera n > 2 zmiennych losowych i/lub jest silnie nieliniowy, wskutek czego metoda linearyzacji statystycznej może prowadzić do dużych i trudnych do oszacowania błędów. Ze wzrostem stopnia komplikacji zadania, liczby uwzględnionych zmiennych wejściowych i wymaganej dokładności obliczeń bardzo szybko zwiększa się niezbędna liczba symulacji N, wydłuża się czas obliczeń i rośnie ich koszt. Ponadto w wielu wypadkach jedynie niewielka część uzyskanych wyników ma znaczący wpływ na zakres gromadzonej informacji statystycznej. W celu zredukowania błędu obliczeń, czyli zmniejszenia wariancji Metody symulacyjne w probabilistycznym projektowaniu ... 175 oceny p f dla przyjętej liczby symulacji N, lub zmniejszenia niezbędnej liczby symulacji N przy założonej dokładności oceny p f, stosowane są różne procedury pozwalające na wykorzystanie dodatkowych informacji na temat rozważanego zagadnienia. Do najczęściej stosowanych sposobów modyfikacji bezpośredniej symulacji Monte Carlo (nazywanych również metodami redukcji wariancji MRW), można zaliczyć, między innymi, metody: symulacji według funkcji ważności h i różnych modyfikacji tej metody, losowania warstwowego, symulacji kierunkowej (lub symulacji w kierunku), losowania według hipersześcianów łacińskich, kontrolowanej symulacji Monte Carlo [11, 12]. Symulacja według funkcji ważności Prawdopodobieństwo zniszczenia konstrukcji pf , w przypadku gdy warunek zniszczenia nie zależy od czasu, można obliczyć z zależności pf = ∫ f ( Z )dz (4) FA gdzie: f(Z) – n-wymiarowa funkcja gęstości rozkładu wektora podstawowych zmiennych losowych Z = (Z1, Z2,..., Zn)T, FA – obszar zniszczenia określony przez warunek zniszczenia (lub warunek stanu granicznego) gl (Z), l = 1, 2, ..., m. Metoda symulacji Monte Carlo według funkcji ważności polega na arbitralnym wyborze funkcji ważności h(z), tak aby ∞ pf = f ( z) f ( z) ∫ I [ g ( z )] h( z ) h( z )dz = E I [ g ( z )] h( z ) (5) −∞ gdzie: I[g(z)] = 1, jeżeli g(z) ≤ 0 lub I[g(z)] = 0, jeżeli g(z) > 0, E{...}oznacza operację obliczania wartości oczekiwanej. Estymatory wartości oczekiwanej p f i jej wariancji var{ p f } można obliczyć po wykonaniu N symulacji, z zależności pf = 1 N f ( zi ) N ∑ I [ g ( z )] h( z ) i i =1 (6) i var{ p f} = σ p = 2 N 1 ( p f ,i − p f ) 2 ∑ ( N − 1) i =1 (7) 176 S. Woliński Wariancja var{ p f} obliczona ze wzoru (7) osiąga wartość zero dla idealnie dobranej funkcji ważności h(z) = f(z)/pf , co oczywiście jest w praktyce niemożliwe, ponieważ pf nie jest z góry znane. Do obliczania wskaźnika niezawodności β konstrukcji (który jest miarą niezawodności stosowaną w uproszczonej metodzie probabilistycznej poziomu 2) można wykorzystać program ISPUD [13]. Zgodnie z założeniami metody wskaźnika niezawodności β, wszystkie zmienne wejściowe Zi są traktowane jako zmienne normalne i statystycznie niezależne, a w innych przypadkach wymagają przekształcenia do takiej postaci według specjalnych, wymagających indywidualnego opracowania procedur. W programie ISPUD jako funkcję ważności h(z) wykorzystano funkcję gęstości rozkładu normalnego o wartości średniej w punkcie obliczeniowym. Ocena efektywności symulacji według funkcji ważności jest trudna do weryfikacji, bowiem w dużym stopniu zależy od trafności doboru funkcji ważności h(z). Z drugiej strony, zwiększenie efektywności jest związane ze zmniejszeniem ogólności przyjętej procedury obliczeń. Na podstawie opublikowanych wyników obliczeń, na przykład [14], można zauważyć, że jest to procedura bardzo efektywna w odniesieniu do zagadnień liniowych i w niewielkim stopniu nieliniowych. Natomiast jest praktycznie „nieopłacalna” w przypadkach: zagadnień silnie nieliniowych, braku wstępnej informacji o gęstości rozkładu zmiennych stanu w obszarze zniszczenia, oraz gdy możliwe są różne mechanizmy zniszczenia konstrukcji. W takich sytuacjach stosowane są zmodyfikowane wersje tej metody, na przykład procedury adaptacyjne polegające na obliczeniu lokalnych funkcji ważności i oszacowaniu funkcji wypadkowej jako średniej ważonej [15]. Pozwalają one na znaczne zmniejszenie (nawet 100–1000-krotne) niezbędnej liczby symulacji w stosunku do wymaganej w przypadku symulacji bezpośredniej. Symulacja kierunkowa Podstawowym pomysłem, na którym opiera się metoda symulacji kierunkowej jest transformacja podstawowych zmiennych losowych Z (gaussowskich lub znormalizowanych, np. za pomocą transformacji Rosenblatta) do współrzędnych biegunowych (λ, Θ1, Θ2,...). Wektor jednostkowy Θ określa kierunek, a skalar λ długość tego wektora w przestrzeni zmiennych Z. Zależność (4) można wówczas zapisać w postaci p f = ∫ p[ g ( λΘ ) ≤ 0] f (Θ )dΘ S gdzie: ∫ (.) S – całka powierzchniowa, (8) Metody symulacyjne w probabilistycznym projektowaniu ... 177 f (Θ ) – gęstość prawdopodobieństwa rozkładu równomiernego na powierzchni zniszczenia S. Następnie należy obliczyć wartości λl dla każdego kierunku Θl, tak aby gl = = g(λl, Θl) = 0. Parametr λl jest miarą odległości początku układu współrzędnych od powierzchni zniszczenia (granicznej) w kierunku określonym przez wektor Θl, a jego wartość można obliczyć za pomocą procedury iteracyjnej. Ocenę prawdopodobieństwa zniszczenia pf można uzyskać po wykonaniu N symulacji. Jako wynik każdej symulacji l otrzymuje się wartość pl pl = P[ g ( λl ,Θ l ) < 0] = 1 − χ 2 (λl , m ) (9) gdzie: χ 2 (.) – funkcja gęstości rozkładu chi-kwadrat, m – liczba zmiennych losowych uwzględnionych w warunku zniszczenia (stanu granicznego). Estymator wartości oczekiwanej prawdopodobieństwa zniszczenia p f można obliczyć jako średnią arytmetyczną wartości pl dla l = 1, 2,..., N. W celu uzyskania akceptowalnej dokładności obliczeń, to znaczy vpf < < 5–10%, niezbędną liczbę symulacji szacuje się na około N ≈ 160 m [16]. Na przykład, niezależnie od liczby zmiennych losowych uwzględnionych w warunku zniszczenia m, przy założeniu pfd = 0,001 i vpf = 0,05 (lub 0,10), niezbędną liczbę symulacji w bezpośredniej metodzie Monte Carlo można obliczyć ze wzoru (3): N = 399200 (lub 99800). Jest to liczba około 300 razy większa niż liczba symulacji potrzebna do osiągnięcia tej samej dokładności w metodzie symulacji kierunkowej dla m = 2, 156 razy mniejsza, gdy m = 4, 62 razy mniejsza, gdy m = 10 i 6 razy mniejsza, gdy m = 100. Oczywiście, jest to korzyść okupiona koniecznością opracowania indywidualnych procedur normalizacji wejściowych zmiennych losowych i ich transformacji do współrzędnych biegunowych, co jest niekiedy zadaniem trudnym i pracochłonnym. Inne procedury Dość popularną procedurą pozwalającą na redukcję niezbędnej liczby symulacji jest metoda losowania według hipersześcianów łacińskich. W przypadku symulacji wartości funkcji g = g(Z1, Z2,..., Zm) tą metodą, kolejne kroki obliczeń można przedstawić w następujący sposób [6]. a) Podzielić rozważaną dziedzinę zmiennej Zl na N przedziałów tak, aby prawdopodobieństwo wystąpienia wartości Zl w każdym przedziale było równe 1/N. b) Dla każdej zmiennej Zi i dla każdego z N przedziałów wylosować wartość reprezentatywną w danym przedziale (w praktyce, jeśli liczba przedziałów 178 S. Woliński jest duża, można przyjąć bez losowania, że tą wartością jest średnia w danym przedziale). c) Po wykonaniu (a) i (b), mamy N reprezentatywnych wartości każdej z m zmiennych losowych. Ogólnie, istnieje Nm możliwych kombinacji tych wartości. Podstawowym zagadnieniem w metodzie hipersześcianów łacińskich jest określenie N takich kombinacji, aby każda wartość reprezentatywna pojawiła się tylko raz w zbiorze N kombinacji. d) Pierwszą kombinację można określić, wybierając losowo po jednej wartości reprezentatywnej dla każdej z m zmiennych wejściowych. Aby uzyskać drugą kombinację, należy losowo wybrać jedną z pozostałych N – 1 wartości reprezentatywnych każdej zmiennej losowej. Aby uzyskać trzecią kombinację, należy wybrać losowo jedną z pozostałych N – 2 wartości każdej zmiennej, i kontynuować procedurę wyboru aż do uzyskania N kombinacji wartości reprezentatywnych losowych zmiennych wejściowych. e) Z zależności g = g(Z1, Z2,..., Zl) obliczyć wartości gl dla każdej z N kombinacji wartości zmiennych wejściowych określonych wcześniej. Uzyskany zbiór wyników można potraktować jako zbiór wyników doświadczeń i obliczyć oceny (estymatory) poszukiwanych parametrów statystycznych lub/i empiryczny histogram rozkładu zmiennej wyjściowej g. W ostatnich latach są rozwijane, w szczególności do probabilistycznej analizy zagadnień z zakresu dynamiki konstrukcji, metody określane ogólnie jako kontrolowana symulacja Monte Carlo. Są to metody bardzo ogólne, adaptacyjne, niewymagające dodatkowych informacji a-priori na temat rozwiązania, ograniczenia liczby zmiennych, nieliniowości itp., i w związku z tym są z reguły mniej efektywne niż, na przykład, metoda symulacji według funkcji ważności [15]. Ponieważ metody symulacji Monte Carlo są oparte na generowaniu niezależnych próbek statystycznych wykorzystywanych następnie do obliczeń, odpowiednie procedury są bardzo dobrze przystosowane do przetwarzania równoległego. Oznacza to, że do wykonania tych samych obliczeń można użyć więcej niż jednego procesora. Z drugiej strony wiadomo, że zasadniczym zagadnieniem jest w takim przypadku szybka synchronizacja wielkiej liczby komunikatów wymienianych między procesorami. Przykładem możliwości efektywnego zastosowania przetwarzania równoległego mogą być obliczenia symulacyjne w przypadkach, kiedy występuje bardzo duża liczba zmiennych losowych, a obliczenia dla każdego wylosowanego zestawu wartości zmiennych wejściowych mogą być wykonane niezależnie. 4. Wymiarowanie i niezawodność konstrukcji z betonu Zgodnie z obowiązującymi obecnie w Polsce [17], zalecanymi w normie ISO 2394 [18] i wprowadzanymi w Unii Europejskiej [19, 20] zasadami projektowania i wymiarowania konstrukcji z betonu, podstawowym wymogiem, jaki Metody symulacyjne w probabilistycznym projektowaniu ... 179 powinny spełniać elementy i konstrukcje jest przenoszenie wszystkich oddziaływań, które mogą wystąpić w trakcie ich wznoszenia i użytkowania oraz zapewnienie przydatności do użytkowania zgodnie z przeznaczeniem, a także z uwzględnieniem przewidywanego okresu użytkowania i z akceptowalnym prawdopodobieństwem (niezawodnością) Q = 1 – pfd. Z punktu widzenia stosownych miar niezawodności podstawową metodą projektowania i analizy konstrukcji są obecnie metody półprobabilistyczne, w których wymagana niezawodność konstrukcji, a raczej elementów i przekrojów elementów konstrukcyjnych, jest zapewniona przez zastosowanie częściowych współczynników bezpieczeństwa modyfikujących charakterystyczne lub nominalne wartości zmiennych decydujących o stanie konstrukcji oraz zapewnienie właściwej kontroli jakości w procesie wytwarzania materiałów, elementów i wznoszenia konstrukcji. Zaleca się ponadto, aby wartości częściowych współczynników bezpieczeństwa były ustalane na podstawie analizy niezawodności konstrukcji, przy założeniu dopuszczalnego prawdopodobieństwa zniszczenia pfd, tzn. metodami probabilistycznymi. Oczywiście, zamiast takiej pośredniej procedury zapewnienia niezawodności, elementy i konstrukcje można wymiarować lub weryfikować ich niezawodność bezpośrednio, stosując uproszczone metody probabilistyczne lub metody w pełni probabilistyczne [6, 21]. Projekty norm europejskich i niektóre krajowe normy projektowania (np. argentyńska) dopuszczają taką możliwość i zawierają pewne zalecenia co do wyboru uproszczonych metod probabilistycznych, podają odpowiednie procedury obliczeniowe i przede wszystkim dopuszczalne wartości prawdopodobieństwa zniszczenia (osiągnięcia stanów granicznych przez elementy konstrukcyjne). W tabeli 1. podano wartości minimalne wskaźnika niezawodności β zalecane w projekcie normy europejskiej EC1 [19] i odpowiadające im dopuszczalne wartości prawdopodobieństwa osiągnięcia stanu granicznego (zniszczenia) pfd. Tabela 1. Minimalne wartości wskaźnika niezawodności β według EC 1 [19] i odpowiadające im dopuszczalne prawdopodobieństwa zniszczenia pfd Klasy niezawodności Docelowy wskaźnik niezawodności / dopuszczalne prawdopodobieństwo osiągnięcia stanu granicznego nośności β / pfd Okres odniesienia: 1 rok RC3 RC2 RC1 –7 5,2 / 0,9964 × 10 4,7 / 1,30 × 10–6 4,2 / 1,334 × 10–5 Okres odniesienia: 50 lat 4,3 / 0,854 × 10–5 3,8 / 7,20 × 10–5 3,3 / 4,84 × 10–4 Uwaga: Klasy niezawodności RC1, RC2, RC3 można powiązać z klasami konsekwencji zniszczenia lub nieprawidłowego funkcjonowania konstrukcji CC1, CC2, CC3, które zdefiniowano w sposób opisowy w normie EC 1. 180 S. Woliński Dla obiektów budowlanych klasy niezawodności RC2, których zniszczenie stwarza „przeciętne” zagrożenie życia ludzi i powoduje „znaczne” konsekwencje ekonomiczne i środowiskowe, podano w normie EC 1 [19] wartości docelowe β dla stanu granicznego użytkowalności, β = 2,9 (pfd = 1,87 × 10–3) dla okresu odniesienia To = 1 rok (pfd = 6,68 × 10–2), β = 1,5 dla To = 50 lat, oraz dla stanu granicznego zmęczenia β = 1,5 ÷ 3,8 w zależności od stopnia inspekcji, możliwości reperacji i tolerancji uszkodzenia. Normowe wymagania niezawodności odnoszą się do elementów konstrukcji. Ponadto docelowe wartości wskaźnika niezawodności β i odpowiadające im prawdopodobieństwa zniszczenia pfd nie wyrażają rzeczywistej (tzn. wynikającej z badań statystycznych) częstości zniszczenia, ponieważ nie uwzględniają wpływu błędu ludzi. Probabilistyczne projektowanie konstrukcji polega na obliczaniu parametrów lub rozkładów prawdopodobieństwa losowo zmiennych wielkości decydujących o nośności i użytkowalności konstrukcji, które są funkcjami wejściowych zmiennych losowych, i na wyznaczeniu ich kwantyli rzędu pfd. Najczęściej poszukiwanymi wielkościami są: pole powierzchni stali zbrojeniowej lub sprężającej oraz wymiary przekrojów elementów. W przypadku oceny niezawodności metodą probabilistyczną zadanie polega na obliczeniu rozkładów prawdopodobieństwa efektu oddziaływań na konstrukcję i nośności lub odporności konstrukcji oraz na określeniu prawdopodobieństwa przekroczenia nośności przez efekt oddziaływań. Zarówno w przypadku probabilistycznego wymiarowania, jak i oceny niezawodności, związanych ze stanami granicznymi nośności konstrukcji, obliczenia dotyczą bardzo małych prawdopodobieństw pfd (tab. 1.). Uzyskanie akceptowalnej dokładności obliczeń metodą Monte Carlo wymaga wówczas bardzo dużej liczby symulacji N i budzi wątpliwości związane z przyjmowanymi w obliczeniach długościami przedziałów zmienności zmiennych wejściowych. Jest to jednak zagadnienie związane z dopuszczalnym prawdopodobieństwem zniszczenia (a pośrednio ze współczesnymi metodami projektowania) i nie znika, a jedynie jest „ukryte” w przypadku stosowania metod analitycznych i nieskończonych rozkładów prawdopodobieństwa zmiennych losowych. 5. Przykłady wymiarowania żelbetowego elementu mimośrodowo ściskanego Rozważane zadanie polega na obliczeniu powierzchni zbrojenia rozciąganego AS1 i ściskanego AS2 w miarodajnym przekroju żelbetowego słupa mimośrodowo ściskanego (rys. 4.) zakładając, że prawdopodobieństwo osiągnięcia stanu granicznego zniszczenia elementu nie będzie większe od pfd = 7,2 × 10–5 ( β ≥ 3, 8 ). Stan graniczny nośności elementu określono na podstawie metody uproszczonej, według normy PN-B-03264:1999 [17]. Metody symulacyjne w probabilistycznym projektowaniu ... 181 Rys. 4. Przekrój poprzeczny żelbetowego słupa Wymiary przekroju poprzecznego: b × h = 250 mm × 400 mm, a = a1 = a2 = 30 mm, d = h – a = 370 mm, długość elementu: lcol = lo = 8,0 m. Obliczenia metodą półprobabilistyczną według zaleceń PN-B-03264:1999 Siły podłużne ściskające i moment zginający, wywołane obciążeniem obliczeniowym: siła całkowita NSd = 600 kN, część długotrwała siły NSd,lt = 300 kN, moment MSd = 120 kNm. Beton klasy B20: wytrzymałość obliczeniowa na ściskanie fcd = 10,6 MPa, średni moduł sprężystości Ecm = 27500 MPa. Stal zbrojeniowa klasy A-III (34GS): obliczeniowa granica plastyczności fyd = 350 MPa, średni moduł sprężystości Es = 200000 MPa. Ponieważ lo / h = 20 > 7, uwzględniono wpływ smukłości i obciążeń długotrwałych na nośność słupa, zwiększając mimośród początkowy eo = ee + ea = = MSd / NSd + lo / h = 200 +20 = 220 mm do wartości mimośrodu całkowitego etot = η × eo , gdzie η = 1/(1 − N Sd / N crit ) , a siła krytyczna Ncrit (10) zależy, między innymi, od nieznanego stopnia zbrojenia przekroju ρ . Obliczenie powierzchni zbrojenia AS1 i AS2, według wzorów (11) i (12), wymaga wstępnego założenia wartości ρ i zastosowania iteracyjnej procedury obliczeń. N crit 9 Ecm I c 0,11 = 2 + 0,1 + Es I s lo 2klt 0,1 + eo h AS 2 = N Sd es1 − α f cd Scc ,eff f yd ( d − a2 ) (10) (11) 182 S. Woliński AS 1 = αf cd Acc,eff + f y As 2 − N Sd f yd (12) gdzie: Ic, Is – momenty bezwładności przekroju betonowego i zbrojenia, klt = 1,50 – współczynnik wyrażający wpływ obciążenia długotrwałego, es1 = etot + h/2 – a1, α = 0,85, Acc,eff , Scc,eff – efektywne pole przekroju i moment statyczny efektywnego pola betonu strefy ściskanej względem środka ciężkości zbrojenia As1. Przy założeniu granicznej wartości względnej wysokości strefy ściskanej przekroju ξ eff ,lim = 0,53 , obliczono pola przekroju zbrojenia: AS1 = 1380 mm2 i AS2 = 928 mm2. Obliczenia metodą bezpośredniej symulacji Monte Carlo Zmienne decydujące o nośności granicznej elementu potraktowano jako statystycznie niezależne zmienne losowe o podanych dalej rozkładach, parametrach i zakresach zmienności, i zgodnie z wymaganiami zastosowanych do obliczeń programów M-Star i AntHill [10] przedstawiono je w postaci histogramów słupkowych. • Wymiary przekroju poprzecznego słupa: − b ⇒ N (250 mm, 0,006), {244,75 ÷ 255,25 mm} − h ⇒ N (400 mm, 0,0075), {389,5 ÷ 410,5 mm} − a ⇒ N (30 mm, 0,0665), {23 ÷ 37 mm} • Siły podłużne: − NSd,lt ⇒ N (300 kN, 0,048), {213,95 ÷ 301,45 kN} − NSd – NSd,lt ⇒ Γ (136,5 kN, 0,288), {66,5 ÷ 308,5 kN} • Wytrzymałość betonu: − fc ⇒ LN (21,5 MPa, 0,20), {10,5 ÷ 42,3 MPa} • Granica plastyczności zbrojenia: − fy ⇒ LN (462,8 MPa, 0,08), {348,7 ÷ 610,4 MPa} Przyjęto oznaczenia: N, Γ , LN – zmienna o rozkładzie normalnym, logarytmicznym i gamma, (wartość oczekiwana, współczynnik zmienności), {wartość minimalna ÷ wartość maksymalna}. Rozkłady zmiennych losowych fc i fy dobrano tak, aby prawdopodobieństwo zaniżenia wartości obliczeniowych fcd i fcy było nie większe od 7,2 × 10–5, a zmiennych NSd nie większe od 10–3. Jest to założenie umożliwiające porównanie wyników uzyskanych metodą probabilistyczną i półprobabilistyczną. Metody symulacyjne w probabilistycznym projektowaniu ... 183 Korzystając z zależności (10), (11) i (12), obliczono za pomocą programu komputerowego M-Star [10], po wykonaniu 300000 (rys. 5.) i 800000 symulacji, histogramy i parametry rozkładu pola przekrojów zbrojenia AS1 i AS2. Rys. 5. Wyniki obliczeń zbrojenia AS2 metodą bezpośredniej symulacji Monte Carlo Pola powierzchni zbrojenia rozciąganego i ściskanego, niezbędnego w celu zapewnienia prawdopodobieństwa osiągnięcia stanu granicznego nośności rozważanego elementu mimośrodowo ściskanego pfd ≤ 7,2 × 10–5 obliczone po wykonaniu 300000 symulacji wynoszą: AS1 = 1133 mm2 i AS2 = 874 mm2 ( ρ = 0,0217), a po wykonaniu 800000 symulacji: AS1 = 1130 mm2 i AS2 = 874 mm2 ( ρ = 0,0217). Współczynnik zmienności oceny obliczonych ilości zbrojenia (traktowany jako miara dokładności obliczeń) wynosi: dla 300000 symulacji 21,5% i dla 800000 symulacji 13,2%. Obliczenia prawdopodobieństwa osiągnięcia stanu granicznego zniszczenia elementu pf dla ilości zbrojenia określonej metodą półprobabilistyczną, to znaczy AS1 = 1380 mm2 i AS2 = 928 mm2, wykonane metodą bezpośredniej symulacji Monte Carlo wykazały, że pf < 10–7. Obliczenia metodą symulacji według funkcji ważności Do obliczenia pola przekrojów zbrojenia AS1 i AS2 metodą symulacyjną według funkcji ważności również wykorzystano program M-Star [10]. W celu uproszczenia obliczeń założono, że wymiary przekroju poprzecznego są zdeterminowane i równe wartościom średnim: b = 250 mm, h = 400 mm, a = 30 mm. Jako funkcje ważności wykorzystano funkcje gęstości rozkładów normalnych o wartościach średnich w punktach charakterystycznych: hfc ⇒ N (fck, 0,033), hfy ⇒ N (fyk, 0,02), hNs ⇒ N (NSk, 0,033). Zgodnie z koncepcją metody, funkcje 184 S. Woliński ważności wybrano arbitralnie, a sposób wyboru ma znaczny wpływ na dokładność uzyskanych wyników przy założonej liczbie symulacji. Dla założonego prawdopodobieństwa osiągnięcia stanu granicznego nośności elementu pfd = 7,2 × 10–5 i różnych liczb wykonanych symulacji uzyskano następujące wyniki: AS2 = 841 mm2, • N = 5000, AS1 = 1202 mm2, 2 AS2 = 855 mm2, • N = 10000, AS1 = 1202 mm , AS2 = 841 mm2, • N = 50000, AS1 = 1202 mm2, 2 AS2 = 841 mm2. • N = 300000, AS1 = 1202 mm , Jak można zauważyć, akceptowalną z punktu widzenia projektanta dokładność obliczeń uzyskano już po wykonaniu 5000 symulacji. Jednak wynik obliczeń zależy w dużym stopniu od trafności wyboru funkcji ważności i w przypadkach wymiarowania konstrukcji bardziej „opłacalną” wydaje się być metoda bezpośredniej symulacji Monte Carlo. Przedstawione przykłady obliczeń potwierdzają intuicyjnie przewidywalne stwierdzenie, że procedury wymiarowania oparte na metodach półprobabilistycznych prowadzą do przewymiarowania konstrukcji lub do projektowania konstrukcji o znacznie większej od wymaganej niezawodności. W rozważanym przykładzie całkowite pole przekroju zbrojenia obliczone metodą półprobabilistyczną jest około 15% większe od obliczonego metodą probabilistyczną. Zastosowanie bezpośredniej symulacji Monte Carlo i symulacji według funkcji ważności prowadzi do ilości zbrojenia w przekroju różniącej się około 1,7% i zmiany proporcji pomiędzy zbrojeniem ściskanym i rozciąganym o około 6%. 6. Podsumowanie Zgromadzone w ostatnim dwudziestoleciu wyniki badań i analiz wskazują, że praktyczne wdrożenie w pełni probabilistycznych metod projektowania konstrukcji, w tym konstrukcji z betonu, w oparciu o metody analityczne i numeryczne jest raczej nierealne. Trudności i błędy związane ze stosowaniem tych metod eliminują w dużym stopniu metody symulacyjne. Podstawową wadą zastosowań bezpośredniej symulacji Monte Carlo w projektowaniu konstrukcji budowlanych jest bardzo duża liczba symulacji niezbędna w celu uzyskania odpowiedniej dokładności rozwiązań. W przypadku klasycznych metod analizy konstrukcji jest to związane z bardzo małymi wartościami dopuszczalnego prawdopodobieństwa osiągnięcia stanów granicznych zniszczenia. Analiza konstrukcji metodą elementów skończonych powoduje, że dodatkowo, wskutek dużej liczby zmiennych losowych, które należy uwzględnić w analizie, niezbędna liczba symulacji i czas wykonania obliczeń zwiększają się ponad granice opłacalności i możliwości dostępnych projektantowi komputerów. Metody symulacyjne w probabilistycznym projektowaniu ... 185 W sytuacjach, kiedy liczba zmiennych stanu konstrukcji traktowanych jako zmienne losowe nie jest większa niż 20 ÷ 25, a dopuszczalne prawdopodobieństwo zawodności nie jest mniejsze niż 10–5 ÷ 10–6, godną rekomendacji jest metoda bezpośredniej symulacji Monte Carlo. Jeśli niezbędne jest znaczne ograniczenie liczby symulacji, można zastosować zmodyfikowane metody symulacyjne, np. według funkcji ważności (kiedy dysponuje się informacjami na temat gęstości rozkładu zmiennych losowych w obszarze zniszczenia), symulacji kierunkowej lub według hipersześcianów łacińskich (kiedy funkcja niezawodności zależy od wielkiej liczby zmiennych losowych), symulacji kontrolowanej itp. Literatura [1] Metropolis N., Ulam S.: The Monte Carlo Method. Journal of American Statistical Association, 44(247), 1949 [2] Freudenthal M.: The Safety of Structures. Transaction of ASCE, Vol. 121, 1947 [3] Shinozuka M., Sato Y.: Simulation of Nonstationary Random Process. Journal of the Engineering Mechanic Devision ASCE, Vol. P3, No. EM 1, February 1967 [4] Shinozuka M.: Monte Carlo Solution of Structural Dynamic. International Journal of Computers and Structures, No. 2, 1972 [5] Computational Stochastic Mechanics. Computer Methods in Applied Engineering, Journal of Comput. Methods in Appl. Eng., No. 168(1-4), 1999 [6] Nowak A.S., Collins K.R.: Reliability of Structures. Mc Grow-Hill Int. Edition, 2000 [7] Marek P., Brozzetti J., Gustar M. (editors): Probabilistic Assessment of Structures Using Monte Carlo Simulation. ITAM CAS CR, Prague 2001 [8] Press W.H, Teukolsky S.A., Vetterling W.T., Flannery B.: Numerical Recipes in Fortran. 2nd ed., Cambridge University Press, New York 1992 [9] Fisz M.: Rachunek prawdopodobieństwa i statystyka matematyczna. PWN, Warszawa 1958 [10] Marek P., Gustar M.: Monte Carlo simulation programs for PC: AntHill, M-Star, Res-Com, DamAc, LoadCom. ARTech, Prague 1999 [11] Melchers R.E.: Search-based importance sampling. Structural Safety, No. 9 (117), 1990 [12] Sundararajan C., et. al.: Probabilistic structural mechanic handbook. Chapman & Hill, New York 1994 [13] ISPUD (Importance Sampling Using Design Points). User’s Manual, Institute of Engineering Mechanics, Leopold – Franzens University, Innsbruck, Austria 1997 [14] Au S.K., Beck J.L.: First Excursion Probabilities for Linear System by very Efficient Importance Sampling. Probabilistic Engineering Mechanics, No. 6, 2001 [15] Bucher C.G.: Adaptive sampling – An iterative fast Monte Carlo procedure. Structural Safety, No. 5 (119), 1989 [16] Waarts P.H. Structural reliability using Finite Elements Method. Delft University Press, Delft, The Netherlands 2000 [17] PN-B-03264:1999. Konstrukcje betonowe, żelbetowe i sprężone. Obliczenia statyczne i projektowanie 186 S. Woliński [18] ISO 2394:1998 E. International Standard. General principles on reliability for structures, [19] EN: 1990:2002 E. Eurocode 1: Basis of structural design. November 2001, CEN, Brussels [20] prEN 1992–1. Eurocode 2: Design of concrete structures. Part 1: General rules and rules for buildings. October 2001 [21] Woliński Sz., Wróbel K.: Niezawodność konstrukcji budowlanych. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 2001 RANDOM SIMULATION METHODS IN PROBABILISTIC DESIGN OF CONCRETE STRUCTURES Summary In this paper a review of random simulation methods for the probabilistic design of concrete structures is presented. Probabilistic design and assessment procedures for building structures using the direct Monte Carlo simulation method are discussed in detail. Brief account is given of the Monte Carlo method with importance sampling and with directional sampling, and latin hypercube sampling. Numerical examples of structural dimensioning of reinforced concrete element subjected to axial force and bending moment using the semi-probabilistic and probabilistic simulation methods are presented for the purpose of illustration of these methods. Złożono w Oficynie Wydawniczej w maju 2003 r. ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ Budownictwo i Inżynieria Środowiska z. 36 Nr 208 2004 Jacek ZYGMUNT Politechnika Rzeszowska ZASTOSOWANIE PREFABRYKACJI NA PRZYKŁADACH WYBRANYCH OBIEKTÓW W pracy są zawarte przykłady stosowania elementów prefabrykowanych w wybranych obiektach budowlanych. Analizie poddano następujące obiekty: kompleks użyteczności publicznej, hale produkcyjne fabryki papieru oraz halę magazynową. Podano przykłady stosowania prefabrykatów w miejsce elementów zazwyczaj wylewanych, tak aby konstrukcja obiektu nadal pozostawała bezpieczna, a jej wykonanie było tańsze i łatwiejsze. Prefabrykację zastosowano w wypadku elementów nośnych oraz wypełniających. 1. Wprowadzenie Prefabrykacja jest procesem wykorzystywanym w budownictwie od wielu lat. Polega na „przemysłowym wytwarzaniu elementów budowlanych, które wykonane w wytwórniach lub zakładach zaplecza produkcji pomocniczej budownictwa są wbudowywane bez uzupełniającego przetwarzania lub obróbki w realizowane obiekty budowlane”[1]. Zamierzeniem jest produkcja elementów o wysokim stopniu wykończenia, aby po wbudowaniu wykonać jedynie złącza z sąsiednimi elementami oraz spoinowanie. Warto spojrzeć na stosowanie prefabrykacji pod względem technologiczności. „Technologiczność rozwiązań budowlanych to zespół cech określających możliwości sprawnego oraz efektywnego wykonania budowli, jej ustrojów i elementów bez szkody dla rozwiązań funkcji, konstrukcji, walorów użytkowych i estetycznych...”[2]. Stosowanie elementów prefabrykowanych posiada cechy technologiczne, niezbędne w celu uzyskania efektywności technicznoekonomicznej przedsięwzięcia. Należą do nich: minimalizacja nakładów pracy ludzi, mechanizacja procesów roboczych, efektywne wykorzystanie pracy maszyn i urządzeń przy produkcji i montażu, zapewnienie wysokiego poziomu jakości robót. Ograniczenia natomiast w stosowaniu prefabrykacji wynikają z dużej indywidualności oraz swobody w kształtowaniu brył budynków. Tak jest w budownictwie mieszkaniowym oraz użyteczności publicznej. W takich przypadkach w rozwiązaniach konstrukcyjnych dominują elementy wykonywane na 188 J. Zygmunt mokro, charakteryzujące się małą powtarzalnością. Bezpośredni wpływ na ustalenie koncepcji konstrukcyjnej oraz sposobu jej rozwiązania mają zespoły projektowe. Decyzja o wyborze technologii wykonania uwzględnia wymagania konstrukcyjne, użytkowe, a także koszty realizacji obiektu lub jego elementów w wybranej technologii. Prefabrykacja nadal znajduje zastosowanie w obiektach przemysłowych oraz w większych obiektach użyteczności publicznej. W artykule opisano zastosowanie prefabrykacji na przykładzie trzech obiektów: kompleksu użyteczności publicznej, hal produkcyjnych fabryki papieru oraz hali magazynowej wysokiego składowania. Obiekty wybrano spośród realizacji wykonanych przy współudziale autora artykułu w charakterze majstra i kierownika robót. Opisane obiekty zostały zrealizowane w kraju i za granicą. 2. Przykłady 2.1. Budynki użyteczności publicznej Analizie poddano zespół budynków użyteczności publicznej zrealizowany w Niemczech (rys. 1.)*. Było to 7 budynków, mających od 5 do 9 kondygnacji nadziemnych, połączonych 3 kondygnacjami podziemnymi**. Analizowanym Rys. 1. Zespół obiektów biurowych w Stuttgarcie w Niemczech * Przedstawione w artykule zdjęcia zostały wykonane przez autora artykułu; stanowią jego zbiory własne. ** Przytoczone w tekście artykułu dane, opisujące zakres przeprowadzonych robót budowlanych, charakterystykę techniczną obiektów i elementów, pochodzą z notatek własnych autora. Autor artykułu w latach 2000-2002 pracował zawodowo przy realizacji przedstawionych w publikacji obiektów. Zastosowanie prefabrykacji ... 189 zadaniem było zrealizowanie robót stanu surowego. Obserwacje dotyczyły całości tych robót, od pierwszej płyty dennej do stropu ostatniej kondygnacji. Okres realizacji „pod klucz” wyniósł półtora roku, z czego roboty stanu surowego trwały rok. Budowa wyglądała imponująco, wśród istniejącej zabudowy miejskiej wznosiły się cztery dźwigi wieżowe. One scalały wszystkich rozproszonych na dole ludzi w jeden spójny zespół, organizm budzący się do pracy o świcie i milknący przed porą nocną. Ściany Układy konstrukcyjne budynków były tradycyjne: żelbetowe, słupowopłytowe z belkami w kierunku podłużnym budynków. Dodatkowymi elementami usztywniającymi były niedylatowane, wylewane na mokro klatki schodowe i szyby windowe. Natomiast ściany zewnętrzne i wewnętrzne ustawiane były na stropach z gotowych elementów o wysokości całej kondygnacji. Największa długość tych elementów uwarunkowana była nośnością dźwigów wieżowych, którymi były montowane, wynosiła około 3 m. Każdy element zbudowany był z dwóch pionowo ustawionych płyt grubości 6–7 cm, sztywno połączonych ze sobą zbrojeniem. W zależności od projektowanej grubości ściany szczelina pomiędzy nimi wynosiła od kilku do kilkunastu centymetrów. Takie rozwiązanie pozwalało naprowadzać ściany na pionowe zbrojenie wystające ze stropów. Wprowadzano ponadto przed ich zabetonowaniem zbrojenie łączące z sąsiednimi elementami oraz ze stropem znajdującym się powyżej. Powierzchniom elementów nadano wysoki stopień wykończenia w zakładzie prefabrykacji. Ich gładkość była wystarczająca, aby roboty wykończeniowe ograniczyć do kosmetyki połączeń i pomalowania, nawet w pomieszczeniach o wysokich użytkowych wymaganiach estetycznych. Tam gdzie przewidziane były ciągi fasad okiennych, montowano w ten sam sposób ściany niskie. Niekiedy ustawiano na nich również szeregi filarów międzyokiennych, których wykonanie w sposób tradycyjny byłoby bardzo czasochłonne. Stropy Kolejnym krokiem w zastosowaniu prefabrykacji była realizacja wszystkich stropów (rys. 2.). Po zaszalowaniu podłużnych belek rozstawiano równolegle do nich pasy podporowe. Były to rzędami ustawione rozsuwane stemple z ułożonymi na nich drewnianymi belkami. Po niwelacji układano na tak przygotowanym „podparciu” żelbetowe elementy stropowe. Były to płyty grubości 6–7 cm, podłużnie zbrojone, o długościach odpowiednich do rozstawu belek (do ok. 6 m) i szerokościach dostosowanych do nośności dźwigów (do ok. 2,5 m). Układano je szczelnie lub rozsuwano o szerokość zaprojektowanych żeber. W zamian za pracochłonne szalowanie stropów wylewanych na mokro uzyskiwano szybko i niedużym nakładem pracy stropy gotowe do zbrojenia. Przykładowo przygo- 190 J. Zygmunt towanie do ułożenia płyt na około 500 m2 powierzchni zajmowało brygadzie 4-osobowej 1 zmianę. Rozłożenie płyt oraz zagęszczenie stemplowania pod nimi, w tym samym składzie, trwało również 1 zmianę. Można było zauważyć różne oszczędności wynikające z takiego rozwiązania: brak angażowania szalunków stropowych, a co za tym idzie – brak kosztów ich wynajmu, brak kosztów rozszalowania i czyszczenia szalunków, skrócenie czasu pracy brygad, czyli okresu realizacji danego elementu. Odpadały również roboty ciesielskie obszalowania stropów, ze względu na wykonanie elementów ścian zewnętrznych z płyt o zróżnicowanych wysokościach. Podobnie jak w przypadku ścian, dolne powierzchnie wymagały jedynie drobnej kosmetyki połączeń i mogły zostać pomalowane lub nakładano na nie inne cienkowarstwowe wykończenia. Ułożono w ten sposób około 60 stropów, o przybliżonej powierzchni 25000 m2, złożonych z kilku tysięcy gotowych elementów. Rys. 2. Strop nad korytarzem z prefabrykowanych płyt żelbetowych Biegi klatek schodowych Biegi klatek schodowych zostały wykonane również w zakładzie prefabrykacji (rys. 3.). Odpowiednio ukształtowane podesty wykonano na mokro, na bieżąco z głównymi robotami stropowymi. Spoczniki, jako proste kształtem do wykonania elementy, nie wymagały dużego nakładu pracy. Takie rozwiązanie było korzystne również pod względem organizacyjnym. Montaż nie wymagał ścisłych zależności z wykonywaniem innych elementów, więc realizowano go w czasie mniejszego obciążenia dźwigów lub w czasie niekolidującym z pozostałymi robotami. Montaż wykonywała brygada 3-osobowa. W ten sposób powsta- Zastosowanie prefabrykacji ... 191 ły wszystkie klatki schodowe. Wbudowano łącznie ponad 120 biegów, niektóre o rozpiętości powyżej 8,0 metrów. Na każdym z dachów przewidziano okalające attyki. Zrealizowano je z gotowych elementów, według zasad jak przy montażu ścian. Dwa zespoły 2-osobowe wykonywały „na gotowo” około 100 mb konstrukcji dziennie. W opisywanym obiekcie zastosowano w możliwie dużym stopniu elementy gotowe. Płyty stropowe oraz biegi pracują jako elementy nośne. Pozostałe są elementami wypełniającymi, dostatecznie sztywnymi do elewacji wykonanej z płyt kamiennych. Wykonanie wszystkich elementów w sposób tradycyjny wydłużyłoby czas realizacji stanu surowego około dwukrotnie. Dodatkowe koszty wynikałyby również z obsługi ogromnej ilości elementów szalunkowych do robót mokrych. Rys. 3. Montaż biegów klatki schodowej 2.2. Fabryka papieru Innym obiektem, w którym zastosowano prefabrykację była fabryka papieru z kompleksem magazynowym wzniesiona w Niemczech (rys. 4.). W tego typu obiektach zastosowanie gotowych elementów jest niejako „wymuszone” technologicznie rozmiarami elementów, ich położeniem oraz względami ekonomicznymi. Do montażu dostarczone zostały słupy, dźwigary, belki stropowe, ściany wewnętrzne i zewnętrzne, kompletne klatki schodowe oraz płyty stropowe i dachowe (rys. 5.). Dźwigary osiągały rozpiętość 24 m przy wysokości około 2,0 m. Słupy natomiast miały do 24 m wysokości, o przekrojach pełnych o wymiarach do 1,20x0,60 m. 192 J. Zygmunt Rys. 4. Kompleks fabryki papieru w Karlsruhe w Niemczech Rys. 5. Widok konstrukcji nośnej głównej hali produkcyjnej Montaż najcięższych elementów – dźwigarów zrealizowany został gąsienicowym żurawiem z wysięgnikiem kratownicowym (rys. 6.). Jego udźwig kilkakrotnie przewyższał żurawie wieżowe, a jednocześnie miał możliwość swobodnego, samodzielnego przemieszczania się po terenie budowy. Uzupełnieniem do montażu pozostałych elementów były kołowe żurawie hydrauliczne. Konstrukcja obiektu była mieszana. Znaczna część elementów została wykonana „na mokro”. Należały do nich stopy fundamentowe pod słupy, fundamenty pod ma- Zastosowanie prefabrykacji ... 193 szyny, stropy międzykondygnacyjne, konstrukcje wsporcze pod ciągi technologiczne linii produkcyjnych – słupy, ściany, podciągi i belki poprzeczne oraz stropy. Ponadto tradycyjnie wykonano obiekty towarzyszące: podziemne odstojniki wody produkcyjnej, oczyszczalnię ścieków. Rys. 6. Żuraw gąsienicowy do montażu najcięższych elementów na tle konstrukcji nośnej głównej hali produkcyjnej Roboty realizowane były przy pomocy 8 dźwigów wieżowych. Czas realizacji stanu surowego hali produkcyjnej o powierzchni 10000 m2 wyniósł około 6 miesięcy. W przypadku hal magazynowych, gdzie udział robót mokrych był mniejszy, czas realizacji był o połowę krótszy. Udział prefabrykacji w budownictwie przemysłowym jest zjawiskiem typowym, ogólnie przyjętym. Jej zastosowanie w obiektach przemysłowych wynika ze specyfiki układów konstrukcyjnych: dużych wymiarów oraz powtarzalności. W pierwszym przykładzie pokazano prefabrykację jako alternatywę dla tradycyjnie wykonywanych robót betonowych. Przedstawiono ją na tle organizacyjnym oraz ekonomicznym przedsięwzięć budowlanych obiektów użyteczności publicznej. Należy przy tej okazji zwrócić uwagę na zagadnienie dotyczące organizacji robót budowlanych. Wszelkie niedopatrzenia na etapie planowania oraz wdrażania do realizacji kolejnych etapów robót zawsze ujawniają się i w mniejszy lub większy sposób zakłócają rytm pracy. Dzisiejsze inwestycje charakteryzują się bardzo krótkimi terminami realizacji oraz koniecznością bezwzględnego przestrzegania terminowości ich wykonania. Stawia to rygorystyczne wymagania 194 J. Zygmunt przed zespołami realizującymi obiekty, aby, dostosowując się do bardzo wysokiego poziomu tych realiów, zapewnili również jakość wykonywanych prac, bezpieczeństwo pracowników, wizerunek firmy, a jednocześnie ekonomiczność przedsięwzięcia. Złożoność obiektu, obecność w nim trudnych technicznie do wykonania elementów, ograniczenia terenu przeznaczonego na zaplecze budowy, koordynacja robót w momentach ich wzmożonego nasilenia – wymagają od wykonawcy szczególnego wysiłku w celu zapewnienia właściwej organizacji placu budowy. 2.3. Hala magazynowa Kolejnym obiektem zrealizowanym z udziałem prefabrykacji, poddanym analizie jest hala magazynowa wysokiego składowania w pobliżu Łodzi (rys. 7.). Tradycyjnie wykonano stopy fundamentowe pod słupy oraz fundamenty pod maszyny do obsługi przeładunków z samochodów. Prefabrykowane słupy, dźwigary, belki podwalinowe oraz przegrody wewnętrzne (rys. 8.) zamontowano samochodowymi żurawiami hydraulicznymi. Obudowa zewnętrzna wykonana została z lekkich warstwowych płyt styropianowych typu PW8. Dach wykonano z blachy trapezowej docieplonej wełną mineralną. Rys. 7. Widok konstrukcji hali magazynowej wysokiego składowania Roboty stanu surowego obiektu o powierzchni 10000 m2 trwały około 5 miesięcy, w tym montaż prefabrykatów żelbetowych około 6 tygodni. Roboty realizowane były w okresie zimowym. Powyższy obiekt poddano analizie z dwóch powodów. Pierwszy z nich to krótki czas realizacji inwestycji. Terminy wykonania kolejnych robót zostały od Zastosowanie prefabrykacji ... 195 początku ściśle określone. Zagrożeń w ich dotrzymaniu nie spodziewano się ani od strony technicznej wykonania poszczególnych etapów, ani od strony organizacyjnej jednocześnie trwających robót. Wpływ natomiast mogły mieć, i w rzeczywistości miały, warunki pogodowe – zbyt duże oziębienie zimowe opóźniło wszystkie rodzaje robót, natomiast późniejsza odwilż – roboty ziemne, fundamentowe oraz stabilizacyjne ze względu na podwyższenie poziomu wysokich wód gruntowych. Rys. 8. Prefabrykowane przegrody wewnętrzne hali magazynowej Drugi powód analizy tego obiektu jest związany z poczuciem pewnego żalu. Cała prefabrykowana konstrukcja nośna została wykonana i przywieziona z zagranicy. Wykonawcą na miejscu wbudowania była również firma zagraniczna. Naturalne jest więc pytanie o przyczynę takiego wyboru. Czy produkcja w kraju jest aż tak droga ze względu na jej jednostkowość, czy po prostu nie mamy już gdzie produkować? Nie ulega natomiast wątpliwości, że pod względem technologicznym takiemu przedsięwzięciu na pewno byśmy sprostali. Liczba obiektów zrealizowanych z wykorzystaniem prefabrykacji, podobnie jak w przypadku pozostałych systemów budowania, zależna jest od ogólnoekonomicznej sytuacji na rynku budowlanym. Według GUS [3, 4] wartość ogólnej produkcji budowlano-montażowej w latach 1993-2000 podlega stagnacji. Niekorzystnie przedstawia się także wartość zrealizowanych obiektów budowlanych oraz obiektów inżynierii lądowej i wodnej. Dane przedstawiono w tab. 1. Warto również zwrócić uwagę na statystykę budynków oddanych do użytku według ich rodzajów. Prefabrykacja znajduje zastosowanie w budynkach cechujących się większą kubaturą, nieskomplikowanymi rozwiązaniami architektonicznymi oraz prostymi układami konstrukcyjnymi. Takie cechy posiadają bu- 196 J. Zygmunt dynki niemieszkalne (użytku publicznego, usługowe, budynki produkcyjne i magazynowe) oraz mieszkalne wielomieszkaniowe. Ilość zrealizowanych budynków według rodzajów przedstawiono w tab. 2. (wyszczególniono tylko te budynki, w których rozwiązania konstrukcyjne nie wykluczają stosowania gotowych elementów). Tabela 1. Produkcja budowlano-montażowa [3, 4] Rok 1993 1994 1995 1996 1997 1998 1999 2000 2000 2000 Produkcja Wznoszenie obiektów budowlanych budowlano-montażowa oraz inżynierii lądowej i wodnej (przez podmioty ogółem budowlane, w systemie zleceniowym) Założenie: ceny stałe, rok poprzedni = 100 104,5 104,5 100,3 103,1 105,6 109,1 103,0 104,4 116,5 121,0 112,4 116,2 106,2 109,5 101,0 98,2 Założenie: ceny stałe, 1990 = 100 159,7 210,3 Założenie: ceny stałe, 1995 = 100 144,7 157,8 Tabela 2. Budynki oddane do użytku według rodzajów budynków [4] Wyszczególnienie Budynki mieszkalne Wielomieszkaniowe o liczbie mieszkań 31 i więcej Zbiorowego zamieszkania Budynki niemieszkalne Hotele i budynki zakwat. turystycznego Bud. biurowe Bud. handlowo-usługowe Bud. łączności, dworców i terminali Bud. garaży Bud. przemysłowe Zbiorniki, silosy i bud. magazynowe Obiekty kulturalne, muzea, biblioteki Bud. szkół i instytucji badawczych Bud. szpitali i zakł. opieki medycznej Bud. kultury fizycznej 1995 1999 2000 33998 329 30444 558 32151 570 33 27235 1905 376 2969 192 5076 1521 410 80 467 111 27 22 16357 1460 351 2882 279 4697 866 1889 30 170 103 38 37 18054 1419 444 3706 65 6215 983 1580 49 155 108 116 Budownictwo wielomieszkaniowe oraz zbiorowego zamieszkania również stwarza możliwość stosowania elementów prefabrykowanych. Jednak obserwuje Zastosowanie prefabrykacji ... 197 się bardzo wyraźne odchodzenie od takich rozwiązań, na korzyść tradycyjnych lub mieszanych technologii wznoszenia. Przykładowo, zamiast stropów z płyt otworowych stosuje się półprefabrykowane ceramiczne stropy gęstożebrowe lub stropy żelbetowe monolityczne. W miejsce ściennych elementów betonowych pojawiają się materiały ceramiczne lub pianobetonowe w postaci bloczków drobnowymiarowych. Charakteryzują się one korzystniejszymi właściwościami fizycznymi (izolacyjość cieplna, akustyczna, zdolność pochłaniania wilgoci z powietrza). Takie materiały gwarantują utrzymanie optymalnych warunków mikroklimatycznych w przestrzeniach mieszkalnych. Decydujące znaczenie ma również ukształtowana w psychice społeczeństwa niepewność dotycząca bezpieczeństwa stosowania prefabrykacji w budownictwie mieszkaniowym. Szczególny wpływ wywierają ostatnio prowadzone analizy i dyskusje na temat wysokich bloków mieszkalnych zrealizowanych metodami wielkiej płyty. Warto zwrócić uwagę na udział technologii prefabrykowanych w obecnie realizowanym budownictwie mieszkalnym. Udział nowo zrealizowanych budynków mieszkalnych (oddanych do użytku poza budownictwem indywiduanym) według technologii wznoszenia został przedstawiony w tab. 3. Statystyki nie ujmują jednak budynków wykonanych systemem mieszanym, na przykład tradycyjnym lub monolitycznym z częściowym wykorzystaniem prefabrykacji. Tabela 3. Nowe budynki mieszkalne według technologii wznoszenia (oddane do użytku poza budownictwem indywidualnym) [5, 6] Technologia wznoszenia Tradycyjna Monolityczna Wielkopłytowa Wielkoblokowa Kanadyjska Pozostałe Ogółem: I półrocze 2001 I półrocze 2002 1368 33 40 18 6 31 1496 1068 67 30 11 15 19 1210 Zgodnie z dużo wcześniejszymi przewidywaniami, obecny model budownictwa ogólnego zmienił się na przestrzeni ostatniego dwudziestolecia. W pracy [7] z 1985 r. przewidywano zróżnicowanie form uprzemysłowienia budownictwa oraz jego intensywności, odpowiednio do lokalnych warunków gospodarczych. Obserwuje się także zróżnicowanie kształtowania architektonicznego – zgodnie z potrzebami użytkownika i kontekstem środowiskowym. W ramach budownictwa przemysłowego stosuje się różne technologie i metody budowania. Trafnie przewidziano wzrost obecności monolitycznego oraz monolitycznoprefabrykowanego budownictwa betonowego. Szeroko zastosowane zostały monolityczne betonowe konstrukcje szkieletowe ze stropami pełnymi oraz ścianami z drobnowymiarowych bloczków ceramicznych. Powszechne stało się również wznoszenie 3–4-kondygnacyjnych budynków w konstrukcji murowanej 198 J. Zygmunt ze stropami półprefabrykowanymi (gęstożebrowymi). Nie zakładano natomiast zmniejszenia obecności budownictwa typowo prefabrykowanego, a w szczególności regresu w budownictwie wielkopłytowym oraz wielkoblokowym. Na podstawie przytoczonych w artykule przykładów, oraz obserwacji na temat rodzajów stosowanych obecnie technologii wznoszenia obiektów budowlanych, można podsumować zagadnienie zastosowania prefabrykacji. Zauważa się nadal możliwość wykorzystania gotowych elementów do realizowania obiektów, jednak pod pewnymi uwarunkowaniami. Powinny one znajdować zastosowanie głównie w budownictwie niemieszkalnym. Nie jest wskazane, aby samodzielnie stanowiły konstrukcję nośną budynków. Mogą jedynie wspomagać pracę właściwej konstrukcji nośnej lub współtworzyć ją przez np. zabetonowanie, jak w omówionych przykładach. Elementy prefabrykowane mogą być stosowane jako elementy wypełniające. W obiektach przemysłowych stanowią konstrukcję nośną, co jest podyktowane uwarunkowaniami technologicznymi i ekonomicznymi. Takie zastosowania również omówiono w przykładach. W budownictwie mieszkaniowym z wielu powodów elementy prefabrykowane tracą zastosowanie. Bardzo ważnym czynnikiem decydującym jest również wdrażanie przez producentów nowych pomysłów oraz powszechny dostęp do takich ofert przez projektantów i inwestorów. Nowe oferty oraz ich wdrażanie do realizacji mogą stanowić ciekawe zagadnienie do szerszego rozważenia. Istotne byłoby poddanie analizie oferty elementów prefabrykowanych na polskim oraz zagranicznym, np. niemieckim, rynku budowlanym. 3. Podsumowanie Myślą przewodnią tego artykułu było zebranie spostrzeżeń na temat obecności prefabrykacji w realizowanych obiektach budowlanych. Poddano analizie trzy obiekty, obecnie już zakończone realizacje – przykłady stosowania elementów prefabrykowanych. Stwierdzono, że prefabrykacja została zastosowana jako technologia dominująca w konstrukcji nośnej – w analizowanych obiektach przemysłowych i magazynowych, oraz jako towarzysząca w konstrukcji nośnej mieszanej – w obiektach użyteczności publicznej. We wszystkich obiektach znalazła zastosowanie w charakterze elementów wypełniających. Podstawową zasadą w postępowaniu projektantów, jak i wykonawców jest bezpieczeństwo użytkowników obiektu. Jeżeli osiągane są jednocześnie redukcje kosztów inwestycji, to powyższe rozwiązania zyskują akceptację osób pełniących samodzielne funkcje techniczne w budownictwie. Prefabrykacja jest przykładem technologii spełniającej powyższe kryteria i znajdującej zastosowanie w realizowanych obiektach. Są to głównie obiekty budownictwa przemysło- Zastosowanie prefabrykacji ... 199 wego oraz większe obiekty użyteczności publicznej. W budownictwie mieszkaniowym prefabrykacja jest stosowana w coraz mniejszym stopniu. Literatura [1] Rowiński L.: Technologia produkcji prefabrykatów budowlanych. PWN, Warszawa 1987 [2] Sadowski Z.: Technologiczność prefabrykowanych konstrukcji żelbetowych. Arkady, Warszawa 1983 [3] GUS. Rocznik statystyczny RP. 2000. ZWS, Warszawa 2000. Tabl. 24(423) [4] GUS. Rocznik statystyczny RP. 2001. ZWS, Warszawa 2001. Tabl. 24(426) [5] Budownictwo mieszkaniowe. I-II kwartał 2001. GUS, Warszawa 2001 [6] Budownictwo mieszkaniowe. I-II kwartał 2002. GUS, Warszawa 2002 [7] Biliński T., Gaczek W.: Budownictwo systemowe. Kierunki przeobrażeń techniczno-technologicznych. WSI, Zielona Góra 1985 APPLICATION OF THE PREFABRICATION IN THE SELECTED STRUCTURES Summary This article contains the examples of usage the prefabricated units in the select structures. The fallowing structures are described: block of office buildings, industrial halls of paper-mill and warehouse. The examples of usage the prefabricated units instead of traditional made elements, in order that main structure stayed safe and simultaneously building was cheaper and easier, are described in the article. The prefabrication is used as the main and filing elements. Złożono w Oficynie Wydawniczej w kwietniu 2003 r.