spis treści - POLITECHNIKA RZESZOWSKA im. Ignacego

Transkrypt

spis treści - POLITECHNIKA RZESZOWSKA im. Ignacego
SPIS TREŚCI
J. ABRAMCZYK: A new proposal for determination of ruled surfaces ......
5
L. BICHAJŁO: Alternatywa dla wiaduktów nad liniami kolejowymi .........
19
B. JANUSZEWSKI: Pewien sposób graficznego zapisu perspektywy pionowej figur przestrzeni M4 ..................................................................
27
J. JAREMSKI, G. STRAŻ: Badania parametrów gruntowych pyłów rzeszowskich przy pomocy aparatu GDS instruments LTD ....................
37
J. JAREMSKI, K. WILK: Analiza wpływu zmian zawilgocenia gruntów
madowych wywołanych stanami powodziowymi na parametry geotechniczne ...........................................................................................
47
P. LUDERA: Charakterystyka cech mechanicznych młodego betonu
w elementach średniomasywnych. Przegląd literatury i badania
własne .................................................................................................
55
J. ŁAKOMY: Wpływ włókien szklanych i polipropylenowych na właściwości zapraw cementowych ...............................................................
73
L. PIANOWSKI: Problem dokładności pomiarów kontrolnych w budownictwie ................................................................................................
81
A. PROKOPSKA: Koncepcja architektoniczna rozbudowy i modernizacji
istniejącego budynku ..........................................................................
93
G. PROKOPSKI, J. HALBINIAK, B. LANGIER: Wpływ czasu dojrzewania na właściwości betonu żwirowego ........................................... 109
A. RYBKA, B. DROZD: Kształtowanie domów jednorodzinnych wykorzystujących energię słoneczną ........................................................... 121
T. SIWOWSKI, M. PIEKIEŁEK: Studium modernizacji mostu przez Wisłę w Nagnajowie z wykorzystaniem pomostu aluminiowego ........... 135
4
A. STARAKIEWICZ: Azbest w budynkach – problem do mądrego rozwiązania .............................................................................................. 151
A. STARAKIEWICZ: Hydroizolacje w obiektach budowlanych – przegląd materiałów .................................................................................. 159
S. WOLIŃSKI: Metody symulacyjne w probabilistycznym projektowaniu
konstrukcji z betonu ............................................................................ 169
J. ZYGMUNT: Zastosowanie prefabrykacji na przykładach wybranych
obiektów ............................................................................................. 187
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Jacek ABRAMCZYK
Rzeszów University of Technology
A NEW PROPOSAL FOR DETERMINATION
OF RULED SURFACES
The paper describes a uniform geometrical way of determination all ruled surfaces
including undevelopable ones. The presented way is based on the properties of
ruled surfaces known from projective and differential geometries but it is different
from the conventional methods. This way has been by the author called the way of
striction line.
1. Introduction
Each ruled surface is made up of infinitely large number of straight lines vi
called rulings [1, 2]. We assume that each ruled surface σ is determined if it is
possible to create every ruling vi of the ruled surface σ [3-5]. A set of geometrical elements including points, lines, planes determining required ruled surface σ
is called the Γ figure determining the σ surface [4, 5]. We can determine each
ruling of σ on the basis of Γ and with the help of well-known operations [3-6].
For example, the Γ figure for a hyperbolical paraboloid can be made up of three
straight lines being skew lines in relation to each other. These lines also have to
be parallel to the same plane and are called directrices of σ. If we want to obtain
any ruling of the paraboloid, we ought to pass a plane through one directrix. This
plane intersects two other directices at two points determining the ruling being
sought. In the same way we can determine the others rulings.
Classical ways of determination of each type ruled surfaces applied in projective geometry are generally based on separating the ways of creating different
types of developable and undevelopable ruled surfaces [3-5], including the following:
1) various types of the Γ figures and different from each other rules of determination of the ruled surfaces,
2) different descriptions of creating both types of the ruled surfaces and then
general similarities between various types of these surfaces are shown.
In the paper, a new uniform method is proposed for the creation the σ ruled
surfaces and the Γ figure determining σ. This is a difference – geometric method
6
J. Abramczyk
the author called the one of striction line. In this method, the determination of all
sorts of the σ surfaces is generally different from the ones known from descriptive [3-6] and differential [1, 2, 7, 8] geometries although it is based on both
classes of geometry. Therefore, it is possible to classify various ruled surfaces in
the way different from those used in teaching geometry at technical schools.
The author proposed to make capital of the presented method of determining the ruled surfaces for shaping corrugated building shells Pb made up of many
deformed profiled sheets in the way describing particular geometric properties
appearing during deformation of the sheets [9-11]. A general ruled surface of
relatively free type can be an ideal geometric model for Pb [9, 12]. Each sheet of
Pb can be shaped as the central patch Wi of a ruled paraboloid ωi, Fig. 1 [10, 13,
14]. The Σ structure having, as a rule, disturbances of the smoothness appearing
themselves along the segments common for each pair of the adjacent Wi–1 and Wi
patches, is a result of the composition of these Wi, Fig. 2 [12, 16]. Therefore, it is
the imperative to create the Σ structure of which configuration will be approximated to the σ ruled surface – the ideal model of Pb [12, 16].
Fig. 1
Fig. 2
A new proposal for determination ...
7
2. Assumptions for the method of the striction line
First, the general vector equation of a ruled surface is presented:
uur
ur
uur
σ i (t , m ) = ci (t ) + m ⋅ pi (t )
(1)
where:
uur
ci (t ) – the position vector of the Ci point of the c directrix of σ,
uuur
p (t ) – the direct versor of the rulings of σ,
uuri
uuur
ci (t ) and pi (t ) – the vectors dependent on the same t parameter as well as σ
[1, 2, 7, 8],
m – the parameter of the position of each Ci point of the vi ruling.
From eq. (1) it follows that the Γ figure is made up of:
1) the c directrix,
uuur
2) the {pi} vector field – continuous set of the pi (t ) versors starting from the
same Os point,
uuur
3) any interdependence between the Ci points of c and the pi (t ) versors called
by the author the K definite homology, Fig. 3.
Fig. 3
The Os point is the center of the Φ sphere of elementary radius. A bundle
of all pi straight lines the author called the Xp directing form. Each of the vi rulings of the σ surface is received with the help of the Xp directing form in the
uuur
following way. The K homology and the Ci points of c and the pi (t ) versors can
be assumed arbitrarily in continuous way. Each vi ruling is a straight line passing
8
J. Abramczyk
uuur
through the Ci point of the c line in conformity with the pi (t ) direct versor
(vi || pi), Fig. 3. If we want to create a ruled surface then the p line defined as the
sum of the ending points of those versors have to be smooth. This p line, called
the spherical indicatix of the ruling directions, lies on the Φ sphere of the unitary
uuur
radius and it is a hodograph of the pi (t ) versors. Thus two conicoid surfaces
created by two sets of the ci and pi straight lines have to be continuous surfaces.
The former has to be made up of the ci(O, Ci) straight lines and the latter composed of the pi(Os, Pi) straight lines.
The above mentioned way of the determination of the ruled surfaces is
uuur
a very general because the c line and the K homology and the pi (t ) versors can
be accepted almost arbitrarily. Additionally, we do not know the way of determining of the particular types of ruled surfaces. Therefore, we ought to impose
additional conditions for the Γ figure.
The basic assumption to the author’s argumentation is that the c line has to
be a striction line of the σ ruled surface. To impose additional requirements on
uuur
the pi (t ) vectors and the K dependence we can take into consideration eq. (2):
uur uur
ci '(t ) · pi '(t )
uur
m(t ) =
[ pi '(t )]2
(2)
where:
m(t) – parameter circumscribing the position of the Ci point of the striction line
on the vi ruling [1, 2, 7, 8],
uur
uuur
ci '(t ) and pi '(t ) – vectors tangent to the c and p lines at the Ci and Pi points are
uur
uuur
vectorial derivatives of the ci (t ) and pi (t ) vectors for
the t parameter.
According to the eq. (2), the value of the m(t) parameter is zero, when the
Ci pont of the vi ruling of the σ ruled surface is a point of the c striction line of σ
[1, 7]. If for every vi ruling there exists one Ci point for which this condition is
executed then the c line is the sum of all these Ci points and it is called striction
line of the σ ruled surface.
On the ground of the eq. (2) it is possible to draw the following Theorem.
Theorem. Two adequately accepted c and p lines are the Γ figure determining
a general ruled surface σ if c is a striction line of σ and p is an spherical
indicatrix of the directions of the rulings of σ.
Proof. From the above mentioned argumentation and from eq. (1) it follows
that two ci(t), pi(t) lines and the K homology, arranging the Ci and Pi points in
A new proposal for determination ...
9
pairs, are the Γ figure determining a general ruled surface. Thus we accept the
striction line as the ci(t) and the indicatrix of the directions of the rulings of this
σ ruled surface as the pi(t). From eq. (2) we obtain the K homology. For the ci(t)
striction line the m(t) parameter of eq. (2) is zero [7, 8]. Therefore, the scalar
uur
uuur
product of the ci '(t ) and pi '(t ) vectors also have to be zero so that these vectors
uur
uuur
are orthogonal. Finally, from the orthogonality of the ci '(t ) and pi '(t ) vectors
results the way of the arrangement of the Ci ∈ c and Pi ∈ p points in pairs deuur
uuur
termining the vi rulings of σ. Additionally, because ci '(t ) and pi '(t ) are the vecuur
uuur
tor derivatives of the position vectors ci (t ) and pi (t ) then these vectors cannot
be totally interdependent.
If we assume the c line as the striction line of σ and the p line as the spherical indicatrix of σ then the spi straight line tangent to the p line at the Pi point has
to lie on the ξPi plane parallel to the ξCi plane perpendicular to the c curve at the
Ci point corresponding with the Pi point, Fig. 4.
Fig. 4
Inverse operation is also possible. Thus, first, we have to assume the p line
and then we have to find the c line as an envelope of the suitable planes.
uur
The direction of the sci straight line and the direction of the ci '(t ) vectors are
uuur
the same and the direction of the spi straight line and the direction of the pi '(t )
vectors too. The distances between the ξPi planes and the Os centre of the Φ
sphere as well as the distances between ξCi planes and the O origin of the global
coordinate system have to be dependent on the t parameter of σ. Therefore, these
distances have to be functions of one parameter t.
In order to determine the Pi points and p line it is the imperative to assume
the ways of variations of the values of the t parameter, the positions of the Ci
10
J. Abramczyk
points and the ξPi planes. It should be noticed that each ξPi plane has to cut the Φ
sphere at the oi circle and each spi straight line has to be tangent to the oi circle as
uuur
well as to the p line at the same Pi point, Fig. 5 [16]. The pi '(t ) vector of the spi
straight line obviously lies on the ξPi plane parallel to the ξCi plane. Thus the
uuur
uur
pi '(t ) vector is perpendicular to the ci '(t ) vector. The oi circle ought to be tangent to the p line at the Pi point and it need not be the osculatory circle for the p
line.
Fig. 5
Eq. (2) is the basic criterion deciding whether the c line is a striction line of
the ruled surface or not. The Pi points, which are successively created and fulfilling the above mentioned requirements including eq. (2), yield the p line.
Let us recapitulate the results we have so far obtained. The c line and the ξPi
planes parallel to the ξCi planes perpendicular to the c line at the suitable Ci point
and the known function of the location each of the ξPi planes yield the Γ universal figure determining σ [16]. These three elements determine a ruled surface if
the c line is a striction line of this surface and the set of the ξPi planes cut Φ. This
uur
uuur
always occurs, when the ci '(t ) and pi '(t ) vectors corresponding to one another
are orthogonal. The p line is an envelope of the oi circles as well as the spi
straight lines tangent to these circles at the Pi points.
We can also obtain another figure Γ (determining σ) made up of the c striction line and the p indicatrix [16]. In the author’s opinion, it is the imperative to
consider the p and c lines as the Γ figure determining the universal ruled surface
in the detailed manner because the configurations of these two lines are dependent on themselves in a certain manner. Thus both lines cannot be assumed as
totally arbitrary lines. This dependence is especially evident in the case of irregular points of these lines. It is the imperative to describe exactly the dependences between the configurations of these lines. The other author’s paper should
include a description of this problem.
A new proposal for determination ...
11
3. Additional requirements for the Γ figure to determine
the expected type of the ruled surface
The shape of the σ ruled surface created according to the presented method
of the striction line is conditioned by:
1) the geometrical characteristics of the c line,
2) the positions of the ξPi planes, for example, their distances from Os.
The p line, which is an envelope of a set of the oi = ξPi ∩ Φ circles, has to
be dependent on the t parameter of σ as well as the c line.
The following conclusion can be drown. It may be reasonable to try dividing the ruled surfaces into many classes different from the ones used in teaching
geometry. This division ought to be dependent on the elements considered at
points 1 and 2, which influence the formation the Γ figure and the configuration
of the σ surface.
In order to illustrate the dependences of these elements on a configuration
of σ we shall investigate the following instance. Let us accept a conic curve as
the c striction line and the different from zero dksi constant values of the distances between the ξPi planes and the Os centre of Φ. All of the ξCi planes are
perpendicular to the plane of the c line and the ξPi planes are tangent to the p
circle that is an envelope of the oi = ξPi ∩ Φ circles. In this case we get the Xp
directing form as the conicoid surface of revolution of the second order, Fig. 6.
Fig. 6
Additionally, if we assume the c line as a circle then the σ ruled surface will
be a hyperboloid of one sheet of revolution (ruled hyperboloid of revolution).
If we take the c line as the conic curve and zero values of these dksi distances, all ξPi planes will have to pass through the Os point and all Pi points are
united at one point. In this case Xp is one straight line and σ is a cylindrical surface of the second order.
12
J. Abramczyk
We should obtain conical surface if we assume the c line as one point. No
conical surface will be determined in another case. Let us put forward the following arguments as the proof. All pi(Os,Pi) straight lines have one Os common
point and the vi rulings have to have one common point. Therefore, vi have to
determine the form congruent to the Xp directing form because each of the vi
lines has to be parallel to the corresponding with it the pi line, Fig. 7. In fact,
developable surface is the determined σ conical surface.
Fig. 7
On the other hand we know that the turning (reverse) line is a special kind
of the striction line on the developable surface. We would like to prove that turning line of the conical surface degenerates itself to one point. Hence, if the turning line is the line of striction on the developable surface then the ξPi planes are
tangent to the Φ sphere because:
1) they have to be perpendicular to c as well as to vi tangent to c,
2) they have to be tangent to p lying on Φ,
3) the pi have to be parallel to vi including pi = vi.
In this case the c curve perpendicular to all of the ξCi and ξPi planes does not
exist because it does not exist any curve tangent to all vi || pi including vi = pi
straight lines. The united C = ... = Ci = ... = Cj points, yielding the c degenerated
turning line are only elements fulfilling the above mentioned requirements. Simultaneously, it is impossible to determine any developable surface with the
help of the c line not degenerated to the C point and the unification of the vi and
pi lines.
If the c line is a parabola and the plane of the p circle takes one of permissible positions [7], the σ determined surface is a hyperbolical paraboloid (ruled
paraboloid).
A new proposal for determination ...
13
uur
A tangent surface can be obtained if the pi straight lines and the ci '(t ) vectors are collinear, i.e. if the ξPi planes are tangent to Φ, Fig. 8. It is not difficult
to determine an open helicoid if we assume the c line as a helix.
Fig. 8
The paper does not precisely show the dependence between a well-known
conventional classification of the ruled surfaces taught during geometry courses
at schools and the properties of the Γ figure of the method presented in the paper. The author does not discus this problem. On the ground of the presented
method, a new division of ruled surfaces into many different classes so that the
two surfaces belonging to the different classes will have the configurations different from each other but the two ones belonging to the same group will have
the configurations similar to each other. The division will pass across the conventional classifications so that the terminology cannot also be based on that
usually applied.
4. Discussion about particular properties of the c, p lines
and the σ ruled surfaces
The presented method of determining of the ruled surfaces and a new classification of these surfaces based on this method apply to the following properties of the c and p lines.
The c striction line is the shortest directrix (intersecting all rulings) of the
ruled surface, when c has finite length as ellipse. If c is infinitely long such as
parabola, i.e. it has a point in infinity, we cannot define the length of the c line.
Therefore, we ought to specify the patch of the ruled surface limited by two vs
and vc different rulings. Then the csk curve of the striction line having ending
points belonging to the vs and vk border lines is the shortest line lying on this
patch and intersecting each vi rulings of its, Fig. 9.
14
J. Abramczyk
]
Fig. 9
Truthfulness of the above mentioned statement can be proved in the following way. The c striction line is a sum of the Ci central points of the σ ruled surface. Each lCi striction axis of σ passes the Ci central point and reaches a limiting
direction of a straight line perpendicular to the vi ruling (passing through Ci) and
the vi+1 neighboring ruling of σ [8]. The l Ci direct vector of the lCi axis is a
uuur
uuuur
product of pi (t ) and pi '(t ) . The lCi axis is also the instantaneous axis of the Oi
rotation of vi to vi+1. Thus the c striction line is the shortest one of σ because
there are fulfilled the following conditions. Whereas the vi ruling displacements
to the neighboring vi+1 ruling of σ, each point of vi is submitted only:
uur
1) the same Ui translation along the ∆u i vector parallel to lCi,
uur
2) the same Ti translation along the ∆t i vector perpendicular to lCi,
3) the same Oi rotation around lCi for the ∆α i angle, Fig. 10.
uur uur
The ∆u i , ∆t i vectors of the Ui, Ti translations are constant for each point of
vi.
Fig. 10
A new proposal for determination ...
15
Each σ ruled surface has only one striction line suitable for only one family
of all rulings of σ. Ruled quadrics including hyperbolical paraboloid and hyperboloid of one sheet have two striction lines because they have also two families
of rulings. In the case of ruled hyperboloid of revolution, both striction lines
become the same circle.
A configuration of the c striction line heavily influences the shape of a general ruled surface and generates a contraction of the σ surface. This property of c
is especially important for designing engineer and engineering objects and the
characteristic sections of these objects, i.e. for technical documentations.
Thanks to distinguishing both c and p lines on the σ ruled surface we can
verify in a simple way the precision of the approximation of the models to the
building covers. This issue is one of the most important so that it was [16] and
will be more described in the others author’s papers.
5. Conclusions
The application of the presented way based on a striction line inducts difficulties during determining some kinds of the ruled surfaces known from classical geometry. These difficulties occurs when the dependences between positions
of the Ci and Pi points corresponding to themselves on the c and p lines are not
known, that is, when we do not know the K dependence of the positions of the Ci
and Pi points of the c and p lines on the t parameter. If we know these dependence of the distances from the ξPi planes to the Os point on the t parameter then
we will obtain the K dependence. The analytical aspects of this question was
described in [16] and will be continued in the author’s paper during the LCSE
Local Seminar of IASS POLISH CHAPTER 2003 in Poland. The determination
of the suitable representatives of these types is very easy if we specify the K
dependence for each type of the ruled surfaces. The way, how to obtain these
dependences for various types of ruled surfaces, is beyond the scope of this paper.
The easy division of ruled surfaces, determined in the presented way, different from those conventional ones commonly used makes it possible to
determine many groups of approximating each other ruled surfaces. That gives
the designer great freedom at geometric shaping realizable objects [17, 18]. The
engineer should also select the most suitable one from among many approximated models. Thus it is possible to select satisfactory geometric models from
the large assortment of approximated ruled surfaces according to the criterion
suitable for designer of the building and engineering shells.
16
J. Abramczyk
References
[1] Gray A.: Modern Differential Geometry Curves and Surfaces. CRC PRES, Inc.
Florida 1993
[2] Carmo M.P. do: Differential Geometry of Curves and Surfaces, Pentice-Hall, Inc.
Englewood Cliffs, New Jersey 1976
[3] Przewłocki S.: Kształtowanie geometryczne konstrukcji powłokowych. Biblioteka
Inżynierii i Budownictwa, t. 22, Warszawa 1969
[4] Januszewski B.: Geometryczne podstawy grafiki inżynierskiej. Skrypt PRz, Rzeszów 1999
[5] Polański S.: Geometria powłok budowlanych. PWN, Warszawa 1986
[6] Abramczyk J.: O kinetycznym sposobie wyznaczania powierzchni prostokreślnych. Zeszyty Naukowe PRz, Budownictwo i Inżynieria Środowiska, z. 27, Rzeszów 1997
[7] Trajdos T.: Matematyka dla inżynierów. WNT, Warszawa 1981
[8] Biernacki M.: Geometria różniczkowa. Cz.1, 2, PWN, Warszawa 1995
[9] Reichhart A.: Corrugated Deformed Steel Sheets as Material for Shells. Proc. International Conference on Lightweight Structures in Civil Engineering, Vol. I,
Warsaw 1995
[10] Kiełbasa Z.: Modelowanie komputerowe skręconego arkusza blachy fałdowej.
Mat. sympozjum z cyklu: Nowe osiągnięcia nauki i techniki w budownictwie:
„Projektowanie koncepcyjne – kształtowanie konstrukcji, konstrukcje z blach fałdowych, konstrukcje cięgnowe”, Rzeszów 2000
[11] Abramczyk J.: Curves on One Sphere – Select Problems of Analytical Geometry
and Their Utilization in Numerical Determination of These Curves, IV Seminarium
z cyklu: Geometria i grafika w kształtowaniu współczesnego inżyniera, Szczyrk
2003
[12] Abramczyk J.: Models for shells made up of free tweest sheets. Proceedings of the
International Conference on Light Structures in Civil Engineering, Warsaw 2002
[13] Reihchart A.: Kształtowanie geometryczne i konstrukcyjne powłok z blach fałdowych, Oficyna Wydawnicza PRz, Rzeszów 2002
[14] Reichhart A.: Morfologia powłok z blach fałdowych. X Międzynarodowa Konferencja Naukowo-Techniczna „Konstrukcje Metalowe”, Materiały konferencyjne,
t. 3, Gdańsk 2001
[15] Abramczyk J.: Geometrical Formation of Building Shells Composed of Profiled
Metal Sheets, Proc. of 7-th Seminar Geometry and Computer, Wisła 2001
[16] Abramczyk J.: Geometric Optimization of Models for Corrugated Building Shells,
Materiały konferencyjne VI Konferencji Naukowo-Technicznej „Aktualne problemy naukowo-badawcze budownictwa”, Olsztyn–Kortowo 2003
[17] Michajlenko V.E., Kovalev S.N.: Konstruirovanie form sovremennych architekturnych sooruženij, Kijev, Budivelnik 1978
[18] Michajlenko V.E., Obuchova V.S., Podgornyj A.L.: Formoobrazovanie oboloček
v architekture, Kijev, Budivelnik 1972
A new proposal for determination ...
17
O PEWNYM NOWYM SPOSOBIE WYZNACZANIA
POWIERZCHNI PROSTOKREŚLNYCH
Streszczenie
Artykuł prezentuje pewien ujednolicony, geometryczny sposób ustalania dowolnych powierzchni prostokreślnych, tak rozwijalnych, jak i skośnych. Chociaż sposób ten bazuje na właściwościach powierzchni prostokreślnych znanych z geometrii rzutowej i różniczkowej, to jest on
różny od klasycznych sposobów ustalania wymienionych powierzchni. Sposób ten został nazwany
przez autora sposobem linii zwężenia.
Złożono w Oficynie Wydawniczej w maju 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Lesław BICHAJŁO
Politechnika Rzeszowska
ALTERNATYWA DLA WIADUKTÓW
NAD LINIAMI KOLEJOWYMI
W pracy przedstawiono zaobserwowany w Niemczech sposób budowy dwupoziomowych skrzyżowań dróg z kolejami. Droga przebiega tunelem pod wiaduktem
kolejowym. Omówiono podstawowe rozwiązania konstrukcyjne oraz koszty budowy.
1. Ogólna charakterystyka problemu
Co roku dochodzi do ponad 300 wypadków na przejazdach kolejowych,
w których życie traci około 70 osób, a około 140 zostaje rannych [1].
Najważniejsze przyczyny wypadków na przejazdach kolejowych to [2]:
• na przejazdach kategorii A (z rogatkami lub ruchem kierowanym przez
osoby uprawnione)
− wina pracowników obsługujących rogatki (54% wypadków), a więc
niezamykanie lub zbyt późne zamykanie rogatek, otwieranie rogatek
po przejeździe jednego pociągu, gdy wkrótce będzie przejeżdżał następny,
− wina kierowców (46%) – wyłamywanie lub omijanie zamkniętych
rogatek, nietrzeźwość, brak reakcji na sygnały dróżnika,
• na przejazdach kategorii B (z półrogatkami i samoczynną sygnalizacją
świetlną)
− ominięcie lub wyłamanie półrogatek przez kierowcę,
• na przejazdach kategorii C (z sygnalizacją świetlną samoczynną lub manualną)
− brak reakcji na sygnalizację świetlną,
− pozostawienie pojazdu na przejeździe,
• na przejazdach kategorii D (bez rogatek, półrogatek i sygnalizacji
świetlnej)
− zlekceważenie znaku STOP,
− nieostrożność i nieuwaga kierowcy,
− awaria samochodu na pomoście.
20
L. Bichajło
Radykalną poprawę bezpieczeństwa na skrzyżowaniach dróg z kolejami
może przynieść tylko budowa skrzyżowań dwupoziomowych.
Aktualnie obowiązujące akty prawne zobowiązują do budowy skrzyżowania dwupoziomowego, gdy:
• jest budowana nowa linia kolejowa,
• jest zmieniana trasa istniejącej linii kolejowej,
• linia kolejowa jest modernizowana przez zwiększenie liczby torów,
zwiększana jest prędkość pociągów, częstotliwość ich kursowania lub
elektryfikowana linia kolejowa [3].
Budowa obiektów mostowych na użytkowanych liniach kolejowych jest
jednym z trudniejszych przedsięwzięć inwestycyjnych. Oprócz typowych problemów związanych z budową dochodzi konieczność utrzymania ruchu kolejowego, decydując niejednokrotnie o przyjęciu technologii wykonania obiektu
mostowego.
Projektowanie obiektów na czynnych liniach kolejowych wymaga:
• dokładnego rozpoznania warunków terenowych i gruntowych w miejscu
budowy (ewentualność komplikacji i zwiększenia kosztów),
• zinwentaryzowania terenu budowy,
• zapoznania się z wielkością i strukturą ruchu na linii kolejowej oraz na
trasie komunikacyjnej przecinającej linię kolejową,
• zinwentaryzowania uzbrojenia terenu i opracowania sposobów zabezpieczania lub przełożenia (a więc urządzeń technicznych związanych
z ruchem pociągów, sieci trakcyjnej, linii energetycznych i telekomunikacyjnych, kolektorów kanalizacyjnych, ciepłociągów, gazociągów, wodociągów),
• opracowania zabezpieczeń, m.in. ruchu na i pod obiektem mostowym,
• zapewnienia odpowiedniej skrajni pod obiektem (wymiary skrajni według obowiązujących przepisów podano w tab. 1. i na rys. 1.).
Tabela 1. Wymiary wybranych skrajni
Rodzaj skrajni
Pieszego, zwykła
Pojazdu kierowanego, zwykła
Wysokość
3,0
4,50
Szerokość
0,75
3,00
Podczas budowy skrzyżowań najczęstszym utrudnieniem jest:
• konieczność stosowania różnych zabezpieczeń,
• duża ilość drobnych robót dodatkowych,
• konieczność etapowania robót i ich koordynacji,
• niekorzystne oddziaływanie ww. utrudnień na robotników.
Nadrzędną zasadą jest konieczność dostosowania konstrukcji obiektu mostowego i technologii jego budowy przy użytkowanej linii kolejowej do organizacji robót uwzględniającej wymagania bezpieczeństwa ruchu pociągów.
Alternatywa dla wiaduktów ...
21
Rys. 1. Wymiary skrajni drogowej
2. Metody budowy skrzyżowań dwupoziomowych dróg z kolejami
W przypadkach gdy tory kolejowe są w poziomie terenu lub na niskim nasypie, najczęstszym rozwiązaniem skrzyżowania dwupoziomowego jest wiadukt
drogowy nad linią kolejową. Wtedy unika się dużych wykopów i uniezależnia
od wody gruntowej.
W innych przypadkach drogę sprowadza się do tunelu pod linią kolejową.
Ponieważ rozwiązania wiaduktów nad liniami kolejowymi są powszechnie znane, dlatego poniżej omówiono przykład skrzyżowania drogi z linią kolejową,
w którym droga przebiega pod torami.
Aby umożliwić budowę obiektów mostowych w ciągu użytkowanych linii
kolejowych, stosuje się następujące metody [4]:
• objazd tymczasowy,
• tymczasową linię jednotorową,
• odcięcie,
• konstrukcje odciążające,
• metodę przeciskową.
Metoda objazdu tymczasowego polega na przełożeniu toru poza obręb robót. Jest to najłatwiejsza metoda. Jest stosowana w przypadku budowy dużych
obiektów mostowych, wymagającej długiego czasu. Jej duży koszt wynika
z konieczności budowy nowego podtorza toru, ewentualnie sieci trakcyjnej,
obiektów tymczasowych i infrastruktury technicznej.
Metoda tymczasowej linii jednotorowej jest stosowana na liniach wielotorowych. Polega na pozostawieniu jednego toru czynnego. Tor ten jest zabezpieczany konstrukcjami odciążającymi. Pozostałe tory na odcinku robót są rozbierane i tam są prowadzone prace budowlane. Po ich wykonaniu odtwarza się jeden z rozebranych torów, a dotychczasowy czynny tor się rozbiera i pod nim
wykonuje prace budowlane.
Metoda odcięcia jest stosowana wówczas, gdy jest możliwe wykonanie
obiektu mostowego obok linii kolejowej. Kompletny obiekt, wraz z torowi-
22
L. Bichajło
skiem, wstawia się w miejsce usuniętego odcinka toru. Ta metoda wymaga
szybkiego i sprawnego prowadzenia robót.
Metoda konstrukcji odciążających pozwala na wykonanie obiektu pod
czynnymi torami, które są oparte na tymczasowych dźwigarach. Ta metoda jest
stosowana najczęściej, mimo że jej koszt nie jest najmniejszy. Są różne typy
konstrukcji odciążających, od najprostszych, z wiązek szyn, do gotowych przęseł. Konstrukcje odciążające są wykorzystywane przede wszystkim w celu
umożliwienia robót w wykopach. W przypadku budowy przepustów można
uniknąć rozbierania nasypu linii kolejowej, stosując metodę przecisku (wcisku
bocznego).
Wykonanie przecisku polega na zagłębianiu prefabrykowanej konstrukcji
głowicy roboczej w nasyp za pomocą siłowników hydraulicznych lub sprężonego powietrza [5].
Grunt z wnętrza głowicy jest usuwany pneumatycznie, hydraulicznie lub
ślimakiem. Inna metoda wykonywania przecisków polega na wciskaniu głowicy
i segmentów budowli siłownikami hydraulicznymi. W odróżnieniu od poprzedniej, wymaga budowy bloków oporowych do oparcia siłowników. Wydłuża to
czas i podnosi koszty wykonania przecisku.
Wiele infomacji i oryginalnych rozwiązań związanych z budową obiektów
mostowych pod czynnymi liniami kolejowymi można zaczerpnąć z prac A. Jarominiaka [6], K. Grzegorzewicza [7] i A. Niemierki [8].
3. Przykład z RFN dwupoziomowego skrzyżowania drogi
z linią kolejową
Opis dotyczy tunelu zbudowanego pod istniejącą linią DB (Deutsche Bundesbahn) Mannheim-Frankfurt n. Menem, w miejscowości Stockstadt, jednak
zastosowana tu konstrukcja i technologia są typowe dla innych obiektów. Ewentualne różnice polegają na dostosowaniu do warunków miejscowych wymiarów
geometrycznych oraz elementów wyposażenia i wykończenia obiektu. Na tej
linii pociągi ekspresowe jeżdżą z prędkością 200 km/h.
Wymiary poprzeczne budowli zostały tak dobrane, że pod wiaduktem mieści się jezdnia szerokości 5,50 m, ścieżka rowerowa szerokości 3,00 m
oraz chodnik szerokości 1,50 m. Podstawowe dane techniczne zestawiono
w tab. 2. [9].
Konstrukcja tunelu składa się z dwóch zasadniczych, niezależnych od siebie części: obiektu kolejowego oraz drogowej części przejazdowej w postaci
wodoszczelnej wanny. Technologię wykonania obiektów dostosowano do wysokiego poziomu zwierciadła wody gruntowej, a ich konstrukcję zabezpieczono
przed przemieszczeniami wskutek wyporu wody.
Alternatywa dla wiaduktów ...
23
Tabela 2. Podstawowe dane techniczne budowli
Długość budowli
Liczba sekcji
Długość sekcji
Beton konstrukcyjny
Stal zbrojeniowa
Beton podwodny
Długość pali wielkośrednicowych
Czas budowy
Koszt budowy
220 m
22
10 m
B25 zbrojony
BSt 500S/ 500M
B25 niezbrojony
80m
26 miesięcy
14 mln DM
Opis budowy części przejazdowej (rys. 2. i 3.)
Rys. 2. Przekrój podłużny w osi drogi
Faza I
Zbudowano w niej przyczółki wiaduktu. Posadowiono je na żelbetowych
palach wierconych średnicy 120 cm. Korpusy przyczółków wykonano z betonu
hydrotechnicznego.
Faza II
Wzdłuż obrysu części drogowej, długości 220 m, wykonano stalowe ścianki
szczelne, głębokości dochodzącej do 11,5 m. W celu umożliwienia etapowania
robót oraz ułatwienia robót poniżej wody gruntowej, wykonano również ze ścianek szczelnych poprzeczne przepony w rozstawach 22 m. W ten sposób utwo-
24
L. Bichajło
rzono 10 segmentów konstrukcji „wanny”. Następnie w każdej sekcji wykonywano wykop koparką, w miarę postępu robót rozpierając ścianki szczelne.
Pierwsze rozpory były montowane po usunięciu około 1 m gruntu. Na szerokości wiaduktu ścianki szczelne przymocowywano kotwami stalowymi do korpusów przyczółków. Mimo wbicia ścianek szczelnych woda gruntowa podsączała
się do wykopu.
Rys. 3. Przekrój poprzeczny w osi przęsła kolejowego
Faza III
Po osiągnięciu projektowych rzędnych dna wykopu wykonywano w rozstawach 4–5 m, stosowano pale RI – iniekcyjne, wibrowane. Pale te pełnią funkcję kotew, przeciwdziałając pionowym ruchom „wanny” wskutek wyporu wody.
Faza IV
Na dnie wykopu wykonano metodą betonowania podwodnego płytę betonową grubości około 1 m. Użyto betonu klasy B25. Płyta otoczyła górne odcinki
pali kotwiących i stanowiła korek odcinający dopływ wody. Po związaniu betonu wodę z wykopu wypompowano i w celu lepszego uszczelnienia zaspawano
zamki ścianek szczelnych.
Alternatywa dla wiaduktów ...
25
Faza V
Na płycie – korku ułożono warstwę wyrównawczą z betonu B15, a na niej
warstwę betonu szczelnego B25WU grubości około 0,5 m. Następnie wykonywano betonowe ściany każdej sekcji do poziomu przerwy roboczej poniżej rozparć. W dylatacjach między sekcjami zainstalowano zewnętrzne i wewnętrzne
taśmy uszczelniające.
Faza VI
Po stwardnieniu betonu ścian demontowano rozparcia i dobetonowywano
górne odcinki ścian. Później wykonywano drenaż, beton filtracyjny, izolację,
beton ochronny oraz konstrukcję jezdni. Ściany wyłożono elementami dźwiękochłonnymi.
4. Podsumowanie
Rezygnacja przez PKP w coraz większym zakresie ze strzeżonych przejazdów kolejowych powinna iść w parze ze wzrastającą liczbą bezkolizyjnych
skrzyżowań dwupoziomowych. Skrzyżowania te, w zależności od warunków
miejscowych, powinny być wykonywane jako wiadukty drogowe lub tunele.
Decydującym kryterium powinien być rachunek ekonomiczny kosztów budowy
i kosztów zajęcia terenu oraz wpływu nowego zagospodarowania na środowisko. W przypadku tuneli koszty wykupu gruntów są niższe niż w przypadku
wiaduktów z dojazdami na nasypach.
Następstwem konstrukcyjnego rozdzielenia tunelu na dwie niezależne części – kolejową i drogową jest ułatwienie podziału odpowiedzialności służb kolejowych i drogowych za jego utrzymanie.
Literatura
[1] Ogólnopolskie seminarium „Jednopoziomowe skrzyżowania dróg z koleją – bezpieczeństwo ruchu i usprawnienia”, Warszawa 2000
[2] Barburski W.: Analiza przyczyn wypadków na liniach kolejowych. Ogólnopolska
konferencja „Problemy skrzyżowań dróg kołowych z liniami kolejowymi w Polsce”, Warszawa 1996
[3] Ustawa z dnia 21 marca 1985 r. o drogach publicznych (Dz.U. Nr 14, poz. 60
z późniejszymi zmianami)
[4] Cholewo J., Sznurowski M.: Mosty kolejowe. WKŁ, Warszawa 1974
[5] Materiały reklamowe firm Terra, Tracto-Technik
[6] Jarominiak A. i inni: Podpory mostów – wybrane zagadnienia, WKŁ, Warszawa
1981
[7] Grzegorzewicz K.: Budowa podpór mostowych na użytkowanych szlakach komunikacyjnych, IBDM, Warszawa 1977
26
L. Bichajło
[8] Niemierko A.: Budowa obiektów mostowych przy ruchu pociągów. Drogowy
Przegląd Kolejowy, nr 4/74
[9] Materiały reklamowe firmy Krebs und Kiefer, Frankfurt nad Menem, Niemcy
AN ALTERNATIVE FOR VIADUCTS OVER RAILROADS
Summary
The paper presents the construction of two-level road-railway crossing. The alternative for
typical construction (viaduct over railroad) is a road tunel under rail viaduct. The example, build in
Germany, is given.
Złożono w Oficynie Wydawniczej w październiku 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Bogusław JANUSZEWSKI
Politechnika Rzeszowska
PEWIEN SPOSÓB GRAFICZNEGO ZAPISU
PERSPEKTYWY PIONOWEJ
FIGUR PRZESTRZENI M4
W artykule przedstawiono pewien sposób graficznego zapisu perspektyw pionowych figur przestrzeni M4. Charakteryzuje się on tym, że korzysta się w nim
z działań konstrukcyjnych wykazujących pełne analogie merytoryczne i formalne
do odpowiednich działań tradycyjnie stosowanych w zapisach perspektyw pionowych figur przestrzeni M3.
Perspektywę pionową figur przestrzeni M3 daje się zdefiniować jako dwurzutowe odwzorowanie wiązkowe częściowo złożeniowe PC3, w którym głównym przekształceniem jest rzutowanie środkowe C ze środka S na płaskie tło τ,
a przekształceniem pomocniczym – rzutowanie prostokątne R na podstawę π,
przy czym efekty rzutowania R są dodatkowo zapisywane na tle τ za pomocą
rzutowania C [1]. Odwzorowanie PC3 jest zazwyczaj wspomagane dwupłaszczyznowym układem śladowym złożonym z płaszczyzny tła τ i płaszczyzny
niewłaściwej µ∞ ⊂ M3.
W niniejszym opracowaniu, rozwijając pomysł zasygnalizowany w artykule
[2], pokazano graficzny sposób zapisu perspektywy pionowej figur przestrzeni
M4. Oryginalność proponowanego zapisu wyraża się w tym, że korzysta się w
nim w szerokim zakresie z planimetrycznych rozwiązań konstrukcyjnych tradycyjnie stosowanych w zapisach realizowanych metodą PC3 [3].
Na wstępie zauważono, że główne zasady odwzorowania PC3 dają się bez
komplikacji przenieść na analogiczne odwzorowanie PC4 figur przestrzeni M4.
Wystarczy w tym celu przyjąć, że perspektywa pionowa figur przestrzeni M4 jest
również dwurzutowym odwzorowaniem częściowo złożeniowym PC4, w którym:
• przekształceniem głównym jest rzutowanie środkowe proste CI z właściwego środka SI na właściwą hiperrzutnię – tło PI,
• przekształceniem pomocniczym jest rzutowanie normalne RII ze środka
1
SII∞ ∈ PI na właściwą hiperrzutnię – podstawę PII prostopadłą PI,
3
28
B. Januszewski
• utworem wspomagającym jest hiperpłaszczyznowy układ hiperśladowy
złożony z hiperpłaszczyzn PI i M∞, gdzie M∞ jest niewłaściwą hiperpłaszczyzną przestrzeni M4,
• usytuowanie odwzorowywanej figury względem aparatu realizowanego
odwzorowania charakteryzyje się tym, że trzy spośród czterech kierunków wymiarów głównych tej figury są równoległe do podstawy PII, natomiast czwarty z tych kierunków jest równoległy do tła PI.
Opisane odwzorowanie PC4 daje obraz odwzorowywanej figury Γ ⊂ M4
w postaci, zawartych w trójwymiarowym tle PI, rzutów Γ I = RI(Γ) i Γ II,I =
= RI(Γ II), gdzie Γ II = RII(Γ). W celu dokonania graficznego zapisu tego obrazu
w niniejszym opracowaniu zaproponowano posłużenie się dodatkowym dwurzutowym wiązkowym odwzorowaniem MP3 podprzestrzeni PI na rzutnię π =
= PI ∩ PII. Rzutowaniami składającymi się na odwzorowanie MP3 są:
• rzutowanie ukośne R1 tła PI na rzutnię π, którego środek jest niewłaściwym punktem S1∞, należącym do prostych pęku prostych równoległych
podprzestrzeni PI i nachylonych do π pod kątami o mierze 45o,
• rzutowanie prostokątne R2 tła PI na rzutnię π ze środka S2∞ = SII∞.
Złożenie MP3 PC4 = PV4 jest docelowym odwzorowaniem graficznym analizowanym w niniejszym opracowaniu. Rysunek 1. przedstawia „poglądowo”
strukturę aparatu tego odwzorowania.
Rys. 1. Budowa aparatu odwzorowania PV4
Pewien sposób graficznego zapisu ...
29
W każdej metodzie odwzorowania posługującej się zapisem graficznym
podstawową rolę odgrywają:
• konstrukcje obrazów punktów różnie usytuowanych względem elementów aparatu odwzorowania,
• konstrukcje obrazów prostych o ogólnych i szczególnych ułożeniach
względem elementów aparatu odwzorowania,
• zapisy podstawowych relacji miarowych i niemiarowych zachodzących
pomiędzy punktami, prostymi i ich złączami.
W związku z tym, w dalszej części niniejszego opracowania analizuje się
kolejno wszystkie wymienione zagadnienia konstrukcyjne.
I tak, na rys. 2. przedstawiono obrazy punktów przestrzeni M4 różnie usytuowanych względem aparatów {PI, SI} i {PII, SII∞}. W pierwszej kolejności ustalono obraz odwracalny środka SI rzutowania CI, poprzez podanie zapisu w odwzorowaniu MP3 rzutu normalnego SnI punktu SI na tło PI oraz określenie odległości d środka SI od PI za pomocą promienia, tradycyjnie wyróżnianego w perspektywie pionowej, okręgu głębokości tłowej o środku w punkcie SIn,1. Ważne
są również następujące spostrzeżenia:
• długość odcinka S In,1S In,2 jest równa odległości h = σ (SI, PII) = σ (SIn,
PII) = σ (SIn, π), zwanej zwyczajowo wysokością horyzontu,
Rys. 2. Obrazy proste punktów w metodzie PV4
30
B. Januszewski
• kolejność ułożenia punktów SIn,1 oraz SIn,2 w odnoszącej tych rzutów
uznawana jest za charakterystyczną cechę odwzorowania wszystkich
punktów leżących w PI przed rzutnią π zjednoczoną z płaszczyzną zawierającą wykorzystywaną do zapisu powierzchnię arkusza rysunkowego.
Środki SII∞ = S2∞ oraz S1∞ pozostałych rzutowań RII, R2 i R1 są jednoznacznie określone przez podane na rys. 2. ich rzuty, przez założoną normalność SII∞ =
S2∞ do PII oraz przez wcześniej zasygnalizowaną umowę, iż kolejność rzutów
SIn,1 oraz SIn,2 w ich odnoszącej odpowiada położeniu punktu SIn przed płaszczyzną π.
Rysunek 2. zawiera ponadto obrazy:
• dowolnego właściwego punktu A przestrzeni M4,
• dowolnego punktu B podstawy PII,
• dowolnego punktu C należącego do tła PI,
• dowolnego niewłaściwego punktu D∞ przestrzeni M4.
Z kolei na rys. 3. wykreślono obraz odwracalny prostej właściwej a ⊂ M4,
ogólnie usytuowanej względem elementów aparatu odwzorowania PV4. Podobnie jak to ma miejsce w konstrukcjach perspektyw pionowych prostych przestrzeni M3, w odwzorowaniu pokazanym na rys. 3. wyróżniono obrazy śladu
Rys. 3. Obraz prosty dowolnej prostej a ⊂ M4 uzyskany metodą PV4
Pewien sposób graficznego zapisu ...
31
tłowego Ta i śladu zbiegu Za prostej a, co jest wynikiem ogólnie respektowanego
dążenia do unifikacji elementów obrazów prostych.
W odwzorowaniu PV4, jak w każdej odmianie perspektywy pionowej,
szczególną rolę odgrywają proste zawarte w podstawie – hiperpłaszczyźnie PII
oraz proste prostopadłe do tej hiperpłaszczyzny. Rysunki 4. i 5. przedstawiają
obrazy takich prostych uzyskane metodą PV4, przy czym odwzorowana:
• na rys. 4a prosta b jest zawarta w PII i prostopadła do PI,
• na rys. 4b prosta b jest prostą zawartą w PII lecz nie jest prostopadła
do PI,
• na rys. 5a prosta c, to prosta tła PI prostopadła do PII,
• na rys. 5b prosta c jest prostą prostopadłą do podstawy PII niezawartą
w P I.
Rys. 4. Przykłady konstrukcji obrazów miarowych prostej b ⊂ PII uzyskanych metodą PV4
W każdej z rozważanych prostych wyróżniono odcinek AB o ustalonej
długości. W przypadku prostej c ⊥ PII i c ⊂ PI (rys. 5a) odcinek ten odwzorowuje się bez deformacji w rzutowaniu R1CI ( A1,I B1,I = AB ). Natomiast we
wszystkich pozostałych przypadkach (rys. 4a,b i rys. 5b) konstrukcja obrazu
odcinka AB została oparta o tzw. punkt mierzenia wyznaczany w rzutowaniu
R1 (lub R2) w sposób analogiczny do konstrukcji stosowanych w tradycyjnej
perspektywie pionowej przestrzeni M3.
32
B. Januszewski
Rys. 5. Przykłady miarowych obrazów prostej c ⊂ PII uzyskanych metodą PV4
Podsumowując możliwości zapisu graficznego figur przestrzeni M4 metodą
PV4, skonstruowano tą metodą na rys. 6. i 7. obrazy (perspektywy pionowe)
ośmiohiperścianu foremnego, będącego odpowiednikiem w M4 sześcianu przestrzeni M3.
Rysunek 6. przedstawia graficzny zapis tzw. perspektywy czołowej ośmiohiperścianu. Tego rodzaju perspektywę otrzymuje się przy założeniu, że jedna z
sześciennych hiperścian ośmiohiperścianu zawarta jest w tle PI, a kwadrat jej
ściany (na rys. 6. – <ABCD>) leży bezpośrednio w rzutni π.
Z kolei na rys. 7. wykreślono tzw. perspektywę trójzbieżną ośmiohiperścianu foremnego Γ. Nazwa skonstruowanej perspektywy wiąże się z faktem, że
proste należące do trzech spośród czterech parami prostopadłych kierunków
wymiarów głównych odwzorowanego ośmiohiperścianu zapisują się w rzutowaniu R1CI jako proste wiązek o właściwych punktach wierzchołkowych (czyli
jako proste zbieżne w tych wierzchołkach). Taka właściwość rzutów wyróżnionych pęków prostych jest konsekwencją przyjęcia, że hiperściana sześcienna
ośmiohiperścianu Γ zawarta w podstawie PII jest całkowicie ogólnie ustawiona
względem tła PI (jedynie wierzchołek A tej hiperściany należy do rzutni π ⊂ PI).
Pewien sposób graficznego zapisu ...
33
Rys. 6. Przykład zapisu graficznego uzyskanego metodą PV4 czołowej perspektywy pionowej
ośmiohiperścianu foremnego
Z kolei na rys. 7. wykreślono tzw. perspektywę trójzbieżną ośmiohiperścianu foremnego Γ. Nazwa skonstruowanej perspektywy wiąże się z faktem, że
proste należące do trzech spośród czterech parami prostopadłych kierunków
wymiarów głównych odwzorowanego ośmiohiperścianu zapisują się w rzutowaniu R1CI jako proste wiązek o właściwych punktach wierzchołkowych (czyli
jako proste zbieżne w tych wierzchołkach). Taka właściwość rzutów wyróżnionych pęków prostych jest konsekwencją przyjęcia, iż hiperściana sześcienna
ośmiohiperścianu Γ zawarta w podstawie PII jest całkowicie ogólnie ustawiona
względem tła PI (jedynie wierzchołek A tej hiperściany należy do rzutni π ⊂ PI).
Nowością wśród działań konstrukcyjnych zrealizowanych zarówno na rys.
6. jak i 7. jest dokonanie zapisu prostych należących do czterech parami prostopadłych pęków, z których trzy mają swych reprezentantów w podstawie PII.
Szczegółowa analiza przebiegu tych konstrukcji wykazuje ich daleko idące podobieństwo do analogicznych konstrukcji stosowanych w zapisie perspektywy
pionowej figur przestrzeni M3.
34
B. Januszewski
Rys. 7. Przykład zapisu graficznego uzyskanego metodą PV4 trójzbieżnej perspektywy pionowej
ośmiohiperścianu foremnego
Całość zaprezentowanych w niniejszym opracowaniu konstrukcji, a w
szczególności przedstawione na rys. 6. i 7. odwzorowania, zdefiniowanego przez
właściwości niemiarowe i miarowe, ośmiohiperścianu foremnego dowodzą, że
zaproponowana tutaj metoda PV4 pozwala na efektywną realizację graficznych
zapisów perspektyw pionowych figur przestrzeni M4.
Literatura
[1] Januszewski B.: O zapisie graficznym perspektywy pionowej figur przestrzeni M4.
Proceedings of 3rd Seminar „Geometry and Graphics in Teaching Contemporary
Engineer”, Wisła 2000
[2] Dźwierzyńska J., Januszewski B.: Odwzorowanie częściowo złożeniowe Z trójwymiarowej przestrzeni rzutowej na płaszczyzną, Zeszyty Naukowe Politechniki
Rzeszowskiej, „Budownictwo i Inżynieria Środowiska”, Nr 3, Rzeszów 2000
Pewien sposób graficznego zapisu ...
35
[3] Grochowski B.: Geometria wykreślna z perspektywą stosowaną. PWN, Warszawa 1995
MAPPING OF VERTICAL PERSPECTIVE PROJECTION
OF M4 SPACE FIGURES
Summary
A way of mapping of the vertical perspective of M4 space figures is presented in the paper.
Abilities of using the traditional constructions, known in the vertical perspective of M3 space
figures, is characteristic of the recommended representation.
Złożono w Oficynie Wydawniczej w maju 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Jan JAREMSKI
Grzegorz STRAŻ
Politechnika Rzeszowska
BADANIA PARAMETRÓW GRUNTOWYCH
PYŁÓW RZESZOWSKICH PRZY POMOCY
APARATU GDS INSTRUMENTS LTD
Praca zawiera informacje na temat aparatu trójosiowego ściskania firmy GDS
Instruments Ltd, używanego do badań gruntów, który jest jednym z najnowszych
osiągnięć w geotechnice na skalę światową. Przedstawiono ogólny opis aparatu,
zakres możliwości badawczych oraz zagadnienia związane z jego eksploatacją.
W pracy zamieszczono wyniki badań pyłów rzeszowskich. Poruszono problem
powtarzalności i weryfikacji uzyskanych parametrów geotechnicznych oraz temat
przyszłości badań gruntów małospoistych przy pomocy aparatu typu GDS.
1. Wprowadzenie
Grunty pylaste zalegają na znacznym obszarze województwa podkarpackiego, a także występują w innych regionach kraju. Ustalenie ich parametrów
geotechnicznych jest wyjątkowo trudne. Opisane we wcześniejszych pracach
badania wskazują na podstawową trudność w pozyskiwaniu próbek o nienaruszonej strukturze (NNS) ze względu na niszczenie ich struktur. Badany grunt
jest z reguły inny od występującego w warunkach rzeczywistych. Ponadto grunty te cechuje wyjątkowa wrażliwość na zmiany zawilgocenia. Poszukuje się
metod badania tych gruntów na próbkach preparowanych [1, 2], a także podjęto
próbę wyjaśnienia zmian parametrów geotechnicznych przez opisanie udziału
budowy mineralogicznej we wcześniejszych badaniach [3]. Stwierdzono, że
o wytrzymałości gruntów pylastych decydują między innymi zjawiska wywołane zmianą zawilgocenia frakcji iłowej łączącej ziarna kwarcu. We frakcji iłowej,
którą stanowią minerały grup ilitu i częściowo smektytu, przy narastającym zawilgoceniu gruntu następuje powiększenie się warstw dyfuzyjnych micel koloidalnych. Minerały ilaste zeskalające połączenia międzyziarnowe kwarcu stają
się mikropłaszczyznami poślizgu, w efekcie których powstaje nowy układ międzyziarnowy [4, 5]. Cząstki kwarcowe zagęszczają się i zakleszczają, towarzyszą temu deformacje warstw poddających się tym zmianom zawilgocenia.
W pracy podjęto próbę badań gruntów pylastych z zawartością części organicz-
38
J. Jaremski, G. Straż
nych. Z przyczyn praktycznych do badań wytypowano poligon w pobliżu laboratorium, tak aby analizowany grunt zachowywał w maksymalnym stopniu parametry występujące w warunkach rzeczywistych. Na tym poligonie zawartość
części organicznych oscyluje w granicach od 3,63 do 4,37% (średnio 4,00%).
Ustalenie wpływu zawartości występujących tu części organicznych na parametry geotechniczne tych pyłów jest podstawowym problemem w rozpoczętych
badaniach.
2. Materiał badawczy
Badania przeprowadzono na pyłach rzeszowskich pobieranych na jednym
z poligonów w najmniejszej odległości od laboratorium badawczego. Próbki
były pobierane z głębokości ok. 1,5 m. Badania podstawowe wykazały, że gęstość objętościowa pobieranego materiału gruntowego wynosi od 2,01 do
2,10 g/cm3, a wilgotność naturalna od 22,11 do 24,79%. Wstępna analiza areometryczna wykazała, że w badanym gruncie znajduje się 6,77% frakcji iłowej,
a stopień plastyczności oscyluje w granicach od –0,02 do 0,23. Po zbadaniu
próbek pod względem zawartości węglanów nie stwierdzono śladów reakcji, tak
więc zawartość węglanów w badanym gruncie nie przekracza 1,0%. Badania
przeprowadzono na próbkach cylindrycznych NNS (o naturalnej strukturze)
o wymiarach φ38/100 mm.
3. Ogólny opis zestawu do badań gruntów
i skał GDS Instruments Ltd
Zestaw ten (rys. 1.) jest systemem sterowanym wyłącznie elektronicznie.
W skład systemu badawczego wchodzą następujące elementy:
• komora trójosiowa typu Bishopa&Wesleya oraz dolna zamknięta komora do wymuszania ciśnienia,
• urządzenie kontrolujące ciśnienie I, które umożliwia sterowanie ciśnieniem w komorze obciążeniowej oraz przemieszczeniem próbki,
• urządzenie kontrolujące ciśnienie II, które umożliwia sterownie ciśnieniem w komorze trójosiowej,
• urządzenie kontrolujące ciśnienie III, które służy do zadawania lub pomiaru ciśnienia wody w porach gruntu,
• elektroniczny układ zbierania danych (skrzynka nadawczo-odbiorcza
wszystkich sygnałów),
• komputer sterujący, zbierający, przetwarzający i przechowujący dane,
• urządzenia dodatkowe, jak: czujnik do pomiaru odkształceń bocznych,
dodatkowe wyposażenie umożliwiające badanie próbki podczas jej „roz-
Badania parametrów ...
39
ciągania”, czujniki do bezpośredniego pomiaru przemieszczeń próbki
oraz przewody łączące i łączniki [6, 7].
Rys. 1. Zestaw do badań parametrów
geotechnicznych gruntów i skał firmy
GDS Instruments Ltd
Aparat umożliwia badanie próbek cylindrycznych średnicy 38 i 50 mm oraz
wysokości 80–100 mm przy maksymalnym ciśnieniu 17 000 kPa i sile ścinającej
do 5,0 kN. Ciśnienie wody w porach może być zadawane zarówno od dołu, jak
i od góry próbki. Parametry badań można wprowadzać programowo przez sterowanie z komputera oraz za pomocą poszczególnych urządzeń kontrolujących.
Zestaw do badań GDS Instruments Ltd może służyć do pomiaru parametrów geotechnicznych [4] w zakresie:
• sprawdzenia współczynnika β (parametr Skemptona),
• testu trójosiowego ściskania
− UU – próbki nieskonsolidowane bez odpływu,
− CU – próbki skonsolidowane bez odpływu,
− CD – próbki skonsolidowane z odpływem,
• przepuszczalności
− badania przepuszczalności,
− współczynnik filtracji,
• funkcji ścieżki odkształceń/naprężeń przy badaniu próbek nienasyconych
− ścieżka odkształceń,
− ścieżka naprężeń,
• standardowej konsolidacji
− obciążenie skokowe,
− CRS (stały wskaźnik odkształceń),
− CLR (stały wskaźnik naprężeń),
40
J. Jaremski, G. Straż
• funkcji zaawansowanych obciążeń (niezależna kontrola nad wybranymi
parametrami)
− obciążenie osiowe [kN],
− naprężenie osiowe [kPa],
− osiowe zniekształcenie [mm],
− dewiator naprężeń [kPa],
• modułu konsolidacji KO
− przez bezpośredni pomiar,
− przez zmianę objętości,
• funkcji obliczeń w teście trójosiowego ściskania [7].
Rys. 2. Pogram GDSLAB podczas pracy z zestawem GDS Instruments Ltd
Ważną rolę w badaniu odgrywa program sterujący GDSLAB w wersji 1.4.0
(rys. 2.). Oprogramowane to umożliwia modernizację i zautomatyzowanie czynności laboratoryjnych i obsługę samego urządzenia GDS [7]. Na podkreślenie
zasługuje fakt, że program ten działa w systemie WINDOWS, umożliwia to
obróbkę plików z wynikami badań w programach działających na tej platformie.
Pozwala to na bezpośrednie i ciągłe rejestrowanie wyników, jak również obserwowanie przebiegu badania „na bieżąco” na wykresach, które można dowolnie
konfigurować w zależności od potrzeb. W dowolnej chwili można również zatrzymać lub zmienić przebieg testu. Korzystając z programu GDSLAB, oprócz
gromadzenia danych, jest możliwe dokonywanie przeliczeń standardowych pa-
Badania parametrów ...
41
rametrów i umieszczanie ich w pliku, np. arkusza kalkulacyjnego, który umożliwia znaczne uproszczenie dalszej obróbki danych zapisanych w tabelach: Stage
Number, Time since start of test, Time since start of stage, Radial Pressure, Radial Volume, Back Pressure, Back Volume, Load Cell, Pore Pressure, Axial
Displacement, L/C Pressure, L/C Volume, Hall Axial 1, Hall Axial 2, Hall Radial, Base Pressure, Base Volume, Back Differential Pressure, Axial Displacement 2, Axial Force, Axial Strain, Av Diameter Change, Radial Strain, Axial
Stress, Eff. Axial Stress, Eff. Radial Stress, Deviator Stress, Total Stress Ratio,
Eff. Stress Ratio, Current Area, Shear Strain, Cambridge p, Eff. Cambridge p,
Max Shear Stress t, Volume Change, B Value, Mean Stress s, Permeability IN,
Permeability OUT, Lower Chamber Displacement, Lower Chamber Axial Load,
oczywiście w zależności od rodzaju zadanego testu, a tym samym ułatwia przedstawianie wyników badań, np. w postaci graficznej, interesujących nas zależności (rys. 3.).
Rys. 3. Wykres przedstawiający przykładowy test trójosiowego ściskania
w aparacie GDS Instruments Ltd
4. Przebieg badań pyłów rzeszowskich
W miarę postępujących badań okazało się, że parametry badanych próbek
gruntu, które były przygotowywane w niemal identyczny sposób, tzn. pobrane z
42
J. Jaremski, G. Straż
tego samego poligonu, głębokości i w taki sam sposób, przechowywane w takich
samych warunkach oraz badane przy takich samych parametrach zadanego testu
(σ3 = 100 kPa, v = 0,1 mm/min) są bardzo rozbieżne. Wielokrotne powtarzanie
badań również nie przynosiło spodziewanych wyników. Podjęto szereg badań
mających na celu wyjaśnienie zaistniałej sytuacji. Rozpoczęto od sprawdzenia
samego aparatu pod względem zarówno sprzętowym, jak i oprogramowania.
Dokonano również wtórnej instalacji systemu operacyjnego komputera sterującego, ponownej kalibracji aparatu, sprawdzono prawidłowość komunikacji poszczególnych podzespołów transmisyjnych urządzenia badawczego oraz prawidłowość działania przetworników. Wynik kontroli potwierdził prawidłowość
działania zespołu badawczego.
Kontrola prawidłowości działania poszczególnych elementów pod kątem
mechanicznym również nie wykazała nieprawidłowości. Kolejnym etapem było
wyeliminowanie ewentualności błędu związanego ze sposobem pobierania próbek. Próbki NNS pobierano przy pomocy cylindrów stalowych bezpośrednio w
terenie, a następnie przy pomocy wyciskarki umieszczano próbkę w cylinderkach z tworzywa sztucznego, szczelnie zamykając i przechowując w eksykatorze. Chcąc zminimalizować wpływ siły tarcia na zmianę struktury próbki,
wprowadzano substancje zmniejszające współczynnik tarcia, tj. olej roślinny,
wazelina kosmetyczna i techniczna oraz różne rodzaje smarów. Efekty były
minimalnie korzystne, lecz jednocześnie nie było żadnej pewności czy dana
substancja smarująca poprzez penetrację powierzchniowych warstw próbki nie
powoduje zmiany parametrów badanego gruntu, szczególnie w warstwie narażonej na bezpośredni kontakt. Przystąpiono więc do bardzo pracochłonnego
sposobu pozyskiwania próbek NNS, a mianowicie do pobierania całych bloków
gruntu, a następnie, przy pomocy ostrego noża i przyrządu obrotowego, do wykrawania próbek gruntu. Szczególną uwagę podczas przygotowywania próbek
zwrócono na prostopadłość i równoległość odpowiednich powierzchni, poprawność i zgodność kształtu oraz wymiary próbek. Po dostatecznym opanowaniu
opisanej metody pobierania próbek przystąpiono do badań. Wystąpiły podobne,
znaczne rozbieżności w rezultatach badań. Stwierdzono jednak, że próbki NNS
przygotowane przez wykrawanie to próbki, które są przygotowane prawidłowo,
a więc zminimalizowano ewentualność błędu powodowanego uszkodzeniem
naturalnej struktury próbki. Przygotowane próbki podzielono na serie i poddano
badaniom, tym razem zmieniając parametry testu danej serii. Kolejne badania
wykonywano przy prędkości ścinania próbki w zakresie: 0,02–0,5 mm/min oraz
zmiany ciśnienia wewnątrz komory w zakresie: 50,0–400,0 kPa. Otrzymane tym
sposobem wyniki badań nie były zadawalające (rys. 4.).
W trakcie badań zaobserwowano, że w próbkach gruntu znajdują się znaczne ilości ciemnych części organicznych. Sprawdzono jaka jest ich zawartość. Po
oznaczeniu średniej zawartości części organicznych metodą wyprażania stwier-
Badania parametrów ...
43
dzono, że średnia zawartość części organicznych w gruncie jest stała i wynosi
średnio 4,00%, a ich rozmieszczenie jest w miarę podobne.
Rys. 4. Przykładowe próbki pyłu NNS
po badaniu na zestawie GDS Instruments Ltd
Podczas prowadzenia badań stwierdzono, że aparat jest bardzo wrażliwy na
najmniejsze niedokładności podczas zakładania próbki. Skupiono się więc na
perfekcyjnym opanowaniu zakładania próbek gruntu w aparacie badawczym.
Bardzo pomocnym urządzeniem do umieszczania próbek w lateksowych osłonach okazała się podciśnieniowa pompa wodna, minimalizująca możliwość
uszkodzenia próbki na tym etapie przygotowania badania, co w praktyce oznacza zakładanie próbki niemal bez dotykania ścianek bocznych próbki. Kamienie
filtracyjne umieszczane w podstawie dolnej i górnej próbki były każdorazowo
wygotowywane, a następnie suszone do stałej masy. Podczas samego „zakładania” próbek na stoliku aparatu bardzo przydatnym okazał się trójdzielny cylinder
mocujący, który oprócz wstępnej stabilizacji próbek doskonale chronił je przed
przypadkowym uszkodzeniem podczas montażu w aparacie. Aby maksymalnie
zmniejszyć tę ewentualność, próbki skrócono do wymiarów 38/88 mm. Cylinder
trójdzielny spełnił jeszcze jedną, bardzo istotną rolę, zapewniał bowiem współosiowość badanej próbki z trzpieniem kontrolnym aparatu. Zredukowano do minimum ewentualny mimośród, który mógł powodować poślizg trzpienia w prowadnicy stolika górnego próbki, a tym samym zniszczenie próbki przez wyboczenie.
Przeprowadzono kolejne serie badań i nie uzyskano zadowalającej powtarzalności wyników. Po przeanalizowaniu wykonanych dotąd badań stwierdzono,
że czynnikiem powodującym tak rozbieżne wyniki badań może być niejednorodność gruntu w warunkach in situ. Przystąpiono do badań na próbkach preparowanych, podobnie jak w pracach wcześniejszych [2]. Przygotowano więc
próbki preparowane 38/88 mm, które wykonano z takiego samego jak do opisanych badań gruntu w warunkach in situ poprzez pobranie go z różnych miejsc
warstwy, wymieszanie, wysuszenie do stałej masy, ponowne nawilżenie i jednakowe zagęszczanie warstwami w cylindrach pomocniczych. Uzyskane w ten
sposób próbki teoretycznie powinny mieć bardzo zbliżoną do siebie, jednorodną
44
J. Jaremski, G. Straż
strukturę, a tym samym powinny posiadać jednakowe parametry gruntowe, jak
i wytrzymałościowe (rys. 5.).
Rys. 5. Przykładowe wyniki badań
wybranych serii badawczych
Badania parametrów ...
45
Po przeprowadzeniu kolejnych badań na wspomnianych próbkach okazało
się, że tylko część wyników jest powtarzalna. Po badaniach na próbkach preparowanych, celem potwierdzenia wysuniętej w czasie badań tezy, że aparat GDS
jest urządzeniem pozwalającym na uchwycenie wpływu nawet najmniejszych
niejednorodności badanego ośrodka, przystąpiono do badań na próbkach specjalnie preparowanych z materiału używanego do wyrobu świec. Użyty materiał
do wykonywania prób testowych ma tę zaletę, że jest łatwo formowalny. Formowanie wykonywano przy pomocy cylindrów z tworzywa sztucznego, które
wypełniano rozgrzanym do ustabilizowanej temperatury materiałem używanym
do wyrobu świec. Po zastygnięciu substancji otrzymano próbki o wymiarach
38/100 mm i gęstości objętościowej ρ = 0,93 g/cm3 o poprawnym kształcie
i jednakowej gęstości objętościowej. Przystąpiono do badań, ścinając próbki
poddane ciśnieniu komorowemu σ3 = 100 kPa i prędkości ścinania V =
= 0,2 mm/min. Po wykonaniu serii badań i odrzuceniu dwóch skrajnych wyników reszta mieściła się w zakresie 2178,42 kPa ± 4%. Przeprowadzone badania
pozwalają stwierdzić, że zestaw do badań trójosiowych typu GDS Instruments Ltd działa w sposób prawidłowy, a otrzymywane tą metodą wyniki są
wiarygodne (rys. 6.). Zarejestrowane różnice w wynikach badań pyłów rzeszowskich pozwalają przypuszczać, że są one wywołane zawartymi w nich częściami
organicznymi, a także wynikają z ich składu mineralogicznego i budowy mikrostrukturalnej.
Rys. 6. Wykres przedstawiający wyniki badań wytrzymałości na ścinanie próbek wykonanych z parafiny
5. Podsumowanie
W świetle przeprowadzonych badań możemy stwierdzić, że wyznaczenie
interesujących nas parametrów gruntowych wcale nie jest rzeczą prostą, mimo
zastosowania bardzo zaawansowanych technik badawczych. Wpływ na ostateczny wynik badania może mieć bardzo duża liczba czynników, które czasami
46
J. Jaremski, G. Straż
pozornie wydają się błahe a czasami wręcz niezauważalne. Bardzo ważny jest
nadal problem pobierania próbek NNS gruntów małospoistych, ponieważ ma
istotny wpływ na jakość uzyskiwanych wyników badań. Naprzeciw tym wymaganiom wychodzi system kontrolno-pomiarowy firmy GDS Instruments Ltd
spełniający nie tylko europejskie, ale i światowe wymagania dotyczące badań parametrów geotechnicznych. Dzięki rozległemu wachlarzowi funkcji jest
bardzo efektywnym i dokładnym narzędziem w realizacji bardzo złożonych
i skomplikowanych badań.
Literatura
[1] Jaremski J.: O niektórych aspektach zmian parametrów geotechnicznych lessów i
gruntów lessopodobnych rejonu Rzeszowa. V Konferencja Naukowo-Techniczna
„Aktualne problemy naukowo-badawcze budownictwa”. Olsztyn–Łańsk 2002
[2] Jaremski J.: Wybrane zagadnienia geotechniczne występujące na obszarze województwa podkarpackiego. V Konferencja Naukowa Rzeszowsko–Lwowsko–
Koszycka, Rzeszów 2000
[3] Grabowska-Olszewska B., Osipov V., Sokolov V.: Atlas of microscructure of clay
soils. PWN, Warszawa 1994
[4] Grabowska-Olszewska B.: Free swell of bentonite from Radzionków. 7-th Int.
IAEG Cong. A.A. Balkema, Rotterdam 1994
[5] Grabowska-Olszewska B.: Influence of sorption properties upon the hydrophility
of selected clay soils. Bulletin of Geology 10: 5-144. Warsaw University Press,
Warszawa 1968
[6] Świdziński W.: System badań w aparacie trójosiowego ściskania sterowany komputerem. Inżynieria Morska i Geotechnika, 1, 2000
[7] Menzies B.K.: A computer controlled hydraulic triaxial testing system. Advanced
Traxial Testing of Soil and Rock, ASTM STP 977, 1988
INVESTIGATIONS OF RZESZOW SILTS GROUND PARAMETERS
BY MEANS OF GDS INSTRUMENTS LTD APPARATUS
Summary
The contribution includes information on the triaxial testing system of GDS Instruments Ltd
firm using to soil investigations which is one of the latest world solutions in geotechnics field.
The general description of the system, range of its possibilities and problems connected with the
exploitation have been presented. The results of Rzeszów silt samples tests have been run in the
paper. The problem of repeatability and verification of the received geotechnical parameters and
subject of the future of low-cohesive soils investigations by means of the GDS apparatus have
been also touched on.
Złożono w Oficynie Wydawniczej w maju 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Jan JAREMSKI
Krzysztof WILK
Politechnika Rzeszowska
ANALIZA WPŁYWU ZMIAN ZAWILGOCENIA
GRUNTÓW MADOWYCH WYWOŁANYCH
STANAMI POWODZIOWYMI
NA PARAMETRY GEOTECHNICZNE
W pracy przedstawiono krótką charakterystykę gruntów sedymentacji powodziowej. Ich podstawowe cechy omówiono na przykładzie mad rzeki Wisły z okolic
Gorzyc oraz rzeki Odry w obrębie miasta Opola, z dzielnicy Zaodrze. Zwrócono
szczególną uwagę na wrażliwość tych gruntów na zmiany zawilgocenia. Niekorzystny wpływ zmian parametrów wytrzymałościowych podłoża, spowodowanych
stanami powodziowymi, na budynki posadowione na terenach zalewowych opisano na podstawie zniszczeń wywołanych przez powódź z lipca 2001 r. w miejscowości Zalesie Gorzyckie. Zwrócono również uwagę na problemy fundamentowania oraz konieczność prawidłowego rozpoznania podłoża gruntowego na obszarach
teras zalewowych.
1. Wprowadzenie
Wiele dzielnic miast i osiedli jest zlokalizowanych na obszarach teras zalewowych, których grunty cechuje wyjątkowa wrażliwość na zmiany zawilgocenia.
W pracy przeanalizowano wpływ stanów powodziowych wywołujących
wzrost wilgotności gruntu na skutek infiltracji pionowej i poziomej na zmniejszenie się jego parametrów wytrzymałościowych. Określenie wpływu zmiany
stanów wód powodziowych na poziom wód gruntowych jest bardzo trudne, bowiem zmienność tych stanów jest nieregularna, związana z wielką liczbą czynników i dlatego poziomy wód gruntowych charakteryzują się także nieregularnością [1]. Wpływ zmian stanów wody w rzece na odpowiednie zmiany stanu
wody gruntowej zależy głównie od budowy geologicznej, współczynnika filtracji, wysokości i prędkości kształtowania się fali powodziowej [2].
Stan obiektów budowlanych na obszarach powodziowych, jak również wykonane badania laboratoryjne gruntów z tamtych terenów, w tym badania próbek
gruntu o symulowanym zawilgoceniu, potwierdzają wyniki utraty nośności pod-
48
J. Jaremski, K. Wilk
łoża. Za konieczne uważa się poszerzenie badań parametrów geotechnicznych
gruntów występujących na terenach zagrożonych powodzią.
2. Charakterystyka powodziowych gruntów aluwialnych
i zmienności ich parametrów
Grunty dolin rzecznych naniesione w czasie stanów powodziowych wyraźnie się wyróżniają, spośród innych rodzajów gruntów powstałych drogą sedymentacji, niejednorodnością cech i parametrów, będących wynikiem sposobu ich
powstawania. Na podstawie wieloletnich doświadczeń, prowadzonych prac badawczych mających na celu ustalenie właściwości inżyniersko-geologicznych
gruntów aluwialnych badacze zajmujący się tematem wskazują na złożoność
czynników wpływających na znaczną ich zmienność [3-5]. Podstawowym
z nich, najbardziej wpływającym na fizyczno-mechaniczne właściwości utworów powodziowych jest ich litologia, na którą nakładają się również inne czynniki sedymentacyjne oraz postsedymentacyjne. Zróżnicowanie litologiczne mad
jest z kolei wynikiem sposobu rozwinięcia doliny rzecznej, sposobu rozwinięcia
koryta rzeki i charakteru geologiczno-litologicznego terenów alimentacyjnych
poszczególnych odcinków doliny [6].
W większości dolin rzecznych dojrzałych, swobodnych wyróżniają się dwie
serie utworów aluwialnych osadzonych na drobnoziarnistych piaskach korytowych [4, 5]. Są to mady gliniaste, starsze osady rzeki meandrującej oraz mady
piaszczysto-pylaste, współczesne osady rzeki dzikiej, roztokowej.
Geneza gruntów aluwialnych, z której wynika duże ich uwarstwienie,
przewarstwienia, wśród których można wyróżnić frakcje piaskowe, pyłowe,
iłowe, często zawierające części organiczne, klasyfikują je pomiędzy innymi
gruntami słabymi. Zaznaczyć należy, że grunty te nigdy na przestrzeni wieków
nie były poddane znaczącemu obciążeniu konsolidacyjnemu. Niewielka konsolidacja następowała jedynie pod ciężarem własnym tychże gruntów, ewentualnie
pod krótko działającym obciążeniem wodami powodziowymi. Brak skonsolidowania gruntów wpływa znacząco na zmienność w czasie, pod wpływem czynników zewnętrznych, właściwości gruntów madowych. Między innymi procesy
filtracji, zmiany zawilgocenia przebiegają w nich znacznie szybciej niż w innych
gruntach podobnych granulometrycznie, lecz poddanych konsolidacji.
3. Charakterystyka gruntów madowych Zalesia Gorzyckiego
i Opola – Zaodrza
Na analizowanym terenie miejscowości Zalesie Gorzyckie, położonej kilka
kilometrów na wschód od Sandomierza, na prawym brzegu Wisły, w pradolinie
Analiza wpływu zmian zawilgocenia ...
49
tej rzeki, pomiędzy ujściami rzek Łęgu i Trześniówki, udało się również wyodrębnić typowe ułożenie utworów aluwialnych.
Wstępne badania, które przeprowadzono w terenie potwierdziły występowanie dwóch podstawowych serii gruntów madowych. Obydwie serie stanowiły
gliny pylaste, różniące się jednakże właściwościami. Głębiej zalegająca na korytowych piaskach drobnych i średnich seria szaro-popielatych glin pylastych
znajduje się średnio od 1,5 do 2,5 m poniżej poziomu terenu. Nad nią ułożona
jest druga seria glin pylastych barwy jasnobrązowej, a głębokość tej warstwy
można określić szacunkowo od 0,5 do 1,5 m poniżej poziomu terenu. Różnice
pomiędzy obydwiema seriami utworów madowych, zaobserwowane podczas
analizy makroskopowej poparte zostały wynikami standardowych badań laboratoryjnych. Zalegająca głębiej warstwa glin pylastych posiada większy wskaźnik
plastyczności, o czym świadczą określone granice plastyczności, średnio 20,5%
oraz płynności, średnio 56%. W przypadku jasnobrązowej gliny pylastej granice
te wynoszą po uśrednieniu odpowiednio 16,7% i 44%.
Mając na uwadze wrażliwość gruntów madowych na zmiany zawilgocenia,
wykonane zostały również badania parametrów wytrzymałościowych w aparacie
trójosiowego ściskania dla próbek o symulowanym, zmiennym zawilgoceniu.
Wyniki tych badań w odniesieniu do dwóch podstawowych wielkości charakteryzujących nośność podłoża gruntowego zostały przedstawione na wykresach
(rys. 1., 2.). Wykresy podzielono na dwie grupy charakteryzujące obydwie serie
utworów aluwialnych pochodzenia rzecznego.
Rys. 1. Przedstawione badania własne na próbkach gruntu o symulowanych zmianach zawilgocenia dla mad serii pierwszej rzeki Wisły w miejscowości Zalesie Gorzyckie
Przedstawione wyniki badań na próbkach gruntów i symulowanych zmianach zawilgocenia, przedstawione na wykresach (rys. 1., 2.), mogą odbiegać od
wartości parametrów występujących w warunkach naturalnych. Powyższe analizy potwierdzają jednak podstawowy wpływ zmian zawilgocenia na parametry
wytrzymałościowe gruntów spoistych, a szczególnie utworów facji powodziowej ze względu na ich niski stopień skonsolidowania.
50
J. Jaremski, K. Wilk
Rys. 2. Przedstawione badania własne na próbkach gruntu o symulowanych zmianach zawilgocenia dla mad serii drugiej rzeki Wisły w miejscowości Zalesie Gorzyckie
Podobnie, celem określenia właściwości fizycznych i mechanicznych gruntów madowych, w rejonie dzielnicy Opole – Zaodrze przeprowadzono badania
laboratoryjne, pobierając próbki ze ścian wykopu w ciągu jednej z ulic. Teren
objęty programem badań stanowi terasę holoceńską rzeki Odry. W obrębie tej
części terasy występują dwa starorzecza. W podłożu znajdują się margle górnokredowe przykryte warstwą osadów rzecznych holoceńskich. Margle w terasie
zalewowej występują na głębokości od 5,5 do 9,5 m i są przykryte warstwą osadów rzecznych, piasków, żwirów oraz mad, których miąższość waha się od 0,5
do 4,5 m. Poziom wód gruntowych na opracowanym terenie jest uzależniony od
zmian poziomu wody w rzece oraz od ilości opadów i przepuszczalności gruntu.
Wahania wody dochodzą do około 1 m.
Mady tego rejonu są reprezentowane głównie przez gliny pylaste, niekiedy
gliny piaszczyste, piaski gliniaste i pyły. Stopień plastyczności tych gruntów
zmieniał się w zależności od ich zawilgocenia od 0 do 0,25, a miejscami nawet
do 0,35. Wilgotność naturalna wahała się od 13,52% do 22,65%, gęstość objętościowa od 1,89 do 2,09 g/cm3, edometryczny moduł ściśliwości od 740 do
4300 kPa. Kąt tarcia wewnętrznego wahał się według badania w aparacie bezpośredniego ścinania od 13o i spójności 8 kPa do 9o i spójności 28 kPa. Badania w
aparacie bezpośredniego ścinania były wykonywane na próbkach o naruszonej
strukturze. Kąt tarcia badany na próbkach o nienaruszonej strukturze w aparacie
trójosiowego ściskania zmieniał się od 7o przy spójności 58 kPa do 10o przy
spójności 100 kPa. Dla scharakteryzowanych powyżej mad rzeki Odry podano
wyniki badań gruntów przy naturalnej wilgotności.
4. Uszkodzenia budynków wywołane stanami powodziowymi
Na podstawie przeprowadzonego rozpoznania stanu budynków po powodzi
ustalono, że znaczna część trwałych uszkodzeń konstrukcji budynków była spo-
Analiza wpływu zmian zawilgocenia ...
51
wodowana zmniejszeniem nośności gruntu stanowiącego podłoże fundamentów
na skutek wzrostu zawilgocenia gruntu wywołanego stanami powodziowymi
rzeki Wisły [7]. Utrata wytrzymałości podłoża i nierównomierne osiadanie budynków może być również wynikiem zawilgocenia gruntów na skutek infiltracji
pionowej i poziomej na obszarach uprzywilejowanej filtracji i infiltracji, tzn.
w bliskim sąsiedztwie rowów i starorzeczy.
Na terenie wsi Zalesie Gorzyckie znajduje się kilka starych dolin erozyjnych, zarówno samej Wisły, jak i jej dopływów – Łęgu i Trześniówki. Główna
zabudowa tej miejscowości przebiega wzdłuż jednej z takich dolin. Są w nich
osadzone grunty niejednorodne, o małej nośności, w postaci pyłów piaszczystych, piasków pylastych drobnych i średnich oraz namułów. W części omawianych dolin utworzyły się zbiorniki wody stojącej. Doliny starorzeczy sięgają
znacznej głębokości, nawet 4,0–5,0 m poniżej poziomu terenu, dochodząc do
warstwy piasków drobnych i średnich, a skarpy ich brzegów wykazują miejscami znaczne pochylenie. Sytuacja taka może być przyczyną ruchu poziomego
mas gruntowych, które mogą osuwać się do tych dolin również z powodu zmian
właściwości i parametrów gruntu wywołanych właśnie zwiększeniem wilgotności. Uplastycznienie podłoża do stanu, w którym ruch i poślizg w gruncie jest
możliwy prowadzi do powstania osuwisk powodujących uszkodzenia konstrukcji budynków. Osuwiska takie zaobserwowano w Zalesiu Gorzyckim. Przykładowy przekrój doliny erozyjnej przebiegającej przez omawianą miejscowość
został przedstawiony na rys. 3.
Rys. 3. Charakterystyczny przekrój geotechniczny doliny starorzecza Wisły w miejscowości Zalesie Gorzyckie
5. Podsumowanie
Tereny zagrożone powodziami wymagają kompleksowych badań geotechnicznych. Istnieje potrzeba wyodrębnienia wśród nich obszarów, których grunty
52
J. Jaremski, K. Wilk
są szczególnie wrażliwe na niekorzystne zmiany parametrów geotechnicznych
na skutek wzrostu zawilgocenia. Konieczność ta wiąże się z ryzykiem zniszczenia konstrukcji obiektów znajdujących się na takim terenie. Znajomość zmian
parametrów geotechnicznych podłoża gruntowego umożliwi projektantowi wybór optymalnych rozwiązań posadowienia oraz konstrukcji obiektu budowlanego.
Nieuniknione, być może, stanie się całkowite wyłączenie części terenów zalewowych spod zabudowy. Byłyby to nie tylko obszary, gdzie zmiany cech wytrzymałościowych gruntu wykluczają płytkie posadowienie, ale również obszary
dawnych dolin erozyjnych oraz ich sąsiedztwa. Znajomość ułożenia, pochylenia
warstw geotechnicznych wraz z ich właściwościami pozwoli wskazać na niebezpieczeństwo wystąpienia osuwisk. Takie osuwiska mogą powodować nie
tylko różnice wysokości terenu. W przypadku skarp dolin starorzeczy, nawet
wypełnionych już naniesionymi pakietami gruntów, z reguły słabych, o znikomej nośności, jest to niebezpieczeństwo zupełnie realne.
Zainteresowanie badaniami geotechnicznymi terenów zalewowych powinny wykazać przede wszystkim jednostki administracji państwowej, zwłaszcza
Urzędy Gmin i Powiatów. Właściwie opracowane plany zagospodarowania
przestrzennego, uwzględniające w obrębie obszarów zalewowych właśnie takie
tereny „podwyższonego ryzyka” mogą zapobiec w przyszłości zniszczeniom
wielu budynków i budowli. Uszkodzenia budynków spowodowane utratą nośności podłoża wiążą się z awariami ich konstrukcji i bardzo często dyskwalifikują
te obiekty do dalszego użytkowania, konieczna jest ich rozbiórka.
Oczywiście niemożliwe jest zrezygnowanie z takich terenów w chwili
obecnej, ze względu na istniejącą infrastrukturę. Należałoby jednak pozwolenie
na nową zabudowę na tych obszarach uzależnić od spełnienia szeregu warunków
zwiększających bezpieczeństwo budynku, a nawet całkowicie zabronić wznoszenia nowych obiektów. Nową zabudowę osiedli należy planować w miejscach,
gdzie parametry podłoża pomimo wzrostu zawilgocenia zmieniają się w ograniczonym, bezpiecznym zakresie.
Należy również zwrócić uwagę na tereny okołozalewowe, gdzie utrata nośności przez grunt jest możliwa wskutek infiltracji poziomej wody w gruncie.
Także tereny skarp i wzniesień, których podstawy są narażone na zmiany wilgotności stwarzają niebezpieczeństwo powstawania osuwisk, a co za tym idzie
znacznych strat materialnych oraz zagrożenia życia.
Literatura
[1] Jaremski J.: Zmiana własności geotechnicznych gruntów miasta Opola na skutek
budowy kanału „Ulgi”. Zeszyty Naukowe Wyższej Szkoły Inżynierskiej w Opolu,
Opole 1974
[2] Wieczysty A.: Hydrogeologia inżynierska. PWN, Warszawa 1982
Analiza wpływu zmian zawilgocenia ...
53
[3] Frankowski Z.: Metody ustalania własności gruntów słabonośnych na przykładzie
utworów facji powodziowej doliny Wisły koło Karczewa. Biuletyn Instytutu Geologicznego, 324, Warszawa 1980
[4] Myślińska E.: Kryteria oceny inżyniersko-geologicznych właściwości mad. Kwartalnik Geologiczny, t. 28, 1, 1984
[5] Myślińska E.: Engineering-geological problems in investigations on soft soils in
river valleys. 6th International IAEG Congress, Balkema, Rotterdam 1990
[6] Myślińska E.: Zróżnicowanie litologiczne mad w wybranych odcinkach doliny Wisły. Przegląd Geologiczny, t. 30, 8, 1982
[7] Jaremski J., Wilk K.: Wpływ zmian parametrów geotechnicznych wywołanych
stanami powodziowymi na obiekty budowlane. XII Ogólnopolska Szkoła Gospodarki Wodnej, Jachranka 2002
THE ANALYSIS OF INFLUENCE OF MUD SOILS HUMIDITY CHANGES
CAUSED BY FLOOD STATES ON GEOTECHNICAL PARAMETERS
Summary
The short profile of flood sedimentation soils has been presented in the paper. The basic features of them have been described on the example of Vistula River muds from Gorzyce region and
Odra River muds occurring in Opole city, district Opole – Zaodrze. The special attention has been
paid to sensitivity to humidity changes of these soils. The unfavourable influence of the subsoil
strength parameters changes caused by flood states on buildings found in flood areas has been
described on the basis of destructions evoked by the flood of July 2001 in Zalesie Gorzyckie. The
authors have also paid attention to foundation engineering problems and necessity of correct reconnaissance of subsoil on flood plains.
Złożono w Oficynie Wydawniczej w maju 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Paweł LUDERA
Politechnika Rzeszowska
CHARAKTERYSTYKA CECH MECHANICZNYCH
MŁODEGO BETONU W ELEMENTACH
ŚREDNIOMASYWNYCH. PRZEGLĄD LITERATURY
I BADANIA WŁASNE
W artykule przedstawiono charakterystykę cech mechanicznych młodego betonu
z uwzględnieniem warunków dojrzewania. Przedstawiono warunki dojrzewania
betonu w elementach średniomasywnych. Podano sposoby oceny dojrzałości betonu i przedstawiono własną propozycję określania stopnia hydratacji dojrzewającego betonu. Charakterystyki cech młodego betonu podano na podstawie wyników
przeprowadzonych badań niszczących i nieniszczących młodego betonu w okresie do 30 godzin od betonowania.
1. Wprowadzenie
Problematyka związana badaniami właściwości mechanicznych betonu jest
szeroko prezentowana w literaturze polskiej i zagranicznej. Zasadniczo większość autorów skupia się głównie na cechach betonu już dojrzałego (beton wykazujący stałość cech w czasie). Począwszy od lat 50-tych zaczęto szerzej się
zajmować również cechami betonu będącego jeszcze w czasie dojrzewania
w okresie do umownych 28 dni. W celu odpowiedniego opisu dojrzewającego
betonu wprowadzono podział okresu dojrzewania na fazy rozwoju. Podział taki
podaje Kiernożycki [1], wyróżniając trzy fazy rozwoju w zależności od wieku
betonu: świeży beton do 6–8 godzin, młody beton od 6–8 do 24–48 godzin, beton stwardniały po 24–48 godzinach. W każdej z faz dojrzewania betonu jego
cechy mechaniczne ulegają rozwojowi z różną intensywnością.
Szczególną uwagę zwraca się na cechy betonu w pierwszych dwóch fazach
dojrzewania, ze względu na zjawiska, jakie zachodzą w konstrukcjach w okresie
dojrzewania oraz dużą wrażliwość konstrukcji na zarysowanie. Główną uwagę
zwraca się obecnie na zjawiska i ich konsekwencje w konstrukcjach o dużych
przekrojach poprzecznych elementów (konstrukcje masywne). Zagadnieniami
tymi zajmowali się między innymi Kiernożycki, Flaga, Witakowski [2, 3, 4]
oraz inni, szeroka jest również literatura zagraniczna na ten temat.
56
P. Ludera
Zasadniczo innym problemem jest opis cech mechanicznych dojrzewającego betonu w elementach o mniejszych gabarytach przekroju (średniomasywnych). Zagadnieniami tymi szeroko zajmowali się van Breugel (Delft Holandia)
[5] oraz Emborg (Szwecja) [6]. Ich badania są ukierunkowane na ocenę stanu
naprężeń i odkształceń w dojrzewających konstrukcjach betonowych w celu
oceny ich zagrożeń związanych z zarysowaniem. Problemy te dotyczą zbiorników żelbetowych, obudów tuneli i innych konstrukcji o średniej masywności
przekrojów, wymagających odpowiedniej szczelności.
W artykule przeprowadzono analizę obecnego stanu wiedzy dotyczącego
cech mechanicznych młodego betonu oraz podano własne propozycje określania
charakterystyk młodego betonu, w oparciu o prowadzone w dalszym ciągu badania ścian żelbetowych.
2. Temperatura samoocieplenia dojrzewającego betonu
w ścianach żelbetowych
Temperatura jest podstawowym czynnikiem wpływającym na przebieg procesów związanych z dojrzewaniem betonu. Równocześnie kinetyka zmian temperatury jest ściśle związana z przebiegiem procesu hydratacji cementu oraz ze
składem mieszanki betonowej.
Czynnikiem wpływającym na rozwój temperatury samoocieplenia, jak i na
rozwój kinetyki zmian struktury dojrzewającego betonu jest masywność elementu betonowego. Podział konstrukcji betonowych ze względu na ich masywność
podano w pracach [2, 3], wyróżniono konstrukcje niemasywne, średniomasywne
i masywne. Cechą decydującą o przynależności do odpowiedniej grupy jest masywność elementu definiowana jako:
• moduł powierzchniowy
M=
ΣA
[m–1]
V
(1)
gdzie:
ΣA – sumaryczne pole powierzchni zewnętrznych, przez które odbywa się
wymiana ciepła z otoczeniem,
V – objętość elementu,
• grubość zastępcza
em =
2A
[m]
U
(2)
Charakterystyka cech mechanicznych ...
57
gdzie:
A – pole powierzchni przekroju,
U – długość obwodu, przez który odbywa się wymiana ciepła z otoczeniem,
• grubość zastępcza zmodyfikowana
d eq = γ a
Ω
s
lub d eq = γ a
V
[m]
S
(3)
gdzie:
Ω – powierzchnia przekroju,
s – długość krawędzi przekroju, przez którą odbywa się wymiana ciepła
z otoczeniem,
γa – współczynnik kształtu powierzchni przepływu,
V – objętość elementu,
S – powierzchnia, przez którą odbywa się wymiana ciepła z otoczeniem.
Grubość zastępcza zmodyfikowana podana została przez de Schuttera
i Tearwego [7].
Według Flagi [3] i Kiernożyckiego [2] przyjęto następujące przedziały masywności dla poszczególnych grup elementów:
• niemasywne
(M ≥ 15 m–1, em ≤ 0,15 m),
• średniomasywne (2 ≤ M < 15m–1, 0,15 < em ≤ 1,0 m),
• masywne
(M < 2 m–1, em > 1,0 m).
W przypadku ściany betonowej grubości d odpowiednie parametry wynoszą:
• moduł powierzchniowy M = 2/d (ściana średniomasywna
13 cm < d < 100 cm),
(ściana średniomasywna
• grubość zastępcza em = d
15 cm < d < 100 cm),
(ściana średniomasywna
• grubość zastępcza deq = d
15 cm < d < 100 cm).
Jednak, patrząc na otrzymany zakres grubości ścian średniomasywnych, należy się liczyć z dużym zróżnicowaniem właściwości tych ścian. W związku
z tym przyjęto ograniczenie grubości ścian, uwzględnianych w analizach prowadzonych przez autora, do 0,5 m, w związku ze stosowanymi grubościami ścian
w takich konstrukcjach jak zbiorniki. Dodatkowo stwierdzono, że ściany grubości około 1 m charakteryzują się już warunkami dojrzewania zbliżonymi do warunków adiabatycznych (głównie chodzi o środkową część ściany), które odpowiadają warunkom dojrzewania elementów masywnych.
Można wyróżnić kilka podstawowych czynników wpływających na wielkość przyrostu temperatury oraz na przebieg jej zmian w dojrzewającym betonie: rodzaj i ilość użytego cementu, pojemność cieplna oraz ilość kruszywa,
58
P. Ludera
ilość wody w mieszance betonowej, temperatura początkowa dojrzewającego
betonu (temperatura mieszanki) oraz temperatura otoczenia.
Określenie przebiegu zmian temperatury dojrzewającego betonu stało się
podstawowym zagadnieniem do właściwej analizy procesów dojrzewania betonu
oraz oceny zmian struktury młodego betonu. Należy zaznaczyć, że zadanie to
jest trudne ze względu na złożoność zagadnienia oraz wielość czynników wpływających na temperaturę. Określeniem przebiegu zmian temperatury dojrzewającego betonu metodami analitycznymi, w odniesieniu do elementów masywnych zajmował się szeroko Kiernożycki [2]. Otrzymane zależności zmian temperatury w czasie dojrzewania charakteryzują się dużą złożonością i wymagają
określenia szczegółowych cech struktury dojrzewającego betonu.
Drugim sposobem określenia temperatur dojrzewającego betonu są badania
numeryczne. Analizy rozwoju temperatury konstrukcji betonowych metodami
numerycznymi przedstawione były w literaturze przez van Breugela [5, 8]. Podał on opis modelu dojrzewającego betonu symulujący rozwój struktury w rzeczywistej konstrukcji, co pozwala na wyznaczenie temperatury w zmieniających
się warunkach związanych z dojrzewaniem młodego betonu.
Trzecim sposobem określenia temperatury dojrzewającego betonu są pomiary bezpośrednie w rzeczywistej konstrukcji. Pomiary temperatur w konstrukcjach masywnych były przedstawiane w literaturze, odnosiły się do masywnych
bloków żelbetowych w zaporach wodnych w Solinie i Świnnej Porębie oraz
w elektrowni Żarnowiec. Wyniki pomiarów temperatur w konstrukcjach średniomasywnych dotyczą budownictwa mostowego (wiadukt we Wrocławiu oraz
most w Ottawie w Kanadzie).
Autor po analizie literatury stwierdził konieczność wykonania własnych
badań doświadczalnych rozwoju temperatury samoocieplenia młodego betonu
w konstrukcjach średniomasywnych. Badania przeprowadzono na modelach
rzeczywistych ścian betonowych grubości 50 cm, wysokości 150 cm i długości
300 cm oraz 900 cm. Grubość 50 cm została przyjęta jako reprezentatywna
w przypadku elementów średniomasywnych (masywność M = 4 m–1, em = 0,5 m,
deq = 0,5 m). Dodatkowo wyboru takiego wymiaru dokonano ze względu na
wykorzystanie przez autora przedstawianych zjawisk do analizy ścian zbiorników żelbetowych na wodę lub ścieki. Przyjęta grubość ściany jest najczęściej
stosowaną grubością przy połączeniu ściany z płytą fundamentową. W badaniach założono skład mieszanki betonowej dla betonu klasy B25, beton towarowy stosowany z odpowiednio dobranym dodatkiem do wykonywania zbiorników żelbetowych na oczyszczalniach ścieków. Skład mieszanki betonowej:
cement 390 kg (C35 Ożarów), piasek 823 kg, żwir 1294 kg, woda 169l,
w/c = 0,43. Temperatury początkowe dojrzewającego betonu wyniosły 15°C
oraz 23°C (można przyjąć, że odpowiadają warunkom wiosenno-jesiennym oraz
letnim). Do pomiaru temperatury wykorzystano specjalny układ pomiarowy
temperatury z czujnikami elektronicznymi. Szczegółowe wyniki pomiarów tem-
Charakterystyka cech mechanicznych ...
59
peratury przedstawiono w pracy [9]. Rozwój zmian temperatury w ścianach oraz
temperatury otoczenia przedstawiono na rys. 1 i 2. Porównanie średnich temperatur w obu ścianach przedstawiono na rys. 3.
Rys. 1. Zmiany temperatury dojrzewającego betonu ściany żelbetowej grubości 50 cm
Rys. 2. Zmiana temperatury dojrzewającego betonu ściany betonowej grubości 50 cm przy temperaturze początkowej 15ºC
Rys. 3. Zmiana temperatury dojrzewającego betonu w ścianach betonowych grubości 50 cm
60
P. Ludera
Przedstawione wykresy temperatur dojrzewającego betonu w ścianach opisują środowisko, w jakim dojrzewa młody beton. Widać silną zależność charakteru zmian temperatury w czasie od temperatury początkowej. Przy wyższej
temperaturze początkowej przebieg zjawisk jest bardziej dynamiczny.
Otrzymane wyniki rozwoju temperatury dojrzewającego betonu w ścianach
przyjęto jako termiczne cechy środowiska, w jakim dojrzewa beton w ścianach
betonowych (na przykładzie ściany grubości 50 cm).
3. Określenie dojrzałości młodego betonu
Dojrzałość młodego betonu można przedstawić za pomocą wskaźnika dojrzałości betonu lub stopnia hydratacji cementu. Wskaźnik dojrzałości betonu jest
przedstawiany jako stosunek odpowiedniej wartości cechy materiału po pewnym
czasie dojrzewania do jej wartości końcowej. Najczęściej wykorzystuje się
w tym celu wytrzymałość na ściskanie:
D(t) = fc(t)/fc,28
(4)
gdzie:
fc(t) – wytrzymałość betonu na ściskanie po czasie t,
fc,28 – wytrzymałość betonu na ściskanie po 28 dniach.
Stopień hydratacji cementu jest definiowany ogólnie jako stosunek masy
cementu zhydratyzowanego do całkowitej masy cementu w mieszance betonowej. Bezpośrednie określenie tej cechy dojrzałości jest możliwe w badaniach
strukturalnych [10]. Pośrednio stopień hydratacji może być określany przez następujące zależności [2, 4]:
• α(t) = wht/wh
(5)
gdzie:
wht, wh – ilość wody związanej chemicznie przez jednostkę masy cementu
w czasie t oraz całkowita ilość wody związanej chemicznie podczas
procesu hydratacji
• α(t) = Q(t)/Qc
(6)
gdzie:
Q(t), Qc – ciepło hydratacji wydzielone po czasie t dojrzewania oraz całkowite
ciepło hydratacji odniesione do masy cementu.
Charakterystyka cech mechanicznych ...
61
W literaturze można spotkać również zależności empiryczne określające
stopień hydratacji w zależności od czasu dojrzewania, najczęściej stosowany jest
wzór podany przez Danielssona [11]:
α (ta ) = 0,1ta1/ 3 − ta
c −4
10
w
(7)
gdzie:
ta – skorygowany czas dojrzewania w temperaturze porównawczej 20°C,
c/w – stosunek ilości cementu do wody.
Dyskusyjną sprawą w zależności (7) jest skorygowany czas dojrzewania ta
odnoszący dojrzewanie w temperaturze rzeczywistej do temperatury porównawczej 20°C. Postać zależności skorygowanego czasu dojrzewania można przyjąć
zgodnie z tradycją niemiecką [12]:
ta = ∑
i
Ti + 10o C
∆ti [h]
30o C
(8)
gdzie:
Ti – temperatura dojrzewania betonu,
ti – czas dojrzewania w temperaturze Ti.
Inną zależnością, na podstawie której można określić skorygowany upływ
czasu dojrzewania jest tak zwana funkcja temperatury oparta na prawie Arrheniusa podana przez Kiernożyckiego, Pesersena oraz van Breugela [2, 4, 5].
Funkcję temperatury można przedstawić następującą zależnością:
 E T −T 
f (t ) = exp  k ⋅ t o 
 R TtTo 
(9)
gdzie:
Ek – energia aktywacji cementu,
R – stała gazowa,
To – temperatura porównawcza, najczęściej 293K,
Tt – temperatura betonu.
Dyskusyjną sprawą jest wielkość energii aktywacji Ek, którą Jonasson [4]
uzależnia od temperatury w następujący sposób:
 30 
Ek = 5700 R 

 T + 10 
0,54
[° K ]
(10)
62
P. Ludera
a Pedersen podaje dla odpowiednich zakresów temperatury:
dla T ≥ 20°C
33,5
Ek = 
33,5 + 1, 47(20 − T ) dla T < 20°C
Kiernożycki natomiast przyjmuje stałą wartość Ek = 40÷42 kJ/mol.
Innym sposobem określenia energii aktywacji są pomiary w badaniach kalorymetrycznych dla poszczególnych rodzajów cementów przedstawione przez
Kiernożyckiego [2]. Skorygowany czas dojrzewania betonu z wykorzystaniem
funkcji temperatury będzie całką oznaczoną z tej funkcji:
t
 E T −T 
ta = ∫ exp  k ⋅ t o  dt
 R TtTo 
0
(11)
Inne postacie związków dotyczących stopnia hydratacji cementu są przedstawione w pracy [13].
Bardziej rozwiniętą metodę określania stopnia hydratacji podaje van Breugel [5, 8], opierając się na opracowanym przez siebie numerycznym modelu
dojrzewającego betonu. Przyjmuje on w modelu stopniowy przyrost produktów
hydratacji w poszczególnych krokach obliczeń. Analizy przeprowadził na autorskim programie HYMOSTRUCTUR. Obliczenia poparte są dużą bazą danych
zawierającą cechy betonów o różnych składach mieszanki z uwzględnieniem
różnych cementów i kruszyw. Metoda ta dotyczy jednak pewnej zamkniętej
grupy betonów. Dodatkowo autor referatu nie miał możliwości skorzystania
z przedstawionego programu.
Wykorzystując wzór (6) do określenia stopnia hydratacji oraz wyniki wcześniej przedstawionych badań rozwoju temperatury w rzeczywistej ścianie żelbetowej, stwierdzono możliwość alternatywnego sposobu określenia stopnia hydratacji cementu. Wykorzystując pomiary rzeczywiste temperatury dojrzewającego betonu uwzględniające parametry geometryczne ściany, przeprowadzono
analizę zmian stopnia hydratacji w takich warunkach cieplnych. Równanie bilansu cieplnego dla dojrzewającej ściany będzie miało następującą postać:
∆Q (t ) = q(t ) − QS (t )
(12)
gdzie:
• ∆Q (t ) – zmiana ciepła betonu w czasie dojrzewania
∆Q (t ) = mcb ∆T (t ) 

∆T (t ) = T (t ) − Tp 
(13)
Charakterystyka cech mechanicznych ...
63
• QS (t ) – strata ciepła betonu w czasie dojrzewania

λb
⋅ 3600∆TS 
0,5d

0

∆TS = T (t ) − To (t )

t
QS (t ) = ∫
(14)
• q(t) – ciepło wydzielone w procesie hydratacji w rozpatrywanej ścianie
betonowej.
Oznaczenia we wzorach (12)÷(14) są następujące:
t
– czas dojrzewania betonu [h],
m – masa betonu,
T(t) – zmierzona temperatura dojrzewającego betonu po czasie dojrzewania t,
Tp – temperatura początkowa betonu,
cb – ciepło właściwe betonu,
λb – współczynnik przewodności cieplnej dojrzewającego betonu,
d – grubość ściany betonowej,
To(t) – zmierzona temperatura otoczenia dojrzewającej ściany betonowej po
czasie dojrzewania t.
Przyjęto założenie, że straty ciepła ze ściany do otoczenia zmieniają się
w elemencie proporcjonalnie do grubości elementu oraz założono stałą wartość
temperatury w całym przekroju w danym czasie (różnica temperatur zmierzonych w przekroju ściany grubości 50 cm nie przekroczyła 3°C).
Rozpatrując ścianę grubości 0,5 m, przyjęto w obliczeniach jej powierzchnię równą 1 m2, ilość cementu w mieszance betonowej dla tej ściany 195 kg.
Parametry betonu przyjęto na podstawie danych literaturowych: ciepło właściwe
młodego betonu cb = 0,94kJ/kg⋅K [2], współczynnik przewodności cieplnej
λb = 1,75 W/m2⋅K [2, 4], całkowite ciepło hydratacji dla cementu C35 Ożarów
Qc = 394kJ/kg [4].
Na podstawie pomiarów temperatury ściany przyjęto temperaturę początkową betonu Tp = 23°C oraz Tp = 15°C, temperaturę otoczenia przyjęto na podstawie badań bezpośrednich prowadzonych równocześnie z pomiarami wewnątrz ścian.
Ze wzoru (12) dla bilansu cieplnego dojrzewającej ściany obliczono
ciepło q(t):
t
q (t ) = mcb ∆T (t ) +
3600λb
∆TS dt
0,5d ∫0
(15)
64
P. Ludera
t
Obliczenia sumarycznych zmian temperatury w czasie
∫ ∆TS dt
przeprowa-
0
dzono metodą przybliżoną, obliczając odpowiednie pole powierzchni ograniczone wykresami temperatury w betonie i temperatury otoczenia.
Rys. 4. Stopień hydratacji w czasie dojrzewania ściany betonowej
Wyniki analizy zmian stopnia hydratacji w czasie dojrzewania ściany betonowej grubości 50 cm przedstawiono na rys. 4., przyjmując wzór (6) opisujący
stopień hydratacji w postaci:
α(t) = q(t)/Qc
4. Przegląd charakterystyk wytrzymałościowych
młodego betonu
Charakterystyki wytrzymałościowe młodego betonu były przedmiotem wielu opracowań literaturowych. Podane są również pewne wytyczne normowe
(CEB-FIB) określające zależności wytrzymałości od wieku betonu:
Ec(t) = βE(t)Ec
(16)
fct(t)=βcc(t)fct
(17)
Charakterystyka cech mechanicznych ...
65
1/ 2

 5,3  
β E (t ) = β cc (t ) = exp s 1 −

t 


(18)
gdzie:
t – czas dojrzewania betonu,
s – współczynnik.
Dokładną analizę zależności wytrzymałości od czasu dojrzewania przeprowadził Kiernożycki [2] i zaproponował następujące postacie wzorów wytrzymałościowych:
fc =
54,4α ( t )
,
w
6,3 − 1,906α ( t )
c
Ec = 25900
α (t )2
(0,2
w
+ 0,656α (t )) 2
c
(19)
gdzie: α(t) – stopień hydratacji cementu.
Wzory (19) mają zastosowanie w odniesieniu do betonów o stosunku
w/c > 0,40 i wytrzymałości na ściskanie nieprzekraczającej 73,5 MPa. Dodatkowo w pracy [2] zostały przedstawione zależności na współzależność wytrzymałości i modułu sprężystości:
Ec = 7130
fc 2
( 0,376 fc + 0,905 )
2
(20)
W literaturze obcej można znaleźć również inne wzory wiążące wytrzymałość z wiekiem dojrzewającego betonu [14]. Wzory te podają zależności dla
młodych betonów uzależnione od stopnia hydratacji:
 α (t ) − α o 
f c (t a ) = f c , ∞  a

 1 − αo 
f ct (ta ) = f ct ,∞
3/ 2
(21)
α (ta ) − α o
1 − αo
 α (t ) − α o 
Ecm (ta ) = Ecm ,∞  a

 1 − αo 
(22)
2/3
(23)
66
P. Ludera
gdzie:
f c ,∞ , f ct ,∞ , Ecm,∞ – cechy wytrzymałościowe dojrzałego betonu przy α(ta) = 1,0,
αo – wartość progowa stopnia hydratacji.
Wzory (21)–(23) są jednak obowiązujące dopiero po osiągnięciu przez beton progowego stopnia hydratacji przyjmowanego na poziomie 0,2 [14]. Jak
łatwo zauważyć podane zależności powiązane są bezpośrednio ze stopniem hydratacji cementu jako czynnikiem charakteryzującym stopień rozwoju struktury
w czasie, co zostało omówione we wcześniejszym punkcie. Czas dojrzewania
betonu należy przyjmować według zależności podanych w punkcie 3.
5. Badania wytrzymałości młodego betonu na ściskanie
Badania wykonano dla betonu o recepturze mieszanki takiej jak w przypadku wcześniejszych badań termicznych dojrzewającego betonu w ścianach grubości 50 cm. Próbki formowano w formach sześciennych o boku 10 cm. Po zabetonowaniu próbek umieszczono je w komorze cieplnej, utrzymując temperaturę
dojrzewania zgodną z warunkami termicznymi uzyskanymi w badanych wcześniej ścianach. Badania niszczące próbek betonu wykonano po odpowiednich
okresach dojrzewania: 4, 6, 8, 10, 12, 16, 20, 24, 30, 36, 48 h. Dla każdego
z czasów dojrzewania wykonano po 6 próbek. Otrzymane wyniki badań niszczących przedstawiono na rys. 5. Otrzymane wyniki wytrzymałości młodego betonu
porównano z obliczonymi według zależności (19), przyjmując warunki dojrzewania jak dla badanych próbek. Wykorzystano zależność dla stopnia hydratacji
według wzoru (7) oraz skorygowany czas dojrzewania według zależności (8).
Wyniki obliczeń przedstawiono również na rys. 5.
Rys. 5. Zmiany wytrzymałości młodego betonu w czasie w zależności od temperatury betonu
Charakterystyka cech mechanicznych ...
67
Różnice w przebiegu zmian wytrzymałości w czasie dojrzewania betonu,
pomiędzy wynikami otrzymanymi z badań i obliczeń opartych na uogólnionych
wzorach są tak znaczne (dwukrotnie), że trudno uznać wzory (7), (8) i (19) za
racjonalnie uogólnione na cały okres dojrzewania.
6. Badania nieniszczące młodego betonu metodą ultradźwiękową
Badania przeprowadzono na próbkach przygotowanych do badań na ściskanie bezpośrednio przed zniszczeniem w prasie. Pomiaru czasu przepływu fali
przez beton dokonano przy użyciu testera betonu. W związku z tym próbki można uznać za reprezentatywne dla rzeczywistych warunków panujących w ścianie
betonowej grubości 50 cm. Zależność prędkości przepływu fali ultradźwiękowej
przez dojrzewający beton od czasu dojrzewania przedstawiono na rys. 6.
Rys. 6. Prędkość przepływu fali ultradźwiękowej przez młody beton
Przeprowadzono analizę statystyczną otrzymanych wyników, na podstawie
której uzyskano linię dopasowania podaną na wykresie. Zależność prędkości
przepływu fali przez młody beton od czasu dojrzewania, w podanych warunkach
dojrzewania, uogólniono wzorem:
v (t ) = 0,0147t 4 − 0,6607t 3 − 0,6067t 2 + 359,98t
(24)
Przedstawiono również zależność wytrzymałości uzyskanej w badaniach
niszczących od pomierzonej prędkości przepływu fali przez młody beton
(rys. 7.). Na podstawie uzyskanych wyników podano uogólnioną zależność fc(v):
f c ( v ) = 2 ⋅ 10−20 v 5,8594
(25)
Należy zaznaczyć, że uogólnione wzory dotyczące prędkości fali ultradźwiękowej i wytrzymałości dotyczą konkretnych warunków dojrzewania betonu.
68
P. Ludera
Pomiary prędkości przepływu fali ultradźwiękowej przez dojrzewający beton zostały wykorzystane również do określenia wartości modułu sprężystości
i uzależnienia wyników od wieku młodego betonu. Wykorzystano zależność
podaną przez Kiernożyckiego [2]:
E ( v ) = γ b v 2 a (ν d )
(26)
gdzie:
γb – gęstość pozorna młodego betonu przyjęta jako wartość stała 24kN/m3,
νd – dynamiczna wartość liczby Poissona uzależniona od wieku betonu,
v – szybkość przepływu fali ultradźwiękowej przez beton.
Rys. 7. Zależność wytrzymałości młodego betonu od prędkości fali ultradźwiękowej
Rys. 8. Zmiana modułu sprężystości młodego betonu
Zależność a(νd) = 0,000177v przyjęto według Kiernożyckiego [2], który
podał ją na podstawie bezpośrednich pomiarów modułu sprężystości i prędkości
przepływu fali ultradźwiękowej oraz przy założeniu stałej wartości dynamicznej
Charakterystyka cech mechanicznych ...
69
liczby Poissona νd = 0,5 we wczesnej fazie dojrzewania. Zmiany modułu sprężystości w zależności od czasu dojrzewania według wzoru (26) przedstawiono na
rys. 8.
7. Podsumowanie
Wykonane badania własne dotyczące określenia zmian termicznych dojrzewających ścian żelbetowych o średniej masywności pokazują zasadnicze
różnice wyników w stosunku do konstrukcji masywnych. Porównując rozwój
temperatur, można zaobserwować mniejszy przyrost temperatury w przypadku
ścian średniomasywnych, jak również zupełnie inny charakter zmian tych temperatur w czasie. W ścianach średniomasywnych przebieg ten jest dużo bardziej
gwałtowny. Obserwuje się również znaczny wpływ temperatury początkowej na
przebieg zmian temperatur samoocieplenia. Można stwierdzić na podstawie tych
badań, że charakter zmian temperatury w elementach średniomasywnych odbiega znacznie od zmian w elementach masywnych, dla których przyjmowane są
warunki dojrzewania zbliżone do adiabatycznych.
W analizach dotyczących charakterystyk młodego betonu znaczącym czynnikiem jest określenie stopnia dojrzałości młodego betonu w danej chwili. Najczęściej do tego celu wykorzystuje się obecnie stopień hydratacji cementu, to
jest zaawansowanie przebiegu reakcji chemicznych w betonie. Stopień hydratacji cementu w literaturze jest określany w różny sposób. Ze względu na trudność
wykonania pomiarów bezpośrednich w konstrukcji najczęściej spotykany opis
opiera się na zależnościach empirycznych. Po analizie tych zależności zaproponowano, w odniesieniu do konstrukcji średniomasywnych, metodę określenia
stopnia hydratacji na podstawie szczegółowych pomiarów temperatury dojrzewającego betonu, temperatury otoczenia i temperatury początkowej mieszanki
betonowej. Dysponując takimi badaniami, w trakcie wznoszenia konstrukcji
można określić dość dokładnie stopień rozwoju wytrzymałości młodego betonu.
Przewiduje się dalszą weryfikację przedstawionej metody. Podobną metodę
określenia stopnia dojrzałości betonu, wraz z opisem wykorzystywanego sprzętu, przedstawił Witakowski [4, 15].
Wykonane badania niszczące wytrzymałości młodego betonu, dojrzewającego w warunkach odpowiadających ścianom betonowym grubości 50 cm, pokazały charakter przyrostów wytrzymałości w początkowym okresie dojrzewania. Porównanie wyników badań opartych na zależnościach proponowanych
przez różnych autorów z wynikami otrzymanymi z obliczeń pokazuje znaczne
różnice tych wyników. Świadczy to o konieczności dalszych badań zmierzających do uzyskania dokładniejszych wzorów określających wytrzymałości młodego betonu w konstrukcjach średniomasywnych. Wydaje się właściwym wykorzystanie pojęcia stopnia hydratacji cementu do określenia zmian wytrzymałości.
W połączeniu z przedstawioną metodą określania stopnia hydratacji dałoby to
70
P. Ludera
możliwość kontroli rozwoju wytrzymałości młodego betonu bezpośrednio
w konstrukcji. Niestety, jak podano wcześniej jego bezpośrednie określenie jest
bardzo trudne.
Przedstawiono również alternatywną metodę badań do określania cech wytrzymałościowych młodego betonu. Oparto się na badaniach nieniszczących
betonu z wykorzystaniem metod ultradźwiękowych (pomiar prędkości fali ultradźwiękowej) i porównano wyniki z badaniami niszczącymi. Ta metoda umożliwiła określenie zależności wytrzymałości na ściskanie i modułu sprężystości od
prędkości fali ultradźwiękowej. Wspomniane badania wskazują na możliwość
wykorzystania metod nieniszczących w młodym betonie. Przewiduje się kontynuowanie tych badań celem określenia dokładniejszych korelacji i uogólnienia
zależności f(v) dla różnych warunków dojrzewania.
Literatura
[1] Kiernożycki W.: Obciążenia termiczne twardniejącego betonu masywnych konstrukcji. Przegląd Budowlany, 5, 1992
[2] Kiernożycki W.: Termiczne naprężenia wymuszone w betonowych budowlach masywnych z uwzględnieniem zjawisk reologicznych. Prace Naukowe Politechniki
Szczecińskiej, Szczecin 1992
[3] Flaga K.: Naprężenia własne termiczne typu „makro” w elementach i konstrukcjach z betonu. Zeszyty Naukowe Politechniki Krakowskiej, Kraków 1990
[4] Witakowski P.: Termodynamiczna teoria dojrzewania. Zastosowanie do konstrukcji masywnych z betonu. Zeszyty Naukowe Politechniki Krakowskiej, 1998
[5] Van Breugel K.: Numerical simulation of the development of the concrete properties and risk of cracking in early age concrete. First Slovak Conference on Concrete Structures, Bratysława 1994
[6] Emborg M., Bernarder S.: Thermal stresses computed by the method for manual
calculation. Int. RILEM Symposium on Thermal Cracking at Early Age,
Monachium 1994
[7] De Schutter G., Tearwe L.: Influence of geometry of hardening concrete elements
of the early age thermal crack formation. Int. RILEM Symposium on Thermal
Cracking at Early Age, Monachium 1994
[8] Van Breugel K.: Numerical simulation of the effect of curing temperature on the
maximum strength of the cement-based materials. Int. RILEM Symposium on
Thermal Cracking at Early Age, Monachium 1994
[9] Kuś S. i in.: Sprężanie młodego betonu jako metoda eliminacji zarysowań termiczno-skurczowych ścian zbiorników żelbetowych, sprawozdanie z badań, Rzeszów
1998
[10] Kiernożycki W.: Wytrzymałość i współczynnik sprężystości betonu o różnym
stopniu przemian strukturalnych, Archiwum Inżynierii Lądowej, Warszawa 1991
[11] Danielsson U.: Heat of hydration of cement as affected by water-cement ratio.
Proc. 474 Int. Symposium on Chemistry of Cements, Waszyngton 1960
[12] Rüsch H., Jungwirth D.: Skurcz i pełzanie w konstrukcjach betonowych. Arkady,
Warszawa 1979
Charakterystyka cech mechanicznych ...
71
[13] Byfors J.: Plain concrete at early ages. Swedish Cement and Concrete Research Institute at the Institute of Technology, Stockholm 1980
[14] Eierle B., Schikora K.: Computational modeling of concrete at early ages using
DIANA, 1998
[15] Witakowski P.: Kompleksowe zarządzanie jakością robót. Zdalne monitorowanie
robót betonowych. Konferencja „Dni Betonu. Tradycja i Nowoczesność”, Szczyrk
2002
CHARACTERIZATION OF MECHANICAL FEATURES
OF YOUNG CONCRETE IN MEDIUM-MASIVITY ELEMENTS. REVIEW
OF LITERATURE AND OWN RESEARCH
Summary
In article mechanical characteristic of young concrete with regard to conditions of ripening
are presented. Conditions of ripening of concrete in medium-masivity elements are described.
Estimating of maturity of concrete methods and authors proposal of qualifying degree of hydration
ripening concrete are presented. Early age concrete of propriety describtion based on experiment
destructive and non-destructive test in period up to 30 hours from concreting are given.
Złożono w Oficynie Wydawniczej w czerwcu 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Janusz ŁAKOMY
Politechnika Rzeszowska
WPŁYW WŁÓKIEN SZKLANYCH
I POLIPROPYLENOWYCH NA WŁAŚCIWOŚCI
ZAPRAW CEMENTOWYCH
W pracy przedstawiono wyniki badań zapraw z dodatkiem włókien szklanych i polipropylenowych. Przeprowadzono badania cech mechanicznych oraz obserwacje
powierzchniowe zapraw. Obecnie, jako tzw. zbrojenie przeciwskurczowe, stosowane są najczęściej włókna polipropylenowe. Badania wykazały, że włókna szklane produkcji krajowej znacząco ograniczyły pęknięcia od skurczu oraz polepszyły
cechy mechaniczne zapraw.
1. Wprowadzenie
Zaprawom cementowym z dużą ilością cementu lub wody towarzyszy zjawisko skurczu. Pojawiające się wówczas na powierzchni elementów zarysowania pogarszają wygląd oraz trwałość elementu. Podejmowane były próby zaradzenia temu za pomocą różnych środków i sposobów, jednak w większości
przypadków były one mało efektywne lub znacznie zwiększały koszty.
Jednym z nowszych i skutecznych rozwiązań jest stosowanie zbrojenia rozproszonego z włókien polipropylenowych lub szklanych. W przypadku stosowania zbrojenia przeciwskurczowego nie bez znaczenia pozostaje wpływ włókien
na właściwości fizyczne i mechaniczne zapraw.
2. Cel i zakres badań
Podjęte badania miały na celu określenie wpływu włókien szklanych i polipropylenowych na powstrzymywanie pęknięć zaprawy od skurczu oraz na właściwości mechaniczne zapraw.
Przyjęto następujące założenia w odniesieniu do wszystkich badanych zapraw:
• stały stosunek w/c = 0,38,
• stały stosunek C:P = 1:1 (cement:piasek),
• stałą konsystencję zaprawy.
74
J. Łakomy
Na podstawie własnych badań oraz doświadczeń innych autorów [1], za
miarodajny przyjęto pomiar konsystencji określony za pomocą plastyczności
zaprawy [2]. Jako bazową przyjęto konsystencję 9 cm zanurzenia stożka opadowego, co odpowiadało średnicy rozpływu próbki zaprawy na stoliku wstrząsowym równej 23 cm. Stałą konsystencję wszystkich zapraw uzyskano za pomocą
upłynniacza, którego ilość wynosiła od 0 do 1% masy cementu, zależnie od
rodzaju, ilości i długości dodawanych włókien.
Materiały użyte do badań
Do wykonania próbek użyto następujących materiałów:
• cement portlandzki CEM I 32,5R z cementowni Ożarów,
• piasek naturalny z Lipia,
• włókna szklane z huty szkła Krosno S.A,
• włókna polipropylenowe FIBERMIX,
• upłynniacz Addiment FM 34.
Włókna szklane zostały specjalnie przygotowane w hucie szkła tak, aby
wiązka włókien uległa rozpadowi na pojedyncze włókna po wymieszaniu z zaprawą.
Składy zapraw
Badaniom poddano 18 serii zapraw z włóknami szklanymi i polipropylenowymi o zróżnicowanej długości i zawartości oraz 1 zaprawę bez dodatku włókien. Długość włókien wynosiła 3, 6 i 12 mm, a ich zawartość objętościowa 0,5;
0,75 i 1% przy gęstości włókien szklanych 2,5 kg/dm3 oraz 0,9 kg/dm3 włókien
polipropylenowych. Główne składniki zapraw oraz ich oznaczenie przedstawiono w tab. 1.
Tabela 1. Oznaczenie serii zapraw
Oznaczenie
zaprawy
Długość włókien
[mm]
1
2
3
4
3
3
3
Zawartość
objętościowa włókien
[%]
0,5
0,75
1,0
5
6
7
6
6
6
0,5
0,75
1,0
8
9
10
12
12
12
0,5
0,75
1,0
Wpływ włókien szklanych i polipropylenowych ...
75
Zakres przeprowadzonych badań
Przeprowadzone badania zapraw obejmowały:
• wytrzymałość na zginanie,
• wytrzymałość na ściskanie,
• odporność na pękanie,
• moduł sprężystości poprzecznej G,
• moduł sprężystości podłużnej E,
• skurcz powstrzymywany.
3. Opis badań oraz uzyskane wyniki
Badania cech mechanicznych przeprowadzono po 28 dniach dojrzewania
próbek przy wilgotności względnej ok. 95% oraz temperaturze ok. 20ºC.
Wytrzymałość na zginanie
Badania wytrzymałości na zginanie przeprowadzono na standardowych dla
zapraw próbkach 40×40×160 mm, według normy [2]. Uzyskane wyniki badań
podano w tab. 2. jako średnią z 3 pomiarów.
Wytrzymałość na ściskanie
Badania wytrzymałości na ściskanie przeprowadzono zgodnie z normą [2]
na połówkach beleczek przy użyciu wkładek 40×40 mm. Wyniki badań podano
w tab. 2. jako średnią z 6 pomiarów.
Odporność na pękanie
Badania odporności na pękanie przeprowadzono według I modelu pękania
(rozciąganie przy zginaniu), zgodnie z procedurą podaną w zaleceniach RILEM
dla betonów [3]. Badaniom poddano próbki o wymiarach 360×80×40 mm
z jedną szczeliną pierwotną. Wymiary próbek betonowych zalecane przez
RILEM zależą od rozmiaru największego ziarna kruszywa. Ze względu na maksymalny rozmiar ziaren kruszywa w zaprawie, który wynosił 2 mm, uznano, że
można adaptować tę metodę do zapraw przy zastosowaniu mniejszych próbek.
Odporność na pękanie określono za pomocą wartości krytycznych współczynnika intensywności naprężeń KIC. Wyniki badań podano w tab. 2. jako średnią z 5 pomiarów.
76
J. Łakomy
Moduł sprężystości poprzecznej G
Moduł sprężystości poprzecznej wyznaczono na próbkach o wymiarach
360×360×20 mm na specjalnie przygotowanym stanowisku do badania płyt w
stanie czystego ścinania metodą opisaną w artykule [4]. Otrzymane wyniki
podano w tab. 2. jako średnią z 3 pomiarów.
Moduł sprężystości podłużnej E
Moduł sprężystości podłużnej wyznaczono przy 4-punktowym zginaniu
(obciążenie co 1/3 rozpiętości). Badania przeprowadzono na próbkach o wymiarach 360×50×20 mm, według zaleceń normy do betonów z włóknami szklanymi
[5]. Korzystając z teorii sprężystości oraz wyników badań innych autorów [6],
moduł E obliczono z zależności:
E=
gdzie:
l
b
h
∆P/∆d
∆P
23 ⋅ l 3
⋅
3
108 ⋅ b ⋅ h ∆d
(1)
– rozstaw podpór (300 mm),
– szerokość próbki (50 mm),
– wysokość próbki (20 mm),
– tangens nachylenia prostej, określony z wykresu siła – ugięcie.
W badaniach wykorzystano specjalny przyrząd własnej konstrukcji, tzw.
„Yoke” (rys. 1.), służący do pomiaru ugięć bezwzględnych [7]. Wartość siły
mierzono siłomierzem pałąkowym, połączonym z czujnikiem elektromagnetycznym, natomiast wartość ugięcia bezwzględnego mierzono przy użyciu
„Yoke” oraz czujnika elektromagnetycznego. Mierzone wielkości przekazywane
były do systemu pomiarowego GEOLAB co 1 s i automatycznie zapisywane w
komputerze.
Rys. 1. Widok stanowiska badawczego do badania modułu E
Wpływ włókien szklanych i polipropylenowych ...
77
W celu wyznaczenia zakresu sprężystego dokonano pomiaru emisji akustycznej. Po przekroczeniu zakresu sprężystego pojawiają się pęknięcia kompozytu, którym towarzyszy wzrost poziomu efektów akustycznych, co rejestrowano za pomocą sondy, jako wzrost liczby zliczeń. Przykładowy wykres siła –
ugięcie wraz z emisją akustyczną przedstawia rys. 2. Wyniki badań podano
w tab. 2., jako średnią z 5 pomiarów.
Rys. 2. Wykres siła – ugięcie z emisją akustyczną
Skurcz powstrzymywany
Jedną z przyczyn powstawania zarysowań powierzchniowych jest skurcz
powstrzymywany. Zjawisko to było badane m.in. na próbkach typu „Dog Bone”
[8] oraz na pierścieniach [9,10]. W niniejszej pracy przedstawiono wyniki badań
skurczu powstrzymywanego na próbkach powierzchniowych (rys. 3.).
Próbki powierzchniowe wykonano na podłożu ze starego betonu, przy
zmiennej grubości zaprawy 0,5÷2,5 cm. Zaprawa bez włókien pękła w jednym
miejscu, przy grubości zaprawy ok. 0,7 cm. Zaprawy z włóknami zachowywały
się w zróżnicowany sposób, w zależności od ilości i długości włókien. Przy małej zawartości włókien zaprawa pękała poprzecznie i podłużnie, tworząc siatkę
zarysowań. Rozwarcie szczelin w próbkach z włóknami było kilkakrotnie mniejsze niż w zaprawach bez włókien. W przypadku zapraw z najkrótszymi włóknami (3 mm), przy największej ich zawartości (1%), po 1 miesiącu dojrzewania
w warunkach suchych nie pojawiły się zarysowania widoczne gołym okiem,
zarówno w przypadku zapraw z dodatkiem włókien szklanych, jak i włókien
polipropylenowych.
78
J. Łakomy
Rys. 3. Widok próbki powierzchniowej
Otrzymane wyniki badań cech mechanicznych zapraw oraz współczynniki
zmienności przedstawiono w tab. 2.
Oznaczenie
zaprawy
Tabela 2. Zestawienie wyników badań
1
Wytrzymałość
na zginanie
[MPa]
S
P
Wytrzymałość
na ściskanie
[MPa]
S
P
Odporność
na pękanie
[MN/m3/2]
S
P
Moduł
G
[GPa]
S
P
Moduł
E
[GPa]
S
P
30,12
12,35
0,55
53,84
8,00
8,0 %
3,1 %
3,8 %
9,8 %
6,4 %
2
20,0
10,35 26,58
10,79
0,52
0,59
45,53 42,88
5,89
8,01
5,6 % 0,8 % 1,1 % 7,1 % 6,1 % 15,6 %
7,8 % 5,0 %
1,5 % 7,2%
3
8,26
6,57
42,29 42,82
0,56
0,50
10,78
11,11 25,68 21,46
4,0 % 18,2 % 4,7 % 5,5 %
5,1 % 3,1 % 3,9 % 8,1 % 10,1 % 9,4 %
4
8,61
5,62
42,82 33,98
0,58
0,51
11,57
8,99
28,45 18,65
4,6 % 6,2 % 4,8 % 4,8 %
6,3 % 1,2 % 5,2 % 7,0 % 5,4 % 7,6 %
5
12,43 25,30 25,56
10,72
0,59
0,55
40,81 58,55
6,47
7,98
6,8 % 6,0 % 7,5 % 4,0 % 9,5 % 6,0 %
6,5 % 9,0 % 3,5 % 6,6 %
6
12,72 27,39 24,87
11,17
0,59
0,61
44,74 51,78
7,07
8,77
5,3 % 5,2 % 4,2 % 4,0 % 7,8 % 4,4 %
4,2 % 22,8 % 5,3 % 5,9 %
7
9,23
6,41
44,72 47,13
0,60
0,64
13,07
11,29 32,19 25,26
3,3 % 16,4 % 5,6 % 8,6 %
7,1 % 2,4 % 5,7 % 4,5 % 8,9 % 2,6 %
8
12,42 34,48 27,75
14,17
0,52
0,59
51,82 47,95
7,13
9,83
2,3 % 23,6 % 0,4 % 28,5 % 5,3 % 2,2 % 3,2 % 8,5 % 5,8 % 4,3 %
9
9,90
6,92
51,41 45,31
0,78
0,54
16,42
12,25 39,55 24,54
2,5 % 19,8 % 3,1 % 7,0 %
6,7 % 2,5 % 3,5 % 5,3 % 4,1 % 7,7 %
10 10,05
5,89
52,83 49,68
0,79
0,48
17,71
11,81 42,58 24,09
7,7 % 10,1 % 4,3 % 6,8 %
7,4 % 16,0 % 12 %
8,4 % 6,8 % 8,5 %
S – zaprawy z włóknami szklanymi, P – zaprawy z włóknami polipropylenowymi.
Wpływ włókien szklanych i polipropylenowych ...
79
4. Podsumowanie i wnioski
Dodatek włókien szklanych i polipropylenowych w różny sposób wpłynął
na właściwości fizyczne i mechaniczne badanych zapraw.
Włókna szklane i polipropylenowe spowodowały znaczne pogorszenie urabialności zaprawy. Na podstawie przeprowadzonych badań za najbardziej miarodajny pomiar konsystencji zapraw z dodatkiem włókien uznano pomiar za
pomocą dynamicznego rozpływu stożka.
Włókna szklane zwiększyły wytrzymałość zapraw na zginanie do 25%, odporność na pękanie do 45%, moduł sprężystości poprzecznej dla zaprawy z najdłuższymi włóknami do 43%. Najdłuższe włókna szklane miały także duży
wpływ na moduł Younga – wzrost do 40%. Włókna szklane spowodowały natomiast obniżenie wytrzymałości na ściskanie do 24%.
Włókna polipropylenowe obniżyły wytrzymałość zapraw na zginanie do
30% oraz moduł sprężystości podłużnej do 38%. Dla większości zapraw
z włóknami polipropylenowymi obniżyła się wytrzymałość na ściskanie, odporność na pękanie oraz moduł sprężystości poprzecznej.
Badania skurczu powstrzymywanego wykazały znaczący wpływ włókien
szklanych i polipropylenowych na powstawanie zarysowań. Obserwacje powierzchniowe nie wykazały zarysowań zapraw z włóknami lub wykazały zarysowania w późniejszym okresie. Rysy w tym przypadku miały mniejszą szerokość niż w przypadku zapraw bez włókien.
Najlepsze efekty w powstrzymywaniu zarysowań od skurczu uzyskano
w przypadku zapraw z włóknami najkrótszymi (3 mm), zarówno szklanymi, jak
i polipropylenowymi, przy ich maksymalnej zawartości (1%).
Wyniki przeprowadzonych prac dowodzą, że włókna szklane produkcji krajowej poprawiają wiele cech mechanicznych i fizycznych zapraw i mogą być
stosowane jako zbrojenie przeciwskurczowe zapraw cementowych.
Literatura
[1] Szwabowski J., Ponikiewski T.: Analiza testów i czynników urabialności fibrobetonów. III Konferencja Naukowo-Techniczna: „Zagadnienia Materiałowe w Inżynierii Lądowej”, Kraków – Mogilany, 28-30 czerwiec 2000, MATBUD 2000, s.
331-338
[2] PN-85/B-04500. Zaprawy budowlane. Badanie cech fizycznych i wytrzymałościowych
[3] RILEM Draft Recommendation, Determination of fracture parameters (KIcs and
CTODc) of plain concrete using three-point bend tests, TC FMT Fracture Mechanics of Concrete Test Methods, Materials and Structures, 23, 1990, p. 457-460
[4] Prokopski G., Konkol J., Łakomy J.: Metody wyznaczania stałych materiałowych
kompozytów cementowych. Zeszyty Naukowe Politechniki Rzeszowskiej, Budownictwo i Inżynieria Środowiska, nr 32, 2000, s. 411-418
[5] PN-EN 1170-1. Metoda badania betonu zbrojonego włóknem szklanym
80
J. Łakomy
[6] Glinicki A.M.: Mechanizmy kruchości i trwałość kompozytów cementowych
z włóknami szklanymi. Praca habilitacyjna. IPPT PAN, 11, 1999
[7] Brandt A.M.: Toughness of Fiber Reinforced Cement Based Materials. Archiwum
Inżynierii Lądowej, t. XLII, z. 4, 1996, s. 471-493
[8] Bloom R., Bentur A.: Free and Restrained Shrinkage of Normal and High-Strength
Concretes. ACI Materials Journal, March-April 1995, p. 211-217
[9] Shah S.P., Ouyang Ch., Marikunte S., Yang W., Becq-Giraudon E.: A Method to
Predict Shrinkage Cracking of Concrete. ACI Materials Journal, July-August
1998, pp. 339-346
[10] Łakomy J., Prokopski G.: Zbrojenie przeciwskurczowe zapraw cementowych,
The 7th International Scientific Conference, Koszyce, maj 2002, s. 195-198
THE INFLUENCE OF GLASS AND POLYPROPYLENE FIBERS
ON CEMENT MORTARS PROPERTIES
Summary
In this paper the results of mortars with glass and polypropylene fibers investigations are
presented. The main objective of this work was to evaluate the influence of shrinkage reinforcement on mechanical properties of mortars. Obtained results showed, that kind of fibers have significant influence on mechanical properties of mortars.
Glass fibers significantly increased bending strength, fracture toughness, Young’s and shear
modulus. Polypropylene fibers significantly decreased bending strength and Young’s modulus.
For investigated mortars with fibers cracks did not appear or occurred later and the cracks
widths were several times smaller than in mortars without fibers.
Obtained results showed that glass fibers significantly improved cracking resistance and mechanical properties of mortars and can be use as shrinkage reinforcement.
Złożono w Oficynie Wydawniczej w kwietniu 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Lesław PIANOWSKI
Politechnika Rzeszowska
PROBLEM DOKŁADNOŚCI POMIARÓW
KONTROLNYCH W BUDOWNICTWIE
W pracy autor przedstawia problemy oceny dokładności pomiarów kontrolnych
Wyprowadzone wzory do obliczenia prawdopodobieństwa spełnienia tolerancji
wynikają z wartości odchyłki, tolerancji i błędów pomiarów. Autor analizuje możliwość wykonania obliczeń odchyłek z wykorzystaniem wyrównania obserwacji
metodą najmniejszych kwadratów. Zamieszczona tabela i wykres prawdopodobieństwa ułatwia uzyskanie informacji o spełnieniu tolerancji.
1. Wprowadzenie
Celem pomiarów kontrolnych, którymi obejmuje się wybrane elementy budowli jest uzyskanie informacji o odchyłkach wymiarów budowli od teoretycznego modelu. W praktyce modelem budowli jest obiekt opisany przez zbiór
punktów i linii przedstawiony w dokumentacji projektowej. Pomiary kontrolne
wykonuje się w celu pozyskania danych o wybranych cechach geometrycznych,
tj. pionowość, prostoliniowość, odchylenia od projektowanego kształtu, lokalizacja (usytuowanie) i odkształcenia budowli lub jej elementu. Często pomiary
kontrolne są identyfikowane z inwentaryzacją powykonawczą obiektów budowlanych. Obiekt budowlany zlokalizowany na mapie do celów projektowych i
zwymiarowany w projekcie jest wykonywany w terenie z dokładnością wynikającą z ustalonych i przyjętych tolerancji [1]. Tolerancje te w sposób bezpośredni
określają wymaganą dokładność pomiarów, wymagany zakres i decydują o wyborze odpowiednich metod i instrumentów pomiarowych. Wyniki wykonanych
pomiarów kontrolnych charakteryzują zgodność wykonanego obiektu budowlanego z projektem co do nieprzekroczenia odchyłek dopuszczalnych.
Wyróżnia się trzy przypadki, w których są prowadzone pomiary kontrolne:
• ocena jakości produkcji prefabrykowanych materiałów budowlanych,
• kontrola poprawności wykonania budowli i montażu jej elementów
(zgodności z projektem), po każdym etapie budowy i eksploatacji budowli, ale w innym zakresie w przypadku różnych zadań inżynierskich,
• kontrola zmian położenia elementów budowli w czasie jej użytkowania
(jednokrotna lub okresowa).
82
L. Pianowski
W każdym z wymienionych wypadków przeprowadza się interpretację
stwierdzonych odchyłek. Błędy pomiarów kontrolnych nie powinny zniekształcać wartości odchyłek. Dlatego należy wybrać takie metody pomiarów, konstrukcje geometryczne osnowy pomiarowej i aparaturę pomiarową, które zapewnią dostateczną dokładność wyznaczenia pozycji punktów budowli. Jest to
ważne z punktu widzenia interpretacji odchyłek wymiarów, gdyż przyjmuje się
za istotne odchyłki, których wartość przekracza odchyłkę dopuszczalną. Norma
PN-ISO 3443/8 [2] zaleca, by projektant wskazywał te szczególnie ważne cechy
geometryczne, które norma nazywa krytycznymi, podając sposób kontroli tych
cech. Norma ta podaje wykaz cech geometrycznych podlegających pomiarom
kontrolnym i okres wykonania kontroli, który może obejmować czas trwania
budowy lub być przedłużony na czas trwania okresu gwarancyjnego. Wspomniana norma dodaje do szczególnych cech geometrycznych tzw. „gabarytowe”, jak np. pionowość w obrębie kondygnacji czy też płaszczyznowość powierzchni, wskazując zakres pomiarów oraz usytuowanie punktów i przekrojów
pomiarowych. Normy PN-ISO w znacznym stopniu rozszerzają postanowienia
dotychczas obowiązujących norm krajowych. Dotyczy to zarówno stosowanych
terminów i określeń, jak również zakresu i metod prowadzenia kontroli wymiarów budowli oraz sposobu przedstawiania danych dokładnościowych [3]. Procedury obliczeniowe zalecane przez normy wymagają, aby zakres zmienności
kontrolowanych wymiarów był charakteryzowany każdorazowo za pomocą odchyłki systematycznej i odchylenia standardowego, pozyskiwanych jako dane
dokładnościowe z wykonanych pomiarów kontrolnych [4].
2. Kryterium oceny odchyłek wymiarów budowli
Kontrola wymiarów budowli sprowadza się do obliczenia odchyłek ∆L = N
– L, jako różnic miar stwierdzonych L i nominalnych N (projektowych) oraz
geometrycznej interpretacji tych odchyłek. Mogą to być odchyłki wymiarów,
kształtu, położenia lub orientacji elementów budowli.
Na wielkość odchyłek wpływają:
• dokładność wykonania robót budowlanych,
• błędy pomiarów realizacyjnych i kontrolnych (odchyłki technologiczne),
• zmieniające się warunki otoczenia (środowiska),
• reakcja materiałów budowlanych (odchyłki własne).
Wyniki pomiarów kontrolnych mających na celu sprawdzenie zgodności z
projektem wybranych cech geometrycznych budowli powinny charakteryzować
się odchyleniem standardowym nie większym od 0,1 wartości odchyłki dopuszczalnej przewidzianej dla sprawdzanej cechy [3, 5]. Wiadomo (z teorii błędów),
że z prawdopodobieństwem P = 0,9973, błędy pomiarów mieszczą się w przedziale <–3mL, 3mL>, którego granice odpowiadają błędowi granicznemu [6, 7].
Problem dokładności pomiarów ...
83
Normy wymagają, aby błędy wykonania i błędy pomiarów kontrolnych
mieściły się w przedziale tolerancji wymiarów. Bardzo ważne jest stwierdzenie
w oparciu o uzyskaną odchyłkę ∆L, czy wymiar rzeczywisty należy do przedziału <N – T/2; N + T/2>, czyli ocena spełnienia tolerancji. Potwierdzenie tego
zdarzenia wymaga poznania prawdopodobieństwa spełnienia tolerancji PT, które
uwzględnia odstępstwa rzeczywistego wymiaru od jego nominalnej wartości,
a także zależność od błędów pomiaru kontrolnego. Kryterium oceny można ustalić na podstawie teorii testów statystycznych opartych na przedziałach ufności.
Wiąże się to z poszukiwaniem prawdopodobieństwa zdarzenia dotyczącego
wzajemnego położenia uzyskanego z pomiarów oszacowania nieznanego parametru i jego prawdziwej wartości. Przedział ufności jest przedziałem losowym,
a więc w każdej próbie będzie innej długości [6]. Zawsze istnieje taki przedział,
który zawiera wartość rzeczywistą parametru. Rozkładem teoretycznym wyników pomiarów geodezyjnych jest najczęściej rozkład normalny. Niekiedy
w badaniach empirycznych autorzy zalecają kompozycje kilku różnych rozkładów [6, 7]. Założono, że wyniki pomiarów kontrolnych są zmiennymi losowymi
o rozkładzie normalnym lub asymptotycznie normalnym. Oszacowaniem nieznanej, prawdziwej odchyłki wymiaru z populacji o rozkładzie N(µ, σ) będzie
przedział ufności przy poziomie ufności PT. Estymatorem wartości oczekiwanej µ w tym przypadku jest odchyłka ∆L. Przedział <∆L ±σ> pokrywa nieznaną
szacowaną wielkość z prawdopodobieństwem 0.6826 i to prawdopodobieństwo
jest niezależne od odchylenia standardowego. Można skonstruować przedział
ufności w celu oszacowania wartości oczekiwanej przy poziomie ufności PT.
Jeżeli znane jest odchylenie standardowe σ rozkładu odchyłki wymiarów, to
przedział może przyjąć postać:
P(∆L– rd σ ≤ µ ≤ ∆L + rg σ) = PT
(1)
Przy założeniu rozkładu normalnego, wartość PT może być obliczona jako
różnica dystrybuanty:
PT = Φ(rg) – Φ(rd)
Granice przedziału uzyskamy po dokonaniu kilku niezbędnych przekształceń i przybliżeń. Przyjęto:
rd σ = N – L – T/2
i
rg σ = N – L + T/2
Wartość odchylenia standardowego zastąpiono jego przybliżeniem obliczonym w oparciu o dane z pomiaru σ ≈ mL, utożsamiając odchylenie standardowe
z błędem średnim wyznaczenia wymiaru. Współczynniki rg i rd występujące w
(1) otrzymają postać:
84
L. Pianowski
rg =
T
T
N+ −L
−L
2
2
, rd =
mL
mL
N+
po przekształceniu:
rg =
T
T
∆L +
2, r =
2
d
mL
mL
∆L +
(2)
współczynniki dla dolnej i górnej granicy tolerancji:
rg =
T
T
∆L +
2, r =
2
d
mL
mL
∆L +
gdzie:
rg, rd – współczynniki wielokrotności błędu średniego dla dolnej i górnej granicy przedziału,
Φ(rg) ,Φ(rd) – wartości dystrybuanty rozkładu normalnego,
mL – błąd średni wyznaczenia wymiaru L, równoważny z błędem odchyłki ∆L
(empiryczna wartość odchylenia standardowego σ).
Odchyłka o wartości równej 3mL powinna być uważana za wysoce istotną w
przypadku rozkładów zbliżonych do normalnego, zaś odchyłki przekraczające
4mL można uważać za istotne nawet przy rozkładach znacznie odbiegających od
rozkładu normalnego.
Prawdopodobieństwo PT, które można nazywać prawdopodobieństwem
spełnienia tolerancji, zależy od wartości tolerancji T, błędu średniego mL i odchyłki ∆L.
Aby zbadać te zależności, wprowadzono dwa wyrażenia: T/mL i ∆L/T. Analiza zmian tych wyrażeń przy ustalonej wartości prawdopodobieństwa PT = const
pozwala uzyskać wiele cennych wniosków dotyczących przede wszystkim błędu
średniego mL.
Wartości funkcji F(∆L/T, T/mL) mogą być obliczone metodą numeryczną
z rozwiązania równania nieliniowego:
1
2π
rg
(∫ e
−∞
−r2
dr −
rd
∫e
-∞
−r2
dr ) = PT
(3)
Problem dokładności pomiarów ...
85
Podstawiając nowe zmienne u = ∆L/T i v = T/mL do wzorów (2), granice całek w równaniu (3) wyrazi się następująco: rg = (u + 0,5)v, rd = (u – 0,5)v. Wyznaczone wartości u = ∆L/T dla przyjętych v = T/mL i PT zostały zestawione
w tab. 1.
Tabela 1. Wartości ∆L/T dla wybranych PT i przyjętych T/mL
PT
T/mL
2
3
4
5
6
7
8
9
10
11
12
13
14
15
20
25
30
35
40
0,9973
0,9876
0,9545
0,9000
0
0
0
0
0,094
0,103
0,153
0,190
0,221
0,248
0,269
0,285
0,302
0,315
0,360
0,388
0,406
0,420
0,430
0
0
0
0,059
0,125
0,179
0,219
0,250
0,275
0,295
0,312
0,326
0,339
0,352
0,387
0,409
0,424
0,435
0,442
0
0
0,014
0,161
0,217
0,258
0,288
0,311
0,330
0,345
0,358
0,369
0,378
0,390
0,415
0,431
0,443
0,451
0,457
0
0,080
0,174
0,242
0,285
0,316
0,339
0,357
0,371
0,382
0,392
0,400
0,408
0,414
0,435
0,448
0,456
0,462
0,465
Rysunek 1. przedstawia wykres PT = const w układzie współrzędnych T/mL
i ∆L/T. Wykresy krzywych PT = const przebiegają asymptotycznie do prostej
∆L/T = 0,5. Przy dużych wartościach T/mL obserwuje się nieznaczne zmiany
∆L/T towarzyszące dużym przyrostom T/mL. Jeżeli ∆L jest znacznie mniejsze
od T/2, wnioskowanie o spełnieniu tolerancji przebiega bez problemów. Przy ∆L
bliskich T/2 ocena spełnienia tolerancji stwarza trudności. Wyrażenie T/mL dla
przyjętego PT osiąga w takim przypadku duże wartości. Uzyskanie tak dużych
wartości wymaga znacznego zmniejszenia błędu mL. Zmniejszenie błędu mL
z przyczyn technicznych może się okazać bardzo trudne, a niekiedy niemożliwe.
86
L. Pianowski
Rys 1. Wykresy prawdopodobieństwa tolerancji
Duże wartości ∆L/T mogą świadczyć o niespełnieniu tolerancji. Wraz ze
wzrostem zmiennej v, zmiany wartości zmiennej u są coraz mniejsze.
Potwierdzenie faktu, że badana cecha geometryczna budowli spełnia tolerancję, wymaga by PT było większe od normatywnego Pmin, co stanowi kryterium wnioskowania o spełnieniu tolerancji
∆L < T/2 i PT ≥ Pmin
(4)
W praktyce inżynierskiej jako Pmin proponuje się wartości: 0,9545,
0,9876 lub 0,9973, przypisane współczynnikom wielokrotności błędu średniego:
r = 2, r = 2,5 lub r = 3. Odpowiada to prawdopodobieństwu zawierania się błędu
prawdziwego ε w przedziale, którego granice są wielokrotnością błędu średniego mL [8]:
P(r) = P(–r mL ≤ ε ≤ r mL)
Aby spełnić wymagania tolerancji na poziomie ufności Pmin zgodnie z relacjami (4), należy pomiary kontrolne wykonać z taką dokładnością, aby wartość
wyrażenia T/mL była odpowiednio duża, co wynika z wykresu (rys. 1.). Wartość
α = 1 – Pmin określa prawdopodobieństwo błędnego wnioskowania lub prawdopodobieństwo niespełnienia tolerancji i jest poziomem istotności testu [9].
Problem dokładności pomiarów ...
87
Teoretyczna analiza wykazuje, że zależnie od przyjętego minimalnego poziomu ufności testowania odchyłek dokładność pomiaru kontrolnego wyrażona
przez błąd średni powinna spełnić relacje:
mL < 0,25T przy Pmin = 0,954
mL < 0,2T
przy Pmin = 0,988
mL < 0,15T przy Pmin = 0,997






(5)
Wskazane zależności są podstawą wstępnych analiz dokładności przy planowaniu pomiarów kontrolnych.
Tolerancję lub jej część można interpretować w przybliżeniu jako dopuszczalny błąd pomiaru kontrolnego [5]:
T = 2 r mL
(6)
gdzie:
T – tolerancja wymiaru,
r – współczynnik krotności błędu średniego mL, zależny od przyjętego w analizie poziomu ufności związanego z prawdopodobieństwem spełnienia
tolerancji PT.
Według normy PN-ISO4322 [3], dopuszczalna odchyłka powinna stanowić
zmianę wymiarów w przedziale 2,5 krotnego błędu średniego. Wartości współczynnika r = 2,5 odpowiada poziom istotności α = 0,0124. Chcąc uzyskać potwierdzenie przekroczenia tolerancji z prawdopodobieństwem 1 – PT, należy
wykonać pomiary kontrolne z dokładnością co najmniej taką, by błąd średni
wyznaczenia odchyłki spełnił relację:
mL ≤
T
2r
Najczęściej pomiary kontrolne wykonuje się w celu sprawdzenia jednej cechy geometrycznej obiektu (np. ugięcie, prostoliniowość itp.). W przypadku
inwentaryzacji budowli ocena geometrii wymaga wyznaczenia odchyłek wybranych wymiarów, a także poznania kształtu i usytuowania obiektu. W takich
przypadkach najkorzystniejszym rozwiązaniem jest operowanie współrzędnymi
punktów w wybranym układzie współrzędnych. Odchyłki ∆x, ∆y, ∆z są obliczane
jako wartości funkcji bezpośrednich obserwacji. Błędy odchyłek współrzędnych
punktów są funkcjami błędów różnych rodzajów obserwacji (długości, kątów,
różnic wysokości).
88
L. Pianowski
W praktyce inżynierskiej ma się do czynienia z bardzo złożonymi konstrukcjami pomiarowymi. Wynika to stąd, że poszczególne elementy budowli są
dostępne w różnym stopniu do bezpośrednich pomiarów. Na błąd wyznaczenia
odchyłki składają się przypadkowe błędy pomiaru, błędy aparatury pomiarowej,
oddziaływania środowiska, wpływ założonej konstrukcji pomiarowej oraz błąd
identyfikacji punktów (znaków) pomiarowych.
Do oceny odchyłki orientacji i lokalizacji budowli stosuje się konstrukcje
pomiarowe w postaci wcięć kątowych, liniowych lub kombinowanych, powiązanych z osnową pomiarową, w innych zadaniach stosuje się na ogół metodę
biegunową. Każde z wymienionych na wstępie zadań wymaga określenia koniecznej dokładności przeprowadzenia pomiarów. Jako dane wyjściowe można
wykorzystać podane zależności (5) i (6). Jeżeli analizę dokładności pomiarów
przeprowadzi się zgodnie z zasadami wyrównania metodą parametryczną, powinny być spełnione warunki teorii błędów dotyczące charakteru błędów pomiaru i przenoszenia się błędów w przyjętych konstrukcjach pomiarowych.
W większości przypadków pomiarów kontrolnych stosuje się pośrednie metody pomiarów i do oceny błędów obliczonych odchyłek mogą być zastosowane
metody analizy wariancji funkcji obserwacji. Empiryczne wariancje wyznaczonych odchyłek pozwalają uzasadnić poprawność przyjętej metody pomiarów
i uzyskanych wyników. Z analizy wariancji, w oparciu o elementy macierzy
wariancyjno-kowariancyjnej uzyskuje się ocenę błędów współrzędnych wybranych punktów budowli. Oceniany wymiar elementu budowli (testowany przez
pomiar kontrolny) jest funkcją różnych obserwowanych wielkości, ogólnie F(L).
Wymagany w metodzie parametrycznej zbiór obserwacji (L) będzie zawierał
wyniki pomiarów bezpośrednich: długości, kierunków, kątów i różnic wysokości, zależnie od przyjętych konstrukcji pomiarowych i sposobu powiązania
z osnową pomiarową. Postać analityczna funkcji F(L) zależy od rodzaju obserwacji i konstrukcji pomiarowej.
Każda obserwowana (metodą biegunową lub metodą wcięć) wielkość zostaje włączona do zbioru danych poddawanych łącznemu wyrównaniu razem
z obserwacjami wiążącymi je z osnową pomiarową, będą to również tzw. „miary czołowe”, czyli długości odcinków pomiędzy punktami kontrolowanymi
obiektu. Każda obserwacja otrzyma również wagę dokładności, reprezentowaną
przez założony błąd średni obserwacji z pomiarów bezpośrednich. Do obliczenia
prawdopodobieństwa PT, według wzorów (2), niezbędne są błędy średnie współrzędnych punktów. Natomiast błędy średnie miar kontrolnych (długości odcinków, kątów) obliczymy po przekształceniu macierzy wariancyjno-kowariancyjnej układu normalnego, wprowadzając odpowiednie funkcje niewiadomych:
Problem dokładności pomiarów ...
BF = fT QX f
m2F = m2o BF
T
mo =
2rBF
gdzie:
BF –
QX –
f
–
P –
A –
QX = (AT PA)–1
89






(7)
współczynnik wagowy funkcji F,
macierz wariancyjno-kowariancyjna,
wektor pochodnych cząstkowych funkcji F,
macierz wag,
macierz współczynników układu równań zbioru obserwacji.
Macierz QX zawiera pełną informację o dokładności wyznaczenia współrzędnych zespołu punktów budowli, jest więc podstawową charakterystyką błędów konstrukcji pomiarowej analizowanej metodą parametryczną.
Na podstawie analizy dokładności można obliczyć estymatory wariancji dla
każdego elementu zbioru danych, korzystając z zależności przedstawionych
wzorami (7), które z kolei można utożsamić z błędami wyznaczenia tych elementów. W celu uniknięcia rozbieżności w ocenie wag, przyjęte wartości błędów średnich powinny rozróżnić poszczególne obserwacje lub grupy obserwacji
w pomiarach kontrolnych.
Taki sposób obliczenia błędów średnich daje bardziej wiarygodne wyniki
oceny, gdyż uwzględnia wpływ błędów pomiarów bezpośrednich i błędów konstrukcji pomiarowej.
3. Wyniki obliczeń
W celu przedstawienia sposobu interpretacji odchyłek, wybrano dane z pomiarów inwentaryzacyjnych. Pomiary wykonano metodą biegunową i wcięć
kątowo-liniowych. Współrzędne punktów kontrolowanych uzyskano z wyrównania obserwacji bezpośrednich metodą parametryczną. Wyrównaniu poddano
dane geodezyjne z pomiaru osnowy geodezyjnej i dane z pomiarów inwentaryzacyjnych łącznie z miarami kontrolnymi (długości odcinków pomiędzy wybranymi punktami). Dla każdej obserwacji długości, kierunku, z pomiaru biegunowego utworzono równanie błędów zgodnie z zasadami parametrycznej metody
wyrównania sieci kątowo-liniowej. Wagi obserwacji wprowadzonych do wyrównania uzyskano po analizie danych z testowania sprzętu pomiarowego.
W tabeli 2. zostały zestawione odchyłki współrzędnych, obliczone błędy
średnie współrzędnych kontrolowanych punktów budowli. Do demonstracji
wybrano tylko punkty, dla których odchyłki położenia były bliskie T/2 i sprawiły trudności w ocenie spełnienia tolerancji.
90
L. Pianowski
Tabela 2. Wartości odchyłek z pomiarów kontrolnych i obliczone prawdopodobieństwa PT
Lp.
1
2
3
4
5
6
8
12
∆x
∆y
12
6
9
8
5
–5
3
4
3
6
–8
–1
–13
–9
7
–5
mx
my
9
3
8
4
8
4
9
4
8
4
8
4
–9
5
10
2
∆g
∆d
rg
rd
PT
22
18
19
18
15
5
13
14
13
16
2
9
–3
1
17
5
2
–4
–1
–2
–5
–15
–7
–6
–7
–4
–18
–11
–23
–19
–3
–15
2,44
6,00
2,37
4,50
1,88
1,25
1,44
3,50
1,62
2,00
0,25
2,25
–0,33
0,20
1,70
2,50
0,22
–1,33
–0,12
–0,50
–0,62
–3,75
–0,78
–1,50
–0,88
–1,00
–2,25
–2,75
–2,56
–3,80
–0,30
–7,50
0,4056
0,9082
0,5389
0,6915
0,7023
0,8939
0,7074
0,9330
0,7580
0,8186
0,5868
0,9848
0,3654
0,5792
0,5732
0,9946
Wartości odchyłek ∆x, ∆y i błędów mx, my zamieszczone w tab. 2. podano
w mm. Odpowiadają one odpowiednio górnej i dolnej granicy przedziału tolerancji T = 20 mm:
∆ g = ∆L + T/2, ∆d = ∆L – T/2
Błędy średnie współrzędnych są równoważne błędom wyznaczenia odchyłek
pozycji punktów budowli.
Wnioskowanie o spełnieniu tolerancji opiera się na obliczonych według
wzorów (2) wartościach współczynników rg, rd i prawdopodobieństwach PT oraz
ich ocenie zgodnie z przyjętym kryterium (4). Mimo spełnienia warunku wyrażonego w pierwszej z relacji (4), odchyłki z pomiaru kontrolnego nie potwierdzają spełnienia tolerancji na poziomie Pmin = 0,9876.
4. Wnioski
Prowadząc pomiary kontrolne, należy przeprowadzić dwukrotnie analizę
dokładności. Pierwsza jest teoretyczną, wstępną analizą, która powinna dać informacje odnośnie do zaproponowanych metod pomiaru, konstrukcji pomiarowej i sprzętu pomiarowego. Druga to powykonawcza analiza dokładności przeprowadzona po uzyskaniu danych z pomiarów, która powinna dać informacje
o poprawności przyjętych założeń. Metody analizy dokładności powinny być
oparte na wzorach, które umożliwią obliczenie miar niezbędnych do wyznacze-
Problem dokładności pomiarów ...
91
nia pozycji punktów budowli, czyli na analizie konstrukcji pomiarowej przyjętej
przy pomiarach kontrolnych.
Metody analizy dokładności powinny być dostosowane do sposobu opracowania wyników pomiarów kontrolnych. Jeżeli przewiduje się wyznaczenie
pozycji punktów przez zastosowanie metody najmniejszych kwadratów, to analizę należy przeprowadzić w oparciu o wzory tej metody.
Proponowany sposób nie wymaga dużego nakładu pracy i pozwala na dokonanie oceny błędu średniego wyznaczenia odchyłek wymiarów budowli. Zastosowanie metody najmniejszych kwadratów do rozwiązania zadania daje
oprócz wartości współrzędnych punktów także ocenę dokładności wyznaczenia
tych współrzędnych. Wyniki analizy dokładności mogą pociągnąć za sobą konieczność zweryfikowania konstrukcji pomiarowej lub aparatury pomiarowej
wykorzystanej przy pomiarach kontrolnych. Projekt konstrukcji pomiarowych
powinien zapewniać możliwość kontroli wyników pomiarów, eliminację błędów
grubych i wiarygodną ocenę błędów.
Wartość prawdopodobieństwa tolerancji PT zależy od dokładności pomiaru
(błędu wyznaczenia odchyłki), reprezentowanej tutaj przez błąd średni mL, ale
także od rezultatów pomiaru kontrolnego, czyli od wartości stwierdzonej odchyłki. Wykonawca pomiarów kontrolnych powinien dysponować obiektywnym
kryterium interpretacji odchyłek.
Nie można ograniczyć się wyłącznie do porównania odchyłki stwierdzonej
z odchyłką dopuszczalną ∆L ≤ ∆dop (∆L ≤ T/2) przypisaną przez normę kontrolowanym wymiarom bez uwzględnienia błędów wyznaczenia tej odchyłki.
Nie zawsze kryterium rozstrzyga o spełnieniu tolerancji. Zakładając graniczny poziom ufności Pmin = 0,9876, można przeanalizować wszystkie spotykane przypadki przy interpretacji odchyłki.
Przy ocenie wartości uzyskanych odchyłek należy rozważać 3 przypadki:
• spełnienie tolerancji, gdy spełniona jest relacja: Pmin < PT < 1, (∆L < T/2),
0,9876 < PT < 1,
• brak możliwości podjęcia decyzji o spełnieniu tolerancji PT = Pmin,
0,0124 < PT < 0,9876 (Nie jest to zdarzenie równoznaczne z niespełnieniem tolerancji z uwagi na wartość prawdopodobieństwa α = 1 – PT,
które określa prawdopodobieństwo niespełnienia tolerancji. Uzyskanie
jednoznacznej odpowiedzi wymaga dokonania oceny błędów wyznaczenia odchyłki lub powtórzenia pomiaru kontrolnego po zmianie konstrukcji pomiarowej, metod pomiaru, a często instrumentów pomiarowych),
• niespełnienie tolerancji, jeśli PT < Pmin, (∆L > T/2), 0 < PT < 0,0124.
Często spełnienie wymagań stawianych przez normy wiąże się z wykorzystaniem odpowiedniej klasy sprzętu pomiarowego i specjalnych warunków
przeprowadzania pomiarów kontrolnych.
92
L. Pianowski
Literatura
[1] PN-ISO4464. Związki pomiędzy różnymi rodzajami odchyłek i tolerancji
[2] PN-ISO3443/8. Tolerancje w budownictwie. Nadzór i kontrola wymiarowa robót
budowlanych
[3] Przewłocki S., Pawłowski W.: Kształtowanie geometryczne obiektów budowlanych w ujęciu nowych norm ISO. Inżynieria i Budownictwo 4, 1996
[4] Pawłowski W.: Wyrażenie dokładności wymiarowej w budownictwie w ujęciu
normy międzynarodowej ISO 1803: 1997, Zeszyty Naukowe Politechniki Zielonogórskiej, z.127, Budownictwo z. 35, Zielona Góra 2001
[5] Janusz W.: Obsługa geodezyjna budowli i konstrukcji, Warszawa 1975
[6] Hausbrandt S.: Rachunek wyrównawczy, t. 2, PPWK, Warszawa 1970
[7] Ney B.: Metody statystyczne w geodezji, skrypt AGH, Kraków 1976
[8] Janusz W.: Określenie podstawowych zależności między tolerancjami w budownictwie a dokładnościami prac geodezyjnych, prace IGIK, t. XV, z. 2(35), Warszawa 1968
[9] Fisz M.: Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1969
THE PROBLEM OF ACCURACY OF CHECK MEASUREMENTS
IN CONSTRUCTION WORK
Summary
In the paper are presented problems of estimation of check measurements accuracy. The
work presents method of criterion of deviations of dimensions was introduced in support about
supervisory measurements. Derived formulae for calculations of dimensional tolerance of probability in dependence to deviation, tolerance and measurements errors. Author presents of possibility of using of adjustment of data from supervisory measurements by the last square method to
determination of deviations and estimation of accuracy of position points. Probability diagram
presents dependence of two variables: ∆L/T and T/mL, which help obtain information about requirement measurements accuracy. Author contained development formulae to calculate the probability, that the result of control survey confirms the tolerance of demanded value to have been
attained in the true survey. As an example there were used data from check measurements executed by polar survey.
Złożono w Oficynie Wydawniczej w listopadzie 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Aleksandra PROKOPSKA
Politechnika Rzeszowska
KONCEPCJA ARCHITEKTONICZNA ROZBUDOWY
I MODERNIZACJI ISTNIEJĄCEGO BUDYNKU
Praca dotyczy opisu koncepcji projektu architektonicznego modernizacji i rozbudowy istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska Politechniki Rzeszowskiej. Podjęto wybrane praktyczne i teoretyczne aspekty interdyscyplinarnych problemów projektowych i realizacyjnych architektury w środowisku miejskim.
1. Wprowadzenie
Architektura, posiadając wartości ponadczasowe, praktycznie wyrasta
z rzemiosła, jest obrazem epoki, w której powstaje. Jedna z wielu istniejących
i funkcjonujących definicji architektury mówi o tym, że architektura jako sztuka
lub nauka o budownictwie i o budowanych rzeczach dotyczy stylu budowania
i konstrukcji. Inżynieria, materiały i techniki budowania są narzędziami w kreowaniu architektury i wywierają na nią niepodważalny wpływ. Architektura jest
obrazem epoki, w której powstaje, gdyż jest uwarunkowana konkretnym etapem
technicznego, społecznego i cywilizacyjnego rozwoju, otoczeniem, naturalnym
środowiskiem, wraz z materiałami (w tym budowlanymi), jakie można w nim
odnaleźć lub stworzyć szeroko pojętą tradycją i poszukiwaniem przez człowieka
jego tożsamości [1, 2], a w końcu twórczą kreatywnością projektanta. Współczesna architektura polska i proces zmian charakteru miast polskich jako układów
funkcjonalnych w przestrzeni, związany z permanentną rozbudową i modernizacją ich elementów jest napędzany wigorem procesów wolnorynkowych.
Proponowaną koncepcję architektoniczną rozbudowy i modernizacji istniejącego budynku znajdującego się w terenie miejskim zrealizowano zgodnie z
przekonaniem, że architektura jest sztuką organizacji i kształtowania przestrzeni
środowiska życia człowieka, w tym również środowiska miejskiego. Jest to pogląd pozostający w zgodzie ze współczesną wiedzą architektoniczną, metodologią projektowania, wiedzą prakseologiczną oraz ekologią, szczególnie ekologią
miasta. Omawiana w artykule i zaprezentowana w formie graficznej koncepcja
architektoniczna wynika z wielości analizowanych uwarunkowań architektonicznych i wielodyscyplinowych i podlega im. Koncepcja ta jednocześnie w
94
A. Prokopska
ujęciu syntetycznym prezentuje, zgodnie z definicją architektury sformułowaną
przez Witruwiusza, jedność formy (firmitas), funkcji (utylitas) i konstrukcji (venustas).
Przedstawiana przestrzenna koncepcja architektoniczna została zaprezentowana w formie projektu architektonicznego (rys. 1.) rozbudowy i modernizacji
istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska w Rzeszowie*. Projekt ten dostosowany został do konkretnej lokalizacji i środowiska
architektonicznego.
Rys. 1. Projekt architektoniczny rozbudowy i modernizacji istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska Politechniki Rzeszowskiej
Program użytkowy, zgodnie z którym opracowano przedstawiany projekt
rozbudowy i modernizacji istniejącego budynku P Wydziału Budownictwa
Politechniki Rzeszowskiej, został opracowany przez władze Uczelni. W projekcie tym nadbudowywana i rozbudowywana część budynku P, o kubaturze
15245,70 m3, mieści pomieszczenia dydaktyczne, tj. dużą, atrakcyjną przestrzennie salę audytoryjną, sale wykładowe, pracownie: komputerowe, rzeźby,
fotografii oraz modelarnie, a także pomieszczenia dla pracowników naukowodydaktycznych, technicznych i administracyjnych.
Projektowana modernizacja, rozbudowa i dobudowa istniejącego budynku
jest związana z możliwością poszerzenia kształcenia na Wydziale o nowy kierunek: architektura.
*
Projekt został opracowany przez autorkę pracy. Jest to wyróżniona praca konkursowa ogłoszonego w 1998 r. przez Politechnikę Rzeszowską konkursu architektonicznego na projekt rozbudowy i modernizacji istniejącego budynku Wydziału Budownictwa i Inżynierii Środowiska
w Rzeszowie.
Koncepcja architektoniczna ...
95
2. Wybrane elementy projektu
Plan zagospodarowania przestrzennego
Plan ten (rys. 2.), na bazie aktualnego planu zagospodarowania przestrzennego istniejącego budynku, opracowano w skali 1:500. Działka jest terenem
płaskim, wyposażonym w infrastrukturę techniczną.
Rys. 2. Plan zagospodarowania przestrzennego
Przedstawiana na działce koncepcja architektoniczna obejmuje projekt nadbudowy istniejącego budynku P o dwie kondygnacje oraz projekt dobudowy
segmentu do budynku P od jego strony północno-wschodniej (rys. 3.).
Projekt ten zakłada rozbudowę i modernizację, łącznie o około 4350 m2 dodatkowej powierzchni w odniesieniu do istniejącego budynku. Zaprojektowane
„cofnięcie” głównego wejścia do projektowanego budynku (rys. 2., 4.) w stosunku do istniejącej krawędzi jezdni, gwarantuje bezkolizyjność i bezpieczeństwo ruchu ulicznego oraz przemieszczania się użytkowników projektowanego
budynku. W szczególności przestrzeń dzieląca wejście do budynku od krawędzi
pasa jezdni umożliwia swobodne i bezpieczne zatrzymywanie się oraz wejście i
nagłe wyjście dużej liczby studentów z i do budynku.
96
A. Prokopska
a)
b)
Rys. 3. Projektowany obiekt Wydziału Budownictwa i Inżynierii Środowiska: a) elewacja główna,
b) widok tej samej oświetlonej elewacji w godzinach popołudniowych
Rys. 4. Rzut poziomy parteru; widoczne wejście główne i dobudowywana część obiektu
Koncepcja architektoniczna ...
97
Łukowaty kształt dobudowywanej części budynku wynika z dostosowania
się bryły części dobudowywanej do istniejącego układu ulic i kształtu powierzchni przeznaczonej na dobudowę (rys. 1., 3., 5–8), czyli wynika z dostosowania się do istniejącego środowiska architektonicznego. Decyzja ta miała
bezpośredni wpływ na kształtowanie bryły audiowizualnej sali wykładowej zaprojektowanej w formie żelbetowej muszli jako konstrukcji wylewanej na mokro (rys. 1.).
Rys. 5. Przekrój pionowy przez dobudowywaną część budynku; widok sali i przestrzeni pod salą
audiowizualną
Rys. 6. Elewacja zachodnia projektowanego budynku Wydziału Budownictwa i Inżynierii Środowiska
98
A. Prokopska
Rys. 7. Elewacja wschodnia projektowanego budynku Wydziału Budownictwa i Inżynierii Środowiska z widocznymi w konstrukcji stalowej zadaszeniami umożliwiającymi realizacje "ogrodu na
dachu"
Rys. 8. Przekrój pionowy przez salę audiowizualną i część pomieszczeń znajdujących się nad salą:
w przekroju są widoczne zadaszenia na płaskim dachu budynku, ich kształt umożliwia montaż
baterii słonecznych
Plan zagospodarowania przestrzennego (rys. 2.) przewiduje: w układzie
funkcjonalnym dojścia i przejścia piesze, miejsca parkingowe od strony południowo-wschodniej oraz tereny zielone – rekreacyjne.
Koncepcja architektoniczna ...
99
Organizacja przestrzeni
Projektowana główna sala audiowizualna obejmuje część przestrzeni pierwszego i drugiego piętra (rys. 9.). Nad tą salą zaprojektowano dwie kondygnacje,
przeznaczone na pokoje pracowników naukowych i administracyjnych oraz
małe sale wykładowe (rys. 8.).
Rys. 9. Fragment rzutu poziomego pierwszego piętra,
obejmujący rzut sali audiowizualnej wraz z przestrzennymi schodami ewakuacyjnymi,
prowadzącymi na parter budynku i do wyjścia
100
A. Prokopska
W części nadbudowywanej zachowano generalnie układ komunikacyjny
i funkcjonalny niższych, istniejących już kondygnacji. Na skraju bryły części
nadbudowywanej, nad istniejącym budynkiem zaprojektowano dodatkową klatkę schodową jako drogę ewakuacyjną (rys. 3.). Jest to klatka schodowa z wachlarzowymi schodami (rys. 4.). Do klatki schodowej prowadzi obszerny, wygodny przedsionek. Schody zaproponowano w konstrukcji żelbetowej, wylewane na mokro, z prefabrykowanymi spocznikami. Przedsionek zaprojektowany w
poziomie parteru został otoczony łukowatą kolorową (jasno-turkusową) szklaną
ścianą o konstrukcji samonośnej (lub inaczej samoniosącej) stalowej lub żelbetowej. Jest to widoczne na elewacji głównej projektowanego budynku (rys. 3.),
wykonanej w skali 1:100 i na rzucie poziomym parteru budynku (rys. 4.) wykonanym również w skali 1:100.
Na elewacjach: głównej, wschodniej i zachodniej (rys. 3., 6., 7.) oraz przekrojach pionowych (rys. 5., 8.) są widoczne świetliki na dachu, których kształt
dostosowany jest do sprawnego zainstalowania i efektywnego funkcjonowania
baterii słonecznych. Uzyskana w ten sposób energia wykorzystywana byłaby do
częściowego ogrzewania budynku w sezonie grzewczym.
Proponowane układy funkcjonalne oraz przestrzenne budynku są widoczne
na rysunkach rzutu poziomego parteru projektowanego budynku (rys. 4.) oraz
fragmentu rzutu poziomego pierwszego piętra (rys. 9.). Pozostała, nieprzedstawiana na załączonych rysunkach, część istniejąca budynku nie ulega w projekcie
zmianom. Część istniejąca, nadbudowa i dobudowa łączą się ze sobą, tworząc
spójną całość i sprawny układ funkcjonalny modernizowanego budynku.
Elewacje
Wszystkie powierzchnie elewacji budynku zaprojektowano ze szkła odblaskowego, według technologii firmy Reconal. Rzuty, przekroje i elewacje wykonano w skali 1:100. Detale elewacji dotyczące szczegółów rozwiązań technicznych i materiałów elewacyjnych zostały przedstawione w skali 1:5 (rys. 10.). Są
to „szczegóły” proponowane i opracowane dla ściany zewnętrznej z nadprożem
okiennym i samej ściany. Ich wzajemne porównanie uwidacznia stosunkową
łatwość wykonania projektowanej elewacji przy zastosowaniu proponowanej
technologii. Proponowane w rozwiązaniu materiały to różnej klasy beton i/lub
stal, szkło elewacyjne (technologia firmy Reconal) w kolorze na przemian jasnym i ciemnym turkusowym, współgrającym z otoczeniem projektowanego
budynku.
Elewacja frontowa modernizowanego nadbudowanego i rozbudowywanego
budynku została zaprojektowana atrakcyjnie przestrzennie i jednocześnie zgodnie z wcześniejszą ekspertyzą budowlaną dotyczącą stanu technicznego konstrukcji tego budynku (rys. 11.).
Koncepcja architektoniczna ...
101
Rys. 10. Szczegóły techniczne dotyczące
części szklanej fasady budynku zaproponowane zostały do realizacji w technologii Reconal
Rys. 11. Fragment elewacji nadbudowywanej i istniejącej wzmacnianej; widoczna ozdobna „krata” żelbetowa do wysokości trzech pięter
istniejącego budynku i dwa pasy szklanej fasady dwóch pięter nadbudowy
102
A. Prokopska
Wybrane problemy konstrukcyjne i architektoniczne
przedstawianej koncepcji
Projekt konstrukcji części nadbudowywanej wykonany zgodnie z ekspertyzą zleconą przez Politechnikę Rzeszowską proponuje wzmocnienie konstrukcji
budynku, głównie przez wzmocnienie fundamentów w części podpiwniczonej
budynku i słupków międzyokiennych. Wzmocnienie słupków międzyokiennych
zaproponowano w postaci ozdobnej żelbetowej „kraty przestrzennej”, czyli
układu konstrukcyjnego będącego elementem przestrzennym wysuniętym poza
linię istniejącej elewacji na około 30–50 cm, do wysokości trzech istniejących
pięter (rys. 3., 11.). Zgodnie z przedstawianą koncepcją architektoniczną elementy kraty żelbetowej byłyby związane z konstrukcją nośną budynku, np. na
poziomie stropów, i wzmacniałyby całość konstrukcji istniejącego budynku.
Wszystkie elementy poziome i wszystkie elementy pionowe tego nośnego układu kratowego, zrealizowanego w konstrukcji żelbetowej mogłyby posiadać te
same wymiary. Ta proponowana krata żelbetowa grubości np. 50 cm przebiegałaby przez trzy kondygnacje po zewnętrznej powierzchni elewacji (rys. 11.)
istniejącego budynku, wzmacniając ją, i posadowiona byłaby na osobnym fundamencie. W efekcie, z architektonicznego punktu widzenia ta żelbetowa konstrukcja przestrzenna stałaby się pretekstem do aranżacji nowej interesującej
elewacji (rys. 4. i 11.). Proponowane wzmocnienie składa się z widocznych na
elewacji dwóch typów prostokątnych żelbetowych elementów wstawianych
w omawianą konstrukcję kratową i powiązanych z konstrukcją nośną (np.
z wieńcami stropów) istniejącego budynku. Rozwiązanie to wyraźnie uatrakcyjnia istniejącą monotonną elewację i jednocześnie pozwala na bezpieczną nadbudowę i eksploatację istniejącego budynku. Przedstawiane rozwiązanie wymaga
szczegółowych opracowań technicznych, konstrukcyjnych i plastycznych, których prezentowany projekt nie obejmuje. Warto jednak wspomnieć, że rozwiązanie to można wykorzystać do nieznacznego powiększenia wybranych istniejących po tej stronie budynku pokoi. Są to w większości pokoje przeznaczone dla
pracowników Wydziału. Poszerzenie owych wnętrz wynika z odsunięcia części
powierzchni elewacji i budowy nowej ściany osłonowej. Jednocześnie to działanie umożliwia racjonalną technicznie realizację dodatkowego, brakującego układu wodociągowego na kolejnych piętrach istniejącego budynku. Opisana inwestycja w dużym stopniu podniosłaby komfort użytkowników (w tym komfort
cieplny uzyskany przez realizację nowej ściany osłonowej zgodnie z obowiązującą normą cieplną) i zapewniłaby większą higienę pracy użytkowników budynku.
W elewacji (rys. 3.), po jej lewej stronie, jest widoczna forma żelbetowej
muszli oparta na żelbetowych słupach. Kształt muszli widoczny byłby dla przechodniów za półprzeźroczystą szklaną ścianą. Zróżnicowany wygląd wypukłej
elewacji w godzinach przedpołudniowych i godzinach popołudniowych podnosi
atrakcyjność estetyczną projektowanej bryły budynku. Prezentują to dwie wersje
Koncepcja architektoniczna ...
103
elewacji głównej budynku. Szklana ściana w tej elewacji mogłaby być zrealizowana np. jako aluminiowa konstrukcja samonośna. Dalej, na tej samej elewacji
głównej, w centrum budynku (rys. 3.) znajduje się przekryty szkłem owalny
przedsionek wejścia głównego o konstrukcji żelbetowej (rys. 4.). Na skraju budynku (rys. 3.), po prawej stronie jest widoczny fragment wejścia bocznego.
Wejście to składa się z zaprojektowanej dodatkowo żelbetowej (np. wylewanej
na mokro) klatki schodowej „zamkniętej w szklanej tubie”, czyli otoczonej
szklaną ścianą, oraz owalnego parterowego przedsionka również osłoniętego,
tak jak wcześniej omawiany, ścianą ze szkła refleksyjnego.
Kształt i wnętrze sali audiowizualnej
oraz układy funkcjonalne I i II piętra
Wnętrze zaprojektowanej sali audiowizualnej o kolistym kształcie muszli
żelbetowej, tworzącej ciekawą atmosferę, połączone zostało w spójny układ
funkcjonalny przestrzennymi schodami ewakuacyjnymi z parterem części dobudowywanej.
Indywidualny charakter przestrzeni parteru (rys. 8., 12., 13.) tworzy:
• spód muszli, czyli dolna powierzchnia żelbetowej konstrukcji muszli,
• zaprojektowane ozdobne, przestrzenne, jednobelkowe schody o konstrukcji żelbetowej, stanowiące istotny element aranżacji wnętrza, ułatwiający jednocześnie natychmiastową, sprawną ewakuację użytkowników sali wykładowej,
• szklana ściana samonośna.
Rys. 12. Widok wnętrza parteru dobudowywanej części budynku;
owalna szklana ściana, „spód” muszli żelbetowej i schody przestrzenne
tworzące klimat wnętrza
104
A. Prokopska
Rys. 13. Szkic aranżacji wnętrza parteru
budynku – dobudowa (odręczny szkic autorki pracy)
Zaprojektowany kształt sali audiowizualnej decyduje o jej dobrej akustyce,
atmosferze i atrakcyjności oraz o równie atrakcyjnej przestrzeni wnętrza parteru
budynku. Ta część budynku jest otoczona szklaną ścianą samonośną. W tej
dwukondygnacyjnej przestrzeni parteru (części dobudowywanej do istniejącego
budynku) zaprojektowano powierzchnię ekspozycyjną i barową oraz zaplecze
widoczne na rys. 8. Przestrzeń w części najniższej (lecz zgodnej z normami budowlanymi i architektonicznymi) przeznaczono na bary wraz z zapleczem.
Realizacja
Projekt umożliwia realizację modernizacji w co najmniej dwóch etapach**.
Pierwszy z nich obejmowałby realizację szybu windowego oraz części dobudowywanej. Drugi etap obejmowałby wzmocnienie konstrukcji istniejącego budynku oraz jego nadbudowę.
**
W zakresie przedstawień graficznych, jak i w zakresie wymiarowania, załączone do artykułu
rzuty i przekroje projektowanego obiektu nie są wykonane zgodnie z funkcjonującymi obecnie
w Polsce (jedynie w formie fakultatywnej) przepisami normowymi. Wspomniana fakultatywność,
czyli nieobligatoryjność, owych zaleceń normowych pozwala na ich ominięcie przy akceptacji
stron posługujących się graficznymi elementami dokumentacji projektowej, co w niniejszej pracy
uczyniono. Nie zmienia to jednak faktu, że wraz z rozwojem technik i technologii budowlanych
oraz wzrostem poziomu dokładności wykonawstwa w budownictwie wspomniane zalecenia normowe będą nabierać coraz większego praktycznego znaczenia.
Koncepcja architektoniczna ...
105
Możliwe modyfikacje
Istnieje możliwość modyfikacji koncepcji architektonicznej i rozbudowy
przedstawianego projektu (rys. 14., 15.). Jest możliwe zaprojektowanie dodatkowych mniejszych audiowizualnych sal wykładowych na piątym i szóstym
piętrze w części dobudowywanej. Sal tych nie zaprojektowano ze względu na
kubaturowe ograniczenia konkursowe. Zmiana proporcji projektowanej (jako
dobudowa) bryły, czyli jej wypiętrzenie nie wpływa na zmniejszenie jej atrakcyjności przestrzennej (rys. 16.).
Rys. 14. Wariantowe rozwiązanie projektowe, przy zachowaniu wcześniej przyjętych w projekcie zasad oraz rozwiązań konstrukcyjnych
i funkcjonalnych
Rys. 15. Kolejna możliwa modyfikacja przyjętego wcześniej rozwiązania przestrzennego
106
A. Prokopska
Rys. 16. Wariant rozwiązania architektonicznego z przyjętą sześciokondygnacyjną dobudową, skutkującą zmianą kubatury i proporcji
projektowanej bryły oraz rozbudową jej funkcji użytkowych (np.
o następne sale wykładowe), lecz niezmieniającą koncepcji proponowanego rozwiązania przestrzennego
3. Podsumowanie
Współcześnie i w przeszłości tkanka miejska poddawana jest i była nieustannym procesom przemian i przekształceń. Współczesna teoria i praktyka
projektowania architektonicznego oraz konstrukcyjnego pozwalają w coraz
większym stopniu zrozumieć procesy zachodzące w przestrzeni oraz dobierać
narzędzia kształtowania i zarządzania środowiskiem architektonicznym w sposób najpewniej prowadzący do zaspokojenia określonych potrzeb indywidualnych i społecznych oraz osiągnięcia założonego celu projektowego [1–5]. Przykładem wieloaspektowych problemów tego typu przekształceń, związanych
również z możliwościami i graniczeniami współczesnych technologii budowlanych jest przedstawiana koncepcja zrealizowana w postaci projektu architektonicznego.
Elementy składowe tego proponowanego do realizacji projektu wraz
z omawianą muszlą żelbetową tworzą harmonijną całość architektoniczną, konstrukcyjną i funkcjonalną. Jest to przykład rozwiązania architektonicznego zachowującego jedność i spójność formy, funkcji i konstrukcji.
Projekt ten, m.in. ze względu na obszerną żelbetową muszlę audytoryjną,
pozostaje atrakcyjny przestrzennie i aktualny ze względu na istniejące potrzeby
środowiska akademickiego. Koncepcja ta proponuje wystarczająco dużą, repre-
Koncepcja architektoniczna ...
107
zentacyjną i funkcjonalną salę mogącą pomieścić większość społeczności akademickiej, nie tylko w dniu inauguracji nowego roku akademickiego, ale i z
innych równie ważnych powodów.
Literatura
[1] Prokopska A.: Morfologia dzieła architektonicznego. Analiza metodologiczna wybranych morfologicznych układów środowisk naturalnego i architektonicznego.
Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 2002
[2] Prokopska A.: Interdyscyplinarny proces projektowania architektonicznego na wybranych przykładach. VII Vedecka konferencia s medzinarodnou ucastou, Technicka Univerzita w Kosiciach, 22-24 maja 2002 r.
[3] Prokopska A.: Zastosowanie metody analizy morfologicznej w projektowaniu
architektonicznym na przykładzie twórczości Le Corbusiera. Oficyna Wydawnicza
Politechniki Rzeszowskiej, Rzeszów 1997
[4] Cross N., Naughton J., Walker D.: Design method and scientific method. Design
Studies, Vol. 2, No 4, 1981
[5] Gawłowski J.T.: Propozycja przyszłościowych systemów zagospodarowania obszarów GOP. W: Modelowe formy zagospodarowania Górnośląskiego Okręgu
Przemysłowego, Tom 1., Ossolineum, Wrocław-Warszawa-Kraków 1979
CONCEPTION ARCHITECTURAL DESIGN MODERNIZATION
AND DEVELOP OF BUILD
Summary
This work is about concept architectural design modernization of build Civil Engineering
and Environmental Department of Rzeszow University of Technology. Undertake and analysis of
selected different interdisciplinary aspects environment architectural.
Złożono w Oficynie Wydawniczej w lutym 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Grzegorz PROKOPSKI
Politechnika Rzeszowska
Jacek HALBINIAK
Bogdan LANGIER
Politechnika Częstochowska
WPŁYW CZASU DOJRZEWANIA
NA WŁAŚCIWOŚCI BETONU ŻWIROWEGO
Przedstawiono wyniki badań betonu żwirowego klasy B40 oraz betonu wysokowartościowego (BWW) po 7, 14, 28 i 90 dniach dojrzewania. Określono zależności wytrzymałości na ściskanie fc, odporności na pękanie KSIc oraz modułu Younga
E od wieku betonów*.
1. Wprowadzenie
W praktyce wytrzymałość betonu jest określana tradycyjnie po upływie
28 dni, także niektóre inne właściwości betonu są często odnoszone do 28-dniowej wytrzymałości. Taki sposób podejścia nie ma naukowego uzasadnienia;
28 dni stanowi pewną cezurę czasową w procesie wykonawczym – na placu
budowy oraz służy do tego, aby te same cechy różnych betonów mogły być porównywane. W czasach kiedy ustaliło się badanie betonów, po 28 dniach dojrzewania cementy uzyskiwały powoli końcową wytrzymałość i dlatego badania
prowadzono po upływie czasu, po którym zaszła już znacząca część procesu
hydratacji cementu.
W nowoczesnych cementach portlandzkich szybkość hydratacji jest znacznie większa niż w przeszłości, co wynika głównie ze znacznie większej powierzchni właściwej tych cementów oraz większej zawartości C3S. Także stosowanie we współczesnych betonach dodatków (np. pyłu krzemionkowego)
i domieszek w postaci różnego rodzaju plastyfikatorów, polepszających urabialność mieszanek (możliwe jest więc zmniejszenie w/c), spowodowało uzyskiwanie betonów o znacznie większej wytrzymałości, przy znacznie większej dynamice przyrostu wytrzymałości w czasie [1].
*
Pracę zrealizowano w ramach projektu badawczego KBN nr 8 T07E 023 20 pt. „Zastosowanie
metod badawczych inżynierii materiałowej do oceny właściwości betonów w procesie ich dojrzewania”.
110
G. Prokopski i inni
Znajomość zależności wytrzymałość–czas jest ważna wtedy, gdy konstrukcja ma być oddana do użytku, czyli poddana pełnym obciążeniom, w późniejszym czasie. Wówczas w projektowaniu może być brany pod uwagę przyrost
wytrzymałości po okresie 28 dni, natomiast w przypadku prefabrykacji czy
w konstrukcjach sprężonych lub też, gdy wymagane jest wczesne usunięcie deskowań, niezbędna jest znajomość wytrzymałości we wczesnym wieku (przed
upływem 28 dni).
Sformułowanie ogólnych zależności dotyczących właściwości betonów
w procesie dojrzewania jest zagadnieniem złożonym, ponieważ są one funkcją
wielu czynników, z których główne to: rodzaj cementu i kruszywa, stosunek
wodno-cementowy i warunki pielęgnacji betonu [2]. Dane literaturowe podają
zależność między stosunkiem wodno-cementowym i wytrzymałością betonu dla
jednego cementu i określonego wieku betonu.
Według artykułu [3] cementy portlandzkie produkowane na początku
XX w. (o dużej zawartości C2S i małej powierzchni właściwej) zapewniały
wzrost wytrzymałości betonów przechowywanych na zewnątrz proporcjonalnie
do logarytmu wieku betonu aż do 50 lat. Wytrzymałość 50-letnia betonów wykonanych z tych cementów była 2,4 razy większa od wytrzymałości
28-dniowej. Betony wykonywane z cementów produkowanych od lat 30. XX w.
(o mniejszej zawartości C2S i dużej powierzchni właściwej) osiągały największą
wytrzymałość po okresie 10–25 lat, a następnie traciły na wytrzymałości.
Stwierdzono także [4], że względny przyrost wytrzymałości był większy
w przypadku betonów wykonywanych przy większym w/c.
Bardzo rzadkie są prace zmierzające do określenia związków między właściwościami betonu, a jego strukturą, także znacząco zmieniającą się w procesie
dojrzewania. Poznanie zależności ilościowych występujących pomiędzy strukturą i właściwościami daje możliwość ingerencji w strukturę w taki sposób, aby
uzyskiwać materiał o oczekiwanych właściwościach.
W ostatnich dwudziestu latach badania wytrzymałościowe betonów są coraz częściej wykonywane z zastosowaniem parametrów mechaniki pękania,
takich jak krytyczne wartości współczynnika intensywności naprężeń Kc, rozwarcia szczeliny CTODc, energii pękania Gc. Parametry mechaniki pękania są
określone na podstawie rzeczywistej wartości naprężeń w chwili zniszczenia,
czyli w momencie propagacji najdłuższej bądź najostrzejszej szczeliny znajdującej się w materiale. Stanowią one podstawę do określenia zależności między
wytrzymałością betonu, a jego strukturą. Struktura może być analizowana
w sposób ilościowy na podstawie badań stereologicznych prowadzonych na
płaskich przekrojach i badań morfologii powierzchni przełomów (z użyciem
wymiaru fraktalnego D czy stopnia rozwinięcia linii profilowych przełomu RL)
oraz jakościowy z zastosowaniem mikroskopii skaningowej. Badania przedstawione w niniejszej pracy zmierzają do uzyskania danych określających zmiany
odporności na pękanie betonów, jak również ich wytrzymałości na ściskanie
Wpływ czasu dojrzewania na właściwości betonu ...
111
w procesie dojrzewania. Badania te mają duże znaczenie poznawcze i są szczególnie istotne wobec obecnego, gwałtownego rozwoju betonów nowej generacji
(z dodatkami i domieszkami), których odpowiednie wykorzystanie (w mostownictwie, drogownictwie, budownictwie przemysłowym i in.) będzie zależeć od
rozpoznania ich właściwości w procesie niszczenia, w trakcie propagacji szczelin, których istnienie w betonach jest nieuniknione.
2. Cel i zakres badań
Celem badań było określenie właściwości wytrzymałościowych betonów
z kruszywa żwirowego: klasy B40 oraz betonu wysokowartościowego w trakcie
ich dojrzewania. Badania wytrzymałości na ściskanie i odporności na pękanie
oraz badania mikrostrukturalne w obszarze warstwy przejściowej kruszywo
żwirowe–zaczyn cementowy, przeprowadzono po 7, 14, 28 i 90 dniach dojrzewania. Badania wytrzymałości na ściskanie prowadzono na kostkach o krawędzi
0,15 m (5 sztuk w serii), natomiast badania odporności na pękanie według I modelu pękania (rozciąganie przy zginaniu), zgodnie z artykułem [3], na beleczkach o wymiarach 0,08 x 0,15 x 0,70 m z jedną szczeliną pierwotną, odwzorowaną w środku rozpiętości (po 6 sztuk w serii).
Badania wytrzymałości na ściskanie przeprowadzono na maszynie wytrzymałościowej ZWICK o nacisku 3000 kN. Wyniki badań wytrzymałości na ściskanie podano w tab. 1.
Tabela 1. Wyniki badań wytrzymałości na ściskanie
Wytrzymałość
na ściskanie
fc [MPa]
Wartość średnia fcm ±δ
Wytrzymałość
na ściskanie
fc [MPa]
Wartość średnia fcm ±δ
Beton zwykły B40 – okres dojrzewania [dni]
7
14
28
90
36,2
38,8
45,7
64,5
35,7
38,5
44,8
62,7
35,3
38,1
44,6
61,0
35,1
37,8
44,2
55,8
34,6
37,4
42,7
54,5
38,1 ± 0,5
44,4 ± 1,0
59,7 ± 1,0
35,4 ± 0,5
Beton wysokowartościowy – okres dojrzewania [dni]
7
14
28
90
80,2
84,5
89,2
94,9
79,8
83,5
88,5
93,3
78,2
82,6
87,9
93,3
77,9
81,5
87,5
91,2
77,0
80,4
86,9
89,6
82,5 ± 1,4
88,0 ± 0,8
92,5 ± 1,8
78,6 ± 1,2
112
G. Prokopski i inni
Betony wykonano z kruszywa żwirowego 2–16 mm z ZEK Glinica, piasku
0–2 mm z Antonówki i cementu portlandzkiego CEM I 32,5R i CEM I 42,5R
z cementowni Rudniki.
Masy składników w 1 m3 mieszanki betonowej były następujące:
Beton zwykły B40
Beton wysokowartościowy
Kruszywo – 1900 kg
Kruszywo – 1875 kg
Cement CEM I 32,5R – 345 kg
Cement CEM I 42,5R – 460 kg
Woda – 165,5 kg
Woda – 147,5 kg
Punkt piaskowy mieszanki
Mikrokrzemionka – 34,5 kg
kruszywa 30%
Plastyfikator Addiment BV-34 –
10,12 kg
Punkt piaskowy mieszanki
kruszywa 30%
3. Badania odporności na pękanie
Badania odporności na pękanie przeprowadzono na maszynie wytrzymałościowej ze sprzężeniem zwrotnym MTS 810. W badaniach tych, wykonywanych
według I modelu (rozciąganie przy zginaniu), prowadzonych zgodnie z projektem zaleceń RILEM [5], określano wartości krytyczne: współczynnika intensywności naprężeń K IcS , rozwarcia szczeliny CTODc i długości rysy ac. Badaniom odporności na pękanie poddawano próbki o wymiarach 80 x 150 x
x 700 mm z jedną szczeliną pierwotną (rys. 1.). Szybkość obciążania próbek
była tak dobrana, aby obciążenie maksymalne zostało osiągnięte w ciągu około
5 minut. Przyłożone obciążenie było następnie zmniejszane (odciążanie), gdy
przekroczyło maksimum i wynosiło około 95% obciążenia maksymalnego. Po
zmniejszeniu obciążenia do zera ponownie cyklicznie obciążano próbkę.
Rys. 1. Schemat próbki użytej
w badaniach według I modelu,
HO – grubość uchwytu sprawdzianu zaciskowego, CMOD –
przemieszczenie rozwarcia wylotu szczeliny, P – siła
Wpływ czasu dojrzewania na właściwości betonu ...
113
W trakcie badań, dla każdej próbki rejestrowano wykres siły obciążającej
w funkcji przemieszczenia wylotu szczeliny (CMOD). Przykładowy wykres
CMOD – obciążenie próbki przedstawia rys. 2.
Rys. 2. Przykładowy wykres CMOD – obciążenie
Na podstawie uzyskanych wykresów wyznaczono dla każdej próbki wartości krytycznego współczynnika intensywności naprężeń K IcS oraz krytycznego
rozwarcia wierzchołka szczeliny CTODc.
Krytyczny współczynnik intensywności naprężeń K IcS obliczono z zależności [5]:
K IcS = 3 ( Pmax + 0.5w )
S ( Π ⋅ ac )
1/ 2
⋅ F (α )
2 ⋅W ⋅ b
w której:
F (α ) =
(
1,99 − α (1 − α ) 2,15 − 3,93α + 2,7α 2
Π1/ 2 ⋅ (1 + 2α )(1 − α )
gdzie:
Pmax – maksymalne obciążenie,
α = ac/W,
w = WoS/L,
Wo – ciężar własny próbki [N],
S, ao, W, b, L – zgodnie z rys. 1.
3/ 2
)
114
[5]:
G. Prokopski i inni
Krytyczne rozwarcie wierzchołka szczeliny CTODc określono z zależności
CTODc =
6Pmax ⋅ S ⋅ acV1(α)
[(1 − β )2 + (1,081 −1,149α)(β − β 2 )]1/ 2
2
EW b
gdzie:
β = ao/a,
ao – długość szczeliny pierwotnej.
Wyniki badań odporności na pękanie podano w tab. 2.
Tabela 2. Wyniki badań odporności na pękanie
Beton zwykły z kruszywa żwirowego – 7-dniowy
Numer próbki
Z 7- 1
Z 7 -2
Z7-3
Z7-4
Z7-5
Z7-6
Wartość średnia ±δ
E [GPa]
24,77
18,74
18,72
19,33
26,41
23,62
21,9 ± 3,4
ac [mm]
112,2
81,9
101,0
110,9
107,7
99,6
112,0 ± 15,5
CTODc ⋅103 [mm]
26,6
19,2
23,0
24,6
26,2
24,0
23,9 ± 2,3
KSIc [MN/m3/2]
1,90
1,00
1,18
1,43
1,98
1,53
1,50 ± 0,39
Beton zwykły z kruszywa żwirowego – 14-dniowy
Numer próbki
Z 14 - 1
Z 14 - 2
Z 14 - 3
Z 14 - 4
Z 14 - 5
Z 14 - 6
Wartość średnia ±δ
E [GPa]
25,68
30,47
30,92
31,63
29,63
32,20
30,1 ± 2,3
ac [mm]
119,2
104,7
107,9
113,3
93,7
94,6
105,6 ± 10,1
CTODc ⋅103 [mm]
21,1
26,1
25,9
25,4
25,0
22,5
24,3 ± 2,0
KSIc [MN/m3/2]
1,75
2,19
2,25
2,37
1,98
1,95
2,08 ± 0,23
Beton zwykły z kruszywa żwirowego – 28-dniowy
Numer próbki
Z 28 - 1
Z 28 - 2
Z 28 - 3
Z 28 - 4
Z 28 - 5
Z 28 - 6
Wartość średnia ±δ
E [GPa]
36,58
29,85
30,72
35,17
34,85
32,66
33,3 ± 2,7
ac [mm]
111,4
95,7
99,3
118,3
114,1
112,8
108,6 ± 9,0
CTODc ⋅103 [mm]
23,7
23,1
25,7
23,7
22,7
25,1
23,9 ± 1,2
KSIc [MN/m3/2]
2,51
1,84
2,12
2,52
2,30
2,38
2,28 ± 0,26
Wpływ czasu dojrzewania na właściwości betonu ...
115
Tabela 2 (cd.)
Beton zwykły z kruszywa żwirowego – 90-dniowy
Numer próbki
Z 90 - 1
Z 90 - 2
Z 90 - 3
Z 90 - 4
Z 90 - 5
Z 90 - 6
Wartość średnia ±δ
E [GPa]
35,21
34,86
29,63
33,87
36,75
34,24
34,1 ± 2,4
ac [mm]
104,4
107,6
114,6
114,6
108,5
104,5
109,0 ± 4,1
CTODc ⋅103 [mm]
31,8
32,6
37,3
30,6
32,7
32,4
32,9 ± 1,8
KSIc [MN/m3/2]
3,10
3,21
3,35
3,14
3,43
3,07
3,22 ± 0,14
Beton wysokowartościowy z kruszywa żwirowego – 7-dniowy
Numer próbki
WZ 7- 1
WZ 7 -2
WZ 7 - 3
WZ 7 - 4
WZ 7 - 6
Wartość średnia ±δ
E [GPa]
33,55
49,95
49,29
31,54
49,29
42,7 ± 9,3
ac [mm]
66,7
95,0
81,4
71,4
81,1
79,1 ± 10,9
CTODc ⋅103 [mm]
15,8
23,3
19,7
24,0
19,9
20,5 ± 3,3
KSIc [MN/m3/2]
1,67
2,93
2,52
2,19
2,56
2,37 ± 0,47
Beton wysokowartościowy z kruszywa żwirowego – 14-dniowy
Numer próbki
WZ 14 - 1
WZ 14 - 2
WZ 14 - 3
WZ 14 - 4
WZ 14 - 5
WZ 14 - 6
Wartość średnia ±δ
E [GPa]
43,81
44,96
38,43
38,51
47,31
45,35
43,1 ± 3,7
ac [mm]
74,8
83,1
60,1
93,1
64,7
86,9
82,0 ± 14,0
CTODc ⋅103 [mm]
18,3
23,7
13,7
28,7
26,2
22,9
22,3 ± 5,4
KSIc [MN/m3/2]
2,21
2,75
2,05
2,77
3,12
2,64
2,59 ± 0,39
Beton wysokowartościowy z kruszywa żwirowego – 28-dniowy
Numer próbki
WZ 28 - 1
WZ 28 - 2
WZ 28 - 3
WZ 28 - 4
WZ 28 - 5
WZ 28 - 6
Wartość średnia ±δ
E [GPa]
53,24
32,86
37,86
34,53
53,43
55,20
44,5 ± 10,5
ac [mm]
78,3
86,7
90,0
101,6
110,1
104,5
95,1 ± 12,1
CTODc ⋅103 [mm]
16,3
29,1
28,5
31,1
25,0
23,4
25,6 ± 5,3
KSIc [MN/m3/2]
2,31
2,43
2,71
2,75
3,63
3,35
2,86 ± 0,52
116
G. Prokopski i inni
Tabela 2 (cd.)
BETON wysokowartościowy z kruszywa żwirowego – 90-dniowy
Numer próbki
WZ 90 - 1
WZ 90 - 2
WZ 90 - 3
WZ 90 - 4
WZ 90 - 5
WZ 90 - 6
Wartość średnia ±δ
E [GPa]
44,21
42,13
56,33
51,88
47,85
54,77
49,5 ± 5,7
ac [mm]
105,1
85,1
97,3
91,3
81,2
111,1
95,2 ± 11,6
CTODc ⋅103 [mm]
30,1
25,7
27,4
22,2
21,0
24,6
25,2 ± 3,4
KSIc [MN/m3/2]
3,47
2,76
3,90
2,89
2,62
3,68
3,22 ± 0,53
Przeprowadzone badania wykazały, że w miarę dojrzewania betonów następował wzrost wszystkich badanych parametrów, tj. wytrzymałości na ściskanie, odporności na pękanie oraz modułu Younga.
W przypadku betonu B40 wzrost wytrzymałości na ściskanie nastąpił od
wartości 35,4 MPa (beton 7-dniowy) do wartości 44,4 MPa (beton 28-dniowy),
tj. o 25,4% i do wartości 59,7 MPa (beton 90-dniowy), wzrost o 68,6% w porównaniu do betonu po 7 dniach dojrzewania.
Beton wysokowartościowy uzyskał bardzo dużą wytrzymałość na ściskanie
już po 7 dniach dojrzewania – 78,6 MPa. Po 28 dniach dojrzewania wytrzymałość na ściskanie wyniosła 88,0 MPa (wzrost o 12%), a po 90 dniach 92,5 MPa,
wzrost o około 17,6% w porównaniu do betonu po 7 dniach dojrzewania. Wykresy porównawcze wytrzymałości na ściskanie fc obu betonów przedstawiono
na rys. 3.
Rys. 3. Zależność wytrzymałości na ściskanie od wieku betonu
Współczynnik intensywności naprężeń KSIc wykazał jeszcze większą wrażliwość na zmiany w strukturze dojrzewającego betonu, szczególnie w wypadku
Wpływ czasu dojrzewania na właściwości betonu ...
117
betonu B40. Wartość KSIc tego betonu po 7 dniach dojrzewania wynosiła
1,50 MN/m3/2, po 28 dniach jego wartość wyniosła 2,28 MN/m3/2 (wzrost
o 52%), a po 90 dniach 3,22 MN/m3/2 (wzrost o 114,7% w stosunku do wartości
KSIc betonu 7-dniowego).
W wypadku betonu wysokowartościowego wzrost KSIc nastąpił od wartości
2,37 MN/m3/2 (beton 7-dniowy) do wartości 2,85 MN/m3/2 (beton
28-dniowy), tj. o 20%, i do wartości 3,22 MN/m3/2 (beton 90-dniowy), wzrost
o około 36% w porównaniu do betonu 7-dniowego. Graficzną ilustrację zmian
współczynnika intensywności naprężeń KSIc w zależności od wieku betonu
podano na rys. 4.
Rys. 4. Zależność odporności na pękanie od wieku betonu
Wartość modułu Younga betonu B40 wyniosła 21,93 GPa po 7 dniach dojrzewania, po 28 dniach jego wartość wyniosła 33,30 GPa (wzrost o 51,9%),
natomiast po 90 dniach dojrzewania 34,10 GPa (wzrost o 55,5%) w stosunku
do betonu 7 dniowego.
Moduł Younga betonu wysokowartościowego wzrósł od wartości 42,72
GPa (beton 7-dniowy) do wartości 44,52 GPa dla betonu 28-dniowego (o 4,2%)
i do wartości 49,53 GPa (beton 90-dniowy), czyli o 15,9% w stosunku do betonu 7-dniowego.
Jak można zauważyć, procentowy przyrost wszystkich badanych parametrów między 7. i 90. dniem dojrzewania jest znacznie większy w przypadku
betonu B40 (o 68,6% w przypadku wytrzymałości na ściskanie, o 55,5%
w przypadku modułu Younga i aż o 114,7% w przypadku współczynnika intensywności naprężeń KSIc). Odpowiednie przyrosty tych parametrów w przypadku
betonu wysokowartościowego wyniosły: 17,6%, 15,9% i 20%. Zmiany wartości
modułu Younga w zależności od wieku betonu przedstawiono na rys. 5.
118
G. Prokopski i inni
Rys. 5. Zależność modułu Younga od wieku betonu
Znacznie mniejsze procentowe przyrosty badanych parametrów w przypadku betonu wysokowartościowego, aniżeli betonu B40, są spowodowane głównie
tym, że beton wysokowartościowy uzyskał bardzo duże wartości tych parametrów już po 7 dniach dojrzewania. Dalsze przyrosty wartości między 7. i 90.
dniem dojrzewania były nieznaczne.
Istotne znaczenie mają proporcje odpowiednich parametrów obu betonów,
które przy porównywaniu betonów 7- i 90-dniowych są następujące:
• stosunek wytrzymałości na ściskanie betonu wysokowartościowego do
wytrzymałości na ściskanie betonu B40 – fcBWW/fcB40, po 7 dniach dojrzewania – 2,16, a po 90 dniach dojrzewania – 1,55,
• stosunek modułów Younga EBWW/EB40 – odpowiednio 1,89 i 1,45,
• stosunek współczynników intensywności naprężeń KSIcBWW/KSIcB40 – odpowiednio 1,58 i 1,0.
Jak widać we wszystkich przypadkach po 90 dniach dojrzewania odnotowano dla betonu wysokowartościowego znacznie większe wartości badanych
parametrów, niż dla betonu B40 (poza współczynnikiem intensywności naprężeń
KSIc, który po 90 dniach dojrzewania miał taką samą wartość dla obu betonów).
Zmniejszanie się odpowiednich stosunków wartości badanych parametrów po 90
dniach dojrzewania w porównaniu do tych wartości uzyskanych po 7 dniach
dojrzewania wynika ze zmniejszania się różnic tych wartości, co jest spowodowane wolniej postępującym dojrzewaniem betonu B40.
Na rysunku 6. przedstawiono zmiany procentowe poszczególnych parametrów wytrzymałościowych w trakcie dojrzewania, przyjmując za 100% wartości
tych parametrów po 90 dniach. Wykres ilustruje wyraźnie odmienność zachowań obu betonów. W wypadku betonu B40 procentowe przyrosty są znaczące
w całym okresie trwania dojrzewania. Beton wysokowartościowy natomiast
uzyskał bardzo duże wartości badanych parametrów po 7 dniach dojrzewania
i dalsze przyrosty wartości były już nieznaczne.
Wpływ czasu dojrzewania na właściwości betonu ...
119
Rys. 6. Względne zmiany w czasie wartości badanych parametrów
4. Wnioski
Przeprowadzone badania wykazały silny wpływ czasu dojrzewania na uzyskiwane parametry wytrzymałościowe obu betonów żwirowych: B40 i wysokowartościowego. W badaniach stwierdzono uzyskiwanie znacznie większych
wartości badanych parametrów w przypadku betonu wysokowartościowego
(poza współczynnikiem intensywności naprężeń KSIc, który po 90 dniach dojrzewania w przypadku obu betonów miał tę samą wartość).
Badania wykazały ponadto znacznie większą dynamikę wzrostu wszystkich
parametrów betonu wysokowartościowego w pierwszych 7 dniach dojrzewania
(skutek dodania pyłu krzemionkowego i superplastyfikatora). Wytrzymałość na
ściskanie fc, odporność na pękanie KSIc i moduł Younga E po 7 dniach dojrzewania tego betonu wyniosły, w stosunku do końcowych wartości tych parametrów
po 90 dniach dojrzewania, odpowiednio: 85%, 73,6% i 86,3%. W przypadku
betonu B40 wartości tych parametrów po 7 dniach dojrzewania stanowiły odpowiednio 59,3%, 46,6% i 64,3% końcowych wartości tych parametrów (po 90
dniach dojrzewania).
Beton wysokowartościowy uzyskał zasadniczą część wartości badanych parametrów w ciągu pierwszych 7 dni dojrzewania, natomiast w przypadku betonu
B40 dojrzewanie następowało równomiernie, w trakcie całego okresu prowadzonych badań, tak też wzrastały wartości badanych parametrów wytrzymałościowych (rys. 6.).
Zastosowana procedura badawcza i uzyskane wyniki mogą być wykorzystane w praktyce inżynierskiej, zarówno przez projektantów konstrukcji, jak
i w procesie wykonawczym, szczególnie w tych wypadkach, kiedy istotna jest
znajomość właściwości wytrzymałościowych betonów po czasie krótszym niż
120
G. Prokopski i inni
tradycyjnie przyjęte 28 dni (gdy wymagane jest np. szybsze zdjęcie deskowań)
lub dłuższym (gdy konstrukcja będzie poddana pełnym obciążeniom
w okresie późniejszym), umożliwiającym projektantowi konstrukcji uwzględnienie większych wartości wytrzymałości betonu.
Literatura
[1] Prokopski G., Halbiniak J., Langier B.: Właściwości wytrzymałościowe betonu
wysokowartościowego w procesie jego dojrzewania. Przegląd Budowlany, 5, 2003
[2] Neville A.M.: Właściwości betonu. Polski Cement, 2000
[3] Washa G.W., Wendt K.F.: Fifty years properties of concrete. J. Amer.Concr.Inst.,
72(1), 1975
[4] Wood S.L.: Evaluation of the long-therm properties of concrete. ACI Materials
Journal, 88(6), 1991
[5] Determination of fracture parameters (KSIc and CTODC) of plain concrete using
three-point bend test. RILEM Draft Recommendations, TC 89 - FMT Fracture Mechanics of Concrete Test Methods. Materials and Structures, 23, 1990
INFLUENCE OF THE CURING TIME ON PROPERTIES
OF GRAVEL CONCRETE
Summary
The results of the investigations of the gravel concretes: the ordinary concrete (B40) and the
high strength concrete (HSC) had been showed. The examinations of concretes had been done
after 7, 14, 28 and 90 days curing. The realationships of the compressive strength fc, the stress
intensity factor KSIc and the Young’s modulus E versus the age of the concretes have been plotted.
Złożono w Oficynie Wydawniczej w marcu 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Adam RYBKA
Bogumiła DROZD
Politechnika Rzeszowska
KSZTAŁTOWANIE DOMÓW JEDNORODZINNYCH
WYKORZYSTUJĄCYCH ENERGIĘ SŁONECZNĄ
Praca obejmuje projekty architektoniczno-budowlane trzech domów jednorodzinnych, obliczenia bilansu cieplnego, omówienie systemów wykorzystujących energię słoneczną. Duży wpływ na energooszczędność projektowanego budynku ma
jego kształt, kubatura oraz zastosowanie aktywnych i pasywnych systemów słonecznych, a także odpowiednich przegród budowlanych.
1. Wprowadzenie
Potrzeby energetyczne w Polsce są zaspokajane głównie przez spalanie paliw kopalnych. Globalne zapasy konwencjonalnych źródeł energii: węgla, ropy
naftowej, gazu ziemnego oraz uranu są ograniczone. Bardzo ważnym problemem związanym z wykorzystywaniem tych surowców jest zanieczyszczenie
środowiska naturalnego produktami spalania oraz problem unieszkodliwiania
powstałych odpadów, zwłaszcza promieniotwórczych.
Obecnie coraz częściej sięga się po niekonwencjonalne źródła energii. Zaliczamy do nich: energię promieniowania słonecznego, energię kinetyczną powietrza i wód morskich, energię geotermiczną oraz energię z paliw niekonwencjonalnych. Są to źródła odnawialne i bezpieczne dla środowiska. Energia słoneczna stanowi atrakcyjne źródło energii ze względu na jej znaczny potencjał i powszechność występowania.
Polska położona jest w strefie klimatu umiarkowanego między 49 a 54,5°
szerokości geograficznej północnej. Warunki klimatyczne panujące w naszym
kraju pozwalają na wykorzystanie energii słonecznej do celów grzewczych
w budownictwie. Na terenie Polski roczne sumy promieniowania są podobne
jak na obszarach północnych i środkowych Niemiec, północnej Francji czy Danii [1].
Na obszarze Polski obserwuje się niewielkie różnice regionalne w zasobach
energii słonecznej, które prezentuje tab. 1. [2].
122
A. Rybka, B. Drozd
Tabela 1. Przeciętne roczne nasłonecznienie różnych regionów
Region Polski
Stołeczny
Suwalszczyzna
Podhale
Dolny Śląsk
Zamojszczyzna
Pas nadmorski
Przeciętna roczna dawka napromieniowania
słonecznego [RW⋅h/m2]
967
975
988
1030
1033
1064
Przeciętne roczne
usłonecznienie [h]
1580
1576
1467
1529
1572
1624
Na okres wiosenno-letni (kwiecień–wrzesień) w przeważającej części naszego kraju przypada około 80% promieniowania całkowitego. Wyjątek stanowią tereny górskie, w których udział promieniowania w okresie jesiennozimowym (październik–marzec) jest wyższy w stosunku do pozostałych obszarów kraju [3]. Promieniowanie całkowite jest sumą promieniowania bezpośredniego i rozproszonego, które z kolei są uzależnione od czynników miejscowych,
tj. szerokość geograficzna, klimat lokalny oraz zanieczyszczenie atmosfery.
2. Systemy pozyskiwania energii słonecznej wykorzystywane
w budownictwie jednorodzinnym
2.1. Klasyfikacja ogólna
Wyróżniamy następujące rodzaje systemów słonecznych:
1) czynne (aktywne), które zamieniają energię promieniowania słonecznego
na energię cieplną, w różnego typu urządzeniach instalacyjnych (w tym wypadku w transmisji energii bierze udział czynnik pośredniczący),
2) bierne (pasywne), które zamieniają energię promieniowania słonecznego
na energię cieplną, wykorzystując do tego celu tradycyjne lub nowe elementy
struktury budynku. Przepływ uzyskanej energii cieplnej zachodzi w sposób naturalny z dopuszczeniem elementów regulujących komfort cieplny,
3) hybrydowe (kompilacyjne), uważane za ulepszone systemy bierne lub za
odrębną kategorię systemów wykorzystujących powietrze jako czynnik transmitujący energię cieplną w obiegu wymuszonym,
4) fotowoltaiczne ogniwa słoneczne, które bezpośrednio zamieniają energię
promieniowania słonecznego na prąd elektryczny.
2.2. Charakterystyka systemów słonecznych
Systemy czynne
Systemy czynne (aktywne) stanowią modyfikację konwencjonalnych instalacji powietrznych i wodnych z obiegiem grawitacyjnym lub wymuszonym.
Kształtowanie domów jednorodzinnych ...
123
Wymagają one instalowania szeregu elementów składowych, a w niektórych
wypadkach dostarczania energii elektrycznej niezbędnej do funkcjonowania
systemu, co jest związane z kosztami. Podstawowy schemat systemu czynnego
zawiera kolektory słoneczne.
Rolę kolektora w tym systemie spełnia ściana zewnętrzna umieszczona zaraz za przeszkleniem. Jeśli jest to masywna ściana bez izolacji termicznej, to
pełni ona także funkcję zasobnika ciepła. Określa się ją wtedy mianem ściany
kolektorowo-akumulacyjnej [4].
Promieniowanie słoneczne po przejściu przez szybę (lub szyby) jest absorbowane przez zewnętrzną powierzchnię przegrody, następnie część energii przekazywana jest jako ciepło do wnętrza budynku.
Pomiędzy przeszkleniem a ścianą zewnętrzną znajduje się szczelina powietrzna. W celu optymalnego pochłaniania energii słonecznej zaleca się, aby
powierzchnia ściany była lekko chropowata i miała ciemną barwę. Grubość
ściany kolektorowo-akumulacyjnej zależy od pojemności cieplnej zastosowanych materiałów oraz od warunków klimatycznych. Waha się ona w granicach
od 30 do 50 cm. W zależności od tego czy istnieje możliwość wymiany powietrza (poprzez odpowiednie otwory) z pomieszczeniem wewnętrznym, wyróżniamy przegrody wentylowane i niewentylowane.
Przykładem przegrody kolektorowo-akumulacyjnej jest ściana Trombe'a.
Do jej budowy używa się materiałów o dużej gęstości i pojemności cieplnej.
Najlepszym materiałem jest beton z kruszywem kamiennym, żelbet i cegła pełna
klinkierowa. Mur Trombe'a pełni funkcje: kolektora, zasobnika i emitora ciepła.
Z uwagi na dużą masę może zgromadzić ciepło nawet na pięć dób. Aby poprawić cyrkulację powietrza, wykonuje się w murze otwory i zachowuje około
12 cm odległości ściany od zewnętrznego przeszklenia. W dni pochmurne oraz
na noc, w celu zmniejszenia strat ciepła, stosuje się ruchome, zewnętrzne izolacje cieplne (żaluzje). Korzystne jest również pokrycie zewnętrznej części muru
powłokami selektywnymi, które nie pogarszają sprawności pochłaniania ciepła,
a znacznie ograniczają straty. Skuteczność ich jest taka sama jak izolacji cieplnych [5].
Systemy kolektorowe
Ciepło absorbowane przez płytę pochłaniającą odbiera czynnik roboczy
przepływający przez kolektor. Ze względu na rodzaj stosowanego czynnika roboczego wyróżniamy kolektory powietrzne i cieczowe. Spośród cieczy najczęściej stosowanym czynnikiem roboczym jest woda. Należy jednak pamiętać, że
woda może być stosowana w kolektorach eksploatowanych tylko w okresie wiosenno-letnim. Jeżeli chcemy eksploatować kolektory również w okresie zimowym, należy je wówczas napełnić cieczą o dostatecznie niskiej temperaturze
krzepnięcia lub płynem o niskiej temperaturze wrzenia (30-60ºC). Do cieczy
stosowanych w okresie zimowym należą: wodny roztwór glikolu etylenowego
lub propylenowego oraz płyny stosowane do chłodzenia silników spalinowych
124
A. Rybka, B. Drozd
(samochodowych), np. borygo [3]. Kolektory z płynnym czynnikiem roboczym
wymagają jednak specjalnego wymiennika ciepła, w którym wrząca ciecz oddaje ciepło przepływającej wodzie. W celu zmniejszenia strat ciepła do otoczenia,
spowodowanych ruchami konwekcyjnymi powietrza wewnątrz kolektora, można
zastosować próżnię pomiędzy absorberem a materiałem pokrywającym [6].
W powietrznych kolektorach słonecznych energia pochłonięta przez absorber jest oddawana w postaci ciepła strumieniowi przepływającego powietrza w
odpowiednio ukształtowanym kanale kolektora [7]. Kolektory, w których czynnikiem roboczym jest powietrze są najczęściej stosowane do ogrzewania pomieszczeń. Mogą one być eksploatowane nawet przy niskich temperaturach. Na
przykład w celu ogrzania pomieszczeń powietrze musi być podgrzane do temperatury 30°C, co jest łatwe do uzyskania nawet przy małym nasłonecznieniu w
zimie.
Obecnie najczęściej stosowanymi instalacjami słonecznymi, służącymi do
przetwarzania energii promieniowania słonecznego w energię użyteczną dla
człowieka są instalacje z kolektorami płaskimi, w których czynnikiem roboczym
jest woda.
Zbiorniki magazynujące energię cieplną wraz z pomocniczym
systemem ogrzewania
Ilość energii promieniowania słonecznego dostarczanej w ciągu roku w naszych warunkach klimatycznych jest bardzo zróżnicowana. Najkorzystniejszym
okazuje się być okres letni, a w szczególności południowe godziny doby. Aby
zmniejszyć zależność systemu słonecznego od wahań intensywności promieniowania słonecznego, stosuje się różne metody akumulacji energii. Do tego
celu służą różnego rodzaju zasobniki.
Najprostszym sposobem akumulacji ciepła jest podgrzewanie wody w
zbiornikach zamkniętych lub otwartych. Zamknięte zasobniki ciepła wykonywane są jako zbiorniki stalowe ciśnieniowe, z odpowiednią izolacją termiczną,
mogą również posiadać wężownicę grzejną. Duże zbiorniki akumulacyjne mogą
być wykonane z betonu właściwie zaizolowanego i zakopanego (lub nie) w ziemi.
Otwarte zbiorniki zewnętrzne, np. stawy, wykorzystuje się, gdy wymagana
jest bardzo duża pojemność. Muszą one być wyposażone w izolowane przykrycia, w celu ograniczenia strat ciepła w wyniku parowania i promieniowania.
Jako zasobnik ciepła może też być wykorzystany grunt. W tym wypadku
wężownica, która jest połączona z kolektorem, jest układana na głębokości
1–2 metrów. Jest ona wykonana z rur z tworzyw sztucznych. W okresie letnim
przez wężownicę przepływa woda, podgrzewając grunt. W okresie zimowym ta
sama wężownica pobiera ciepło z gruntu, ochładzając go maksymalnie do temperatury 2°C.
Kształtowanie domów jednorodzinnych ...
125
W urządzeniach, w których czynnikiem roboczym jest powietrze można
stosować zasobniki wypełnione porowatym granulatem adsorbującym parę
wodną (np. żwir nasycony chlorkiem litu, silikagel, chlorek wapnia).
Problem magazynowania energii rozwiązuje częściowo stosowanie transformatorów ciepła, czyli pomp cieplnych. Urządzenie to bardzo podnosi efektywność systemów czynnych używanych do całorocznego ogrzewania. Pompy
ciepła są to systemy, które pozwalają przekazywać ciepło od ciała mniej do ciała
bardziej nagrzanego. Oddając ciepło gorącemu ciału, chłodne źródło ciepła
oziębia się jeszcze bardziej. Pompa ciepła zastępuje urządzenie grzewcze i wykorzystuje konwencjonalne nośniki energii.
Najprostszymi, a jednocześnie najpowszechniej stosowanymi systemami
czynnymi są instalacje przygotowujące ciepłą wodę użytkową. Systemy te są
bardzo zróżnicowane: od prostych przenośnych urządzeń, przez np. czarne
beczki z wodą umieszczone w skrzyniach z refleksyjnymi ścianami, które są
jednocześnie kolektorami i magazynami ciepłej wody, aż do całorocznych systemów przygotowania ciepłej wody.
Ze względu na mechanizm przekazywania ciepła wodzie użytkowej wyróżniamy dwa podstawowe rodzaje instalacji:
• instalacje z obiegiem bezpośrednim, w których woda użytkowa nagrzewa się bezpośrednio w kolektorach słonecznych,
• instalacje z obiegiem pośrednim, gdzie następuje oddzielenie obiegu kolektorowego od obiegu wody użytkowej; przekazywanie ciepła odbywa
się w wymienniku.
Systemy bierne
Systemy bierne nie wymagają stosowania specjalnych instalacji, w których
cyrkuluje medium pośredniczące. Funkcje kolektorów w tych systemach spełniają przeszklenia i poszczególne części budynków. Przez przeszklenia wnika do
wnętrz promieniowanie słoneczne, które zostaje pochłaniane przez specjalnie do
tego celu przystosowane elementy pochłaniające. Rolę pochłaniaczy mogą spełniać ściany wewnętrzne, posadzki i stropy, masywne lub lekkie ściany zewnętrzne, jak również masywne ściany oddzielające oszkloną werandę od pozostałej części budynku. Zasada biernego wykorzystania energii słonecznej do
ogrzewania pomieszczeń opiera się na występowaniu w budynku efektu szklarniowego, polegającego na przepuszczaniu promieniowania krótkofalowego
przez odpowiednio rozmieszczone przezroczyste fragmenty obudowy zewnętrznej, pochłanianiu go na powierzchni przegród i konwersji w ciepło emitowane
następnie w postaci promieniowania długofalowego (cieplnego), nieprzepuszczanego już z powrotem na zewnątrz [4].
Systemy bierne (pasywne) dzielimy na:
a) systemy zysków bezpośrednich,
b) systemy zysków pośrednich,
c) systemy kompilacyjne.
126
A. Rybka, B. Drozd
System zysków bezpośrednich
W systemie zysków bezpośrednich promieniowanie słoneczne wnika do
wnętrza budynku przez okna. Następnie jest akumulowane w przegrodach wewnętrznych, które pełnią funkcję zasobnika ciepła. Pozyskiwanie, akumulacja
i wykorzystanie energii słonecznej odbywa się w obrębie tego samego pomieszczenia. Głównym magazynem ciepła są przede wszystkim ściany, których barwa
i faktura powinny sprzyjać pochłanianiu promieni słonecznych. W okresie bezsłonecznym oraz w nocy, w celu ograniczenia strat ciepła należy zasłaniać okna
żaluzjami, roletami, foliami refleksyjnymi itp. W naszym klimacie konieczne
jest stosowanie podwójnego przeszklenia.
System zysków pośrednich
Pokrycie kolektorów najczęściej jest wykonywane ze szkła zwykłego, hartowanego lub specjalnego, ewentualnie z przezroczystych tworzyw sztucznych,
tj. polimetakrylan metylu, tworzywa epoksydowe i poliestrowe zbrojone włóknem szklanym. Kolektory przeznaczone do pracy w okresie wiosenno-letnim
mają zazwyczaj osłony pojedyncze, natomiast kolektory pracujące przez cały
rok osłony podwójne. Materiały stosowane do pokrywania kolektorów powinny
charakteryzować się dużą przepuszczalnością promieniowania, małym zaciemnieniem oraz stabilnością barwy. Ponadto muszą posiadać dobre właściwości
mechaniczne i nie powinny tworzyć ładunków elektrostatycznych. Grubość pokrycia zależy od wymiarów kolektora. Powierzchnia najczęściej spotykanych
kolektorów wynosi 1,5–2 m2.
Płyty pochłaniające (absorbery) są wykonywane z materiałów, które cechuje: dobra przewodność ciepła, mała gęstość, łatwa obróbka mechaniczna, odporność na korozję oraz odporność na wysokie temperatury. Najlepszym materiałem na płyty jest miedź, a w dalszej kolejności aluminium, stal i tworzywa
sztuczne.
Płyty pochłaniające mogą być wykonane w formie płaskiej płyty, do której
jest przymocowana wężownica lub złożone z dwóch tłoczonych blach połączonych ze sobą w ten sposób, że między nimi powstaje układ kanałów, przez który
przepływa czynnik roboczy. Czołowa strona płyty jest pokryta warstwą pochłaniającą, od której zależy moc cieplna oraz sprawność kolektora. Warstwa pochłaniająca powinna się charakteryzować dużą selektywnością, tzn. mieć możliwie dużą wartość współczynnika pochłaniania promieniowania i odpowiednio
małą wartość współczynnika emisji przy danych długościach fali. Na warstwy
pochłaniające stosuje się różne materiały, przeważnie w kolorze czarnym, np.:
farbę czarną, nikiel czarny, czerń chromową, miedź polerowaną lub tlenki magnezu. Najbardziej powszechną metodą uzyskiwania warstwy pochłaniającej jest
pokrywanie płyty czarną, matową farbą o konsystencji dającej powierzchnię
chropowatą [3].
Izolacja cieplna ma za zadanie ograniczenie strat ciepła do otoczenia. Powinna się charakteryzować małą przewodnością cieplną, małą masą właściwą
Kształtowanie domów jednorodzinnych ...
127
oraz dużą wytrzymałością mechaniczną. Ponadto materiał izolacyjny powinien
być odporny na zmiany temperatury i zawilgocenie. Najczęściej stosowanymi
materiałami izolacyjnymi są: wełna mineralna, wata szklana i pianka poliuretanowa. W naszych warunkach klimatycznych stosuje się warstwy izolacyjne grubości od 30 do 50 mm. Ramy kolektora są konstrukcją usztywniającą, która
łączy poszczególne części kolektora. Najczęściej ramy wykonuje się z profili
aluminiowych, stali ocynkowanej, drewna lub tworzyw sztucznych.
Systemy hybrydowe i kompilacyjne
System hybrydowy jest systemem pośrednim między aktywnym a biernym
systemem wykorzystującym energię słoneczną. Pozyskiwanie energii promieniowania słonecznego przebiega w sposób bierny, natomiast transport ciepła do
zasobnika i ogrzewanego pomieszczenia jest wymuszony mechanicznie. System
może współpracować z pompą ciepła. Czynnikiem pośredniczącym w wymianie
ciepła jest powietrze.
System ten w sposób bardziej równomierny rozdziela ciepło do pomieszczeń, nawet do usytuowanych z dala od kolektorów. Ułatwiona jest też regulacja
ilości ciepła dostarczanego do pomieszczenia, choć obecność mechanicznych
urządzeń zmniejsza niezawodność systemu [8].
System kompilacyjny jest jednym z trzech podstawowych systemów biernych. Polega on na tym, że promienie słoneczne przenikają przez przeszklenie
i dzięki efektowi szklarniowemu ogrzewają oszkloną przestrzeń. Szklane przybudówki, tj. szklarnie, werandy lub oszklone loggie umieszcza się od strony
południowej. Mogą one być wykorzystane jako przestrzeń komunikacyjna, balkony, obudowane szkłem przedsionki, a także przestrzeń połączona z pokojem
dziennym. Pełnią one funkcje kolektora lub równocześnie kolektora i zasobnika
ciepła. Dodatkowo stanowią element ochrony termicznej budynku, ograniczając
w znacznym stopniu straty ciepła w dni pochmurne. W naszych warunkach klimatycznych zaleca się stosować podwójne przeszklenie, a także różnego typu
kotary i parawany, które latem zabezpieczają szklarnię przed przegrzaniem,
a zimą i w dni bezsłoneczne przed stratami ciepła.
Fotowoltaiczne ogniwa słoneczne
Energia promieniowania słonecznego może być bezpośrednio przetwarzana
w energię elektryczną w tzw. ogniwach słonecznych, których działanie oparte
jest na efekcie fotowoltaicznym, jaki zachodzi w półprzewodnikach pod wpływem światła [9]. Działanie pojedynczego fotoelementu polega na przeniesieniu
fotoelektronów w materiałach półprzewodnikowych do pasm przewodzenia za
pomocą energii uzyskanej z absorpcji światła słonecznego.
Najpowszechniej stosuje się krzemowe ogniwa fotowoltaiczne. Moduły fotowoltaiczne (złożone z ogniw słonecznych) są idealnymi elementami do pokrywania dachów, zamiast tradycyjnych pokryć dachowych. Można nimi również pokrywać ściany. Obecnie baterie fotowoltaiczne są stosowane głównie
128
A. Rybka, B. Drozd
w komunikacji, turystyce (np. domki campingowe, łódki) oraz w urządzeniach
powszechnego użytku, tj. zegarki, kalkulatory.
3. Założenia projektowo-badawcze
Celem pracy było wykazanie, na przykładzie projektów trzech domów jednorodzinnych oraz odpowiednich obliczeń, jaki wpływ na energooszczędność
budynku ma jego kształt, kubatura oraz zastosowanie systemów słonecznych
i odpowiednich przegród budowlanych. Celem pracy było również wykonanie
projektu energooszczędnego budynku jednorodzinnego wykorzystującego energię słoneczną, a także opracowanie podstawowych zasad projektowania tego
typu obiektów.
4. Zestawienie wyników badań
Podsumowaniem wyników badań stało się opracowanie projektów budowlanych trzech domów jednorodzinnych. Jako punkt wyjścia przyjęto typowy
projekt domu jednorodzinnego. W kolejnych etapach projektowania dom ten był
modyfikowany w celu poprawienia jego parametrów cieplnych.
Rysunki 1–3 prezentują rozwiązania architektoniczne poszczególnych domów.
BUDYNEK 1. Dom słoneczny
Budynek charakteryzuje się następującymi parametrami użytkowymi. Jest
to obiekt parterowy zaopatrzony w poddasze użytkowe. W domu tym nie przewidywano podpiwniczenia.
Ściany zewnętrzne zaprojektowane zostały jako warstwowe. Przewidziano
następujący układ warstw od wewnątrz do zewnątrz: beton komórkowy odmiany
500 – grubość warstwy 24 cm, styropian – grubość warstwy 10 cm, cegła kratówka – grubość warstwy 12 cm.
Wykonano odpowiednie obliczenia cieplne ściany. Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo = 0,26 [W/m2⋅K].
W celu poprawienia warunków pozyskiwania ciepła słonecznego zastosowano dodatkową przegrodę kolektorowo-akumulacyjną o następującej budowie:
cegła pełna – grubość warstwy 38 cm, warstwa powietrza 5 cm, szyba zespolona
FIBERGLASS (pakiet 4/12/4T).
Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo =
= 0,73 [W/m2⋅K].
Kształtowanie domów jednorodzinnych ...
129
Rys. 1. Budynek 1.; dom parterowy z poddaszem użytkowym, niepodpiwniczony: a) elewacja
południowa, b) rzut parteru
130
A. Rybka, B. Drozd
Rys. 2. Budynek 2.; dom parterowy z poddaszem użytkowym, niepodpiwniczony: a) elewacja
południowa, b) rzut parteru
Kształtowanie domów jednorodzinnych ...
131
Rys. 3. Budynek 3.; dom parterowy z poddaszem użytkowym, podpiwniczony: a) elewacja południowa, b) rzut parteru
Opracowana w Zakładzie Budownictwa Ogólnego PRz metoda porównawcza przewidywania efektywności przegród kolektorowo-akumulacyjnych dowodzi, że przegroda heliogrzewcza może być formalnie traktowana jako przegroda
konwencjonalna o równoważnym współczynniku przenikania ciepła Ur:
Ur = U⋅[1 – B⋅A];
Ur = –0,362 [W/m2⋅K]
132
A. Rybka, B. Drozd
BUDYNEK 2. Budynek bez elementów wykorzystujących energię słoneczną
Jest to obiekt parterowy zaopatrzony w poddasze użytkowe. W domu tym
nie przewidywano podpiwniczenia. Budynek 2. ma taki sam kształt i bryłę jak
budynek 1. Ściana zewnętrzna zaprojektowana została jako warstwowa. Przewidziano następujący układ warstw od wewnątrz do zewnątrz: cegła kratówka –
grubość warstwy 25 cm, styropian – grubość warstwy 10 cm. Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo = 0,32 [W/m2⋅K].
BUDYNEK 3. Dom katalogowy
Jest to budynek parterowy z poddaszem użytkowym, częściowo podpiwniczony. Budynki 2. i 3. mają przegrody budowlane zbudowane z tych samych materiałów. Przewidziano następujący układ warstw od wewnątrz do zewnątrz: cegła kratówka – grubość warstwy 25 cm, styropian – grubość warstwy
10 cm. Obliczony współczynnik przenikania ciepła tej ściany wynosił: Uo =
= 0,32 [W/m2⋅K].
Dla projektowanych budynków 1., 2. i 3. wykonane zostały obliczenia
współczynnika przenikania ciepła U poszczególnych przegród budowlanych
oraz obliczenia sezonowych strat i zysków ciepła dla całych budynków. Wyniki
obliczeń przedstawiono w tab. 2.
Tabela 2. Zestawienie strat ciepła i zapotrzebowania na ciepło dla poszczególnych budynków
Parametry
Straty ciepła
Zapotrzebowanie na ciepło
Kubatura
Wskaźnik E
Jednostka
Budynek 1.
Budynek 2.
Budynek 3.
kWh/rok
kWh/rok
m3
kWh/(m3⋅rok)
16905,01
11351,58
718,13
15,81
23015,47
16136,75
732,11
22,04
22388,50
15785,54
550,03
28,70
5. Podsumowanie i wnioski
Dom słoneczny (budynek 1.) odznacza się najniższym wskaźnikiem zapotrzebowania na ciepło do ogrzewania, tzn. jest najtańszy w eksploatacji. Straty
ciepła zostały znacznie ograniczone, ponieważ:
• zastosowano przegrody zewnętrzne o małym współczynniku przenikania
ciepła (U = 0,26 W/m2⋅K),
• korzystnie zaprojektowano bryłę budynku, której nadano formę jednolitą, zwartą,
• ścianę południową stanowi przegroda kolektorowo-akumulacyjna, tzw.
ściana Trombego,
• dodatkowo, w celu obniżenia kosztów uzyskania ciepłej wody użytkowej zastosowano kolektory słoneczne,
Kształtowanie domów jednorodzinnych ...
133
• usytuowano powierzchnię przeszkloną (szklarnię) po stronie południowej, aby zapewnić duże zyski ciepła od nasłonecznienia w sezonie
grzewczym,
• odpowiednio dobrano okna i drzwi o małym współczynniku przenikania
ciepła,
• utworzono strefę buforową od strony północnej z pomieszczeń niewymagających ogrzewania (garaż).
Porównując budynki 1. i 2., posiadające porównywalną kubaturę i kształt
można stwierdzić, że przez wprowadzenie energooszczędnych przegród budowlanych, odpowiedni dobór okien i systemów heliogrzewczych można znacznie
zmniejszyć zapotrzebowanie na ciepło do ogrzewania, a więc obniżyć koszty
eksploatacji budynku.
Na przykładzie domów 2. i 3. można stwierdzić, jak duże znaczenie ma
właściwie zaprojektowana bryła budynku. Zaproponowano podobną technologię
i te same materiały do budowy ścian. Mimo że budynek 2. ma większą kubaturę,
to jego wskaźnik zapotrzebowania na ciepło do ogrzewania jest mniejszy niż
w przypadku budynku 3.
Przyczyną większych strat ciepła w domu 3. jest niekorzystnie zaprojektowana bryła budynku, której forma jest rozczłonkowana i mało zwarta.
Wynika stąd wniosek, że już w fazie projektowania architektonicznego budynku należy zwrócić szczególną uwagę na problem energooszczędności i dążyć
do takich rozwiązań, by nie zwiększając kosztów inwestycji, zostały zmniejszone przyszłe koszty eksploatacji budynku.
Kilka podstawowych zasad projektowania
Projektując dom, który ma wykorzystywać energię słoneczną należy:
1) odpowiednio zaprojektować bryłę budynku o jak najkorzystniejszym stosunku powierzchni ścian zewnętrznych do kubatury wewnętrznej [A/V],
2) właściwie ukierunkować budynek w stosunku do stron świata N–S, E–W
3) korzystnie usytuować dom w terenie, najlepiej na stoku południowym,
4) odpowiednio zaprojektować układ pomieszczeń użytkowych – strefy
użytkowe, strefy chroniące,
5) dobrać energooszczędne przegrody budowlane o małym współczynniku
przenikania ciepła U,
6) stosować znaczną, maksymalną z punktu widzenia ekonomiki, grubość
izolacji termicznej,
7) od strony południowej domu instalować dużą ilość okien i systemy słoneczne – przegrody kolektorowo-akumulacyjne.
134
A. Rybka, B. Drozd
Literatura
a) Literatura cytowana
[1] Bogdanienko J.: Odnawialne źródła energii. PWN, Warszawa 1989
[2] Chochowski A., Czekalski D.: Słoneczne instalacje grzewcze. COIB, Warszawa
1999
[3] Miszczak M., Waszkiewicz Cz.: Energia Słońca, wiatru i inne. N.K.,Warszawa
1988
[4] Laskowski L.: Systemy biernego ogrzewania słonecznego. Komitet Inżynierii Lądowej i Wodnej PAN, Warszawa 1993
[5] Wołoszyn M.A.: Wykorzystanie energii słonecznej w budownictwie jednorodzinnym. COIB, Warszawa 1991
[6] Starakiewicz A.: Funkcjonowanie przegród kolektorowo-akumulacyjnych w polskich warunkach klimatycznych. Praca doktorska, l PPT PAN, Warszawa 1993
[7] Wiśniewski G.: Kolektory słoneczne. COIB, Warszawa 1992
[8] Kolarska K., Kolarski Z.: Ogrzewanie energią słoneczną. WCziKT, Warszawa 1989
[9] Lipiński M.: Pozyskiwanie energii elektrycznej ze słońca. IGSMiE, Warszawa 1998
b) Literatura podstawowa
[10] Drozd B.: Projekt architektoniczno-budowlany domu jednorodzinnego wykorzystującego odnawialne źródła energii. Praca dyplomowa (promotor A. Rybka),
WBilŚ, PRz, Rzeszów 2001
[11] Instrukcja ITB nr 330/94. Obliczenie sezonowego zapotrzebowania na ciepło do
ogrzewania budynków mieszkalnych
[12] PN-B-02025. Obliczanie sezonowego zapotrzebowania na ciepło do ogrzewania
budynków mieszkalnych i użyteczności publicznej
[13] PN-EN ISO 6946. Opór cieplny i współczynnik przenikania ciepła
[14] Rybka A.: Centralny Okręg Przemysłowy a polska awangardowa urbanistyka międzywojenna. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 1995
THE ARCHITECTURAL SHAPING OF THE DETACHED HOUSE
USING THE SUN ENERGY SOURCE
Summary
The thesis contains the architect-building projects of the three detached houses, the thermal
balance calculations, the discussion of the sun energy systems. A great influence on the energy
thrift of the projected building has its form, cubature and the usage of the active and passive sun
systems also appropriate building barriers.
Złożono w Oficynie Wydawniczej w marcu 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Tomasz SIWOWSKI
Politechnika Rzeszowska
Marcin PIEKIEŁEK
Pracownia Projektowa Promost Consulting Rzeszów
STUDIUM MODERNIZACJI MOSTU PRZEZ WISŁĘ
W NAGNAJOWIE Z WYKORZYSTANIEM POMOSTU
ALUMINIOWEGO
W ostatnich latach bardzo ważnym problemem technicznym i ekonomicznym
w mostownictwie jest proces „starzenia się” obiektów mostowych zbudowanych
w pierwszej połowie XX w. lub wcześniej. Wiele z tych mostów musi być modernizowane lub przebudowywane ze względu na zbyt małą nośność. W niniejszej
pracy opisano przykład modernizacji starego mostu stalowego, w której zastosowano nową płytę pomostu, wykonaną z nowoczesnych stopów aluminium o wysokiej wytrzymałości i trwałości. Zaprezentowano również szczegółową analizę numeryczną MES trójwymiarowego modelu pomostu aluminiowego, która potwierdziła spełnienie wymagań projektowych.
1. Wprowadzenie
W ostatnich latach bardzo ważnym problemem technicznym i ekonomicznym w mostownictwie jest proces „starzenia się” obiektów mostowych. Problem
ten dotyczy szczególnie stalowych mostów kratownicowych, zbudowanych
w pierwszej połowie XX w. lub wcześniej. Obiekty te mają zazwyczaj zbyt małą
nośność i niewystarczającą skrajnię, dlatego konieczne staje się ich dostosowanie do współczesnych wymagań. Utrzymanie takich obiektów jest dużym problemem technicznym i ekonomicznym. Wiele z tych mostów ze względu na
niewystarczające parametry geometryczne lub zbyt małą nośność, musi być
wyłączane z eksploatacji i modernizowane lub przebudowywane, a w skrajnych
przypadkach usuwane.
Jednak przed podjęciem decyzji o przebudowie i/lub przeznaczeniu starej
konstrukcji „na złom” przeprowadza się zwykle analizę możliwości adaptacji
mostu do nowych warunków użytkowych. Z licznych doświadczeń wynika, że
konstrukcja stalowa wielu mostów kratownicowych jest w dobrym stanie technicznym [1, 2]. Po przeprowadzeniu prac modernizacyjnych lub wzmacniających mosty te mogą uzyskać pożądaną – wyższą nośność. Ponadto stare mosty
136
T. Siwowski, M. Piekiełek
kratownicowe w wielu wypadkach są uznane za zabytki budownictwa mostowego i są wpisane do rejestru zabytków. Często sylwetki tych mostów są na trwałe
wtopione w otaczający je krajobraz. Dlatego też, biorąc pod uwagę wyżej wymienione względy, w wielu wypadkach administracja drogowa stara się „ratować” istniejące obiekty, dostosowując je do współczesnych wymagań. Tym
bardziej, że współcześni konstruktorzy mają obecnie do dyspozycji materiały
nowej generacji, pozwalające w połączeniu z istniejącą konstrukcją wykorzystać
do maksimum występujące w niej, dość znaczne w niektórych wypadkach, rezerwy nośności. W niniejszej pracy opisano przykład modernizacji obiektu,
w którym do ratowania istniejącej konstrukcji mostowej użyto nowoczesnych
stopów aluminium o wysokiej wytrzymałości i trwałości. Pozwoliło to na zwiększenie nośności obiektu bez zmiany jego formy konstrukcyjnej.
Stopy aluminium w budownictwie przemysłowym są stosowane już ponad
kilkadziesiąt lat. Pierwsze zastosowanie konstrukcyjne stopu aluminium datuje
się na 1931 r., kiedy w USA zaczął pracować dźwig z 46-metrowym ramieniem,
wykonanym w całości ze stopu aluminium. W Polsce w latach pięćdziesiątych
i sześćdziesiątych powstało wiele konstrukcji aluminiowych, w tym także jeden
obiekt mostowy [3]. Jednakże dopiero współczesny postęp inżynierii materiałowej, który doprowadził do powstania nowej generacji stopów aluminiowych
o bardzo dobrych cechach wytrzymałościowych oraz o wysokiej trwałości, pozwolił na szersze zastosowanie tego materiału, m.in. w budownictwie komunikacyjnym. O perspektywach rozwoju stopów aluminium dzięki współczesnej
inżynierii materiałowej pisano m.in. w pracach [4, 5].
2. Opis i założenia do modernizacji mostu
Wymagający modernizacji most drogowy przez Wisłę jest zlokalizowany
w miejscowości Nagnajów w ciągu drogi krajowej nr 9 Radom – Barwinek,
w km 128 + 862. Jest to most stały, składający się z pięcioprzęsłowej stalowej
kratownicy ciągłej z jezdnią dolną oraz żelbetowego przęsła dojazdowego. Kratownica jest bezsłupkowa, typu Warrena. Całkowita długość mostu mierzona
pomiędzy osiami skrajnych łożysk wynosi 425 m, a rozpiętości teoretyczne poszczególnych przęseł wynoszą: 72 m + 3×90 m + 72 m + 11 m. Wysokość dźwigara kratowego jest równa 9 m, a osiowy rozstaw dźwigarów 8,50 m. Pręty
główne kratownicy są spawane, połączone w węzłach na nity. Pasy i krzyżulce
ściskane mają przekrój skrzynkowy, natomiast krzyżulce rozciągane – przekrój
dwuteowy. Dźwigary kratowe stężono w poziomie pasa górnego dwuteownikami, a pasa dolnego kątownikami w układzie x.
Pomost jest wykonany z płyty żelbetowej grubości 24 cm, opartej na ruszcie stalowym. Ruszt składa się z podłużnic spawanych wysokości 0,90 m,
umieszczonych w rozstawie 4,40 m oraz poprzecznic spawanych wysokości 1,20
m i rozstawie 9,0 m. Płyta jest zespolona ze stalowymi belkami rusztu za pomo-
Studium modernizacji mostu ...
137
cą łączników stalowych. Na płycie pomostu pomiędzy dźwigarami znajduje się
jezdnia szerokości 7 m, a na prawostronnym wsporniku stalowym – chodnik
szerokości 1,50 m (rys. 1.).
a)
b)
Rys. 1. Most przez Wisłę w Nagnajowie: a) widok ogólny, b) przekrój poprzeczny przęsła kratownicowego
Na podstawie prac inwentaryzacyjnych oraz oceny stanu technicznego poszczególnych elementów konstrukcji stwierdzono, że ogólny stan techniczny
mostu, a zwłaszcza konstrukcji dźwigarów głównych, jest bardzo dobry [6].
138
T. Siwowski, M. Piekiełek
Podczas przeglądu nie wykryto żadnych deformacji plastycznych w płaszczyźnie dźwigara, natomiast w płaszczyźnie prostopadłej do niej stwierdzono jedynie
niewielkie uszkodzenia spowodowane uderzeniami pojazdów. Na konstrukcji
stalowej występują lokalne zniszczenia powłoki antykorozyjnej, a niewielkie
uszkodzenia korozyjne nie wpływają na zmniejszenie nośności przęseł. Natomiast żelbetowa płyta pomostu jest w złym stanie technicznym. Otulina zbrojenia płyty w wielu miejscach jest zbyt mała lub skorodowana. Na całej długości
płyty występują lokalne ubytki otuliny, głębokości 2–3 cm, odsłaniające skorodowane pręty zbrojeniowe. Na powierzchni płyty występują rysy, które powstały
w wyniku korozji zbrojenia, a także lokalne odbarwienia betonu. Intensywna
korozja betonu oraz zacieki występują zwłaszcza w sąsiedztwie rur spustowych.
Wyposażenie pomostu jest również w bardzo złym stanie technicznym, występują liczne ubytki nawierzchni jezdni i krawężników, są widoczne oznaki nieszczelności izolacji płyty pomostu, niedrożna jest większość wpustów odwadniających.
Podstawowe założenia do modernizacji mostu ustaliła administracja drogowa. Zawierały one m.in. następujące wymagania:
• nośność obiektu po modernizacji powinna odpowiadać klasie obciążenia
A, według normy [7], tj. 50 ton,
• nośność płyty pomostu powinna umożliwić przejazd pojazdu typu
STANAG 2021, według zarządzenia [8],
• szerokość użytkowa obiektu powinna wynosić:
− szerokość jezdni 7 m (2 x 3,50 m),
− szerokość chodników 1,50 m.
W celu określenia aktualnej nośności mostu przeprowadzono szczegółowe
obliczenia statyczno-wytrzymałościowe, przyjmując charakterystyki materiałów
konstrukcyjnych według normatywów [9–12] oraz na podstawie dokumentacji
archiwalnej. Model numeryczny konstrukcji przęseł kratownicowych wykonano
w programie ROBOT V6 jako ramę przestrzenną, definiując zwolnienia stopni
swobody wybranych węzłów konstrukcji. Zgodnie z zaleceniami [11, 13] przyjęto jako przegubowe połączenia nitowane, tj. połączenie krzyżulców z pasami
dźwigara oraz połączenia poprzecznic z dźwigarami. Również połączenia podłużnic z poprzecznicami oraz połączenia elementów stężeń zamodelowano jako
przegubowe. Pozostałe, spawane węzły stalowej konstrukcji przęseł przyjęto
jako sztywne. Przekroje poprzeczne prętów kratownic ustalono na podstawie
inwentaryzacji geometrycznej. W przekrojach belek pomostu uwzględniono
elementy płyty żelbetowej, zespolonej z konstrukcją stalową.
Na podstawie przeprowadzonej analizy statyczno-wytrzymałościowej
wszystkich elementów konstrukcji przęseł stwierdzono, że aktualna nośność
mostu nie odpowiada klasie A podanej w normie [7], czyli nie jest wystarczająca
w stosunku do wymagań stawianych przez administratora obiektu. Najsłabszymi
elementami konstrukcji są:
Studium modernizacji mostu ...
139
• żelbetowa płyta pomostu – przekroczenie nośności w stali zbrojeniowej
o 48% przy przejeździe pojazdem specjalnym STANAG 2021 według
pozycji [8],
• poprzecznice stalowe – przekroczenie nośności o maksymalnie
104% przy obciążeniu ruchomym klasy A, według normy [7],
• elementy dźwigarów kratownicowych – nieznaczne przekroczenie nośności w 7 elementach, o maksymalnie 13% w przypadku obciążenia
ruchomego klasy A według normy [7].
Na podstawie wyników analizy przyjęto główne założenia do modernizacji
mostu. Podstawowym działaniem modernizacyjnym jest wymiana istniejącej
żelbetowej płyty pomostu wraz z jej wyposażeniem. W wyniku dodatkowych
analiz ustalono, że w przypadku wymiany płyty żelbetowej na lekką płytę aluminiową nastąpi zmniejszenie ciężaru własnego pomostu o około 70%. Takie
znaczące odciążenie mostu pozwoli na redukcję naprężeń w przeciążonych elementach konstrukcji kratowej, co w rezultacie umożliwi zwiększenie dopuszczalnych obciążeń użytkowych, bez znacznej ingerencji w istniejącą konstrukcję
stalową.
3. Konstrukcja pomostu aluminiowego
Pomost aluminiowy można wykonać i zamontować bardzo szybko, minimalizując czas zamknięcia obiektu. Niskie są koszty jego utrzymania, nie jest
konieczne okresowe zabezpieczanie antykorozyjne, a stop aluminium jest odporny na działanie soli. Pomost aluminiowy pracuje podobnie jak płyta żelbetowa, lecz ma większą nośność w strefach momentów ujemnych. Ponieważ stop
aluminium ma większy stosunek wytrzymałości do ciężaru niż beton, ciężar
betonowej płyty pomostu wynosi zazwyczaj około 500 – 600 kg/m2, a pomostu
aluminiowego jedynie 20% tego ciężaru, tj. około 100 – 120 kg/m2. W przypadku analizowanego mostu obciążenie podłużnic ciężarem betonowej płyty pomostu wynosi 26,81 kN/m, a płytą aluminiową 2,98 kN/m. Ta różnica powoduje, że
podczas modernizacji most może zostać wzmocniony (odciążony), bez ponoszenia nakładów związanych z adaptacją pozostałych elementów przęseł lub podpór. Kombinacja małego ciężaru i dużej wytrzymałości stanowi podstawową
zaletę pomostów aluminiowych przy renowacji starych, przeciążonych obiektów, przy których zmniejszenie ciężaru własnego jest jedyną możliwością przedłużenia ich „życia technicznego” [4, 14].
Aluminiowa płyta pomostu jest pewną odmianą pomostu ortotropowego.
Zaprojektowano rozwiązanie płyty składającej się ze specjalnie zaprojektowanych kształtowników aluminiowych, połączonych podłużnymi spoinami czołowymi. Modułowe wymiary przekroju poprzecznego kształtownika to wysokość
167 mm oraz szerokość 130 mm. Ograniczenie przekroju pojedynczego kształtownika wynika z możliwości technologicznych polskich wytwórni wyrobów
140
T. Siwowski, M. Piekiełek
aluminiowych. Przekrój poprzeczny kształtownika musi być wpisany w koło
średnicy 200 mm, gdyż takie są dostępne w Polsce maksymalne prasy do wyciskania elementów aluminiowych. Zaprojektowany kształtownik składa się z pasa
górnego grubości 7 mm, pasa dolnego grubości 6 mm oraz dwóch ukośnych
środników grubości 4 mm. Połączenie kształtowników jest wykonywane przez
spawanie metodą MIG za pomocą automatów spawalniczych. Po połączeniu
kształtowników uzyskuje się panel płyty pomostu (rys. 2.).
a)
b)
c)
Rys. 2. Konstrukcja pomostu aluminiowego: a) przekrój poprzeczny pojedynczego kształtownika, b) panel płyty
pomostu, c) próbne spawanie kształtowników metodą MIG
Przy wymianie pomostu jest stosowany zazwyczaj układ paneli z kształtownikami ułożonymi wzdłuż osi mostu, ponieważ sztywność płyty w tym układzie jest największa. W przypadku analizowanego mostu aluminiowa płyta pomostu będzie oparta na istniejących podłużnicach blachownicowych oraz na
dodatkowych podłużnicach z kształtowników IPE 450 (podłużnice skrajne) oraz
HEB 550 (podłużnica środkowa). Dodatkowe podłużnice wprowadzono w celu
odciążenia istniejących oraz zmniejszenia rozpiętości poprzecznej nowej płyty
pomostu. W ten sposób uzyskano schemat statyczny płyty ciągłej czteroprzę-
Studium modernizacji mostu ...
141
słowej o rozpiętościach 1,70 m + 2 x 2,20 m + 1,70 m. Schemat taki jest zbliżony do typowego układu pomostu w mostach belkowych, co pozwala na bardziej
uniwersalne zastosowanie zaprojektowanego pomostu. Zespolenie płyty ze stalowymi belkami pomostu jest realizowane przy pomocy specjalnych sworzni
i zaprawy epoksydowej. W celu uniknięcia korozji galwanicznej na styku stal –
aluminium górne półki stalowych belek pomostu są zabezpieczone antykorozyjnie natryskiwaną cieplnie powłoką aluminiową grubości 250 µm. Nawierzchnię
pomostu stanowi mieszanka poliuretanowo-epoksydowa grubości min. 10 mm
(rys. 3).
Rys. 3. Przekrój poprzeczny mostu z pomostem aluminiowym
4. Analiza numeryczna pomostu
Analizę statyczno-wytrzymałościową badanego pomostu przeprowadzono,
wykorzystując zintegrowany system komputerowy Sofistic, oparty na metodzie
elementów skończonych. W modelowaniu pomostu wykorzystano wcześniejsze
doświadczenia, uzyskane w pracy nad analizą pomostów aluminiowych z użyciem systemu Adina [15]. Jednym z celów niniejszej pracy było porównanie
przyjętych założeń modelowania MES w różnych systemach obliczeniowych
oraz w odniesieniu do różnych rodzajów elementów skończonych (shell, plate,
brick). System Sofistic składa się z szeregu osobnych modułów (programów),
142
T. Siwowski, M. Piekiełek
które pozwalają na przeprowadzenie szczegółowych analiz numerycznych różnych typów konstrukcji, zarówno w zakresie sprężystym, jak i nieliniowym.
Do wprowadzania danych o konstrukcji wykorzystano moduł Teddy – program umożliwiający definiowanie rodzaju materiałów, siatki węzłów, rodzaju
elementów (prętowych, powierzchniowych, bryłowych), obciążeń i ich kombinacji. Dane do programu można zapisywać w formie tekstowej, posługując się
szeregiem komend oraz pętli, które ułatwiają w znacznym stopniu wprowadzanie dużej ilości danych.
Analizę wyników obliczeń przeprowadzono z pomocą następujących modułów systemu:
• Animator – program umożliwia przeprowadzenie wizualizacyjnej analizy zaprojektowanej konstrukcji, jej zachowania podczas obciążenia
oraz tworzenie uproszczonych map naprężeń,
• Graph interactiv – program umożliwia przeprowadzenie bardzo dokładnej graficznej analizy konstrukcji oraz uzyskanych wyników, tj. naprężeń i przemieszczeń,
• DBView – program przedstawia siły wewnętrzne, naprężenia oraz przemieszczenia w postaci tekstowej,
• Ursula – program, który wykonuje raport z przeprowadzonych obliczeń,
ułatwia odszukanie ewentualnych ostrzeżeń i błędów w analizowanej
konstrukcji oraz przedstawia dane w formie tekstowej.
Opracowano model numeryczny płyty pomostu, złożony z elementów powierzchniowych w przestrzeni trójwymiarowej. Wybrano elementy płytowe,
którym nadano odpowiednią grubość. Elementy te składają się z czterech węzłów, z których każdy ma trzy stopnie swobody. Elementom nadano długość
40 mm, szerokość 25, 37 lub 40 mm oraz grubość 4, 6 lub 7 mm. Szerokości
elementów przyspoinowych przyjęto zbliżone do 1 cala (25,4 mm), aby
uwzględnić zmiany materiałowe spowodowane wpływem ciepła spawania,
zgodnie z regułą 1 cala [16]. Szerokości pozostałych elementów przyjęto z równomiernego podziału boku. Grubość elementów (ścianek kształtownika) dobrano na podstawie wstępnych analiz wytrzymałościowych kształtownika (rys. 4a).
Szerokość modelowanego panelu aluminiowego przyjęto równą 20-krotnej
szerokości pojedynczego kształtownika, natomiast długość panelu – równą 4 m.
Rozstaw podparć panelu przyjęto równą ok. 2,50 m, gdyż jest to najczęściej
spotykany rozstaw podłużnic (belek) w tego typu mostach. Ponieważ model jest
symetryczny względem dwóch płaszczyzn oraz ustawienia obciążeń normowych
są również symetryczne, ograniczono analizę do wycinka – ćwiartki panelu (rys.
4b). W związku z tym, węzłom leżącym w płaszczyznach symetrii zadano odpowiednie warunki brzegowe. Węzłom leżącym wzdłuż płaszczyzny symetrii
z-y (w poprzek pomostu) zablokowano przemieszczenia w kierunku x oraz rotację względem osi y. Dla węzłów leżących wzdłuż płaszczyzny symetrii z-x
(wzdłuż pomostu) zablokowano przemieszczenia w kierunku y oraz rotację
Studium modernizacji mostu ...
143
względem osi x. Natomiast dwu węzłom narożnym leżącym na skrzyżowaniu
płaszczyzn symetrii z-x i z-y zablokowano przemieszczenia w kierunku x, y oraz
rotację względem osi x i y.
Przyjęte do obliczeń parametry materiałowe stopu aluminium były następujące:
• moduł Younga E = 70 GPa,
• współczynnik Poissona ν = 0,3,
a)
b)
c)
Rys. 4. Numeryczny model
pomostu: a) podział przekroju
kształtownika na elementy
skończone, b) przekrój i rzut
z góry modelu obliczeniowego pomostu, c) widok modelu
ćwiartki pomostu w programie
Animator
144
T. Siwowski, M. Piekiełek
• ciężar objętościowy ρ = 27 kN/m3,
• współczynnik rozszerzalności termicznej εt = 0,00002.
W analizie numerycznej uwzględniono wszystkie najniekorzystniejsze warianty mostowego obciążenia normowego w postaci kół pojazdów K i S według
normy [7]. Analizę przeprowadzono w odniesieniu do ośmiu schematów obciążeń:
• schemat 1. – ciężar własny pomostu i nawierzchni,
• schemat 2. – 4 koła pojazdu K ustawione w osi pomostu (rys. 5a);
• schemat 3. – 4 koła pojazdu K ustawione wzdłuż krawędzi podparcia
(rys. 5b);
• schemat 4. – 2 koła pojazdu K ustawione w osi pomostu,
• schemat 5. – 1 koło pojazdu K ustawione w środku pomostu,
• schemat 6. – 4 koła pojazdu S (dwie najbardziej obciążone osie) ustawione w środku pomostu, w rozstawie właściwym dla klasy A według
normy [7], tj. 1 m,
• schemat 7. – 4 koła pojazdu S ustawione w środku pomostu, w rozstawie
właściwym klasie B według normy [7], tj. 1,25 m,
• schemat 8. – 4 koła pojazdu S ustawione wzdłuż krawędzi podparcia
pomostu, w rozstawie właściwym klasie A według normy [7], tj. 1 m.
a)
Schemat 2.
Schemat
2 A
pojazd
K, klasa
pojazd K, klasa A
b)
Schemat 3.
Schemat 3
pojazd K,
K, klasa
klasa A
A
pojazd
Rys. 5. Wybrane schematy obciążenia panelu pomostu: schemat 2., schemat 3.
Obciążenie przyłożono na powierzchni śladu normowego koła samochodu
o wymiarach 20 x 60 cm. Chcąc wyznaczyć nośność obliczeniową (normową)
Studium modernizacji mostu ...
145
pomostu, obliczenia przeprowadzono dla wartości obciążeń obliczeniowych z
uwzględnieniem współczynnika dynamicznego. Przeprowadzona analiza pozwoliła określić zakres naprężeń obliczeniowych występujących w aluminiowej
płycie pomostu przy najbardziej niekorzystnych układach obciążenia.
5. Analiza uzyskanych wyników
Wyniki analizy uzyskano w postaci graficznej – tzw. map naprężeń, oraz
tekstowej, tabelarycznie. W celu ustalenia dopuszczalnej klasy obciążenia pomostu aluminiowego na podstawie uzyskanych wyników wykorzystano wartości
wytrzymałości obliczeniowych wybranego stopu aluminium według Eurokodu
9, dotyczącego projektowania konstrukcji aluminiowych [17]. Jednakże, aby
uprościć analizę wyników porównano bezpośrednio naprężenia uzyskane od
obciążenia obliczeniowego według polskiej normy [7] z wytrzymałością obliczeniową aluminium według Eurokodu 9, a nie, jak to jest przy projektowaniu
według Eurokodu, obliczeniowych sił wewnętrznych z nośnością obliczeniową
przekroju. Przedstawiono przykładowe mapy naprężeń dla najbardziej miarodajnego układu obciążeń (rys. 6a,b,c). Zbiorcze wyniki analizy przedstawiono także
w tab. 1. i 2.
Wartości wytrzymałości obliczeniowej według pracy [16] przyjęto dla stopu aluminium EN AW–6061 w stanie T6 oraz dla drutu spawalniczego ze stopu
EN AW–5356, najbardziej odpowiednich do opisanego zastosowania konstrukcyjnego. Wartości uzyskane w wyniku obliczeń zestawiono w tab. 2., przyjmując następujące oznaczenia:
• fO – wytrzymałość obliczeniowa stopu przy zginaniu,
• fW – wytrzymałość obliczeniowa spoiny,
• fOHAZ – wytrzymałość obliczeniowa stopu w strefie wpływu ciepła.
a)
Rys. 6. Wyniki analizy numerycznej: a) naprężenia
wypadkowe do schematu 1.
146
T. Siwowski, M. Piekiełek
b)
c)
Rys. 6(cd.). Wyniki analizy
numerycznej: b) naprężenia
wypadkowe do schematu
2., c) naprężenia wypadkowe do schematu 3.
W obliczeniach wartości wytrzymałości obliczeniowych uwzględniono zalecane przez EC9 współczynniki materiałowe: γM1 = 1,10 dla stopu, γMw = 1,25
dla spoiny. Punkty pomostu, w których występowały maksymalne naprężenia
wypadkowe są zlokalizowane w sąsiedztwie spoin, czyli w tzw. strefie wpływu
ciepła (HAZ). Ciepło powstające podczas spawania powoduje zmianę właściwości materiałowych stopu aluminium, powodującą m.in. lokalne obniżenie wytrzymałości. Zakres tych zmian ocenia się według tzw. reguły 1 cala, tj. na szerokości 25,4 mm od osi spoiny. Zmianę właściwości materiałowych stopu aluminium w strefie HAZ uwzględniono w sposób uproszczony zgodnie z EC9.
Studium modernizacji mostu ...
147
Zastosowano współczynnik strefy HAZ ρHAZ = 0,65, zmniejszający wytrzymałość obliczeniową materiału.
Tabela 1. Zestawienie maksymalnych naprężeń w pomoście dla klas obciążeń A–E według
normy [6]
Klasa obciążenia
według normy [6]
Naprężenia
Maks.
y-y
[MPa]
(w poprzek
Min.
pomostu)
[MPa]
Naprężenia
Maks.
x-x
[MPa]
(wzdłuż
Min.
pomostu)
[MPa]
Naprężenie ścinające
[MPa]
Naprężenie wypadkowe
[MPa]
A
(x 1,0)
B
(x 0,75)
C
(x 0,5)
D
(x 0,4)
E
(x 0,3)
75,27
56,45
37,64
30,11
22,58
–233,36
–175,02
–116,68
–93,34
–70,00
36,20
27,15
18,10
14,48
10,86
–73,19
–54,89
–36,60
–29,28
–21,96
19,33
14,50
9,67
7,73
5,80
–254,03
–190,52
–127,02
–101,61
–76,21
Tabela 2. Porównanie maksymalnych naprężeń do wytrzymałości obliczeniowych według Eurokodu 9
Klasa
Maksymalne Wytrzymałość obliczeniowa
według [16] [MPa]
obciążenia naprężenie
według
wypadkowe
fW
fOHAZ
fO
normy [6]
[MPa]
Stosunek
naprężenie/wytrzymałość
σmax/fO
σmax/fW
σmax/fOHAZ
A
254,03
1,16
1,67
1,79
B
190,52
0,87
1,25
1,34
C
127,02
0,58
0,83
0,89
D
101,61
0,47
0,67
0,72
E
76,21
0,35
0,50
0,54
218
152
142
Zgodnie z oczekiwaniami, układem obciążeń wywołującym maksymalne
wartości naprężeń w elementach pomostu był układ zawierający cztery kolejne
koła pojazdu K, ustawione w osi pomostu (schemat 2.). Naprężenia maksymalne
podane w tab. 1. i 2. dotyczą tego schematu obliczeniowego. Przeprowadzona
uproszczona analiza porównawcza wykazała, że najwyższą klasą obciążenia, dla
której w strefie wpływu ciepła nie przekroczono wytrzymałości obliczeniowej,
jest klasa C według [7]. Dla dwóch najwyższych klas obciążeń mostowych uzyskane naprężenia przekraczały wytrzymałość obliczeniową o 34% i 79%.
W przeprowadzonej analizie przyjęto szereg uproszczeń, które wpłynęły
niekorzystnie na otrzymane wartości naprężeń w pomoście, m.in.:
148
T. Siwowski, M. Piekiełek
• Przyjęto swobodnie podparty układ panelu. W rzeczywistości, w obiektach lub pomostach wielodźwigarowych będzie występował układ ciągły
lub utwierdzony. Zmiana schematu obniży naprężenia w środku rozpiętości płyty od kilkanastu do kilkudziesięciu procent.
• Przyjęto liniowe podparcie panelu. W rzeczywistości podparcie będzie
na pewnej płaszczyźnie (szerokości pasa górnego belki). Obniży to naprężenia o kilka procent.
• W miejscach połączeń ścianek panelu przyjęto (w celu uproszczenia
modelowania w MES) ostre krawędzie. Są to miejsca występowania
maksymalnych naprężeń ścinających i wypadkowych, decydujących
o nośności pomostu. W rzeczywistości krawędzie te są zaokrąglone, co
zmniejszy naprężenia ze względu na „łagodność” ich przepływu.
• Uproszczono modelowanie materiału, przyjmując jedynie jego główne
parametry. W przypadku opisu w programie pełnej krzywej σ/ε wybranego stopu aluminium do określenia nośności można wykorzystać nieliniowość materiałową, co zwiększy zakres dopuszczalnych naprężeń.
• Uproszczono modelowanie wpływu strefy HAZ, przyjmując współczynnik normowy. W przypadku przyjęcia pełnej krzywej σ/ε dla metalu spawanego można otrzymać ww. korzyści.
• W celu uproszczenia analizy wyników porównano bezpośrednio uzyskane w MES naprężenia od obciążenia obliczeniowego według normy
[7] z wytrzymałością obliczeniową aluminium według Eurokodu 9 [16].
Oceniając bezpieczeństwo konstrukcji aluminiowej w ścisłej zgodności
z Eurokodem, należałoby porównać obliczeniowe siły wewnętrzne z nośnością obliczeniową przekroju płyty. Ponieważ Eurokod nie podaje
sposobu wyznaczenia tej nośności w przypadku analizowanego typu
pomostu, dlatego przyjęto metodę uproszczoną.
6. Wnioski
Przeprowadzona analiza statyczno-wytrzymałościowa pomostu aluminiowego, pomimo wstępnego i uproszczonego zakresu wykazała, że ten rodzaj konstrukcji pomostu może być stosowany w modernizacji mostów drogowych. Potwierdzona obliczeniowo nośność pomostu klasy „C” jest zazwyczaj wystarczająca w przypadku modernizacji, lecz może być zbyt niska w stosunku do współczesnych wymagań co do nowych obiektów. Dlatego będą prowadzone dalsze
prace analityczne i badawcze w celu zwiększenia nośności tego typu pomostu,
m.in. przez zwiększenie wysokości panelu do około 20–22 cm, zwiększenie
grubości blach górnej i dolnej itp. Zwiększenie wymiarów kształtowników będzie możliwe już w niedalekiej przyszłości, gdyż polscy producenci aluminiowych wyrobów wyciskanych stale zwiększają swoje możliwości technologiczne.
Studium modernizacji mostu ...
149
Ponadto w nowych mostach możliwy jest taki dobór układu rusztu belek, który
pozwoli na regulację sił wewnętrznych w pomoście.
Uzyskane analitycznie wyniki pracy pomostu aluminiowego zostaną także
zweryfikowane doświadczalnie. W Katedrze Mostów Politechniki Rzeszowskiej
są bowiem prowadzone badania opisanego powyżej fragmentu konstrukcji pomostu. Ustalona w wyniku badań rzeczywista nośność konstrukcji zostanie wykorzystana do opracowania odpowiednich zaleceń konstrukcyjnych i obliczeniowych.
Literatura
[1] Mańko Z.: Rekonstrukcja zabytkowego Mostu Tumskiego przez rzekę Odrę we
Wrocławiu. Materiały z konferencji naukowo-technicznej „Mosty w drodze do
XXI wieku”. Gdańsk, 3–5 września 1999
[2] Siwowski T., Kusek T.: Sposoby modernizacji kratowych przęseł mostów drogowych. Materiały z konferencji naukowo-technicznej „Mosty w drodze do XXI
wieku”. Gdańsk, 3–5 września 1999
[3] Barabach S., Głomb J., Pyster J.: Spawany most aluminiowy. Inżynieria i Budownictwo, 2, 1968
[4] Jarominiak A.: Perspektywy stosowania aluminium w budownictwie mostowym.
Inżynieria i Budownictwo, 9, 2001
[5] Siwowski T.: Wykorzystanie stopów aluminium do modernizacji istniejących mostów. Proceedings of VI International Scientific Conference. Current Issues of
Civil and Environmental Engineering. Lviv, September 2001
[6] Piekiełek M., Maślanka R.: Studium techniczne przebudowy mostu przez Wisłę
w Nagnajowie. Praca dyplomowa przygotowana pod kierunkiem dr. inż. T. Siwowskiego. Politechnika Rzeszowska, Rzeszów 2002
[7] PN-85/S-10030. Obiekty mostowe. Obciążenia
[8] Rozporządzenie Ministra Transportu i Gospodarki Morskiej z dnia 30 maja 2000 r.
w sprawie warunków technicznych jakim powinny odpowiadać drogowe obiekty
inżynierskie i ich usytuowanie. Dz.U., Nr 63, Warszawa, 3 sierpnia 2000
[9] Bryl S., Bryl J.: Tablice inżynierskie. Tom II. PWN, Poznań 1957
[10] PN-58/B-03261. Betonowe i żelbetowe konstrukcje mostowe. Obliczenia statyczne
i projektowanie
[11] PN-82/S-10052. Obiekty mostowe. Konstrukcje stalowe. Projektowanie
[12] PN-91/S-10042. Obiekty mostowe. Konstrukcje betonowe, żelbetowe i sprężone.
Projektowanie
[13] Pszenicki A.: Mosty stalowe nitowane. WK, Warszawa 1954
[14] Siwowski T.: Wykorzystanie pomostów aluminiowych do modernizacji mostów.
Inżynieria i Budownictwo, 3–4, 2002
[15] Siwowski T. Analiza statyczno-wytrzymałościowa pomostu ze stopu aluminium.
Materiały z XLVII Konferencji Naukowej KILiW PAN i KN PZiTB, Krynica 2001
[16] Dwight J.: Aluminium Design and Construction. E&FN Spon, London–New
York 1999
[17] Eurocode No. 9. Design of aluminium structures, 1999
150
T. Siwowski, M. Piekiełek
THE MODERNISATION STUDY OF OLD BRIDGE OVER VISTULA RIVER
IN NAGNAJOW WITH THE UTILIZATION OF ALUMINIUM DECK
Summary
The obsolescence of old bridges, built in the early XX century, has recently became the very
important issue, both technically and economically. Many of these bridges have to be rehabilitated
due to low carrying capacity. The example of such kind of modernisation works, with the utilisation of high strength and durability aluminium deck, has been described in the paper. The detailed
numerical simulation using a 3D FEM computer model of the deck has been also presented, which
confirmed fulfilment of design requirements.
Złożono w Oficynie Wydawniczej w maju 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Aleksander STARAKIEWICZ
Politechnika Rzeszowska
AZBEST W BUDYNKACH – PROBLEM
DO MĄDREGO ROZWIĄZANIA
W artykule przedstawiono krótką historię pochodzenia azbestu, jego zastosowanie
w różnych działach gospodarki oraz zagrożenie dla zdrowia ludzkiego. Scharakteryzowano materiały budowlane pod względem ich gęstości, procentowej zawartości azbestu oraz zastosowania tych materiałów w budownictwie. Przytoczono akty
prawne związane z występowaniem i oceną wyrobów zawierających azbest, podano sposoby postępowania z wyrobami azbestowymi.
1. Wprowadzenie
Azbest jest nazwą handlową minerałów włóknistych z grupy serpentynu
i amfiboli. Minerały te charakteryzują się unikalnymi właściwościami chemicznymi i fizycznymi, tj. elastyczność, wytrzymałość na rozciąganie, odporność na
wysoką temperaturę, odporność na działanie kwasów, zasad i innych chemikaliów, zdolność tłumienia dźwięków oraz niska przewodność cieplna.
Początki stosowania azbestu stwierdzono w Finlandii w okolicach miejscowości Paakkila na podstawie wykopalisk, około 4500 lat temu. Występują
tam eksploatowane do 1974 r. złoża azbestu antofyllitowego. Starożytni Rzymianie używali azbestu do wyrobu płótna zwanego linum vivum („żyjące płótno”), w które owijali zwłoki władców, aby po spaleniu zachować ich prochy.
Znane i cenione od dawna właściwości tego minerału spowodowały, że trzy
minerały azbestowe zyskały popularność i szerokie zastosowanie w gospodarce
światowej. Są to: powszechnie stosowany chryzotyl (azbest biały), w mniejszym
stopniu wykorzystywany krokidolit (azbest niebieski) i jeszcze rzadziej stosowany amosyt (azbest brązowy) [1].
Wyroby azbestowe były powszechnie wykorzystywane w wielu dziedzinach gospodarki, tj. budownictwo, energetyka, komunikacja, przemysł stoczniowy, lotniczy.
W budownictwie azbest i wyroby azbestowe stosowano w różnych obiektach, gdzie potrzebna była podwyższona odporność ogniowa i zabezpieczenie
ogniochronne elementów narażonych na wysoką temperaturę (np. zabezpieczenia konstrukcji stalowych, klapy przeciwpożarowe), do pokryć dachowych
152
A. Starakiewicz
i elewacyjnych (płyty faliste i prasowane), w sieciach wodociągowych i kanalizacyjnych, na przewody wentylacyjne, spalinowe i dymowe (rury wysokociśnieniowe, rury kanalizacyjne). Azbest stosowano także w tkaninach tłumiących
hałas (tłumiki w wentylacji i klimatyzacji).
W energetyce azbest stosowany był w obmurzach bloków energetycznych
(jako izolacje termiczne kotłów i turbin w postaci sznurów i tektur), w uszczelnieniach urządzeń pracujących w wysokiej temperaturze (zaworach, wymiennikach ciepła), w izolacjach sieci ciepłowniczych (płaszcze azbestowo-cementowe
lub azbestowo-gipsowe).
W komunikacji kolejowej azbest był stosowany do termoizolacji elektrycznych urządzeń grzewczych, natomiast w komunikacji samochodowej do termoizolacji silników pojazdów, w uszczelkach elementów pracujących w wysokiej
temperaturze, w elementach ciernych (tarczach sprzęgieł, klockach hamulcowych).
2. Zagrożenie zdrowia azbestem
Wyniki badań epidemiologicznych i eksperymentalnych wykazały, że patogenne działanie azbestu jest wynikiem wdychania włókien zawieszonych w powietrzu. Szczególnie istotna jest średnica i długość poszczególnych włókien.
Włókna o dużej średnicy – powyżej 5 µm, odkładają się w górnej części dróg
oddechowych, podczas gdy cienkie, o średnicy poniżej 3 µm, są przenoszone
i odkładają się w końcowych odcinkach dróg oddechowych. W przemieszczaniu
się włókien istotną rolę odgrywa ich kształt. Skręcone włókna chryzotylu o dużej średnicy mają tendencję do zatrzymywania się wyżej niż igłowate włókna
amfiboli, z łatwością są przenoszone do obrzeży płuc.
W oczyszczaniu dolnej części układu oddechowego z włókien uczestniczą
głównie trzy mechanizmy biologiczne. Większość pyłu jest usuwana z dróg
oddechowych za pośrednictwem śluzu, odkrztuszania, wypluwania lub połykania. Krótkie włókna są pochłaniane w drogach oddechowych przez makrofagi na
drodze mechanizmu oczyszczania układu oddechowego. Niektóre włókna azbestu są wychwytywane przez komórki nabłonkowe wyścielające drogi oddechowe; włókna gromadzą się w warstwie śródmiąższowej i są przenoszone do gruczołów chłonnych. Około 1/3 wdychanych włókien umiejscawia się w końcowych odcinkach układu oddechowego. Prawie połowa wdychanych włókien jest
usuwana z organizmu człowieka w ciągu kilku dni, pozostałe w dłuższym czasie. Negatywną rolę w procesie usuwania zanieczyszczeń z płuc odgrywają
czynniki zewnętrzne, takie jak dym tytoniowy i inne zanieczyszczenia powietrza.
Największe zagrożenie dla organizmu ludzkiego stanowią: stężenie i długość trwania procesu oraz włókna respirabilne (włókna, które z powietrzem
dostają się do pęcherzyków płucnych, skąd mogą penetrować tkankę płucną).
Azbest w budynkach ...
153
Średnica włókien respirabilnych jest mniejsza od 3 µm. Włókna respirabilne
długości poniżej 5 µm częściowo są wydalane oraz pochłaniane przez makrofagi. Włókna długości powyżej 5 µm są zatrzymywane, przy czym najbardziej
szkodliwa jest retencja w układzie oddechowym włókien długości około 20 µm.
Włókna azbestu wnikające głęboko do układu oddechowego mogą powodować groźne choroby, takie jak: pylica azbestowa (azbestoza), międzybłoniak
opłucnej lub otrzewnej, nowotwór płuc. Schorzenia te występują szczególnie u
osób zawodowo narażonych na duże dawki pyłu azbestowego lub u osób przebywających okresowo w powietrzu silnie zanieczyszczonym pyłami respirabilnymi azbestu.
Ryzyko dla zdrowia wynikające z wchłaniania pyłu azbestowego drogą pokarmową jest znikome [1].
3. Materiały budowlane zawierające azbest i występujące
w budynkach
Azbest w materiałach budowlanych może się znajdować w różnej ilości
oraz być bardziej lub mniej trwale związany. Dlatego też wyroby zawierające
azbest można podzielić według trwałości i ilości zastosowanego spoiwa wiążącego na miękkie i twarde.
Wyroby miękkie gęstości mniejszej niż 500 kg/m3 charakteryzują się dużym procentowym udziałem azbestu, szybko ulegają uszkodzeniom, emitują
duże ilości pyłu azbestowego. Wyroby miękkie to m.in.: sznury, płótna, tkaniny
z dodatkiem azbestu (lub wykonane z samego azbestu), płyty i uszczelki, płaszcze azbestowo-gipsowe (stosowane w izolacji rur), płyty i tektury miękkie (stosowane w izolacjach ognioochronnych), płyty ognioochronne typu PYRAL lub
SOKALIT (zawierające ok. 30–50% azbestu), natryski azbestowe na konstrukcje stalowe.
Wyroby twarde, gęstości większej niż 1000 kg/m3, to wyroby zawierające
azbest najpowszechniej występujące w krajowym budownictwie. Charakteryzują
się dużym stopniem zwięzłości, dużym udziałem spoiwa cementowego, niską
procentową zawartością azbestu (ok. 5% w płytach płaskich lignocementowych
modyfikowanych, 12–13% w płytach płaskich i falistych azbestowo-cementowych i ok. 20% w rurach azbestowo-cementowych). W przeciwieństwie do
wyrobów miękkich emitują małe ilości pyłu azbestu. Dlatego też uważa się je za
mniej groźne w użytkowaniu, jak i w trakcie prowadzenia prac remontowych. Za
takie same są uważane też ich odpady. Jednak największa emisja pyłu azbestowego od wyrobów twardych powstaje podczas ich obróbki mechanicznej (piłowania, wiercenia lub szlifowania narzędziami elektrycznymi), gdy brak jest
miejscowego odciągu pyłu. Emisja pyłu azbestowego występuje także w trakcie
trwania eksploatacji wyrobów pod wpływem czynników atmosferycznych lub
154
A. Starakiewicz
chemicznych. Wyroby twarde to m.in.: płyty azbestowo-cementowe faliste, płaskie prasowane, płaskie KARO, rury azbestowo-cementowe, gąsiory dachowe,
płaszcze azbestowo-cementowe do izolacji cieplnej rur.
W budownictwie materiały azbestowo-cementowe zastosowane były w takich systemach jak: OWT, WK-70, W-70, SBM-75. W systemach tych stosowano ściany osłonowe o nazwie: WW–78, Progor (na ruszcie drewnianym LSO–D,
na ruszcie stalowym LSO-S), Gdańsk, Bistyp–2, Bistyp–3, Bistyp–4, Skold.
Wszystkie te ściany osłonowe posiadały w swojej konstrukcji jedną lub dwie
płyty azbestowo-cementowe. Płyty azbestowo-cementowe umiejscowione były
wewnątrz ściany osłonowej lub na zewnątrz jako okładziny elewacyjne. Od wewnątrz (od pomieszczenia) pokrywały je płyty gipsowo-kartonowe (jedna lub
dwie).
4. Postępowanie z wyrobami azbestowymi znajdującymi się
w budynkach
Kilka lat temu w środkach masowego przekazu została nagłośniona sprawa
szkodliwości azbestu. Wywołało to w społeczeństwie ogólny lęk związany
z wyrobem, w którego nazwie było słowo azbest, lub gdy azbest stanowił komponent wyrobu. W związku z tym w czerwcu 1997 r. została uchwalona ustawa
o zakazie stosowania wyrobów zawierających azbest [2]. W kolejnym, 1998 r.
zostało wydanych kilka rozporządzeń ministerialnych m.in. w sprawie „bezpiecznego użytkowania oraz warunków usuwania wyrobów zawierających
azbest” [3], „zasad bhp przy zabezpieczaniu i usuwaniu wyrobów zawierających
azbest oraz programu szkolenia w zakresie bezpiecznego użytkowania takich
wyrobów” [4]. Natomiast w styczniu 2001 r. Ministerstwo Gospodarki przygotowało dokument pt. „Program usuwania azbestu i wyrobów zawierających
azbest stosowanych na terenie Polski”. Wydaje się, że jest to popadanie z jednej
skrajności (media i psychoza społeczna) w drugą skrajność (nakazy usuwania
wszystkiego co jest związane z azbestem). To, że azbest jest szkodliwy zostało
udowodnione, ale usuwanie wszelkich wyrobów zawierających azbest jest działaniem mocno przesadzonym. Profesor W. Płoński w swoim artykule o azbeście
[5] pisze „...Zrealizowanie tego programu jest konieczne, ale mało osób ma rozeznanie, jak trudny i kosztowny będzie to program. Około 80% wiejskich budynków mieszkalnych i gospodarczych w naszym kraju jest pokryte płytami
azbestowo-cementowymi, popularnie zwanymi eternitem... W 1995 roku widziałem co robili Niemcy z płytami azbestowo-cementowymi, które były okładzinami ścian lub stanowiły pokrycia dachów. Okładziny ścian były w dobrym
stanie technicznym, dlatego malowano je, aby na powierzchni związać włókna
i pył azbestowy... płyty nadające się do dalszego użytkowania oczyszcza się,
nakłada warstwę wzmacniającą, a następnie się je maluje.”
Azbest w budynkach ...
155
Dlatego też, przystępując do prac mających na celu zmniejszenie wpływu
azbestu na środowisko, niezbędna jest inwentaryzacja wyrobów zawierających
azbest oraz określenie jego rodzaju. Niezbędna jest specjalistyczna identyfikacja
i lokalizacja tego materiału w obiekcie oraz ocena stanu technicznego wyrobu
i ryzyka emisji pyłu. Prace identyfikacyjne utrudnia brak znakowania produkowanych w Polsce wyrobów zawierających azbest. Skutkuje to tym, że w trakcie
prac remontowych często dochodzi do nieświadomego ich uszkadzania
i niekontrolowanej emisji pyłu azbestowego. Podczas inwentaryzacji należy
zwracać szczególną uwagę na występowanie miękkich wyrobów azbestowych
(elementy instalacji wentylacyjnych, urządzeń wodno-kanalizacyjnych i grzewczych, zabezpieczenia ognioochronne konstrukcji stalowych w budynkach, wyposażenie maszyn wymagających izolacji termicznej, ognioochronnej i elektrycznej).
Zgodnie z Rozporządzeniem Ministra Gospodarki (Dz.U. nr 138, poz. 895)
[3] wyroby azbestowe znajdujące się w budynku powinny być ocenione w czasie
przeglądu technicznego przeprowadzonego zgodnie z wymogami Prawa budowlanego, tj. m.in. z udziałem osoby posiadającej uprawnienia budowlane (wskazane jest, żeby osoba ta posiadała uprawnienia rzeczoznawcy w tej problematyce) [6]. Wyniki przeglądu powinny być udokumentowane w „Ocenie stanu
i możliwości bezpiecznego użytkowania wyrobów zawierających azbest” (załącznik nr 1 do ww. rozporządzenia). Ocena kończy się zsumowaniem przyjętej
punktacji, a ostateczny wynik jest uzależniony m.in. od sposobu zastosowania
azbestu, rodzaju zastosowanego azbestu, struktury powierzchni wyrobu z azbestem, stanu zewnętrznego wyrobu z azbestem, ryzyka uszkodzenia powierzchni
wyrobu azbestowego, sposobu wykorzystania budynku lub pomieszczenia, usytuowania wyrobu.
Obecność azbestu wewnątrz lub na zewnątrz obiektu nie oznacza automatycznie konieczności jego usuwania. Działania są uzależnione od wyniku oceny
stanu technicznego i możliwości bezpiecznego użytkowania wyrobów z azbestem.
Przy sumie punktów powyżej 60 (stopień pilności I) występuje konieczność podjęcia działań polegających na wymianie lub naprawie ocenianego wyrobu najszybciej, jak to jest możliwe.
Przy sumie punktów 35–55 (stopień pilności II) – konieczność powtórzenia oceny w ciągu 1 roku.
Przy sumie punktów 25–35 (stopień pilności III) – konieczność powtórzenia oceny technicznej w ciągu 5 lat. Należy mieć świadomość, że liczba punktów ma charakter uznaniowy i nie jest w pełni obiektywna.
Nie przeprowadza się działań naprawczych, gdy łącznie są spełnione następujące warunki. Wynik oceny stanu technicznego wyrobu mieści się w granicach 25–55 punktów (oceniany wyrób jest w dobrym stanie technicznym), wyrób nie należy do grupy „miękkich”, jest zainstalowany zgodnie z wcześniejszymi przepisami i przyjętym projektem technologicznym, eksploatacja w nor-
156
A. Starakiewicz
malnych warunkach nie powoduje znaczącej emisji włókien azbestu do otoczenia (zaleca się laboratoryjny pomiar stężenia respirabilnych włókien azbestu w
powietrzu).
Wystarczającymi środkami ostrożności są: oznakowanie wyrobu (zabezpieczenie przed nieświadomym, nieumyślnym uszkodzeniem lub samoistnym niszczeniem), utrzymanie go w dobrym stanie technicznym, okresowa kontrola wizualna i pomiary zanieczyszczenia powietrza. Wymagana jest ponowna ocena
techniczna wyrobów w okresie do 1 roku lub 5 lat, w zależności od liczby punktów, które uzyskał wyrób.
W Polsce nie ustanowiono akceptowalnej wartości stężenia pyłów azbestu
w pomieszczeniach przeznaczonych na stały pobyt ludzi. Można jednak przyjąć,
że działania naprawcze nie są konieczne, jeśli wynik pomiarów pyłów respirabilnych azbestu jest niższy niż 1000 wł./m3, w zależności od przeznaczenia pomieszczenia. Bardziej rygorystycznie należy oceniać pomieszczenia, w których
przebywają dzieci i młodzież.
W tym miejscu trzeba przypomnieć, że MPiPS proponuje nowe wartości
NDS (najwyższe dopuszczalne stężenie na stanowisku pracy) wszystkich pyłów
zawierających azbest na poziomie 0,2 wł./cm3, tj. 200 000 wł./m3.
Działania naprawcze (powyżej 60 pkt.) należy podejmować szczególnie
wobec wyrobów miękkich oraz tych wyrobów twardych, które są uszkadzane w
trakcie eksploatacji. Od opinii specjalistów zależy zakres prac naprawczych, do
których zaliczamy:
1) usunięcie azbestu – demontaż całości lub części materiałów wbudowanych (najbardziej zagrażających),
2) zabudowę – zamknięcie przestrzeni, w której znajduje się azbest szczelną przegrodą,
3) uszczelnianie – malowanie powierzchni wyrobów głęboko penetrującymi środkami wiążącymi azbest,
4) renowacja – czyszczenie powierzchni wyrobów na mokro, gruntowanie
polimerowymi masami wnikającymi w pory wyrobu, nakładanie masy
wierzchniej, wzmacniającej i chroniącej wyrób przed czynnikami atmosferycznymi.
W krajach Unii Europejskiej stosuje się kilka prostych metod naprawczych
płyt azbestowo-cementowych, które można udoskonalać lub opracować inne
(według opinii autorów tych rozwiązań). Natomiast zrywanie płyt nadających
się do renowacji uważa się za rozwiązanie najgorsze.
Usunięcie azbestu z budynku ma charakter prac rewitalizacyjnych i powinno się je prowadzić podczas głównych remontów budynku. Prace te podnoszą
koszt remontu, ale i wartość całego obiektu. Decyzja o usunięciu azbestu z budynku rozwiązuje definitywnie problem zagrożenia zdrowia osób przebywających w budynku.
Azbest w budynkach ...
157
Za przygotowanie i realizację robót usuwania azbestu, zgodnie ze specjalnymi wymaganiami bhp dotyczącymi prac z azbestem, odpowiada wykonawca
posiadający zezwolenie na wytwarzanie odpadów niebezpiecznych. Na wykonawcy wytwarzającym odpady ciążą obowiązki związane z właściwym postępowaniem z odpadami, w tym również z usuwaniem, wykorzystaniem lub
unieszkodliwianiem wytworzonych odpadów i prowadzeniem ewidencji odpadów. Obowiązki te wynikają z ustawy z 27 czerwca 1997 r. o odpadach
(Dz.U. nr 96, poz. 592 z późn. zm.) [7] oraz § 3 ust. 1 rozporządzenia Ministra
Gospodarki z 14 sierpnia 1998 r. w sprawie sposobów bezpiecznego użytkowania oraz warunków usuwania wyrobów zawierających azbest (Dz.U. nr 138,
poz. 895) [3] oraz innych rozporządzeń ministerialnych [8–10].
Literatura
[1] Szeszenia-Dąbrowska N.: Problemy zanieczyszczenia powietrza włóknami azbestu. Biblioteka Monitoringu Środowiska, Państwowa Inspekcja Ochrony Środowiska, Warszawa 1993
[2] Ustawa z 19 czerwca 1997 r. o zakazie stosowania wyrobów zawierających azbest
(Dz.U. nr 101, poz. 628)
[3] Rozporządzenie Ministra Gospodarki z 14 sierpnia 1998 r. w sprawie bezpiecznego użytkowania oraz warunków usuwania wyrobów zawierających azbest (Dz.U.
nr 138, poz. 895)
[4] Rozporządzenie Ministra Pracy i Polityki Socjalnej z 2 kwietnia 1998 r. w sprawie
zasad bezpieczeństwa i higieny pracy przy zabezpieczaniu i usuwaniu wyrobów
zawierających azbest oraz programu szkolenia w zakresie bezpiecznego użytkowania takich wyrobów (Dz.U. nr 45, poz. 280)
[5] Płoński W.: Co jeszcze trzeba wiedzieć o azbeście? Przegląd Budowlany,
Nr 6, 2001
[6] Ustawa z 7 lipca 1994 r. Prawo budowlane (Dz.U. nr 89, poz. 414)
[7] Ustawa z 27 czerwca 1997 r. o odpadach (Dz.U. nr 96, poz. 592, zm. Dz.U.
z 2000 r. nr 22, poz. 272)
[8] Rozporządzenie Ministra Gospodarki z 21 października 1998 r. w sprawie szczegółowych zasad usuwania, wykorzystywania i unieszkodliwiania odpadów niebezpiecznych (Dz.U. nr 145, poz. 942)
[9] Rozporządzenie Ministra Zdrowia i Opieki Społecznej z 11 września 1996 r.
w sprawie czynników rakotwórczych w środowisku pracy oraz nadzoru nad stanem
zdrowia pracowników zawodowo narażonych na te czynniki (Dz.U. nr 121, poz.
571)
[10] Rozporządzenie Ministra Ochrony Środowiska, Zasobów Naturalnych i Leśnictwa
z 12 września 1998 r. w sprawie wzorów dokumentów stosowanych na potrzeby
ewidencji odpadów oraz służących do przekazywania informacji o rodzaju i ilości
odpadów umieszczonych na składowisku odpadów i o czasie ich składowania
(Dz.U. nr 121, poz. 794)
158
A. Starakiewicz
ASBESTOS IN THE BUILDINGS – THE PROBLEM
FOR THE SENSIBLE SOLUTION
Summary
The following paper presents the short history of asbestos, its usage in various branches of
economy and its threat to human health. Materials used in buildings have been characterized due
to their usage of these materials in the constructions industry their density and the asbestos content
percentage. Legal documents connected with the ocurence and the estimation of products containing asbestos have been quoted. Several different ways of handling the products containing asbestos
have been given.
Złożono w Oficynie Wydawniczej w marcu 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Aleksander STARAKIEWICZ
Politechnika Rzeszowska
HYDROIZOLACJE W OBIEKTACH
BUDOWLANYCH – PRZEGLĄD MATERIAŁÓW
W początkowej części artykułu przedstawiono ogólny podział hydroizolacji w zależności od pełnionych funkcji ochronnych w obiektach budowlanych, warunków
wodno-gruntowych, rodzaju zastosowanego materiału. W dalszej jego części
przedstawiono szczegółowe rozwiązania technologiczno-materiałowe.
1. Podział hydroizolacji
W zależności od spełnianych funkcji ochronnych w obiektach budowlanych, hydroizolacje można podzielić na [1, 2]:
• izolacje przeciwwilgociowe – przeznaczone do ochrony obiektów budowlanych lub ich części przed działaniem wody niewywierającej parcia
hydrostatycznego (związana w gruncie woda, która może być podciągana kapilarnie, ewentualnie nagromadzona przy fundamencie piwnic woda opadowa),
• izolacje przeciwwodne – przeznaczone do ochrony obiektów budowlanych lub ich części przed działaniem wody wywierającej ciśnienie hydrostatyczne (posadowienie poniżej poziomu wody gruntowej, w gruntach spoistych, na zboczach),
• izolacje parochronne – przeznaczone do zabezpieczenia elementów
budowlanych przed działaniem pary wodnej.
W zależności od warunków wodno-gruntowych można wyróżnić następujące izolacje przeciwwilgociowe [1, 2]:
• typu lekkiego – stosowane w celu ochrony przegród budynku przed
przenikaniem wilgoci (posadowienie w gruntach przepuszczalnych powyżej poziomu wody gruntowej). Funkcję tę pełnią izolacje bitumiczne
bez wkładek, np. powłoki gruntujące, izolacje z mas powłokowych, powłoki z tworzyw sztucznych oraz środki uszczelniające powierzchnie
materiałów konstrukcji. Są dość wrażliwe na uszkodzenia mechaniczne,
nie zapewniają pełnej ochrony budowli przed szkodliwymi wpływami
chemicznymi,
160
A. Starakiewicz
• typu średniego – stosowane jako ochrona budowli przed wodą opadową
bezpośrednią (niewywierającą ciśnienia hydrostatycznego), izolacje pionowe i poziome w budynkach, tarasy, przepusty, zbiorniki podziemne
itp. Do tego rodzaju izolacji można zaliczyć izolacje bitumiczne, izolacje bitumiczne z jedną lub dwiema warstwami wkładek, izolacje z plastycznych mas bitumiczno-mineralnych, powłoki z tworzyw sztucznych,
asfaltów lanych, tynków wodoszczelnych itp.,
• typu ciężkiego – stosowane w celu zabezpieczenia budowli przed wodą
naporową (wywierającą ciśnienie hydrostatyczne). Są to przeważnie izolacje bitumiczne z wkładkami z papy lub cienkich blach metalowych,
tkaniny asfaltowe, warstwy lub laminaty z mas plastycznych itp. Ilość
wkładek jest większa i wynosi zwykle od trzech do sześciu. Stosowana
jest również warstwa dociskowa z cegły klinkierowej lub betonu.
Podział izolacji przeciwwilgociowych pod względem materiałowym [3]:
• materiały powłokowe (emulsje i laminaty bitumiczne, materiały płynne
do wykonywania izolacji zbrojonych i niezbrojonych, wyprawy na bazie
cementu: zwykłe i elastyczne). Zaletą tych materiałów jest ciągłość powłok, łatwe pokrywanie skomplikowanych detali, dobra przyczepność
do podłoża,
• membrany i materiały rolowe (całkowicie zespolone z podłożem –
klejone, zgrzewane, samoprzylepne, mocowane mechanicznie; membrany wytłaczane ze złączami szczelnymi i otwartymi). Ich zaletami są:
szybkie i łatwe układanie, wodoodporność prawie natychmiast po ułożeniu, trwałość i odporność na uszkodzenia mechaniczne,
• bentonity (panele, maty, geomaty, taśmy, kompozyty, bentonity z urządzeniami wspomagającymi). Ich zalety to: możliwość wykonywania
prac przez cały rok, paroprzepuszczalność i zapobieganie kondensacji
pary wodnej w przegrodzie budowlanej.
• inne wyroby wspomagające hydroizolacje (płyty z cementu i celulozy,
systemy odwadniania i drenażu).
2. Rozwiązania technologiczno-materiałowe
2.1. Hydroizolacje powłokowe
Bitumiczne powłoki izolujące
Są to masy asfaltowe modyfikowane w różny sposób, które można podzielić następująco [3–5]:
• Roztwory z asfaltów ponaftowych, tzw. gruntujące, (upłynniane rozpuszczalnikami organicznymi). Ich działanie polega na wnikaniu w pory
betonu i uszczelnianiu powierzchni oraz na stworzeniu warunków przy-
Hydroizolacje w obiektach budowlanych ...
161
czepności warstw izolacyjnych do podłoża. Nie należy ich stosować na
mokrych i przemrożonych powierzchniach betonowych. Roboty należy
prowadzić w temperaturze powyżej +5°C.
• Powłoki z asfaltów ponaftowych rozprowadzane na podłożu betonowym lub cementowym tworzą po wyschnięciu silnie przylegającą powłokę asfaltową o dużej elastyczności. Stosuje się je do tworzenia zewnętrznych warstw izolacji powłokowych typu lekkiego. Powłokę rozprowadza się cienką warstwą na zimno na zagruntowanym podłożu w
temperaturze powyżej +5°C.
Przykłady roztworów gruntujących i powłok asfaltowych [3–5]:
a) Abizol R, Cyklolep R – roztwory asfaltowe do gruntowania podłoży betonowych, wypraw cementowych, murów,
b) Abizol KL, Cyklolep KL – lepiki asfaltowe do przyklejania do podłoży
i sklejania między sobą warstw papy asfaltowej oraz do wykonywania
powłok przeciwwilgociowych typu lekkiego. Producent: Zakłady Chemii Budowlanej Inco-Veritas z Warszawy,
c) Izobud Br – roztwór asfaltowo-żywiczny do gruntowania i wykonywania powłokowych izolacji przeciwwilgociowych. Producent: Izohan z
Gdyni,
d) Ceresit CP-41 – emulsja gruntująca (przed zastosowaniem masy bitumicznej Ceresit CP-43). Producent: Henkel.
• Dyspersyjne masy asfaltowo-kauczukowe (emulsje rozcieńczane wodą) z możliwością wzmocnienia tkaninami zbrojącymi i posypkami mineralnymi. Istotną zaletą powłok jest paroprzepuszczalność (można je
układać na powierzchniach zawilgoconych) i możliwość łączenia z płytami styropianowymi.
Przykłady mas dyspersyjnych [3–5]:
a) Dysperbit – dyspersyjna masa asfaltowa do wykonywania izolacji przeciwwilgociowych, z co najmniej dwóch warstw po zagruntowaniu podłoża masą rozcieńczoną wodą w stosunku 1:1 (zużycie ok. 1,0 kg/m2 na
jedną warstwę),
b) Bitgum – masa dyspersyjna asfaltowo-gumowa do gruntowania podłoża
(rozcieńczona wodą w stosunku 1:1) oraz wykonywania powłok izolacyjnych przeciwwilgociowych i przeciwwodnych. Producent: Materiały
izolacyjne Izolacja SA ze Zduńskiej Woli,
c) DAG – masa dyspersyjna asfaltowo-gumowa do wykonywania izolacji
z laminatów,
d) Silfition Dickbeschichtung – emulsja asfaltowo–polimerowa, o konsystencji pasty, do wykonywania pionowych izolacji przeciwwilgociowych (zużycie ok. 4 l/m2). Producent: Remmers,
162
A. Starakiewicz
e) Isodämm – masa kauczukowo-bitumiczna, nakładana na izolowane powierzchnie szpachlą lub kielnią, warstwą o grubości 3–6 mm (zużycie
3–5 kg/m2). Producent: Ultramment GmbH,
f) COMBIFLEX-C2 – elastyczna masa do uszczelniania podziemnych części budowli. Producent: Schomburg,
g) Eurolan 3K – roztwór asfaltowy (rozcieńczany wodą w stosunku 1:10)
do gruntowania podłoży betonowych, wypraw cementowych, murów.
Producent: Deitermann z Wrocławia,
h) Superflex-10 – elastyczna, nie zawierająca rozpuszczalnika, dwuskładnikowa masa bitumiczna do wykonywania izolacji przeciwwilgociowych i przeciwwodnych, nakładana na izolowane powierzchnie szpachlą
lub kielnią, warstwą grubości 3–6 mm (zużycie 4–6 l/m2). Producent:
Deitermann z Wrocławia,
i) Ceresit CP-43 – elastyczna masa bitumiczna, dwuskładnikowa, zbrojona
włóknami, modyfikowana kauczukiem. Producent: Henkel.
• Lepiki asfaltowe z wypełniaczami lub bez (mogą zawierać również
dodatek substancji uplastyczniających) stosowane na gorąco. Mogą służyć do wykonywania powłok wodoszczelnych typu lekkiego.
Uszczelniające powłoki i zaprawy cementowe, tzw. sztywne
Przygotowane fabrycznie suche mieszanki cementów portlandzkich (zwykle marki 35 bez dodatków), kruszywa o starannie dobranym uziarnieniu i chemicznych środków modyfikujących, po dodaniu odpowiedniej ilości wody (lub
specjalnej emulsji) stanowią zaprawy uszczelniające zwane często szlamami.
Konsystencja (gęstej śmietany) umożliwia nakładanie ich pędzlem, szczotką
a nawet aparatem natryskowym na mineralne podłoże (beton, mur, tynk),
uprzednio dobrze zmoczone, ale bez wody zastoinowej. Najczęściej wymagane
jest ułożenie 2–3 warstw grubości ok. 1 mm każda, według zasady „mokre na
mokre” oraz pielęgnowanie, zależnie od temperatury otoczenia i nasłonecznienia
(zraszanie wodą). Podczas prowadzenia prac należy przestrzegać zaleceń podawanych przez producenta danego wyrobu [3, 6].
Powłoki uszczelniające chronią powierzchnie przed działaniem wilgoci,
lecz nie zabezpieczają przed stałym działaniem wody pod ciśnieniem.
Przykładowe materiały [3, 4]: Ceresit CR-65 firmy Henkel, Aquafin-1K
firmy Schomburg, Aida Sulfatexschlämme firmy Remmers, Cerinol DS firmy
Deitermann.
Powłoki cementowe uszczelniające przez krystalizację – XYPEX
XYPEX to materiał i metoda do wgłębnego beziniekcyjnego uszczelniania
betonu. Jest to unikalny chemiczny sposób wgłębnego beziniekcyjnego uszczelniania i zabezpieczania betonu. Pełną wodoszczelność uzyskuje się przez krystalizację. Preparat ten jest wytwarzany i dostarczany w postaci suchego proszku
Hydroizolacje w obiektach budowlanych ...
163
będącego specjalną kompozycją cementu portlandzkiego, drobnoziarnistego
piasku krzemionkowego i wielu aktywnych (firmowych) substancji chemicznych.
Po zmieszaniu z wodą XYPEX jest nanoszony na powierzchnię betonu
w postaci powłoki z zaczynu cementowego, tzw. szlamu. Zawarte w tym zaczynie aktywne substancje szybko przenikają w głąb wilgotnego betonu, inicjując
tam reakcje katalityczne, w wyniku których tworzą się nierozpuszczalne substancje, krystaliczne związki. Rozbudowują się one szybko, wypełniając włóknistym „rusztem” krystalicznym pory, kapilary i szczeliny betonu. Wypierają
z nich wodę wraz z innymi zawartymi w niej substancjami. W ten sposób
w coraz to głębszych partiach następuje osuszanie i trwałe samouszczelnienie się
betonu przeciwko przenikaniu wody i innych płynów z dowolnego kierunku.
XYPEX umożliwia dyfuzję pary wodnej. Może być nakładany na świeży
beton już po 20 godzinach od wylania, a najlepiej przed upływem 72 godzin. Nie
można nakładać XYPEX-u w czasie opadów i temperatur poniżej +4°C. Najlepsze rezultaty uzyskuje się, gdy nakładanie przeprowadza się w temperaturach
powyżej +7°C. Pielęgnacja odbywa się przez spryskiwanie powierzchni mgiełką
wody 2–3 razy dziennie przez 2–3 doby. W tym czasie należy chronić powierzchnię pokrytą XYPEX-em przed słońcem, deszczem, mrozem i polewaniem wodą. Zbiorniki na wodę mogą być napełnione dopiero po upływie 12 dni
od momentu zastosowania XYPEX-u.
Elastyczne, wodoodporne powłoki i zaprawy
Są wytwarzane na bazie cementu z dodatkiem środków polimerowych.
Przygotowanie i sposób nakładania są podobne jak w przypadku powłok sztywnych. Stosuje się je jako zabezpieczenie wodochronne konstrukcji poddanych
ruchom strukturalnym. Są skuteczną ochroną w wypadku niewielkiego ciśnienia
hydrostatycznego działającego okresowo [3, 6].
Przykładowe materiały [3, 4]: Ceresit CR-166 firmy Henkel, Aquafin-2K
firmy Schomburg, Aida Elastoschlämme firmy Remmers, Cerinol DS oraz Flex
firmy Deitermann, Webac 6511 firmy Webac, Icosit Membrane firmy Sika.
Betony i zaprawy uszczelniające
Poza cienkimi warstwami uszczelniającymi, układanymi na powierzchniach
elementów budowlanych, można z nich wykonywać nowe tynki, gładzie cementowe a nawet elementy betonowe wodoszczelne. Uzyskuje się je przez dodanie
do przygotowywanych mieszanek odpowiednich środków uszczelniających
w postaci proszku lub płynu [3, 6].
Przykładowe materiały [3, 4]: Ceresit CC-92 (proszek) i Ceresit CC-93
(płyn) firmy Henkel, Aida Pulver (proszek) firmy Remmers, Hydrostop firmy
Hydrostop z Warszawy.
164
A. Starakiewicz
Warstwy kontaktowe, tzw. obrzutki
Są wykonywane w celu uzyskania dobrej przyczepności do podłoża układanych warstw tynku lub betonu. Składają się z cementu, kruszywa oraz wody
zarobowej z dodatkiem specjalnej emulsji. Obrzutką zwykle pokrywa się 50–
70% powierzchni a następnie, na nie w pełni stwardniały materiał, układa się
pierwszą warstwę tynku. Emulsję kontaktową można również dodawać do zapraw i betonów, poprawiając w ten sposób przyczepność do podłoża, urabialność, elastyczność, odporność na spękanie układanych warstw [3, 6].
Przykładowe materiały [3]: emulsja kontaktowa Ceresit CC-81 firmy Henkel, mineralna warstwa szczepna – Cerinol firmy Deitermann.
Preparaty do tamowania wycieków wody
Są to mieszanki cementów hydraulicznych, starannie dobranego kruszywa
oraz środków modyfikujących. Po wymieszaniu z wodą tworzą prawie natychmiast wiążącą zaprawę wodoszczelną, która tamuje wycieki wody (nawet pod
ciśnieniem).
Przykładowe materiały [3, 4]: Ceresit CX-5 firmy Henkel, Aida Rapid-harter firmy „Remmers”, FIX 10-s firmy Schomburg, Hydrostop-Fix firmy Hydrostop z Warszawy.
2.2. Hydroizolacje z membran i materiałów rolowych
Papy na osnowie z tektury
Są produkowane jako podkładowe i wierzchniego krycia. Stosuje się je
głównie w pokryciach dachowych nowych budynków i do renowacji pokryć
istniejących. Do niedawna były one powszechnie stosowane do wykonywania
poziomych i pionowych izolacji przeciwwilgociowych i przeciwwodnych. Papę
asfaltową przykleja się lepikiem do zagruntowanego podłoża, a następnie (również na lepiku) przykleja się papę wierzchniego krycia (z posypką). Obecnie nie
zaleca się stosować pap asfaltowych na osnowie z tektury budowlanej w izolacjach przeciwwodnych będących pod stałym działaniem wody naporowej, podobnie jak pap izolacyjnych l/400. Zastępują je obecnie papy asfaltowe produkowane na osnowie z włókna szklanego lub włókniny poliestrowej.
Papy termozgrzewalne
Są produkowane na osnowie z włókna szklanego lub włókniny poliestrowej
i masy asfaltowej modyfikowanej elastomerem SBS lub plastomerem APP. Papy
na osnowie z włókniny poliestrowej charakteryzują się znaczną (30–40%) wydłużalnością przy rozciąganiu w porównaniu z ok. 2% wydłużalnością pap asfaltowych na osnowie z tektury budowlanej lub włókna szklanego. Papy termozgrzewalne przykleja się do zagruntowanego podłoża oraz skleja między sobą
przez nadtopienie masy bitumicznej (naniesionej fabrycznie na spód papy) płomieniem palnika gazowego i dociśnięcie do izolowanej powierzchni. Papy ter-
Hydroizolacje w obiektach budowlanych ...
165
mozgrzewalne przeznaczone są do wykonywania pokryć dachowych i do wszelkiego rodzaju hydroizolacji.
Papy samoprzylepne
Po zagruntowaniu podłoża odpowiednim dla danego rodzaju papy preparatem gruntującym, konieczne są tylko dwie czynności: ściągnięcie przekładki
antyadhezyjnej (folia lub papier woskowany) i przyciśnięcie papy do podłoża.
Papy samoprzylepne mogą być stosowane do wszystkich hydroizolacji z warstwą osłaniającą i dociskającą do podłoża.
Przykładowe materiały [3–5]: papy asfaltowe zgrzewalne Phonix PF5500
wierzchniego krycia i Phonix PF3500SBS podkładowa, firmy Dach-Dek
z Pruszcza Gdańskiego, papy asfaltowe zgrzewalne na osnowie z włókniny poliestrowej firmy Izolacja-Matizol w Gorlicach, polimerowo-asfaltowe papy
zgrzewalne na osnowie z włókniny poliestrowej Polbit WF i Polbit PF firmy
Izolacja S.A. Zduńska Wola, papy asfaltowe zgrzewalne AWA, Bonnaplan,
Awaplan firmy Tengger West-Awa z Kielc, papy asfaltowe zgrzewalne Vedatect
firmy Vedag Polska z Zielonej Góry.
Folie izolacyjne
Wodoodporne folie budowlane wykonane z PVC i PE, mogą stanowić samodzielne izolacje wodochronne pod warunkiem, że będą ułożone na równym
i czystym podłożu oraz właściwie połączone na zakładach arkuszy. Folie często
układa się luzem na powierzchniach izolowanych, klejąc je do podłoża jedynie
punktowo lub na załamaniach powierzchni. Złącza arkuszy mogą być zgrzewane, klejone odpowiednimi klejami, można też je uszczelnić przez naklejenie
pasków papy samoprzylepnej lub taśmy uszczelniającej.
Przykładowe materiały [3–5]:
• folie polietylenowe budowlane Lignofol firmy ZTS Egr-Bieruń z Bierunia,
• folia izolacyjna PVC (Benzowinyl W) grubości 0,8; 1,0; 1,5; 2,0; 2,5
mm firmy ZTS Egr z Oławy,
• folia budowlana PVC grubości 1,0; 1,5; 2,0 mm firmy ZTS Gamrat z Jasła,
• folia izolacyjna z polietylenu małej gęstości (PE-LD), grubości 0,15;
0,165; 0,18; 0,2; 0,5 mm firmy OBR Przemysłu Rafineryjnego z Płocka,
• folia izolacyjna z polietylenu, wysokiej gęstości (PE-HD) Junifol firmy
Foleko Sp. ze Świdnicy,
• folia budowlana z odpadów PCW-Plastpapa firmy PTS Pol-Win z Kępna,
• membrana izolacyjna Ceresit BT-21 – samoprzylepna, odporna na rozrywanie, podwójnie laminowana folia polietylenowa z naniesioną bitumiczno-kauczukową masą klejąco-uszczelniającą firmy Henkel.
166
A. Starakiewicz
Folie wytłaczane
Są wykonane z polietylenu dużej gęstości (PE-HD) z wytłoczeniami w
kształcie stożków ściętych lub prostopadłościanów wysokości 6–20 mm. Producenci zalecają układać je na płaszczyznach poziomych i pionowych. Do powierzchni pionowych folię mocuje się mechanicznie, na górnej krawędzi zakłada się listwę osłonową, a połączenia arkuszy folii wykonuje się na zakład z
ewentualnym uzupełnieniem taśmą uszczelniającą. Folie wytłaczane są dobrym
zabezpieczeniem izolacji przeciwwilgociowych i przeciwwodnych przed mechanicznymi uszkodzeniami podczas zasypywania wykopu, przy osiadaniu budynku oraz przed niszczącym działaniem korzeni. Ułożone na ścianach fundamentowych powodują szybki odpływ wody opadowej oraz zapewniają dodatkową wentylację izolacji przeciwwilgociowej. Nie zaleca się ich stosować jako
samodzielnych izolacji przeciwwodnych, ponieważ nie zapewniają pełnego zabezpieczenia przeciwwilgociowego izolowanych powierzchni.
Przykładowe materiały [3–5]: folie tłoczone z polietylenu (PE-HD) DeltaMS firmy Dorken Gutta, folie tłoczone z polietylenu (PE-HD) Tefond, Tefond
Plus, Tefond HP firmy Tegola Polonia z Łodzi, folie tłoczone z polietylenu
(PE-HD) Fondaline firmy Onduline. Materiały Budowlane z Warszawy, folie
tłoczone z polietylenu (PE-HD) systemu Platon firmy Isola As, Fabrik Platon
z Norwegii.
Materiały uzupełniające
Do tej grupy należą następujące materiały:
• Taśmy uszczelniające do izolowania styków elementów budowlanych,
rys i pęknięć oraz dylatacji. Mogą mieć różną osnowę i masę powłokową. Produkowane są też z tworzyw sztucznych, np. taśmy do dylatacji
konstrukcji.
• Masy i kity uszczelniające (silikonowe, akrylowe, poliuretanowe, butylenowe, polisulfidowe itd.) służące do wypełniania szczelin, fug, połączeń elementów budowlanych, w instalacjach sanitarnych, do osadzania
stolarki budowlanej itp.
• Środki hydrofobowe w postaci płynów na rozcieńczalnikach organicznych lub wodnych, stosowane do hydrofobizacji powierzchniowej (np.
w zabezpieczeniach elewacji) lub strukturalnej, do wytwarzania w murach blokady hydrofobowej przed kapilarnym wznoszeniem się wilgoci.
• Do grupy materiałów izolacyjnych można też zaliczyć niektóre farby i
lakiery chroniące drewno i metale, tynki renowacyjne, masy na bazie
żywic poliestrowych i epoksydowych, uszczelki.
Hydroizolacje w obiektach budowlanych ...
167
2.3. Wyroby z bentonitu
Umożliwiają skuteczne zabezpieczenie przed infiltracją wody. Minerał ten,
chłonąc wodę, pęcznieje nawet 15-krotnie, ale przy ograniczeniu swobody pęcznienia przekształca się w żelową przeponę blokującą przedostawanie się wody.
W zależności od rodzaju izolowanego elementu i od warunków wodnogruntowych można stosować granulat bentonitu w różnych formach, jako:
• wypełnienie płyt z tektury falistej (zewnętrzna powłoka ścian, spód płyt
fundamentowych),
• membrany kompozytowe (ściany fundamentowe, otwarte wykopy, tarasy),
• maty (podziemne części budynków),
• geomaty (składowiska odpadów, zbiorniki wodne, torowiska w obszarach chronionych).
Zaletą tego typu izolacji jest zdolność do samoczynnego naprawiania (jeśli
po zainstalowaniu nastąpi z jakiegoś powodu przebicie izolacji, miejsce to zabliźni się samoczynnie pod wpływem wody – powstała przestrzeń sprzyja pęcznieniu bentonitu), wnikanie w zabezpieczaną powierzchnię i jej uszczelnianie,
odporność na znaczne ciśnienia hydrostatyczne, możliwość szybkiego i łatwego
układania przy niemal każdej pogodzie, niezastąpione przy stosowaniu bezpośrednio na stałych obudowach wykopów lub deskowaniach fundamentowych,
pełna kontrola przed przykryciem.
2.4. Inne wyroby do hydroizolacji budynków
Płyty z cementu i celulozy z hydroizolacją
Są niepodatne na rozwój grzybów i pleśni. Nadają się do miejsc ciągle narażonych na stałe oddziaływanie wody lub wysokiej wilgotności powietrza.
Montuje się je analogicznie jak płyty gipsowo-kartonowe (można z nich również
wykonywać ścianki działowe). Do uszczelnień i połączeń stosuje się elastyczne,
wodoodporne masy lub zaprawy. Na płytach można bezpośrednio układać płytki
ceramiczne lub kleić tapety.
Systemy odwadniania i drenażu
Niewątpliwym postępem technologicznym w tej dziedzinie jest zastąpienie
rur ceramicznych karbowanymi rurami z tworzyw sztucznych. Godne polecenia
są, odmienne od rurowego, systemowe rozwiązania konstrukcyjne drenażu, począwszy od siatek pokrywanych geowłókniną, przez maty ze spętlonych drucików, aż po profile obłożone dwustronnie włókniną do drenażu kierunkowego,
które pozwalają na skuteczniejsze odwodnienie terenu niż tradycyjny system
drenarski.
168
A. Starakiewicz
Literatura
[1]
[2]
[3]
[4]
Żenczykowski W.: Budownictwo ogólne. T. 3., Arkady, Warszawa 1992
Poradnik majstra budowlanego. Praca zbiorowa, Arkady, Warszawa 1985
Materiały budowlane. Nr 10/97, 9/98, 11/98
Budowlany Informator Techniczny. Nr 5/99, 2/00, 3/00, 7/8/01, 11/01, 12/01, 2/02,
6/02
[5] Murator. Nr 7/94, 9/99, 2/00, 6/00, 1/01, 4/01
[6] Budownictwo fachowe. Nr 1/01
HYDROISOLATIONS IN THE BUILDINGS – REVIEW OF MATERIALS
Summary
First the paper presents the general division of hydroisolations depending on the protective
functions in the structures, water-ground conditions and the type of used material. The final part
gives detailed technological-material solutions.
Złożono w Oficynie Wydawniczej w marcu 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Szczepan WOLIŃSKI
Politechnika Rzeszowska
METODY SYMULACYJNE
W PROBABILISTYCZNYM PROJEKTOWANIU
KONSTRUKCJI Z BETONU
W pracy przedstawiono przegląd metod symulacyjnych stosowanych w probabilistycznym projektowaniu konstrukcji z betonu. Szczegółowo opisano procedury
probabilistycznego projektowania i oceny niezawodności konstrukcji budowlanych
z wykorzystaniem metody bezpośredniej symulacji Monte Carlo. Przedstawiono
również zwięźle udoskonalone metody symulacji Monte Carlo: symulacji według
funkcji ważności, symulacji kierunkowej i metodę losowania według hipersześcianów łacińskich. W celu zilustrowania procedur wymiarowania probabilistycznego
metodami symulacyjnymi i porównania wyników z uzyskanymi metodą półprobabilistyczną, podano przykłady liczbowe wymiarowania żelbetowego elementu mimośrodowo ściskanego.
1. Wprowadzenie
Podstawową i najprostszą metodą symulacyjną jest metoda Monte Carlo.
Nazwa tej metody wiąże się z kasynem Monte Carlo w Monaco i trafnie odzwierciedla jej istotę, którą jest losowa gra. Naukowe podstawy i pierwsze praktyczne zastosowania metody symulacyjnej Monte Carlo (MSMC) wiąże się
z programem budowy bomby atomowej (projekt Manhattan – Los Alamos,
USA), w szczególności z zagadnieniem dyfuzji w materiałach rozszczepialnych.
Opracowanie podstaw naukowych metody jest w dużym stopniu zasługą polskiego matematyka S. Ulama [1]. Duże znaczenie metod symulacyjnych w stochastycznej mechanice i teorii niezawodności konstrukcji budowlanych przewidywał już w latach czterdziestych XX w. M. Freudenthal [2]. Pierwsze znaczące
prace dotyczące zastosowań metod symulacyjnych w mechanice konstrukcji
opublikował na przełomie lat sześćdziesiątych i siedemdziesiątych M. Shinozuka [3, 4]. Informacje na temat obecnego stanu wiedzy w tej dziedzinie można
znaleźć w opracowaniu [5]. Ogromny wzrost możliwości obliczeniowych i powszechny dostęp do komputerów w latach dziewięćdziesiątych ubiegłego wieku,
umożliwiły efektywne zastosowania MSMC w wielu dziedzinach nauki, medycyny i techniki. Metody symulacyjne są najbardziej uniwersalnymi i efektyw-
170
S. Woliński
nymi metodami analizy i projektowania konstrukcji w warunkach niepewności.
Coraz bardziej powszechny i akceptowany jest ostatnio pogląd, że możliwości
praktycznego wykorzystania probabilistycznych metod projektowania konstrukcji budowlanych wiążą się z zastosowaniami metod symulacyjnych [6, 7].
2. Procedura bezpośredniej symulacji Monte Carlo
Podstawą metod symulacyjnych jest odpowiednio liczny zbiór liczb losowych lub częściej liczb pseudolosowych, tzn. generowanych przez program
komputerowy. Jakość liczb pseudolosowych, a przede wszystkim możliwość
generowania różnych, bardzo długich sekwencji statystycznie niezależnych liczb
równomiernie rozłożonych w przedziale (0, 1) i ich transformacji na liczby
o określonym, nierównomiernym rozkładzie w dowolnym przedziale (a, b), decydują o dokładności obliczeń symulacyjnych. Zagadnienia opracowania i weryfikacji algorytmów wyznaczania liczb pseudolosowych są od wielu lat przedmiotem intensywnych badań wielu matematyków [8]. W obliczeniach inżynierskich wykorzystywane są zwykle dobrze sprawdzone i szeroko stosowane standardowe programy-generatory liczb pseudolosowych.
Symulację można zdefiniować jako sztuczne eksperymentowanie, najczęściej z wykorzystaniem modelu rzeczywistego systemu, konstrukcji czy zjawiska, a jej celem jest obserwacja zdarzeń związanych z funkcjonowaniem systemu. W przypadku konstrukcji lub elementu konstrukcyjnego takimi zdarzeniami
mogą być zniszczenia, uszkodzenia, zarysowania, ugięcia lub inne wielkości
charakteryzujące odpowiedź konstrukcji na oddziaływania. Zachowanie się konstrukcji można w większości przypadków opisać za pomocą modeli matematycznych. Symulacja eksperymentu polega wówczas na obliczeniu odpowiedzi
konstrukcji na oddziaływania o ustalonych wartościach, wielokrotnym powtórzeniu obliczeń w odniesieniu do różnych wartości oddziaływań, opracowaniu,
przechowaniu i interpretacji uzyskanego zbioru wyników. Jeśli wszystkie charakterystyki i operacje związane z symulacją są zdeterminowane, to jest ona
symulacją deterministyczną. W przypadku symulacji losowej co najmniej jedna
z charakterystyk konstrukcji lub operacji ma charakter losowy.
Procedury projektowania i oceny niezawodności
Procedurę probabilistycznego projektowania konstrukcji (tzn. wymiarowania miarodajnych przekrojów lub fragmentów konstrukcji) za pomocą symulacji
Monte Carlo można przedstawić w następujący sposób (rys. 1.):
a) założyć liczbę symulacji N i wygenerować m ciągów po N liczb pseudolosowych o rozkładach prawdopodobieństwa zgodnych z rozkładami wejściowych zmiennych losowych Zj, j = 1, 2, ..., n,
Metody symulacyjne w probabilistycznym projektowaniu ...
171
Rys. 1. Procedura probabilistycznego wymiarowania konstrukcji metodą symulacji Monte Carlo
b) z warunku rozważanego stanu granicznego lub zniszczenia przekroju obliczyć wartości poszukiwanej losowej zmiennej wyjściowej (np. pola przekroju
zbrojenia) dla wszystkich N zbiorów wartości zmiennych wejściowych,
c) na podstawie obliczonego zbioru N wartości zmiennej wyjściowej oszacować poszukiwaną wielkość jako wartość tej zmiennej (kwantyl), której zaniżenie jest dopuszczalne z założonym docelowym prawdopodobieństwem pfd,
i ocenić dokładność uzyskanego rozwiązania.
Procedura oceny niezawodności konstrukcji za pomocą symulacji Monte
Carlo może być przedstawiona w następujący sposób (rys. 2.):
a) jak w przypadku projektowania,
b) obliczyć wartości efektu oddziaływań i nośności (odporności, odkształceń itp.) konstrukcji dla wszystkich wygenerowanych zbiorów wartości zmiennych wejściowych,
c) obliczyć prawdopodobieństwo pf, że wartości oddziaływań będą większe
od nośności (odporności, odkształceń itp.) jako iloraz liczby wyników zdarzeń
polegających na przekroczeniu nośności i ogólnej liczby wyników lub jako różnicę zmiennych losowo nośności i efektu oddziaływań oraz ocenić dokładność
wyniku obliczeń.
172
S. Woliński
Rys. 2. Procedura oceny niezawodności konstrukcji metodą symulacji Monte Carlo
Zmienne losowe uwzględnione w obliczeniach można przedstawić w postaci parametrycznej (określając rodzaj rozkładu i jego parametry) lub w postaci
nieparametrycznej, najczęściej w formie histogramu słupkowego. Drugi sposób
jest częściej stosowany, przede wszystkim ze względu na łatwość zapisu i przetwarzania tak zapisanej informacji.
Pierwszym krokiem procedur projektowania i oceny niezawodności jest
wygenerowanie N liczb pseudolosowych xi równomiernie rozłożonych w przedziale (0, 1); X ∈ {U (0, 1)}, a następnie przekształcenie ich w liczby zi rozłożone zgodnie z rozkładami zmiennych wejściowych w określonym przedziale
(a, b); Zi ∈ {Di (ai, bi), gdzie: i = 1, 2,..., n, a D oznacza rodzaj rozkładu zmiennej losowej. W tym celu stosuje się najczęściej metodę transformacji odwrotnej;
Z = F–1(U), gdzie F–1 jest funkcją odwrotną dystrybuanty zmiennej losowej Z.
Schemat tej metody przedstawiono na rys. 3. W zależności od rodzaju rozkładu
rozwiązanie można uzyskać analitycznie (np. w przypadku rozkładu wykładniczego) lub numerycznie (np. dla rozkładu normalnego). Jako zmienne losowe
w obliczeniach probabilistycznych są najczęściej przyjmowane: oddziaływania
Q, właściwości materiałowe (np. wytrzymałości) f, wymiary geometryczne d,
współczynniki charakteryzujące dokładność obliczeń η. Są nimi również zmienne obliczane jako efekt oddziaływań na konstrukcję (np. siły wewnętrzne) S
i nośność lub odporność konstrukcji R.
Metody symulacyjne w probabilistycznym projektowaniu ...
173
Rys. 3. Schemat metody transformacji odwrotnej
Przedstawione procedury projektowania probabilistycznego i oceny niezawodności konstrukcji dotyczą sytuacji, kiedy zmienne losowe występujące w
obliczeniach są niezależne. W praktyce są one często skorelowane, co wpływa
znacząco na wyniki obliczeń. Jednak znając dowolną, pełną macierz kowariancji, można za pomocą transformacji ortogonalnej przekształcić zbiór takich
zmiennych w zbiór zmiennych niezależnych i zastosować opisane wcześniej
procedury MSMC.
Dokładność obliczeń symulacyjnych
Korzystając z centralnego twierdzenia granicznego i nierówności Czebyszewa [8], przy założeniu, że wartość estymatora
pf =
1
N
N
∑p
fi
jest zawar-
i
ta w przedziale ufności ( p f – ε, p f + ε) na poziomie ufności 1 – α, można
oszacować minimalną liczbę symulacji Nn
Φ −1 (1 − α / 2)
N n = p f (1 − p f )
ε
2
(1)
gdzie Φ –1 jest funkcją odwrotną dystrybuanty rozkładu normalnego, a Nn jest
dostatecznie dużą liczbą.
Wariancję estymatora wartości oczekiwanej prawdopodobieństwa zniszczenia var{ p f} można oszacować z zależności
var{ p f }=
p f (1 − p f )
N
(2)
174
S. Woliński
a współczynnik zmienności oceny prawdopodobieństwa zniszczenia vpf można
obliczyć ze wzoru
v pf =
1− p f
Np f
(3)
Z powyższych zależności wynika, że bezwzględny błąd estymacji wartości
p f obliczonej symulacyjną metodą Monte Carlo zmniejsza się z wartością N–1/2,
niezależnie od liczby zmiennych losowych n uwzględnionych w obliczeniach.
Natomiast liczba symulacji niezbędnych do uzyskania wyniku obliczeń z założonym dopuszczalnym błędem jest proporcjonalna do 1/pfd. W przypadku zastosowania metod analitycznych lub numerycznych błąd obliczeń zmniejsza się
z wartością N–1/n, czyli znacznie wolniej niż w obliczeniach MSMC [9].
Teoretycznie, uzyskanie dokładności obliczeń akceptowalnej w projektowaniu i ocenie niezawodności konstrukcji budowlanych wymaga liczby symulacji N ≥ (25 ÷ 100) pfd–1, co wobec bardzo małych dopuszczalnych (docelowych)
wartości prawdopodobieństwa zniszczenia lub osiągnięcia stanu granicznego
pfd = 10–3 ÷ 10–7 prowadzi do wartości N ≥ 25 × 103 ÷ 109. W praktyce zadowalającą zbieżność wyników symulacji otrzymuje się w przypadkach typowych obliczeń już dla N ≥ 105.
Możliwość zastosowania bezpośredniej symulacji Monte Carlo do projektowania i oceny niezawodności konstrukcji daje zestaw programów komputerowych opracowany przez P. Marka i M. Gustara [7, 10]. Programy te opracowano, wykorzystując standardowy program Borland Pascal 7.0 jako generator liczb
pseudolosowych, i przedstawiając zmienne losowe uwzględnione w obliczeniach w postaci histogramów słupkowych.
3. Udoskonalone procedury symulacji Monte Carlo
Zastosowanie metody bezpośredniej symulacji Monte Carlo jest często jedynym sposobem uzyskania rozwiązania zagadnień probabilistycznego projektowania i oceny niezawodności konstrukcji, zwłaszcza kiedy warunek zniszczenia zawiera n > 2 zmiennych losowych i/lub jest silnie nieliniowy, wskutek czego metoda linearyzacji statystycznej może prowadzić do dużych i trudnych do
oszacowania błędów. Ze wzrostem stopnia komplikacji zadania, liczby
uwzględnionych zmiennych wejściowych i wymaganej dokładności obliczeń
bardzo szybko zwiększa się niezbędna liczba symulacji N, wydłuża się czas
obliczeń i rośnie ich koszt. Ponadto w wielu wypadkach jedynie niewielka część
uzyskanych wyników ma znaczący wpływ na zakres gromadzonej informacji
statystycznej. W celu zredukowania błędu obliczeń, czyli zmniejszenia wariancji
Metody symulacyjne w probabilistycznym projektowaniu ...
175
oceny p f dla przyjętej liczby symulacji N, lub zmniejszenia niezbędnej liczby
symulacji N przy założonej dokładności oceny p f, stosowane są różne procedury
pozwalające na wykorzystanie dodatkowych informacji na temat rozważanego
zagadnienia. Do najczęściej stosowanych sposobów modyfikacji bezpośredniej
symulacji Monte Carlo (nazywanych również metodami redukcji wariancji
MRW), można zaliczyć, między innymi, metody: symulacji według funkcji
ważności h i różnych modyfikacji tej metody, losowania warstwowego, symulacji kierunkowej (lub symulacji w kierunku), losowania według hipersześcianów
łacińskich, kontrolowanej symulacji Monte Carlo [11, 12].
Symulacja według funkcji ważności
Prawdopodobieństwo zniszczenia konstrukcji pf , w przypadku gdy warunek
zniszczenia nie zależy od czasu, można obliczyć z zależności
pf =
∫
f ( Z )dz
(4)
FA
gdzie:
f(Z) – n-wymiarowa funkcja gęstości rozkładu wektora podstawowych zmiennych losowych Z = (Z1, Z2,..., Zn)T,
FA – obszar zniszczenia określony przez warunek zniszczenia (lub warunek
stanu granicznego) gl (Z), l = 1, 2, ..., m.
Metoda symulacji Monte Carlo według funkcji ważności polega na arbitralnym wyborze funkcji ważności h(z), tak aby
∞
pf =

f ( z)
f ( z) 
∫ I [ g ( z )] h( z ) h( z )dz = E  I [ g ( z )] h( z ) 
(5)
−∞
gdzie:
I[g(z)] = 1, jeżeli g(z) ≤ 0 lub I[g(z)] = 0, jeżeli g(z) > 0, E{...}oznacza operację
obliczania wartości oczekiwanej.
Estymatory wartości oczekiwanej p f i jej wariancji var{ p f } można obliczyć po wykonaniu N symulacji, z zależności
pf =
1
N
f ( zi )
N
∑ I [ g ( z )] h( z )
i
i =1
(6)
i
var{ p f} = σ p =
2
N
1
( p f ,i − p f ) 2
∑
( N − 1) i =1
(7)
176
S. Woliński
Wariancja var{ p f} obliczona ze wzoru (7) osiąga wartość zero dla idealnie
dobranej funkcji ważności h(z) = f(z)/pf , co oczywiście jest w praktyce niemożliwe, ponieważ pf nie jest z góry znane.
Do obliczania wskaźnika niezawodności β konstrukcji (który jest miarą
niezawodności stosowaną w uproszczonej metodzie probabilistycznej poziomu 2) można wykorzystać program ISPUD [13]. Zgodnie z założeniami metody
wskaźnika niezawodności β, wszystkie zmienne wejściowe Zi są traktowane
jako zmienne normalne i statystycznie niezależne, a w innych przypadkach wymagają przekształcenia do takiej postaci według specjalnych, wymagających
indywidualnego opracowania procedur. W programie ISPUD jako funkcję ważności h(z) wykorzystano funkcję gęstości rozkładu normalnego o wartości średniej w punkcie obliczeniowym.
Ocena efektywności symulacji według funkcji ważności jest trudna do weryfikacji, bowiem w dużym stopniu zależy od trafności doboru funkcji ważności
h(z). Z drugiej strony, zwiększenie efektywności jest związane ze zmniejszeniem
ogólności przyjętej procedury obliczeń. Na podstawie opublikowanych wyników
obliczeń, na przykład [14], można zauważyć, że jest to procedura bardzo efektywna w odniesieniu do zagadnień liniowych i w niewielkim stopniu nieliniowych. Natomiast jest praktycznie „nieopłacalna” w przypadkach: zagadnień
silnie nieliniowych, braku wstępnej informacji o gęstości rozkładu zmiennych
stanu w obszarze zniszczenia, oraz gdy możliwe są różne mechanizmy zniszczenia konstrukcji. W takich sytuacjach stosowane są zmodyfikowane wersje tej
metody, na przykład procedury adaptacyjne polegające na obliczeniu lokalnych
funkcji ważności i oszacowaniu funkcji wypadkowej jako średniej ważonej [15].
Pozwalają one na znaczne zmniejszenie (nawet 100–1000-krotne) niezbędnej
liczby symulacji w stosunku do wymaganej w przypadku symulacji bezpośredniej.
Symulacja kierunkowa
Podstawowym pomysłem, na którym opiera się metoda symulacji kierunkowej jest transformacja podstawowych zmiennych losowych Z (gaussowskich
lub znormalizowanych, np. za pomocą transformacji Rosenblatta) do współrzędnych biegunowych (λ, Θ1, Θ2,...). Wektor jednostkowy Θ określa kierunek,
a skalar λ długość tego wektora w przestrzeni zmiennych Z. Zależność (4) można wówczas zapisać w postaci
p f = ∫ p[ g ( λΘ ) ≤ 0] f (Θ )dΘ
S
gdzie:
∫ (.)
S
– całka powierzchniowa,
(8)
Metody symulacyjne w probabilistycznym projektowaniu ...
177
f (Θ ) – gęstość prawdopodobieństwa rozkładu równomiernego na powierzchni zniszczenia S.
Następnie należy obliczyć wartości λl dla każdego kierunku Θl, tak aby gl =
= g(λl, Θl) = 0. Parametr λl jest miarą odległości początku układu współrzędnych
od powierzchni zniszczenia (granicznej) w kierunku określonym przez wektor
Θl, a jego wartość można obliczyć za pomocą procedury iteracyjnej. Ocenę
prawdopodobieństwa zniszczenia pf można uzyskać po wykonaniu N symulacji.
Jako wynik każdej symulacji l otrzymuje się wartość pl
pl = P[ g ( λl ,Θ l ) < 0] = 1 − χ 2 (λl , m )
(9)
gdzie:
χ 2 (.) – funkcja gęstości rozkładu chi-kwadrat,
m
– liczba zmiennych losowych uwzględnionych w warunku zniszczenia
(stanu granicznego).
Estymator wartości oczekiwanej prawdopodobieństwa zniszczenia p f
można obliczyć jako średnią arytmetyczną wartości pl dla l = 1, 2,..., N.
W celu uzyskania akceptowalnej dokładności obliczeń, to znaczy vpf <
< 5–10%, niezbędną liczbę symulacji szacuje się na około N ≈ 160 m [16]. Na
przykład, niezależnie od liczby zmiennych losowych uwzględnionych w warunku zniszczenia m, przy założeniu pfd = 0,001 i vpf = 0,05 (lub 0,10), niezbędną
liczbę symulacji w bezpośredniej metodzie Monte Carlo można obliczyć ze
wzoru (3): N = 399200 (lub 99800). Jest to liczba około 300 razy większa niż
liczba symulacji potrzebna do osiągnięcia tej samej dokładności w metodzie
symulacji kierunkowej dla m = 2, 156 razy mniejsza, gdy m = 4, 62 razy mniejsza, gdy m = 10 i 6 razy mniejsza, gdy m = 100. Oczywiście, jest to korzyść
okupiona koniecznością opracowania indywidualnych procedur normalizacji
wejściowych zmiennych losowych i ich transformacji do współrzędnych biegunowych, co jest niekiedy zadaniem trudnym i pracochłonnym.
Inne procedury
Dość popularną procedurą pozwalającą na redukcję niezbędnej liczby symulacji jest metoda losowania według hipersześcianów łacińskich. W przypadku
symulacji wartości funkcji g = g(Z1, Z2,..., Zm) tą metodą, kolejne kroki obliczeń
można przedstawić w następujący sposób [6].
a) Podzielić rozważaną dziedzinę zmiennej Zl na N przedziałów tak,
aby prawdopodobieństwo wystąpienia wartości Zl w każdym przedziale było
równe 1/N.
b) Dla każdej zmiennej Zi i dla każdego z N przedziałów wylosować wartość reprezentatywną w danym przedziale (w praktyce, jeśli liczba przedziałów
178
S. Woliński
jest duża, można przyjąć bez losowania, że tą wartością jest średnia w danym
przedziale).
c) Po wykonaniu (a) i (b), mamy N reprezentatywnych wartości każdej z m
zmiennych losowych. Ogólnie, istnieje Nm możliwych kombinacji tych wartości.
Podstawowym zagadnieniem w metodzie hipersześcianów łacińskich jest określenie N takich kombinacji, aby każda wartość reprezentatywna pojawiła się
tylko raz w zbiorze N kombinacji.
d) Pierwszą kombinację można określić, wybierając losowo po jednej wartości reprezentatywnej dla każdej z m zmiennych wejściowych. Aby uzyskać
drugą kombinację, należy losowo wybrać jedną z pozostałych N – 1 wartości
reprezentatywnych każdej zmiennej losowej. Aby uzyskać trzecią kombinację,
należy wybrać losowo jedną z pozostałych N – 2 wartości każdej zmiennej,
i kontynuować procedurę wyboru aż do uzyskania N kombinacji wartości reprezentatywnych losowych zmiennych wejściowych.
e) Z zależności g = g(Z1, Z2,..., Zl) obliczyć wartości gl dla każdej z N kombinacji wartości zmiennych wejściowych określonych wcześniej. Uzyskany
zbiór wyników można potraktować jako zbiór wyników doświadczeń i obliczyć
oceny (estymatory) poszukiwanych parametrów statystycznych lub/i empiryczny
histogram rozkładu zmiennej wyjściowej g.
W ostatnich latach są rozwijane, w szczególności do probabilistycznej analizy zagadnień z zakresu dynamiki konstrukcji, metody określane ogólnie jako
kontrolowana symulacja Monte Carlo. Są to metody bardzo ogólne, adaptacyjne,
niewymagające dodatkowych informacji a-priori na temat rozwiązania, ograniczenia liczby zmiennych, nieliniowości itp., i w związku z tym są z reguły mniej
efektywne niż, na przykład, metoda symulacji według funkcji ważności [15].
Ponieważ metody symulacji Monte Carlo są oparte na generowaniu niezależnych próbek statystycznych wykorzystywanych następnie do obliczeń, odpowiednie procedury są bardzo dobrze przystosowane do przetwarzania równoległego. Oznacza to, że do wykonania tych samych obliczeń można użyć więcej
niż jednego procesora. Z drugiej strony wiadomo, że zasadniczym zagadnieniem
jest w takim przypadku szybka synchronizacja wielkiej liczby komunikatów
wymienianych między procesorami. Przykładem możliwości efektywnego zastosowania przetwarzania równoległego mogą być obliczenia symulacyjne
w przypadkach, kiedy występuje bardzo duża liczba zmiennych losowych,
a obliczenia dla każdego wylosowanego zestawu wartości zmiennych wejściowych mogą być wykonane niezależnie.
4. Wymiarowanie i niezawodność konstrukcji z betonu
Zgodnie z obowiązującymi obecnie w Polsce [17], zalecanymi w normie
ISO 2394 [18] i wprowadzanymi w Unii Europejskiej [19, 20] zasadami projektowania i wymiarowania konstrukcji z betonu, podstawowym wymogiem, jaki
Metody symulacyjne w probabilistycznym projektowaniu ...
179
powinny spełniać elementy i konstrukcje jest przenoszenie wszystkich oddziaływań, które mogą wystąpić w trakcie ich wznoszenia i użytkowania oraz zapewnienie przydatności do użytkowania zgodnie z przeznaczeniem, a także
z uwzględnieniem przewidywanego okresu użytkowania i z akceptowalnym
prawdopodobieństwem (niezawodnością) Q = 1 – pfd. Z punktu widzenia stosownych miar niezawodności podstawową metodą projektowania i analizy konstrukcji są obecnie metody półprobabilistyczne, w których wymagana niezawodność konstrukcji, a raczej elementów i przekrojów elementów konstrukcyjnych, jest zapewniona przez zastosowanie częściowych współczynników bezpieczeństwa modyfikujących charakterystyczne lub nominalne wartości zmiennych decydujących o stanie konstrukcji oraz zapewnienie właściwej kontroli
jakości w procesie wytwarzania materiałów, elementów i wznoszenia konstrukcji. Zaleca się ponadto, aby wartości częściowych współczynników bezpieczeństwa były ustalane na podstawie analizy niezawodności konstrukcji, przy założeniu dopuszczalnego prawdopodobieństwa zniszczenia pfd, tzn. metodami probabilistycznymi. Oczywiście, zamiast takiej pośredniej procedury zapewnienia
niezawodności, elementy i konstrukcje można wymiarować lub weryfikować ich
niezawodność bezpośrednio, stosując uproszczone metody probabilistyczne lub
metody w pełni probabilistyczne [6, 21]. Projekty norm europejskich i niektóre
krajowe normy projektowania (np. argentyńska) dopuszczają taką możliwość i
zawierają pewne zalecenia co do wyboru uproszczonych metod probabilistycznych, podają odpowiednie procedury obliczeniowe i przede wszystkim dopuszczalne wartości prawdopodobieństwa zniszczenia (osiągnięcia stanów granicznych przez elementy konstrukcyjne). W tabeli 1. podano wartości minimalne
wskaźnika niezawodności β zalecane w projekcie normy europejskiej EC1 [19]
i odpowiadające im dopuszczalne wartości prawdopodobieństwa osiągnięcia
stanu granicznego (zniszczenia) pfd.
Tabela 1. Minimalne wartości wskaźnika niezawodności β według EC 1 [19] i odpowiadające im
dopuszczalne prawdopodobieństwa zniszczenia pfd
Klasy
niezawodności
Docelowy wskaźnik niezawodności / dopuszczalne prawdopodobieństwo
osiągnięcia stanu granicznego nośności β / pfd
Okres odniesienia: 1 rok
RC3
RC2
RC1
–7
5,2 / 0,9964 × 10
4,7 / 1,30 × 10–6
4,2 / 1,334 × 10–5
Okres odniesienia: 50 lat
4,3 / 0,854 × 10–5
3,8 / 7,20 × 10–5
3,3 / 4,84 × 10–4
Uwaga: Klasy niezawodności RC1, RC2, RC3 można powiązać z klasami konsekwencji zniszczenia lub nieprawidłowego funkcjonowania konstrukcji CC1, CC2, CC3, które zdefiniowano
w sposób opisowy w normie EC 1.
180
S. Woliński
Dla obiektów budowlanych klasy niezawodności RC2, których zniszczenie
stwarza „przeciętne” zagrożenie życia ludzi i powoduje „znaczne” konsekwencje ekonomiczne i środowiskowe, podano w normie EC 1 [19] wartości docelowe β dla stanu granicznego użytkowalności, β = 2,9 (pfd = 1,87 × 10–3) dla okresu odniesienia To = 1 rok (pfd = 6,68 × 10–2), β = 1,5 dla To = 50 lat, oraz dla
stanu granicznego zmęczenia β = 1,5 ÷ 3,8 w zależności od stopnia inspekcji,
możliwości reperacji i tolerancji uszkodzenia. Normowe wymagania niezawodności odnoszą się do elementów konstrukcji. Ponadto docelowe wartości wskaźnika niezawodności β i odpowiadające im prawdopodobieństwa zniszczenia pfd
nie wyrażają rzeczywistej (tzn. wynikającej z badań statystycznych) częstości
zniszczenia, ponieważ nie uwzględniają wpływu błędu ludzi.
Probabilistyczne projektowanie konstrukcji polega na obliczaniu parametrów lub rozkładów prawdopodobieństwa losowo zmiennych wielkości decydujących o nośności i użytkowalności konstrukcji, które są funkcjami wejściowych
zmiennych losowych, i na wyznaczeniu ich kwantyli rzędu pfd. Najczęściej poszukiwanymi wielkościami są: pole powierzchni stali zbrojeniowej lub sprężającej oraz wymiary przekrojów elementów. W przypadku oceny niezawodności
metodą probabilistyczną zadanie polega na obliczeniu rozkładów prawdopodobieństwa efektu oddziaływań na konstrukcję i nośności lub odporności konstrukcji oraz na określeniu prawdopodobieństwa przekroczenia nośności przez efekt
oddziaływań. Zarówno w przypadku probabilistycznego wymiarowania, jak i
oceny niezawodności, związanych ze stanami granicznymi nośności konstrukcji,
obliczenia dotyczą bardzo małych prawdopodobieństw pfd (tab. 1.). Uzyskanie
akceptowalnej dokładności obliczeń metodą Monte Carlo wymaga wówczas
bardzo dużej liczby symulacji N i budzi wątpliwości związane z przyjmowanymi
w obliczeniach długościami przedziałów zmienności zmiennych wejściowych.
Jest to jednak zagadnienie związane z dopuszczalnym prawdopodobieństwem
zniszczenia (a pośrednio ze współczesnymi metodami projektowania) i nie znika, a jedynie jest „ukryte” w przypadku stosowania metod analitycznych i nieskończonych rozkładów prawdopodobieństwa zmiennych losowych.
5. Przykłady wymiarowania żelbetowego elementu
mimośrodowo ściskanego
Rozważane zadanie polega na obliczeniu powierzchni zbrojenia rozciąganego AS1 i ściskanego AS2 w miarodajnym przekroju żelbetowego słupa mimośrodowo ściskanego (rys. 4.) zakładając, że prawdopodobieństwo osiągnięcia
stanu granicznego zniszczenia elementu nie będzie większe od pfd = 7,2 × 10–5
( β ≥ 3, 8 ). Stan graniczny nośności elementu określono na podstawie metody
uproszczonej, według normy PN-B-03264:1999 [17].
Metody symulacyjne w probabilistycznym projektowaniu ...
181
Rys. 4. Przekrój poprzeczny żelbetowego słupa
Wymiary przekroju poprzecznego: b × h = 250 mm × 400 mm, a = a1 = a2 =
30 mm, d = h – a = 370 mm, długość elementu: lcol = lo = 8,0 m.
Obliczenia metodą półprobabilistyczną według zaleceń PN-B-03264:1999
Siły podłużne ściskające i moment zginający, wywołane obciążeniem obliczeniowym: siła całkowita NSd = 600 kN, część długotrwała siły NSd,lt = 300 kN,
moment MSd = 120 kNm.
Beton klasy B20: wytrzymałość obliczeniowa na ściskanie fcd = 10,6 MPa,
średni moduł sprężystości Ecm = 27500 MPa.
Stal zbrojeniowa klasy A-III (34GS): obliczeniowa granica plastyczności fyd
= 350 MPa, średni moduł sprężystości Es = 200000 MPa.
Ponieważ lo / h = 20 > 7, uwzględniono wpływ smukłości i obciążeń długotrwałych na nośność słupa, zwiększając mimośród początkowy eo = ee + ea =
= MSd / NSd + lo / h = 200 +20 = 220 mm do wartości mimośrodu całkowitego
etot = η × eo , gdzie η = 1/(1 − N Sd / N crit ) , a siła krytyczna Ncrit (10) zależy, między innymi, od nieznanego stopnia zbrojenia przekroju ρ . Obliczenie powierzchni zbrojenia AS1 i AS2, według wzorów (11) i (12), wymaga wstępnego
założenia wartości ρ i zastosowania iteracyjnej procedury obliczeń.
N crit






9  Ecm I c  0,11
= 2
+ 0,1  + Es I s 

lo  2klt  0,1 + eo


h




AS 2 =
N Sd es1 − α f cd Scc ,eff
f yd ( d − a2 )
(10)
(11)
182
S. Woliński
AS 1 =
αf cd Acc,eff + f y As 2 − N Sd
f yd
(12)
gdzie:
Ic, Is – momenty bezwładności przekroju betonowego i zbrojenia,
klt = 1,50 – współczynnik wyrażający wpływ obciążenia długotrwałego,
es1 = etot + h/2 – a1, α = 0,85,
Acc,eff , Scc,eff – efektywne pole przekroju i moment statyczny efektywnego pola
betonu strefy ściskanej względem środka ciężkości zbrojenia As1.
Przy założeniu granicznej wartości względnej wysokości strefy ściskanej
przekroju ξ eff ,lim = 0,53 , obliczono pola przekroju zbrojenia: AS1 = 1380 mm2 i
AS2 = 928 mm2.
Obliczenia metodą bezpośredniej symulacji Monte Carlo
Zmienne decydujące o nośności granicznej elementu potraktowano jako
statystycznie niezależne zmienne losowe o podanych dalej rozkładach, parametrach i zakresach zmienności, i zgodnie z wymaganiami zastosowanych do obliczeń programów M-Star i AntHill [10] przedstawiono je w postaci histogramów
słupkowych.
• Wymiary przekroju poprzecznego słupa:
− b ⇒ N (250 mm, 0,006), {244,75 ÷ 255,25 mm}
− h ⇒ N (400 mm, 0,0075), {389,5 ÷ 410,5 mm}
− a ⇒ N (30 mm, 0,0665), {23 ÷ 37 mm}
• Siły podłużne:
− NSd,lt ⇒ N (300 kN, 0,048), {213,95 ÷ 301,45 kN}
− NSd – NSd,lt ⇒ Γ (136,5 kN, 0,288), {66,5 ÷ 308,5 kN}
• Wytrzymałość betonu:
− fc ⇒ LN (21,5 MPa, 0,20), {10,5 ÷ 42,3 MPa}
• Granica plastyczności zbrojenia:
− fy ⇒ LN (462,8 MPa, 0,08), {348,7 ÷ 610,4 MPa}
Przyjęto oznaczenia: N, Γ , LN – zmienna o rozkładzie normalnym, logarytmicznym i gamma, (wartość oczekiwana, współczynnik zmienności), {wartość
minimalna ÷ wartość maksymalna}. Rozkłady zmiennych losowych fc i fy dobrano tak, aby prawdopodobieństwo zaniżenia wartości obliczeniowych fcd i fcy było
nie większe od 7,2 × 10–5, a zmiennych NSd nie większe od 10–3. Jest to założenie
umożliwiające porównanie wyników uzyskanych metodą probabilistyczną i
półprobabilistyczną.
Metody symulacyjne w probabilistycznym projektowaniu ...
183
Korzystając z zależności (10), (11) i (12), obliczono za pomocą programu
komputerowego M-Star [10], po wykonaniu 300000 (rys. 5.) i 800000 symulacji, histogramy i parametry rozkładu pola przekrojów zbrojenia AS1 i AS2.
Rys. 5. Wyniki obliczeń zbrojenia AS2 metodą bezpośredniej symulacji Monte
Carlo
Pola powierzchni zbrojenia rozciąganego i ściskanego, niezbędnego w celu
zapewnienia prawdopodobieństwa osiągnięcia stanu granicznego nośności rozważanego elementu mimośrodowo ściskanego pfd ≤ 7,2 × 10–5 obliczone po
wykonaniu 300000 symulacji wynoszą: AS1 = 1133 mm2 i AS2 = 874 mm2 ( ρ =
0,0217), a po wykonaniu 800000 symulacji: AS1 = 1130 mm2 i AS2 = 874 mm2
( ρ = 0,0217). Współczynnik zmienności oceny obliczonych ilości zbrojenia
(traktowany jako miara dokładności obliczeń) wynosi: dla 300000 symulacji
21,5% i dla 800000 symulacji 13,2%.
Obliczenia prawdopodobieństwa osiągnięcia stanu granicznego zniszczenia
elementu pf dla ilości zbrojenia określonej metodą półprobabilistyczną, to znaczy AS1 = 1380 mm2 i AS2 = 928 mm2, wykonane metodą bezpośredniej symulacji Monte Carlo wykazały, że pf < 10–7.
Obliczenia metodą symulacji według funkcji ważności
Do obliczenia pola przekrojów zbrojenia AS1 i AS2 metodą symulacyjną według funkcji ważności również wykorzystano program M-Star [10]. W celu
uproszczenia obliczeń założono, że wymiary przekroju poprzecznego są zdeterminowane i równe wartościom średnim: b = 250 mm, h = 400 mm, a = 30 mm.
Jako funkcje ważności wykorzystano funkcje gęstości rozkładów normalnych
o wartościach średnich w punktach charakterystycznych: hfc ⇒ N (fck, 0,033),
hfy ⇒ N (fyk, 0,02), hNs ⇒ N (NSk, 0,033). Zgodnie z koncepcją metody, funkcje
184
S. Woliński
ważności wybrano arbitralnie, a sposób wyboru ma znaczny wpływ na dokładność uzyskanych wyników przy założonej liczbie symulacji.
Dla założonego prawdopodobieństwa osiągnięcia stanu granicznego nośności elementu pfd = 7,2 × 10–5 i różnych liczb wykonanych symulacji uzyskano
następujące wyniki:
AS2 = 841 mm2,
• N = 5000,
AS1 = 1202 mm2,
2
AS2 = 855 mm2,
• N = 10000,
AS1 = 1202 mm ,
AS2 = 841 mm2,
• N = 50000,
AS1 = 1202 mm2,
2
AS2 = 841 mm2.
• N = 300000,
AS1 = 1202 mm ,
Jak można zauważyć, akceptowalną z punktu widzenia projektanta dokładność obliczeń uzyskano już po wykonaniu 5000 symulacji. Jednak wynik obliczeń zależy w dużym stopniu od trafności wyboru funkcji ważności i w przypadkach wymiarowania konstrukcji bardziej „opłacalną” wydaje się być metoda
bezpośredniej symulacji Monte Carlo.
Przedstawione przykłady obliczeń potwierdzają intuicyjnie przewidywalne
stwierdzenie, że procedury wymiarowania oparte na metodach półprobabilistycznych prowadzą do przewymiarowania konstrukcji lub do projektowania
konstrukcji o znacznie większej od wymaganej niezawodności. W rozważanym
przykładzie całkowite pole przekroju zbrojenia obliczone metodą półprobabilistyczną jest około 15% większe od obliczonego metodą probabilistyczną. Zastosowanie bezpośredniej symulacji Monte Carlo i symulacji według funkcji ważności prowadzi do ilości zbrojenia w przekroju różniącej się około 1,7% i zmiany proporcji pomiędzy zbrojeniem ściskanym i rozciąganym o około 6%.
6. Podsumowanie
Zgromadzone w ostatnim dwudziestoleciu wyniki badań i analiz wskazują,
że praktyczne wdrożenie w pełni probabilistycznych metod projektowania konstrukcji, w tym konstrukcji z betonu, w oparciu o metody analityczne i numeryczne jest raczej nierealne. Trudności i błędy związane ze stosowaniem tych
metod eliminują w dużym stopniu metody symulacyjne.
Podstawową wadą zastosowań bezpośredniej symulacji Monte Carlo w projektowaniu konstrukcji budowlanych jest bardzo duża liczba symulacji niezbędna w celu uzyskania odpowiedniej dokładności rozwiązań. W przypadku klasycznych metod analizy konstrukcji jest to związane z bardzo małymi wartościami dopuszczalnego prawdopodobieństwa osiągnięcia stanów granicznych
zniszczenia. Analiza konstrukcji metodą elementów skończonych powoduje, że
dodatkowo, wskutek dużej liczby zmiennych losowych, które należy uwzględnić
w analizie, niezbędna liczba symulacji i czas wykonania obliczeń zwiększają się
ponad granice opłacalności i możliwości dostępnych projektantowi komputerów.
Metody symulacyjne w probabilistycznym projektowaniu ...
185
W sytuacjach, kiedy liczba zmiennych stanu konstrukcji traktowanych jako
zmienne losowe nie jest większa niż 20 ÷ 25, a dopuszczalne prawdopodobieństwo zawodności nie jest mniejsze niż 10–5 ÷ 10–6, godną rekomendacji jest metoda bezpośredniej symulacji Monte Carlo. Jeśli niezbędne jest znaczne ograniczenie liczby symulacji, można zastosować zmodyfikowane metody symulacyjne, np. według funkcji ważności (kiedy dysponuje się informacjami na temat
gęstości rozkładu zmiennych losowych w obszarze zniszczenia), symulacji kierunkowej lub według hipersześcianów łacińskich (kiedy funkcja niezawodności
zależy od wielkiej liczby zmiennych losowych), symulacji kontrolowanej itp.
Literatura
[1] Metropolis N., Ulam S.: The Monte Carlo Method. Journal of American Statistical
Association, 44(247), 1949
[2] Freudenthal M.: The Safety of Structures. Transaction of ASCE, Vol. 121, 1947
[3] Shinozuka M., Sato Y.: Simulation of Nonstationary Random Process. Journal of
the Engineering Mechanic Devision ASCE, Vol. P3, No. EM 1, February 1967
[4] Shinozuka M.: Monte Carlo Solution of Structural Dynamic. International Journal
of Computers and Structures, No. 2, 1972
[5] Computational Stochastic Mechanics. Computer Methods in Applied Engineering,
Journal of Comput. Methods in Appl. Eng., No. 168(1-4), 1999
[6] Nowak A.S., Collins K.R.: Reliability of Structures. Mc Grow-Hill Int. Edition,
2000
[7] Marek P., Brozzetti J., Gustar M. (editors): Probabilistic Assessment of Structures
Using Monte Carlo Simulation. ITAM CAS CR, Prague 2001
[8] Press W.H, Teukolsky S.A., Vetterling W.T., Flannery B.: Numerical Recipes in
Fortran. 2nd ed., Cambridge University Press, New York 1992
[9] Fisz M.: Rachunek prawdopodobieństwa i statystyka matematyczna. PWN, Warszawa 1958
[10] Marek P., Gustar M.: Monte Carlo simulation programs for PC: AntHill, M-Star,
Res-Com, DamAc, LoadCom. ARTech, Prague 1999
[11] Melchers R.E.: Search-based importance sampling. Structural Safety, No. 9 (117),
1990
[12] Sundararajan C., et. al.: Probabilistic structural mechanic handbook. Chapman &
Hill, New York 1994
[13] ISPUD (Importance Sampling Using Design Points). User’s Manual, Institute of
Engineering Mechanics, Leopold – Franzens University, Innsbruck, Austria 1997
[14] Au S.K., Beck J.L.: First Excursion Probabilities for Linear System by very Efficient Importance Sampling. Probabilistic Engineering Mechanics, No. 6, 2001
[15] Bucher C.G.: Adaptive sampling – An iterative fast Monte Carlo procedure. Structural Safety, No. 5 (119), 1989
[16] Waarts P.H. Structural reliability using Finite Elements Method. Delft University
Press, Delft, The Netherlands 2000
[17] PN-B-03264:1999. Konstrukcje betonowe, żelbetowe i sprężone. Obliczenia statyczne i projektowanie
186
S. Woliński
[18] ISO 2394:1998 E. International Standard. General principles on reliability for
structures,
[19] EN: 1990:2002 E. Eurocode 1: Basis of structural design. November 2001, CEN,
Brussels
[20] prEN 1992–1. Eurocode 2: Design of concrete structures. Part 1: General rules and
rules for buildings. October 2001
[21] Woliński Sz., Wróbel K.: Niezawodność konstrukcji budowlanych. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 2001
RANDOM SIMULATION METHODS IN PROBABILISTIC DESIGN
OF CONCRETE STRUCTURES
Summary
In this paper a review of random simulation methods for the probabilistic design of concrete
structures is presented. Probabilistic design and assessment procedures for building structures
using the direct Monte Carlo simulation method are discussed in detail. Brief account is given of
the Monte Carlo method with importance sampling and with directional sampling, and latin hypercube sampling. Numerical examples of structural dimensioning of reinforced concrete element
subjected to axial force and bending moment using the semi-probabilistic and probabilistic simulation methods are presented for the purpose of illustration of these methods.
Złożono w Oficynie Wydawniczej w maju 2003 r.
ZESZYTY NAUKOWE POLITECHNIKI RZESZOWSKIEJ
Budownictwo i Inżynieria Środowiska z. 36
Nr 208
2004
Jacek ZYGMUNT
Politechnika Rzeszowska
ZASTOSOWANIE PREFABRYKACJI
NA PRZYKŁADACH WYBRANYCH OBIEKTÓW
W pracy są zawarte przykłady stosowania elementów prefabrykowanych w wybranych obiektach budowlanych. Analizie poddano następujące obiekty: kompleks
użyteczności publicznej, hale produkcyjne fabryki papieru oraz halę magazynową.
Podano przykłady stosowania prefabrykatów w miejsce elementów zazwyczaj wylewanych, tak aby konstrukcja obiektu nadal pozostawała bezpieczna, a jej wykonanie było tańsze i łatwiejsze. Prefabrykację zastosowano w wypadku elementów
nośnych oraz wypełniających.
1. Wprowadzenie
Prefabrykacja jest procesem wykorzystywanym w budownictwie od wielu
lat. Polega na „przemysłowym wytwarzaniu elementów budowlanych, które
wykonane w wytwórniach lub zakładach zaplecza produkcji pomocniczej budownictwa są wbudowywane bez uzupełniającego przetwarzania lub obróbki
w realizowane obiekty budowlane”[1]. Zamierzeniem jest produkcja elementów
o wysokim stopniu wykończenia, aby po wbudowaniu wykonać jedynie złącza
z sąsiednimi elementami oraz spoinowanie.
Warto spojrzeć na stosowanie prefabrykacji pod względem technologiczności. „Technologiczność rozwiązań budowlanych to zespół cech określających
możliwości sprawnego oraz efektywnego wykonania budowli, jej ustrojów i
elementów bez szkody dla rozwiązań funkcji, konstrukcji, walorów użytkowych
i estetycznych...”[2]. Stosowanie elementów prefabrykowanych posiada cechy
technologiczne, niezbędne w celu uzyskania efektywności technicznoekonomicznej przedsięwzięcia. Należą do nich: minimalizacja nakładów pracy
ludzi, mechanizacja procesów roboczych, efektywne wykorzystanie pracy maszyn i urządzeń przy produkcji i montażu, zapewnienie wysokiego poziomu
jakości robót.
Ograniczenia natomiast w stosowaniu prefabrykacji wynikają z dużej indywidualności oraz swobody w kształtowaniu brył budynków. Tak jest w budownictwie mieszkaniowym oraz użyteczności publicznej. W takich przypadkach w rozwiązaniach konstrukcyjnych dominują elementy wykonywane na
188
J. Zygmunt
mokro, charakteryzujące się małą powtarzalnością. Bezpośredni wpływ na ustalenie koncepcji konstrukcyjnej oraz sposobu jej rozwiązania mają zespoły projektowe. Decyzja o wyborze technologii wykonania uwzględnia wymagania
konstrukcyjne, użytkowe, a także koszty realizacji obiektu lub jego elementów
w wybranej technologii. Prefabrykacja nadal znajduje zastosowanie w obiektach
przemysłowych oraz w większych obiektach użyteczności publicznej.
W artykule opisano zastosowanie prefabrykacji na przykładzie trzech
obiektów: kompleksu użyteczności publicznej, hal produkcyjnych fabryki papieru oraz hali magazynowej wysokiego składowania. Obiekty wybrano spośród
realizacji wykonanych przy współudziale autora artykułu w charakterze majstra
i kierownika robót. Opisane obiekty zostały zrealizowane w kraju i za granicą.
2. Przykłady
2.1. Budynki użyteczności publicznej
Analizie poddano zespół budynków użyteczności publicznej zrealizowany
w Niemczech (rys. 1.)*. Było to 7 budynków, mających od 5 do 9 kondygnacji
nadziemnych, połączonych 3 kondygnacjami podziemnymi**. Analizowanym
Rys. 1. Zespół obiektów biurowych w Stuttgarcie w Niemczech
*
Przedstawione w artykule zdjęcia zostały wykonane przez autora artykułu; stanowią jego zbiory własne.
**
Przytoczone w tekście artykułu dane, opisujące zakres przeprowadzonych robót budowlanych,
charakterystykę techniczną obiektów i elementów, pochodzą z notatek własnych autora. Autor
artykułu w latach 2000-2002 pracował zawodowo przy realizacji przedstawionych w publikacji
obiektów.
Zastosowanie prefabrykacji ...
189
zadaniem było zrealizowanie robót stanu surowego. Obserwacje dotyczyły całości tych robót, od pierwszej płyty dennej do stropu ostatniej kondygnacji. Okres
realizacji „pod klucz” wyniósł półtora roku, z czego roboty stanu surowego
trwały rok. Budowa wyglądała imponująco, wśród istniejącej zabudowy miejskiej wznosiły się cztery dźwigi wieżowe. One scalały wszystkich rozproszonych na dole ludzi w jeden spójny zespół, organizm budzący się do pracy o świcie i milknący przed porą nocną.
Ściany
Układy konstrukcyjne budynków były tradycyjne: żelbetowe, słupowopłytowe z belkami w kierunku podłużnym budynków. Dodatkowymi elementami usztywniającymi były niedylatowane, wylewane na mokro klatki schodowe i
szyby windowe. Natomiast ściany zewnętrzne i wewnętrzne ustawiane były na
stropach z gotowych elementów o wysokości całej kondygnacji. Największa
długość tych elementów uwarunkowana była nośnością dźwigów wieżowych,
którymi były montowane, wynosiła około 3 m. Każdy element zbudowany był z
dwóch pionowo ustawionych płyt grubości 6–7 cm, sztywno połączonych ze
sobą zbrojeniem. W zależności od projektowanej grubości ściany szczelina pomiędzy nimi wynosiła od kilku do kilkunastu centymetrów. Takie rozwiązanie
pozwalało naprowadzać ściany na pionowe zbrojenie wystające ze stropów.
Wprowadzano ponadto przed ich zabetonowaniem zbrojenie łączące z sąsiednimi elementami oraz ze stropem znajdującym się powyżej. Powierzchniom elementów nadano wysoki stopień wykończenia w zakładzie prefabrykacji. Ich
gładkość była wystarczająca, aby roboty wykończeniowe ograniczyć do kosmetyki połączeń i pomalowania, nawet w pomieszczeniach o wysokich użytkowych
wymaganiach estetycznych. Tam gdzie przewidziane były ciągi fasad okiennych, montowano w ten sam sposób ściany niskie. Niekiedy ustawiano na nich
również szeregi filarów międzyokiennych, których wykonanie w sposób tradycyjny byłoby bardzo czasochłonne.
Stropy
Kolejnym krokiem w zastosowaniu prefabrykacji była realizacja wszystkich
stropów (rys. 2.). Po zaszalowaniu podłużnych belek rozstawiano równolegle do
nich pasy podporowe. Były to rzędami ustawione rozsuwane stemple z ułożonymi na nich drewnianymi belkami. Po niwelacji układano na tak przygotowanym „podparciu” żelbetowe elementy stropowe. Były to płyty grubości 6–7 cm,
podłużnie zbrojone, o długościach odpowiednich do rozstawu belek (do ok. 6 m)
i szerokościach dostosowanych do nośności dźwigów (do ok. 2,5 m). Układano
je szczelnie lub rozsuwano o szerokość zaprojektowanych żeber. W zamian za
pracochłonne szalowanie stropów wylewanych na mokro uzyskiwano szybko
i niedużym nakładem pracy stropy gotowe do zbrojenia. Przykładowo przygo-
190
J. Zygmunt
towanie do ułożenia płyt na około 500 m2 powierzchni zajmowało brygadzie
4-osobowej 1 zmianę. Rozłożenie płyt oraz zagęszczenie stemplowania pod
nimi, w tym samym składzie, trwało również 1 zmianę. Można było zauważyć
różne oszczędności wynikające z takiego rozwiązania: brak angażowania szalunków stropowych, a co za tym idzie – brak kosztów ich wynajmu, brak kosztów rozszalowania i czyszczenia szalunków, skrócenie czasu pracy brygad, czyli
okresu realizacji danego elementu. Odpadały również roboty ciesielskie obszalowania stropów, ze względu na wykonanie elementów ścian zewnętrznych z
płyt o zróżnicowanych wysokościach. Podobnie jak w przypadku ścian, dolne
powierzchnie wymagały jedynie drobnej kosmetyki połączeń i mogły zostać
pomalowane lub nakładano na nie inne cienkowarstwowe wykończenia. Ułożono w ten sposób około 60 stropów, o przybliżonej powierzchni 25000 m2, złożonych z kilku tysięcy gotowych elementów.
Rys. 2. Strop nad korytarzem z prefabrykowanych płyt żelbetowych
Biegi klatek schodowych
Biegi klatek schodowych zostały wykonane również w zakładzie prefabrykacji (rys. 3.). Odpowiednio ukształtowane podesty wykonano na mokro, na
bieżąco z głównymi robotami stropowymi. Spoczniki, jako proste kształtem do
wykonania elementy, nie wymagały dużego nakładu pracy. Takie rozwiązanie
było korzystne również pod względem organizacyjnym. Montaż nie wymagał
ścisłych zależności z wykonywaniem innych elementów, więc realizowano go w
czasie mniejszego obciążenia dźwigów lub w czasie niekolidującym z pozostałymi robotami. Montaż wykonywała brygada 3-osobowa. W ten sposób powsta-
Zastosowanie prefabrykacji ...
191
ły wszystkie klatki schodowe. Wbudowano łącznie ponad 120 biegów, niektóre
o rozpiętości powyżej 8,0 metrów.
Na każdym z dachów przewidziano okalające attyki. Zrealizowano je z gotowych elementów, według zasad jak przy montażu ścian. Dwa zespoły
2-osobowe wykonywały „na gotowo” około 100 mb konstrukcji dziennie.
W opisywanym obiekcie zastosowano w możliwie dużym stopniu elementy
gotowe. Płyty stropowe oraz biegi pracują jako elementy nośne. Pozostałe są
elementami wypełniającymi, dostatecznie sztywnymi do elewacji wykonanej
z płyt kamiennych. Wykonanie wszystkich elementów w sposób tradycyjny
wydłużyłoby czas realizacji stanu surowego około dwukrotnie. Dodatkowe koszty wynikałyby również z obsługi ogromnej ilości elementów szalunkowych do
robót mokrych.
Rys. 3. Montaż biegów klatki schodowej
2.2. Fabryka papieru
Innym obiektem, w którym zastosowano prefabrykację była fabryka papieru z kompleksem magazynowym wzniesiona w Niemczech (rys. 4.). W tego
typu obiektach zastosowanie gotowych elementów jest niejako „wymuszone”
technologicznie rozmiarami elementów, ich położeniem oraz względami ekonomicznymi. Do montażu dostarczone zostały słupy, dźwigary, belki stropowe,
ściany wewnętrzne i zewnętrzne, kompletne klatki schodowe oraz płyty stropowe i dachowe (rys. 5.). Dźwigary osiągały rozpiętość 24 m przy wysokości około 2,0 m. Słupy natomiast miały do 24 m wysokości, o przekrojach pełnych
o wymiarach do 1,20x0,60 m.
192
J. Zygmunt
Rys. 4. Kompleks fabryki papieru w Karlsruhe w Niemczech
Rys. 5. Widok konstrukcji nośnej głównej hali produkcyjnej
Montaż najcięższych elementów – dźwigarów zrealizowany został gąsienicowym żurawiem z wysięgnikiem kratownicowym (rys. 6.). Jego udźwig kilkakrotnie przewyższał żurawie wieżowe, a jednocześnie miał możliwość swobodnego, samodzielnego przemieszczania się po terenie budowy. Uzupełnieniem do
montażu pozostałych elementów były kołowe żurawie hydrauliczne. Konstrukcja obiektu była mieszana. Znaczna część elementów została wykonana „na
mokro”. Należały do nich stopy fundamentowe pod słupy, fundamenty pod ma-
Zastosowanie prefabrykacji ...
193
szyny, stropy międzykondygnacyjne, konstrukcje wsporcze pod ciągi technologiczne linii produkcyjnych – słupy, ściany, podciągi i belki poprzeczne oraz
stropy. Ponadto tradycyjnie wykonano obiekty towarzyszące: podziemne odstojniki wody produkcyjnej, oczyszczalnię ścieków.
Rys. 6. Żuraw gąsienicowy do montażu najcięższych elementów na tle konstrukcji
nośnej głównej hali produkcyjnej
Roboty realizowane były przy pomocy 8 dźwigów wieżowych. Czas realizacji stanu surowego hali produkcyjnej o powierzchni 10000 m2 wyniósł około
6 miesięcy. W przypadku hal magazynowych, gdzie udział robót mokrych był
mniejszy, czas realizacji był o połowę krótszy.
Udział prefabrykacji w budownictwie przemysłowym jest zjawiskiem typowym, ogólnie przyjętym. Jej zastosowanie w obiektach przemysłowych wynika ze specyfiki układów konstrukcyjnych: dużych wymiarów oraz powtarzalności. W pierwszym przykładzie pokazano prefabrykację jako alternatywę dla
tradycyjnie wykonywanych robót betonowych. Przedstawiono ją na tle organizacyjnym oraz ekonomicznym przedsięwzięć budowlanych obiektów użyteczności publicznej.
Należy przy tej okazji zwrócić uwagę na zagadnienie dotyczące organizacji
robót budowlanych. Wszelkie niedopatrzenia na etapie planowania oraz wdrażania do realizacji kolejnych etapów robót zawsze ujawniają się i w mniejszy lub
większy sposób zakłócają rytm pracy. Dzisiejsze inwestycje charakteryzują się
bardzo krótkimi terminami realizacji oraz koniecznością bezwzględnego przestrzegania terminowości ich wykonania. Stawia to rygorystyczne wymagania
194
J. Zygmunt
przed zespołami realizującymi obiekty, aby, dostosowując się do bardzo wysokiego poziomu tych realiów, zapewnili również jakość wykonywanych prac,
bezpieczeństwo pracowników, wizerunek firmy, a jednocześnie ekonomiczność
przedsięwzięcia. Złożoność obiektu, obecność w nim trudnych technicznie do
wykonania elementów, ograniczenia terenu przeznaczonego na zaplecze budowy, koordynacja robót w momentach ich wzmożonego nasilenia – wymagają od
wykonawcy szczególnego wysiłku w celu zapewnienia właściwej organizacji
placu budowy.
2.3. Hala magazynowa
Kolejnym obiektem zrealizowanym z udziałem prefabrykacji, poddanym
analizie jest hala magazynowa wysokiego składowania w pobliżu Łodzi (rys. 7.).
Tradycyjnie wykonano stopy fundamentowe pod słupy oraz fundamenty pod
maszyny do obsługi przeładunków z samochodów. Prefabrykowane słupy,
dźwigary, belki podwalinowe oraz przegrody wewnętrzne (rys. 8.) zamontowano
samochodowymi żurawiami hydraulicznymi. Obudowa zewnętrzna wykonana
została z lekkich warstwowych płyt styropianowych typu PW8. Dach wykonano
z blachy trapezowej docieplonej wełną mineralną.
Rys. 7. Widok konstrukcji hali magazynowej wysokiego składowania
Roboty stanu surowego obiektu o powierzchni 10000 m2 trwały około 5 miesięcy, w tym montaż prefabrykatów żelbetowych około 6 tygodni. Roboty realizowane były w okresie zimowym.
Powyższy obiekt poddano analizie z dwóch powodów. Pierwszy z nich to
krótki czas realizacji inwestycji. Terminy wykonania kolejnych robót zostały od
Zastosowanie prefabrykacji ...
195
początku ściśle określone. Zagrożeń w ich dotrzymaniu nie spodziewano się ani
od strony technicznej wykonania poszczególnych etapów, ani od strony organizacyjnej jednocześnie trwających robót. Wpływ natomiast mogły mieć, i w rzeczywistości miały, warunki pogodowe – zbyt duże oziębienie zimowe opóźniło
wszystkie rodzaje robót, natomiast późniejsza odwilż – roboty ziemne, fundamentowe oraz stabilizacyjne ze względu na podwyższenie poziomu wysokich
wód gruntowych.
Rys. 8. Prefabrykowane przegrody wewnętrzne hali magazynowej
Drugi powód analizy tego obiektu jest związany z poczuciem pewnego żalu.
Cała prefabrykowana konstrukcja nośna została wykonana i przywieziona
z zagranicy. Wykonawcą na miejscu wbudowania była również firma zagraniczna. Naturalne jest więc pytanie o przyczynę takiego wyboru. Czy produkcja
w kraju jest aż tak droga ze względu na jej jednostkowość, czy po prostu nie
mamy już gdzie produkować? Nie ulega natomiast wątpliwości, że pod względem technologicznym takiemu przedsięwzięciu na pewno byśmy sprostali.
Liczba obiektów zrealizowanych z wykorzystaniem prefabrykacji, podobnie jak w przypadku pozostałych systemów budowania, zależna jest od ogólnoekonomicznej sytuacji na rynku budowlanym. Według GUS [3, 4] wartość ogólnej produkcji budowlano-montażowej w latach 1993-2000 podlega stagnacji.
Niekorzystnie przedstawia się także wartość zrealizowanych obiektów budowlanych oraz obiektów inżynierii lądowej i wodnej. Dane przedstawiono w tab. 1.
Warto również zwrócić uwagę na statystykę budynków oddanych do użytku
według ich rodzajów. Prefabrykacja znajduje zastosowanie w budynkach cechujących się większą kubaturą, nieskomplikowanymi rozwiązaniami architektonicznymi oraz prostymi układami konstrukcyjnymi. Takie cechy posiadają bu-
196
J. Zygmunt
dynki niemieszkalne (użytku publicznego, usługowe, budynki produkcyjne
i magazynowe) oraz mieszkalne wielomieszkaniowe. Ilość zrealizowanych budynków według rodzajów przedstawiono w tab. 2. (wyszczególniono tylko te
budynki, w których rozwiązania konstrukcyjne nie wykluczają stosowania gotowych elementów).
Tabela 1. Produkcja budowlano-montażowa [3, 4]
Rok
1993
1994
1995
1996
1997
1998
1999
2000
2000
2000
Produkcja
Wznoszenie obiektów budowlanych
budowlano-montażowa
oraz inżynierii lądowej i wodnej (przez podmioty
ogółem
budowlane, w systemie zleceniowym)
Założenie: ceny stałe, rok poprzedni = 100
104,5
104,5
100,3
103,1
105,6
109,1
103,0
104,4
116,5
121,0
112,4
116,2
106,2
109,5
101,0
98,2
Założenie: ceny stałe, 1990 = 100
159,7
210,3
Założenie: ceny stałe, 1995 = 100
144,7
157,8
Tabela 2. Budynki oddane do użytku według rodzajów budynków [4]
Wyszczególnienie
Budynki mieszkalne
Wielomieszkaniowe o liczbie
mieszkań 31 i więcej
Zbiorowego zamieszkania
Budynki niemieszkalne
Hotele i budynki zakwat. turystycznego
Bud. biurowe
Bud. handlowo-usługowe
Bud. łączności, dworców i terminali
Bud. garaży
Bud. przemysłowe
Zbiorniki, silosy i bud. magazynowe
Obiekty kulturalne, muzea, biblioteki
Bud. szkół i instytucji badawczych
Bud. szpitali i zakł. opieki medycznej
Bud. kultury fizycznej
1995
1999
2000
33998
329
30444
558
32151
570
33
27235
1905
376
2969
192
5076
1521
410
80
467
111
27
22
16357
1460
351
2882
279
4697
866
1889
30
170
103
38
37
18054
1419
444
3706
65
6215
983
1580
49
155
108
116
Budownictwo wielomieszkaniowe oraz zbiorowego zamieszkania również
stwarza możliwość stosowania elementów prefabrykowanych. Jednak obserwuje
Zastosowanie prefabrykacji ...
197
się bardzo wyraźne odchodzenie od takich rozwiązań, na korzyść tradycyjnych
lub mieszanych technologii wznoszenia. Przykładowo, zamiast stropów z płyt
otworowych stosuje się półprefabrykowane ceramiczne stropy gęstożebrowe lub
stropy żelbetowe monolityczne. W miejsce ściennych elementów betonowych
pojawiają się materiały ceramiczne lub pianobetonowe w postaci bloczków
drobnowymiarowych. Charakteryzują się one korzystniejszymi właściwościami
fizycznymi (izolacyjość cieplna, akustyczna, zdolność pochłaniania wilgoci z
powietrza). Takie materiały gwarantują utrzymanie optymalnych warunków
mikroklimatycznych w przestrzeniach mieszkalnych. Decydujące znaczenie ma
również ukształtowana w psychice społeczeństwa niepewność dotycząca bezpieczeństwa stosowania prefabrykacji w budownictwie mieszkaniowym. Szczególny wpływ wywierają ostatnio prowadzone analizy i dyskusje na temat wysokich
bloków mieszkalnych zrealizowanych metodami wielkiej płyty. Warto zwrócić
uwagę na udział technologii prefabrykowanych w obecnie realizowanym budownictwie mieszkalnym. Udział nowo zrealizowanych budynków mieszkalnych (oddanych do użytku poza budownictwem indywiduanym) według technologii wznoszenia został przedstawiony w tab. 3. Statystyki nie ujmują jednak
budynków wykonanych systemem mieszanym, na przykład tradycyjnym lub
monolitycznym z częściowym wykorzystaniem prefabrykacji.
Tabela 3. Nowe budynki mieszkalne według technologii wznoszenia (oddane
do użytku poza budownictwem indywidualnym) [5, 6]
Technologia wznoszenia
Tradycyjna
Monolityczna
Wielkopłytowa
Wielkoblokowa
Kanadyjska
Pozostałe
Ogółem:
I półrocze 2001
I półrocze 2002
1368
33
40
18
6
31
1496
1068
67
30
11
15
19
1210
Zgodnie z dużo wcześniejszymi przewidywaniami, obecny model budownictwa ogólnego zmienił się na przestrzeni ostatniego dwudziestolecia. W pracy
[7] z 1985 r. przewidywano zróżnicowanie form uprzemysłowienia budownictwa oraz jego intensywności, odpowiednio do lokalnych warunków gospodarczych. Obserwuje się także zróżnicowanie kształtowania architektonicznego –
zgodnie z potrzebami użytkownika i kontekstem środowiskowym. W ramach
budownictwa przemysłowego stosuje się różne technologie i metody budowania.
Trafnie przewidziano wzrost obecności monolitycznego oraz monolitycznoprefabrykowanego budownictwa betonowego. Szeroko zastosowane zostały
monolityczne betonowe konstrukcje szkieletowe ze stropami pełnymi oraz ścianami z drobnowymiarowych bloczków ceramicznych. Powszechne stało się
również wznoszenie 3–4-kondygnacyjnych budynków w konstrukcji murowanej
198
J. Zygmunt
ze stropami półprefabrykowanymi (gęstożebrowymi). Nie zakładano natomiast
zmniejszenia obecności budownictwa typowo prefabrykowanego, a w szczególności regresu w budownictwie wielkopłytowym oraz wielkoblokowym.
Na podstawie przytoczonych w artykule przykładów, oraz obserwacji na
temat rodzajów stosowanych obecnie technologii wznoszenia obiektów budowlanych, można podsumować zagadnienie zastosowania prefabrykacji. Zauważa
się nadal możliwość wykorzystania gotowych elementów do realizowania obiektów, jednak pod pewnymi uwarunkowaniami. Powinny one znajdować zastosowanie głównie w budownictwie niemieszkalnym. Nie jest wskazane, aby samodzielnie stanowiły konstrukcję nośną budynków. Mogą jedynie wspomagać pracę właściwej konstrukcji nośnej lub współtworzyć ją przez np. zabetonowanie,
jak w omówionych przykładach. Elementy prefabrykowane mogą być stosowane
jako elementy wypełniające.
W obiektach przemysłowych stanowią konstrukcję nośną, co jest podyktowane uwarunkowaniami technologicznymi i ekonomicznymi. Takie zastosowania również omówiono w przykładach. W budownictwie mieszkaniowym z wielu powodów elementy prefabrykowane tracą zastosowanie. Bardzo ważnym
czynnikiem decydującym jest również wdrażanie przez producentów nowych
pomysłów oraz powszechny dostęp do takich ofert przez projektantów i inwestorów. Nowe oferty oraz ich wdrażanie do realizacji mogą stanowić ciekawe zagadnienie do szerszego rozważenia. Istotne byłoby poddanie analizie oferty elementów prefabrykowanych na polskim oraz zagranicznym, np. niemieckim,
rynku budowlanym.
3. Podsumowanie
Myślą przewodnią tego artykułu było zebranie spostrzeżeń na temat obecności prefabrykacji w realizowanych obiektach budowlanych. Poddano analizie
trzy obiekty, obecnie już zakończone realizacje – przykłady stosowania elementów prefabrykowanych.
Stwierdzono, że prefabrykacja została zastosowana jako technologia dominująca w konstrukcji nośnej – w analizowanych obiektach przemysłowych
i magazynowych, oraz jako towarzysząca w konstrukcji nośnej mieszanej –
w obiektach użyteczności publicznej. We wszystkich obiektach znalazła zastosowanie w charakterze elementów wypełniających.
Podstawową zasadą w postępowaniu projektantów, jak i wykonawców jest
bezpieczeństwo użytkowników obiektu. Jeżeli osiągane są jednocześnie redukcje kosztów inwestycji, to powyższe rozwiązania zyskują akceptację osób pełniących samodzielne funkcje techniczne w budownictwie. Prefabrykacja jest
przykładem technologii spełniającej powyższe kryteria i znajdującej zastosowanie w realizowanych obiektach. Są to głównie obiekty budownictwa przemysło-
Zastosowanie prefabrykacji ...
199
wego oraz większe obiekty użyteczności publicznej. W budownictwie mieszkaniowym prefabrykacja jest stosowana w coraz mniejszym stopniu.
Literatura
[1] Rowiński L.: Technologia produkcji prefabrykatów budowlanych. PWN, Warszawa 1987
[2] Sadowski Z.: Technologiczność prefabrykowanych konstrukcji żelbetowych. Arkady, Warszawa 1983
[3] GUS. Rocznik statystyczny RP. 2000. ZWS, Warszawa 2000. Tabl. 24(423)
[4] GUS. Rocznik statystyczny RP. 2001. ZWS, Warszawa 2001. Tabl. 24(426)
[5] Budownictwo mieszkaniowe. I-II kwartał 2001. GUS, Warszawa 2001
[6] Budownictwo mieszkaniowe. I-II kwartał 2002. GUS, Warszawa 2002
[7] Biliński T., Gaczek W.: Budownictwo systemowe. Kierunki przeobrażeń techniczno-technologicznych. WSI, Zielona Góra 1985
APPLICATION OF THE PREFABRICATION
IN THE SELECTED STRUCTURES
Summary
This article contains the examples of usage the prefabricated units in the select structures.
The fallowing structures are described: block of office buildings, industrial halls of paper-mill and
warehouse.
The examples of usage the prefabricated units instead of traditional made elements, in order
that main structure stayed safe and simultaneously building was cheaper and easier, are described
in the article. The prefabrication is used as the main and filing elements.
Złożono w Oficynie Wydawniczej w kwietniu 2003 r.

Podobne dokumenty