część - Forum Ekoenergetyczne
Transkrypt
część - Forum Ekoenergetyczne
CZĘŚĆ 1 KONCEPCJE, ROZWIĄZANIA, TECHNOLOGIE Joachim Bargiel Energetyka rozproszona w strategii gminy wiejskiej na Śląsku W artykule dokonano przeglądu najważniejszych ustaw związanych bezpośrednio oraz pośrednio z energetyką gminną. Następnie przedstawiono analizę wymogów oraz zaleceń wynikających z tych ustaw dla gmin wiejskich. Oceniono możliwości współpracy gmin z energetyką zawodową. Podano również przykłady praktycznej realizacji rozwiązań wynikających z przepisów tzw. ustaw energetycznych dla wybranej gminy śląskiej. 1. W ymogi i zalecenia dla jednostek samorządu terytorialnego Ustawy „energetyczne” dla samorządów i związane z nimi działania energetyczne to: Ustawa o samorządzie terytorialnym (stałe podwyższanie jakości życia mieszkańców), Ustawa o planowaniu przestrzennym (miejscowe plany zagospodarowania), Ustawa prawo energetyczne (dostarczanie ciepła, energii elektrycznej i gazu), Ustawa o zarządzaniu kryzysowym (odbudowa infrastruktury krytycznej, zabezpieczenie funkcjonowania urzędu gminy oraz ważnych obiektów komunalnych w sytuacjach kryzysowych), Ustawa o efektywności energetycznej (racjonalizacja wytwarzania i zużycia ciepła oraz energii elektrycznej), Ustawa o ochronie środowiska (realizacja Pakietu 3 x 20, programy czyste powietrze i woda, zagospodarowanie odpadów). Joachim Bargiel 2. Analiza zapisów ustaw: prawo energetyczne oraz zarządzanie kryzysowe W latach 2010–2011 obserwuje się nadal negatywne tendencje w utrzymaniu na odpowiednim poziomie mocy dyspozycyjnych elektrowni oraz ubytków mocy. Tendencje te utrzymują się zarówno w okresie szczytu zimowego, jak również w okresie doliny letniej. Szczególnie niekorzystne zjawiska występują w okresach letnich, w których wzrostowi mocy wyłączanej do remontów planowych towarzyszy jednocześnie wzrost zapotrzebowania. Szczególnie trudne warunki zdarzają się w okresach letnich. Wiąże się to dodatkowo z okresem burzowym, w którym to okresie występują liczne awarie sieciowe pogarszające niezawodność zasilania wielu ważnych odbiorców energii elektrycznej. Procedury ograniczenia zapotrzebowania w stanach awaryjnych Aktualnie funkcjonują w kraju następujące procedury wprowadzania ograniczeń: uzgodnienia ograniczeń, wprowadzanych w trybie normalnym z organami regulacyjnymi w przypadku deficytu mocy wytworzonej przez KSE, dających się przewidzieć ze znacznym wyprzedzeniem; awaryjne wyłączenia, które przeprowadzanie są w oparciu o cechy deficytu mocy (głębokość, czas trwania, doba, w której nastąpił deficyt). Ostateczne decyzje podejmuje dyspozytor: które linie i na jak długo zostaną wyłączone. Wszyscy odbiorcy objęci ograniczeniami w trybie normalnym są corocznie powiadamiani w formie pisemnej przez lokalnego OSD o poziomach mocy ograniczeń i zasadach ich wprowadzania. Szczegóły dotyczące sposobu reakcji odbiorcy na ogłoszony stopień zasilania określa się na etapie uzgodnień umowy o dostarczanie energii elektrycznej, np. przez wyznaczenie mocy minimalnej, pozwalającej odbiorcy uniknąć znacznych strat oraz zagrożeń zdrowia i życia załogi. Ograniczenia w poborze mocy w trybie awaryjnym mogą być realizowane w dwóch wariantach: a) Wyłączenie realizowane przez służby dyspozytorskie, w tym: – wyłączenia awaryjne odbiorców, zrealizowane w czasie do 1 godziny od wydania polecenia, poprzez wyłączenie linii i stacji SN. Przyjmuje się 22 Energetyka rozproszona w strategii gminy wiejskiej na Śląsku dziewięciostopniową skalę wyłączeń awaryjnych od A1 do A9. Wyłączenia awaryjne w skali od A1 do A9 powinny zapewnić zmniejszenie poboru mocy o 15%; – wyłączenia katastrofalne odbiorców zrealizowane w czasie do 30 minut od wydania polecenia, poprzez wyłączenie linii 110 kV i transformatorów 110 kV/SN. Przyjmuje się trójstopniową skalę wyłączeń katastrofalnych od SK1 do SK3. Wyłączenia katastrofalne w skali od SK1 do SK3 powinny zapewnić zmniejszenie poboru mocy o kolejne 15%. W zasadzie przyjmuje się, że wyłączenia katastrofalne realizowane są po stwierdzeniu braku skuteczności wyłączeń awaryjnych. Wyłączenia te realizowane są przez OSD na polecenie OSP na podstawie decyzji dyspozytora w oparciu o zaistniały deficyt mocy. b) Wyłączenie realizowane samoczynnie przez automatykę zabezpieczeniową. W przeszłości funkcjonowały tzw. stopnie ograniczeń. Liczba ich wynosiła 44. W zakresie od 1 do 9 stopnie ograniczeń obejmowały działania zapobiegające deficytom mocy poprzez m.in. regulacje produkcji napięć, nieplanowy import mocy zmniejszenie produkcji ciepła kosztem produkcji energii elektrycznej. Stopnie 10–19 to stopnie związane z wyłączeniami i ograniczeniami w przemyśle. Stopnie 20–29 (deficyt >2000 MW) to wyłączenia linii niskiego napięcia. Stopnie 30–40 skutkowały wyłączeniami linii i stacji średniego napięcia. Linie 110 kV były wyłączane po wprowadzeniu stopni katastrofalnych 41, 42, 43. Stopień 44 (specjalny katastrofalny) oznaczał utrzymanie tylko połączeń sieciowych między elektrowniami zawodowymi. Do stopnia 20 komunikaty były ogłaszane drogą radiową, zaś wyższe łączami telefonicznymi pomiędzy dyspozycjami mocy: państwową a okręgowymi i rejonowymi. 3. D ziałania oddolne gmin w dziedzinie poprawy bezpieczeństwa energetycznego m.in. poprzez łagodzenie skutków deficytów mocy w KSE oraz o obszarze zarządzania kryzysowego Przez działania oddolne rozumie się działania na styku sektora energetycznego oraz jednostek samorządu terytorialnego. Wspólny zakres działań obejmuje: zaopatrzenie gmin w media energetyczne, tj. ciepło, prąd, gaz, odbudowę tzw. infrastruktury krytycznej, 23 Joachim Bargiel ochronę środowiska naturalnego, wdrożenie nowych technologii energetycznych. Koncepcje minicentrów energetycznych gmin W Polsce funkcjonuje 2479 gmin, w tym 1576 gmin wiejskich, 597 gmin wiejsko-miejskich i 306 gmin miejskich. Wszystkie gminy realizują swoje zadanie energetyczne poprzez operatorów sieci dystrybucyjnej bądź przez własne spółki. Zadania energetyczne związane są również poprzez pryzmat realizacji bezpieczeństwa lokalnego. Minicentra energetyczne zapewniają bezpieczeństwo energetyczne krótkoterminowe (stany awaryjne), a także bezpieczeństwo długoterminowe. W stanach awaryjnych dotychczas dostawę energii elektrycznej zapewniają zwykle agregaty prądotwórcze przewoźne o stosunkowo małej mocy. Aktualnie występuje tendencja, aby funkcję tę spełniały źródła stacjonarne, które w normalnych warunkach spełniają rolę źródeł podstawowych, a w czasie deficytu mocy mogą wesprzeć system mocą rzędu 2 tys. MW. Przykład koncepcji minicentrów w jednej ze śląskich gmin przedstawiono na rysunku 1. Rys. 1. Koncepcja minicentrów energetycznych w gminie Gierałtowice Źródło: Archiwum autora. 24 Energetyka rozproszona w strategii gminy wiejskiej na Śląsku W czterech miejscowościach gminy występuje duża koncentracja budynków mieszkalnych (2700) oraz obiektów komunalnych (20). Przewiduje się zasilanie, głównie ważnych obiektów komunalnych ze źródeł kogeneracyjnych gazowych oraz wiatrowych. Źródła te usytuowane w sieci niskiego i średniego napięcia w normalnych warunkach współpracować będą z siecią energetyki zawodowej, zaś w sytuacjach awaryjnych mogą utrzymać zasilanie w tzw. wyspach energetycznych. Istnieje również możliwość ograniczenia zapotrzebowania na energię elektryczną głównie w obiektach komunalnych poprzez utrzymanie tylko tzw. minimów technicznych tych obiektów. Dla przytoczonej gminy daje to moc rzędu 2–3 MW. Ocena lokalnego bezpieczeństwa energetycznego krótkoi długoterminowego Bezpieczeństwo energetyczne to stan braku zagrożenia przerwaniem dostaw paliw i energii. Ustawa z dnia 26 kwietnia 2007 r. o zarządzaniu kryzysowym ustala działalność organów administracji publicznej będącą elementem kierowania bezpieczeństwem narodowym. Polega ona na: zapobieganiu sytuacjom kryzysowym, przygotowaniu do podejmowania nad nimi kontroli w drodze zaplanowanych działań, reagowaniu w przypadku wystąpienia sytuacji kryzysowej, odtwarzaniu infrastruktury lub przywracaniu jej pierwotnego charakteru. Systemy oraz wchodzące w ich skład powiązane ze sobą funkcjonalne obiekty, w tym obiekty budowlane, urządzenia, instalacje, usługi kluczowe dla bezpieczeństwa państwa i jego obywateli oraz służące zapewnieniu sprawnego funkcjonowania organów administracji publicznej, a także instytucji i przedsiębiorców. Infrastruktura krytyczna obejmuje systemy: a) zaopatrzenia w energię i paliwa, b) łączności i sieci teleinformatycznych, c) finansowe, d) zaopatrzenia w żywność i wodę, e) ochrony zdrowia, f) transportowe i komunikacyjne, g) ratownicze, h) zapewniające ciągłość działania administracji publicznej, 25 Joachim Bargiel Zdecydowana większość systemów związana jest bezpośrednio lub pośrednio z ciągłością dostawy energii elektrycznej. Fot. 1. Obiekt krytej pływalni Wodnik w gminie Gierałtowice Fot: Joachim Bargiel i) produkcji, składowania, przechowywania i stosowania substancji chemicznych i promieniotwórczych, w tym rurociągi substancji niebezpiecznych. Energetyka rozproszona w strategii gminy wiejskiej na Śląsku Rys. 2. Schemat elektryczny układu zasilania krytej pływalni w gminie Gierałtowice 4. Analiza i zastosowanie w praktyce zapisów następujących ustaw: ustawa o samorządzie terytorialnym, ustawa o planowaniu przestrzennym Ustawa o samorządzie terytorialnym (stałe podwyższanie jakości życia mieszkańców). Pojawia się tu zagadnienie generacji nowych miejsc pracy. Podano przykładowo powstawanie nowych miejsc pracy w gminie Gierałtowice na tzw. mapie drogowej. Mapa drogowa spółek gminnych związanych m.in. z energetyką gmin ną obejmuje: 2004 – PGK – 100% udział gminy (woda, ścieki, woda deszczowa, biogaz z oczyszczalni ścieków): 22 etaty – realizacja projektu centralnego systemu kanalizacji sanitarnej za 108 mln zł (62,5% UE); 2010 – kryta pływalnia Wodnik (W) – 100% udział gminy dofinansowanie UE – 2 mln zł (OZE, energia elektryczna i ciepło z kogeneracji, źródło wiatrowe oraz ogniwa fotowoltaiczne): 24 etaty – przychody 2,2 mln zł, koszty działalności 2,0 mln zł; 2011 – Biogazownia Gierałtowice (BG) – 100% udział gminy (ciepło, energia elektryczna,): 6–8 etatów – 5 mln zł, dofinansowanie UE – 85%; 2012–2013 – Gminne Centrum Energetyczne (GCE) – 100% udział gminy (energia elektryczna, ciepło, gaz, internet, usługi telekomunikacyjne): 8–10 etatów. Źródło: Archiwum autora. 26 27 Joachim Bargiel Ustawa o planowaniu przestrzennym (miejscowe plany zagospo- darowania), umożliwia korzystne zapisy w planie zagospodarowania przestrzennego dotyczące m.in. energetyki odnawialnej (solary, fotowoltaika, biogazownie, źródła wiatrowe oraz minicentra energetyczne). 5. Analiza i zastosowanie w praktyce zapisów następujących ustaw: ustawa o efektywności energetycznej i ustawa o ochronie środowiska Najważniejsze zapisy dotyczą: Ustawa o efektywności energetycznej (racjonalizacja wytwarzania i zużycia ciepła oraz energii elektrycznej). Działania gmin w dziedzinie termomodernizacji obiektów komunalnych, oszczędne źródła oświetlenia ulicznego oraz oświetlenie wewnętrzne budynków. Ustawa o ochronie środowiska (realizacja Pakietu 3 x 20, programy czyste powietrze i woda, zagospodarowanie odpadów). Realizacja projektów dotyczących kanalizacji sanitarnej, ograniczenia niskiej emisji oraz ograniczenia emisji CO2. Przykładowa realizacja pakietu klimatycznego dla gminy Gierałtowice przedstawia się następująco: a) realizacja 20% progu oszczędności energii przebiega z wyprzedzeniem harmonogramu (wykonanie ok. 15%) – oświetlenie uliczne oraz wnętrzowe, termomodernizacje obiektów komunalnych; b) realizacja 15% wytwarzania energii z odnawialnych źródeł (wykonanie ok. 5%) – źródła biogazowe, solarne, wiatrowe; c) realizacja 20% ograniczenia emisji CO2 (wykonanie ok. 10%) – źródła odnawialne i kogeneracyjne, – nowoczesne komunalne kotłownie gazowe, olejowe i węglowe, – nowoczesne kotłownie w gospodarstwach domowych, – termomodernizacje obiektów komunalnych. 28 Energetyka rozproszona w strategii gminy wiejskiej na Śląsku 6. Podsumowanie 1. Nałożone ustawowo obowiązki na gminy powinny być pochodną procesu optymalizacji wytwarzania oraz zużycia energii elektrycznej i ciepła. 2. Ustawy związane z energetyką dają możliwości poprawy gospodarki elektroenergetycznej na terytorium gmin oraz powstawania nowych miejsc pracy. 3. Wydaje się, że istotnym postępem w tej dziedzinie jest ustawa o efektywności energetycznej. 4. Ustawy umożliwiają również poprawę stanu bezpieczeństwa energetycznego poprzez m.in. budowę gniazd oraz minicentrów energetycznych. 5. Ważną rolę odgrywają jednostki samorządu terytorialnego w realizacji pakietu klimatycznego 3 x 20. 6. Pojawiły się możliwości korzystania przez jednostki i spółki gminne z uruchomionych certyfikatów oraz świadectw efektywności energetycznej. 7. Konieczne są jednak dalsze regulacje oraz dalsza edukacja w celu wzrostu świadomości energetycznej samorządów terytorialnych. Summary The importance of distributed energy devices for rural communities – examples of implementation for the municipality of Silesia. The article reviews the most important acts related directly and indirectly to the municipal energy. It presents an analysis of requirements and recommendations resulting from those laws for rural communities. The author rated the opportunity of cooperation between municipalities and professional power industry. Moreover, the article provides examples of practical implementation of solutions resulting from the regulations of so-called laws of energy for a selected Silesian municipality. 29 Andrzej Jurkiewicz Zarządzanie energią w obiektach użyteczności publicznej 1. Wstęp Rosnące ceny energii i paliw (w ciągu ostatnich 10 lat wzrost ten był dwa razy szybszy niż inflacja) powodują, że inwestycje w oszczędność energii są znacznie bardziej opłacalne niż najlepsze lokaty bankowe. Typowe metody na obniżanie zużycia energii (głównie ciepła) są powszechnie znane i polegają na wykonaniu programów termomodernizacyjnych budynków i ich instalacji (ocieplenie budynku, wymiana źródła ciepła, montaż zaworów termostatycznych, wymiana okien). Jest to jak najbardziej potrzebny kierunek, jednak nie wyczerpuje on wszystkich możliwości zmniejszania zużycia energii i jej kosztów. Poniżej przedstawiamy ideę działania Centrum Sterowania i Nadzoru Źródłami i Odbiorami Energii (CeSiN). W dobie Internetu możliwa jest pełna kontrola pracy wszystkich urządzeń i systemów podłączonych do systemu w sposób ciągły („on line”). Rejestracja danych, sterowanie pracą urządzeń, informacja o awariach, rozliczanie za zużytą lub dostarczoną energię – wszystko to możemy uzyskać, wykorzystując możliwości Internetu i zaawansowanej techniki. Dotychczas zarządzanie energią w samorządach sprowadzało się w zasadzie do analizy zużycia energii na podstawie otrzymywanych rachunków za media. Analizy z reguły dokonywano na podstawie miesięcznych zestawień zużytej energii i jej kosztów. Taki sposób bardziej przypomina kontrolę księgową niż rzeczywiste zarządzanie energią. Przynosi on pewne doraźne efekty i eliminuje ewidentne błędy i anomalie związane ze zużyciem i kosztami energii, ale na pewno nie jest to system, który w sposób profesjonalny zarządza energią. Zarządzanie energią w obiektach użyteczności publicznej Andrzej Jurkiewicz Przedstawiony poniżej system CeSiN ma znacznie szersze zastosowanie. System ten znakomicie sprawdzi się w obiektach użyteczności publicznej (i nie tylko), gdyż umożliwia bieżącą kontrolę pracy systemów (odbiory oraz źródła ciepła i energii elektrycznej) wraz z wprowadzaniem profesjonalnych programów podnoszenia efektywności pracy tych systemów. Jest to system oparty o ideę Smart Grid (inteligentna sieć), który pozwala na uzyskanie znacznych oszczędności energii i jej kosztów. Rys. 1. Zasady pracy systemu CeSiN Źródło: Archiwum autora. Dane z obiektów (źródła energii i odbiory) przekazywane są do sterowników lokalnych (przy niewielkiej liczbie danych z obiektów, jeden sterownik może obsługiwać kilka obiektów). Zebrane dane i informacje odczytywane przez sterownik służą do aktywnego sterowania pracą wszystkich urządzeń obiektowych, poprzez zmianę parametrów pracy tych urządzeń (sterowanie autonomiczne lokalne). Następnie sterownik komunikuje się z Centrum Sterowania (system SCADA) i przekazuje wszelkie informacje i dane o pracy obiektu. Dane te wykorzystywane są do aktywnego sterowania pracą wszystkich obiektów, z wykorzystaniem ustalonych algorytmów pracy konkretnych urządzeń. System 32 wykorzystuje możliwości zmiany parametrów pracy obiektów lub źródeł energii w zależności od przyjętych założeń technologicznych i ekonomicznych. Dodatkowo system na bieżąco zbiera wszelkie informacje o obiektach (temperatura, przepływy, wskazania liczników ciepła lub energii elektrycznej, moc chwilowa) i je archiwizuje. W sposób automatyczny, np. informacja wysyłana jest na telefon komórkowy, system powiadamia operatora albo obsługę o awariach lub błędnej pracy urządzeń obiektu. Umożliwia on także bieżące podawanie stanu liczników (wodomierze, liczniki ciepła, liczniki energii elektrycznej, gazomierz itp.). Cała komunikacja między sterownikami a Centrum Sterowania oraz między Centrum Sterowania a użytkownikami systemu (operatorzy, serwis, odbiorca i dostawca energii, dowolny użytkownik) może odbywać się z wykorzystaniem Internetu. System archiwizacji danych umożliwia prezentację wyników pracy obiektów w wybranej formie (wykresy, dane tabelaryczne). Każdy z uczestników systemu może mieć dostęp do odpowiednich danych w zależności od ustalonego poziomu dostępności. Przykładowo: kierownik jednostki będzie miał dostęp do danych historycznych lub bieżących dotyczących parametrów pracy obiektu i zużycia energii, dział rozliczeń będzie miał dostęp do bieżących wskazań układów rozliczeniowych, serwis techniczny może wprowadzać ręczne korekty pracy obiektu w stanach awaryjnych, a operator systemu może zmieniać algorytmy pracy sterownika i w ten sposób zmieniać parametry pracy sterowanego obiektu lub zmienić rodzaj pracujących źródeł energii. System umożliwia także bieżącą kontrolę parametrów dostarczanych mediów (ciepło, energia elektryczna, gaz) przez dostawców zewnętrznych i kontroluje cały system pod kątem niedopuszczania do przekraczenia mocy zamówionych (strażnik mocy). Ważną zaletą sytemu CeSiN jest jego uniwersalność. Można go zastosować dla praktycznie każdego źródła lub odbiornika, do każdego urządzenia i obiektu, dla większości układów pomiarowych. Jest to system otwarty i można go powielać na różnych obiektach. Wszelkie oprogramowanie i stosowane rozwiązania techniczne oparte są na typowych rozwiązaniach dostępnych na rynku. Nie jest wymagane wykupywanie drogich licencji czy programów. Tworzenie systemu CeSiN ma charakter otwarty, a jego rozwój i tworzenie następuje wraz ze zmianą warunków zewnętrznych (ceny paliw, stan techniczny budynku, alternatywna praca źródeł, wyłączanie lub ograniczanie dostaw energii do obiektów lub ich części, bieżąca analiza kosztów 33 Zarządzanie energią w obiektach użyteczności publicznej Andrzej Jurkiewicz eksploatacji i reagowanie na ich zmianę, temperatury zewnętrzne, prognoza pogody itp.). System CeSiN kontroluje wszystkie ważniejsze parametry pracy źródeł i odbiorów oraz odpowiednio reaguje, często w sposób automatyczny (bez konieczności ingerencji użytkownika obiektu), na zmianę tych parametrów. Zasada budowy Centralnego Systemu Sterowania Nadzoru (CeSiN) W kolejnych krokach pokazujemy, jakie czynności należy wykonać, aby wdrożyć CeSiN. 11. Wykonanie audytu energetycznego obiektu. 12. Opracowanie modelu CeSiN i koncepcji rozwiązań technicznych dotyczących zmian w obiektach (opomiarowanie, sterowanie i urządzenia wykonawcze), w tym analiza możliwości wykorzystania dodatkowych alternatywnych źródeł energii (np. energia OZE). 13. Oszacowanie przewidywanych nakładów inwestycyjnych związanych z wprowadzeniem sytemu CeSiN. 14. Oszacowanie przewidywanych oszczędności w kosztach energii i zużywanych mediów po wprowadzeniu CeSiN. 15. Wybór i oprogramowanie sterowników obiektowych (typowe sterowniki i oprogramowanie) sterujących pracą źródeł i odbiorów. 16. Opracowanie minimalnych (standardowych) wymagań dla urządzeń pomiarowych i wykonawczych, wraz z analizą możliwości wykorzystania urządzeń i pomiarów istniejących. 17. Opracowanie metod systemu komunikacji urządzeń pomiarowych i wykonawczych z układami sterowania na obiektach. 18. Wykonanie programów sterowania pracą urządzeń wykonawczych i regulacyjnych. 19. Prace montażowe i instalacyjne układów pomiarowych i wykonawczych na obiekcie wraz z systemem komunikacji. 10. Wykonanie programu do zbierania, archiwizacji, monitorowania i wizualizacji danych (SCADA). 11. Wykonanie programu dla zapewnienia pełnej komunikacji dwustronnej między obiektami a Centrum Sterowania. 12. Utworzenie Centrum Sterowania Lokalnymi Źródłami i Odbiornikami Energii. 13. Nadzór i serwis operatorski nad pracą systemu wraz z systemem bezpieczeństwa dostępu. 34 14. Stała korekta i ulepszanie programu sterującego pracą systemu pod kątem podnoszenia efektywności energetycznej i ekonomicznej. 15. Kontrola parametrów dostarczanych mediów przez dostawców zewnętrznych. 16. Dokonywanie rozliczeń wewnętrznych/zewnętrznych za zużytą energię lub media. 17. Optymalizacja pracy systemu w stanach awaryjnych i kryzysowych. Należy podkreślić, że opracowane algorytmy sterowania pracą źródeł ciepła oraz odbiorów są wynikiem wieloletnich doświadczeń i obserwacji pracy układów zasilania i odbiorów energii w warunkach rzeczywistych. Wykorzystujemy tutaj bogate doświadczenie praktyczne członków naszego zespołu, w skład którego wchodzą osoby z długoletnim doświadczeniem w zakresie wykonania i wdrażania algorytmów sterowania w różnorodnych procesach technologicznych (w tym w bardzo skomplikowanych procesach przemysłowych). Dodatkowo zespół na bieżąco analizuje pracę danego systemu oraz wprowadza korekty i zmiany w oprogramowaniu dla uzyskania jak najlepszych efektów energetycznych (podnoszenie sprawności cząstkowych układu) oraz ekonomicznych (np. analiza wykorzystanej mocy zamówionej i jej korekta poprzez odpowiednie sterowanie pracą systemu). Dla stworzenia optymalnego algorytmu sterowania pracą systemu niezbędna jest pomoc pracowników i uzytkowników obiektu, w którym wdrażany jest system CeSiN. W zasadzie konieczne jest aktywne uczestnictwo użytkownika w sterowaniu pracą systemu poprzez dostęp do paneli operatora, w których użytkownik może, w pewnym przewidzianym programowo zakresie, ustalać parametry pracy systemu, np. temperatury zadane w pomieszczeniach, temperatury wody grzewczej w grzejnikach (indywidualne krzywe grzewcze), temperatury ciepłej wody i cyrkulacji, wprowadzanie ruchomych przerw lub ograniczeń dla parametrów ogrzewania w formie indywidualnych programów pracy dla wybranych odbiorów itp. 2. Efekty wprowadzenia CeSiN Efektami wprowadzenia systemu CeSiN będzie: 11. Pełna kontrola nad pracą źródeł energii, wraz z kontrolą parametrów dostawy energii przez dostawców zewnętrznych. 12. Możliwość ustalania optymalnych algorytmów pracy źródeł i odbiorów pod kątem zapewnienia odpowiednich parametrów dostawy energii, 35 Zarządzanie energią w obiektach użyteczności publicznej Andrzej Jurkiewicz jej rozdziału i lokalnych parametrów jej wykorzystania (odbioru) wraz z możliwością wprowadzenia dowolnych zmian w tych algorytmach. 13. Bieżąca analiza efektywności wykorzystania energii i mediów wraz z aktywną reakcją sytemu na obniżenie efektywności, w tym efektywności ekonomicznej. 14. Bieżąca kontrola wielkości mocy zamówionej w stosunku do aktualnie używanej mocy dla ciepła, gazu lub energii elektrycznej z możliwością jej czasowego obniżania (strażnik mocy). 15. Bieżąca kontrola parametrów pracy źródeł i odbiorów z automatycznym powiadamianiem serwisu (obsługi) o zakłóceniach w pracy lub stanach awaryjnych z wykorzystaniem telefonii komórkowej. 16. Wprowadzanie indywidualnych programów pracy źródeł i odbiorów energii, a także programów nadrzędnych wykorzystujących wzajemne relacje współpracy źródeł lub potrzeb odbiorów. 17. Obniżenie ilości zużywanej energii przez obiekty i kosztów jej dostawy poprzez optymalizację współpracy źródeł energii z odbiorami. 18. Dostarczanie danych do rozliczeń za zużytą energię i media (liczniki ciepła, liczniki gazu, wodomierze, liczniki energii elektrycznej). 19. Archiwizacja i prezentacja danych wskazanym osobom w trybie ciągłym („on line”). 10. Wprowadzenie programu zarządzania kryzysowego w przypadkach awaryjnych. System jest całkowicie bezpieczny od strony możliwości dostępu osób trzech (nieupoważnionych), gdyż dostarczanie danych do użytkowników następuje bez komunikacji ze sterownikiem obiektowym. Dostęp do sterownika ma tylko operator systemu. Dodatkowym, ważnym elementem systemu, jest możliwość ciągłej kontroli parametrów dostarczanych mediów przez dostawców zewnętrznych, wraz z wykazaniem momentów niedotrzymania parametrów dostawy, co może być podstawą do żądania stosowania opustów z tytułu zaniżenia wymaganych parametrów. System umożliwia aktywny udział odbiorcy w ustalaniu parametrów pracy systemu poprzez dostęp do panelu operatora lub poprzez komunikowanie się z operatorem z wykorzystaniem portalu internetowego i ustalanie na bieżąco konieczności wprowadzenia zmian w pracy systemu. Szczegółowe zasady współpracy między użytkownikiem a operatorem systemu CeSiN zostają ustalone w formie umowy, w której co do zasady przyjmuje się, że wynagrodzenie operatora zależy częściowo od uzyska36 nych efektów obniżenia kosztów związanych z dostarczoną i zużytą energią oraz innymi mediami. 3. Przykład realizacji systemu CeSiN Przykładem praktycznego wdrożenia systemu CeSiN jest zrealizowana inwestycja modernizacji budynku Wspólnoty Mieszkaniowej w Opolu. Jest to budynek o powierzchni użytkowej 3200 m2 składający się z 44 mieszkań i pięciu lokali użytkowych. W budynku mieszka ok. 145 osób. Jest to wprawdzie budynek mieszkalny, ale pokazujemy tutaj zasady działania Systemu Nadzoru i Sterowania, który można z powodzeniem zastosować także w obiektach o innym charkterze użytkowania (szkoły, urzędy, biura, szpitale, zakłady pracy). 3.1. Stan dotychczasowy Budynek został oddany do użytkowania na początku lat dziewięćdziesiątych ubiegłego wieku i był nieocieplony. Instalacja c.o. była wyposażona w zawory termostatyczne i zasilana z węzła grupowego. Moc zamówiona wynosiła 220 kW. Krzywa grzewcza pracy instalacji 90/70. Ciepła woda podgrzewana przez podgrzewacze gazowe indywidualne (junkersy). Średni koszt ogrzewania budynku wynosił w 2010 roku 2,4 zł/m2/m-c, a koszt podgrzewu cwu (przy sprawności junkersów 50%) 30 zł/m3. 3.2. Program modernizacji zrealizowany w latach 2011–2012 Program modernizacji budynku wykonano od czerwca 2011 do lutego 2012 roku. Obejmował on: 1. Ocieplenie trzech ścian budynku. 2. Likwidacja podgrzewaczy gazowych i montaż centralnego systemu cwu. 3. Wykonanie węzła cieplnego (moc zamówiona 150 kW) dwufunkcyjnego, z priorytetem cwu wspomaganego pracą kolektorów słonecznych (140 m2). 4. Zmiana mocy zamówionej z 220 kW na 150 kW (mimo wprowadzenia cwu!), wraz ze zmianą taryfy na ciepło (węzeł należy do Wspólnoty, więc ciepło jest o 10 zł/GJ tańsze od dotychczasowej ceny). Koszty, finansowanie 1. Koszt ocieplenia budynku: 400 000 zł. 2. Koszt wykonania węzła cieplnego, centralnego systemu cwu i montażu kolektorów słonecznych: 350 000 zł (dotacja z NFOŚ do tej inwestycji wynosiła 37%, czyli 130 000 zł). 3. Koszt Centralnego Systemu Nadzoru i Sterowania: 30 000 zł. 37 Zarządzanie energią w obiektach użyteczności publicznej Andrzej Jurkiewicz 3.3. Opis systemu sterowania i nadzoru Do sterowania i zbierania danych wykorzystano sterownik przemysłowy firmy Unitronics swobodnie programowalny z dotykowym panelem operatorskim HMI. Sterownik ten daje duże możliwości i swobodę programowania algorytmów sterowania oraz umożliwia ciągłą komunikację i przekazywanie danych poprzez sieć teletechniczną (Internet) do użytkowników systemu. Umożliwia on w sposób ciągły zbieranie danych z układów pomiarowych (ponad 200 parametrów) i sterowanie pracą kilkudziesięciu urządzeń wykonawczych jednocześnie. Węzeł cieplny został wyposażony w odpowiednie układy pomiarowe i wykonawcze (pompy, zawory dwu- i trójdrogowe, liczniki ciepła, wodomierze, elektrozawory, czujniki temperatury), które zostały podłączone do sterownika. Sterownik, poprzez odpowiednie oprogramowanie, steruje pracą węzła oraz komunikuje się z użytkownikami zewnętrznymi poprzez sieć internetową. Oto schemat działania układu: Źródło: Archiwum autora. Operator węzła może nim sterować (lokalnie lub z wykorzystaniem internetu) za pośrednictwem panelu operatora (por. następny schemat), w którym można zmieniać parametry pracy węzła. Źródło: Archiwum autora. Wizualizacja danych (panel dotykowy na węźle cieplnym lub ekran dowolnego komputera). 38 Źródło: Archiwum autora. 39 Zarządzanie energią w obiektach użyteczności publicznej Andrzej Jurkiewicz podniesienie sprawności wytwarzania cwu o ok. 15% w stosunku do porównywalnych instalacji (sprawność układu cwu ponad 70%), wprowadzenie nowej krzywej grzewczej 70/50 wraz z osłabieniami nocnymi i dziennymi, a także obniżenie mocy zamówionej i obniżenie ceny ciepła (zmniejszenie kosztów ogrzewania o ok. 30%), podniesienie wykorzystania energii słonecznej w produkcji cwu z poziomu 40% do ok. 55% w skali roku, wprowadzenie priorytetu ciepłej wody (w szczytach poboru cwu obniżana jest temperatura zasilania budynku w c.o.), dlatego nie było potrzeby zamawiania mocy dla ciepłej wody użytkowej, ciągła kontrola pracy węzła z wykorzystaniem Internetu, powiadamianie obsługi o awariach i zaniżeniu parametrów pracy węzła, archiwizacja danych wraz z kontrolą temperatury zasilania czynnika grzewczego dostawcy ciepła, ciągła i zdalna kontrola zużycia energii oraz mediów (liczniki ciepła, licznik energii elektrycznej, wodomierz), bardzo małe zużycie energii elektrycznej poprzez odpowiednie sterowanie pracą pomp (zużycie energii elektrycznej w lutym 2011 r. wynosiło ok. 400 kWh), likwidacja indywidualnych podgrzewaczy gazowych (junkersów) i wprowadzenie efektywnego systemu cwu, np. sterowanie pracą pompy cyrkulacyjnej w zależności od temperatury wody w przewodzie cyrkulacyjnym, znaczne obniżenie kosztów eksploatacji budynku. Na kolejnym schemacie mamy możliwość obserwacji parametrów pracy węzła (sterownik zbiera dane historyczne z ostatnich trzech dni pracy, a w lokalnym serwerze gromadzone są dane z ostatnich 6 miesięcy pracy). Dane te pokazują parametry pracy węzła z ustaloną częstotliwoscią pomiaru (np. co jedną minutę) w formie wykresów. Daje to duże możliwości obserwowania, jak pracuje węzeł, a w razie konieczności zmieniania algorytmu pracy węzła. Dane te udostępniane są także w formie plików typu Excel. Źródło: Archiwum autora. 3.4. E fekty wykonania inwestycji i zastosowania systemu nadzoru i sterowania 1. Przewidywany koszty eksploatacji budynku: koszt ogrzewania: 1,8 zł/m2/m-c (było 2,4 zł) – spadek o ok. 25%, koszt cwu: 8 zł/m3 (było 30 zł) – spadek o ok. 70%. 2. Spłata całej inwestycji następuje z oszczędności. Nie zmieniono opłat ponoszonych przez właścicieli mieszkań. Przewidywane jest nawet obniżenie kosztów o ok. 200 zł/rok/mieszanie (0,3 zł/m2/m-c) mimo konieczności spłaty kredytów (sic!). 3. Przeprowadzona modernizacja, a zwłaszcza wprowadzenie systemu CeSiN, przyniosły nastepujące efekty: 40 4. Podsumowanie Wprowadzenie Centralnego Systemu Sterowania i Nadzoru Lokalnymi Źródłami i Odbiorami Energii daje wymierne korzyści związane z obniżaniem zużycia energii i jej kosztów. System znakomicie sprawdza się przy optymalizacji współpracy między typowymi źródłami energii (kotły, węzły cieplne) a odnawialnymi źródłami energii (kolektory słoneczne, fotowoltaika, biogazownia, kogeneracja). Efektem końcowym jest obniżanie emisji zanieczyszczeń i wypełnienie zobowiązań Pakietu 3 x 20. Możliwym jest także uzyskanie dodatkowych przychodów w forme certyfikatów pochodzenia energii (np. świadectwa żółte, zielone, białe). 41 Andrzej Jurkiewicz System w większości przypadków gwarantuje uzyskanie oszczędności na poziomie 10–40% przy stosunkowo małych nakładach inwestycyjnych (prosty czas zwrotu inwestycji 2–3 lata). Streszczenie Dotychczas, zarządzanie energią w samorządach, sprowadzało się w zasadzie do analizy zużycia energii na podstawie otrzymywanych rachunków za media. W artykule przedstawiono zasady działania systemu CeSiN, który znakomicie sprawdza się w obiektach użyteczności publicznej, gdyż umożliwia bieżącą kontrolę pracy systemów (odbiory i źródła ciepła i energii elektrycznej) wraz z aktywnym systemem sterowania pracą tych systemów dla podniesienia efektywności ich pracy. Jest to system oparty o ideę Smart Grid (Inteligentna Sieć), który pozwala na uzyskanie znacznych oszczędności energii i jej kosztów. 42 Andrzej Jurkiewicz Jak się mieszka w budynku pasywnym? 1. Wstęp i podziękowania Opis swoich doświadczeń w budowie i użytkowaniu budynku pasywnego rozpocznę od cytatu z bardzo ciekawego artykułu prof. Barbary Jękot pt. „Rozwój oceny/certyfikacji budownictwa: od kalkulacji częściowych do całościowych”1: „Sukces domu pasywnego to nie tylko idea drastycznego zmniejszenia zapotrzebowania na energię do ogrzewania i chłodzenia domu, ale także atmosfera przystępnego udostępniania osiągnięć świata nauki i dzielenia się na bieżąco doświadczeniami i wynikami oraz pomoc w transformowaniu ich na lokalne realia. Magia szeregu małych inicjatyw i spotkań pobudzających oddolne działania, przedsiębiorczość i możliwości realizacyjne dowodzi, że najskuteczniej uczymy się poprzez namacalne przykłady i praktyczne doświadczenia.” Koncepcja budowy i funkcjonowania budynku pasywnego, jego praktyczna realizacja w małej wiosce pod Opolem oraz obecny proces wyciągania wniosków w trakcie eksploatacji, jest dokładnie tym, o czym Pani Profesor pisze. Idea budowy i rozwiązań technicznych naszego domu powstawała przez kilka dobrych lat. Przy budowie domu, oprócz sięgania po literaturę korzystano także z doświadczeń i pomysłów innych osób. Nie sposób je wszystkie wymienić; często były to osoby anonimowe (np. uczestnicy prezentacji, na których przedstawiano projekt), które podsuwały swoje pomysły lub zadawały różne pytania inspirujące nas do poszukiwania konkretnych rozwiązań. Im wszystkim pragniemy serdecznie podziękować, a poniżej przedstawimy rezultaty tych wspólnych poszukiwań. 1 www.klaster3x20.pl/dzial_profesorski Andrzej Jurkiewicz Jak się mieszka w budynku pasywnym? 2. Standardy budownictwa pasywnego Na temat budownictwa pasywnego napisano wiele ciekawych lub mniej ciekawych książek i artykułów. Sporo budynków w tym standardzie już wykonano, ale głównie na Zachodzie (prym wiodą Niemcy i kraje skandynawskie). W Polsce doświadczeń mamy znacznie mniej. Fot. 1. Budynek „prawie pasywny” został wybudowany w latach 2008–2009 w małej wiosce pod Opolem. Źródło: Archiwum autora. Źródło: Archiwum autora. Od października 2009 roku zamieszkuje go 3-osobowa rodzina, która przeżyła w nim już trzy lata, w tym bardzo mroźny styczeń i luty 2010 oraz 2012 roku. Jest to budynek parterowy, adoptowany z typowego projektu budynków proponowanych w katalogach. Nie ma on najlepszego wskaźnika A/V i jego kształt odbiega od standardów budynków pasywnych (które powinny być zbliżone do sześcianu), jednak użytkownicy świadomie zrezygnowali z piętra, uważając, że w przyszłości schody mogłyby stanowić dla nich problem. Strych jest więc duży, ale nieużytkowy. W stosunku do typowego projektu zmieniono całkowicie rozkład pomieszczeń i zrezygnowano z garażu, który pierwotnie znajdował się w bryle budynku. W ten sposób uzyskano dodatkowe dwa pokoje. Łączna powierzchnia użytkowa to 167,4 m2, wysokość pomieszczeń to 2,8 m. Ich rozkład przedstawiono poniżej. 44 Nad koncepcją budowy i szczegółami technicznymi właściciele pracowali, wspólnie z gronem znajomych, przez kilka lat. Oboje są audytorami energetycznymi, więc teoretycznie było łatwiej; jednak, niestety, nie uchroniło ich to błędów (opisano je w dalszej części artykułu). Przypomnijmy podstawowe parametry techniczne i wymagania dla budynku pasywnego: U dla ścian, stropu, podłogi: 0,1-0,12 W/m2/K, U dla okien: < 0,9 W/m2/K (szyby niskoemisyjne), wentylacja nawiewno-wywiewna z rekuperacją o sprawności powyżej 80%, okna południowe o dużej powierzchni, przegrody o dużej pojemności cieplnej, zużycie energii ogrzewania 10–15–20 kWh/m2/rok, zużycie całkowite energii do 120 kWh/m2/rok, współczynnik A/V < 0,7 raz warunki klimatu wewnętrznego (budynki klasy A wg PN-EN 15251): o temperatura powietrza: 20–22°C zimą i 23–25°C latem, wilgotność względna 35–55%, maksymalna prędkość powietrza z nawiewników 0,2–0,4 m/s, średnie temperatury przegród nie powinny się różnić więcej niż o 3°C w stosunku do temperatury powietrza, 45 Andrzej Jurkiewicz preferencja oświetlenia naturalnego, budynek o dużej szczelności (dla próby n50 < 0,6 wymiany/h), brak mostków termicznych, wymiana powietrza 0,3–2,0 wymiany/h Większość parametrów (choć nie wszystkie) udało się dotrzymać, co jest ważne, jeśli stwierdzimy, że budowa tego budynku kosztowała tyle, ile budowa budynku tradycyjnego. Twierdzenia o tym, że budynek pasywny jest o 20–30% droższy od tradycyjnego, są nie do końca prawdziwe, gdyż, stosując odpowiednie rozwiązania techniczne, można uniknąć dużych kosztów budowy takiego budynku. Być może w zużyciu energii dla ogrzewania nie osiągniemy wymaganych 15 kWh/m2/rok, ale do 20kWh/m2/rok na pewno się zbliżymy. Udało się osiągnąć bardzo dobry wynik całkowitego zużycia energii w tym budynku wynoszący niecałe 100 kWh/m2/rok. Zawsze także powinniśmy sobie zadać pytanie, ile nas kosztuje ta „walka o kilowatogodziny”. Przykładem niech będzie sposób wykonania podłogi na gruncie. Dla budynków pasywnych często proponowana jest podłoga o wielu warstwach (nośnych i izolacyjnych). Przykładowa podłoga budynku pasywnego składa się aż z 13 warstw. Oczywiście tak wykonana podłoga jest bardzo droga (kilkakrotnie droższa niż podłoga standardowa). Za cenę kilkudziesięciu tysięcy złotych możemy uzyskać efekt w postaci obniżenia zużycia energii cieplnej o 4 kWh/m2/rok. Dla tego konkretnego budynku to energia rzędu 3–4 GJ/rok. Czy warto wydać dodatkowe kilkadziesiąt tysięcy złotych za kilka GJ energii? Oczywiście, są takie wydatki, które musimy ponieść, aby utrzymać odpowiedni komfort, lub aby uniknąć innych kosztownych inwestycji (np. okna o bardzo dobrych właściwościach izolacyjnych, zamontowane bez mostków termicznych, pozwalają zrezygnować z tradycyjnego ogrzewania grzejnikami lub ogrzewania podłogowego w pokojach). Budynki pasywne energetycznie potrzebują bardzo niewiele energii „aktywnej” na ich ogrzanie. Głównym źródłem ciepła są zyski słoneczne i bytowe (energia pasywna), oraz gruntowy wymiennik ciepła współpracujący z wysokosprawnym rekuperatorem powietrza wentylacyjnego. Aby budynek wykorzystywał tę pasywną energię, należy magazynować tą energię w przegrodach budowlanych (należy zapewnić odpowiednio dużą akumulacyjność tych przegród). Nie powinny być to budynki wykonane w technologiach zupełnie lekkich, a jeżeli nawet zdecydujemy się na taki rodzaj technologii 46 Jak się mieszka w budynku pasywnym? (np. budownictwo szkieletowe z drewna typu kanadyjskiego), to powinniśmy zapewnić odpowiednio dużą pojemność cieplną przegród wewnętrznych. Pozwala ona na zmagazynowanie energii w dzień po to, by w nocy tę energię oddawać. W polskich warunkach powinniśmy wyposażać budynki (nawet pasywne) w odpowiedni rodzaj ogrzewania dyżurnego lub wspomagającego. Ogrzewanie to jest niezbędne, jeżeli bardzo niskie temperatury będą się utrzymywać przez dłuższy czas. Dodatkowo w pomieszczeniach takich jak łazienka temperatura wymagana wynosi 24°C, więc trudno byłoby zapewnić odpowiedni komfort, jeżeli nie stosowalibyśmy żadnego aktywnego sytemu ogrzewania. Przybliżymy teraz rozwiązania techniczne, które zastosowaliśmy w tym budynku, a także wskażemy błędy, które popełniono, a których łatwo można uniknąć. Dodatkowo zaproponujemy pewnie rozwiązania, które powstały już w trakcie użytkowania budynku, gdyż tak naprawdę dopiero codzienne użytkowanie pozwala ocenić jego zalety i ograniczenia (które również występują), a także upoważnia do wydawania opinii o zastosowanych rozwiązaniach. Większość opracowań dotyczących budynków pasywnych w Polsce ma charakter teoretyczny lub pokazowy. Mało jest osób, które użytkują taki budynek, a jeszcze mniej tych, które chcą się podzielić swymi opiniami na temat tego, jak tak naprawdę się mieszka w takim budynku. Podstawowe dane techniczne i technologii zastosowane przy budowie budynku: Ściany wykonano jako dwuwarstwowe, z pustaka ceramicznego (porotherm) o grubości 25 cm, ocieplonego styropianem „szarym” (λ= 0,031 W/m*K) o grubości 25 cm (U ściany = 0,11 W/m2*K). Dlaczego ściany z materiału ceramicznego? Gdyż taki materiał jest nie tylko w pełni naturalny, ale także posiada sporą pojemność cieplną, którą wykorzystujemy w gospodarce zyskami ciepła. Fundament wykonany został z bloczków żwirobetonowych ocieplonych styrodurem o grubości 12 cm. Na fundamencie najpierw ułożyliśmy rząd bloczków z betonu komórkowego (patrz: rysunek nr x), a dopiero na nich zbudowaliśmy ściany z pustaków ceramicznych. Chodziło nam o to, aby odizolować „zimne” ściany fundamentowe od „zimnych” ścian z pustaka ceramicznego, który wprawdzie ma stosunkowo dobre właściwości izolacyjne, ale tylko przy poziomym przepływie ciepła. Na styku fundament/ściana mogło wystąpić znaczne wychładzanie ścian przez „zimny fundament”. Zastosowanie bloczków z betonu ko 47 Andrzej Jurkiewicz mórkowego eliminuje ten problem. Takie rozwiązanie powinniśmy stosować także dla innych „zimnych” ścian. Należy pamiętać, aby ten rząd bloczków z betonu komórkowego znajdował się co najmniej 30 cm nad powierzchnią gruntu. Szczegóły pokazujemy na rysunku nr x. Źródło: Archiwum autora. Podłoga składa się z płyty betonowej o grubości 7–8 cm wylanej na zagęszczonym piasku i żwirze, ocieplonej styropianem o grubości od 8 do 12 cm i pokrytym wylewką betonową o grubości ok. 4 cm (Upodłogi = 0,163 W/ m2*K). Podłoga wykonana została z deski dębowej (3 cm) lub terakoty (łazienki, kuchnia, przedpokój, spiżarnia, pralnia). W porównaniu z zalecanymi standardami wykonania podłogi w budynkach pasywnych jest ona znacznie „odchudzona”, ale również znacznie tańsza (ok. trzykrotnie), a straty przez tak wykonaną podłogę są jedynie o ok. 4 GJ/ rok większe. Strop typu Teriva ocieplono styropianem i wełną mineralną o grubości 30 cm (wełnę stosowaliśmy w miejscach trudno dostępnych lub w miejscach, w których docinanie styropianu byłoby kłopotliwe i pracochłonne). Na styropianie ułożyliśmy płyty OSB i płyty paździerzowe (Ustropu = 0,11 W/m2*K). Okna zamontowaliśmy trzyszynowe, pięciokomorowe o współczynniku Uokna poniżej 0,9 W/m2*K (jak dla budynków pasywnych). Więźba dachowa drewniana, kryta dachówką ceramiczną (dach nieocieplony). 48 Jak się mieszka w budynku pasywnym? Jak widać, poza większą grubością styropianu na ścianach i podłodze strychu, „przekładką” izolującą na fundamencie oraz lepszymi oknami, nic specjalnego tutaj nie stosowaliśmy. Problemy pojawiają się, bowiem dopiero przy ustalaniu szczegółów montażu i przy zastosowanych rozwiązaniach technicznych. Po pierwsze – problem szczelności budynku. Budynki pasywne powinny być bardzo szczelne, gdyż tylko wtedy można w pełni wykorzystać energię z powietrza usuwanego. Zalecenie, aby próby szczelności budynku pasywnego przy ciśnieniach 50 Pa nie były gorsze od 0,6 wymiany powietrza na godzinę, jest dużym wyzwaniem i dla projektanta, i wykonawców. Należy bowiem tak zaprojektować i tak wykonać budynek, aby prawie całkowicie wykluczyć niekontrolowaną infiltrację powietrza. W praktyce okazuje się jednak, że, jeżeli położymy dokładnie tynki i wykonamy specjalne uszczelnienia na połączeniach ościeży stolarki okiennej, to szczelność wychodzi jakby sama z siebie. Nie trzeba stosować w zasadzie innych elementów uszczelniających (folie na połączeniach mur/strop czy mur/podłoga). Najważniejszym jest dopilnowanie jakości montażu okien i ich ustawienia (uszczelnienia obwodowe okna) oraz dokładności wykonania tynków wewnętrznych na ścianach i sufitach. Oczywiście dodatkowa folia na połączeniach nie zaszkodzi (koszt stosunkowo niewielki), a w niektórych rodzajach połączeń, jest ona wręcz konieczna, nie trzeba jednak popadać w skrajność, gdyż prawidłowo położone tynki na ścianach i sufitach wewnętrznych zapewnią nam dużą szczelność. Nieszczelnymi elementami okazał się kominek (o tym widzieliśmy) i… gniazdka elektryczne. Te ostatnie tylko dlatego, że położyliśmy instalację w peszlu, zamiast tradycyjnie – pod tynkiem w bruzdach. Ze względu na to, że cała instalacja elektryczna prowadzona jest na strych (nieużytkowy), więc i końcówki peszli z przewodami wylądowały na strychu. A tam temperatura porównywalna jest z temperaturą zewnętrzną, więc w chłodne dni robiły się w peszlach typowe ciągi grawitacyjne i wręcz fizycznie czuło się, jak z gniazdek elektrycznych „wieje chłodem”. Aby wyeliminować problem, musieliśmy te gniazdka i wyjścia z peszli uszczelnić pianką montażową. Wniosek: Instalacje elektryczne kładziemy podtynkowo bez osłon typu peszel. Budynek został poddany próbie szczelności i – jak na obecność kominka – próba wyszła bardzo dobrze (n50 = 1,06 wymiany/h), a co ciekawe (i ważne) zarówno próba na nadciśnienie, jak i podciśnienie dała porównywalne wyniki. Poniżej przedstawiamy wyniki przeprowadzonej próby ciśnieniowej budynku. 49 Andrzej Jurkiewicz Jak się mieszka w budynku pasywnym? Źródło: Archiwum autora. Kominek jest stosunkowo szczelny, gdyż zastosowaliśmy drzwiczki kominkowe podnoszone do góry i uszczelnione specjalnym sznurem. Kominek posiada zamkniętą komorę spalania, a powietrze do spalania doprowadzane jest oddzielnym przewodem wentylacyjnym (o średnicy 20 cm) prowadzonym pod posadzką. W czasie, gdy nie jest używany, należy pamiętać o zamykaniu szyberka na wlocie powietrza zewnętrznego, aby maksymalnie ograniczyć schładzanie komory spalania powietrzem zewnętrznym. Kominek, w budynkach pasywnych nie jest jednak polecany, gdyż zawsze będzie jakimś źródłem nieszczelności i strat ciepła, jeżeli jest nieużywany. Z tego ostatniego powodu obudowa kominka nie powinna być wykonana z materiałów o dużej przewodności cieplnej (kamień, marmur, cegła), lecz z materiału izolacyjnego. Z kominka można zrezygnować, lecz w naszym przypadku zadecydowały względy estetyczne, a dodatkowo to, że jest to jednak ważny element ogrzewania budynku w bardzo zimne dni…. Na poniższym zdjęciu widać, że głównym źródłem ciepła jest palenisko (szyba) kominka, a nie jego obudowa (wykonano ją z materiału izolacyjnego obłożonego ozdobnymi płytami). 50 Źródło: Archiwum autora. Kolejnym ważnym elementem są okna, ale budynkach pasywnych dobra jakość okien nie wystarczy, ważna jest także eliminacja mostków termicznych w tych oknach. Zalecany montaż w budownictwie pasywnym to montowanie okien w warstwie izolacyjnej, czyli jakby poza obrysem ścian budynku. Na kolejnych rysunkach pokazujemy stosowane metody montażu okien. 51 Andrzej Jurkiewicz Jak się mieszka w budynku pasywnym? Rys. 1. Tradycyjny montaż okna (bardzo duży udział mostków liniowych okno/ścina) Źródło: Archiwum autora. Rys. 2. Zalecany montaż okien przy ich wymianie w połączeniu z ociepleniem ścian, czyli tzw. licowanie okna z murem (udział mostków spada ok. pięciokrotnie w stosunku do rozwiązania pokazanego na rys.1) Natomiast nasze ściany, znacznie tańsze od monolitycznych, wykonane zostały z pustaka ceramicznego i zupełnie nie nadają się do mocowania kotew i wieszania na nich ciężarów, zwłaszcza tak ciężkich jak okna. Na rysunku 4 pokazujemy, jak rozwiązaliśmy ten problem: przed montażem okien, otwory okienne zostają wyklejane ciepłym i twardym styropianem o grubości 5 cm. Montaż okien odbywa się na kotwach montażowych z użyciem przekładek termicznych (ebonitowych), które umieszczane są pomiędzy wcześniej wklejonym styropianem a ramą okienną (rozstaw kotew wzdłuż ramy to ok. 60 – 70 cm). Następnie rama okienna mocowana jest do ścian budynku kołkami szybkiego montażu o długości 150 mm. Aby wypełnić szczelinę powstałą pomiędzy ramą okienną a ścianą budynku, używa się folii paroszczelnych, a następnie wypełnia się całość energooszczędną pianą montażową. Rys. 4. Montaż okien w ścianie ceramicznej lub z betonu komórkowego (brak mostków okno/ścina) Źródło: Archiwum autora. Rys. 3. Zalecany montaż okien w budynku pasywnym w warstwie izolacyjnej z systemem kotew i łączników (brak mostków okno/ściana) Źródło: Archiwum autora. Przedstawiony na rys. 3 sposób montażu okien wymaga zastosowania specjalnych kotew i łączników, montowanych do stabilnej (najlepiej monolitycznej) ściany. To niestety znacznie podraża koszt budowy, gdyż ściana musi mieć odpowiednią wytrzymałość mechaniczną, a zastosowany system łączenia muru z framugami okna jest drogi (duża liczba kotew i łączników). 52 Źródło: Archiwum autora. 53 Andrzej Jurkiewicz Od dołu okno opiera się na specjalnej listwie podparapetowej. Ważny jest także sposób montażu parapetów, zwłaszcza kamiennych lub marmurowych. Jeśli nie zastosujemy odpowiednich przekładek izolacyjnych, to między parapetem wewnętrznym a podokiennikiem (parapetem zewnętrznym) wystąpią duże mostki termiczne. Na poniższym zdjęciu widać, szczegóły montażu parapetów i podokienników pokazujemy na schemacie. Jak się mieszka w budynku pasywnym? ścian zewnętrznych jest grube (co najmniej 25 cm), to łatwo zamontujemy tam skrzynki, chowając je całkowicie w styropianie (nie wystąpią mostki). Kolejnym, najważniejszym chyba elementem budynku pasywnego, jest system wentylacji nawiewno-wywiewnej, współpracującej z wymiennikiem gruntowym oraz z wysokosprawnym rekuperatorem. W budynkach pasywnych, w których straty cieplne przez przegrody są bardzo małe, 80% energii cieplnej zużywanej jest na podgrzanie powietrza wentylacyjnego. Dlatego ten system w dużym stopniu decyduje o końcowym zużyciu energii cieplnej potrzebnej na ogrzanie budynku. Zasadę pracy układu zastosowanego w naszym budynku, przedstawiam na kolejnym schemacie. Źródło: Archiwum autora. Wszystkie okna zostały wyposażone w żaluzje zewnętrzne z napędem elektrycznym…. i to właśnie przy montażu skrzynek tych żaluzji popełniliśmy największy błąd. Polegał on na tym, że skrzynki, w których zwijają się żaluzje, umieściliśmy nad oknami wewnątrz pomieszczeń. Chcieliśmy mieć dobry dostęp do napędów i wyeliminować mostki występujące na styku mur/skrzynka żaluzji, ale zapomnieliśmy o jednej rzeczy – szczelina, w której porusza się żaluzja, znajduje się na zewnątrz i przez nią wchodzi zimne powietrze do skrzynek, które mamy wewnątrz mieszkania. W ten sposób, niestety, zimne powietrze schładzało skrzynki i tworzył się mostek nie termiczny, ale „powietrzny”. Uszczelniliśmy więc i dociepliliśmy je styropianem, ale i tak temperatura na skrzynkach pozostawała o kilka stopni niższa niż temperatura ścian czy nawet szyb okiennych (budynek poddano badaniu kamerą termowizyjną, które ujawniło wadę zastosowanego rozwiązania). Wniosek i nauka na przyszłość: Skrzynki i żaluzje należy zawsze montować na zewnątrz, a ponieważ ocieplenie 54 Źródło: Archiwum autora. Ważnym elementem są tutaj dwie czerpnie zewnętrzne; jedna współpracująca z wymiennikiem gruntowym, a druga pobierająca powietrze zewnętrzne. Po co dwie czerpnie? Chodzi o pracę wentylacji w okresach przejściowych (jesień/wiosna), gdy temperatura na zewnątrz jest wyższa niż temperatura gruntu pod wymiennikiem gruntowym (ok. 8°C). Przykładowo, dla temperatury zewnętrznej 12°C niepotrzebnie schładzalibyśmy powietrze w wymienniku gruntowym, a następnie znów podgrzewali w rekuperatorze. Czujnik temperatury w zależności od temperatury zewnętrznej zamyka jedną przepustnicę, a otwiera drugą. W ten sposób powietrze przepływa albo przez wymiennik gruntowy, albo bezpośrednio z czerpni zewnętrznej (z pominięciem wymiennika gruntowego). 55 Andrzej Jurkiewicz Jako gruntowy wymiennik ciepła (GWC) zastosowaliśmy bezprzeponowy wymiennik gruntowy. Zdjęcia x i x przedstawiają kolejne etapy montażu, a schemat x pokazuje zasadę działania tego wymiennika. Wymiennik ten nie może być stosowany, gdy mamy wysoki poziom wód gruntowych, gdyż nie możemy dopuścić do zalania go wodą gruntową. Jak się mieszka w budynku pasywnym? Fot. 2. Montaż GWC pod budynkiem Rys. 5. Przekrój przez wymiennik PROVENT-GEO Źródło: Archiwum autora. Źródło: Informacja ze strony: www.pro-vent.pl. W praktyce zastosowaliśmy nieco inne rozwiązanie niż standardowe, tzn. gdy montaż wymiennika następuje w pobliżu budynku. Postanowiliśmy, bowiem, że wymiennik gruntowy zamontujemy pod budynkiem. Chodziło o sprawdzenie możliwości pracy tego rodzaju wymienników w budynkach o zabudowie szeregowej, w której zwykle nie ma dużych działek, i dodatkowo chcieliśmy wyeliminować ewentualne niebezpieczeństwo uszkodzenia wymiennika przez rozrastające się korzenie drzew czy innych roślin. Jest to także pośrednią przyczyną tego, że zalecenia producenta są takie, aby montować wymiennik na głębokości co najmniej 70 cm pod powierzchnią gruntu. Jednak umieszczenie GWC pod budynkiem wiązało się z niebezpieczeństwem przemarznięcia ścian fundamentowych budynku i znacznym wyziębieniem gruntu pod nim (w mroźnie dni często sprowadzamy pod budynek powietrze zewnętrzne o bardzo niskich temperaturach). Ten problem rozwiązaliśmy w ten sposób, że GWC został zamknięty w takim styropianowym, ogromnym „pudle” (widać to na zdjęciu nr 3), otwartym jedynie od spodu. Dzięki temu: GWC pracuje tylko z gruntem poniżej fundamentów i niska temperatura powietrza przepływającego przez GWC nie przenosi się ani na ściany fundamentowe, ani na podłogę budynku. 56 Fot. 3. GWC zamknięty w „puszce styropianowej” Źródło: Archiwum autora. 57 Andrzej Jurkiewicz Nie dysponujemy opinią producenta, ale myślę, że wymiennik ten, jeżeli umieścimy go pod budynkiem, może być montowany nawet 20 – 30 cm pod podłogą, pod warunkiem, że będzie zaizolowany styropianem nie tylko z góry, ale także po bokach do głębokości ław fundamentowych. Powietrze przepływające przez wymiennik od spodu styka się bezpośrednio z gruntem, więc nie ma problemu z ewentualnym kondensatem (wsiąka w grunt). GWC jest bardzo ważnym elementem budynku pasywnego, i nie chodzi tutaj o średnią sprawność odzysku ciepła w sezonie zimowym, gdyż ta jest nieduża (ok. 12–15%), ale o jego bardzo dużą skuteczność przy bardzo niskich temperaturach. W styczniu i lutym 2010 r. temperatury często spadały nawet poniżej -20°C, a za wymiennikiem temperatura zawsze pozostawała dodatnia (sic!)… Dzieje się tak dlatego, że powierzchnia wymiany jest bardzo duża (w naszym budynku wynosi 38 m2) i przy dużej różnicy temperatur chwilowe moce osiągane przez taki wymiennik są stosunkowo duże (temperatura gruntu to 8°C). Na kolejnym wykresie pokazujemy ten zbawienny wpływ wymiennika GWC na zmniejszanie skoków temperatury zewnętrznej. Źródło: Informacja ze strony www.pro-vent.pl. 58 Jak się mieszka w budynku pasywnym? Ma to bardzo duże znaczenie dla systemu ogrzewania budynku, gdyż dzięki temu nie trzeba dobierać urządzeń grzewczych o tak dużych mocach, jak to zwykle ma miejsce. Dodatnie temperatury na wlocie do rekuperatora powodują także, że nie występuje tutaj zjawisko szronienia i nie potrzeba stosować układów rozmrażających w tym rekuperatorze. Zamontowana na kanale nawiewnym, za rekuperatorem, dodatkowa nagrzewnica elektryczna o mocy ok. 2 kW sterowana czujnikiem temperaturowym kanałowym i zapewniająca nawiew powietrza o temperaturze rzędu 23–25°C rozwiązuje w zasadzie problem ewentualnego niedogrzania pomieszczeń. Oczywiście grzałka ta włączana jest jedynie w bardzo zimne dni, i to tylko wtedy, gdy nie chcemy rozpalać w kominku. Wydajność wentylatorów jest regulowana skokowo od ok. 0,1 wymiany do ok. 2 wymian powietrza na godzinę. W bardzo zimne dni stosujemy małe ilości powietrza nawiewanego (do 0,5 wymiany). Pozwala to na pełne wykorzystanie temperatury gruntu w GWC oraz zwiększa sprawność rekuperatora. W naszym domu zastosowaliśmy także ogrzewanie wspomagające w postaci mat grzewczych. Umieściliśmy je wszędzie tam, gdzie położona jest terakota (łazienki, kuchnia, przedpokój) oraz dodatkowo – po 2 m2 maty (o mocy ok. 300 W) pod każdym oknem w pokojach. Maty podokienne zastały zatopione w tynku (ogrzewanie ścienne) i sterowane są indywidualnymi regulatorami temperatury (jak ogrzewanie podłogowe). W łazienkach, dzięki ogrzewaniu matami grzewczymi, utrzymujemy temperaturę na poziomie 23–25°C, ale proszę pamiętać, że to ogrzane powietrze jest natychmiast wykorzystane w rekuperatorze do podgrzania powietrza nawiewanego. Ta energia cieplna ogrzanego powietrza, przy typowej w Polsce wentylacji grawitacyjnej, jest bezpowrotnie tracona, natomiast w budynku pasywnym ciepło z powietrza usuwanego staje się podstawowym źródłem ogrzewania powietrza świeżego (nawiewanego). Z tego powodu, wymagana sprawność temperaturowa dla rekuperatorów stosowanych w budynkach pasywnych jest bardzo wysoka i powinna wynosić (średnio!) co najmniej 80%. W naszym przypadku zastosowaliśmy rekuperator z podwójnym wymiennikiem krzyżowym o sprawności średniej ok. 85%. Na kolejnym wykresie pokazujemy, jak zmienia się temperatura za wymiennikiem GWC w lecie. Mimo dużych wahań temperatury zewnętrznej za GWC utrzymuje się temperatura nawiewu rzędu 14–17°C. Dodatkowo powietrze przepływające przez GWC jest często osuszane (efekt obniżenia temperatury poniżej punktu rosy). 59 Andrzej Jurkiewicz Źródło: www.pro-vent.pl. Przykładowe rozmieszczenie przewodów nawiewno-wywienych przedstawiono na poniższym schemacie 60 Aby skorzystać w pełni z tej naturalnej klimatyzacji musi być spełniony jeden warunek: należy zapewnić co najmniej dwie lub nawet trzy wymiany powietrza na godzinę. Najlepiej zastosować wentylator o regulowanej wydajności od 0,5 do 3 wymian na godzinę. Oczywiście latem powietrze nawiewane jest do budynku z pominięciem wymienników rekuperatora (rekuperator wyposażono w by-pass). Stosujemy tu ogólną zasadę, że powietrze nawiewane jest do pomieszczeń „czystych” (pokoje, salon, sypialnie), a wyciągane z pomieszczeń „brudnych” (łazienki, kuchnia, garderoba, spiżarnia). Instalacje wentylacyjną w formie kanałów prostokątnych zamontowaliśmy sami (została ona wykonana według własnego projektu). Poszczególne odcinki rur można było prawie dowolnie skracać lub wydłużać (bose końce nachodziły jeden na drugi) i montaż przypominał trochę składanie klocków Lego. Całość została ułożona na nieużytkowym strychu w warstwie styropianu (wysokość kanału to 10 cm, a podłogę strychu ocieplono trzema warstwami styropianu, po 10 i 12 cm; łącznie ok. 30 cm docieplenia). Nad każdym anemostatem umieszczono skrzynkę rozprężną. Oczywiście są gotowe systemy wentylacyjne i te na pewno także spełnią swoją rolę. Na zdjęciu x przedstawiony jest fragment montowanej wentylacji. Fot. 4. Fragment wentylacji z widocznymi skrzynkami rozprężnymi Źródło: Archiwum autora. Źródło: Archiwum autora. Jak się mieszka w budynku pasywnym? 61 Andrzej Jurkiewicz Streszczenie Na temat budownictwa pasywnego napisano wiele ciekawych i mniej ciekawych książek i artykułów. Sporo budynków w tym standardzie już wykonano, ale głównie na Zachodzie (prym wiodą Niemcy i kraje skandynawskie). W Polsce osób, które w takich budynkach mieszkają, jest znacznie mniej. W poniższym artykule przedstawiamy nasze praktyczne doświadczenia z budowy i użytkowania takiego budynku. 62 Ryszard Tytko Technologie wykorzystania energetycznego słomy W Polsce rocznie produkuje się ok. 25 milionów ton słomy (równoważne z ok. 11,5 mln t węgla). Szacuje się, że do celów energetycznych można wykorzystać ok. 4 – 6 mln t. Spowoduje to zmniejszenie zużycia węgla o ok. 2 – 3 mln t oraz zmniejszenie emisji CO2 do atmosfery o ok. 4 – 6 mln t. Cena tony słomy to ok. 100 – 140 zł. Spalaniu słomy towarzyszy śladowa emisja SO2, a wartość emisji NO2 jest porównywalna z emisją z kotłowni węglowych. Pozostałości w postaci popiołu stanowią 3 – 5% ilości spalanej słomy. Głównym składnikiem popiołu jest potas, dlatego popiół może być wykorzystany jako nawóz. Energia chemiczna 1 kg słomy o wilgotności 15% wynosi ok. 14,3 MJ, co odpowiada energii chemicznej zawartej w 0,81 kg drewna opałowego, 0,75 kg węgla grubego lub 0,41 m3 gazu ziemnego. W Polsce słoma wykorzystana jest jako paliwo do ogrzewania, m.in.: mieszkań czy budynków inwentarskich, w gospodarstwach rolnych, w kotłowniach komunalnych, w elektrociepłowniach. Obecnie słoma na cele energetyczne wykorzystywana jest w ok. 20 ciepłowniach osiedlowych o łącznej mocy zainstalowanej ok. 18 MW. Zainstalowane moce eksploatowanych kotłowni wahają się od 0,5 do 5,5 MW. Szacuje się, iż do końca 2010 r. zainstalowano ok. 290 kotłów na słomę w gospodarstwach rolnych o łącznej mocy ok. 92 MW. 1. Kotły do spalania słomy Jako paliwo dostarczane do kotła słoma jest niejednorodna, z różną zawartością części mineralnych i wilgoci. Lotne składniki słomy sięgają 70%. Słoma jest paliwem trudnym do prawidłowego spalania. Warunkiem tego spalania jest utrzymanie jej wilgotności poniżej 20%. Technologie wykorzystania energetycznego słomy Ryszard Tytko Nowoczesne kotły do spalania słomy pozwalają na spalanie jej ze sprawnością 80 – 90% i przy bardzo niskiej emisji gazów. W Polsce produkowane są kotły o mocy zainstalowanej od kilkudziesięciu kW dla zasilania pojedynczych gospodarstw domowych do ok. 30 MW w elektrociepłowniach. W trakcie spalania słomy gazy palne i niedopalone części paliwa wymagają dopalenia w temperaturze ponad 800°C, przed schłodzeniem w części wymiennikowej kotła. Konstrukcje zapewniające spełnienie tego warunku są różne, decyduje o tym przede wszystkim moc kotła. Można wyróżnić trzy główne typy kotłów na słomę: 1. Kotły ze spalaniem „cygarowym” całych bali. Przeważnie są to duże kotły zasilające sieci ciepłownicze i elektrociepłownie wyposażone w systemy załadunku całymi balami słomy o masie do 500 kg. 2. Kotły ze spalaniem słomy rozdrobnionej, które są stosowane dla małych i średnich mocy cieplnych. Podawanie słomy odbywa się z sieczkarni prasowanej słomy (dostosowanej typowo do określonych bali) przez układ podajników ślimakowych lub transportem pneumatycznym. Paliwo podawane jest w sposób ciągły. Układ do podawania słomy znacznie zwiększa koszt instalacji. 3. Kotły ze spalaniem „przeciwprądowym” całych bali, które stosuje się do małych i średnich pieców. Spalanie „przeciwprądowe” jest kombinacją procesów gazyfikacji biopaliwa oraz spalania gazu i cząstek paliwa w strumieniu nadmuchiwanego powietrza. Funkcjonowanie i charakterystyka kotła ze spalaniem „przeciwprądowym” jest następująca: Kocioł ładowany jest paliwem w postaci jednego lub kilku bali słomy, a spalanie odbywa się do całkowitego wypalenia wsadu. Powietrze do spalania, nawiewane przez wentylator, wpływa w słomę pod kątem prostym do powierzchni balota po to, aby słoma pozostała na swoim miejscu i nie była porywana przez palące się gazy. Wylot z komory spalania do części wymiennikowej kotła odbywa się pod prąd powietrza podmuchowego, co zapewnia dopalanie gazów i niespalonych pierwotnie części palnych słomy. Odpowiedni kształt gardzieli wykonanej z ceramiki gwarantuje wysoką temperaturę spalania. Konstrukcja komory spalania i dysz nawiewnych zapewnia jak najlepsze wymieszanie gazów powstających w procesie gazyfikacji i powietrza nawiewanego. Gazy w komorze spalania nie powinny być ochłodzone poniżej 800°C, zanim nie zakończy się spalanie gazów i cząstek palnych. 64 Powietrze podmuchowe wprowadzane jest do komory spalania w sposób kontrolowany, tak, aby zapewnić jego odpowiednią ilość, niezbędną do całkowitego spalania części palnych. Nawiew powietrza regulowany jest przez sterownik z czujnikiem temperatury spalin w czopuchu. W trakcie spalania bali, gdy rośnie wolna powierzchnia słomy chłodząca płomienie, nadmuch powietrza do spalania jest zwiększany dla zapewnienia odpowiedniej temperatury w komorze spalania gazów. Rys. 1. Schemat kotła ze spalaniem przeciwprądowym Źródło: Archiwum autora. 2. Kotły małej i średniej mocy na słomę Kotły na słomę w większości gospodarstw włączone są do sieci centralnego ogrzewania, obok tradycyjnego pieca, co pozwala zachować bezpieczeństwo energetyczne na wypadek braku bali ze słomy. Kotły średniej mocy przystosowane są do spalania bali o ciężarze do 12 kg, ze spalaniem „przeciwprądowym”. Obsługa kotłów jest bardzo prosta. Do kotłów o mocy do 100 kW ładuje się ręcznie małe bale o wadze do 12 kg, 2 – 6 sztuk nie częściej niż trzy razy na dobę. W okresie letnim jeden wsad słomy zapewnia wystarczającą ilość ciepła do produkcji ciepłej wody użytkowej na dobę. Aby zminimalizować obsługę, w układzie c.o. powinien być zainstalowany zbiornik akumulacyjny gromadzący ciepłą wodę c.o. oraz c.w.u. 65 Technologie wykorzystania energetycznego słomy Ryszard Tytko Wielkość zbiornika dobiera się do wielkości kotła. Sprawność kotłów na paliwo w balach nie przekracza 80%. Niestety, wadą tego typu kotłów jest wymóg podawania słomy dobrze wysuszonej. Wilgotność bali nie może przekroczyć 20%. Bale nadmiernie wilgotne będą spalane jedynie częściowo. Ponadto wartość energetyczna zawilgoconych bali może się zmniejszyć nawet do 8 MJ/kg (ok. 50%). Tak zawilgoconego paliwa nie powinno się podawać do spalania. Dla potrzeb ogrzania c.w.u. i c.o. w domu o pow. ok. 200 m2 należy zebrać słomę z ok. 2 ha – w sumie ok. 5 ton. 3. Kotłownie dużej mocy Na polskim rynku dostępne są kotły dużej mocy (100 – 500 kW), na słomę podawaną do nich w balach oraz kotły na słomę rozdrobnioną do 1 MW. Spalanie biomasy w kotłach na słomę rozdrobnioną nie wymaga stosowania dobrze przesuszonego paliwa. Ponadto pozwala na zastosowanie nowoczesnych rozwiązań podających i sterujących spalaniem. Sprawność kotłów dużej mocy wynosi ok. 85% przy płynnej regulacji mocy 20 – 100%. Przy kotłowniach na słomę dużej mocy, pojawia się problem z zapewnieniem dostaw paliwa. Dla kotłowni o mocy 1 MW konieczne jest zabezpieczenie paliwa w ilości ok. 1000 ton na sezon grzewczy. cofnięciem się ognia). Następnie słoma trafia do kotła, gdzie w przedniej części komory spalania odbywa się zgazowanie części lotnych. Otrzymany w ten sposób gaz po wymieszaniu się z powietrzem wtórnym, podawanym systemem dysz, ulega spaleniu w komorze spalania. Odgazowana słoma dopalana jest na ruszcie schodkowym, przy udziale strefowo podawanego powietrza pierwotnego. Popiół odprowadzany jest na zewnątrz za pomocą podajnika ślimakowego, a spaliny trafiają do odpylacza aerodynamicznego, gdzie zostają oczyszczane ze skutecznością powyżej 90% i wyprowadzone przez komin. Wybudowanie w Lubaniu kotłowni na słomę kosztowało ponad 5 mln zł. Koszt produkcji energii cieplnej to ok. 19,3 zł/GJ. Jest on niższy o ok. 40% od kosztu energii cieplnej otrzymywanej z węgla. Fot. 1. Piec na słomę o mocy 300 kW Rys. 2. Schemat technologiczny kotłowni opalanej słomą Źródło: Archiwum autora. Źródło: Archiwum autora. 4. Peletowanie słomy Kocioł przedstawiony na rys. 2 zainstalowany został w kotłowni w Lubaniu. Cztery kotły pracujące w tej kotłowni posiadają moc 2 x 3,5 MW + 1 MW. W kotłowni możliwe jest spalanie słomy o wilgotności nawet do 30%. Baloty z magazynu przy kotłowni ładowane są na stół podawczy i transportowane do rozdrabniacza. Po pocięciu na krótkie i równe włókna, które gwarantują prawidłowy proces spalania, słoma dozowana jest podajnikiem ślimakowym do śluzy ogniowej (jej zadaniem jest zabezpieczenie przed Od 2007 roku obserwuje się dynamiczny rozwój firm produkujących urządzenia do peletowania słomy, powiększa się również ilość gospodarstw rolnych produkujących pelety. Pelet jest to wydajne paliwo powstające przez przerób biomasy przy zastosowaniu pras o specjalnym kształcie, przekroju matryc peletujących i bardzo dużym ciśnieniu zgniatania. Dzięki temu energia zawarta w pierwotnym surowcu zostaje silnie zagęszczona, dając paliwo o bardzo dobrych 66 67 Technologie wykorzystania energetycznego słomy Ryszard Tytko własnościach energetycznych, kaloryczne, zawierające minimalne ilości popiołu. Wartość opałowa ok. 18,1 MJ/kg. Zastosowanie peletu ze słomy, czyli wysoko przetworzonego paliwa, daje możliwość znacznego zautomatyzowania kotłowni. Fot. 4. Kocioł do spalania m.in. peletów ze słomy Fot. 2. Instalacja do produkcji peletów ze słomy Fot. 3. Pelet ze słomy Źródło: Archiwum autora. 5 . Maszyny do produkcji brykietów ze słomy Źródło: Archiwum autora. Producenci preferują pakowanie pelet w worki o masie 25 kg do ręcznego załadunku zasobnika kotłowego lub w worki o masie do 1000 kg nadające się do załadunku silosów lub magazynów. Przy cenie słomy wynoszącej około 140 zł/tonę, pelety kosztują ok. 350 – 450 zł/tonę. Słoma doskonale się peletuje (spaja) przy wilgotności 17 – 18% z dodatkiem lepiszcza (mączka ryżowa lub kukurydziana, podawana w młynie młotkowym w ilości kilku procent do tony słomy). Ilość energii elektrycznej potrzebna do procesu peletowania słomy jest ponad dwa razy wyższa niż w procesie brykietowania. Słoma zebrana z pola, jeśli jest sucha, nie wymaga dodatkowego suszenia, choć im bardziej sucha, tym lepsza (<15% wilgotności). Podstawowe urządzenia do peletowania to: szarpak, młyn młotkowy, granulator z matrycami peletującymi. W 2010 roku w państwach UE wyprodukowano ok. 7,8 mln ton peletów, w Polsce ok. 350 tys. ton. Przedsiębiorstwa produkcyjne oferują linie do produkcji peletów ze słomy o różnej wydajności, np. o wydajności 1 t/h przy mocy 100 kW w cenie ok. 500 000 zł. 68 Bardzo ważną zaletą brykieciarki jest to, że nie potrzebuje słomy rozdrobnionej do frakcji ok. 1 cm; słomę można rozdrabniać nawet na 3-centymetrowe kawałki. Fot. 5. Produkcja brykietów ze słomy Fot. 6. Brykiet ze słomy Źródło: Archiwum autora. 69 Technologie wykorzystania energetycznego słomy Ryszard Tytko Bale ze słomą są rozwijane przy pomocy rozwijarki. Rozwinięta słoma trafia do bębna rozdrabniacza, po czym przenoszona jest do zbiornika buforowego. Jego zadaniem jest magazynowanie sieczki, na wypadek przerw w rozdrabnianiu słomy. Ze zbiornika buforowego słoma rozdrobniona transportowana jest do brykieciarki za pomocą przenośnika ślimakowego. Brykieciarka podaje gotowy produkt (brykiety) do worków. Ciekawym rozwiązaniem technicznym i biznesowym jest uruchomienie punktów usługowego brykietowania słomy. W miejscowościach, w których rolnicy dysponują dużymi nadwyżkami słomy, produkuje się brykiety ze słomy, którą rolnicy sami przywożą i odbierają gotowy brykiet. Nadwyżkę produkcji odkupują elektrociepłownie. Zwrot poniesionych nakładów w urządzenia do brykietowania powinien nastąpić w ciągu około czterech lat. Po rozmowach z producentami urządzeń do brykietowania i peletowania, wytwórcami brykietów i pelet można wysnuć wniosek, że istnieje jeszcze wiele barier: technicznych, organizacyjno-prawnych, finansowych, które blokują dynamiczny rozwój wykorzystania biomasy ze słomy. 6. Zalety wykorzystania słomy do celów energetycznych Redukcja emisji: CO2, SO2, NO2; redukcja palenia słomy na polach (uniknięcie degradacji naturalnego środowiska); wysoka sprawność urządzeń; zmniejszenie nakładów robocizny przy obsłudze kotłów (nakładanie paliwa jedynie na stół podawczy, zapas na 6 – 8 godzin); okresowe czyszczenie kotła (np. kocioł 1 MW wymaga czyszczenia raz na tydzień); zakres pracy kotła od 20% do 100%, jego mocy; znaczne zmniejszenie kosztów produkcji 1 GJ energii cieplnej; wykorzystanie lokalnego, odnawialnego źródła energii; poprawa opłacalności produkcji rolniczej; dodatkowe miejsca pracy dla ludności lokalnej przy dostawie paliwa; zwiększenie bezpieczeństwa energetycznego; dopływ na lokalny rynek pieniędzy za produkcję „zielonej energii”. 70 7. Wady Niska kaloryczność – ok. 15 GJ/t – dynamicznie spada wraz ze wzrostem wilgotności słomy; wysokie koszty: pozyskania, przetwarzania, transportu, magazynowania; brak wystarczającej liczby pieców do spalania słomy; mała liczba wysokiej jakości maszyn do peletowania; brak gwarancji w ciągłe zaopatrzenie dużych elektrociepłowni; istniejące przepisy prawne nie przewidują premii finansowych za ciepło uzyskane ze słomy w instalacjach małej mocy; w czasie spalania wydzielają się: związki chloru, potasu powodujące korozję oraz duże ilości metali alkaicznych, przyczyniające się do powstawania szlaki. 8. Podsumowanie Słoma mogłaby dostarczyć ok. 237 PJ (5% zapotrzebowania gospodarki w energię przy wykorzystaniu ok. 6,6 mln t, zakładając zbiór 2,5 t słomy z ha). Niestety w Polsce wykorzystuje się nadal od 1,5 – 2% energii ze słomy. Koszty inwestycyjne kotłowni na słomę są wysokie, ponad dwukrotnie większe niż przy kotłowni na gaz (koszt kotła na słomę – pelety o mocy 28 kW wynosi ok. 9 tys. zł). Koszt eksploatacji wyżej wymienionego kotła na słomę szacuje się na ok. 2,5 tys. zł/rok. Istotnym warunkiem efektywności ekonomicznej jest stopień wykorzystania mocy kotła. Przeprowadzone badania w gospodarstwach rolnych, które były wyposażone w kotły o mocy ok. 50 kW, wykazały ekonomiczność takiej inwestycji przy użyciu rocznym równoważnym ok. 10 t węgla. Zastąpienie kotłowni węglowych kotłowniami opalanymi słomą spełnia warunki ustawy o wspieraniu przedsięwzięć termomodernizacyjnych i upoważnia do otrzymania kredytu i premii termomodernizacyjnej. Warunkiem korzystania z kredytów oraz 25% premii termomodernizacyjnej jest ulepszenie, w wyniku którego następuje zmniejszenie co najmniej o 25% rocznych strat energii pierwotnej w lokalnym źródle ciepła i w lokalnej sieci ciepłowniczej. Wymagane jest też, aby kredyt w wysokości do 80% kosztów inwestycji mógł być spłacony w okresie do 7 lat z oszczędności uzyskanych na kosztach eksploatacyjnych, a zdyskontowana wartość netto, wynikająca z audytu energetycznego, była dodatnia. 71 Ryszard Tytko Biorąc pod uwagę możliwość uzyskania korzystnego kredytu na montaż urządzeń zasilanych z OZE, na mocy ustawy o wspieraniu inwestycji termomodernizacyjnych koszty budowy kotłowni opalanej biomasą mogą zwrócić się w ciągu 4 – 5 lat. Aby myśleć o większym wykorzystaniu słomy, należy we właściwy sposób przygotować program finansowy inwestycji. Jednocześnie konieczne jest stworzenie dogodnych form finansowania inwestycji, zwłaszcza dla rolników, których zdolność kredytowa jest ogólnie niezadowalająca. W założeniach rządowych do 2025 roku duży nacisk kładzie się na większe niż obecnie wykorzystanie biomasy w bilansie energetycznym kraju. Jest więc szansa na to, aby energia cieplna ze słomy wykorzystana była w stopniu większym niż dotychczas. Równocześnie producenci pieców na słomę, urządzeń do jej rozdrabniania, brykietowania powinni intensywniej zająć się promocją tych urządzeń i w ten sposób przekonać inwestorów, samorządy do instalowania tych urządzeń, szczególnie w tych gminach, w których występuje nadmiar słomy. Streszczenie Słoma może stanowić ważne źródło energii niewpływające ujemnie na efekt cieplarniany, pod warunkiem utrzymania jej wilgotności na poziomie nie wyższym niż 25%. Najlepiej, aby paliwo było jak najbardziej suche, wtedy podczas spalania nie wydziela się tlenek węgla, wzrasta sprawność spalania i nie pojawiają się problemy z podawaniem paliwa do kotła. Wykorzystanie słomy, jako paliwa zmniejsza koszty produkcji ciepła i wpływa dodatnio na poziom życia ludności lokalnej, poprawia opłacalność produkcji rolniczej i znacznie zmniejsza zagrożenie pożarowe oraz przyczynia się do zmniejszenia emisji CO2. Okres zwrotu nakładów inwestycyjnych w przypadku kotłowni opalanych na słomę wynosi około 6 lat. 72 Marek Kułażyński Pozyskiwanie biogazu w obszarze przetwórstwa rolno-spożywczego W wyniku procesów fermentacji beztlenowej zachodzącej w reaktorze biogazowni do 60% substancji organicznej zamienianej jest w biogaz. Biogaz powstający w wyniku fermentacji beztlenowej składa się w głównej mierze z metanu (od 40% do 70%) i dwutlenku węgla (około 40 – 50%), ale zawiera także inne gazy, czyli azot, siarkowodór, tlenek węgla, amoniak i tlen. Do produkcji energii cieplnej lub elektrycznej może być używany biogaz zawierający powyżej 40% metanu. Biogaz wykorzystywany jest na wiele różnych sposobów. Gaz wysypiskowy może być dostarczany do sieci gazowej, wykorzystywany jako paliwo do pojazdów lub w procesach technologicznych. Biogaz może być spalany w specjalnie przystosowanych kotłach, zastępując gaz ziemny. Uzyskane ciepło może być przekazywane do instalacji centralnego ogrzewania. Energia elektryczna wyprodukowana w silnikach iskrowych lub turbinach może być sprzedawana do sieci energetycznych. Biogazu używa się również w układach skojarzonych do produkcji energii elektrycznej i ciepła. Frakcja pofermentacyjna, będąca jednym z produktów biogazowni, jest wysokowartościowym nawozem naturalnym zawierającym pierwiastki biogenne w formie łatwo przyswajalnej dla roślin oraz o zredukowanych w porównaniu do nawozów naturalnych emisjach zapachu i wyeliminowaniu niektórych szkodliwych dla roślin właściwości (np. wypalanie roślin przez gnojowice). Jednak jakość pozostałości pofermentacyjnych (poziom zawartości ewentualnych substancji szkodliwych) zależy od wsadu/wsadów użytych w procesie, procentu zawartości suchej masy we wsadzie/mieszaninie wsadów i od wyboru technologii uzdatniania tych pozostałości. Z tego powodu należy przestrzegać reżimu technologicznego (badania parametrów fer- Pozyskiwanie biogazu w obszarze przetwórstwa rolno-spożywczego Marek Kułażyński mentującego wsadu) podczas całego procesu i w razie konieczności dobrać właściwą technologię ich uzdatniania. Najnowsze technologie umożliwiają w 3-stopniowym procesie rozdzielenie frakcji stałej i płynnej pozostałości pofermentacyjnej w takim stopniu, że otrzymaną wodę można odprowadzić np. do rzeki, a frakcja stała jest wysokowydajnym nawozem naturalnym do wszechstronnego zastosowania [1]. Tematykę związaną z opracowaniem modelowej biogazowni rolniczej utylizującej organiczne odpady rolnicze, hodowlane i przemysłowe oraz odchody realizuje w Politechnice Wrocławskiej sześć zespołów badawczych w ramach Projektu kluczowego nr POIG.01.01.02-00-016/08 pt. „Modelowe kompleksy agroenergetyczne jako przykład kogeneracji rozproszonej opartej na lokalnych i odnawialnych źródłach energii”. Kierownikiem projektu jest prof. dr hab. Jan Kiciński. Projekt koordynuje Instytut Maszyn Przepływowych PAN w Gdańsku. Realizatorami są: Instytut Maszyn Przepływowych PAN w Gdańsku, Uniwersytet Warmińsko-Mazurski w Olsztynie, Politechnika Wrocławska oraz Instytut Energetyki w Warszawie. Zadania badawcze obejmują: analizę i przygotowanie wsadu zawierającego organiczne odpady rolnicze, hodowlane i przemysłowe oraz odchody; monitoring i sterowanie procesem technologicznym biogazowni utylizującej organiczne odpady rolnicze, hodowlane i przemysłowe oraz odchody; oczyszczanie i uzdatnianie biogazu: jakość biogazu i sposoby badania; magazynowanie biogazu oraz wykorzystanie go jako paliwo do silnika spalinowego oraz uzdatnianie, składowanie i konfekcjonowanie odpadów pofermentacyjnych. Realizacja powyższych zadań doprowadzi do poszerzenia wiedzy z zakresu pozyskiwania i efektywnego wykorzystywania biogazu, a także prowadzenia całego złożonego procesu metanizacji biomasy w sposób racjonalny i bezpieczny dla środowiska naturalnego. Skuteczny przebieg procesu fermentacji wymaga odpowiedniego przygotowania wsadu, aby substancje organiczne w nim zawarte jako pożywka były maksymalnie dostępne dla bakterii. Odpowiednie rozdrobnienie i przygotowanie substratów o wysokiej zawartości suchej masy ma bezpośredni wpływ efektywność procesu fermentacji, co pozostaje w ścisłym związku z ilością i jakością pozyskiwanego biogazu, ale także ze skutecznością procesu, tj. stopniem wykorzystania substancji organicznej. Efektywność oraz opłacalność procesu zależy głównie od charakterystyki substratu oraz parametrów zastosowanych w procesie fermentacji. W ramach zadania zespół badawczy kierowany przez prof. Józefa Szlachtę prowadzi badania nad właściwościami wsadu zawierającego organiczne odpady rolnicze, hodowlane i prze74 mysłowe oraz odchody określeniem wpływu składu substratu na przebieg oraz efektywność procesu fermentacji metanowej. Biomasa do pozyskiwania z niej biogazu wymaga szczegółowego rozpoznania wielu kwestii agrotechnicznych, ekonomicznych i biotechnologicznych. Miarodajne wyniki można uzyskać tylko w kompleksowych badaniach uwzględniających aspekty agrotechniki, efektywności energetycznej rodzajów odchodów oraz rodzajów organicznych odpadów przemysłowych. W ramach tego procesu zespół prowadzi badania nad: rozdrabnianiem i higienizacją substratu; zacieraniem i homogenizowaniem substratu; parametrami wsadu; jakością podłoża oraz zaszczepianiem fermentatora. Dokonano oceny przydatności poszczególnych rodzajów organicznych odpadów rolniczych, hodowlanych i przemysłowych oraz odchodów do pozyskiwania biogazu. W procesie uzyskiwania biogazu znajdują zastosowanie następujące rodzaje organicznych odpadów przemysłowych: wysłodziny, wywar zbożowy, wywar ziemniaczany, wywar owocowy, wycierka (świeża), sok, woda procesowa, wysłodki prasowane, melasa, wytłoki jabłkowe, wytłoki owocowe, wytłoki winorośli, resztki żywności i przeterminowane produkty spożywcze. Wykonano szereg analiz fizykochemicznych potencjalnych wsadów do biogazowni pochodzących z przemysłu rolno-spożywczego takich jak: odpady z przemysłu browarnianego i gorzelnianego, odpady z przetwórstwa ziemniaczanego, a także odpady z przemysłu cukrowniczego, owocowego i winnego (z winnic) oraz odpady z przemysłu rzeźnego. Badania laboratoryjne prowadzono w kierunku zwiększenia efektywności uzysku biogazu z substratów pochodzących z przemysłu rolno-spożywczego. Opracowana zostanie technologia pozyskiwania i przetwarzania biomasy w aspekcie wydajności energetycznej w procesie fermentacyjnym w biogazowniach. Dokonano analizy i oceny surowca pod kątem przydatności do fermentacji. Określono sposoby pozyskiwania i ewentualnego wstępnego przygotowania substratów, jak również kondycjonowania wsadu opartego na odpadach organicznych i odchodach w aspekcie optymalizacji procesu fermentacji. Prowadzone badania porównawcze ukierunkowane są na wykazanie wpływu zróżnicowanych metod przygotowania substratów jako wsadu do biogazowni, głównie w aspekcie efektywności wykorzystanie substancji organicznych przez mikroorganizmy. Pozwoli to na ocenę sprawności zastosowanej technologii. Analizowana jest metoda homogenizacji substratów o wysokiej zawartości suchej masy z gnojowicą przy różnym udziale procentowym składników. Ponadto dokonano weryfikacji metody określenia wydajności biogazu [3]. 75 Pozyskiwanie biogazu w obszarze przetwórstwa rolno-spożywczego Marek Kułażyński Zespół kierowany przez dr. Andrzeja Vogta oraz dr. hab. inż. Marcina Łukaszewicza zajmował się zadaniem dotyczącym monitoringu i sterowania procesem technologicznym biogazowni zapewniającego optymalną kinetykę fermentacji metanowej poprzez niezawodne sterowanie modułami i urządzeniami realizującymi algorytmy kontroli i regulacji procesu. Zespół opracował zestaw urządzeń realizujących funkcję kontrolną i pomiarową (czujniki temperatury, poziomu i ciśnienia, przepływomierze, analizatory gazowe) wraz z algorytmami raportów miesięcznych. Scentralizowany i rozproszony system zarządzania i kontroli biogazowni wykorzystuje topologię sieci komunikacyjnej mieszanej. Opracowany został matematyczny model symulacyjny kinetyki fermentacji metanowej w celu zbadania wpływu składu surowca na efektywność biodegradacji. Dokonano izolacji i scharakteryzowano szczepy bakteryjne aktywne w procesie wytwarzania biogazu. Opracowano metody pomiaru aktywności enzymatycznych w badanym materiale oraz przeprowadzono charakterystykę szczepów pod kątem przygotowania szczepionek. W ramach tego zadania prowadzone są badania nad: stabilnością i parametrami procesu technologicznego; parametrami masy fermentującej; produkcją biogazu oraz eksploatacją instalacji. Celem zasadniczym jest opracowanie systemu wizualizacji nadzorującego zdalny przebieg procesu technologicznego wraz z algorytmem i doborem niezawodnych podzespołów i elementów w konfiguracji scentralizowanej i rozproszonej oraz opracowanie procedur eksploatacyjnych zapewniających niezawodność biogazowni i bezpieczeństwo jej użytkowników. Badania obejmują również określenie wpływu enzymów jako katalizatorów reakcji hydrolitycznej polimerów do monomerów oraz szybkości powstawania metanu z octanu i metanu z wodoru i dwutlenku węgla przy udziale zmodyfikowanych genetycznie bakterii metanogennych. W ramach zadania opracowano m.in. wirtualny model biogazowni utylizującej organiczne odpady i odchody zwierzęce, wyposażonej w stacje przyjęć, zbiornik wstępny, komorę fermentacyjną, pofermentacyjną oraz moduł kogeneracyjny. Powstanie też zestawienie urządzeń realizujących funkcje kontrolną i pomiarową (czujniki temperatury, czujniki poziomu, czujniki ciśnienia, przepływomierze, analizatory gazowe) oferowanych przez rynek krajowy i unijny wraz z algorytmami raportów miesięcznych biogazowi. Gazowy produkt fermentacji biomasy zwykle zawiera około 50 – 70% objętości metanu oraz 20 – 50% objętości dwutlenku węgla (CO2), 1 – 10% objętości pary wodnej. 50 – 5000 ppm siarkowodoru (H2S), a także niewielkie ilości azotu, tlenu i innych składników (głównie organicznych). Metan zawarty 76 w biogazie jest cennym nośnikiem energii, jednak wykorzystanie surowego biogazu jest ograniczone ze względu obecność toksycznego H2S. Z kolei inertny CO2 stanowi balast rozcieńczający metan, dlatego w przypadku niektórych zastosowań powinien on być usunięty z biogazu, podobnie jak i para wodna. Dlatego dla szerszego wykorzystanie biogazu, np. jako paliwa do silników spalania wewnętrznego, niezbędne jest usunięcie z jego składu tych składników. Wiele różnych gazów przemysłowych zawiera siarkowodór. Toksyczne i korozyjne właściwości H2S (a także fakt, że w wyniku spalania powstaje z niego dwutlenek siarki) ograniczają zastosowanie tych gazów, dlatego opracowano wiele metod usuwania H2S z ich składu. Typowe, konwencjonalne metody oddzielania tych składników od metanu to: absorpcja w ciekłych rozpuszczalnikach, adsorpcja na stałych adsorbentach, a także konwersja do innych związków. Obecność CO2 w oczyszczanym gazie może zwiększyć ilość zużywanych chemikaliów i dlatego jest niepożądana. Celem badań w tym zakresie było opracowanie metody usuwania H2S i CO2 z surowego biogazu. Dla osiągnięcia tego celu proponuje się wybrać, na podstawie rezultatów badań porównawczych, jedną z trzech poddanych analizie metod usuwania H2S i CO2 z surowego biogazu. Końcowym etapem oczyszczania biogazu we wszystkich metodach jest osuszanie. Proces ten proponuje się prowadzić przy użyciu adsorberów zawierających sita cząsteczkowe. Celem realizowanych badań w zakresie oczyszczania i uzdatniania biogazu przez zespół profesora Janusza Trawczyńskiego było opracowanie metody oczyszczania biogazu poprzez usuwanie z jego składu: H2S, CO2, pary wodnej oraz amoniaku. Wykonano charakterystyki fizykochemiczne komercyjnych i laboratoryjnych materiałów do adsorpcji i absorpcji H2S i CO2. Opracowano zalecenia do wykonywania analiz zanieczyszczeń w biogazach. Określono efektywność usuwania H2S i CO2 z biogazu przy zastosowaniu różnych technologii. Określono wpływ wyjściowego materiału węglowego oraz metody jego modyfikacji, na strukturę właściwości sorpcyjne względem CH4 i CH4 + H2S. Określono optymalne parametry usuwania H2S, CO2, amoniaku i pary wodnej z biogazu. Opracowano metodę regeneracji sorbentu oraz sposób jego zagospodarowania. Przygotowano założenia projektowe instalacji oczyszczania biogazu w większej skali metodą VPSA (adsorpcja zmiennociśnieniowa z desorpcją próżniową) na sitach cząsteczkowych celem usuwania CO2. Dla rozdzielenia zaproponowano wykorzystanie różnic średnic krytycznych cząstek CH4 (0,400 nm) i CO2 (0,280 nm). Jako sorbenty stosuje się cząstecz 77 Pozyskiwanie biogazu w obszarze przetwórstwa rolno-spożywczego Marek Kułażyński kowe sita węglowe. Zawartość CH4 w gazie wzbogaconym przekracza 90%. Rezultaty badań mogą być skierowane do wszystkich wytwórni biogazu. Określenie jakości biogazu i sposobów jego wykorzystania umożliwi opracowanie technologii usuwania zanieczyszczeń z różnych typów gazów pofermentacyjnych i przygotowanie ich do wykorzystania w gospodarce. W związku z tym w kolejnym etapie konieczne jest ustalenie standardów, jakim powinna odpowiadać jakość gazu w zależności od metody jego zastosowania. Należy określić: rodzaje zastosowania biogazów w różnych działach gospodarki, wymagania jakościowe w stosunku do biogazu w zależności od metody wykorzystania oraz metody oznaczania poszczególnych właściwości biogazów. W ramach tego zadania badawczego zespół prof. dr. hab. inż. Jerzego Walendziewskiego określił właściwości fizykochemiczne uzyskiwanych biogazów, zaproponował sposoby jego wykorzystania oraz metody dostosowania parametrów biogazu do określonych sposobów wykorzystania. Może on być używany do wytwarzania energii elektrycznej (silnik gazowy z generatorem prądu), jako paliwo kotłowe do wytwarzania energii cieplnej (spalanie w urządzeniach cieplnych – kotły, piece przemysłowe), jako paliwo silnikowe (silnik Otto, silnik Diesla – łączne zasilanie biogazem i olejem napędowym), a także jako dodatek do gazu ziemnego dostarczanego odbiorcom przez zatłaczanie do sieci gazu ziemnego. Biorąc pod uwagę koszty oczyszczania niektórych biogazów, należy je kierować do określonych zastosowań o niższych wymaganiach jakościowych (np. gazy ze składowisk odpadów). W przypadku każdego z wymienionych zastosowań należy opracować standardy jakościowe i ilościowe oczyszczonych biogazów. Każde z zastosowań powinno uwzględniać nierównomierność produkcji biogazu, a w niektórych przypadkach także nierównomierność jego zużycia (np. dla celów grzewczych). Nadrzędnym celem zadania jest opracowanie alternatywnych sposobów wykorzystania biogazu i optymalizacja jakości biogazu uwzględniająca rodzaj zastosowania. Opracowano metody wytwarzania węgli aktywnych do magazynowania biogazu o zdolnościach sorpcyjnych i zdolności magazynowania metanu znacznie przewyższających zdolności magazynowe metanu aktualnie dostępnych komercyjnych węgli aktywnych. Opracowano charakterystykę pracy palnika i silnika zasilanego mieszanką gazów oraz wyznaczono parametry jego pracy. Przedmiotem projektu – w zakresie magazynowania biogazu oraz wykorzystania go jako paliwo do silnika spalinowego – jest stworzenie w Polsce 78 możliwości wytwarzania, badania i certyfikowania lekkich wysokociśnieniowych, zbiorników kompozytowych dla bezpiecznego i taniego gromadzenia biogazu i innych paliw gazowych w celu masowego zastosowania w samochodach, pojazdach specjalistycznych oraz urządzeniach stacjonarnych (agregaty prądotwórcze, itp.). W ramach tego zadania badawczego procesu zespół będzie prowadził badania nad: procesem magazynowania biogazu; warunkami i parametrami wykorzystania biogazu w pojeździe mechanicznym. Uzasadnienie realizacji zadania wynika z faktu, iż najbardziej ekonomiczne jest aktualnie gromadzenie metanu i wodoru w postaci sprężonej (odpowiednio CNG oraz CH2). Znaczenie naukowe i inżynierskie przedsięwzięcia jest następstwem konieczności gromadzenia wodoru pod wysokim ciśnieniem roboczym oraz zapewnienia bezpiecznej pracy zbiornika aż do ciśnienia 2000 barów. Politechnika Wrocławska prowadzi od lat badania nad materiałami, technologią i konstrukcjami wysokociśnieniowych, kompozytowych butli na paliwa gazowe. Obszar potencjalnych zastosowań wysokociśnieniowych zbiorników do gromadzenia metanu obejmuje zasilanie ogniw paliwowych stosowanych w samochodach, pojazdach specjalistycznych (np. maszyny górnicze) oraz innych urządzeniach (agregaty prądotwórcze, lekkie konstrukcje, tzw. hydrauliki siłowej itp.). Zagadnienie optymalizacji konstrukcji i technologii butli wysokociśnieniowych i szerzej problem gromadzenia sprężonych paliw gazowych pozostaną aktualne w perspektywie najbliższych dziesięcioleci. Zawsze będzie się bowiem dążyć do podwyższenia parametrów eksploatacyjnych (ciśnienia pracy), redukcji masy i ceny zbiornika oraz wyższego poziomu bezpieczeństwa eksploatacji. Proponowany program badań jest w pełni aktualny naukowo, inżyniersko i gospodarczo w wymiarze międzynarodowym. Metodyka badań obejmie: zbadanie wpływu struktury ułożenia wiązek włókna wzmacniającego na własności wytrzymałościowe; opis mechanizmu niszczenia oplotu z użyciem różnych technik modelowania i identyfikacji; aplikację różnych technik mechaniki eksperymentalnej do pomiaru odkształceń kompozytowych oplotów nośnych i kumulacji uszkodzenia. Zespół kierowany przez prof. dr. hab. inż. Jerzego Kaletę prowadzi badania procesu magazynowania biogazu. W wyniku realizacji projektu opracowano technologię wytwarzania lekkich butli kompozytowych przez wykonanie nawoju o różnej, programowanej geometrii przeplotu. Wykonano zbiorniki kompozytowe oraz przeprowadzono badania statyczne (burst test) i badania 79 Pozyskiwanie biogazu w obszarze przetwórstwa rolno-spożywczego Marek Kułażyński zmęczeniowe. Opracowano model kumulacji uszkodzenia w następstwie cyklicznych obciążeń butli (symulacja tankowania i „roztankowania” butli w czasie jej wieloletniej eksploatacji). Kompostowanie odpadów organicznych i odchodów jest jednym z najstarszych sposobów umożliwiających ich zagospodarowanie i przekształcenie w wysokowartościowy nawóz naturalny. Na skuteczność kompostowania odpadów organicznych powstających w procesie fermentacji beztlenowej przeznaczonych na cele rolnicze zasadniczy wpływ ma przede wszystkim prawidłowy skład pryzm, sposób ich napowietrzania i warunki termiczne panujące w pryzmach. Celem prac w tym zakresie jest otrzymanie właściwego pod względem higienicznym produktu dla celów rolniczych. Badania zostaną przeprowadzone na skalę przemysłową w kompostowni wykorzystującej produkty powstałe po fermentacji beztlenowej. Z punktu widzenia żyzności gleb wzmożony rozwój grzybów jest zjawiskiem niekorzystnym, stąd też prowadzone będą prace dotyczące wpływu pozostałej po fermentacji beztlenowej biomasy na właściwości fizykochemiczne i mikrobiologiczne gleby. Wyniki prac przedstawione zostaną w postaci raportów szczegółowych. W ramach realizacji zadania „Uzdatnianie, składowanie i konfekcjonowanie odpadów pofermentacyjnych” zespół prof. dr. hab. Zbigniewa Paluszaka bada skuteczność higienizacji w trakcie kompostowania odpadów organicznych otrzymanych w wyniku fermentacji beztlenowej. Została ona określona na podstawie tempa inaktywacji mikroorganizmów wskaźnikowych wprowadzonych w nośnikach wprowadzonych do pryzm kompostowych realizowanego w skali technicznej w kompostowni przemysłowej. Badania pozwolą na określenie przydatności kompostowanych osadów do bezpiecznego wykorzystania w rolnictwie. Zaplanowano badania w następujących tematach szczegółowych: efektywność higienizacyjna technologii stosowanych do przetwarzania odpadów organicznych i opracowanie systemu zarządzania odpadami o kodzie 19 06 06. Zagadnienie efektywności higienizacyjnej obejmuje: walidację mikrobiologiczną beztlenowej fermentacji odpadów organicznych w warunkach mezofilnych; walidację mikrobiologiczną procesu kompostowania produktów otrzymanych w wyniku fermentacji beztlenowej odpadów organicznych; analizę wpływu pozostałej po fermentacji beztlenowej biomasy na właściwości fizykochemiczne i mikrobiologiczne gleby. Dla określenia skuteczności higienizacji procesu fermentacji beztlenowej organicznych odpadów rolniczych, hodowlanych i przemysłowych 80 oraz odchodów zostanie prześledzone tempo eliminacji uprzednio wprowadzonych do biomasy wybranych bakterii wskaźnikowych i jaj pasożytów żołądkowo-jelitowych. Takie postępowanie pozwoli na zminimalizowanie ewentualnego ryzyka sanitarno-epidemiologicznego związanego z wykorzystaniem przetworzonych odpadów do celów rolniczych. W ramach realizacji zadania opracowany zostanie system zarządzania odpadami. Materiał po procesie fermentacji pochodzenia zwierzęcego będzie spełniać wymagania zawarte w przepisach krajowych. Wykorzystanie nawozów wapniowych do higienizacji i stabilizacji bioodpadów i stosowanie wytworzonego materiału w rolnictwie będzie dodatkowym źródłem wapnia dla roślin i odkwaszania gleb, a także źródłem egzogennej materii organicznej. Opracowanie systemu zarządzania odpadami będzie jednocześnie skutecznym przeciwdziałaniem uciążliwego odoru oraz pozwoli na określenie zagrożeń środowiskowych. Literatura Błażejewski W., Czulak A., Gąsior P., Pawlak T., Hufenbach W., Ciśnieniowe badania kompozytowych próbek rurowych wykonanych metodą wyplatania, Kompozyty, 2009, t. 9, nr 3, s. 291–296. Błażejewski W., Gąsior P., Kaleta J., Application of optical fibre sensors to measuring the mechanical properties of composite materials and structures. Chapter in book. Advances in composite materials – ecodesign and analysis, Brahim Attaf. InTech, 2011, s. 221–246. Grzybek A., Ocena strategii rozwoju energetyki odnawialnej oraz kierunki rozwoju energetycznego wykorzystania biogazu wraz z propozycją działań, NFOŚiGW, Warszawa 2005. Szlachta J., Fugol M., Analiza możliwości produkcji biogazu na bazie gnojowicy oraz kiszonki z kukurydzy, Inżynieria Rolnicza, Kraków 2009, nr 5(114), s. 275–280. 81 Marek Kułażyński Streszczenie Tematykę związaną z opracowaniem modelowej biogazowni rolniczej utylizującej organiczne odpady rolnicze, hodowlane i przemysłowe oraz odchody realizuje w Politechnice Wrocławskiej sześć zespołów badawczych w ramach Projektu kluczowego nr POIG.01.01.02-00-016/08 pt. „Modelowe kompleksy agroenergetyczne jako przykład kogeneracji rozproszonej opartej na lokalnych i odnawialnych źródłach energii”. Zadania badawcze obejmują: analizę i przygotowanie wsadu zawierającego organiczne odpady rolnicze, hodowlane i przemysłowe oraz odchody; monitoring i sterowanie procesem technologicznym biogazowni utylizującej organiczne odpady rolnicze, hodowlane i przemysłowe oraz odchody; oczyszczanie i uzdatnianie biogazu; jakość biogazu i sposoby badania; magazynowanie biogazu oraz wykorzystanie go jako paliwo do silnika spalinowego oraz uzdatnianie, składowanie i konfekcjonowanie odpadów pofermentacyjnych. Realizacja powyższych zadań doprowadzi do poszerzenia wiedzy w zakresie pozyskiwania i efektywnego wykorzystywania biogazu, a także prowadzenia całego złożonego procesu metanizacji biomasy w sposób racjonalny i bezpieczny dla środowiska naturalnego. 82 Jan Cebula Metody przygotowania biomasy ligninolitycznej do fermentacji metanowej 1. Wstęp Ligninoceluloza składa się głównie z celulozy, hemicelulozy i ligniny. Celuloza jest długołańcuchowym polisacharydem składającym się z cząsteczek D-glukozy połączonych wiązaniem β-1,4 glikozydowym. Cząsteczka celulozy składa się z ponad 10000 cząsteczek podstawowych. Hemiceluloza jest heterogenicznym polimerem cukrów i pochodnych cukrów, które tworzą bardzo rozgałęzioną strukturę połączeń, w których skład wchodzą heksozy takie jak glukoza, galaktoza czy mannoza oraz pentoz takich jak ksyloza i arabinoza. Cząsteczka składa się z około 100 – 120 podstawowych cząsteczek cukrowych. Cząsteczka ligniny składa się głównie z cząsteczek fenoli i ich pochodnych. Jest ona głównym składnikiem ścian komórek roślinnych. Lignina łączy razem włókna celulozy i hemicelulozy oraz nadaje sztywność roślinom. Przygotowanie ligninocelulozy do wykorzystania polega na enzymatycznej hydrolizie celulozy i hemicelulozy do cukrów, które następnie ulegają fermentacji. Upłynniona lignina oraz hemiceluloza stanowią wartościowe substraty do pozyskania biogazu. Celem przygotowania biomasy ligninolitycznej do fermentacji jest rozdzielenie cząsteczek ligniny od cząsteczek celulozy i hemicelulozy. Następuje wtedy wzrost porowatości biomasy i zwiększenie dostępu enzymów hydrolizujących cząsteczki celulozy i hemicelulozy. Badania rozkładu biomasy zawierającej ligninocelulozę były prowadzone od ponad 30 lat1. Stosowano metody fizyczne, chemiczne i biologiczne. Y. Sun, J. Cheng, Hydrolysis of lignocellulosic materials for ethanol production: a review, Bioresour. Technol. 2002, 83, 1–11. 1 Jan Cebula Fizyczne przygotowanie biomasy do fermentacji polega na mechanicznym rozdrobnieniu, eksplozyjnym rozprężeniu z użyciem pary wodnej, eksplozyjnym rozprężeniu z użyciem amoniaku, pirolizy, ścieraniu, ścinaniu, mieleniu i rozdrabnianiu do średnicy 0,2 – 2 mm. Wykorzystuje się tu różnego rodzaju młyny kulowe bądź koloidalne, kruszarki albo łamacze szczękowe. Rozdrobnienie dogłębne związane jest z użyciem drogiego sprzętu oraz dużej energii do jego napędu. Sonifikacja jest stosowana do rozdrabniania osadów na oczyszczalniach ścieków komunalnych2. Dźwięki o częstotliwości 20 – 40 kHz stosuje się do generowania fal, które wywołują zjawisko kawitacji. Za przyczyną kawitacji wytwarzane jest lokalnie wysokie ciśnienie i wysoka temperatura, które to są przyczyną rozrywania błon komórkowych oraz uwalniania wewnątrzkomórkowej materii3. Na skalę przemysłową sonifikację zastosowano do przygotowania osadu ściekowego do fermentacji metanowej4. Uzyskano 20 – 30% wzrost produkcji biogazu podczas fermentacji metanowej tego osadu. Valo i inni5 zaobserwowali, że można otrzymać nawet 54 – 92% wzrost ilości uzyskanego biogazu po zastosowaniu termicznej hydrolizy biomasy w temperaturze 170°C. Tak zwany wybuch parowy polegający na gwałtownym rozprężeniu mokrej biomasy ogrzanej do temperatury 160 – 260°C okazał się popularny. Gwałtowna dekompresja ligninocelulozy do ciśnienia atmosferycznego rozdziela ligninę od węglowodanów i rozkłada hemicelulozę. Podobny do wybuchu parowego jest wybuch z użyciem amoniaku namoczonej i ogrzanej do temperatury 100°C ligninocelulozy. Podczas gwałtownego rozprężenia pękają wiązania chemiczne między ligniną, celulozą i hemicelulozą. Wzrasta porowatość substratów. W trakcie pirolizy substraty są ogrzewane do temperatury 220°C. W takiej temperaturze następuje rozpad hemicelulozy, ulega rozpadowi trochę ligniny oraz trochę celulozy. Rozkład przebiega do produktów gazowych i związ E. Zielewicz-Madej, Ultrasonic intensification of methane fermentation process, Molecular and Quantum Acoustics. 2005, 26, 299–307. 3 C. Rai, A., Sivasamy, P. Rao., Disintegration of tannery sludge by acoustic cavitation-an approach for sludge management, J. Am. Leather Chem. Assoc. 2004, 99 (11), 457–460 4 F. Hogen, S. Mormede, 1. P. Clark, M. Crane, Ultrasound sludge treatment for enhanced anaerobic digestion, Water Sci. Technol. 2004, 50 (9), 25-32. 5 A. Valo, H. Carrere, J. Delgene, Thermal, chemical, and thermo-chemical pre-treatment of waste activated sludge for anaerobic digestion, J. Chem. Technol. Biotechnol. 2004, 79, 1197–1203. Metody przygotowania biomasy ligninolitycznej do fermentacji metanowej ków smolistych. Zwarta struktura ligninocelulozy ulega rozbiciu. Fizyczne działanie na biomasę może skutecznie rozkładać strukturę ligninocelulozy i znacznie poprawić wydajność tworzenia cukru, a następnie enzymatycznej hydrolizy. Wymaga to jednak znacznego użycia energii. Chemiczne metody przygotowania biomasy do fermentacji polegają na użyciu do hydrolizy kwasów lub zasad. Rozcieńczony kwas siarkowy używany jest w temperaturze 140 – 190°C. W tej temperaturze następuje rozbicie struktury ligninolitycznej. Większość hemicelulozy zostaje rozłożona do cukrów, które przechodzą do fazy ciekłej. Celuloza zostaje w fazie stałej. Wadą metody jest to, że w trakcie procesu tworzą się furfurole, które spowalniają proces hydrolizy oraz mikrobiologicznej fermentacji. W temperaturze 100 – 170°C stosowana jest hydroliza ligninocelulozy z użyciem alkalii. W trakcie reakcji zmydlania estrów rozpada się struktura wiązań ligniny, spada stopień spolimeryzowania cukrów. Chociaż wstępne przygotowanie ligninocelulozy z użyciem alkalii niszczy wiązania między ligniną, hemicelulozą i celulozą, to znaczna ilość ligniny pozostaje wciąż zmieszana z celulozą. Ligniny mogą inhibować enzym celulazę podczas enzymatycznej hydrolizy. Tanaka i inni6 zademonstrowali hydrolizę biomasy z dodatkiem alkalii. Uzyskiwali dwukrotny wzrost produkcji biogazu w procesie fermentacji metanowej. Surowce zawierające ligninę i hemicelulozę uważane są powszechnie za nieprzydatne do produkcji biogazu. Pracuje się jednak intensywnie nadal nad rozkładem spolimeryzowanej, zdrewniałej biomasy. Ligninoceluloza poddana działaniu enzymów ligninocelulolitycznych ulega scukrzeniu. Produktami scukrzenia są glukoza, mannoza oraz ksyloza. Glukoza poddana różnego rodzaju fermentacji jest źródłem alkoholi, metanu, enzymów, polisacharydów, chemikalii, antybiotyków i innych związków. Podczas rozkładu ligninocelulozy wytwarzane jest wiele związków, które następnie mogą ulegać rozkładowi do biogazu. Niektóre z tych związków przedstawiono w tabeli 1. 2 84 6 S. Tanaka, T. Kobayashi, K. Kamiyama, M. Bildan, Effect of thermochemical pretreatment on the anaerobic digestion of waste activated sludge, Water Sci. Technol. 1997, 35 (8), 209–215. 85 Jan Cebula Metody przygotowania biomasy ligninolitycznej do fermentacji metanowej Tabela 1. Wybrane związki chemiczne zidentyfikowane w trakcie fermentacji metanowej masy ligninolitycznej Fot. 1. Przygotowanie biomasy do testowania Wzór chemiczny 11. Gliceryna CH2(OH)CH2(OH)CH2(OH) 12. Kwas 3-hydroksy propionowy 13. Kwas asparaginowy, kwas aminobursztynowy 14. Kwas fumarowy, kwas transetanodwukarboksylowy-1,2 15. 3-hydroksybutyrolakton 16. Kwas glutarowy COOH(CH2)3COOH 17. Kwas glukarowy COOH(CHOH)4COOH 18. Sorbitol, alkohol heksahydroksylowy 19. Kwas jabłkowy, kwas hydroksybutanodiowy, kwas hydroksybursztynowy 10. Kwas bursztynowy COOH(CH2)COOH 11. Kwas glutaminowy COOH(CH2)2CH(NH2)COOH 12. Kwas itakonowy 13. Kwas lewulinowy, kwas 4-oksowalerianowy CH2(OH)CH2COOH Fot. Archiwum autora. Nazwa związku COOH-CH2CH(NH2)COOH COOHCH=CHCOOH OCH2CH2CH2CO Fot. 2. Leżakowanie biomasy w naczyniach C6H8(OH)6 COOHCH(OH)CH2COOH Fot. Archiwum autora. Lp. CH2=C(COOH)CH2COOH CH3COCH2CH2COOH Źródło: Opracowanie własne. Fot. 3. Poziomy bioreaktor do fermentacji metanowej 2. Badania własne 86 Fot. Archiwum autora. Jako przykład wpływu czynnika enzymatycznego na produkcję biogazu podczas fermentacji metanowej użyto łusek słonecznikowych, które są przygotowywane do spalania. Podstawowym parametrem stosowanym do określenia zdolności biomasy do fermentowania było określenie biogazowalności z dodatkiem i bez dodatku enzymu. 87 Jan Cebula Metody przygotowania biomasy ligninolitycznej do fermentacji metanowej Fot. Archiwum autora. Fot. 4. Bioreaktory do fermentacji metanowej Fot. Archiwum autora. Fot. 5. Bioreaktory z osprzętem W trakcie fermentacji metanowej ilość wyprodukowanego biogazu można określić na podstawie wzoru Buswella7. CcHhOoNnSs + yH2O xCH4 + (c-x)CO2 + nNH3 + sH2S gdzie: x = 1/8 (4c + h - 2o - 3n - 2s) y = 1/8 (4c - h - 2o + 3n + 3s) c, h, o, n, s, = liczba moli poszczególnych pierwiastków w 1 molu fermentowanej biomasy x = liczba moli metanu, która może być wytworzona z 1 mola biomasy y = liczba moli wody potrzebna do zhydrolizowania 1 mola biomasy 7 E.G. Buswell, S.L. Neave, Laboratory studies of sludge digestion, Illinois Division of State Water Survey. Bulletin 1930, No. 30. 88 Jeżeli analiza chemiczna wykaże określoną zawartość węglowodanu w fermentowanej biomasie, to nie zawsze jest otrzymywana wyliczona ilość biogazu. Również skład chemiczny biogazu odbiega od wyliczonego. Część fermentowanej biomasy, jaką stanowi lignina i hemiceluloza, nie jest fermentowana do biogazu. Lignina ulega rozkładowi w warunkach tlenowych. W warunkach beztlenowych nie rozkłada się i jako nawóz organiczny wywożona jest po fermentacji na pola. Zwiększenie wydajności biogazu z substratów zawierających ligninę można osiągnąć przez jej hydrolizę. Najczęściej są to ostre warunki. Zwiększenie powierzchni biomasy uzyskuje się poprzez rozcieranie, rozdrabnianie, hydrotermolizę8. Hydrolizie sprzyja obecność alkalii9 oraz kwasów mineralnych10. Czynniki utleniające11 przyczyniają się w znaczący sposób do wzrostu wydajności wytwarzanego biogazu. Ostatnio z bakterii Rhodococcus jostii żyjącej w glebie zidentyfikowany został gen odpowiedzialny za rozkład ligniny. Genom bakteryjny poddano sekwencjonowaniu, co może prowadzić do produkcji enzymu na skalę przemysłową12. Modyfikowane genetycznie enzymy pozwalają również na hydrolizę ligniny zawartej w biomasie. E. Viola, F. Zimabardi, M. Cardinale, G. Cardinale, G. Braccio, E. Gambacorta, Processing cereal straws by steam explosion in a pilot plant to enhance digestibility in ruminants, Bioresour. Technol. 2008, 99, 681–689. 19 H. Alizadeh, F. Teymouri, T.I. Glibert, B.E. Dale, Pretreatment of switchgrass by ammonia fiber explosion (AFEX), Appl. Biochem. Technol. 2005, 121–123, 1133–1141; 41 F. Teymouri, L.L. Perez, H. Alizadeh, B.E. Dale, Ammonia fiber explosion treatment of corn stover, Appl. Biochem. Biotechnol. 2004, 113–116, 951–963; 1) H.K. Murnen, V. Balan, S.P.S. Chundwat, B. Bals, L.D.C. Sousa, B.E. Dale, Optimization of ammonia fiber expansion (AFEX) pretreatment and enzymatic hydrolysis of miscanthus giganteus to fermentable sugars, Biotechnol. Prog. 2007, 23, 846–850. 10 C.I. Izhizawa, M.F. Dawis, D.F. Schell, D.K. Johnson, Porosity and its effect on the digestibility of dilute sulfuric acid pretreatment corn stover, J. Agric. Food Chem. 2007, 55, 2575–2581. 11 R.A. Silverstein, Y. Chen, R.R. Sharma-Shivappa, M.D. Boyette, J.A Osborne, Comparison of chemical pretreatment methods for improving saccharification of cotton stalks, Bioresour. Technol. 2007, 98, 3000–3011. 12 R. Goel, H. Yasui, C. Shibayama, High-performance closed loop anaerobic digestion using pre/post sludge ozonation, Water Sci. Technol. 2003, 47 (12), 261–267. 18 89 Jan Cebula Metody przygotowania biomasy ligninolitycznej do fermentacji metanowej Zdrewniałą biomasę taką jak łuski słonecznikowe można poddać paletyzacji lub fermentacji metanowej. Łuski zawierają celulozę, która jest podatna na rozkład biologiczny. Fot. Archiwum autora. Fot. 6. Testery do wyznaczania biogazowalności biomasy Na wykresie poniżej pokazano wpływ dodatku enzymów na wielkość produkcji biogazu z łusek słonecznikowych. Po okresie 1073 godzin, kiedy wytwarzanie biogazu malało, dodano enzymu. Jak widać na rysunku, zaobserwowano dalszy wysoki wzrost produkcji biogazu. Rys 1. Pomiar biogazowalności łusek słonecznikowych Streszczenie Zdrewniała masa ligninolityczna w postaci drewna, liści z drzew, dojrzałych traw, słomy zbóż jest potencjalnym surowcem do produkcji biogazu. Ilości otrzymywanego biogazu ze zdrewniałej biomasy proporcjonalnie maleje wraz ze stopniem jej zdrewnienia. Hydroliza zielonej biomasy przebiega szybciej w kierunku prostych związków chemicznych, które szybciej fermentują z wytworzeniem biogazu. Zdrewniała słoma zbóż, trawy jednokośne, chwasty, zioła zwłaszcza po przesuszeniu trudniej ulegają fermentacji metanowej. Należy je uprzednio poddać procesom obróbki wstępnej. Ostatnio w wielu ośrodkach naukowych prowadzone są na szeroką skalę badania związane z upłynnieniem zdrewniałej biomasy dla otrzymania alkoholu i biogazu. Badania przebiegają z wykorzystaniem metod fizycznych, chemicznych, biologicznych i mieszanych. Ogromną nadzieję pokłada się w metodach biologicznych. Istotny wkład wnoszą badania z wykorzystaniem enzymów do hydrolizy zdrewniałej biomasy. Enzymy zawarte w grzybach rozkładających drewno stwarzają dużą szansę na uzyskanie ze zdrewniałej biomasy znacznej ilości biogazu. Summary Lignified lignolytic biomass in the form of wood, leaves of trees, old grasses, straw of cereal crops are potential raw material for the production of biogas. Amounts of obtained biogas of lignified biomass proportionally are decreasing with the degree of its lignifying. The hydrolysis of green biomass is running more quickly towards straight chemical compounds which more quickly fermenting with producing of biogas. Lignified straw of cereal crops, old grasses, weeds, herbs especially after drying with more difficulty are undergoing the methane fermentation. One should previously subject them to processes of preliminary processing. Recently in many scientific centers wide research is being conducted with liquefy lignified biomass for obtaining alcohol and biogas. Research is proceeding with using methods physical, chemical, biological and mixed. Huge hope is being bent in biological methods. Research contributes the essential contribution with using enzymes for the lignified hydrolysis of biomasses. Enzymes contained in fungal spreading wood are creating the great chance of getting the large amount of biogas from lignified biomass. Źródło: Opracowanie własne autora. 90 91 Piotr Rudyszyn Porównanie nowych i używanych turbin wiatrowych Elektrownie wiatrowe to opłacalne przedsięwzięcie. Czy zakup używanej elektrowni wiatrowej poprawia wynik finansowy inwestycji i czy taniej znaczy lepiej? Koszty instalacji nowych urządzeń przekraczają znacznie 1 milion euro za każdy zainstalowany megawat mocy. W zamian otrzymujemy nowe urządzenie, które posiada gwarancję mechaniczną oraz szereg innych, jak choćby gwarancja dyspozycyjności i dotrzymania krzywej mocy. Te dwie informacje dają nam pewność, że renomowany dostawca wiatraka gwarantuje, że jego urządzenie będzie sprawne i gotowe do pracy przez np. 95–97% czasu w roku. Pozostały czas producent pozostawia sobie na przeglądy okresowe, naprawy, regulacje itp. W przypadku przekroczenia tego czasu gwarantuje nam zapłatę odszkodowania. W praktyce jednak dochodzi bardzo rzadko do takich sytuacji, ponieważ jakość wykonania turbin jest bardzo wysoka, a usterki zdarzają się sporadycznie. Dodatkowo producenci gwarantują dotrzymanie krzywej mocy, co oznacza, że przy określonej prędkości wiatru turbina ta wyprodukuje daną ilość energii i nie zmieni swoich parametrów na skutek zużycia lub uszkodzenia. Renomowani producenci są w stanie udzielić takiej gwarancji nawet na kilkanaście lat. Zmniejsza to do zera ryzyko nieprzewidzianych wydatków z powodu awarii lub uszkodzenia oraz zmniejszenia przychodów na skutek utraty sprawności urządzeń z wiekiem. Budowa nowego urządzenia odbywa się pod okiem producenta i jego specjalistów, którzy mają doświadczenie przy budowie setek podobnych urządzeń i wiedzą o nich wszystko. Korzystają też ze specjalistycznego oprogramowania, które bardzo dokładnie obliczy m.in. ilość wyprodukowanej ener- Porównanie turbin nowych i używanych turbin wiatrowych Piotr Rudyszyn gii, hałas i zasięg cienia1. Można również wykonać animację dla planowanej inwestycji. Większość producentów przykłada dużą uwagę do kontroli przygotowania inwestycji i projektu, gdyż jakiekolwiek niepowodzenie inwestora może spowodować utratę reputacji i przychodów. Na etapie projektowania większość producentów dobiera optymalne urządzenie do specyfiki projektu, doradza przy optymalizacji ustawienia urządzeń oraz dobiera rodzaj fundamentu. Projekty często konsultowane są z inżynierami producenta urządzeń, a przy budowie poszczególnych etapów pojawiają się jego specjaliści, aby doradzać i służyć swoim doświadczeniem. Producenci turbin wiatrowych w cenę turbiny wliczają zazwyczaj transport i montaż urządzenia, a nawet wykonanie fundamentu. Jest to bardzo dobre rozwiązanie zwłaszcza dla mniej doświadczonych inwestorów. Wszystkie te czynniki zmniejszają ryzyko popełnienia jakiegokolwiek błędu i wpływają na bezpieczeństwo inwestycji oraz gwarantują jej powodzenie. Jakość, kultura techniczna i wszystkie gwarancje kosztują, ale zmniejszają znacząco ryzyko inwestycji. To jeden z ważniejszych czynników, które weźmie pod uwagę bank, udzielając kredytu. Im bardziej zminimalizowane ryzyko, tym korzystniejsze warunki finansowania inwestycji, czyli tańszy kredyt. Inwestycja w elektrownię wiatrową nie zalicza się do najbardziej dochodowych biznesów na świecie, ale jest jedną z najbezpieczniejszych, pod warunkiem, że postawimy na jakość i doświadczenie. Pamiętajmy, co mówią Skandynawowie – biednych nie stać na tanie rzeczy. Nawet, jeśli nie czujemy się biedni, warto wziąć to pod uwagę. Używane turbiny to w ostatnich latach powszechna praktyka. W branży krąży nawet anegdota o fundacji powołanej przez kilku producentów wiatraków, którzy postanowili wysyłać do krajów trzeciego świata używane elektrownie wiatrowe z tzw. repoweringu, czyli wymiany kilku mniejszych i już wyeksploatowanych urządzeń na nowe o większej mocy i wydajności. Fundacja pomagała z powodzeniem przez kilka lat Afrykańczykom, którzy w ten sposób zasilali w energię uzyskaną z przekazanych im wiatrakom m.in. wioski i studnie głębinowe. Działałaby pewnie do dzisiaj, gdyby nie wejście Polski do Unii Europejskiej i wprowadzenie wsparcia dla OZE. Od tego momentu po używane elektrownie wiatrowe ustawiają się kolejki chętnych z Polski. Wzbudza to zdziwienie i wesołość zachodnich właścicieli elektrowni i być może zmartwienie dotychczasowych beneficjentów pomocy fundacji. Poważnie jednak należy 1 Per Nielsen, WindPRO 2.6 User Guide, EMD International A/S, Aalborg 2008. 94 zauważyć, że okres żywotność urządzenia wynosi maksymalnie 20 lat. Średni wiek urządzeń sprowadzanych do kraju przekracza często kilkanaście lat. Nie jest też dopuszczalne przez producenta przenoszenie elektrowni z miejsca na miejsce, bo podczas demontażu i transportu dochodzi często do uszkodzeń czy rozregulowania elektrowni wiatrowej. Ponowny montaż, przeważnie z wykorzystaniem nieprofesjonalnych narzędzi i ekipy montażowej często powoduje utratę sprawności urządzenia, a nierzadko prowadzi do katastrof budowlanych. Zdarza się, że wiatrak składany jest z kilku wiatraków, fałszowana jest dokumentacja urządzenia i maskowane ślady zużycia. Sprzedający potrafią do każdego urządzenia dobrać przyjemnie brzmiącą historię o kapryśnym właścicielu, który zapragnął posiadać inne nowsze urządzenie i wymienia wiatrak mimo bardzo małego zużycia, o czy gminie, która postanowiła wybudować szkołę, a właściciel musi pilnie sprzedać wiatrak stojący w miejscu planowanej inwestycji. Wszystko to przypomina historie rodem z giełdy samochodowej, bo „każdy towar ma swojego klienta”, a kupujący nieznający branży często wręcz czekają na takie „okazje”. Brak doświadczenia projektantów i instalatorów tych urządzeń powoduje, że wiatraki buduje się w miejscach, w których nie zawsze powinny stanąć. Zbyt blisko siebie, domostw czy dróg. Wszystkich tych błędów można by uniknąć, stosując specjalistyczne oprogramowanie do projektowania farm wiatrowych, ale nikt nie korzysta z tego rodzaju urządzeń, bo mogłyby one obnażyć nieopłacalność przedsięwzięcia. Fundamenty i montaż wykonywane są czasami niezgodnie z zaleceniami producenta, bo nie konsultuje się projektu i prac montażowych. Brakuje fachowego serwisu oraz części zamiennych. Brak okresowych przeglądów, a zużycie maszyn powoduje częste awarie i konieczność napraw. Sprawność urządzeń spada przeważnie z 30% do 10%, a nawet mniejszej. Niska jakość energii produkowanej przez te urządzenia często powoduje problemy z operatorem, który ma prawo odmówić przyjęcia energii, a nawet spowodować jego wyłączenie. Wiąże się to z tym, że we wniosku o przyłączenie wiatraka do sieci dostarczamy dane turbiny nowej (tzw. Windtest), nie potrafiąc określić stopnia zużycia turbiny, którą zainstalujemy. Bardzo ważną rzeczą jest także dobór odpowiedniej turbiny do odpowiednich warunków wietrzności. Nie każda turbina nadaje się do poszczególnych lokalizacji. Inna turbina powinna być stosowana w warunkach dobrego wiatru, a inna w warunkach gorszych. Mówi nam o tym parametr określający tzw. klasy wietrzności turbin. Każda turbina wyprodukowana jest na określoną lokalizację. Warto upewnić się, czy w miejscu, w którym stała turbina, były warunki choćby zbliżone do panujących na naszej budowie. Pozwoli 95 Porównanie turbin nowych i używanych turbin wiatrowych Piotr Rudyszyn to optymalnie wykorzystać możliwości urządzenia. Pamiętajmy, że starsze turbiny są mniejsze, mają krótsze łopaty i budowane na niższych wysokościach, co nie pozwala w pełni wykorzystać wiejącego wiatru. Niestety większość inwestorów, którzy zdążyli przekonać się o wszystkich tych problemach na własnej skórze czy raczej kieszeni, nie mają odwagi lub nie chcą przyznać się do błędu. Sprzedawcy urządzeń nie zawsze są zainteresowani przekazaniem nam tych informacji, a zdarza się, że nawet zdają sobie z nich sprawy aż do czasu rozpraw sądowych, na które są coraz częściej wzywani. Inwestycje wykonane w odpowiedniej kulturze technicznej stanowią rzadkość, a ich właściciele przeważnie decydują się po kilku latach na zakup nowych i wydajniejszych urządzeń. Jak zatem zapatrują się na tego typu inwestycje banki? Z uwagi na to, że większość inwestycji finansowana jest ze środków własnych inwestorów, banki rzadko decydują się na finansowanie używanych urządzeń. Tam, gdzie decydują się na taki krok, zabezpieczenia kredytu są dużo większe niż wartość kredytu, a oprocentowanie wyższe. Nic dziwnego. Ryzyko też kosztuje. Najważniejsze pozostaje wciąż pytanie, co bardziej się opłaca? Spróbujmy obliczyć, ile kosztuje wyprodukowanie jednej megawatogodziny (MWh) prądu, przeliczając koszt inwestycji. Korzystając z umownego parametru „koszt inwestycyjny wyprodukowania 1 MWh prądu” (KIWP) postarajmy się w sposób prosty porównać stare i nowe urządzenie. KIWP = wartość całkowita inwestycji/produkcja roczna/żywotność urządzenia Załóżmy, że całkowity koszt inwestycji dla turbiny o mocy 2 MW wynosi 2,5 mln euro czyli 10 mln złotych. Turbina, pracując ze sprawnością około 30%, wyprodukuje około 5000 MWh netto prądu rocznie. Zakładając, że nowa turbina będzie pracować przez 20 lat, koszt inwestycyjny wyprodukowania 1 MWh wyniesie 100 PLN. Używaną turbinę o mocy 600 kW można kupić za około 250 tys. euro, czyli 1 milion złotych. Żywotność tego urządzenia jest trudna do przewidzenia, ale załóżmy, że nasz wiatrak przez pięć lat bez większych awarii będzie produkował ze średnią sprawnością wynoszącą 10% około 535 MWh energii elektrycznej. Okazuje się, że koszt inwestycyjny wyprodukowania 1 MWh dla turbiny używanej wynosi 373 zł. Powyższe wyliczenie nie jest doskonałe i nie jest właściwe porównywanie urządzenia nowego, na gwarancji i używanego, którego ewentualne koszty naprawy są nie do przewidzenia, ale ten sposób bardzo dokładnie pozwala na porów96 nanie bezwzględnych danych. Nie jest więc prawdą, że energia z urządzenia nowego jest droższa. Gdyby tak było, nikt nie wymieniałby starych urządzeń, które już dawno się spłaciły, na nowe, które trzeba od nowa spłacać. Skoro nie opłaca się użytkować zamortyzowane urządzenie na miejscu, to tym bardziej nie może być opłacalna inwestycja powiększona o rozbiórkę, transport i ponowny montaż oraz zysk pośrednika. Dziś już nikogo nie trzeba przekonywać, że stare auto jest bardziej awaryjne i droższe w utrzymaniu od nowego. Nikt też nie chciałby być wieziony do szpitala 20-letnią karetką. Dlaczego więc mamy zgadzać się na zdezelowane elektrownie wiatrowe w systemie energetycznym? Tabela. 1. Porównanie kosztów wyprodukowania 1 MWh w przypadku elektrowni nowych oraz używanych Cena / całość inwestycji Sprawność urządzenia Ilość wyprodukowanej energii Żywotność urządzenia Koszt inwestycyjny wyprodukowania 1 MWh Nowa turbina 10 mln zł 30% 5000 MWh/rok 20 lat 100 zł Używana turbina 600 kW 1 mln zł 10% 535 MWh/rok 5 lat 373 zł Źródło: Opracowanie własne autora. Nie należy zapominać, że używane turbiny z wiekiem są coraz głośniejsze, a przez to bardziej uciążliwe dla otoczenia. Zachodni eksperci twierdzą, iż turbina robi się głośniejsza o około 1 dB rocznie. W Polsce nie badano jeszcze tego zjawiska, ale jeśli ktoś z sąsiadów zauważy lub odczuje wzrost hałasu urządzenia, to wyniki badań akustycznych mogą wpłynąć nawet na wyłączenie urządzenia. Pamiętajmy, że już w momencie budowy nasze urządzenie jest głośniejsze niż w dokumentach, które przedstawiliśmy w gminie na potrzeby decyzji środowiskowej, gdyż prawie nigdy nie uwzględnia się w nich wzrostu hałasu turbin z wiekiem i przedstawia się wartości dla turbin nowych. Ostatnia kwestia to dostępność części zamiennych do poszczególnych urządzeń. Warto dokładnie sprawdzić, kiedy zaprzestano produkcji oferowanej nam turbiny i gdzie można nabyć części zamienne. Informacje te można zdobyć u producenta lub na branżowych stronach internetowych. Często 97 Porównanie turbin nowych i używanych turbin wiatrowych Piotr Rudyszyn okazuje się, że producenta już nie ma, zmienił się właściciel lub po prostu nie oferuje się już więcej części zamiennych do interesującego nas modelu. Repowering ma dwa różne znaczenia jedno – ogólnie w Europie, a drugie w Polsce. Pierwsze oznacza wymianę starych i zużytych kilku małych urządzeń na jedno nowe o większej mocy i wydajniejsze. W Polsce repowering to sprzedaż starego urządzenia „z drugiej ręki” kolejnemu klientowi z dużym zyskiem. We wstępie napisałem też, że w województwie łódzkim pod koniec 2010 roku na 19 nowych wiatraków przypadało około 400 używanych. Trzeba dodać, że łączna produkcja energii z 19 nowych urządzeń jest większa niż z 400 używanych. Gdyby urządzenia używane zastąpić nowymi łódzkie jako pierwsze osiągnęłoby 15% energii z OZE w systemie i już dzisiaj spełniłoby zobowiązania unijne dla 2020 roku. To tylko teoria, ale mamy jeszcze trochę czasu na nadrobienie zaległości. Używane niewydajne urządzenia zajmują często najlepsze miejsca na takie inwestycje, destabilizują sieć albo po prostu stoją zepsute lub uszkodzone. Jak pokazał autor w tym tekście, są gorzej zaprojektowane, bardziej awaryjne i ryzykowne od nowych, a na dodatek dużo droższe w utrzymaniu i zakupie. Summary Poland is one of the fastest developing wind energy market in Europe. New wind farms and single wind turbines appear regularly on Polish map. Investors are more eager to develop new wind energy projects and financial institutions are more willing to finance them. However, next to new wind turbines there are more and more of used devices installed in Poland that are imported from other European countries. In łódzkie province there are 19 new wind turbines and about 400 of used ones. The question is: what is more profitable? What are the advantages and disadvantages of each solution? A new wind turbine that is more expensive or a much cheaper used one? Very important is also energetic safety, the environment and Polish obligations to European Union – to obtain 15% of the energy balance from the renewable energy sources in 20201. Streszczenie Polska jest jednym z najszybciej rozwijających się rynków energii wiatrowej w Europie. Jak grzyby po deszczu wyrastają nowe farmy wiatrowe i pojedyncze elektrownie. Inwestorzy coraz chętniej budują wiatraki, a instytucje finansowe coraz odważniej spoglądają w stronę energetyki wiatrowej. Sprawne oko dostrzeże jednak, że obok nowych urządzeń pojawiają się też elektrownie, które lata świetności mają już dawno za sobą. W województwie łódzkim, które jest „energetyczną Polską w pigułce” obok 19 nowych elektrowni zainstalowano ponad 400 używanych urządzeń z „drugiej ręki”. Powstaje więc pytanie, co się bardziej opłaca i co wybrać? Nowe, droższe urządzenie czy używane w korzystniejszej cenie? Jakie są zalety i wady obu rozwiązań? Ważne pozostają też kwestie bezpieczeństwa energetycznego, oddziaływania na system energetyczny i środowisko oraz wpływ na zobowiązania Polski dotyczące osiągnięcia do 2020 roku 15% udziału OZE w bilansie energetycznym2. 2 Minister Gospodarki, Raport określający cele w zakresie udziału energii elektrycznej wytwarzanej w odnawialnych źródłach energii znajdujących się na terytorium Rzeczypospolitej Polskiej w krajowym zużyciu energii elektrycznej na lata 2010–2019, Warszawa 2011. 98 99