Referaty sesja 1p.indd - Pomiary Automatyka Robotyka
Transkrypt
Referaty sesja 1p.indd - Pomiary Automatyka Robotyka
Pomiary Automatyka Robotyka 2/2009 dr in. Andrzej Grabowskia prof. dr hab. Robert Kosiskia,b dr in. Marek Dwiareka (a) Centralny Instytut Ochrony Pracy - Pastwowy Instytut Badawczy (b) Politechnika Warszawska, Wydzia Fizyki UKAD NEURONOWY ANALIZUJCY OBRAZY STEREOSKOPOWE W CELU IDENTYFIKACJI POOENIA PRACOWNIKA WZGLDEM STREF NIEBEZPIECZNYCH Nowoczesne systemy produkcji staj si coraz bardziej elastyczne, wobec czego wymagaj równie elastycznych systemów bezpieczestwa, które mona atwo dostosowa do rónych procesów technologicznych. Waciwoci takie posiadaj wizyjne systemy bezpieczestwa (VBPD - Vision Based Protective Devices). W niniejszej pracy przedstawiamy ukad sztucznych sieci neuronowych do identyfikacji sytuacji niebezpiecznych. Sekwencja obrazów z dwóch kamer jest przesyana do komputera PC, a nastpnie jest analizowana przez ukad komórkowych sieci neuronowych (CNN) zrealizowany programowo. Ukad ten wykrywa obecno nowego obiektu pojawiajcego si w polu bezpieczestwa (PB) i okrela jego pooenie i prdko wzgldem ruchomych elementów maszyny (takich jak np. rami robota przemysowego). Eksperymenty przeprowadzone z wykorzystaniem obrazów syntetycznych (wygenerowanych za pomoc technik rzeczywistoci wirtualnej) i rzeczywistych obrazów o niskich parametrach jakociowych (kamery internetowe) wskazuj, e prezentowany system jest w stanie dokona prawidowej identyfikacji sytuacji niebezpiecznej podczas pracy w czasie rzeczywistym. ARTIFICIAL NEURAL NETWORK FOR WORKER PRESENCE IDENTIFICATION IN DANGEROUS ZONES USING STEREOVISION Modern production processes becomes more and more flexible. Therefore there is a need that devices used in workplace also support flexibility as much as possible. Such characteristics have Vision Based Protective Devices (VBPDs). We present a neural system for the advanced recognition of danger situation for safety control. The sequence of the images from two cameras located above the work stand is presented to the system of cellular neural networks (CNNs) realized in the PC computer. They detect a new object appearing in a Safety Field (SF), define its position with respect to the moving parts of machine (e.g. the arm of the robot) and perform the feature extraction of its image. Experiments conducted using artificial images (virtual environment) and low quality images (internet cameras) indicate that our system can work in a real time and detect successively dangerous situations. 1. WPROWADZENIE Osignicie niezakóconej pracy w przemyle wymaga zastosowania rónych typów systemów bezpieczestwa wykrywajcych obecno pracownika. Konieczne to jest zwaszcza w przypadku, gdy obszary pracy maszyny i czowieka nie mog by od siebie cakowicie odseparowane. Klasyczne systemy bezpieczestwa takie jak maty czue na nacisk, kurtyny wietlne oraz lasery skanerowe maj pewne wady, w szczególnoci uniemoliwiaj bd powanie utrudniaj prac, nawet w obszarze odlegym od ruchomych elementów maszyny, co 142 automation 2009 Pomiary Automatyka Robotyka 2/2009 moe przyczynia si do spadku wydajnoci pracy. Ukady te mog by wraliwe na pojawiajce si niewielkie obiekty, które nie mog spowodowa sytuacji niebezpiecznej. Ponadto w przypadku skanerów laserowych i kurtyn wietlnych skanowana przestrze ograniczona jest do jednej paszczyzny (warto zaznaczy, e systemy wyposaone w kamery s tego ograniczenia pozbawione). W ostatnich latach mona zaobserwowa powszechny trend modyfikacji urzdze niezwizanych z zagadnieniami bezpieczestwa do tego, aby mona je byo zastosowa w systemach bezpieczestwa [1]. Dobrym przykadem s wanie powszechnie stosowane w przemyle kamery, m.in. do kontroli jakoci produkcji. Kamery s wykorzystywane równie na np. zrobotyzowanym stanowisku przenoszenia, na którym system wizyjny rozpoznaje i na bieco analizuje pooenie elementów, przekazujc niezbdne informacje do ukadu sterowania trajektori ruchu i pooeniem kocówki robota. Obecnie kamery znajduj coraz szersze zastosowanie w zagadnieniach dotyczcych bezpieczestwa (wymagania dotyczce wizyjnych systemów bezpieczestwa przedstawione s w [2]). Okazuje si, ze wyposaone w kamery systemy bezpieczestwa mog z powodzeniem zastpi w pewnych zastosowaniach skanery laserowe oraz kurtyny wietlne (tego typu produkty s ju komercyjnie dostpne). Ponadto systemy tego typu charakteryzuj si wiksz elastycznoci. Zasada ich dziaania opiera si na detekcji przez kamer promieniowania elektromagnetycznego emitowanego przez urzdzenie w zakresie nie widzialnym dla ludzi. Emitowana wizka odbija si od odblaskowej tamy i powraca do kamery. W ten sposób system bezpieczestwa moe zareagowa, jeeli w obszarze pomidzy emiterem a elementem odblaskowym pojawi si jaki obiekt (np. rka pracownika). Wykorzystanie ukadów wizyjnych w systemach bezpieczestwa moemy podzieli na dwie róne kategorie [1]: a) monitorowanie okrelonego obszaru w celu wykrycia obecnoci ludzi b) zapobieganie kolizji pracownika z ruchomymi elementami maszyny (np. ramieniem robota) lub pojazdami. W obu wymienionych przypadkach wizyjny system bezpieczestwa musi poprawnie odrónia pracownika od otoczenia w obrbie strefy obserwowanej przez kamery. W ostatnich latach opracowano wiele rónych metod. Jedn z nich jest naoenie odpowiednich deseni (czsto stosowan form jest czarno-biaa szachownica) na elementy wystpujce na stanowisku pracy, które s w polu obserwacji kamer [3], [4]. Zakócenie regularnoci deseni jest sygnaem powstania sytuacji niebezpiecznej, lub te moe posuy do lokalizacji pooenia pracownika [5]. Z rozwizaniem takim cz si jednak pewne trudnoci, gdy naoenie deseni jest czsto trudne do wykonania (zwaszcza w przypadku, gdy na stanowisku pracy znajduj si przedmioty o skomplikowanym ksztacie). System taki jest w duej mierze odporny na powstawanie cieni oraz zmiany owietlenia, jednake jak wynika z przeprowadzonych bada nie dziaa prawidowo dla niskiego i bardzo wysokiego natenia wiata [6]. Obraz rejestrowany przez wikszo kamer jest zapisywany w formacie RGB (Red, Green, Blue). Innym czsto uywanym modelem przestrzeni barw jest HSV (Hue, Saturation, Value) posiadajcy równie trzy skadowe: czstotliwo wiata (H), nasycenie koloru (S) oraz warto (V). Obraz pochodzcy z kamery moe by rzutowany na dwuwymiarow przestrze HS. Pominicie skadowej V umoliwia dalsz analiz obrazów, której wyniki bd niezalene od natenia owietlenia (aczkolwiek jej wyniki s silnie zalene od barwy wiata). Analiza taka umoliwia poprawne wyszukanie elementów o okrelonym, wyróniajcym si od otoczenia kolorze [6]. Elementami takimi mog by np. kamizelki lub kaski noszone przez pracowni- automation 2009 143 Pomiary Automatyka Robotyka 2/2009 ków, co umoliwia wykrycie ich obecnoci w strefie obserwowanej przez kamer. System taki nie jest w stanie wykry obecnoci osób nie posiadajcych na sobie elementów o okrelonej barwie. Nawet w przypadku, gdy pracownik ma na sobie odpowiedni kamizelk, niektóre czci ciaa (np. rce) nadal nie bd wykrywane przez system. Podobnym podejciem do problemu jest wykorzystanie kamer rejestrujcych obraz w podczerwieni oraz wyszukiwanie elementów, które s dobrze widoczne w tym zakresie widma promieniowania elektromagnetycznego [6]. W przypadku dalekiej podczerwieni (FIR) powan trudno w analizie obrazu stanowi obecne w otoczeniu róda ciepa oraz zjawisko remanencji termicznej. Istnieje te niewielka liczba opracowa systemów bezpieczestwa, które potrafi w sposób inteligentny analizowa otoczenie robota [1]. Odseparowanie pracownika od robota moe wpywa negatywnie na elastyczno produkcji. W pewnych przypadkach korzystne moe by bowiem, aby mogli ze sob wspópracowa. Uwaa si, e umoliwienie pracy robota bezporednio w obecnoci czowieka moe pozwoli na dalsze zredukowanie kosztów produkcji przemysowej [1], [7]. W literaturze przedstawiono kilka przykadowych scenariuszy wspópracy czowieka i robota [8], [9], m.in. wykorzystanie ramienia robota w celu pomocy czowiekowi w manipulowaniu bd przenoszeniu rónych obiektów [10], [11], [12]. Innym przykadem jest moliwo uczenia robota przez czowieka, który znajdujc si w pobliu dziaajcego robota wskazuje mu now sekwencj ruchów za pomoc wskanika laserowego [13]. W tego typu przypadkach wspópracy czowieka i robota dobrym rozwizaniem jest wykorzystanie wizyjnego systemu bezpieczestwa. Na podstawie obrazów z kamery stale obliczana jest odlego pomidzy pracownikiem i robotem. Warto ta jest porównywana z wartoci minimaln, poniej której istnieje ryzyko kolizji. W najprostszym przypadku dziaanie maszyny jest zatrzymywane, gdy pracownik pojawia si w strefie zagroenia monitorowanej przez kamer [14]. W przypadku bardziej wyrafinowanych systemów (które bior pod uwag nie tylko pooenie ale i zachowanie czowieka), moliwe jest bardziej zaawansowane dziaanie zapobiegajce powstaniom sytuacji niebezpiecznych (np. poprzez zmian ruchu ramienia robota) [7], [8], [9], [15]. Naley zauway, e roboty pracuj dzisiaj prawie wycznie za ogrodzeniem ochronnym, odseparowane od operatora aplikacji. Natomiast dziki zastosowaniu wizyjnego systemu bezpieczestwa operator moe np. umieci element bezporednio w chwytaku robota. Równoczenie za, dziki wyeliminowaniu koniecznoci penego odseparowania obszaru pracy robota, operator ma swobodny dostp oraz niezakócony widok na cay proces produkcyjny. 2. UKAD NEURONOWY Automaty komórkowe i sztuczne sieci neuronowe zainspiroway powstanie komórkowych sieci neuronowych (CNN) [16]. S to ukady m u n identycznych komórek (neuronów), gdzie m jest liczb kolumn, a n liczb wierszy. Fundamentaln waciwoci CNN jest powtarzajcy si i taki sam dla kadej komórki (z wyjtkiem brzegowych) schemat pocze synaptycznych (cloning template). Zasig pocze synaptycznych dany jest liczb r. Stan neuronu xi,j(t) jest okrelony przez macierze [A] (wpyw sygnaów wyjciowych - feedback matrix), [B] (wpyw sygnaów wejciowych - control matrix) i [I] (zewntrzna polaryzacja) [5]. Rozmiar macierzy [A] i [B] wynosi (2r+1)u (2r+1), a stan wyjciowy neuronu yi,j(t)= f[xi,j(t)] jest okrelony przez funkcj aktywacji f. Rozmiar CNN odpowiada rozmiarowi macierzy 144 automation 2009 Pomiary Automatyka Robotyka 2/2009 CCD kamery TV, co pozwala na przyporzdkowanie neuronu pojedynczemu pikselowi obrazu TV. Dynamika sieci neuronowej (z czasem dyskretnym) jest opisywana równaniem: hij (t 1) r r ¦ ¦a k r l r i k , j l ij xi k , j l (t ) y ij (t 1) r r ¦ ¦b k r l r i k , j l ij u i k , j l (t ) f (hij ) (1) 3. DZIAANIE SYSTEMU Sekwencja uzyskiwanych z kamer obrazów jest przekazywana do karty frame grabbera komputerze klasy PC. Nastpnie, po dokonaniu obróbki wstpnej obrazy przesyane s do ukadu neuronowego zrealizowanego programowo w komputerze. Ukad neuronowy ma posta poczonego kaskadowo ukadu komórkowych sieci neuronowych. Ukad ten porównuje nadchodzce obrazy i analizuje nowe elementy, które si na nich pojawiy. W pocztkowej fazie dane z obu kamer analizowane s równolegle przez dwie niezalene sieci komórkowe. Nastpnie na podstawie porównania wyników analizy przeprowadzonej przez te sieci badane s: wielko obrazu przedmiotu, które si pojawi w polu obserwowanym przez kamery oraz jego prdko. Ponadto ustalane jest aktualne pooenie ramienia robota oraz pooenie nowego obiektu wzgldem ramienia. Na podstawie analizy tych informacji ukad decyzyjny rozstrzyga, czy powstaa sytuacja jest bezpieczna, jest sytuacj zagroenia, czy jest sytuacj niebezpieczn. Rys. 1. Aktualny obraz z kamery (a), wynik porównania aktualnego obrazu z obrazem referencyjnym (b), obraz nowego obiektu po usuniciu szumu W pierwszym etapie dziaania sieci naley sprawdzi, czy w obszarze obserwowanym przez kamery nie pojawi si nowy obiekt. Przyjto, e obrazy przekazywane przez kamer s sygnaami wejciowymi do sieci. Kademu pikselowi obrazu odpowiada neuron sieci komór- automation 2009 145 Pomiary Automatyka Robotyka 2/2009 kowej. Pocztkowy stan komórki ij odpowiada jasnoci odpowiedniego piksela obrazu wzorcowego. Warto sygnau wyjciowego yij zaley od stanu komórki xij i wartoci sygnau wejciowego uij. Dodatkowo w celu uniewraliwienia ukadu na zmian natenia owietlenia dokonywana jest równie analiza obrazu w przestrzeni barw HSV - Hue, Saturation, Value (w sposób analogiczny jak dla przestrzeni barw RGB). Szczególna uwaga powicona jest skadowej V (value), odpowiadajcej wanie nateniu wiata. Monitorowanie zmiany tej wartoci dla poszczególnych pikseli oraz caego obrazu pozwala m.in. na wykrycie czy zmiany obserwowane w przestrzeni RGB s tylko skutkiem zmiany natenia wiata (czyli wanie skadowej V), które powsta mogy np. na skutek pojawienia si nowego róda wiata. Przebieg procesu identyfikacji nowego obiektu przedstawiony jest na rys.1. Ukad neuronowy analizuje aktualny obraz z kamery (rys.1a) porównujc go do obrazu referencyjnego. Wynik tej analizy przedstawiony jest na rys.1b. Obraz ten moe by zaszumiony, dlatego te kolejnym etapem dziaania ukadu neuronowego jest usuniecie szumów. Efekt tego dziaania przedstawiony jest na rys.1c. W niektórych warunkach, zwizanych midzy innymi z szybko zmieniajcym si owietleniem, korzystne moe okaza si wykrywanie nowego obiektu na podstawie obserwacji zaburze w naniesionym na powierzchni podogi regularnym wzorcu [1], [4], [6]. Przykadem takiego pasywnego wzorca moe by kratownica (rys. 2a). W celu przyspieszenia wymaganych oblicze analizowany obraz jest w pierwszej kolejnoci zamieniany z obrazu kolorowego na obraz czarno biay. Nastpnie obraz ten jest analizowany przez sie komórkow zaprojektowan w celu wykrywania krawdzi pionowych oraz krawdzi poziomych. Kolejnym krokiem jest zastosowanie odpowiedniego szablonu umoliwiajcego wykrywanie elementów pasywnego wzorca (w przypadku szachownicy s to pojedyncze kwadraty). W tym celu wykorzystywany jest odpowiedni szablon, którego wielko (okrelona przez zmienn r) dostosowana jest do rozmiaru pojedynczego kwadratu. Efekt dziaania sieci opartej na tym szablonie przedstawiony jest na rys. 2b, gdzie czerwonymi punktami zaznaczone te elementy wzorca, które wedug sieci neuronowej nie zostay znieksztacone. Zdecydowana wikszo oblicze wykonywana jest tylko przy pierwszym uruchomieniu ukadu, wówczas ukad neuronowy wyszukuje optymalny rozmiar szablonu oraz pooenie pojedynczych kwadratów. W trakcie waciwego dziaania nie jest sprawdzany stan wszystkich neuronów, ale tylko tych, które znajdoway si w geometrycznym rodku wykrytych w pocztkowej fazie kwadratów. Wielokrotnie zmniejsza to ilo wymaganych oblicze i pozwala na znaczce skrócenie czasu potrzebnego sieci neuronowej na dokonanie analizy obrazu. Warto podkreli, e prezentowana sie neuronowa jest w stanie wykry pojedyncze kwadraty, zarówno czarne jak i biae (w [2] zakada si, e minimalny rozmiar obiektu, który powinien zosta wykryty jest trzykrotnie wikszy od rozmiaru pojedynczego elementu wzorca). Wpywa to pozytywnie na dokadno wykrywania pooenia nowego obiekty znajdujcego si strefie obserwowanej przez kamery. W celu identyfikacji pooenia i orientacji w przestrzeni ruchomych elementów maszyn, takich jak rami robota, zastosowano znacznik skadajcy si z dwóch pasków o barwach nasyconych (czystych) w standardzie RGB, umieszczonych na osi obrotu ramienia robota (rys.1a). Takie umieszczenie znacznika bardzo znacznie zmniejsza deformacje jego ksztatu zwizane z ruchem ramienia robota. Pooenie znacznika jest znajdowane na podstawie porównywania histogramów barw obiektów widzianych przez gówn kamer TV. 146 automation 2009 Pomiary Automatyka Robotyka 2/2009 Naley podkreli, e równie inne nasycone barwy mog zosta zastosowane, np. znacznik skadajcy si z pasków o barwach zielonej i ótej. Umoliwia to systemowi identyfikacj wielu rónych obiektów znajdujcych si w strefie obserwowanej przez kamery. Ponadto dziki zastosowaniu odpowiedniego szablonu sieci neuronowej (który pozwala na rozrónianie wielu obiektów, które pojawiaj si w strefie obserwowanej przez kamery), moliwa jest równie poprawna identyfikacja wielu znaczników o takich samych barwach. Znaczniki te mog by umieszczone nie tylko na ruchomym ramieniu robota, ale równie na innych ruchomych obiektach mogcych stanowi zagroenie dla ycia i zdrowia pracownika. Rys. 2. Przykadowa scena z naniesionym pasywnym wzorcem w formie szachownicy (a). Wynik dziaania sieci komórkowej wyszukujcej elementy pasywnego wzorca obecnego w analizowanym obrazie (b). Czerwonymi punktami zaznaczono te elementy (kwadraty), które zostay wykryte. 4. EKSPERYMENTY Eksperymenty byy przeprowadzone z wykorzystaniem ukadu wizyjnego skadajcego si z dwóch kamer internetowych (Labtec webcam 3300). Kamery te rejestroway obraz z prdkoci 15 ramek na sekund w rozdzielczoci 320 na 200 punktów - s to wartoci typowe dla tej klasy urzdze. Algorytmy zostay zaimplementowane z wykorzystaniem jzyka C. Wpyw owietlenia na prawdopodobiestwo wykrycia obiektu oraz redni odlego na jak wnika obiekt w stref obserwowan przez kamery zanim zostanie wykryty przez system, jest przedstawiony w tab.1. Kamery byy umieszczone na wysokoci 2 m nad podoem. rednia prdko obiektu (którym by szecian o dugoci boku równym 5 cm - wykorzystano szeciany o rónych barwach) wynosia 1,2 m/s. Jak wynika z eksperymentów system dziaa prawidowo dla szerokiego zakresu owietlenia (od 100 lx do 600 lx - rednie owietlenie zautomatyzowanego stanowiska pracy jest rzdu 300 lx), pomimo zastosowania systemu akwizycji o niskich parametrach jakociowych rejestrowanych obrazów (proste kamery internetowe). Z powyszego wynika, e opracowany system nie wymaga specjalnych warunków dotyczcych owietlenia miejsca pracy. Równie ekstrakcja pozostaych cech obiektu (rozmiar i prdko) przebiegaa prawidowo w tym zakresie owietlenia. W nastpnym etapie eksperymentów wykorzystano obrazy syntetyczne wygenerowane z wykorzystaniem technik rzeczywistoci wirtualnej. W wirtualnym rodowisku umieszczono dwie kamery, z których obraz by przesyany bezporednio do ukadu komórkowych sieci automation 2009 147 Pomiary Automatyka Robotyka 2/2009 neuronowych CNN. Podstawow zalet wykorzystania technik rzeczywistoci wirtualnej jest to, e zarówno dokadne pooenia jak i prdkoci wszystkich obiektów s znane (zbdny jest wówczas dodatkowy system do detekcji pooenia obiektów w przestrzeni trójwymiarowej), co pozwala na szybk ocen odpowiedzi ukadu neuronowego. Jak wynika z przeprowadzonych eksperymentów rónica r pomidzy rzeczywistym pooeniem rodka geometrycznego obiektu a lokalizacj wyznaczon przez CNN, jest niewielka i nie zaley od pooenia obiektu w przestrzeni. Jest bardzo wana zaleta w porównaniu do systemów wizyjnych wyposaonych w jedn kamer, dla których r ronie bardzo szybko wraz ze wzrostem odlegoci obiektu od rodka obrazu. Z przeprowadzonych eksperymentów wynika, e rednia warto r maleje nieznacznie wraz z zmniejszaniem wielkoci obserwowanego obiektu, np. r = 2,7 cm dla szecianu o boku a = 40 cm; r = 2,1 cm dla a = 20 cm; oraz r = 1,5 cm dla a =10 cm (kamery znajdoway si w odlegoci 5 m nad podoem). Otrzymano podobne wyniki niezalenie od tego jaka tekstura podoa bya zastosowana (przetestowano system dla 100 rónych tekstur), nawet w przypadku, gdy tekstura podoa i obiektu byy takie same. Tab. 1. Wpyw natenia owietlenia na efektywno dziaania systemu. Wyniki s urednieniem po 100 niezaleznych powtórzeniach. Natenie owietlenia [lx] 100 350 600 Prawdopodobiestwo wykrycia obiektu [%] 100 100 100 15 13 rednia odlego, jak pokona obiekt przed 15 wykryciem go przez system wizyjny [cm] 5. PRZYKADY ZASTOSOWANIA Lokalizacja biecego pooenia ruchomych elementów, takich jak rami robota, pozwala na ograniczenie zatrzyma robota, gdy sytuacje, w których obiekt naruszajcy pole bezpieczestwa (PB) jest odlegy od ramienia nie gro bezporedni kolizj i wystarczajce jest tylko spowolnienie robota. Na rys. 3. widzimy pole bezpieczestwa PB i sektor niebezpieczny RF, który jest wycinkiem pola PB opartym na kcie rodkowym E. Naruszenie pola PB powoduje tylko zwolnienie robota, natomiast przy naruszeniu pola RF jest wysyany sygna zatrzymujcy robota. Forma pola strefy RF moe by dowolnie zdefiniowana w zalenoci od tego, jaki obiekt powinna otacza (np. na rys. 3 przedstawiona jest posta pola PB i RF w przypadku ruchomego wózka transportujcego produkowane elementy). W przemyle roboty najczciej s zamknite w celach i cakowicie odseparowane od ludzi. Jednake pomimo tego, e w literaturze przedstawiono wiele potencjalnych scenariuszy wspópracy czowieka z robotem, pokazujc, e moe ona przynie redukcj kosztów produkcji, rozwizania takie istniej nadal tylko w stadium laboratoryjnym. Tym niemniej istniej równie pewne sytuacje, kiedy dziaajcy robot nie jest w peni odseparowany od ludzi, co zdarza si np. na targach i wystawach (gdzie w pobliu robota mog znale si ludzie nie wiadomi ryzyka). Zgodnie z przepisami w takich warunkach roboty mog by pozbawione urzdze ochronnych, np. mog by pozbawione oson. W takich przypadkach korzystne jest zastosowanie wizyjnego systemu bezpieczestwa. Interesujcym przykadem potencjalnego zastosowania omawianego systemu jest równie linia montaowa znajdujca si w jednej z polskich fabryk, której schemat przedstawiony jest na rys. 4. Linia skada si z 9 gniazd montaowych oraz poruszajcego si z prdkoci kilku metrów na sekund wózka (jest on oznaczony na ilustracji numerem 1). Jeeli którekolwiek 148 automation 2009 Pomiary Automatyka Robotyka 2/2009 z gniazd skoczy wykonywanie elementu zostaje o tym automatycznie powiadomiony ruchomy wózek, który odbiera przygotowany element i przewozi go do dalszej obróbki zostawiajc go w punkcie oznaczonym numerem 2. Po kadej operacji wykonania elementu gniazdo musi zosta przygotowane przez obsugujcego je pracownika do produkcji kolejnego elementu (cay cykl produkcyjny trwa kilka minut). W tym celu pracownik czasami musi wej w obszar, w którym porusza si wózek (1). Wówczas ruch wózka zostaje zatrzymany, gdy pracownik narusza stref wykrywania kurtyny wietlnej (oznaczon czerwon lini). Ze wzgldu na due rozmiary linii (jej dugo wynosi okoo 30 m) moe to powodowa niepotrzebne przestoje w produkcji. Praca wózka jest zatrzymywana, gdy wózek znajduje si daleko od pracownika (lub np. zmierza do gniazda, które znajduje si pomidzy wózkiem a pracownikiem) oraz nawet, gdy nie istnieje ryzyko kolizji gdy wózek, co prawda porusza si, ale oddala si od pracownika. Zastosowanie wizyjnego systemu bezpieczestwa, który w sposób inteligentny bdzie analizowa zachowanie si pracowników oraz prdko i pooenie wózka wzgldem pracowników moe przyczyni si w tym przypadku do zwikszenia wydajnoci produkcji, poprzez redukcj liczby zakóce cigoci realizacji procesu technologicznego. g g Rys. 3. Zmodyfikowane pole bezpieczestwa PB. Pojawienie si obiektu w obszarze RF, który jest wycinkiem pola PB o kcie rodkowym E, powoduje wyczenie robota (a). Rami robota zaznaczono na óto. Ksztat pól PB i RF dla przypadku linii montaowej z rys.4 (b). Rys. 4. Schemat linii montaowej o dugoci okoo 30 m. Czerwon lini oznaczono lokalizacj fotobariery. Numerem 1 oznaczono pooenie ruchomego wózka. Caa linia obsugiwana jest przez dwóch pracowników. automation 2009 149 Pomiary Automatyka Robotyka 2/2009 6. PODSUMOWANIE System bezpieczestwa przedstawiony w tej pracy moe by uywany do efektywnego okrelania pooenia pracownika wzgldem stref niebezpiecznych. Identyfikacja pooenia ruchomych elementów maszyny (takich jak np. rami robota) pozwala na definiowanie ruchomych stref, które s szczególnie niebezpieczne (RF). Prezentowany system moe by atwo dostosowany do rónych procesów technologicznych. Uytkownik moe okrela parametry pracy systemu, takie jak obszar pola bezpieczestwa (PB). Nastpnie moe [vmin, vmax] obiektów równie okreli minimalny rozmiar D0 i zakres prdkoci pojawiajcych si w strefach PB i RF, które mog stworzy zagroenie. System zapamituje informacje o zaistniaych sytuacjach niebezpiecznych w celu ich póniejszej analizy. Jak wynika z eksperymentów, opracowany system bezpieczestwa oparty na komórkowych sieciach neuronowych moe efektywnie pracowa w czasie rzeczywistym. Czas analizy obrazów przeprowadzany przez system jest krótszy ni 20 ms. Prezentowany system jest inteligentnym narzdziem do zapobiegania wypadkom, a take zapobiegania przypadkowym zakóceniom cigoci procesu technologicznego, na zautomatyzowanych stanowiskach pracy m.in. wyposaonych w roboty przemysowe. System ten moe by stosowany równie do innych celów, jak inteligentny nadzór pomieszcze i budynków, i wydaje si, e jest on konkurencyjny w stosunku do standardowych systemów bezpieczestwa. Acknowledgements: The research was supported by the Ministry of Science and Higher Education, National Program ”Improvement of Safety and Working Conditions” project No. 4.R.03, CIOP-PIB (2008-2010). A.G. acknowledges financial support from the Foundation for Polish Science (FNP 2008). 7. LITERATURA [1] T. Bomer, „Vision based protective devices (VBPD) – a vision becomes reality”, proceedings of 3rd Int. Conf. SIAS 2003, session 7, p. 7-11, Nancy France. [2] IEC 61496-4. Safety of machinery. Electro-sensitive protective equipment. Part 4. Particular requirements for equipment using vision based protective devices (VBPD). [3] Report of the Project „Development for the international standards in the field of safety of machinery – a vision based protective devices (VBPD)”, The Japanese National Committee for IEC/TC44 Prepared by the Japan Machinery Federation (2001). [4] Japanese Machinery Federation, Report of the Project „Development for the International Standards in the field of Safety of Machinery – a vision-based protective devices (VBPD)”, IEC 44/343/INF, 2001-10. [5] F. Gardeux, J. Marsot, J. P. Buchweiller, „Detection of persons in danger zones: Contributions and difficulties of artificial vision” 3rd Int. Conf. SIAS (2003). [6] F. Gardeux, “Detection of persons based on digital vision: advantages and limits”, INRS, HST, ND 2276-208-07 (2007). [7] M. Hägele, W. Schaaf, E. Helms, „Robot Assistants at Manual Workplaces: Effective Co-operation and Safety Aspects”, Proceedings of the 33rd ISR (International Symposium on Robotics) October 7 – 11, 2002. [8] Kruger J., Nickolay B., Schulz O., „Image-based 3D-surveillance in man-robotcooperation”, 2nd IEEE International Conference on Industrial Informatics, Berlin, 411-420, June 2004. [9] B. Koch, „Human and robots – a great tem”, Fraunhofer magazine 2.2002, 40-41. 150 automation 2009 Pomiary Automatyka Robotyka 2/2009 [10] J. E. Colgate, W. Wannasuphoprasit, M. A. Peshkin: „Cobots: Robots for Collaboration with Human Operators”. In: Proceedings of the International Mechanical Engineering Congress and Exhibition, Atlanta, GA, DSC-Vol. 58, 433-39. [11] O. Khatib: „Mobile Manipulation: The Robotic Assistant.” In: Journal of Robotics and Autonomous Systems, vol. 26, 1999, 175-183. [12] R. D. Schraft, S. Thiemermann: „Direct manrobot cooperation in a flexible assembly cell”, In:Proceedings of the 33rd International Symposium on Robotics, ISR 2002, October, 7 – 11, 2002. [13] Stopp, A. Baldauf, T. Hantsche, R. Horstmann, S. Kristensen, S. Lohnert, F. Priem, C. Ruescher, B. The Manufacturing Assistant: Safe, Interactive Teaching of Operation Sequences. In Proc. of the 11th IEEE Int. Workshop on Robot and Human interactive Communication, ROMAN2002, Berlin, Germany, September 25-27, 2002, 386-391. [14] K.HAMAJIMA, J.LUand K.ISHIHARA, „Object Zone Detection Method with Omnidirectional Vision Sensors”, Specific Research Reports of the National Institute of Industrial Safety, NIIS-SRR-NO.33 (2005) [15] J.LU, K.HAMAJIMA and W.JIANG, „Monitoring a Wide Manufacture Field Automatically by Multiple Sensors”, ACTA AUTOMATICA SINICA, Vol. 32, No. 6, 956-967, November, 2006 [16] R.A. Kosiski „Sztuczne sieci neuronowe - dynamika nieliniowa i chaos”, Wyd. Naukowo-Techniczne, Warszawa, (2007) automation 2009 151