Skrypt zPET-ów (16.08.07).doc

(2479 KB) Pobierz
mgr inż

 

 

 

 

 

 

 

 

 

 

 

 

 

 

TEORIA  NIEZAWODNOŚCI  I  BEZPIECZEŃSTWA


Spis treści

 

 

WPROWADZENIE ________________________________________________________              3

POJĘCIA PODSTAWOWE _________________________________________________              7

Podstawowe pojęcia z zakresu probabilistyki – pobieżne przypomnienie _______________              9

PODSTAWOWE CHARAKTERYSTYKI NIEZAWODNOŚCI OBIEKTÓW

NIENAPRAWIALNYCH __________________________________________________              13

EMPIRYCZNE OSZACOWANIE WSKAŹNIKÓW NIEZAWODNOŚCI ____________              17

MODELOWANIE CZASU ZDATNOŚCI OBIEKTU PRZY UŻYCIU

ROZKŁADÓW TEORETYCZNYCH _______________________________________              18

OBIEKTY ZŁOŻONE ____________________________________________________              23

PODSTAWOWE STRUKTURY NIEZAWODNOŚCIOWE _____________________              26

NADMIARY _____________________________________________________________              36

ANALIZOWANIE NIEZAWODNOŚCI METODĄ DRZEWA USZKODZEŃ _____              44

ANALIZA RODZAJÓW I SKUTKÓW USZKODZEŃ _________________________              52

OBIEKTY ODNAWIALNE ________________________________________________              54

PROCES ODNOWY _______________________________________________________              55

FUNKCJA ODNOWY _____________________________________________________              55

ANALIZOWANIE NIEZAWODNOŚCI OBIEKTÓW ODNAWIALNYCH ________              56

ZASTOSOWANIE PROCESÓW MARKOWA DO OCENY NIEZAWODNOŚCI

OBIEKTÓW _____________________________________________________________              57


WPROWADZENIE

 

Gwałtowny wzrost liczby obiektów technicznych w bezpośrednim otoczeniu człowieka i coraz większy stopień uzależnienia się człowieka od szeroko pojętej techniki sprawiły, że szczególnie istotne stały się zagadnienia związane ze zwiększaniem skuteczności działania różnego rodzaju urządzeń. Każde z nich powinno pracować bezawaryjnie, a jego ewentualne uszkodzenie nie powinno powodować następstw groźnych dla użytkownika i otoczenia. Z wielu przykładami, w których prawidłowe funkcjonowanie urządzenia ma bezpośredni wpływ na nasze życie spotykamy się codziennie.

Dyscyplina naukowa, zajmująca się opracowywaniem metod i sposobów postępowania w trakcie projektowania, wytwarzania, odbioru, transportowania i przechowywania oraz eksploatowania obiektów, mająca na celu zapewnienie skutecznego i bezpiecznego ich zastosowania, nazwana została teorią niezawodności i bezpieczeństwa.

Teoria niezawodności zajmuje się wykrywaniem praw rządzących występowaniem uszkodzeń, metodami ich prognozowania, opracowaniem sposobów podwyższania niezawodności obiektów. Większość zagadnień teorii niezawodności wymaga zastosowania metod matematycznych - w szczególności rachunku prawdopodobieństwa i statystyki matematycznej. Wynika to nie ze specyficznych zainteresowań oderwanych od rzeczywistości „teoretyków”, ale z samej istoty problemów. Niezależnie od tego jak starannie dąży się do zachowania stałości procesu przemysłowego, jednorodności stosowanych materiałów i niezmienności technologii wytwarzania, nie jest możliwe uniknięcie pewnych wahań, których efektem będzie rozrzut wartości poszczególnych cech, z pozoru jednakowych wyrobów. Wyroby te eksploatowane są w różnorodnych warunkach i poddane oddziaływaniom o charakterze przypadkowym. Czas poprawnej pracy poszczególnych wyrobów ma znaczny rozrzut i nie można precyzyjnie określić, jaką wartość przyjmie w odniesieniu do jednego, dowolnie wybranego. Jeżeli rozpatrywać będzie się pewną zbiorowość wyrobów tego samego rodzaju, to posługując się narzędziami statystyki matematycznej można, z wystarczającą dokładnością, przewidzieć, jaki procent z nich nie uszkodzi się w danym przedziale czasu. Wzrost stopnia złożoności urządzeń, wynikający ze zwiększania liczby funkcji, jaką mają one do spełnienia, powoduje zmniejszenie prawdopodobieństwa ich jednoczesnego działania. Zadaniem teorii niezawodności jest opracowanie zasad konstruowania urządzeń złożonych w taki sposób, aby były one zdolne do działania, nawet po uszkodzeniu pewnej liczby ich elementów. Zazwyczaj straty spowodowane zawodnością urządzeń nie ograniczają się jedynie do kosztów naprawy samego urządzenia, ale również obejmują koszty usuwania następstw uszkodzenia w otoczeniu, jak również „koszty utraconych szans”.

Prace zmierzające do zapewnienia odpowiedniej niezawodności urządzenia muszą być podejmowane już na etapie projektowania i konstruowania. Należy odpowiednio określić zadania, jakie stawia się przed projektowanym urządzeniem, rozpoznać obciążenia i inne oddziaływania środowiska, dobrać stosowne materiały, rozpoznać procesy powstawania uszkodzeń, przeanalizować scenariusze potencjalnych uszkodzeń i ich możliwe następstwa. Opracowane powinny zostać odpowiednie procedury badań odbiorczych, zasady postępowania z obiektem w czasie jego eksploatowania obejmujące tzw. profilaktykę techniczną, zasady diagnozowania. Niezawodność jako dyscyplina naukowa obejmuje wiele koncepcji, wskaźników, narzędzi matematycznych, jak również metody pomiaru i prognozowania wartości wykorzystywanych wskaźników.

Teoria niezawodności rozwinęła się stosunkowo późno w porównaniu z innymi obszarami wiedzy inżynierskiej. Sam termin niezawodność, w technicznym znaczeniu tego słowa, liczy sobie zaledwie kilkadziesiąt lat - został po raz pierwszy użyty jako pojęcie techniczne po I Wojnie Światowej. Określono nim liczbę uszkodzeń przypadającą na godzinę lotu, a wskaźnik ten wykorzystywano do porównywania własności samolotów jedno i wielosilnikowych (Arnljot Hoyland, Marvin Rausand).

Trudno jest w sposób jednoznaczny wskazać pierwsze prace z zakresu niezawodności. Post factum zaliczyć można do nich badania poświęcone trwałości łożysk dla taboru kolejowego prowadzone już pod koniec XIX wieku. Początkowo przedmiotem zainteresowania były systemy mechaniczne i zagadnienia związane z wydłużeniem czasu ich działania. Istotnym czynnikiem rozwoju badań o charakterze niezawodnościowym był gwałtowny rozwój elektrotechniki i wprowadzanie nadmiarów, w postaci np. równoległych uzwojeń w transformatorach, do konstruowanych urządzeń. Za początki wykorzystywania danych o charakterze statystycznym uważa się gromadzenie danych o częstości uszkodzeń elementów samolotów, a w szczególności silników lotniczych. Posłużyły one do doskonalenia tych elementów i określenia kierunków ich rozwoju. Ogólnie rzecz ujmując przed latami czterdziestymi XX wieku zagadnienia związane z niezawodnością i bezpieczeństwem obiektów technicznych były rozpatrywane w sposób intuicyjny, na ogół na podstawie subiektywnego „doświadczenia i nosa inżynierskiego”. Metody służące zagwarantowaniu niezawodności były bardziej wytworem sztuki niż wiedzy o charakterze naukowym. Wzrost zainteresowania społeczeństw zagadnieniami niezawodności miał miejsce po pojawieniu się doniesień o wielkich katastrofach z udziałem wytworów techniki takich, jak np. zatonięcie Titanica. Pierwsi inżynierowie zajmujący się niezawodnością doszli do wniosku, że obiekt jest tak trwały jak długo działa najsłabszy jego element. Łańcuch gdy będzie rosła siła, z którą jest rozciągany pęknie wtedy, gdy rozerwane zostanie najsłabsze jego ogniwo. Problem sprowadzono, zatem do odnalezienia, a następnie wzmocnienia „najsłabszego ogniwa”. Tę teorię ogłosił w 1926 r. Peirce. Na początku lat trzydziestych Walter Shewhart, Harold F. Dodge i Harry G. Roming stworzyli teoretyczne podstawy wykorzystania metod statystycznych do kontroli jakości wyrobów produkowanych masowo. Szersze ich zastosowanie można jednak zaobserwować dopiero po wybuchu II Wojny Światowej i przestawieniu gospodarek wielu krajów na wielkoseryjną produkcję zbrojeniową.

Za pierwsze modele służące prognozowaniu niezawodności uważa się te, które opracowano w Niemczech w czasie prac nad latającą bombą V1. Upadła teoria najsłabszego ogniwa, która dłuższy czas opóźniała prace zespołu konstrukcyjnego. Nie sposób było wyszukać to najsłabsze ogniwo, następujące po sobie kolejne katastrofy wywoływane były uszkodzeniami najrozmaitszych elementów. Prowadzący prace zespół doszedł do przekonania, ze niezawodność obiektu nie jest determinowana tylko przez najgorszy z nich, ale w jakiś sposób zależy od wszystkich elementów składowych. Matematyczne rozwiązanie problemu opracował Eric Pieruschka. Z jego prac wynikało, że niezawodność rozpatrywanego urządzenia jest dramatycznie mniejsza od niezawodności jego elementów, gdyż wyraża się iloczynem niezawodności wszystkich elementów składowych tzw. prawo Lussnera. Pocisk V1 podaje się za przykład pierwszego w pełni przemyślanego opracowania wymagań, co do niezawodności całego systemu i jego elementów składowych i pomyślnego zweryfikowania ich w praktyce.

W USA w latach czterdziestych działania zmierzające do podniesienia niezawodności skoncentrowano na zagadnieniach związanych z jakością projektowania i wytwarzania. Dla przykładu firma GM dzięki tego rodzaju działaniom czterokrotnie wydłużyła trwałość silników lokomotyw spalinowych. W tym samym okresie zastosowano metody probabilistyczne do określenia wielkości systemów przesyłu energii elektrycznej.

Po II Wojnie Światowej nastąpił dalszy rozwój teorii niezawodności, będący wynikiem wprowadzenia do masowej produkcji wyrobów o złożonej budowie, zawierających wielką liczbę elementów takich jak: odbiorniki telewizyjne, maszyny liczące itp. Do tego rozwoju przyczyniła się również automatyzacja produkcji, wymagająca niezawodnie i bezpiecznie działających systemów sterowania.

W latach pięćdziesiątych wzrost poziomu złożoności systemów elektronicznych, w szczególności o charakterze militarnym, zaowocował pojawieniem się problemów z utrzymaniem odpowiedniego poziomu ich gotowości i dramatycznym wzrostem kosztów tego utrzymania. Na przykład podaje się, że w 1937 r. na amerykańskim niszczycielu było 60 lamp elektronicznych, w 1952 było ich już 3200. Z raportów docierających do Departamentu Obrony wynikało, że wyposażenie, zawierające wspomniane lampy nadawało się do wykorzystania jedynie przez 30% wymaganego czasu. Wojna Koreańska dostarczyła kolejnych niezwykle interesujących obserwacji – na jeden dolar wydany na zainstalowanie wyposażenia elektronicznego przypadało w ciągu roku dwa dolary wydane na utrzymanie tego wyposażenia w stanie zdatności. Powoli do powszechnej świadomości dotarło, że lepiej jest dążyć do stworzenia niezawodnego urządzenia niż czekać na wystąpienie uszkodzenia i być zmuszonym do jego usuwania. W USA w latach pięćdziesiątych wprowadzono pierwsze wymagania niezawodnościowe, co do elementów wytwarzanych jako produkcja masowa tzw. American Military Standard.

W epoce rewolucji elektronicznej i miniaturyzacji obwodów elektronicznych jakość elementów stosowanych w produkcji urządzeń nabrała podstawowego znaczenia. Opracowano odpowiednie techniki i normy ich wytwarzania i badań, które zastosowała między innymi NASA. W 1954 roku zorganizowano pierwsze Międzynarodowe Sympozjum Niezawodności i Obsługiwalności.

W latach sześćdziesiątych pojawiły się nowe techniki niezawodnościowe i poszerzył się zakres ich zastosowań. Dokonano pierwszych analiz rodzajów uszkodzeń i ich wpływu na własności systemu oraz na bezpieczeństwo osób i mienia. W szczególności techniki te rozwinęły się w przemyśle lotniczym i kosmicznym. Analizowanie skutków przewidywanych uszkodzeń odgrywało istotną rolę w szczególności w zagadnieniach związanych z systemami przenoszenia broni atomowej. Analizy prowadzono wykorzystując metody blokowych schematów niezawodności. W 1961 w Bell Telephone Laboratories wprowadzono koncepcję drzewa uszkodzeń, jako metodę oceny bezpieczeństwa systemu sterowania wyrzutniami pocisków Minuteman. Koncepcję tę rozwinięto na potrzeby firmy Boeing. Metoda analizy rodzajów i skutków uszkodzeń (FMEA) wykorzystywana przez MacDonnell Douglas została wprowadzona do wymagań prawnych nałożonych na amerykański przemył lotniczy w końcu lat sześćdziesiątych. Podobne prace prowadzono we Francji w ramach projektów Concorde i Airbus. Metody prognozowania niezawodności zuostały wykorzystane przez NASA w ramach programu Apollo. W przemysłach lotniczych wielu krajów wprowadzono probabilistyczne miary niezawodności i bezpieczeństwa oparte na klasyfikacji uszkodzeń.

Zagadnienia niezawodności i bezpieczeństwa nabrały szczególnego znaczenia wraz z szybkim rozwojem energetyki jądrowej. W 1975 r. opublikowane zostały wyniki prac z tego zakresu, którymi kierował Norman Rasmussen, w tym Metoda Drzewa Zdarzeń. Rozpatrzono wiele scenariuszy potencjalnych wypadków w elektrowniach atomowych i ich następstw dla ludności i środowiska. Po wypadku w elektrowni Three Mile Island okazało się, że tzw. Raport Rasmussena zawierał prawie dokładny scenariusz tego wypadku. Stało się to dodatkowym impulsem do intensyfikacji prac w tym obszarze. Na zlecenie rządu USA w latach osiemdziesiątych opracowano „Przewodnik Wykonania Oceny Ryzyka Dla Elektrowni Atomowych” jak również prowadzono prace odnośnie jakościowych i ilościowych aspektów tzw. czynników ludzkich w ocenach ryzyka.

W latach osiemdziesiątych metody teorii niezawodności i bezpieczeństwa znalazły zastosowanie w przemyśle petrochemicznym, chemicznym, kolejnictwie, przemyśle motoryzacyjnym, systemach oczyszczania ścieków. Zostało to wymuszone przez odpowiednie unormowania prawne bądź wewnętrzne dążenie do podniesienia jakości wyrobów i usług.


POJĘCIA PODSTAWOWE

 

Niezawodność jest złożoną cechą urządzeń technicznych. W pracach z zakresu niezawodności występują różne definicje tej cechy. Można je podzielić na dwie kategorie. Do pierwszej z nich zaliczają się te, które utożsamiają niezawodność z jedną z jej liczbowych miar - najczęściej jest to prawdopodobieństwo tego, że urządzenie będzie prawidłowo wykonywało określone funkcje w określonych warunkach, przez określony czas. Do drugiej zaliczają się te, które ujmują niezawodność w sposób bardziej ogólny, jako zdolność do zachowania zdatności, którą można opisywać przy pomocy wielu miar lub wskaźników. Techniczne znaczenie słowa „niezawodność” obejmuje takie cechy jak nieuszkadzalność, podatność obsługowo - naprawcza, gotowość. Mianem urządzenia niezawodnego można określić urządzenie, które rzadko się uszkadza, a po wystąpieniu uszkodzenia daje się szybko i tanio naprawić. Oczywiście można wskazać takie obiekty, których uszkodzeniom pewnego rodzaju należy zapobiegać wszelkimi sposobami ze względu na potencjalne następstwa takich tzw. „krytycznych” uszkodzeń.

Z pojęciem niezawodności łączy się także pojęcie trwałości obiektu. Za obiekt trwały można uznać taki, który może być długo użytkowany i wielokrotnie naprawiany. Biorąc pod uwagę aktualne uwarunkowania ekonomiczne, techniczne, środowiskowe i społeczne należy dążyć do osiągnięcia  możliwie wysokiej niezawodności obiektu dla przyjętej jego trwałości, mierzonej czasem lub ilością wykonanej pracy. Nie jest możliwe stworzenie obiektu absolutnie niezawodnego gdyż:

- nie można przewidzieć wszystkich oddziaływań i ich rzeczywistej „siły”,

- nie dysponuje się pełną wiedzą jakiego rodzaju procesy będą zachodzić w obiekcie,

- nie jest możliwe całkowite wyeliminowanie wad materiałowych i błędów wytwarzania.

Własność obiektu technicznego nazywana niezawodnością ściśle wiąże się z procesem powstawania uszkodzeń. Przez uszkodzenie można, ogólnie rzecz biorąc, rozumieć zdarzenie losowe, jakim jest taka zmiana fizycznych własności rozpatrywanego obiektu, która powoduje utratę możliwości prawidłowego funkcjonowania. Jeśli rozpatrywane są obiekty, które traktuje się jako złożone – składające się z poszczególnych elementów, to w zależności od funkcji, jaką każdy z elementów ma do wykonania, pojawia się problem wpływu uszkodzeń poszczególnych elementów na zdolność do działania obiektu jako całości. Badanie tego wpływu określa się mianem analizowania struktur niezawodnościowych.

Badania niezawodności stanowią podstawę doskonalenia konstrukcji maszyn i procesów ich wytwarzania, a także służą do właściwego sterowania procesem eksploatacji i odpowiedniej organizacji zaplecza technicznego. Najczęściej badany obiekt traktowany jest jako twór, którego zadaniem jest transformowanie pewnych wielkości do niego „wchodzących” na pewne wielkości z niego „wychodzące” i nie jest brana pod uwagę materialna struktura obiektu. Uznanie obiektu za tzw. „czarną skrzynkę” umożliwia badania statystycznych prawidłowości, jakie można obserwować w zbiorowościach tych obiektów. Z punktu widzenia niezawodności najczęściej przyjmuje się, że obiekt może znajdować się w jednym z dwu wzajemnie wykluczających się stanów. Gdy obiekt jest zdolny do wykonania założonych funkcji jest „zdolny do działania” mówi się o jego zdatności. W przeciwnym przypadku obiekt uważany jest za niezdatny. Oznacza to, że często nieprzeliczalne zbiory stanów technicznych odwzorowywane są w zbiór dwuelementowy. Przy takim podejściu, abstrahując od materialnych właściwości obiektu, można skoncentrować się tylko na rozważaniach czy obiekt ma albo nie taką cechę jak zdatność. Wynika stąd oczywista konieczność zdefiniowania tego, kiedy obiekt uważany jest za zdatny. Bez takiego zdefiniowania trudno jest rozważać i mierzyć niezawodność.

Niezawodność ISO 8402

Zdolność obiektu do wypełnienia wymaganej funkcji, w określonych warunkach środowiskowych i warunkach działania w zadanym przedziale czasu. Termin obiekt oznaczać może element, podsystem lub system, który może być uważany za pewną całość. Wymagana funkcja może być pojedynczą funkcją lub kombinacją wielu funkcji, niezbędną do wykonania określonego działania. Wszystkie obiekty techniczne (elementy, podsystemy, systemy) projektowane są po to, aby wypełniały, co najmniej jedną wymaganą funkcję. Funkcje te można podzielić na aktywne i pasywne. Zanim przystąpi się do oceny niezawodności obiektu wymagane funkcje muszą zostać uprzednio jednoznacznie określone. Obiekt musi nie tylko spełnić wymagania odbiorcze opuszczając zakład, w którym został wytworzony, ale musi zadowalająco działać przez określony czas, gdy jest stosowany zgodnie z przeznaczeniem.

 

Jakość ISO 8402

Ogół właściwości i charakterystyk wyrobu lub usługi dotyczących zdolności do zaspokojenia wymaganych lub zakładanych potrzeb. „Jakość” jest również czasami definiowana jako zgodność z wymaganiami. Jakość wyrobu jest charakteryzowana nie tylko przez zgodność z wymaganiami w momencie dostarczenia go użytkownikowi, ale również przez zdolność spełnienia tych wymagań przez cały czas jego eksploatowania.

 

Gotowość

Zdolność obiektu (przy określonym powiązaniu zagadnień niezawodności, obsługiwalności i zapewnienia obsługi) do wykonania określonej funkcji w danej chwili lub w zadanym przedziale czasu. Można dokonać rozróżnienia między gotowością A(t) w chwili t i przeciętną gotowością Aav.

Gotowość w chwili t dana jest wzorem: A(t) = P(obiekt funkcjonuje w chwili t)

Gdzie P(A) oznacza prawdopodobieństwo zdarzenia A. Termin „funkcjonuje” oznacza tu, że obiekt działa lub jest zdolny do działania, jeśli jest to wymagane. Przeciętna gotowość Aav oznacza średni udział czasu funkcjonowania obiektu. Jeśli rozpatrujemy obiekt, który po każdej naprawie jest tak samo dobry jak nowy to:

gdzie:

MTTF (przeciętny czas do uszkodzenia) - przeciętny czas funkcjonowania obiektu

MTTR (przeciętny czas naprawy) - przeciętny czas przestoju lub naprawy po uszkodzeniu.

 

Obsługiwalność

Zdolność obiektu, w określonych warunkach użytkowania, do utrzymania lub przywrócenia go do stanu, w którym może realizować wymagane funkcje, gdy obsługiwanie jest wykonywane w określonych warunkach przy użyciu zalecanych procedur i środków. „Obsługiwalność” jest zasadniczym czynnikiem determinującym gotowość obiektu.

 


Bezpieczeństwo MIL-STD-882

Brak cech, które mogą powodować śmierć, obrażenia, długotrwałą chorobę, zniszczenie bądź utratę wyposażenia lub mienia. Definicja wywołuje istotne kontrowersje, w szczególności wywołane użyciem słowa „brak”. Większość działań wiąże się z pewnego rodzaju ryzykiem i nigdy nie jest całkowicie od niego wolna. W większości innych definicji bezpieczeństwo jest określane jako akceptowalny poziom ryzyka.

 

Miary niezawodności obiektu

Niezawodność obiektu może być mierzona na wiele sposobów zależnie od okoliczności. Na przykład:

1. Przeciętnym czasem do uszkodzenia (MTTF) – oczekiwanym czasem zdatności ET;

2. Liczbą uszkodzeń przypadających na jednostkę czasu;

3. Prawdopodobieństwem, że obiekt nie ulegnie uszkodzeniu w przedziale czasu (0,t];

4. Prawdopodobieństwem, że obiekt jest zdolny do działania w chwili t.

 

Ilościowe miary niezawodności obiektu nienaprawialnego

Trzy najważniejsze miary to:

Funkcja niezawodności R(t),

Intensywność uszkodzeń λ(t),

Oczekiwany czas zdatności ET (przeciętny czas do uszkodzenia MTTF).

 

Podstawowe pojęcia z zakresu probabilistyki – pobieżne przypomnienie

Ogólnie rzec ujmując, modele matematyczne można podzielić na deterministyczne i probabilistyczne.

Zbudowanie modelu probabilistycznego wymaga określenia:

- zbioru zdarzeń elementarnych;

- rodziny zdarzeń losowych;

- miary probabilistycznej.

Miara probabilistyczna to taka funkcja, która zdarzeniu przyporządkowuje pewną liczbę;

miara ta musi spełniać następujące warunki:

* (prawdopodobieństwo zdarzenia pewnego);

* (prawdopodobieństwo zdarzenia niemożliwego);

Zatem prawdopodobieństwo dowolnego zdarzenia musi spełniać poniższy warunek: 0 P(A) 1

Prawdopodobieństwo warunkowe – prawdopodobieństwo zdarzenia A pod warunkiem zajścia zdarzenia B

prawdopodobieństwo iloczynu tych zdarzeń

Prawdopodobieństwo całkowite

Jeżeli zdarzenie B może zajść pod warunkiem zajścia jednego z n rozłącznych zdarzeń Ai to prawdopodobieństwo zdarzenia B wyraża się wzorem:

Zmienna losowa – pewna wielkość liczbowa, która przyjmuje wartości w zależności od przypadku.

Co jest potrzebne by powiedzieć, że jest znana?

1.               Zbiór wartości, jakie ta zmienna losowa może przyjmować.

2.               Prawdopodobieństwa z jakimi te wartości są przyjmowane.

...

Zgłoś jeśli naruszono regulamin