Sieć neuronowa
Z Wikipedii
Sieć neuronowa (sztuczna sieć neuronowa) to ogólna nazwa struktur matematycznych i ich programowych lub sprzętowych modeli, realizujących obliczenia lub przetwarzanie sygnałów poprzez rzędy elementów wykonujących pewną podstawową operację na swoim wejściu, zwanych neuronami. Oryginalną inspiracją takiej struktury była budowa naturalnych układów nerwowych, w szczególności mózgu.
Czasem mianem sztuczne sieci neuronowe określa się interdyscyplinarną dziedzinę wiedzy zajmującą się konstrukcją, trenowaniem i badaniem możliwości tego rodzaju sieci.
Spis treści |
[edytuj] Zastosowania
Współcześnie nie ma wątpliwości, że sztuczne sieci neuronowe nie stanowią dobrego modelu mózgu, choć różne ich postaci wykazują cechy charakterystyczne dla biologicznych układów neuronowych: zdolność do uogólniania wiedzy, uaktualniania kosztem wcześniej poznanych wzorców, dawanie mylnych odpowiedzi po przepełnieniu. Mimo uproszczonej budowy, sztuczne sieci neuronowe stosuje się czasem do modelowania schorzeń mózgu.
Sztuczne sieci neuronowe znajdują zastosowanie w rozpoznawaniu i klasyfikacji wzorców (przydzielaniu wzorcom kategorii), predykcji szeregów czasowych, analizie danych statystycznych, odszumianiu i kompresji obrazu i dźwięku oraz w zagadnieniach sterowania i automatyzacji.
Magazyn BYTE wymienia między innymi następujące zastosowania tych sieci:
- diagnostyka układów elektronicznych
- badania psychiatryczne
- prognozy giełdowe
- prognozowanie sprzedaży
- poszukiwania ropy naftowej
- interpretacja badań biologicznych
- prognozy cen
- analiza badań medycznych
- planowanie remontów maszyn
- planowanie postępów w nauce
- analiza problemów produkcyjnych
- optymalizacja działalności handlowej
- analiza spektralna
- optymalizacja utylizacji odpadów
- dobór surowców
- selekcja celów śledztwa w kryminalistyce
- dobór pracowników
- sterowanie procesów przemysłowych
Najpopularniejsze obecnie zastosowanie sieci neuronowych:
- w programach do rozpoznawania pisma (OCR)
- na lotniskach do sprawdzania, czy prześwietlony bagaż zawiera niebezpieczne ładunki
- do syntezy mowy
- w prognozach giełdowych.
[edytuj] Typy sieci neuronowych
Cechą wspólną wszystkich sieci neuronowych jest to, że na ich strukturę składają się neurony połączone ze sobą synapsami. Z synapsami związane są wagi, czyli wartości liczbowe, których interpretacja zależy od modelu.
[edytuj] Sieci jednokierunkowe
Sieci jednokierunkowe to sieci neuronowe, w których nie występuje sprzężenie zwrotne, czyli pojedynczy wzorzec lub sygnał przechodzi przez każdy neuron dokładnie raz w swoim cyklu. Najprostszą siecią neuronową jest pojedynczy perceptron progowy, opracowany przez McCullocha i Pittsa w roku 1943.
W bardziej zaawansowanych rozwiązaniach stosuje się funkcje przejścia. Najpopularniejszą klasę funkcji stosowanych w sieciach neuronowych stanowią funkcje sigmoidalne, np. tangens hiperboliczny. Sieć zbudowana z neuronów wyposażonych w nieliniową funkcję przejścia ma zdolność nieliniowej separacji wzorców wejściowych. Jest więc uniwersalnym klasyfikatorem.
Do uczenia preceptronów wielowarstwowych stosuje się algorytmy spadku gradientowego, między innymi algorytm propagacji wstecznej.
[edytuj] Sieci rekurencyjne
Mianem sieci rekurencyjnej określa się sieć, w której połączenia między neuronami stanowią graf z cyklami. Wśród różnorodności modeli rekurencyjnych sztucznych sieci neuronowych wyróżnić można:
- sieć Hopfielda - układ gęsto połączonych ze sobą neuronów (każdy z każdym, ale bez połączeń zwrotnych) realizującą dynamikę gwarantującą zbieżność do preferowanych wzorców
- maszyna Boltzmanna - opracowana przez Hintona i T. Sejnowskiego stochastyczna modyfikacja sieci Hopfielda; modyfikacja ta pozwoliła na uczenie neuronów ukrytych i likwidację wzorcow pasożytniczych, kosztem zwiększenia czasu symulacji.
Sieci Hopfielda i maszyny Boltzmanna stosuje się jako pamięci adresowane kontekstowo, a także do rozwiązywania problemów minimalizacji (np. problemu komiwojażera).
[edytuj] Samoorganizujące się mapy
Samoorganizujące się mapy (Self Organizing Maps, SOM), zwane też sieciami Kohonena to sieci neuronów, z którymi są stowarzyszone współrzędne na prostej, płaszczyźnie lub w dowolnej n-wymiarowej przestrzeni.
Uczenie tego rodzaju sieci polega na zmianach współrzędnych neuronów, tak aby dążyły one do wzorca zgodnego ze strukturą analizowanych danych. Sieci zatem "rozpinają się" wokół zbiorów danych, dopasowując do nich swoją strukturę.
Sieci te stosowane są do klasyfikacji wzorców, np. głosek mowy ciągłej, tekstu, muzyki. Do najciekawszych zastosowań należy rozpinanie siatki wokół komputerowego modelu skanowanego obiektu.
[edytuj] Inne
Popularnymi modelami są również maszyny wektorów wspierających (SVM) i sieci oparte na radialnych funkcjach bazowych (sieci radialne, RBF). Stosunkowo nowym modelem są sieci oparte na neuronach impulsujących.
Zobacz też: logika rozmyta, sztuczna inteligencja.