Termin „rekurencyjny” w rekurencyjnej sieci neuronowej (RNN) odnosi się do zdolności tych sieci neuronowych do sekwencyjnego przetwarzania danych wejściowych. W przeciwieństwie do tradycyjnych sieci neuronowych z wyprzedzeniem, które przetwarzają dane w ustalonej kolejności od wejścia do wyjścia, sieci RNN mogą utrzymywać pamięć o przeszłych danych wejściowych poprzez stany ukryte. Pamięć ta umożliwia sieciom RNN przechwytywanie zależności czasowych w danych sekwencyjnych, dzięki czemu dobrze nadają się do zadań takich jak przewidywanie szeregów czasowych, przetwarzanie języka naturalnego i rozpoznawanie mowy.
Rekurencyjna sieć neuronowa (RNN) to rodzaj sztucznej sieci neuronowej przeznaczonej do przetwarzania danych sekwencyjnych. Składa się z jednostek sieci neuronowej zorganizowanych w warstwy, gdzie każda jednostka utrzymuje pamięć lub stan, który przechwytuje informacje o poprzednich danych wejściowych. Umożliwia to sieciom RNN uczenie się wzorców i relacji w danych sekwencyjnych poprzez rekurencyjne stosowanie tego samego zestawu wag do każdego wejścia w sekwencji. Powtarzające się połączenia w sieciach RNN umożliwiają im obsługę sekwencji o zmiennej długości i zależności modelu w czasie, co czyni je potężnymi narzędziami do zadań wymagających modelowania czasowego.
Warstwa rekurencyjna w sieci neuronowej odnosi się do określonego typu warstwy zaprojektowanej tak, aby zawierała powtarzające się połączenia między swoimi jednostkami. Połączenia te umożliwiają warstwie zachowanie pamięci poprzednich danych wejściowych i propagowanie informacji w krokach czasowych w ramach danych sekwencyjnych. Typowe typy warstw rekurencyjnych obejmują SimpleRNN, LSTM (Long Short-Term Memory) i GRU (Gated Recurrent Unit), z których każdy oferuje różne mechanizmy pozwalające stawić czoła wyzwaniom, takim jak zanikające gradienty i przechwytywanie długoterminowych zależności.
Terminy „rekurencyjny” i „rekurencyjny” odnoszą się do różnych koncepcji sieci neuronowych. Rekurencyjne sieci neuronowe (RNN) wykorzystują połączenia rekurencyjne do utrzymywania pamięci w czasie w danych sekwencyjnych, co pozwala im na obsługę takich zadań, jak przewidywanie szeregów czasowych i przetwarzanie języka naturalnego. Z drugiej strony, rekurencyjne sieci neuronowe (RvNN) mają strukturę hierarchiczną, a węzły rekurencyjnie wykonują te same operacje wobec swoich węzłów podrzędnych. RvNN są powszechnie używane w zadaniach obejmujących hierarchiczne lub drzewiaste struktury danych, takich jak analizowanie i analiza tonacji zdań ustrukturyzowanych jako drzewa analizy.
Splot rekurencyjny odnosi się do architektury hybrydowej sieci neuronowej, która łączy rekurencyjne sieci neuronowe (RNN) ze splotowymi sieciami neuronowymi (CNN). Podejście to ma na celu wykorzystanie mocnych stron obu architektur: sieci CNN do ekstrakcji cech przestrzennych i sieci RNN do modelowania sekwencyjnego. W przypadku splotu rekurencyjnego warstwy splotowe są zwykle używane do wyodrębniania cech przestrzennych z danych wejściowych, takich jak obrazy lub szeregi czasowe, podczas gdy warstwy rekurencyjne przetwarzają te cechy w czasie lub sekwencji. Ta hybrydowa architektura jest szczególnie skuteczna w przypadku zadań wymagających modelowania kontekstu przestrzennego i czasowego, takich jak analiza wideo, rozpoznawanie działań i rozpoznawanie mowy.