Rekurencyjna sieć neuronowa (RNN) to rodzaj sztucznej sieci neuronowej, w której połączenia między węzłami tworzą ukierunkowany wykres wzdłuż sekwencji czasowej. Dzięki temu może wykazywać tymczasowe, dynamiczne zachowanie, dzięki czemu nadaje się do zadań wymagających danych sekwencyjnych.
W sieciach neuronowych RNN odnosi się do klasy modeli zaprojektowanych do rozpoznawania wzorców w sekwencjach danych, takich jak szeregi czasowe, mowa lub tekst. Sieci RNN mogą przetwarzać dane wejściowe o różnej długości, utrzymując stan ukryty, który przechwytuje informacje z poprzednich kroków w sekwencji.
RNN oznacza rekurencyjną sieć neuronową. Podkreśla zdolność sieci do obsługi sekwencji poprzez „rekurencyjne” połączenia, które zapętlają się w sieci.
RNN są stosowane w różnych dziedzinach, takich jak modelowanie języka, tłumaczenie maszynowe, rozpoznawanie mowy i przewidywanie szeregów czasowych. Są one szczególnie przydatne w zadaniach, w których kontekst poprzednich danych wejściowych wpływa na bieżące wyjście.
Podstawowa sieć RNN składa się z warstwy neuronów, gdzie sygnał wyjściowy każdego neuronu w każdym kroku czasowym jest wprowadzany z powrotem do sieci wraz z następnym wejściem. Ta pętla sprzężenia zwrotnego umożliwia sieci utrzymanie stanu ukrytego, który przenosi informacje z poprzednich wejść, umożliwiając jej przetwarzanie sekwencji danych.