Model autoregresyjny (rzędu ) opisuje procesy dyskretne, w których wartość sygnału w danej chwili jest sumą liniowej kombinacji wartości poprzednich i nieskorelowanego szumu
W każdej realizacji tego samego procesu (dla tych samych współczynników i wartości początkowych sygnału), są niezależnymi liczbami losowymi, więc o wartości w konkretnej chwili możemy mówić tylko językiem prawdopodobieństwa.
|
Mimo tego, na podstawie współczynników AR możemy określić wiele ogólnych własności sygnału, np. wartość oczekiwaną (w praktyce estymowaną przez wartość średnią) i wariancję (jej estymatorem jest kwadratów odchyleń wartości sygnału od wartości oczekiwanej), a nawet widmo mocy. Można również rozważać szersze klasy modeli tego typu, jak np. model MA (ruchomej średniej -- moving average), gdzie uśredniamy zamiast , czy proces mieszany ARMA [4,10].
Najprostszym przykładem jest proces liniowy Markowa, czyli proces AR pierwszego rzędu (dla będzie to błądzenie przypadkowe):
(2.36) |
Jeśli wartość oczekiwana wynosi 0 ( ) a wariancja , to wariancja w punkcie
Autokowariancja
Dla przy
Proces jest asymptotycznie stacjonarny do rzędu 2, czyli wariancja i średnia nie zależą od czasu.
Na podstawie znajomości samego współczynnika modelu AR(1) policzyliśmy np. funkcję autokorelacji modelu, co daje już znajomość widma procesu (z tw. Wienera-Chinczyna, str. ). Podobnie w procesach wyższych rzędów (równanie 2.35) znajomość współczynników daje nam dokładną wiedzę o własnościach generowanych przez nie procesów, bez znajomości sygnału , którego wartości mogą różnić się w kolejnych realizacjach ze względu na element stochastyczny -- szum .
W praktyce analizy sygnału postępujemy odwrotnie -- do konkretnej realizacji dopasowujemy model AR. Głównym problemem jest wybór rzędu modelu, estymacja współczynników najlepiej pasujących do danego sygnału posiada stabilne rozwiązania.
Jeśli dozwolimy, aby sygnał zależał również bezpośrednio od poprzednich wartości szumu , dostajemy pełną postać procesu ARMA(L,M) (auto-regressive moving average):