Potencia y Energía de una señal
editar
Para una señal x(t) arbitraria una forma habitual de caracterizarla suele ser en función de la potencia (no confundir con energía), ya que nos dice el gasto que nos supone enviar o transmitir esa señal. Así, una señal con mas potencia que otra podrá enviarse hasta lugares mas remotos, mientras una señal de potencia débil, a igualdad de factor de atenuación en el medio de propagación, se devanecerá más rápidamente, limitando la distancia máxima de su alcance. Igualmente, una señal de mas potencia requerirá mas gasto del sistema eléctrico.
Resumiendo, la potencia nos dice la energía de una señal por unidades de tiempo , y su unidad son los wattios.
La energía es atemporal y se mide en Joules. Por lo dicho anteriormente, la potencia y la energía de una señal están relacionados entre sí. Definamos pues la potencia y la energía de una señal x(t).
P
x
=
lim
T
→
∞
1
2
T
⋅
∫
−
T
T
|
x
(
t
)
|
2
∂
t
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∫
−
∞
∞
x
(
t
)
⋅
x
∗
(
t
)
∂
t
P
x
=
lim
T
→
∞
E
x
T
{\displaystyle {\begin{aligned}&P_{x}={\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {1}{2T}}\cdot \int \limits _{-T}^{T}{\left|x(t)\right|^{2}}\partial t\\&E_{x}=\int _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t=}\int _{-\infty }^{\infty }{x(t)\cdot x^{*}(t)\partial t}\\&P_{x}={\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {E_{x}}{T}}\\\end{aligned}}}
Es importante recalcar las unidades de cada uno para ver así la diferencia entre una medida y la otra.
E se mide en Joules(J). La potencia, se mide en Joules entre s (J/s). Por lo dicho anteriormente, wattios = J/s.
También, en un sentido mas amplio, se define la energía de una señal respecto a otra, o la energía cruzada.
E
y
x
=
∫
−
∞
∞
y
(
t
)
x
∗
(
t
)
∂
t
{\displaystyle E_{yx}=\int _{-\infty }^{\infty }{y(t)x^{*}}(t)\partial t}
Debido a las propiedades de la transformada de Fourier , concretamente a Parseval, tenemos que:
E
y
x
=
∫
−
∞
∞
y
(
t
)
x
∗
(
t
)
∂
t
=
∫
−
∞
∞
Y
(
f
)
X
∗
(
f
)
⏟
Densidad
espectral
de energia
d
f
{\displaystyle E_{yx}=\int _{-\infty }^{\infty }{y(t)x^{*}}(t)\partial t=\int _{-\infty }^{\infty }{\underbrace {Y(f)X^{*}(f)} _{\begin{smallmatrix}{\text{Densidad }}\\{\text{espectral}}\\{\text{de energia}}\end{smallmatrix}}}df}
Veamos unos ejemplos:
E
j
I
:
x
(
t
)
=
A
⋅
∏
(
t
T
)
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∫
−
∞
∞
[
A
⋅
∏
(
t
T
)
]
2
∂
t
=
∫
−
∞
∞
A
2
⋅
∏
(
t
T
)
∂
t
=
∫
−
T
╱
2
T
╱
2
A
2
⋅
1
∂
t
=
A
2
⋅
t
|
−
T
╱
2
T
╱
2
=
A
2
⋅
T
E
j
I
I
:
x
(
t
)
=
e
−
a
t
u
(
t
)
,
a
<
1
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∫
−
∞
∞
[
e
−
a
t
u
(
t
)
]
2
∂
t
=
∫
−
∞
∞
e
−
2
a
t
u
(
t
)
∂
t
=
∫
0
∞
e
−
2
a
t
∂
t
=
e
−
2
a
t
−
2
a
|
0
∞
=
1
2
a
{\displaystyle {\begin{aligned}&Ej{\text{ }}I:\\&x(t)=A\cdot \prod {\left({\frac {t}{T}}\right)}\\&E_{x}=\int \limits _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t}=\int \limits _{-\infty }^{\infty }{\left[A\cdot \prod {\left({\frac {t}{T}}\right)}\right]^{2}\partial t}=\int \limits _{-\infty }^{\infty }{A^{2}\cdot \prod {\left({\frac {t}{T}}\right)}\partial t}=\int \limits _{-{}^{T}\!\!\diagup \!\!{}_{2}\;}^{{}^{T}\!\!\diagup \!\!{}_{2}\;}{A^{2}\cdot 1\partial t}=\left.A^{2}\cdot t\right|_{{}^{-T}\!\!\diagup \!\!{}_{2}\;}^{{}^{T}\!\!\diagup \!\!{}_{2}\;}=A^{2}\cdot T\\&Ej{\text{ }}II:\\&x(t)=e^{-at}u(t),a<1\\&E_{x}=\int \limits _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t}=\int \limits _{-\infty }^{\infty }{\left[e^{-at}u(t)\right]^{2}\partial t=}\int \limits _{-\infty }^{\infty }{e^{-2at}u(t)\partial t=}\int \limits _{0}^{\infty }{e^{-2at}\partial t=\left.{\frac {e^{-2at}}{-2a}}\right|}_{0}^{\infty }={\frac {1}{2a}}\\\end{aligned}}}
En la comunicaciones, es común usar senoidales para la transmision de las señales. Las senoidales, como todos sabemos, son periódicas:
E
j
I
I
I
:
x
(
t
)
=
A
cos
(
ω
0
t
)
=
A
cos
(
2
π
f
0
t
)
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∫
−
∞
∞
A
cos
(
2
π
f
0
t
)
⋅
A
cos
∗
(
2
π
f
0
t
)
⏟
es real
, por lo
que da igual
∂
t
=
A
2
∫
−
∞
∞
cos
2
(
2
π
f
0
t
)
∂
t
=
A
2
⋅
∞
=
∞
{\displaystyle {\begin{aligned}&Ej{\text{ }}III:\\&x(t)=A\cos(\omega _{0}t)=A\cos(2\pi f_{0}t)\\&E_{x}=\int _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t=}\int _{-\infty }^{\infty }{A\cos(2\pi f_{0}t)\cdot A\underbrace {\cos ^{*}(2\pi f_{0}t)} _{\begin{smallmatrix}{\text{es real}}{\text{, por lo}}\\{\text{que da igual}}\end{smallmatrix}}\partial t=}A^{2}\int _{-\infty }^{\infty }{\cos ^{2}(2\pi f_{0}t)\partial t=}A^{2}\cdot \infty =\infty \\\end{aligned}}}
Como vemos, la energía de un coseno es infinita, no es que hayamos hecho nada mal, sino que, como es lógico, si una señal se propaga hasta el infinito, es lógico pensar que tenga infinita energía.
Ahora bien, también nos interesar saber la energía en un intervalo concreto de tiempo, pongamos por ejemplo un periodo, un tiempo de bit....
E
j
I
V
:
x
(
t
)
=
A
cos
(
2
π
f
0
t
)
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∞
E
x
T
=
E
T
=
∫
−
T
╱
2
T
╱
2
|
x
(
t
)
|
2
∂
t
=
∫
−
T
0
╱
2
T
0
╱
2
A
2
cos
2
(
2
π
f
0
t
)
⏟
Par
∂
t
=
2
∫
0
T
0
╱
2
A
2
1
+
cos
(
2
⋅
2
π
f
0
t
)
2
⏟
cos
2
(
)
∂
t
=
A
2
⋅
t
+
sin
(
2
⋅
2
π
f
0
t
)
2
⋅
2
π
f
0
|
0
T
0
╱
2
=
A
2
⋅
(
T
0
2
+
sin
(
2
⋅
2
π
f
0
T
0
╱
2
)
−
0
2
⋅
2
π
f
0
)
→
f
0
=
1
╱
T
0
A
2
⋅
(
T
0
2
+
sin
(
2
π
)
−
0
2
⋅
2
π
f
0
)
=
E
T
=
A
2
2
⋅
T
0
{\displaystyle {\begin{aligned}&Ej{\text{ }}IV:\\&x(t)=A\cos(2\pi f_{0}t)\\&E_{x}=\int _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t=\infty }\\&E_{x_{T}}=E_{T}=\int \limits _{{}^{-T}\!\!\diagup \!\!{}_{2}\;}^{{}^{T}\!\!\diagup \!\!{}_{2}\;}{\left|x(t)\right|^{2}\partial t}=\int \limits _{{}^{-T_{0}}\!\!\diagup \!\!{}_{2}\;}^{{}^{T_{0}}\!\!\diagup \!\!{}_{2}\;}{A^{2}\underbrace {\cos ^{2}(2\pi f_{0}t)} _{\text{Par}}\partial t}=2\int \limits _{0}^{{}^{T_{0}}\!\!\diagup \!\!{}_{2}\;}{A^{2}\underbrace {\frac {1+\cos(2\cdot 2\pi f_{0}t)}{2}} _{\cos ^{2}()}\partial t}=\\&A^{2}\cdot \left.t+{\frac {\sin(2\cdot 2\pi f_{0}t)}{2\cdot 2\pi f_{0}}}\right|_{0}^{{}^{T_{0}}\!\!\diagup \!\!{}_{2}\;}=A^{2}\cdot \left({\frac {T_{0}}{2}}+{\frac {\sin \left(2\cdot 2\pi f_{0}{}^{T_{0}}\!\!\diagup \!\!{}_{2}\;\right)-0}{2\cdot 2\pi f_{0}}}\right){\xrightarrow[{f_{0}={}^{1}\!\!\diagup \!\!{}_{T_{0}}\;}]{}}A^{2}\cdot \left({\frac {T_{0}}{2}}+{\frac {\sin \left(2\pi \right)-0}{2\cdot 2\pi f_{0}}}\right)=\\&E_{T}={\frac {A^{2}}{2}}\cdot T_{0}\\\end{aligned}}}
En una transmision digital, también nos puede intersar conocer la energía por bit. Supongamos una transmision de pulsos cuadrados:
x
(
t
)
=
{
A
⋅
∏
(
t
T
b
)
,
a
k
=
′
1
′
0
,
a
k
=
′
0
′
E
b
=
0.5
⋅
E
′
1
′
+
0.5
⋅
E
′
0
′
E
′
1
′
=
∫
−
T
b
╱
2
T
b
╱
2
|
x
(
t
)
|
2
∂
t
=
A
2
⋅
T
b
E
′
0
′
=
0
E
b
=
A
2
⋅
T
b
2
{\displaystyle {\begin{aligned}&x(t)=\left\{{\begin{aligned}&A\cdot \prod {\left({\frac {t}{T_{b}}}\right)},{\text{ }}a_{k}='1'\\&0,{\text{ }}a_{k}='0'\\\end{aligned}}\right.\\&E_{b}=0.5\cdot E_{'1'}+0.5\cdot E_{'0'}\\&E_{'1'}=\int \limits _{{}^{-T_{b}}\!\!\diagup \!\!{}_{2}\;}^{{}^{T_{b}}\!\!\diagup \!\!{}_{2}\;}{\left|x(t)\right|^{2}\partial t}=A^{2}\cdot T_{b}\\&E_{'0'}=0\\&E_{b}={\frac {A^{2}\cdot T_{b}}{2}}\\\end{aligned}}}
Con lo que obtenemos la energía media transmitida por bit. Pero dejemos las transmisiones digitales en el tema que les corresponde :)
Volvamos ahora al ejemplo del coseno. Hemos visto que su energía es infinita, pero hemos calculado su energía en un periodo concreto. Ahora, calculemos a potencia del coseno, esto es, su energía por unidad de tiempo, al ser los wattios = J/s, solo tenemos que dividir por el tiempo integrado de la señal.
x
(
t
)
=
A
cos
(
2
π
f
0
t
)
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∞
E
T
=
A
2
2
⋅
T
0
P
x
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
E
T
T
P
x
=
1
T
0
⋅
(
A
2
2
⋅
T
0
)
=
A
2
2
{\displaystyle {\begin{aligned}&x(t)=A\cos(2\pi f_{0}t)\\&E_{x}=\int _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t=\infty }\\&E_{T}={\frac {A^{2}}{2}}\cdot T_{0}\\&P_{x}={\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {1}{T}}\cdot \int \limits _{-\infty }^{\infty }{\left|x(t)\right|^{2}}\partial t={\text{ }}{\frac {E_{T}}{T}}\\&P_{x}={\frac {1}{T_{0}}}\cdot \left({\frac {A^{2}}{2}}\cdot T_{0}\right)={\frac {A^{2}}{2}}\\\end{aligned}}}
Lógicamente, la potencia de una señal periódica tiene una potencia finita, pues la energía que tiene en cada periodo es la misma. Por lo tanto, podemos calcular la energía de una periodo solamente y posteriormente dividirla por los segundos que dura ese periodo para sacar la potencia.
En conclusion, la energía de una señal periódica es infinita y la potencia finita. Si la energía es finita, la potencia es cero .
x
(
t
)
=
A
E
x
=
∞
E
T
=
A
2
⋅
T
P
x
=
E
T
T
=
A
2
{\displaystyle {\begin{aligned}&x(t)=A\\&E_{x}=\infty \\&E_{T}=A^{2}\cdot T\\&P_{x}={\text{ }}{\frac {E_{T}}{T}}=A^{2}\\\end{aligned}}}
Densidad espectral de Potencia
editar
En el ejemplo de la potencia del coseno de frecuencia f0 realizado anteriormente, no nos da información de como esta repartida o esparcida en frecuencia la potencia, solo nos dice su valor. Conociendo la transformada de Fourier nosotros podemos intuir que el grueso de la potencia estará centrado en f0, por ello, nos puede interesar saber como está distribuida la potencia en función de la frecuencia, para ello, se define la densidad espectral de potencia.
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∫
−
∞
∞
|
X
(
f
)
|
2
⏟
Densidad
espectral
de energia
d
f
P
x
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
|
X
(
f
)
|
2
∂
f
=
∫
−
∞
∞
lim
T
→
∞
|
X
(
f
)
|
2
T
⏟
D
.E
.P
.
Densidad Espectral
de Potencia
∂
f
=
∫
−
∞
∞
G
x
(
f
)
∂
f
G
x
(
f
)
=
lim
T
→
∞
|
X
(
f
)
|
2
T
P
x
=
∫
−
∞
∞
G
x
(
f
)
∂
f
{\displaystyle {\begin{aligned}&E_{x}=\int _{-\infty }^{\infty }{\left|x(t)\right|^{2}}\partial t=\int _{-\infty }^{\infty }{\underbrace {\left|X(f)\right|^{2}} _{\begin{smallmatrix}{\text{Densidad }}\\{\text{espectral}}\\{\text{de energia}}\end{smallmatrix}}}df\\&P_{x}={\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {1}{T}}\cdot \int \limits _{-\infty }^{\infty }{\left|x(t)\right|^{2}}\partial t={\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {1}{T}}\cdot \int \limits _{-\infty }^{\infty }{\left|X(f)\right|^{2}}\partial f=\int \limits _{-\infty }^{\infty }{\underbrace {{\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {\left|X(f)\right|^{2}}{T}}} _{\begin{smallmatrix}{\text{D}}{\text{.E}}{\text{.P}}{\text{.}}\\{\text{Densidad Espectral}}\\{\text{de Potencia}}\end{smallmatrix}}}\partial f=\int \limits _{-\infty }^{\infty }{G_{x}(f)}\partial f\\&G_{x}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\text{ }}{\frac {\left|X(f)\right|^{2}}{T}}\\&P_{x}=\int \limits _{-\infty }^{\infty }{G_{x}(f)}\partial f\\\end{aligned}}}
Las siglas de DEP en inglés son PSD (Power Spectral Density)
La densidad espectral de potencia difiere de la densidad espectral de energía en que la primera no toma valores infinitos, al estar dividida por T, con lo que podemos representarlo graficamente de forma adecuada. La segunda en cambio, al estar representando la dispersion de la energía en frecuencia y, al ser la energía infinita (con señal periódica), tendrá probablemente zonas de frecuencia que tomen valores infinitos.
Como su nombre indican la densidad espectral de potencia nos muestra como esta dispersada la potencia en función de la frecuencia, mientras que la densidad espectral de energía, como esta dispersada la energía.
Probemos ahora, a sacar la DEP de un coseno.
x
(
t
)
=
A
cos
(
2
π
f
o
t
)
Sabemos que:
E
x
=
∫
−
∞
∞
|
x
(
t
)
|
2
∂
t
=
∞
,
E
T
=
A
2
2
⋅
T
0
→
P
x
=
E
T
T
=
A
2
2
P
x
=
∫
−
∞
∞
G
x
(
f
)
∂
f
;
G
x
(
f
)
=
lim
T
→
∞
|
X
(
f
)
|
2
T
X
(
f
)
=
A
2
(
δ
(
f
−
f
0
)
+
δ
(
f
+
f
0
)
)
|
X
(
f
)
|
2
=
A
2
4
(
δ
(
f
−
f
0
)
+
δ
(
f
+
f
0
)
)
⋅
(
δ
(
f
−
f
0
)
+
δ
(
f
+
f
0
)
)
=
A
2
4
⋅
(
δ
(
f
0
−
f
0
⏟
0
)
+
δ
(
0
+
f
0
)
+
δ
(
0
−
f
0
)
+
δ
(
−
f
0
+
f
0
⏟
0
)
)
=
A
2
4
⋅
(
∞
+
0
+
0
+
∞
)
G
x
(
f
)
=
lim
T
→
∞
|
X
(
f
)
|
2
T
=
A
2
4
T
⋅
(
∞
+
0
+
0
+
∞
)
=
?
{\displaystyle {\begin{aligned}&x(t)=A\cos(2\pi f_{o}t)\\&{\text{Sabemos que: }}E_{x}=\int _{-\infty }^{\infty }{\left|x(t)\right|^{2}\partial t=\infty },{\text{ }}E_{T}={\frac {A^{2}}{2}}\cdot T_{0}\to P_{x}={\frac {E_{T}}{T}}={\frac {A^{2}}{2}}\\&P_{x}=\int _{-\infty }^{\infty }{G_{x}(f)\partial f};{\text{ }}G_{x}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {\left|X(f)\right|^{2}}{T}}\\&X(f)={\frac {A}{2}}\left(\delta (f-f_{0})+\delta (f+f_{0})\right)\\&\left|X(f)\right|^{2}={\frac {A^{2}}{4}}\left(\delta (f-f_{0})+\delta (f+f_{0})\right)\cdot \left(\delta (f-f_{0})+\delta (f+f_{0})\right)=\\&{\frac {A^{2}}{4}}\cdot \left(\delta (\underbrace {f_{0}-f_{0}} _{0})+\delta (0+f_{0})+\delta (0-f_{0})+\delta (\underbrace {-f_{0}+f_{0}} _{0})\right)={\frac {A^{2}}{4}}\cdot \left(\infty +0+0+\infty \right)\\&G_{x}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {\left|X(f)\right|^{2}}{T}}={\frac {A^{2}}{4T}}\cdot \left(\infty +0+0+\infty \right)=?\\\end{aligned}}}
Primeramente, la densidad espectral de energía da infinito (lógico), y la densidad espectral de potencia no podemos resolverla, pues estamos trabajando con valores que tienden a infinito en ciertos puntos, porlo que no nos ha sido de utilidad la función para ver la dispersion de potencia.
Para solucionarlo definimos una nueva función.
Sabemos que:
P
x
=
∫
−
∞
∞
G
x
(
f
)
∂
f
;
G
x
(
f
)
=
lim
T
→
∞
1
T
|
X
(
f
)
|
2
{\displaystyle {\begin{aligned}&P_{x}=\int _{-\infty }^{\infty }{G_{x}(f)\partial f};{\text{ }}\\&{\text{ }}G_{x}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\left|X(f)\right|^{2}\\\end{aligned}}}
Como hacemos el modulo de una señal, una propiedad de la densidad espectral de potencia es que es siempre real y positiva .
G
x
(
f
)
=
G
x
∗
(
f
)
G
x
(
f
)
≥
0
{\displaystyle {\begin{aligned}&G_{x}(f)=G_{x}^{*}(f)\\&G_{x}(f)\geq 0\\\end{aligned}}}
Ahora bien, definamos una función cuya transformada de Fourier sea la función DEP. Para hacerlo, hacemos la transformada inversa de DEP.
G
x
(
f
)
=
lim
T
→
∞
1
T
|
X
(
f
)
|
2
=
lim
T
→
∞
1
T
X
(
f
)
⋅
X
∗
(
f
)
x
∗
(
t
)
→
X
∗
(
−
f
)
⇒
x
∗
(
−
t
)
→
X
∗
(
f
)
F
−
1
[
G
x
(
f
)
]
=
lim
T
→
∞
1
T
⋅
[
x
(
t
)
∗
x
∗
(
−
t
)
]
{\displaystyle {\begin{aligned}&G_{x}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\left|X(f)\right|^{2}={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}X(f)\cdot X^{*}(f)\\&x^{*}(t)\to X^{*}(-f)\Rightarrow x^{*}(-t)\to X^{*}(f)\\&\mathbb {F} ^{-1}\left[G_{x}(f)\right]={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \left[x(t)*x^{*}(-t)\right]\\\end{aligned}}}
Esta función , llamada correlación, se define en función de en vez de t.
R
x
(
τ
)
=
F
−
1
[
G
x
(
f
)
]
=
lim
T
→
∞
1
T
⋅
[
x
(
τ
)
∗
x
∗
(
−
τ
)
]
G
x
(
f
)
=
∫
−
∞
∞
R
x
(
τ
)
⋅
e
−
j
ω
τ
∂
τ
y
(
t
)
=
x
(
t
)
∗
h
(
t
)
=
∫
−
∞
∞
x
(
τ
)
⋅
h
(
t
−
τ
)
∂
τ
y
(
τ
)
=
x
(
τ
)
∗
h
(
τ
)
=
∫
−
∞
∞
x
(
t
)
⋅
h
(
τ
−
t
)
∂
t
h
(
τ
)
=
x
∗
(
−
τ
)
→
∫
−
∞
∞
x
(
t
)
⋅
h
(
τ
−
t
)
∂
t
→
se cambia
el orden por
la conv
.
∫
−
∞
∞
x
(
t
)
⋅
x
∗
(
t
−
τ
)
∂
t
G
x
(
f
)
=
G
x
∗
(
f
)
→
R
x
(
τ
)
=
R
x
∗
(
−
τ
)
→
∫
−
∞
∞
x
(
t
)
⋅
x
∗
(
t
−
τ
)
∂
t
=
∫
−
∞
∞
x
∗
(
t
)
⋅
x
(
t
+
τ
)
∂
t
{\displaystyle {\begin{aligned}&R_{x}(\tau )=\mathbb {F} ^{-1}\left[G_{x}(f)\right]={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \left[x(\tau )*x^{*}(-\tau )\right]\\&G_{x}(f)=\int _{-\infty }^{\infty }{R_{x}(\tau )\cdot e^{-j\omega \tau }\partial \tau }\\&y(t)=x(t)*h(t)=\int _{-\infty }^{\infty }{x(\tau )\cdot h(t-\tau )\partial \tau }\\&y(\tau )=x(\tau )*h(\tau )=\int _{-\infty }^{\infty }{x(t)\cdot h(\tau -t)\partial t}\\&h(\tau )=x^{*}(-\tau )\to \int _{-\infty }^{\infty }{x(t)\cdot h(\tau -t)\partial t}{\xrightarrow[{\begin{smallmatrix}{\text{se cambia}}\\{\text{el orden por}}\\{\text{la conv}}{\text{.}}\end{smallmatrix}}]{}}\int _{-\infty }^{\infty }{x(t)\cdot x^{*}(t-\tau )\partial t}\\&G_{x}(f)=G_{x}^{*}(f)\to R_{x}(\tau )=R_{x}^{*}(-\tau )\to \int _{-\infty }^{\infty }{x(t)\cdot x^{*}(t-\tau )\partial t}=\int _{-\infty }^{\infty }{x^{*}(t)\cdot x(t+\tau )\partial t}\\\end{aligned}}}
Finalmente:
F
−
1
[
G
x
(
f
)
]
=
R
x
(
τ
)
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
x
∗
(
t
)
⋅
x
(
t
+
τ
)
∂
t
{\displaystyle \mathbb {F} ^{-1}\left[G_{x}(f)\right]=R_{x}(\tau )={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{x^{*}(t)\cdot x(t+\tau )\partial t}}
La correlación, se define también entre distintas señales, no solo para x, a lo que se llama correlación cruzada.
Entre sus propiedades tenemos:
R
y
x
(
τ
)
=
R
x
y
∗
(
−
τ
)
→
R
x
(
τ
)
=
R
x
∗
(
−
τ
)
G
x
(
f
)
=
∫
−
∞
∞
R
x
(
τ
)
⋅
e
−
j
2
π
f
τ
∂
τ
⇔
R
x
(
τ
)
=
∫
−
∞
∞
G
x
(
f
)
⋅
e
+
j
2
π
f
τ
∂
f
R
x
(
0
)
=
∫
−
∞
∞
G
x
(
f
)
∂
f
=
P
x
R
x
(
0
)
≥
|
R
x
(
τ
)
|
{\displaystyle {\begin{aligned}&R_{yx}(\tau )=R_{xy}^{*}(-\tau )\to R_{x}(\tau )=R_{x}^{*}(-\tau )\\&G_{x}(f)=\int _{-\infty }^{\infty }{R_{x}(\tau )\cdot e^{-j2\pi f\tau }\partial \tau }\Leftrightarrow R_{x}(\tau )=\int _{-\infty }^{\infty }{G_{x}(f)\cdot e^{+j2\pi f\tau }\partial f}\\&R_{x}(0)=\int _{-\infty }^{\infty }{G_{x}(f)\partial f}=P_{x}\\&R_{x}(0)\geq \left|R_{x}(\tau )\right|\\\end{aligned}}}
Ahora, podremos saber la densidad espectral de potencia de las señales:
x
(
t
)
=
A
cos
(
2
π
f
o
t
)
R
x
(
τ
)
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
x
∗
(
t
)
⋅
x
(
t
+
τ
)
∂
t
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
A
cos
∗
(
2
π
f
o
t
)
⋅
A
cos
(
2
π
f
o
(
t
+
τ
)
)
∂
t
=
lim
T
→
∞
1
T
⋅
A
2
∫
−
∞
∞
cos
(
2
π
f
o
τ
)
+
cos
(
2
⋅
2
π
f
o
t
+
τ
)
2
∂
t
=
lim
T
→
∞
1
T
⋅
A
2
2
∫
−
∞
∞
cos
(
2
π
f
o
τ
)
⏟
no esta en funcion
de t
+
cos
(
2
⋅
2
π
f
o
t
+
τ
)
⏟
esta fuera del area
de integracion
∂
t
R
x
(
τ
)
=
lim
T
→
∞
1
T
⋅
⋅
A
2
2
cos
(
2
π
f
o
τ
)
T
=
A
2
2
cos
(
2
π
f
o
τ
)
{\displaystyle {\begin{aligned}&x(t)=A\cos(2\pi f_{o}t)\\&R_{x}(\tau )={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{x^{*}(t)\cdot x(t+\tau )\partial t}={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{A\cos ^{*}(2\pi f_{o}t)\cdot A\cos \left(2\pi f_{o}\left(t+\tau \right)\right)\partial t}=\\&{\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot A^{2}\int _{-\infty }^{\infty }{{\frac {\cos \left(2\pi f_{o}\tau \right)+\cos(2\cdot 2\pi f_{o}t+\tau )}{2}}\partial t}={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot {\frac {A^{2}}{2}}\int _{-\infty }^{\infty }{\underbrace {\cos \left(2\pi f_{o}\tau \right)} _{\begin{smallmatrix}{\text{no esta en funcion}}\\{\text{de t}}\end{smallmatrix}}+\underbrace {\cos(2\cdot 2\pi f_{o}t+\tau )} _{\begin{smallmatrix}{\text{esta fuera del area}}\\{\text{de integracion}}\end{smallmatrix}}\partial t}\\&R_{x}(\tau )={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \cdot {\frac {A^{2}}{2}}\cos \left(2\pi f_{o}\tau \right)T={\frac {A^{2}}{2}}\cos \left(2\pi f_{o}\tau \right)\\\end{aligned}}}
Saquemos ahora, la DEP y la potencia:
R
x
(
τ
)
=
A
2
2
cos
(
2
π
f
o
τ
)
→
G
x
(
f
)
=
A
2
4
(
δ
(
f
−
f
0
)
+
δ
(
f
+
f
0
)
)
P
x
=
R
x
(
0
)
=
A
2
2
{\displaystyle {\begin{aligned}&R_{x}(\tau )={\frac {A^{2}}{2}}\cos \left(2\pi f_{o}\tau \right)\to G_{x}(f)={\frac {A^{2}}{4}}\left(\delta (f-f_{0})+\delta (f+f_{0})\right)\\&P_{x}=R_{x}(0)={\frac {A^{2}}{2}}\\\end{aligned}}}
La correlación de la suma de dos señales
editar
Cual es la correlación de una señal que es a su vez suma de 2 señales?
x
(
t
)
=
a
(
t
)
−
b
(
t
)
R
x
(
τ
)
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
x
(
t
+
τ
)
⋅
x
∗
(
t
)
∂
t
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
[
a
(
t
+
τ
)
−
b
(
t
+
τ
)
]
⋅
[
a
(
t
)
−
b
(
t
)
]
∗
∂
t
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
[
a
(
t
+
τ
)
−
b
(
t
+
τ
)
]
⋅
[
a
∗
(
t
)
−
b
∗
(
t
)
]
∂
t
=
lim
T
→
∞
1
T
⋅
∫
−
∞
∞
a
(
t
+
τ
)
a
∗
(
t
)
−
a
(
t
+
τ
)
b
∗
(
t
)
−
b
(
t
+
τ
)
a
∗
(
t
)
+
b
(
t
+
τ
)
b
∗
(
t
)
∂
t
=
R
x
(
τ
)
=
R
a
(
τ
)
−
R
a
b
(
τ
)
−
R
b
a
(
τ
)
+
R
b
(
τ
)
R
x
(
τ
)
=
R
a
(
τ
)
−
R
a
b
(
τ
)
−
R
b
a
(
τ
)
⏞
R
a
b
∗
(
−
τ
)
+
R
b
(
τ
)
{\displaystyle {\begin{aligned}&x(t)=a(t)-b(t)\\&R_{x}(\tau )={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{x(t+\tau )\cdot x^{*}(t)\partial t}={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{\left[a(t+\tau )-b(t+\tau )\right]\cdot \left[a(t)-b(t)\right]^{*}\partial t=}\\&{\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{\left[a(t+\tau )-b(t+\tau )\right]\cdot \left[a^{*}(t)-b^{*}(t)\right]\partial t=}\\&{\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\cdot \int _{-\infty }^{\infty }{a(t+\tau )a^{*}(t)-a(t+\tau )b^{*}(t)-b(t+\tau )a^{*}(t)+b(t+\tau )b^{*}(t)\partial t=}\\&R_{x}(\tau )=R_{a}(\tau )-R_{ab}(\tau )-R_{ba}(\tau )+R_{b}(\tau )\\&R_{x}(\tau )=R_{a}(\tau )-R_{ab}(\tau )-\overbrace {R_{ba}(\tau )} ^{R_{ab}^{*}(-\tau )}+R_{b}(\tau )\\\end{aligned}}}
Relación entre la salida y la entrada de un sistema
editar
Cuando nuestra entrada atraviesa un filtro lineal h(t) se modifica y tenemos una salida diferente, a la que llamamos y(t). Podemos encontrar una relación entre la dispersion de la potencia en la frecuencia entre ambas?
y
(
t
)
=
x
(
t
)
∗
h
(
t
)
→
Y
(
f
)
=
X
(
f
)
⋅
H
(
f
)
G
x
(
f
)
=
lim
T
→
∞
1
T
|
X
(
f
)
|
2
G
y
(
f
)
=
lim
T
→
∞
1
T
|
Y
(
f
)
|
2
=
lim
T
→
∞
1
T
|
X
(
f
)
⋅
H
(
f
)
|
2
=
lim
T
→
∞
1
T
|
X
(
f
)
|
2
⏟
G
x
(
f
)
⋅
|
H
(
f
)
|
2
G
y
(
f
)
=
G
x
(
f
)
⋅
|
H
(
f
)
|
2
{\displaystyle {\begin{aligned}&y(t)=x(t)*h(t)\to Y(f)=X(f)\cdot H(f)\\&G_{x}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\left|X(f)\right|^{2}\\&G_{y}(f)={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\left|Y(f)\right|^{2}={\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\left|X(f)\cdot H(f)\right|^{2}=\underbrace {{\underset {T\to \infty }{\mathop {\lim } }}\,{\frac {1}{T}}\left|X(f)\right|^{2}} _{G_{x}(f)}\cdot \left|H(f)\right|^{2}\\&G_{y}(f)=G_{x}(f)\cdot \left|H(f)\right|^{2}\\\end{aligned}}}