Iniciado por
matias_buenas
Y volviendo al tema del hilo, allá van unas cuantas reflexiones .
Todos sabemos que los relojes de cuarzo no son igual de precisos . La mayoría buenos tienen una precisión de unos 15 segundos al mes, aunque Seiko habla de tener algunos modelos que llegan a esa precisión de 15 segundos al año, lo que es a mi modo de ver una pasada, pero, para la reflexión que quiero hacer, pongamos 15 segundos al mes.
Por otra parte, las matemáticas nos dicen que muestreando al doble de la máxima frecuencia, podemos reconstruir EXACTAMENTE la señal de la onda original lo que exige que la señal a muestrear sea FINITA . Pero luego, nos encontramos con las limitaciones técnicas de llevar la teoría a la realidad cosa que no siempre es posible .
Dicho lo anterior y volviendo a la preisión de los relojes, si un mes tiene 2.592.000 segundos, un error de 15 segundos supone un error de 0,0057870 ksegundos en cada ksegundo, a priori un error absolutamente despreciable, bajo mi punto de vista ... de momento .
Bien . En el CD, muestreamos 44.100 veces en cada segundo o, dicho de otra forma, muestreamos una vez cada 0,0226757 Ksegundo . Si, como decíamos en el párrafo anterior, tenemos un error de 0,0057870 Ks cada 0,0226757 ks, estamos hablando que tenemos un error temporal de un 25% por cada muestra .
Si a lo anterior añadimos que, por ejemplo, para muestrear una señal a 20Khz usamos sólo dos muestras existe la posibilidad, a priori, de que tengamos un error temporal a la hora de asignar un voltaje analógico determinado a una señal digital .