El tema de interpolación de una función real sobre los reales ha ocupado la atención de practicantes de matemática, física e ingeniería desde al menos el siglo XVII, cuando desde luego, ni siquiera se distinguía entre estas diferentes especialidades.
En un inicio, las funciones interpolantes fueron polinomios de un grado menor en $1$ del número de valores de su argumento, que llamaremos conjunto de soporte en los que se conoce la función a tratar y fueron utilizadas para producir y utilizar tablas de funciones a valores de su argumento uniformemente espaciados. Esto fue, y sigue siendo, de gran utilidad, al contar con estimaciones del error cometido en la interpolación y que depende de alguna potencia del espaciamiento del argumento en estas tablas y de suponer a las funciones interpoladas continuamente diferenciables hasta un grado igual a la potencia en cuestión.
Durante años, las dichas estimaciones permitieron establecer el número de páginas en la impresión en papel de dichas tablas, que se producían para satisfacer una precisión fija. El Observatorio de Tacubaya en México, por ejemplo, editó tablas de logaritmos y funciones trigonométricas a cuatro decimales y consistían de alrededor de unas 30 páginas y eran utilizadas alrededor de 1960 para hacer cálculos con logaritmos y con funciones trigonométricas. Fueron muy utilizadas también a nivel de educación media y superior.
Hoy en día, estas tablas no resultan de uso común, pues todo el proceso se lleva a cabo por simple invocación a las librerías de funciones de las diversas versiones de las computadoras a las que accede cualquiera de sus usuarios.
A este problema de interpolación lo llamamos el problema clásico. Posteriormente, se formularon problemas de interpolación en forma general. Este último enfoque permitió una extensión de enorme valor tanto en la teoría como en la práctica. Más precisamente, los métodos desarrollados generan una perspectiva dual del mismo tema. Una, la de entender a cabalidad la naturaleza de la clase de funciones susceptibles de ser interpoladas, y la otra, la de producir esquemas efectivos de cómputo de los interpolantes.
Ambas perspectivas forman la naturaleza fundamental de la aplicación del pensamento matemático a las diversas temáticas que nos ocupen.
De otro modo, los números en el lado derecho en (\ref{uno}) no tienen que provenir de los valores de una función conocida a priori. Pueden ser cualesquiera $n+1$ números, $\left\{ c_{i}\in\mathbb{R} :i=0,1,\ldots,n\right\} .$
Con este proviso, el problema adquiere una forma ligeramente más general, susceptible de cubrir un espectro más amplio de problemas prácticos, y de ser computada. A pesar de su similar apariencia, es de índole distinta a la de (\ref{uno}). El problema lo escribimos como sigue. Encontrar $P\in\mathcal{P}_{n}$ tal que \begin{equation} P(t_{i})=c_{i}\quad;\quad i=0,1,\ldots,n.\label{Pc} \end{equation} La diferencia estriba en que no estipulamos un problema de prospección de la naturaleza de $f.$
Más precisamente, por ejemplo, para cómputo, el problema (\ref{Pc}) se implanta del modo siguiente. Se proveé de $n+1$ parejas de reales $\left\{ (t_{i},c_{i}):i=0,\ldots,n\right\} $ y un valor $t$ cualquiera tal que \[ \min\left\{ t_{i}:i=0,\ldots,n\right\} \menorque t\menorque \max\left\{ t_{i}:i=0,\ldots ,n\right\} , \] y se organizan los cómputos para calcular el valor $P(t)$ del polinomio interpolante. Esto último puede lograrse hoy en día con gran eficiencia numérica para el problema en (\ref{Pc}) por medio del algoritmo conocido como de Neville-Aitken$.$Este valioso algoritmo no se diseñó para encontrar el polinomio interpolante, solamente produce su valor en cualquier argumento que se desee, ([Stoer], p.40).
Desde la época de Newton (1676), Gregory,(1670) y Stirling,(1730), se produjeron métodos de cálculo para encontrar los coeficentes del polinomio interpolante, que involucran las famosas diferencias divididas de Newton. A estos grandes pioneros debemos las primeras metodologías para interpolar una función, o sólo datos, conocida en un conjunto de soporte finito, generalmente con argumentos espaciados en forma arbitraria.
La importancia de este problema es ciertamente de dos naturalezas, una, la de caracterizar con precisión la función de error en intervalos abiertos de reales que contengan al conjunto de soporte, en el caso (\ref{uno}) y la segunda, la de proveer de métodos efectivos de cómputo de los valores $P(t),$ con $t$ fuera del soporte en el caso más general (\ref{Pc}). Ambos problemas han sido abordados desde el inicio histórico del problema. El algoritmo de Neville- Aitken mencionado con anterioridad, es una contribución valiosa e interesante al problema, y sale de los esquemas clásicos.
Con el polinomio interpolante se han desarrollado varias técnicas de diferenciación y de cuadraturas, al sustituir la función a diferenciar o a integrar con el interpolante.
Por otro lado, un dispositivo desarrollado por Gauss,(1814), para lograr aproximaciones de cuadraturas, requiere de polinomios ortogonales y la función debe conocerse en el conjunto de ceros de los mismos, (dado el grado del polinomio). En este caso pues, los argumentos quedan fijos por la naturaleza de la clase de polinomios en cuestión y por su grado. La cuadratura gaussiana obtiene máxima precisión dado el grado y el intervalo de integración en cuestión.
En todas y en cada una de las metodologías mencionadas, para el problema puesto en (\ref{uno}), el error, se conjetura en forma simplista, deberá disminuir a medida que se aumente el grado del polinomio. Varios ejemplos, notablemente el debido a C.Runge, muestra que para ello, el conjunto de soporte debe elegirse con cuidado.
Más aún hacia 1914, S.Bernstein y G.Faber. mostraron simultáneamente la falla de aproximación uniforme del interpolante a la función objetivo para algunos esquemas de interpolación con un número creciente de argumentos de soporte ([Fab]). En este caso, con polinomios de argumento complejo.
Afortunadamente, esas anomalías pueden ser controladas para producir esquemas con errores uniformemente aceptables en la región contemplada de la variable independiente.Esta metodología utiliza lemniscatas en el plano complejo y está expuesta con todo detalle en ([DR], Sec.4.4).
Contamos con un espacio lineal de dimensión finta, digamos $m,$ sobre el campo de los reales, que es el ejemplo común, llamémosle $\mathcal{X},$ y a su dual, $\mathcal{L}.$
Dados $m$ elementos $L_{1},\ldots,L_{m}\in\mathcal{L}$, linealmente independientes, y escalares $c_{1},c_{1},\cdots,c_{m},$ Se busca un elemento $x\in\mathcal{X}$, tal que \begin{equation} L_{i}(x)=c_{i}\quad;\quad i=1.\ldots,m.\label{Intern} \end{equation} El ejemplo que nos indujo hasta aquí, es el de $\mathcal{X} =\mathcal{P}_{n},$ el espacio de polinomios de una variable real de grado a lo más $n+1=m,$ con coeficientes reales y las funcionales de valuación $L_{i}(x)=x(t_{i})$ con $i=0,\cdots,n$ y $\left\{ t_{0},t_{1},\ldots ,t_{n}\right\} \in\mathbb{R}.$
Para ello, trabajaron arduamente, Newton, Gregory, Stirling, y VanderMonde, entre otros. La diferencia entre sus métodos radica en la elección de diferentes bases para $\mathcal{P}_{n}.$
En general, si dotamos a $\mathcal{X}$ con una base, $\left\{ x_{i}^{\ast}:i=1,\cdots.m\right\} ,$ resulta evidente que para el problema en (\ref{Pc}), se requiere encontrar los $m$ coeficientes reales $\left\{ \xi_{j}:j=1,,m\right\} $ $ $ que satisfagan el sistema de $m$ ecuaciones lineales \[ \sum_{j=1}^{m}L_{i}(x_{j}^{\ast})\,\xi_{j}=c_{i}\quad;\quad i=1.\ldots,m. \]
Requerimos, para la solución única, que la matriz de coeficientes sea invertible. Si esto es así, el interpolante resulta en la expresión \begin{equation} x=\sum_{i=1}^{m}\xi_{i}x_{j}^{\ast}.\label{IG} \end{equation} En términos numéricos, en general resolvemos estas ecuaciones por medio de la descomposición $LU$ de la matriz de coeficientes. Esta descomposición, en muchos casos de interés, posee también un significado teórico importante.
Una enorme clase de problemas es susceptible de formulación en este marco general que se sigue llamando de interpolación aún cuando difiere en sus detalles específicos del problema clásico.
Por ejemplo, con el mismo espacio $\mathcal{P}_{n}$ y las funcionales $L_{i}(x)=x^{(i)}(a)$ (la derivada de orden $i$ en $a\in\mathbb{R},$ para $i=0.1,\ldots,n),$ se obtiene el problema que resuelve G.I. Taylor tomando como base las funciones \[ x_{i}^{\ast}(t)=\dfrac{(t-a)^{i}}{i!}i=0,1.\ldots,n \text{ y }t\in \mathbb{R}. \]
Nótese que en esta instancia del problema general, se cuenta con la identidad, \begin{equation} L_{i}(x_{j}^{\ast})=\delta_{ij}\quad;\quad i,j=1,\ldots,m.\label{biort} \end{equation} donde $\delta_{ij}$ es el símbolo de Dirichlet.
Decimos en este caso, que las funcionales $\left\{ L_{i}\right\} $y los elementos $\left\{ x_{i}^{\ast}\right\} $son biortogonales. Es un ejercicio elemental, siguiendo los primeros dos teoremas en ([Halm]) e invirtiendo los roles de $\mathcal{X}$ y de $\mathcal{L}$ - lo cual es admisible por reflexividad de los espacios primal y dual- que podemos establecer que
de $m$ funcionales, $\left\{ L_{i}:i=1,\ldots,m\right\} \subset\mathcal{L},$ existe
una base $\left\{ x_{i}^{\ast}:i=1,\ldots,m\right\} \subset\mathcal{X}$ tal que obtenemos
un sistema biortogonal satisfaciendo (\ref{biort}).
En el caso tayloriano, el interpolador $x\in\mathcal{P}_{n}$ se escribe directamente de los números $c_{i}$ como \[ x(t)=\sum_{i=1}^{n}x^{(i)}(a)\frac{(t-a)^{i}}{i!}. \]
En el caso polinomial con las bases de Newton o de Stirling, los coeficientes en (\ref{IG}) no son ni de cerca tan simples como en (\ref{bio}). El gran ingenio de Lagrange para obtener la fórmula que lleva su nombre, consistió en mostrar que para las funcionales de valuación $L_{i}(x)=x(t_{i}),$con $i=0,1,\ldots,n,$ los elementos biortogonales en $\mathcal{P}_{n}$ se escriben de forma única con la fórmula \begin{equation} x_{i}^{\ast}(t)= %TCIMACRO{\dprod _{j\neq i}} %BeginExpansion {\displaystyle\prod_{j\neq i}} %EndExpansion \frac{t-t_{i}}{t_{j}-t_{i}}\quad;\quad i=0,1,\ldots,n.\label{Li} \end{equation} con $j$ en la sumatoria variando en $\left\{ 0,1,2,\ldots,n\right\} .$y con ello se logra directamente la solución como en (\ref{bio}).
En este texto, a cualquier interpolación general con la fórmula (\ref{bio}), la llamamos Interpolación de Lagrange o lagrangiana, en su honor.
La importancia de los trabajos de C.E. Shannon para el desarrollo del mundo digital contemporáneo es de enorme enjundia. Ofrecemos una vista somera sobre dos de sus principales trabajos y de algunos de sus antecedentes tanto históricos como contextuales de su época.
No comentamos sobre el otro de sus grandes contribuciones. A saber, su noción de contenido de información de un mensaje en un sistema de comunicación emisor- canal-receptor. ([ShannComm]). ¡El canal sujeto a ruido!
Por otro lado, el matemático C.Babbagge, quien mantuvo la silla de Newton en Cambridge por $11$ años e impulsado por su afán de lograr cómputos numéricos en forma automática, logró concebir dos máquinas. La llamada de diferencias y la llamada analítica. La primera, de la cual logró un prototipo, fue utilizada para varios cómputos y fue especialmente diseñada para la construcción de tablas. Se cuenta ([Bow], p8) que “En 1812, encontrándose sentado en uno de sus cuartos en la Sociedad Analítica mirando a una tabla de logaritmos, de la cual sabía que estaba repleta de fallas, se le ocurrió computar todas las funciones tabulares por medio de maquinaria”.
Su primer máquina así lo hizo a una escala modesta. La propuesta más ambiciosa de desarrollar el diseño a escala industrial nunca se llevó a cabo.
Al colaborar Ada Augusta con el matemático C.Babbagge en el diseño de su máquina analítica (La otra máquina de Babbagge fue la máquina en diferencias, y ésta fue concebida para computar censos y para producir tablas de interpolación entre otras.), precursora de las computadoras modernas, y entusiasmada con las perspectivas que ofrece, escribe varias notas, las cuales firmó con las iniciales, A.A.L., y relativas a la susodicha máquina controlada por tarjetas perforadas, en imitación de las tarjetas que guiaban la producción de brocados en el tela de Jacquard, repetidamente expresa lo siguiente alrededor de 1870: (Trad. propia.),
la naturaleza de las operaciones y de las direciones de las variables sobre las
que se ejecutarán las primeras, y ellas mismas, poseerán toda la generalidad del análisis, del cual son una mera transcripción....la máquina teje patrones algebraicos del mismo modo como el telar de Jacquard teje flores y hojas.
La máquina es, de facto, la representación mecánica y material de análisis”.
Es precisamente C. Shannon en su tesis de maestría en 1937 quien nos proveé de la relación precisa entre la lógica booleana y los circuitos eléctricos provistos de elementos de conmutación ('switching'). ([Shann] ). Se considera este trabajo un auténtico parteaguas de lo que hasta el momento de su concepción consistía de varias reglas ad-hoc para producir circuitos eléctricos dedicados a las telecomunicaciones. Principlamente, provinientes de la práctica telefónica.
Hasta antes de la aparición comercial del transistor en 1950, los mencionados circuitos estaban provistos de varios conjuntos de relés electro-mecánicas como sus elementos básicos de conmutación Después del trabajo de Shannon y gracias a él, , profileraron textos que dilucidaban el diseño, construcción y operación de tales circuitos para lograr fines lógicos específicos. Ver por ejemplo, ([Naslin]).
Lo que sigue en la historia, desde su concepción original hasta nuestra fecha con nuestras computadoras digitales modernas, ha resultado en una explosión constante de miniaturización, rapidez y bajos costos de producción. Con esto, dejamos aquí nuestro comentario de nuestra primer ADA. con el que se desea enfatizar la precedencia histórica de la idea de la computación moderna.
Una vez obtenida la serie de valores $\left\{ x(kT):k\in Z\right\},$ estos pueden ser procesados y almacenados en una computadora digital en forma secuencial, y en paralelo. Con ello, por medio de algoritmos numéricos específicos, se obtiene cualquier transformación de la señal que se desee. Esta idea extiende enormemente la capacidad de dirigir cualquier propósito que se tenga en mente en las aplicaciones : Telecomunicaciones, Control (digital), Procesamiento robusto respecto de ruido, Transmisión digital de imágenes y de voz o de cualesquiera serie de datos, tal y como lo atestiguamos a diario hoy en día.
La literatura respecto de todos estos temas surge y prolifera entre los años de 1945. a los 1970, ligado a nombres como Åström , R-Bellman, R.Kalman, H. Nyquist, C.Shannon, (de nuevo) y L.Pontryaguin. Ofrecemos una breve lista de referencias, esencialmente textos pioneros, sólamente como indicación de los temas, pues comentarlos in extenso conllevaría uno o varios documentos. En ellas se encuentra un vasta cantidad de bibliografías. comúnmente utilzadas por los practicantes de ingeniería de comunicaciones y control. La matemática requerida para una lectura eficiente de estos temas, se fundamenta en Álgebra Lineal, principalmente, Álgebra Matricial, Análisis de Fourier, Análisis Numérico, Estadística de Procesos, Sistemas de Ecuaciones en Diferencias, Diferenciales y Parciales, Probabilidad y Estadística de Peocesos Aleatorios, y desde luego, y fundamentalmente, Variable Compleja. Damos algunas indicaciones bibliográficas en orden alfabético, ([A]),([Ack] )([Aoki])(,[Arbib]),(,[Bell]),([DV]),([Jaz] ),([Kall]).([Pont]).
Es de destacar para nosotros en México, la publicación de R.Kalman ([Kalman]).
Una valiosa contribución al enfoque exclusivamente discreto, lo ha representado por años el libro de I.E. Jury ([Jury]) el cual es una magnífica referencia para entender al mundo digitalizado. Todas las metodologías mencionadas han jugado papeles preponderantes en Control de Procesos Industriales y de Telecomunicaciones via satélies geo- estacionarios y para estabilizar constantemente. la posición de sus órbitas.
El manejo y teoría de señales en el caso analógico se llevó a cabo casi exclusivamente hasta alrededor de 1950, por medio de circuitos eléctricos y electrónicos en los que se incorporaban ciertas funciones que actuaban sobre voltajes o corrientes que representaban las señales en cuestión. Todo esto se impartió por muchos años en los cursos de licenciatura y de pogrado en ingeniería eléctrica, en los cuales se enfatizaba el uso intensivo de la Transformada de Fourier. Ver p.e. E.A.Guillemin ([G]). Sin embargo, y dado que estos circuitos transformantes (piénsese en radio, en TV, o en radar como ejemplos) consistían de componentes más o menos fijas, cuya flexibilidad ciertamente se encuentra acotada. La variabilidad deseada .que se sugería según su aplicación, se implantaba por medio de resistencias, inductancias y capacitancia variables cuyas posiciones típicamente se hacían accesibles al usuario mediante botones giratorios unidos por algún vástago unido a los elementos del circuito.
La flexibilidad que comento arriba, se aumenta en forma considerable al sujetar a las señales a procesos numéricos programados ad libitum en un solo dispositivo.para lograr cualquier resultado numérico deseado de importancia y significado para la operación de los sistemas digitales.
Dado un reloj que pulsa cada $T$ segundos, y una señal $x,$ en cada intervalo (la ventana de muestreo) de la forma $ [kT,(k+1)T),$ con $k$ entero, reemplazamos los valores de $x$ por la constante $x(kT),$ de modo que nos quedamos con la función muestreada (con $I$ denotando la función indicadora) \begin{equation} x_{T}(t)= %TCIMACRO{\dsum \limits_{k\in\mathbb{Z}}} %BeginExpansion {\displaystyle\sum\limits_{k\in\mathbb{Z}}} %EndExpansion x(kT)\cdot I_{[kT.(k+1T)}(t).\label{XT} \end{equation} Este modelo puede sustentarse hoy en día con gran precisión por circuitos eléctricos y se denomina muestreo y retención (ing. 'sample and hold') De manera formal (Utilizamos la palabra formal para referirnos a forma, no a la formalidad de rigor. Este uso de formal indicando forma o fórmula, aparece en varios libros de matemática y de ingeniería.) calculamos su Transformada de Fourier \[ \widehat{x}_{T}(\omega)=\frac{1}{2\pi} %TCIMACRO{\dint \limits_{-\infty}^{+\infty}} %BeginExpansion {\displaystyle\int\limits_{-\infty}^{+\infty}} %EndExpansion x_{T}(t)\exp(-i\omega t)dt \] que resulta en la expresión \begin{equation} \widehat{x}_{T}(\gamma)=\frac{T}{2\pi}e^{-i\frac{\omega T}{2}}\frac {\operatorname*{sen}\left( \frac{\omega T}{2}\right) }{\frac{\omega T}{2}} %TCIMACRO{\dsum _{k\in\mathbb{Z}}} %BeginExpansion {\displaystyle\sum_{k\in\mathbb{Z}}} %EndExpansion x(kT)\exp(-ik\omega T).\label{sampled} \end{equation} Después de la constante, el primer término ciertamente muestra un corrimiento debido a la ventana.
El tercer término es reminiscente de una serie trigionométrica con los coeficientes $x(kT).$ que corresponden a las muestras de la función $x$ en los argumentos $\left\{ kT:k\in\mathbb{Z}\right\} .$ El segundo es la función llamada sinus cardinalis, valuada en $\pi T/2,$ donde esta función se define en general con variable compleja $z$ como \begin{equation} \operatorname{sinc}(z)=\frac{\operatorname*{sen}z}{z}\label{sinc} \end{equation} con valor $1$ en $z=0.$
Esta es la cuestión que abordamos en la sección siguiente y que de nuevo, es C.E.Shannon quien resuelve matemátiamente en un contexto preciso para la práctica de las comunicaciones.
Una enorme cantidad de trabajos se han dedicado al problema de interpolación infinita. No entraremos en gran detalle de ellos aquí. Solamente mencionamos dos del principio del s. XX, ambos de índole puramente matemática. El de N.E.Nörlund([Nor]) y el de J.M.Whittaker ([Whitt2]), quien cita y se basa en el primer trabajo citado como fundamental y quien fue hijo segundo de E.T. Whittaker, mencionado en el comentario (1). Notablemente, el libro de J.M. Whittaker presenta un manejo riguroso de los varios problemas de interpolación infinita.y obtiene la serie cardenal, (El origen del nombre de la serie me queda en la oscuridad.)que interpola funciones conocidads en los enteros y que introducimos en breve,
El trabajo de Nörlund extiende los esquemas clásicos de un número finito de argumentos de Gregory-Newton y de Stirling a un conjunto infinito de soporte, en particular los enteros, y entre otros resultados, partiendo del trabajo anterior se obtiene la llamada serie cardenal que introducimos en breve, y por añadidura, obtiene series en polinomios ortogonales a semejanza de las cuadraturas gaussianas. Este útlimo enfoque fue utilizado en los años 50-70 en los laboratorios ingeniería eléctrica en MIT en Massaschusetts,.([Lee]). bajo la tutela de Norbert Wiener, quien en esa época colaboró intensamente con A. Rosenblueth bajo los auspicios de I. Chávez en el Instituto de Cardiología de México.
Un texto más moderno, que unifica por medio de la Transformada de Laplace, las ideas provinientes de J.M. Whittaker y en el que adicionalemente se obtiene la serie cardenal interpolando funciones en los enteros es el el primer capítulo de C.Lanczos ([lan]), quien es contempaldo en el medio como uno de los más importantes exponentes de Análisiis Numérico moderno.
La serie cardenal que nos ocupa, nos proveé del vínculo teórico-práctico entre señales analógicas y las señales digitales que provienen de ellas.
Un modo sorpendentemente simple de introducir la serie cardenal de interpolación en los enteros nos lo presenta en su libro P.Davis, ([DR], Ej. II.23, p.54), que nos solicita advertir, sin más coemenrtario, lo siguiente,
Las funciones \[ x_{k}(z)=\dfrac{(-1)^{k}\operatorname*{sen}z}{z-k\pi}, \] con $k\in\mathbb{Z},$y $z\in\mathbb{C},$ y las funcionales $L_{k}(x)=x(k\pi),$ son biortonormales.
Esto resulta inmediatamente con la definición dada en (\ref{sinc}), puesto que \[ \dfrac{(-1)^{k}\operatorname*{sen}z}{z-k\pi}=.\operatorname{sinc}(z-k\pi) \]
y obtenemos una fórmula de interpolación lagrangiana como lo dijimos en la primera sección de este documento con la serie \[ \sum_{k\in Z}x(k\pi)\operatorname{sinc}(t-k\pi) \] que interpola a una función $x$ de argumento real en mútiplos de los enteros. Resulta entonces elemental, advertir que para cualquier número positivo, $l>0,$ la serie \begin{equation} \sum_{k}x\left( \frac{k\pi}{l}\right) \operatorname{sinc}l\left( t-k\pi\right) \label{Card1} \end{equation} interpola a $x$ en múltiplos de $T=\pi/l.$ Al interpretar este número como un intervalo de muestreo como en (\ref{sampled}), obtenemos la llamada serie cardenal en ingeniería eléctrica
Lo sorpenedente de esta serie es que para todo argumento $t\in\mathbb{R} ,$ la serie coincide exactamente con $x(t),$ la señal analógica muestreada para una clase importante de funciones. Este es el vínculo requerido entre el mundo analógico y el digital. De nuevo es C. Shannon ([ShannNyquist]) en 1949 quien se percata de la importancia central de este resultado para cierta clase de señales analógicas $x$ que procede a caracterizar en términos de su espectro en frecuencias -su Transformada Fourier-- escrita como sigue, \[ \widehat{x}(\omega)=\frac{1}{2\pi} %TCIMACRO{\dint \limits_{\mathbb{R}}} %BeginExpansion {\displaystyle\int\limits_{\mathbb{R}}} %EndExpansion x(t)\exp(-i\omega t)dt \] y muestra que la identidad de la serie con la función es exacta si se consideran aquellas funciones tales que $\widehat{x}(\omega)=0$ si $\left\vert \omega\right\vert >l.$ Esto es, cuyo espectro se anula fuera de un intervalo de longitud $2l$ $.$ Este intervalo puede estar situado alrededor de cualquier punto del dominio de $\omega.$
El argumento de Shannon corre esencialmente como sigue. Para esta clase de espectros, $\widehat{x},$sus correspondientes funciones $x$, pueden reconstruirse con la integral foureriana \begin{equation} x(t)=\frac{1}{2\pi} %TCIMACRO{\dint \limits_{\mathbb{-l}}^{l}} %BeginExpansion {\displaystyle\int\limits_{\mathbb{-l}}^{l}} %EndExpansion \widehat{x}\left( \omega\right) \exp(i\omega t)d\omega\label{anti} \end{equation} y notamos, por un lado, que podemos expresar a a $\widehat{x}\left( \omega\right) $ como una serie trigonométrica, $\sum_{k}c_{k}e^{-i\omega k/l}$ con los coeficientes $c_{k}=\frac{1}{2l} %TCIMACRO{\dint \limits_{\mathbb{-l}}^{l}} %BeginExpansion {\displaystyle\int\limits_{\mathbb{-l}}^{l}} %EndExpansion \widehat{x}\left( \omega\right) \exp(ik\pi/l)d\omega.$
Por otro lado, de la fórmula para los coeficientes y de (\ref{anti}) obtenemos la relación fundamental. \[ c_{k}=\frac{\pi}{l}x\left( \frac{k\pi}{l}\right) \quad;\quad k\in\mathbb{Z.} \] Esto es, los coeficientes de la serie son esencialmente los valores de $x\left( \dfrac{k}{2l}\right) $ (comparar con la expresión trigonométirca dada en (\ref{sampled})). Con sustituciones simples pero delicadas en su sustento analítico, intercambianos integral y sumatoria, para obtener de (\ref{anti}) la identidad de la función con su serie cardenal.(\ref{Card1}). Esto es, \begin{equation} x(t)=\sum_{k}x\left( \frac{k\pi}{l}\right) \operatorname{sinc}l\left( t-k\pi\right) .\label{Shannon} \end{equation} La expresión resultante es análoga a la obtenida en el modelo muestral en (\ref{sampled}). en tanto que la función $\operatorname{sinc}\left( lt\right) $ resulta ser la transformada de Fourier de una ventana, uniforme de la indicadora en el intervalo $[-T/2,T/2]$ con $T=\dfrac{\pi}{l}.$
La liga con la idea de funciones que no varían muy violentamente, se sustenta en la interpretación de $\omega$ como frecuencia angular. Esto es $\omega=2\pi\nu,$ donde $\nu$ es frecuencia (Hertz) y su valor absoluto es el recíproco de un período de una oscilación. La ecuación \[ 2l=\frac{2\pi}{T}=4\pi\nu_{\max} \] nos muestra al intervalo de muestreo con una frecuencia $\frac{1}{T} =2\nu_{\max}$ que representa el doble de la frecuencia más alta que aparece en el espectro de la señal $x.$ El número $2\nu_{\max}$ se conoce como el ancho de banda de la señal analógica.
Así pues, Shannon, obtiene con la serie cardenal el
se ejecute a una frecuencia igual al doble del ancho de banda de la señal.
O dicho de otro modo,
con un ciclo que sea la mitad del ciclo más pequeño en la descomposición de Fourier de la señal.
(a) Para funciones continuas con derivada seccionalmente continua, con saltos en un número finito de puntos en cada intervalo de su definición y absolutamente integrable en $\mathbb{R},$ ver por ejemplo, el libro de R. Courant y F. John ([CJ], Secc. 4,13 ec. (6a)) ).
(b) Para funciones de variable compleja con exponente exponencial de creciemiento $l,$cuya restrición al eje Hreal es de cuadrado integrable. Espacios de Wiener.(o de Bernstein $B_{l}$) (N.Wiener, G.Hardy). Ver J.R. Higgins ( ).>[Higg ).] (c) Para funciones generalizadas (Distribuciones en el sentido de Schwartz), con las que se libera de excesivos detalles analíticos de convergencia y de intercambio de sumatorias infinitas e integración. Se idealiza aún más la función de muestreo para convertirlo en muetreo instantáneo modelado con la noción del llamado peine de dirac En ([Rodd], Cap. IX)), por ejemplo, se escribe \begin{equation} x_{T}(t)=\sum_{k\in Z}x(kT)\cdot\delta(t-kT)\quad;\quad t\in\mathbb{R} \label{peine} \end{equation} y de ahí se parte para demostrar el Teorema.
Un texto particularmente útil para un manejo de las propiedades principáles de distribuciones con un módico precio de entrada en conocimientos matemáticos es el de M.J. Lighthill([Light]) que en su afán de poner las Distribuciones y el Análisis de Fourier a disposición de estudiantes de licenciatura de matemáticas, sacrifica solo dos aspectos complicados de la teoría que aparecen en el texto de G.Temple en que se basa y quien que a su vez simplificó el original de Laurent Schwartz.
La dedicatoria es muy significativa.
y a George Temple, quien mostró lo simple que puede hacerse.
Hemos dado ejemplos de la aplicación de la matemática al área de ingeniería eléctrica, para lo cual se requiere, para su buen éxito, de individuos que conocen ambos mundos de manera profunda.
En forma lateral resulta difícil encontrar ejemplos importantes a estos niveles universales de buen éxito.
También se ha querido demostrar que a la par de la física, la ingeniería eléctrica ha provisto de muchos ejemplos brillantes de aplicación de la matemática.
Huelga decir que el procesamiento digital de imágenes, hoy en día, recurre a todos los conceptos ligados al problema clásico con parámetro $t\in\mathbb{R}^{2}.$ La teoría se sustenta sin demasiado esfuerzo para problemas con $t\in\mathbb{R}^{d}.$ $d\geq1.$Profundizar en los temas que se han ventilado en este trabajo exige versatilidad temática para el (la) lector(a) de los mismos.
El tema de procesamiento digital que ciertamente engloba al de interpolación, está en franca explosión y con gran beneficio pueden consultarse las ligas siguientes.