Artículos de matemáticas aplicadas

Interpolación y el mundo digital



José Luis Farah Ibáñez
$\newcommand{\menorque}{\mathrel{<}}$
El presente escrito versa sobre la relación entre el tema fundamental de interpolación general con diversos problemas provinientes de áreas diversas. En particular, con el mundo digital que gobierna hoy en día muchos de los aspectos de nuestro quehacer cotidiano. La intención es la de mostrar la forma en que la matemática se aplica a otros paradigmas temáticos y enfatizar que esto solamente puede llevarse a buen término, si quien la aplica tiene una buena perspectiva temática de lo que se busca. Se destaca brevemente el particular genio de C.E. Shannon en estos quehaceres y nos restringimos a una somera exposición de solo dos de sus contribuciones fundamentales en el s. XX. La relación entre lógica booleana y circuitos de conmutación (ing. switching) y el teorema de muestreo de señales analógicas de banda limitada. La exposición matemática solamente está indicada por medio de referencias, pues en ellas y en sus bibliografías se encuentran todos los detalles que se requiera.

Interpolación

El tema de interpolación de una función real sobre los reales ha ocupado la atención de practicantes de matemática, física e ingeniería desde al menos el siglo XVII, cuando desde luego, ni siquiera se distinguía entre estas diferentes especialidades.

En un inicio, las funciones interpolantes fueron polinomios de un grado menor en $1$ del número de valores de su argumento, que llamaremos conjunto de soporte en los que se conoce la función a tratar y fueron utilizadas para producir y utilizar tablas de funciones a valores de su argumento uniformemente espaciados. Esto fue, y sigue siendo, de gran utilidad, al contar con estimaciones del error cometido en la interpolación y que depende de alguna potencia del espaciamiento del argumento en estas tablas y de suponer a las funciones interpoladas continuamente diferenciables hasta un grado igual a la potencia en cuestión.

Durante años, las dichas estimaciones permitieron establecer el número de páginas en la impresión en papel de dichas tablas, que se producían para satisfacer una precisión fija. El Observatorio de Tacubaya en México, por ejemplo, editó tablas de logaritmos y funciones trigonométricas a cuatro decimales y consistían de alrededor de unas 30 páginas y eran utilizadas alrededor de 1960 para hacer cálculos con logaritmos y con funciones trigonométricas. Fueron muy utilizadas también a nivel de educación media y superior.

Hoy en día, estas tablas no resultan de uso común, pues todo el proceso se lleva a cabo por simple invocación a las librerías de funciones de las diversas versiones de las computadoras a las que accede cualquiera de sus usuarios.

A este problema de interpolación lo llamamos el problema clásico. Posteriormente, se formularon problemas de interpolación en forma general. Este último enfoque permitió una extensión de enorme valor tanto en la teoría como en la práctica. Más precisamente, los métodos desarrollados generan una perspectiva dual del mismo tema. Una, la de entender a cabalidad la naturaleza de la clase de funciones susceptibles de ser interpoladas, y la otra, la de producir esquemas efectivos de cómputo de los interpolantes.

Ambas perspectivas forman la naturaleza fundamental de la aplicación del pensamento matemático a las diversas temáticas que nos ocupen.

El problema clásico

Dada una función real $f$ de argumento real, conocida en un conjunto finito, de argumentos, $\left\{ t_{i}\in\mathbb{R}.i=0,1,\ldots,n\right\} $ que llamamos su conjunto de soporte, se propone encontrar un polinomio algebraico $ P\in\mathcal{P}_{n}$ de argumento real de grado a lo más $n$, tal que \begin{equation} P(t_{i})=f(t_{i})\quad;\quad i=0,1,\ldots,n.\label{uno} \end{equation} Es bien conocido en cursos básicos que tal polinomio existe y es único, en el caso de argumentos todos distintos y además, como hemos indicado con anterioridad, que en el caso de que la derivada $f^{(n+1)}$ exsita en un intervalo abierto que contenga a los argumentos de soporte, se puede estimar con ella, el error de interpolación cometido en argumentos fuera del conjunto de soporte.

De otro modo, los números en el lado derecho en (\ref{uno}) no tienen que provenir de los valores de una función conocida a priori. Pueden ser cualesquiera $n+1$ números, $\left\{ c_{i}\in\mathbb{R} :i=0,1,\ldots,n\right\} .$

Con este proviso, el problema adquiere una forma ligeramente más general, susceptible de cubrir un espectro más amplio de problemas prácticos, y de ser computada. A pesar de su similar apariencia, es de índole distinta a la de (\ref{uno}). El problema lo escribimos como sigue. Encontrar $P\in\mathcal{P}_{n}$ tal que \begin{equation} P(t_{i})=c_{i}\quad;\quad i=0,1,\ldots,n.\label{Pc} \end{equation} La diferencia estriba en que no estipulamos un problema de prospección de la naturaleza de $f.$

Más precisamente, por ejemplo, para cómputo, el problema (\ref{Pc}) se implanta del modo siguiente. Se proveé de $n+1$ parejas de reales $\left\{ (t_{i},c_{i}):i=0,\ldots,n\right\} $ y un valor $t$ cualquiera tal que \[ \min\left\{ t_{i}:i=0,\ldots,n\right\} \menorque t\menorque \max\left\{ t_{i}:i=0,\ldots ,n\right\} , \] y se organizan los cómputos para calcular el valor $P(t)$ del polinomio interpolante. Esto último puede lograrse hoy en día con gran eficiencia numérica para el problema en (\ref{Pc}) por medio del algoritmo conocido como de Neville-Aitken$.$Este valioso algoritmo no se diseñó para encontrar el polinomio interpolante, solamente produce su valor en cualquier argumento que se desee, ([Stoer], p.40).

Desde la época de Newton (1676), Gregory,(1670) y Stirling,(1730), se produjeron métodos de cálculo para encontrar los coeficentes del polinomio interpolante, que involucran las famosas diferencias divididas de Newton. A estos grandes pioneros debemos las primeras metodologías para interpolar una función, o sólo datos, conocida en un conjunto de soporte finito, generalmente con argumentos espaciados en forma arbitraria.

La importancia de este problema es ciertamente de dos naturalezas, una, la de caracterizar con precisión la función de error en intervalos abiertos de reales que contengan al conjunto de soporte, en el caso (\ref{uno}) y la segunda, la de proveer de métodos efectivos de cómputo de los valores $P(t),$ con $t$ fuera del soporte en el caso más general (\ref{Pc}). Ambos problemas han sido abordados desde el inicio histórico del problema. El algoritmo de Neville- Aitken mencionado con anterioridad, es una contribución valiosa e interesante al problema, y sale de los esquemas clásicos.

Con el polinomio interpolante se han desarrollado varias técnicas de diferenciación y de cuadraturas, al sustituir la función a diferenciar o a integrar con el interpolante.

Por otro lado, un dispositivo desarrollado por Gauss,(1814), para lograr aproximaciones de cuadraturas, requiere de polinomios ortogonales y la función debe conocerse en el conjunto de ceros de los mismos, (dado el grado del polinomio). En este caso pues, los argumentos quedan fijos por la naturaleza de la clase de polinomios en cuestión y por su grado. La cuadratura gaussiana obtiene máxima precisión dado el grado y el intervalo de integración en cuestión.

En todas y en cada una de las metodologías mencionadas, para el problema puesto en (\ref{uno}), el error, se conjetura en forma simplista, deberá disminuir a medida que se aumente el grado del polinomio. Varios ejemplos, notablemente el debido a C.Runge, muestra que para ello, el conjunto de soporte debe elegirse con cuidado.

Más aún hacia 1914, S.Bernstein y G.Faber. mostraron simultáneamente la falla de aproximación uniforme del interpolante a la función objetivo para algunos esquemas de interpolación con un número creciente de argumentos de soporte ([Fab]). En este caso, con polinomios de argumento complejo.

Afortunadamente, esas anomalías pueden ser controladas para producir esquemas con errores uniformemente aceptables en la región contemplada de la variable independiente.Esta metodología utiliza lemniscatas en el plano complejo y está expuesta con todo detalle en ([DR], Sec.4.4).

El problema general

Un paso decisivo en la teoría es el de generalizar el problema de interpolación el cual se obtiene al hacer la simple observación que en (\ref{Pc}) el número $P(t_{i})$ es el resultado de valuar una función real lineal $L_{i}(P)$ definida sobre el espacio vectorial $\mathcal{P}_{n}$, (una funcional), y queda unívocamente determinada por el argumento $t_{i},$ la llamada funcional de valuación. Esta simple observación permite la generalización que buscamos como sigue.

Contamos con un espacio lineal de dimensión finta, digamos $m,$ sobre el campo de los reales, que es el ejemplo común, llamémosle $\mathcal{X},$ y a su dual, $\mathcal{L}.$

Dados $m$ elementos $L_{1},\ldots,L_{m}\in\mathcal{L}$, linealmente independientes, y escalares $c_{1},c_{1},\cdots,c_{m},$ Se busca un elemento $x\in\mathcal{X}$, tal que \begin{equation} L_{i}(x)=c_{i}\quad;\quad i=1.\ldots,m.\label{Intern} \end{equation} El ejemplo que nos indujo hasta aquí, es el de $\mathcal{X} =\mathcal{P}_{n},$ el espacio de polinomios de una variable real de grado a lo más $n+1=m,$ con coeficientes reales y las funcionales de valuación $L_{i}(x)=x(t_{i})$ con $i=0,\cdots,n$ y $\left\{ t_{0},t_{1},\ldots ,t_{n}\right\} \in\mathbb{R}.$

Para ello, trabajaron arduamente, Newton, Gregory, Stirling, y VanderMonde, entre otros. La diferencia entre sus métodos radica en la elección de diferentes bases para $\mathcal{P}_{n}.$

En general, si dotamos a $\mathcal{X}$ con una base, $\left\{ x_{i}^{\ast}:i=1,\cdots.m\right\} ,$ resulta evidente que para el problema en (\ref{Pc}), se requiere encontrar los $m$ coeficientes reales $\left\{ \xi_{j}:j=1,,m\right\} $ $ $ que satisfagan el sistema de $m$ ecuaciones lineales \[ \sum_{j=1}^{m}L_{i}(x_{j}^{\ast})\,\xi_{j}=c_{i}\quad;\quad i=1.\ldots,m. \]

Requerimos, para la solución única, que la matriz de coeficientes sea invertible. Si esto es así, el interpolante resulta en la expresión \begin{equation} x=\sum_{i=1}^{m}\xi_{i}x_{j}^{\ast}.\label{IG} \end{equation} En términos numéricos, en general resolvemos estas ecuaciones por medio de la descomposición $LU$ de la matriz de coeficientes. Esta descomposición, en muchos casos de interés, posee también un significado teórico importante.

Una enorme clase de problemas es susceptible de formulación en este marco general que se sigue llamando de interpolación aún cuando difiere en sus detalles específicos del problema clásico.

Por ejemplo, con el mismo espacio $\mathcal{P}_{n}$ y las funcionales $L_{i}(x)=x^{(i)}(a)$ (la derivada de orden $i$ en $a\in\mathbb{R},$ para $i=0.1,\ldots,n),$ se obtiene el problema que resuelve G.I. Taylor tomando como base las funciones \[ x_{i}^{\ast}(t)=\dfrac{(t-a)^{i}}{i!}i=0,1.\ldots,n \text{ y }t\in \mathbb{R}. \]

Nótese que en esta instancia del problema general, se cuenta con la identidad, \begin{equation} L_{i}(x_{j}^{\ast})=\delta_{ij}\quad;\quad i,j=1,\ldots,m.\label{biort} \end{equation} donde $\delta_{ij}$ es el símbolo de Dirichlet.

Decimos en este caso, que las funcionales $\left\{ L_{i}\right\} $y los elementos $\left\{ x_{i}^{\ast}\right\} $son biortogonales. Es un ejercicio elemental, siguiendo los primeros dos teoremas en ([Halm]) e invirtiendo los roles de $\mathcal{X}$ y de $\mathcal{L}$ - lo cual es admisible por reflexividad de los espacios primal y dual- que podemos establecer que

Dada cualquier colección linealmente independiente de

de $m$ funcionales, $\left\{ L_{i}:i=1,\ldots,m\right\} \subset\mathcal{L},$ existe

una base $\left\{ x_{i}^{\ast}:i=1,\ldots,m\right\} \subset\mathcal{X}$ tal que obtenemos

un sistema biortogonal satisfaciendo (\ref{biort}).

De contar con este sistema de elementos biortogonales, la interpolación sugerida en (\ref{Pc}), se resuelve en de forma directa a partir de los datos a interpolar, pues resulta inmediatamente, la expresión \begin{equation} x=\sum_{i=1}^{m}c_{i}x_{i}^{\ast} \label{bio} \end{equation} para el elemento interpolante.

En el caso tayloriano, el interpolador $x\in\mathcal{P}_{n}$ se escribe directamente de los números $c_{i}$ como \[ x(t)=\sum_{i=1}^{n}x^{(i)}(a)\frac{(t-a)^{i}}{i!}. \]

En el caso polinomial con las bases de Newton o de Stirling, los coeficientes en (\ref{IG}) no son ni de cerca tan simples como en (\ref{bio}). El gran ingenio de Lagrange para obtener la fórmula que lleva su nombre, consistió en mostrar que para las funcionales de valuación $L_{i}(x)=x(t_{i}),$con $i=0,1,\ldots,n,$ los elementos biortogonales en $\mathcal{P}_{n}$ se escriben de forma única con la fórmula \begin{equation} x_{i}^{\ast}(t)= %TCIMACRO{\dprod _{j\neq i}} %BeginExpansion {\displaystyle\prod_{j\neq i}} %EndExpansion \frac{t-t_{i}}{t_{j}-t_{i}}\quad;\quad i=0,1,\ldots,n.\label{Li} \end{equation} con $j$ en la sumatoria variando en $\left\{ 0,1,2,\ldots,n\right\} .$y con ello se logra directamente la solución como en (\ref{bio}).

En este texto, a cualquier interpolación general con la fórmula (\ref{bio}), la llamamos Interpolación de Lagrange o lagrangiana, en su honor.

Comentario 1. Una referencia históricamente invaluable que contiene una colección grande de los métodos primeros, es la de E.T. Whiittaker ([Whitt1]) . En el texto se reportan además muchos métodos que anteceden al manejo estadístico de observaciones y de cálculo numérico desarrollados durante el siglo pasado. De ahí el título de la obra.
Comentario 2. Todos estos resultados, con muchos ejemplos de interpolación general y de control de los puntos de interpolación de polinomios de variable compleja con lemniscatas que se entrelazan, y de varios resultados importantes de aproximación se encuentran abundantemente explicados en el texto ([DR]). El texto está dirigido fundamentalmente al Análisis Matemático, y puede ser utilizado como introducción didácticamente valiosa a cursos de Análisis Funcional.
Comentario 3. Desde luego, todos estos resultados forman un núcleo central en los modernos procedimientos de Análisis Numérico. Un excelente texto, que destaca de entre otros, y que comprende teoría y metodologías computacionales en punto flotante, incluyendo con detalle el importante papel que juega la interpolación en soluciones numéricas de ecuaciones diferenciales, ordinarias y parciales es el de R. Burlisch y J, Stoer ([Stoer]).
Comentario 4. Un enfoque de interpolación y aproximación de funciones posterior a los ya comentados, lo constituye la teoría de 'splines', que en cada elemento de una partición de la región del argumento, especifica una clase de funciones, p.e. polinomios o exponenciales, y se empalman suavemente en las fronteras de la partición. Ver por ejemplo el tratado de L. Schumaker ([Sch]). La teoría y los esquemas computacionales han generado nuevas avenidas de trabajo intenso desde aproximadamente 1970. $ $Como ejemplo, de entre otros, mucho uso se hace hoy en día de los mismos en la teoría y praxis de algunas wavelets , cuya brillante exponente es I.Daubechies. ([Daub]) de Princeton.

Claude E. Shannon y dos ADAs

La importancia de los trabajos de C.E. Shannon para el desarrollo del mundo digital contemporáneo es de enorme enjundia. Ofrecemos una vista somera sobre dos de sus principales trabajos y de algunos de sus antecedentes tanto históricos como contextuales de su época.

No comentamos sobre el otro de sus grandes contribuciones. A saber, su noción de contenido de información de un mensaje en un sistema de comunicación emisor- canal-receptor. ([ShannComm]). ¡El canal sujeto a ruido!

Una primer Ada

La primera en aparecer en nuestro breve recuento, es Ada Augusta Lovelace, hija del poeta Byron y alumna de A. De Morgan y G.Boole, hacia 1860. Su padre la llamaba La Princesa de los Paralelogramos, debido al amor que ella profesaba por la matemática, y él hacia ella.

Por otro lado, el matemático C.Babbagge, quien mantuvo la silla de Newton en Cambridge por $11$ años e impulsado por su afán de lograr cómputos numéricos en forma automática, logró concebir dos máquinas. La llamada de diferencias y la llamada analítica. La primera, de la cual logró un prototipo, fue utilizada para varios cómputos y fue especialmente diseñada para la construcción de tablas. Se cuenta ([Bow], p8) que “En 1812, encontrándose sentado en uno de sus cuartos en la Sociedad Analítica mirando a una tabla de logaritmos, de la cual sabía que estaba repleta de fallas, se le ocurrió computar todas las funciones tabulares por medio de maquinaria”.

Su primer máquina así lo hizo a una escala modesta. La propuesta más ambiciosa de desarrollar el diseño a escala industrial nunca se llevó a cabo.

Al colaborar Ada Augusta con el matemático C.Babbagge en el diseño de su máquina analítica (La otra máquina de Babbagge fue la máquina en diferencias, y ésta fue concebida para computar censos y para producir tablas de interpolación entre otras.), precursora de las computadoras modernas, y entusiasmada con las perspectivas que ofrece, escribe varias notas, las cuales firmó con las iniciales, A.A.L., y relativas a la susodicha máquina controlada por tarjetas perforadas, en imitación de las tarjetas que guiaban la producción de brocados en el tela de Jacquard, repetidamente expresa lo siguiente alrededor de 1870: (Trad. propia.),

“Las tarjetas son una mera traducción de fórmulas algebraicas, o para decirlo mejor, son otra forma de notación analítica....Las tarjetas solamente indican

la naturaleza de las operaciones y de las direciones de las variables sobre las

que se ejecutarán las primeras, y ellas mismas, poseerán toda la generalidad del análisis, del cual son una mera transcripción....la máquina teje patrones algebraicos del mismo modo como el telar de Jacquard teje flores y hojas.

La máquina es, de facto, la representación mecánica y material de análisis”.

([Bow], pp.74-75). La construcción de la máquina soñada por Babbage, y por Ada Augusta tuvo que esperar más de medio siglo para convertirse en una realidad factible por medio de dispositivos electro-mecánicos para arribar a la máquina digital que opera gobernada por los ciclos de un reloj. El desarrollo de la forma en que las ideas elaboradas en las notas de A.A.L. fueron adaptadas a dispositivos electro-mecánicos está expuesto claramente en la referencia citada. Desde luego, hasta la fecha de esa publicación.

Es precisamente C. Shannon en su tesis de maestría en 1937 quien nos proveé de la relación precisa entre la lógica booleana y los circuitos eléctricos provistos de elementos de conmutación ('switching'). ([Shann] ). Se considera este trabajo un auténtico parteaguas de lo que hasta el momento de su concepción consistía de varias reglas ad-hoc para producir circuitos eléctricos dedicados a las telecomunicaciones. Principlamente, provinientes de la práctica telefónica.

Hasta antes de la aparición comercial del transistor en 1950, los mencionados circuitos estaban provistos de varios conjuntos de relés electro-mecánicas como sus elementos básicos de conmutación Después del trabajo de Shannon y gracias a él, , profileraron textos que dilucidaban el diseño, construcción y operación de tales circuitos para lograr fines lógicos específicos. Ver por ejemplo, ([Naslin]).

Lo que sigue en la historia, desde su concepción original hasta nuestra fecha con nuestras computadoras digitales modernas, ha resultado en una explosión constante de miniaturización, rapidez y bajos costos de producción. Con esto, dejamos aquí nuestro comentario de nuestra primer ADA. con el que se desea enfatizar la precedencia histórica de la idea de la computación moderna.

Una segunda ADA

La segunda ADA, en este escrito es relativo al acrónimo

Analógico/Digital/Analógico
con el cual nos referimos a la conversión electrónica de señales de funciones reales $x$ de argumento real, donde generalmente se refiere al argumento de las funciones como tiempo, referidas en ingeniería eléctrica como señales analógicas, para convertirlas a una serie de muestras de la misma $\left\{ x(kT):k\in Z\right\} ,$ llamadas señales digitales, a intervalos de tiempo equidistantes de longitud $T$, “ventanas”, para posteriormente reconvertirlas en funciones analógicas que operen sobre el mundo físico de las cuales se espera no difieran sustancialmente de la función original que fue muestreada. Esto, como concepción central.

Una vez obtenida la serie de valores $\left\{ x(kT):k\in Z\right\},$ estos pueden ser procesados y almacenados en una computadora digital en forma secuencial, y en paralelo. Con ello, por medio de algoritmos numéricos específicos, se obtiene cualquier transformación de la señal que se desee. Esta idea extiende enormemente la capacidad de dirigir cualquier propósito que se tenga en mente en las aplicaciones : Telecomunicaciones, Control (digital), Procesamiento robusto respecto de ruido, Transmisión digital de imágenes y de voz o de cualesquiera serie de datos, tal y como lo atestiguamos a diario hoy en día.

La literatura respecto de todos estos temas surge y prolifera entre los años de 1945. a los 1970, ligado a nombres como Åström , R-Bellman, R.Kalman, H. Nyquist, C.Shannon, (de nuevo) y L.Pontryaguin. Ofrecemos una breve lista de referencias, esencialmente textos pioneros, sólamente como indicación de los temas, pues comentarlos in extenso conllevaría uno o varios documentos. En ellas se encuentra un vasta cantidad de bibliografías. comúnmente utilzadas por los practicantes de ingeniería de comunicaciones y control. La matemática requerida para una lectura eficiente de estos temas, se fundamenta en Álgebra Lineal, principalmente, Álgebra Matricial, Análisis de Fourier, Análisis Numérico, Estadística de Procesos, Sistemas de Ecuaciones en Diferencias, Diferenciales y Parciales, Probabilidad y Estadística de Peocesos Aleatorios, y desde luego, y fundamentalmente, Variable Compleja. Damos algunas indicaciones bibliográficas en orden alfabético, ([A]),([Ack] )([Aoki])(,[Arbib]),(,[Bell]),([DV]),([Jaz] ),([Kall]).([Pont]).

Es de destacar para nosotros en México, la publicación de R.Kalman ([Kalman]).

Una valiosa contribución al enfoque exclusivamente discreto, lo ha representado por años el libro de I.E. Jury ([Jury]) el cual es una magnífica referencia para entender al mundo digitalizado. Todas las metodologías mencionadas han jugado papeles preponderantes en Control de Procesos Industriales y de Telecomunicaciones via satélies geo- estacionarios y para estabilizar constantemente. la posición de sus órbitas.

El manejo y teoría de señales en el caso analógico se llevó a cabo casi exclusivamente hasta alrededor de 1950, por medio de circuitos eléctricos y electrónicos en los que se incorporaban ciertas funciones que actuaban sobre voltajes o corrientes que representaban las señales en cuestión. Todo esto se impartió por muchos años en los cursos de licenciatura y de pogrado en ingeniería eléctrica, en los cuales se enfatizaba el uso intensivo de la Transformada de Fourier. Ver p.e. E.A.Guillemin ([G]). Sin embargo, y dado que estos circuitos transformantes (piénsese en radio, en TV, o en radar como ejemplos) consistían de componentes más o menos fijas, cuya flexibilidad ciertamente se encuentra acotada. La variabilidad deseada .que se sugería según su aplicación, se implantaba por medio de resistencias, inductancias y capacitancia variables cuyas posiciones típicamente se hacían accesibles al usuario mediante botones giratorios unidos por algún vástago unido a los elementos del circuito.

La flexibilidad que comento arriba, se aumenta en forma considerable al sujetar a las señales a procesos numéricos programados ad libitum en un solo dispositivo.para lograr cualquier resultado numérico deseado de importancia y significado para la operación de los sistemas digitales.

El modelo básico de digitalización de señales analógicas

Un modelo común de digitalización de una señal analógicase idealiza del modo siguiente.

Dado un reloj que pulsa cada $T$ segundos, y una señal $x,$ en cada intervalo (la ventana de muestreo) de la forma $ [kT,(k+1)T),$ con $k$ entero, reemplazamos los valores de $x$ por la constante $x(kT),$ de modo que nos quedamos con la función muestreada (con $I$ denotando la función indicadora) \begin{equation} x_{T}(t)= %TCIMACRO{\dsum \limits_{k\in\mathbb{Z}}} %BeginExpansion {\displaystyle\sum\limits_{k\in\mathbb{Z}}} %EndExpansion x(kT)\cdot I_{[kT.(k+1T)}(t).\label{XT} \end{equation} Este modelo puede sustentarse hoy en día con gran precisión por circuitos eléctricos y se denomina muestreo y retención (ing. 'sample and hold') De manera formal (Utilizamos la palabra formal para referirnos a forma, no a la formalidad de rigor. Este uso de formal indicando forma o fórmula, aparece en varios libros de matemática y de ingeniería.) calculamos su Transformada de Fourier \[ \widehat{x}_{T}(\omega)=\frac{1}{2\pi} %TCIMACRO{\dint \limits_{-\infty}^{+\infty}} %BeginExpansion {\displaystyle\int\limits_{-\infty}^{+\infty}} %EndExpansion x_{T}(t)\exp(-i\omega t)dt \] que resulta en la expresión \begin{equation} \widehat{x}_{T}(\gamma)=\frac{T}{2\pi}e^{-i\frac{\omega T}{2}}\frac {\operatorname*{sen}\left( \frac{\omega T}{2}\right) }{\frac{\omega T}{2}} %TCIMACRO{\dsum _{k\in\mathbb{Z}}} %BeginExpansion {\displaystyle\sum_{k\in\mathbb{Z}}} %EndExpansion x(kT)\exp(-ik\omega T).\label{sampled} \end{equation} Después de la constante, el primer término ciertamente muestra un corrimiento debido a la ventana.

El tercer término es reminiscente de una serie trigionométrica con los coeficientes $x(kT).$ que corresponden a las muestras de la función $x$ en los argumentos $\left\{ kT:k\in\mathbb{Z}\right\} .$ El segundo es la función llamada sinus cardinalis, valuada en $\pi T/2,$ donde esta función se define en general con variable compleja $z$ como \begin{equation} \operatorname{sinc}(z)=\frac{\operatorname*{sen}z}{z}\label{sinc} \end{equation} con valor $1$ en $z=0.$

La observación principal
Evidentemente, entre muestra y muestra se pierde información de la función original, y a medida que $T$ sea más pequeño, perderemos menos . Sobre todo para una clase de señales analógicas que no oscilen demasiado violentamente dentro de cada ventana temporal.

Esta es la cuestión que abordamos en la sección siguiente y que de nuevo, es C.E.Shannon quien resuelve matemátiamente en un contexto preciso para la práctica de las comunicaciones.

Interpolación infinita y la serie cardenal

Una enorme cantidad de trabajos se han dedicado al problema de interpolación infinita. No entraremos en gran detalle de ellos aquí. Solamente mencionamos dos del principio del s. XX, ambos de índole puramente matemática. El de N.E.Nörlund([Nor]) y el de J.M.Whittaker ([Whitt2]), quien cita y se basa en el primer trabajo citado como fundamental y quien fue hijo segundo de E.T. Whittaker, mencionado en el comentario (1). Notablemente, el libro de J.M. Whittaker presenta un manejo riguroso de los varios problemas de interpolación infinita.y obtiene la serie cardenal, (El origen del nombre de la serie me queda en la oscuridad.)que interpola funciones conocidads en los enteros y que introducimos en breve,

El trabajo de Nörlund extiende los esquemas clásicos de un número finito de argumentos de Gregory-Newton y de Stirling a un conjunto infinito de soporte, en particular los enteros, y entre otros resultados, partiendo del trabajo anterior se obtiene la llamada serie cardenal que introducimos en breve, y por añadidura, obtiene series en polinomios ortogonales a semejanza de las cuadraturas gaussianas. Este útlimo enfoque fue utilizado en los años 50-70 en los laboratorios ingeniería eléctrica en MIT en Massaschusetts,.([Lee]). bajo la tutela de Norbert Wiener, quien en esa época colaboró intensamente con A. Rosenblueth bajo los auspicios de I. Chávez en el Instituto de Cardiología de México.

Un texto más moderno, que unifica por medio de la Transformada de Laplace, las ideas provinientes de J.M. Whittaker y en el que adicionalemente se obtiene la serie cardenal interpolando funciones en los enteros es el el primer capítulo de C.Lanczos ([lan]), quien es contempaldo en el medio como uno de los más importantes exponentes de Análisiis Numérico moderno.

La serie cardenal que nos ocupa, nos proveé del vínculo teórico-práctico entre señales analógicas y las señales digitales que provienen de ellas.

Un modo sorpendentemente simple de introducir la serie cardenal de interpolación en los enteros nos lo presenta en su libro P.Davis, ([DR], Ej. II.23, p.54), que nos solicita advertir, sin más coemenrtario, lo siguiente,

Las funciones \[ x_{k}(z)=\dfrac{(-1)^{k}\operatorname*{sen}z}{z-k\pi}, \] con $k\in\mathbb{Z},$y $z\in\mathbb{C},$ y las funcionales $L_{k}(x)=x(k\pi),$ son biortonormales.

Esto resulta inmediatamente con la definición dada en (\ref{sinc}), puesto que \[ \dfrac{(-1)^{k}\operatorname*{sen}z}{z-k\pi}=.\operatorname{sinc}(z-k\pi) \]

y obtenemos una fórmula de interpolación lagrangiana como lo dijimos en la primera sección de este documento con la serie \[ \sum_{k\in Z}x(k\pi)\operatorname{sinc}(t-k\pi) \] que interpola a una función $x$ de argumento real en mútiplos de los enteros. Resulta entonces elemental, advertir que para cualquier número positivo, $l>0,$ la serie \begin{equation} \sum_{k}x\left( \frac{k\pi}{l}\right) \operatorname{sinc}l\left( t-k\pi\right) \label{Card1} \end{equation} interpola a $x$ en múltiplos de $T=\pi/l.$ Al interpretar este número como un intervalo de muestreo como en (\ref{sampled}), obtenemos la llamada serie cardenal en ingeniería eléctrica

Lo sorpenedente de esta serie es que para todo argumento $t\in\mathbb{R} ,$ la serie coincide exactamente con $x(t),$ la señal analógica muestreada para una clase importante de funciones. Este es el vínculo requerido entre el mundo analógico y el digital. De nuevo es C. Shannon ([ShannNyquist]) en 1949 quien se percata de la importancia central de este resultado para cierta clase de señales analógicas $x$ que procede a caracterizar en términos de su espectro en frecuencias -su Transformada Fourier-- escrita como sigue, \[ \widehat{x}(\omega)=\frac{1}{2\pi} %TCIMACRO{\dint \limits_{\mathbb{R}}} %BeginExpansion {\displaystyle\int\limits_{\mathbb{R}}} %EndExpansion x(t)\exp(-i\omega t)dt \] y muestra que la identidad de la serie con la función es exacta si se consideran aquellas funciones tales que $\widehat{x}(\omega)=0$ si $\left\vert \omega\right\vert >l.$ Esto es, cuyo espectro se anula fuera de un intervalo de longitud $2l$ $.$ Este intervalo puede estar situado alrededor de cualquier punto del dominio de $\omega.$

El argumento de Shannon corre esencialmente como sigue. Para esta clase de espectros, $\widehat{x},$sus correspondientes funciones $x$, pueden reconstruirse con la integral foureriana \begin{equation} x(t)=\frac{1}{2\pi} %TCIMACRO{\dint \limits_{\mathbb{-l}}^{l}} %BeginExpansion {\displaystyle\int\limits_{\mathbb{-l}}^{l}} %EndExpansion \widehat{x}\left( \omega\right) \exp(i\omega t)d\omega\label{anti} \end{equation} y notamos, por un lado, que podemos expresar a a $\widehat{x}\left( \omega\right) $ como una serie trigonométrica, $\sum_{k}c_{k}e^{-i\omega k/l}$ con los coeficientes $c_{k}=\frac{1}{2l} %TCIMACRO{\dint \limits_{\mathbb{-l}}^{l}} %BeginExpansion {\displaystyle\int\limits_{\mathbb{-l}}^{l}} %EndExpansion \widehat{x}\left( \omega\right) \exp(ik\pi/l)d\omega.$

Por otro lado, de la fórmula para los coeficientes y de (\ref{anti}) obtenemos la relación fundamental. \[ c_{k}=\frac{\pi}{l}x\left( \frac{k\pi}{l}\right) \quad;\quad k\in\mathbb{Z.} \] Esto es, los coeficientes de la serie son esencialmente los valores de $x\left( \dfrac{k}{2l}\right) $ (comparar con la expresión trigonométirca dada en (\ref{sampled})). Con sustituciones simples pero delicadas en su sustento analítico, intercambianos integral y sumatoria, para obtener de (\ref{anti}) la identidad de la función con su serie cardenal.(\ref{Card1}). Esto es, \begin{equation} x(t)=\sum_{k}x\left( \frac{k\pi}{l}\right) \operatorname{sinc}l\left( t-k\pi\right) .\label{Shannon} \end{equation} La expresión resultante es análoga a la obtenida en el modelo muestral en (\ref{sampled}). en tanto que la función $\operatorname{sinc}\left( lt\right) $ resulta ser la transformada de Fourier de una ventana, uniforme de la indicadora en el intervalo $[-T/2,T/2]$ con $T=\dfrac{\pi}{l}.$

La liga con la idea de funciones que no varían muy violentamente, se sustenta en la interpretación de $\omega$ como frecuencia angular. Esto es $\omega=2\pi\nu,$ donde $\nu$ es frecuencia (Hertz) y su valor absoluto es el recíproco de un período de una oscilación. La ecuación \[ 2l=\frac{2\pi}{T}=4\pi\nu_{\max} \] nos muestra al intervalo de muestreo con una frecuencia $\frac{1}{T} =2\nu_{\max}$ que representa el doble de la frecuencia más alta que aparece en el espectro de la señal $x.$ El número $2\nu_{\max}$ se conoce como el ancho de banda de la señal analógica.

Así pues, Shannon, obtiene con la serie cardenal el

Teorema de Muestreo Para reconstruir a una señal analógica a partir de sus muestras, es necesario que el intervalo de muestreo

se ejecute a una frecuencia igual al doble del ancho de banda de la señal.

O dicho de otro modo,

con un ciclo que sea la mitad del ciclo más pequeño en la descomposición de Fourier de la señal.

No damos detalles analíticos, los cuales Shannon supone conocidos. Interesantemente en su trabajo (op.cit. ) comenta, citando a J.M.Whittaker ([Whitt2]) que la serie cardenal ya era bien conocida desde hacía tiempo por matemáticos, y agrega soprendido que ellos no adviertieron la enorme trascendencia del resultado.

Comentarios sobre demostraciones de la serie

La identidad (\ref{Shannon}) puede y debe ser rigrosamente demostrada, y esto puede hacerse de muchos modos, Mencionamos algunos.resultados que permiten la obtención de ella en Análisis,

(a) Para funciones continuas con derivada seccionalmente continua, con saltos en un número finito de puntos en cada intervalo de su definición y absolutamente integrable en $\mathbb{R},$ ver por ejemplo, el libro de R. Courant y F. John ([CJ], Secc. 4,13 ec. (6a)) ).

(b) Para funciones de variable compleja con exponente exponencial de creciemiento $l,$cuya restrición al eje Hreal es de cuadrado integrable. Espacios de Wiener.(o de Bernstein $B_{l}$) (N.Wiener, G.Hardy). Ver J.R. Higgins ( ).>[Higg ).] (c) Para funciones generalizadas (Distribuciones en el sentido de Schwartz), con las que se libera de excesivos detalles analíticos de convergencia y de intercambio de sumatorias infinitas e integración. Se idealiza aún más la función de muestreo para convertirlo en muetreo instantáneo modelado con la noción del llamado peine de dirac En ([Rodd], Cap. IX)), por ejemplo, se escribe \begin{equation} x_{T}(t)=\sum_{k\in Z}x(kT)\cdot\delta(t-kT)\quad;\quad t\in\mathbb{R} \label{peine} \end{equation} y de ahí se parte para demostrar el Teorema.

Un texto particularmente útil para un manejo de las propiedades principáles de distribuciones con un módico precio de entrada en conocimientos matemáticos es el de M.J. Lighthill([Light]) que en su afán de poner las Distribuciones y el Análisis de Fourier a disposición de estudiantes de licenciatura de matemáticas, sacrifica solo dos aspectos complicados de la teoría que aparecen en el texto de G.Temple en que se basa y quien que a su vez simplificó el original de Laurent Schwartz.

La dedicatoria es muy significativa.

A Paul Dirac, quien primero supo que era verdad, a Laurent Schwartz quien la demostró

y a George Temple, quien mostró lo simple que puede hacerse.

Implantación

Con la teconolgía moderna de semiconductores de germanio-silicón, se han logrado velocidades de muestreo hasta de 5MHz. En audio se utilzan entre 8 y 16 KHz. El valor de la señal se digitaliza a 8,15,32 bits, (cuantización) dependiendo de todo esto y de la aplicación requerida, lo cual, desde luego, requiere también de un lapso de cuantización, de transmisión y de almacenaje de los mismos, la velocidad de muestreo se reduce. Existen también problemas de 'jitter' que es parecido a un fenómeno de Gibss al obtener la ventana en la expresión ideal (sampled) Todo esto debe tomarse en cuanta en las aplicaciones concretas a las que nos hemos referido en la sección (2.2).

Conclusión

Hemos dado ejemplos de la aplicación de la matemática al área de ingeniería eléctrica, para lo cual se requiere, para su buen éxito, de individuos que conocen ambos mundos de manera profunda.

En forma lateral resulta difícil encontrar ejemplos importantes a estos niveles universales de buen éxito.

También se ha querido demostrar que a la par de la física, la ingeniería eléctrica ha provisto de muchos ejemplos brillantes de aplicación de la matemática.

Huelga decir que el procesamiento digital de imágenes, hoy en día, recurre a todos los conceptos ligados al problema clásico con parámetro $t\in\mathbb{R}^{2}.$ La teoría se sustenta sin demasiado esfuerzo para problemas con $t\in\mathbb{R}^{d}.$ $d\geq1.$Profundizar en los temas que se han ventilado en este trabajo exige versatilidad temática para el (la) lector(a) de los mismos.

El tema de procesamiento digital que ciertamente engloba al de interpolación, está en franca explosión y con gran beneficio pueden consultarse las ligas siguientes.

Emmanuel Candès,
http://statweb.stanford.edu/~candes/publications.html
Ingrid Daubechies
http://www.pacm.princeton.edu/~ingrid/
David L. Donoho,
http://statweb.stanford.edu/~donoho/
Terence Tao,
https://terrytao.wordpress.com/
La matemática, una vez más, es la inspirada por el núcleo temático, reiteramos, constituido por Análisis de Fourier, Probabilidad, Estadística de Procesos, Análisis Numérico, en general y en particular y Algoritmos de Optimización Numérica con muchas variables. Existen muchas oportunidades para el diseño de nuevos programas de aplicación de Matmáticas en este contexto. Para ello, ¡se requiere de una excelente coordinación interdisciplinaria!

Bibliografía

[A] Åström,K. Introduction to Stochastic Control Theory. Academic Press, 1970.
[Ack] Ackermann,J., Abtast-regelung. Springer, Berlin, 1972.
[Aoki] Aoki, M.,Optimization of stochastic systems.,Academic Press, N.Y., 1967.
[Arbib] Arbib, M.A.,Falb,P.L.,Kalman, R.E:,Topics in mathematical sysstem theory. Mc Graw Hill., N.Y., 1969.
[Bell] Bellman R., Dynamic Programming, Princeton, N.J, 1957
[Bow] Bowden, B.V.(ed.) , Faster than Thought, A Symposium on Digital Computing Machines. Pitman, Londres, 1953.
[CJ] Courant R. John F., Introducción al Cálculo y al Análisis Matemático., Vol. 2. Limusa, 5a. Impresión, México, 1993.
[Daub] Daubechies, I. Ten Lectures on Wavelets, SIAM; Philadelphia, 1992.
[DR] Davis,P-J. Interpolation & Approximation, Blaisdell, Mass., 1963, Dover, 1975
[DV] Davis M.H.A. Vinter, R.B., Stochastic Modelling and Control., Chapman and Hall, London, 1984.
[Fab] . G. Faber, Über die interpolatorische Darstellung stetiger Funktionen, Jahresber. der deutschen Math. Verein. 23 (1914), 190-210..
[G] Guillemin, E.A. Theory of Linear Physical Systems: Theory of physical systems from the viewpoint of classical dynamics,
including Fourier methods. J. Wilwy, N.Y., 1963. (Dover Books on Physics) 5 jun 2013
[Halm] Halmos, P.R., Finite-Dimensional Vector spaces, Springer, N.Y., 1970.
[Higg] Higgins, J.R. Five Short Stories about the Cardinal Series., Bull. (New Series), AMS, Vol. 12. N0.1, 1985.
[Jaz] Jazwinski, A.H., Stochastic processes and filtering theory. Academic Press, N.Y. 1970.
[Jury] Jury, E.T. Theory and application of the z-transform method. Wiley, N.Y.1964.
[Kall] Kallianpur, G.;Stochastic Filtering Theory., Springer, N.Y.,1980.
[Kalman] Kalman, R.E., Contributions to the theory of optimal control. Bol. Soc.MAt. Mexicana. Vol. 5.pp. 102-119.1960.
[lan] Lanczos, C. Linear Differential Operators, van Nostrand, London, 1961.
[lan2] Scaife, B.K., Studies in Numerical Analysis. Papers presented to Cornelius Lanczos., Academic Press, London,. 1974.
[Lee] Lee, Y.W., Statistical Theory of Communication, J. wiley, N.Y., 1960.
[Light] Lighthill. Fourier Analysis and Generalized Functions., Cambridge Univ. Press, 1960.
[Naslin] Naslin, P., Circuits a relais et Automatismes a séquences.,Dunod, Paris, 1958.
[Nor] Nörlund,N.E. Leçons sur les Series d' Interpolation, Gauthier Villars, Paris, 1926.
[Rodd] Roddier Francois, Distributions et Transformation de Fourier, EDISCIENCE, Paris, 1971.
[Pont] Pontriaguine, L.Boltiansky, V., Gamkrélidzé, R., Michtchenko, E. Théorie Mathématique des Processus Optimaux, MIR., Moscú, Trad. francesa, 1974
[Sch] Schumaker, L., Spline Functions: Basic Theory., J. Wiley, N.Y., 1980.
[Shann] Shannon, C.E. A Symbolic Analysis of Relay and Switching Circuits,. Trans. AIEE. 57 (12): 713--723), 1938.
[ShannComm] Shannon, C.E. A Matehematical Theory of Communication.The Bell System Journal, vol. 27.,pp.379-423, 623-656, Oct. 1948.
[ShannNyquist] Shannon, C.E., Communication in the Presence of Noise. Proc. of the Institute of Radio Engineers, vol. 37,no.1,pp.10-21, enero, 1949.
[Stoer] Stoer, J. Burlisch, Introduction to Numerical Anlysis, 2a. ed. Springer, N.Y. 1993. Trad, inglesa.
[Torfer] Torfer L. C., Estudio sobre la relación de circuitos conmutados y el álgebra de Boole, Tesis (Matemáticas Aplicadas) -- ITAM 1984
[Whitt1] Whittaker, E., Robinson, G. The Calculus of Observations, 4a. ed. Dover, N.Y., 1967.
[Whitt2] Whittaker,J.M. Interpolatiory Function Theory, Cambridge Tracts,.in Mathematics and Mathematical Physics.Cambridge Univ. Press., 1933.
José Luis Farah Ibáñez
Instituto Tecnológico Autónomo de México (ITAM)
Motivos Matemáticos es una publicación electrónica del Instituto de Matemáticas, UNAM
© 2017