Imagen y sus transformaciones ortogonales. Algoritmos para la compresión de imágenes digitales mediante transformaciones ortogonales.

Con base en las transformaciones DFT, Walsh-Hadamard y Haar, se pueden construir otras transformaciones. transformaciones ortogonales. Se pueden determinar utilizando el producto de Kronecker o como suma de los productos de Kronecker. Por ejemplo, se propone una transformada híbrida de Hadamard-Haar, cuya matriz es del orden de dimensión que se define como

El artículo ofrece una definición recursiva de la llamada transformada de Hadamard modificada.

y se indica su conexión con la transformada de Haar.

Consideramos la matriz de la llamada transformada generalizada de Walsh de orden de dimensión (transformación por funciones de Vilenkin-Chrestenson), definida como la potencia de Kronecker de la matriz.

El trabajo describe la llamada transformación -, que se construye sobre la base de la transformación de Walsh-Hadamard reemplazando cada suma en la expresión (3.114) con su valor absoluto. Esta transformación es irreversible.

También vale la pena mencionar la transformada inclinada, la transformada inclinada de Haar y la transformada de base discreta propuestas para la codificación de imágenes.

Se puede demostrar que la mayoría de las transformaciones unitarias utilizadas actualmente en el procesamiento de imágenes se pueden representar como sumas de productos de Kronecker de matrices elementales, matrices de permutación y algunas otras. Esta representación de las matrices de Haar, Hadamard, Walsh, Walsh-Paley, matriz de Hadamard modificada, matriz de Hadamard-Haar, matriz DFT y matriz de Walsh generalizada se muestra en la Tabla. 3.5 usando la siguiente notación:

Una matriz de permutación de dimensiones, cuando se multiplica por un vector, sus elementos se reorganizan de acuerdo con el código binario invertido de su número; - matriz de permutación de dimensiones que realiza la permutación de elementos vectoriales de acuerdo con el código Gray inverso de sus números; - Producto de Kronecker de matrices; Poder de Kronecker de la matriz.

(ver escaneo)

Continuación de la mesa. 3.5 (ver escaneo)

Esta representación proporciona una base conveniente para comparar transformaciones. Así, al comparar representaciones de una matriz, es fácil “observar que difieren en el orden inverso de las matrices en cada término; la matriz MHAD se diferencia de la matriz HAD de Hadamard en que no está construida sobre ella;

Y así sucesivamente. Para todas estas matrices, existen algoritmos rápidos para multiplicarlas por un vector al realizar la transformación. Este hecho está más directamente relacionado con la posibilidad de representar matrices en forma de sumas de matrices de Kronecker (ver Capítulo 4).

Con base en las transformaciones unidimensionales descritas, las transformaciones separables bidimensionales correspondientes se pueden construir como unidimensionales dobles:

donde M es una de las matrices de transformación descritas anteriormente; a - señal discreta bidimensional; a es su transformación.

Tenga en cuenta que todas las transformaciones de imágenes unitarias utilizadas actualmente en el procesamiento de imágenes digitales son separables, es decir, se realizan por separado a lo largo de las columnas y filas de una señal bidimensional. Esto reduce la cantidad de operaciones necesarias para completarlos. También se pueden construir transformaciones separables eligiendo diferentes matrices para las transformaciones a lo largo de filas y columnas:

Así resulta transformaciones mixtas, utilizado en dispositivos especializados de codificación de imágenes digitales (ver, por ejemplo,).

Las aplicaciones de transformaciones unitarias en el procesamiento de imágenes se pueden dividir en tres grupos:

Codificación de imágenes;

Extracción de características para preparación y reconocimiento de imágenes;

Filtrado generalizado.

La codificación de imágenes es actualmente la principal aplicación de las transformaciones (excepto DFT). Además, algunas de las transformaciones (por ejemplo, transformación inclinada y transformación de base lineal discreta, etc.) se introdujeron específicamente para su uso en codificación.

Los coeficientes de representación de la señal obtenidos como resultado de su transformación pueden considerarse sus signos y usarse en la preparación de imágenes (ver Parte II, Capítulo 7) y para el reconocimiento. Un ejemplo de una transformación inventada específicamente para resaltar características durante el reconocimiento es la transformación -. Las aplicaciones de transformaciones para codificación y reconocimiento están relacionadas. Como regla general, las transformaciones que dan mejores resultados para la codificación también lo son para la extracción de características.

El uso de transformaciones unitarias para filtrar señales se basa en una generalización del concepto de filtrado en el dominio de la frecuencia. transformada discreta Fourier. Al filtrar señales usando DFT, se realiza la siguiente transformación de señal:

Matrices de transición de la transformación T a la DFT y viceversa.

Este enfoque se propuso para generalizar el filtrado lineal óptimo (Wiener) (ver también).

Dependiendo del tipo de transformación T y de las propiedades del filtro requerido, la complejidad de realizar la operación de filtración (3.139), estimada, digamos, por el número de operaciones, puede variar. En particular, puede resultar más rentable utilizar la transformada más rápida de Walsh-Hadamard en lugar de la DFT, a pesar de la mayor complejidad de la multiplicación por una matriz de filtro fuera de la diagonal en este caso (ver también § 6.5).

Uno de los medios más comunes para procesar señales unidimensionales y multidimensionales, incluidas imágenes, son las transformaciones ortogonales. El papel de las transformaciones ortogonales es especialmente importante para resolver el problema de reducir la velocidad de transmisión de símbolos binarios en la televisión digital y, en consecuencia, reducir la banda de frecuencia requerida de los canales de comunicación. La esencia de las transformaciones ortogonales es representar la señal original como una suma de funciones de base ortogonales.

Recuerde que las funciones x(t) e y(t) se llaman ortogonales en el segmento (t 1, t 2) si su producto escalar es igual a cero.

Esta definición se puede ampliar a señales discretas representadas por secuencias de números. Las señales discretas x(n) e y(n), cada una con N muestras, se denominan ortogonales si se cumple la condición.

Uno de los más ejemplos famosos La aplicación de la transformación ortogonal es la expansión de la señal periódica x en una serie de Fourier

Dónde: ; T - período de repetición de la señal x(t).

Los coeficientes reales de la serie de Fourier están determinados por las relaciones

En forma compleja, el desarrollo en serie de Fourier tiene la forma:

Amplitudes armónicas complejas;

j es la unidad imaginaria.

No sólo una señal periódica con un período T, sino también una señal que difiere de 0 sólo en el intervalo de tiempo (-T/2, T/2) se puede expandir a una serie de Fourier. En este caso, se utiliza una continuación periódica de la señal a lo largo de todo el eje del tiempo con un período T.

Consideremos una señal discreta x(n), diferente de 0 para n = 0,1, ..., N-1. Para tal señal, también es posible introducir una expansión de base de funciones sinusoidales. Dado que el espectro de frecuencia de la señal muestreada debe limitarse desde arriba de acuerdo con la condición del teorema de Kotelnikov, un número finito de componentes de frecuencia que quedan en la descomposición de la señal discreta son funciones armónicas complejas discretas. Esta expansión, llamada transformada discreta de Fourier (DFT), tiene la forma

N=0, 1…N-1,(2.6)

donde los coeficientes DFT X(k) están determinados por la relación

K=0, 1…N-1,(2,7)

Recuerde que encontrar los coeficientes X(k) de (2.7) generalmente se llama DFT directo, y obtener una señal a partir de estos coeficientes de acuerdo con (2.6) es una DFT inversa.

En estas relaciones aparecieron sumas en lugar de integrales, ya que la señal original no es continua, sino discreta. Frecuencia utilizada en la descomposición. señales analógicas y de dimensión rad/s, en la DFT corresponde a una cantidad adimensional, donde k=0, 1…N-1. La relación muestra qué fracción de la frecuencia de muestreo es la frecuencia de un armónico discreto dado.

Los coeficientes DFT Х(k) y los factores exponenciales en (2.6), (2.7) son números complejos. Cada número complejo se almacena en la memoria digital como un par de números reales que representan sus partes real e imaginaria. Sumar dos números complejos requiere realizar dos operaciones de suma de números reales: las partes real e imaginaria se suman por separado. Multiplicar dos números complejos requiere cuatro operaciones de multiplicación y dos operaciones de suma para números reales. Por lo tanto, realizar DFT en forma compleja conduce a un aumento significativo en el volumen de memoria requerido y el tiempo de cálculo.

Para tratar sólo con números reales, normalmente utilizan la descomposición por transformada de coseno discreta (DCT), descrita por la relación:

donde los coeficientes de política monetaria están determinados por las fórmulas

Como en el caso de DFT, encontrar los coeficientes C(k) según (2.9) se llama DCT directa, y representar la señal en la forma (2.8) se llama DCT inversa.

De manera similar, podemos escribir las relaciones para DFT y DCT directa e inversa en caso bidimensional. Una señal discreta bidimensional, por ejemplo, un cuadro separado de una señal de televisión digital, se representa mediante una matriz de valores x(t,n), donde t = 0 ... M-1 - número de muestra en el línea, n = 0 .., N-1 - número de línea en el marco.

La DFT bidimensional directa tiene la forma:

k=0…M-1, l=0…N-1,

donde X (k, l) son coeficientes DFT complejos que reflejan el espectro de frecuencia espacial de la imagen.

La DFT bidimensional inversa representa la descomposición de una imagen en funciones básicas:

Los coeficientes de la política monetaria directa bidimensional están determinados por las fórmulas:

La DCT bidimensional inversa tiene la forma:

Las cantidades y son frecuencias espaciales discretas, a lo largo de las coordenadas horizontales y verticales, respectivamente, que se expresan como cantidades adimensionales que tienen el mismo significado que la frecuencia discreta en el caso unidimensional. Cada frecuencia espacial discreta es proporcional a la relación entre el período espacial de muestreo en una coordenada dada y el período espacial de este componente de frecuencia. Los períodos espaciales se miden en unidades de distancia.

En la figura. 2.3 muestra las funciones básicas de DCT bidimensional para M = 8, N = 8 en forma de imágenes de semitonos. Las áreas claras corresponden a valores positivos y las áreas oscuras a valores negativos.

Arroz. 2.3.

Ejemplos mostrados:

  • a) k = 1, l= 0; b) k = 0, l = 1; c) k = 1, l = 1;
  • d) k = 0, l = 2; mi) k = 1, l = 2; e) k = 2, l = 2;
  • gramo) k = 4, l = 2; h) k = 7, l = 1; yo) k = 7, l = 7.

Una propiedad notable de descomponer una señal de video en la base DCT es que cada función básica contiene información sobre la imagen completa a la vez. El número de funciones básicas utilizadas para descomponer la señal de vídeo determina la precisión de la representación de la imagen.

De acuerdo con , en general, es posible estimar el costo de los recursos computacionales al realizar DFT directa e inversa como proporcional a N 2 . De manera similar, se puede demostrar que el cálculo de las DFT bidimensionales directas e inversas requiere un número de operaciones proporcional a N 2 M 2.

Por ejemplo, calcular el DFT para un bloque de imagen cuadrado que contiene 8x8 elementos (píxeles) requerirá aproximadamente 16 10 3 operaciones de multiplicación y suma. Y calcular el DFT de un cuadro de televisión en blanco y negro del estándar de descomposición habitual, que contiene 720x576 píxeles, requerirá alrededor de 8,10 11 operaciones. Si los cálculos se realizan en un ordenador que realiza 10 6 operaciones con números reales por segundo, el tiempo de cálculo de la DFT será de 8 10 5 s o más de 200 horas, obviamente, para calcular la DFT de imágenes de televisión en tiempo real, es decir, Durante el período de escaneo de cuadros, es necesario buscar formas de reducir la cantidad de operaciones requeridas.

La forma más radical de reducir la cantidad de cálculo es utilizar algoritmos DFT rápidos descubiertos en los años 60, llamados algoritmos de transformada rápida de Fourier (FFT). Los algoritmos rápidos para calcular DFT se describen en detalle en muchas fuentes bibliográficas y no se analizan aquí.

Una FFT bidimensional se puede descomponer en una secuencia de FFT unidimensionales. El número de operaciones requeridas resulta ser proporcional. Para el ejemplo anterior de un cuadro de televisión que consta de 720x576 píxeles, este valor resulta ser aproximadamente 8 · 10 6, que es 10 · 5 veces menor que el número de operaciones necesarias para calculo directo DFT.

También existen algoritmos rápidos para calcular la política monetaria. Como se verá a continuación, en la televisión digital el papel principal lo desempeña el DCT de bloques de 8x8 píxeles, que utiliza un algoritmo para calcular rápidamente un DCT unidimensional de un segmento de señal digital que contiene ocho elementos. En este caso, primero se calcula la DCT para cada columna del bloque de elementos de la imagen y luego se calcula la DCT para cada fila de la matriz de números de 8x8 resultante.

En los equipos modernos, incluida la televisión digital, DFT y DCT generalmente se realizan en tiempo real utilizando procesadores de señales digitales (DSP) o hardware especial, por ejemplo, dispositivos informáticos paralelos.

DCT es la base de los métodos de codificación JPEG, MPEG-1 y MPEG-2 más utilizados actualmente, cuya descripción se proporcionará en la sección 2.2.

Algoritmos para la compresión de imágenes digitales mediante transformaciones ortogonales.

como un manuscrito

Umniashkin Serguéi Vladímirovich

UDC 004.932: 004.421: 519.722

Métodos matemáticos y algoritmos digitales.

compresión de imágenes usando

transformaciones ortogonales

Especialidad 13.05.11 - “Matemáticas y software computadoras, complejos y redes informáticas”

Moscú – 2001 2

El trabajo se llevó a cabo en el Instituto Estatal de Tecnología Electrónica de Moscú (Universidad Técnica)

Consultor científico: Doctor en Ciencias Físicas y Matemáticas, Profesor Pospelov A.S.

Opositores oficiales:

Doctor en Ciencias Físicas y Matemáticas, Profesor Ososkov G.A.

Doctor en Ciencias Físicas y Matemáticas, Profesor Selishchev S.V.

Doctor en Ciencias Técnicas, Profesor Koekin A.I.

organización líder: Radio del Instituto Federal de Investigación de Empresas Unitarias del Estado (Moscú)

La defensa tendrá lugar el 19 de febrero de 2002 a las 14.30 horas en una reunión del consejo de tesis D.212.134.02 en el Instituto Estatal de Tecnología Electrónica de Moscú en la dirección: 103498, Moscú, Zelenograd, MIET (TU).

La disertación se puede encontrar en la biblioteca MIET (TU).

Secretario científico de la tesis /Vorobiev N.V./ profesor del consejo

Características generales del trabajo.

Pertinencia temas. Almacenar y transmitir imágenes con representación digital directa en forma de una matriz de píxeles (puntos de imagen) requiere el procesamiento de enormes cantidades de datos.

Sin embargo, la representación directa de imágenes es ineficaz: debido a la importante correlación de los elementos de la matriz, la codificación independiente de píxeles genera códigos redundantes. Por lo tanto, entre otros problemas del procesamiento de imágenes digitales, es de particular relevancia el problema de la compresión de imágenes, que consiste en encontrar formas de implementar una codificación eficaz de los datos visuales.

Propósito del trabajo. La complejidad de los algoritmos utilizados para la compresión de imágenes crece constantemente; esto se refiere no solo al volumen de cálculos, sino también a los fundamentos ideológicos para la construcción de algoritmos, la mayoría de los cuales se basan en el uso de transformaciones ortogonales discretas para el preprocesamiento de datos. Al mismo tiempo, el problema de la compresión de imágenes lo plantea la práctica, lo que requiere una atención constante a las capacidades de los equipos reales a la hora de solucionarlo. Objetivo El trabajo implicó el estudio de cuestiones teóricas sobre la codificación eficiente de imágenes mediante transformaciones ortogonales, así como el desarrollo de algoritmos de compresión adecuados para uso práctico sobre la base de herramientas informáticas universales de uso general.

Dirección de investigación. La investigación realizada en la tesis incluyó la consideración de los siguientes temas:

1. Investigación y desarrollo de métodos de análisis teórico y síntesis de transformaciones discretas para esquemas de compresión de datos correlacionados;

2. Desarrollo de nuevos algoritmos rápidos para calcular la transformada discreta de Chrestenson-Levy (DCLT) y un algoritmo de compresión de imágenes de medios tonos basado en la codificación estadística de los espectros DPCL;

3. Estudio de las particularidades y formalización del esquema de compresión general mediante procesamiento bloque a bloque. fragmentos de imágenes mediante transformación ortogonal seguida de cuantificación y codificación estadística de coeficientes de transformación;

4. Desarrollo de algoritmos de compresión de imágenes wavelet y estudio de las posibilidades de codificación fractal en el espectro wavelet;

5. Desarrollo de un algoritmo de compresión de secuencias de video (imágenes dinámicas), adecuado para su uso en forma de implementación de software basado en herramientas informáticas universales de propósito general (computadoras personales multimedia).

Métodos de investigación. Se utilizaron métodos de análisis matemático y funcional como principal herramienta de investigación teórica. álgebra lineal, teoría de la probabilidad y estadística matemática, teoría de la información. Una parte importante de la investigación también consistió en experimentos informáticos sobre el procesamiento de imágenes estáticas y dinámicas reales, con el objetivo de obtener los datos estadísticos necesarios y determinar las características de los algoritmos de compresión finales. Los experimentos realizados confirmaron la precisión. soluciones teóricas y la efectividad de los algoritmos de compresión propuestos.

novedad científica. Como resultado del trabajo de tesis, se obtuvieron nuevos métodos para analizar la efectividad de transformaciones ortogonales diseñadas para comprimir datos correlacionados; específicamente para la compresión de datos, se introdujo en consideración la transformada pseudocoseno discreta (DPCT) (construida por primera vez). Se han desarrollado nuevos algoritmos rápidos para calcular DPCL, a partir de los cuales se ha obtenido por primera vez un esquema de compresión para imágenes estáticas con características similares al método JPEG.

Para el procesamiento de imágenes fijas y dinámicas, se han propuesto nuevos algoritmos y enfoques teóricos generales que formalizan procedimientos para el análisis y síntesis de esquemas de compresión de imágenes digitales basados ​​en transformaciones ortogonales discretas.

Para la defensa de la tesis se presentan los siguientes resultados principales:

Un método para evaluar la eficiencia de descorrelación de transformaciones ortogonales y algoritmos de agrupamiento para DPKP correlacionados basados ​​en él y un algoritmo rápido para su cálculo;

Nuevo algoritmo rápido DPCL y su modificación: un algoritmo con cálculo incompleto; algoritmo de cálculos combinados DPKL para procesar matrices reales en la base (1,exp(-2i/3));

Un método de compresión de imágenes basado en un método especial de codificación aritmética de los espectros DPCL de bloques de imágenes;

determinista y estimaciones probabilísticas coeficientes de transformada de coseno discreto (DCT);

Algoritmo para codificación contextual de espectros de imágenes DCT;

Esquema general de compresión de imágenes basado en cuantificación vectorial adaptativa en el campo de las transformaciones ortogonales;

Algoritmos de compresión Wavelet para imágenes estáticas;

Algoritmo de búsqueda de bloques de imágenes en movimiento;

Técnica experimental para construir espectros de partición en áreas de codificación independientes;

Algoritmo de compresión de vídeo.

Valor práctico. En general, el contenido del trabajo es aplicado, por lo que los resultados teóricos obtenidos sirven también para alcanzar objetivos relacionados con el desarrollo de algoritmos y esquemas específicos para la compresión de imágenes digitales. La aplicación de los algoritmos de compresión de imágenes obtenidos es posible para una amplia clase de sistemas para almacenar y transmitir información visual, principalmente en aplicaciones informáticas multimedia y de red. Los algoritmos desarrollados, como lo confirman los experimentos, tienen altas características en términos de velocidad, calidad de procesamiento y compresión de datos, que corresponden al nivel mundial moderno.

Implementación de resultados del trabajo. Los resultados teóricos del trabajo y los algoritmos para comprimir imágenes de vídeo se introdujeron en el Complejo Estatal de Investigación y Producción “Centro Tecnológico” del MIET (http://www.tcen.ru) y se utilizaron en las actividades científicas y de producción del Centro Científico y Empresa de producción “Tecnología” (Moscú).

Aprobación del trabajo. Resultados principales El trabajo fue informado y discutido en las siguientes conferencias y reuniones científicas:

1. VII Escuela de invierno de Saratov sobre teoría de funciones y aproximaciones (SSU, enero de 1994).

2. Int. conferencia sobre teoría de funciones y aproximaciones, dedicada al 90 aniversario de Acad. S.M. Nikolsky (Moscú, MI RAS, mayo de 1995).

3. Conferencias científicas y técnicas de toda Rusia “Electrónica e Informática” (Moscú, MIET, 1995-2000).

4. Internacional. conferencia sobre teoría de la aproximación de funciones, dedicada a la memoria del prof. P.P. Korovkina (Kaluga, KSPU, 26 al 29 de junio de 1996).

5. Conferencias internacionales “Métodos de optimización de cálculos” (Kiev, 1997, 2001).

6. Congreso internacional “Problemas de la educación matemática”, dedicado. 75 aniversario de miembro correspondiente. Profesor de la Academia de Ciencias de Rusia. L.D.Kudryavtseva (1998).

7. Conferencia internacional “Teoría de la aproximación y análisis armónico” (Tula, 26 al 29 de mayo de 1998).

8. Conferencia internacional “Tecnologías de la información en proyectos innovadores” (Izhevsk, 20 al 22 de abril de 1999).

9. VII Congreso Internacional “Matemáticas. Economía. Ecología. Educación” – Simposio Internacional “Las Series Fourier y sus Aplicaciones”

(Novorossiysk, 1999).

10. VII Congreso Internacional “Matemáticas. Computadora. Educación"

11. Conferencia internacional dedicada al 80 aniversario del nacimiento de S.B. Stechkin (Ekaterimburgo, 28 de febrero - 3 de marzo de 2000).

Publicaciones. El contenido principal de la disertación se refleja en 30 trabajos.

Estructura y alcance de la tesis.. La disertación contiene páginas (de las cuales 26 páginas son apéndices) y consta de una introducción, seis capítulos, una conclusión y 6 apéndices. La lista bibliográfica incluye 178 títulos. Los apéndices proporcionan resultados numéricos una serie de experimentos sobre procesamiento de imágenes, así como información de fondo y copias de documentos sobre el uso de los resultados del trabajo de tesis.

en la introducción(28 páginas) se fundamenta la relevancia, la novedad científica y el valor práctico de la investigación. Se resumen brevemente los contenidos de los capítulos.

En el primer capitulo(35 páginas) proporciona la información preliminar necesaria para una presentación adicional, proporciona una breve descripción y clasificación de los principales enfoques para implementar una codificación de imágenes eficaz.

El uso de algoritmos de compresión con pérdida para imágenes de medios tonos está muy extendido: permitiendo un error en la imagen reconstruida, se puede conseguir mucho más alto nivel compresión de datos. Muy a menudo, la calidad del procesamiento de imágenes se evalúa mediante X = (xi, j) – la matriz de la imagen original, X = (xi, j) – la matriz de la imagen obtenida después del procesamiento (compresión y recuperación de datos). Para el valor logarítmico de la desviación estándar, se utiliza la medida generalmente aceptada PSNR (relación señal-ruido pico). Es conveniente considerar los métodos de compresión de imágenes en forma de un esquema general que consta de tres etapas principales: reducción entre elementos. correlación de datos, cuantificación de elementos de datos, codificación estadística. La cuantificación es la principal herramienta utilizada en la compresión de datos con pérdida. En esencia, la cuantificación es la extracción de alguna parte básica de información de los datos de entrada, cuando hay menos. parte significativa cae.

Se utilizan cuantificación tanto escalar como vectorial.

Convertir una imagen a la región espectral generalizada usando transformación lineal F puede reducir significativamente la correlación entre elementos en la matriz de transformación Y = F (X) en comparación con la correlación de elementos en la matriz de imagen discreta. Entonces, la codificación independiente por componentes de la matriz Y, en lugar de la matriz X, se vuelve más. eficiente. También se puede dar una interpretación energética del propósito del uso de transformaciones, que en este entendido es concentrar la parte máxima de la energía de la señal discreta original (matriz X) en el número mínimo de coeficientes espectrales (elementos de la matriz Y). Existe una cierta conexión entre la distribución de energía en el espectro generalizado y las propiedades descorrelacionantes de las transformaciones. Por lo tanto, estudiar la efectividad de las propiedades descorrelacionadas es una tarea importante al elegir una transformación para usar en un esquema de compresión.

Las imágenes fotográficas reales son señales bidimensionales que tienen heterogeneidades (características) en las áreas de los contornos de los objetos, por lo que la base de las funciones utilizadas para la descomposición debe tener una buena localización en la imagen original. Sin embargo, en las áreas de fondo, la imagen puede considerarse como la realización de una señal estacionaria, lo que hace preferible utilizar una base de expansión localizada en frecuencia (es bien sabido que los coeficientes de Fourier de la expansión trigonométrica de una señal estacionaria son no correlacionado).

Es imposible lograr simultáneamente una alta resolución en los dominios de frecuencia y tiempo debido al principio de incertidumbre de Heisenberg. La solución es utilizar bases de ondas funcionales (ráfagas), que tienen una resolución de tiempo-frecuencia variable. Los enfoques basados ​​en salpicaduras son actualmente dominantes en el procesamiento de imágenes fijas, reemplazando gradualmente la herramienta de descorrelación tradicional, la transformada de coseno discreta.

El primer capítulo señala que para optimizar los algoritmos de compresión de datos con pérdida, a menudo se utiliza un enfoque basado en minimizar la función Lagrange RD. Sea X un conjunto de datos de entrada que, como resultado del procedimiento de compresión-recuperación, está asociado con un conjunto de datos de salida de la misma naturaleza, Y=F(X,u), donde u=(u1,... ,un) es un conjunto de parámetros de control del algoritmo de compresión F. Consideramos elementos X, Y de algún espacio con métrica D(X,Y), el conjunto de todos valores posibles vector de control u lo denotamos por U. El problema de optimización de codificación es encontrar tales parámetros u* = u1,..., un del algoritmo F para un conjunto dado de datos de entrada X y el costo de bits máximo permitido Rb tal que los datos error de codificación D(X, Y)=D(X,F(X,u)) tomaría valor mínimo. Es decir, donde R(X,u) es el número de bits necesarios para codificar un conjunto de datos X con parámetros u.

Encontrar una solución tareas(1) en la mayoría de los casos se reduce a engorrosos procedimientos numéricos de naturaleza iterativa. Si no se especifica la restricción R(X,u)Rb, entonces para determinar los parámetros de codificación óptimos u* correspondientes a la solución del problema (1) para algún valor (previamente desconocido) de Rb, se utiliza una versión simplificada de minimizar el RD de Lagrange. Se utiliza la función:

donde es un parámetro no negativo especificado externamente. El parámetro de la función J(u) establece el equilibrio entre la calidad y el nivel de compresión de datos. El valor =0 corresponde al error de codificación más pequeño; aumentando el valor, obtenemos, al optimizar los parámetros del algoritmo F según (2), una longitud de código menor, pero un error mayor. Por lo tanto, puede personalizar el algoritmo de codificación F según las características requeridas. Para encontrar una solución al problema (1), la minimización (2) se repite iterativamente, con diferentes significados– este procedimiento se llama optimización RD1.

El primer capítulo también señala brevemente las características asociadas con el procesamiento (compresión-recuperación) de imágenes dinámicas. La principal transformación utilizada para la compresión de vídeo sigue siendo DCT, ya que es más sencilla en términos de cantidad de cálculos en comparación con las transformadas wavelet.

Al igual que ocurre con la compresión estática, los algoritmos de codificación de vídeo suelen ser más complejos que los algoritmos de decodificación.

Implementación de software de compresión de video en tiempo real, Berger T. Rate Distortion Theory. – Endlewood Cliffs, Nueva Jersey: Prentice Hall, 1971.

Por tanto, impone restricciones significativas a la complejidad permitida de los cálculos.

Capítulo dos(52 páginas) está dedicado al estudio de la efectividad y síntesis de transformaciones ortogonales destinadas a su uso en la compresión de datos. El nuevo método propuesto para analizar la eficiencia se basa en el siguiente razonamiento. Conozcamos la matriz de covarianza KX del vector de datos original X = (x0, x1,..., x N 1)T, el vector-espectro Y se obtiene como resultado de alguna transformación ortogonal con la matriz W: Y= WX.

La entropía incondicional promedio del coeficiente del espectro vectorial se puede escribir como:

donde fk(mk,k,x) es la función de densidad de probabilidad para la característica espectral yk (k-ésima componente del vector Y), mk – expectativa matemática, k – desviación estándar, f k0 (x) = f k (0,1, x). Cuanto menor sea la entropía media (3), más eficaz será la posterior codificación independiente de los componentes del espectro. Habiendo impuesto la restricción de que para la clase que para la transformación óptima de Karhunen-Loeve (cuando la matriz W=Wopt se compone de vectores propios KX y la matriz KY=WKXWT tiene una forma diagonal N 1 N (forma final) de la eficiencia descorrelacionante, consideraremos el valor del exceso de entropía promedio H (W, K X) = H cp (W, K X) H cp (Wopt , K X), el cual se expresa a través de los elementos de las matrices K X = (cov(xi, x j))i, j = 0 y W = (wi, j)i, j =0 de la siguiente manera:

Cuanto mayor sea el valor de H(W,KX), menor será la eficiencia de la transformación de descorrelación con la matriz W. Los cálculos numéricos del valor (4) para diversas transformaciones y tipos de matrices de covarianza mostraron resultados que son completamente consistentes con los datos conocidos. obtenido por otros métodos, por ejemplo, según Pearl (Pearl J. Sobre codificación y filtrado de señales estacionarias mediante transformadas discretas de Fourier // IEEE Trans. Inf. Theory. - 1973. - Vol. ITP. 229-232.).

De gran interés para el análisis es el modelo de señal discreta (vector X), que tiene estadísticas de señales discretas. proceso de markov primer orden, cuando la matriz de covarianza tiene la siguiente forma:

Este modelo se utiliza a menudo para describir la correlación entre filas y columnas en imágenes discretas. En =1, cuando todos los componentes del vector original X son iguales (para dos muestras cualesquiera del vector, el coeficiente de correlación igual a uno), el cálculo del criterio introducido (4) para la matriz (5) es imposible, porque en este caso tenemos det K X = 0. Al mismo tiempo, en las áreas de fondo de la imagen 1. En el Capítulo 2 se demostró el siguiente teorema.

Teorema 2.1. Para cualquiera matriz ortogonal W (NN) tal que j = 0,1,... N 1: w0, j = (la función base con índice cero es el componente constante normalizado) y la matriz de covarianza (5) Diversos estudios, incluidos los realizados en el Capítulo 2 , muestran que entre las transformaciones discretas que tienen algoritmos computacionales rápidos (para la dimensión N, implementadas en operaciones aritméticas ~NlogN), las características de descorrelación para el proceso de Markov (5) que son más cercanas a la transformación óptima de Karhunen-Loeve se obtienen usando DCT.

Sin embargo, a pesar de la disponibilidad de algoritmos de cálculo rápido bien desarrollados, la DCT requiere fundamentalmente operaciones de multiplicación para su implementación y es notablemente inferior en términos de volumen de cálculos, por ejemplo, a las transformaciones de Haar, Walsh y Chrestenson-Levy. Un tema aparte, a cuya consideración se presta considerable atención en el Capítulo 2, es la construcción de una nueva transformación que tenga características de alta descorrelación para el modelo (5) y algoritmos de cálculo que sean mucho más rápidos que para DCT. La transformada pseudocoseno discreta resultante se define para vectores de dimensión N, lo que permite la expansión N=N1…Nn, con k Nk(2,3,4). La representación N=N1…Nn debe escribirse con un número mínimo de factores Nk, disponiéndolos sin decrecer, es decir k, m>k: NkNm. Por ejemplo, para N=8 tenemos N1=2, N2=4 (pero no N1=4, N2=2 y no N1=N2=N2=2). Luego, la matriz DPKP WN (en este caso, el subíndice indica la dimensión de la transformación) se construye como un producto directo2 WN = WN 1 ... WN n matrices elementales DPKP WN k (W2,W3,W4), k=1 ,...,n, donde las matrices elementales ortogonales Bajo el producto tensorial (directo) de las matrices D=(dl,m) (l=0,…,-1; m=0,…,-1) y y son obtenido como resultado de ciertas modificaciones de las matrices DCT de la dimensión correspondiente. Matrices elementales se puede representar como el producto de una determinada matriz diagonal D por una matriz C, y la estructura C permite que la multiplicación por un vector arbitrario U se implemente solo usando las operaciones de suma y resta de números (la multiplicación por 2 es equivalente a la suma, 2x=x+x). Exactamente:

De las propiedades del producto tensorial se sigue la representación WN = D N C N, C N = C N 1 ... C N n. Las matrices C2, C3, C4, D2, D3, D4 se dan arriba. Así, la implementación del DPKP Y = WN X = D N C N X consiste en la implementación de la multiplicación de la matriz CN por el vector, Y = C N X, y la posterior normalización del vector resultante Y, Y = D N Y. Para calcular el DPKP, es conveniente utilizar algoritmos rápidos basados ​​en la representación factorizada de matrices3:

matriz unitaria de dimensión N j N j. Dado que las matrices TN j) constan de bloques matriciales dispersos C N j de cierta manera, multiplicar la matriz TN j) por un vector también se reduce solo a las operaciones de sumar y restar números. Algoritmos rápidos Los DPCP inversos se construyen de manera similar, porque debido a opT) () Tenga en cuenta que la normalización (multiplicación por la matriz DN) requerida al calcular el DPKP y el DPKP inverso para el esquema de compresión con cuantificación escalar de los coeficientes de transformación no implica ninguna complicación de los cálculos.

La normalización se puede combinar durante la compresión de datos con la etapa del escalar llamada vector Y del paso de cuantificación individual qj=q/djj (donde d jj es un elemento de la matriz de normalización diagonal D N). Al descuantificar y j = m~ j, el multiplicador para el elemento y j debe elegirse en la forma mj=qdjj.

Como lo muestran los cálculos del exceso de entropía promedio (4) y la correlación residual según Pearl, para datos con estadísticas del proceso de Markov de primer orden (5), DPKP es más eficiente en la descorrelación en comparación con otras transformaciones rápidas, cuya implementación también reduce sólo para operaciones de suma y resta de números.

Capítulo Tres(48 páginas) está dedicado al estudio del uso de la transformada discreta de Chrestenson-Levy (DCLT) para la compresión de imágenes y es un desarrollo de la investigación del trabajo de doctorado del autor.

Para fundamentar la validez de esta idea, véanse las páginas 84-85 de la monografía “Abstract sistemas algebraicos y procesamiento de señales digitales” / Varichenko L.V., Labunets V.G., Rakov M.A. - Kiev: Naukova Dumka, 1986. – 248 p.

La idea detrás del algoritmo de compresión propuesto en el Capítulo 5 se basa en el trabajo de Lewis-Knowles6 (LK) y Xiong-Ramchandran-Orchard7 (XRO). Cuando se codifica Lewis A.S., Knowles G. Compresión de imágenes mediante la transformada Wavelet 2-D // IEEE Trans.

Procesamiento de imagen. – 1992. – Vol. 1. - No. 2. – P.244-250.

Al desarrollar la topología S en XRO, se utilizó un mapa binario (ni) para todos los nodos del árbol excepto las hojas: si ni=0, entonces el árbol en este nodo se poda, y si ni=1, entonces al menos los descendientes inmediatos son en conserva. Esto se ilustra en la Fig. 2A. La codificación de características estadísticas (ni) no se utiliza en el algoritmo XRO. Al mismo tiempo, los atributos (ni) de los nodos vecinos (por posición dentro de la subbanda) son cantidades correlacionadas. Para tener en cuenta esta correlación, en el algoritmo desarrollado se propone agrupar las características de los nodos vecinos (ni )iC j en elemento único datos, de modo que el mapa de poda (topología de árbol) se describe mediante un nuevo alfabeto de datos con símbolos Ni=(ni1,ni2,ni3,ni4)=ni1+2ni2+4ni3+8ni4, que también están codificados estadísticamente. La nueva característica extendida Nj resulta estar asociada con el nodo j de un nivel superior, ver Fig. 2B.

Poda de ramas Figura 2. Método de poda de ramas al visualizar nodos capa por capa: A – algoritmo XRO, B – codificación de topología propuesta. Ci=(i1,i2,i3,i4) Una idea que se remonta al trabajo de LK y se utiliza de la misma forma en XRO es la siguiente: cuanto mayor es el valor absoluto del coeficiente wavelet wi (o energía, wi2) del nodo padre i, menos probable será que aparezca una rama cero (es decir, recortada) en este nodo. Se puede hacer una predicción más precisa de la aparición de la rama nula utilizando Xiong Z., Ramchandran K. y Orchard M.T. Cuantización de frecuencia espacial para codificación de imágenes Wavelet // IEEE Trans. Procesamiento de imagen. – V.6 – mayo de 1997, págs. 677-693.

del valor predicho Pi es una suma que incluye, además de wi2, también los cuadrados de los valores en el nodo i. Para el valor previsto del nodo i, se propone utilizar la siguiente cantidad valores absolutos coeficientes wavelet:

donde los conjuntos de índices sumatorios se determinan entre los vecinos del nodo i en la subbanda de acuerdo con la Fig. 3. Los coeficientes de ponderación incluidos en la suma se obtuvieron como resultado del procesamiento estadístico de varias imágenes de prueba para identificar el valor de muestra máximo para el coeficiente de correlación entre el valor predicho (10) y la energía de los coeficientes wavelet cuantificados. de los descendientes inmediatos Ci: Pi, w2 máx.

El algoritmo de compresión wavelet propuesto utiliza varios modelos estadísticos. La función del codificador aritmético, que estima, utilizando modelos estadísticos internos, el número de bits necesarios para codificar el símbolo c en el k-ésimo flujo, se denotará por H(k,c). La designación Hspec se refiere a secuencias en las que se codifican coeficientes wavelet cuantificados, Hmap, a secuencias en las que se codifican los signos del comienzo de la rama cero. Los árboles de espectro se procesan secuencialmente; Después de optimizar la topología del siguiente árbol, se debe codificar y así adaptar los modelos estadísticos del codificador aritmético.

Paso 0. /* inicialización */ i Ln1: /* se ven todos los nodos del penúltimo nivel */ /* ajuste de coeficientes cuantificados */ /* cálculo de funciones RD para guardar y recortar hojas */ Paso 2. i Ll: /* viendo el nivel actual con un intento de recortar ramas */ Si i0 entonces /* no he llegado al comienzo del árbol */ /* determinando la topología óptima de las ramas */ /* ajustando los coeficientes cuantificados */ /* preparándonos para ver el siguiente nivel */ en caso contrario /* i=0, llegó al árbol inicial */ /* determinando la topología óptima del árbol */ Paso 3. /* generando y mostrando el resultado */ Fin Los nodos del árbol se ven desde el hojas hasta la raíz. En el primer paso (preparatorio), se revisan aquellos nodos i que solo tienen descendientes inmediatos (Ci=Ui), se forman matrices a partir de los valores de las funciones RD correspondientes a las opciones de cortar (J U i) y preservar (J U yo) hojas. Previamente, en el paso 1.1, para cada nodo hoja, se analiza la posibilidad de una minimización adicional de Lagrange, que caracteriza la cuantificación escalar de los coeficientes wavelet. Este procedimiento se basa en las propiedades conocidas de la distribución de probabilidad de los coeficientes wavelet, según las cuales los costos de bits R para codificar el coeficiente son a priori menores cuanto menor es su valor absoluto (por esta razón, para el caso w = 0, el no se aplica ningún procedimiento de minimización adicional). En el segundo paso, que se realiza para todos los nodos i de los siguientes niveles, iLl (l=n-2,...,0), se selecciona el método RD óptimo para podar ramas (pasos 2.1-2.2) a partir de nodos jCi. Los pasos 2.3 y 2 tienen el mismo significado que los pasos 1.1, 1.2. Tenga en cuenta que la introducción de una optimización adicional de la cuantificación escalar (pasos 1.1 y 2.3) permite, al mismo nivel de compresión, aumentar aún más el PSNR en 0,02-0,03 dB.

Para todos los nodos, con excepción del raíz, la elección del modelo para codificar las características Ni (en el paso 2.1) se realiza utilizando la regla definida por la función IndMap(i). Para codificar la característica N0 asociada con la raíz del árbol, se utiliza un flujo de datos separado, al que convencionalmente se le asigna el número 0 (ver paso 2.6).

Como se desprende de la descripción anterior del algoritmo de optimización, papel vital En su trabajo desempeñan un papel las funciones IndMap(Pi) e IndSpec(i), que establecen las reglas para seleccionar flujos para la codificación de datos. La primera función selecciona un modelo de codificación de características Ni=(ni1,ni2,ni3,ni4) basado en el valor promedio de los valores predichos Pi (10), i=i1,i2,i3,i4, y tiene la siguiente forma :

Los umbrales (t1,t2,t3)=(0.3;1.1;4.0) para seleccionar modelos se encontraron como resultado de minimizar la longitud del código de bits de salida R(t1,t2,t3) al procesar imágenes de prueba conocidas Lena, Bárbara, Goldhill. Los experimentos también demostraron que introducir una mayor cantidad de modelos de características no tiene sentido.

La segunda función clave del algoritmo de compresión wavelet, IndSpec(i), es una regla de selección de modelo para codificar coeficientes wavelet que no caen en las ramas cero. Para codificar coeficientes espectrales, es más eficaz utilizar un valor predictivo obtenido no sólo del nodo principal, sino también de los coeficientes wavelet de los nodos que se encuentran en la misma subbanda, junto al que se está procesando8. En el algoritmo considerado, la secuencia de codificación y decodificación de los nodos del espectro wavelet está determinada por el diagrama de la Figura 4 (los números indican el orden de procesamiento de la subbanda). Para su uso en la función IndSpec(j), el valor predicho del nodo actual j (marcado en negro) se forma s j = 0,36 Pi + 1,06 w j y + w jx + 0,4 w jd, donde jy es un nodo vecino vertical, jx es La idea de utilizar el contexto de los coeficientes de las wavelets vecinas se propuso en el trabajo Chrysafis S., Ortega A. Efficient Context-Based Entropy Coding for Lossy Wavelet Image Compression // Proc. Conferencia sobre compresión de datos. – Snowbird (Utah), 1997. – P. 241-250.

nodo vecino horizontal, jd – nodo vecino diagonal (que ya han sido procesados, ver Fig. 4), Pi se determina para el nodo padre i (jCi) mediante (10). En este caso, los resultados del procesamiento de imágenes de prueba.

El modelo nulo se refiere a la codificación de coeficientes espectrales bajo funciones de escala y nuevamente está aislado. El primer modelo incluye los coeficientes wavelet de frecuencia más baja (nivel L1), así como los coeficientes para los cuales el pronóstico sj es el mayor.

Características dadas por la Tabla. 1. El valor PSNR (en dB), según el algoritmo de compresión propuesto, obtenido al comprimir imágenes de prueba para imágenes de prueba estándar según el algoritmo propuesto, se indica en la Tabla. 1. En los experimentos, Lena Barbara Goldhill utilizó transformadas wavelet de cinco pasos del trabajo de Wei D., Pai H.-T. y Bovik A. C., Antimetric Biorthogonal Coiflets for Image Coding // Proc. Conferencia Internacional IEEE sobre Procesamiento de imágenes. – Chicago, 1998. – V. 2. – P. 282-286. Comparación características logradas con los resultados de la aplicación de otros algoritmos conocidos se muestra que el algoritmo propuesto tiene un rendimiento muy alto.

Los estudios finales del Capítulo 5 se relacionan con la construcción de un esquema de codificación híbrido para el espectro wavelet, cuando además del método de recorte de las ramas de los coeficientes wavelet descrito anteriormente, también se permite la posibilidad de una “autocuantización” vectorial de las ramas. , que puede interpretarse como codificación fractal en el campo de las transformadas wavelet9. El algoritmo híbrido resultante requiere muchos más cálculos, pero el componente fractal de la codificación resultó ser casi completamente suprimido por el esquema básico de compresión wavelet basado en la poda de ramas. Sin embargo, cabe señalar que la combinación de ambos enfoques en un algoritmo híbrido se ha realizado de forma sencilla y las posibilidades de desarrollo posterior dejan aquí un amplio campo de investigación.

El sexto capítulo (45 páginas) está dedicado al estudio de algoritmos dinámicos de compresión de imágenes con el fin de construir un esquema de compresión de video adecuado para la implementación de software, que proporcione procesamiento en tiempo real en computadoras personales.

Un fotograma de una secuencia de vídeo es una matriz de píxeles que consta de M1 filas y M2 columnas: B=(bk,l), k=0,1,…,M1-1, l=0,1,…,M2-1, y por un secuencia de vídeo nos referimos a un conjunto de cuadros ordenados B0,B1,…,Bi,…. Llamemos al bloque (y,x) del marco B (y, x – coordenadas enteras) alguna submatriz By,x=(bk,l), donde k=y,y+1,…,y+N1-1, l=x ,x+1,…,y+N2-1. En el algoritmo desarrollado, cada cuadro de la secuencia de video se divide durante el procesamiento en bloques de matriz adyacentes (Bm,n) de tamaño 88, m,n=0,8,16... Si hay algún bloque Biy,x de la secuencia de video resulta ser en cierto sentido “similar” al bloque original Bim, n, asumimos que el bloque Bim,n es un fragmento movido Biy,x Véase, por ejemplo, Davis G.M., A wavelet-based análisis of fractal image listening // Traducción IEEE. Procesamiento de imagen. – 1998. – V.7 – N° 2. – Págs.141-154.

el cuadro anterior, y para codificar un bloque (m,n) de la imagen, es suficiente establecer las coordenadas del bloque en el cuadro anterior, y y x, o cambiar las coordenadas y-m y x-n. Un caso especial de un bloque movido es un bloque estacionario cuando m=y, n=x. Si no se puede encontrar un bloque Bim,n similar en un cuadro anterior, el bloque debe codificarse como nuevo. Para seleccionar el método de codificación para el siguiente bloque procesado Bim, n, nos guiamos nuevamente por el criterio del mínimo de la función de Lagrange J(b)=D(b)+R(b). Supongamos que el argumento b= corresponde a la codificación del bloque movido (fijo), y b=1 – el nuevo. Aquellos. si J(1)>J(0), entonces el bloque se codifica como movido y, en caso contrario, como nuevo.

Cuando se utiliza la optimización RD, el problema de buscar bloques movidos se formula de la siguiente manera. Para un bloque (m,n) dado Bim, n del cuadro i-ésimo, busque en el cuadro reconstruido anterior dicho bloque (y,x) B iy,x de modo que la función Lagrange RD tome el valor mínimo. Aquí se tiene en cuenta que las coordenadas del bloque encontrado se codificarán como relativas, es decir vector de desplazamiento r=(y-m,x-n). Para que la búsqueda se realice en tiempo real, sólo se deben considerar como región los puntos (v,u) suficientemente cercanos al punto (m,n). El aumento de la eficiencia de la búsqueda al expandir el área se logra mediante el uso de varios algoritmos de búsqueda dirigida destinados a minimizar el error de representación del bloque movido Bim, n Biy,1, que corresponde al caso especial (11) en =0. Para tener en cuenta la contribución de los costos de bits a la función RD J*, llevaremos a cabo la minimización (11) paso a paso, suponiendo en cada etapa aproximadamente que los vectores de desplazamiento considerados implican los mismos costos para la codificación estadística. Además, para aumentar la universalidad de los algoritmos de búsqueda iterativos, buscaremos pequeños movimientos con mayor precisión. De hecho, si un determinado bloque de la imagen se ha movido una distancia significativa en comparación con el cuadro anterior, el ojo humano percibe el fragmento correspondiente de la imagen como borroso y no es necesario determinar con precisión el vector de movimiento. Los pequeños movimientos de los bloques no sólo son predominantes, sino que también deben seguirse con precisión debido a la naturaleza específica de la percepción visual. El algoritmo de búsqueda RD propuesto tiene la siguiente forma.

Paso 0. Cálculo del valor de la función RD del bloque fijo, r=(0,0):

Paso 1. Búsqueda exacta cercana a la fuerza bruta de pequeños movimientos.

1.1. Entre los nueve bloques (y,x) del cuadro anterior, 1.2. Entre los nueve bloques (y,x) del cuadro anterior, 1.3. Cálculo valores de la función RD Paso 2. Búsqueda aproximada de grandes desplazamientos.

2.1. Entre los ocho bloques (y,x) del cuadro anterior, 2.2. Entre los nueve bloques (y,x) del cuadro anterior, (y 4, x 4)((0,0), (2,2), (2,2), (2,2), (2,2), (3,0), (0,3), (3,0), ( 0.3)) 2.3. Calcular el valor de la función RD Paso 3. Seleccionar la mejor opción para mover el bloque.

Fin Para calcular el valor de la función J0, es necesario tener en cuenta los costos de bits para codificar el signo del bloque movido: J 0 = J * log2 (mov), donde mov es la frecuencia de aparición de los bloques movidos en datos ya procesados.

El volumen principal de cálculos en el algoritmo dado está asociado con el cálculo de las desviaciones B im, n Biy, x. Durante los cálculos, un punto de prueba pasa del paso 0 al paso 1.1, uno – del paso 1.1 al 1.2, uno – del paso 2.1 al 2.2. Como resultado, el cálculo de la desviación debe realizarse 33 veces.

Para aumentar la eficiencia del algoritmo de búsqueda dado para el vector (y, x) del bloque procesado, se debe realizar un pronóstico utilizando los vectores () y () de dos bloques vecinos ya procesados ​​(vecino vertical y vecino horizontal, respectivamente) . El pronóstico en sí son las coordenadas relativas y 0, x 0, que determinan la transferencia del centro del área de búsqueda: del punto (m, n) al punto (m, n) = m + y 0, n + x 0. Los experimentos muestran que el número de nuevos bloques de imágenes se reduce entre un 5...25% si aceptamos la siguiente regla para hacer un pronóstico:

Siguiendo la ideología del estándar MPEG, también procesamos nuevos bloques mediante cuantificación seguida de codificación estadística de coeficientes DCT bidimensionales. Sea S=F(Bm,n) el resultado de la DCT del bloque Bm,n. Denotemos SQ = (~k,l = round(sk,l / qk,l))k,l =0, SQ = (sk,l = qk,l ~k,l )k,l =0, donde Q = (qk,l )k,l =0 – una de las matrices de cuantificación JPEG. Para codificar estadísticamente la matriz S, se utiliza el algoritmo de codificación contextual analizado en el Capítulo 4, que incluye una etapa adicional de optimización RD. Sea nuevamente ZQ = (z0,..., z63) el vector obtenido como resultado de la lectura en zigzag de datos de la matriz SQ según la regla definida por el estándar JPEG (SQ ZQ), G (ZQ) = (g k ) C=1 (0,..., 63) es el conjunto de índices de elementos distintos de cero del vector ZQ, es decir z g k 0 si gkG; gkG: z g k = 0. La optimización RD de la codificación estadística es posible alargando la serie cero reduciendo el número de elementos en el conjunto G (poniendo a cero adicionalmente los componentes del vector ZQ). Para evitar como resultado una complicación notable del algoritmo de codificación, analizaremos solo la posibilidad de aumentar la serie cero final, que hace la mayor contribución a minimizar la función J(ZQ)=D(ZQ)+R(ZQ ). Sea ZQ el vector obtenido a partir del vector ZQ como resultado de poner a cero los últimos componentes (zk )k = g m +1, es decir

G (ZQ) = (g k )m=1 G (ZQ), m=1,…,C. Entonces, la optimización RD más simple consiste en buscar un índice g m * G (ZQ) tal que el procedimiento para codificar un nuevo bloque de imagen considerado anteriormente asuma el uso de una matriz de cuantificación dada Q. Un algoritmo de codificación universal debe operar con un cierto conjunto de Matrices de cuantificación (Qj) con capacidad de seleccionar las requeridas para condiciones específicas.

Si el conjunto es lo suficientemente grande, entonces seleccionar la matriz de cuantificación Q basándose en el principio de minimizar la función JQ (12) se convierte en un procedimiento engorroso que no se puede implementar en tiempo real utilizando medios estándar. Además, con una amplia gama de valores posibles para el índice j, codificarlo por separado para cada nuevo bloque implica costos de bits adicionales inaceptablemente altos. Por lo tanto, solo se seleccionaron como conjunto inicial unas pocas matrices del conjunto recomendado por JPEG, que corresponden a los niveles de calidad mejor, peor y algunos intermedios. En los experimentos se eligió el número de matrices |(Qj)|=4. Para acelerar la ejecución de las operaciones de división, necesarias para la cuantificación, los elementos de las matrices (Qj) se redondearon al valor más cercano 2k, k=0,1,... Este método nos permite sustituir las operaciones de números enteros división y multiplicación con desplazamientos de bits de la representación binaria de números, que normalmente se realizan con equipos reales mucho más rápido.

Teniendo en cuenta el costo de bits que se requiere para codificar el índice de la matriz de cuantificación, la función de Lagrange correspondiente a codificar un nuevo bloque de imagen se define de la siguiente manera:

J = min (J Q log 2 Q) log 2 nuevo, donde JQ está de acuerdo con (12), Q es la frecuencia de aparición de la matriz Q, nuevo es la frecuencia de aparición de nuevos bloques durante el procesamiento anterior.

Al estudiar las características del algoritmo de compresión de video final, para estimar la magnitud del error de codificación en la secuencia reconstruida B0, B1,..., B K 1, se utilizó la relación entre el valor pico de la señal y el ruido, que se determinó como sigue:

donde M1 y M2 establecen el tamaño del fotograma en píxeles. Para los experimentos se eligieron las conocidas secuencias de prueba News, Container ship, Hall monitor, Akiyo y Claire. Todos ellos tienen un tamaño de fotograma de 144176 píxeles. Antes de los experimentos, las secuencias originales se adelgazaron: sólo se utilizó cada tercer fotograma, B3k (k=0,...,24), para formar esas secuencias de vídeo de 25 fotogramas, que luego se procesaron. Esta reducción de tiempo se diseñó para simular una velocidad de captura de video de 10 fotogramas por segundo, en lugar de los 30 fotogramas por segundo originales (para todas las secuencias anteriores). Solo se procesó el componente Y de brillo y solo se utilizó el componente de brillo para analizar el error. La compresión del software de las secuencias de video se logró en tiempo real.

Los resultados de los experimentos numéricos obtenidos por el estudiante de posgrado F.V. Strelkov se muestran en la Tabla 2. El valor PSNR (13) logrado en las mismas secuencias de video de prueba de 25 cuadros adelgazados utilizando el codificador MPEG disponible públicamente: http://www.mpeg.org /MSSG. La longitud del archivo de datos comprimidos obtenido en cada experimento es exactamente igual al producto del tamaño del flujo de bits de datos (que se muestra en la tabla) por un factor de 2,5. En todas las pruebas, el esquema de compresión propuesto da buenos resultados, superando las características del codificador MPEG-2 especificado, a pesar de que el códec mpeg2encode utilizó una búsqueda exhaustiva en un área de 2323 píxeles para encontrar bloques de imágenes en movimiento.

Tabla 2. Características de compresión del algoritmo propuesto El algoritmo de compresión de video descrito se implementó en software como parte del trabajo realizado en el "Centro Tecnológico" del Complejo Estatal de Investigación y Producción de Moscú. instituto estatal equipos electrónicos y en la central nuclear "Tecnología"

La implementación de las bibliotecas de compresión de video desarrolladas se llevó a cabo en una serie de sistemas de software, entre los cuales el sistema de control y registro de video Visual Security es el de mayor interés práctico (ver.

http://www.tcen.ru/vs).

Los resultados de la investigación realizada en el trabajo de tesis se resumen en sección final– “Principales hallazgos y conclusiones” (3 páginas).

El trabajo de tesis presentado examina varios aspectos del uso de transformaciones ortogonales discretas para la compresión de imágenes digitales, tanto desde un análisis teórico puramente formal como desde los requisitos y limitaciones que la práctica impone a esquemas y algoritmos computacionales específicos. En general, el contenido del trabajo está orientado a la aplicación, por lo que la mayoría resultados teóricos respaldado por experimentos computacionales, cuyos resultados, a su vez, no solo sirvieron como ilustración o prueba de la teoría, sino que a menudo dieron impulso y proporcionaron material fuente para futuras investigaciones. Con base en los resultados de la investigación realizada en la tesis, se pueden sacar las siguientes conclusiones.

1. Las transformaciones ortogonales son la herramienta principal utilizada para la descorrelación de datos durante la compresión de imágenes. En caso modelo matemático La señal discreta está dada por una matriz de covarianza; para analizar la efectividad del procesamiento de descorrelación, es recomendable utilizar el criterio de exceso de entropía promedio propuesto en el trabajo.

2. Especialmente para la compresión de datos correlacionados, se obtuvo e introdujo por primera vez la transformada de pseudocoseno discreta (DPCT). En un esquema de compresión que asume la presencia de una etapa de cuantificación escalar de coeficientes de transformación, entre las transformaciones rápidas consideradas, cuya implementación se reduce solo a operaciones de suma-resta (Walsh, Haar, pseudocoseno), DPKP da los mejores resultados de descorrelación para una señal discreta descrita por el modelo de Markov.

3. Utilizando los rápidos algoritmos DPCL obtenidos, que tienen en cuenta las características específicas del procesamiento de matrices reales, el esquema de compresión de imágenes propuesto basado en la codificación aritmética de los coeficientes DPCL logra características cercanas a la versión JPEG basada en DCT en términos de calidad de procesamiento y complejidad computacional.

4. Cuando se utiliza codificación estadística de coeficientes DCT utilizando el método JPEG, la presencia de "saltos" en la señal discreta es menos deseable en la región central de procesamiento de fragmentos.

5. El método de codificación aritmética multimodelo (multiflujo) es muy eficaz cuando se utiliza en varios esquemas y algoritmos de compresión de datos, y uno de los puntos clave en el desarrollo de esquemas de compresión es la determinación de reglas para seleccionar el modelo de codificación actual. basándose en el contexto de los datos ya procesados. Por lo tanto, el uso del algoritmo de codificación aritmética contextual multimodelo de coeficientes DCT propuesto en el Capítulo 4 en el esquema JPEG aumenta la eficiencia de la compresión de datos en un 10%.

6. Al comprimir imágenes utilizando codificación multimodelo de estructuras de árbol de espectros wavelet, la regla de selección del modelo debe basarse en un contexto combinado que tenga en cuenta tanto el entorno del coeficiente wavelet en sí en la subbanda como el entorno del "padre". ”coeficiente. El nuevo algoritmo efectivo de compresión de imágenes digitales con pérdida obtenido sobre esta base, que se desarrolló a partir de los resultados del estudio de las propiedades estadísticas de los espectros de transformadas wavelet discretas, muestra características de alta compresión con una complejidad de implementación aceptable para una amplia gama de aplicaciones.

7. Para eliminar la redundancia entre fotogramas (temporal) de los datos de vídeo, el más preferible para uso práctico entre los algoritmos estudiados para la compensación de bloques de movimientos debería ser el algoritmo híbrido propuesto de búsqueda dirigida, en el que los pequeños movimientos se buscan con precisión y cuidado. y grandes movimientos, más aproximadamente.

8. Cuando se utiliza el algoritmo de compresión de video propuesto, que se desarrolló sobre la base de un enfoque de optimización de RD teniendo en cuenta los requisitos y las características específicas de la implementación del software, la compresión y restauración de video en tiempo real se logra sobre la base de computadoras personales modernas, con alta calidad tratamiento.

En general, el trabajo de tesis obtuvo nuevos resultados científicos, cuyas disposiciones teóricas permitieron desarrollar y formalizar significativamente procedimientos para el análisis y síntesis de esquemas de compresión de imágenes digitales basados ​​​​en el uso de transformaciones ortogonales discretas. Los enfoques y recomendaciones desarrollados llevaron a la construcción de esquemas y algoritmos de compresión específicos, muchos de los cuales se implementaron en software y confirmaron experimentalmente la efectividad de su aplicación.

Lista de trabajos principales sobre el tema de la disertación 1. Efimov A.V., Umnyashkin S.V. Algoritmos rápidos para calcular la transformada discreta de Chrestenson-Levy y estimar sus características espectrales // Teor. funciones y aprox.: Tr. 7º Sarátov. invierno escuela (1994). Parte 2. - Saratov: Editorial SSU, 1995. - P. 9-20.

2. Efimov A.V., Pospelov A.S., Umnyashkin S.V. Aplicación de la transformada de Chrestenson-Levy en problemas de procesamiento de información digital // Internacional.

conf. "Espacios funcionales, teoría de la aproximación, análisis no lineal", dedicado. 90 aniversario del académico S.M. Nikolsky (27 de abril - 3 de mayo de 1995): Resumen.

informe - M.: Editorial MIPT, 1995. - P.124-125.

3. Umnyashkin S.V. Aplicación de la transformada discreta de Chrestenson-Levy (DCLT) para la codificación de imágenes: comparación con la transformada discreta de Fourier (DFT) // Vseros. científico-técnico conf. “Electrónica e Informática” 15-17 de noviembre. 1995: Resumen. informe - M.: MGIET (TU), 1995. - P. 265-266.

4. Umnyashkin S.V. Estimación de la dispersión de elementos espectrales de una transformada de coseno discreta de un proceso estacionario de Markov de primer orden. conf. según la teoría aprox. func., dedicado en memoria del prof. P.P. Korovkina (Kaluga, 26-29 de junio de 1996): Resumen. informe -T.2.-Tver: TSU, 1996. - P. 217-218.

5. Umnyashkin S.V. Evaluación de la eficacia del uso de transformaciones unitarias para codificar señales discretas // Informática y Comunicaciones: Sat.

Trabajos científicos ed. V.A. Moscú: MIET - 1997. P.73-78.

6. Umnyashkin S.V. Evaluación de la eficacia del uso de transformaciones discretas para la compresión de datos // “Electrónica e Informática – 97”. Segunda Conferencia Científica y Técnica de toda Rusia con participación internacional(Zelenograd, 25 y 26 de noviembre de 1997): Resumen. doc. Parte 2. - P.79.

7. Efimov A.V., Pospelov A.S., Umnyashkin S.V. Fundamentos teóricos y algunas características de la aplicación de transformaciones multiplicativas discretas en problemas de compresión de imágenes digitales // Actas de la conferencia internacional “Cálculo de optimización de la nutrición” (6-8 de junio de 1997, Kiev) Kiev: Instituto de Cibernética que lleva el nombre de V.M. - págs. 108-112.

8. Efimov A.V., Pospelov A.S., Umnyashkin S.V. Algunas propiedades de los sistemas ortonormales multiplicativos utilizados en el procesamiento de señales digitales // Actas instituto matemático a ellos. V.A.Steklov RAS.

- T.219. - 1997. - De 137-182.

9. Efimov A.V., Umnyashkin S.V. Sobre algunas propiedades del sistema Haar generalizado y evaluación de la efectividad del uso de transformaciones ortogonales para la compresión de datos // Espacios funcionales. Operadores diferenciales. Problemas de la educación matemática: Actas de la internacional. conf., dedicado 75 aniversario de miembro correspondiente. Profesor de la Academia de Ciencias de Rusia. L.D.Kudryavtseva. - Volumen 1. - M.: Ros. Universidad de la Amistad de los Pueblos, 1998. - págs. 70-73.

10. Umnyashkin S.V. Sobre la modificación de la transformada discreta del coseno // Teoría de aproximación y análisis armónico: Proc. informe internacional conf.

11. Umnyashkin S.V. Sobre la modificación de la transformada discreta del coseno // Izv. Tul. estado un-ta. Ser. Matemáticas. Mecánica. Informática. Tula: TulGU, 1998. T. 4. Número. 1. págs. 143-147.

12. Umnyashkin S.V., Kochetkov M.E. Análisis de la efectividad del uso de transformaciones ortogonales discretas para la codificación digital de datos correlacionados // Noticias de universidades. Electrónica. - N° 6. - 1998. - págs. 79-84.

13. Umnyashkin S.V. Sobre la agrupación de datos correlacionados. // Tecnologías de la información en proyectos innovadores. Internacional conf. (Izhevsk, 20 al 22 de abril de 1999): Materiales de informes. - Izhevsk, IzhSTU, 1999. - págs.59-65.

14. Umnyashkin S.V. Algoritmo para agrupar datos correlacionados // VII Int. conf. Matemáticas. Economía. Ecología. Educación. Internacional símp. Series de Fourier y sus aplicaciones: Proc. doc. – Rostov: Rost. estado economía acad., 1999. – P. 211-212.

15. Efimov A.V., Pospelov A.S., Umnyashkin S.V. Algunas cuestiones de aplicación de sistemas multiplicativos y transformaciones en problemas de procesamiento de imágenes digitales // VII Intern. conf. Matemáticas. Economía.

Ecología. Educación. Internacional símp. Series de Fourier y sus aplicaciones: Proc.

doc. – Rostov: Rost. estado economía acad., 1999. – págs. 154-155.

16. Umnyashkin S.V. Transformación de pseudocosina para compresión de señales discretas // Tecnologías de la información y problemas de microelectrónica.

Se sentó. científico tr. – M.: MIET. – 1999. – P.158-170.

17. Umnyashkin S.V. Algoritmo de compresión de imágenes fijas basado en transformada wavelet discreta // VII Congreso Internacional “Matemáticas. Computadora. Education" (Dubna, JINR, 24 a 29 de enero de 2000):

Abstracto. doc. – Moscú: Progreso-Tradición, 2000. – P.327.

18. Efimov A.V., Umnyashkin S.V. Sobre la estructura de algunas transformadas wavelet directas e inversas // Teoría de aproximación de funciones y operadores: Proc.

informe Internacional conf., dedicado 80 años. desde el día de nacimiento S.B. Stechkina (Ekaterimburgo, 28 de febrero - 3 de marzo de 2000). -Ekaterinb.: UrSU, 2000. – P.74-75.

19. Umnyashkin S.V., Strelkov F.V., Zhukov V.G. Algoritmos de tres pasos para buscar bloques de imágenes en movimiento // Tecnologías de la información y sistemas de control. Se sentó. científico tr. editado por V.A. – M: MIET, 2000.

– págs. 47-55.

20. Umnyashkin S.V. Compresión de imágenes digitales mediante la transformada discreta de Chrestenson-Levy // Revista científica y técnica interindustrial “Complejo de defensa: progreso científico y técnico de Rusia”, No. 2, 2000. P.28-39.

21. Umnyashkin S.V., Kosmach M.V. Optimización de la codificación de imágenes digitales mediante el método JPEG // Izv. universidad Electrónica. -No 4-5. -2000. -P.139-141.

22. Umnyashkin S.V. Compensación por el movimiento de objetos al comprimir datos de video // “Electrónica e informática - Siglo XXI” Tercera conferencia científica y técnica internacional: Proc. doc. – M.: MIET, 2000. – P. 365-366.

23. Umnyashkin S.V. Algoritmo de búsqueda de bloques movidos para codificar imágenes de vídeo digital // Interbranch. Nuevo Testamento. revista “Complejo de defensa: progreso científico y tecnológico de Rusia”, núm. 3, 2001. – págs. 38-41.

24. Umnyashkin S. V. Uso de codificación aritmética contextual para aumentar la compresión de datos utilizando el esquema JPEG // Noticias de universidades. Electrónica. - N° 3. - 2001. – págs. 96-99.

25. Umnyashkin S.V. Compresión Wavelet de imágenes digitales con predicción de modelos estadísticos // Izv. universidades Electrónica. - N° 5. - 2001. P.86-94.

26. Umnyashkin S.V. Algoritmo para la codificación fractal de imágenes en el campo de las transformadas wavelet // Matemáticas informáticas. Optimización de cálculos: Colección de trabajos científicos. – Volumen 1. – Kiv: Instituto de Cibernética im.

VM Glushkova, 2001. – págs. 385-391.

27. Umnyashkin S.V. Compresión de imágenes basada en modelos predictivos mixtos de árboles wavelet // Informes de la Universidad Vxj (Suecia) – Matemáticas, ciencias naturales y tecnología. – Nr.11 (septiembre), 2001. – 18 páginas.

28. Umnyashkin S.V., Strelkov F.V. Un esquema optimizado para RD para la compresión de vídeo en tiempo real // Informes de la Universidad Vxj (Suecia) – Matemáticas, ciencias naturales y tecnología. – Nr.12 (septiembre), 2001. – 15 páginas.

29. Desarrollo de algoritmos y software para la implementación de análisis digital y compresión de imágenes de video en tiempo real basado en un sistema de hardware y software de propósito general: Informe de investigación (final) / CN “Tecnología”; manos – Umnyashkin S.V. – “Guardián”; Estado No.

reg. 01990011697; Inv. N° 01077. – Moscú, 1999. – 74 p.

30. Investigación y desarrollo de algoritmos de compresión de datos de software con pérdida para el procesamiento de vídeo digital: Informe de investigación (final) / Central nuclear “Tecnología”; manos – Umnyashkin S.V. - "Mirar"; Estado No. reg.

01200004624; Inv. N° 100704. – Moscú, 2000. – 48 p.

Firmado para publicación: 25 de diciembre de 2001 Orden No. 332. Tirada 100 ejemplares. Académico-ed.l. 2.4. Formato 6084 1/
ecuaciones Resumen de la disertación para el grado de Doctor en Ciencias Físicas y Matemáticas Moscú 2007 El trabajo se llevó a cabo en el Instituto de Investigación de Matemáticas Aplicadas y Automatización...”

“KORNILOV Dmitry Aleksandrovich INVESTIGACIÓN DE LAS PROPIEDADES DE FULLERENOS Y NANOTUBOS UTILIZANDO EL MÉTODO DE DINÁMICA MOLECULAR Especialidad 04.01.07 – Física de la Materia Condensada Resumen de la disertación para el grado científico de Candidato de Ciencias Físicas y Matemáticas San Petersburgo 2003. El trabajo fue realizado en una institución educativa estatal de educación superior educación vocacional Universidad Politécnica Estatal de San Petersburgo Supervisor científico: Doctor...”

“CHIRIKOV ANTON MIKHAILOVICH NUEVOS TEOREMAS DE UNICIDAD PARA LA SERIE DE POTENCIA 01.01.01 - análisis real, complejo y funcional Resumen de la disertación para el grado científico de candidato a ciencias físicas y matemáticas SAN PETERSBURGO 2011 El trabajo se completó en el Departamento de Análisis Matemático. Facultad de Matemáticas Estado ruso Universidad Pedagógica a ellos. Herzen Supervisor científico, Doctor en Ciencias Físicas y Matemáticas, Profesor Nikolay Shirokov...”

“Sidorov Evgeniy Nikolaevich CARACTERÍSTICAS DE LAS PROPIEDADES ÓPTICAS DEL GaAs PESADO DOPADO: Te EN CONDICIONES DE DISTRIBUCIÓN CORRELACIONADA DE IMPUREZAS Especialidad 04.01.10 – física de semiconductores RESUMEN de la disertación para el grado de candidato de ciencias físicas y matemáticas Tomsk - 2010 Trabajo completado en la sucursal de Moscú del Instituto de Física de Semiconductores que lleva su nombre. AV. Rzhanova SB RAS Supervisor científico: Candidato de Ciencias Físicas y Matemáticas Davletkildeev Nadim Anvarovich Oficial..."

“LYASHEDKO ANDREY DMITRIEVICH Distorsiones termoópticas en láseres de neodimio basados ​​​​en elementos activos de placa con bombeo de diodos longitudinales Especialidad: 04.01.21 – física láser RESUMEN de la disertación para el grado de candidato de ciencias físicas y matemáticas Moscú - 2012 El trabajo se llevó a cabo en el Institución Presupuestaria del Estado Federal de Ciencias Instituto de Física General que lleva el nombre SOY. Prokhorov RAS Supervisor científico: Doctor en Ciencias Físicas y Matemáticas Tsvetkov...”

“UDC: 535.326, 534.18 Pyatakova Zoya Aleksandrovna INTERACCIÓN ACÚSTICA EN CRISTALES FOTÓNICOS BIDIMENSIONALES Especialidad 04.01.03 – radiofísica Resumen de la disertación para el grado de candidato de ciencias físicas y matemáticas Moscú - 2011 El trabajo se completó en la Facultad de Física de Moscú universidad estatal a ellos. MV Lomonosov Supervisor científico: candidato...”

“KRUTIKOVA Alla Aleksandrovna ANÁLISIS ESPECTRAL DE MATERIALES COMPUESTOS A BASE DE SILICIO NANOCRISTALINO Especialidad: 00.02.02 – Química analítica RESUMEN de la disertación para el grado científico de Candidato en Ciencias Químicas Moscú – 2007 El trabajo se completó en el departamento química analítica Academia Estatal de Tecnología Química Fina de Moscú que lleva el nombre. MV Lomonosov Supervisor científico: Doctor en Ciencias Químicas, Profesor Anatoly Aleksandrovich Ishchenko Oficial..."

“MATVENKO Sergey Ivanovich ESTRUCTURAS PERIÓDICAS EN SISTEMAS CORRELACIONADOS DE BAJA DIMENSIÓN Especialidad 04.01.02 - física teórica RESUMEN de la tesis para el grado de Doctor en Ciencias Físicas y Matemáticas Chernogolovka - 2012 El trabajo se llevó a cabo en el Instituto de Ciencias de la Institución Presupuestaria del Estado Federal de Física Teórica que lleva el nombre de..."

“UDC 004.896 AKSENOV Konstantin Aleksandrovich TEORÍA Y PRÁCTICA DE APOYO A LA TOMA DE DECISIONES EN EL CAMPO DE LOS PROCESOS DE CONVERSIÓN DE RECURSOS Especialidad 13.05.01 – Análisis de sistemas, gestión y procesamiento de información Resumen de la disertación para el grado de Doctor en Ciencias Técnicas Ekaterimburgo - 2011 Trabajo realizado en el café Departamento de sistemas de control automatizado de la Institución Educativa Autónoma de Educación Profesional Superior del Estado Federal de los Urales universidad federal lleva el nombre del primer presidente de Rusia, B.N. Científico..."

“Voskov Alexey Leonidovich CÁLCULO DE EQUILIBRIOS DE FASES POR EL MÉTODO DE CONCHAS CONVEXAS Especialidad 00.02.04 - química física RESUMEN de la disertación para el grado de candidato a ciencias químicas Moscú - 2010 El trabajo se llevó a cabo en el laboratorio de termodinámica química del Departamento de Química Física de la Facultad de Química de la Universidad Estatal de Moscú que lleva el nombre de M.V. Supervisor científico: Doctor en Ciencias Químicas, Profesor Gennady Fedorovich Voronin Oficial..."

“Kravchenko Igor Vitalievich CARACTERÍSTICAS DE LA ESTRUCTURACIÓN DE SISTEMAS EN CAPAS Y DISPERSOS DE POLÍMEROS INCOMPATIBLES BAJO FLUJO DE CORTE. MODELADO NUMÉRICO 00.02.06 – Compuestos de alto peso molecular Resumen de la disertación para el grado de candidato de ciencias físicas y matemáticas Moscú 2010 www.sp-department.ru El trabajo se llevó a cabo en la institución de la Academia Rusa de Ciencias Instituto de Problemas fisica quimica Supervisor científico de RAS: Doctor en Ciencias Físicas y Matemáticas Patlazhan...”

“Gribov Andrey Gennadievich ANÁLISIS DE LOS INTERCAMBIOS DE INFORMACIÓN EN SISTEMAS DE GESTIÓN Especialidad 13.05.01 – Análisis de sistemas, gestión y procesamiento de información (industria) RESUMEN de la disertación para el grado científico del candidato de ciencias físicas y matemáticas Moscú - 2011 El trabajo se realizó en el Institución del Centro de Computación de la Academia Rusa de Ciencias. AUTOMÓVIL CLUB BRITÁNICO. Dorodnitsyn RAS en el Departamento de Problemas de Optimización Aplicada. Responsable científico: Doctor en Ciencias Físicas y Matemáticas..."

“Jardimalieva Gulzhian Iskakovna (CO)POLIMERIZACIÓN Y TRANSFORMACIONES TÉRMICAS DE MONÓMEROS QUE CONTIENEN METALES COMO FORMA DE CREAR METALOPOLÍMEROS Y NANOCOMPUESTOS 02.00.06 – compuestos de alto peso molecular RESUMEN de la disertación para el título científico de Doctor en Ciencias Químicas Chernogolovka - 2009 www.sp-department.ru El trabajo se llevó a cabo en el Instituto de Problemas de Física Química de la Academia de Ciencias de Rusia Doctor en Ciencias Químicas, Profesor Consultor científico : Anatoly Dmitrievich Doctor en Ciencias Químicas ayudó..."

“GAVRILOV Aleksey Andreevich INVESTIGACIÓN DE SISTEMAS POLIMÉRICOS ALEATORIOS LINEALES Y EN RED MEDIANTE MÉTODOS DE MODELADO POR COMPUTADORA Especialidades 02.00.06 compuestos de alto peso molecular, 01.04.07 – física de la materia condensada Resumen de la disertación para el grado científico de candidato de ciencias físicas y matemáticas Moscú – 201 3 El trabajo se llevó a cabo en el Departamento de Física de Polímeros y Cristales de la Facultad de Física de la Universidad Estatal de Moscú que lleva el nombre de M.V. Lomonosov...."

“NGUYEN XUAN NGIA RELAJACIÓN DIELÉCTRICA DE ESTRUCTURAS SUPRAMOLECULARES EN FLUIDOS BIOLÓGICOS A FRECUENCIAS BAJAS E INFRANORBAJAS Especialidad - 04.01.04. Electrónica física RESUMEN de la disertación para el grado de candidato de ciencias físicas y matemáticas San Petersburgo - 2011 El trabajo se llevó a cabo en la institución educativa estatal de educación profesional superior Universidad Politécnica Estatal de San Petersburgo Supervisor científico:...”

“Naymushina Ekaterina Alexandrovna. UDC 538.945 APLICACIÓN DEL MÉTODO DE ESPECTROSCOPÍA ELECTRÓNICA DE RAYOS X PARA EL ESTUDIO DE LA ESTRUCTURA QUÍMICA DE ÓXIDOS DE COBRE COMPLEJOS EN ESTADO SUPERCONDUCTOR Especialidad 04.01.01. – instrumentos y métodos física experimental RESUMEN de la disertación para el grado de candidato en ciencias físicas y matemáticas Izhevsk - 2004 El trabajo se llevó a cabo en el laboratorio de espectroscopia electrónica del Instituto de Física de Superficies del estado de Udmurtia...”

“Dashkov Evgeniy Vladimirovich Sobre los cálculos proposicionales que representan el concepto de demostrabilidad 01.01.06 – lógica matemática, álgebra y teoría de números RESUMEN de la disertación para el grado científico de candidato de ciencias físicas y matemáticas Moscú - 2012 Trabajo completado en el departamento lógica matemática y teoría de algoritmos de la Facultad de Mecánica y Matemáticas de la Universidad Estatal de Moscú que lleva el nombre de M.V...."

“Rusakov Dmitry Mikhailovich DIAGRAMAS DE PROGRAMA CON CONSTANTES Especialidad 01.01.09 – matemáticas discretas y cibernética matemática RESUMEN de la disertación para el grado académico de candidato de ciencias físicas y matemáticas Moscú - 2008 El trabajo se llevó a cabo en el Departamento de Cibernética Matemática de la Facultad de Matemática Computacional y Cibernética de la Universidad Estatal de Moscú que lleva el nombre de M.V. Lomonósov. Científico..."

“REMEEVA ALFIA NILOVNA MÉTODOS DE ENSEÑANZA DE FÍSICA EN CLASES DE PERFIL SOCIOECONÓMICO 13.00.02 – teoría y métodos de enseñanza y educación (física) RESUMEN de la disertación para el grado científico de candidato ciencias pedagógicas Chelyabinsk - 2008 El trabajo se realizó en el Departamento de Teoría y Métodos de Enseñanza de la Física del Estado. institución educativa educación profesional superior Estado de Sterlitamak academia pedagógica Supervisor científico: doctor...”

Las transformaciones que se utilizan para comprimir imágenes deben ser rápidas y, a ser posible, fáciles de implementar en una computadora. Esto, en primer lugar, supone que tales transformaciones deben ser lineal. Es decir, los valores convertidos. CON( son combinaciones lineales (sumas con algunos factores o pesos) de las cantidades originales (píxeles) DJ, y el multiplicador o peso correspondiente es un número determinado Wij(factor de conversión). Medio, CON( -]GRAMO\- DJWij, donde r, j= 1,2,..., pag. Por ejemplo, cuando norte= 4 esta transformación se puede escribir como forma matricial que en el caso general tomará la siguiente forma: C = W D. Cada vector columna de la matriz W se denomina “vector base”.

Una tarea importante es determinar los coeficientes de conversión. wij. El principal requisito es que después de la transformación el valor Con\ sería grande, y todas las demás cantidades C2, сз,... se volverían pequeñas. Relación básica С( = Ylj djWij asume que CON( será grande si el peso Wij mejorará los valores correspondientes DJ. Esto sucederá, por ejemplo, si los componentes de los vectores wij Y DJ tienen significados similares y signos idénticos. Viceversa, CON( será pequeño si los pesos son pequeños y la mitad de ellos tienen el signo opuesto al signo del número correspondiente DJ. Por lo tanto, si se obtienen c* grandes, entonces los vectores W(j) son similares al vector dj original, y pequeños CON( significa que los componentes wij muy diferente de DJ. Por lo tanto, los vectores base wij Puede interpretarse como una herramienta para extraer algunos rasgos característicos del vector original.

En la práctica los pesos Wij no debe depender de los datos de origen. De lo contrario, deberán agregarse al archivo comprimido para que los utilice el decodificador. Esta consideración, así como el hecho de que los datos de origen son píxeles, es decir, cantidades no negativas, determina la forma en que se eligen los vectores base. El primer vector, el que genera Con\, debe consistir en números cercanos, posiblemente coincidentes. Mejorará los valores de píxeles no negativos. Y todos los demás vectores base deben consistir la mitad de números positivos y la otra mitad de números negativos. Después de multiplicar por valores positivos y su suma, el resultado será un número pequeño. (Esto es especialmente cierto cuando los datos de origen están cerca y sabemos que los píxeles vecinos tienden a tener valores cercanos). Recuerde que los vectores base proporcionan una herramienta para extraer características de los datos de origen. Por lo tanto, una buena opción serían vectores base que sean muy diferentes entre sí y que, por lo tanto, puedan extraer características diferentes. Esto lleva a la idea de que los vectores base deberían ser mutuamente ortogonales. Si la matriz de transformación W consta de vectores ortogonales, entonces la transformación se llama ortogonal. Otra observación que permite la elección correcta de los vectores base es que estos vectores deben tener frecuencias de cambio de signo cada vez más altas para poder extraer, por así decirlo, las características de alta frecuencia de los datos comprimidos al calcular las cantidades transformadas.

El primer vector base (fila superior W) es todo unos, por lo que su frecuencia es cero. Todos los demás vectores tienen dos +1 y dos -1, por lo que producirán valores convertidos pequeños y sus frecuencias (medidas por el número de cambios de signo en una línea) aumentarán. Esta matriz es similar a la matriz de transformación de Hadamard-Walsh (ver ecuación (3.11)). Por ejemplo, transformemos el vector inicial (4,6,5,2)

El resultado es bastante alentador, ya que el número Con\ se hizo grande (en comparación con los datos originales) y los otros dos números se hicieron pequeños. Calculemos las energías de los datos originales y transformados. La energía inicial es 4 2 + b 2 + 5 2 + 2 2 = 81, y después de la transformación la energía pasó a ser 17 2 + 3 2 + (-5) 2 + I 2 - 324, que es cuatro veces mayor. Se puede ahorrar energía multiplicando la matriz de transformación W por un factor de 1/2. El nuevo producto W-(4,6,5,2) t será igual a (17/2,3/2, -5/2,1/2). Entonces, la energía se conserva y se concentra en el primer componente, y ahora asciende a 8,5 2 /81 = 89% de la energía total de los datos originales, en los que el primer componente representaba sólo el 20%.

Otra ventaja de la matriz W es que también realiza la transformación inversa. Los datos originales (4,6,5,2) se restauran utilizando el producto W-(17/2,3/2, -5/2,1/2) t.

Ahora estamos en condiciones de apreciar los méritos de esta transformación. Cuantizamos el vector transformado (8.5,1.5,-2.5,0.5) redondeándolo a un número entero y obtenemos (9,1,-3,0). Hacemos la transformación inversa y obtenemos el vector (3.5,6.5,5.5,2.5). En un experimento similar, simplemente eliminamos los dos números más pequeños y obtenemos (8. 5,0, -2.5,0), y luego hacemos la transformación inversa de este vector aproximadamente cuantificado. Esto da como resultado datos reconstruidos (3,5,5,5,5,3), que también son bastante cercanos al original. Entonces, nuestra conclusión: incluso esta transformación simple e intuitiva es una buena herramienta para "eliminar" la redundancia de los datos originales. Transformaciones más sofisticadas producen resultados que permiten recuperar datos con un alto grado de similitud incluso con una cuantificación muy burda.

“Imagen en impresión” - Detalles específicos de la imagen en impresión. La propiedad principal de una imagen impresa. Libro. rasgo distintivo trabajos de imprenta más finos. Pluralidad Masividad Accesibilidad pública. Conectando imágenes con texto. El arte del libro. Fuente.

“Gráficos vectoriales y rasterizados”: las primitivas vectoriales se especifican mediante descripciones. Principios de la construcción de imágenes vectoriales y rasterizadas. Las imágenes vectoriales ocupan una cantidad relativamente pequeña de memoria. Tipos de gráficos por computadora. Las imágenes vectoriales se describen mediante decenas y, a veces, miles de comandos. Desventajas de los gráficos rasterizados.

“Gráficos por computadora” - Los principales problemas al trabajar con gráficos rasterizados. Los tipos de gráficos por computadora difieren en los principios de formación de imágenes. Gráficos por computadora. Gráficos fractales. Tipos de gráficos por computadora. Grandes volúmenes de datos. Píxel. Características comparativas de gráficos rasterizados y vectoriales. Cada punto de la pantalla sólo puede tener dos estados: "negro" o "blanco".

“Creación de imágenes gráficas” - Límites del lienzo. Tarea 4. Crea un dibujo que consta de autoformas. Cree un dibujo usando la barra de herramientas Dibujar. La posición de la imagen gráfica en el texto. Inserta una imagen de la colección en el texto. Lienzo. Características comparativas de gráficos rasterizados y vectoriales. Características de la creación de una imagen vectorial en Word 2003.

“Imagen de la cabeza de un hombre” - Otros rostros fríos y muertos están cerrados con rejas, como en un calabozo. Otros son como torres en las que nadie vive ni mira por la ventana durante mucho tiempo. ¿Qué tipos de retratos hay? Proporciones del rostro de una persona. Imagen de rasgos faciales. Rostro humano y emociones. N. Zabolotsky. ¿Qué tipos de rostros hay? Dibujo de una cabeza humana. ¡Verdaderamente el mundo es grande y maravilloso!

“Imágenes rasterizadas” - Conclusiones del experimento. Rojo. ¿Qué colores primarios usa una computadora? Codificación rasterizada de información gráfica. Imagen rasterizada. Píxeles diferentes colores. Azul (turquesa). Gris. Rosa. Paleta computadoras modernas. Todos los colores se pueden numerar y cada número se puede convertir en código binario.



¿Te gustó el artículo? ¡Comparte con tus amigos!