You are on page 1of 11

Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.

html

Processamento Digital de Imagens - Conceitos básicos de


imagens

1. Introdução e Motivação
Imagens são na realidade um suporte físico que carrega INFORMAÇÃO. Processar uma imagem
consiste em transformá-la sucessivamente com o objetivo de extrair mais facilmente a
INFORMAÇÃO.

Processar uma imagem como é feito pelo Sistema Visual Humano (SVH) é extremamente
complexo. Realizar tarefas humanas cognitivas com o auxílio da máquina, exige grande
compreensão. O Processamento Digital de Imagens se torna dependente da aplicação. Não existe
até o momento sistemas de análise de imagens complexos que funcionem para todos os casos.
Métodos recentes de exploração automática da informação contida em uma imagem permitem o
desenvolvimento de técnicas complexas que podem ser classificadas em duas grandes linhas:
análise e aprimoramento.

A primeira aplicação da área de processamento de imagens foi na década de 20 na tentativa de


aprimorar imagens de jornal digitalizadas transmitidas entre Londres e Nova Iorque. O tempo
necessário para esta transmissão era de 1 semana. O sistema Bartlane de transmissão de
imagens por cabo submarino conseguiu reduzir a transmissão para três horas. Avanços
expressivos na área vieram apenas com o advento dos computadores digitais trinta décadas mais
tarde.

Em 1964 procurava-se utilizar técnicas de aprimoramento de imagens para corrigir vários tipos de
distorção presentes nas imagens da lua transmitidas por sonda. Estas técnicas serviram de base
para métodos de aprimoramento de realce e restauração de imagens de outros programas
espaciais posteriores como as expedições tripuladas da série Apollo.

Os sistemas de processamento de imagens e visão artificial visam, com o auxílio de conhecimento


de diversas áreas (biologia, medicina, comunicação visual, eletrônica, matemática, mecânica),
obter um conjunto de técnicas e metodologias que possam dar suporte ao desenvolvimento de
teorias e produtos suficientemente eficientes e confiáveis para aplicações práticas.

Exemplos de Aplicações Atuais

Em Medicina, o uso de imagens no diagnóstico médico tornou-se rotineiro e os avanços vêm


permitindo o desenvolvimento de novos equipamentos e também a compreensão e análise de
imagens produzidas por equipamentos como o raio-X e o tomógrafo computadorizado. Uma
aplicação bastante avançada é a reconstrução tridimensional a partir de cortes bidimensionais dos
tomógrafos.

Em Biologia, a capacidade de processar automaticamente imagens obtidas de microscópios por


exemplo, contando o número de células de um certo tipo presentes em uma imagem, facilita a
execução de tarefas laboratoriais.

O processamento e a interpretação automática de imagens captadas por sensoriamento remoto


ou imagens de aerofotogrametria acopladas as técnicas de Geoprocessamento ou Sistemas de
informação geográficas auxiliam os trabalhos na áreas de geografia, meteorologia, hidrologia,
arqueologia.

A área de visão de máquina envolve o uso de robôs dotados de visão artificial através de câmeras
e são empregados em tarefas como controle de qualidade em linhas de produção, identificação e
classificação de produtos ou ainda movimentação em ambientes.

1 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

O processamento e a análise de imagens é uma ciência que permite modificar, analisar e


manipular imagens digitais a partir de um computador.

Os algoritmos de processamento de imagens são procedimentos passo-a-passo para otimizar as


operações de tratamento de imagens.

1.2 Componentes de um sistema de visão artificial


Um sistema genérico mínimo de processamento de imagens deve permitir as seguintes operações
com imagens:

aquisição
visualização
manipulação

Alguns dos componentes de um sistema de visão artificial podem ser os sensores de visão
(câmeras), sistema de digitalização de imagens, memória para armazenamento das imagens, um
processador para acessar a memória e um conjunto de ferramentas que permita processar as
imagens armazenadas.

1.3 Armazenamento e representação de imagens


O armazenamento de imagens exige uma grande quantidade de bytes, por isso existem diversas
formas de armazenar os arquivos de imagem em função do propósito de utilização.

Dois modos de representação básicos podem ser utilizados para compor imagens:

raster;
vetorial.

2 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

No formato raster a imagem é representada através de uma matriz de pixels onde o valor de cada
pixel representa seu nível de cinza (características de luminosidade e cor). Esse formato é mais
simples, no entanto ocupa mais espaço do que o formato vetorial. O formato raster funciona bem
para imagens com variações complexas em suas formas e cores.

Na representação vetorial a imagem é descrita através dos parâmetros de suas formas


geométricas. Neste caso armazena-se apenas as coordenadas de pontos, linhas e polígonos que
compõe a imagem. A grande quantidade de memória exigida pelo formato raster fez aparecer
diversos tipos de formatos de arquivos de imagem que podem ou não usar compressão. Os mais
conhecidos são: BMP, GIF, JPEG, RAS, PCX, TIFF, etc. Muitos fabricantes de software usam
formatos de imagem exclusivos.

1.3.1 Imagem analógica e imagem digital


Uma imagem é a representação de uma cena adquirida com a ajuda de sistemas de produção de
imagens.

Definição de uma imagem

Uma imagem monocromática pode ser descrita matematicamente por uma função f(x,y) da
intensidade luminosa, equivalente ao nível de cinza da imagem naquele ponto num sistemas de
coordenadas espaciais (x,y). O valor de f no ponto (x,y)é proporcional ao brilho (ou nível de cinza)
da imagem neste ponto. Esta função também pode ser vista como uma superfície no espaço onde
para cada ponto plota-se z na coordenada f(x,y).

3 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

1.3.2 Amostragem e quantização


Uma imagem analógica (representação real da cena) para tomar o formato do processamento
computacional deve sofrer uma discretização espacial (amostragem) e em amplitude
(quantização). Para tanto é feita uma amostragem (normalmente uniforme) de f(x,y) nas direções
x e y, gerando uma matriz de M x N pontos seguida de uma quantização do valor de f(x,y) em L
níveis de cinza.

A amostragem é a divisão do plano xy em uma grade onde x e y serão números inteiros não
negativos. Os pontos da matriz de M x N são denominados pixels (PICTure Elements). Cada pixel
representa uma certa parte da cena real, desta forma a resolução espacial da imagem é
proporcional aos valores de M e N. Em geral a malha de amostragem (formato dos pixels) é
retangular, mas pode também ser triangular ou mais complexa. Os valores de M e Ndevem ser
escolhidos de forma a respeitar a relação qualidade da imagem x espaço de armazenamento, em
função da aplicação para a qual a imagem se destina. Para uma imagem digital com 256 níveis de
cinza o número de bytes ocupados para armazenar a imagem é de M x N.

A quantização faz com que cada pixel f(x,y) assuma um valor inteiro não negativo de intensidade
luminosa (nível de cinza). Para obter uma imagem digital de qualidade semelhante à de uma
imagem de televisão P & B são necessários 512 x 512 pixels e 128 níveis de cinza. Em geral, 64
níveis de cinza são suficientes para o olho humano, no entanto a maioria dos sistemas de visão
artificial utiliza imagens com 256 níveis de cinza, onde 0 é o preto absoluto e 255 é o branco.

Dentro de uma escala temos:

0: preto

127: cinza médio

255: branco

As imagens também podem ser binárias, isto é conter apenas 2 níveis de cinza representados por
0 e 1.

Quantização e amostragem

4 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

Comparação entre diferentes discretizações espaciais

5 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

(a)1024 x (d) 128 x


1024 128

(b) 512 x 512 (e) 64 x 64

(c) 256 x 256 (f) 32 x 32

Comparação entre diferentes escalas de nível de cinza

6 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

256 níveis de cinza 128 níveis de cinza

64 níveis de cinza 32 níveis de cinza

16 níveis de cinza 8 níveis de cinza

4 níveis de cinza 2 níveis de cinza

7 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

Considerando que o processo de digitalização envolve parâmetros de amostragem e quantização,


uma pergunta natural é quantas amostras M x N e níveis de cinza L são necessários para gerar
uma boa imagem digital? Isto depende fundamentalmente da quantidade de informação contida
na imagem e do grau de detalhes desta informação que é perceptível pelo olho humano. Estes
parâmetros nos levam aos conceitos de resolução espacial e profundidade da imagem.

A resolução espacial está relacionada com a possibilidade de distinguir detalhes da imagem e é


dependente da aplicação na qual a imagem será usada. Em sensoriamento remoto, é comum
especificar a resolução espacial como o tamanho que cada pixel representa no mundo real em
termos de distância de resolução terrestre As imagens do satélite LANDSAT tem faixa de
resolução espacial que varia de 30 m a 120 m. Neste caso quanto menor a distância de resolução
melhor se observa o conteúdo da imagem espacial.

Considere, por exemplo, uma imagem contida em uma região retangular de 30 cm em x por 20 cm
em y Se as amostras são uniformemente espaçadas a cada 1 mm em x e em y (as dimensões do
pixel são 1mm x 1mm), teremos 200 x 300 pixels, ou seja, 60.000 pixels. Diz-se então que a
resolução espacial da imagem é 200 x 300 pixels.

O número L de níveis de quantização da f(x,y) é normalmente uma potência de 2. Se neste


exemplo L = 256 são necessários 8 bits para ser o armazenamento. Então a profundidade da
imagem é 8 bits por pixel (ou 1 byte por pixel). Assim são necessários 60 k bytes para o
armazenamento da imagem.

Há aproximadamente 27 pixels ao longo do diâmetro da cratera lunar mostrada na primeira


imagem, e aproximadamente 55 pixels ao longo do diâmetro da cratera mostrada na segunda
imagem. A imagem da direita tem melhor resolução. Isto implica que é possível medir suas
características de forma mais precisa. Se a cratera tem um diâmetro de 550 km, então a resolução
da imagem à esquerda é 20 km/pixel enquanto que a imagem à direita tem a resolução de 10
km/pixel. Em imagens médicas, a resolução também é usada como em sensoriamento remoto,
mas usa milímetros como unidade padrão. Os scanners de CT (Computer Tomography) tem
tamanho de pixel de 1 mm.

8 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

Imagens coloridas

Uma imagem colorida é uma imagem onde a cor em cada ponto (x,y) é definida através de três
grandezas: luminância, matiz e saturação.

A luminância está associada com o brilho da luz, a matiz com o comprimento de onda dominante
e a saturação com o grau de pureza (ou intensidade) da matiz. A maioria das cores visíveis pelo
olho humano pode ser representada como uma combinação de três cores primárias: vermelho (R),
verde (G) e azul (B). Assim, uma representação comum para uma imagem colorida utiliza três
bandas R, G, e B com profundidade de 1 byte por pixel (a profundidade será de 24 bits por pixel).

A imagem colorida é composta das intensidades das 3 cores variando do 0 ao 255, o que permite
a codificação de aproximadamente 17 milhões de cores diferentes, embora o olho humano não
possa reconhecer mais que 350 000 cores simultaneamente.

Imagem tomográfica

Equipamentos tomográficos, (e.g. tomógrafos de raios-X, ressonância magnética) geram imagens


monocromáticas de cortes (ou fatias) normalmente paralelos e uniformemente espaçados em uma
dada região 3D. Em medicina, por exemplo, estes cortes são normalmente longitudinais cobrindo
uma dada região do corpo do paciente que contém um dado órgão/fenômeno em estudo.
Considerando as dimensões p x p de um pixel nestas imagens e o espaçamento entre os cortes, a
extensão do pixel em 3D forma um pequeno paralelepípedo de dimensões p x p x d que é
chmado voxel (i.e. volume element).

O centro dos voxels coincide com o centro dos pixels. Os voxels representam pontos de
amostragem de algum fenômeno físico e são usados para reconstruir no computador a forma ou
função de estruturas tridimensionais. Neste caso, a imagem pode ser representada como uma
matriz 3D.

9 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

1.4 Etapas do Processamento de Imagens

Pode-se entender uma imagem como uma forma compacta de representar muitas informações.
Em um sistema de processamento de imagens estas informações podem passar por diversas
formas de representação. Portanto, as etapas do processamento de imagens descrevem o fluxo
destas informações com um dado objetivo definido pela aplicação.

10 de 11 11/02/2010 10:05
Conceitos Basicos http://www.ee.furg.br/~silviacb/DIP/Conceitos_Basicos.html

Após aquisição da imagem, o pré-processamento consiste na maior parte de transformações


lineares e não-lineares aplicadas à imagem visando várias metas:

melhoramento de contraste,
remoção de ruído,
regiões de interesse,
descorrelação e codificação das informações para transmissão da imagem,
reamostragem dos pixels em uma nova escala,
treinamento e extração de características de imagem para segmentação, etc.

Muitas aplicações requerem apenas operações de pré-processamento. A segmentação de


imagens particiona a imagem em regiões disjuntas com algum significado para a aplicação. Por
exemplo, separar um objeto de interesse do resto dos pixels da imagem particionando-a em duas
regiões. A saída da segmentação pode ser a fronteira do objeto com seu exterior ou os pontos de
seu interior. Isto define duas formas de representação para o objeto.

A representação consiste das várias formas de armazenar a fronteira e o interior de objetos


segmentados. Esta nova representação da imagem contém informações sobre a forma e a
topologia dos objetos. A descrição quantitativa destas informações através da extração de
características estruturais complementa o sentido de representação. Em seguida, com base na
descrição, o reconhecimento associa um rótulo a cada objeto segmentado enquanto a
interpretação associa um significado ao conjunto de objetos segmentados. Um exemplo em uma
aplicação de leitura automática de endereços é o reconhecimento e a interpretação de um
conjunto de caracteres como o código de endereçamento postal.

11 de 11 11/02/2010 10:05

You might also like