Física de la visión (Teoría y Prácticas)

314
Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica Física de la Visión Jaime Martínez Verdú 1 1.1. Principios y leyes fundamentales de la óptica geométrica. 1.1.1. Introducción. Óptica, rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido amplio, la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos X hasta las microondas, e incluye la energía radiante que produce la sensación de visión. El estudio de la óptica se divide en dos ramas, la óptica geométrica y la óptica física. Puesto que existen dos formas de explicar la procedencia de la naturaleza de la luz, nosotros emplearemos la definición de luz como onda electromagnética para conceptos que aparecerán durante este tema que se centra en la franja de ondas visibles comprendidas entre las ondas de rayos Ultravioletas hasta las de Infrarrojos. Figura 1.1. Diagrama del espectro electromagnético en escala logarítmica. ¿Por qué la franja visible únicamente? Nosotros estudiaremos esta parte de la óptica puesto que en la mayoría de eventos y fenómenos que ocurren en la naturaleza se desprende luz en forma de onda cuya longitud está incluida dentro de esta franja. Además, nuestros propios ojos solamente perciben los sucesos que desprenden luz visible (¿te imaginas que nuestros ojos fueran sensibles sólo a los Rayos X o a las ondas de radio?, no veríamos absolutamente nada pues los rayos X escasean en la naturaleza o nuestra vida sería como una discoteca con luces de colores). También estudiamos esta franja de ondas por su importancia práctica. ¿Qué condiciones han de verificarse para poder aplicar la teoría de la Óptica Geométrica? El requisito principal que han de cumplir los objetos que estudiamos es que todos ellos emitan luminosidad de longitud de onda mayor a la de la onda electromagnética que empleemos para analizar el objeto. Utilizando la Óptica Geométrica podremos explicar muchos conceptos tales como el de reflexión pero, existirán conceptos que no podrán ser explicados mediante esa teoría. Para explicar estos otros, como por ejemplo el de difracción, tendremos que recurrir a la teoría de la Óptica Ondulatoria. Violeta Azul Azul-verdoso Verde Amarillo-verdoso Amarillo Anaranjado Rojo IR UV 400 500 600 700 1 10 10 2 10 3 10 4 10 5 10 6 Luz visible Infrarrojos (IR) Rayos X Ultravioleta UV Longitudes de onda corta Longitudes de onda larga

description

Este documento representa los apuntes de la asignatura de Física de la Visión de 3º de Ing. Industrial de la UMH. En esta asignatura inicia al alumno en los fundamentos teóricos y los aspectos prácticos de la visión artificial aplicada al ámbito industrial. La asignatura se centra en dar a conocer al alumno las primeras etapas de los procesos de visión artificial para ampliar éstos en posteriores asignaturas. Primeramente se estudia los aspectos físicos de la luz y posteriormente la anatomía del ojo humano. Posteriormente se divide el bloque en dos grandes grupos: la iluminación y la visión artificial. Los temas tratados son: - Óptica geométrica - Anatomía del ojo humano - iluminación - Colorimetría - Sistemas de adquisición de imágenes - Tratamiento de imágenes - Procesado básico de imágenes - Transformación de imágenes - Detección de bordes De manera adicional, este documento también incluye las prácticas de la asignatura (la práctica 1 de iluminación fue un trabajo conjunto mío y de M. Nieves Robles Botella).

Transcript of Física de la visión (Teoría y Prácticas)

Page 1: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

1

1.1. Principios y leyes fundamentales de la óptica geométrica. 1.1.1. Introducción.

Óptica, rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido amplio, la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos X hasta las microondas, e incluye la energía radiante que produce la sensación de visión. El estudio de la óptica se divide en dos ramas, la óptica geométrica y la óptica física.

Puesto que existen dos formas de explicar la procedencia de la naturaleza de la luz, nosotros emplearemos la definición de luz como onda electromagnética para conceptos que aparecerán durante este tema que se centra en la franja de ondas visibles comprendidas entre las ondas de rayos Ultravioletas hasta las de Infrarrojos.

Figura 1.1. Diagrama del espectro electromagnético en escala logarítmica.

¿Por qué la franja visible únicamente? Nosotros estudiaremos esta parte de la

óptica puesto que en la mayoría de eventos y fenómenos que ocurren en la naturaleza se desprende luz en forma de onda cuya longitud está incluida dentro de esta franja. Además, nuestros propios ojos solamente perciben los sucesos que desprenden luz visible (¿te imaginas que nuestros ojos fueran sensibles sólo a los Rayos X o a las ondas de radio?, no veríamos absolutamente nada pues los rayos X escasean en la naturaleza o nuestra vida sería como una discoteca con luces de colores). También estudiamos esta franja de ondas por su importancia práctica. ¿Qué condiciones han de verificarse para poder aplicar la teoría de la Óptica Geométrica? El requisito principal que han de cumplir los objetos que estudiamos es que todos ellos emitan luminosidad de longitud de onda mayor a la de la onda electromagnética que empleemos para analizar el objeto. Utilizando la Óptica Geométrica podremos explicar muchos conceptos tales como el de reflexión pero, existirán conceptos que no podrán ser explicados mediante esa teoría. Para explicar estos otros, como por ejemplo el de difracción, tendremos que recurrir a la teoría de la Óptica Ondulatoria.

Vio

leta

Azu

l

Azu

l-ver

doso

Ver

de

Am

arill

o-ve

rdos

o

Am

arill

o

Ana

ranj

ado

Roj

o

IR UV

400 500 600 700

1 10 102 103 104 105 106

Luz visible

Infrarrojos (IR) Rayos X Ultravioleta UV

Lon

gitu

des

de o

nda

cort

a

Lon

gitu

des

de o

nda

larg

a

Page 2: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

2

Tal y como se puede apreciar en la figura, con la Óptica Ondulatoria se puede explicar cualquier concepto de la Óptica Geométrica pero al revés no siempre se cumple. Análogamente, con la Óptica Electromagnética explica cualquier concepto y la Óptica Ondulatoria no puede explicarlos todos.

1.1.2. Postulados.

1. La luz se propaga en forma de rayo. Las características principales del rayo va a ser su dirección y sentido.

2. Un medio óptico se caracteriza por una cantidad n ≥ 1, denominada índice de

refracción definido como el conciente entre la velocidad c de la luz en el vacío y la velocidad v de la luz en el medio, es decir:

v

cn =

3. Principio de Fermat,

Fermat asigna a la luz un comportamiento reflexivo − como el de los seres humanos − que le permite trazar un camino entre dos puntos siempre que lo va a emprender. Este principio afirma lo siguiente:

“El camino que, entre todos los posibles, sigue un

rayo de luz para ir de un punto a otro, es aquel en que la luz emplea un tiempo mínimo.“ Feynman explica así el Principio de Fermat.

"Imagina que nos encontramos en la costa, lejos de la orilla, en un punto A y en el mar, alejado de la orilla, una persona cae de una barca en un punto B. Nosotros vemos el accidente y podemos acudir corriendo y luego nadando. ¿Qué hacemos? ¿Vamos en línea recta? ¡Sí, sin duda!.....Sin embargo, si usáramos un poco más la inteligencia nos daríamos cuenta que es ventajoso correr una distancia un poco mayor por tierra para disminuir la distancia que debemos nadar, porque nos movemos más lentamente por el mar que por la tierra. Es preferible recorrer un mayor camino para tardar el menor tiempo ya que ésta es la magnitud que interesa para salvar a la persona de morir ahogada. Pues bien, esto es lo que hace la luz para ir de A hacia B cuando cambia de medio de propagación".

Como hemos dicho en repetidas ocasiones, la velocidad de propagación de las

ondas electromagnéticas y por lo tanto de la luz es c = 3·108 m/s en el vacío; observaciones experimentales realizadas a partir de los inicios del siglo XIX (Fizean, Foucault,...) y medidas posteriores han demostrado que en diferentes medios de propagación (agua, vidrio, plástico,...) la luz tiene diferentes velocidades menores que c.

Figura 1.2. Partes de la óptica.

Figura 1.3. Explicación de Feynman del Principio de Fermat

B

A

( ) ( )10== ∫ dsrnLB

A

rσδ

Page 3: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

3

Podemos entonces definir un número n que llamaremos índice de refracción del medio de propagación de manera que si v es la velocidad de propagación de la luz en el medio, sea:

v

cn = (2)

Así, si tenemos diferentes medios en los cuales la luz se propaga con

velocidades v1, v2,…, vi podremos asociar a esos medios diferentes índices de refracción de modo que:

cvnvnvn nn ==== L2211 (3)

Consideremos ahora un haz de luz que se propaga en un medio de índice de

refracción n con velocidad ncv = ; después de un tiempo t habrá recorrido una distancia S dada por:

tvSAB ·== (4)

En el mismo tiempo t un haz de luz, en el vacío, recorrería una distancia

SSBA >= 000 dada por:

tcSBA ·000 == (5)

Teniendo en cuenta la relación (2):

SntvnSBA ···000 === (6)

A la distancia n·S = ∆ la denominamos camino óptico. El concepto de camino

óptico es obviamente útil para comparar trayectorias luminosas recorridas en distintos medios que, de otra manera, no serían comparables dado que en cada medio la luz se propaga con diferente velocidad; en cambio, los diferentes tramos de trayectoria pueden compararse a través de los caminos ópticos asociados, dado que éstos corresponden a trayectorias todas recorridas en el vacío. Así por ejemplo, si un haz de luz recorre tramos de trayectoria de longitudes S1, S2, S3,… Si e en medios de índices de refracción n1, n2, n3,…, ni respectivamente.

Figura 1.4. Trayectoria de un haz de luz de tramos S1, S2, S3,…, Si en medios de índices

de refracción n1, n2, n3,…, ni.

La longitud total de la trayectoria será:

∑=+++=i ii SSSSL L21 (7)

Page 4: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

4

Pero el camino óptico total estará dado por:

∑=+++=∆i iiii SnSnSnSn L2211 (8)

El camino óptico ∆ corresponde a la longitud de la trayectoria que la luz

recorrería, en el vacío, en el mismo tiempo que emplea para recorrer la trayectoria de longitud L en los medios de índices de refracción n1, n2, n3,…, ni.

Volvamos ahora a considerar un haz de luz que se propaga desde A hasta B

atravesando varios medios de diferentes índices de refracción; es evidente que es posible imaginar muchas o más bien infinitas trayectorias que unen los puntos A y B; el principio de Fermat nos permite establecer cuál de todas las trayectorias imaginables es la que efectivamente recorre el haz de luz. El principio de Fermat afirma que:

La trayectoria real de un haz de luz es la que se asocia al camino óptico máximo, mínimo o estacionario.

Con relación al caso ilustrado en la figura anterior este principio nos dice que de todas las trayectorias que pueden trazarse entre los puntos A y B la que realmente recorre la perturbación luminosa es la que cumple con la relación:

0==∆ ∑i iiSnDD (9)

1.1.3. Tipos de materiales. Existen tres grandes grupos de tipos de materiales según su índice de refracción: Medios Homogéneos e Isótropos: En éstos, el índice de refracción permanece uniforme en la totalidad de su extensión. Medios Heterogéneos: En los cuales el índice de refracción puede variar en cada punto (no es constante en la totalidad del medio). Medios Anisótropos: En este tipo de medios, el índice de refracción dependerá del ángulo de incidencia del rayo. 1.1.4. Leyes de la Óptica Geométrica.

1. Las trayectorias de los rayos son reversibles. Si un rayo que va de A a B sigue el camino óptico ∆, entonces para ir de B a A seguirá el mismo camino pero en sentido contrario.

A

B

Figura 1.5. Caminos reversibles.

Page 5: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

5

2. Reflexión. Consideremos un haz de luz que viaja desde el punto A hasta el B reflejándose sobre un espejo plano tal y como se muestra en la figura:

Figura 1.6. APB es una posible trayectoria para el haz de luz que de A a B.

Si n es el índice de refracción asociado al medio, el camino que recorre el haz de luz y el camino óptico asociado tienen un valor de:

( )( )22

222

1

222

221

····· xlhnxhnPBnAPnLn

xlhxhPBAPL

−+++=+==∆

−+++=+=

Dado que la trayectoria de la luz depende de la posición del punto P o sea del

valor de x, podemos encontrar la trayectoria real aplicando el principio de Fermat, es decir imponiendo la condición (9):

( ) ( )( )

( )( )

( ) ( ) 2121222

221

222

221

222

221 0

2

2

2···

0

θθθθ =⇒=⇒−+

−=+

=−+

−−++

=

−+++=∆

==∆ ∑

sensenxlh

xl

xh

x

xlh

xln

xh

xnxlhnxhn

dx

d

dx

d

SnDDi ii

Lo anterior implica entonces que la trayectoria real del haz de luz es la que se

asocia a la condición (principio de Fermat) y que ésta se satisface para

21 θθ = en valor absoluto (ley de reflexión).

Existen dos tipos de reflexión:

Reflexión Especular. Tiene lugar cuando los rayos de luz inciden sobre una superficie lisa. Algunos metales como la plata y el aluminio absorben poco la luz blanca y si construimos con ellos láminas metálicas muy pulimentadas podemos lograr que reflejen la luz de tal manera que los rayos reflejados se vean con una intensidad comparable a la de los rayos incidentes.

1h2h

2θ1θ

A

B

P

M

N x

l

0=∆dx

d

Page 6: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

6

Reflexión difusa. Todos los cuerpos reflejan parte de la luz que incide sobre ellos pero la mayoría producen una reflexión difusa. La reflexión difusa se origina en los cuerpos que tienen superficies rugosas, no pulidas: esto es lo que nos permite ver los objetos que nos rodean sin deslumbrarnos aunque que estén iluminados por una luz intensa.

3. Refracción.

Consideremos, por ejemplo, el caso de un haz de luz que se propaga desde el punto A situado en un medio de índice de refracción n1 hacia un punto B situado en un medio de índice de refracción n2; en este caso también podemos imaginar infinitas trayectorias las cuales difieren por la posición del punto P sobre la interfase donde incide la luz (Figura 8).

Figura 1.8. APB es una posible trayectoria para el haz de luz que de A a B.

Si n1 y n2 son los índices de refracción de cada medio, el camino que recorre el haz de luz y el camino óptico asociado tienen un valor de:

( )( ) 2

22

222

1121

22

2221

····· hxlnxhnPBnAPnLn

hxlxhPBAPL

+−++=+==∆

+−++=+=

Dado que la trayectoria de la luz depende de la posición del punto P o sea del

valor de x, podemos encontrar la trayectoria real aplicando el principio de Fermat, es decir imponiendo la condición (9):

( ) ( )( )

( )( )

( ) ( ) SnelldeLey sennsennxlh

xln

xh

xn

hxl

xln

xh

xnhxlnxhn

dx

d

dx

d

SnDDi ii

2211222

2221

1

22

22221

122

22

2211

····

02

2

2···

0

θθ =⇒−+

−=+

=+−

−−++

=

+−++=∆

==∆ ∑

1h

2h

A

B

P

M

N

x

l

Figura 1.7. Reflexión difusa.

Page 7: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

7

- Refracción EXTERNA 21 nn < y 21 θθ > . Refracción en Superficies planas - Refracción INTERNA 21 nn > y 21 θθ < .

Reflexión total. Consideremos dos medios de índices de refracción n1 y n2 (con n2 > n1), y supongamos que una fuente de luz esté localizada en el medio de mayor índice de refracción; nos proponemos analizar qué ocurre cuando la luz incide sobre la interfase entre los dos medios. De acuerdo con la ley de Snell, ( ) ( )2211 ·· θθ sennsenn = y dada la condición n2 > n1, el ángulo de refracción 1θ resulta siempre mayor que el ángulo de incidencia 2θ ; esto implica que existe un lim,2θ para el ángulo de incidencia para el cual 21 πθ = o sea para el cual el rayo refractado es paralelo a la interfase.

Figura 1.9. Reflexión total. Los rayos que inciden en la interfase con los ángulos

mayores que lim,2θ se reflejan en el medio.

Es obvio que el valor del ángulo límite para la reflexión interna total puede

calcularse fácilmente con la condición que si lim,22 θθ = entonces 21 πθ = ; esta condición reemplazada en la ley de Snell para la interfase considerada nos da:

( )

( ) ( ) ( ) ( )

=

=⇒=⇒=

=

=⇒=

2

1,2

,22

1,2212211

11

·1···

122

n

nArcsen

senn

nsennnsennsenn

sensen Si

lim

limlim

θ

θθθθ

πθπθ

Puesto que los rayos se alejan de la normal cuando entran en un medio menos

denso, y la desviación de la normal aumenta a medida que aumenta el ángulo de incidencia hasta que se llega al ángulo crítico, para el que el rayo refractado forma un ángulo de 90º con la normal, por lo que avanza justo a lo largo de la superficie de separación entre ambos medios. Si el ángulo de incidencia se hace mayor que el ángulo crítico, los rayos de luz serán totalmente reflejados. La reflexión total no puede producirse cuando la luz pasa de un medio menos denso a otro más denso.

Page 8: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

8

1.1.5. Convenio de signos.

I. Para el cálculo de distancias a lo largo del eje z se tomará como sentido positivo lo que quede a la derecha, a no ser que se diga lo contrario.

II. El radio de curvatura del espejo que tengamos es positivo si el centro de curvatura está a su derecha. Obviamente, si el radio de curvatura esta a la izquierda del espejo.

III. Los segmentos normales al eje z serán positivos hacia arriba y negativos si son dirigidos hacia abajo.

IV. Los ángulos que se tomen respecto a una normal serán positivos si (uniendo de

rayo a la normal) tienen sentido horario o, por lo contrario, negativos si tiene sentido antihorario.

V. Los ángulos que se tomen respecto al eje z serán positivos si (uniendo de rayo a la normal) tienen sentido antihorario o, por lo contrario, negativos si tiene sentido horario.

1θ 2θ

NORMAL N

EJE Z

A F C

yA F C

y

A C F

R

A F C

R

H y sentido Za Respecto

AH y sentido N a Respecto

H y sentido N a Respecto

AH y sentido Za Respecto

0

0

0

0

3

2

1

0

<<>>

θθθθ

Figura 1.10. Criterio de signos angular.

Figura 5. R < 0 Figura 6. R > 0

Figura 7. y < 0 Figura 8. y > 0

Page 9: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

9

1.2. Espejos. Siempre que se observa un objeto por medio de un aparato de óptica, sencillo como un espejo plano, o complicado como un telescopio, lo que se ve no es el objeto sino su imagen con respecto a dicho aparato de óptica, imagen que puede ser del mismo tamaño que el objeto, más grande, pequeña, derecha, invertida y real o virtual. Las imágenes se forman porque, cuando los rayos de luz que provienen de un objeto luminoso o iluminado llegan a un aparato de óptica, lo único que les sucede es que cambian de dirección. 1.2.1. Espejo plano. Por convenio, una imagen será real cuando los rayos reflejados tocan la imagen producida por el objeto y será una imagen virtual cuando no lo toque. Por ejemplo, cuando un individuo se coloca frente a un espejo plano, de todos sus puntos salen rayos de luz que llegan al espejo, cambian de dirección y se reflejan en direcciones divergentes por lo que no se cruzan, pero sus prolongaciones sí lo hacen precisamente donde se forma su imagen, la cual se encuentra detrás del espejo, y no se puede recibir en una pantalla, característica que distingue, como ya indicamos, a las imágenes virtuales.

A pesar de usar la palabra “virtual”, se sabe, por la experiencia cotidiana, qué tan “real” puede parecer una imagen virtual y qué tan definida es su localización en el espacio que se encuentra por detrás del espejo, aunque este espacio pueda, de hecho, estar ocupado por una pared de ladrillos. Las imágenes en un espejo plano defieren de los objetos en el hecho de que la izquierda se intercambia por la derecha. Así por ejemplo, si se hace girar un trompo en el mismo sentido de rotación de las manecillas de un reloj, su imagen vista a través de un espejo vertical plano, girará en contra de las manecillas del reloj.

Las leyes de la reflexión afirman que el ángulo de incidencia es igual al ángulo de reflexión, y que el rayo incidente, el rayo reflejado y la normal en el punto de incidencia se encuentran en un mismo plano. Si la superficie del segundo medio es lisa, puede actuar como un espejo y producir una imagen reflejada como se observa en la figura anterior. Un punto de A emite rayos en todas las direcciones. Los dos rayos que inciden sobre el espejo en B y C, por ejemplo, se reflejan como rayos BD y CE. Para un observador situado delante del espejo, esos rayos parecen venir del punto F que está detrás del espejo. De las leyes de reflexión se deduce que CF y BF forman el mismo ángulo con la superficie del espejo que AC y AB. En este caso, en el que el espejo es plano, la imagen del objeto parece situada detrás del espejo y separada de él por la misma distancia que hay entre éste y el objeto que está delante.

Espejo

A Fuente de luz

F Imagen

B

C D

E

Figura 1.11. Imagen de un objeto en un espejo plano.

Page 10: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

10

1.2.2. Espejo parabólico. En este espejo, todas las proyecciones de los rayos reflejados van a ir a parar a un mismo punto, conocido como foco. Generalmente, este tipo de espejos son muy empleados en telescopios ya que poseen la ventaja de eliminar la aberración esférica (defecto que se produce en la imagen formada por un espejo esférico por el cual los rayos de luz no convergen a un punto único, sino a una serie de puntos, cuyas distancias al espejo son menores para los rayos de luz más próximos a la periferia del espejo).

Generalmente suele utilizarse la aproximación paraxial en un espejo esférico

para conseguir que el comportamiento del mismo sea lo más cercano al que posee un espejo parabólico.

Figura 1.12. Imagen de un haz de luces en un espejo parabólico.

Otro uso muy común para los espejos con forma parabólica es el de componente básico para las antenas parabólicas. De este modo, los rayos de ondas electromagnéticas provenientes del infinito, por así decirlo, pueden concentrarse en el foco de la parábola. 1.12.1. Espejo elíptico. Este tipo de espejos se caracteriza principalmente porque los rayos de luz no se focalizan en el foco de donde proviene sino que los rayos provenientes de un foco se concentran en el otro foco restante.

Figura 1.13. Imagen de un haz de luz en un espejo elíptico.

1.12.2. Espejo esférico. Entre los espejos que no son planos, los más importantes son los esféricos, es decir, aquellos cuya forma corresponde a un casquete esférico. Los espejos esféricos pueden ser de dos clases: cóncavos, que reflejan la luz por dentro, y los convexos, que son los que lo hacen por fuera. Para poder estudiar los fenómenos ópticos que se presentan en los espejos esféricos, se necesita considerar las características que se indicarán en seguida.

Page 11: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

11

En un espejo esférico podemos definir las siguientes partes: Vértice: Es el centro A del espejo. Centro de curvatura: Es el centro de la esfera de la que es parte el espejo considerado. La distancia entre el vértice A y el centro de curvatura es R. Eje principal o eje del espejo: Es la recta CA que pasa por el centro de curvatura y el vértice. Foco F: Es el punto que se encuentra a la mitad de la distancia entre el centro de curvatura y el vértice. Se define como el punto imagen cuando sobre un espejo incide luz paralela a su eje (objeto muy distante). La distancia entre el punto focal F y el vértice A se denomina distancia focal f. Aumento lateral: La relación entre la altura de la imagen y la altura del objeto se denomina aumento lateral.

Figura 1.14. Partes de un espejo esférico.

Podemos encontrar gráficamente la imagen de cualquier punto fuera del eje, utilizando los siguientes procedimientos:

• Un rayo que incide en el espejo después de haber pasado (o su prolongación) a través del centro de curvatura C , regresa a través de su mismo camino. Esto se debe a que tal rayo es perpendicular al espejo y por la ley de la reflexión si el ángulo de incidencia es 90º, el de reflexión también será 90º.

• Un rayo que incide en el espejo paralelo a su eje, pasa (o su prolongación) a través del punto focal F.

• Un rayo que incide en el espejo después de pasar (el rayo o su prolongación) a través del punto focal, emerge paralelo al eje.

Antes de poder analizar los fenómenos que se producen cuando se coloca un objeto

delante de un espejo, hemos de conocer las siguientes fórmulas básicas:

A F C

f

R

Page 12: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

12

−==

=+

−=

lateralAumento

vérticealimagenladeanciaDists

vérticealobjetodelanciaDists

imagenladeAlturay

objetodelAlturay

s

s

y

y

fss

f

n

f

f

f

f

f

'

'

'

'''

1

'

11

'

ββ

σσ

Trazado de rayos.

Si observamos con detenimiento la primera y última figura podemos observar que a medida que nos alejamos del espejo, la imagen disminuye su tamaño.

A F C

's s

'y

y

Figura 22. Imagen virtual

A F C

'ss

'yy

Figura 21. Imagen virtual

A F C

's

s

'y

y

Figura 20. Imagen real

A F C

's

s

'y

y

Figura 19. Imagen real

Page 13: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

13

Page 14: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

14

1.3. Superficies Refractoras Esféricas.

Page 15: Física de la visión (Teoría y Prácticas)

Tema 1 – Óptica Geométrica BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

15

1.4. Lentes.

Page 16: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

1

OPTICA GEOMÉTRICA SUPERFICIES REFRACTORAS Y LENTES

1 SUPERFICIES REFRACTORAS ESFERICAS

Es sabido que prácticamente todos los instrumentos ópticos utilizan lentes y que las lentes tienen

superficies esféricas o planas que pueden fabricarse, por métodos mecánicos, a un costo

razonable; es importante entonces analizar que ocurre a un haz de luz que atraviesa una superficie

refractora esférica que normalmente es una de las superficies de las lentes.

Se llama superficie refractora esférica (S.R.E.) a una porción de superficie esférica que separa

dos medios de diferentes índices de refracción.

Si suponemos que la luz viaja de izquierda a derecha las superficies refractoras pueden

clasificarse de acuerdo con la concavidad con respecto a la luz incidente en cóncavas y convexas

tal como se muestra en la Figura 1.

CV

a)

n2n1LuzC V

b)

n2n1Luz

Figura 1. Superficies refractoras esféricas: a) convexa, b) cóncava.

La Figura también nos muestra que el centro de curvatura de la superficie se encuentra a la

derecha o a la izquierda según la superficie sea convexa o cóncava..

Page 17: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

2

A la recta que pasa por el centro de curvatura de la S.R.E. y por su centro geométrico o vértice se

le llama eje óptico; las propiedades de convergencia de las S.R.E. dependen de su concavidad con respecto a la luz incidente y de los índices de refracción de los dos medios. Si n n2 1> (de aquí

en adelante consideraremos únicamente este caso) las superficies refractoras convexas son

convergentes, en el sentido que los rayos refractados convergen en algún punto produciendo una

imagen real del objeto fuente, mientras las superficies cóncavas son divergentes, en el sentido

que los rayos refractados no se cruzan dando así lugar a una imagen virtual del objeto fuente( 1 ) .

OC

IV

P

n1 n2

N(a)

21θ θ

(a)

O

I CV

n1 n2

(b)

2

1

θθ

(b)

Nota: La línea roja es la prolongación del rayo

Figura 2 Propiedades de convergencia de las S.R.E. Si n n2 1> , la S.R.E. convexa es convergente (a), mientras la S.R.E. cóncava es divergente, (b).

( 1 ) Las propiedades de convergencia se invierten si n n2 1< como puede inmediatamente

comprobarse mediante la aplicación de la Ley de Snell.

Page 18: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

3

2. Propiedades focales.

Las S.R.E. tienen dos focos que pueden ser reales o virtuales según la superficie sea convexa o cóncava (para el caso n n2 1> ).

Para el caso de una superficie convexa, y por lo tanto convergente, los focos pueden definirse así:

Primer foco: Punto desde el cual divergen los rayos que, refractados por la superficie esférica, se

vuelven paralelos al eje óptico.

V CF1

n1 n2

Figura 3. Primer foco de una S.R.E. convexa .

o también: punto en el cual debe situarse el objeto fuente para que la imagen producida por la

S.R.E. esté localizada en el infinito.

Segundo foco: Punto en el cual convergen los rayos refractados por la S.R.E. cuando inciden

paralelos al eje óptico o también punto en el cual la S.R.E. forma la imagen de un objeto fuente

localizado en el infinito.

Page 19: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

4

V F2

n1 n2

C

Figura 4. Segundo foco de una S.R.E. convexa .

Para una superficie cóncava:

Primer foco: punto en el cual convergerían (si no hubiera S.R.E.) los rayos incidentes que

desviados por la S.R.E. se vuelven paralelos al eje óptico.

V F1

n1

n2

C

Nota: Las líneas naranja son prolongaciones de rayos

Figura 5. Primer foco de una S.R.E. cóncava.

Como puede deducirse de la figura se trata de un foco virtual dado que en el punto F1 no hay

concentración de energía; en este caso el primer foco se encuentra a la derecha de la S.R.E..

Segundo foco: punto desde el cual aparentemente divergen los rayos refractados que inciden

paralelos al eje óptico.

Page 20: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

5

VF2

N1 n2

C

Nota: Lsa líneas naranja son prolongaciones de rayos

Figura 6. Segundo foco de una S.R.E. cóncava.

F2 también es un foco virtual y está localizado a la izquierda de la superficie.

También se definen, para la S.R.E., los planos focales que son los planos perpendiculares al eje

óptico del sistema y que pasan por los focos.

Para las superficies convexas:

Primer plano focal (REAL)

Lugar geométrico de los puntos desde los cuales divergen los rayos que cuando inciden sobre la

superficie esférica se refractan paralelos entre sí

Segundo plano focal (REAL)

Lugar geométrico de los puntos en los cuales convergen los rayos refractados por la S.R.E.

cuando inciden paralelos entre sí.

Para las superficies cóncavas:

Primer plano focal (VIRTUAL)

Lugar geométrico de los puntos en los cuales convergerían los rayos incidentes (si no hubiera

S.R.E.) que refractados por la superficie esférica se vuelven paralelos entre sí.

Page 21: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

6

Segundo plano focal (VIRTUAL)

Lugar geométrico de los puntos desde los cuales aparentemente divergen los rayos refractados

producidos por rayos incidentes paralelos entre sí.

La siguiente figura ilustra gráficamente las anteriores definiciones.

VF1

Pf1

n1 n2

C

V F2

Pf2n1 n2

C

V F1

Pf1n1 n2

C

Nota: Lsa líneas naranja son prolongaciones de rayos

Page 22: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

7

VF

Pf

n1 n2

C

Nota: Lsa líneas naranja son prolongaciones de rayos

Figura 7. Planos focales de S.R.E. convexa y cóncava.

3. Fórmula de Gauss para S.R.E.

Vamos ahora a obtener una relación matemática que nos permita encontrar la posición de la imagen producida por una S.R.E. cuando se conozcan sus características ( )n n R1 2, , y la

posición del objeto fuente. Como hicimos para los espejos esféricos establecemos antes unas

convenciones de signo que nos garanticen la validez de la fórmula cualquiera que sea la

superficie considerada.

- La luz viaja de izquierda derecha.

- Son positivas las distancias que se miden de izquierda a derecha y negativas aquellas que se

miden de derecha a izquierda.

- La distancia p del objeto a la S.R.E. se mide desde el objeto hacia el vértice.

- La distancia q entre la S.R.E. y la imagen se mide desde el vértice hacia la imagen.

- La primera distancia focal f1 se mide desde el primer foco F1 hacia el vértice; por lo

tanto f1 0> si el foco F1 es real, f1 0< si el foco F1 es virtual.

- La segunda distancia focal f2 se mide desde el vértice hacia el segundo foco F2 ; por lo

tanto f2 es positiva o negativa según sea real o virtual el segundo foco.

Page 23: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

8

- El radio de curvatura R se mide desde el centro de curvatura C hacia el vértice; por lo

tanto R es positivo o negativo según la superficie sea convexa o cóncava.

Construyamos entonces la imagen I de un objeto puntual localizado sobre el eje óptico mediante

la simple aplicación de la ley de Snell a un rayo cualquiera (pero paraxial) que incide sobre la

S.R.E.

qp r

Kv

co

P1

2

n1 n2

θ

θ

βα γ

Figura 8. Construcción de la imagen producida por una S.R.E.

Con relación a la Figura 8 aplicamos el teorema de los senos a los triángulos OPC y CPI y

obtenemos:

( )p R R+

−=

sen senππ θθ αα1 ;

q R R− =sen senθθ γγ2

de donde:

sen .senθθ αα1 = +p RR

; sen .senθθ γγ2 = −q RR

Es evidente que de acuerdo con la ley de Snell: n n1 1 2 2sen senθθ θθ= , lo que implica:

np R

Rn

q RR1 2

+ = −.sen .senαα γγ (1)

Page 24: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

9

En la aproximación de rayos paraxiales los ángulos αα γγ, son pequeños de manera que

sen αα αα≅ tan y sen γγ γγ≅ tan ; igualmente K , que es el pie de la perpendicular trazada

desde P hacia el eje óptico, coincide aproximadamente con V , de manera que OK OV p≅ = ;

KI VI q≅ = .

Teniendo en cuenta estas aproximaciones podemos remplazar en la (1) sen αα αα≅ ≅tanhp

,

sen γγ γγ≅ ≅tanhq

y obtenemos:

np R

Rhp

nq R

Rhq1 2. . . .

+ = −

de donde se obtiene fácilmente:

np

nq

n nR

1 2 2 1+ = − (2)

que es la llamada fórmula de Gauss para superficies refractoras esféricas.

A través de la (2) podemos facilmente obtener la localización de los focos teniendo en cuenta que si p f= 1 entonces q = ∞ y viceversa si q f= 2 entonces p = ∞ , lo cual implica:

fn R

n n11

2 1=

−.

(3)

fn R

n n22

2 1=

−.

(4)

de donde:

ff

nn

12

12

= (5)

es decir que las distancias focales son proporcionales a los índices de refracción de los dos

medios separados por la S.R.E..

Page 25: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

10

4. Construcción gráfica de imágenes.

Sin recurrir a la fórmula de Gauss puede determinarse, con buena aproximación, la posición de la

imagen producida por una S.R.E. realizando construcciones gráficas de acuerdo con las siguientes

reglas:

a) Un rayo que para por el centro de curvatura no se desvía. b) Un rayo que pase por (o se dirija hacia) el primer foco F1 (según éste sea real o virtual),

se refracta paralelamente al eje óptico.

c) Un rayo que incide paralelamente al eje óptico se refracta pasando por el segundo foco si éste es real, o de manera que su prolongación pase por el segundo foco F2 si éste es

virtual.

La Figura siguiente muestra algunos casos de interés.

n1 n2

CIV

O

n1 n2

C

F1 F2

IO

V

Nota : Las líneas naranja son prolongaciones de los rayos

Page 26: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

11

n1 n2

C F1F2

IO

V

Nota : Las líneas naranja son prolongaciones de los rayos

Figura 9. Tres diversos casos de construcción gráfica de imágenes.

Como puede verse en la Figura 9 una S.R.E. convexa (cuando n n2 1> ) produce siempre imagen

real e invertida excepto cuando p f< 1 , caso en el cual se produce una imagen virtual y derecha;

una S.R.E. cóncava (para n n2 1> ) siempre produce imágenes virtuales y derechas.

5 Aumento de una S.R.E.

Habiendo definido el aumento a través de la relación A I= − 0 podemos encontrar el aumento

de una S.R.E. haciendo referencia a la Figura 10.

n1 n2

C

I

D

E

V

G

LB

A

O

Figura 10. Identificación de triángulos semejantes para la determinación del aumento de una S.R.E.

Page 27: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

12

Hay varios pares de triángulos semejantes:

a) La semejanza de los triángulos ABC y CDE nos da :

AI q R

p R= − = − −

+0 (6)

b) La semejanza de los triángulos ABF1 y F CV1 :

AI f

p f= − = −

−01

1 (7)

c) La semejanza de los triángulos LVF2 y F DE2 :

AI q f

f= − = − −

02

2 (8)

Page 28: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

1

OPTICA GEOMETRICA

LENTES DELGADAS

Una lente es un sistema óptico limitado por dos superficies refractoras que tienen un eje en

común; por lo general las dos superficies son porciones de esfera o de plano y encierran un medio

cuyo índice de refracción es diferente con respecto a los índices de refracción que están a ambos

lados de la lente.

Cuando el espesor, medido en la dirección del eje de la lente, es lo suficientemente pequeño para

que pueda suponerse que la desviación de un rayo luminoso tenga lugar únicamente en el plano

que pasa por el centro de la lente, ésta se denomina lente delgada. Las lentes delgadas se

clasifican según la forma y según las propiedades de convergencia así:

a) b) c) a )1 b )1 c )1

Lentes Convergentes Lentes Divergentes

Figura 1. Propiedades de convergencia de lentes en aire. a) Biconvexa b) plano-convexa c) menisco-convergente. a') Biconvexa b') plano-cóncava c') menisco-divergente.

Es importante anotar que las propiedades de convergencia de una lente dependen de los medios

situados a los lados de ésta y que cuando estos medios no se especifican se entiende que la lente

está sumergida en aire.

Para estudiar los efectos de una lente delgada sobre los rayos luminosos, así como hicimos en el

análisis de los anteriores sistemas ópticos, utilizaremos la aproximación de rayos paraxiales y

supondremos que la lente sea lo suficientemente delgada para que las distancias con respecto a la

Page 29: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

2

lente puedan medirse con respecto a un plano perpendicular al eje óptico del sistema y que pase

por el centro de la lente.

C2

V1V2

C1

C

A

B

Figura 2. Lente delgada. V V1 2, vértices de las dos S.R.E. que conforman

la lente, C C1 2, centros de curvatura de las S.R.E.; C centro de la lente; AB plano con respecto al cual se miden las distancias a la lente.

1 Propiedades focales.

Para las lentes convergentes se denomina primer foco F1 el punto desde el cual divergen los

rayos incidentes que cuando pasan por la lente se refractan paralelos al eje óptico.

f1

F1

Page 30: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

3

f2

F2

Figura 3. Focos reales de una lente convergente.

Por otra parte se define segundo foco F2 el punto en el cual convergen los rayos refractados

que inciden, sobre la lente, paralelos al eje óptico.

Si por los dos focos trazamos planos perpendiculares al eje óptico de la lente se obtienen los

planos focales que gozan de las siguientes propiedades:

Primer plano focal: lugar geométrico de los puntos desde los cuales divergen los rayos

incidentes que se refractan paralelos entre sí.

Segundo plano focal: lugar geométrico de los puntos en los cuales convergen los rayos

refractados cuando inciden, sobre la lente, paralelos entre sí.

F 1 C

Pf1

Page 31: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

4

F 2

C

Pf2

Figura 4. Planos focales de una lente convergente.

Para las lentes divergentes se denomina primer foco F1 el punto hacia el cual aparentemente

convergen los rayos incidentes que se refractan paralelos al eje óptico.

F 1

f1

F2

f2

Figura 5. Focos virtuales de una lente divergente.

Por otra parte se define segundo foco F2 el punto desde el cual aparentemente divergen los

rayos refractados que inciden paralelos al eje óptico.

Page 32: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

5

Si por los dos focos trazamos planos perpendiculares al eje óptico de la lente, se obtienen los

planos focales que gozan de las siguientes propiedades:

Primer plano focal: lugar geométrico de los puntos hacia los cuales convergerían (en ausencia

de la lente) los rayos incidentes que se refractan paralelos entre sí.

Segundo plano focal: lugar geométrico de los puntos desde los cuales aparentemente divergen

los rayos refractados que inciden paralelos entre sí.

F 1

Pf1

F 2

Pf2

Figura 6. Planos focales de una lente divergente.

Page 33: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

6

Como puede deducirse de las definiciones y de las Figuras 3, 4, 5, 6, los focos y los planos

focales son reales para lentes convergentes y virtuales para lentes divergentes.

2 Fórmula de Gauss para lentes delgadas.

Utilizando la aproximación de rayos paraxiales y las convenciones de signo que ya hemos

establecido para las S.R.E. vamos ahora a obtener una relación matemática mediante la cual es

posible calcular la posición de la imagen producida por una lente delgada cuando se conozca la

posición de objeto fuente y las características del sistema óptico. Para lograr el objetivo

determinaremos la posición de la imagen producida por la primera S.R.E. y utilizaremos esa

imagen como objeto fuente para la segunda S.R.E. Con relación a la Figura 7 , en la cual se ha

exagerado el espesor de la lente, calculamos a través de la fórmula para superficies refractoras , la

posición de la imagen I' producida por la primera S.R.E. así:

np

nq

n nR

1 2 2 1

1+ = −

' (1)

C I I´O C2 V1 V2 C1

41

32

n1n2 n3

θ θθθ

OV p1 = ; V C R1 1 1= ; V C R2 2 2= ; V I q1 ' '= ; V I q2 =

V V x V I p C1 2 2= = =; ' ' , centro de la lente.

Figura 7. Imagen producida por una lente.

Page 34: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

7

De acuerdo con lo que hemos dicho la imagen I' funciona ahora como objeto fuente de la

segunda superficie de la cual dista V I p2 ' '= . Dado que, en este caso, esta distancia se recorre

de derecha a izquierda, I' es una fuente virtual para la segunda superficie y por lo tanto p' es

negativa, de manera, que para la segunda S.R.E. podemos escribir:

− + = −np

nq

n nR

2 3 3 2

2' (2)

Con relación a la Figura 7, es evidente que q x p' '= + , pero si la lente es delgada x ≅ 0 y por

lo tanto podemos decir que V C V1 2≡ ≡ y q p' '≅ . Combinando las ecuaciones (1), (2) se

obtiene:

np

nq

n nR

n nR

1 3 2 1

1

3 2

2+ = − + −

(3)

Esta última ecuación es la que generalmente se denomina fórmula de Gauss para lentes delgadas

en su forma más general.

Si la lente está sumergida en aire n n1 3 1≅ ≅ y está hecha con un material de índice de

refracción n la relación (3) se simplifica así:1

( )1 11

1 1

1 2p qn

R R+ = − −

(4)

Es fácil ver que en este caso( 1 ) las dos distancias focales f1 y f2 son iguales, de manera que

puede hablarse de la distancia focal f de la lente, la cual está dada por cualquiera de las dos

condiciones p f= y q = ∞ ó p = ∞ y q f= , en ambos casos se obtiene, según la (4):

( )11

1 1

1 2fn

R R= − −

(5)

Esta última relación se denomina fórmula del constructor de lentes porque evidentemente

permite construir una lente con una distancia focal predeterminada escogiendo el material con un

( 1 ) y en todos los casos en los cuales la lente está rodeada por un solo medio.

Page 35: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

8

oportuno índice de refracción n y moldeándolo mediante superficies esféricas con los radios de

curvatura necesarios.

A la magnitud P f= 1 se le denomina poder de la lente; esta magnitud es obviamente positiva

para las lentes convergentes (que tienen distancia focal positiva dado que los focos son reales) y

negativa para las lentes divergentes (dado que éstas tienen focos virtuales y por lo tanto distancia

focal negativa); su unidad de medida es la dioptría equivalente naturalmente a m−1 ; por ejemplo

una lente cuyo poder sea P = +2 dioptrías es una lente convergente cuya distancia focal es 0.5

metros.

Combinando las ecuaciones (4) y (5) se obtiene:

1 1 1p q f

+ = (6)

ecuación formalmente idéntica a la ecuación para los espejos esféricos.

3 Construcción gráfica de imágenes.

Sin recurrir a la fórmula de Gauss es posible determinar, con buena aproximación, la posición de

la imagen producida por una lente delgada teniendo en cuenta que los rayos que pasan por (o se

dirigen hacia) el primer foco se desvían paralelos al eje óptico, los que inciden paralelos al eje

óptico se refractan de manera que pasan por (o divergen como si se generaran en) el segundo foco

y que los rayos que pasan por el centro de la lente no sufren desviación.

OF1 F2 I

(a)

Page 36: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

9

Figura 8. a) Imagen real producida por una lente convergente.

b) Unico caso ( )p f< en el cual una lente convergente forma una imagen virtual. c) Una lente divergente siempre produce imagen virtual.

Con estas simples reglas podemos visualizar la imagen de cualquier objeto-fuente y determinar si

dicha imagen es real o virtual mediante construcciones gráficas, algunas de las cuales se

presentan en la Figura 8.

Tal como se muestra en la Figura 8 una lente convergente forma una imagen real e invertida siempre que p f> , pero forma una imagen virtual y derecha cuando p f< (éste es el caso

que se presenta cuando se utiliza una lente convergente como lupa).

Por otra parte una lente divergente produce siempre imágenes virtuales y derechas cualquiera que

sea la posición del objeto-fuente.

4 Aumento de una lente - Fórmula de Newton.

Si definimos, como en los casos anteriores, el aumento de una lente a través de la relación

Page 37: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

10

AI= −0

donde el signo negativo da cuenta de la inversión de la imagen real con respecto al objeto-fuente,

es posible calcular el aumento estableciendo relaciones de proporcionalidad entre lados

homólogos en varias parejas de triángulos semejantes que pueden determinarse analizando la

Figura 9.

AC p CD q F C f= = =; ; ;1

CF f RF x F D x2 1 1 2 2= = =; ;

AB GC CH DE I= = = =0 ;

Figura 9. Determinación del aumento de una lente.

a) A partir de los triángulos semejantes ABF1 y F CH1 se obtiene:

AI f

x= − = −

0 1 (7)

b) Si consideramos los triángulos semejantes GCF2 y F DE2 se obtiene:

AI x

f= − = −

02 (8)

c) A través de los triángulos semejantes ABC y CHE obtenemos:

AI q

p= − = −

0 (9)

Page 38: Física de la visión (Teoría y Prácticas)

FÍSICA GENERAL PARA INGENIERÍA DEPARTAMENTO DE FÍSICA. .UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

11

Las tres relaciones que hemos encontrado para el aumento son obviamente equivalentes; sin

embargo combinando las ecuaciones (7), (8) se obtiene:

x x f1 22. = (10)

esta relación denominada fórmula de Newton es particularmente interesante porque permite

localizar la imagen producida por la lente (en este caso su distancia con respecto al segundo foco)

conociendo la distancia focal de la lente y la distancia del objeto-fuente al primer foco; esto nos

permite decir que la fórmula de Newton es equivalente a la fórmula de Gauss.

Page 39: Física de la visión (Teoría y Prácticas)

Utilizando la aproximación de rayos paraxiales y las convenciones de signo que

ya hemos establecido para las S.R.E. vamos ahora a obtener una relación matemática

mediante la cual es posible calcular la posición de la imagen producida por una lente

delgada cuando se conozca la posición de objeto fuente y las características del sistema

óptico. Para lograr el objetivo determinaremos la posición de la imagen producida por la

primera S.R.E. y utilizaremos esa imagen como objeto fuente para la segunda S.R.E.

Con relación a la Figura , en la cual se ha exagerado el espesor de la lente, calculamos a

través de la fórmula para superficies refractoras , la posición de la imagen I' producida

por la primera S.R.E. así:

1

1221

' R

nn

s

n

s

n −=+− (1)

De acuerdo con lo que hemos dicho la imagen I' funciona ahora como objeto

fuente de la segunda superficie de la cual dista V2I’ ==== p’. Dado que, en este caso, esta

distancia se recorre de derecha a izquierda, I’ es una fuente virtual para la segunda

superficie y por lo tanto p’ es negativa, de manera, que para la segunda S.R.E. podemos

escribir:

2

2332

''' R

nn

s

n

xs

n −=+

+− (2)

Con relación a la Figura 7, es evidente que q = x + p, pero si la lente es delgada x ≅ 0 y

por lo tanto podemos decir que V1 ≡ C ≡ V2 y q’ ≅ p’. Combinando las ecuaciones (1),

(2) se obtiene:

1

12

2

233221

2

2332

1

1221

2

2332

1

1221

''''

'''

'

'''

'

R

nn

R

nn

s

n

xs

n

s

n

s

n

R

nn

s

n

xs

n

R

nn

s

n

s

n

R

nn

s

n

xs

n

R

nn

s

n

s

n

−+−

=

++

−++−

+−

=++

−=+−

−=+

+−

−=+−

Page 40: Física de la visión (Teoría y Prácticas)

Sustituyendo los valores correspondientes tenemos lo siguiente:

1

12

2

2331

1

12

2

233221

1

12

2

233221

''

''0''''''

R

nn

R

nn

s

n

s

n

R

nn

R

nn

s

n

s

n

s

n

s

n

R

nn

R

nn

s

n

xs

n

s

n

s

n

−+

−=+−

−+−

=++

−+−⇒−+

−=

++

−++−

Como nosotros sabemos que el valor del índice de refracción n1 y el n3 es el

mismo ya que es el del agua, pues podemos simplificar la ecuación anterior:

( )

−−=

+−⇒−

+−

=+−12

2

1

2

2

2 11·

''

11·

'' RRnn

ssn

R

nn

R

nn

s

n

s

nagag

agagagag

Para obtener el valor del foco basta conocer que cualquier rayo proveniente del

infinito (s = + ∞) irá a parar al foco (s’’ = f ) o viceversa:

( )21

21

1212

11111·

10·

RR

RR

nn

nf

RRn

nn

fRRnn

fn

lenteag

ag

ag

lenteag

lenteagag +−=⇒

−=⇒

−−=

+

Por tanto, queda demostrado que la distancia focal de un sistema de lentes

depende de el media donde esté sumergido.

Page 41: Física de la visión (Teoría y Prácticas)

1

Gráficas y diagramas.

Cuando se habla en fotometría de magnitudes y unidades de media se definen una serie de términos y leyes que describen el comportamiento de la luz y sirven como herramientas de cálculo. Pero no hemos de olvidar que las hipótesis utilizadas para definirlos son muy restrictivas (fuente puntual, distribución del flujo esférica y homogénea, etc.). Aunque esto no invalida los resultados y conclusiones obtenidas, nos obliga a buscar nuevas herramientas de trabajo, que describan mejor la realidad, como son las tablas, gráficos o programas informáticos. De todos los inconvenientes planteados, el más grave se encuentra en la forma de la distribución del flujo luminoso que depende de las características de las lámparas y luminarias empleadas.

Influencia de la luminaria en la forma del haz de luz.

A menudo no le daremos mucha importancia a este tema, como pasa en la iluminación de interiores, pero será fundamental si queremos optimizar la instalación o en temas como la iluminación de calles, decorativa, de industrias o de instalaciones deportivas.

A continuación veremos los gráficos más habituales en luminotecnia:

• Diagrama polar o curva de distribución luminosa. • Diagramas isocandela.

o Alumbrado por proyección. o Alumbrado público. Proyección azimutal de Lambert.

• Curvas isolux.

Diagrama polar o curvas de distribución luminosa

En estos gráficos la intensidad luminosa se representa mediante un sistema de tres coordenadas (I,C, ). La primera de ellas I representa el valor numérico de la intensidad luminosa en candelas e indica la longitud del vector mientras las otras señalan la dirección. El ángulo C nos dice en qué plano vertical estamos y mide la inclinación respecto al eje vertical de la luminaria. En este último, 0º señala la vertical hacia abajo, 90º la horizontal y 180º la vertical hacia arriba. Los valores de C utilizados en las gráficas no se suelen indicar salvo para el alumbrado público. En este caso, los ángulos entre 0º y 180º quedan en el lado de la calzada y los comprendidos entre 180º y 360º en la acera; 90º y 270º son perpendiculares al bordillo y caen respectivamente en la calzada y en la acera.

Page 42: Física de la visión (Teoría y Prácticas)

2

Con un sistema de tres coordenadas es fácil pensar que más que una representación plana tendríamos una tridimensional. De hecho, esto es así y si representamos en el espacio todos los vectores de la intensidad luminosa en sus respectivas direcciones y uniéramos después sus extremos, obtendríamos un cuerpo llamado sólido fotométrico . Pero como trabajar en tres dimensiones es muy incómodo, se corta el sólido con planos verticales para diferentes valores de C (suelen ser uno, dos, tres o más dependiendo de las simetrías de la figura) y se reduce a la representación plana de las curvas más características.

En la curva de distribución luminosa , los radios representan el ángulo y las circunferencias concéntricas el valor de la intensidad en candelas. De todos los planos verticales posibles identificados por el ángulo C, solo se suelen representar los planos verticales correspondientes a los planos de simetría y los transversales a estos (C = 0º y C = 90º) y aquel en que la lámpara tiene su máximo de intensidad. Para evitar tener que hacer un gráfico para cada lámpara cuando solo varía la potencia de esta, los gráficos se normalizan para una lámpara de referencia de 1000 lm. Para conocer los valores reales de las intensidades bastará con multiplicar el flujo luminoso real de la lámpara por la lectura en el gráfico y dividirlo por 1000 lm.

Matriz de intensidades luminosas

También es posible encontrar estos datos en unas tablas llamadas matriz de intensidades luminosas donde para cada pareja de valores de C y obtenemos un valor de I normalizado para una lámpara de flujo de 1000 lm.

Page 43: Física de la visión (Teoría y Prácticas)

3

Diagramas isocandela

A pesar de que las curvas de distribución luminosa son herramientas muy útiles y prácticas, presentan el gran inconveniente de que sólo nos dan información de lo que ocurre en unos pocos planos meridionales (para algunos valores de C) y no sabemos a ciencia cierta qué pasa en el resto. Para evitar estos inconvenientes y conjugar una representación plana con información sobre la intensidad en cualquier dirección se definen las curvas isocandela.

En los diagramas isocandelas se representan en un plano, mediante curvas de nivel, los puntos de igual valor de la intensidad luminosa. Cada punto indica una dirección del espacio definida por dos coordenadas angulares. Según cómo se escojan estos ángulos, distinguiremos dos casos:

• Proyectores para alumbrado por proyección. • Luminarias para alumbrado público. Proyección azimutal de Lambert.

En los proyectores se utiliza un sistema de coordenadas rectangulares con ángulos en lugar de las típicas x e y. Para situar una dirección se utiliza un sistema de meridianos y paralelos similar al que se usa con la Tierra. El paralelo 0º se hace coincidir con el plano horizontal que contiene la dirección del haz de luz y el meridiano 0º con el plano perpendicular a este. Cualquier dirección, queda pues, definida por sus dos coordenadas angulares. Conocidas estas, se sitúan los puntos sobre el gráfico y se unen aquellos con igual valor de intensidad luminosa formando las líneas isocandelas .

En las luminarias para alumbrado público , para definir una dirección, se utilizan los ángulos C y usados en los diagramas polares. Se supone la luminaria situada dentro de una esfera y sobre ella se dibujan las líneas isocandelas. Los puntos de las curvas se obtienen por intersección de los vectores de intensidad luminosa con la superficie de esta. Para la representación plana de la superficie se recurre a la proyección azimutal de Lambert .

Page 44: Física de la visión (Teoría y Prácticas)

4

En estos gráficos, los meridianos representan el ángulo C, los paralelos y las intensidades, líneas rojas, se reflejan en tanto por ciento de la intensidad máxima. Como en este tipo de proyecciones las superficies son proporcionales a las originales, el flujo luminoso se calcula como el producto del área en el diagrama (en estereorradianes) por la intensidad luminosa en este área.

Además de intensidades y flujos, este diagrama informa sobre el alcance y la dispersión de la luminaria. El alcance da una idea de la distancia longitudinal máxima que alcanza el haz de luz en la calzada mientras que la dispersión se refiere a la distancia transversal.

Curvas isolux

Las curvas vistas en los apartados anteriores (diagramas polares e isocandelas) se obtienen a partir de características de la fuente luminosa, flujo o intensidad luminosa, y dan información sobre la forma y magnitud de la emisión luminosa de esta. Por contra, las curvas isolux hacen referencia a las iluminancias, flujo luminoso recibido por una superficie, datos que se obtienen experimentalmente o por calculo a partir de la matriz de intensidades usando la fórmula:

Estos gráficos son muy útiles porque dan información sobre la cantidad de luz recibida en cada punto de la superficie de trabajo y son utilizadas especialmente en el

alumbrado público donde de un vistazo nos podemos hacer una idea de como iluminan las farolas la calle.

Lo más habitual es expresar las curvas isolux en valores absolutos definidas para una lámpara de 1000 lm y una altura de montaje de 1 m .

Los valores reales se obtienen a partir de las curvas usando la expresión:

También puede expresarse en valores relativos a la iluminancia máxima (100%) para cada altura de montaje . Los valores reales de la iluminancia se calculan entonces como:

Ereal = Ecurva · E máx con

siendo a un parámetro suministrado con las gráficas.

Page 45: Física de la visión (Teoría y Prácticas)

5

Problemas resueltos

1. Una superficie está iluminada por una fuente lumino sa puntual de 80 cd de intensidad constante en todas direcciones situada a 2 m de altura. Calcular la iluminancia horizontal y vertical para los siguient es valores del ángulo alfa: 0, 30º, 45º, 60º, 75º y 80º.

Solución

Como vimos al hablar de magnitudes fotométricas, las componentes de la iluminancia, se pueden calcular empleando las fórmulas:

Y dado que conocemos todos los datos (h = 2 m, I = 80 cd y los diferentes valores de alfa) solo queda sustituir y calcular:

Como podemos ver, la mecánica de cálculo es siempre la misma. Así pues, los resultados finales son:

R (m) EH (lux) EV (lux) E (lux)

0º 0 20 0 20

30º 1.15 12.99 7.5 15

45º 2 7.07 7.07 10

60º 3.46 2.5 4.33 5

75º 7.45 0.35 1.29 1.34

80º 11 0.10 0.59 0.60

Page 46: Física de la visión (Teoría y Prácticas)

6

Si representamos el diagrama isolux de la superficie podemos observar que las curvas son circunferencias, debido a que la intensidad es constante en todas direcciones, que la iluminancia disminuye a medida que los puntos se alejan del foco y que la máxima iluminancia se encuentra en la proyección de la fuente sobre la superficie (0º).

2. Una superficie circular de 3 m de radio está ilumin ada por una bombilla de 50 cd de intensidad constante en todas direcciones sit uada a 2 m de altura sobre el centro de la plataforma. Calcular la iluminación má xima y mínima sobre la superficie.

Solución

En este caso nos piden la iluminancia sobre la superficie, es decir, la iluminancia horizontal. Como la intensidad es constante en todas direcciones y la altura también el valor de la iluminancia dependerá únicamente de la distancia de los puntos al foco. En nuestro caso el punto más próximo es la proyección de la bombilla sobre la superficie ( = 0º) y los más alejados son aquellos que están en los bordes (R = 3 m).

Iluminancia máxima:

Iluminancia mínima (R = 3 m):

3. Tenemos un proyector situado en el techo de 0.04 m 2 de superficie que ilumina con una intensidad de 100 cd en cualquier d irección una mesa de 0.5 m 2 de superficie. La mesa se puede considerar una supe rficie especular de factor de reflexión de 0.8. Calcular la luminancia de la f uente y la luminancia de la mesa para el observador de la figura.

Page 47: Física de la visión (Teoría y Prácticas)

7

Solución

Luminancia de la fuente:

Luminancia de la mesa:

Como la mesa no es una superficie reflectante perfecta una parte de la intensidad luminosa que le llega es absorvida por esta. Esto quiere decir que en la fórmula de la luminancia el valor de I estará afectado por el factor de reflexión.

4. Tenemos una luminaria simétrica situada en el centr o de una habitación de 5 x 2 m a 3 m de altura del suelo. Calcular la iluminan cia sobre los puntos marcados en el dibujo a partir del diagrama polar de la lumi naria. El flujo luminoso de la lámpara es de 500 lm.

Solución

En este caso la intensidad no es uniforme ni constante en cualquier dirección y por ello tenemos que trabajar con gráficos. Esto no supone ninguna complicación adicional respecto a lo visto anteriormente y la mecánica y las fórmulas empleadas siguen siendo las mismas. La única diferencia estriba en que los valores de la intensidad los tomaremos de un gráfico polar, que en este caso depende sólo del ángulo alfa debido a que la luminaria es simétrica.

Los pasos a seguir son:

• Calcular

Page 48: Física de la visión (Teoría y Prácticas)

8

• Leer I( ) relativo del gráfico

• Calcular la iluminancia

Iluminancia en a:

Iluminancia en b:

Iluminancia en c:

Page 49: Física de la visión (Teoría y Prácticas)

9

Iluminancia en d:

5. Un tramo de calle está iluminado por una farola de 10 m de altura y 10000 lm de flujo luminoso cuyo diagrama isolux se adjunta.

Calcular la iluminancia en los siguientes puntos de la calzada:

Page 50: Física de la visión (Teoría y Prácticas)

10

Solución

Resolver este problema es muy sencillo, pues sólo hay que trasladar los puntos de la calle al diagrama isolux dividiendo sus coordenadas por la altura de la luminaria, leer los valores del gráfico y calcular la iluminancia con la fórmula.

Iluminancia en c:

Las coordenadas absolutas de c son: x = 15 m e y =12.5 m

Ahora las dividimos por la altura (10 m) para convertirlas en valores relativos que situaremos sobre el gráfico:

xr = 1.5 ; yr = 1.25

A continuación leemos los valores relativos de la iluminancia del diagrama:

Coordenadas relativas

Er (lx/1000 lm)

(1.5,1.25) 5 lx

Finalmente aplicamos la fómula y ya está.

Page 51: Física de la visión (Teoría y Prácticas)

11

Como se puede ver el proceso a seguir es siempre igual y los resultados finales son:

Punto Coordenadas absolutas

Coordenadas relativas Er (lx/1000 lm) E (lx)

a (20,0) (2,0) 100 10

b (0,5) (0,0.5) 25 2.5

c (15,12.5) (1.5,1.25) 5 0.5

d (0,10) (0,1) 25 2.5

e (25,5) (2.5,0.5) 1 0.1

f (30,15) (3,1.5) 1 0.1

Problemas propuestos

1. Tenemos una fuente luminosa puntual de 100 cd de i ntensidad constante en todas direcciones situada sobre una plataforma rect angular de 20x10 m como la de la figura. Calcular la iluminación máxima y míni ma sobre la superficie y la iluminancia en los puntos (3, 10), (0, 15), (7, 20 ) y (10, 15).

Ver resultados

Coordenadas (15,4) (10,0) (3,10) (0,15) (7,20) (10,15)

E (lux) 11.10 0.0676 1.45 2.40 1.06 0.99

Ver solución

Coordenadas d (m) E (lux)

(15,4) 0 0º 11.10

(10,0) 16.16 79.48º 0.0676

(3,10) 5.1 59.53º 1.45

(0,15) 4 53.13º 2.40

(7,20) 5.83 62.77º 1.06

(10,15) 6 63.43º 0.99

2. Para la disposición de luminarias de la figura, cal cular la iluminancia en el centro de la placa (a) y en el punto b.

Page 52: Física de la visión (Teoría y Prácticas)

12

Ver resultados

Punto E (lux)

a 2.84

b 1.19

Ver solución

con

Como a está situada en el centro de simetrías de la placa d1, d2 y d3 son iguales.

Conocidos d y h, sabemos el ángulo alfa.

Punto a 1 2 3 Ea

d 5.59 5.59 5.59

48.19º 61.78º 40.31º

E (lux) 1.19 1.17 0.48 Ea = 2.84

Punto b 1 2 3 Eb

d 10 11.18 5

63.43º 74.98º 68.20º

E (lux) 0.36 0.19 0.64 Eb = 1.19

3. Para el tramo de calle de la figura, calcular la il uminancia en los puntos a, b, c, d, e y f. La farola mide 8 m de altura y la lámpara tiene un flujo de 15000 lm. Asimismo, se suministran los diagramas polares de l as luminarias referenciadas a 1000 lm.

Page 53: Física de la visión (Teoría y Prácticas)

13

Diagramas polares disponibles: Ambos

Ver resultados

Punto a b c d e f

E(lux) 21.09 19.06 15.08 15.72 6.15 11.17

Ver solución

Punto d (m) tan C Ir (cd/1000 lm) I (lm) E (lx)

a 0 0 0º 0º 90 1350 21.09

b 8 1 45º 90º 230 3450 19.06

c 4 0.5 26.6º 270º 90 1350 15.08

d 5 0.625 32º 180º 110 1650 15.72

e 14 1.75 60.3º 0º 210 3150 6.15

f 10 1.25 51.3º 45º 195 2925 11.17

4. Para el tramo de calle de la figura calcular las il uminancias de los puntos a, b, c y d a partir de la matriz de intensidades lumino sas de la luminaria.

Otros datos:

h = 10 m= 20000 lm

90º 120º 150º 180º 210º 240º 270º

0º 140 140 140 140 140 140 140

10º 120 130 130 135 160 200 230

20º 110 120 120 125 210 290 310

30º 100 110 115 160 300 320 330

40º 90 100 110 180 400 330 260

50º 70 80 100 200 450 190 110

60º 60 70 120 280 470 90 60

70º 30 20 60 230 300 60 20

80º 5 8 10 15 35 40 15

90º 0 0 0 0 0 0 0

cd / 1000 lm

Page 54: Física de la visión (Teoría y Prácticas)

14

Ver resultados

Punto a b c d

E(lux) 28 13.44 13 4.78

Ver solución

Page 55: Física de la visión (Teoría y Prácticas)

1

Problemas resueltos

1. Una superficie está iluminada por una fuente lumino sa puntual de 80 cd de intensidad constante en todas direcciones situada a 2 m de altura. Calcular la iluminancia horizontal y vertical para los siguient es valores del ángulo alfa: 0, 30º, 45º, 60º, 75º y 80º.

Solución

Como vimos al hablar de magnitudes fotométricas, las componentes de la iluminancia, se pueden calcular empleando las fórmulas:

Y dado que conocemos todos los datos (h = 2 m, I = 80 cd y los diferentes valores de alfa) solo queda sustituir y calcular:

Como podemos ver, la mecánica de cálculo es siempre la misma. Así pues, los resultados finales son:

R (m) EH (lux) EV (lux) E (lux)

0º 0 20 0 20

30º 1.15 12.99 7.5 15

45º 2 7.07 7.07 10

60º 3.46 2.5 4.33 5

75º 7.45 0.35 1.29 1.34

80º 11 0.10 0.59 0.60

Page 56: Física de la visión (Teoría y Prácticas)

2

Si representamos el diagrama isolux de la superficie podemos observar que las curvas son circunferencias, debido a que la intensidad es constante en todas direcciones, que la iluminancia disminuye a medida que los puntos se alejan del foco y que la máxima iluminancia se encuentra en la proyección de la fuente sobre la superficie (0º).

2. Una superficie circular de 3 m de radio está ilumin ada por una bombilla de 50 cd de intensidad constante en todas direccion es situada a 2 m de altura sobre el centro de la plataforma. Calcular l a iluminación máxima y mínima sobre la superficie.

Solución

En este caso nos piden la iluminancia sobre la superficie, es decir, la iluminancia horizontal. Como la intensidad es constante en todas direcciones y la altura también el valor de la iluminancia dependerá únicamente de la distancia de los puntos al foco. En nuestro caso el punto más próximo es la proyección de la bombilla sobre la superficie ( = 0º) y los más alejados son aquellos que están en los bordes (R = 3 m).

Iluminancia máxima:

Iluminancia mínima (R = 3 m):

3. Tenemos un proyector situado en el techo de 0.04 m 2 de superficie que ilumina con una intensidad de 100 cd en cualquier d irección una mesa de 0.5 m 2 de superficie. La mesa se puede considerar una supe rficie especular de factor de reflexión de 0.8. Calcular la luminancia de la f uente y la luminancia de la mesa para el observador de la figura.

Page 57: Física de la visión (Teoría y Prácticas)

3

Solución

Luminancia de la fuente:

Luminancia de la mesa:

Como la mesa no es una superficie reflectante perfecta una parte de la intensidad luminosa que le llega es absorvida por esta. Esto quiere decir que en la fórmula de la luminancia el valor de I estará afectado por el factor de reflexión.

4. Tenemos una luminaria simétrica situada en el centr o de una habitación de 5 x 2 m a 3 m de altura del suelo. Calcular la iluminan cia sobre los puntos marcados en el dibujo a partir del diagrama polar de la lumi naria. El flujo luminoso de la lámpara es de 500 lm.

Solución

En este caso la intensidad no es uniforme ni constante en cualquier dirección y por ello tenemos que trabajar con gráficos. Esto no supone ninguna complicación adicional respecto a lo visto anteriormente y la mecánica y las fórmulas empleadas siguen siendo las mismas. La única diferencia estriba en que los valores de la intensidad los tomaremos de un gráfico polar, que en este caso depende sólo del ángulo alfa debido a que la luminaria es simétrica.

Los pasos a seguir son:

• Calcular

Page 58: Física de la visión (Teoría y Prácticas)

4

• Leer I( ) relativo del gráfico

• Calcular la iluminancia

Iluminancia en a:

Iluminancia en b:

Iluminancia en c:

Page 59: Física de la visión (Teoría y Prácticas)

5

Iluminancia en d:

5. Un tramo de calle está iluminado por una farola de 10 m de altura y 10000 lm de flujo luminoso cuyo diagrama isolux se adjunta.

Calcular la iluminancia en los siguientes puntos de la calzada:

Page 60: Física de la visión (Teoría y Prácticas)

6

Solución

Resolver este problema es muy sencillo, pues sólo hay que trasladar los puntos de la calle al diagrama isolux dividiendo sus coordenadas por la altura de la luminaria, leer los valores del gráfico y calcular la iluminancia con la fórmula.

Iluminancia en c:

Las coordenadas absolutas de c son: x = 15 m e y =12.5 m

Ahora las dividimos por la altura (10 m) para convertirlas en valores relativos que situaremos sobre el gráfico:

xr = 1.5 ; yr = 1.25

A continuación leemos los valores relativos de la iluminancia del diagrama:

Finalmente aplicamos la fómula y ya está.

Como se puede ver el proceso a seguir es siempre igual y los resultados finales son:

Punto Coordenadas absolutas

Coordenadas relativas Er (lx/1000 lm) E (lx)

a (20,0) (2,0) 100 10

b (0,5) (0,0.5) 25 2.5

c (15,12.5) (1.5,1.25) 5 0.5

d (0,10) (0,1) 25 2.5

e (25,5) (2.5,0.5) 1 0.1

f (30,15) (3,1.5) 1 0.1

Coordenadas relativas

Er (lx/1000 lm)

(1.5,1.25) 5 lx

Page 61: Física de la visión (Teoría y Prácticas)

7

Problemas propuestos

1. Tenemos una fuente luminosa puntual de 100 cd de i ntensidad constante en todas direcciones situada sobre una plataforma rect angular de 20x10 m como la de la figura. Calcular la iluminación máxima y míni ma sobre la superficie y la iluminancia en los puntos (3, 10), (0, 15), (7, 20 ) y (10, 15).

Ver resultados

Coordenadas (15,4) (10,0) (3,10) (0,15) (7,20) (10,15)

E (lux) 11.10 0.0676 1.45 2.40 1.06 0.99

Solución

Como la intensidad es constante en todas direcciones y la altura también el valor de la iluminancia depende sólo de la distancia de los puntos al foco. El punto más próximo es la proyección de la fuente sobre la superficie (15,4) y el más alejado es (10,0). Conocidas la altura del foco y la distancia horizontal de este a los distintos puntos saber el valor de alfa es un problema de trigonometría. Entonces sólo queda aplicar la fórmula y resolver el problema.

Iluminancia en (15,4) (máxima):

Iluminancia en (10,0) (mínima):

Iluminancia en (3,10) :

Page 62: Física de la visión (Teoría y Prácticas)

8

Iluminancia en (0,15) :

Como podemos ver, la mecánica de cálculo es siempre la misma. Así pues, los resultados finales son:

Coordenadas d (m) E (lux)

(15,4) 0 0º 11.10

(10,0) 16.16 79.48º 0.0676

(3,10) 5.1 59.53º 1.45

(0,15) 4 53.13º 2.40

(7,20) 5.83 62.77º 1.06

(10,15) 6 63.43º 0.99

2. Para la disposición de luminarias de la figura, cal cular la iluminancia en el centro de la placa (a) y en el punto b.

Ver resultados

Punto E (lux)

a 2.84

b 1.19

Solución

En este caso la diferencia radica en que hay más de una fuente de luz, pero esto no ha de suponer una mayor dificultad. Como las iluminancias sobre un punto son aditivas, lo que hay qye hacer es calcular la contribución de cada foco sobre dicho punto y sumarlas.

con

Ver más

Iluminancia en a:

Page 63: Física de la visión (Teoría y Prácticas)

9

Como a está situada en el centro de simetrías de la placa d1, d2 y d3 son iguales.

Conocidos d y h, sabemos el ángulo alfa.

Por fin, ya sólo queda calcular las iluminancias producidas por cada foco sobre el punto a:

Finalmente sumamos E1, E2 y E3 y ya está:

Para el punto b el proceso a seguir es el mismo de antes. Así pues, los resultados finales son:

Punto a 1 2 3 Ea

d 5.59 5.59 5.59

48.19º 61.78º 40.31º

E (lux) 1.19 1.17 0.48 Ea = 2.84

Punto b 1 2 3 Eb

d 10 11.18 5

63.43º 74.98º 68.20º

E (lux) 0.36 0.19 0.64 Eb = 1.19

3. Para el tramo de calle de la figura, calcular la il uminancia en los puntos a, b, c, d, e y f. La farola mide 8 m de altura y la lámp ara tiene un flujo de 15000 lm. Asimismo, se suministran los diagramas polares de l as luminarias referenciadas a 1000 lm.

Page 64: Física de la visión (Teoría y Prácticas)

10

Diagramas polares disponibles:

Ver resultados

Punto a b c d e f

E(lux) 21.09 19.06 15.08 15.72 6.15 11.17

Solución

En este caso la intensidad no es uniforme ni constante en cualquier dirección y por ello tenemos que trabajar con gráficos. Esto no supone ninguna complicación adicional respecto a lo visto anteriormente y la mecánica y las fórmulas empleadas siguen siendo las mismas. La única diferencia estriba en que los valores de la intensidad, que ahora depende de los ángulos alfa y C, los tomaremos de un gráfico polar.

Los pasos a seguir son:

• Calcular

• Leer I( ) relativo del gráfico según el valor de C (si no disponemos del gráfico hay que interpolar) y calcular I real

Page 65: Física de la visión (Teoría y Prácticas)

11

• Calcular la iluminancia

Ver más

Iluminancia en a:

Iluminancia en b:

Iluminancia en f:

A este punto le correspondería una curva de C = 135º, pero como no disponemos de esta hemos de interpolar la intensidad luminosa a partir de los valores de las curvas de C = 90º y C = 180º para un valor de alfa de 51.3º.

Page 66: Física de la visión (Teoría y Prácticas)

12

Como se puede ver, la mecánica de cálculo es siempre la misma y los resultados finales son:

Datos: h = 8 m; = 15000 lm

Punto d (m) tan C Ir (cd/1000 lm) I (lm) E (lx)

a 0 0 0º 0º 90 1350 21.09

b 8 1 45º 90º 230 3450 19.06

c 4 0.5 26.6º 270º 90 1350 15.08

d 5 0.625 32º 180º 110 1650 15.72

e 14 1.75 60.3º 0º 210 3150 6.15

f 10 1.25 51.3º 45º 195 2925 11.17

4. Para el tramo de calle de la figura calcular las il uminancias de los puntos a, b, c y d a partir de la matriz de intensidades lumino sas de la luminaria.

Otros datos:

h = 10 m= 20000 lm

90º 120º 150º 180º 210º 240º 270º

0º 140 140 140 140 140 140 140

10º 120 130 130 135 160 200 230

20º 110 120 120 125 210 290 310

30º 100 110 115 160 300 320 330

40º 90 100 110 180 400 330 260

50º 70 80 100 200 450 190 110

60º 60 70 120 280 470 90 60

70º 30 20 60 230 300 60 20

80º 5 8 10 15 35 40 15

90º 0 0 0 0 0 0 0

cd / 1000 lm

Ver resultados

Punto a b c d

E(lux) 28 13.44 13 4.78

Page 67: Física de la visión (Teoría y Prácticas)

13

Solución

El problema es idéntico al anterior con la salvedad de que ahora nos dan una tabla en lugar de un gráfico.

Iluminancia en a:

Iluminancia en b:

Como no disponemos de valores de gamma para 45º tendremos que interpolar a partir de los valores de gamma de 40º y 50º para C = 180º (como la luminaria es simétrica los valores para C =180º y 0º son iguales).

Iluminancia en c:

Page 68: Física de la visión (Teoría y Prácticas)

14

Iluminancia en d:

Como no disponemos de valores de C para 135º tendremos que interpolar a partir de los valores de C igual a 120º y 150º para un valor de gamma de 50º.

Page 69: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

1

1

OPTICA GEOMÉTRICA SUPERFICIES REFLECTORAS :ESPEJOS

1. ESPEJOS ESFERICOS Y PLANOS

Un espejo esférico es un sistema óptico constituido por una porción de superficie esférica

recubierta por un material reflectante; el espejo puede ser cóncavo o convexo dependiendo de

cual sea la superficie que refleja la luz.

C V

a)

Vriθθ

C

b)

V

r

iθθ

Figura 1 . a) Espejo esférico cóncavo. b) Espejo esférico convexo.

Naturalmente los espejos esféricos forman imágenes, por reflexión, de fuentes luminosas; estas

imágenes pueden determinarse teniendo en cuenta que cada rayo que incide sobre el espejo se

refleja de acuerdo con la ley ordinaria de la reflexión, es decir de manera que los ángulos de

incidencia y de reflexión sean iguales; sin embargo los espejos esféricos tienen algunas

propiedades que nos permiten localizar las imágenes a través de una simple relación matemática

que obtendremos a través de algunas hipótesis y aproximaciones.

Page 70: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

2

2

Definamos eje óptico del espejo a la recta que pasa por el centro de curvatura de la superficie

esférica a la cual pertenece el espejo y por el centro geométrico o vértice del casquete esférico

que conforma el espejo.

2. Propiedades focales.

Si consideramos un conjunto de rayos incidentes paralelos al eje óptico del espejo,

experimentalmente puede observarse que esos rayos cuando se reflejan se cruzan todos,

aproximadamente, en un punto( 1 ) llamado foco del espejo.

La aproximación es bastante buena si consideramos rayos incidentes paraxiales o sea rayos

divergentes de la fuente luminosa contenidos en un cono de pequeña abertura angular alrededor

del eje óptico o rayos paralelos cercanos al eje óptico del espejo. Puede demostrarse fácilmente

(Figura 2) que el foco está aproximadamente situado en el punto medio entre el centro de

curvatura y el vértice del espejo.

P

C VF

T

r

i

θθ

Figura 2. Con la aproximación de rayos paraxiales la distancia focal

f FV= es igual a la mitad del radio de curvatura R CV= .

( 1 ) Esta observación sería estrictamente cierta para un espejo parabólico debido a las

propiedades geométricas de la parábola; para un espejo esférico los rayos se cruzan en una zona pequeña llamada cáustica que se vuelve con buena aproximación puntual para rayos paraxiales.

Page 71: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

3

3

Con relación a la Figura 2 es fácil ver que TPC PCF$ $= porque son ángulos alternos internos

para las paralelas TP y CV , por otro lado TPC CPF$ $= por ley de reflexión, lo cual implica

que el triángulo CPF$ es isósceles porque FCP CPF$ $= , por lo tanto CF FP= .

Para rayos paraxiales FP FV≅ y entonces CF FV R≅ = 2 ; por consiguiente la distancia

focal FV f R= = 2 .

Para los espejos convexos los rayos que inciden paralelos al eje óptico son divergentes una vez

hayan sido reflejados por el espejo, pero sus prolongaciones también se cruzan aproximadamente

en un punto focal; en este caso se dice que el foco es virtual dado que en ese punto localizado

detrás del espejo no hay una efectiva concentración de energía( 1 ) , sino que los rayos reflejados

por el espejo son percibidos como divergentes del punto focal. (Figura 3).

C F V

a)

CFV

b)

Nota Las líneas naranja son las prolongaciones de los rayos Figura 3. a) Foco real de un espejo esférico cóncavo. b) Foco virtual de un espejo esférico convexo.

( 1 ) El foco de un espejo cóncavo es real en el sentido que en ese punto hay una efectiva

concentración de la energía luminosa.

Page 72: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

4

4

Cuando los rayos luminosos inciden paralelos entre sí mas no paralelos al eje óptico, también se

cruzan en un punto una vez reflejados por un espejo cóncavo o también aparecen divergentes

desde un punto cuando son reflejados por un espejo convexo; esos puntos están situados sobre un

plano perpendicular al eje óptico que pasa por el foco real o virtual del espejo.

Ese plano que es el conjunto de todos los puntos en los cuales convergen los rayos reflejados

generados por rayos incidentes paralelos entre sí (espejo cóncavo) o desde los cuales

aparentemente divergen los rayos reflejados generados por rayos incidentes paralelos entre sí

(espejo convexo) se llama plano focal y es real para espejos cóncavos y virtual para espejos

convexos (Figura 4).

CCF

FV

b)A)

V

Nota Las líneas naranja son las prolongaciones de los rayos Figura 4. a) Plano focal real para un espejo cóncavo. b) Plano focal virtual para una espejo convexo.

3 Fórmula de Gauss.

Veamos ahora como podemos determinar la posición de la imagen formada por un espejo

(cóncavo o convexo) cuando se conozca la posición del objeto fuente y las características del

espejo, es decir su radio de curvatura.

Page 73: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

5

5

Con el fin de que la relación analítica que encontremos sea útil, es necesario que pueda aplicarse

cualesquiera que sean las características del espejo e indiferentemente si la imagen es real o

virtual; para garantizar lo anterior deben establecerse unas convenciones de signo que resumimos

así:

• La luz viaja de izquierda a derecha.

• Son positivas las distancias que se miden de izquierda a derecha.

• Son negativas las distancias que se miden de derecha a izquierda. • La distancia p del objeto al espejo se mide desde el objeto hacia el vértice.

• La distancia q de la imagen al espejo se mide desde la imagen hacia el vértice del

espejo; lo que implica que q es positiva para imágenes reales y negativa para imágenes

virtuales.

• El radio de curvatura R se mide desde el centro de curvatura hacia el vértice del espejo,

de manera que es positivo o negativo según el espejo sea cóncavo o convexo. • La distancia focal f se mide desde el foco hacia el vértice del espejo, lo que implica

que f es positiva o negativa según el foco sea real o virtual.

Tracemos entonces la trayectoria de un haz de luz que incide sobre un espejo.

R

O CI F V

p

q

f

γβα

θθ

Figura 5. Imagen de una fuente puntual producida por un espejo esférico cóncavo

Con relación a la Figura 5 podemos observar que, en el triángulo OPI , el segmento CP es bisector del ángulo CPI$ lo que implica de acuerdo con el teorema de la bisectríz (geometría

euclidiana):

Page 74: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

6

6

OP IP OC CI: := (1)

En la aproximación de rayos paraxiales podemos aceptar que OP OV p≅ = , IP IV q= = ;

por otra parte es obvio que OC OV CV p R= − = − y, CI CV IV R q= − = − , así que de

la (1) obtenemos:

p q p R R q: := − −

de donde:

pR pq pq qR− = − .

Reorganizando y dividiendo por p q R. . se llega a:

1 1 2 1p q R f

+ = = (2)

Esta ecuación llamada fórmula de Gauss es aplicable a cualquier espejo esférico siempre que se

tengan en cuenta las convenciones de signo; incluso la fórmula puede aplicarse a los espejos

planos que, como se sabe, producen imágenes virtuales a la misma distancia detrás del espejo a

la cual está situada la fuente delante del espejo.

Para los espejos planos que pueden considerarse como espejos esféricos de radio R infinito se

obtiene, a partir de la (2):

1 1 2

0p q R

+ = =

de donde q p= −

que coincide con el resultado esperado.

Page 75: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

7

7

4 Construcción gráfica de imágenes.

Sin recurrir a la fórmula de Gauss, es posible determinar con bastante precisión la posición de la

imagen producida por un espejo utilizando construcciones gráficas de acuerdo con las siguientes

reglas:

- Todo rayo que incide paralelamente al eje óptico se refleja de manera que pase por el foco

real o que su prolongación pase por el foco virtual.

- Todo rayo incidente que pasa por el centro de curvatura C se refleja sobre si mismo.

- Todo rayo incidente que pase por el foco real o cuya prolongación se dirija hacia el foco

virtual se refleja paralelamente al eje óptico (consecuencia del principio de reversibilidad).

Las figuras siguientes presentan algunos casos de importancia obtenidos mediante el uso de las

anteriores reglas.

FC

O V

I

a)

CF

OV

I

b)

Page 76: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

8

8

CFOV

I

c)

Nota: Las líneas rojas son las prolongaciones de los rayos Figura 6 . a) Imagen real formada por un espejo cóncavo.

b) Caso único ( )p f< de imagen virtual formada por un espejo cóncavo.

c) Un espejo convexo siempre forma una imagen virtual.

Como puede deducirse de la Figura 3.13 un espejo cóncavo forma generalmente (excepto para p f< ) imagen real e invertida; el único caso en el cual el espejo cóncavo forma una imagen

virtual y derecha ocurre cuando p f< , mientras un espejo convexo siempre produce una

imagen virtual y derecha.

4 Aumento.

La anterior figura también nos muestra como el tamaño de la imagen es variable de acuerdo con

la posición del objeto fuente; se define entonces como aumento del espejo a la relación A I= − 0 ( 1 ) entre los tamaños de la imagen y del objeto.

Con relación a la Figura 7 hay varios pares de triángulos semejantes, por ejemplo:

1) Triángulo ABC y triángulo CNM para los cuales:

AI R q

p R= − = −

−−0

(3)

2) Triángulo lim22 θθ > y triángulo NVM para los cuales: ( 1 ) El signo negativo tiene en cuenta que cuando p q, son positivas (es decir para imágenes

reales), la imagen resulta invertida con respecto al objeto, mientras cuando p es positiva y q es negativa (es decir para imágenes virtuales) la imagen resulta derecha.

Page 77: Física de la visión (Teoría y Prácticas)

FÍSICA INTERACTIVA PARA INGENIEROS DEPARTAMENTO DE FÍSICA DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN

9

9

AI p

q= − = −

0 (4)

CO

B

A

P

V

Q

FN

M

I

Figura 7. Imagen real e invertida producida por un espejo cóncavo.

Page 78: Física de la visión (Teoría y Prácticas)

1. Delante de un espejo cóncavo de 50 cm de focal y a 25 cm de su vértice se

encuentra un objeto cuya altura, perpendicular al eje, es de 1 cm. Calcular la posición y

el tamaño de la imagen suponiendo que los rayos incidentes corresponden a la zona

paraxial. Repetir el problema considerando que el espejo es convexo.

La solución gráfica para el primer caso cuando se tiene una lente delgada y

convergente es la siguiente:

La solución analítica para el primer caso cuando se tiene una lente delgada y

convergente es la siguiente:

y

y

s

s

fsscmf

cmy

cms

'''

'

11

'

1

50

1

25

=−=

=+⇒

===

β

Despejando términos se obtiene el siguiente resultado:

cmyy

y

y

s

s

cmsssss

21·25

50'

1

'

25

50''

5025

250.1'

250.1

25

'

1

250.1

5025

'

1

25

1

50

1

'

1

50

1

25

1

'

1

==⇒=−−⇒=−

−=−=⇒−=⇒−=⇒−=⇒=+

Por tanto, para un espejo cóncavo cuya distancia focal es de 50 cm y a 25 m del

vértice se sitúa un objeto cuya altura, perpendicular al eje, es de 1 cm la posición y el

tamaño de la imagen imaginaria en la aproximación paraxial es de 50 cm (al lado

opuesto de donde está el objeto) y de 2 cm (imagen derecha), respectivamente.

F

C

'ss

'yy

Page 79: Física de la visión (Teoría y Prácticas)
Page 80: Física de la visión (Teoría y Prácticas)

Delante de una lente delgada convergente situada en aire cuya distancia focal

imagen es de 20 cm y a 5 m de la lente se sitúa un objeto cuya altura, perpendicular al

eje, es de 2 cm. Determinar la posición y el tamaño de la imagen en la aproximación

paraxial. Repetir el problema suponiendo que la lente es divergente y que f’ es de -20

cm.

La solución gráfica para el primer caso cuando se tiene una lente delgada y

convergente es la siguiente:

La solución analítica para el primer caso cuando se tiene una lente delgada y

convergente es la siguiente:

y

y

s

s

fsscmf

cmy

cmms

'''

'

11

'

1

20'

2

5005

==

=+−⇒

==

==

β

Despejando términos se obtiene el siguiente resultado:

cmyy

y

y

s

s

cmsssss

083'012

12·

500

6

125

'2

'

500

6

125

''

83'206

125'

000.10

480

'

1

000.10

50020

'

1

20

1

500

1

'

1

20

1

500

1

'

1

−≈−=−

=⇒=−

⇒=

−≈−=⇒−=⇒−=⇒−=⇒=+−

Por tanto, para una lente convergente cuya distancia focal imagen es de 20 cm y

a 5 m de la lente se sitúa un objeto cuya altura, perpendicular al eje, es de 2 cm la

posición y el tamaño de la imagen real en la aproximación paraxial es de 20’83 cm (al

lado opuesto de donde está el objeto) y de 0’083 cm (imagen invertida),

respectivamente.

Page 81: Física de la visión (Teoría y Prácticas)

La solución gráfica para el segundo caso cuando se tiene una lente delgada y

divergente es la siguiente:

La solución analítica para el primer caso cuando se tiene una lente delgada y

convergente es la siguiente:

y

y

s

s

fsscmf

cmy

cmms

'''

'

11

'

1

20'

2

5005

==

=+−⇒

−==

==

β

Despejando términos se obtiene el siguiente resultado:

cmyy

y

y

s

s

cmsssss

077'013

12·

500

13

250

'2

'

500

13

250

''

23'1913

250'

000.10

520

'

1

000.10

50020

'

1

20

1

500

1

'

1

20

1

500

1

'

1

≈==⇒=⇒=

≈=⇒=⇒+=⇒+=⇒−=+−

Por tanto, para una lente divergente cuya distancia focal imagen es de - 20 cm y

a 5 m de la lente se sitúa un objeto cuya altura, perpendicular al eje, es de 2 cm la

posición y el tamaño de la imagen virtual (se creo con las prolongaciones de los rayos)

en la aproximación paraxial es de 19’23 cm (al mismo lado donde está el objeto) y de

0’077 cm (imagen derecha), respectivamente.

Page 82: Física de la visión (Teoría y Prácticas)

Plano focal

Línea auxiliar

Page 83: Física de la visión (Teoría y Prácticas)

1

Ejercicio 8.

Tenemos dos lentes delgadas convergentes de la misma focal cmff 20'

2

'

1 == .

Las lentes distan 50 cm entre sí. Un punto luminoso está a la izquierda de la primera

lente a 30 cm.

a) Determinar la posición de la imagen.

b) Acercamos el objeto a 10 cm a la lente. Determinar la nueva posición.

c) Calcula las matrices de transferencia en ambos casos.

a) Determinar la posición de la imagen. (Figura 1)

Cálculos y análisis del caso de la primera imagen formada:

Para el caso de una lente ya sea convergente o divergente emplearemos las

ecuaciones correspondientes tales como:

y

y

s

s

fss

''

'

1

'

11 ===+− β

donde s hace referencia a la distancia que existe entre el objeto y la lente (que en

nuestro caso es de s = – 30 cm puesto que se encuentra a una distancia de 30 cm de la

primera lente y está en su izquierda). La distancia focal de dicha lente es de + 20 cm (el

valor positivo lo añadimos ya que se trata de una lente convergente). Por último, la

altura la supondremos positiva ya que el enunciado no nos dice a que altura está.

Sustituyendo estos datos en las ecuaciones antes mostradas, obtenemos los siguientes

resultados:

( ) ( )

11

1

1

1

1

1

11

1

11

111

11

11

1111111

2''

30

60''

602030

20·30'

'

'·'

'

'

11

'

1

'

1

'

1

'

11

yyy

y

cm

cm

y

y

s

s

cmsfs

fss

fs

fs

ssfsfss

−=⇒=−+

⇒==

+=+−

−=⇒+

=⇒+=⇒+=⇒=+−

β

Cálculos y análisis del caso de la segunda imagen formada:

Hemos obtenido que la imagen de dicho punto luminoso está situada a 60 cm a

la derecha de la primera lente (a la derecha de la lente puesto que el signo positivo nos

lo indica) y con una altura el doble de mayor que la inicial pero invertida. Observando

la figura podremos observar que si sale a 60 cm a la derecha de la lente, su localización

respecto a la segunda lente es a 10 cm a la derecha de ésta última. Por tanto, si

repetimos de nuevo el mismo proceso tenemos que: cmfyyy 20';2' 2112 +=−==

;105060'12 cmcmcmdss +=−+=−= Sustituyendo estos datos en las ecuaciones antes

mostradas, obtenemos los siguientes resultados:

Page 84: Física de la visión (Teoría y Prácticas)

2

( ) ( )

cmycmyyy

y

cm

cm

y

y

s

s

cmsfs

fss

fs

fs

ssfsfss

112

1

2

2

2

2

21

2

22

222

22

22

2222222

3

4

3

2·2'

2

'

10

3

20

''

3

20

2010

20·10'

'

'·'

'

'

11

'

1

'

1

'

1

'

11

−=−=⇒−

=+

+⇒==

+=++

+=⇒+

=⇒+=⇒+=⇒=+−

β

En definitiva tenemos una imagen invertida creada cuya altura es de 1.33 veces

la del objeto y cuya posición es de:

- 86.667 cm a la derecha del objeto.

- 56.667 cm a la derecha de la primera lente.

- 6.667 cm a la derecha de la segunda lente.

Figuras

Page 85: Física de la visión (Teoría y Prácticas)

3

Acercamos el objeto a 10 cm a la lente. Determinar la nueva posición. (Figura 2)

Para el caso de una lente ya sea convergente o divergente emplearemos las

ecuaciones correspondientes tales como:

y

y

s

s

fss

''

'

1

'

11 ===+− β

donde s hace referencia a la distancia que existe entre el objeto y la lente (que en

nuestro caso es de s = – 20 cm puesto que se encuentra a una distancia de 20 cm de la

primera lente y está en su izquierda). La distancia focal de dicha lente es de + 20 cm (el

valor positivo lo añadimos ya que se trata de una lente convergente). Por último, la

altura la supondremos positiva ya que el enunciado no nos dice a que altura está.

Sustituyendo estos datos en las ecuaciones antes mostradas, obtenemos los

siguientes resultados:

( ) ( )

11

1

1

1

1

1

1

1

1

11

111

11

11

1111111

·''

20

''

2020

20·20'

'

'·'

'

'

11

'

1

'

1

'

1

'

11

yyy

y

cm

cm

y

y

s

s

cmsfs

fss

fs

fs

ssfsfss

−∞=⇒=−

∞+⇒==

+∞=+−

−=⇒+

=⇒+

=⇒+=⇒=+−

β

Cálculos y análisis del caso de la segunda imagen formada:

Hemos obtenido que la imagen de dicho punto luminoso está situada a mucha

distancia a la derecha de la primera lente (a la derecha de la lente puesto que el signo

positivo nos lo indica) y con una altura mucho mayor que la inicial pero invertida.

Observando la figura podremos observar que si sale a ∞+ cm a la derecha de la lente, su

localización respecto a la segunda lente es a ∞+ cm a la derecha de ésta última. Por

tanto, si repetimos de nuevo el mismo proceso tenemos que:

cmfcmyyycmcmcmdss 20';·';50' 211212 +=−∞==+∞=−+∞=−=

Sustituyendo estos datos en las ecuaciones antes mostradas, obtenemos los

siguientes resultados:

cmyycmy

y

cmcmy

y

cm

cm

y

y

s

s

cmsfsfsfsfsfss

lims

12

1

2

1

2

2

2

2

21

2

22222222222

'1

·

'20''

20''

1

'

1

'

11

'

11

'

1

'

1

'

1

'

11

2

−=⇒∞−

=∞+

⇒∞−

=∞+

+⇒==

+=⇒=⇒=

+⇒+=⇒=+−

+∞→

β

En definitiva tenemos una imagen invertida creada cuya altura es de 20 cm

independientemente de la del objeto y cuya posición es de:

- 100 cm a la derecha del objeto.

- 50 cm a la derecha de la primera lente.

- 20 cm a la derecha de la segunda lente.

Page 86: Física de la visión (Teoría y Prácticas)

4

b) Calcula las matrices de transferencia en ambos casos.

;10

'1;

10

1

;

120

1

01;

10

501;

120

1

01

'

321

−=

−=

=

−=

=

sM

sM

MMM

ss

De clase de teoría nosotros conocemos que:

( )[ ]

=

=

ααh

MMMMMh

MMMM

SS

T

·····'

'

··

123'

123

Tenemos que la matriz de transferencia es la siguiente:

;

2

3

40

1

502

3

120

1

01·

2

3

20

1

501

120

1

01·

10

501·

120

1

01·· 123

−−

−−=

−=

=

== MMMM T

La matriz solución del sistema es:

;

2

3

4040

1

'2

350·

40

'

2

3

40

'

2

3

10

2

3

40

1

'2

350

40

'

2

3

10

2

3

40

1

502

3

·10

'1··'

−−

+−

−+−=

=

−−

+−+−=

−−

−−

−==

s

ssss

sss

ssMMMM sTsSOL

Caso cuando s = 30 cm:

;

4

3

40

1

'4

35

40

'

2

3

2

3

4040

1

'2

350·

40

'

2

3

40

'

2

3

−−

+−+−=

−−

+−

−+−=

ss

s

ssss

M SOL

Page 87: Física de la visión (Teoría y Prácticas)

5

Como ha de verificarse que para cualquier ángulo debe cumplirse la igualdad

matricial:

cmsshs

shhh

3

20'0'

4

35·

4

3

40

1

'4

35

40

'

2

3

'

'

'+=⇒=+−⇒

−−

+−+−=

⇒∀

=

ααα

αα

hhhhs

h3

40

3

20

2

3'·

40

'

2

3' −=

+−=⇒

+−=

Caso cuando s = 20 cm:

;

140

1

'2040

'

2

3

2

3

4040

1

'2

350·

40

'

2

3

40

'

2

3

−−

+−+−=

−−

+−

−+−=

ss

s

ssss

M SOL

Como ha de verificarse que para cualquier ángulo debe cumplirse la igualdad

matricial:

cmsshs

shhh

20'0'20·

140

1

'2040

'

2

3

'

'

'+=⇒=+−⇒

−−

+−+−=

⇒∀

=

ααα

αα

hhhhs

h −=

+−=⇒

+−= ·40

20

2

3'·

40

'

2

3'

Page 88: Física de la visión (Teoría y Prácticas)

BLOQUE I: INTRODUCCIÓN A LA ÓPTICA.

TEMA II: Sistema de visión humano.

2.1. Anatomía del ojo humano 1

2.1.1. Introducción 1

2.1.2. El ojo humano 1

2.1.3. El ojo como instrumento óptico 2

2.1.4. Anatomía de la retina: Conos y Bastones 3

2.1.5. Experimento: Sensibilidad espectral del ojo 4

2.1.6. Agudeza visual 5

2.1.7. La adaptación 7

2.2. Acomodación 8

2.3. Ametropías 9

2.4. Aberraciones en el ojo 10

2.5. Visión binocular 11

2.6. Visión de objetos en movimiento 13

2.7. Ilusiones ópticas 14

2.8. Bibliografía 17

Page 89: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

1

2.1. Anatomía del ojo humano.

2.1.1. Introducción.

El conocimiento funcional del ojo es indispensable a un físico si se tiene en

cuenta que más del 80 % de la información, que el hombre recibe del mundo exterior a través de los sentidos, la obtiene a través del sentido de la vista. Además, son nociones necesarias para un ingeniero, y esta lección tiene como fin adentrarnos en el conocimiento de la anatomía del ojo pues las instalaciones que diseñemos deben estar correctamente iluminadas para facilitar al ojo a cumplir su misión.

Las cámaras fotográficas se diseñan con la intención de lograr imágenes de la mejor calidad, pero la calidad viene dada por la apreciación directa del ojo, por lo que no se han encontrado todavía características objetivas que por sí definan la mejor imagen. El conocimiento de las problemática del ojo y la visión es básico para el desarrollo de importantes ingenierías como son la ingeniería de la iluminación, la del color, la del diseño de instrumentos y cálculo de sistemas, la de visión artificial y la de robótica entre otras. 2.1.2. El ojo humano.

El globo ocular está alojado dentro de la órbita ciliar en la cara y sujeto por seis

músculos externos, que le proporcionan la movilidad de que dispone en su órbita. A su vez, el globo ocular está encerrado en una membrana dura y resistente denominada esclerótica (e) que le sirve de protección, y en su parte anterior existe una prominencia transparente denominada córnea (c).

Dentro de ella está otra membrana, la coroides (co) fuertemente vascularizada.

Su gran irrigación sanguínea proporciona alimento y calor a las demás partes del ojo. Esta membrana no está completamente cerrada y en su parte anterior tiene una expansión muscular, denominada músculo ciliar (m), con un orificio, el iris (i), que actúa como diafragma para la luz. El diámetro del iris es variable y su variación se produce por un acto involuntario que depende del flujo luminoso que penetra en el ojo. En altas luminosidades se cierra hasta un diámetro de 2 mm mientras que en visión nocturna se abre hasta 8 mm.

Dentro de la coroides y adosada a esta sin soldaduras, existe otra membrana

denominada retina (r), que se trata de un entramado nervioso formado por las células terminales de las fibras del nervio óptico, y que tiene en su parte posterior una pequeña depresión denominada fóvea (f) aproximadamente de 1.5 mm de diámetro. La cavidad interior del ojo está dividida en dos partes por un tabique muy tenue, hialoide (h). La cámara anterior está llena de un líquido transparente, el humor acuoso (ha), que es una dispersión de albúmina en agua salada caracterizada por ser fácilmente regenerable. En esta cámara, detrás del iris, está alojado el cristalino (cr) que se trata de una lente biconvexa, sujeta al músculo ciliar por un haz de fibras que lo envuelve a modo de saco y que se denomina zónula (z). La cámara posterior está ocupada por el humor vítreo (hv), que es un gel proteínico muy frágil. La presión interior del ojo mantiene tenso el globo ocular y la retina adosada a la coroides. La pérdida de esta presión por rotura de las cámaras, puede conducir al desprendimiento de la retina con graves consecuencias.

Page 90: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

2

Figura 2.1. Anatomía del ojo humano.

Cuando se trata de ver con nitidez algún particular detalle de un objeto, el eje se

orienta por medio de los músculos externos de modo que la imagen del detalle a observar se sitúe sobre la fóvea. La línea que determina el centro de la fóvea y el punto nodal imagen es el eje visual, que forma con el eje óptico un ángulo de unos 5º.

2.1.3. El ojo como instrumento óptico.

El ojo se comporta de modo semejante a una cámara fotográfica cuyo objetivo

está constituido por la córnea y el cristalino, separados por el humor acuoso, siendo la retina la placa donde se forma la imagen y el iris es su diafragma de abertura. Pero la analogía no acaba aquí, pues al igual que en la cámara de fotos la imagen que se forma sobre la retina está invertida. Con todo, esto no supone ningún problema ya que el cerebro se encarga de darle la vuelta para que la veamos correctamente. Los datos medios estadísticos del ojo son los siguientes:

Córnea.- Cristalino.- nD = 1.376. nD, variable: 1.41 (núcleo), 1.37 (periferia). d = 0.5 mm. d = 3.1 mm. r1 = 7.7 mm y r2 = 6.8 mm. r1 = 10 mm y r2 = -6 mm, (en reposo). Poder refractor, 45 dioptrías. Potencia en aire, 18 dioptrías.

Humor Acuoso.- Humor Vítreo.- nD = 1.336. nD = 1.337. d = 3.1 mm.

Figura 2.2. Formación de la imagen en el ojo.

Page 91: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

3

2.1.4. Anatomía de la retina: Conos y Bastones.

Dichos fotorreceptores se encuentran en la primera capa de neuronas de la retina

y se caracterizan por ser susceptibles a la luz (se componen de sustancias foto sensibles sobre las cuales actúa la luz como estímulo, provocando reacciones fotoquímicas que se traducen en estímulos eléctricos dirigidos al cerebro). Ésta células son de dos tipos: conos y bastones. Los conos, con la forma que indica su propio nombre son cortos y gruesos; los bastones, más largos y cilíndricos.

Figura 2.3. Concentraciones de fotorreceptores frente a la variación del ángulo.

Los conos y bastones se distribuyen por toda la retina, pero no con igual

densidad. En la zona central de la fóvea solamente hay conos y su densidad disminuye hacia el borde de la retina (en el centro hay un máximo de 150.000 unidades por mm2). La densidad de bastones crece a partir de la fóvea pasando por un máximo de 160.000 unidades por mm2 a unos 6 mm del centro.

Figura 2.4. Diagrama simple de la organización de la retina.

En general, se observa que los bastones se agrupan en baterías sobre una misma bipolar, mientras que los conos van a una sola bipolar o uno mismo a varias. Particularmente, en el centro de la fóvea cada cono conecta con una célula bipolar y una ganglionar.

Pigmento

epiteliano

Conos

Bastones

Membrana

delimitadora externa

Células Müller

Células

horizontales

Células

bipolares

Células

anacrinas

Células

ganglionares

Fibra de

nervio óptico

Membrana

delimitadora interna

Page 92: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

4

2.1.5. Experimento: Sensibilidad espectral del ojo.

En un diedro pintado de blanco difusor D, se envía sobre una cara luz

monocromática de longitud de onda λ0 y, sobre la cara restante, luz de longitud de onda λ variable. El orificio de la pantalla P, permite al observador ver un campo circular dividido en dos regiones cada una de las cuales está iluminada por una sola de las luces.

Supongamos que de la luz λ0 mandamos

W0 W/m2 sobre la correspondiente cara del diedro y de la luz λ mandamos Wλ W/m2 sobre la cara restante. Dependiendo de estas irradiancias, el observador verá ambas regiones de diferente color y, además, las verá con distinta claridad (la claridad es la impresión subjetiva del nivel de luz y ésta se puede alcanzar independientemente del color, es decir, al iluminar una habitación con luz amarilla, esta misma claridad se puede obtener

empleando una luz roja, lo único que sucederá es que de ésta última tenemos que emplear mayor cantidad de energía).

Por tanto, si enviamos 100 W/m2 de λ0 = 530 nm y λ = 480 nm (Figura 2.5 a)

veremos la zona izquierda verde y la derecha azul (ésta última más oscura). Pero si enviamos 100 W/m2 de λ530 y 620 W/m2 λ480 (Figura 2.5 b), seguiremos viendo una verde y la otra azul pero igualmente claras. A la vista del experimento, podemos afirmar que la luz azul es menos eficiente que la verde y definiremos la eficiencia luminosa

relativa o factor de visibilidad, Vλ, de λ respecto λ0 por la expresión siguiente:

161,00 ==λ

λW

WV (1)

Fijando nuevos valores y repitiendo estas medidas más veces en todo el espectro

visible se obtiene una curva que se llama curva de sensibilidad espectral, donde se puede apreciar que en visión diurna el máximo ocurre a la longitud de onda λ = 555 nm.

A nivel industrial, este fenómeno nos revela que si una bombilla emite luz en la

zona en que el ojo es más sensible, requerirá menos energía y, por tanto, un bajo coste.

Figura 2.6. Curva de sensibilidad espectral

λ0 λ

λ0

λ

λ0

λ

Figura 2.5. Experimento.

(a) (b)

Page 93: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

5

λ Vλ λ Vλ λ Vλ λ Vλ 400 0,0004 500 0,3230 600 0,6310 700 0,0041 410 0,0012 510 0,5030 610 0,5030 710 0,0021 420 0,0040 520 0,7100 620 0,3810 720 0,0010 430 0,0116 530 0,8620 630 0,2650 730 0,0005 440 0,0230 540 0,9540 640 0,1750 740 0,0003 450 0,0380 550 0,9950 650 0,1070 750 0,0001 460 0,0600 560 0,9950 660 0,0610 470 0,0910 570 0,9520 670 0,0320 480 0,1390 580 0,8700 680 0,0170 490 0,2080 590 0,7570 690 0,0082

Tabla 2.1. Valores de la curva de sensibilidad espectral.

Efecto Purkinje:

Si el experimento se repite para bajas luminosidades en visión escotópica, se

encuentra una curva análoga, pero desplazada hacia las ondas cortas. En bajas luminosidades las ondas cortas son más eficientes que las largas (fenómeno conocido como efecto Purkinje).

Teoría de la duplicidad:

El estudio de estos fenómenos ha conducido a la conclusión de que la retina

funciona con dos modalidades: retina diurna y retina nocturna.

• Retina diurna (visión fotópica): La función diurna se asigna a los conos como se desprende de que la visión diurna de detalles sea foveal. En la visión fotópica foveal, como cada cono se conecta a una fibra nerviosa (o incluso a más de una), dos señales que caigan sobre dos conos distintos, podemos pensar que se perciben separadas. Como consecuencia, hay que asignar a los conos la visión del color.

• Retina nocturna (visión escotópica): La función nocturna se asigna a los bastones como se desprende de que esta visión sea extrafoveal. En la visión escotópica, se ve borroso sin que se puedan apreciar detalles, lo cual tiene su explicación en que como los bastones se asocian a grandes grupos sobre una fibra nerviosa, toda la información recibida por una de estas colonias de bastones llega al cerebro como una única señal sin posibilidad de discriminación. Como consecuencia, hay que intuir que los bastones no perciben colores: «Por la noche, todos los gatos son pardos». 2.1.6. Agudeza visual.

Cuando el ojo trata de percibir detalles tiene sus limitaciones debido a dos

causas fundamentales, una de tipo físico por efecto de la difracción de la pupila y por las aberraciones, y otra de tipo fisiológico originada por la estructura discontinua de la retina.

Entre las tareas citadas, cabe señalar tres fundamentales: percepción de objetos de tamaño mínimo, habilidad para ver separados dos objetos muy próximos y el reconocimiento de formas.

Page 94: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

6

Mínimo visible:

Podemos enfocar esta cuestión ciñéndonos a objetos tales como discos

circulares. Podemos diferenciar dos casos posibles:

Figura 2.7. Discos blancos / negros sobre fondos negros / blancos.

• Si se trata de determinar cuál es el diámetro mínimo que puede tener un disco

blanco sobre fondo negro para que sea percibida su existencia, encontramos que no hay límite. Aunque el disco sea lo más próximo a un punto teórico, a causa de la difracción tendríamos en la retina una mancha luminosa y, por muy pequeños que sean los objetos, siempre se percibirían con un tamaño mínimo que será aquel que correspondiese a un objeto cuya imagen geométrica en la retina fuera igual a la mancha de difracción de un punto luminoso teórico.

• Si se trata de detectar la existencia de un disco negro sobre un fondo claro, ya no

sucede igual puesto que por efecto de difracción en la pupila, aparece luz en el interior de su imagen geométrica. Dicha luz crece en su centro a medida que disminuye su diámetro y llega un momento en que por falta de contraste deja de percibirse la existencia del disco (el límite está en que el diámetro se vea bajo un ángulo de 25'').

A veces el ojo presenta una habilidad excepcional que le permite divisar los tendidos eléctricos sobre el cielo azul-claro a una distancia muy grande.

Mínimo separable:

Si presentamos al ojo dos puntos luminosos ampliamente separados y los vamos

acercando entre sí, llega un momento en que no se puede discernir si se trata de dos puntos o de uno sólo. Cuando la experiencia se lleva a cabo con barras de igual anchura alternativamente blancas y negras, en altas luminosidades y en las mejores condiciones se perciben separadas si su anchura subtiende como mínimo 38''.

Figura 2.8. (a) Miras de Foucault, (b) Problema de Nonius.

A veces, el ojo pone de manifiesto una habilidad excepcional ante algunos

problemas como al tratar de ver si dos trazos están alineados, pudiendo percibirse hasta una falta de alineación que se ve bajo un ángulo de 3''.

(a) (b)

Page 95: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

7

Mínimo cognoscible:

Modernas investigaciones ponen de manifiesto que en la agudeza visual interviene con gran influencia las micro-fluctuaciones de la acomodación. El cristalino, accionado por la zónula modifica su estructura y su forma, incluso perdiendo su simetría de revolución de modo que favorezca la fluctuación visual.

En la determinación del mínimo cognoscible se suelen emplear letras y números para que sean reconocidos a diferentes distancias o presentando a la misma distancia diferentes tamaños.

!!!!!!!!!!Faltan fotos del test de las letras y números!!!!!!!!!!

2.1.7. La adaptación.

La adaptación es la facultad del ojo para ajustarse automáticamente a cambios en los niveles de iluminación. Se debe a la capacidad del iris para regular la abertura de la pupila y a cambios fotoquímicos en la retina. Para pasar de ambientes oscuros a luminosos el proceso es muy rápido pero en caso contrario es mucho más lento. Al cabo de un minuto se tiene una adaptación aceptable. A medida que pasa el tiempo, vemos mejor en la oscuridad y a la media hora ya vemos bastante bien. La adaptación completa se produce pasada una hora.

Figura 2.9. Gráficas de adaptación del ojo a la luz.

De la oscuridad a la luz

De la luz a la oscuridad

Completa

Ninguna

Ada

ptac

ión

Tiempo (minutos)

15 30 45 60 75

Page 96: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

8

2.2. Acomodación.

El ojo humano es capaz de ver con nitidez a largas distancias (en reposo, la

imagen del plano del infinito se forma en la retina) y también objetos cercanos, lo que implica que no es un sistema rígido, sino que puede modificar su potencia de modo que objetos a diferentes distancias formen su imagen en la retina.

Este hecho se llama acomodación y su mecanismo consiste en la variación de la

convergencia del cristalino. Cuando se desea ver un objeto cercano, el músculo ciliar, a través de las fibras que lo unen al cristalino, actúa sobre éste abombándolo; cuando no actúa, su propia elasticidad lo devuelve al estado de reposo. La variación de la convergencia del cristalino se debe a los dos aspectos siguientes:

• Mecanismo geométrico: Variación de la curvatura del cristalino. • Mecanismo intercapsular: Variación del índice de refracción del cristalino.

El punto más cercano se denomina punto próximo y el más alejado punto

remoto. La siguiente expresión relaciona la amplitud de acomodación A con éstas distancias:

próximo punto del distanciaremoto punto deldistanciaA

11 −= (2)

Cuando las distancias se miden en metros, la amplitud de acomodación queda expresada en dioptrías.

Generalmente se considera que el punto remoto se encuentra en el infinito y que el punto próximo varía su posición con la edad. Un muchacho de 10 años tiene el punto próximo a – 0,07 m mientras que una persona durante la vejez puede ver con nitidez a – 250 mm.

dpAA 3.1407,0

11 =⇒−

−∞

= dpAA 425,0

11 =⇒−

−∞

=

Page 97: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

9

2.3. Ametropías.

El ojo de convergencia normal u ojo emétrope, forma sin esfuerzo de

acomodación, la imagen del plano del infinito sobre su retina. El ojo que no tiene una convergencia normal se denomina amétrope. Podemos diferenciar entre varios tipos de problemas en el ojo: miopía, hipermetropía, vista cansada y astigmatismo.

Miopía: Un ojo excesivamente convergente se dice que es miope y sus puntos remoto y

próximo están más cerca de lo normal. Su miopía pude corregirse anteponiéndole una lente divergente con la potencia adecuada para que el punto próximo salga a su sitio, con lo cual el remoto también irá al infinito.

Hipermetropía: Un ojo que tiene poca convergencia se dice que es hipermétrope y su punto

próximo está más alejado de lo normal. La imagen del infinito se forma detrás de la retina dando lugar a una imagen retiniana virtual. Su hipermetropía puede corregirse anteponiéndole una lente convergente con la potencia adecuada para que el punto próximo salga a su sitio.

Vista cansada (presbicia): Este efecto suele aparecer debido a que, con la edad, el cristalino pierde

elasticidad, y con la rigidez pierde amplitud de acomodación. Esto provoca un alejamiento del punto próximo a pesar de que el remoto se mantenga en el infinito, pudiéndose corregir con vidrios convergentes (gafas de lectura).

Si la miopía no es aguda, la presbicia puede llegar a compensar la posición del

punto próximo. Esta es la razón por la cual, con la edad, algunos miopes pueden prescindir de usar gafas de lectura, pero no de gafas para ver de lejos.

Astigmatismo: Esta complicación aparece debida a que la córnea y las superficies del

cristalino han dejado de poseer simetría de revolución. En consecuencia, existe en el ojo humano un plano que contiene al eje para el cual la convergencia es máxima y otro perpendicular para el cual es mínima, lo que origina una doble imagen astigmática.

(a) (b) (c)

Figura 2.10. Problemas: (a) Ojo miope, (b) Ojo hipermétrope, (c) Astigmatismo.

Page 98: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

10

2.4. Aberraciones en el ojo.

A pesar de que el ojo humano es un sistema óptico con fuertes aberraciones su

efecto no es excesivamente molesto. A continuación, analizaremos dos de las aberraciones más importantes: esférica y cromática. Aberración Esférica:

El ojo se comporta como un sistema subcorregido pues cuando la pupila está cerrada en altas luminosidades su efecto es relativamente despreciable. Cuando la pupila se abre hasta 5 mm la aberración esférica se hace mayor. Sin embargo, los rayos que penetran por el borde de la pupila tienen una eficiencia luminosa 5 veces menor que si entran por las proximidades del eje. En el peor de los casos, cuando la pupila está muy abierta, convierte al ojo en miope desplazando la imagen 0.25 dp. Aberración Cromática:

Debido a esta aberración los focos correspondientes a los colores violeta, amarillo y rojo se forman muy distanciados. A pesar de ello, esto tampoco se nota cuando se observa con luz blanca, pues el ojo enfoca sobre la imagen verde-amarilla para la cual tiene mayor sensibilidad.

Cuando más se recibe el efecto de la aberración cromática es al observar una tela de bandas y cuadros, unos rojos y otros azules. El ojo entra en rápidos movimientos de acomodación tratando de ver nítidas y simultáneamente las líneas de división por ambos lados, lo que es imposible y molesto.

(a) (b)

Figura 2.10. Aberraciones: (a) Aberración cromática; (b) Aberración esférica.

Foco de luz roja

Foco de luz azul

Luz blanca procedente

de un objeto lejano

Foco para un haz de rayos paraxial

Foco para un haz de rayos intermedio

Foco para un haz de rayos próximo al

borde

Luz blanca procedente de un objeto lejano

Page 99: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

11

2.5. Visión binocular.

Cuando un objeto se observa con los dos ojos, en cada ojo se produce una

imagen con diferente perspectiva. Parecería lógico que se vieran dos imágenes. Sin embargo, no se ven dos imágenes sino que se ve una y con ello se tiene la sensación de

profundidad o vista 3-D.

La sensación de profundidad (capacidad de apreciar que un punto está más distante que otro) está ligada al ángulo que forman entre sí los ejes visuales de los dos ojos cuando se dirigen a dichos puntos. En promedio, se aprecia que P1 y P2 están a diferente distancia si la diferencia α1 – α2 es al menos de 30''. Por tanto, para mayores distancias que un punto para el cual los ejes visuales formen un ángulo de 30'' ya no se aprecia relieve.

Figura 2.11. Visión binocular: Límites de la sensación de profundidad.

La distancia media entre los centros de las pupilas de los ojos es unos 65 mm.

Teniendo en cuenta este resultado, la distancia máxima a partir de la cual no se puede apreciar la profundidad es unos 450 m. A pesar de ello el cerebro humano dispone de estrategias para la percepción de la visión en 3-D incluso a distancias mucho más lejanas. Ahora, veremos un ejemplo de ausencia de profundidad a partir de 450 m:

( ) "30"28.0"12.0"26.0·2

"12.0º10·25.3000.000.1

5,32

000.000.1

5,32

2

"26.0º10·22.7000.450

5,32

000.450

5,32

221

52

51

<=−=−⇒

⇒≈≈

=

⇒≈≈

=

ααα

α

arctg

arctg

Un ejemplo que existe en la naturaleza con respecto a la visión binocular es el

hecho de que los depredadores poseen los ojos juntos para poder medir distancias de forma precisa y óptima, mientras que las presas tienen los ojos separados para poder tener un mayor campo de visión para descubrir los diversos peligros que les acechan.

Cuando el ojo no puede percibir la profundidad emplea una serie de estrategias para conseguir ver en profundidad. Las estrategias son:

Interposición Situación que se da cuando un cuerpo tapa a otro más cercano. Sombras A través de las sombras de los objetos consigue percibir la

profundidad. Perspectiva lineal Objetos que aparecen juntos en alguna imagen dan más

sensación de lejanía que aquellos objetos pero separados (tamaños relativos y Gradiente de texturas).

x mm

32,5

mm

X + ∆x mm

2

'1α

2

'2α

Page 100: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

12

(a)

(b) (c)

Figura 2.12. Ejemplos de Perspectiva lineal: (a) Gradiente de texturas; (b) Tamaños relativos; (c) Cercanía de objetos.

A A A A A

Page 101: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

13

2.6. Visión de objetos en movimiento.

Cuando una fuente luminosa aparece y desaparece en un tiempo muy corto, al

observador siempre le parece que ha tenido una duración apreciable, del orden de 0,15 seg, lo que recibe el nombre de persistencia de las imágenes. La medida de persistencia puede hacerse imprimiendo a una fuente puntual de luz en movimiento circular, con lo cual, si la velocidad es suficiente, se verá una circunferencia de trazo continuo. Disminuyendo la velocidad se llega a una situación donde la continuidad se rompe, de la cual se puede deducir la persistencia.

Cuando dos imágenes idénticas aparecen sucesivamente en puntos próximos del

campo visual con intervalos de tiempo menores que el de persistencia, se tiene una sensación de que se trata de un solo objeto que se mueve de una posición a otra (en ello se funda la sensación de movimiento en el cine y en los anuncios luminosos).

Cuando se observa una fuente luminosa de luminancia fluctuante y periódica, si

la frecuencia es pequeña se observa un parpadeo, pero a partir de la frecuencia crítica se produce la "fusión" y aparece una luminancia constante igual a la media temporal tal y como viene definida mediante la ley de Talbot:

( )∫>=<t

dLt

L0

1 ττ (3)

La frecuencia crítica de fusión viene regida por la ley de Ferry-Porter:

bLafcf +><= ·log... (4)

Donde a y b son constantes que dependen de las condiciones de observación y

que hay que determinar experimentalmente en cada caso. Efecto estroboscópico:

Tiene lugar, por ejemplo, cuando la imagen de una rueda que vemos no es una imagen continua, sino que por alguna razón solo la visualizamos de una forma periódica. Ese es el caso de las películas de cine o de televisión.

Los fotogramas de la película se proyectan a razón de 24 por segundo. Si en ese 24avo de segundo la rueda ha girado de forma que los radios de la misma están muy cerca de la posición del fotograma anterior, pero un poco retrasados nos da la impresión de que gira hacia atrás. Si coincidieran en la misma posición nos parecería que la rueda está parada. Y si los radios quedan ligeramente adelantados entonces ya parece que gira hacía adelante, pero a lo mejor nos da la impresión de que gira lentamente. Incluso si el carro está acelerando o frenando se pasa por todas estas fases: Se las ve hacia adelante, se paran, retroceden...

Page 102: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

14

2.7. Ilusiones ópticas.

¿Cuál cuadrado es mayor de ambos?

¿Qué círculo es más grande, el que está envuelto por círculos pequeños o grandes?

¿Qué hexágono estás viendo?

¿Qué recta es más larga?

Page 103: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

15

¿Cuál de ambos segmentos tiene mayor longitud?

¿Ves el cuadrado o la otra figura?

¿Cuál animal ves, un dálmata o una hiena?

Page 104: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

16

¿Qué ves, una copa o dos personas mirándose mutuamente?

¿Qué edad tiene esta mujer?

Page 105: Física de la visión (Teoría y Prácticas)

Tema 2 – Sistema de visión humano BLOQUE I: Introducción a la Óptica

Física de la Visión Jaime Martínez Verdú

17

2.8. Bibliografía.

Óptica. Justiniano Casas.

Óptica Fisiológica: Psicofísica de la visión. J. M. Ártigas, P. Capilla, A. Felipe, J. Pujol.

Page 106: Física de la visión (Teoría y Prácticas)

3.1. Magnitudes fotométricas y radiométricas.

Además de la frecuencia (y longitud de onda) ya señaladas, existen otras

magnitudes significativas en la radiación electromagnética, algunas especialmente importantes desde el punto de vista óptico. Estas magnitudes están relacionadas con la percepción que tenemos de la luz.

El ángulo sólido.

Para explicar el concepto de ángulo sólido ω pensemos en un punto O situado a una distancia r de una superficie S no necesariamente plana. Ahora, formemos un cono con vértice en O cuyas generatrices pasen por el contorno de S. A continuación, hagamos una esfera de radio uno con centro en O. Al área de la superficie de la esfera interceptada por el cono se la conoce por ángulo sólido y su valor es:

2r

S=ω

Su unidad es el estereorradián (sr). 3.1.1. Magnitudes radiométricas.

Flujo radiante. Las radiaciones electromagnéticas transportan energía, de forma que un objeto

luminoso (radiador) emite energía y cualquier objeto iluminado la recibe. La potencia

radiante o flujo radiante Fe es la medida de la cantidad de energía electromagnética que emite un radiador por unidad de tiempo. Se mide en Watt, vatios.

La energía transportada puede manifestarse de formas muy diversas en los

cuerpos que la reciben: propiciando reacciones químicas (fotosíntesis y bronceado), efectos eléctricos (fotocélulas), efectos mecánicos (viento solar), calentamiento (estufas de infrarrojos), etc.

Intensidad radiante (Ie). La intensidad radiante Ie expresa la energía emitida por un cuerpo radiante en

cada dirección del espacio. Se expresa en Watts/estereorradián (W/sr). Si el radiador emite por igual en todas direcciones y dado que una esfera tiene 4π estereorradianes, puede establecerse que un emisor cuyo flujo radiante sea Fe, produce en sus inmediaciones una intensidad radiante Ie = Fe / 4π Watt/sr.

ωd

dFI

sólidoÁngulo

emitidoFlujoI e

ee =⇒=

Figura 3.1. Ángulo sólido

Page 107: Física de la visión (Teoría y Prácticas)

Excitancia radiante (Me).

Los efectos de la radiación electromagnética se expresan mejor en término de la energía emitida (o recibida) por unidad de superficie en unidad de tiempo. En este sentido, más que el flujo radiante del emisor (que puede estar muy alejado) o la intensidad, interesa la densidad de radiación Me, que es el valor de la potencia radiante por unidad de superficie. Se expresa en W/m2.

dS

dFM

emisoraerfíciepSu

emitidoFlujoM e

ee =⇒=

Conocida la intensidad radiante Ie de un emisor, puede calcularse la densidad de su radiación Me a una distancia d:

2d

IM e

e =

Como puede verse, la densidad de radiación decrece rápidamente al alejarse del foco emisor (con el cuadrado de la distancia). Por esta razón, los planetas más alejados del Sol son comparativamente más fríos que los más próximos, y la "luz" de una linterna ilumina más intensamente los objetos próximos que los lejanos. Radiancia (Le). La radiancia de superficie dS en una dirección se define como cociente de la intensidad radiante en dicha dirección por el área aparente del elemento emisor, es decir, un área proyectada sobre un plano normal a la dirección considerada.

( )αcos' dS

I

dS

IL

aparenteerfíciepSu

radianteIntensidadL ee

ee ==⇒=

Irradiancia (Ee). Se define como cociente del flujo energético dFr que recibe en total y en todas las direcciones un área dS, dividido por el área receptora:

dS

dFE

receptoraerfíciepSu

recibidoFlujoE r

rr =⇒=

3.1.2. Magnitudes fotométricas.

Flujo luminoso. Para hacernos una primera idea consideraremos dos bombillas, una de 25 W y otra de 60 W. Está claro que la de 60 W dará una luz más intensa. Pues bien, esta es la idea: ¿cuál luce más? o dicho de otra forma ¿cuánto luce cada bombilla?

Page 108: Física de la visión (Teoría y Prácticas)

Cuando hablamos de 25 W o 60 W nos referimos sólo a la potencia consumida por la bombilla de la cual solo una parte se convierte en luz visible, es el llamado flujo luminoso. Podríamos medirlo en watts (W), pero parece más sencillo definir una nueva unidad, el lumen, que tome como referencia la radiación visible. Empíricamente se demuestra que a una radiación de 555 nm de 1 W de potencia emitida por un cuerpo negro le corresponden 683 lumen. Se define el flujo luminoso como la potencia (W) emitida en forma de radiación luminosa a la que el ojo humano es sensible. Su símbolo es φ y su unidad es el lumen (lm). A la relación entre watts y lúmenes se le llama equivalente luminoso de la

energía y equivale a:

λλφ VFe ·,=

1 watt-luz a 555 nm = 683 lm

Intensidad luminosa.

El flujo luminoso nos da una idea de la cantidad de luz que emite una fuente de luz, por ejemplo una bombilla, en todas las direcciones del espacio. Por contra, si pensamos en un proyector es fácil ver que sólo ilumina en una dirección. Parece claro que necesitamos conocer cómo se distribuye el flujo en cada dirección del espacio y para eso definimos la intensidad luminosa.

Diferencia entre flujo e intensidad luminosa.

Se conoce como intensidad luminosa al flujo luminoso emitido por unidad de ángulo sólido en una dirección concreta. Su símbolo es I y su unidad la candela (cd).

Page 109: Física de la visión (Teoría y Prácticas)

1

Para iluminar espacios carentes de luz es necesaria la presencia de fuentes de luz artificales, las lámparas, y aparatos que sirvan de soporte y distribuyan adecuadamente la luz, las luminarias. De esta forma es posible vencer las limitaciones que la naturaleza impone a las actividades humanas.

Lámparas incandescentes

Las lámparas incandescentes fueron la primera forma de producir luz a partir de la electricidad y surgieron a finales del siglo XIX. En la actualidad siguen siendo una de las formas más utilizadas de producir de luz, sobretodo en los ámbitos domésticos.

Lámparas de descarga. Conceptos

Principios de funcionamiento y características de estas lámparas que funcionan gracias al fenómeno de la luminiscencia.

Clases de lámparas de descarga

Tipos de lámparas de descarga según las características de los gases que las forman.

Luminarias

Definición y clasificaciones de las luminarias.

Page 110: Física de la visión (Teoría y Prácticas)

2

Las lámparas incandescentes fueron la primera forma de generar luz a partir de la energía

eléctrica. Desde que fueran inventadas, la tecnología ha cambiado mucho produciéndose

sustanciosos avances en la cantidad de luz producida, el consumo y la duración de las lámparas.

Su principio de funcionamiento es simple, se pasa una corriente eléctrica por un filamento hasta

que este alcanza una temperatura tan alta que emite radiaciones visibles por el ojo humano.

La incandescencia

Todos los cuerpos calientes emiten energía en forma de radiación electromagnética. Mientras

más alta sea su temperatura mayor será la energía emitida y la porción del espectro

electromagnético ocupado por las radiaciones emitidas. Si el cuerpo pasa la temperatura de

incandescencia una buena parte de estas radiaciones caerán en la zona visible del espectro y

obtendremos luz.

La incandescencia se puede obtener de dos maneras. La primera es por combustión de alguna

sustancia, ya sea sólida como una antorcha de madera, líquida como en una lámpara de aceite o

gaseosa como en las lámparas de gas. La segunda es pasando una corriente eléctrica a través de

un hilo conductor muy delgado como ocurre en las bombillas corrientes. Tanto de una forma

como de otra, obtenemos luz y calor (ya sea calentando las moléculas de aire o por radiaciones

infrarrojas). En general los rendimientos de este tipo de lámparas son bajos debido a que la

mayor parte de la energía consumida se convierte en calor.

Rendimiento de una lámpara incandescente

La producción de luz mediante la incandescencia tiene una ventaja adicional, y es que la luz

emitida contiene todas las longitudes de onda que forman la luz visible o dicho de otra manera,

su espectro de emisiones es continuo. De esta manera se garantiza una buena reproducción de

los colores de los objetos iluminados.

Page 111: Física de la visión (Teoría y Prácticas)

3

Características de una lámpara incandescente

Entre los parámetros que sirven para definir una lámpara tenemos las características

fotométricas: la intensidad luminosa, el flujo luminoso y el rendimiento o eficiencia. Además de

estas, existen otros que nos informan sobre la calidad de la reproducción de los colores y los

parámetros de duración de las lámparas.

Características cromáticas

Los colores que vemos con nuestros ojos dependen en gran medida de las características

cromáticas de las fuentes de luz. Por poner un ejemplo, no se ve igual una calle de noche a la luz

de las farolas iluminadas por lámparas de luz blanca que con lámparas de luz amarilla.

A la hora de describir las cualidades cromáticas de las fuentes de luz hemos de considerar dos

aspectos. El primero trata sobre el color que presenta la fuente. Y el segundo describe cómo son

reproducidos los colores de los objetos iluminados por esta. Para evaluarlos se utilizan dos

parámetros: la temperatura de color y el rendimiento de color que se mide con el IRC.

La temperatura de color hace referencia al color de la fuente luminosa. Su valor coincide con

la temperatura a la que un cuerpo negro tiene una apariencia de color similar a la de la fuente

considerada. Esto se debe a que sus espectros electromagnéticos respectivos tienen una

distribución espectral similar. Conviene aclarar que los conceptos temperatura de color y

temperatura de filamento son diferentes y no tienen porque coincidir sus valores.

El rendimiento en color, por contra, hace referencia a cómo se ven los colores de los objetos

iluminados. Nuestra experiencia nos indica que los objetos iluminados por un fluorescente no se

ven del mismo tono que aquellos iluminados por bombillas. En el primer caso destacan más los

tonos azules mientras que en el segundo lo hacen los rojos. Esto se debe a que la luz emitida por

cada una de estas lámparas tiene un alto porcentaje de radiaciones monocromáticas de color azul

o rojo.

Fuente de luz blanca. Fuente de luz monocromática.

Efecto del color de la fuente sobre el color de los objetos

Para establecer el rendimiento en color se utiliza el índice de rendimiento de color (IRC o Ra)

que compara la reproducción de una muestra de colores normalizada iluminada con nuestra

fuente con la reproducción de la misma muestra iluminada con una fuente patrón de referencia.

Características de duración

La duración de una lámpara viene determinada básicamente por la temperatura de trabajo del

filamento. Mientras más alta sea esta, mayor será el flujo luminoso pero también la velocidad de

evaporación del material que forma el filamento. Las partículas evaporadas, cuando entren en

contacto con las paredes se depositarán sobre estas, ennegreciendo la ampolla. De esta manera

se verá reducido el flujo luminoso por ensuciamiento de la ampolla. Pero, además, el filamento

se habrá vuelto más delgado por la evaporación del tungsteno que lo forma y se reducirá, en

Page 112: Física de la visión (Teoría y Prácticas)

4

consecuencia, la corriente eléctrica que pasa por él, la temperatura de trabajo y el flujo

luminoso. Esto seguirá ocurriendo hasta que finalmente se rompa el filamento. A este proceso

se le conoce como depreciación luminosa.

Para determinar la vida de una lámpara disponemos de diferentes parámetros según las

condiciones de uso definidas.

• La vida individual es el tiempo transcurrido en horas hasta que una lámpara se

estropea, trabajando en unas condiciones determinadas.

• La vida promedio es el tiempo transcurrido hasta que se produce el fallo de la mitad de

las lámparas de un lote representativo de una instalación, trabajando en unas

condiciones determinadas.

• La vida útil es el tiempo estimado en horas tras el cual es preferible sustituir un

conjunto de lámparas de una instalación a mantenerlas. Esto se hace por motivos

económicos y para evitar una disminución excesiva en los niveles de iluminación en la

instalación debido a la depreciación que sufre el flujo luminoso con el tiempo. Este

valor sirve para establecer los periodos de reposición de las lámparas de una instalación.

• La vida media es el tiempo medio que resulta tras el análisis y ensayo de un lote de

lámparas trabajando en unas condiciones determinadas.

La duración de las lámparas incandescentes está normalizada; siendo de unas 1000 horas para

las normales, para las halógenas es de 2000 horas para aplicaciones generales y de 4000 horas

para las especiales.

Factores externos que influyen en el funcionamiento de las lámparas

Los factores externos que afectan al funcionamiento de las lámparas son la temperatura del

entorno dónde esté situada la lámpara y las desviaciones en la tensión nominal en los bornes.

La temperatura ambiente no es un factor que influya demasiado en el funcionamiento de las

lámparas incandescentes, pero sí se ha de tener en cuenta para evitar deterioros en los materiales

empleados en su fabricación. En las lámparas normales hay que tener cuidado de que la

temperatura de funcionamiento no exceda de los 200º C para el casquillo y los 370º C para el

bulbo en el alumbrado general. Esto será de especial atención si la lámpara está alojada en

luminarias con mala ventilación. En el caso de las lámparas halógenas es necesario una

temperatura de funcionamiento mínima en el bulbo de 260º C para garantizar el ciclo

regenerador del wolframio. En este caso la máxima temperatura admisible en la ampolla es de

520º C para ampollas de vidrio duro y 900º C para el cuarzo.

Las variaciones de la tensión se producen cuando aplicamos a la lámpara una tensión diferente

de la tensión nominal para la que ha sido diseñada. Cuando aumentamos la tensión aplicada se

produce un incremento de la potencia consumida y del flujo emitido por la lámpara pero se

reduce la duración de la lámpara. Análogamente, al reducir la tensión se produce el efecto

contrario.

Page 113: Física de la visión (Teoría y Prácticas)

5

Efecto de las variaciones de tensión (%) sobre las características

de funcionamiento de las lámparas incandescentes

Partes de una lámpara

Las lámparas incandescentes están formadas por un hilo de wolframio que se calienta por efecto

Joule alcanzando temperaturas tan elevadas que empieza a emitir luz visible. Para evitar que el

filamento se queme en contacto con el aire, se rodea con una ampolla de vidrio a la que se le ha

hecho el vacío o se ha rellenado con un gas. El conjunto se completa con unos elementos con

funciones de soporte y conducción de la corriente eléctrica y un casquillo normalizado que sirve

para conectar la lámpara a la luminaria.

Ampolla | Filamento | Soporte | Gas de relleno

Vástago | Hilos conductores | Casquillo

Ampolla o bulbo

La ampolla es una cubierta de vidrio que da forma a la lámpara y protege el filamento del aire exterior evitando que se queme. Si no fuera así, el oxígeno del aire oxidaría el material del filamento destruyéndolo de forma inmediata.

Las ampollas pueden ser de vidrio transparente, de vidrio blanco translúcido o de colores proporcionando en este último caso una luz de color monocromática en lugar de la típica luz blanca.

Page 114: Física de la visión (Teoría y Prácticas)

6

Algunas formas típicas de ampollas

Filamento

Para que una lámpara incandescente emita luz visible, es necesario calentar el filamento hasta temperaturas muy elevadas. Esto se consigue pasando una corriente eléctrica a través de un material conductor por efecto Joule.

Como la temperatura depende de la resistencia eléctrica es necesario que esta última sea muy elevada. Para conseguirlo podemos actuar de dos formas. En primer lugar, que el filamento esté compuesto por un hilo muy largo y delgado; de esta manera los electrones tendrán más dificultad para pasar por el cable y aumentará la resistencia. Y la segunda posibilidad es emplear un material que tenga una resistividad eléctrica elevada.

También es muy importante que el filamento tenga un punto de fusión alto y una velocidad de evaporación lenta que evite un rápido desgaste por desintegración del hilo. De esta manera se pueden alcanzar temperaturas de funcionamiento más altas y, por tanto, mayores eficacias.

Para mejorar la eficacia luminosa de las lámparas se arrolla el filamento en forma de doble espiral. De esta manera se consigue que emitiendo la misma cantidad de luz, el filamento presente una menor superficie de intercambio de calor con el gas que rellena la ampolla, por lo que las pérdidas por este motivo se reducen al mínimo.

En la actualidad el material más empleado para los filamentos es el tungsteno o wolframio (W) por sus elevadas prestaciones que se ajustan a los requisitos exigidos además de ser una materia prima asequible.

Soporte del filamento: vástago, varillas de soporte e hilos conductores

El filamento está fijado a la lámpara por un conjunto de elementos que tienen misiones de sujeción y conducción de la electricidad.

Los hilos conductores transportan la electricidad desde el casquillo a los hilos de soporte a través del vástago. Para evitar el deterioro de las varillas de soporte es necesario un material, normalmente se usa el molibdeno, que aguante las altas temperaturas y no reaccione químicamente con el tungsteno del filamento.

Page 115: Física de la visión (Teoría y Prácticas)

7

El vástago es de vídrio con plomo, un material con excelentes propiedades de aislante eléctrico, que mantiene separada la corriente de los dos conductores que lo atraviesan. Además, y gracias a su interior hueco sirve para hacer el vacío en la ampolla y rellenarla de gas (cuando se requiera).

Gas de relleno

Aunque antiguamente se hacía el vacío en el interior de la ampolla, en la actualidad se rellena con un gas inerte por las ventajas que presenta. Con el gas se consigue reducir la evaporación del filamento e incrementar la temperatura de trabajo de la lámpara y el flujo luminoso emitido. Los gases más utilizados son el nitrógeno en pequeñas proporciones que evita la formación de arcos y el argón que reduce la velocidad de evaporación del material que forma el filamento. Las proporciones empleadas varían según la aplicación de la lámpara y la tensión de trabajo. Aumentando la presión del gas se consigue, además, disminuir la evaporación del filamento y aumentar la eficacia luminosa y vida de la lámpara.

Casquillo

El casquillo cumple dos importantes funciones en la lámpara. Por un lado, sirve para conectar el filamento a la corriente eléctrica proveniente del portalámparas. Y por el otro, permite la sujeción de la lámpara a la luminaria evitando su deterioro. En su fabricación se usan habitualmente el latón, el aluminio o el níquel.

Los casquillos empleados en alumbrado general son de dos tipos: Edison (E) y Bayoneta (B). Para su nomenclatura se utiliza la inicial de la clase seguida del diámetro en milímetros. Por ejemplo, E25 quiere decir que tenemos una lámpara con casquillo Edison de 25 mm de diámetro.

Casquillo de

rosca Casquillo de

bayoneta

Tipos de lámparas

Existen dos tipos de lámparas incandescentes: las que contienen un gas halógeno en su interior y

las que no lo contienen:

Lámparas no halógenas

Entre las lámparas incandescentes no halógenas podemos distinguir las que se han rellenado con

un gas inerte de aquellas en que se ha hecho el vacío en su interior. La presencia del gas supone

un notable incremento de la eficacia luminosa de la lámpara dificultando la evaporación del

material del filamento y permitiendo el aumento de la temperatura de trabajo del filamento. Las

lámparas incandescentes tienen una duración normalizada de 1000 horas, una potencia entre 25

y 2000 W y unas eficacias entre 7.5 y 11 lm/W para las lámparas de vacío y entre 10 y 20 para

las rellenas de gas inerte. En la actualidad predomina el uso de las lámparas con gas,

reduciéndose el uso de las de vacío a aplicaciones ocasionales en alumbrado general con

potencias de hasta 40 W.

Page 116: Física de la visión (Teoría y Prácticas)

8

Lámparas con gas

Lámparas de vacío

Temperatura del filamento 2500 ºC 2100 ºC

Eficacia luminosa de la lámpara 10-20 lm/W 7.5-11 lm/W

Duración 1000 horas 1000 horas

Pérdidas de calor Convección y radiación

Radiación

Lámparas halógenas de alta y baja tensión

En las lámparas incandescentes normales, con el paso del tiempo, se produce una disminución

significativa del flujo luminoso. Esto se debe, en parte, al ennegrecimiento de la ampolla por

culpa de la evaporación de partículas de wolframio del filamento y su posterior condensación

sobre la ampolla.

Agregando una pequeña cantidad de un compuesto gaseoso con halógenos (cloro, bromo o

yodo), normalmente se usa el CH2Br2, al gas de relleno se consigue establecer un ciclo de

regeneración del halógeno que evita el ennegrecimiento. Cuando el tungsteno (W) se evapora se

une al bromo formando el bromuro de wolframio (WBr2). Como las paredes de la ampolla están

muy calientes (más de 260 ºC) no se deposita sobre estas y permanece en estado gaseoso.

Cuando el bromuro de wolframio entra en contacto con el filamento, que está muy caliente, se

descompone en W que se deposita sobre el filamento y Br que pasa al gas de relleno. Y así, el

ciclo vuelve a empezar.

Ciclo del halógeno

El funcionamiento de este tipo de lámparas requiere de temperaturas muy altas para que pueda

realizarse el ciclo del halógeno. Por eso, son más pequeñas y compactas que las lámparas

normales y la ampolla se fabrica con un cristal especial de cuarzo que impide manipularla con

los dedos para evitar su deterioro.

Tienen una eficacia luminosa de 22 lm/W con una amplia gama de potencias de trabajo (150 a

2000W) según el uso al que estén destinadas. Las lámparas halógenas se utilizan normalmente

en alumbrado por proyección y cada vez más en iluminación doméstica.

Page 117: Física de la visión (Teoría y Prácticas)

9

Las lámparas de descarga constituyen una forma alternativa de producir luz de una manera más

eficiente y económica que las lámparas incandescentes. Por eso, su uso está tan extendido hoy

en día. La luz emitida se consigue por excitación de un gas sometido a descargas eléctricas entre

dos electrodos. Según el gas contenido en la lámpara y la presión a la que esté sometido

tendremos diferentes tipos de lámparas, cada una de ellas con sus propias características

luminosas.

Funcionamiento

En las lámparas de descarga, la luz se consigue estableciendo una corriente eléctrica entre dos

electrodos situados en un tubo lleno con un gas o vapor ionizado.

En el interior del tubo, se producen descargas eléctricas como consecuencia de la diferencia de

potencial entre los electrodos. Estas descargas provocan un flujo de electrones que atraviesa el

gas. Cuando uno de ellos choca con los electrones de las capas externas de los átomos les

transmite energía y pueden suceder dos cosas.

La primera posibilidad es que la energía transmitida en el choque sea lo suficientemente elevada

para poder arrancar al electrón de su orbital. Este, puede a su vez, chocar con los electrones de

otros átomos repitiendo el proceso. Si este proceso no se limita, se puede provocar la

destrucción de la lámpara por un exceso de corriente.

La otra posibilidad es que el electrón no reciba suficiente energía para ser arrancado. En este

caso, el electrón pasa a ocupar otro orbital de mayor energía. Este nuevo estado acostumbra a

ser inestable y rápidamente se vuelve a la situación inicial. Al hacerlo, el electrón libera la

energía extra en forma de radiación electromagnética, principalmente ultravioleta (UV) o

visible. Un electrón no puede tener un estado energético cualquiera, sino que sólo puede ocupar

unos pocos estados que vienen determinados por la estructura atómica del átomo. Como la

longitud de onda de la radiación emitida es proporcional a la diferencia de energía entre los

estados inicial y final del electrón y los estados posibles no son infinitos, es fácil comprender

que el espectro de estas lámparas sea discontinuo.

Page 118: Física de la visión (Teoría y Prácticas)

10

Relación entre los estados energéticos de los electrones y las franjas visibles en el espectro

La consecuencia de esto es que la luz emitida por la lámpara no es blanca (por ejemplo en las

lámparas de sodio a baja presión es amarillenta). Por lo tanto, la capacidad de reproducir los

colores de estas fuentes de luz es, en general, peor que en el caso de las lámparas incandescentes

que tienen un espectro continuo. Es posible, recubriendo el tubo con sustancias fluorescentes,

mejorar la reproducción de los colores y aumentar la eficacia de las lámparas convirtiendo las

nocivas emisiones ultravioletas en luz visible.

Elementos auxiliares

Para que las lámparas de descarga funcionen correctamente es necesario, en la mayoría de los

casos, la presencia de unos elementos auxiliares: cebadores y balastos. Los cebadores o

ignitores son dispositivos que suministran un breve pico de tensión entre los electrodos del

tubo, necesario para iniciar la descarga y vencer así la resistencia inicial del gas a la corriente

eléctrica. Tras el encendido, continua un periodo transitorio durante el cual el gas se estabiliza y

que se caracteriza por un consumo de potencia superior al nominal.

Los balastos, por contra, son dispositivos que sirven para limitar la corriente que atraviesa la

lámpara y evitar así un exceso de electrones circulando por el gas que aumentaría el valor de la

corriente hasta producir la destrucción de la lámpara.

Eficacia

Al establecer la eficacia de este tipo de lámparas hay que diferenciar entre la eficacia de la

fuente de luz y la de los elementos auxiliares necesarios para su funcionamiento que depende

del fabricante. En las lámparas, las pérdidas se centran en dos aspectos: las pérdidas por calor y

las pérdidas por radiaciones no visibles (ultravioleta e infrarrojo). El porcentaje de cada tipo

dependerá de la clase de lámpara con que trabajemos.

Page 119: Física de la visión (Teoría y Prácticas)

11

Balance energético de una lámpara de descarga

La eficacia de las lámparas de descarga oscila entre los 19-28 lm/W de las lámparas de luz de

mezcla y los 100-183 lm/W de las de sodio a baja presión.

Tipo de lámpara Eficacia sin balasto (lm/W)

Fluorescentes 38-91

Luz de mezcla 19-28

Mercurio a alta presión

40-63

Halogenuros metálicos

75-95

Sodio a baja presión 100-183

Sodio a alta presión 70-130

Características cromáticas

Debido a la forma discontinua del espectro de estas lámparas, la luz emitida es una mezcla de

unas pocas radiaciones monocromáticas; en su mayor parte en la zona ultravioleta (UV) o

visible del espectro. Esto hace que la reproducción del color no sea muy buena y su rendimiento

en color tampoco.

Ejemplo de espectro de una lámpara de descarga

Para solucionar este problema podemos tratar de completar el espectro con radiaciones de

longitudes de onda distintas a las de la lámpara. La primera opción es combinar en una misma

lámpara dos fuentes de luz con espectros que se complementen como ocurre en las lámparas de

luz de mezcla (incandescencia y descarga). También podemos aumentar la presión del gas. De

esta manera se consigue aumentar la anchura de las líneas del espectro de manera que formen

bandas anchas y más próximas entre sí. Otra solución es añadir sustancias sólidas al gas, que al

Page 120: Física de la visión (Teoría y Prácticas)

12

vaporizarse emitan radiaciones monocromáticas complementarias. Por último, podemos recubrir

la pared interna del tubo con una sustancias fluorescente que conviertan los rayos ultravioletas

en radiaciones visibles.

Características de duración

Hay dos aspectos básicos que afectan a la duración de las lámparas. El primero es la

depreciación del flujo. Este se produce por ennegrecimiento de la superficie de la superficie del

tubo donde se va depositando el material emisor de electrones que recubre los electrodos. En

aquellas lámparas que usan sustancias fluorescentes otro factor es la perdida gradual de la

eficacia de estas sustancias.

El segundo es el deterioro de los componentes de la lámpara que se debe a la degradación de los

electrodos por agotamiento del material emisor que los recubre. Otras causas son un cambio

gradual de la composición del gas de relleno y las fugas de gas en lámparas a alta presión.

Tipo de lámpara Vida promedio (h)

Fluorescente estándar 12500

Luz de mezcla 9000

Mercurio a alta presión 25000

Halogenuros metálicos 11000

Sodio a baja presión 23000

Sodio a alta presión 23000

Factores externos que influyen en el funcionamiento

Los factores externos que más influyen en el funcionamiento de la lámpara son la temperatura

ambiente y la influencia del número de encendidos.

Las lámparas de descarga son, en general, sensibles a las temperaturas exteriores. Dependiendo

de sus características de construcción (tubo desnudo, ampolla exterior...) se verán más o menos

afectadas en diferente medida. Las lámparas a alta presión, por ejemplo, son sensibles a las

bajas temperaturas en que tienen problemas de arranque. Por contra, la temperatura de trabajo

estará limitada por las características térmicas de los componentes (200º C para el casquillo y

entre 350º y 520º C para la ampolla según el material y tipo de lámpara).

La influencia del número de encendidos es muy importante para establecer la duración de una

lámpara de descarga ya que el deterioro de la sustancia emisora de los electrodos depende en

gran medida de este factor.

Partes de una lámpara

Las formas de las lámparas de descarga varían según la clase de lámpara con que tratemos. De

todas maneras, todas tienen una serie de elementos en común como el tubo de descarga, los

electrodos, la ampolla exterior o el casquillo.

Page 121: Física de la visión (Teoría y Prácticas)

13

Principales partes de una lámpara de descarga

Ampolla | Tubo de descarga | Electrodos | Casquillo | Gas

Ampolla exterior

La ampolla es un elemento que sirve para proteger al tubo de descarga de los agentes atmosféricos. Es un elemento presente en todas las lámparas excepto en las lámparas fluorescentes que no disponen de él. En su interior se hace el vacío o se rellena con un gas inerte. Sus formas son muy variadas y puede estar recubierta internamente con sustancias fluorescentes que filtran y convierten las radiaciones ultravioletas en visibles mejorando el rendimiento en color de estas lámparas y su eficiencia.

Tubo de descarga

Es un tubo, normalmente de forma cilíndrica, donde se producen las descargas eléctricas entre los electrodos. Está relleno con un gas (vapor de mercurio o sodio habitualmente) a alta o baja presión que determina las propiedades de la lámpara. En las lámparas fluorescentes se recubre la cara interna con sustancias fluorescentes que convierten las emisiones ultravioletas en luz visible. Los materiales que se emplean en su fabricación dependen del tipo de lámpara y de las condiciones de uso.

Electrodos

Los electrodos son los elementos responsables de la descarga eléctrica en el tubo. Están hechos de wolframio y se conectan a la corriente a través del casquillo. Se recubren con una sustancia emisora para facilitar la emisión de los electrones en el tubo.

Casquillo

El casquillo tiene la función de conectar los electrodos a la red a través del portalámparas. Puede ser de rosca o bayoneta aunque hay algunas lámparas como las fluorescentes que disponen de casquillos de espigas con dos contactos en los extremos del tubo. Los materiales de que se elaboran dependerán de los requisitos térmicos y mecánicos de cada tipo de lámpara.

Page 122: Física de la visión (Teoría y Prácticas)

14

Gas

En el interior del tubo de descarga encontramos una mezcla entre un vapor de sodio o mercurio y un gas inerte de relleno. El primero determina las propiedades de la luz de la lámpara y es el responsable de la emisión de la luz como consecuencia de la descarga. El segundo, el gas inerte, cumple varias funciones. La principal es disminuir la tensión de ruptura necesaria para ionizar el gas que rellena el tubo e iniciar así la descarga más fácilmente. Otras funciones que realiza son limitar la corriente de electrones y servir de aislante térmico para ayudar a mantener la temperatura de trabajo de la lámpara.

Page 123: Física de la visión (Teoría y Prácticas)

15

Las lámparas de descarga se pueden clasificar según el gas utilizado (vapor de mercurio o

sodio) o la presión a la que este se encuentre (alta o baja presión). Las propiedades varían

mucho de unas a otras y esto las hace adecuadas para unos usos u otros.

• Lámparas de vapor de mercurio: o Baja presión:

Lámparas fluorescentes o Alta presión:

Lámparas de vapor de mercurio a alta presión Lámparas de luz de mezcla Lámparas con halogenuros metálicos

• Lámparas de vapor de sodio: o Lámparas de vapor de sodio a baja presión o Lámparas de vapor de sodio a alta presión

Lámparas de vapor de mercurio

Lámparas fluorescentes

Las lámparas fluorescentes son lámparas de vapor de mercurio a baja presión (0.8 Pa). En estas

condiciones, en el espectro de emisión del mercurio predominan las radiaciones ultravioletas en

la banda de 253.7 nm. Para que estas radiaciones sean útiles, se recubren las paredes interiores

del tubo con polvos fluorescentes que convierten los rayos ultravioletas en radiaciones visibles.

De la composición de estas sustancias dependerán la cantidad y calidad de la luz, y las

cualidades cromáticas de la lámpara. En la actualidad se usan dos tipos de polvos; los que

producen un espectro continuo y los trifósforos que emiten un espectro de tres bandas con los

colores primarios. De la combinación estos tres colores se obtiene una luz blanca que ofrece un

buen rendimiento de color sin penalizar la eficiencia como ocurre en el caso del espectro

continuo.

Lámpara fluorescente

Las lámparas fluorescentes se caracterizan por carecer de ampolla exterior. Están formadas por

un tubo de diámetro normalizado, normalmente cilíndrico, cerrado en cada extremo con un

casquillo de dos contactos donde se alojan los electrodos. El tubo de descarga está relleno con

vapor de mercurio a baja presión y una pequeña cantidad de un gas inerte que sirve para facilitar

el encendido y controlar la descarga de electrones.

La eficacia de estas lámparas depende de muchos factores: potencia de la lámpara, tipo y

presión del gas de relleno, propiedades de la sustancia fluorescente que recubre el tubo,

Page 124: Física de la visión (Teoría y Prácticas)

16

temperatura ambiente... Esta última es muy importante porque determina la presión del gas y en

último término el flujo de la lámpara. La eficacia oscila entre los 38 y 91 lm/W dependiendo de

las características de cada lámpara.

Balance energético de una lámpara fluorescente

La duración de estas lámparas se sitúa entre 5000 y 7000 horas. Su vida termina cuando el

desgaste sufrido por la sustancia emisora que recubre los electrodos, hecho que se incrementa

con el número de encendidos, impide el encendido al necesitarse una tensión de ruptura superior

a la suministrada por la red. Además de esto, hemos de considerar la depreciación del flujo

provocada por la pérdida de eficacia de los polvos fluorescentes y el ennegrecimiento de las

paredes del tubo donde se deposita la sustancia emisora.

El rendimiento en color de estas lámparas varía de moderado a excelente según las sustancias

fluorescentes empleadas. Para las lámparas destinadas a usos habituales que no requieran de

gran precisión su valor está entre 80 y 90. De igual forma la apariencia y la temperatura de color

varía según las características concretas de cada lámpara.

Apariencia de color Tcolor (K)

Blanco cálido 3000

Blanco 3500

Natural 4000

Blanco frío 4200

Luz día 6500

Las lámparas fluorescentes necesitan para su funcionamiento la presencia de elementos

auxiliares. Para limitar la corriente que atraviesa el tubo de descarga utilizan el balasto y para el

encendido existen varias posibilidades que se pueden resumir en arranque con cebador o sin él.

En el primer caso, el cebador se utiliza para calentar los electrodos antes de someterlos a la

tensión de arranque. En el segundo caso tenemos las lámparas de arranque rápido en las que se

calientan continuamente los electrodos y las de arranque instantáneo en que la ignición se

consigue aplicando una tensión elevada.

Más modernamente han aparecido las lámparas fluorescentes compactas que llevan incorporado

el balasto y el cebador. Son lámparas pequeñas con casquillo de rosca o bayoneta pensadas para

sustituir a las lámparas incandescentes con ahorros de hasta el 70% de energía y unas buenas

prestaciones.

Lámparas de vapor de mercurio a alta presión

A medida que aumentamos la presión del vapor de mercurio en el interior del tubo de descarga,

la radiación ultravioleta característica de la lámpara a baja presión pierde importancia respecto a

Page 125: Física de la visión (Teoría y Prácticas)

17

las emisiones en la zona visible (violeta de 404.7 nm, azul 435.8 nm, verde 546.1 nm y amarillo

579 nm).

Espectro de emisión sin corregir

En estas condiciones la luz emitida, de color azul verdoso, no contiene radiaciones rojas. Para

resolver este problema se acostumbra a añadir sustancias fluorescentes que emitan en esta zona

del espectro. De esta manera se mejoran las características cromáticas de la lámpara. La

temperatura de color se mueve entre 3500 y 4500 K con índices de rendimiento en color de 40 a

45 normalmente. La vida útil, teniendo en cuenta la depreciación se establece en unas 8000

horas. La eficacia oscila entre 40 y 60 lm/W y aumenta con la potencia, aunque para una misma

potencia es posible incrementar la eficacia añadiendo un recubrimiento de polvos fosforescentes

que conviertan la luz ultravioleta en visible.

Balance energético de una lámpara de mercurio a alta presión

Los modelo más habituales de estas lámparas tienen una tensión de encendido entre 150 y 180

V que permite conectarlas a la red de 220 V sin necesidad de elementos auxiliares. Para

encenderlas se recurre a un electrodo auxiliar próximo a uno de los electrodos principales que

ioniza el gas inerte contenido en el tubo y facilita el inicio de la descarga entre los electrodos

principales. A continuación se inicia un periodo transitorio de unos cuatro minutos,

caracterizado porque la luz pasa de un tono violeta a blanco azulado, en el que se produce la

vaporización del mercurio y un incremento progresivo de la presión del vapor y el flujo

luminoso hasta alcanzar los valores normales. Si en estos momentos se apagara la lámpara no

sería posible su reencendido hasta que se enfriara, puesto que la alta presión del mercurio haría

necesaria una tensión de ruptura muy alta.

Page 126: Física de la visión (Teoría y Prácticas)

18

Lámpara de mercurio a alta presión

Lámparas de luz de mezcla

Las lámparas de luz de mezcla son una combinación de una lámpara de mercurio a alta presión

con una lámpara incandescente y , habitualmente, un recubrimiento fosforescente. El resultado

de esta mezcla es la superposición, al espectro del mercurio, del espectro continuo característico

de la lámpara incandescente y las radiaciones rojas provenientes de la fosforescencia.

Espectro de emisión de una lámpara de luz de mezcla

Su eficacia se sitúa entre 20 y 60 lm/W y es el resultado de la combinación de la eficacia de una

lámpara incandescente con la de una lámpara de descarga. Estas lámparas ofrecen una buena

reproducción del color con un rendimiento en color de 60 y una temperatura de color de 3600 K.

La duración viene limitada por el tiempo de vida del filamento que es la principal causa de fallo.

Respecto a la depreciación del flujo hay que considerar dos causas. Por un lado tenemos el

ennegrecimiento de la ampolla por culpa del wolframio evaporado y por otro la pérdida de

eficacia de los polvos fosforescentes. En general, la vida media se sitúa en torno a las 6000

horas.

Page 127: Física de la visión (Teoría y Prácticas)

19

Lámpara de luz de mezcla

Una particularidad de estas lámparas es que no necesitan balasto ya que el propio filamento

actúa como estabilizador de la corriente. Esto las hace adecuadas para sustituir las lámparas

incandescentes sin necesidad de modificar las instalaciones.

Lámparas con halogenuros metálicos

Si añadimos en el tubo de descarga yoduros metálicos (sodio, talio, indio...) se consigue mejorar

considerablemente la capacidad de reproducir el color de la lámpara de vapor de mercurio. Cada

una de estas sustancias aporta nuevas líneas al espectro (por ejemplo amarillo el sodio, verde el

talio y rojo y azul el indio).

Espectro de emisión de una lámpara con halogenuros metálicos

Los resultados de estas aportaciones son una temperatura de color de 3000 a 6000 K

dependiendo de los yoduros añadidos y un rendimiento del color de entre 65 y 85. La eficiencia

de estas lámparas ronda entre los 60 y 96 lm/W y su vida media es de unas 10000 horas. Tienen

un periodo de encendido de unos diez minutos, que es el tiempo necesario hasta que se

estabiliza la descarga. Para su funcionamiento es necesario un dispositivo especial de

encendido, puesto que las tensiones de arranque son muy elevadas (1500-5000 V).

Page 128: Física de la visión (Teoría y Prácticas)

20

Lámpara con halogenuros metálicos

Las excelentes prestaciones cromáticas la hacen adecuada entre otras para la iluminación de

instalaciones deportivas, para retransmisiones de TV, estudios de cine, proyectores, etc.

Lámparas de vapor de sodio

Lámparas de vapor de sodio a baja presión

La descarga eléctrica en un tubo con vapor de sodio a baja presión produce una radiación

monocromática característica formada por dos rayas en el espectro (589 nm y 589.6 nm) muy

próximas entre sí.

Espectro de una lámpara de vapor de sodio a baja presión

La radiación emitida, de color amarillo, está muy próxima al máximo de sensibilidad del ojo

humano (555 nm). Por ello, la eficacia de estas lámparas es muy elevada (entre 160 y 180

lm/W). Otras ventajas que ofrece es que permite una gran comodidad y agudeza visual, además

de una buena percepción de contrastes. Por contra, su monocromatismo hace que la

reproducción de colores y el rendimiento en color sean muy malos haciendo imposible

distinguir los colores de los objetos.

Page 129: Física de la visión (Teoría y Prácticas)

21

Balance energético de una lámpara de vapor de sodio a baja presión

La vida media de estas lámparas es muy elevada, de unas 15000 horas y la depreciación de flujo

luminoso que sufren a lo largo de su vida es muy baja por lo que su vida útil es de entre 6000 y

8000 horas. Esto junto a su alta eficiencia y las ventajas visuales que ofrece la hacen muy

adecuada para usos de alumbrado público, aunque también se utiliza con finalidades

decorativas. En cuanto al final de su vida útil, este se produce por agotamiento de la sustancia

emisora de electrones como ocurre en otras lámparas de descarga. Aunque también se puede

producir por deterioro del tubo de descarga o de la ampolla exterior.

Lámpara de vapor de sodio a baja presión

En estas lámparas el tubo de descarga tiene forma de U para disminuir las pérdidas por calor y

reducir el tamaño de la lámpara. Está elaborado de materiales muy resistentes pues el sodio es

muy corrosivo y se le practican unas pequeñas hendiduras para facilitar la concentración del

sodio y que se vaporice a la temperatura menor posible. El tubo está encerrado en una ampolla

en la que se ha practicado el vacío con objeto de aumentar el aislamiento térmico. De esta

manera se ayuda a mantener la elevada temperatura de funcionamiento necesaria en la pared del

tubo (270 ºC).

El tiempo de arranque de una lámpara de este tipo es de unos diez minutos. Es el tiempo

necesario desde que se inicia la descarga en el tubo en una mezcla de gases inertes (neón y

argón) hasta que se vaporiza todo el sodio y comienza a emitir luz. Físicamente esto se

corresponde a pasar de una luz roja (propia del neón) a la amarilla característica del sodio. Se

procede así para reducir la tensión de encendido.

Lámparas de vapor de sodio a alta presión

Las lámparas de vapor de sodio a alta presión tienen una distribución espectral que abarca casi

todo el espectro visible proporcionando una luz blanca dorada mucho más agradable que la

proporcionada por las lámparas de baja presión.

Page 130: Física de la visión (Teoría y Prácticas)

22

Espectro de una lámpara de vapor de sodio a alta presión

Las consecuencias de esto es que tienen un rendimiento en color (Tcolor= 2100 K) y capacidad

para reproducir los colores mucho mejores que la de las lámparas a baja presión (IRC = 25,

aunque hay modelos de 65 y 80 ). No obstante, esto se consigue a base de sacrificar eficacia;

aunque su valor que ronda los 130 lm/W sigue siendo un valor alto comparado con los de otros

tipos de lámparas.

Balance energético de una lámpara de vapor de sodio a alta presión

La vida media de este tipo de lámparas ronda las 20000 horas y su vida útil entre 8000 y 12000

horas. Entre las causas que limitan la duración de la lámpara, además de mencionar la

depreciación del flujo tenemos que hablar del fallo por fugas en el tubo de descarga y del

incremento progresivo de la tensión de encendido necesaria hasta niveles que impiden su

correcto funcionamiento.

Las condiciones de funcionamiento son muy exigentes debido a las altas temperaturas (1000

ºC), la presión y las agresiones químicas producidas por el sodio que debe soportar el tubo de

descarga. En su interior hay una mezcla de sodio, vapor de mercurio que actúa como

amortiguador de la descarga y xenón que sirve para facilitar el arranque y reducir las pérdidas

térmicas. El tubo está rodeado por una ampolla en la que se ha hecho el vacío. La tensión de

encendido de estas lámparas es muy elevada y su tiempo de arranque es muy breve.

Page 131: Física de la visión (Teoría y Prácticas)

23

Lámpara de vapor de sodio a alta presión

Este tipo de lámparas tienen muchos usos posibles tanto en iluminación de interiores como de

exteriores. Algunos ejemplos son en iluminación de naves industriales, alumbrado público o

iluminación decorativa.

Page 132: Física de la visión (Teoría y Prácticas)

24

Las luminarias son aparatos que sirven de soporte y conexión a la red eléctrica a las lámparas.

Como esto no basta para que cumplan eficientemente su función, es necesario que cumplan una

serie de características ópticas, mecánicas y eléctricas entre otras.

A nivel de óptica, la luminaria es responsable del control y la distribución de la luz emitida por

la lámpara. Es importante, pues, que en el diseño de su sistema óptico se cuide la forma y

distribución de la luz, el rendimiento del conjunto lámpara-luminaria y el deslumbramiento que

pueda provocar en los usuarios. Otros requisitos que debe cumplir las luminarias es que sean de

fácil instalación y mantenimiento. Para ello, los materiales empleados en su construcción han de

ser los adecuados para resistir el ambiente en que deba trabajar la luminaria y mantener la

temperatura de la lámpara dentro de los límites de funcionamiento. Todo esto sin perder de vista

aspectos no menos importantes como la economía o la estética.

Clasificación

Las luminarias pueden clasificarse de muchas maneras aunque lo más común es utilizar criterios

ópticos, mecánicos o eléctricos.

Clasificación según las características ópticas de la lámpara

Una primera manera de clasificar las luminarias es según el porcentaje del flujo luminoso

emitido por encima y por debajo del plano horizontal que atraviesa la lámpara. Es decir,

dependiendo de la cantidad de luz que ilumine hacia el techo o al suelo. Según esta clasificación

se distinguen seis clases.

Directa

Semi-directa

General difusa

Directa-indirecta

Page 133: Física de la visión (Teoría y Prácticas)

25

Semi-directa

Indirecta

Clasificación CIE según la distribución de la luz

Otra clasificación posible es atendiendo al número de planos de simetría que tenga el sólido

fotométrico. Así, podemos tener luminarias con simetría de revolución que tienen infinitos

planos de simetría y por tanto nos basta con uno de ellos para conocer lo que pasa en el resto de

planos (por ejemplo un proyector o una lámpara tipo globo), con dos planos de simetría

(transversal y longitudinal) como los fluorescentes y con un plano de simetría (el longitudinal)

como ocurre en las luminarias de alumbrado viario.

Luminaria con infinitos planos de simetría

Luminaria con dos planos de simetría

Luminaria con un plano de simetría

Para las luminarias destinadas al alumbrado público se utilizan otras clasificaciones.

Clasificación según las características mecánicas de la lámpara

Las luminarias se clasifican según el grado de protección contra el polvo, los líquidos y los

golpes. En estas clasificaciones, según las normas nacionales (UNE 20324) e internacionales,

las luminarias se designan por las letras IP seguidas de tres dígitos. El primer número va de 0

(sin protección) a 6 (máxima protección) e indica la protección contra la entrada de polvo y

cuerpos sólidos en la luminaria. El segundo va de 0 a 8 e indica el grado de protección contra la

penetración de líquidos. Por último, el tercero da el grado de resistencia a los choques.

Clasificación según las características eléctricas de la lámpara

Page 134: Física de la visión (Teoría y Prácticas)

26

Según el grado de protección eléctrica que ofrezcan las luminarias se dividen en cuatro clases

(0, I, II, III).

Clase Protección eléctrica

0 Aislamiento normal sin toma de tierra

I Aislamiento normal y toma de tierra

II Doble aislamiento sin toma de tierra.

III Luminarias para conectar a circuitos de muy baja tensión, sin otros circuitos internos o externos que operen a otras tensiones distintas a la mencionada.

Otras clasificaciones

Otras clasificaciones posibles son según la aplicación a la que esté destinada la luminaria

(alumbrado viario, alumbrado peatonal, proyección, industrial, comercial, oficinas, doméstico...)

o según el tipo de lámparas empleado (para lámparas incandescentes o fluorescentes).

Page 135: Física de la visión (Teoría y Prácticas)

1

Contrariamente a lo que se pueda pensar, detrás de los cálculos y recomendaciones sobre alumbrado de vías públicas existe un importante desarrollo teórico sobre diferentes temas (pavimentos, deslumbramiento, confort visual, etc.). Afortunadamente, hoy día estos cálculos están muy mecanizados y no es necesario tener profundos conocimientos en la materia para realizarlos. No obstante, es recomendable tener nociones de algunos de ellos para comprender mejor la mecánica de cálculo. Así tras estudiar algunos conceptos previos de iluminación, veremos soluciones prácticas de alumbrado viario y los niveles de iluminación recomendados.

Iluminancia

La iluminancia indica la cantidad de luz que llega a una superficie y se define como el flujo luminoso recibido por unidad de superficie:

Si la expresamos en función de la intensidad luminosa nos queda como:

donde I es la intensidad recibida por el punto P en la dirección definida por el par de ángulos (C, ) y h la altura del foco luminoso. Si el punto está iluminado por más de una lámpara, la iluminancia total recibida es entonces:

Luminancia

La luminancia, por contra, es una medida de la luz que llega a los ojos procedente de los objetos y es la responsable de excitar la retina provocando la visión. Esta luz proviene de la reflexión que sufre la iluminancia cuando incide sobre los cuerpos. Se puede definir, pues, como la porción de intensidad luminosa por unidad de superficie que es reflejada por la calzada en dirección al ojo.

Page 136: Física de la visión (Teoría y Prácticas)

2

L = q( , ) · EH

donde q es el coeficiente de luminancia en el punto P que depende básicamente del ángulo de incidencia y del ángulo entre el plano de incidencia y el de observación . El efecto del ángulo de observación es despreciable para la mayoría de conductores (automovilistas con campo visual entre 60 y 160 m por delante y una altura de 1,5 m sobre el suelo) y no se tiene en cuenta. Así pues, nos queda:

Por comodidad de cálculo, se define el termino:

Quedando finalmente:

Y si el punto está iluminado por más de una lámpara, resulta:

Los valores de r( , ) se encuentran tabulados o incorporados a programas de cálculo y dependen de las características de los pavimentos utilizados en la vía.

Criterios de calidad

Para determinar si una instalación es adecuada y cumple con todos los requisitos de seguridad y visibilidad necesarios se establecen una serie de parámetros que sirven como criterios de calidad. Son la luminancia media (Lm, LAV), los coeficientes de uniformidad (U0, UL), el deslumbramiento (TI y G) y el coeficiente de iluminación de los alrededores (SR).

Coeficientes de uniformidad

Page 137: Física de la visión (Teoría y Prácticas)

3

Como criterios de calidad y evaluación de la uniformidad de la iluminación en la vía se analizan el rendimiento visual en términos del coeficiente global de uniformidad U0 y la comodidad visual mediante el coeficiente longitudinal de uniformidad UL (medido a lo largo de la línea central).

U0 = Lmin / Lm UL = Lmin / Lmax

Deslumbramiento

El deslumbramiento producido por las farolas o los reflejos en la calzada, es un problema considerable por sus posibles repercusiones. En sí mismo, no es más que una sensación molesta que dificulta la visión pudiendo, en casos extremos, llegar a provocar ceguera transitoria. Se hace necesario, por tanto, cuantificar este fenómeno y establecer unos criterios de calidad que eviten estas situaciones peligrosas para los usuarios.

Se llama deslumbramiento molesto a aquella sensación desagradable que sufrimos cuando la luz que llega a nuestros ojos es demasiado intensa. Este fenómeno se evalúa de acuerdo a una escala numérica, obtenida de estudios estadísticos, que va del deslumbramiento insoportable al inapreciable.

G Deslumbramiento Evaluación del alumbrado

1 Insoportable Malo

3 Molesto Inadecuado

5 Admisible Regular

7 Satisfactorio Bueno

9 Inapreciable Excelente

Donde la fórmula de G se calcula a partir de características de la luminaria y la instalación.

Actualmente no se utiliza mucho porque se considera que siempre que no se excedan los límites del deslumbramiento perturbador este está bajo control.

El deslumbramiento perturbador se produce por la aparición de un velo luminoso que provoca una visión borrosa, sin nitidez y con poco contraste, que desaparece al cesar su causa. No obstante, este fenómeno no lleva necesariamente asociado una sensación incómoda como el deslumbramiento molesto. Para evaluar la pérdida de visión se utiliza el criterio del incremento de umbral (TI) expresado en tanto por ciento:

donde Lv es la luminancia de velo equivalente y Lm es la luminancia media de la calzada.

Coeficiente de iluminación en los alrededores

El coeficiente de iluminación en los alrededores (Surround Ratio, SR) es una medida de la iluminación en las zonas limítrofes de la vía. De esta manera se asegura que los objetos, vehículos o peatones que se encuentren allí sean visibles para los

Page 138: Física de la visión (Teoría y Prácticas)

4

conductores. SR se obtiene calculando la iluminacia media de una franja de 5 m de ancho a cada lado de la calzada.

Lámparas y luminarias

Las lámparas son los aparatos encargados de generar la luz. En la actualidad, en alumbrado público se utilizan las lámparas de descarga frente a las lámparas incandescentes por sus mejores prestaciones y mayor ahorro energético y económico. Concretamente, se emplean las lámparas de vapor de mercurio a alta presión y las de vapor de sodio a baja y alta presión.

Las luminarias , por contra, son aparatos destinados a alojar, soportar y proteger la lámpara y sus elementos auxiliares además de concentrar y dirigir el flujo luminoso de esta. Para ello, adoptan diversas formas aunque en alumbrado público predominan las de flujo asimétrico con las que se consigue una mayor superficie iluminada sobre la calzada. Las podemos encontrar montadas sobre postes, columnas o suspendidas sobre cables transversales a la calzada, en catenarias colgadas a lo largo de la vía o como proyectores en plazas y cruces.

Antiguamente las luminarias se clasificaban según las denominaciones cut-off, semi cut-off y non cut-off.

Máximo valor permitido de la intensidad emitida

para un ángulo de elevación Dirección de la intensidad máxima

80 º 90 º

Cut -off 30 cd /1000 lm 10 cd /1000 lm 65 º

Semi cut-off 100 cd /1000 lm 50 cd /1000 lm 75 º

Non cut -off > 100 cd /1000 lm > 50 cd /1000 lm 90º

Clasificación para luminarias de alumbrado público (CIE 1965)

En la actualidad, las luminarias se clasifican según tres parámetros (alcance, dispersión y control) que dependen de sus características fotométricas. Los dos primeros nos informan sobre la distancia en que es capaz de iluminar la luminaria en las direcciones longitudinal y transversal respectivamente. Mientras, el control nos da una idea sobre el deslumbramiento que produce la luminaria a los usuarios.

El alcance es la distancia, determinada por el ángulo , en que la luminaria es capaz de iluminar la calzada en dirección longitudinal. Este ángulo se calcula como el valor medio entre los dos ángulos correspondientes al 90% de IMAX que corresponden al plano donde la luminaria presenta el máximo de la intensidad luminosa.

Page 139: Física de la visión (Teoría y Prácticas)

5

Alcance longitudinal

Alcance corto < 60º

Alcance intermedio

60º 70º

Alcance largo > 70º

La dispersión es la distancia, determinada por el ángulo , en que es capaz de iluminar la luminaria en dirección transversal a la calzada. Se define como la recta tangente a la curva isocandela del 90% de IMAX proyectada sobre la calzada, que es paralela al eje de esta y se encuentra más alejada de la luminaria.

Dispersión transversal

Dispersión estrecha < 45º

Dispersión media 45º 55º

Dispersión ancha > 55º

Tanto el alcance como la dispersión pueden calcularse gráficamente a partir del diagrama isocandela relativo en proyección azimutal.

Alcance y dispersión de una

luminaria

Método gráfico para calcular el alcance y la dispersión

Por último, el control nos da una idea de la capacidad de la luminaria para limitar el deslumbramiento que produce.

Page 140: Física de la visión (Teoría y Prácticas)

6

Control limitado SLI < 2

Control medio 2 SLI 4

Control intenso SLI > 4

Donde la fórmula del SLI (índice específico de la luminaria) se calcula a a partir de las características de esta.

Disposición de las luminarias en la vía

Para conseguir una buena iluminación, no basta con realizar los cálculos, debe proporcionarse información extra que oriente y advierta al conductor con suficiente antelación de las características y trazado de la vía. Así en curvas es recomendable situar las farolas en la exterior de la misma, en autopistas de varias calzadas ponerlas en la mediana o cambiar el color de las lámparas en las salidas.

En los tramos rectos de vías con una única calzada existen tres disposiciones básicas: unilateral, bilateral tresbolillo y bilateral pareada. También es posible suspender la luminaria de un cable transversal pero sólo se usa en calles muy estrechas.

La distribución unilateral se recomienda si la anchura de la vía es menor que la altura de montaje de las luminarias. La bilateral tresbolillo si está comprendida entre 1 y 1.5 veces la altura de montaje y la bilateral pareada si es mayor de 1.5.

Relación entre la anchura de la vía y la altura de montaje

Unilateral A/H < 1

Tresbolillo 1 A/H 1.5

Pareada A/H > 1.5

Suspendida Calles muy estrechas

En el caso de tramos rectos de vías con dos o más calzadas separadas por una mediana se pueden colocar las luminarias sobre la mediana o considerar las dos calzadas de forma independiente. Si la mediana es estrecha se pueden colocar farolas de doble brazo que dan una buena orientación visual y tienen muchas ventajas constructivas y de instalación por su simplicidad. Si la mediana es muy ancha es preferible tratar las calzadas de forma separada. Pueden combinarse los brazos dobles con la disposición al tresbolillo o aplicar iluminación unilateral en cada una de ellas. En este último caso es recomendable poner las luminarias en el lado contrario a la mediana porque de esta forma incitamos al usuario a circular por el carril de la derecha.

Page 141: Física de la visión (Teoría y Prácticas)

7

En tramos curvos las reglas a seguir son proporcionar una buena orientación visual y hacer menor la separación entre las luminarias cuanto menor sea el radio de la curva. Si la curvatura es grande (R>300 m) se considerará como un tramo recto. Si es pequeña y la anchura de la vía es menor de 1.5 veces la altura de las luminarias se adoptará una disposición unilateral por el lado exterior de la curva. En el caso contrario se recurrirá a una disposición bilateral pareada, nunca tresbolillo pues no informa sobre el trazado de la carretera.

R > 300 m Asimilar a un tramo recto

R < 300 m A/H < 1.5 Unilateral exterior

A/H > 1.5 Bilateral pareada

En cruces conviene que el nivel de iluminación sea superior al de las vías que confluyen en él para mejorar la visibilidad. Asimismo, es recomendable situar las farolas en el lado derecho de la calzada y después del cruce. Si tiene forma de T hay que poner una luminaria al final de la calle que termina. En la salidas de autopistas conviene colocar luces de distinto color al de la vía principal para destacarlas. En cruces y bifurcaciones complicados es mejor recurrir a iluminación con proyectores situados en postes altos, más de 20 m, pues desorienta menos al conductor y proporciona una iluminación agradable y uniforme.

Page 142: Física de la visión (Teoría y Prácticas)

8

En las plazas y glorietas se instalarán luminarias en el borde exterior de estas para que iluminen los accesos y salidas. La altura de los postes y el nivel de iluminación será por lo menos igual al de la calle más importante que desemboque en ella. Además, se pondrán luces en las vías de acceso para que los vehículos vean a los peatones que crucen cuando abandonen la plaza. Si son pequeñas y el terraplén central no es muy grande ni tiene arbolado se puede iluminar con un poste alto multibrazo. En otros casos es mejor situar las luminarias en el borde del terraplén en las prolongaciones de las calles que desemboca en esta.

En los pasos de peatones las luminarias se colocarán antes de estos según el sentido de la marcha de tal manera que sea bien visible tanto por los peatones como por los conductores.

Por último, hay que considerar la presencia de árboles en la vía . Si estos son altos, de unos 8 a 10 metros, las luminarias se situarán a su misma altura. Pero si son pequeños las farolas usadas serán más altas que estos, de 12 a 15 m de altura. En ambos casos es recomendable una poda periódica de los árboles.

Page 143: Física de la visión (Teoría y Prácticas)

9

Niveles de iluminación recomendados

Los niveles de iluminación recomendados dependen de las normativas en vigor en cada territorio, aunque muchas de ellas toman como referencia los valores aconsejados por la CIE. Según esta, las vías se dividen en cinco tipos de acuerdo con las características del tráfico, de la vía y de los alrededores.

Tipo de vía Entorno Categoría Luminancia media Lm

(cd/m 2)

Coeficientes de uniformidad

Control del deslumbramiento

Global U0

Longitudinal UL Molesto G Perturbador TI

A A 2

0.4

0.7

6

10 % B

Claro B1 2 5

Oscuro B2 1 6

C Claro C1 2

0.5

5 20 %

Oscuro C2 1 6 10 %

D Claro D 2 4

20 % E

Claro E1 1 4

Oscuro E2 0.5 5

Valores recomendados por la CIE (1977)

Los valores indicados en la tabla son luminancias, no iluminancias, pues recordemos que son estas las responsables de provocar la sensación de visión.

A partir de 1995 la CIE ha establecido unas nuevas recomendaciones más acordes con las últimas investigaciones sobre el tema.

Categoría Luminancia media Lm (cd/m 2 )

Coeficientes de uniformidad Control

del deslumbramiento TI

Alrededores SR Global

U0 Perturbador

TI

M1 2.00

0.4

0.7 10 0.5 M2 1.50

M3 1.00 0.5

M4 0.75 --- 15 ---

M5 0.50

Valores recomendados por la CIE (1995)

Además de estas recomendaciones que se aplican en los tramos normales de las vías hay que considerar que en las zonas conflictivas (cruces, intersecciones, estrechamiento de la vía o del número de carriles, zonas con circulación de peatones o vehículos lentos que dificulten la circulación, rotondas, pasos a nivel, rampas, etc.) suele ser necesario un incremento de los requerimientos luminosos.

Si trabajamos con luminancias hay que aumentar en una unidad la categoría de la vía de valor de Mx más alta que converja en la zona. Cuando sea del tipo M1 a dicha zona también se aplicará este criterio.

Page 144: Física de la visión (Teoría y Prácticas)

10

En distancias cortas, menos de 60 m, no se pueden aplicar los métodos de cálculos de las luminancias y se utiliza el criterio de las iluminancias.

Categoría Nivel medio iluminancia E m (lux)

Coef global uniformidad U 0

C0 50

0.4

C1 30

C2 20

C3 15

C4 10

C5 7.5

El número de la categoría de la zona de conflicto (Cx) no será menor que el de la la vía de mayor categoría (Mx) que confluya en la zona.

Page 145: Física de la visión (Teoría y Prácticas)

BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.

TEMA V: Sistemas de adquisición de imágenes.

5.1. Arquitectura de un sistema de visión artificial 1

5.1.1. Procesos realizados en un sistema de adquisición de imágenes 1

a) Etapa de adquisición 1

b) Etapa de filtrado o preprocesado 2

c) Etapa de segmentación o aislamiento de objetos de interés 2

d) Etapa de extracción y selección de características 3

e) Etapa de reconocimiento de formas e inteligencia artificial 3

5.2. Sensores de imagen 5

5.2.1. Estructura general de los dispositivos CCD y CMOS 7

5.2.2. Estructura de los dispositivos CCD 8

5.2.3. Estructura de los dispositivos CMOS 8

5.2.4. Dispositivos CCD Vs CMOS 8

5.3. Características de los dispositivos CCD matriciales 9

5.4. Tarjetas de adquisición 11

5.4.1. Parámetros principales de una tarjetas de adquisición 12

5.4.2. Mecanismo de la ganancia en una tarjeta de adquisición 13

5.5. Bibliografía 14

Page 146: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

1

5.1. Arquitectura de un sistema de visión artificial.

Un Sistema de Visión Artificial se trata de aquel concepto donde se mantienen

unidas nociones de visión y de computadores. Mediante un proceso de extracción

fotográfico somos capaces de obtener información a partir de unas determinadas

imágenes del mundo físico. A través de estas imágenes, logramos capturar las

principales características de los objetos que deseamos analizar hasta el punto de llegar

a definirlos casi en su totalidad.

Figura 5.1. Arquitectura general de un sistema de adquisición de imágenes.

5.1.1. Procesos realizados en un sistema de adquisición de imágenes.

La operación básica en los sistemas de adquisición de imágenes es la

especificación de la intensidad (o color) de la imagen en un arreglo regular de puntos en

el espacio. Los procesos que realiza un sistema de estas características son

principalmente los siguientes:

a) Proceso de adquisición de imágenes.

Generalmente, dichos sistemas están equipados con un sensor visual (cámaras

CCD o CMOS) a partir de cuál creamos la instantánea del objeto a investigar. Mediante

un proceso eléctrico, la información luminosa obtenida

pasará a través la tarjeta de adquisición para, finalmente,

almacenarse en el disco duro del computador. La tarjeta de

adquisición realiza siempre el proceso de transcribir la

información al código binario transformando así, nuestra

señal analógica en discreta (o digital). Con la tarjeta de

adquisición conseguimos, además, adaptar la imagen a una

serie de reglas de normalización. De esta manera, logramos

darle a nuestra imagen un carácter regularizado para que, si deseamos emplearlo en otro

sistema compatible con el nuestro, nuestra imagen también sea válida.

Tarjeta de adquisición Monitor analógico

Información

analógica Sensor visual

Información

digital

Figura 5.2. Cámara CCD

BUS

Computador Consola

Page 147: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

2

Con ello, conseguimos eliminar barreras de compatibilidad con otras compañías

de cámaras y demás. Por esta razón entre otras, es por lo que no conectamos

directamente la cámara a la CPU si no que entre ambas está la tarjeta de adquisición

para conseguir así extender el uso de la imagen obtenida.

b) Etapa de filtrado o pre-procesado.

En algunos sistemas, se incluye también un conjunto accesorios (como es el

monitor analógico) mediante los cuales conocemos los resultados antes de que se

almacenen en el disco duro. Por tanto, si no nos interesa la imagen obtenida (ya sea por

un fallo de iluminación, abundancia de ruido u otras razones) la rechazamos antes de

emplear memoria de la CPU.

Cuando se adquiere una imagen mediante cualquier sistema de captura, a

menudo ésta no es utilizable directamente por el sistema de visión. La aparición de

variaciones en intensidad debidas al ruido, por deficiencias en la iluminación, o la

obtención de imágenes de bajo contraste hace necesario un preproceso de la imagen con

el objetivo fundamental de corregir estos problemas, además de aplicar aquellas

transformaciones a la imagen que acentúen las características que se deseen extraer de

las mismas, de forma que se facilite las operaciones de las etapas posteriores.

Pertenecen a este campo las técnicas de transformaciones geométricas, las basadas en el

histograma, el filtrado espacial y el filtrado frecuencial. Aunque existen líneas de

investigación abiertas, no es el campo más activo en ese sentido, y las técnicas

existentes son bastante útiles para la mayoría de las aplicaciones. Algunas de las

técnicas más habituales son:

• Conversión de los niveles de gris: Su objetivo es la mejora de la calidad de la

imagen. Se han desarrollado empleando teorías de la psicología visual humana y

modelos de los dispositivos físicos de adquisición de imágenes. Su aplicación se

centra en el procesamiento con “observador humano”.

• Transformaciones geométricas: Los objetivos de éstas son la corrección de la

perspectiva y la reconstrucción tridimensional de los objetos de la escena.

• Transformación del histograma: Las transformaciones del histograma pueden

facilitar la segmentación de objetos de la imagen, aunque habitualmente solo

sirve para modificar el contraste de la imagen y el margen dinámico de los

niveles de gris.

• Filtrado espacial y frecuencial: Dado que pueden suponer una importante

modificación de la imagen original, habitualmente solo se consideran filtrados

aquellas operaciones realizadas en el dominio espacial o frecuencial que

suponen transformaciones pequeñas de la imagen original.

c) Etapa de segmentación o aislamiento de objetos de interés.

Cuando ya se dispone de la imagen capturada y filtrada, es necesario aislar o

separar los objetos de interés de la escena. Se pretende por tanto dividir una imagen en

diferentes regiones o, dicho de otra forma, detectar automáticamente los bordes entre los

elementos o regiones.

Las operaciones de segmentación de una escena dependen de la propia escena y

de la información que se busque dentro de la imagen.

Page 148: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

3

Por ejemplo, en fotografía aérea se utiliza para separar regiones pobladas,

agrícolas, bosques, aguas, etc. En imagen médica se usa para aislar zonas enfermas de

los órganos, o para detectar y contar microorganismos en microscopía. Industrialmente,

se usa como primer paso para la medición de piezas, para determinar la correcta

disposición del etiquetado de los envases (aislar el envase, aislar la etiqueta, determinar

si la relación entre estos dos objetos es correcta), para la medición de irregularidades en

superficies homogéneas, para la detección de cambios de texturas, en las que el sistema

ha de determinar si es un defecto o no lo es, etc. Las técnicas básicas de segmentación

se pueden dividir en tres grupos:

• Aplicación de umbrales de nivel de gris.

• Agrupación por rasgos comunes.

• Extracción de bordes.

No obstante, la segmentación de imágenes es una temática actual de

investigación y se han definido numerosos métodos diseñados para aplicaciones

particulares. No obstante, no hay métodos que sean útiles en una amplia variedad de

situaciones, por lo que cada problema necesita la adaptación o desarrollo de nuevas

técnicas.

d) Etapa de extracción y selección de características.

Con los objetos a estudiar ya definidos, es necesario extraer una serie de

medidas que los caractericen adecuadamente, en forma de vector de características.

Como norma general, para la elección de las características se intenta que:

• Sean discriminantes, es decir, tengan valores numéricos diferentes para clases

diferentes.

• Sean fiables, es decir, tengan valores parecidos dentro de una misma clase.

• Estén incorreladas, es decir, obtener la misma información con el mínimo

número de características.

• Se calculen en un tiempo aceptable, de forma que sea utilizable en problemas de

tiempo real.

Dado que las características relevantes son a menudo desconocidas a priori,

habitualmente se introducen muchas características candidatas para intentar representar

mejor las clases, aún cuando muchas de ellas puedan ser parcial o completamente

redundantes o irrelevantes. No obstante, existen unas técnicas para mejorar las

prestaciones del conjunto de características escogido inicialmente. Estas están

íntimamente ligadas al reconocimiento de formas en su etapa de diseño del clasificador. e) Etapa reconocimiento de formas e inteligencia artificial.

Normalmente, la visión artificial se utiliza para tomar decisiones a partir de la

información proporcionada por el sistema de adquisición de imágenes y las

transformaciones y operaciones realizadas con ellas. La información extraída se puede

considerar como un vector que recoge las características o rasgos diferenciadores de la

imagen analizada. En el caso de que se trate de una aplicación de medición, este vector

recoge todas aquellas medidas que se deseaban obtener.

Page 149: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

4

En aplicaciones de inspección y, sobre todo, en aplicaciones de clasificación,

este vector es el conjunto de datos con los que ha de trabajar un reconocedor o

clasificador encargado de extraer las conclusiones posibles a partir del vector de

entrada. Para el diseño del clasificador es necesaria una etapa de selección de

características y una etapa de aprendizaje o entrenamiento. Generalmente, se usa el

propio clasificador como evaluador del conjunto de características en prueba dado que

es el método que proporciona la mayor fiabilidad, aunque sea el más costoso

temporalmente y de menor generalidad o capacidad de aplicación del clasificador a

otros problemas. Respecto a los métodos clásicos de búsqueda secuencial, actualmente

uno de los campos de investigación abiertos es el uso de algoritmos genéticos para la

selección en paralelo de las características.

En el reconocimiento de formas aplicado a la visión artificial se utilizan técnicas

de reconocimiento geométrico de formas, como el aprendizaje supervisado (se conoce la

clase a la que pertenece cada vector) en condiciones estadísticas o algoritmos de

clasificación no supervisados o clustering y, además, las redes neuronales, siendo éstas

últimas especialmente interesantes por su capacidad de aprendizaje adaptativo. Existen

numerosos algoritmos para cada una de estas técnicas y se investiga ampliamente el

desarrollo de nuevos algoritmos e implementaciones hardware de éstos. El problema

fundamental de estas técnicas, es que cada una de ellas suele ser la más adecuada para

las características de un tipo específico de problema no conocidas a priori, lo que

dificulta la selección de la técnica con la que se desea abordar inicialmente el problema.

−→

entoReconocimi

Extracción

ónSegmentaci

CPU

Consola

procesadoPrealógicoMonitor an

procesadoEquipo de

nAdquisicióón adquisiciTarjeta de

ualSensor visnadquisicióEquipo de

n adqusicióSistema de

Page 150: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

5

5.2. Sensores de imagen.

Los sensores de imagen son componentes sensibles a la luz que modifican su

señal eléctrica en función de la intensidad luminosa que perciben. La tecnología más

habitual en este tipo de sensores es CCD (Charge Coupled Devices o dispositivos de

acoplamiento de carga) donde se integra en un mismo chip los elementos fotosensibles

y el conjunto de puertas lógicas y circuitería de control asociada. En éstos, la señal

eléctrica que transmiten los fotodiodos es función de la intensidad luminosa que

reciben, su espectro, y el tiempo de integración (tiempo durante el cual los fotodiodos

son sensibles a la luz incidente).

Otra tecnología que está empezando a extenderse son los sensores CMOS

(Complementary Metal Oxide Semiconductor) dadas las ventajas de éstos sobre los

CCD, y la reducción de precios de estos dispositivos.

En cuanto al rango dinámico (rango de amplitud entre los valores máximos y

mínimos que un elemento puede producir, medido en decibelios), se pasa de los 70dB

de los sensores CCD a los 120 dB de los sensores CMOS, valor más cercano a los 200

dB del ojo humano, lo que facilita la autoadaptación en el propio chip al brillo existente

en el entorno, como se puede apreciar en la figura 2.14. El sensor CMOS puede

amplificar de forma individual la respuesta de los píxeles en función de sus respectivas

condiciones de iluminación. El acceso multipíxel permite configurar individualmente

distintos intervalos de tiempo de integración, mejorando la calidad de la imagen

mediante la selección del mejor tiempo de exposición de cada píxel.

(a)

(b)

Figura 5.3. Diferencia de rango dinámico: (a) sensores CCD; (b) sensores CMOS.

Existen diferentes arquitecturas de sensores. En primer lugar están los sensores

lineales. En estos el sensor es una línea de fotodiodos. Esta arquitectura permite la

utilización de sensores de 1 × 1024, 1 × 2048, 1 × 4096 e incluso 1 × 6000 píxeles, lo

que la hace muy adecuada para trabajar con altas resoluciones sobre superficies en

movimiento. Para condiciones de iluminación muy exigentes o velocidades de trabajo

muy altas existe la posibilidad del uso de sensores TDI (Time Delay Integrated). Esta

tecnología consiste en el uso de varias líneas de captura sobre la misma línea del objeto,

con el fin de sumar su carga y obtener así una mayor sensibilidad.

Page 151: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

6

(a) (b) (c)

Figura 5.4. (a) Frame Transfer; (b) Inter-line Transfer; (c) Frame-Inter-line Transfer.

En segundo lugar están los sensores de área. Estos alcanzan resoluciones

habituales de 1024 × 1024, aunque existen en el mercado algunas casas que disponen de

cámaras especiales con resoluciones de hasta 3072 × 2048. En este caso existen dos

tecnologías de adquisición de imágenes, entrelazada y no entrelazada.

El método entrelazado captura las líneas pares e impares que forman una imagen

en instantes de tiempo diferentes. Una vez obtenida la imagen, puede ésta estar formada

a partir de dos formas de campos distintas, dependiendo de la situación de los campos:

Campo IMPAR: La imagen esta formada por las líneas impares de píxeles, es decir, el

campo impar es aquel en el cual aparecen los las filas impares de píxeles.

Campo PAR: La imagen esta formada por las líneas pares de píxeles, es decir, el campo

par es aquel en el cual aparecen los las filas pares de píxeles.

Si unimos tanto el campo impar de una imagen como el campo par, obtenemos

como resultado una imagen entrelazada de ambos, que contiene tanto las líneas (filas)

pares como las impares.

Figura 5.5. La suma de los campos pares e impares resulta una imagen de ambos

campos entrelazados.

PAL EIA

Frecuencia de imágenes 25 Hz 30 Hz

Frecuencia de campos 50 Hz 60 Hz

Número de líneas 625 525

Número de columnas 767 647

Número de elementos 768 × 580 756 × 494

Tabla 5.1. Características de los sistemas PAL y EIA.

Píxel

Page 152: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

7

Figura 5.6. Tensión frente a tiempo en un campo.

La tecnología de no entrelazado (progressive scan) captura todas las líneas en el

mismo instante de tiempo. Es más costoso económicamente, pero indispensable para

trabajar con objetos en movimiento.

Independientemente de la arquitectura utilizada, existen otros aspectos

importantes en estos sensores. La cuantización (conversión Analógica-Digital)

determina el número de bits utilizados para representar la información capturada. Por

ejemplo, usando un sistema blanco y negro de 8 bits tenemos 256 niveles diferentes

mientras que, usando un sistema de 10 bits, obtendríamos 1024 niveles de gris

diferentes, lo que permite una mayor definición.

5.2.1. Estructura general de los dispositivos CCD y CMOS.

Estos dispositivos son muy utilizados dentro del campo del Tratamiento de

Imágenes a nivel industrial y de investigación puesto que, al ser dispositivos

electrónicos, trabajan en tiempo real aportando eficacia y rapidez al proceso de

adquisición.

Figura 5.7. Arquitectura general de un dispositivo fotorreceptor.

Puesto que estas cámaras tienen que transformar la información luminosa en

eléctrica, disponen de un mecanismo mediante el cual se consigue dicha transformación

energética. A partir de unos sensores, la cámara capta la energía luminosa pues éstos

actúan como condensadores o elementos capacitivos (tienen la singularidad de

almacenar en ellos tanta energía eléctrica como energía luminosa reciben). Por tanto,

estos componentes adquieren energía eléctrica en función de los lúxeles que llegan a

ellos obteniendo así una imagen digital en escala de grises. Otro sistema es aquel en el

que sólo los componentes detectan si están cargados o no lo cual implica que la imagen

resultante sea en blanco y negro.

Señal (V)

Tiempo

Pulsos de

sincronismo horizontal

Pulsos de

sincronismo vertical

Intensidad de una

línea

SiO2

Canal n

Sustrato de

tipo P

Page 153: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

8

5.2.2. Estructura de los dispositivos CCD: Charge Coupled Devices.

Este tipo de dispositivo se caracteriza por tener un proceso de detección de luz

en el cual el proceso de conversión se realiza cuando prácticamente la señal luminosa ha

recorrido todo su camino. Los pasos fundamentales que se realizan son los siguientes:

• Transfiere la carga de cada píxel secuencialmente a una estructura de salida común.

• Se convierte la luz a voltaje mediante un conversor determinado en la salida.

• Se envía a la frame grabber.

Figura 5.8. Mecanismo de transmisión de información del dispositivo CCD.

5.2.3. Estructura de los dispositivos CMOS: Complementary Metal Oxide Semiconductor.

Este tipo de dispositivo se caracteriza por tener un proceso de detección de luz

en el cual el proceso de conversión se realiza durante el momento de transitar del píxel

al píxel contiguo. Los pasos fundamentales que se realizan son los siguientes:

• Transfiere la carga de cada píxel secuencialmente a una estructura de salida común.

• Se convierte la luz a voltaje mediante un conversor determinado en cada píxel.

• Se envía a la frame grabber.

Figura 5.9. Mecanismo de transmisión de información del dispositivo CMOS.

5.2.4. Dispositivos CCD Vs CMOS.

CMOS: tiene una integración mayor, menor disipación y tamaño a expensas de

una menor calidad de imagen y menor flexibilidad. Para grandes volúmenes con pocos

requerimientos de calidad es la opción tecnológica. Sus aplicaciones principales son las

cámaras de seguridad, videoconferencias (PC), código de barras, scanners, juguetes,…

CCD: tiene una mejor calidad de imágenes y flexibilidad a expensas de un

mayor tamaño. Sus aplicaciones son en fotografía digital, high-end imaging,

aplicaciones industriales de alta performance, aplicaciones científicas y médicas.

Page 154: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

9

5.3. Características de los dispositivos CCD matriciales.

A continuación, enunciaremos una serie de características de estos dispositivos:

Tiempo de integración: Tiempo necesario para que el sensor se cargue, es decir, tiempo

durante el cual los fotodiodos son sensibles a la luz incidente.

Tiempo de adquisición: Tiempo que se tarda en llegar la información que ha recogido

el fotorreceptor hasta el lugar en el cual se considera adquirida dicha información.

Factor gamma: ¿Cómo nos interesa que sea la respuesta del sensor en relación con el

número de fotones que le llegan? Generalmente, nos importa que la proporción entre

ambas características sea lineal para así poder determinar el voltaje con exactitud. La

relación entre ambas obedece la siguiente ecuación:

( ) φϑϑ γ += kV (1)

donde

• V, es el voltaje en función de los fotones.

• k, es una constante de amplificación.

• ϑ , es la cantidad de energía que aportan los fotones.

• γ, Es el factor de linealidad.

• φ , El ángulo de desfase o desplazamiento.

Figura 5.10. Relación de voltaje en función de los fotones que actúan sobre el sensor.

Sensibilidad absoluta: Se trata el valor mínimo para el cual se comienza a detectar un

nivel de intensidad lumínica, es decir, a partir de este límite, el sensor ya es capaz de

detecta la iluminancia que llega a él.

Sensibilidad relativa: Con este concepto definimos la diferencia entre cambios de

iluminancia, es decir, determina el límite para percibir un cambio de iluminancia de un

nivel al siguiente.

Para el caso del siguiente ejemplo, tenemos que la sensibilidad absoluta es de 10

fotones ya que necesitamos la energía de 10 fotones para empezar a percibir

iluminancia. También tenemos que la sensibilidad relativa es de 2 fotones por voltio, es

decir, una vez alcanzados los 10 fotones, para variar un voltio necesitamos incrementar

en dos fotones la cantidad total.

FO

TO

NE

S

+

VO

LT

AJE

Page 155: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

10

Figura 5.11. Ejemplo de sensibilidad absoluta y relativa.

Relación señal ruido (SNR, del inglés «Signal Noise Ratio»): Este parámetro nos

informa sobre la claridad de la imagen. Si diferenciamos entre imagen útil e imagen con

ruido, podemos detectar perturbaciones en aquellos objetos no alineados, definiendo así

el ruido. Los cambios de temperatura producen lo que se denomina constante oscura de

modo que, una imagen oscura, puede tener puntos blancos debido a la variación de

temperatura por lo que la no linealidad produce ruido.

Ganancia espectral: No todos los sensores trabajan en todas las longitudes de onda ya

que, por ejemplo, los sensores de los dispositivos CCD suelen ser muy sensibles a los

rayos infrarrojos. Esto es debido a que cada cámara, en particular, dispone de filtros

para recoger sólo longitudes de onda de una determinada categoría (aquella que nos

interese para la aplicación que estamos ocupando).

Multi-net: Un sistema de visión con un número de cámaras determinado 2, 3, 4,…

tendrá posibilidades de capturar distintas características en una imagen, es decir, dos

cámaras CCD son capaces de determinar distancias mientras que una sola es incapaz,

por ejemplo.

¿Puede existir una cámara CCD que trabaje con 0 lux? La respuesta es afirmativa ya

que aunque a la cámara no llegue radiación visible esta puede detectar otro tipo de

radiaciones como infrarrojos, ultravioletas,…

Ancho (mm) Alto (mm) Diagonal (mm)

41 3,2 2,4 4

31 4,8 3,6 6

21 6,4 4,8 8

32 8,8 6,6 11

Tabla 5.2. Características de los dispositivos CCD Matriciales.

0 Voltios

1 Voltios

4 Voltios

10 fotones

6 fotones

2 fotones

Page 156: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

11

5.4. Tarjetas de adquisición.

Las tarjetas de captura de imagen permiten transferir la imagen de la cámara a la

memoria de ordenador con el fin de que éste pueda realizar el procesamiento adecuado a

las imágenes. Aspectos importantes en esta tarjeta son la velocidad de transmisión, el

formato de los datos, la profundidad de píxel, la capacidad de captura por disparo, la

capacidad de preprocesado de la imagen, la velocidad de transferencia de la imagen de

la memoria de la tarjeta a la memoria del ordenador, el reset asíncrono o la capacidad de

controlar parámetros de la cámara en tiempo real.

Evidentemente, todos los datos relativos a velocidades de transmisión son

especialmente importantes para poder trabajar en tiempo real. Este aspecto ha mejorado

notablemente en los dos últimos años. Otro parámetro que ha evolucionado muy

favorablemente es el formato de los datos. Con la estandarización definitiva de los

formatos EIA -644 o LVDS, y del IEEE 1394, se consigue no sólo aumentar la

velocidad de transferencia, sino que también se hace con una mayor inmunidad al ruido

y con longitudes de cableado aceptadas mucho mayores (de 2 – 10 metros a 25 metros

de distancia cámara – tarjeta).

La capacidad de sincronizar la captura de las imágenes con una señal externa

también se ha mejorado con el reset asíncrono, lo que habilita el inicio de la captura sin

tener que esperar el siguiente vertical blank (es decir, sin necesidad de finalizar

completamente la captura anterior). La capacidad de controlar la cámara con salidas RS-

232 de la tarjeta facilita la variación de parámetros de la cámara, fundamentalmente la

ganancia de los canales RGB, o de ópticas motorizadas en tiempo real.

Un aspecto relativamente reciente es la posibilidad de multitap. Existen tarjetas

capaces de trabajar con varias cámaras a la vez (hasta 6 cámaras de 8 bits por píxel), o

usar los canales de que dispone para trabajar con cámaras multitap que transmiten a la

vez varios píxeles por cada uno de los canales. Por ejemplo, a 40 MHz, una tarjeta

puede recibir la información por un canal de 8 bits a 40 Mbytes/sec, mientras que si usa

2 canales, la información la puede recibir a 80 Mbytes/sec, incrementándose de forma

proporcional al número de canales la velocidad de transmisión.

En cuanto a la capacidad de proceso de las tarjetas, actualmente prácticamente

solo existe la posibilidad de incorporar un Procesador Digital de Señal (DSP), que

permite realizar determinados algoritmos de análisis de imágenes en la propia memoria

de la tarjeta, acelerando la implementación de los algoritmos de visión. El desarrollo de

módulos de proceso altamente especializados que poseían casas como Imaging

Technology ha sido abandonado tras la evidencia de la superior evolución en

prestaciones de los procesadores convencionales, que hacen que el coste de desarrollo

de las placas altamente especializadas no sea rentable para las casas fabricantes de las

misma, al ser estos rápidamente superados por los constantes incrementos en velocidad

y mejoras internas de los procesadores convencionales.

Otro de los recientes elementos en cuanto a las tarjetas de captura de imágenes

es la integración de la tarjeta de captura de imágenes, la visualización, y el módulo de

proceso en un solo elemento. Estos equipos se proporcionan en un chasis adecuado para

trabajar en entornos industriales.

Page 157: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

12

5.4.1. Parámetros principales de una tarjeta de adquisición.

Sistema monocromático o color: Este parámetro de la tarjeta de adquisición hace

referencia al tipo de sistema empleado para la captura de la información, es decir, al tipo

de reglas a seguir para la captura de una imagen en color (sistema color) o con una

única tonalidad (sistema monocromático).

Tipo de entrada: Este otro parámetro indica el tipo de sistema de imágenes empleado

para la adquisición, o sea, determina si empleamos el sistema RGB, S-VIDEO, el

"conector amarillo",…

Tipo de bus: Se trata de una característica vinculada con la velocidad del bus,

indicándonos tanto velocidad media de circulación como picos de velocidad.

Procesamiento propio: Este parámetro sólo lo presentan aquellas tarjetas que se pueden

emplear para el procesamiento de forma interna de la imagen antes de su

almacenamiento (permitiendo así realizar modificaciones directamente sobre la

imagen). Algunas tarjetas son capaces de trabajar con la imagen a velocidades de

computación cercanas a las de una computadora convencional.

Conectividad: Esta es una característica importante de una tarjeta de adquisición puesto

que permite realizar varias tareas a la vez, es decir, mientras en un monitor aparece la

imagen original, en otro podemos visualizar las modificaciones que le efectuemos.

Resolución: Dependiendo de la tarjeta, este parámetro nos indicará el período de

muestreo de la señal y también el número de píxeles que obtendremos.

El tiempo de muestreo de una señal se puede calcular como la suma del tiempo

de captura, el tiempo de recorrido de la señal hasta la tarjeta de adquisición y del tiempo

de procesamiento de la misma:

ntoprocesamierecorridocapturamuestreo tttt ++= (3)

Mediante el trigger, conseguiremos aprovechar el tiempo de captura para que la

tarjeta transmita y procese la imagen capturada.

Memoria: Hace referencia a la memoria integrada que trae por defecto la tarjeta de

adquisición, aspecto que nos podría limitar si la imagen es de dimensiones

considerables. Dicha capacidad de memoria nos obligará a trabajar con un mayor o

menor número de capturas y con imágenes más o menos grandes.

Salida: La salida dependerá de cada tarjeta ya que cada compañía tendrá una serie de

protocolos asignados a las salidas y encaminados a diferentes lenguajes computados.

Sistema de desarrollo: Cuando tengamos que realizar la tarea de selección de una

tarjeta de adquisición hemos de tener muy presente la elección de nuestro lenguaje de

programación ya que, dependiendo de dicha tarjeta, tendremos comodidades para

determinados lenguajes de programación.

Page 158: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

13

5.4.2. Mecanismo de la ganancia en una tarjeta de adquisición.

El método de aprovechamiento de las distintas cámaras CCD consiste en dividir

la imagen en función de la escala de grises. El nivel de gris más bajo será el negro y el

más alto, efectivamente, será el blanco. La ganancia irá acorde con la banda de

digitalización. En este tipo de mecanismo, al variar la ganancia y el desplazamiento es

posible que aparezca una pérdida de información de niveles bajos o altos. Por

consiguiente, la única solución para no perder información es aumentar la ganancia

hasta que se ajuste que el nivel máximo y el mínimo de gris y evitemos una pérdida de

contraste.

¿Depende la resolución de la imagen del modo de muestreo de la señal? Sí, en aquel

caso en el cual la cámara tiene una resolución de, por ejemplo, 512 × 512 pero nuestra

señal no tiene la misma resolución. Si la cámara ha dividido la imagen, la tarjeta que

pasa de analógico a digital tiene una resolución de 1.024 y, por tanto, la imagen tendrá

una resolución distinta a la imagen capturada.

Figura 5.12. La ganancia en la tarjeta de adquisición.

Nivel de blanco

Nivel de negro

Nivel de blanco

Nivel de negro

Nivel de blanco

Nivel de negro

Nivel de blanco

Nivel de negro

Page 159: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

14

5.5. Bibliografía.

Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods.

Visión por Computador, Fundamentos y Métodos. Arturo de la Escalera.

Page 160: Física de la visión (Teoría y Prácticas)

Tema 5 – Sistemas de adq. de imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

15

Visión por Computador. Javier González Jiménez.

Page 161: Física de la visión (Teoría y Prácticas)

BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.

TEMA VI: Imágenes digitales.

6.1. Modelo de una imagen simple 1

6.2. Muestreo y cuantificación 2

6.3. Principales características de las imágenes 5

6.3.1. Brillo, contraste y nitidez 5

a) Brillo 5

b) Contraste 6

c) Nitidez 7

6.3.2. Relaciones básicas entre píxeles 8

a) Vecinos de un píxel 8

b) Conectividad 8

c) Medidas de distancia 9

6.4. Bibliografía 10

Page 162: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

1

6.1. Modelo de una imagen simple.

El término imagen se refiere a una función bidimensional de intensidad de luz

f(x,y), donde x e y representan las coordenadas espaciales y el valor de f en un punto cualquiera (x,y) es proporcional al nivel de gris de la imagen en ese punto.

Figura 6.1 Convenio de ejes utilizado para la representación de imágenes.

Para esta asignatura, esta función f(x,y) será discreta puesto que el proceso de

obtención de la imagen no es continuo, es decir, se establece un período de muestreo (distancia entre dos mediciones adyacentes) a partir del cual se realiza la obtención de información mediante la imagen original.

Puesto que la luz es una forma de energía, f(x,y) debe ser estrictamente positiva

y finita, es decir,

( ) +∞<≤ yxf ,0 La naturaleza de dicha función de intensidad de la luz puede estar caracterizada

en dos componentes de modo que la función se puede expresar como el producto de ambas: f(x,y) = i(x,y)·r(x,y). Las componentes son las siguientes:

1) Componente de iluminación, i(x,y): La cantidad de luz incidente procedente de la fuente sobre la escena contemplada acotada dentro de valores positivos. La naturaleza de i(x,y) está determinada por la fuente de luz.

( ) +∞<≤ yxi ,0

2) Componente de reflectancia, r(x,y): La cantidad de luz reflejada por los objetos

de la escena estando acotada entre 0 y 1. La naturaleza de r(x,y) viene determinada por las características de los objetos de la escena.

( ) 1,0 ≤≤ yxr

Page 163: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

2

6.2. Muestreo y cuantificación.

Para ser utilizable para el proceso por medio de computadora, la función debe

ser digitalizada tanto espacialmente como en amplitud. La digitalización de las coordenadas espaciales (x,y) se denomina muestreo de la imagen y la digitalización de la amplitud se conoce bajo el nombre de cuantificación del nivel de gris.

La imagen real continua f(x,y) se describe de forma aproximada por una serie de muestras equiespaciadas organizadas en forma de una matriz de dimensión N × M

(N filas y M columnas), donde cada elemento es una cantidad discreta:

( )

( ) ( ) ( )( ) ( ) ( )

( ) ( ) ( )

−−−−

−−

=

1,11,10,1

1,11,10,1

1,01,00,0

,

MNfNfNf

Mfff

Mfff

yxf

L

MOMM

L

L

(1)

El término de la derecha representa una imagen digital (por ejemplo, la que se obtendría como resultado de la captura de una imagen mediante una cámara digital). A cada elemento de la matriz suele denominársele elemento de la imagen o píxel, del inglés «picture element». El proceso de muestreo puede entenderse como una partición en una cuadrícula del plano xy, siendo las coordenadas de cada elemento de la cuadrícula un par de elementos enteros. Por tanto, f(x,y) representa una imagen digital si el par (x,y) son enteros de Ζ2 y f es una función que asigna un nivel de gris (un número real) a cada par de coordenadas (x,y) distinto. En el proceso de digitalización se necesita tomar decisiones sobre los valores de N, M y de los niveles de gris para cada píxel (estas cantidades suelen ser potencias de 2, es decir, N = 2

n M = 2

m y G = 2

g). Empleando lo dicho anteriormente, tenemos que el número, b, de bits necesarios para almacenar una imagen digitalizada es:

gNMb ··=

Número de niveles de gris g

1 2 3 4 5 6 7 8

Dim

ensi

ones

de

la m

atri

z

2 4 8 12 16 20 24 28 32

4 16 32 48 64 80 96 112 128

8 64 128 192 256 320 384 448 512

16 256 512 768 1.024 1.280 1.536 1.792 2.048

32 1.024 2.048 3.072 4.096 5.120 6.144 7.168 8.192

64 4.096 8.192 12.288 16.384 20.480 24.576 28.672 32.768

128 16.384 32.768 49.152 65.536 81.920 98.304 114.688 131.072

256 65.536 131.072 196.608 262.144 327.680 393.216 458.752 524.288

512 262.144 524.288 786.432 1.048.576 1.310.720 1.572.864 1.835.008 2.097.152

1.024 1.048.576 2.097.152 3.145.728 4.194.304 5.242.880 6.291.456 7.340.032 8.388.608

Tabla 6.1 Número de bits de almacenamiento para valores de N = M y g.

Page 164: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

3

¿Qué muestreo y cuántos niveles de gris son necesarios para una buena

aproximación? La resolución (el grado de detalle discernible) de una imagen depende estrechamente de estos dos parámetros. Cuanto más se incrementan, más se aproxima la imagen digitalizada a la imagen original. Sin embargo, esto implica una desafortunada circunstancia ya que el almacenamiento y los requisitos de procesamiento crecen rápidamente en función de N, M y g.

“Es difícil definir qué es una «buena imagen», puesto que la calidad de la misma

no es sólo subjetiva sino que también depende mucho de las necesidades de una aplicación determinada.”

Figura 6.2 Efectos de reducir la resolución espacial. La Figura 6.2 se puede observar diversas muestras de una imagen digital de un reloj CASIO con 256 niveles de gris y 512 × 512 píxeles. Las siguientes muestran los resultados de reducir la resolución espacial de N = 512 a N = 256, 128, 64, 32 y 16. Puesto que todas las imágenes corresponden a la misma área representada (512 × 512 puntos), los píxeles de las imágenes de menor resolución han sido duplicados para cubrir toda el área. Esta aplicación de píxeles produce un resultado similar a un tablero de ajedrez, que es particularmente visible en las imágenes de menor resolución. Comparando las imágenes de 512 × 512 píxeles con la de 256 × 256 píxeles se comprueba que es virtualmente imposible diferenciarlas. Sin embargo, este efecto es más visible en la imagen de 64 × 64 y se hace muy pronunciado para las imágenes de 32 × 32 y 16 × 16 píxeles.

512 × 512 256 × 256 128 × 128

64 × 64 32 × 32 16 × 16

Page 165: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

4

Figura 6.3 Efectos de reducir la cantidad de niveles de grises.

Esta última figura ilustra los efectos producidos al reducir la cantidad de bits empleados para representar el número de niveles de gris de una imagen. Las imágenes han sido obtenidas reduciendo el número de niveles de gris desde g = 7 hasta g = 1, manteniendo constante la resolución espacial en 512 × 512 píxeles. Las imágenes con 256, 128 y 64 niveles de gris son virtualmente idénticas para todas las aplicaciones prácticas. Sin embargo, esto no es así para la imagen con 32 niveles puesto que ha desarrollado un conjunto casi imperceptible de estructuras ondulantes en las zonas de niveles de gris suaves. Este efecto, originado por el empleo de un número insuficiente de niveles de gris en las zonas más suaves de una imagen, se denomina falso contorno (bastante visible en las imágenes que emplean menos de 32 niveles de gris).

256 128 64

32 16 8

4 2

Page 166: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

5

6.3. Principales características de las imágenes.

6.3.1. Brillo, Contraste y nitidez.

a) El brillo.

Hace referencia al nivel medio de los niveles de gris, es decir, a la media

aritmética de la importancia de cada nivel de gris que compone la imagen:

∑=

=L

i

ii cnN

B1

·1

(2)

donde B es el nivel medio de niveles de gris, N es la cantidad de píxeles, L es la

cantidad de niveles de gris en total que presenta la imagen (L = 2, 4, 8, 16, 32, 64, 128 ó

256), ni es el nivel de gris i y ci es la cantidad de veces que se ha repetido el nivel i. Veamos el siguiente ejemplo con 8 niveles de gris:

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 2 2 2 2 2 2 2 2 2 2 2 1 0 0 1 2 3 3 3 3 3 3 3 3 3 2 1 0 0 1 2 3 4 4 4 4 4 4 4 3 2 1 0 0 1 2 3 4 5 5 5 5 5 4 3 2 1 0 0 1 2 3 4 5 6 6 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 6 5 4 3 2 1 0 0 1 2 3 4 5 6 6 6 5 4 3 2 1 0 0 1 2 3 4 5 5 5 5 5 4 3 2 1 0 0 1 2 3 4 4 4 4 4 4 4 3 2 1 0 0 1 2 3 3 3 3 3 3 3 3 3 2 1 0 0 1 2 2 2 2 2 2 2 2 2 2 2 1 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

[ ] 2022.245

91

225

4551·78·616·524·432·340·248·156·0

15·15

1 ≈≈==+++++++=B

Si pretendemos aumentar el nivel de brillo, tan sólo tendremos que efectuar un desplazamiento del nivel medio de gris que contiene la matriz, es decir, por ejemplo, queremos aumentar el nivel de gris en dos niveles más. Tendríamos la siguiente imagen:

2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 2 2 3 4 4 4 4 4 4 4 4 4 4 4 3 2 2 3 4 5 5 5 5 5 5 5 5 5 4 3 2 2 3 4 5 6 6 6 6 6 6 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 7 7 7 7 7 6 5 4 3 2 2 3 4 5 6 6 6 6 6 6 6 5 4 3 2 2 3 4 5 5 5 5 5 5 5 5 5 4 3 2 2 3 4 4 4 4 4 4 4 4 4 4 4 3 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2

[ ] 4977.345

179

225

89525·724·632·540·448·356·20·10·0

15·15

1 ≈≈==+++++++=B

Page 167: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

6

Si observamos la matriz resultante de elevar el nivel de gris en dos unidades, podemos ver que si añadimos dos unidades al seis o al siete, no se obtiene un nivel de gris 9 y 8 respectivamente, sino que el máximo valor de nivel de gris en el ejemplo es 7.

Figura 6.4 Resultado de aumentar el brillo en una imagen.

b) El contraste.

Hace referencia la diferencia de niveles de gris que existe entre dos píxeles o

entre dos regiones de píxeles: En el ejemplo de la izquierda se puede observar que puede haber

diferencia de nivel de gris entre dos píxeles vecinos o entre dos grupos de píxeles. Además, podemos apreciar que el contraste será mayor cuanto mayor sea la diferencia entre niveles de gris, es decir, el contraste entre 1 y 7 es mayor que entre 0 y 1.

Mayor brillo pero Mayor contraste pero

Original igual contraste manteniendo el orden

Figura 6.5 Resultado de aumentar el contraste en una imagen.

1 1 1 1 1 1 1 0 1 1 1 0 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 7 7 7 7 7

2 9 2 192 199 192 2 19 2 2 9 2 192 199 192 2 19 2

Page 168: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

7

c) La nitidez

Hace referencia la brusquedad del contraste, es decir, la nitidez alude a cuán son

de bruscos los cambios de niveles de gris entre píxeles:

Figura 6.6 Secciones de una imagen con fondo oscuro una línea blanca diferenciadas

por la nitidez.

Tal y como se puede observar en las secciones A-A y B-B, podemos decir que cuanto mayor sea la pendiente de los bordes o detalles, mayor nitidez tendrá la imagen hasta el caso límite de una pendiente vertical cuando se trata de una imagen binaria caso para el cual la nitidez es máxima.

Figura 6.7 Resultado de disminuir nitidez en una imagen.

0 0 0 0 0 0 0 … 0 255 0 … 0 0 0 0 0 0 0

SECCIÓN A-A

A A

0 … 0 32 64 128 255 128 64 32 0 … 0

SECCIÓN B-B

B B

Page 169: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

8

6.3.2. Relaciones básicas entre píxeles.

a) Vecinos de un píxel.

Un píxel p de coordenadas (x,y) tiene cuatro vecinos horizontales y verticales

cuyas coordenadas viene dadas por:

( ) ( ) ( ) ( )1,,1,,,1,,1 −+−+ yxyxyxyx (3)

Este conjunto de píxeles, denominado los 4-vecinos de p, se representa por N4(p). Cada píxel está a una unidad de distancia de p, y algunos de los vecinos de p pueden caer fuera de la imagen digital si (x, y) está en el borde de la imagen.

Un píxel p de coordenadas (x,y) también tiene cuatro vecinos diagonales cuyas coordenadas viene dadas por:

( ) ( ) ( ) ( )1,1,1,1,1,1,1,1 −−+−−+++ yxyxyxyx (4)

y se representan por ND(p). Estos puntos, junto a los 4-vecinos, se denominan los 8-vecinos de p, y se representan por N8(p) – N8(p) = N4(p)∪ ND(p) -. Algunos de los vecinos de p pueden caer fuera de la imagen digital si (x, y) está en el borde de la imagen.

0 1 0

1 0 1

1 1 1

1 2 1

0 2 0

1 2 1

0 1 0

1 0 1

1 1 1

Figura 6.8. Conexiones: (a) 4-vecinos; (b) Vecinos diagonales; (c) 8-vecinos. b) Conectividad.

Este concepto es importante puesto que es empleado para establecer límites entre

objetos y los componentes de áreas de una imagen. Para determinar si dos píxeles están conectados, debe determinarse si son adyacentes en algún sentido (como ser 8-vecinos) y si sus niveles de gris cumplen un criterio especificado de similitud. Por ejemplo, en una imagen binaria, dos píxeles pueden ser 4-vecinos pero no estar conectados a menos que tengan el mismo valor. Se consideran tres tipos de conectividades:

a) 4-conectividad: Dos píxeles p y q con valores dentro de V están 4-conectados

si q pertenece a N4(p). b) 8-conectividad: Dos píxeles p y q con valores dentro de V están 8-conectados

si q pertenece a N8(p). c) m-conectividad (conectividad mixta): Dos píxeles p y q con valores dentro de

V están m-conectados si: i) q pertenece a N4(p), o bien ii) q pertenece a ND(p) y además el conjunto N4(p)∩N4(q) es vacío.

Page 170: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

9

Figura 6.9 (a) Distribución de píxeles; (b) 8-vecinos del píxel central; (c) m-vecinos del mismo píxel. Las líneas a trazos son caminos entre ese píxel y sus vecinos.

c) Medidas de distancia.

Para los píxeles p, q y z, de coordenadas (x,y), (s,t) y (u,v) respectivamente, D es una función distancia o una métrica si:

a) D(p,q) ≥ 0 D(p,q) = 0 si y sólo si p = q. b) D(p,q) = D(q,p). c) D(p,z)≤ D(p,q)+ D(q,z).

La distancia euclídea entre p y q está definida por

( ) ( ) ( )22, tysxqpDe −+−= (5)

Para esta medida de distancia, los píxeles que están a una distancia menor o igual que algún valor r de (x,y) son los puntos contenidos en un círculo de radio r con centro en (x,y).

La distancia «city block» o Manhattan entre dos puntos p y q se define como:

( ) tysxqpD −+−=,4 (6)

En este caso, los píxeles que estén a una distancia, de (x,y), menor o igual que un determinado valor r forman un rombo centrado en (x,y). Por ejemplo, los píxeles de distancia D4 = 1 son los 4-vecinos de (x,y) y los de distancia 2 forman un contorno con forma de rombo.

La distancia tablero de ajedrez entre dos puntos p y q se define como:

( ) ( )tysxmáxqpD −−= ,,8 (7)

En este caso, los píxeles que estén a una distancia, de (x,y), menor o igual que un determinado valor r forman un cuadrado centrado en (x,y). Por ejemplo, los píxeles de distancia D8 = 1 son los 8-vecinos de (x,y) y los de distancia 2 forman un contorno con forma de cuadrado.

8 5 2 5 8

5 2 1 2 5

2 1 0 1 2

5 2 1 2 5

8 5 2 5 8

4 3 2 3 4

3 2 1 2 3

2 1 0 1 2

3 2 1 2 3

4 3 2 3 4

2 2 2 2 2

2 1 1 1 2

2 1 0 1 2

2 1 1 1 2

2 2 2 2 2

Page 171: Física de la visión (Teoría y Prácticas)

Tema 6 – Imágenes digitales BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

10

6.4. Bibliografía.

Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods.

Visión por Computador. Gonzalo Pajares, Jesús M. de La Cruz.

Page 172: Física de la visión (Teoría y Prácticas)

BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.

TEMA VII: Procesamiento básico de imágenes.

7.1. Operaciones Aritmético / Lógicas 1

7.1.1. Operaciones Aritméticas 1

a) Adición 1

b) Sustracción 2

c) Multiplicación 3

d) División 3

7.1.2. Operaciones Lógicas 7

7.2. Operaciones basadas en Mapas de Transición 8

7.3. Procesado mediante técnicas de Histogramas 19

7.3.1. El histograma como una función de distribución 19

7.3.2. Ecualización del histograma 20

7.3.3. Especificación del histograma 22

7.4. Operaciones Geométricas 26

7.4.1. Operación de Traslación 26

7.4.2. Operación de Escalado 26

7.4.3. Operación de Rotación 27

7.5. Operaciones Morfológicas 29

7.5.1. Fundamentos de las operaciones morfológicas 29

7.5.2. Definiciones elementales 30

7.5.3. Operaciones morfológicas I: La dilatación 31

7.5.4. Operaciones morfológicas II: La erosión 33

7.5.5. Operaciones morfológicas III: Apertura y Cierre 34

7.5.6. Operaciones morfológicas con escalas de grises 36

7.5.7. Algunas aplicaciones de la morfología en imágenes de grises 37

7.6. Eliminación del ruido en el dominio espacial 38

7.6.1. Tipos de ruido 38

a) Gaussiano 38

b) Uniforme 39

c) Impulsivo 39

d) Rayleigh 39

e) Exponencial negativo 40

f) Gamma 40

7.6.2. Filtros de orden 41

a) Mediana 41

b) Moda 42

c) Mínimo 43

d) Máximo 44

e) Punto medio 45

f) Alfa recortado 46

Page 173: Física de la visión (Teoría y Prácticas)

7.6.3. Filtros de media 48

a) Aritmética 48

b) Geométrica 49

c) Armónica 50

d) Contra-armónica 51

e) YP 52

7.7. Bibliografía 17

Page 174: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

1

7.1. Operaciones Aritmético / Lógicas.

Este tipo de operaciones está contenido dentro de las Transformaciones de

varias imágenes Punto a Punto, denominadas comúnmente Operaciones Puntuales. Se utiliza la información contenida en la misma localización (posición de los píxeles) de las imágenes de entrada f1(x,y), f2(x,y),… fn(x,y) para crear una nueva imagen resultado f(x,y)Res. De las operaciones que se realizan entre píxeles vamos a analizar la adición, sustracción, multiplicación y división. 7.1.1. Operaciones Aritméticas.

a) Adición.

La adición puede emplearse para reducir los efectos del ruido en la imagen (1) o

para aumentar la cantidad de brillo de una imagen (2). El valor de salida está dado por,

∑=

=n

iiyxyx pS

1,, (1)

∑=

+=n

iiyxyx cpS

1,, (2)

donde la variable px,yi hace referencia al píxel de coordenadas (x,y) de la imagen i-ésima y c es una constante definida por el usuario. Los valores finales de salida deben redondearse por exceso o por defecto y si la suma resulta un valor mayor a 255, directamente actualizaremos dicho píxel a 255. Si pensamos en la suma como herramienta de atenuación de ruido, podemos diseñar una estrategia de eliminación de ruido empleando la media aritmética, es decir,

∑=

=n

iiyxyx p

nS

1,,

1 (3)

donde n es la cantidad de imágenes que sumamos y la variable px,yi hace

referencia al píxel de coordenadas (x,y) de la imagen i-ésima. Tal y como se puede intuir, empleando el promedio de imágenes podemos ser capaces de disminuir o atenuar el ruido de una imagen hasta casi su desaparición.

En el siguiente ejemplo sumamos una gran cantidad de imágenes iguales en las

cuales aparecen ruidos repartidos aleatoriamente. Aplicando la suma promediada conseguiremos atenuar el ruido de las mismas:

Figura 7.1 Resultado del empleo de la adición para la atenuación de ruido.

=

+ ····· +

+

Page 175: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

2

b) Sustracción.

La sustracción en imágenes es una técnica útil para detectar el cambio producido

en dos imágenes que han sido capturadas en dos instantes de tiempo diferentes (4). También pueden representar pérdidas de calor o frío si la fuente de datos es el espectro infrarrojo. O también, para disminuir la cantidad de brillo de una imagen (5).

El valor de salida está dado por,

∑=

−=n

iiyxyxyx ppR

2,1,, (4)

∑=

−=n

iiyxyx cpR

1,, (5)

donde la variable px,yi hace referencia al píxel de coordenadas (x,y) de la imagen

i-ésima y c es una constante definida por el usuario. Es necesario definir la salida de alguna manera que haga todos los valores positivos. Podemos tomar como regla general que cualquier resultado de restar dos píxeles debe estar entre 0 y 255, por lo que si en alguna resta se obtiene un valor por debajo de cero directamente actualizamos a cero.

(a) (b)

(c)

Figura 7.2. Uso de la resta: (a) Radiancia antes de energizar; (b) Radiancia después de energizar; (c) Resta de ambas imágenes.

Page 176: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

3

c) Multiplicación.

La multiplicación de imágenes podría utilizarse para corregir efectos de una

mala iluminación puesto que, con esta operación, multiplicamos por una constante el nivel de gris de cada píxel de la imagen (de igual modo podríamos usarlo para disminuir los niveles de gris). El valor de salida está dado por,

∑=

=n

iiyxyx pcM

2,, · (6)

En el siguiente ejemplo podemos observar que es posible mejorar una imagen

muy oscura. Por tanto, para casos de defecto de iluminación es conveniente realizar una operación de multiplicación para contrarrestar dichos efectos negativos.

Figura 7.3. Empleo de la multiplicación para la contrarrestar una mala iluminación.

d) División.

La división de imágenes podría utilizarse para poder discernir entre dos

imágenes distintas puesto que, con esta operación, dividimos elemento a elemento el nivel de gris de cada píxel de la imagen. Con ello conseguimos que el píxel de la imagen resultante sea uno cuando coinciden y distinto de la unidad cuando no coincidan. La imagen final sería aquella en la que los términos distintos a la unidad se multipliquen por 0. El valor de salida está dado por,

<

=

=1·

1255

,

,

,

,

,

,

,

yx

yx

yx

yx

yx

yx

yx

b

aSi

b

ak

b

aSi

D (7)

Figura 7.4. Empleo de la división para la detección de cambios entre imágenes.

Page 177: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

4

Código implementado utilizando MatLAB:

function suma( A , B ) [ f c ] = size( A ); C = zeros( f , c ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( A( i , j ) + B( i , j ) < 255 ) C( i , j ) = A( i , j ) + B( i , j );

else C( i , j ) = 255;

end end end return function sumapromedio( A ) [ f c n ] = size( A ); B = zeros( f, c ); for i = 1 : 1 : c for j = 1 : 1 : f

B( i , j ) = 0; for k = 1 : 1 : n

B( i , j ) = A( i , j , k ) + B( i , j ); end

B( i , j ) = B( i , j ) / n; end end return function sumabrillo( A , b ) [ f c ] = size( A ); B = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( A( i , j ) + b < 255 ) C( i , j ) = A( i , j ) + b;

else C( i , j ) = 255;

end end end

Page 178: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

5

function multiplica ( A , b ) [ f c ] = size( A ); B = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( A( i , j )*b < 255 ) B( i , j ) = A( i , j )*b;

else C( i , j ) = 255;

end end end return

function resta( A , B ) [ f c ] = size( A ); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( A( i , j ) − B( i , j ) > 0 ) C( i , j ) = A( i , j ) − B( i , j );

else C( i , j ) = 0;

end end end return function restabrillo( A , b ) [ f c ] = size(A ); B = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( A( i , j ) − b > 0 ) B( i , j ) = A( i , j ) − b;

else C( i , j ) = 0;

end end end return

Page 179: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

6

function division( A , B ) [ f c ] = size( A ); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if (A( i , j ) / B( i , j ) == 1) C( i , j ) = 255;

else C( i , j ) = round( 100*A( i , j ) / B( i , j ) );

end end end return

Page 180: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

7

7.1.2. Operaciones Lógicas.

Con el proceso de binarización conseguimos obtener una imagen de salida que

posee únicamente dos niveles de gris 0 y 255. Si consideramos estos dos niveles como el 0 lógico y el 1 lógico, respectivamente, obtenemos finalmente una imagen binaria lógica. Con una imagen de estas características es posible realizar sobre ella todo tipo de operaciones lógicas como pueden ser la operación AND, OR, XOR y NOT.

(a) (b) (c)

(e) (f) (g)

Figura 7.5. Operaciones Lógicas: (a) Imagen A; (b) Imagen B; (c) NOT a la imagen B; (d) AND de ambas imágenes; (e) OR de ambas imágenes; (f) XOR de ambas imágenes.

También es posible realizar sobre dos imágenes dadas otro tipo de operaciones tales como <, ≤, >, ≥,… Por ejemplo, dadas dos imágenes A y B obtener una tercera C tal que C = A ≤ B.

Page 181: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

8

Código implementado utilizando MatLAB:

function and( A , B ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) == 255 ) & ( B( i , j ) == 255 ) ) C( i , j ) = 255;

else C( i , j ) = 0;

end end end return function or( A , B ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) == 255 ) | ( B( i , j ) == 255 ) ) C( i , j ) = 255;

else C( i , j ) = 0;

end end end return function xor( A , B ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) == 255 ) xor ( B( i , j ) == 255 ) ) C( i , j ) = 255;

else C( i , j ) = 0;

end end end return

Page 182: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

9

function not( A ) [ f c ] = size(A); C = zeros( size( A ) ); for i = 1 : 1 : c for j = 1 : 1 : f

if ( A( i , j ) == 255 ) C( i , j ) = 0;

else C( i , j ) = 255;

end end end return

Page 183: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

10

7.2. Operaciones basadas en Mapas de Transición.

Las operaciones basadas en mapas de transición implican la generación de una

nueva imagen modificando el valor del píxel original basándose en una regla global aplicada a cada píxel de la imagen de entrada, es decir, el proceso consiste en obtener el valor del píxel de una imagen origen, modificarlo por una operación lineal o no lineal, y colocar el nuevo valor del píxel en su correspondiente localización dentro de la imagen destino. El mapa de transición es una transformación uno a uno puesto que el operador ψ se aplica a cada píxel en la imagen y la salida depende únicamente de la magnitud correspondiente al píxel de entrada siendo independiente de los píxeles adyacentes. Durante esta parte del análisis de mapas de transición trabajaremos con imágenes con valores de gris en el rango de 0 a 255. En una imagen podemos distinguir tres zonas:

• Zona de puntos oscuros (A): En esta zona está implícita la información del fondo de la imagen. • Zona de puntos claros (C): Al igual que en la zona anterior, también esta contenida la información del fondo de la imagen. • Zona de puntos intermedios (B): Esta zona, por otro lado, recoge toda la información del objeto que estamos analizando.

Observando las gráficas podemos intuir que cuanto mayor sea la pendiente de la

recta, tendremos un contraste mayor puesto el hecho de que la pendiente sea mayor, implica que los niveles de gris estén más juntos, por lo que el salto de uno a otro es más alto (misma altura pero menor incremento horizontal).

Figura 7.6. Mapa de transición con zonas A, B y C definidas.

Transiciones de tipo Clipping: En este tipo de transiciones se eliminan los

niveles de gris pertenecientes al fondo (grupo de niveles altos y de niveles bajos) inhibiendo así el contraste del fondo para poder aumentárselo al objeto.

Transiciones de umbralización: Este tipo de mapa de transición es empleando para imágenes donde el fondo tiene un nivel de gris constante (por ejemplo, el fondo es completamente negro) y por tanto, aumentamos el contraste del objeto en detrimento del fondo.

Transiciones no lineales: Generalmente, estos mapas son empleados para realzar los niveles de gris más significativos de la imagen dando así a la imagen un aspecto apto para el análisis en determinados casos como por ejemplo para la utilización de la Transformada de Fourier.

C B A

x

y

a b c

bψ cψ

α

β

γ

Page 184: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

11

Los mapas de transición más utilizados hoy en día en el tratamiento digital de imágenes son los siguientes:

a) Operador Identidad.

Este operador crea una imagen de salida que es idéntica a la imagen de entrada.

La función de transformación es:

pq = (8)

b) Operador Inverso o Negativo.

Este operador crea una imagen de salida que es la inversa de la imagen de

entrada (utilizado en diversas aplicaciones tales como imágenes médicas). La función de transformación es:

pq −= 255 (9)

c) Operador Umbral.

Este operador crea una imagen de salida binaria a partir de una imagen de grises,

donde el nivel de transición está dado por el parámetro c. La función de transformación es:

>≤

=cp para

cp paraq

255

0 (10)

d) Operador Umbral invertido.

Este operador crea una imagen de salida binaria invertida a partir de una imagen

de grises, donde el nivel de transición está dado por el parámetro c. La función de transformación es:

>≤

=cp para

cp paraq

0

255 (11)

e) Operador Intervalo de Umbral binario.

Esta clase de transformación crea una imagen de salida binaria a partir de una

imagen de grises, donde todos los valores de gris cuyo nivel está en el intervalo definido por p1 y p2 son transformados a 255 y todos los valores fuera de ese intervalo a 0. La función de transformación es:

><≤≤

=21

21

0

255

ppopp para

ppp paraq (12)

Page 185: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

12

f) Operador Intervalo de Umbral binario invertido.

Esta clase de transformación crea una imagen de salida binaria a partir de una

imagen de grises, donde todos los valores de gris cuyo nivel está en el intervalo definido por p1 y p2 son transformados a 0 y todos los valores fuera de ese intervalo a 255. La función de transformación es:

><≤≤

=21

21

255

0

ppopp para

ppp paraq (13)

g) Operador de Umbral de escala de grises.

Esta clase de transformación crea una imagen de salida con los únicos valores de

nivel de gris comprendidos en el intervalo definido por p1 y p2 y el resto a 255. La función de transformación es:

><≤≤

=21

21

255 ppopp para

ppp parapq (14)

h) Operador de Umbral de escala de grises invertido.

Esta clase de transformación crea una imagen de salida con los únicos valores de

nivel de gris invertidos comprendidos en el intervalo definido por p1 y p2 y el resto a 255. La función de transformación es:

≥≤≤≤−

=21

21

255

255

ppopp para

ppp parapq (15)

i) Operador de extensión.

Esta clase de operadores proporciona una imagen de salida con la escala de

grises completa correspondiente al intervalo de entrada definido por p1 y p2 y suprime todos los valores fuera de este rango. La función de transformación es:

( )

≥≤

≤≤−

−=

21

2112

1

0

255

ppopp para

ppp parapp

ppq (16)

j) Operador reducción de niveles de gris.

Esta clase de operadores proporciona una imagen de salida con un menor

número de niveles de gris respecto de la imagen original de entrada.. La función de transformación es:

≤<

≤<≤

=

− 255

0

1

211

1

pp paraq

ppp paraq

pp para

q

nn

MM (17)

Page 186: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

13

k) Mapa de transición logarítmico.

Esta clase de operadores proporciona una imagen de salida con el mismo nivel

de gris pero les da una "importancia" distinta ya que los niveles se reparten mediante el criterio logarítmico de las décadas. La función de transformación es:

( )qCq += 1log (18)

donde C es una constante adecuada de reescalado de la imagen, que se aplica

para obtener valores dentro de la paleta de colores disponible.

l) Mapa de transición exponencial.

Esta clase de operadores proporciona una imagen de salida con el mismo nivel

de gris pero les da una "importancia" distinta ya que los niveles se reparten mediante el criterio exponencial. La función de transformación es:

( )12

−= qeCq (19)

donde C es una constante adecuada de reescalado de la imagen, que se aplica para obtener valores dentro de la paleta de colores disponible.

En cuanto a la representación gráfica de los mapas de transición, podemos decir que éstos son curvas en el plano xy (espacio bidimensional) donde la variable x hace referencia a al nivel de la imagen origen (o inicial) mientras que la otra variable y identifica a los niveles de gris de la imagen destino (o final).

Puesto que la derivada de una función nos indica la máxima variación, la derivada de un mapa de transición describe el carácter del contraste (recordemos que el contraste definía la diferencia de niveles de gris en una imagen). Para el caso particular de un mapa de transición con forma de recta tenemos que la pendiente tg(α) de dicha recta nos informa de manera directa como es el contraste.

Figura 7.7. Forma generalizada de un mapa de transición.

x

y

Nivel de gris de la imagen de entrada Le

sL

eL

Nivel de gris de la im

agen de entrada L

s

x

y

sL α

Page 187: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

14

Figura 7.8. Mapas de transición y sus respectivas imágenes. ¡¡¡¡¡¡¡NO HE PODIDO PONER UNA IMAGEN PARA CADA MAPA!!!!!!!

255

0 p

q

1p 2p 255

255

0 p

q

1p 2p 255

255

0 p

q

1p 2p 2553p

1q

2q

1−nq

1−np

255

0 p

q

1p 2p 255

255

0 p

q

1p 2p 255

255

0 p

q

1p 2p 255

255

0 p

q

1p 2p 255

255

0 p

q

1p 2p 255

255

0 p

q

c255255

255

0 p

q

255

255

0 p

q

c255

255

0 p

q

Page 188: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

15

Código implementado utilizando MatLAB:

function operador_identidad( A ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

B( i , j ) = A( i , j ); end end return function operador_invertido( A ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

B( i , j ) = 255 − A( i , j ); end end return function operador_umbral( A , u ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if (A( i , j ) < u) C( i , j ) = 0;

else C( i , j ) = 255;

end end end return function operador_umbral_invertido( A , u ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if (A( i , j ) < u) C( i , j ) = 255;

else C( i , j ) = 0;

end end end return

Page 189: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

16

function operador_umbral_binario( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 255;

else C( i , j ) = 0;

end end end return function operador_umbral_binario_invertido( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 0;

else C( i , j ) = 255;

end end end return function operador_umbral_grises( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = A( i , j );

else C( i , j ) = 255;

end end end

Page 190: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

17

function operador_umbral_grises_invertido( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 255 − A( i , j );

else C( i , j ) = 255;

end end end return function operador_extensión( A , Linf, Lsup ) [ f c ] = size(A); B = zeros(size(A)); for i = 1 : 1 : c for j = 1 : 1 : f

if ( ( A( i , j ) < Lsup ) & ( A( i , j ) > Linf )) C( i , j ) = 255*( A( i , j ) − Lsup ) / ( Linf − Lsup );

else C( i , j ) = 0;

end end end return function operador_escala_grises( A , valores ) [ f c ] = size(A); B = zeros(size(A)); [ n m ] = size( valores ); for i = 1 : 1 : c for j = 1 : 1 : f

for k = 1 : 1 : m − 1 if ( ( A( i , j ) < valores( 1 , k ) ) & ( A( i , j ) > valores( 1 , k + 1 )))

C( i , j ) = valores( 2 , k ); end

end end end return

Page 191: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

18

function operador_logaritmico( A , k ) [ f c ] = size(A); B = zeros(size(A)); [ n m ] = size( valores ); for i = 1 : 1 : c for j = 1 : 1 : f

C( i , j ) = k*log(1 + A( i , j ) ); end end return function operador_esxponencial( A , k ) [ f c ] = size(A); B = zeros(size(A)); [ n m ] = size( valores ); for i = 1 : 1 : c for j = 1 : 1 : f

C( i , j ) = k*exp( A( i , j )^2 − 1); end end return

Page 192: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

19

7.3. Procesado mediante técnicas de Histogramas.

¿Cómo calcular un mapa de transición? Como ya hemos podido observar, una

primera aproximación a lo que va a ser el mapa de transición que estamos buscando es aquel que aumente el contraste en la zona oscura (es decir, la zona que hace referencia al fondo) pues la información que estamos analizando no reside en el fondo sino que está en el objeto que estemos considerando. 7.3.1. El histograma como una función de distribución.

Una técnica muy común para el tratamiento de las imágenes y así estudiarlas, es

aquella basada en el procesado mediante histogramas. Un histograma se define como la

función de distribución de los niveles de gris que existe en la imagen. Es decir, se trata de una función cuya variable x se corresponde con uno de los 255 niveles de gris y la función y es justo el número de puntos que tiene ese nivel de gris en concreto. Por ejemplo, imaginemos una imagen con 8 niveles de gris cuya distribución es la siguiente:

Nivel 0 1 2 3 4 5 6 7 Número de píxeles 3.160 4.092 3.400 2.624 1.316 980 488 324

Puesto que es una función de probabilidad, debemos calcular el número total de

píxeles y determinar así, para cada nivel de gris, la probabilidad de encontrar un píxel con un determinado nivel de gris. Sabiendo que el número total de píxeles para esta imagen de 128 × 128 es de 16.384 píxeles, sabemos que la probabilidad de encontrar un píxel que tenga un nivel de gris i es justo la cantidad de píxeles que tiene nivel de gris i entre el número total:

( ) 193,0384.16

160.30 ==NP ( ) 250,0

384.16

092.41 ==NP

( ) 208,0384.16

400.32 ==NP ( ) 160,0

384.16

624.23 ==NP

( ) 080,0384.16

316.14 ==NP ( ) 060,0

384.16

9805 ==NP

( ) 030,0384.16

4886 ==NP ( ) 020,0

384.16

3247 ==NP

0,000

0,050

0,100

0,150

0,200

0,250

Pro

babi

lidad

0 1 2 3 4 5 6 7

Nivel de gris

Histograma

Figura 7.9. Histograma del ejemplo.

Page 193: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

20

Sabiendo la forma del histograma, aunque no dispongamos de la imagen en cuestión, seremos capaces de distinguir objetos o entes del fondo, puesto que midiendo la anchura de las bandas que puedan aparecer en el histograma podremos tomar decisiones al respecto. El criterio a seguir es el siguiente: Fondo Zonas del histograma más estrechas. Esto se puede deducir de manera intuitiva pensando que las zonas más estrechas de histograma son aquellas en las cuales existe un menor contraste puesto es en el fondo donde se producen las variaciones más pequeñas entre niveles de gris (el fondo suele tener grises muy parecidos). Objeto Zonas del histograma más anchas. De igual modo al caso anterior, podemos pensar que la razón par la cual al objeto le corresponden los mayores contrastes puesto que en el objeto se produce un "salto" de contraste y porque los objetos suelen tener detalles provocando cambios de nivel de gris.

Figura 7.10. (a) Imagen en escala de grises de 32; (b) Histograma definido.

Como conclusión, podemos decir que los histogramas se emplean con la

intención de mejorar el contraste, de modo que, mediante un proceso usando histogramas, conseguimos diferenciar más cada nivel de gris de los demás incrementado así el contraste. Este proceso de igualación normalizada se conoce con el nombre de ecualización de histogramas. 7.3.2. Ecualización del Histograma.

Supongamos que la transformación que estamos estudiando es s = T (r) siendo r

un valor de nivel de gris en la imagen original y s su valor en la imagen ecualizada. Entonces el primer objetivo será que el rango dinámico de los valores de s sea al máximo posible, lo que en condiciones de pantallas normales significa [ 0 , 255 ]. Para que la función T además de conseguir el objetivo de alargar el rango dinámico de los valores de niveles de gris no introduzca perturbaciones sobre la imagen debemos imponer algunas condiciones sobre dicha función. Por ahora impondremos tan solo dos condiciones:

• En el intervalo de valores de r, T(r) debe ser una función monótona creciente. • 0 ≤ T(r) ≤ 255, para 0 ≤ r ≤ 255.

Fondo Hombre con la cámara

Page 194: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

21

La primera condición preserva el orden en los píxeles desde el negro al blanco y la segunda condición garantiza que la función T conserva sus valores dentro del rango permitido.

Existen infinitas curvas que verifican estas condiciones, de hecho cualquier curva plana que una el origen de coordenadas con el punto (255,255) de manera que no tenga ni máximos ni mínimos y cuyo grafo se mantenga dentro del cuadrado definido por los puntos (0,0), (255,0), (0,255) y (255,255) verifica las condiciones establecidas.

Para seleccionar una curva con un comportamiento adecuado a nuestros deseos debemos y podemos considerar que estas funciones son distribuciones acumuladas de probabilidad, aunque para ello ahora supongamos que el rango de definición de los valores r y s están en [ 0 , 1 ] en lugar de [ 0 , 255 ]. Esta hipótesis no resta ninguna generalidad al análisis.

Un resultado elemental de la teoría de la probabilidad establece que si

tenemos una variable aleatoria R, que en nuestro caso sería la función que asigna valor de nivel de gris a cada píxel, la transformación de dicha variable aleatoria por la

función acumulada de probabilidad de dicha variable aleatoria, PR(R), define una

distribución uniforme de valores. Es decir, que si consideramos T = PR, el conjunto de valores de s resultante de la transformación s = T (r) sigue una distribución uniforme.

(a) (b)

(c) (d)

Figura 7.11. Ecualización de histogramas: (a) Imagen original; (b) Histograma original; (d) Imagen ecualizada; (d) Histograma ecualizado.

Page 195: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

22

Ya que una distribución uniforme supone que todos los puntos tienen la misma masa de probabilidad, parece de interés que usemos esta función T como medio de redistribuir la masa de puntos asignada a los distintos niveles de gris. En cada caso particular debemos de construir la función T a partir de la imagen de la siguiente manera:

( )

∑=

=k

j

jk

N

nrT

0255 (20)

para k = 0, 1, 2,…, 255. Donde N representa el número total de píxeles en la

imagen, y nj el número de píxeles con nivel de gris j. 7.3.3. Especificación del Histograma.

Una generalización de la técnica anterior nos permitirá transformar una imagen

cuyo histograma sea una distribución uniforme, a otra imagen cuya forma de histograma este definido por nosotros. Como ya mencionamos al principio de esta lección puede ser de interés transformar el histograma de la imagen original de manera que la imagen resultante tenga un histograma definido por una función en forma de campana (gaussiana).

Figura 7.12. Obtención de una imagen (conocido su histograma) a partir de otra.

De este modo conseguimos, a partir de una imagen con un determinado

histograma, otra imagen incógnita cuyo histograma era uno deseado. En definitiva, podemos deducir que la imagen se obtiene matemáticamente empleando la siguiente expresión:

( )( ) ( )ττ 11 −− =Σ⇔=Σ GTTG o (21)

τ

ζ

ζ = T(τ)

τ = T-1

(ζ)

Σ

Ξ

Ξ = G(Σ)

Σ = G-1

(Ξ)

Page 196: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

23

Para llevar a cabo esta transformación habrá que hacer uso de nuevo del resultado antes mencionado de la teoría de la probabilidad. Ahora tendremos que hacer dos transformaciones para conseguir el objetivo,

• Transformar la imagen original a una imagen con un histograma definido por la distribución uniforme: s = T (r) siendo T la función definida antes.

• Calcular la función inversa del histograma acumulado que queremos que tenga la imagen final: G-1. Si queremos una imagen con un histograma definido por una gaussiana tendremos que calcular la función inversa de la función acumulada gaussiana.

• Transformar de nuevo la imagen haciendo uso de la expresión z = G-1

(s).

La primera transformación nos permite pasar de una imagen con unas características dadas por la forma de su histograma a una imagen con un histograma que aproxima una distribución uniforme, y la segunda transformación nos permite pasar de dicha imagen "neutra" a una nueva imagen cuyo histograma tiene la forma dada por la función G. En resumen, hemos calculado una nueva imagen a partir de la original usando la transformación z = G

-1(T(r)).

En la práctica la función puede ser calculada de diversas maneras. Si conocemos

su expresión analítica entonces tan solo tenemos que calcular su valor, pero si no es así podemos usar una versión digitalizada de la gráfica de función G (histograma acumulado) y a partir de dicha versión digitalizada aproximar el valor que estamos calculando.

Si observamos como son las dos transformaciones antes comentadas podemos ver que la primera transforma valores del eje x en valores del eje y a través de T, y la segunda transforma los valores del eje en valores del eje x a través de G. Ejemplo.

En una imagen de 128 × 128 píxeles con 8 niveles de gris se tiene la siguiente distribución:

Nivel 0 1 2 3 4 5 6 7 Número de píxeles 3.160 4.092 3.400 2.624 1.316 980 488 324

Se quiere pasar a una imagen cuyo histograma final sea:

Nivel 0 1 2 3 4 5 6 7 Probabilidad 0 0 0 0,15 0,2 0,3 0,2 0,15

Puesto que es una función de probabilidad, debemos calcular el número total de

píxeles y determinar así, para cada nivel de gris, la probabilidad de encontrar un píxel con un determinado nivel de gris: Sabiendo que el número total de píxeles para esta imagen de 128 × 128 es de 16.384 píxeles, sabemos que la probabilidad de encontrar un píxel que tenga un nivel de gris i es justo la cantidad de píxeles que tiene nivel de gris i entre el número total.

Page 197: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

24

( ) 1929,0384.16

160.30 ==NP ( ) 2497,0

384.16

092.41 ==NP

( ) 2075,0384.16

400.32 ==NP ( ) 1601,0

384.16

624.23 ==NP

( ) 0803,0384.16

316.14 ==NP ( ) 0598,0

384.16

9805 ==NP

( ) 0298,0384.16

4886 ==NP ( ) 0197,0

384.16

3247 ==NP

0,000

0,050

0,100

0,150

0,200

0,250

Pro

bab

ilid

ad

0 1 2 3 4 5 6 7

Nivel de gris

Histograma

0

0,05

0,1

0,15

0,2

0,25

0,3

Nivel de gris

0 1 2 3 4 5 6 7

Nivel de gris

Histograma deseado

Figura 7.13. Histogramas del ejemplo.

1ª Imagen. Normalización:

07

00 ==r 1428,0

7

11 ==r 2857,0

7

22 ==r 4285,0

7

33 ==r

5714,07

44 ==r 7143,0

7

55 ==r 8571,0

7

66 ==r 1

7

77 ==r

Función acumulativa:

Nivel 0 1 2 3 4 5 6 7 Número de

píxeles 0,1929 0,2497 0,2075 0,1601 0,0803 0,0598 0,0298 0,0197

F. Acumulativa 0,1929 0,4426 0,6501 0,8103 0,8906 0,9504 0,9802 1

Vinculamos valores normalizados con la función acumulativa:

Nivel 0 1 2 3 4 5 6 7 F. Acumulativa 0,1929 0,4426 0,6501 0,8103 0,8906 0,9504 0,9802 1 Normalizados 1 3 5 6 6 1 1 1

Page 198: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

25

2ª Imagen. Normalización:

4285,07

30 ==r 5714,0

7

41 ==r 7143,0

7

52 ==r 8571,0

7

63 ==r

8571,07

64 ==r 1

7

75 ==r 1

7

76 ==r 1

7

77 ==r

Función acumulativa:

Nivel 0 1 2 3 4 5 6 7 Número de píxeles 0 0 0 0,15 0,2 0,3 0,2 0,15

F. Acumulativa 0 0 0 0,15 0,35 0,65 0,85 1

Vinculamos valores normalizados con la función acumulativa:

Nivel 0 1 2 3 4 5 6 7 F. Acumulativa 0 0 0 0,15 0,35 0,65 0,85 1 Normalizados 3 4 5 6 6 7 7 7

Mapa de Transición

0

1

2

3

4

5

6

7

0 1 2 3 4 5 6 7

Nivel de gris

Niv

el d

e gr

is

Figura 7.14. Mapa de transición solución.

Page 199: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

26

7.4. Operaciones Geométricas.

A menudo, para el análisis de imágenes, queremos investigar más

específicamente un área dentro de una imagen, llamada Región de Interés. Para hacer esto necesitamos operaciones que modifiquen las coordenadas espaciales de la imagen, las cuales se denominan operaciones geométricas. El objetivo fundamental de una operación geométrica es la transformación de los valores de una imagen tal y como podría observarse desde otro punto de vista.

Así las operaciones de magnificar o reducir una imagen, no es sino aproximar o alejar el punto de vista, rotarla equivale a girar el punto de vista de observación, trasladarla es hacer lo propio con dicho punto. 7.4.1. Operación de Traslación.

− ∂x posiciones eje x.

Dado un punto P(x,y) lo trasladaremos − ∂y posiciones eje y.

Esto supone que el punto final será P'(x',y') donde x' = x + ∂x e y' = y + ∂y.

Usaremos notación vectorial :

TPPy

xT

y

xP

y

xP +=⇒

∂∂

=

=

= ';;

'

''; (22)

Figura 7.15. Operación de traslación.

7.4.2. Operación de Escalado.

Tendremos dos factores sx y sy para cada eje siendo el factor en el que va a

cambiar la figura en cada eje. Las posiciones cambiarán de la siguiente forma:

y

x

syy

sxx

·'

·'

==

(23)

Vectorialmente:

PSPy

x

s

s

y

x

y

x·'·

0

0

'

'=⇒

=

(24)

(4,4) (6,4)

(7,1) (9,1)

Page 200: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

27

Cuando escalamos estamos también variando su posición con respecto al origen de coordenadas.

Escalado diferencial Es aquel en el que los factores son distintos sx ≠ sy Escalado uniforme si sx = sy

Figura 7.16. Operación de escalado.

Podemos diferenciar entre los dos siguientes tipos de escalado, en función de

cómo se realice el mismo:

2 2 5 5

2 2 2 2 5 5

2 2 Réplica 2 2 5 5

2 2 2 2 2 2 5 5

6 6 6 6 Píxel único 2 5

2 2 2 2 Interpolación 2 5 2 3 4 5

6 6 6 6 2 3 4 5

4 4 Interpolación 2 3 4 5

4 4 2 3 4 5

AMPLIACIÓN REDUCCIÓN

7.4.3. Operación de rotación.

Se rota y se desplaza con respecto al origen. Haremos:

( ) ( )( ) ( )θθ

θθsincos'

sincos'

xyy

yxx

+=−=

(25)

De forma vectorial:

( ) ( )( ) ( ) PRP

y

x

y

x·'·

cossin

sincos

'

'=⇒

−=

θθθθ

(26)

(4,4) (6,4)

(2,2) (3,2)

Page 201: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

28

Si los ángulos son positivos el giro es en sentido contrario a las agujas del reloj.

Si los ángulos son negativos el giro es en sentido de las agujas del reloj. NOTA:

( ) ( )( ) ( )θθ

θθsinsin

coscos

=−=−

(27)

Figura 7.17. Operación de rotación.

(5,2) (9,2)

(4’9,7’8)

(2’1,4’9)

Page 202: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

29

7.5. Operaciones morfológicas.

La morfología matemática está basada en la geometría y la forma. Las

operaciones morfológicas simplifican las imágenes y preservan las formas principales de los objetos.

En visión artificial es frecuente utilizar la morfología para el tratamiento de regiones en el sentido de determinar cómo se pueden cambiar, contar o evaluar. La morfología puede utilizarse para las siguientes tareas:

• Suavizar los bordes de una región. Esto es útil, por ejemplo, se necesita mejorar un borde, ya que usando técnicas de segmentación estándar, los bordes se presentan generalmente ruidosos debido tanto al proceso de captura como a los procesas de segmentación apareciendo sobre ellos pequeños valles o protuberancias, que pueden suprimirse mediante transformaciones morfológicas.

• Separar determinadas regiones que el proceso de segmentación las presenta unidas.

• Unir regiones que han sido separadas durante la segmentación.

Las operaciones matemáticas tienen su principal aplicación en imágenes binarias y los fundamentos matemáticos fueron concebidos desde el punto de vista de la posición antes que desde la intensidad. En las secciones de dilatación, erosión, apertura y cierre nos centraremos exclusivamente en la aplicación de la morfología a las imágenes binarias para luego extender el estudio a las imágenes de grises. 7.5.1. Fundamentos de las operaciones morfológicas.

Puesto que una imagen binaria puede tratarse como un conjunto de puntos 2D,

podemos decir que un punto representa un par de enteros que corresponden a las coordenadas de la imagen digital. Los puntos que pertenecen a los objetos en la imagen representan un conjunto X con valores binarios igual al uno lógico. Los puntos del conjunto complementario XC corresponden al fondo con valores binarios igual a cero.

Fijándonos en el ejemplo de la izquierda, tenemos el

origen marcado con un punto con coordenadas (0,0) y las coordenadas de cualquier punto se interpretan como (posición de la fila, posición de la columna) con respecto al origen.

Por tanto, los conjuntos serán:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 4,4,3,4,2,4,1,4,0,4,4,3,1,3,0,3,4,2,1,2,0,2,4,1,0,1,4,0,0,0

3,3,2,3,3,2,2,2,3,1,2,1,1,1,3,0,2,0,1,0

==

CX

X

Una transformación morfológica φ viene dada por la relación de la imagen X con

otro pequeño conjunto de puntos B, llamado elemento estructural. B se expresa con respecto a un origen local O (llamado punto representativo).

00000

01100

01100

01110

01110

Page 203: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

30

Existen una serie de elementos representativos muy utilizados cuyos conjuntos de puntos tienen la siguiente expresión:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 1,0,1,0

0,1,1,0,0,0,1,0,0,1

1,1,0,1,1,1,1,0,0,0,1,0,1,1,0,1,1,1

3

2

1

−=−−=

−−−−−−=

B

B

B

[ ]101

1

111

1

111

111

111

La transformación morfológica φ(X) aplicada a la imagen X significa que el

elemento estructural B se desplaza por toda la imagen. Suponiendo que B se posiciona sobre algún punto de la imagen, el píxel de la imagen correspondiente al punto representativo O de B se denomina píxel actual. El resultado obtenido de la relación entre la imagen X y el elemento estructural B en la posición actual se almacena en el píxel actual de la imagen. 7.5.2. Definiciones elementales.

a) Dualidad.

La dualidad de operaciones morfológicas se deduce de la existencia del

conjunto complementario; de modo que para cada transformación morfológica φ(X) existe una transformación dual φ*

(X) tal que,

( ) ( )[ ]CC XX = φφ * (28)

b) Traslación.

La traslación del conjunto de puntos X por el vector hr

se denota por Xh y se define como,

XxhxdEdX h ∈∀+=∈= rrrrr:2 (29)

A continuación veremos un ejemplo de traslación por el vector hr

= (0,1). Este desplazamiento se ejecuta moviendo "cero filas" y "una columna":

( )

00100

00110

01100

00100

00100

00010

00011

00110

00010

00010

0,1hX Traslación

Page 204: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

31

c) Complemento de un conjunto.

El complemento de un conjunto X es aquel conjunto que contenga todos los valores que no se encuentren en X, es decir,

XxxX C ∉∋= (30)

d) Diferencia de dos conjuntos.

La diferencia de dos conjuntos X e Y es aquel conjunto que contenga todos los valores que se encuentren en X pero que no estén en Y, es decir,

YxXxxYX ∉∈∋=− , (31) 7.5.3. Operaciones morfológicas I: La dilatación.

La transformación morfológica de la dilatación ⊕ combina dos conjuntos

utilizando la adición de vectores (o adición de conjuntos de Minkowski). Por definición, la dilatación X ⊕ B es el conjunto de puntos de todas las posibles adiciones vectoriales de pares de elementos, uno de cada conjunto X y B.

BbyXxbxdEdBX ∈∀∈∀+=∈=⊕rrrrrr

:2 (32)

Gráficamente, la dilatación se realiza como sigue: Se va recorriendo la imagen, por ejemplo, de izquierda a derecha y de abajo arriba y, donde nos encontremos un 1, situamos el origen del elemento estructural sobre ese 1. En esa posición se realiza la unión del elemento estructural con la parte de la imagen sobre la que se solapa dicho elemento: superponemos el elemento estructural a la imagen.

A continuación veremos una serie de ejemplos sobre la dilatación: Ejemplo 1:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 2,3,2,2,3,1,2,0,1,3,0,3,1,2,0,2,2,1,1,0

1,0,0,0

1,3,0,3,1,2,0,2,2,1,1,0

=⊕==

BX

B

X

[ ]

=•⊕

00000

00111

00111

01100

00110

11

00000

00011

00011

00100

00010

Page 205: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

32

Ejemplo 2:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 5,4,5,3,3,3,2,3,2,2,3,2,3,1,2,0,3,4,3,3,1,3,0,3,1,2,0,2,1,1,0,0

1,0,1,0

4,4,4,3,2,3,1,3,2,2,1,2,2,1,1,0

=⊕−=

=

BX

B

X

[ ]

=•⊕

101000

101111

000111

001010

001010

101

10000

10110

00110

00100

00010

Ejemplo 3:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 5,4,5,3,3,3,2,3,2,2,3,2,3,1,2,0,3,4,3,3,1,3,0,3,1,2,0,2,1,1,0,0

1,0,1,0

4,4,4,3,2,3,1,3,2,2,1,2,2,1,1,0

=⊕−=

=

BX

B

X

=

•⊕

110000

111110

011110

001110

000110

000010

11

01

10000

10110

00110

00100

00010

La dilatación tiene varias propiedades interesantes que permiten su fácil

implementación vía software. A continuación, se presentan algunas de las propiedades de la dilatación:

Conmutativa: XBBX ⊕=⊕ (33) Asociativa: ( ) ( ) DBXDBX ⊕⊕=⊕⊕ (34)

Invariante a la traslación: ( )hh BXBX ⊕=⊕ (35)

Transformación creciente: BYBXYX Si ⊕⊆⊕⇒⊆ (36)

Figura 7.18. Operación de dilatación.

Page 206: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

33

7.5.4. Operaciones morfológicas II: La erosión.

La transformación morfológica de la erosión ⊗ combina dos conjuntos

utilizando la substracción de vectores. Es fácilmente intuir que esta operación es dual a la dilatación y que, además, ni la dilatación ni la erosión son invertibles. Por definición, la erosión es:

BbXbdEdBX ∈∀∈+∈=⊗rrrr

:2 (37)

Gráficamente, la erosión se realiza como sigue: Se va recorriendo la imagen, por ejemplo, de izquierda a derecha y de abajo arriba y, donde nos encontremos un 1, situamos el origen del elemento estructural sobre ese 1. En esa posición se realiza la comparación del elemento estructural con la parte de la imagen sobre la que se solapa dicho elemento. Si, todos los unos del elemento estructural coinciden con unos en la imagen, entonces marcamos el píxel de la imagen donde está el origen del elemento estructural con el valor 1.

Ejemplo 1:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 2,3,2,2,3,1,2,0,1,3,0,3,1,2,0,2,2,1,1,0

1,0,0,0

1,3,0,3,1,2,0,2,2,1,1,0

=⊕==

BX

B

X

[ ]

=•⊗

00000

00001

00001

00000

00000

11

00000

00011

00011

00100

00010

Ejemplo 2:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 5,4,5,3,3,3,2,3,2,2,3,2,3,1,2,0,3,4,3,3,1,3,0,3,1,2,0,2,1,1,0,0

1,0,1,0

4,4,4,3,2,3,1,3,2,2,1,2,2,1,1,0

=⊕−=

=

BX

B

X

=

•⊕

00100

00000

00101

00000

00000

11

01

01100

00100

01111

00101

00100

La erosión provoca la desaparición de muchos contornos existentes en la imagen

original. La erosión con un elemento estructural isótropo es denominada por algunos autores como reducción. Esta operación es utilizada para simplificar la estructura de los objetos.

Page 207: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

34

La erosión tiene varias propiedades interesantes que permiten su fácil implementación vía software. A continuación, se presentan algunas de las propiedades de la dilatación:

No conmutativa: XBBX ⊕≠⊕ (38) Anti-extensiva: ( ) XBXB0,0 Si ⊆⊗⇒∈ (39)

Invariante a la traslación: ( )hh BXBX ⊗=⊗ (40)

Transformación creciente: BYBXYX Si ⊗⊆⊗⇒⊆ (41) Agresiva: DXBXBD Si ⊗⊆⊗⇒⊆ (42)

Conjunto simétrico: BbbB ∈−=rr(

; (43)

Transformaciones duales: ( ) YXYX CC(

⊕=⊗ (44)

Figura 7.19. Operación de erosión.

7.5.5. Operaciones morfológicas III: La apertura y el cierre.

La erosión y la dilatación son transformaciones no invertibles. Si una imagen es

erosionada y luego dilatada, la imagen original no se recupera. En efecto, obtendríamos una imagen más simplificada y menos detallada que la imagen original.

La erosión seguida de una dilatación crea una transformación morfológica

importante denominada apertura. La apertura de una imagen X por un elemento estructural B se denota por XB y se define como:

( ) BBXBX ⊕⊗=o (45)

La dilatación seguida de una erosión crea una transformación morfológica

importante denominada cierre. El cierre de una imagen X por un elemento estructural B se denota por X•B y se define como:

( ) BBXBX ⊗⊕=• (46)

Si una imagen X permanece invariable por apertura con respecto al elemento

estructural B, se dice que es abierta con respecto a B. De igual modo, si una imagen X permanece invariable por cierre con respecto al elemento estructural B se dice que es cerrada con respecto a B.

Page 208: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

35

La apertura y el cierre con un elemento isótropo se utilizan para eliminar detalles específicos de la imagen más pequeños que el elemento estructural. La forma global de los objetos no se distorsiona. El cierre conecta objetos que están próximos entre sí, rellena pequeños huecos y suaviza el contorno mientras que la apertura produce el efecto contrario.

(a) (b)

Figura 7.20. Operaciones: (a) Operación de apertura; (b) Operación de cierre. Algunas de las propiedades más interesantes de estas operaciones es, por

ejemplo, que ambas son invariantes respecto a la traslación, que la apertura es anti-extensiva y el cierre extensivo. Otro importante hecho es que la apertura y el cierre utilizadas iterativamente son idempotentes, lo que implica que la reaplicación de esas transformaciones no cambia el resultado previo. Formalmente, esto es,

( )( ) BBXBX

BBXBX

••=•= ooo

(47)

Además de otras aplicaciones de estas operaciones, existe una realmente

interesante para nuestro objetivo. La siguiente operación combinando apertura y erosión obtiene los bordes de las regiones,

BXBXBordes ⊗−= o (47)

(a) (b) (c)

Figura 7.21. Detección de bordes: (a) Apertura; (b) Erosión; (c) Resultado de restar.

=

Page 209: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

36

7.5.6. Operaciones morfológicas en escala de grises.

Las operaciones antes estudiadas se pueden transferir al caso de una imagen en

escala de grises. Las operaciones se expresan de la siguiente manera: Dilatación:

( )( ) ( ) ( ) jibjyixfyxbf máxnjmi

,,,

1010

+−−=⊕

−≤≤−≤≤

(49)

El efecto general de realizar una dilatación en imágenes de gris también es

doble: (1) si todos los valores del elemento estructural son positivos, la imagen de salida tiende a ser más brillante que la de entrada; y (2) los detalles oscuros o bien son reducidos o eliminados dependiendo de sus valores.

Erosión:

( )( ) ( ) ( ) jibjyixfyxbf mínnjmi

,,,

1010

−++=⊕−≤≤−≤≤

(50)

El efecto general de realizar una dilatación en imágenes de gris también es

doble: (1) si todos los valores del elemento estructural son positivos, la imagen de salida tiende a ser más oscura que la de entrada; y (2) los detalles brillantes o bien son reducidos o eliminados dependiendo de sus valores.

Ejemplo:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 2,3,2,2,3,1,2,0,1,3,0,3,1,2,0,2,2,1,1,0

1,0,0,0

1,3,0,3,1,2,0,2,2,1,1,0

=⊕==

BX

B

X

=

•⊕

22222222

27667622

27667622

27665422

22222222

21

21

00000000

00233100

00544500

00544300

00000000

−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−

=

•⊗

22222222

22222222

22201012

22222212

22222222

21

21

00000000

00233100

00544500

00544300

00000000

Page 210: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

37

7.5.7. Algunas aplicaciones de la morfología en imágenes de grises.

Suavizado morfológico.

Una forma de conseguir un cierto suavizado consiste en realizar una apertura

morfológica de un cierre. El resultado de esas dos operaciones consiste en eliminar o atenuar tanto las zonas brillantes y oscuras como el ruido.

Gradiente morfológico.

La dilatación y la erosión se utilizan a menudo para obtener el gradiente

morfológico de una imagen denotado g y definido por:

( ) ( )BfBfg ⊗−⊕= (51)

Transformación sobrero en la parte superior o "top-hat".

Esta transformación viene dada por:

( )Bffh o−= (52) donde f es la imagen de entrada y B el elemento estructura. Esta transformación

debe su nombre al uso de un elemento estructural rectangular con una parte superior en forma de sombrero. Es útil para el realzado de detalles ante presencia de sombras.

=

0011100

0011100

0011100

0011100

0011100

1111111

1111111

B

(a) (b) (c)

Figura 7.22. Aplicaciones de morfología en grises: (a) Suavizado morfológico; (b) Gradiente morfológico; (c) Resultado de una transformación "top-hat".

Page 211: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

38

7.6. Eliminación de ruido en el dominio espacial.

El ruido es una información no deseada que contamina la imagen el cual aparece

en las imágenes procedente de una gran variedad de fuentes. El proceso de adquisición de la imagen digital, que convierte la imagen óptica en una señal eléctrica continua que luego es muestreada, es el primer proceso por el cual el ruido aparece en imágenes digitales. Por tanto, podríamos definir la imagen como una componente pura g(x,y) junto con una componente de ruido ξ(x,y) tal y como se expresa a continuación:

( ) ( ) ( )yxyxgyxf ,,, ξ+= (53)

En cada paso del proceso hay fluctuaciones originadas por fenómenos naturales

que añaden un valor aleatorio al valor exacto de la intensidad para un determinado píxel.

Figura 7.23. Modelo del proceso de degradación de una imagen.

7.6.1. Tipos de ruido.

En las imágenes típicas de ruido puede modelarse bien como una distribución

gaussiana (normal), uniforme, "sal y pimienta" (impulsivo), Rayleigh, Exponencial negativo o Gamma.

a) Gaussiano.

La forma de distribución de este tipo de ruido como nivel de gris se puede

modelar como un histograma h, cuya descripción analítica es la siguiente:

( )2

2

2

22

1 σ

πσ

mg

G eh

−−

= (54)

donde g es el nivel de gris del ruido, m el valor medio y σ la desviación estándar.

Figura 7.24. Distribución Gaussiana para m = 0: r σ = 2; a σ = 3; v σ = 4.

H

( )yxf ,

( )yx,ξ

( )yxg ,

+

+

Page 212: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

39

b) Uniforme.

La forma de distribución de este tipo de ruido como nivel de gris se puede

modelar como un histograma h, cuya descripción analítica es la siguiente:

≤≤−=

caso otro en

bga paraabhU

0

1 (55)

donde g es el nivel de gris del ruido, ( a + b )/2 el valor medio y ( b − a )

2/12 la

varianza.

Figura 7.25. Distribución Uniforme.

c) Impulsivo.

La forma de distribución de este tipo de ruido como nivel de gris se puede

modelar como un histograma h, cuya descripción analítica es la siguiente:

==

=− )(

)(

pimientabg paraB

salag paraAh PS (56)

Figura 7.26. Distribución Impulsiva.

d) Rayleigh.

La forma de distribución de este tipo de ruido como nivel de gris se puede

modelar como un histograma h, cuya descripción analítica es la siguiente:

α

α

2

2 g

R eg

h−

= (54)

donde g es el nivel de gris del ruido, 2/α el valor medio y α la desviación

estándar.

a b

A

B

a b

ab −1

Page 213: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

40

Figura 7.27. Distribución Rayleigh para: a α = 2; a α = 4; v α = 8.

e) Exponencial negativo.

La forma de distribución de este tipo de ruido como nivel de gris se puede

modelar como un histograma h, cuya descripción analítica es la siguiente:

α

α

g

NE eh−

− = 1 (54)

donde g es el nivel de gris del ruido, 1/α el valor medio y α la desviación

estándar.

Figura 7.28. Distribución Exponencial negativa para: a α = 2; a α = 4; v α = 8.

f) Gamma.

La forma de distribución de este tipo de ruido como nivel de gris se puede

modelar como un histograma h, cuya descripción analítica es la siguiente:

( )α

α

α

αα

g

NE eg

h−−

− −=

!1

1

(54)

donde g es el nivel de gris del ruido, α

2 el valor medio y α la desviación estándar.

Page 214: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

41

7.6.2. Filtros de orden.

a) Mediana.

Sustituimos el valor actual del píxel por la mediana. Esto se puede ver

claramente en el siguiente ejemplo:

6698,85,83,71,66,65,57,50,45

836657

718545

986550

⇒⇒⇒

MeM

El código implementado de este filtro es el siguiente:

function filtro_mediana( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

k = 0; for n = –1 : 1 : 1

for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1;

end end [ ordenado , indices ] = sort( vector ); C ( i , j ) = ordenado ( 1 , 5 );

end end return

Page 215: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

42

b) Moda.

Sustituimos el valor actual del píxel por la moda. Esto se puede ver claramente

en el siguiente ejemplo:

6698,85,83,71,66,66,57,50,45

836657

718545

986650

⇒⇒⇒

MoM

El código implementado de este filtro es el siguiente:

function filtro_moda( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); moda = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

k = 0; …………….. …………….. end

end end end return

Page 216: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

43

c) Mínimo.

Sustituimos el valor actual del píxel por el mínimo. Esto se puede ver

claramente en el siguiente ejemplo:

4598,85,83,71,66,65,57,50,45

836657

718545

986550

⇒⇒⇒

MínM

El código implementado de este filtro es el siguiente:

function filtro_minimo(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

k = 0; for n = –1 : 1 : 1

for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1;

end end C ( i , j ) = min( vector );

end end return

Page 217: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

44

d) Máximo.

Sustituimos el valor actual del píxel por el máximo. Esto se puede ver

claramente en el siguiente ejemplo:

9898,85,83,71,66,65,57,50,45

836657

718545

986550

⇒⇒⇒

MáxM

El código implementado de este filtro es el siguiente:

function filtro_maximo(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

k = 0; for n = –1 : 1 : 1

for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1;

end end C ( i , j ) = max( vector );

end end return

Page 218: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

45

e) Punto medio.

Sustituimos el valor actual del píxel por el punto medio entre el máximo y el

mínimo. Esto se puede ver claramente en el siguiente ejemplo:

722

984598,85,83,71,66,65,57,50,45

836657

718545

986550

≈+⇒⇒⇒

MeM

El código implementado de este filtro es el siguiente:

function filtro_maximo(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

k = 0; for n = –1 : 1 : 1

for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m ); k = k + 1;

end end C ( i , j ) = ( min( vector ) + max( vector ) ) / 2;

end end return

Page 219: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

46

f) Alfa recortado.

El parámetro α nos indicará cuanto hemos de recortar los extremos. El caso

límite de este filtro es el filtro de la mediana. Esto se puede ver claramente en el siguiente ejemplo con α = 2:

9898,85,83,71,66,65,57,50,45

836657

718545

986550

⇒⇒⇒

αM

El código implementado de este filtro es el siguiente:

function filtro_maximo( A , alfa ) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); vector = zeros ( 1 , 9 ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

k = 0; for n = –1 : 1 : 1

for m = –1 : 1 : 1 vector( 1 , k ) = A( i – n , j – m );k = k + 1;

end end [ ordenado , indices ] = sort( vector ); C ( i , j ) = 0; for l = alfa : 1: 9 – alfa

C ( i , j ) = C ( i , j ) + ordenado ( 1 , l ); end C ( i , j ) = C ( i , j ) / ( 9 – 2*alfa );

end end return

Page 220: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

47

(a) (b) (c)

(d) (e) (f)

(g)

Figura 7.29. Resultado de aplicar los filtros de orden.

(a) Imagen con ruido. (b) Imagen resultado de aplicar el filtro de la mediana. (c) Imagen resultado de aplicar el filtro de la moda. (d) Imagen resultado de aplicar el filtro del mínimo. (e) Imagen resultado de aplicar el filtro del máximo. (f) Imagen resultado de aplicar el filtro del punto medio. (g) Imagen resultado de aplicar el filtro α recortado.

Page 221: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

48

7.6.3. Filtros de media.

a) Media aritmética.

En este tipo de filtro se consigue aportar un valor al punto central de la máscara

igual al de la media aritmética de los puntos de la máscara. Las características que presenta este filtro son las siguientes:

• Difumina la imagen ya sea ante sal (valor de nivel de gris alto) o

pimienta (valor de nivel de gris alto). • Es un filtro apto para ruidos de tipo gaussiano y variantes. • Es capaz de eliminar bordes y hacer desaparecer detalles.

Formalmente, el filtrado supone realizar la suma de las nueve componentes que se tiene al superponer el filtro a la imagen, es decir,

∑=

=++++++++=⇒

9

1

987654321

987

654

321

9

1

9 i

iA zzzzzzzzzz

M

zzz

zzz

zzz

El código implementado de este filtro es el siguiente:

function filtro_media_aritmetica( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

C( i – 1 , j – 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ) ) / 9; end end return

Page 222: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

49

b) Media geométrica.

En este tipo de filtro se consigue aportar un valor al punto central de la máscara

igual al de la media geométrica de los puntos de la máscara. Las características que presenta este filtro son las siguientes:

• Difumina la imagen ya sea ante sal (valor de nivel de gris alto) o

pimienta (valor de nivel de gris alto). • Es un filtro apto para ruidos de tipo gaussiano y variantes. • Es capaz de detectar bordes y detalles que eliminaba la media aritmética.

Formalmente, el filtrado supone realizar el producto de las nueve componentes que se tiene al superponer el filtro a la imagen y hacer la raíz novena, es decir,

9

9

1

9987654321

987

654

321

········ ∏=

==⇒

i

iG zzzzzzzzzzM

zzz

zzz

zzz

El código implementado de este filtro es el siguiente:

function filtro_media_geometrica( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

C( i – 1 , j – 1 ) = ( prod( A( i – 1 : i + 1 , j – 1 : j + 1 ) ) )^(1 / 9); end end return

Page 223: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

50

c) Media armónica.

En este tipo de filtro se consigue aportar un valor al punto central de la máscara

igual al de la media armónica de los puntos de la máscara. Las características que presenta este filtro son las siguientes:

• Difumina la imagen ya sea ante sal (valor de nivel de gris alto) pero no

ante pimienta ya que no elimina este tipo de ruido. • Es un filtro apto para ruidos de tipo gaussiano y variantes.

Formalmente, el filtrado supone realizar las siguientes operaciones siguiendo la definición de media armónica, es decir,

∑=

=++++++++

=⇒

9

1987654321987

654

321

19

1111111119

i i

H

zzzzzzzzzz

M

zzz

zzz

zzz

El código implementado de este filtro es el siguiente:

function filtro_media_armonica( A ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

C( i – 1 , j – 1 ) = 9 / sum( 1 ./ A( i – 1 : i + 1 , j – 1 : j + 1 ) ); end end return

Page 224: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

51

d) Media contra-armónica.

En este tipo de filtro se consigue aportar un valor al punto central de la máscara

igual al de la media contra-armónica de los puntos de la máscara. Las características que presenta este filtro son las siguientes:

• Depende del valor de R que nosotros definimos. • R < 0, eliminamos ruido tipo sal. • R > 0, eliminamos ruido tipo pimienta.

Formalmente, el filtrado supone realizar la siguiente operación elemento a elemento, es decir,

=

=

++++++++++

− =++++++++

++++++++=⇒

9

1

9

1

1

987654321

19

18

17

16

15

14

13

12

11

987

654

321

i

R

i

i

R

i

RRRRRRRRR

RRRRRRRRR

HC

z

z

zzzzzzzzz

zzzzzzzzzM

zzz

zzz

zzz

El código implementado de este filtro es el siguiente:

function filtro_media_contrarmonica( A , R ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

C( i – 1 , j – 1 ) = ( sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).^(R + 1 ) ) / ( sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).^R );

end end return

Page 225: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

52

e) Media Yp.

En este tipo de filtro se consigue aportar un valor al punto central de la máscara

igual al de la media Yp de los puntos de la máscara. Las características que presenta este filtro son las siguientes:

• Depende del valor de P que nosotros definimos. • P < 0, eliminamos ruido tipo pimienta. • P > 0, eliminamos ruido tipo sal.

Formalmente, el filtrado supone realizar la siguiente operación elemento a elemento, es decir,

Pi

P

i

P

PPPPPPPPP

Y

zzzzzzzzzz

M

zzz

zzz

zzz

p 99

9

1987654321

987

654

321 ∑==++++++++=⇒

El código implementado de este filtro es el siguiente:

function filtro_media_yp( A , P ) [ f c ] = size( A ); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f , c ); for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

C( i – 1 , j – 1 ) = ( ( sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).^P ) / 9)^(1 / P); end end return

Page 226: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

53

(a) (b) (c)

(d) (e) (f)

(g) (h) (i)

(j)

Figura 7.29. Resultado de aplicar los filtros de orden.

(a) Imagen con ruido sal y pimienta. (b) Imagen con ruido sal. (c) Imagen con ruido pimienta. (d) Imagen resultado de aplicar el filtro de la media aritmética. (e) Imagen resultado de aplicar el filtro de la media geométrica. (f) Imagen resultado de aplicar el filtro de la media armónica. (g) Imagen resultado de aplicar el filtro de la media contra-armónica. (h) Imagen resultado de aplicar el filtro de la media YP.

Page 227: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

54

7.7. Bibliografía.

Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods.

Visión por Computador, Imágenes digitales y aplicaciones. Gonzalo Pajares, Jesús M. de la Cruz.

Page 228: Física de la visión (Teoría y Prácticas)

Tema 7 - Procesamiento Básico de Imágenes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

55

Page 229: Física de la visión (Teoría y Prácticas)

BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.

TEMA VIII: Transformadas de la imagen.

8.1. Transformada de Fourier 1

8.1.1. Transformada de Fourier continua 1

a) Unidimensional 1

b) Bidimensional 2

8.1.2. Transformada de Fourier discreta 4

c) Unidimensional 4

d) Bidimensional 4

8.1.3. Algunas propiedades de la Transformada de Fourier discreta 6

Propiedad I: Separabilidad 6

Propiedad II: Traslación 8

Propiedad III: Periodicidad y simetría conjugada 9

Propiedad IV: Rotación 10

Propiedad V: Distributividad y cambio de escala 11

Propiedad VI: Valor medio 12

Propiedad VI: Laplaciano 12

Propiedad VI: Convolución y Correlación 12

8.1.4. Transformada Rápida de Fourier 13

8.1.5. Representación del logaritmo del espectro de Fourier 13

8.2. Aplicaciones a la Transformada de Fourier 14

a) Analizador de texturas 14

b) Ruido 14

c) Detección de bordes 16

8.3. Transformada de Hough 17

8.4. Aplicaciones de la Transformada de Hough 20

8.5. Bibliografía 21

Page 230: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

1

( )xf

xX

8.1. Transformada de Fourier.

8.1.1. Transformada de Fourier continua.

a) Transformada de Fourier unidimensional.

Sea f(x) una función continua de la variable real x, la Transformada Directa de

Fourier de f(x), indicada por ℑ f(x), se define por la siguiente ecuación:

( ) ( ) ( )∫+∞

∞−

−==ℑ dxexfuFxf uxj π2 (1)

Dada una F(u), podemos hallar f(x) empleando la Transformada Inversa de

Fourier, cuya expresión es la siguiente:

( ) ( ) ( )∫+∞

∞−

+− ==ℑ dxexfxfuF uxj π21 (2)

Las ecuaciones anteriores, denominadas par de Transformadas de Fourier,

existen siempre y cuando f(x) sea una función continua e integrable y F(u) sea

integrable (aspectos que se satisfacen casi siempre en la práctica). La variable u hace

referencia a la frecuencia.

Puesto que el integrando corresponde a una función compleja en el dominio del

espacio, como resultado de integrar, obtendremos también una función compleja en el

dominio de la frecuencia. Sin embargo, trabajaremos con el módulo de la transformada

puesto que será la característica que más información nos aporte sobre la imagen.

Ejemplo: Considerando la función f(x) representada a continuación, obtenga la

Transformada de Fourier de la misma:

( ) ≤≤

=caso otro en

XxAxf

0

0

Su Transformada de Fourier se obtiene de la ecuación anterior de la siguiente

forma:

( )

[ ] [ ]

( ) uXjuXjuXjuXj

uXjuXjuXjuj

X

uxj

Xuxj

X

uxjX

uxjuxjuxj

euXsenuj

Ae

ee

uj

A

e

uj

Ae

uj

Aee

uj

Ae

uj

A

dxeAdxeAdxeAdxeAdxeAuF

ππππ

πππππ

πππππ

πππ

ππππ

−−−+

−−−−−

−+∞ −−

∞−

−+∞

∞−

=−=

=−=−=−=

−=

==++== ∫∫∫∫∫

2

2

11

22·

2

·····

2

22202

0

2

0

22

0

20

22

( ) ( ) uXjeuXsenuj

AuF ππ

π−=

Page 231: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

2

( )yxf ,

x X

yY

A

Puesto que a nosotros nos interesa representar el módulo de la Transformada de

Fourier, tenemos que el módulo es:

( ) ( ) ( ) ( ) ( )uX

uXsenAXeuXsen

uj

AuFeuXsen

uj

AuF uXjuXj

πππ

ππ

πππ ==⇒= −− ··

Representado gráficamente es:

b) Transformada de Fourier bidimensional.

Sea f(x,y) una función continua de dos variables reales x e y, la Transformada

Directa de Fourier de f(x,y), indicada por ℑ f(x,y), se define por la siguiente ecuación:

( ) ( ) ( ) ( )∫

+∞

∞−

+−==ℑ dxdyeyxfvuFyxf vyuxj π2,,, (3)

Dada una F(u), podemos hallar f(x) empleando la Transformada Inversa de

Fourier, cuya expresión es la siguiente:

( ) ( ) ( ) ( )∫

+∞

∞−

++− ==ℑ dudvevuFyxfvuF vyuxj π21 ,,, (4)

Las ecuaciones anteriores, denominadas par de Transformadas de Fourier,

existen siempre y cuando f(x,y) sea una función continua e integrable y F(u,v) sea

integrable (aspectos que se satisfacen casi siempre en la práctica). Las variables u y v

hacen referencia a la frecuencia, concepto que ahora es más complicado de ver.

Ejemplo: Considerando la función f(x,y) representada a continuación, obtenga la

Transformada de Fourier de la misma:

( ) ≤≤≤≤

=caso otro en

YyXxAyxf

0

0;0,

X

1

X

2

X

3

X

3−X

2−X

1−

AX

Page 232: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

3

Su Transformada de Fourier se obtiene de la ecuación anterior de la siguiente

forma:

( ) ( ) ( ) ( )

( ) ( )

[ ][ ]

[ ][ ]

( ) ( ) ( ) ( )vY

evYsen

uX

euXsenAXYeuXsenevYsen

uv

A

j

eee

eee

uv

A

j

ee

uv

A

jee

uv

A

j

eeeeuv

A

je

uje

vjA

dxedyedxdyeAdxdyeA

dxdyeAdxdyeAdxdyeAvuF

vYjuXjuXjvYj

uXjuXjuXj

vYjvYjvYj

uXjvYjuXjvYj

uXjujvYjuj

X

uxj

Y

vyj

Xuxj

Yvyj

Y Xvyuxj

Y X

vyuxj

Y Xvyuxjvyuxjvyuxj

ππ

ππππ

π

π

ππ

πππ

ππππ

πππ

πππ

ππππ

ππππππ

ππππ

πππ

−−−−

−−+

−−+

−−−−

−−−−−−

−−+−∞+ ∞+ +−

+−

∞− ∞−

+−+∞

∞−

+∞

∞−

+−

=

−=

=−−

−=

=−−

−=−−

−=

=−−

−=

−=

=

==+

++==

∫∫∫ ∫∫ ∫

∫ ∫∫ ∫∫ ∫

2

22

222

22

2

202202

2

0

2

0

2

0

2

0

2

0 0

22

0 0

20 0

22

1

22

1

2

1

2

111·1

2

1

·2

2

1··

2

1

···

···,

( ) ( ) ( )vY

evYsen

uX

euXsenAXYvuF

vYjuXj

ππ

ππ ππ −−

=,

Puesto que a nosotros nos interesa representar el módulo de la transformada de

Fourier, tenemos que el módulo es:

( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( )vY

vYsen

uX

uXsenAXYvuF

vY

evYsen

uX

euXsenAXYvuF

vY

evYsen

uX

euXsenAXYvuF

vYjuXjvYjuXj

ππ

ππ

ππ

ππ

ππ

ππ ππππ

··,

··,,

=

=⇒=−−−−

Representado gráficamente es:

Page 233: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

4

8.1.2. Transformada de Fourier discreta.

a) Transformada Discreta de Fourier unidimensional.

Sea f(x) una función discreta de la variable real x, tal que x = 0, 1,..., N – 1 y f(x)

toma valores discretos representando el nivel de gris del píxel x. Entonces, la

Transformada Directa de Fourier Discreta de f(x), indicada por ℑ f(x), se define por

la siguiente ecuación:

( ) ( ) ( )∑−

=

−==ℑ

1

0

21 N

x

N

uxj

exfN

uFxfπ

(5)

Entonces, la Transformada Directa de Fourier discreta de la imagen consiste en

una función F(u) tal que u = 0, 1,..., N – 1.

Dada una F(u), podemos hallar f(x) empleando la Transformada Inversa de

Fourier Discreta, cuya expresión es la siguiente:

( ) ( ) ( )∑−

=

+− ==ℑ1

0

21

N

u

N

uxj

euFxfuFπ

(6)

Entonces, la Transformada Inversa de Fourier discreta de la imagen consiste en

una función f(x) tal que x = 0, 1,..., N – 1.

Las ecuaciones anteriores, denominadas par de Transformadas Discretas de

Fourier, existen siempre y cuando f(x) sea una función discreta y sumable y F(u) sea

sumable (aspectos que se satisfacen casi siempre en la práctica). La variable u hace

referencia a la frecuencia, esta vez, discretizada.

Los valores u = 0, 1,…, N – 1 de la Transformada de Fourier corresponden a las

muestras de la transformación continua en valores 0, ∆u, 2∆u,…, (N – 1)∆u. Es decir, la

función F(u) representa en realidad F(u∆u). Los términos ∆u y ∆x están relacionados

entre sí a través de la siguiente expresión:

xNu

∆=∆ 1

(7)

b) Transformada Discreta de Fourier bidimensional.

Sea f(x,y) una imagen en nivel de gris, con x = 0, 1,..., N – 1 e y = 0, 1,..., N – 1;

y f(x,y) toma valores discretos representando el nivel de gris del píxel (x,y). Entonces, la

Transformada Directa de Fourier Discreta de la imagen consiste en una función F(u,v)

tal que u = 0, 1,..., N – 1 y v = 0, 1,..., N – 1:

( ) ( ) ( )∑∑−

=

=

+−==ℑ

1

0

1

0

2

,1

,,M

x

N

y

N

vy

M

uxj

eyxfMN

vuFyxfπ

(8)

Page 234: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

5

Para el caso cuando las imágenes se muestrean con una distribución cuadrada

(M = N), tenemos la siguiente expresión:

( ) ( ) ( )∑∑−

=

=

+−

==ℑ1

0

1

0

2

,1

,,N

x

N

y

N

vyuxj

eyxfN

vuFyxfπ

(9)

Dada una F(u,v), podemos hallar f(x,y) empleando la Transformada Inversa de

Fourier Discreta, cuya expresión es la siguiente:

( ) ( ) ( )∑∑−

=

=

++− ==ℑ

1

0

1

0

21 ,,,

M

u

N

v

N

vy

M

uxj

evuFyxfvuFπ

(10)

Para el caso cuando las imágenes se muestrean con una distribución cuadrada

(M = N), tenemos la siguiente expresión:

( ) ( ) ( )∑∑−

=

=

++− ==ℑ1

0

1

0

21 ,

1,,

N

u

N

v

N

vyuxj

evuFN

yxfvuFπ

(11)

Las ecuaciones anteriores, denominadas par de Transformadas de Fourier,

existen siempre y cuando f(x,y) sea una función discreta y sumable y F(u,v) sea sumable

(aspectos que se satisfacen casi siempre en la práctica). Las variables u y v hacen

referencia a la frecuencia.

Los incrementos de muestrea en los dominios espacial y de frecuencia están

relacionados por:

xMu

∆=∆ 1

yN

v∆

=∆ 1 (12)

Figura 8.1. Ejemplos de algunas de espectros Transformadas de Fourier.

Page 235: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

6

8.1.3. Algunas propiedades de la Transformada de Fourier discreta.

Propiedad I: Separabilidad.

Esta propiedad de la Transformada de Fourier (DFT, del inglés «Discrete

Fourier Transform») esta relacionada con la posibilidad de calcular la DFT de una

función bidimensional como una combinación de dos Transformadas de Fourier,

calculando primero una DFT sobre la variable de uno de los ejes y al resultado aplicarle

de nuevo la DFT sobre la variable del otro eje.

La ventaja que aporta esta propiedad es el hecho de poder obtener la

transformada F(u,v) o la inversa f(x,y) en dos pasos consecutivos, mediante la aplicación

de la Transformada de Fourier unidimensional o su inversa:

( ) ( )∑−

=

−=

1

0

2

,1

,N

x

M

uxj

evxFN

vuFπ

(13) ( ) ( )∑−

=

−=

1

0

2

,1

,N

y

M

vyj

eyuFN

vuFπ

(14)

donde F(x,v) es donde F(u,y) es

( ) ( )444 8444 76 filas susde una cada a TFD

N

y

N

vyj

eyxfN

NvxF

= ∑

=

−1

0

2

,1

·,π

( ) ( )444 8444 76 columnas susde una cada a TFD

N

x

N

uxj

eyxfN

NyuF

= ∑

=

−1

0

2

,1

·,π

TFD de filas-columnas TFD de columnas-filas

Por tanto, la transformada de la matriz f(x,y) se ha realizado, calculando primero

la transformada unidimensional a cada una de sus filas y multiplicando el resultado por

N. Posteriormente, se calcula la transformada a cada una de las columnas de la matriz

F(x,v). De igual modo, podemos obtener idénticos resultados tomando primero las

transformadas a lo largo de las columnas de f(x,y) y luego sobre las filas de ese

resultado.

Demostración.

( ) ( ) ( ) ( )

( ) ( )

( ) ( ) ( ) ( )

( ) ( );,,1

,1

,1

,1

,

:

;,,1

,1

,1

,1

,

:

1

0

1

0

2

1

0

21

0

21

0

21

0

21

0

2

1

0

1

0

2

1

0

21

0

21

0

21

0

21

0

2

∑∑

∑∑∑ ∑∑

∑∑

∑∑∑ ∑∑

=

=

+−

=

−−

=

−−

=

−−

=

−−

=

=

=

+−

=

−−

=

−−

=

−−

=

−−

=

==

==

==

==

==

==

N

x

N

y

N

vyuxj

N

y

M

uxjN

x

N

vyjN

y

M

vyjN

x

N

uxjN

y

M

vyj

N

x

N

y

N

vyuxj

N

x

M

uxjN

y

N

vyjN

x

M

uxjN

y

N

vyjN

x

M

uxj

vuFeyxfN

eeyxfN

eeyxfN

eyuFN

vuF

FILAS COLUMNAS

vuFeyxfN

eeyxfN

eeyxfN

evxFN

vuF

COLUMNAS FILAS

π

πππππ

π

πππππ

Transformada de cada una

de sus columnas

Transformada de cada una

de sus filas

Page 236: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

7

(a)

(b)

Figura 8.2. Obtención de la Transformada de Fourier bidimensional como una serie de

transformadas unidimensionales; (a) FILAS-COLUMNAS; (b) COLUMNAS-FILAS.

( )0,0 ( )1,0 −N

( )0,1−N

y

x

( )yxf ,

( )0,0 ( )1,0 −N

( )0,1−N

y

x

( )yuF ,

( )0,0 ( )1,0 −N

( )0,1−N

y

x

( )vuF ,

DFT de las columnas y

Multiplicación por N. DFT de las filas.

( )0,0 ( )1,0 −N

( )0,1−N

y

x

( )yxf ,

( )0,0 ( )1,0 −N

( )0,1−N

y

x

( )vxF ,

( )0,0 ( )1,0 −N

( )0,1−N

y

x

( )vuF ,

DFT de las filas y

Multiplicación por N. DFT de las columnas.

Page 237: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

8

Propiedad II: Traslación.

Las propiedades de traslación del par de transformadas de Fourier son:

( ) ( )00

2

,,00

vvuuFeyxf N

yvxuj

−−⇔+

+ π y ( ) ( ) N

vyuxj

evuFyyxxf002

00 ,,

+−

⇔−−π

(15)

Por tanto, podemos decir que multiplicar por dicha exponencial en el dominio de

la imagen f(x,y) provoca un desplazamiento del centro de su transformada directa al

punto (u0,v0). Por otro lado, multiplicar por la segunda exponencial en el dominio de la

transformada F(u,v) tiene como resultado un traslado del centro de su transformada

inversa al punto (x0,y0).

Un caso particular de esta propiedad consiste en mover el origen de la

Transformada de Fourier de f(x,y) al centro de la matriz N × N que le corresponda, es

decir, al punto (N/2,

N/2). Para ello, podemos hacer uso de que:

( ) ( )

( ) ( ) ( ) ( )( )( ) ( )( )( )

( )( )( )

−−⇔−

−===⇒

−−⇔

+

++++

++

++

+

++

2,

21,

1,,,,,

,,

22

2222

00

2

00

00

Nv

NuFyxf

yxfeyxfeyxfeyxfeyxf

vvuuFeyxf

yx

yxyxj

yxj

N

yN

xN

jN

yvxuj

N

yvxuj

ππππ

π

Así, el origen de la Transformada de Fourier de f(x,y) puede ser desplazado hasta

el centro de su correspondiente cuadrado de frecuencias N × N multiplicando f(x,y) sólo

por (-1)x+y

(es decir, negando píxeles de la imagen f(x,y) alternativamente).

También cabe resaltar, que un desplazamiento en la función f(x,y), no provocará

un cambio en la magnitud de su transformada de Fourier. Véase esto matemáticamente

en la siguiente expresión:

( ) ( ) ( ) ( ) ( ) ( ) ( )vuFvuFevuFevuFevuF N

vyux

N

vyuxjN

vyuxj

N

vyuxj

,1·,·,·,,00000000

2222

=−===++

−+

−+

− πππ

(a) (b) (c)

Figura 8.3. Resultados de la traslación; (a) Imagen simple; (b) Espectro de Fourier sin

desplazamiento; (c) Espectro de Fourier desplazado hacia el centro.

Page 238: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

9

Propiedad III: Periodicidad y simetría conjugada.

Por tanto, gracias a esta propiedad de simetría, para calcular la magnitud de los

puntos de un periodo completo, tan sólo necesitamos calcular los N/2 + 1 primeros

puntos, siempre y cuando el origen de la transformada este centrado en el punto

(N/2,

N/2). Para conseguir este movimiento del origen en la transformada, podemos aplicar

la propiedad de traslación.

( ) ( ) ( ) ( )NvNuFNvuFvNuFvuF ++=+=+= ,,,, (16)

Si f(x,y) es real, una característica interesante es que la Transformada de Fourier

presenta también simetría conjugada y los módulos coinciden:

( ) ( )vuFvuF −−= ,, * y ( ) ( )vuFvuF −−= ,, (17)

Demostraciones:

( ) ( )( )

( )

( ) ( ) ( )

( ) ( ) ( ) ( )

( ) ( )( )

( )

( ) ( ) ( )

( ) ( ) ( ) ( )

( ) ( )( ) ( )

( )

( ) ( ) ( )

( ) ( ) ( ) ( )vuFeyxfN

eyxfN

eeyxfN

eeyxfN

eyxfN

eyxfN

NvNuF

vuFeyxfN

eyxfN

eeyxfN

eeyxfN

eyxfN

eyxfN

NvuF

vuFeyxfN

eyxfN

eeyxfN

eeyxfN

eyxfN

eyxfN

vNuF

N

x

N

y

N

vyuxjN

x

N

y

N

vyuxj

N

x

N

y

jN

vyuxjN

x

N

y

jN

vyuxj

N

x

N

y

jN

vyuxjN

x

N

y

N

yNvxNuj

N

x

N

y

N

vyuxjN

x

N

y

N

vyuxj

N

x

N

y

jN

vyuxjN

x

N

y

jN

vyuxj

N

x

N

y

jN

vyuxjN

x

N

y

N

yNvuxj

N

x

N

y

N

vyuxjN

x

N

y

N

vyuxj

N

x

N

y

jN

vyuxjN

x

N

y

jN

vyuxj

N

x

N

y

jN

vyuxjN

x

N

y

N

vyxNuj

,,1

1,1

,1

,1

,1

,1

,

,,1

1,1

,1

,1

,1

,1

,

,,1

1,1

,1

,1

,1

,1

,

1

0

1

0

21

0

1

0

42

1

0

1

0

421

0

1

0

42

1

0

1

0

421

0

1

0

2

1

0

1

0

21

0

1

0

22

1

0

1

0

221

0

1

0

22

1

0

1

0

221

0

1

0

2

1

0

1

0

21

0

1

0

22

1

0

1

0

221

0

1

0

22

1

0

1

0

221

0

1

0

2

==−=

===

===++•

==−=

===

===+•

==−=

===

===+•

∑∑∑∑

∑∑∑∑

∑∑∑∑

∑∑∑∑

∑∑∑∑

∑∑∑∑

∑∑∑∑

∑∑∑∑

∑∑∑∑

=

=

+−−

=

=

+−

=

=

−+

−−

=

=

−+

=

=

−+−−

=

=

+++−

=

=

+−−

=

=

+−

=

=

−+

−−

=

=

−+

=

=

−+−−

=

=

++−

=

=

+−−

=

=

+−

=

=

−+

−−

=

=

−+

=

=

−+−−

=

=

++−

ππ

ππππ

πππ

ππ

ππππ

πππ

ππ

ππππ

πππ

( ) ( ) ( ) ( )

( ) ( ) ( )

( ) ( ) ( )∑∑∑∑

∑∑∑∑

∑∑∑∑

=

=

=

=

−−−

=

=

=

=

+−

=

=

++−

=

=

−−−

==−−•

==•

===−−•

1

0

1

0

1

0

1

0

2

1

0

1

0

1

0

1

0

2

*1

0

1

0

21

0

1

0

2

,1

,1

,

,1

,1

,

,,1

,1

,

N

x

N

y

N

x

N

y

N

vyuxj

N

x

N

y

N

x

N

y

N

vyuxj

N

x

N

y

N

vyuxjN

x

N

y

N

vyuxj

yxfN

eyxfN

vuF

yxfN

eyxfN

vuF

vuFeyxfN

eyxfN

vuF

π

π

ππ

Page 239: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

10

Propiedad IV: Rotación.

Si rotamos la función f(x,y) un ángulo determinado α, la Transformada de

Fourier también se verá afectada por una rotación del mismo ángulo α. Esta propiedad

también se da a la inversa, es decir, si la Transformada se rota en un determinado ángulo

β, la Transformada Inversa también se verá rotada ese mismo ángulo β.

Si introducimos las coordenadas polares:

( )θcosrx = ( )θsinrx =

( )φρ cos=u ( )φρ sin=v

Entonces f(x,y) y F(u,v) se convierten en f(r,θ) y F(ρ,φ ), respectivamente. La

sustitución directa en el par de transformadas de Fourier proporciona lo siguiente:

( ) ( )αφραθ +⇔+ ,, Frf (18)

(a) (b)

(c) (d)

Figura 8.4. Propiedades de rotación de la Transformada de Fourier; (a) Imagen simple;

(b) Espectro de la imagen simple; (c) Imagen girada; (d) Espectro de la imagen girada.

Page 240: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

11

Propiedad V: Distributividad y cambio de escala.

De la definición del par de Transformadas de Fourier continuas o discretas, se

tiene que ambas son distributivas respecto a la suma:

( ) ( ) ( ) ( ) yxfyxfyxfyxf ,,,, 2121 ℑ+ℑ=+ℑ (19)

Para dos escalares a y b, tenemos que:

( ) ( )vuaFyxaf ,, ⇔

y (20)

( )

⇔b

v

a

uF

abbyaxf ,

1,

Demostración:

( ) ( ) ( ) ( )[ ]

( ) ( )

( ) ( ) ( ) ( ) yxfyxfeyxfN

eyxfN

eyxfeyxfN

eyxfyxfN

yxfyxf

N

x

N

y

N

vyuxjN

x

N

y

N

vyuxj

N

x

N

y

N

vyuxj

N

vyuxj

N

x

N

y

N

vyuxj

,,,1

,1

,,1

,,1

,,

21

1

0

1

0

2

2

1

0

1

0

2

1

1

0

1

0

2

2

2

1

1

0

1

0

2

2121

ℑ+ℑ=+=

=

+=

=+=+ℑ

∑∑∑∑

∑∑

∑∑

=

=

+−−

=

=

+−

=

=

+−

+−

=

=

+−

ππ

ππ

π

( ) ( ) ( ) ( )∑∑∑∑−

=

=

+−−

=

=

+−=ℑ=ℑ

1

0

1

0

2

22

1

0

1

0

2

11 ,1

,,1

,N

x

N

y

N

vyuxjN

x

N

y

N

vyuxj

eyxfN

yxfeyxfN

yxfππ

(a) (b) (c)

(d) (e) (f)

Figura 8.5. Ejemplo gráfico de la propiedad de Distributividad: La suma de imágenes en

el espacio (a) + (b) = (c) se traslada también a la frecuencia (d) + (e) = (f).

+

=

+

=

Page 241: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

12

Propiedad VI: Valor medio.

Una definición ampliamente utilizada del valor promedio de una función

discreta de dos dimensiones es:

( ) ( )∑∑−

=

=

=><1

0

1

02

,1

,N

x

N

y

yxfN

yxf (21)

Esta expresión se puede calcular a partir de la transformada de Fourier, sin más

que sustituir en la función F(u,v) para el punto (0,0). Por tanto, el valor promedio se

puede expresar matemáticamente en función de la transformada de Fourier, como sigue:

( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ><=⇒

=

= →=

∑∑

∑∑∑∑

=

=

=

=

==−

=

=

+−

yxfNFyxfN

NF

yxfN

FeyxfN

vuF

N

x

N

y

N

x

N

y

0vy 0u SiN

x

N

y

N

vyuxj

,0,0,1

0,0

,1

0,0,1

,

1

0

1

02

1

0

1

0

1

0

1

0

Por consiguiente, el valor medio está relacionado con la transformada de Fourier

de f(x,y) por la siguiente expresión:

( ) ( )0,01

, FN

yxf >=< (22)

Propiedad VII: Laplaciano.

El laplaciano de una función de dos variables f(x,y) se define como:

( ) ( ) ( )yxfy

yxfx

yxf ,,,2

2

2

22

∂∂+

∂∂=∇ (23)

De la definición de la transformada de Fourier bidimensional, se tiene lo

siguiente:

( ) ( ) ( ) ( )vuFvuyxf ,2, 2222 +−⇔∇ℑ π (24)

El operador laplaciano es útil para delimitar los bordes de una imagen.

Propiedad VIII: Convolución y correlación.

La convolución de dos funciones f(x) y g(x), indicada por f(x)∗ g(x) se define

mediante la siguiente integral:

( ) ( ) ( ) ( ) ( ) ( )uGuFdxgfxgxf ⇔−=∗ ∫+∞

∞−ααα (25)

Donde α es una variable ficticia para la integración.

Page 242: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

13

La correlación de dos funciones continuas f(x) y g(x), representada por f(x)∗ g(x)

se define mediante la siguiente integral:

( ) ( ) ( ) ( ) ( ) ( )uGuFdxgfxgxf ∗+∞

∞−

∗ ⇔+= ∫ αααo (26)

donde α es una variable ficticia para la integración y * hace referencia al

conjugado complejo.

8.1.4. Transformada Rápida de Fourier.

El número de multiplicaciones complejas y sumas que se necesitan para

implementar la Transformada de Fourier es proporcional a N2. La descomposición

apropiada de la misma puede hacer que el número de multiplicaciones y sumas sea

proporcional a N log2(N). Dicho procedimiento de descomposición se denomina

Algoritmo de la Transformada Rápida de Fourier (FFT, del inglés «Fast Fourier

Transform»). Evidentemente, la aproximación de la FFT proporciona una apreciable

ventaja de cálculo sobre la resolución directa de la transformada de Fourier, en especial

cuando N es relativamente grande.

N Transformada

de Fourier directa

Transformada

Rápida de Fourier

Mejora

de cálculo

2 4 2 2,00

4 16 8 2,00

8 64 24 2,67

16 256 64 4,00

32 1.024 160 6,40

64 4.096 384 10,67

128 16.384 896 18,29

256 65.536 2.048 32,00

512 262.144 4.608 56,89

1.024 1.048.576 10.240 102,40

2.048 4.194.304 22.528 186,18

4.096 16.777.216 49.152 341,33

8.192 67.108.864 106.496 630,15

Tabla 8.1. Comparación entre N2 y N log2(N) para varios valores de N.

8.1.5. Representación del logaritmo del espectro de Fourier.

El espectro de Fourier suele tener un rango mucho mayor que los usuales para

mostrar una imagen. Una técnica usual para evitar esto es considerar el logaritmo del

espectro usando la siguiente fórmula:

( ) ( )( )vuFCvuD ,1log, += (27)

donde C es una constante adecuada de reescalado de la imagen, que se aplica

para obtener valores dentro de la paleta de colores disponible.

Page 243: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

14

8.2. Aplicaciones de la Transformada de Fourier.

a) Aplicación: Analizador de texturas.

Textura Bosque

Textura de territorio en barbecho

Textura campo

Textura de plantaciones

Textura de ciudad

Textura de agua

Figura 8.6. Demostración de las diferentes transformaciones de Fourier de cada textura.

b) Aplicación: Ruido.

Además de la utilización de la Transformada de Fourier para la diferenciación de

terrenos, es común su utilización para filtrar el ruido de una imagen. Si una señal

contiene ruido, al pasar al análisis de frecuencias mediante la Transformada de Fourier,

dicho ruido implicará una serie de valores altos correspondientes a frecuencias altas,

correspondiendo a "picos" en la Transformada de Fourier.

Page 244: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

15

Se desea, por tanto, anular el valor del ruido o, dicho de otra manera, eliminar

los picos que aparecen al operar con la transformada. Una convolución en el dominio

espacial corresponde a una multiplicación en el dominio de la frecuencia por lo que, así,

una alternativa es, en el dominio del espacio, convolucionar la señal con un filtro. No

obstante, también existe la posibilidad de trabajar en el dominio frecuencial puesto que

podremos eliminar el ruido anulando las regiones donde aparezcan los picos.

(a) (b) (c)

Figura 8.7. (a) Imagen con ruido; (b) Espectro de Fourier; (c) Picos de ruido.

En el dominio espacial podemos observar que existen básicamente dos tipos de

ruido, ambos aproximadamente diagonales. Por otro lado, en el dominio espectral de

Fourier, podemos identificar fácilmente este ruido como se muestra en la figura 8.7 b.

Como en este caso la operación es asimétrica en módulo, cada frecuencia de

ruido corresponde a dos picos. Podemos observar la aparición de cuatro pares de picos

dispuestos sobre el origen señalados en la figura 8.7 c.

Los dos pares de picos

solitarios (alejados del origen)

corresponden a ruidos pocos

perceptibles en el dominio del

espacio. Lo que se desea

hacer, por lo tanto, es la

ecualización de la señal en el

caso bidimensional discreto.

Cabe precisar que no es

interesante poner a cero el

pico central, pues este pico esto corresponde a la frecuencia nula, que efectivamente no

es ruido.

Muchas veces existe una frecuencia predominante en la imagen que parece

ruido, pero aparece por propia naturaleza de la imagen. La transformada de Fourier nos

permite identificar con exactitud cuales son los picos que debemos eliminar.

Multiplicando ambas transformadas podemos observar que el resultado de eliminar

determinadas regiones es parecido a la transformada de Fourier de la imagen original,

exceptuando las modificaciones antes dichas. Finalmente, aplicando la transformada

inversa obtenemos la imagen donde el ruido se ha reducido considerablemente

Figura 8.8 b.

Figura 8.8. (a) Eliminación de ruidos en frecuencias; (b) Imagen resultante.

Page 245: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

16

c) Aplicación: Detección de bordes.

La Transformada de Fourier es ampliamente utilizada para el proceso de

detección de bordes de una imagen puesto que ésta es una eficaz y rápida solución al

problema que presenta en muchos casos encontrar los distintos límites entre objetos.

(a) (b)

(c) (d)

Figura 8.9. Proceso de detección de bordes: (a) Imagen original; (b) Espectro de

Fourier; (c) Eliminación de frecuencias bajas; (d) Imagen resultante.

Eliminando las bajas frecuencias conseguiremos, mediante la Transformada

Inversa, los bordes de la imagen original. Sin embargo, si eliminamos las frecuencias

altas, habremos conseguido una imagen más nítida.

Page 246: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

17

8.3. Transformada de Hough.

En esta sección vamos a enlazar aquellos puntos de borde que caigan sobre una

determinada curva con determinada forma.

(a) (b)

Figura 8.10. (a) Plano xy; (b) Espacio parámetro.

Supongamos que para n puntos de la imagen, se desean encontrar aquellos

subconjuntos de puntos que caen en líneas rectas. Una posible solución podría ser, en

primer lugar, encontrar todas las líneas determinadas por cada par de puntos y entonces

encontrar todos los subconjuntos de puntos que están cerca de cada recta en particular.

Este problema así planteado requiere encontrar n(n − 1)/2 ~ n2 rectas y realizar

n(n(n − 1))/2 ~ n3 comparaciones de cada punto a cada línea. Este método será inviable

salvo en casos triviales.

Una alternativa a este método de búsqueda exhaustiva es la Transformada de

Hough. Consideramos un punto (xi,yi) y la ecuación de la recta, de la forma de la

pendiente y ordenada en el origen,

baxy ii += (28)

Por el punto (xi,yi) pasan infinitas rectas, pero todas satisfacen la ecuación

anterior para diferentes valores de a y b. Sin embargo, escribiendo esta ecuación en la

forma

ii yaxb +−= (29)

y considerando el plano ab (también denominado espacio parámetro) da lugar a

una única recta para el par (xi,yi) constante. Si ahora consideramos un segundo punto

(xj,yj), también va a tener su recta asociada en el espacio parámetro.

Estas dos rectas se cortarán en el espacio parámetro en un punto (a0,b0), donde

a0 es la pendiente y b0 la ordenada en el origen de la recta que contiene a los puntos

(xi,yi) y (xj,yj) en el plano xy, como se puede ver en la figura 8.10 b. De hecho, todos los

puntos de esa recta en el plano xy darán lugar a rectas diferentes en el espacio parámetro

que se cortan en un único punto (a0,b0).

x

y

( )ii yx ,

( )jj yx ,

a

b

ii yaxb +−=jj yaxb +−=

0a

0b

Page 247: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

18

El atractivo de la Transformada de Hough proviene de subdividir el espacio

parámetro en celdas acumuladoras, como se puede ver en la figura 8.11, donde

(amín,amáx) y (bmín,bmáx) son los rangos esperados para la pendiente y la ordenada en el

origen. La celda de coordenadas (i,j), con un valor de acumulador A(i,j) corresponde al

cuadrado asociado con las coordenadas (ai,bj) del espacio parámetro. Inicialmente se

ponen todos los acumuladores a cero. Entonces para cada punto (xk,yk) de la imagen,

permitimos que el parámetro a pueda tomar cualquier valor de entre los ai permitidos y

calculamos b usando la ecuación (29). Los valores resultantes para el parámetro b se

redondean hasta los bj permitidos. Si para un valor ap resultó un valor bq se tiene que

( ) ( ) 1,, += qpAqpA (30)

Figura 8.11. Celdas acumuladoras en el espacio parámetro.

Al final, un valor de M en el acumulador A(i,j) significa que M puntos del plano

xy caen sobre la recta y = aix + bj. La precisión en la colinealidad de estos puntos

depende del número de celdas del espacio parámetro.

Si subdividimos el eje a en K celdas, para cada punto (xk,yk), obtenemos K

valores de b correspondientes a los K posibles valores de a. Si la imagen tiene n puntos,

la carga computacional es del orden de n·K. La transformada de Hough es lineal en n, y

el producto n·K es mucho menor que si hubiéramos empleado una búsqueda exhaustiva,

a menos que K sea del orden o exceda a n.

Un problema que surge al emplear la ecuación de la recta y = ax + b para

representar una línea es que tanto la pendiente como la ordenada en el origen pueden

llegar a valer infinito, según la línea se hace vertical. Una forma de solventar este

problema consiste en utilizar la representación en coordenadas polares de la recta:

( ) ( ) ρθθ =+ sincos yx (31)

En la figura 8.12 a se puede ver el significado de los nuevos parámetros (ρ,θ). El

uso de esta representación para construir la tabla de acumuladores es similar al método

explicado para las rectas en la forma pendiente y ordenada en el origen. A cada punto

del plano xy corresponde ahora una sinusoide en el plano ρθ en lugar de una recta. Al

igual que antes, M puntos colineales a la recta xcos (θj) + ysin (θj) = ρi darán lugar a M

sinusoides que se cortan en el punto (ρj,θi) en el espacio de parámetros. Incrementando θ

y calculando ρ, obtendremos M entradas en el acumulador A(i,j) correspondiente al par

(ρj,θi).

a

b

máxamína

mínb

máxb

Page 248: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

19

(a) (b)

Figura 8.12. (a) Representación normal de una recta; (b) Celdas acumuladoras en el espacio θ.

En la figura 8.12 b podemos ver la tabla de acumuladores del espacio de

parámetros en este caso. El rango para el ángulo θ es ±90º, medido con respecto al eje

de abscisas. Se permiten valores negativos de ρ para rectas por detrás del origen de

coordenadas del plano xy. Por ejemplo, una recta horizontal corresponde a un valor de θ

= 0º y un valor de ρ igual a la ordenada en el origen, mientras que una recta vertical

corresponde a un valor de θ = 90º y un valor de ρ igual a la abscisa en el origen.

Aunque hemos hecho un análisis para el caso de rectas, la transformada de

Hough también es aplicable a cualquier función de la forma

( ) 0, =cvg (32)

donde v es un vector de coordenadas y c es un vector de coeficientes. Por

ejemplo, puntos que caen en el círculo

( ) ( ) 2

3

2

2

2

1 ccycx =++− (33)

se pueden detectar empleando también la transformada de Hough. En este caso

tenemos tres parámetros (c1,c2,c3), lo que dará lugar a un espacio de parámetros de tres

dimensiones, con celdas con forma de cubo y acumuladores de la forma A(i,j,k). El

procedimiento en este caso es para cada punto del plano xy, para cada c1 y para cada c2

calcular el valor de c3 y actualizar el acumulador correspondiente a (c1,c2,c3).

Claramente la complejidad de la Transformada de Hough es claramente dependiente del

tamaño del espacio de parámetros.

En el caso de que el objeto tenga una forma irregular hemos de seguir los

siguientes pasos:

1. Construir la tabla-R del objeto.

2. Discretizar xref , yref y φ.

3. Generar acumulador A(xref , yref , φ).

4. Para todo los punto del borde (xi , yj).

a) calcular Ω.

b) para cada φ.

5. Para cada par (r, β) indexar ω − φ en R.

a' evaluar xref = xi + r cos(β + φ) y yref = yi + r sin(β + φ)

b' incrementar A(xref , yref , φ)..

x

y

ρθ mínρ

máxρ

θ

ρ

mínθ máxθ

Page 249: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

20

8.4. Aplicaciones a la Transformada de Hough.

Roque no he encontrado nada sobre esto se que se utiliza para bordes y demás

pero no he encontrado nada de teoría.

Page 250: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

21

8.5. Bibliografía.

Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods.

Visión por Computador. Gonzalo Pajares, Jesús M. de la Cruz.

Page 251: Física de la visión (Teoría y Prácticas)

Tema 8 – Transformadas de la imagen BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

22

Visión por Computador. Javier González Jiménez.

Page 252: Física de la visión (Teoría y Prácticas)

BLOQUE II: SISTEMAS DE VISIÓN ARTIFICIAL.

TEMA IX: Detección de bordes.

9.1. Introducción 1

9.1.1. Conceptos básicos sobre la detección de bordes 1

9.1.2. La operación Convolución 3

9.2. Operadores basados en máscaras direccionales 6

9.2.1. Operadores de Kirsch 6

9.2.2. Operadores de Robinson 10

9.3. Operadores basados en la primera derivada: Gradiente 14

9.3.1. Operadores basados en la definición de gradiente 15

9.3.2. Operadores de Prewitt 19

9.3.3. Operadores de Sobel 24

9.4. Operadores basados en la segunda derivada: Laplaciano 28

9.5. Operador de Canny 30

9.6. Problemas en los operadores para la detección de bordes 32

9.7. Bibliografía 33

Page 253: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

1

9.1. Introducción.

9.1.1. Conceptos básicos sobre detección de bordes.

En el tema de Tratamiento Digital de Imágenes, dada una imagen, lo que

deseábamos obtener era la propia imagen, una aproximación, o una versión mejorada de la imagen original empleando para ello operaciones aritméticas, lógicas o morfológicas. Otra parte del Procesamiento Digital de Imágenes se encarga del análisis de las mismas. Ahora, dada una imagen, lo que deseamos obtener es una descripción de dicha imagen. Los siguientes casos son ejemplos de problemas de análisis de imágenes:

• Dado un texto, reconocer las palabras. • Dada una imagen aérea de un terreno, clasificar los distintos tipos de suelos

(urbano, bosque, lagos, carreteras,...). • Para aplicaciones relacionadas con Sistemas de Control de Calidad o de

Producción,... • Dada una imagen médica, detectar tumores, roturas de huesos,...

En todos estos ejemplos, el análisis va orientado a detectar determinadas partes de la imagen (regiones u objetos). Para generar tal descripción es necesario detectar adecuadamente e identificar la región deseada. En este tema, centraremos nuestra atención en la detección de fronteras o bordes.

Una de las informaciones más útiles que se encuentran en una imagen la constituyen los bordes ya que al delimitar los objetos, definen los límites entre cada ente de la imagen. La información adquirida durante el proceso de detección de bordes la emplearemos posteriormente durante el proceso de segmentación.

Figura 9.1. Distribución unidimensional de niveles de gris de la sección de un anillo.

SECCIÓN A-A

En el perfil se observa que existen dos fronteras teóricas pues existe una transición del negro a blanco y del blanco al negro.

A

A

Niveles de gris

Page 254: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

2

Si observamos en la figura anterior, nos podemos fijar que el borde no aparece como una variación del nivel de gris de 0 a 255 de una forma instantánea sino que se representa con forma de variación gradual dando lugar a un pico o punto máximo que representaría el lugar geométrico del borde ideal (un borde ideal sería una línea unidimensional, es decir, sin "espesor").

Las técnicas de detección de bordes tienen por objeto la localización de los

puntos donde se produce variación de intensidad, pudiendo emplearse para ello métodos basados en "operadores derivada". Estás técnicas son de gran importancia puesto que, siendo capaces de precisar la posición de un borde, lograremos delimitar objetos.

Figura 9.2. Modelo unidimensional y continuo de un borde ideal.

Tal y como podemos intuir en la gráfica anterior, existe un estrecho vínculo

entre la nitidez de un borde y el ángulo α. Para variaciones de intensidad con pendientes próximas a 90º la nitidez será elevada (una mejor localización del borde) mientras que para pendientes pequeñas el borde aparecerá difuminado y con poca definición.

En las imágenes reales los bordes nunca se ajustan totalmente al modelo anterior. Las causas de ello son diversas, pudiendo destacar las siguientes:

• El muestreo de una imagen implica que la imagen resultante sea discreta.

• Las imágenes tratadas generalmente están afectadas por ruidos diversos.

• El origen de los bordes puede ser diferente: borde de oclusión, superficie de diferente orientación, distinta textura, defectos de la iluminación,…

Las circunstancias anteriores introducen una gran complejidad a la hora de

detectar los bordes de una imagen. En particular, en este proceso se consideran tres tipos de errores:

Figura 9.3. Defectos en la detección y localización de un borde. (a) Borde real; (b)

Detección pobre; (c) Localización pobre; (d) Múltiple respuesta.

α

B

A

0

A Nivel de gris bajo B Nivel de gris alto P Punto medio de la rampa α Ángulo de inclinación

H Variación de la intensidad, H = B - A

P

(a) (b) (c) (d)

Page 255: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

3

A continuación, describiremos cada uno de los errores que se pueden presentar en una imagen:

• Error en la detección: Un operador es un buen detector de bordes si la

probabilidad de detectar el borde es alta cuando éste realmente existe en la imagen, y baja cuando no existe (Figura 9.3. b).

• Error en la localización: Un operador sitúa bien un borde cuando la posición del borde detectado coincide con la posición real del borde en la imagen (Figura 9.3. c).

• Respuesta múltiple: Varios píxeles son detectados como un único borde provocando un ensanchamiento y una disminución de la precisión (Figura 9.3. d).

En general, no hay forma de conocer si los píxeles detectados como parte del

borde son correctos o no (intuitivamente hablando). Sin embargo, en algunos casos, podemos conocer si un detector de bordes se ha equivocado al detectar un píxel como parte del borde. Es lo que se llama falso positivo (el detector devuelve un píxel cuando en realidad no pertenecía a ningún borde) y falso negativo (el detector no devuelve un píxel cuando en realidad pertenecía a un borde).

Una manera posible de evaluar si un detector de bordes es eficiente o no, viene dada por la siguiente función, conocida como Función de Pratt:

( )∑= +=

DP

i iID dPPmáxR

12·1

1

,

1

β (1)

donde:

• PD es la cantidad de píxeles que devuelve el detector de bordes. • PI es la cantidad de píxeles reales que pertenecen a un borde en la imagen. • di es la distancia horizontal entre el píxel i-ésimo del detector y el píxel más

próximo del verdadero borde de la imagen. • β es una constante que se usa para reescalado. Lo normal es β = 1/9.

Figura 9.4. Criterio de medición del parámetro β.

El problema que presenta este evaluador es que se han de conocer los píxeles

que realmente pertenecen a un borde. Existen otras aproximaciones que se basan en la "coherencia local". En este

caso, no se compara con el borde real de la imagen sino que, por el contrario, compara cada píxel detectado con sus vecinos.

(a) (b)

unidadesd i 2=unidaddi 1=

Page 256: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

4

9.1.2. La operación Convolución.

Una convolución bidimensional se puede expresar de la siguiente forma:

( ) ( ) ( ) ( )∑∑

∈ ∈

−−=⊗mi mj

jimjyixfjimyxf ,·,,, (2)

donde f(x,y) es el valor del píxel de la imagen y m es una subimagen llamada

máscara. Si suponemos lo siguiente:

• La imagen tiene dimensiones N × M. • El dominio de la imagen es [1,N] × [1,M]. • La máscara tiene dimensiones 3 × 3 con el origen en el centro.

entonces la nueva imagen tiene dimensiones (N + 2) × (M + 2) cuyo dominio es [0,N+1] × [0,M+1].

Por ejemplo, consideremos las siguientes matrices:

( )

=

11100

11100

11100

00000

00011

, yxf ( )

−−−=

121

000

121

, jim

Entonces ( ) ( )jimyxf ,, ⊗ es una nueva matriz g(x,y):

( )

−−−−−−−−−−

−−−=

1333100

1333100

0000000

1333100

1322231

0000000

0011331

, yxg

donde, por ejemplo,

11134012411141033

0023101311320122111223

) = ,-)m(-,) + f(,)m(-,) + f(,)m(-,) + f(,-)m(, + f(

) +,)m(,) + f(,)m(,) + f(,-)m(,) + f(,)m(,) + f(,)m(,) = f(,g(

Page 257: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

5

A continuación enunciaremos los pasos a seguir para ejecutar una operación de convolución: 1º Ensanchar dos filas y dos columnas la matriz original, es decir,

( )

=

11100

11100

11100

00000

00011

, yxf ( )

=

0000000

0111000

0111000

0111000

0000000

0000110

0000000

,~

yxf

2º Invertir la máscara, es decir, volcamos la máscara de izquierda a derecha y después de abajo a arriba (por ejemplo):

( ) ( )jim

abc

def

ghi

ghi

def

abc

ihg

fed

cba

jim ,~, =

=

Y para el ejemplo anterior, tenemos que

( ) ( )jimjim ,~

121

000

121

121

000

121

121

000

121

, =

−−−→

−−−→

−−−=

3º Recorremos toda la matriz empleando la máscara ya invertida y, en cada elemento, realizamos un producto (elemento a elemento) de la máscara con esa zona de la matriz:

3

0000000

0111000

0111000

0111000

0000000

0000110

0000000

El resultado de aplicar la máscara lo almacenamos en la imagen resultado, es

decir, la convolución no modifica la imagen original si no que el efecto de aplicar la máscara de elemento en elemento, lo almacenamos en una nueva matriz que representará el resultado de la convolución. Nota:

−−−

121

000

121

Page 258: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

6

Cuando ese esté recorriendo la matriz con la máscara moveremos la máscara en base a su centro sin salirnos del dominio de la imagen original, esto es, sin que el centro de la máscara salga de las "líneas discontinuas".

Page 259: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

7

9.2. Operadores basados en máscaras direccionales.

Puesto que un borde ideal es esencialmente un patrón con forma de escalón, un

método eficaz de detectar los bordes consiste en correlacionar la imagen con patrones en todas las orientaciones posibles. 9.2.1. Operadores de Kirsch.

Los operadores de Kirsch se denominan también de brújula porque se definen

considerando una máscara simple y rotándola en las ocho direcciones principales de la brújula: Norte, Noroeste, Oeste, Suroeste, Sur, Este y Noreste. Los operadores se definen como:

º315º270º225º180

;

553

503

333

;

555

303

333

;

355

305

333

;

335

305

335

º135º90º45º0

;

333

305

355

;

333

303

555

;

333

503

553

;

533

503

533

7654

3210

−−

−−−=

−−−−−

=

−−−−−

=

−−−−−

=

−−−−−

=

−−−−−=

−−−−−

=

−−−

−−=

KKKK

KKKK

(3)

Por ejemplo, un valor grande después de aplicar la primera máscara sobre un

píxel implica que existe un borde en sentido vertical (por tanto, un gradiente horizontal) en el píxel donde se ha aplicado la máscara. Para encontrar los bordes, se aplica cada una de las máscaras en cada uno de los píxeles (se realiza una convolución con cada máscara). La respuesta del detector de bordes es el máximo de las respuestas de cada una de las ocho máscaras y la dirección sería pi/4 si Ki ha sido la máscara responsable de dicho máximo. En la siguiente figura podemos observar el resultado de aplicar operadores Kirsch a una imagen pudiendo apreciar que el resultado de los bordes es bastante impreciso por estar esto muy difuminados (respuesta múltiple).

(a) (b)

Figura 9.5. (a) Imagen original; (b) Imagen obtenida al aplicar los operadores de Kirsch.

Page 260: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

8

Código implementado utilizando MatLAB:

function kirsch(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); B = zeros( 1 , 8 ); k0 = [ 5 , –3 , –3 ; 5 , 0 , –3 ; 5 , –3 , –3 ]; k1 = [ –3 , –3 , –3 ; 5 , 0 , –3 ; 5 , 5 , –3 ]; k2 = [ –3 , –3 , –3 ; –3 , 0 , –3 ; 5 , 5 , 5 ]; k3 = [ –3 , –3 , –3 ; –3 , 0 , 5 ; 5 , 5 , –3 ]; k4 = [ –3 , –3 , 5 ; –3 , 0 , 5 ; –3 , –3 , 5 ]; k5 = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ]; k7 = [ 5 , 5 , 5 ; –3 , 0 , –3 ; –3 , –3 , –3 ]; k8 = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ]; valor = 0; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

B( 1 , 1 ) = A( i – 1 , j – 1 )*k0( 1 , 1 ) + A( i – 1, j )*k0( 1 , 2 ) + A( i – 1, j + 1 )*k0( 1 , 3 ) + + A( i , j – 1 )*k0( 2 , 1 ) + A( i , j )*k0( 2 , 2 ) + A( i , j + 1 )*k0( 2 , 3 ) + A( i + 1 , j – 1 )*k0( 3 , 1 ) + A( i + 1 , j )*k0( 3 , 2 ) + A( i + 1 , j + 1 )*k0( 3 , 3 ); B( 1 , 2 ) = A( i – 1 , j – 1 )*k1( 1 , 1 ) + A( i – 1, j )*k1( 1 , 2 ) + A( i – 1, j + 1 )*k1( 1 , 3 ) +

+ A( i , j – 1 )*k1( 2 , 1 ) + A( i , j )*k1( 2 , 2 ) + A( i , j + 1 )*k1( 2 , 3 ) + A( i + 1 , j – 1 )*k1( 3 , 1 ) + A( i + 1 , j )*k1( 3 , 2 ) + A( i + 1 , j + 1 )*k1( 3 , 3 ); B( 1 , 3 ) = A( i – 1 , j – 1 )*k2( 1 , 1 ) + A( i – 1, j )*k2( 1 , 2 ) + A( i – 1, j + 1 )*k2( 1 , 3 ) +

+ A( i , j – 1 )*k2( 2 , 1 ) + A( i , j )*k24( 2 , 2 ) + A( i , j + 1 )*k2( 2 , 3 ) + A( i + 1 , j – 1 )*k2( 3 , 1 ) + A( i + 1 , j )*83,2) + A( i + 1 , j + 1 )*k2( 3 , 3 ); B(1,4) = A( i – 1 , j – 1 )*k3( 1 , 1 ) + A( i – 1, j )*k3( 1 , 2 ) + A( i – 1, j + 1 )*k3( 1 , 3 ) +

+ A( i , j – 1 )*k3( 2 , 1 ) + A( i , j )*k3( 2 , 2 ) + A( i , j + 1 )*k3( 2 , 3 ) + A( i + 1 , j – 1 )*k3( 3 , 1 ) + A( i + 1 , j )*k3( 3 , 2 ) + A( i + 1 , j + 1 )*k3( 3 , 3 ); B(1,5) = A( i – 1 , j – 1 )*k4( 1 , 1 ) + A( i – 1, j )*k4( 1 , 2 ) + A( i – 1, j + 1 )*k4( 1 , 3 ) +

+ A( i , j – 1 )*k4( 2 , 1 ) + A( i , j )*k4( 2 , 2 ) + A( i , j + 1 )*k4( 2 , 3 ) + A( i + 1 , j – 1 )*k4( 3 , 1 ) + A( i + 1 , j )*k4( 3 , 2 ) + A( i + 1 , j + 1 )*k4( 3 , 3 ); B(1,6) = A( i – 1 , j – 1 )*k5( 1 , 1 ) + A( i – 1, j )*k5( 1 , 2 ) + A( i – 1, j + 1 )*k5( 1 , 3 ) +

+ A( i , j – 1 )*k5( 2 , 1 ) + A( i , j )*k5( 2 , 2 ) + A( i , j + 1 )*k5( 2 , 3 ) + A( i + 1 , j – 1 )*k5( 3 , 1 ) + A( i + 1 , j )*k5( 3 , 2 ) + A( i + 1 , j + 1 )*k5( 3 , 3 ); B(1,7) = A( i – 1 , j – 1 )*k6( 1 , 1 ) + A( i – 1, j )*k6( 1 , 2 ) + A( i – 1, j + 1 )*k6( 1 , 3 ) +

+ A( i , j – 1 )*k6( 2 , 1 ) + A( i , j )*k6( 2 , 2 ) + A( i , j + 1 )*k6( 2 , 3 ) + A( i + 1 , j – 1 )*k6( 3 , 1 ) + A( i + 1 , j )*k6( 3 , 2 ) + A( i + 1 , j + 1 )*k6( 3 , 3 ); B(1,8) = A( i – 1 , j – 1 )*k7( 1 , 1 ) + A( i – 1, j )*k7( 1 , 2 ) + A( i – 1, j + 1 )*k7( 1 , 3 ) +

+ A( i , j – 1 )*k7( 2 , 1 ) + A( i , j )*k7( 2 , 2 ) + A( i , j + 1 )*k7( 2 , 3 ) + A( i + 1 , j – 1 )*k7( 3 , 1 ) + A( i + 1 , j )*k7( 3 , 2 ) + A( i + 1 , j + 1 )*k7( 3 , 3 ); for m = 1 : 1 : 8 for n = 1 : 1 : 8 if B( 1 , m ) >= valor valor = B( 1 , m ); end end end C( i , j ) = valor;

end end return

Page 261: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

9

Otra manera más eficaz de código implementado utilizando MatLAB:

function kirsch(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); B = zeros( 1 , 8 ); k=zeros(1,8,3,3); k( 1 , 1 ) = [ 5 , –3 , –3 ; 5 , 0 , –3 ; 5 , –3 , –3 ]; k( 1 , 2 ) = [ –3 , –3 , –3 ; 5 , 0 , –3 ; 5 , 5 , –3 ]; k( 1 , 3 ) = [ –3 , –3 , –3 ; –3 , 0 , –3 ; 5 , 5 , 5 ]; k( 1 , 4 ) = [ –3 , –3 , –3 ; –3 , 0 , 5 ; 5 , 5 , –3 ]; k( 1 , 5 ) = [ –3 , –3 , 5 ; –3 , 0 , 5 ; –3 , –3 , 5 ]; k( 1 , 6 ) = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ]; k( 1 , 7 ) = [ 5 , 5 , 5 ; –3 , 0 , –3 ; –3 , –3 , –3 ]; k( 1 , 8 ) = [ 5 , 5 , –3 ; 5 , 0 , –3 ; –3 , –3 , –3 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

for p = 1 : 1 : 8 B( 1 , p ) = sum(A( i – 1 : i + 1 , j – 1 : j + 1 )*.k( 1 , p )); end for m = 1 : 1 : 8 for n = 1 : 1 : 8

if B( 1 , m ) >= B( 1 , n ) valor = B( 1 , m );

end end end C( i , j ) = valor; end

end end return

Page 262: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

10

(a)

(b) (c)

(d) (e)

(f) (g)

(h) (i)

Figura 9.6. (a) Imagen real; (b) Norte; (c) Noroeste; (d) Oeste; (e) Suroeste; (f) Sur; (g) Sureste; (h) Este; (i) Noreste.

Page 263: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

11

9.2.2. Operadores de Robinson.

Los operadores de Robinson se definen considerando una máscara simple y

rotándola en las ocho direcciones principales de la brújula: Norte, Noroeste, Oeste, Suroeste, Sur, Este y Noreste. Los operadores se definen como:

º315º270º225º180

;

210

101

012

;

121

000

121

;

012

101

210

;

101

202

101

º135º90º45º0

;

210

101

012

;

121

000

121

;

012

101

210

;

101

202

101

7654

3210

−−−

=

−−−=

−−−

=

−−−

=

−−−=

−−−=

−−−=

−−−

=

RRRR

RRRR

(4)

Para encontrar los bordes, se aplica cada una de las máscaras en cada uno de los píxeles. La respuesta del detector de bordes es el máximo de las respuestas de cada una de las ocho máscaras y la dirección sería pi/4 si Ki ha sido la máscara responsable de dicho máximo. Como se puede observar obtenemos resultados no satisfactorios.

(a) (b)

Figura 9.7. (a) Imagen original; (b) Resultado de aplicar los operadores de Robinson. El resultado de aplicar tanto los Operadores de Kirsch como los de Robinson nos

aportan resultados similares aunque con una localización de bordes más precisa.

(a) (b)

Figura 9.8. Kirsch VS Robinson: (a) Resultado de Kirsch; (b) Resultado de Robinson.

Page 264: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

12

Código implementado utilizando MatLAB:

function robinson(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); B = zeros( 1 , 8 ); r0 = [ 1 , 0 , –1 ; 2 , 0 , –2 ; 1 , 0 , –1 ]; r1 = [ 0 , –1 , –2 ; 1 , 0 , –1 ; 2 , 1 , 0 ]; r2 = [ –1 , –2 , –1 ; 0 , 0 , 0 ; 1 , 2 , 1 ]; r3 = [ –2 , –1 , 0 ; –1 , 0 , 1 ; 0 , 1 , 2 ]; r4 = [ –1 , 0 , 1 ; –2 , 0 , 2 ; –1 , 0 , 1 ]; r5 = [ 0 , 1 , 2 ; –1 , 0 , 1 ; –2 , –1 , 0 ]; r7 = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; r8 = [ 2 , 1 , 0 ; 1 , 0 , –1 ; 0 , –1 , –2 ]; valor = 0; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

B( 1 , 1 ) = A( i – 1 , j – 1 )*r0( 1 , 1 ) + A( i – 1, j )*r0( 1 , 2 ) + A( i – 1, j + 1 )*r0( 1 , 3 ) + + A( i , j – 1 )*r0( 2 , 1 ) + A( i , j )*r0( 2 , 2 ) + A( i , j + 1 )*r0( 2 , 3 ) + A( i + 1 , j – 1 )*r0( 3 , 1 ) + A( i + 1 , j )*r0( 3 , 2 ) + A( i + 1 , j + 1 )*r0( 3 , 3 ); B( 1 , 2 ) = A( i – 1 , j – 1 )*r1( 1 , 1 ) + A( i – 1, j )*r1( 1 , 2 ) + A( i – 1, j + 1 )*r1( 1 , 3 ) +

+ A( i , j – 1 )*r1( 2 , 1 ) + A( i , j )*r1( 2 , 2 ) + A( i , j + 1 )*r1( 2 , 3 ) + A( i + 1 , j – 1 )*r1( 3 , 1 ) + A( i + 1 , j )*r1( 3 , 2 ) + A( i + 1 , j + 1 )*r1( 3 , 3 ); B( 1 , 3 ) = A( i – 1 , j – 1 )*r2( 1 , 1 ) + A( i – 1, j )*r2( 1 , 2 ) + A( i – 1, j + 1 )*r2( 1 , 3 ) +

+ A( i , j – 1 )*r2( 2 , 1 ) + A( i , j )*r24( 2 , 2 ) + A( i , j + 1 )*r2( 2 , 3 ) + A( i + 1 , j – 1 )*r2( 3 , 1 ) + A( i + 1 , j )*83,2) + A( i + 1 , j + 1 )*r2( 3 , 3 ); B(1,4) = A( i – 1 , j – 1 )*r3( 1 , 1 ) + A( i – 1, j )*r3( 1 , 2 ) + A( i – 1, j + 1 )*r3( 1 , 3 ) +

+ A( i , j – 1 )*r3( 2 , 1 ) + A( i , j )*r3( 2 , 2 ) + A( i , j + 1 )*r3( 2 , 3 ) + A( i + 1 , j – 1 )*r3( 3 , 1 ) + A( i + 1 , j )*r3( 3 , 2 ) + A( i + 1 , j + 1 )*r3( 3 , 3 ); B(1,5) = A( i – 1 , j – 1 )*r4( 1 , 1 ) + A( i – 1, j )*r4( 1 , 2 ) + A( i – 1, j + 1 )*r4( 1 , 3 ) +

+ A( i , j – 1 )*r4( 2 , 1 ) + A( i , j )*r4( 2 , 2 ) + A( i , j + 1 )*r4( 2 , 3 ) + A( i + 1 , j – 1 )*r4( 3 , 1 ) + A( i + 1 , j )*r4( 3 , 2 ) + A( i + 1 , j + 1 )*r4( 3 , 3 ); B(1,6) = A( i – 1 , j – 1 )*r5( 1 , 1 ) + A( i – 1, j )*r5( 1 , 2 ) + A( i – 1, j + 1 )*r5( 1 , 3 ) +

+ A( i , j – 1 )*r5( 2 , 1 ) + A( i , j )*r5( 2 , 2 ) + A( i , j + 1 )*r5( 2 , 3 ) + A( i + 1 , j – 1 )*r5( 3 , 1 ) + A( i + 1 , j )*r5( 3 , 2 ) + A( i + 1 , j + 1 )*r5( 3 , 3 ); B(1,7) = A( i – 1 , j – 1 )*r6( 1 , 1 ) + A( i – 1, j )*r6( 1 , 2 ) + A( i – 1, j + 1 )*r6( 1 , 3 ) +

+ A( i , j – 1 )*r6( 2 , 1 ) + A( i , j )*r6( 2 , 2 ) + A( i , j + 1 )*r6( 2 , 3 ) + A( i + 1 , j – 1 )*r6( 3 , 1 ) + A( i + 1 , j )*r6( 3 , 2 ) + A( i + 1 , j + 1 )*r6( 3 , 3 ); B(1,8) = A( i – 1 , j – 1 )*r7( 1 , 1 ) + A( i – 1, j )*r7( 1 , 2 ) + A( i – 1, j + 1 )*r7( 1 , 3 ) +

+ A( i , j – 1 )*r7( 2 , 1 ) + A( i , j )*r7( 2 , 2 ) + A( i , j + 1 )*r7( 2 , 3 ) + A( i + 1 , j – 1 )*r7( 3 , 1 ) + A( i + 1 , j )*r7( 3 , 2 ) + A( i + 1 , j + 1 )*r7( 3 , 3 ); for m = 1 : 1 : 8 for n = 1 : 1 : 8 if B( 1 , m ) >= valor valor = B( 1 , m ); end end end C( i , j ) = valor;

end end return

Page 265: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

13

Otra manera más eficaz de código implementado utilizando MatLAB:

function robinson(A) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); B = zeros( 1 , 8 ); r=zeros(1,8,3,3); r( 1 , 1 ) = [ 1 , 0 , –1 ; 2 , 0 , –2 ; 1 , 0 , –1 ]; r( 1 , 2 ) = [ 0 , –1 , –2 ; 1 , 0 , –1 ; 2 , 1 , 0 ]; r( 1 , 3 ) = [ –1 , –2 , –1 ; 0 , 0 , 0 ; 1 , 2 , 1 ]; r( 1 , 4 ) = [ –2 , –1 , 0 ; –1 , 0 , 1 ; 0 , 1 , 2 ]; r( 1 , 5 ) = [ –1 , 0 , 1 ; –2 , 0 , 2 ; –1 , 0 , 1 ]; r( 1 , 6 ) = [ 0 , 1 , 2 ; –1 , 0 , 1 ; –2 , –1 , 0 ]; r( 1 , 7 ) = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; r( 1 , 8 ) = [ 2 , 1 , 0 ; 1 , 0 , –1 ; 0 , –1 , –2 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

for p = 1 : 1 : 8 B( 1 , p ) = A( i – 1 : i + 1 , j – 1 : j + 1 )*.r( 1 , p ); end for m = 1 : 1 : 8 for n = 1 : 1 : 8

if B( 1 , m ) >= B( 1 , n ) valor = B( 1 , m );

end end end C( i , j ) = valor; end

end end return

Page 266: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

14

(a)

(b) (c)

(d) (e)

(f) (g)

(h) (i)

Figura 9.9. (a) Imagen real; (b) Norte; (c) Noroeste; (d) Oeste; (e) Suroeste; (f) Sur; (g) Sureste; (h) Este; (i) Noreste.

Page 267: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

15

9.3. Operadores basados en la primera derivada: Gradiente.

Es el método más común para detectar discontinuidades significativas en el nivel

de gris ya que un borde es la frontera entre dos regiones con propiedades de nivel de

gris relativamente distintas. Durante los siguientes apartados supondremos que dichas regiones son lo suficientemente homogéneas como para que la transición entre dos de ellas se pueda determinar mediante las discontinuidades de nivel de gris.

En este caso, existen distintas definiciones de lo que es un borde, cada una aplicable a distintas circunstancias.

Como se puede observar en la Figura 9.10 la primera derivada es positiva para cambio a nivel de gris más claro, negativa en caso contrario y cero en aquellas zonas con nivel de gris uniforme. La segunda derivada presenta valor positivo en la zona oscura de cada borde, valor negativo en la zona clara de cada borde y valor cero en las zonas de valor de gris constante y justo en la posición de los bordes. El valor de la magnitud de la primera derivada nos sirve para detectar la presencia de bordes, mientras que el signo de la segunda derivada nos indica si el píxel pertenece a la zona clara o a la zona oscura. Además, la segunda derivada presenta siempre un cruce por cero en el punto medio de la transición (esto puede ser muy útil para localizar bordes en una imagen).

Figura 9.10. Aprovechamiento la teoría de diferenciabilidad a la detección de bordes.

PERFIL HORIZONTAL

PRIMERA DERIVADA

SEGUNDA DERIVADA

Page 268: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

16

Aunque lo que llevamos dicho se refiere a perfiles unidimensionales, la extensión a dos dimensiones es inmediata. Simplemente se define el perfil en la dirección perpendicular a la dirección del borde y la interpretación anterior seguirá siendo válida.

La primera derivada en cualquier punto de la imagen vendrá dada por la magnitud del gradiente∇∇∇∇, mientras que la segunda derivada vendrá dada por el operador Laplaciano∇∇∇∇2.

9.3.1. Operadores basados en la definición de gradiente.

Básicamente, la idea que dimana en la mayor parte de las técnicas de detección

de bordes es el cálculo de un operador local de derivación. Una definición posible es que un píxel pertenece a un borde si se produce un cambio entre niveles de grises con

sus vecinos. Mientras más brusco sea el cambio, más fácil es detectar el borde.

El primer problema que surge usando esta definición es debido a la digitalización. El segundo problema es debido al ruido. Gradiente: El gradiente mide la máxima variación de una función f(x,y) en un punto P. Si f(x,y) fuera una función bidimensional continua, la definición de gradiente sería:

( ) ( )( )

( )( )

( )

( )

∂∂=

∂∂=

=⇒

∂∂∂∂

=∇=yxf

yG

yxfx

G

conG

GyxfG

yxfy

yxfx

yxfyxfG

y

x

y

x

,

,

,,,

,

,, (5)

El vector gradiente nos da la dirección de variación máxima de f en el punto

(x,y) por unidad de distancia. En este caso, sería probable que un píxel pertenezca a un borde si el módulo del gradiente

( ) ( ) ( )22

22 ,,,

∂∂+

∂∂=+= yxf

yyxf

xGGyxfG yx (6)

es lo suficientemente "grande". La dirección del gradiente viene determinada

por:

( )

( )

∂∂∂∂

=

=

yxfx

yxfy

arctgG

Garctg

x

y

,

,

φ (7)

El valor de |Gf(x,y)| es un número real que se suele convertir al entero más

próximo. Cualquier píxel cuya magnitud |Gf(x,y)| exceda de un valor umbral T especificado de antemano, diremos que pertenece a un borde. Normalmente, este valor umbral es el valor medio en el rango de niveles de grises usados en la imagen.

Page 269: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

17

Una aproximación del gradiente de una imagen (asumiendo que las variaciones se dan únicamente horizontal y/o verticalmente) sería:

( ) ( ) ( )

( ) ( ) ( )y

yxfyyxf

y

yxfG

x

yxfyxxf

x

yxfG

y

x

∆−∆+=

∂∂=

∆−∆+=

∂∂=

,,,

,,,

(8)

En imágenes discretas se puede considerar dx y dy en términos del número de

píxeles entre dos puntos. Así, cuando dx=dy=1 y el punto donde vamos a medir el gradiente tiene coordenadas (i,j) tenemos que:

( ) ( )( ) ( )jifjifG

jifjifG

y

x

,1,

,,1

−+=−+=

(9)

Para la implementación y computación del gradiente se utilizan máscaras o filtros que representan o equivalen a dichas ecuaciones. En este caso, computar el gradiente sobre toda una imagen con las condiciones de que dx=dy=1 consiste en convolucionar la imagen con unas máscaras del tipo:

−=

000

100

010

xG

−=000

010

100

yG (10)

Una mejor aproximación podría ser:

( ) ( ) ( )

( ) ( ) ( )y

yyxfyyxf

y

yxfG

x

yxxfyxxf

x

yxfG

y

x

∆∆−−∆+=

∂∂=

∆∆−−∆+=

∂∂=

,,,

,,,

(11)

En imágenes discretas se puede considerar dx y dy en términos del número de

píxeles entre dos puntos. Así, cuando dx=dy=1 y el punto donde vamos a medir el gradiente tiene coordenadas (i,j) tenemos que:

( ) ( )( ) ( )1,1,

,1,1

−−+=−−+=jifjifG

jifjifG

y

x (12)

Para la implementación y computación del gradiente se utilizan máscaras o filtros que representan o equivalen a dichas ecuaciones. En este caso, computar el gradiente sobre toda una imagen con las condiciones de que dx=dy=1 consiste en convolucionar la imagen con unas máscaras del tipo:

−=000

101

000

xG

−=

010

000

010

yG (13)

Page 270: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

18

(a)

(b) (c)

(b) (c)

Figura 9.11. (a) Imagen original; (b) Primera aproximación Gx; (c) Primera aproximación Gy; (c) Segunda aproximación Gx; (d) Segunda aproximación Gy.

Tal y como se pueden observar en las figuras anteriores, el gradiente Gx, detecta los bordes verticales y el operador Gy los horizontales (a priori, podríamos pensar que esta situación debería estar invertida). Esto es debido así a que el operador Gx detecta las variaciones que se producen con x fija. De igual manera, podemos apreciar la mejora de la segunda aproximación respecto la primera.

Page 271: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

19

Código implementado utilizando MatLAB:

function gradiente(A, T, aproximacion) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); G = zeros( 1 , 2 ); Gx1 = [ 0 , –1 , 0 ; 0 , 0 , 1 ; 0 , 0 , 0 ]; Gy1 = [ 0 , 0 , 1 ; 0 , –1 , 0 ; 0 , 0 , 0 ]; Gx2 = [ 0 , 0 , 0 ; 1 , 0 , –1 ; 0 , 0 , 0 ]; Gy2 = [ 0 , –1 , 0 ; 0 , 0 , 0 ; 0 , 1 , 0 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1

if aproximacion == 1 G( 1, 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gx1 );

G( 1, 2 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gy1 ); else

G( 1, 1 ) = sum (A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gx2 ); G( 1, 2 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Gy2 ); end if sqrt(G( 1, 1 )^2 + G( 1, 2 )^2) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 272: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

20

El problema de este método aparece puesto que no se tiene en cuenta el valor de la imagen en dicho píxel, ni los píxeles que se encuentran en la diagonal. Cualquiera que sea el operador usado para calcular el gradiente, el vector resultante contiene información sobre la probabilidad de que un píxel pertenezca a un borde y qué dirección debemos seguir.

(a) (b)

(c)

Figura 9.12. (a) Imagen original; (b) Imagen de la magnitud del gradiente considerando un umbral de T = 80; (c) Imagen binarizada.

9.3.2. Operadores de Prewitt.

Los operadores gradiente tienen el efecto de magnificar el ruido subadyacente en

la imagen. El operador de Prewitt tiene la propiedad de suavizar la imagen, eliminando parte del ruido y, por consiguiente, minimizando la aparición de falsos bordes debido al efecto de magnificación de ruido por parte de los operadores derivada. Si suponemos una imagen dada por:

987

654

321

zzz

zzz

zzz

(14)

donde los distintos valores de z son los niveles de gris de los píxeles solapados por las máscaras en cualquier localización de la imagen.

Page 273: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

21

Para obtener los valores de las componentes del vector de Prewitt en el punto definido por el píxel central z5 se utilizan las siguientes expresiones:

( ) ( )( ) ( )321987

741963

zzzzzzP

zzzzzzP

y

x

++−++=++−++=

(15)

De donde se obtiene las máscaras:

−−−

=101

101

101

xP

−−−=

111

000

111

yP (16)

(a) (b)

(c) (d)

(e) (f)

Figura 9.13. Aplicación de Prewitt: (a) Imagen original, (b) Bordes detectados mediante |P|, (c) Bordes detectados mediante |Px|, (d) Bordes detectados mediante |Py|, (e) Imagen

resultante considerando T = 10, (f) Imagen resultante considerando T = 20.

Page 274: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

22

Código implementado utilizando MatLAB:

function prewitt(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); P = zeros( 1 , 2 ); Px = [ 1 , 0 , –1 ; 1 , 0 , –1; 1 , 0 , –1]; Py = [ 1 , 1 , 1 ; 0 , 0 , 0 ; –1 , –1 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 P( 1, 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Px );

P( 1, 2 ) = sum (A( i – 1 : i + 1 , j – 1 : j + 1 ).*Py ); end if sqrt(abs(P( 1, 1 )) + abs(P( 1, 2 ))) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 275: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

23

function prewittx(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Px = [ 1 , 0 , –1 ; 1 , 0 , –1; 1 , 0 , –1]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 P = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Px );

end if sqrt(abs(P)) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 276: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

24

function prewitty(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Py = [ 1 , 1 , 1 ; 0 , 0 , 0 ; –1 , –1 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 P = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Py );

end if sqrt(abs(P)) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 277: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

25

9.3.3. Operadores de Sobel.

El operador de Sobel es similar al de Prewitt pero, en este caso, se suelen usar dos máscaras: una para la primera componente del vector y otra para la segunda componente del mismo. Dichas máscaras, que se llaman operadores de Sobel, son:

−−−

=101

202

101

xS

−−−=

121

000

121

yS (17)

Si (a,b) es el vector gradiente de un píxel calculado usando los operadores de Sobel, para calcular la máxima variación de f(x,y) en la dirección del gradiente, se suele calcular la suma del valor absoluto de sus coordenadas en lugar del módulo (por ser menos costoso, computacionalmente hablando). Observemos que en las máscaras de Sobel, tienen más peso los píxeles situados en posición vertical y horizontal respecto el píxel estudiado que los situados en la diagonal.

(a) (b)

(c) (d)

Figura 9.14. Aplicación de Sobel: (a) Imagen real; (b) Resultando de aplicar |Sx|; (c) Resultando de aplicar |Sy|; (b) Resultando de aplicar |Sx| + |Sy|.

Page 278: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

26

Código implementado utilizando MatLAB:

function sobel(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); S = zeros( 1 , 2 ); Sx = [ 1 , 0 , –1 ; 2 , 0 , –2; 1 , 0 , –1 ]; Sy = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 S( 1, 1 ) = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sx );

S( 1, 2 ) = sum (A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sy ); end if sqrt(abs(S( 1, 1 )) + abs(S( 1, 2 ))) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 279: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

27

function sobelx(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Sx = [ 1 , 0 , –1 ; 2 , 0 , –2; 1 , 0 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 S = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sx );

end if sqrt(abs(S)) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 280: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

28

function sobely(A, T) [ f c ] = size(A); A( : , c + 1) = zeros( f , 1 ); A( f + 1 , : ) = zeros( 1 , c + 1 ); for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i , j – 1 ); end end for i = c + 1 : 1 : 2 for j = f + 1 : 1 : 2 A( i , j ) = A( i – 1, j ); end end A( : , 1 ) = zeros( f + 1 , 1 ); A( 1 , : ) = zeros( 1 , c + 1 ); A( : , c + 2 ) = zeros( f + 1 , 1 ); A( f + 2 , : ) = zeros( 1 , c + 2 ); C = zeros( f + 2, c + 2 ); Sy = [ 1 , 2 , 1 ; 0 , 0 , 0 ; –1 , –2 , –1 ]; for i = 2 : 1 : f + 1 for j = 2 : 1 : c + 1 S = sum( A( i – 1 : i + 1 , j – 1 : j + 1 ).*Sy );

end if sqrt(abs(S)) >= T C( i , j ) = 255; else C( i , j ) = 0; end

end end return

Page 281: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

29

9.4. Operadores basados en la segunda derivada: Laplaciano.

Laplaciano: El laplaciano de una función bidimensional es una operación derivada de segundo orden definida por:

( )( )

( )

∂∂∂∂

=∇yxf

y

yxfx

yxf

,

,

,

2

2

2

2

2 (18)

El principio en que se base este método consiste en encontrar las posiciones en

una imagen donde la segunda derivada toma el valor 0.

Figura 9.15. (a) Detección de bordes; (b) Paso por cero; (c) Extremos absolutos.

Como en el caso del gradiente, la ecuación del laplaciano puede implementarse

en forma digital de varias maneras: . Una de las más frecuentes en la práctica es aplicar las siguientes máscaras:

;

010

141

010

1

−−−

−=L ;

121

242

121

2

−−−

−=L ;

111

181

111

3

−−−−−−−−

=L (19)

El requisito básico para la definición de laplaciano digital es que el coeficiente

asociado con los píxeles exteriores sea negativo. Como el laplaciano es una derivada, la suma de los coeficientes debe ser cero. En consecuencia, la respuesta es cero siempre que el punto en cuestión y sus vecinos tengan el mismo valor.

Aunque el Laplaciano responde a las transiciones de intensidad, rara vez se utiliza en la práctica para la detección de bordes:

• Los operadores basados en la primera derivada son sensibles al ruido en imágenes. El Laplaciano aún lo es más.

• Genera bordes dobles. • No existe información direccional de los ejes detectados.

(a) (b) (c)

( ) ( )864252 4, zzzzzyxf +++−=∇

Page 282: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

30

En orden de minimizar los efectos del ruido, un método consiste en conjuntar con la operación de detección de ejes un proceso de suavizado de la imagen.

Uno de los métodos más utilizados es el suavizado por medio de una Gaussiana:

• Convolucionar la imagen original con un filtro gaussiano. • Calcular las derivas sobre la imagen suavizada.

Como ambas operaciones son lineales podemos combinar ambas operaciones de diferentes formas:

• Suavizado de la imagen y cálculo de la 2ª derivada. • Convolución de la imagen original utilizando el laplaciano del Gaussiano (Mapa

de transición logarítmico).

Este método de detección de ejes fue propuesto por primera vez por Marrand-

Hildreth quienes introdujeron el principio de detecciones mediante el método de cruces por cero.

(a) (b)

(c) (d)

Figura 9.16. Aplicación del laplaciano: (a) Imagen original; (b) Resultado de aplicar L1; (c) Resultado de aplicar L2; (c) Resultado de aplicar L3.

Page 283: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

31

9.5. Operador de Canny.

Es el detector de bordes más poderoso que existe actualmente. Los pasos

principales del algoritmo son:

• Se convoluciona f con filtros gaussianos unidimensionales. De esta forma la imagen se suaviza (eliminación de ruidos).

• A continuación, se calcula el gradiente de la imagen suavizada usando una aproximación del gradiente de la función gaussiana (para determinar los píxeles donde se produce máxima variación).

• La matriz M correspondiente al módulo del gradiente da la función gaussiana tendrá valores grandes donde la variación de la intensidad sea grande. Se realiza, por tanto, un tresholding, eliminando aquellos píxeles que no tienen una magnitud (módulo del gradiente) alta.

• Posteriormente se realiza un proceso de eliminación de falsos bordes y realzado de bordes poco definidos. Este proceso se realiza eliminando aquellos píxeles que no son máximos locales.

Un ejemplo de aplicación de este método es el siguiente:

Figura 9.17. Resultados de aplicar el operador Canny.

Componente X de la convolución Gaussiana

Componente Y de la convolución Gaussiana

Componente X de la convolución de la derivada Gaussiana

Componente Y de la convolución de la derivada Gaussiana

Magnitud de la derivada Gaussiana

Supresión de los elementos no máximos

Page 284: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

32

Un ejemplo comparando el detector de bordes de Sobel y de Canny es el siguiente:

Figura 9.18. (a) Imagen al aplicar Sobel; (b) Imagen al aplicar Canny.

En resumen, la detección de bordes usando operadores de aproximación del

gradiente tiende a funcionar bien en los casos en que se involucran imágenes con transiciones de intensidad claramente definidas y ruidos relativamente bajos. Los pasos por cero ofrecen una alternativa en los casos en que los bordes están emborronados o cuando está presente un alto contenido de ruido. El paso por cero ofrece fiabilidad en las localizaciones de bordes y la propiedad de suavizado de la convolución gaussiana reducen los efectos del ruido. El precio a pagar por estas ventajas es el incremento de complejidad de cálculo y tiempo.

(a) (b)

Page 285: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

33

9.6. Problemas en los operadores para la detección de bordes.

Existen ciertos problemas comunes en todos los operadores que utilizan el gradiente para la detección de bordes:

• Se deben de realizar elecciones en valores umbral (corte) y tamaño de las

máscaras a utilizar (el tamaño condiciona el grado de suavizado, el cual puede afectar a las detecciones por cruce por cero y al máximo gradiente sobre una imagen). La posición estimada de un borde debería ser independiente del tamaño de la máscara de convolución.

• Las esquinas son a menudo omitidas a causa de que el gradiente (1D) sobre las esquinas es normalmente pequeño. Esto puede causar considerables dificultades para el etiquetado de líneas ya que éstas pueden aparecer discontinuas.

• Los operadores de primera derivada detectan solamente step-like. Si uno quiere encontrar líneas se necesita utilizar operadores diferentes (por ejemplo Canny).

• Proceso diferenciales aplicados en la detección de bordes generan falsos positivos y falsos negativos.

Page 286: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

34

9.7. Bibliografía.

Tratamiento Digital de Imágenes. Rafael C. González, Richard E. Woods.

Visión por Computador, Imágenes digitales y aplicaciones. Gonzalo Pajares, Jesús M. de la Cruz.

Page 287: Física de la visión (Teoría y Prácticas)

Tema 9 – Detección de bordes BLOQUE II: Sistemas de Visión Artificial

Física de la Visión Jaime Martínez Verdú

35

Visión por Computador. Javier González Jiménez.

Visión por Computador, Fundamentos y Métodos. Arturo de la Escalera.

Page 288: Física de la visión (Teoría y Prácticas)

"!

#"$ %'&(*),+.-0/1(23+54768:9<;=3>,-;?,=

@BAC@A DEGFIHKJBLENMPORQTSU.V*WYX[Z\^]`_a[WbdceWf\hgjilkmconjbknpbXqZcorsi`VtXu_vVtX^]`_a[WbdceWYXxw`k:coVoi`rconPX[Wcey[nzkfZvkV.w`k

rk|d\[_Xu_*i`n~ZceZdbkr~Xvw`kcoVoi`rconPX[Wcey[n^pXvk7ceZdbknpbkKTXu_XkVoVe\sVe\v]`_dcork_\gjilkPXfgjilk^PX[Wfk_kfZWf\[r]`_\[PXu_gpilkqkVZdceZbkr~XkfZ:rk|d\[_Xu`VekT]PXu_XkVoVe\Zk_kYXuVocoXunVtX[Z^rkfw7cewlX[ZxWf\[nkVGVoi7`y[rkbd_\Kk_xgpilkkfZxw`kPWceknpbk,*`pT`j ¢¡0£B¤1zK¥Y¦u§Y¤1 §¨¦©ªj«¬`¦u­K§1z¬¦u§P®`¦ z¢ ¢¡z¢«0`­j¯¤ª«°B¡p£0¯Y¥Y²±¬I§j¦f³§1¦´`¦[ µ««¢«0¶ª·«­K`Y§¨¸K±°B¡h¢¡ ¯`¦pY`­K§1«T¯­j¯§ª«0j

¹"nPX"KkgjilkZk*bdceknlkVtX"ºKkf\[rkbd_d»tXGw`kV7Ve\µWYXuVjvVtX[ZY\[nPX[ZTw`k bd_XuPX´|¼\:½r»on`cor\w`k^w`\Z¾PXfzgjilk]`_\[]ª\[nlk_3i`n']`_\YKkfWb\w`k~coVoi`rconPX[Wcey[n¿XuVobk_dnPXubdcoK\`]PXu_XZkilZXu_a:kVB]`_\[º_Xur~XÀÁ1ÂpÃ[ÄÆÅ.ÇÁP

@BA¯ÈTA É1ʲË*MÌIQ`ÍÏÎTË*M'MPÐÑHKMlÒ0QªH`ÓU.VPWlk_\w`kV]`_\[º_Xur~X7*ÔÕXf'gjilk^knjjctXu_dVe\XVtXw7co_kfWfWcey[nÖÃp×ÄÆǯØuÙÚµÛ3Ü7ݯÞØ

Wf\[nkV0X[Zdi`npb\3ßÇÄÆÚµÛ:ǯÁ1Ãp×Ç¢àÁPáâ kk[XuVoiPXu_aãÕkfZW_dco]ªWcey[nw`kvVtX3coVoi`rconPX[Wcey[nXunjbk_dce\[_YU.VekfWfWcey[nw`kVtX[ZVoi`rconPXu_dctX[Zä \[Ve\jWYX[Wcey[nw`kÕVtX[ZVoi`rconPXu_dctX[ZãÕkfZW_dco]ªWcey[nw`kvVe\Z_kfZdi`VobX[w`\Z

åv$ æ^&>/1>"9<;+.="/ª(ç2m;è";¼/1>,6h23+é;9<>,è,+.=3+.ê

U.V1\[7|dkbdcoK\mw`kGkfZdbav]`_a[WbdceWYX3kfZ gpilkGkVªXuVoi`rnl\:ZkëNXurcoVoctXu_dceWfkGWf\[nxkVPbd_X[gjbX´ìrceknjb\:w7coºcobXuVw`kGcor~XuºKknlkfZY7TXu_XmkfZbk"]`_\[]\Zdcob\3Zk,PXmWf\[rsbXunlw`\:i`nPXmWYaur~Xu_Xää ãgjilkkfZdbaÕWf\[nlkfWbXmXíconpbk_dnlkbI3rkfw7ctXunpbkGkVlnPXfKkºpX[w`\[_Zk]`ilkfw`kn^X[w`gji`co_dco_VtX[Z"w7ceZdbdnpbX[Z"cor~XuºKînlkfZYðïñNòµó,ôõ÷öNøù¼ù¼õ÷úûü¢ý^ô´ø ô´þûuô´ø.ÿ øIø¼ûuù ø¼û öCó óù,óöCó,ÿ ø ødô´ø.ùþûuÿ CóöTøû óõ÷û[ó,ôø

Æóóÿ õóû öCó ô´õNø øÿ´öCóùNõ÷ùdóÿ ! ÿ óöNõ÷þø¼ÿ!"$#%&(')Æó ù ó+*ø,"!#%&-

.

Page 289: Física de la visión (Teoría y Prácticas)

U.V7]`_\[º_Xur~XvgpilkZk XíXGi`bdcoVocoXu_.]PXu_Xí_kYXuVocoXu_.VtX[Z]`_a[WbdceWYX[Z*kfZ,×NÃ[ÞKkfZdbk]`_\[º_Xur~XbdceknlkÕi`nPX3ë¢\[_dr~X:w`kÕbd_XuPX´|Xu_,ZdcorcoVtXu_"X3]`_\[º_Xur~X[ZGWf\[rkn`_WctXuVekfZ"Wf\uìr\Ã¢Ä Ãfj]k_\3Wf\[n^VtX3w7c ë k_knlWctX3gpilkÕZkGbd_XubX3w`kGi`nPXm]`_\[º_Xur~X3Wf\[nxVoceWfknlWctX 1U.nWVtX[Zksw`kmVtXuª\[_Xub\[_dce\xZks_kYXuVocoXu_a^VtX[ZGk7]`VoceWYX[Wce\[nlkfZÕPa[ZdceWYX[Zíw`kV0ë¢i`n7ìWce\[nPXurceknjb\w`kV1]`_\[º_Xur~X7`TXu_X3WiPXuVegpi`cek_Wf\[nlZdi`VobXmZkG]`ilkfw`kíilZXu_ WiPXuVegji`cek_Xw`ksVe\Z"rmi`Vobdco]`VekfZír~XunpiPXuVekfZÕw`kÃ¢Ä Ãm\w`k,×NÃuÞgpilkmkµceZdbknB1U.nVtX]PauºconPXw`kÕVtX~X[ZdcoºnPXubdi`_XkfZdbaWf\[Ve\µWYX[w`\kVr~XunjiPXuVw`k,×NÃ[Þ

U.VvZdceZdbkr~X\[]ªk_XubdcoK\gjilk[X'X¨ilZXu_xkn kVÕVtXuPX[\[_Xub\[_dce\kfZ.ǯÁlÚWYX[wlX]PXu_k|Xw`k,]`_a[WbdceWYX[Z bknlw7_amX[Z\µWctX[wlXvi`nPXWilknjbXkn^kV1\[_w`knPX[w`\[_ 1ǯÁ[ÝoÚµÛ3Ü7ÝÞØkfZbkí\[_w`knPX[w`\[_"bdceknlkvconlZdbXuVtX[w`\kVBZ\uë¢bXu_kÕnlkfWfkfZXu_dce\]PXu_X3VtXm_kYXuVocoX[Wcey[nw`kíVtX]`_a[WbdceWYX7

È.AC@A DEGFIHKJBLENMPORQTS0X]`_a[WbdceWYXZdcorsi`VtXi`nZdceZdbkr~Xw`këNau`_dceWYX[Wcey[nWf\[npbd_\[VtX[w`\_kr\[bXurknjbk

w`\[nlw`kZk3ëNXu`_dceWYXunzXu_dce\Zvbdco]ª\Zmw`k]`cekX[Z½¢Wco_Wi`VtXu_kfZm_kfWbXun`ºi`VtXu_kfZ¾ â k[XPXhW_kYXu_si`nzZdceZbkr~Xqw`k~Wf\[njbd_\[V w`k~WYXuVocewlX[w¨knzkVIgjilkZkbdceknlkgpilkrkfw7co_sVtX[ZWYXu_Xubk_d»eZbdceWYX[Zmw`kVtX[Z]`cekX[ZsWco_Wi`VtXu_kfZY0]PXu_XqkVoVe\qVe\Z]`_dcork_\Zs]PX[Z\Zsgjilk:PXfgjilkÕXur\Z"X:_kYXuVocoXu_"Z\[n

È.A¯ÈTA MPQE! `Q#"$!%Ð'&IMECQFIH(#"µÑ"7Q0Xq]`_a[WbdceWYX²Wf\[nlZdceZdbk~kn'X[w`gpi`co_dco_mVtXxcor~XuºKkn¨w`k~VtX ää ãé_kYXuVocoXu_3Ve\ZsZdc ì

ºi`ceknjbkfZ,]PX[Z\Z. *)"kYXuVocoXu_,i`nPXcoºiPXuVtX[Wcey[nw`kÕ`ceZdb\[º_Xur~X7+ ä \[npKk_dbdco_íVtX3cor~XuºKknknq`conPXu_dctX~w`kÕbXuVë¢\[_dr~XgpilkÕr~Xunjbkn`ºpXVe\Z,\[7|dkb\Z

gpilkvZkvknlWilknpbd_XunknhkVoVtX7, U.VocorconPXu_"Ve\Z"\[7|¼kb\ZGgpilkÕnl\ZkYXunWco_Wi`VtXu_kfZY-l*)"kYXuVocoXu_,i`nPXw`kbkfWfWcey[nw`kÕ\[_w`kvrkfw7ctXunpbksVtX/.0.21v

È.A43TA É1ʲË*MÌIQ`ÍÏÎTË*M'MPÐÑHKMlÒ0QªH`Ó¹"ncon7ë \[_drk"w`k,b\jw`\Z Ve\Z*]PX[Z\Z gpilk"ZkPXun_kYXuVocoX[w`\mkVl_XuY\[nPXurceknpb\:w`kV

]\[_gjilî ZkIPXGilZX[w`\GkfZ\Z0]PX[Z\Z6587:9 D 7<; D=?>@BA0CEDGFH"D/D D 7<; DDHJIKMLNC= 9 I 9 D D 7<; >NL 9PO

Q lÿ Nþÿ [óÿ þÿSR[û´õpÿ þû NþYô´þÿ, þÿ0T øTø¼ÿ ûUuû´õjøÿ Cóû NþYô´þÿ,÷þÿ8T øTÿ þû

+

Page 290: Física de la visión (Teoría y Prácticas)

Práctica 1

Proyecto de iluminación

Asignatura: Física de la Visión

Profesor: Roque Fernando Madrigal Madrigal

Alumnos:

María de las Nieves Robles Botella

Jaime Martínez Verdú

Page 291: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

1

1. Descripción de la iluminación anterior.

Después de un proceso de selección de datos hemos obtenido una serie de resultados que vienen representados en la siguiente figura:

Banco de T

rabajo 186

206 285

305 265

200

Centro de m

ecanizado

Luz de trabajo en el plato 1170

Atril

182

77 150 200 100 50

194 203 160

215 283

266

298 289

337

281

299

265

223

253

215

234

200

192

250

292

231

200 166

177

230

Tor

no d

e co

ntro

l num

éric

o C

NC

Luz

en

el p

orta

herr

amie

ntas

790

L

uz e

n la

pan

tall

a de

440

F

resa

dora

Uni

vers

al

L

uz e

n el

por

tahe

rram

ient

as 1

005

Luz

en

la p

anta

lla

de 3

30

265

221

200

235

220

212

241

260

265

290

312

271

262 251

260

261

252

250

212 241

Page 292: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

2

Se puede observar que los pasillos presentan niveles apropiados para áreas de

circulación o áreas no utilizadas para trabajar puesto que corresponden a valores por encima de los 200 lux (mientras que la norma obliga a que sean valores entre 50 y 200 lux). Con respecto a la zona variada podemos decir que una iluminación de 250 o 300 lux es la correcta tal y como indica la norma.

Con respecto a las zonas de trabajo como la correspondiente a la fresadora como

para el centro de mecanizado o el torno, tenemos valores cercanos a los 700 y 1.000 lux valores para los cuales la norma obliga a que estén entre 750 y 1.500 puesto que son tareas con exigencias visuales normales y difíciles también.

Por último, hablar sobre el banco de trabajo donde aparecen iluminaciones de

valores entre 250 y 300 lux, valores correctos pues se trata de tareas visuales escasas y,

en algunas ocasiones, medias.

Page 293: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

3

2. Elección de las luminarias.

Se ha optado por aquellas lámparas que son fluorescentes, ya que tienen unas características adecuadas para la utilización en el local:

• Ofrecen una eficiencia luminosa de 90 lúmenes por vatio. • Se caracterizan por tener una vida media de entre 5000 y 7000 horas. • Índice de Reproducción Cromática del 80%, el cual depende del recubrimiento. • Dependiendo de la temperatura el color de la luz varía desde un color cálido (Tª

baja), hasta un color frío (Tª alta).

Como las luminarias son las responsables del control y la distribución de la luz emitida por la lámpara, se ha tenido en cuenta a la hora de elegir las luminarias:

• La distribución de la luz, el rendimiento del conjunto lámpara – luminaria,

además de su instalación y mantenimiento. • Los materiales de las luminarias elegidas son adecuados para resistir el medio

ambiente en el que van ha trabajar las luminarias.

Por tanto, se opta por utilizar unas luminarias directas, ya que se requiere que la el flujo luminoso se emita mayoritariamente por debajo del plano horizontal que atraviesa la lámpara, con dos planos de simetría y que el grado de protección contra el polvo sea alto, ya que van a ser utilizadas en una fábrica, razón por la cual las luminarias son cerradas.

Se ha realizado una división del local en cinco zonas distintas dependiendo de su funcionalidad, ya que en cada una de ellas se requiere una iluminación diferente:

Page 294: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

4

3. Colocación de las luminarias.

Zona "torno y fresa"

En la zona definida como "torno y fresa" se ha colocado 14 luminarias modelo 651-IXC (de 58 W) con una disposición en doble hilera, abarcando así toda la zona de trabajo. Esta elección y distribución de las luminarias se debe a que la zona a tratar se puede considerar como zona de exigencia visual difícil, ya que los trabajos realizados requieren de una notable precisión.

Como se puede ver, las luminarias se encuentran separadas una distancia de 2 m

y con una suspensión de 3 m. Con estos parámetros se mejoran la homogeneidad y la intensidad luminosa, puesto que si aumentamos la distancia entre ellas el factor de uniformidad media disminuye, y si la luminaria se encuentra a la altura del local (4 m) la intensidad también es menor.

Centro mecanizado

Al igual que en el caso anterior, esta zona ha de tener unas características de

iluminación bastante buenas (se requiere de una exigencia visual especial de unos 1000 lux − 1500 lux). Por esta razón, se ha optado en este caso por la utilización de 8 luminarias modelo 651-IXC (de 58 W) con una disposición en doble hilera obteniendo, de esta forma, la iluminación requerida y una homogeneidad elevada.

Los datos de la distancia entre luminarias y de suspensión, son idénticos al caso

anterior por el mismo motivo pues con estos parámetros se mejoran la homogeneidad y la intensidad luminosa.

Bancos de trabajo

El nivel de iluminación requerido en esta zona es menor, ya que en ella se

realizan trabajos en los cuales la iluminación debe encontrarse entre 200-300 lux debido a que la exigencia visual es simple. Por tanto, las luminarias seleccionadas, modelo 201-IXC, son de menor potencia concretamente de 18 W, pero la cantidad empleada (cuatro hileras de cuatro luminarias cada una) es mayor debido al área que ocupa la zona y al nivel de uniformidad media y extrema.

La orientación en la disposición de las

luminarias difiere con respecto a las anteriores debido a la disposición de los bancos de trabajo, los cuales se encuentran orientados de manera vertical (la zona con mayor longitud se ubica en el eje X).

Page 295: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

5

Pasillo

Las luminarias utilizadas en el pasillo son 201-IXC, las cuales proporcionan una

potencia de unos 18 W. No se ha utilizado el otro modelo debido a que en las zonas con estas características, es decir zonas de circulación, el nivel de iluminación es menor que en las zonas de trabajo, ha de variar entre 80-150 lux.

Las luminarias se distribuyen en dos hileras de 4 y 5 luminarias las cuales se

alternan para tener una relativa uniformidad, el número de luminarias con respecto al área es menor que en las otras zonas, la distancia entre ellas es menor y la suspensión de 3.5 m por el mismo motivo de la elección de éstas, es decir, el nivel de iluminación ha de ser bajo.

Zona variada

En esta zona se ha utilizado el modelo de luminaria

correspondiente al 201-IXC. Esta elección no se ha meditado con profundidad, ya que esta zona no es de gran utilidad y su uso se limita a la colocación de objetos y otros utensilios.

Page 296: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

6

4. Descripción de los resultados

Analizando cada zona por separado obtenemos:

Centro mecanizado

Según la normativa en las zonas que

requieren una exigencia visual especial se ha de obtener entre unos 1000 – 1500 lux.

Los datos obtenidos se encuentran dentro

de los valores tabulados para este tipo de zonas, ya que la iluminación media es de 1471.25 lux, y la uniformidad media y extrema son de 0.74 y 0.59 respectivamente, indicando con estos valores que la iluminación se distribuye de manera homogénea.

Torno y fresa

Los datos obtenidos son similares

a los del caso anterior debido a que la utilización de la zona es muy similar. Por tanto, éstos se encuentran dentro de los valores establecidos por la normativa, teniendo una distribución de iluminación óptima para la realización del trabajo en esa zona.

Page 297: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

7

Bancos de trabajo

En esta zona la iluminación obtenida es

la idónea para la realización de trabajos que no requieren una exigencia visual alta, que ese es el caso, ya que según la normativa la iluminación ha de encontrarse entre 300 – 500 lux.

Como se puede ver los factores de

uniformidad se encuentran muy próximos a los estipulados por la normativa.

Pasillo

Según los resultados se puede apreciar que la iluminación de esta zona se encuentra muy influenciada por la iluminación de las zonas contiguas al pasillo, ya que éstas presentan una iluminación muy elevada. La iluminación óptima para este tipo de zonas es de 100 – 150 lux (porque la zona es un área de circulación). Por tanto, no se obtiene los valores adecuados, debido a este hecho.

Page 298: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio – Proyecto de iluminación

Jaime Martínez Verdú Mª Nieves Robles Botella

8

Zona variada

Los valores de esta zona no son demasiado importantes ya que su uso no está definido por tanto, los datos no tienen por que encontrarse dentro de lo establecido.

Como se puede observar, los resultados obtenidos son los deseados, ya que las zonas estudiadas cumplen con la normativa según su utilización, es decir, el nivel de iluminación se encuentra dentro del intervalo establecido por la norma.

Page 299: Física de la visión (Teoría y Prácticas)

Práctica 2

Tratamiento Digital de

Imágenes

Asignatura: Física de la Visión

Profesor: Roque Fernando Madrigal Madrigal

Alumnos:

María de las Nieves Robles Botella

Jaime Martínez Verdú

Page 300: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 1 – Ecualización de histogramas

Jaime Martínez Verdú Mª Nieves Robles Botella

1

1. Igualación de Histogramas.

Código:

1 function B=ecualizacion(A)

2 L=256;

3 HIST=zeros(1,L);

4 n=size(A,1)*size(A,2);

5 for i=1:1:size(A,1)

6 for j=1:1:size(A,2)

7 HIST(1,1+A(i,j))=HIST(1,1+A(i,j))+1;

8 endfor

9 endfor

10 for i=1:1:L

11 HIST(1,i)=HIST(1,i)/n;

12 endfor

13 bar(HIST);

14 ACUM=zeros(1,L);

15 ACUM(1,1)=HIST(1,1);

16 for i=2:1:L

17 ACUM(1,i)=ACUM(1,i-1)+HIST(1,i);

18 endfor

19 NORMALIZADO=zeros(1,L);

20 for i=1:1:L

21 NORMALIZADO(1,i)=(i-1)/(L-1);

22 endfor

23 FINAL=zeros(1,L);

24 mascerca=2;

25 nivel=0;

26 for i=1:1:L

27 for j=1:1:L

28 if abs(ACUM(1,i)-NORMALIZADO(1,j))<mascerca

29 mascerca=abs(ACUM(1,i)-NORMALIZADO(1,j));

30 nivel=j;

31 endif

32 endfor

33 FINAL(1,i)=nivel;

34 mascerca=2;

35 endfor

36 B=zeros(size(A,1),size(A,2));

37 for i=1:1:size(A,1)

38 for j=1:1:size(A,2)

39 B(i,j)=FINAL(1,1+A(i,j));

40 endfor

41 endfor

42 imshow(B);

43 endfunction

Page 301: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 1 – Ecualización de histogramas

Jaime Martínez Verdú Mª Nieves Robles Botella

2

Descripción del proceso de Ecualización implementado:

Primeramente inicializamos una variable L que nos permitirá indicar la cantidad

de niveles de grises con el cual estamos tratando la imagen. A continuación,

inicializamos también una nueva variable de tipo vector que va a ser nuestro

histograma, HIST(). En un principio, en cada componente de dicho vector

almacenaremos las repeticiones de los distintos niveles de grises (Figura 1), es decir,

Tal y como se puede observar en el dibujo, nuestro vector tendrá un rango de

256 (una componente asociada a cada nivel de gris) y lo inicializamos a ceros puesto

que iremos incrementando cada componente durante todo el proceso.

También definimos una variable n que nos representa la cantidad de píxeles que

conforma a la imagen que tratamos que, en efecto, es el producto de filas por columnas.

El comando size(A,1) y el size(A,2) nos devuelve las filas de la matriz A y las columnas,

respectivamente.

Mediante dos estructuras de repetición for anidadas podemos recorrer toda la

matriz (a partir de ahora nos referiremos a la imagen como matriz) y cada vez que

avancemos asignaremos un incremento al vector HIST() de la componente

correspondiente al nivel de gris del píxel actual (Figura 2), es decir,

2 L=256;

3 HIST=zeros(1,L);

4 n=size(A,1)*size(A,2);

5 for i=1:1:size(A,1)

6 for j=1:1:size(A,2)

7 HIST(1,1+A(i,j))=HIST(1,1+A(i,j))+1;

8 endfor

9 endfor

Nota:

La sentencia de asignación necesita de la suma de una unidad para que no se

produzcan desbordamientos ya que el nivel 0 provocaría que la asignación se diera

sobre la componente (1,0) que no existe. Por ello añadimos al valor la unidad.

…..….

En el elemento (1,1) almacenaremos las veces que se

ha repetido el nivel de gris 0.

En el elemento (1,2) almacenaremos las veces que se

ha repetido el nivel de gris 1.

…..….

En el elemento (1,n + 1) almacenaremos las veces que se ha

repetido el nivel de gris n.

En el elemento (1,256) almacenaremos las veces que se ha

repetido el nivel de gris 255.

Figura 1.

Vector HIST()

Page 302: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 1 – Ecualización de histogramas

Jaime Martínez Verdú Mª Nieves Robles Botella

3

Tenemos que el vector histograma donde HIST(1,k+1) es el número de píxeles

de la imagen con un nivel de gris k-ésimo, con k = 0,1,…,L − 1. Sin embargo, como el

histograma de una imagen es una distribución de probabilidad, nos falta dividir todas las

componentes del vector por el número total de píxeles. Este proceso lo hemos realizado

con el siguiente código:

10 for i=1:1:L

11 HIST(1,i)=HIST(1,i)/n;

12 endfor

Finalmente, cuando ya tenemos el histograma de la imagen lo "ploteamos"

usando la función bar() que lo representa mediante un diagrama de barras. Ahora

necesitamos crear un vector que se llame ACUM() donde almacenaremos la

probabilidad acumulada. Usando un for (para recorrer el vector) almacenamos en la

componente actual el valor correspondiente del histograma más lo acumulado con

anterioridad tal y como se puede observar en el código:

13 bar(HIST);

14 ACUM=zeros(1,L);

15 ACUM(1,1)=HIST(1,1);

16 for i=2:1:L

17 ACUM(1,i)=ACUM(1,i-1)+HIST(1,i);

18 endfor

A continuación, construiremos el vector de los valores normalizados con los

cuales trabajaremos en un futuro:

19 NORMALIZADO=zeros(1,L);

20 for i=1:1:L

21 NORMALIZADO(1,i)=(i-1)/(L-1);

22 endfor

+1 …..….

(1,1)

…..….

(1,2) (1,100) (1,256)

VECTOR HIST()

1 1 0 18 ··········

99 255 ··········

··········

·········

·········

·········

·········

……..

……..

Píxel actual

Incrementamos

la componente (1,1) que

es la correspondiente al

nivel 0

Componentes

Niveles de gris 0 1 99 255

Figura 2.

Page 303: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 1 – Ecualización de histogramas

Jaime Martínez Verdú Mª Nieves Robles Botella

4

Hemos de tener presente que la componente (1,1) hace referencia al nivel cero

normalizado, por lo que hemos de restar 1: NORMALIZADO(1,i)=(i-1)/(L-1).

A continuación crearemos un vector con L = 256 componentes para almacenar

el nivel de gris ecualizado que le corresponde al nivel de gris de la imagen (por ejemplo,

al nivel 5 le corresponde el nivel ecualizado 10,…). También definimos dos variables:

mascerca: Será la variable que utilizaremos para determinar la probabilidad

acumulada que más se aproxima al valor normalizado. Se pone a 2 ya que lo más

alejados que pueden estar dos valores es 1 unidad.

nivel: Esta será la variable que informará el nivel para el cual mascerca sea

menor, es decir, detectaremos el nivel para el cual el valor acumulado se aproxima más

al valor normalizado.

FINAL=zeros(1,L);

mascerca=2;

nivel=0;

for i=1:1:L

for j=1:1:L

if abs(ACUM(1,i)-NORMALIZADO(1,j))<mascerca

mascerca=abs(ACUM(1,i)-NORMALIZADO(1,j));

nivel=j;

endif

endfor

FINAL(1,i)=nivel;

mascerca=2;

endfor

Con el for más restrictivo (el primero de ambos) nos situamos en un valor del

acumulador y con el segundo for vamos comparando el acumulador actual con los

distintos normalizados. A medida que encontremos un valor acumulado más próximo al

normalizado nos guardamos el nivel al que corresponde en la variable nivel.

Cuando haya recorrido todo el vector normalizado, en la variable nivel estará el

nivel para el cual el valor normalizado es el más próximo a la probabilidad acumulada.

Entonces, se almacena el nivel correspondiente en el histograma ecualizado y se pone a

2 mas cerca para repetir el proceso.

Finalmente creamos una matriz nueva donde vamos a almacenar la imagen

resultante de la ecualización mediante una escalera de estructuras de repetición. Al píxel

i,j de la nueva imagen le corresponde el nivel ecualizado. Es decir, al nivel de gris que

tiene la matriz original lo cambiamos por el nivel ecualizado y lo colocamos en la

matriz B.

36 B=zeros(size(A,1),size(A,2));

37 for i=1:1:size(A,1)

38 for j=1:1:size(A,2)

39 B(i,j)=FINAL(1,1+A(i,j));

40 endfor

41 endfor

42 imshow(B);

Page 304: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 1 – Ecualización de histogramas

Jaime Martínez Verdú Mª Nieves Robles Botella

5

Finalmente "ploteamos" la imagen resultante.Resultados obtenidos:

Imagen original

Imagen ecuzlizada

Nota:

También podríamos haber utilizado otro método para la obtención de histograma

que permitía disminuir el número de operaciones dando así a nuestro programa una

mayor eficiencia:

Sea el histograma acumulado: ( ) ( )∑=

=i

k

khiH0

.

Si el histograma fuese totalmente plano, entonces el histograma acumulado para cada

nivel de gris sería:

( ) ( )256

1''NM

iiG +=

Idealmente queremos: ( ) ( )'iGiH = , luego ( ) ( )256

1'NM

iiH += .

Por tanto, ( )

−−= 1256

' iHNM

enterapartei

Page 305: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 1 – Ecualización de histogramas

Jaime Martínez Verdú Mª Nieves Robles Botella

6

Me he tomado la libertad de integrar este ejemplo en el trabajo puesto que, a

diferencia de la imagen que se puso para estudiar, en este ejemplo se puede apreciar

mucho mejor el cambio y mejora que aporta la ecualización de histograma para el realza

de determinadas zonas de una imagen: Tal y como podemos observar, aparece una hoja

de la rosa que antes no podíamos apreciar. Podemos observar que se trata de una imagen

muy oscura (esto se puede observar que existe una banda estrecha por la zona de los

niveles de gris cercanos a cero).

Imagen original Histograma de la imagen original

Imagen ecualizada Histograma de la imagen ecualizada

Page 306: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 2 – Binarización de imágenes

Jaime Martínez Verdú Mª Nieves Robles Botella

1

2. Binarización de imágenes.

Código:

1 function B=binarizacion(A,n) 2 3 for i=1:1:size(A,1) 4 for j=1:1:size(A,2) 5 if(A(i,j)<=n) 6 B(i,j)=0; 7 else 8 B(i,j)=255; 9 endif 10 endfor 11 endfor 12 imshow(B); 13 endfunction

Descripción del proceso de Binarización implementado:

Primeramente podemos decir que los argumentos de esta función son:

A: Matriz donde está almacenada la imagen.

n: Valor mediante el cual permitimos al usuario que elija el nivel para el cual

quiere binarizar.

El funcionamiento de esta función es muy sencillo: Implementaremos un mapa

de transición de umbralización. Mediante dos estructuras de repetición vamos

recorriendo la imagen por completo y en cada píxel imponemos una condición: Si el

nivel de gris del píxel actual es menor o igual al límite impuesto por el usuario, entonces

lo actualizamos a cero y, si no es así, lo actualizamos a 255.

n0

255

origen imagen la

de gris de Niveles

resultado imagen la

de gris de Niveles

Si el nivel del píxel

de la imagen está por

debajo de n entonces

se actualiza a 0

Si el nivel del píxel

de la imagen está por

debajo de n entonces

se actualiza a 255

Page 307: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 2 – Binarización de imágenes

Jaime Martínez Verdú Mª Nieves Robles Botella

2

Resultados obtenidos:

Imagen original n = 50

n = 100 n = 150

n = 200

Page 308: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 3 – Detección de Bordes

Jaime Martínez Verdú Mª Nieves Robles Botella

1

3. Detección de Bordes.

Código:

1 function deteccionbordes(A,n) 2 B=fft2(A); 3 imshow(log(abs(B))); 4 C=A; 5 [f c]=size(A); 6 for i=1:1:f 7 for j=1:1:c 8 if(mod(i+j,2)!=0) 9 C(i,j)=-1.*C(i,j); 10 endif 11 endfor 12 endfor 13 imshow(log(abs(fft2(C)))); 14 D=fft2(C); 15 for i=1:1:f 16 for j=1:1:c 17 if(sqrt((i-f/2)*(i-f/2)+(j-c/2)*(j-c/2))<n^2) 18 D(i,j)=0; 19 endif 20 endfor 21 endfor 22 imshow(D); 23 imshow(ifft2(D); 24 endfunction

Descripción del proceso de Detección de bordes implementado:

Primeramente podemos decir que los argumentos de esta función son:

A: Matriz donde está almacenada la imagen.

n: Valor mediante el cual elegimos el radio del círculo para eliminar las

frecuencias bajas.

Con la función fft2() conseguiremos aplicar la Transformada de Fourier a la

imagen almacenada en la matriz A. para poder ver la transformada en una imagen

tenemos que aplicar el mapa de transición logarítmico. Estas líneas están implementadas

con la intención de que nos demos cuenta que la transformada no aparece centrada en la

imagen. Para evitar que la imagen aparezca en las esquinas la centraremos. Para ellos

aplicaremos la propiedad de traslación.

( ) ( )

( ) ( ) ( ) ( )( )( ) ( )( )( )

( )( )( )

−−⇔−

−===⇒

−−⇔

+

+++++

++

++

++

2,

21,

1,,,,,

,,

222222

00

2

00

00

Nv

NuFyxf

yxfeyxfeyxfeyxfeyxf

vvuuFeyxf

yx

yxyxj

yxj

N

yN

xN

jN

yvxuj

N

yvxuj

ππππ

π

Page 309: Física de la visión (Teoría y Prácticas)

Prácticas de Física de la Visión Ejercicio 3 – Detección de Bordes

Jaime Martínez Verdú Mª Nieves Robles Botella

2

Así, el origen de la Transformada de Fourier de f(x,y) puede ser desplazado hasta

el centro de su correspondiente cuadrado de frecuencias N × N multiplicando f(x,y) sólo

por (-1)x+y

(es decir, negando píxeles de la imagen f(x,y) alternativamente).

Para ello, disponemos de dos bucles for una condición, si la posición es par,

entonces tendremos que multiplicar por – 1. De este modo, iremos multiplicando por

– 1 alternativamente. Si representamos ahora la transformada tenemos que la

transformada aparece centrada en la imagen.

Para eliminar los bordes hemos de anular las frecuencias bajas para quedarnos

con las altas. Por ello, los valores por fuera del círculo con radio n los anulamos.

Finalmente, representamos la Transformada de Fourier con las frecuencias bajas

eliminadas y representamos la Transformada Inversa de Fourier.

Resultados obtenidos:

Imagen original Umbralización 200

Resultado al eliminar bordes mediante Fourier

Page 310: Física de la visión (Teoría y Prácticas)

Trabajo optativo: Las monedas.

Implementa un programa capaz de imprimir por pantalla la suma de monedas que tenemos.

Para la solución a este enunciado hemos de decir que supondremos que tenemos un tapiz blanco donde depositaremos las monedas y una cámara fotográfica conectada a nuestro ordenador de modo que al realizar una foto del tapiz la fotografía pasa al ordenador transformada en forma de un archivo binario con la extensión “.txt”.

Tenemos que aclarar ciertos aspectos del enunciado que han de

cumplirse:

1. Únicamente se permitirá la utilización de monedas de curso legal y cyas dimensiones sean las normalizadas por el estado español. 2. El programa sólo estará preparado para la detección de monedas de 2 €, 1 €, 50 céntimos, 20 céntimos, 10 céntimos, 5 céntimos, 2 céntimos y un céntimo de euro. 3. Las monedas estarán separadas y ninguna podrá estar encima de otra moneda. 4. La cámara creará un archivo

al realizar la fotografía caracterizado por estar compuesto de unos y ceros de modo que la claridad será un cero y la opacidad con un uno.

Page 311: Física de la visión (Teoría y Prácticas)

1 #include <stdio.h> /*Librería para usar funciones E/S y para tratar fi cheros*/ 2 #include <stdlib.h> /*Librería para usar memoria dinámica*/ 3 #define nombre 100 /*La longitud máxima de la ruta*/ 4 #define rango 100 /*Número máximo de monedas que caben en el tapiz*/ 5 #define EURO_2 ??? /*Superficie de una moneda de 2 euros*/ 6 #define EURO_1 ??? /*Superficie de una moneda de 1 euro*/ 7 #define EURO_05 ??? /*Superficie de una moneda de 50 céntimos*/ 8 #define EURO_02 ??? /*Superficie de una moneda de 20 céntimos*/ 9 #define EURO_01 ??? /*Superficie de una moneda de 10 céntimos*/

10 #define EURO_005 ??? /*Superficie de una moneda de 5 céntimos*/ 11 #define EURO_002 ??? /*Superficie de una moneda de 2 céntimos*/ 12 #define EURO_001 ??? /*Superficie de una moneda de 1 céntimo*/ 13 14 /*Declaración de las funciones*/ 15 16 int ContarFilas( char * ); 17 int ContarColumnas( char * ); 18 void LeerMatriz( char **, char * , int , int ); 19 void BuscarMoneda( char **, int * , int , int ); 20 int TipoMoneda( int ); 21 double TotalMonedas( int * ); 22 23 /*Implementación de las funciones*/ 24 25 /*Programa para contar las columnas de la matriz*/ 26 int ContarColumnas( char * ch) 27 28 FILE* fichero; 29 int i; 30 char valor; 31 fichero=fopen(ch,"r"); /*Abrimos en modo de lectura*/ 32 33 /*Verificamos que no ha habido un error de apertur a del fichero*/ 34 35 if (fichero==NULL) 36 37 printf("Ha ocurrido un error al abrir el fiche ro.\n"); 38 exit(-1); 39 40 41 /*Con un bucle for comprobamos las columnas del fic hero*/ 42 43 for (i=1, valor=fgetc(fichero); valor!='\n';valor=fgetc (fichero)) 44 i=i+1; 45 46 fclose(fichero); /*Cerramos el fichero*/ 47 return (i); 48 49 /*Programa para contar las filas de la matriz*/ 50 int ContarFilas( char * ch) 51 52 FILE* fichero; 53 int i; 54 char valor; 55 fichero=fopen(ch,"r"); /*Abrimos en modo de lectura*/ 56 57 /*Verificamos que no ha habido un error de apertura del fichero*/ 58 59 if (fichero==NULL) 60 61 printf("Ha ocurrido un error al abrir el fiche ro.\n"); 62 exit(-1); 63 64 65 /*Con un bucle for comprobamos las filas del ficher o*/ 66 67 for (i=1, valor=fgetc(fichero); valor!=EOF;valor=fgetc( fichero)) 68

Page 312: Física de la visión (Teoría y Prácticas)

69 if (valor=='\n') 70 i=i+1; 71 72 73 fclose(fichero); /*Cerramos el fichero*/ 74 return (i); 75 76 77 /*Programa para ‘meter’ la foto en la matriz*/ 78 void LeerMatriz( char **mat, char * ch, int n, int m) 79 80 /* i ---> Servirá para recorrer la matriz por filas */ 81 /* j ---> Servirá para recorrer la matriz por colum nas */ 82 /*Sobra ---> No queremos en la matriz los caractere s \n y los obviamos*/ 83 84 FILE* fichero; 85 int i, j; 86 char sobra; 87 fichero=fopen(ch,"r"); /*Abrimos en modo de lectura*/ 88 89 /*Verificamos que no ha habido un error de apertura del fichero*/ 90 if (fichero==NULL) 91 92 printf("Ha ocurrido un error al abrir el fiche ro.\n"); 93 exit(-1); 94 95 for (i=0;i<n;i++) 96 97 for (j=0;j<m;j++) 98 mat[i][j]=fgetc(fichero); /*Se guarda el elemento*/ 99 sobra=fgetc(fichero);

100 101 return ; 102 103 104 /*Programa para buscar monedas e indicar su diámetr o*/ 105 void BuscarMoneda( char ** mat, int * s, int n, int m) 106 107 /* i ---> Servirá para recorrer la matriz por filas */ 108 /* j ---> Servirá para recorrer la matriz por colum nas */ 109 110 int i, j, k, z, l=0; 111 etiquetita_2: 112 for (i=0;i<n;i++) 113 114 for (j=0;j<m;j++) 115 116 if (mat[i][j]=='1') 117 118 for (k=0,z=0;mat[i][j+k]=='1';k++,z++) 119 mat[i][j+k]='0'; 120 etiquetita_1: 121 i++; 122 j=j+z/2; 123 for (;mat[i][j]==’1’;) 124 j--; 125 j++; 126 for (z=0;mat[i][j+z]==’1’;z++) 127 128 k++; 129 mat[i][j+z]=’0’; 130 131 if (mat[i+1][j+z/2]==’1’) 132 goto etiquetita_1; 133 else 134 135 if (k==1) 136 goto etiquetita_2;

Page 313: Física de la visión (Teoría y Prácticas)

137 else 138 139 s[l]=k; 140 l++; 141 goto etiquetita_2; 142 143 144 145 146 147 return ; 148 149 /*Programa que almacena en un vector las monedas en contradas*/ 150 double TotalMonedas( int * g) 151 152 int i; 153 double result; 154 for (i=0,result=0;g[i]!=NULL;i++) 155 156 if (g[i]<1.1*EURO_2&& g[i]>0.9*EURO_2) 157 result=result+2; 158 else if (g[i]<1.1*EURO_1&& g[i]>0.9*EURO_1) 159 result=result+1; 160 else if (g[i]<1.1*EURO_05&& g[i]>0.9*EURO_05) 161 result=result+0.5; 162 else if (g[i]<1.1*EURO_02&& g[i]>0.9*EURO_02) 163 result=result+0.2; 164 else if (g[i]<1.1*EURO_01&& g[i]>0.9*EURO_01) 165 result=result+0.1; 166 else if (g[i]<1.1*EURO_005&& g[i]>0.9*EURO_005) 167 result=result+0.05; 168 else if (g[i]<1.1*EURO_002&& g[i]>0.9*EURO_002) 169 result=result+0.02; 170 else if (g[i]<1.1*EURO_001&& g[i]>0.9*EURO_001) 171 result=result+0.01; 172 173 return (result); 174 175 void main ( void ) 176 177 178 int filas, columnas, k; 179 int *monedas; /*Cada comp. guardará el tipo de moneda encontrada* / 180 char **matriz; /*Matriz bidimens. dinámica donde almacenar la foto */ 181 char *ruta; /*Declaramos el puntero a carácter donde guardar la ruta*/ 182 183 /*Reservamos memoria para los nombres de las rutas* / 184 185 ruta=( char *)malloc(nombre*sizeof( char )); 186 printf("Introduzca la ruta: "); 187 gets(ruta); /*Almacenamos la ruta en la variable*/ 188 filas=ContarFilas(ruta); /*¿Cuantas filas debe tener nuestra matriz?*/ 189 columnas=ContarColumnas(ruta); /*Igualmente para las columnas*/ 190 191 /*Reserva de memoria para las matrices*/ 192 193 /*Primero reservamos memoria para las filas*/ 194 195 matriz=( char **)malloc(filas*sizeof( char *)); 196 197 /*Ahora reservamos memoria para las columnas*/ 198 199 for (k=0;k<filas;k++) 200 matriz[k]=( char *)malloc(columnas*sizeof( char )); 201 202 /*Almacenamos la foto en una matriz*/ 203 204 LeerMatriz(matriz, ruta, filas, columnas);

Page 314: Física de la visión (Teoría y Prácticas)

205 206 free(ruta); /*Liberamos la memoria de la variable ruta*/ 207 208 /*Ahora buscamos donde están las monedas*/ 209 210 monedas=( int *)malloc(rango*sizeof( int )); 211 BuscarMoneda(matriz, monedas, filas, columnas); 212 213 printf("\nEl total de monedas es de: %.2f.",TotalM onedas(monedas)); 214 215 //Liberamos la memoria 216 for (k=0;k<filas;k++) 217 free(matriz[k]); 218 free(matriz); 219 free(monedas); 220 return ; 221

Diagrama de los procesos que se ejecutan:

Problema: Debo encontrar método de búsqueda mejor

La cámara de fotos efectúa una fotografía y se

transmite al ordenador en forma de ceros y unos

Leemos la ruta del fichero

Contamos las filas y columnas que tiene el fichero

Almacenamos la foto en una matriz

Buscamos moneda a moneda y

determinamos sus respectivos diámetros

Se calcula la suma total