1 / 61

Vision Artificial

Descripción de los componentes de la vision artificial, en español

rgescandon
Télécharger la présentation

Vision Artificial

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Visión Artificial Mexicali, B.C. 26 de Abril de 2007

  2. Visión Artificial • La visión artificial también denominada visión de computadora y visión de máquina, es una importante tecnología de sensores con aplicaciones potenciales en muchas industrias.

  3. Definición • La visión artificial se refiere a la detección de datos de visión y su interpretación por una computadora. • El sistema de visión típico está constituido por la cámara y equipo de digitalización, una computadora digital y los elementos de Hardware y Software necesarios para su interconexión.

  4. Operación • La operación del sistema de visión está constituido por tres funciones: 1.- Detección y digitalización de datos de imagen. 2.- Análisis y procesamiento de imágenes. 3.- Aplicación.

  5. DETECCIÓN Y DIGITALIZACIÓN DE DATOS DE IMAGEN.

  6. DETECCIÓN Y DIGITALIZACIÓN DE DATOS DE IMAGEN. • Para la entrada de datos de visión se realiza por medio de una cámara enfocada en la escena de interés. • La imagen visionada por la cámara se suele digitalizar y almacenar en memoria de computadora.

  7. DETECCIÓN Y DIGITALIZACIÓN DE DATOS DE IMAGEN. • La imagen digital se denomina un campo de datos de visión y se suele capturar mediante un dispositivo de Hardware denominado un captador de trama. • Estos dispositivos son capaces de digitalizar imágenes a una velocidad de treinta cuadros por segundo.

  8. DETECCIÓN Y DIGITALIZACIÓN DE DATOS DE IMAGEN. • Los cuadros están constituidos por una matriz de proyecciones de representación de datos de la escena detectada por la cámara. • Los elementos de la matriz se denominan elementos de la imagen o pixeles.

  9. DETECCIÓN Y DIGITALIZACIÓN DE DATOS DE IMAGEN. • Un pixel individual es la proyección de una pequeña parte de la escena, que reduce esa parte a un valor único. • El valor es una medida de la intensidad de la luz de ese elemento de la escena.

  10. Cámara instalada en un robot.

  11. ANÁLISIS Y PROCESAMIENTO DE IMÁGENES

  12. Características • Para realizar el procesamiento de imágenes y su análisis, el sistema de visión debe capacitarse con frecuencia. • En este proceso se obtiene información sobre los objetos prototipos y se almacenan como modelos de computadora. • La información recogida durante la capacitación está constituida por características tales como el área del proyecto, su longitud perimétrico, diámetros mayor y menor, y otras características similares.

  13. APLICACIÓN. •  Las aplicaciones actuales de la visión de máquina en la robótica incluyen • la inspección, • identificación de piezas, • la localización • y la orientación.

  14. Clasificacion • Según las dimensiones que maneja • Bidimensional • Tridimensional

  15. ADQUISICIÓN DE IMÁGENES

  16. En la adquisición de imágenes se estudiarán los principales dispositivos usados para la visión artificial. Algunos de estos dispositivos son las cámaras de televisión que están compuestas por un sensor basado en un dispositivo de estado sólido o válvulas electrónicas y electrónica asociada. El tubo de vidicón es muy usada y representativa de las familias de tubos de televisión. • Los sensores de imágenes de estado sólido serán presentados a través del estudio de dispositivos de acoplamiento de carga (CCD), los cuales son uno de los principales exponentes de esta tecnología.

  17. LA CÁMARA DE TUBO DE VIDICON. • Esta está compuesta por un recipiente cilíndrico de vidrio que contiene un cañon de electrones en un extremo y una lámina en el otro . • El haz de electrones es enfocado y desviado por las tensiones aplicadas a los arrollamientos. • El circuito de desviación hace que el haz de electrones explore la superficie más interna del objetivo para así  "leer" la imagen, es decir, la superficie más interna de la lámina de vidrio está   recubierta por una película transparente de metal que forma un electrodo del cual se obtiene la señal de vídeo. • Sobre esta película metálica se deposita una delgada capa fotosensitiva " objeto", está capa esta compuesta por glóbulos resistivos muy pequeños cuya resistencia es inversamente proporcional a la intensidad de la luz. • Al lado del objetivo fotosensible se encuentra una fina malla de cable positivamente cargado, cuya función es desacelerar los electrones emitidos por el cañón de forma que alcance la superficie del objetivo a una velocidad cercana a cero.

  18. DISPOSITIVO ACOPLADO POR CARGA (CCD). • En esta tecnología la imagen se proyecta por una cámara de vídeo sobre el CCD, que detecta, almacena y extrae por lectura la carga acumulada generada por la luz en cada parte de la imagen. • La detección de la luz se produce mediante la absorción de luz en un substrato fotoconductor. • Las cargas se acumulan bajo electrodos de control positivo en " cubetas " aisladas debido a las tensiones aplicadas a los electrodos centrales. • Cada cubeta aislada representa un solo pixel y puede trasferirse a registros de almacenamiento de salida variando las tensiones en los electrodos de control metálico.

  19. Elementos que integran a la cámara para un robot.

  20. Digitilizador • Dispositivo para convertir la señal de salida del sistema sensible a forma digital.

  21. Microdensitometro • Dispositivo no muy conocido es el microdensitómetro, este necesita que la imágen a digitalizar esté en forma de transparencia (como un negativo de película) o de fotografía. •     De los microdensitómetros, la transparencia o fotografía se monta en un soporte plano o se enrrolla alrededor de un tambor. El barrido se realiza dirigiendo un haz luminoso (que puede ser un láser) sobre la imágen y desplazando el soporte o girando el tambor en relación al haz. En este caso de transparencias el haz pasa a través de la película, mientras que en el caso de fotografías se refleja por la superficie de la imágen. En ambos casos el haz se enfoca sobre un foto detector y el nivel de gris en cada punto de la imágen es grabado por el detector en función de la intensidad del haz. Para obtener una imágen digital sólo se permite en la salida valores discretos de la intensidad y de la posición .

  22. ILUMINACIÓN Y FORMACIÓN DEIMÁGENES

  23. La iluminación es importante durante el procesamiento de imágenes, ya que una iluminación deficiente hace más difícil de interpretar a dicho objeto en una escena.

  24. Figura 7.5.a Intensidad de iluminación (escalonada) y Figura 7.5.b Intensidad de Iluminación (obscuro y claro). • Existe claramente que la iluminación percibida no es una simple función de la intensidad. La figura 7.5.a (arriba) muestra un patrón de iluminación fuertemente escalonada, sobre todo cerca de los bordes entre las franjas y la figura 7.5.b (abajo) muestra la distribución real de intensidad, pero el patrón de iluminación que se percibe es una franja más obscura en la región D y otra más brillante en la región B .

  25. Dispositivos básicos de iluminación. • 1.- Dispositivos de superficie difusa. (Ejemplo: los típicos tubos fluorescentes y las mesas de luz) • 2.- Proyectores de condensador. Un proyector de condensador transforma una fuente de luz en expansión en una fuente de luz en condensación. Esto es de utilidad en la óptica de formación de imágenes. • 3.- proyectores puntuales o difusos. Se utilizan para iluminar áreas superficiales. • 4.- Colimadores. Se emplean para proporcionar un haz de luz paralelo sobre el sujeto. • 5.- Formadores de imágenes. Los formadores de imágenes, tales como proyectores de diapositivas y ampliadoras ópticas, forman una imagen del " blanco " en el plano del objeto.

  26. También se han desarrollado varias técnicas de iluminación para poder usar estos dispositivos de iluminación. Estas tienen la finalidad de dirigir un recorrido de luz desde el dispositivo de iluminación a la cámara, de modo que se visualice el sujeto de una manera adecuada para la cámara.

  27. TÉCNICAS DE ILUMINACIÓN • Fuente de luz frontal • Fuente de luz posterior • Otros dispositivos

  28. La iluminación frontal significa simplemente que la fuente de luz esta en el mismo lado de la escena que la cámara, por lo tanto la luz reflejada se utiliza para crear la imagen visionada por la cámara; mientras que la iluminación posterior la fuente de luz está dirigida a la cámara y situada detrás de los objetos de interés. La iluminación posterior es adecuada para aplicaciones en la que una silueta del objeto es suficiente para su reconocimiento o en donde exista la necesidad de obtener medidas importantes .

  29. ANÁLISIS Y PROCESAMIENTO

  30. Después de haber examinado la forma de obtener una imagen y almacenado en una computadora. El siguiente paso es el análisis y procesamiento de una imagen, ya que se considera una gran cantidad de datos al analizar y procesar la imagen.

  31. Dentro del procesamiento se tendrá que recurrir a varias técnicas para reducir la magnitud del problema de procesamiento de la imagen. En estas técnicas se incluyen: •   1.- Reducción de datos de la imagen.    2.- Segmentación.    3.- Extracción de características.    4.- Reconocimiento del objeto.

  32. REDUCCIÓN DE LOS DATOS DE LA IMAGEN • Su objetivo es el de reducir el volumen de los datos. • En cual se manejan dos métodos que son: • la conversión digital y • el uso de ventanas.

  33. La conversión digitalreduce el número de niveles grises utilizados por el sistema de visión de máquina. También puede utilizarse para reducir el número de niveles de gris mediante el uso de menos bits para representar la intensidad de luz de pixel. • Por ejemplo, un registro de 8 bits, utilizado para para cada uno de los pixeles, tendría 2 a la 8 = 256 niveles de gris, al reducir por ejemplo a 4 bits esto reducirá el numero de niveles de gris a 16, con esto reducirá significativamente la magnitud del problema de procesamiento de la imagen. • En el procesamiento digital de imágenes es una práctica común que estas cantidades sean potencias enteras de dos; es decir, 2 elevado a la n.

  34. Figura 7.6 Imágenes con degradación en número de bits.

  35. La figura 7.6 muestra como se degrada una imágen digital conforme se disminuye la resolución espacial y la cuantificación de los niveles de gris. El inciso a) figura original, b) imágen con resolución de 512 bits, c) imágen con resolución de 256 bits, d) imágen con resolución de 128 bits, e) imágen con resolución de 64 bits y f) imágen con resolución de 32 bits.

  36. El uso de ventanas • Implica la utilización de sólo una parte de la imagen total almacenada en el buffer de cuadros para el análisis y procesamiento de la imagen. • Es decir, se selecciona una ventana rectangular para rodear al componente de interés, analizando únicamente los pixeles que se encuentran dentro de la ventana. • Una de las razones para la utilización de las ventanas es que el reconocimiento adecuado de un objeto requiere solo unas partes determinadas de la escena.

  37. SEGMENTACIÓN. • La segmentación es un término general que se aplica a varios métodos de reducción de datos; • su objetivo es agrupar áreas de imagen que tengan características similares dentro de entidades distintas, que representen partes de la imagen. • Algunas de las técnicas usadas para segmentar imágenes son • la fijación de umbrales, • crecimiento de región y • detección de borde.

  38. La fijación de umbrales • Es una técnica de conversión binaria en la que cada pixel es convertido a un valor binario, blanco o negro. • Esto se realiza mediante un histograma de frecuencias de la imagen y estableciendo la intensidad (nivel de gris) va ha ser el límite entre el blanco y el negro. • La fijación de umbrales es la técnica más utilizadas para la segmentación en aplicaciones de visión industrial, • ya que es mas rápida y más fácil de llevar a cabo y la iluminación se puede controlar en un establecimiento industrial.

  39. El crecimiento de región • Es un conjunto de técnicas  de segmentación en la que los pixeles se agrupan en regiones llamados elementos de cuadricula basada en similitudes de atributos. • Las regiones definidas se podrán examinar en cuanto a si son independientes o se pueden fusionar a otras regiones por medio de un análisis de la diferencia de sus propiedades medias y su conectividad espacial

  40. La detección de bordes • Considera el cambio de intensidad que se produce en los pixeles en el contorno o bordes de un objeto. • Dado que se ha encontrado una región con atributos similares, pero se desconoce la forma del contorno, este ultimo se puede determinar mediante un simple procedimiento de seguimiento del borde.

  41. Para la imagen binaria, el procedimiento es el de explorar la imagen hasta que se encuentre un pixel dentro de la región, una vez encontrado un pixel en el interior de una región, torcer a la izquierda y avanzar, o al contrario torcer a la derecha y avanzar un paso. El procedimiento se detiene cuando se atraviesa el contorno y el camino vuelve al pixel inicial.

  42. EXTRACCIÓN DE CARACTERÍSTICAS

  43. Consiste en distinguir un objeto del otro,  para ello se realiza mediante las características que caracterizan a un objeto. • Algunas de sus características de los objetos que pueden utilizarse en la visión de máquina son • su área, • diámetro y • el perímetro, una característica  más en un parámetro que permite la facilidad de comparación e identificación.

  44. Las características  básicas y medidas para la identificación de un objeto bidimensional • nivel de gris (máximo, medio, mínimo). • Área. • Longitud del perímetro. • Diámetro. • Rectángulo de cierre mínimo. • Centro de gravedad (coordenadas x, y). • Excentricidad • Relación de aspecto ( Relación longitud - anchura de un rectángulo de contorno que rodea el objeto). • Delgadez . Es la medida de lo delgado que es un objeto (también conocido como compacidad). • Agujeros.

  45. Figura 7.7 Extracción de caracteristicas de un objeto.

More Related