jueves, 5 de septiembre de 2013

*Vision Artificial*

Introducción.

La mayoría de los robots industriales que hay instalados actualmente en los procesos productivos, están prácticamente incomunicados con el entorno que les rodea. La necesidad de tener programadas las acciones a efectuar, restringe el ambiente de trabajo a unas condiciones estrictas, al igual que a las pinzas o los materiales que se han de manipular.
Cuando las producciones no son grandes, esa ordenación del mundo exterior se hace muy costosa y es preciso disponer de robots, que sean capaces de operar en situaciones que permitan cierta flexibilidad en los elementos.

Existen multitud de sensores capaces de informar de algunas características del ambiente que envuelve al robot, pero la más completa y la que confiere la máxima adaptabilidad a la maquina, es la visión.
La importancia de la visión, esta confirmada por la gran cantidad de empresas e investigadores que se dedican a mejorar esta técnica. Sin embargo, todavía no se ha implantado la visión en los robots comerciales, dadas las dificultades que existen y que pueden redimirse en las siguientes:
  1. Los sistemas de visión superan, en muchos casos, el coste del sistema de robot industrial.
  2. Exigen extensos desarrollos de software, que potencian el núcleo central de Inteligencia Artificial preciso para que el robot actué de acuerdo con la información del mundo exterior.
  3. Se necesitan potentes computadores para procesar una gran cantidad de información en poco tiempo. En robótica, las imágenes hay que procesarlas en tiempo real.
  4. Hay gran dificultad en el tratamiento de la información visual, debido a factores inherentes al mismo proceso, como son sombras, tipo de iluminación, imágenes uni, bidimensionales y tridimensionales, oclusiones entre objetos, etc.
  5. En el análisis de la imagen, además de la información directa, hay que procesar otras fuentes de datos, tan complejos como los procedentes de la experiencia memorizada, el contexto general y los objetivos perseguidos.
Las aplicaciones más interesantes de visión, dentro de la Robótica, son el reconocimiento y clasificación de objetos, el ensamblado, la soldadura, la sincronización con otros dispositivos en movimiento y el guiado de robots móviles.

Sistema de vision para medicion.

Un sistema de visión artificial consta de las siguientes partes:
  1. Cámara, encargada de captar la imagen y transmitirla en forma de señales eléctricas, siguiendo unas normas de exploración.
  2. Interfaz, de adaptación de las señales eléctricas producidas por la cámara a un computador.
  3. Paquetes de software, para el proceso de la información por el computador, que permita analizar las escenas y generar los comandos de gobierno del robot, de forma autónoma y en tiempo real (Inteligencia Artificial).
En la confección del software, pueden distinguirse tres fases consecutivas:
a.      Selección, de la información útil e indispensable, puesto que es casi imposible, tener en cuenta toda la información que proporciona la cámara.
b.      Interpretación, de la escena en forma conveniente para la aplicación en curso.
c.      Calculo y generación, de las ordenes de control a los elementos motrices del manipulador, según los resultados de la fase anterior.

La exploración de imágenes.

La exploración de una imagen consiste, en esencia, en el conjunto de operaciones necesarias para, tras enfocarla con la ayuda de un sistema de lentes ópticas, convertirla en señales eléctricas, que por su propia naturaleza, podrían, posteriormente amplificarse y transmitirse, así como aplicarse a los dispositivos adecuados para su reproducción o el reconocimiento, mas o menos inteligente, de la escena original.

Cámaras de estado sólido.

Por su reducido tamaño y peso, su resistencia a los ambientes industriales y hostiles y la tendencia a la baja de su precio, las cámaras de estado sólido se están imponiendo en las aplicaciones de Robótica.

Dichas cámaras están formadas por un conjunto de sensores fotosensibles, dispuestos en una estructura matricial de m filas y n columnas.


Los sensores tienen dimensiones minúsculas (25 x 25 micrones) y dan la información sobre un punto o elemento de la imagen, al que se denomina PIXEL (picture element).


La representación de un punto de una imagen, con las cámaras de estado sólido, se define con tres parámetros, que se muestran gráficamente en la figura y que son:
  1. Situación de la fila del píxel (X).
  2. Situación de la columna del píxel (Y).
  3. Intensidad luminosa del píxel (Z).
Según los sensores utilizados, las cámaras de estado sólido pueden ser de tecnología CID (Charge-Injection device) y CCD (Charge- Compled Device): Dispositivo de inyección de carga y de acoplo de carga.

La matriz de píxeles de las cámaras de estado sólido, están formadas por un conjunto de condensadores MOS. En el tipo CCD, al incidir los fotones, generan unas cargas que son retenidas por cada puerta y luego tranferidas o leídas en serie, de forma secuencial.
La lectura de información de las cámaras CID se hace mediante direccionamiento X-Y, es decir, de forma aleatoria, lo que las faculta para explorar parcialmente a las imágenes.
El procesamiento de la información que entrega la cámara, trata la imagen selecciona los datos útiles y aplica los algoritmos apropiados para el reconocimiento de la forma del objeto enfocado.

La Retroalimentación visual para el funcionamiento del Tele robot.

 Introducción.


Los tele robots involucran el funcionamiento remoto de brazos mecánicos, la buena retroalimentación visual, se requiere para Tele operaciones exitosas.

Localizado en la universidad de Australia occidental existe un robot que puede controlarse vía internet. Este robot consiste en un brazo mecánico con un manipulador. Se posiciona en una mesa con bloques delante de él. El operador intenta manipular los bloques colocados en la mesa.

Se dan dos vistas de cámara de video para ayudar al operador en esta tarea. Mientras tanto se adecuan, las tele operaciones.

El propósito es agregar una tercera cámara al robot. La cámara extra le dará una vista buena de los bloques al operador, y así hace mas fácil las tele operaciones.

La tercera cámara no debe restringir el movimiento de los robots. Su vista no debe bloquearse por otras partes del robot. Debe protegerse si es montado hacia el manipulador del robot.
Investigaremos los esfuerzos de otro tipo de tele robots equipados con sistemas visuales.

Tele robot controlado por internet.

El Proyecto de posicionamiento visual.
La posición ideal facilita las dos vistas existentes y agrega una tercera dimensión extra para el usuario. La vista también tiene que contener la mayor información como sea posible. La única manera de lograr esto es poner la cámara a una distancia moderada fuera de los manipuladores y los bloques.
Consideraciones importantes:
  • Visualización al contener los objetos y ser sujetados por el propio manipulador.
  • El sistema de visión es permanecer independiente del robot y así no se obstruya durante cualquiera de los movimientos normales de los robots.
  • La vista sobre todo tiene que ser comprensible. Cuando la computadora se controla vía el internet que es necesario que la vista sea al usuario amistoso y fácil de entender.
Teniendo en cuenta estas consideraciones fue decidido que la posición ideal de visión estaba en un ángulo ligero al eje del brazo y ligeramente elevado. Esto agregaría la tercera dimensión necesaria y daría una apreciación global de los objetos ser sujetados.

La vista anterior satisface todos los requisitos. Muchas otras tomas de visión eran probadas pero ninguna satisfizo el criterio así como la imagen anterior.

Así que nosotros podríamos poner la cámara en cualquier lugar deseado, pero fue decidido que en una montura sería posicionado al lado del brazo. El implemento sería atornillado a los agujeros de montura existentes y así no requirió dispositivos de sujetacion robustos. Cuando la montura se coloco en el brazo, no se alteró la vista a los usuarios.

La montura de la cámara tenía que ser ligera, porque la montura es una extensión del robot que fue requerida para no impedir el movimiento del robot. Poniendo la montura fuera del brazo el robot, la cámara esta alejada del rango de los movimientos del robot y sólo interferirá en casos extremos.
Esta montura fue diseñada para ser muy sencilla de instalar y relativamente fácil construir.

La montura.

Consideraciones:Visión.
Porque la visión tiene que proporcionar la mayor parte de la información, se coloco la cámara hasta donde fue posible la visión exacta del manipulador. Esto no sólo significa estar atento específicamente al manipulador si no también en el entorno ambiental del robot que también debe considerarse.

Protección para la Cámara

La colocación de la montura cuidó la necesidad para protección de cámara.

La retroalimentación visual y de fuerza para ayudar al neurocirujano durante una telecirujia.
El objetivo de este trabajo es desarrollar un sistema para la planificación y segura ejecución de neurocirugía. Los requisitos visuales para la tele operación incluyen: la situación del tumor, el mejor camino para la inserción de la sonda y situación de los vasos de sangineos mayores y tejidos delicados del ser humano.
Estos requisitos se proporcionan utilizando una 3D de modelo gráfico del cerebro, obtenido por la imagen de resonancia magnética, el rayo X  y tomografía de la computadora.
La imagen virtual del cerebro se utiliza para dirigir la inserción de la fuerza que refleja la sonda. Un brazo de robot sostendrá la guía de la sonda, mientras el sistema de inserción de sonda informa al cirujano las tele operaciones ejecutadas.
Figura 1: El concepto de tele inserción de guía de la sonda durante la neurocirugía.

La Cirugía de Tele presencia.

SRI Internacional.
El sistema de cirugía de tele presencia de Sri consiste en dos módulos principales: una consola para cirujanos y una unidad quirúrgica remota (RSU) localizada en la mesa de cirujias.

Las imágenes del cirujano abajo en un espacio de trabajo virtual, recreado por un monitor de video estereográfico. Él controla cada movimiento de los manipuladores remotos, utilizan a un sistema maestro- esclavo preciso.

La retroalimentación visual se proporciona por un par de cámaras de video en el RSU,  posicionado por encima del paciente y así obtener una primera vista de la persona, hacia los manipuladores quirúrgicos. El uso de dos cámaras proporciona un efecto de estéreo visión realista.

Los usos planeados para esta tecnología incluyen la cirugía remota en el campo de batalla dónde cirujanos pueden proporcionar ayuda inmediata a soldados heridos

La configuración de Cirugía de tele presencia. 

Procesamiento de imágenes.
Estructura general de un sistema de visión.
Los sistemas de visión usados en aplicaciones industriales están basados en un computador de propósito general compuesto por varios módulos interconectados por buses normalizados. Así, los computadores basados en los microprocesadores intel, utilizan los buses ibm-pc, el ISA-EISA (AT) y los procesadores de motorola utilizan el bus VME.
Los módulos principales de los equipos destinados al proceso de imágenes son:
  1. Uno o varios procesadores.
  2. Memoria principal para el almacenaje de programas y datos.
  3. Módulos para el control de periféricos (discos, modem, impresoras, etc..)
  4. Modulo de entrada y salida para el gobierno de los elementos externos, como maquinaria, relees, robots, alarmas, etc.
  5. Tarjetas especializadas en el procesado de imágenes.
La tarjeta de video dispone de los elementos necesarios para llevar a cabo las siguientes funciones:
a.      Digitalización de la señal de video procedente de la cámara, mediante un conversor A/D.
b.      Almacenamiento de la información de la imagen digitalizada en una "memoria imagen".
c.      Sistema para el procesado de la imagen, bien mediante un procesador especializado o mediante hardware especifico, como circuitos integrados PLD con ALUS integradas, tablas de transformación hardware (LUT), etc.
d.      Visualización de la imagen almacenada en un monitor, a trabes de un conversor D/A.
e.      Conexión del contenido de la memoria de imagen al bus normalizado para su posible procesamiento y tratamiento en la sección del procesador principal y su memoria.
A continuación se describe la misión y las características de cada una de las secciones que componen la tarjeta de visión.

Digitalización

La exploración de una línea de la imagen de una cámara, proporciona una señal analógica continua, que debe ser muestreada en tantos puntos como píxeles tenga la línea.

Cada píxel o punto de la imagen capturada corresponde con una tensión analógica, cuyo valor representa el nivel de luminosidad o "nivel de gris".


En el caso de las cámaras de estado sólido no se precisa realizar el muestreo, puesto que cada celda CCD de la línea proporciona directamente la tensión analógica del píxel correspondiente.

Como el procesamiento de la información es del tipo digital, hay que transformar los valores analógicos de los píxeles de la imagen en valores digitales. 


El numero de bits en que se transforma la señal analógica mediante el conversor A/D, determina la cuantificación de los niveles de gris, es decir, la cantidad de niveles de gris que se empleara en el procesamiento. Así, con una resolución de 8 bits se dispone de 256 niveles de gris, desde el blanco hasta el negro. Con dicha resolución, el ojo humano ya no aprecia los escalones entre los niveles de gris.

La conversión de la señal analógica de video, procedente de la cámara ha de ser muy rápida, lo que exige conversores caros del tipo comparador en paralelo. Por ejemplo trabajando a 10Mhz, la conversión ha de hacerse en menos de 100ns.


Una vez que se almacena la imagen digitalizada en la memoria de imagen, la mayoría de las tarjetas de video tiene la posibilidad de poder visualizarla en un monitor, lo que conlleva la conversión D/A, así como la mezcla con los impulsos de sincronismo horizontal y vertical, para restablecer la señal de video.
Imágenes en proceso.

El tratamiento de la información que compone la imagen puede llevarse a cabo a través de programas (software), o bien, por medio de circuitos electrónicos especializados (hardware) .

En general, el hardware es más rápido que el software, pero también mas caro. 


Hay situaciones en las que se hace imprescindible el tratamiento mediante hardware. Por ejemplo, cuando se trabaja en tiempo real como en las aplicaciones en Robótica, en las que la actuación del manipulador depende, en cada momento, de la imagen que capta de la cámara sobre el entorno.

Tratamiento hardware.

Uno de los recursos mas empleados en el proceso de imágenes píxel a píxel es el de las tablas de traducción de hardware (LUT: Look Up Table).

Se trata de circuitos integrados de diseño especifico, que tienen implementando el algoritmo de transformación que hay que aplicar en cada píxel. A veces, la materialización se lleva a cabo a modo de memoria EPROM de alta velocidad.


El nivel de gris I(x,y) de cada píxel se transforma, mediante un determinado algoritmo, en otro nivel de gris de salida O (x,y).
O (x,y) = (Algoritmo) I(x,y)
La LUT funciona como una memoria a la que se accede a una posición con el valor I(x,y), encontrándose en dicha posición el valor O(x,y) correspondiente, de forma directa y rápida.
I (x,y) Entrada de direccionamiento ----> An LUT Dn ---->Salida del dato O(x,y).

Tratamiento software.

La ejecución de un programa para la manipulación y transformación de los píxeles de una imagen, generalmente requiere mas tiempo que los circuitos que realizan al misma función por hardware.

Los programas de procesado de imágenes suelen ser el lenguaje ensamblador o lenguaje C, es decir, aquellos que son más cercanos al lenguaje maquina, para optimizar tiempo y tamaño de la memoria.
A veces, en la propia tarjeta de visión se incluye un procesador especializado, que trabaja con instrucciones apropiadas en el tratamiento de imágenes. Sin embargo, en muchas ocasiones se utiliza el propio procesador principal del sistema.
La elección del procesador es crucial en el rendimiento del sistema de visión. La velocidad de procesamiento de las instrucciones y el tamaño del bus, son las características más determinantes.
Estructura y jerarquía en el proceso de imágenes.
Tras captar la imagen mediante la cámara, hay un abanico de posibilidades para manipular la información recogida y obtener datos, que se desprenden de su análisis. A todos estos métodos de tratamiento de la información de imágenes se les llama genéricamente; proceso de imágenes.
En el proceso de imágenes se distinguen 3 niveles jerárquicos:
  1. Bajo Nivel -Las técnicas utilizadas en este nivel son básicas y están orientadas a la definición y obtención de las propiedades generales de la imagen. En esta fase se incluye la fase de captación mediante las cámaras y la fase de preproceso, en la cual se contempla la digitalización de la señal de video; la obtención de las propiedades más representativas, como los bordes, el color, la textura, etc.; y la mejora de la imagen.
  2. Nivel Intermedio -En este se incluyen las técnicas empleadas para obtener las propiedades de la escena. Así, con la segmentación se extraen o aíslan los objetos particulares de la imagen, con la descripción se caracterizan dichos objetos, y con el reconocimiento, se identifican los objetos de la escena.
  3. Alto Nivel -En esta categoría en la que se aplica el proceso inteligente, la técnica más representativa es la interpretación, que trata de estudiar la lógica de los objetos localizados en la escena, procediendo a un etiquetado y representación simbólica.

El video  Estereoscópico y la Realidad Virtual.

Introducción.

Como los adelantos de tecnología, los tele robots  muchos son  para sistemas militares, otros también extendiéndose en los ambientes arriesgados, como la cama del océano, el interior de los volcanes y el espacio exterior. El despliegue eficaz de tele operación y los robots de telemando serán esenciales para la interacción exitosa con éstos ambientes.

La Robótica autónoma dónde el robot es capaz de acción sin la intervención humana, está lejos de ser alcanzables en los  ambientes no estructurados como los campos de batalla, guiones de disposición de bombas, el manejo de armas y el control de materiales arriesgados. Para el futuro previsible, los sistemas controlados remotamente, dependerán de inteligencia y percepción humana.

La efectividad del humano - los sistemas de máquina son a menudo determinados por la calidad del humano - la interfase de la máquina. Desgraciadamente, más tele robots existentes están equipados con la norma del monoscopic video (MV) los despliegues como la fuente principal de información al operador. 

Los despliegues de MV eliminan todas las señales de profundidad binoculares (es decir mire convergencia y disparidad), así como varias señales de profundidad minusculas (es decir la pendiente de la textura). La pérdida de estos resultados de señales de profundidad importantes en situaciones dónde la situación de objetos es ambigua en la escena remota.


Un problema relacionado es la dificultad estimando los tamaños absolutos con un sistema MV. Es difícil determinar si un obstáculo es demasiado grande o pequeño, o si una depresión es profundamente bastante para presentar un riesgo. Un estudio informó que usando sistemas de MV normales, el personal de escuadra de bomba es renuente para utilizar a su manipulador remoto.

La Investigación de Ingeniería humana (HERC) recientemente investigó los beneficios de usar 3-D, o el estereoscopiovideo (SV) para la tele operación en las aplicaciones en las fuerzas armadas canadienses. SV proporciona un inmediato sentido profundidad que puede simplificar las tareas de tele operación, favoreciéndose la requerida manipulación delicada.

Estereoscopio - la Investigación de Aplicación en video.

Estereoscopio los sistemas videos usan dos cámaras para recoger las imágenes ligeramente de dos  perspectivas diferentes, una para cada ojo del operador. El sistema del despliegue debe encauzar estas dos imágenes diferentes a los ojos apropiados. Mientras el más el sistema práctico, es empleando el equipo de la televisión normal, usa un campo alterno de acercamiento. Las imágenes de la izquierda y cámaras de la derecha se despliegan alternadamente en el monitor. Las gafas especiales están provistas con contraventanas de cristal líquidas que cambian de opaco a claro. Estas contraventanas son electrónicamente sincronizadas con el monitor, para que el ojo izquierdo sólo vea la imagen de la cámara izquierda, y el ojo derecho sólo ve la imagen del la cámara derecha.

Desde 1997, Prof. Paul Milgram de Sección de Diseño Industrial, en la Universidad de Toronto y David Drascic, para la Defensa y el Instituto Civil de Medicina Medioambiental (DCIEM), han dirigido varios experimentos en la Universidad de Toronto para investigar los beneficios de SV para los operadores principiantes orientándolas tareas del tele robot.


En uno experimento, realizaron una tarea de posicionamiento relacionado para tele operación esta disposición requirió alineación cuidadosa del tele robot. La dificultad de la tarea era variada cambiando los requisitos de precisión. 

Los resultados indican que operadores necesitan considerablemente menos entrenamiento para ponerse hábiles a este tipo de  telerobots,  puede realizar más rápidamente y con menos errores utilizando un despliegue de SV.


El nivel más bajo de dificultad, se encontró en beneficio de SV. Sin embargo, siempre que la tarea cambia, las ventajas de SV eran una vez más inmediatamente claras. 

A los niveles más altos de dificultad, la actuación es ventajosa para el SV e incluso se encontró después funcionamiento optimo a movimientos repetitivos.
Más recientemente, Investigación de Ingeniería del Humano (HERC), en la conjunción con DCIEM, dirigió una investigación en los beneficios de SV usando para las aplicaciones del tele operación en las fuerzas armadas canadienses para los operadores del tele robot experimentados.

 Usando varias tareas relacionadas a la bomba -la tele operación en disposición, a estos experimentos mostraron un fuerte sentido de posicionamiento remoto tele operable.

Los sistemas de vídeo estereoscopios.

Toda la investigación descrita sobre la utilización de un NTSC se realizó - basado el sistema, originalmente desarrollado por Milgram y Drascic, y después puso al día a DCIEM. Este sistema usa cámaras normales, monitores y video el equipo. El signo de SV es un signo video normal que puede ser grabado con cualquier VCR. Este sistema puede instalarse  por abajo de US$4,000 sin las cámaras. Los monitores de NTSC tienen una imagen refrescante proporción de 60 Hz. Usando el campo alterno la técnica de SV, cada ojo sólo ve la mitad de estas imágenes, y así tiene una 30 Hz, de imagen de actualización  por proporción. Como un resultado hay un parpadeo perceptible en la imagen algunos operadores se distraen al principio. No obstante, operadores de todos los niveles de habilidad se adaptan muy rápidamente a este sistema de SV, mientras prefiriendo el más fuerte sistema de MV.  La tensión atribuible al sistema de SV era incluso informó después de que varias horas usan; De hecho, la mayoría de los operadores tasaba los SV despliegan más cómodo y más utilizable que el MV original el despliegue.


La Realidad aumentando con ARGOS.

Mejorando el despliegue de un tele robot es sólo un aspecto del humano, la interfase de la máquina. Otro el aspecto muy importante es el método comunicación metas humanas e instrucciones al tele robot. La mayoría de los telerobots en uso hoy es casi completamente el manual, requiriendo la atención constante del operador. Los grandes pasos largos han sido hechos en tele robots dando un cierto grado de inteligencia al ejecutar tareas.
 Se han creado robots que son capaces de impulso en una situación en que pueden evitar obstáculos, o  múltiples reconfiguraciones - el manipulador de juntura para mover el extremo  a una nueva situación para el efector. Para usar uno de estos sistemas en un tele robot interactivo, la situación del operador necesita poder comunicar precisamente el 3D  dimensional - las coordenadas al tele robot. Tales coordenadas pueden ser conocidas o definidas bien en ambientes específicos, como un laboratorio o espacio de trabajo.
Desde que 1999, Drascic y Milgram han estado rompiendo la nueva era por combinar a computadora generadora de los gráficos del estereoscopio con el video del estereoscopio (SV), una tecnología ellos la llama ARGOS que quiere decir "Artificial  Realidad a través de las Cubiertas Gráficas en Estéreo - el video utilizando ARGOS es posible crear objetos virtuales que parecen existir en la imagen de video. Generando cuidadosamente calibración el indicador virtual de alguna clase, y permitiéndole al operador ajustar  la posición de este indicador en tres espacios de video dimensional, es posible para el operador indicar un destino preciso para el tele robot, o para indicar un camino para que seguir. Posicionando un indicador virtual es una tarea mucho más simple que manejar un tele robot. Usando semejante interfase reducirá el trabajo del operador considerablemente.

Un experimento fue dirigido para determinar las tareas qué con precisión pudo encuadrar un indicador virtual con los blancos reales. Este experimento mostró que la calibración de los gráficos con el video era exitoso y que las tareas  se pudieron encuadrar con el indicador virtual, así como la colocación  de un indicador real en el espacio video, los límites de su percepción de profundidad así como la determinación del despliegue de la imagen fueron también exitosos.

Varios tipos diferentes de sistemas de Realidad Aumentados existen. ARGOS es uno de los más simples y más robustos, porque usa a un monitor normal cuando los estereoscopios despliegan el dispositivo. Otros sistemas de realidad aumentados de uso encabezan - los despliegues montados, pero hay muchos problemas de percepción de la calibración que no parecen ser resueltos antes de que estos sistemas puedan ser utilizados por la industria.

Desde que el indicador virtual puede usarse para especificar los puntos en el espacio remoto, es una extensión simple para crear una  cinta virtual de medida, para que el operador pueda hacer dimensiones de las situaciones y tamaños de los objetos remotos.

Como un ejemplo extenso de Realidad Aumentada, considere un espacio para el tele robot. Todas las imágenes de video en el espacio sufren el mismo problema con las sombras: las sombras son en el espacio completamente negro, y algo en la sombra es completamente invisible. Sin embargo, desde las misiones enviadas al espacio bien conocido este problema, es posible usar ARGOS para generar las imágenes perdidas, cuidadosamente dibujado para aparecer a la situación correcta en el video la imagen.

En otras situaciones, objetos que pueden ser invisibles a la visión normal pueden ser perceptibles con otros sensores. En muchas situaciones subacuaticas, la visión normal sólo es buena para una distancia muy limitada. Mientras es más fácil para ver a través de las profundidades oscuras con SV que con MV, los operadores están todavía muy limitados. Sin embargo, usando radar y sonar e infrarrojo con las cámaras, es posible darse cuenta de objetos que serían por otra parte invisible. Si se envía la información de estos sensores al ARGOS la computadora, los objetos gráficos apropiadamente formados pueden dibujarse a la posición correcta en el espacio, en la fabricación de efecto visible lo que normalmente es invisible.

Semejante, información de los varios sensores de imágenes médicas, pueden utilizarse  para generar las imágenes gráficas del interior del cuerpo humano. Estas imágenes pueden ser excelentes, hacia una imagen de video en vivo del cuerpo que usa ARGOS,  observado en 3D, proporcionando una ventaja clara de sistemas que utilizan dos despliegues dimensiónales. (Bidimensionales).
El video de Estereoscópico y la Realidad Aumentada pueden mejorar grandemente la retroalimentación de información de la máquina remota al operador humano, y las herramientas como el Indicador Virtual pueden facilitar grandemente  la comunicación de instrucciones humanas a la máquina.

ARGOS: un Sistema para Aumentar la Realidad Virtual.
Este video describe el desarrollo del ARGOS (Aumentando Realidad virtual a través de las Cubiertas Gráficas en Stereo video) el sistema, es una herramienta para el humano reforzando la interacción con tele robot y como una herramienta más general con las aplicaciones en una variedad de áreas, incluso el perfeccionamiento de la imagen, la simulación, fusión del sensor, y la realidad virtual. El estereoscopio despliega, imágenes 3-D, de realidad virtual, manipulación remota y  tele operación.

La Interacción del Robot.

Este proyecto empezó examinando la interfase de la máquina, un tele robot común, con el ser humano, identificando dos áreas del problema importantes: La información que fluye del robot al operador (la retroalimentación), y flujo de información del operador a la máquina (las ordenes / las instrucciones).

La Interfase de Regeneración visual.

La mayoría de los tele robots utiliza video monoscopico (MV) como eslabón de retroalimentación primario para el operador. A MV le faltan señales de profundidad binoculares, sin embargo, impide la percepción del usuario en situaciones de objetos en el mundo remoto. El video estereoscópico utilizado (SV) para manipulación remota, la tarea puede reducir tiempo de ejecución, el índice de error y la adaptación tiempos. Los recientes estudios han mostrado que operadores prefieren SV fuertemente, y lo han calificado como más cómodo y utilizable que MV.

La Interfase de mando.

La mayoría de los tele robots se controlan por medio de control remoto, requiriendo mientras la atención continua de los operadores muy experimentados. 

Los tele robots totalmente autónomos no son todavía posibles en ambientes no estructurados, pero es factible, para transferir información sobre el trabajo hacia el operador de la máquina. 


Un robot semiautónomo puede llevar a cabo simples  movimientos, controla si es preciso comunicar,  las tres coordenadas dimensionan al robot y además si están disponibles. 


Los humanos son pobres en absoluto del juicio de posición, pero puede ser exacto.


 Los juicios de posición que se utilizan en los despliegues de SV. Si un indicador con una posición exactamente conocida es disponible, los operadores pueden adaptarse a especificar los puntos arbitrarios en el mundo remoto, usando su propio sentido de posición relativa.

Nosotros hemos creado un indicador virtual que usa el estereoscopio calibrando los gráficos de computadora (SG), y con un sistema ARGOS, la confabulación de la imagen de SG con el SV, para que el indicador virtual aparezca dentro del control remoto del mundo. 

El operador puede moverlo libremente alrededor y encuadrarlo con objetos en el mundo remoto, puede determinar su posición. ARGOS combina habilidades humanas de percepción y comprensión con las habilidades de la computadora de cálculo preciso y los despliegues de gráficos para crear un sistema aumentado con mayor funcionalidad.


Las Aplicaciones de ARGOS.

Nosotros llamamos sistema ARGOS , significado" Artificial  Reality a través de Graphic Overlays en Stereovideo."
(Realidad artificial de cobertura grafica en stereovideo). En lugar de intentar crear una virtual o realidad artificial, ARGOS sirve para dar a los operadores suficiente necesaria información y así realizar las tareas peligrosas fuera de peligro y en un ambiente natural, para el teleoperador de manera especial.

Una extensión del indicador virtual es la cinta virtual, que puede usarse para medir tamaños y distancias en el mundo remoto. Por ejemplo,  la cinta virtual - puede usarse para medir los tamaños y posiciones de objetos.

Con el gráfico y el poder suficiente computando, es posible crear los objetos virtuales animados de cualquier complejidad y realismo. Trabajando en ambientes estructurados, ARGOS puede reforzar imágenes como un alambre recubriendo los bordes del marco en los objetos conocidos. En los ambientes no estructurados, ARGOS puede integrar la información de otros sensores como el radar y sonar con el SV. Implementando la visualización arquitectónica de los objetos, el sistema de imágenes de simulación para tele robots médicos son algunos de los campos que se están explorando actualmente. Mecanizando las capacidades de visión incluso, se está extendiendo más allá el potencial del sistema de ARGOS. 

Controlar un robot equipado con video monoscopico es difícil. Utilizando las imágenes estereoscópicas es mucho más fácil de controlar.

El juego combinado de movimientos de la parte izquierda de la imagen del robot y la correcta observación de la posición del mismo son similares; las gafas separan la imagen para el ojo izquierdo y el ojo derecho.

Esto muestra el Indicador Virtual en funcionamiento, mientras sé esta midiendo la distancia de la silla del primer plano de la parte de atrás de la imagen.

Aquí el Indicador Virtual dibuja un camino en el espacio que el robot debe seguir.
   
Aquí el sistema de Realidad Aumentado se muestra para reforzar la vista del tele robot que se encarga de recolectar o enviar satélites de la bahía del trasbordador espacial.

Un ejemplo de observación de alambre simple –el sistema de visión de los robots que interactúa con su medio ambiente en este caso la mesa, las sillas permitiéndose así controlar sus movimientos. 




Puedes ver Más
Conocenos Más

0 comentarios:

Publicar un comentario

Contacta

INFORMACIÓN

Localización:

08500, Spain, Barcelona,2213 C

Horario de Trabajo:

Lunes a Viernes de 9am a 5pm Spain

Skype:

3D Byou

Busca en el Blog

Con la tecnología de Blogger.