Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento




descargar 468.8 Kb.
títuloDiseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento
página5/10
fecha de publicación28.10.2015
tamaño468.8 Kb.
tipoDocumentos
b.se-todo.com > Derecho > Documentos
1   2   3   4   5   6   7   8   9   10

Usuario: Todos somos personas

SIR: Comprendo

Usuario: Un dedo es una parte de la mano

SIR: Comprendo

Usuario: Cada persona tiene dos manos

SIR: La oración anterior es ambigua. Por favor reconstrúyala.

Usuario: En cada persona hay dos manos

SIR: Comprendo

Usuario: ¿Cuantos dedos tiene John?

SIR: La oración anterior es ambigua, pero asumo que TIENE significa TIENE COMO PARTES. No se si los dedos forman parte de John.

Usuario: John es un chico

SIR: Comprendo

Usuario: ¿Cuántos dedos tiene John?

SIR: La oración anterior es ambigua, pero asumo que TIENE significa TIENE COMO PARTES, ¿cuántos dedos por mano?.

Usuario: Cada mano tiene cinco dedos.

SIR: Comprendo

Usuario: ¿Cuántos dedos tiene John?

SIR: La respuesta es diez.

En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una cámara, sino también la comprensión, de lo que estas imágenes representan.

Un resultado importante en este trabajo lo constituye el "mundo de micro-bloques", en el cual un robot era capaz de percibir un conjunto de bloques sobre una mesa, moverlos y apilarlos; el éxito se debió a los investigadores Larry Roberts, Gerald Sussman, Adolfo Guzman, Max Clowes, David Huffman, David Waltz, Patrick Winston, y Berthold Horn.

Posteriormente se obtuvieron resultados importantes entre ellos el de mayor resonancia fue el sistema SCHRDLU de Terry Winograd, pues permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.

A continuación mostramos un ejemplo traducido:

http://www.monografias.com/trabajos12/inteartf/image2531.jpg

Usuario: Toma un bloque rojo.

SCHRDLU: Ok.

Usuario: Busca un bloque más pequeño que el que tienes y ponlo dentro de la caja.

SCHRDLU: Asumo que PONLO se refiere al bloque más pequeño que el que tengo.

Usuario: ¿Qué contiene la caja?

SCHRDLU: La pirámide azul y el bloque azul.

Usuario: ¿Qué sostiene a la pirámide?

SCHRDLU: La caja.

Usuario: ¿Cuántos bloques no están sobre la mesa?

SCHRDLU: Cuatro.

Usuario: ¿Es al menos uno de ellos más estrecho que aquel que te dije que recogieras?

SCHRDLU: Sí, el cubo rojo.

Usuario: ¿Lo sostiene algo?

SCHRDLU: Sí, la mesa.

Usuario: ¿Puede la mesa recoger bloques?

SCHRDLU: No.

Usuario: La pirámide azul es mía.

SCHRDLU: Comprendo.

Usuario: Todos los bloques que no son rojos son míos, pero no poseo nada que sostenga una pirámide.

SCHRDLU: Comprendo.

Usuario: ¿Poseo una caja?

SCHRDLU: No

Usuario: ¿Poseo algo de la caja?

SCHRDLU: Si, dos cosas: El bloque azul y la pirámide azul.

Aunque parezca impresionante la capacidad del sistema para razonar y ejecutar acciones, no se debe perder de vista el hecho que el robot se mueve en un mundo muy simple de figuras geométricas, y que las relaciones entre ellas son muy limitadas. En el mundo real existen tantos objetos diferentes y relaciones entre ellos, que tratar de llevar este sistema a un entorno real resulta prácticamente imposible.

En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la Universidad de Cornell, un modelo de la mente humana a través de una red neuronal y produce un primer resultado al cual llama perceptrón. Este sistema era una extensión del modelo matemático concebido por McCullock y Pitts para las neuronas, y funcionaba basándose en el principio de "disparar" o activar neuronas a partir de un valor de entrada el cual modifica un peso asociado a la neurona, si el peso resultante sobrepasa un cierto umbral la neurona se dispara y pasa la señal a aquellas con las que está conectada. Al final, en la última capa de neuronas, aquellas que se activen definirán un patrón el cual sirve para clasificar la entrada inicial.

Este trabajo constituye la base de las redes neuronales de hoy en día, sin embargo a raíz de su desarrollo sufrió fuertes críticas por parte de Marvin Minsky

y Seymour Papert lo cual provocó que la mayoría de los investigadores interesados en el tema lo abandonarán, y este no se retomara hasta los años 80.

En 1965-70, comenzaron a aparecer los programas expertos, que predicen la probabilidad de una solución bajo un set de condiciones, entre esos proyectos estuvo: DENDRAL, que asistía a químicos en estructuras químicas complejas euclidianas; MACSYMA, producto que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas, etc.

En la década 1970-80, creció el uso de sistemas expertos, muchas veces diseñados para aplicaciones médicas y para problemas realmente muy complejos como MYCIN, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. Otros son: R1/XCON, PIP, ABEL, CASNET, PUFF, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy.

De 1975 en adelante, comienza la era de los lenguajes expertos (shells) como EMYCIN, EXPERT, OPSS, etc. para luego tratar de que éstos sean más amigables y funcionales.

Las definiciones de Inteligencia Artificial son muchas, pero podría decirse que son programas que realizan tareas que si fueran hechas por humanos se considerarían inteligentes.

Estos programas obviamente corren en un computador y se usan, como por ejemplo, en control robótico, comprensión de lenguajes naturales, procesamiento de imágenes basado en conocimientos previos, estrategias de juegos, etc. reproduciendo la experiencia que un humano adquiriría y de la forma en que un humano lo haría.

Para clasificar las máquinas como "pensantes", es necesario definir qué es inteligencia y qué grado de inteligencia implica resolver problemas matemáticos complejos, hacer generalizaciones o relaciones, percibir y comprender. Los estudios en las áreas del aprendizaje, del lenguaje y de la percepción sensorial han ayudado a los científicos a definir a una máquina inteligente. Importantes desafíos han sido tratar de imitar el comportamiento del cerebro humano, con millones de neuronas y extrema complejidad.

Leer más: http://www.monografias.com/trabajos12/inteartf/inteartf.shtml#ixzz2eiSaizuY

Características de la Inteligencia Artificial.

  1. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.

Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.

  1. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).

  2. El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.

  3. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.

La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica, usada principalmente en el campo industrial; comprensión de lenguajes y traducción; visión en máquinas que distinguen formas y que se usan en líneas de ensamblaje; reconocimiento de palabras y aprendizaje de máquinas; sistemas computacionales expertos.

Los sistemas expertos, que reproducen el comportamiento humano en un estrecho ámbito del conocimiento, son programas tan variados como los que diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos sismológicos en exploración geológica y los que configuran complejos equipos de alta tecnología.

Tales tareas reducen costos, reducen riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto, y mejoran el control de calidad sobre todo en el ámbito comercial.

Diferentes teorías:

  1. Construir réplicas de la compleja red neuronal del cerebro humano (bottom-up).

  2. Intentar imitar el comportamiento del cerebro humano con un computador (top-down).

Diferentes metodologías:

  1. La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.

  2. Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.

Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora.

El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.

Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.

Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc.

Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de éstas hacia la salida.

El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de los estados.

I.1. Objetivos de la Investigación en Inteligencia Artificial.

Los investigadores en inteligencia artificial se concentran principalmente en los sistemas expertos, la resolución de problemas, el control automático, las bases de datos inteligentes y la ingeniería del software (diseños de entornos de programación inteligente).

Otros investigadores están trabajando en el reto del reconocimiento de patrones donde se espera un rápido progreso en este campo que abarca la comprensión y la síntesis del habla, el proceso de imágenes y la visión artificial.

Finalmente, la fundamental investigación sobre la representación del conocimiento, la conceptualización cognoscitiva y la comprensión del lenguaje natural.

Uno de los principales objetivos de los investigadores en inteligencia artificial es la reproducción automática del razonamiento humano.

El razonamiento de un jugador de ajedrez no siempre es el mismo que el de un directivo que se pregunta la viabilidad de fabricar un nuevo producto. Un niño jugando con bloques de madera en una mesa no tiene idea de la complejidad del razonamiento necesario para llevar a cabo la construcción de una pirámide, e intentar que un robot hiciera lo mismo que el niño requeriría un largo programa de computador.

Formas de considerar situaciones complejas son:

  • deducción, que permite obtener conclusiones de reglas cuyas premisas hemos comprobado

  • inducción que produce reglas a partir de observaciones parciales.

Estos dos tipos principales pueden utilizarse de un modo analítico (el razonamiento se divide en submódulos que son más difíciles de manejar, o de un modo sintético (inverso del proceso anterior, juntando elementos que se separaron anteriormente).

La inducción puede tener lugar cuando se comparan situaciones que son casi similares, con parámetros desconocidos en una situación dada asignándole los valores que tienen ya en una situación de referencia; este es un razonamiento por analogía.

Los métodos para razonar son variados. La iteración significa repetir la misma secuencia de razonamiento hasta que se alcance una condición de final; la recursión consiste en una forma particular del razonamiento que se llama a sí misma, como aquellas muñecas rusas que están unas dentro de otras, hasta llegar a un problema simple que es fácil de resolver.

Las estrategias para el razonamiento pueden hacer uso de la especialización, la reducción al absurdo, de la eliminación de caminos poco prometedores y de la reducción de las diferencias.

En todos los casos, la organización jerárquica del conocimiento y la segmentación de los problemas son métodos que se emplean siempre al intentar resolver un problema complejo.

La función asignada a los sistemas expertos es la de razonar.

I.2. Símbolos vs. Métodos Numéricos.

El primer período de la Inteligencia Artificial, llamado sub-simbólico, data de aproximadamente 1950 a 1965. Este período utilizó representaciones numéricas (o sub-simbólicas) del conocimiento. Aunque la mayor parte de los libros de Inteligencia Artificial enfatizan el trabajo realizado por Rosenblatt y Widrow con redes neuronales durante este período, la realidad es que otra importante escuela sub-simbólica data también de la misma época y estos son los algoritmos evolutivos.

La escuela clásica dentro de la Inteligencia Artificial, utiliza representaciones simbólicas basadas en un número finito de primitivas y de reglas para la manipulación de símbolos. El período simbólico se considera aproximadamente comprendido entre 1962 y 1975, seguido por un período dominado por los sistemas basados en el conocimiento de 1976 a 1988. Sin embargo, en este segundo período las representaciones simbólicas (por ejemplo, redes semánticas, lógica de predicados, etc.) siguieron siendo parte central de dichos sistemas.

La Programación Lógica tiene sus orígenes más cercanos en los trabajos de J. A. Robinson que propone en 1965 una regla de inferencia a la que llama resolución, mediante la cual la demostración de un teorema puede ser llevada a cabo de manera automática.

En la actualidad, la Inteligencia Artificial empieza a extender sus áreas de investigación en diversas direcciones y trata de integrar diferentes métodos en sistemas a gran escala, tratando de explotar al máximo las ventajas de cada esquema.

La resolución es una regla que se aplica sobre cierto tipo de fórmulas del Cálculo de Predicados de Primer Orden, llamadas cláusulas y la demostración de teoremas bajo esta regla de inferencia se lleva a cabo por reducción al absurdo.

Otros trabajos importantes de esa época que influyeron en la programación lógica, fueron los de Loveland, Kowalski y Green, que diseña un probador de teoremas que extrae de la prueba el valor de las variables para las cuales el teorema es válido.

Estos mecanismos de prueba fueron trabajados con mucho entusiasmo durante una época, pero, por su ineficiencia, fueron relegados hasta el nacimiento de Prolog, que surge en 1971 en la Universidad de Marsella, Francia.

Actualmente, la programación lógica ha despertado un creciente interés que va mucho más allá del campo de la Inteligencia Artificial y sus aplicaciones. Los japoneses, con sus proyectos de máquinas de la quinta generación, dieron un gran impulso a este paradigma de programación.

La Lógica de Primer Orden, es uno de los formalismos más utilizados para representar conocimiento en Inteligencia Artificial. La Lógica cuenta con un lenguaje formal mediante el cual es posible representar fórmulas llamadas axiomas, que permiten describir fragmentos del conocimiento y, además consta de un conjunto de reglas de inferencia que aplicadas a los axiomas, permiten derivar nuevo conocimiento.
1   2   3   4   5   6   7   8   9   10

similar:

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconEs una disciplina que emplea organismos vivos (y de las sustancias...

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconP1: En el marco de resultados para el bienio 2014/15 se exponen 36...

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconIntroducción: Que es la Física? La palabra Física viene del término...

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconActúan espontáneamente y con una cierta intencionalidad

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconEscribir sobre Derecho comparado es un reto pues, de suyo, la materia...

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconResponder al concepto de un ser humano dinamico e integral y a una...

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconElaborar una presentación powerpoint sobre una enfermedad, con los siguientes puntos

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconPlantilla de diseño de una Webquest

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconPlantilla de diseño de una Webquest

Diseño de procesos que, al ejecutarse sobre una arquitectura física, producen resultados que maximizan una cierta medida de rendimiento iconNuestro intento de dividir en épocas la historia de la arquitectura...




Todos los derechos reservados. Copyright © 2019
contactos
b.se-todo.com