Ervin Lewis Caceres Mariño

35
Universidad nacional José maría Arguedas ESCUELA PROFESIONAL DE INGENIERIA DE SISTEMAS DOCENTE: ING. CANDIA QUISPE WILSON NOMBRE: CACERES MARIÑO ERVIN LEWIS CICLO: X CODIGO: 1002920101 INTELIGENCIA ARTIFICIAL

description

ghhyrhtr

Transcript of Ervin Lewis Caceres Mariño

Page 1: Ervin Lewis Caceres Mariño

Universidad nacional José maría Arguedas

ESCUELA PROFESIONAL DE INGENIERIA DE SISTEMAS

DOCENTE: ING. CANDIA QUISPE WILSON NOMBRE: CACERES MARIÑO ERVIN LEWISCICLO: XCODIGO: 1002920101

INTELIGENCIA ARTIFICIAL

Page 2: Ervin Lewis Caceres Mariño

INDICE1. INTRODUCCION...........................................................................................................................................3

2. OBJETIVO GENERAL.....................................................................................................................................4

3. OBJETIVOS ESPECIFICOS..............................................................................................................................4

4. HISTORIA DE LA INTELIGENCIA ARTIFICIAL..................................................................................................5

5. AGENTES INFORMATICOS............................................................................................................................8

6. AGENTES RESOLVENTES DE PROBLEMAS POR MEDIO DE BUSQUEDA......................................................13

7. LOGICA DIFUSA..........................................................................................................................................19

8. REDES NEURONALES..................................................................................................................................23

9. CONCLUSION.............................................................................................................................................25

Page 3: Ervin Lewis Caceres Mariño

1. INTRODUCCION

El presente trabajo monográfico pretende explicar sobre los comienzos de la inteligencia artificial y la definición de los agentes inteligentes y también definir sobre la lógica difusa como los avances y los altercados que tubo esta investigación y búsqueda de la información respecto a la inteligencia artificial. Antes de la aparición de la computadora, el hombre ya se preguntaba si se le arrebataría el privilegio de razonar y pensar. En la actualidad existe un campo dentro de la inteligencia artificial al que le atribuye esa facultad. El de los sistemas expertos. Estos sistemas permiten la creación de máquinas que razona como el hombre, restringiéndose a un espacio de conocimientos limitado. En teoría pueden razonar siguiendo los pasos que seguiría un experto humano (medico, analista, empresario, ect.) para resolver un problema concreto. Este tipo de modelo de conocimiento por ordenador ofrece un extenso campo de posibilidades en resolución de problemas y en aprendizaje. Su uso se extenderá ampliamente en el futuro, debido a su importante impacto sobre los negocios y la industria.

A partir de la aparición de las computadoras hasta nuestros días, la gente ha invertido grandes esfuerzos por tratar de dar una cierta capacidad de decisión a estas máquinas, incluso un cierto grado de inteligencia.

Estos esfuerzos se han visto reflejados en los sistemas expertos, los cuales, en si no tienen verdadera inteligencia artificial; más bien, es un sistema basado en el conocimiento que, mediante el buen diseño de su base de información y un adecuado motor de inferencias para manipular dichos datos proporcionan una manera de determinar resoluciones finales de datos ciertos criterios.

Los sistemas expertos son una herramienta poderosa en el apoyo o guía de los usuarios en los procesos que tienen una secuencia de o pasos definida, pero que puede ser configurable.

El presente trabajo aborda el tema como ya se avía mencionado de sistemas expertos, debido a que son una herramienta cuya utilidad ya está comprobada, y que sin embargo, muchas personas desconocen y otras mas no las aceptan todavía. Se desean presentar los aspectos generales de un sistema experto, sus orígenes, componentes, costruccion y utilización primordialmente, con el fin de crear conciencia en las empresas de la inteligencia artificial representan una oportunidad innegable de modernización y mejoramiento de sus procesos.

Page 4: Ervin Lewis Caceres Mariño

2. OBJETIVO GENERAL

Desarrollar un trabajo monográfico para que sea de utilidad a las nuevas generaciones de personas y tengan conociendo de la historia de la inteligencia artificial tal que permita apoyar la toma de decisiones en la empresa, al momento de evaluar la facilidad para la implementación de un sistema experto.

3. OBJETIVOS ESPECIFICOS Incrementar la difusión de la inteligencia artificial con los conocimientos impartidos en este

trabajo. Proporcionar una herramienta de trabajo sobre sistemas expertos y aplicaciones al personal

de tecnología de la información. Entender a la IA concebida como el intento por desarrollar una tecnología capaz de proveer

al ordenador capacidades de razonamiento similares a los de la inteligencia humana. Probar que los agentes en su concepción como investigación relativa a los mecanismos de la

inteligencia humana que se emplean en la simulación de validación de teorías Entender los objetivos de los agentes de información

Page 5: Ervin Lewis Caceres Mariño

4. HISTORIA DE LA INTELIGENCIA ARTIFICIAL

La idea de algo parecido a la inteligencia artificial existe desde hace millones de años. El primer hombre primitivo que tomo conciencia de su propia existencia, y de que era capaz de pensar, seguramente se

preguntó cómo funcionaría su pensamiento y posterior me llegaría a la idea de un "creador superior". Por lo tanto, la idea de que un ser inteligente cree a otro, la idea de un diseño virtual para la inteligencia, es tan remota como la toma de conciencia del ser humano. - Los juegos matemáticos antiguos, como el de la torres de hanoi (aprox 3000ac), demuestran el interés por la búsqueda de un bucle resolutor, una IA capaz de ganar en los mínimos movimientos posibles.

En 1903 Lee De Forest inventa el triodo (también llamados bulbo o válvula de vacío). Podría decirse que la primera gran maquina inteligente diseñada por el hombre fue el computador ENIAC, compuesto por 18.000 válvulas de vacío, teniendo en cuenta que el concepto de "inteligencia" es un término subjetivo que depende de la inteligencia y la tecnología que tengamos en esa época. Un indígena del amazonas en el siglo 20 podría calificar de inteligente un tocadiscos, cuando en verdad no lo es tanto.

En 1937, el matemático inglés Alan Mathison Turing (1912-1953) publicó un artículo de bastante repercusión sobre los "Números Calculables", que puede considerarse el origen oficial de la Informática Teórica.

En este artículo, introdujo la Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que a Alan Turing se le considera el padre de la teoría de la compatibilidad.

También se le considera el padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si un programa de ordenador puede ser tan inteligente como un ser humano.

En 1951 William Shockley inventa el transistor de union. El invento del transistor hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas.

En 1956, se acuño el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell

y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

- En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los años noventa.

- En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha

Page 6: Ervin Lewis Caceres Mariño

extendido a muchas áreas que han creado ramas de investigación enorme y diferenciada. Dichos atributos del agente inteligente son:

Tiene actitudes mentales tales como creencias e intenciones Tiene la capacidad de obtener conocimiento, es decir, aprender. Puede resolver problemas, incluso particionado problemas complejos en otros más simples. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez) Conoce los límites de sus propias habilidades y conocimientos. Puede distinguir a pesar de la similitud de las situaciones. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías. Puede generalizar. Puede percibir y modelar el mundo exterior. Puede entender y utilizar el lenguaje y sus símbolos.

Podemos entonces decir que la IA incluye características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modelar del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos dependiendo del punto de vista o utilidad que pueda encontrarse a la IA. - Muchos de los investigadores sobre IA sostienen que "la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro".

Test de TuringSi usted señor lector hablara con una máquina a través de internet, ¿podría distinguir si se trata de un computador? Los seres humanos evalúan la inteligencia de sus congéneres a través de la interacción con ellos, si un computador pudiera hacerse pasar por una persona... ¿se podría afirmar que esinteligente? Existen algunos candidatos que están muy cerca de aprobar este examen, conocido como el test de Turing, incluyendo al robot cleverbot.El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico.

En 1990 se inició un concurso, el Premio Loebner, una competición de carácter anual entre programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares estadounidenses para el programa que pase el test, y un premio de consolación para el mejor programa anual. Todavía no ha sido otorgado el premio principal.

Page 7: Ervin Lewis Caceres Mariño

Las consecuencias de estos estudios (Máquina de turing y sala china que en si son lo mismo) fueron discutidas durante la década de los 60s por I.J. Good, y John von Neumann quien usa el término "singularidad" para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI.

Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito. Ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos de progreso.

En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que la producción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación de la Industria de los Semiconductores) de los Estados Unidos.

Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número de hormigas en el mundo, pero para el 2003 la industria producía cerca de 10 transistores y cada hormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía.

En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7 horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978, ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo en realizarse. El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorístico, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús.

Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128 Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999.

5. AGENTES INFORMATICOSActualmente, dentro del área de la Inteligencia Artificial ha surgido un nuevo paradigma conocido como “paradigma de agentes”, el cual está tomando un gran auge entre los investigadores. Dicho paradigma aborda el desarrollo de entidades que puedan actuar de forma autónoma y razonada y que, según sus defensores, permite la construcción de sistemas complejos de manera más apropiada. Ante un comentario de este tipo, para un profano surgen obligatoriamente ciertas preguntas de carácter general, como por ejemplo: ¿qué es un agente?, ¿cómo se caracteriza un agente?, ¿qué nos ofrece de nuevo? etc... Algunas de

Page 8: Ervin Lewis Caceres Mariño

estas preguntas son difíciles de responder, entre otras cosas debido a que estamos hablando de una tecnología en ciernes y todavía existen lagunas a nivel conceptual y de desarrollo. Estas lagunas se ven todavía más agravadas cuando el área de aplicación es un campo tan inexplorado y cambiante como Internet.

En la última década los métodos para gestionar y organizar la información han variado de forma notable, debido a la aparición de Internet. Hoy en día, la red se ha convertido en el gran vehículo o contenedor de información. A medida que ésta ha ido evolucionando y creciendo se ha complicado la forma de localizar y consultar la información disponible en la propia red. La mayoría de herramientas disponibles actualmente para la localización y recuperación de información se centran más en la cantidad que en la calidad de la propia información. Es habitual en cualquier proceso de recuperación que un usuario se sienta desbordado por el elevado volumen de documentos o de referencias que se le suministran. Resulta, en este caso, evidente la necesidad de una cierta automatización en el proceso que facilite la labor de localización de información de calidad y que a su vez permita diferenciar entre ella desde el punto de vista subjetivo del propio usuario. En este punto, el empleo de técnicas inteligentes resulta adecuado para la mejora de los resultados obtenidos, y es justo en este momento donde cabe plantearse el uso de agentes inteligentes.

Actualmente, podemos encontrar un gran número de propuestas en la literatura acerca de lo que es y lo que no es un agente, sin que ninguna de ellas haya sido plenamente consensuada por la comunidad científica. Una definición bastante aceptada es la propuesta por Michael Wooldridge en [Wooldridge 1995], según la cual, un agente es un sistema software, el cual, viene definido por su flexibilidad, entendiendo por flexible que un agente sea:

• Reactivo, responda al entorno en que se encuentra.• Proactivo, que sea capaz de intentar cumplir sus propios objetivos.• Social, sea capaz de comunicarse con otros agentes mediante algún tipo de lenguaje.

En los trabajos más recientes relacionados con el tema se tiende a etiquetar a un agente en función del papel que desempeña. Así, por ejemplo, un agente con acceso a diversas fuentes de información y que es capaz de agrupar y manipular la información obtenida de dichas fuentes para ponerla a disposición del usuario se conoce como agente de información.

Más formalmente, los agentes inteligentes de información o agentes de Internet pueden definirse como aquellos sistemas software de computación que tienen acceso a múltiples y heterogéneas fuentes de información que están distribuidas geográficamente [Klusch 1999]. Esta clase de agentes suelen ayudar a sus usuarios en la búsqueda de información útil y relevante. Los agentes de información, además de proveer acceso transparente a las diferentes fuentes de información existentes en Internet, deben ser capaces de recuperar, analizar, manipular, e integrar información heterogénea cuando esta sea solicitada. En resumen, este tipo de agentes trata de resolver el problema de la obtención de la información correcta en el tiempo preciso.

Para que este tipo de agentes pueda servir eficientemente a sus distintos usuarios, necesita ser capaz de almacenar, aprender y manipular las preferencias y gustos de cada usuario, así como sus cambios. Además, necesitan reaccionar flexiblemente a las modificaciones producidas en su entorno. El último requisito implica la capacidad de aprendizaje y de comunicación con otros agentes que tengan características similares. Esto conlleva a desarrollar agentes, no de forma independiente, sino como entidades que constituyen un sistema. A este sistema se le denomina multi-agente [Huhns 1998]. Las interacciones más habituales, tales como informar o consultar a otros agentes, permiten a los agentes conversar entre ellos, tener en cuenta las acciones que realizan cada uno de ellos y razonar acerca del papel jugado por los agentes.

Agentes de Información

Al consultar la bibliografía referente a dicho tipo de agentes, es frecuente la aparición de términos como Interface agents, System agents, Advisory agents, Filtering agents, Retrieval agents, Navigation agents, Monitoring agents, Recommender agents, Profiling agents y otros que están surgiendo continuamente. A

Page 9: Ervin Lewis Caceres Mariño

continuación se presentan diferentes tipologías que nos permiten clasificar a los agentes inteligentes de información, basándose tanto en el ámbito en el que actúan como en las tareas que llevan a cabo.

La primera clasificación toma como criterio el ámbito de actuación de los agentes [Caglayan 1997], distinguiendo entre:

Agentes de escritorio: se trata de agentes que se encargan de las tareas habituales en el manejo cotidiano de un ordenador. Dependiendo del tipo de software al que sirvan como base, se puede distinguir entre agentes de sistema operativo, agentes de aplicaciones, etc.

Agentes Intranet: operan en una red local y facilitan el uso de la red, el compartir información y la cooperación entre los usuarios. Entre ellos se encuentran los agentes de ayuda colaborativa, agentes de bases de datos, agentes de automatización de procesos, etc.

Agentes Internet: su ámbito de trabajo es Internet. En función del tipo de acciones que realizan, se pueden encontrar agentes de búsqueda, filtrado, recuperación de información, agentes de notificación, agentes móviles, etc.

En [Klusch 1999] se proponen cuatro clases de agentes de información, atendiendo a las características que poseen como agentes. Cada clase no es exclusiva, de forma que un agente determinado puede pertenecer a varias de ellas al mismo tiempo:

Agentes de información cooperativos o no–cooperativos, dependiendo de la habilidad de los agentes para cooperar entre ellos en la ejecución de sus tareas. Existen diversos modelos para la cooperación en diferentes escenarios, tales como la delegación jerárquica, los contratos y la negociación descentralizada.

Agentes de información adaptativos. Son capaces de adaptarse a los cambios en las redes y en la información que en ellas se encuentra. Un ejemplo claro son los asistentes personales para el aprendizaje en la Web.

Agentes de información racionales. Son capaces de actuar por sí mismos o de colaborar con el fin de incrementar su propio beneficio. El principal campo de aplicación de este tipo de agentes es el comercio electrónico en Internet (i-commerce); por ejemplo, los shop bots y los sistemas para subastas mediadas por agentes en la Web.

Agentes de información móviles, son capaces de viajar de forma autónoma a través de Internet y permiten, por ejemplo, balancear la carga en redes de gran escala o reducir la transferencia de datos entre servidores de información.

De acuerdo a la definición de agentes de información y a esta última clasificación, podemos concluir que un agente de información debe mantener un conjunto de habilidades básicas, que se pueden resumir en cuatro: (1) habilidades para ejecutar sus tareas, (2) habilidades de conocimiento, (3) habilidades de comunicación y (4) habilidades de colaboración. En ella, debajo de cada habilidad se enumeran las tecnologías clave disponibles en la actualidad.

La clasificación propuesta en este artículo divide los agentes de información según su función y se puede considerar como una clasificación más generalista:

Agentes de búsqueda (retrieval agents): agentes que buscan, recuperan y proporcionan la información como si fueran autenticos gestores de información y documentación (information brokers). Muchos productos se autoproclaman como agentes de búsqueda, tanto aplicaciones cliente: AT1, BullsEye, Copernic, CiteSeer, BargainFinder, Kasbah, Go-Get-It, Got-It, Surfbot y WebCompass; como aplicaciones servidor: Agentware e InfoMagnet.

Agentes de filtrado (filtering agents): agentes que se usan para reducir la sobreabundancia de información mediante el borrado de los datos no deseados (por ejemplo, los datos que no satisfacen completamente el perfil de usuario). Muchos clientes de e-mail, así como los productos Agentware e

Page 10: Ervin Lewis Caceres Mariño

InfoMagnet proporcionan prestaciones básicas de agentes de filtrado. Podemos resaltar Letizia, Tapestry System, Usenet News Reader, NewsHound e If-Web.

Agentes de monitorización (monitoring agents): proporcionan al usuario la información cuando sucede un determinado acontecimiento; por ejemplo cuando los datos han sido actualizados, trasladados de lugar o borrados. Algunos productos ejemplo son: Do-I-Care, WBI de IBM y SmartBookmarks.

Al igual que en la clasificación anterior, estos grupos no son excluyentes y un mismo agente puede pertenecer a varios de ellos.

Agentes de búsqueda

Los agentes de búsqueda son, quizás, el tipo de agente de información más conocido y del que se pueden encontrar más ejemplos en la literatura. Este tipo de agente permite al usuario la búsqueda de información en servidores de la red (el agente en sí es independiente de si nos encontramos en Internet o en una Intranet). Actualmente existen en la red infinidad de robots de búsqueda con los que el usuario interactúa directamente con mayor o menor fortuna.

La calidad de la respuesta a una consulta determinada se basa en dos parámetros:

precisión: mide la relación existente entre los documentos relevantes para la consulta y el total de documentos devueltos por la misma.

recall: mide la relación entre el total de documentos relevantes devueltos y el total de documentos.

Web

Ambos parámetros son inversamente proporcionales, por tanto si intentamos mejorar uno perjudicaremos el otro. Se debería intentar conseguir un equilibrio entre los dos, lo cual es bastante complejo en los actuales motores de búsqueda. Los agentes de búsqueda proporcionan un punto de inicio en la exploración en Internet para los usuarios. Las ventajas que podemos encontrar o que deberían proporcionar son:

Facilidad de uso Incremento de la productividad si el usuario sabe lo que quiere Incremento de la precisión en la búsqueda sin aumentar notablemente el número de documentos

devueltos. Reducción de la sobrecarga que generan los procesos de búsqueda en la Web y en el propio sistema.

Este tipo de agentes podrían realizar las siguientes funciones en una organización:

Indexar información sobre los servidores de la organización para mejorar el rendimiento de las búsquedas realizadas por los empleados.

Desarrollar servicios especializados de búsqueda, empleando recursos externos si es relevante para la organización.

Page 11: Ervin Lewis Caceres Mariño

Promocionar mediante servicios específicos el uso de los recursos internos disponibles. Permitir compartir resultados de búsquedas entre diferentes comunidades de usuarios.

Agentes de filtrado

Para que un agente de información pueda servir eficientemente a sus distintos usuarios, necesita almacenar, aprender y manipular las preferencias y gustos de cada uno de ellos, así como contemplar cualquier cambio que se produzca. Este perfil de usuario puede servir como un indicador mucho más fiable de la información a recuperar que las palabras clave proporcionadas por el usuario, método utilizado por los distintos buscadores de información que existen en la actualidad.

La tarea de filtrado de un agente de Internet consiste en determinar si un artículo es relevante o irrelevante para el usuario basándose en el perfil de usuario [Caglayan 1997], en un entorno donde la probabilidad de encontrar un documento relevante es muy baja en comparación con la alta probabilidad de encontrar un documento irrelevante.

Existen diferentes técnicas de aprendizaje que los agentes utilizan para aprender el perfil de usuario. Entre ellas se pueden destacar los clasificadores Bayesianos, el vecino más cercano, los árboles de decisión, TF-IDF, redes neuronales y algoritmos genéticos. Después de haber logrado aprender el perfil, éste puede ser utilizado para el filtrado de información, pudiendo además anticiparse a la obtención de la información solicitada por el usuario. La arquitectura de un agente de filtrado de información es la que muestra

El funcionamiento de un agente de filtrado de información es el siguiente:

Establece el perfil del usuario. Esto se puede llevar a cabo de dos formas diferentes: o Directa: Cuando el usuario determina su perfil a través de una interfaz en el que especifica, por medio de palabras clave, los temas de interés.

Indirecta: Por el control efectuado por el propio agente de los enlaces seguidos por el usuario en una sesión concreta.

Comienza la búsqueda en las diferentes fuentes de información, indizando, mediante el motor de indización, todos los artículos que encuentre de acuerdo con el perfil de usuario establecido previamente.

Una vez filtrados aquellos artículos que se ajustan a la especificación del usuario, elabora el informe que presenta los resultados obtenidos los cuales serán enviados a la dirección correspondiente.

El motor de indización asigna una palabra clave a cada artículo. La mayoría de sistemas de recuperación de información también generan diccionarios de sinónimos con la intención de indizar palabras por su raíz.

Page 12: Ervin Lewis Caceres Mariño

Para conocer la representatividad de un término dentro de un documento determinado y, por tanto para establecer la pertinencia del mismo al perfil del usuario, el motor de indización emplea técnicas de frecuencia

de términos como la siguiente fórmula:

Donde f es la frecuencia de ocurrencias de términos K en un documento i, d es el número de documentos en la colección con términos K, y n es la colección total. Esta ponderación significa que el término K en un documento i es directamente proporcional al número de veces que él aparece en el documento, y la importancia del término K es inversamente proporcional al número de documentos de la colección donde el término aparece.Algunas de las aplicaciones de este tipo de agentes son:

Entrega de noticias de cualquier tipo (financieras, políticas, etc.) que puedan tener repercusión para el usuario.

Seguimiento de las noticias de un determinado perfil de usuario. Actualización automática de configuraciones hardware según un perfil, incluso proporcionando

precios de posibles actualizaciones. Proporcionar noticias de un determinado perfil a diferentes comunidades de una organización.

Agentes de monitorización: Este tipo de agentes permiten tener alerta a un usuario frente a eventos interesantes para el mismo. Los eventos frente a los cuales estos agentes lanzan algún tipo de notificación pueden ser:

• Cambios en una página Web lo suficientemente importantes para un usuario• Comunicación de eventos de tipo personal. Por ejemplo, lanzar un mensaje el día del cumpleaños

de alguien.• Adiciones a los motores de búsqueda para determinadas palabras clave.

Los agentes de monitorización se pueden considerar como un software localizado en un determinado servidor que se encarga de descubrir y notificar eventos interesantes especificados previamente por el usuario. La forma en que este tipo de agentes sirven la información a su usuario puede ser variada:

• Indicar únicamente qué página o páginas han cambiado y desde cuándo ha sucedido esto. • Descargar el texto de las páginas actualizadas y que son de interés para el usuario, filtrando en

este caso imágenes, gráficos y demás. • Construir páginas HTML que embeben las modificaciones encontradas en la Web por el agente y

que son presentadas al usuario.

6. AGENTES RESOLVENTES DE PROBLEMAS POR MEDIO DE BUSQUEDA

Los agentes más simples discutidos en este trabajo fueron los agentes reactivos. Los cuales basan acciones en una aplicación directa desde los estados a las acciones. Tales agentes no pueden funcionar bien en entornos en los que esta aplicación sea demasiado grande para almacenarla y que tarde mucho en aprenderla. Por otra parte, los agentes basados en objetivos pueden tener éxito considerando las acciones futuras y lo deseable de sus resultados.

Este capítulo describe una clase de agente basado en objetivos llamado agente resolvente problemas. Los agentes resolventes de problemas deciden qué hacer para encontrar secuencias de acciones que conduzcan a los estados deseables. Comenzamos definiendo con precisión los elementos que constituyen el «problema» y

Page 13: Ervin Lewis Caceres Mariño

su <<solución> y daremos diferentes ejemplos para ilustrar estas definiciones. Entonces, describimos diferentes algoritmos de propósito general que podamos utilizar para resolver estos problemas y así comparar las ventajas de cada algoritmo. Los algoritmos son no informados, en el sentido que no da información sobre el problema salvo su definición. En este trabajo no se hablara sobre los algoritmos de búsqueda.

Este proceso de hallar esta secuencia se llama búsqueda. Un algoritmo de búsqueda toma como entrada un problema y devuelve una solución de la forma secuencia de acciones. Una vez que encontrarnos una solución, se procede a ejecutar las acciones que ésta recomienda. Esta es la llamada fase de ejecución. Así, tenemos un diseño simple de un agente «formular, buscar, ejecutar», Después de formular un objetivo y un problema a resolver, el agente llama al procedimiento de búsqueda para resolverlo. Entonces, usa la solución para guiar sus acciones, haciendo lo que la solución le indica como siguiente paso a hacer generalmente, primera acción de la secuencia y procede a eliminar este paso de la secuencia. Una vez ejecutada la solución, el agente formula un nuevo objetivo.

Antes de entrar en detalles, hagamos una breve pausa para ver dónde encajan los agentes resolventes de problemas en la discusión .

Agentes para la solución de problemas (Metas), basado en metas, tiene algoritmos de búsqueda, el esqueleto es:

• Formulación del Problema

• Formulación de Metas• Búsqueda (Algoritmos) para llegar del Estado Inicial al estado de meta• Solución

Conocimiento y tipos de problemas

Considere el siguiente ejemplo: El mundo de la aspiradora.En este mundo hay dos posibles ubicaciones en ellas puede o no puede haber mugre y el agente se encuentra en una de las dos.El mundo puede asumir 8 posibles estados. Son tres las acciones que el agente puede emprender en el mundo de la aspiradora. La meta es eliminar toda la mugre.

Problemas bien definidos y soluciones

Page 14: Ervin Lewis Caceres Mariño

• Problema: Un problema en realidad es un conjunto de información que el agente utiliza para decidir lo que va a hacer.

• Estado inicial: Es donde el agente sabe que allí es en el que se encuentra.• Operador: Denota la descripción de una acción que nos servirá para alcanzar un

estado.• Espacio de estado: Es el conjunto de todos los estados que pueden alcanzarse a

partir del estado inicial mediante cualquier secuencia de acciones.• Ruta: Es cualquier secuencia de acciones que me permiten pasar de un estado a otro.• Prueba de meta.- Se aplica a la descripción de un solo estado para saber si se trata de un estado meta.• Costo de ruta.- Es una función mediante la cual se asigna un costo a un ruta

determinada.• Solución.- Es la salida producida por un algoritmo de búsqueda, es decir, una ruta que

va del estado inicial al estado que satisface la prueba de meta.

• Espacio de conjunto de estado .- Si mediante un operador relaciono un conjunto de estados según los resultados obtenidos, yo estoy construyendo un espacio denominado espacio de conjunto de estados.

El espacio del conjunto de espacios del mundo de la aspiradora simplificado, sin sensores. Dentro de las cajas de línea punteada hay un conjunto de estados. En un punto determinado, el agente está dentro de un conjunto de estados, pero ignora en cuál. El conjunto del estado inicial (total ignorancia) está en la caja superior del centro. Las acciones se representan por arcos identificados. Por claridad se han omitido los autobucles.

Page 15: Ervin Lewis Caceres Mariño

Buena parte de los esfuerzos invertidos en el área de la búsqueda han quedado en la determinación de la estrategia de búsqueda adecuada para un problema. Se utiliza para hallar una solución "sin información".

Búsqueda preferente por amplitud(anchura) Búsqueda de costo uniforme Búsqueda preferente por profundidad Búsqueda limitada por profundidad Búsqueda por profundización iterativa Búsqueda bidireccional

Para explicar mejor las estrategias imaginemos un problema sencillo como: "Ir en auto de

Arad a Bucarest utilizando las carreteras del mapa de Rumania"

Page 16: Ervin Lewis Caceres Mariño

Búsqueda de costo uniforme

Primero se expande el nodo hoja de menor costo. Es un método completo y, a diferencia de la búsqueda preferente por amplitud, es óptimo incluso si el costo de cada uno de los operadores es distinto. Su complejidad espacio-temporal es la misma que la de la búsqueda preferente por amplitud.

Siempre se tiene un costo o unidades. Los costos deben ser positivos, caso contrario no se aplica esta búsqueda.

Tómese el caso del problema de la determinación de ruta que radica en ir de S a G.

Búsqueda preferente por profundidad

Primero se expande el nodo más profundo del árbol de búsqueda. No es un método

completamente óptimo; su complejidad temporal O(bm) y su complejidad espacial es O(bm), en donde m es la profundidad máxima. Los árboles de búsqueda cuya profundidad es muy grande o infinita, invalidan la utilidad de este método.

Sólo si la búsqueda conduce a un callejón sin salida (un nodo sin meta que no tiene expansión), se revierte la búsqueda y se expanden los nodos de niveles menos profundos.

Page 17: Ervin Lewis Caceres Mariño

Búsqueda limitada por profundidad

Se pone un límite a la búsqueda preferente por profundidad. Si el límite fuera igual a la profundidad del estado meta más superficial, se reduce al mínimo la complejidad espacio- temporal.

Búsqueda por profundización iterativa

Se emplea la búsqueda con límite de profundidad, pero los límites van aumentando hasta

encontrar una meta. Es completa y óptima; su complejidad temporal es O(bd) y su complejidad espacial es O(bd).

Búsqueda bidireccional

Ayuda a reducir notablemente la complejidad temporal, aunque no siempre pueda utilizársele. La cantidad de memoria que necesita puede hacerla poco práctica.

Es básicamente, una búsqueda simultánea que avanza a partir del estado inicial y que retrocede a partir de la meta y que se detiene cuando ambas búsquedas se encuentran en algún punto intermedio

Búsqueda heurística

En casi todos los espacios de estado, existe información que permite guiar los procesos de búsqueda, normalmente esa información no es perfecta, es decir no es un algoritmo que permite conocer de forma precisa cual es el mejor camino para obtener la solución.

Este tipo de información no perfecta que ayuda a resolver problemas a un espacio de estado, pero que no siempre acierta con el mejor camino se denomina heurística.

Cuando se dispone de este tipo de información las técnicas de búsqueda se pueden ver muy beneficiadas de su utilización.

Técnica de escalada

La técnica de escalada es la evolución de la técnica de profundidad en la que cada nodo se dispone en una forma de evaluar cómo está de cerca o de lejos la solución. La forma más común de evaluar es la función de evaluación.

Que devuelven un número que representa como está de cerca un determinado estado de la solución, cuanto mayor sea el número se estará cerca de la solución.

Por tanto si se tiene que elegir entre varios estados se debería escoger aquel, que tendría un valor mayor de esta función, es decir es una función que se debe maximizar

La técnica de escalada exagera los problemas de la profundidad en el sentido de que no asegura de que se alcance la solución óptima relacionada con esto; existen dos problemas que ocurren a menudo cuando se utiliza escalada:

Retroceder: A la lista de razones a la que se debe retroceder que provienen a la técnica de profundidad se le añade cuando ocurra cualquier caso de los anteriores.

Dar más de un paso: En lugar de retroceder se generan todos los sucesores de los sucesores del nodo en cuestión y aun así no hay ningún sucesor de los sucesores que sea

Page 18: Ervin Lewis Caceres Mariño

mejor que el nodo, se puede expandir un nivel más, hasta que se obtenga un valor mayor / menor que el nodo.

Búsqueda Avara

Es cuando se reduce al mínimo el costo estimado para alcanzar una meta, h(n). Aunque por lo general, el tiempo de búsqueda disminuye en comparación con lo necesario cuando se emplea un algoritmo que no cuenta con información, el de la búsqueda ávara no es un algoritmo óptimo y completo.

Método de búsqueda asterisco (A*)

La reducción al mínimo de f(n)= g(n) + h(n) combina las ventajas de la búsqueda por costo uniforme y la búsqueda ávara. Cuando se repiten los estados que se manejan y se garantiza que h(n) nunca haga una sobreestimación, existe una búsqueda asterisco.

Si aplicáramos el método Asterisco obtendríamos:

En donde g(n) = ruta inicial hasta n y h(n) = unidad establecida en el cuadro de distancias en línea recta a Bucarest.

7. LOGICA DIFUSA

La lógica difusa es una extensión de la lógica tradicional (Booleana) que utiliza conceptos de pertenencia de sets más parecidos a la manera de pensar humanaLa lógica difusa es una metodología que proporciona una manera simple y elegante de obtener una conclusión a partir de información de entrada vaga, ambigua, imprecisa, con ruido o incompleta. En general la lógica difusa imita como una persona toma decisiones basada en información con las características mencionadas. Una de las ventajas de la lógica difusa es la posibilidad de implementar sistemas basados en ella tanto en hardware como en software o en combinación de ambos. La mayoría de los fenómenos que encontramos cada día son imprecisos, es decir, tienen implícito un cierto grado de difusidad en la descripción de su naturaleza. Esta imprecisión puede estar asociada con su forma, posición, momento, color, textura, o incluso en la semántica que describe lo que son. En muchos casos el mismo concepto puede tener diferentes grados de imprecisión en diferentes contextos o tiempo. Un día cálido en invierno no es exactamente lo mismo que un día cálido en primavera. La definición exacta de cuando la temperatura va de templada a caliente es imprecisa -no podemos identificar un punto simple de templado, así que emigramos a un simple grado, la temperatura es ahora considerada caliente. Este tipo de imprecisión o difusidad asociado

Page 19: Ervin Lewis Caceres Mariño

continuamente a los fenómenos es común en todos los campos de estudio: sociología, física, biología, finanzas, ingeniería, oceanografía, psicología, etc. La lógica difusa es una rama de la inteligencia artificial que se funda en el concepto "Todo es cuestión de grado", lo cual permite manejar información vaga o de difícil especificación si quisiéramos hacer cambiar con esta información el funcionamiento o el estado de un sistema específico. Es entonces posible con la lógica borrosa gobernar un sistema por medio de reglas de 'sentido común' las cuales se refieren a cantidades indefinidas. Las reglas involucradas en un sistema borroso, pueden ser aprendidas con sistemas adaptativos que aprenden al ' observar ' como operan las personas los dispositivos reales, o estas reglas pueden también ser formuladas por un experto humano. En general la lógica borrosa se aplica tanto a sistemas de control como para modelar cualquier sistema continuo de ingeniería, física, biología o economía.

FUNCION DE LA LOGICA DIFUSA

La fusión Lógica se adapta mejor al mundo real en el que vivimos, e incluso puede comprender y funcionar con nuestras expresiones, del tipo "hace mucho calor", "no es muy alto", "el ritmo del corazón está un poco acelerado", etc.

HISTORIA

Los conjuntos difusos fueron introducidos por primera vez en 1965; la creciente disciplina de la lógica difusa provee por sí misma un medio para acoplar estas tareas. En cierto nivel, la lógica difusa puede ser vista como un lenguaje que permite trasladar sentencias sofisticadas en lenguaje natural a un lenguaje matemático formal. Mientras la motivación original fue ayudar a manejar aspectos imprecisos del mundo real, la práctica temprana de la lógica difusa permitió el desarrollo de aplicaciones prácticas. Aparecieron numerosas publicaciones que presentaban los fundamentos básicos con aplicaciones potenciales. Esta frase marcó una fuerte necesidad de distinguir la lógica difusa de la teoría de probabilidad. Tal como la entendemos ahora, la teoría de conjuntos difusos y la teoría de probabilidad tienen diferentes tipos de incertidumbre. En 1994, la teoría de la lógica difusa se encontraba en la cumbre, pero esta idea no es nueva, para muchos, estuvo bajo el nombre de lógica difusa durante 25 años, pero sus orígenes se remontan hasta 2,500 años. Aún Aristóteles consideraba que existían ciertos grados de veracidad y falsedad. Platón había considerado ya grados de pertenencia. En el siglo XVIII el filósofo y obispo anglicano Irlandés, George Berkeley y DavidHume describieron que el núcleo de un concepto atrae conceptos similares. Hume en particular, creía en la lógica del sentido común, el razonamiento basado en el conocimiento que la gente adquiere en forma ordinaria mediante vivencias en el mundo. En Alemania, Immanuel Kant, consideraba que solo los matemáticos podían proveer definiciones claras, y muchos principios contradictorios no tenían solución.Por ejemplo la materia podía ser dividida infinitamente y al mismo tiempo no podía ser dividida infinitamente. Particularmente la escuela americana de la filosofía llamada pragmatismo fundada a principios de siglo por Charles Sanders Peirce, El hombre, en la búsqueda de la precisión, intentó ajustar el mundo real a modelos matemáticos rígidos y estáticos, como la lógica clásica binaria. Cuando Aristóteles y sus precursores idearon sus teorías de la lógica y de las matemáticas, propusieron la Ley del Centro Excluido que indica que cada asunto debe ser verdad o falso. La hierba es verde o no verde; claramente no puede ser verde y no verde. Lo que se busca, mediante el empleo de la teoría de los conjuntos difusos es describir y formalizar la realidad, empleando modelos flexibles que interpreten las leyes que rigen el comportamiento humano y las relaciones entre los hombres. Para describir esa realidad

Page 20: Ervin Lewis Caceres Mariño

incierta, tanto en el orden de lo social como en el de lo natural, es necesario valerse de predicados, que pueden ser nítidos o difusos. El nuevo punto de vista propuesto por Zadeh choca con siglos de tradición cultural –la lógica binaria de Aristóteles, ser ó no ser-, por lo cual hubo resistencia por parte de los científicos, quienes se negaban a aceptar que se trataba de un intento por estudiar científicamente el campo de la vaguedad, permitiendo manipular conceptos del lenguaje cotidiano, lo cual era imposible anteriormente. Según comenta Zadeh: "En Occidente la acogida fue menos positiva. En Asia aceptan que el mundo no es blanco o negro, verdad o mentira. En Occidente todo es A o B." Por este motivo es en Asia (Japón sobretodo) donde más aplicaciones tecnológicas se realizan a partir de la lógica difusa. Aunque el concepto de lógica difusa fue introducido en los EEUU, los científicos e investigadores americanos y europeos no hicieron caso en gran parte de ella por años, principalmente por razones culturales. Algunos matemáticos discutieron que la lógica confusa fuera simplemente una probabilidad disimulada. Esta resistencia, sin embargo, contrastaba con los resultados exitosos de la aplicación tecnológica de la teoría. En 1974, el Británico Ebrahim H. Mamdani, demuestra la aplicabilidad de la lógica difusa en el campo del control. Desarrolla el primer sistema de control difuso práctico, la regulación de un motor de vapor. Las aplicaciones de la lógica difusa en el control no pudieron ser implementadas con anterioridad a estos años debido a la poca capacidad de cómputo de los procesadores de esa época. Pero la lógica confusa fue aceptada fácilmente en Japón, China y otros países asiáticos, que han estado desde la década de los 80 construyendo aplicaciones reales y productos que funcionan basados en esta lógica. Por ejemplo en 1986 Yamakawa publica el artículo, "Fuzzy Controller hardward system" y desarrolla controladores difusos en circuitos integrados. En 1987, se inaugura en Japón el metro de Sendai, uno de los más espectaculares sistemas de control difuso creados por el hombre. Desde entonces el controlador inteligente ha mantenido los trenes rodando eficientemente. En 1987, surge el "FUZZY BOOM", se comercializan multitud de productos basados en la lógica difusa. En este sentido, en Japón desde 1988 se viene dando un auge de la lógica borrosa, en especial por los trabajos de Michio Sugeno, que reúnen complejos desarrollos matemáticos con aplicaciones tecnológicas de gran importancia, lo cual permite hablar de una "ingeniería difusa", además de la lógica y la tecnología difusa. A partir de los trabajos de Sugeno, se puede advertir que la convergencia de técnicas borrosas con técnicas neuronales, probabilísticas y otras como los algoritmos genéticos, van generando un nuevo campo en las ciencias de la computación: computación flexible, que parece muy prometedora para manejar razonamientos de sentido común y lograr que las computadoras "razonen" de un modo similar al humano. También se utilizan elementos de la teoría de los conjuntos difusos para describir y resolver problemas de gestión, economía, medicina, biología, ciencias políticas y lingüística. Lo que se busca en estos casos es, en definitiva, describir la realidad a través de metodologías flexibles que interpreten más apropiadamente las leyes del comportamiento individual y social. El número más grande de investigadores se encuentra hoy en China, con unos 10.000 científicos. Japón, aunque considerado el abanderado en los estudios borrosos, tiene pocas personas contratadas a este tipo de investigaciones.

SIETE VERDADES DE LA LÓGICA DIFUSA

Page 21: Ervin Lewis Caceres Mariño

1) Lógica confusa no es confusa. La lógica confusa no es intrínsecamente imprecisa, no viola el sentido común ni produce resultados inequívocos. La lógica clásica (booleana), en verdad, es simplemente un caso especial de la lógica confusa.

2) La lógica confusa es diferente de probabilidad. Con probabilidad, nosotros intentamos determinar algo sobre el resultado potencial de los acontecimientos claramente definidos que pueden ocurrir al azar. Con lógica confusa, nosotros intentamos determinar algo sobre la naturaleza del acontecimiento en sí mismo.La borrosidad se expresa a menudo como ambigüedad, no como imprecisión o incertidumbre, es una característica de la opinión así como del concepto.

3) Diseñar sistemas borrosos es fácil. Los sistemas borrosos reflejan, de una manera general, lo que la gente piensa realmente de un problema. Generalmente es rápido y fácil perfilar la forma aproximada de un sistema borroso. Más adelante en, después de cierta prueba o experiencia, podemos ajustar sus características exactas.

4) Los sistemas borrosos son estables y fácilmente ajustables y pueden ser validados. Es más rápido y más fácil crear sistemas borrosos y construir un sistema borroso que él debe crear sistemas basados en el conocimiento convencionales, puesto que la lógica confusa maneja todos los grados de libertad que intervienen. Estos sistemas se validan como sistemas convencionales, pero ajustarlos es generalmente mucho más simples.

5) Los sistemas borrosos no son Redes Neuronales. Un sistema borroso procura encontrar la intersección, la unión o el complemento de las variables borrosas del control. Mientras que esto es algo análogo a las redes neuronales y a la programación lineal, los sistemas borrosos se acercan a estos problemas de forma diferente.

6) La lógica confusa es más que control de proceso. Aunque alguna gente opina que la lógica confusa sirve principalmente como herramienta para el análisis del control de proceso y de la señal, esa interpretación es demasiado limitada. La lógica confusa es una manera de representar y de analizar la información, independientemente de usos específicos.

7) La lógica confusa es un proceso de representación y razonamiento. La lógica confusa es una herramienta de gran alcance y versátil para la información imprecisa, ambigua y vaga de la representación. No puede solucionar todos los problemas, pero nos ayuda a modelar problemas difíciles, incluso intratables.

LOGICA DIFUSA EN INTELIGENCIA ARTIFICIAL

Esta se utiliza para la resolución de una variedad de problemas, principalmente los relacionados con control de procesos industriales complejos y sistemas de decisión en general, la resolución y la compresión de datos. Los sistemas de lógica difusa están también muy extendidos en la tecnología cotidiana. Ejemplo: cámaras digitales, sistemas de aire acondicionado, lavarropas, entre otros.

Page 22: Ervin Lewis Caceres Mariño

8. REDES NEURONALES

Las Redes Neuronales Artificiales (RNA) están inspiradas en la biología, esto significa que están formadas por elementos que se comportan de manera análoga a las neuronas (en las funciones más elementales) y están organizadas de una forma similar a la del cerebro, pero las analogías no son muchas más. Las características fundamentales de las RNA son: • Aprenden de la experiencia: Las RNA pueden modificar su comportamiento como respuesta a su entorno. Dado un

Page 23: Ervin Lewis Caceres Mariño

conjunto de entradas (quizá con las salidas deseadas), las RNA se ajustan para producir respuestas consistentes. Una amplia variedad de algoritmos de entrenamiento se han desarrollado, cada uno con sus propias ventajas e inconvenientes. • Generalizan de ejemplos anteriores a los ejemplos nuevos: Una vez que la RNA esté entrenada, la respuesta de la red puede ser, hasta un cierto punto, insensible a pequeñas variaciones en las entradas, lo que las hace idóneas para el reconocimiento de patrones. • Abstracción de la esencia de las entradas: Algunas RNA son capaces de abstraer información de un conjunto de entradas. Por ejemplo, en el caso de reconocimiento de patrones, una red puede ser entrenada en una secuencia de patrones distorsionados de una letra. Una vez que la red sea correctamente entrenada será capaz de producir un resultado correcto ante una entrada distorsionada, lo que significa que ha sido capaz de aprender algo que nunca había visto.

Redes de capa simple A pesar de que una sola neurona puede realizar modelos simples de funciones, su mayor productividad viene dada cuando se organizan en redes. La red más simple es la formada por un conjunto de perceptrones a los que entra un patrón de entradas y proporcionan la salida correspondiente. Por cada perceptrón que tengamos en la red vamos a tener una salida, que se hallará como se hacía con un perceptrón solo, haciendo el sumatorio de todas las entradas multiplicadas por los pesos. Al representar gráficamente una red, se añade una "capa" inicial que no es contabilizada a efectos de computación,

solamente sirve para distribuir las entradas entre los perceptrones. La denominaremos la capa 0. De esta manera, la representación gráfica de una red de capa simple sería la siguiente:

Redes multicapa: Las redes multicapa se forman por un conjunto de redes de capa simple en cascada unidas por pesos, donde la salida de una capa es la entrada de la siguiente capa. Generalmente son capaces de aprender funciones que una red de capa simple no puede aprender, por lo que ofrecen mejores capacidades computacionales. Para que este incremento en poder computacional sea tal, tiene que existir una función de activación no lineal entre las capas, por lo que generalmente se utilizará una función de activación sigmoidea en detrimento de la lineal o umbral. Para calcular la salida de una red multicapa se debe hacer de la misma manera que en las redes de capa simple, teniendo en cuenta que las salidas de una capa son las entradas de la siguiente capa.

Redes recurrentes: Las redes consideradas hasta ahora no tienen conexiones entre pesos de la salida de una capa a la entrada de la misma capa o anteriores. Las redes que poseen esta característica son conocidas como redes recurrentes. Las redes recurrentes no tienen memoria, es decir, la salida solamente está determinada por las entradas y los pesos. Las capas recurrentes re direccionan previas salidas a entradas. Su salida es determinada por su entrada y sus salidas previas, por lo que se puede asemejar a la memoria a corto plazo de los seres humanos.

Software SNNS.

Page 24: Ervin Lewis Caceres Mariño

El SNNS (Stuttgart Neural Network Simulator) es un software de simulación para redes neuronales desarrollado en el Institute for Parallel and Distributed High Performance Systems de la Universidad de Stuggart. El objetivo del proyecto SNNS fue la creación de un entorno de simulación eficiente y flexible para la investigación y aplicación de redes neuronales.El simulador consta de dos componentes principales:

• núcleo escrito en C• una interfaz gráfica.

El núcleo opera con las estructuras de datos de las redes neuronales y realiza todas las operaciones de aprendizaje y prueba. También puede ser utilizado como un programa enC. Permite trabajar con topologías arbitrarias de redes. Adicionalmente, permite que el usuario extienda los programas añadiendo funciones de activación, funciones de salida y funciones de aprendizaje, que se escriben como programas en C y se enlazan con el núcleo del simulador.La interfaz gráfica XGUI (X Graphical User Interface) permite la representación gráfica en 2D y 3D de las redes neuronales y controla el núcleo durante una ejecución.El paquete SNNS se puede obtener via ftp anónimo de:

ftp informatik.uni-tuebingen.de en /pub/SNNS/SNNSv4.2.tar.gz (2.18 MB).

DIFERENCIA ENTRE UN SER CEREBRO HUMANO Y UNA COMPUTADORA

Cerebro Computadora

Sistema de datos de múltiple propósito capaz de tratar gran cantidad de información en poco tiempo pero no nesesariamente con exactitud.

Sistemas altamente especializados con capacidad para procesar información muy concreta, siguiendo unas instrucciones dadas.

La frecuencia de los impulsos nerviosos puede variar.

La frecuencia de transmisión es inalterable y está dada por el reloj interno de la máquina.

Las llamadas sinapsis cumple en el cerebro la función simultánea de varias compuertas (and, or, not etc.)

Las compuertas lógicas tienen una función perfectamente determinada e inalterable.

Page 25: Ervin Lewis Caceres Mariño

La memoria es del tipo asociativo y no se sabe dónde quedara almacenada.

La información se guarda en posiciones de memoria de acceso directo por su dirección.

Los impulsos fluyen a 30 metros por segundo.

En el interior de una computadora los impulsos fluyen a la velocidad de la luz.

9. CONCLUCION

¿Y por qué es tan importante la disponibilidad de datos? Porque la fiabilidad de los algoritmos de inteligencia artificial depende directamente del volumen de datos con los que estos pueden ser entrenados. El proceso de aprendizaje de una red neuronal es muy similar al de cualquier ser humano, ya que la red comienza el proceso con una ignorancia absoluta respecto a lo que ha de evaluar pero aprende de sus errores tras cada decisión.

Una de las aplicaciones más útiles de la inteligencia artificial es el reconocimiento automático de la voz. Aunque existen aplicaciones prácticas desde hace algunos años en el campo médico o militar, la utilidad real del reconocimiento de voz ha explotado durante estos últimos años con los asistentes de los teléfonos móviles, especialmente en el caso de Google. El dictado fiable de mensajes o la búsqueda por voz de lugares son ya posibles desde la popularización del sistema operativo Android, tras la mejora de unos sistemas difícilmente usables hace solo una década. La inteligencia artificial está aquí para quedarse, y cada día surgen nuevas aplicaciones prácticas con impacto directo en nuestras vidas. En su cara más oscura se encuentra la posibilidad de que muchos servicios de espionaje se dediquen a rastrear toda la información disponible en la red, y que incluso empresas o individuos con objetivos dudosos puedan también llegar a hacerlo. Los gobiernos habrán de realizar un mayor esfuerzo para garantizar la privacidad y limitar los posibles comportamientos poco éticos que esta nueva tecnología nos trae. Tanto para mal como para bien, las posibilidades serán cada vez más ilimitadas.

La lógica difusa se utiliza cuando la complejidad del proceso en cuestión es muy alta y no existen modelos matemáticos precisos, para procesos altamente no lineales y cuando se envuelven definiciones y conocimiento no estrictamente definido (impreciso o subjetivo).

A continuación se citan algunos ejemplos de su aplicación de lógica difusa:

Sistemas de control de acondicionadores de aire Sistemas de foco automático en cámaras fotográficas Electrodomésticos familiares (frigoríficos, lavadoras...) Optimización de sistemas de control industriales Sistemas de escritura Mejora en la eficiencia del uso de combustible en motores

Page 26: Ervin Lewis Caceres Mariño

Sistemas expertos del conocimiento (simular el comportamiento de un experto humano)

Tecnología informática Bases de datos difusas: Almacenar y consultar información imprecisa. Para este punto,

por ejemplo, existe el lenguaje FSQL.

La logica difusa es una rama de la inteligencia artificial que le permite a una computadora analizar información del mundo real en una escala entre lo falso y lo verdadero, manipula conceptos vagos, como "caliente" o "humedo", y permite a los ingenieros construir dispositivos que juzgan la información difícil de definir.