miércoles, 25 de junio de 2014

BUEN COMPORTAMIENTO: EL CONCEPTO DE RACIONALIDAD


INTRODUCCIÓN


Hablando de la racionalidad, podemos decir que un agente racional es aquel que hace lo correcto; en términos conceptuales, cada elemento de la tabla que define la función del agente se tendría que rellenar correctamente. Obviamente, hacer lo correcto es mejor que hacer algo incorrecto, pero ¿qué significa hacer lo correcto? Como primera aproximación, se puede decir que lo correcto es aquello que permite al agente obtener un resultado mejor. Por tanto, se necesita determinar una forma de medir el éxito. Ello, junto a la descripción del entorno y de los sensores y actuadores del agente, proporcionará una especificación completa de la tarea que desempeña el agente.
Ademas se hablara de la Omnisciencia, aprendiz y autónomo.



OBJETIVO

La clase de hoy tendrá como objetivo aprender a distinguir el concepto de racionalidad, Omnisciente, aprendiz y autónomo



MEDIDAS DE RENDIMIENTO

Las medidas de rendimiento incluyen los criterios que determinan el éxito en el comportamiento del agente. Cuando se sitúa un agente en un medio, éste genera una secuencia de acciones de acuerdo con las percepciones que recibe. Esta secuencia de acciones hace que su hábitat pase por una secuencia de estados. Si la secuencia es la deseada, entonces el agente habrá actuado correctamente. Obviamente, no hay una única medida adecuada para todos los agentes. Se puede preguntar al agente por su opinión subjetiva acerca de su propia actuación, pero muchos agentes serían incapaces de contestar, y otros podrían engañarse a sí mismos3. Por tanto hay que insistir en la importancia de utilizar medidas de rendimiento objetivas, que normalmente determinará el diseñador encargado de la construcción del agente.
Si retomamos el ejemplo de la aspiradora de la sección anterior, se puede proponer utilizar como medida de rendimiento la cantidad de suciedad limpiada en un período de ocho horas. Con agentes racionales, por supuesto, se obtiene lo que se demanda. Un agente racional puede maximizar su medida de rendimiento limpiando la suciedad, tirando la basura al suelo, limpiándola de nuevo, y así sucesivamente. Una medida de rendimiento más adecuada recompensaría al agente por tener el suelo limpio. Por ejemplo, podría ganar un punto por cada cuadrícula limpia en cada período de tiempo (quizás habría que incluir algún tipo de penalización por la electricidad gastada y el ruido generado). Como regla general, es mejor diseñar medidas de utilidad de acuerdo con lo que se quiere para el entorno, más que de acuerdo con cómo se cree que el agente debe comportarse. La selección de la medida de rendimiento no es siempre fácil. Por ejemplo, la noción de «suelo limpio» del párrafo anterior está basada en un nivel de limpieza medio a lo largo del tiempo. Además, este nivel medio de limpieza se puede alcanzar de dos formas diferentes, llevando a cabo una limpieza mediocre pero continua o limpiando en profundidad, pero realizando largos descansos. La forma más adecuada de hacerlo puede venir dada por la opinión de un encargado de la limpieza profesional, pero en realidad es una cuestión filosófica profunda con fuertes implicaciones. ¿Qué es mejor, una vida temeraria con altos y bajos, o una existencia segura pero aburrida? ¿Qué es mejor, una economía en la que todo el mundo vive en un estado de moderada pobreza o una en la que algunos viven en la abundancia y otros son muy pobres? Estas cuestiones se dejan como ejercicio para los lectores diligentes.




Racionalidad

La racionalidad en un momento determinado depende de cuatro factores:
La medida de rendimiento que define el criterio de éxito.
El conocimiento del medio en el que habita acumulado por el agente.
Las acciones que el agente puede llevar a cabo.
La secuencia de percepciones del agente hasta este momento.
Esto nos lleva a la definición de agente racional:
En cada posible secuencia de percepciones, un agente racional deberá emprender aquella acción que supuestamente maximice su medida de rendimiento, basándose en las evidencias aportadas por la secuencia de percepciones y en el conocimiento que el agente mantiene almacenado.
Considerando que el agente aspiradora limpia una cuadrícula si está sucia y se mueve a la otra si no lo está, ¿se puede considerar racional? Depende! Primero, se debe determinar cuál es la medida de rendimiento, qué se conoce del entorno, y qué sensores y actuadores tiene el agente. Si asumimos que:
La medida de rendimiento premia con un punto al agente por cada recuadro limpio en un período de tiempo concreto, a lo largo de una «vida» de 1.000 períodos.
La «geografía» del medio se conoce a priori, pero que la distribución de la suciedad y la localización inicial del agente no se conocen. Las cuadrículas se mantienen limpias y aspirando se limpia la cuadrícula en que se encuentre el agente. Las acciones Izquierda y Derecha mueven al agente hacia la izquierda y derecha excepto en el caso de que ello pueda llevar al agente fuera del recinto, en este caso el agente permanece donde se encuentra.
Las únicas acciones permitidas son Izquierda, Derecha, Aspirar y NoOp (no hacer nada).
El agente percibe correctamente su localización y si esta localización contiene suciedad.


Omnisciencia, aprendizaje y autonomía

Es necesario tener cuidado al distinguir entre racionalidad y omnisciencia Un agente omnisciente conoce el resultado de su acción y actúa de acuerdo con él; sin embargo, en realidad la omnisciencia no es posible. Considerando el siguiente ejemplo: estoy paseando por los Campos Elíseos y veo un amigo al otro lado de la calle. No hay tráfico alrededor y no tengo ningún compromiso, entonces, actuando racionalmente, comenzaría a cruzar la calle. Al mismo tiempo, a 33.000 pies de altura, se desprende la puerta de un avión , y antes de que termine de cruzar al otro lado de la calle me encuentro aplastado. ¿Fue irracional cruzar la calle? Sería de extrañar que en mi nota necrológica apareciera «Un idiota intentando cruzar la calle».
Este ejemplo muestra que la racionalidad no es lo mismo que la perfección. La racionalidad maximiza el rendimiento esperado, mientras la perfección maximiza el resultado real. Alejarse de la necesidad de la perfección no es sólo cuestión de hacer justicia con los agentes. El asunto es que resulta imposible diseñar un agente que siempre lleve a cabo, de forma sucesiva, las mejores acciones después de un acontecimiento, a menos que se haya mejorado el rendimiento de las bolas de cristal o las máquinas de tiempo. La definición propuesta de racionalidad no requiere omnisciencia, ya que la elección racional depende sólo de la secuencia de percepción hasta la fecha. Es necesario asegurase de no haber permitido, por descuido, que el agente se dedique decididamente a llevar a cabo acciones poco inteligentes. Por ejemplo, si el agente no mirase a ambos lados de la calle antes de cruzar una calle muy concurrida, entonces su secuencia de percepción no le indicaría que se está acercando un gran camión a gran velocidad. ¿La definición de racionalidad nos está indicando que está bien cruzar la calle? Todo lo contrario! Primero, no sería racional cruzar la calle sólo teniendo esta secuencia de percepciones incompleta: el riesgo de accidente al cruzarla sin mirar es demasiado grande. Segundo, un agente racional debe elegir la acción de «mirar» antes de intentar cruzar la calle, ya que el mirar maximiza el rendimiento esperado. Llevar a cabo acciones con la intención de modificar percepciones futuras, en ocasiones proceso denominado recopilación de información, es una parte importante de la racionalidad. Un segundo ejemplo de recopilación de información lo proporciona la exploración que debe llevar a cabo el agente aspiradora en un medio inicialmente desconocido.

La definición propuesta implica que el agente racional no sólo recopile información, sino que aprende lo máximo posible de lo que está percibiendo. La configuración inicial del agente puede reflejar un conocimiento preliminar del entorno, pero a medida que el agente adquiere experiencia éste puede modificarse y aumentar. Hay casos excepcionales en los que se conoce totalmente el entorno a priori. En estos casos, el agente no necesita percibir y aprender; simplemente actúa de forma correcta. Por supuesto, estos agentes son muy frágiles. Considérese el caso del humilde escarabajo estercolero. Después de cavar su nido y depositar en él su huevos, tomó una bola de estiércol de una pila cercana para tapar su entrada. Si durante el trayecto se le quita la bola, el escarabajo continuará su recorrido y hará como si estuviera tapando la entrada del nido, sin tener la bola y sin darse cuanta de ello. La evolución incorporó una suposición en la conducta del escarabajo, y cuando se viola, el resultado es un comportamiento insatisfactorio. La avispa cavadora es un poco más inteligente. La avispa hembra cavará una madriguera, saldrá de ella, picará a una oruga y la llevará a su madriguera, se introducirá en la madriguera para comprobar que todo está bien, arrastrará la oruga hasta el fondo y pondrá sus huevos. La oruga servirá como fuente de alimento cuando los huevos se abran. Hasta ahora todo bien, pero si un entomólogo desplaza la oruga unos centímetros fuera cuando la avispa está revisando la situación, ésta volverá a la etapa de «arrastre» que figura en su plan, y continuará con el resto del plan sin modificación alguna, incluso después de que se intervenga para desplazar la oruga. La avispa cavadora no es capaz de aprender que su plan innato está fallando, y por tanto no lo cambiará. 
Los agentes con éxito dividen las tareas de calcular la función del agente en tres períodos diferentes: cuando se está diseñando el agente, y están los diseñadores encargados de realizar algunos de estos cálculos; cuando está pensando en la siguiente operación, el agente realiza más cálculos; y cuando está aprendiendo de la experiencia, el agente lleva a cabo más cálculos para decidir cómo modificar su forma de comportarse.
Se dice que un agente carece de aitanonrfa cuando se apoya más en el conocimiento inicial que le proporciona su diseñador que en sus propias percepciones. Un agente racional debe ser autónomo, debe saber aprender a determinar cómo tiene que compensar el conocimiento incompleto o parcial inicial. Por ejemplo, el agente aspiradora que aprenda a prever dónde y cuándo aparecerá suciedad adicional lo hará mejor que otro que no aprenda. En la práctica, pocas veces se necesita autonomía completa desde el comienzo: cuando el agente haya tenido poca o ninguna experiencia, tendrá que actuar de forma aleatoria a menos que el diseñador le haya proporcionado ayuda. Así, de la misma forma que la evolución proporciona a los animales sólo los reactivos necesarios para que puedan sobrevivir lo suficiente para aprender por ellos mismos, sería razonable proporcionar a los agentes que disponen de inteligencia artificial un conocimiento inicial, así como de la capacidad de aprendizaje. Después de las suficientes experiencias interaccionando con el entorno, el comportamiento del agente racional será efectivamente independiente del conocimiento que poseía inicialmente. De ahí, que la incorporación del aprendizaje facilite el diseño de agentes racionales individuales que tendrán éxito en una gran cantidad de medios.


CONCLUSIÓN
En conclusión un agente es racional cuando hace lo correcto, y cuando hace lo correcto se refiere que haga lo que esta destinado a hacer o lo que le dice su programación, porque un agente puede matar a alguien y si esta en su programación es correcto, pero en la ética no es correcto.
Ademas existen tres tipos de agentes, que son: Omnisciente que son aquellos que predicen el futuro, predicen que es lo que va a parar y evitan realizar alguna acción que sea mala en el futuro; Aprendiz son los que aprendes su entrenamiento, y luego lo ponen en practica, hacen lo que aprenden, pero necesitan un entrenamiento; Autónomas estos aprenden y hacen lo que ellos creen necesario, no necesariamente aprenden de un entrenamiento si no que



BIBLIOGRAFÍA

S Russel y P Norvig. 2004, Agentes Racionales.  (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en: http://cmapspublic2.ihmc.us/rid=1KNK0LDJ7-245BJ2V-19GR/Russell%20Y%20Norvig%20Inteligencia%20Artificial%20Un%20Enfoque%20Moderno.pdf


P Mashut. 2010, Omniciencia.  (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en: http://www.ugr.es/~nef/Docencia_files/Propiedades%20divinas%202%20short.pdf

AGENTES Y SU ENTORNO

INTRODUCCIÓN
Enfocando la IA desde la perspectiva del desarrollo de agentes inteligentes se puede considerar el nuevo reto a corto plazo. Los agentes constituyen el próximo avance mas significativo en el desarrollo de sistemas y pueden ser considerados como la nueva revolución en el software.


OBJETIVO: La clase de hoy tendrá como objetivo saber distinguir un Agente y el Entorno donde se desenvuelve.


AGENTE Y SU ENTORNO

Un agente es un sistema computacional capaz de actuar de manera autónoma para satisfacer sus objetivos y metas, mientras se encuentra situado persistentemente en su medio ambiente.
Un agente humano tiene ojos, oídos y otros órganos sensoriales además de manos,piernas, boca y otras partes del cuerpo para actuar. Un agente robot recibe pulsaciones del teclado, archivos de información y paquetes vía red a modo de entradas sensoriales y actúa sobre el medio con mensajes en el monitor, escribiendo ficheros y enviando paquetes por la red.




AGENTE RACIONAL

Es aquel que hace lo correcto; en términos conceptuales, cada elemento de la tabla que define la función del agente se tendría que rellenar correctamente. Obviamente, hacer lo correcto es mejor que hacer algo incorrecto, pero ¿qué significa hacer lo correcto? Como primera aproximación, se puede decir que lo correcto es aquello que permite al agente obtener un resultado mejor. Por tanto, se necesita determinar una forma de medir el éxito. Ello, junto a la descripción del entorno y de los sensores y actuadores del agente, proporcionará una especificación completa de la tarea que desempeña el agente.



MEDIO AMBIENTE

Observable VS. Parcialmente observable.- Si los sensores de un agente le permiten percibir el estado completo del ambiente en cada punto en el tiempo, decimos que el ambiente es observable. Un ambiente es efectivamente observable si los sensores del agente detectan todos los aspectos relevantes para decidir que acción debe llevarse a cabo. Relevancia aquí depende de la definición de función de desempeño. Los ambientes observables son convenientes debido a que en ellos, un agente no necesita mantener el historial de estados del ambiente para ser efectivo. Un ambiente puede ser parcialmente observable debido a la impresión y el ruido en los sensores; o bien porque algunos aspectos del ambiente caen fuera del rango de lectura de los sensores.

Determinista VS. Estocástico.- Si el próximo estado del ambiente está determinado por la acción que ejecuta el agente, se dice que el ambiente es determinista. Si otros factores influyen en el próximo estado del ambiente, éste es estocástico. Si el ambiente es parcialmente observable, entones aparecerá como no estocástico. Esto es particularmente cierto en el caso de ambientes complejos, donde es difícil dar seguimiento a los aspectos no observables del ambiente. Generalmente es mejor considerar estas propiedades del ambiente, desde el punto de vista del agente. El carácter estocástico del ambiente captura dos nociones importantes:
1. El hecho de que los agentes tienen una esfera de influencia limitada, es decir, en el mejor de los casos tienen un control parcial de su ambiente;
2. y el hecho de que las acciones de un agente puede fallar y no lograr el resultado deseado por el agente.

Por ello, es más sencillo construir agentes en ambientes deterministas. Si el ambiente es determinista, excepto para las acciones de otros agentes, se dice que el ambiente es estratégico.

Episódico VS. Secuencial.- En un ambiente episódico, la experiencia de un agente puede evaluarse en rondas. Las acciones se evalúan en cada episodio o ronda , esto es, la calidad de la acción en los episodios subsecuentes, no depende de las acciones ocurridas en episodios previos. Por ejemplo, el detector de basura en las botellas de una cervecería es episódico: la decisión de si una botella esta sucia o no, no depende de los casos anteriores. Dada la persistencia temporal de los agentes, estos tienen que hacer continuamente decisiones locales que tienen consecuencias globales. Los episodios reducen el impacto de estas consecuencias, y por lo tanto es más fácil construir agentes en ambientes episódicos. Un programa que juega ajedrez está en un ambiente secuencial.

Estático VS. Dinámico.- Si el ambiente puede cambiar mientras el agente se encuentra deliberando, se dice que es dinámico; de otra forma, se dice estático. Si el ambiente no cambia con el paso del tiempo, pero si lo hace con las acciones del agente si lo hace, se dice que el ambiente es semi-dinámico. Los ambientes dinámicos tienen dos consecuencias importantes: Un agente debe percibir continuamente, porque aún si no ha ejecutado ninguna acción entre los tiempos t0 y t1, el agente no puede asumir que el estado del ambiente sea el mismo en t0 que en t1; Otros procesos en el ambiente pueden interferir con las acciones del agente, incluyendo las acciones de otros agentes. Por lo tanto, es más sencillo diseñar agentes en ambientes estáticos.



CONCLUSIÓN

Una buena conclusión, es que los agentes se podría decir que es una de las partes importantes de la Inteligencia Artificial, ya que sin ellos no podríamos percibir el medio en que se trabajará, gracias a esto podemos hacer que haga una función después de procesarla.



BIBLIOGRAFÍA

A Guerra. 2013, Agentes Inteligentes.  (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en: http://www.uv.mx/aguerra/documents/2013-ia2-01.pdf


J Pavón. 2010. Agentes Inteligentes. (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en: http://www.fdi.ucm.es/profesor/jpavon/doctorado/arquitecturas.pdf