miércoles, 11 de junio de 2014

LOS FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL



INTRODUCCIÓN

Muchas de las actividades mentales humanas, tales como escribir programas de cómputo, demostrar teoremas, razonar con sentido común y aún conducir un vehículo normalmente se dice que requieren “inteligencia”. Durante las décadas pasadas se ha logrado construir programas que pueden realizar tareas como esas. Existen programas que pueden diagnosticar enfermedades, resolver ecuaciones diferenciales en forma simbólica, analizar circuitos electrónicos, entender en forma limitada frases habladas y escritas o escribir programas de cómputo cumpliendo especificaciones. Se puede decir que tales sistemas posen cierto grado de Inteligencia Artificial (IA).



OBJETIVO
La siguiente clase tiene como objetivo entender los fundamentos de la Inteligencia Artificial, su historia con el pasar de los años, en cuanto a la Filosofía, Matemáticas, Economía, Neurociencia y algunas otras ramas de la ciencia.

LOS FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL

Filosofía (desde el año 428 A.C. hasta el presente)

¿Se pueden utilizar reglas formales para extraer conclusiones válidas?
¿Cómo se genera la inteligencia mental a partir de un cerebro físico?
¿De dónde viene el conocimiento?
¿Cómo se pasa del conocimiento a la acción?

Aristóteles (384-322 a.C.) fue el primero en formular un conjunto preciso de leyes que gobernaban la parte racional de la inteligencia. Él desarrolló un sistema informal para razonar adecuadamente con silogismos, que en principio permitía extraer conclusiones mecánicamente, a partir de premisas iniciales. Mucho después, Ramón Lull (d. 1315) tuvo la idea de que el razonamiento útil se podría obtener por medios artificiales. Sus «ideas» aparecen representadas en la portada de este manuscrito. Thomas Hobbes (1588-1679) propuso que el razonamiento era como la computación numérica, de forma que «nosotros sumamos y restamos silenciosamente en nuestros pensamientos». La automatización de la computación en sí misma estaba en marcha; alrededor de 1500, Leonardo da Vinci (1452-1519) diseñó, aunque no construyó, una calculadora mecánica; construcciones recientes han mostrado que su diseño era funcional. La primera máquina calculadora conocida se construyó alrededor de 1623 por el científico alemán Wilhelm Schickard (1592-1635), aunque la Pascalina, construida en 1642 por Blaise Pascal (1623-1662), sea más famosa. Pascal escribió que «la máquina aritmética produce efectos que parecen más similares a los pensamientos que a las acciones animales». Gottfried Wilhelm Leibniz (1646-1716) construyó un dispositivo mecánico con el objetivo de llevar a cabo operaciones sobre conceptos en lugar de sobre números, pero su campo de acción era muy limitado.

Matemáticas (aproximadamente desde el año 800 al presente)

¿Qué reglas formales son las adecuadas para obtener conclusiones válidas?
¿Qué se puede computar?
¿Cómo razonamos con información incierta?

Los filósofos delimitaron las ideas más importantes de la IA, pero para pasar de ahí a una ciencia formal es necesario contar con una formulación matemática en tres áreas fundamentales: lógica, computación y probabilidad.
El concepto de lógica formal se remonta a los filósofos de la antigua Grecia, pero su desarrollo matemático comenzó realmente con el trabajo de George Boole (1815-1864) que definió la lógica proposicional o Booleana (Boole, 1847). En 1879, GottlobFrege (1848-1925) extendió la lógica de Boole para incluir objetos y relaciones, y creó la lógica de primer orden que se utiliza hoy como el sistema más básico de representación de conocimiento5. Alfred Tarski (1902-1983) introdujo una teoría de referencia que enseña cómo relacionar objetos de una lógica con objetos del mundo real. El paso siguiente consistió en definir los límites de lo que se podía hacer con la lógica y la informática.
Se piensa que el primer a^joritmo no trivial es el algoritmo Euclídeo para el cálculo del máximo común divisor. El considerar los algoritmos como objetos en sí mismos se remonta a la época de al-Khowarazmi, un matemático persa del siglo ix, con cuyos escritos también se introdujeron los números arábigos y el álgebra en Europa. Boole, entre otros, presentó algoritmos para llevar a cabo deducciones lógicas y hacia el final del siglo xix se llevaron a cabo numerosos esfuerzos para formalizar el razonamiento matemático general con la lógica deductiva. En 1900, David Hilbert (1862-1943) presentó una lista de 23 problemas que acertadamente predijo ocuparían a los matemáticos durante todo ese siglo. En el último de ellos se preguntaba si existe un algoritmo que permita determinar la validez de cualquier proposición lógica en la que aparezcan números naturales (el famoso Entscheidungsproblem, o problema de decisión). Básicamente, lo que Hilbert se preguntaba es si hay límites fundamentales en la capacidad de los procedimientos efectivos de demostración. En 1930, Kurt Godel (1906-1978) demostró que existe un procedimiento eficiente para demostrar cualquier aseveración verdadera en la lógica de primer orden de Frege y Russell, sin embargo con la lógica de primer orden no era posible capturar el principio de inducción matemática necesario para la caracterización de los números naturales


Economía (desde el año 1776 hasta el presente)

¿Cómo se deben llevar a cabo acciones cuando otros no colaboren?
¿Cómo se debe llevar a cabo el proceso de toma de decisiones para maximizar el rendimiento?
¿Cómo se deben llevar a cabo acciones cuando los resultados se obtienen en un futuro lejano?

La ciencia de la economía comenzó en 1776, cuando el filósofo escocés Adam Smith (1723-1790) publicó An Inquiríinto the Nature and Causes o f the Wealth ofNations Aunque los antiguos griegos, entre otros, habían hecho contribuciones al pensamiento económico, Smith fue el primero en tratarlo como una ciencia, utilizando la idea de que las economías pueden concebirse como un conjunto de agentes individuales que intentan maximizar su propio estado de bienestar económico. La mayor parte de la gente cree que la economía sólo se trata de dinero, pero los economistas dicen que ellos realmente estudian cómo la gente toma decisiones que les llevan a obtener los beneficios esperados.
Léon Walras (1834-1910) formalizó el tratamiento matemático del «beneficio deseado» o itfid ad , y fue posteriormente mejorado por Frank Ramsey (1931) y después por John von Neumann y Oskar Morgenstern en su libro The Theory o f Games andEconomic Behavior (1944).
La teoría de la decisión, que combina la teoría de la probabilidad con la teoría de la utilidad, proporciona un marco completo y formal para la toma de decisiones (económicas o de otra índole) realizadas bajo incertidumbre, esto es, en casos en los que las descripciones probabilísticas capturan adecuadamente la forma en la que se toman las decisiones en el entorno; lo cual es adecuado para «grandes» economías en las que cada agente no necesita prestar atención a las acciones que lleven a cabo el resto de los agentes individualmente. Cuando se trata de «pequeñas» economías, la situación se asemeja más a la de un juego; las acciones de un jugador pueden afectar significativamente a la utilidad de otro (tanto positiva como negativamente). Los desarrollos de von Neumann y Morgenstern a partir de la teoría dejuegos (véase también Luce y Raiffa, 1957) mostraban el hecho sorprendente de que, en algunos juegos, un agente racional debía actuar de forma aleatoria o, al menos, aleatoria en apariencia con respecto a sus contrincantes.


Neurociencia (desde el año 1861 hasta el presente)

¿Cómo procesa información el cerebro?

La Neurotioicia es el estudio del sistema neurológico, y en especial del cerebro. La forma exacta en la que en un cerebro se genera el pensamiento es uno de los grandes misterios de la ciencia. Se ha observado durante miles de años que el cerebro está de alguna manera involucrado en los procesos de pensamiento, ya que fuertes golpes en la cabeza pueden ocasionar minusvalía mental. También es ampliamente conocido que los cerebros humanos son de alguna manera diferentes; aproximadamente en el 335 a.C. Aristóteles escribió, «de entre todos los animales el hombre tiene el cerebro más grande en proporción a su tamaño»6. Aunque, no fue hasta mediados del siglo xviii cuando se aceptó mayoritariamente que el cerebro es la base de la conciencia. Hasta este momento, se pensaba que estaba localizado en el corazón, el bazo y la glándula pineal. El estudio de Paul Broca (1824-1880) sobre la afasia (dificultad para hablar) en pacientes con el cerebro dañado, en 1861, le dio fuerza a este campo y convenció a la sociedad médica de la existencia de áreas localizadas en el cerebro responsables de funciones cognitivas específicas. En particular, mostró que la producción del habla se localizaba en una parte del hemisferio izquierdo; hoy en día conocida como el área de Broca7. En esta época ya se sabía que el cerebro estaba formado por células nerviosas o neuronas, pero no fue hasta 1873 cuando Camillo Golgi (1843-1926) desarrolló una técnica de coloración que permitió la observación de neuronas individuales en el cerebro. Santiago Ramón y Cajal (1852-1934) utilizó esta técnica es sus estudios pioneros sobre la estructura neuronal del cerebro8.



Psicología (desde el año 1879 hasta el presente)

¿Cómo piensan y actúan los humanos y los animales?

La psicología científica se inició con los trabajos del físico alemán Hermann von Helmholtz (1821-1894), según se referencia habitualmente, y su discípulo Wilhelm Wundt (1832-1920). Helmholtz aplicó el método científico al estudio de la vista humana, y su obra Handbook ofPhysiological Optics, todavía en nuestros días, se considera como «el tratado actual más importante sobre la física y la fisiología de la vista humana» (Nalwa, 1993, p. 15). En 1879, Wundt abrió el primer laboratorio de psicología experimental en la Universidad de Leipzig. Wundt puso mucho énfasis en la realización de experimentos controlados cuidadosamente en la que sus operarios realizaban tareas de percepción o asociación al tiempo que sometían a introspección sus procesos mentales. Los meticulosos controles evolucionaron durante un largo período de tiempo hasta convertir la psicología en una ciencia, pero la naturaleza subjetiva de los datos hizo poco probable que un investigador pudiera contradecir sus propias teorías. Biólogos, estudiando el comportamiento humano, por el contrario, carecían de datos introspectivos y desarrollaron una metodología objetiva, tal y como describe H. S. Jennings (1906) en su influyente trabajo Behavior ofthe Lower Organisms. El movimiento anductista, liderado por John Watson (1878-1958) aplicó este punto de vista a los humanos, rechazando cualquier teoría en la que intervinieran procesos mentales, argumentando que la introspección no aportaba una evidencia fiable. Los conductistas insistieron en el estudio exclusivo de mediciones objetivas de percepciones (o estímulos) sobre animales y de las acciones resultantes (o respuestas). Construcciones mentales como conocimientos, creencias, objetivos y pasos en un razonamiento quedaron descartadas por ser consideradas «psicología popular» no científica. El conductismo hizo muchos descubrimientos utilizando ratas y palomas, pero tuvo menos éxito en la comprensión de los seres humanos. Aún así, su influencia en la psicología fue notable (especialmente en Estados Unidos) desde aproximadamente 1920 hasta 1960.
 



Ingeniería computacional (desde el año 1940 hasta el presente)

¿Cómo se puede construir un computador eficiente?

Para que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos cosas: inteligencia y un artefacto. El computador ha sido el artefacto elegido. El computador electrónico digital moderno se inventó de manera independiente y casi simultánea por científicos en tres países involucrados en la Segunda Guerra Mundial. El equipo de Alan Turing construyó, en 1940, el primer computador operacionalde carácter electromecánico, llamado Heath Robinson11, con un único propósito: descifrar mensajes alemanes. En 1943 el mismo grupo desarrolló el Colossus, una máquina potente de propósito general basada en válvulas de vacío12. El primer computador operacional programable fue el Z-3, inventado por Konrad Zuse en Alemania, en 1941. Zuse también inventó los números de coma flotante y el primer lenguaje de programación de alto nivel, Plankalkúl. El primer computador electrónico, el ABC, fue creado por John Atanasoff junto a su discípulo Clifford Beny entre 1940 y 1942 en la Universidad Estatal de Iowa. Las investigaciones de Atanasoff recibieron poco apoyo y reconocimiento; el ENIAC, desarrollado en el marco de un proyecto militar secreto, en la Universidad de Pensilvania, por un equipo en el que trabajaban entre otros John Mauchly y John Eckert, puede considerarse como el precursor de los computadores modernos.


Teoría de control y cibernética (desde el año 1948 hasta el presente)

¿Cómo pueden los artefactos operar bajo su propio control?

Ktesibios de Alejandría (250 a.C.) construyó la primera máquina auto controlada: un reloj de agua con un regulador que mantenía el flujo de agua circulando por él, con un ritmo constante y predecible. Esta invención cambió la definición de lo que un artefacto podía hacer. Anteriormente, solamente seres vivos podían modificar su comportamiento como respuesta a cambios en su entorno. Otros ejemplos de sistemas de control auto regulables y retroalimentados son el motor de vapor, creado por James Watt (1736-1819),
y el termostato, inventado por Cornelis Drebbel (1572-1633), que también inventó el submarino. La teoría matemática de los sistemas con retroalimentación estables se desarrolló en el siglo xix.


Lingüística (desde el año 1957 hasta el presente)

¿Cómo está relacionado el lenguaje con el pensamiento?

En 1957, B. F. Skinner publicó Verbal Behavior. La obra presentaba una visión extensa y detallada desde el enfoque conductista al aprendizaje del lenguaje, y estaba escrita por los expertos más destacados de este campo. Curiosamente, una revisión de este libro llegó a ser tan famosa como la obra misma, y provocó el casi total desinterés por el conductismo. El autor de la revisión fue Noam Chomsky, quien acababa de publicar un libro sobre su propia teoría, Syntactic Structures. Chomsky mostró cómo la teoría conductista
no abordaba el tema de la creatividad en el lenguaje: no explicaba cómo es posible que un niño sea capaz de entender y construir oraciones que nunca antes ha escuchado. La teoría de Chomsky (basada en modelos sintácticos que se remontaban al lingüista indio Panini, aproximadamente 350 a.C.) sí podía explicar lo anterior y, a diferencia de teorías anteriores, poseía el formalismo suficiente como para permitir su programación.




CONCLUSIÓN
A lo largo del tiempo,  la humanidad ha intentado crear vida artificial, todo se remonta a épocas muy antiguas desde los filósofos como Aristoteles, a pesar de ello que era solamente teoría, hubo un gran avance en las Matemáticas para la Inteligencia Artificial, luego se involucraron todas las ramas de ciencia en general, como son la Economía, Neurociencia, Psicología e Ingeniería Computacional.



BIBLIOGRAFÍA
S Russel y P Norvig. 2004, Fundamentos de la Inteligencia Artificial.  (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en: http://cmapspublic2.ihmc.us/rid=1KNK0LDJ7-245BJ2V-19GR/Russell%20Y%20Norvig%20Inteligencia%20Artificial%20Un%20Enfoque%20Moderno.pdf

H Billhartdt, R Ortiz, 2012. Fundamentos de la Inteligencia Artificial,  (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en:http://www.secyt.frba.utn.edu.ar/gia/IIA-mod1-Fundamentos.pdf


INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL

INTRODUCCIÓN
La Inteligencia Artificial (IA) es la rama de las Ciencias de la Computación que estudia el software y hardware necesarios para simular el comportamiento y comprensión humanos. El objetivo último de la IA es 
simular la inteligencia humana en una máquina creando robots que sean conscientes y con sentimientos reales, similares a los humanos. Uno de los problemas más difíciles es la simulación de la conciencia, cualidad humana que hace que nos demos cuenta de nuestra propia existencia. 


OBJETIVO
La siguiente clase tiene como objetivo comprender qué es la Inteligencia Artificial y la famosa prueba de Turing.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?


Hemos proclamado que la IA es excitante, pero no hemos dicho qué es. La Figura de Abajo presenta definiciones de inteligencia artificial extraídas de ocho libros de texto. Las que aparecen en la parte superior se refieren a procesos mentales y al razonamiento, mientras que las de la parte inferior aluden a la conducta. Las definiciones de la izquierda miden el éxito en términos de la fidelidad en la forma de actuar de los humanos mientras que las de la derecha toman como referencia un concepto ideal de inteligencia, que llamaremos racionalidad. Un sistema es racional si hace «lo correcto», en función de su conocimiento.
A lo largo de la historia se han seguido los cuatro enfoques mencionados. Como es de esperar, existe un enfrentamiento entre los enfoques centrados en los humanos y los centrados en torno a la racionalidad. El enfoque centrado en el comportamiento humano debe ser una ciencia empírica, que incluya hipótesis y confirmaciones mediante experimentos.
El enfoque racional implica una combinación de matemáticas e ingeniería.
Cada grupo al mismo tiempo ha ignorado y ha ayudado al otro. A continuación revisaremos cada uno de los cuatro enfoques con más detalle.




PRUEBA DE TURING

La Prueba de Turing propuesta por Alan Turing (1950), se diseñó para proporcionar una definición operacional y satisfactoria de inteligencia. En vez de proporcionar una lista larga y quizá controvertida de cualidades necesarias para obtener inteligencia artificialmente, él sugirió una prueba basada en la incapacidad de diferenciar entre entidades inteligentes indiscutibles y seres humanos. El computador supera la prueba si un evaluador humano no es capaz de distinguir si las respuestas, a una serie de preguntas planteadas, son de una persona o no. Hoy por hoy, podemos decir que programar un computador para que supere la prueba requiere un trabajo considerable. El computador debería poseer las siguientes capacidades:
  • Procesamiento de lenguaje natural: que le permita comunicarse satisfactoriamente en inglés.
  • Representación del conocimiento: para almacenar lo que se conoce o siente.
  • Razonamiento automático: para utilizar la información almacenada para responder a preguntas y extraer nuevas conclusiones.
  • Aprendizaje automático: para adaptarse a nuevas circunstancias y para detectar y extrapolar patrones.

La Prueba de Turing evitó deliberadamente la interacción física directa entre el evaluador y el computador, dado que para medir la inteligencia es innecesario simular físicamente a una persona. Sin embargo, la llamada Prueba Global de Turing incluye una señal de vídeo que permite al evaluador valorar la capacidad de percepción del evaluado, y también le da la oportunidad al evaluador de pasar objetos físicos «a través de una ventana».

Para superar la Prueba Global de Turing el computador debe estar dotado de
  • Visión computacional:  para percibir objetos.
  • Robótica: para manipular y mover objetos.
Estas seis disciplinas abarcan la mayor parte de la IA. En la siguiente Imagen se puede apreciar la prueba:




CONCLUSIÓN
Gracias a la inteligencia artificial se ha logrado que una maquina sea capaz de desarrollar áreas de conocimiento muy especificas y complicadas, haciendo que la maquina pueda simular procesos que el hombre realiza. Pero cabe destacar que aún no se ha logrado que una máquina piense como un humano, pienso que una limitación es el hecho de que el hombre es irreemplazable ya que el ser humano cuenta con una característica propia el cual es el sentido común.
Pero no podemos olvidar que el desarrollo de estas tecnologías no pretenden reemplazar al ser humano sino que tratan de mejorar el estilo de vida del ser humano, ya que recordemos que, por lo menos los robots hacen que el trabajo pesado sea mas fácil de realizar, y que una maquina no se enferma, ni protestas, ni se cansa y esto puede elevar su utilidad. En fin esperemos que estas tecnologías no se nos vaya de las manos, y que no nos perjudique, sino que nos ayude.
En cuanto a la Prueba da Alan Turing es lo mejor que se ha inventado para saber si es o no una maquina, pero como el lo dijo: "Algún día Pasaran el Test que yo mismo he planteado", así fue.



BIBLIOGRAFÍA


S Russel y P Norvig. 2004, Introducción a Inteligencia Artficial.  (En línea). EC. Consultado, 2 de Julio. 2014. Formato PDF. Disponible en: http://cmapspublic2.ihmc.us/rid=1KNK0LDJ7-245BJ2V-19GR/Russell%20Y%20Norvig%20Inteligencia%20Artificial%20Un%20Enfoque%20Moderno.pdf

Penrose R. “The Emperor’s New Mind. Concerning Computers, Minds, and the Laws of Physics”. Vintage 1989. (existe traducción al castellano de esta obra en la editorial Mondadori de 1991).