El área de la inteligencia artificial tiene actualmente un gran impacto, y como nunca antes ha mostrado desarrollos impresionantes. Diferentes herramientas que utilizamos todos los días se basan en inteligencia artificial. Pero para poder entender cómo desarrollar estas herramientas, requerimos primero abordar el concepto de inteligencia artificial.
Definición 1 (Inteligencia Artificial). El campo de la Inteligencia Artificial (IA) se enfoca tanto en el estudio como en la construcción de entidades inteligentes.
Dentro de la inteligencia artificial se habla de dos grandes tipos:
Definición 2 (Inteligencia artificial fuerte). Una inteligencia artificial se dice que es fuerte cuando ésta puede realizar de manera exitosa cualquier tarea que también pueda ser realizada por un ser humano. Es decir, la IA ejecuta acciones inteligentes de manera general.
Definición 3 (Inteligencia artificial débil). La Inteligencia Artificial débil, a diferencia de la fuerte, se centra en la resolución de tareas específicas. Es decir, una IA se dice que es débil si se limita a resolver una tarea específica.
Hay cuatro ámbitos de la inteligencia que se pueden considerar al entender inteligencia, que se pueden dividir en dos paradigmas:
Con respecto a su fidelidad con el ser humano:
Inteligente en tanto actúa como el ser humano.
Inteligente desde una perspectiva abstracta o racionalidad, donde se busca que llegué a un “buen fin” (no necesariamente de la misma forma que un ser humano).
Desde un punto de referencia (interno o externo):
Procesos de pensamiento, razonamiento interno.
Como comportamiento, o atributo externo.
Humano | Racional | |
Pensamiento | Ciencias cognitivas | Lógica |
Comportamiento | Prueba de Turing | Teoría de agentes |
Definición 4 (Agente). Un agente es una entidad que actúa; i.e., opera de manera autónoma, percibiendo su ambiente, y adaptándose a cambios para cumplir metas específicas.
Definición 5 (Agente racional). Es un agente que actúa en busca de obtener el mejor resultado, o bien, si es que hay incertidumbre, el mejor resultado esperado.
Definición 6 (Modelo estándar de IA). El modelo estándar de la Inteligencia Artificial es el modelo que se enfoca en agentes racionales. Bajo este modelo, la Inteligencia Artificial busca estudiar, y construir, agentes que solucionen tareas de manera adecuada.
Las ventajas del modelo estándar son que:
Es más general que el pensamiento racional, pues las inferencias correctos son parte de sus mecanismos, pero no está limitado a estas.
Es adaptable a perspectivas científicas, pues usa formalismos matemáticos para la representación de los agentes.
La idea de emular por medio de una máquina el pensamiento humano se puede remontar a los inicios de la modernidad.
El filósofo y matemático Gottfried Leibniz acuña el concepto de calculus ratiocinator orientado a establecer un cálculo lógico para solución de problemas. La inteligencia se asocia al pensamiento lógico.
La IA se liga al desarrollo de las ciencias de la computación en el siglo xx. Surgen teoría de la computación y el test de Turing en los 40s.
En los 50s, comienzan a crearse sistemas de traducción automática (experimento de Georgetown (1954)).
En contraste al entusiasmo inicial, pronto se vieron las dificultades de la traducción automática. El informe ALPAC señala las debilidades de la traducción en esos años.
Es en este siglo cuando surge el término Inteligencia Artificial adoptado por John MacCarthy en 1956 durante un taller en Darmouth College, en el cual también participaron Claude Shannon y Marvin Minsky
Uno de los primeros trabajos que cae propiamente en IA es el de McCulloch y Pitts (1943) A logical calculus of the ideas immanent in nervous activity: Predecesor del Perceptrón. Se basa en:
Conocimiento de la fisiología y función de las neuronas.
Análisis formal de proposiciones lógicas.
Incorporación de la teoría de la computación de Turing
La teoría de Hebb (1949) introduce formas para aprender los valores (pesos) de una neurona.
El algoritmo del Percpeptrón (1959) es desarrollado por Frank Rosenblatt.
El libro de Minsky y Papert (1969), Perceptrons, muestra las limitaciones de los métodos basados en el Perceptrón.
Herbert Simon y Allen Newell (1957) desarrollaron el llamado General Problem Solver que buscaba servir para solucionar problemas universalmente. El problema debería expresarse como una fórmula bien formada, cuya hipótesis era:
Un sistema de símbolos físicos (sistema formal) cuenta con los medios necesarios y suficientes para realizar acciones inteligentes de forma general.
Marvin Minsky propone limitarse a dominios específicos que llamó micromundos (o microworlds).
Los sistemas expertos limitan la actuación de la máquina a un dominio específico. Buscan emular el comportamiento de un humano experto. En 1969, se propone el programa dendral para inferir la estructura de moléculas con la información espectrográfica. En 1971, comienza el Heuristic Programming Project (HPP) para investigar las aplicaciones de los sistemas expertos a diferentes áreas.
Se llama invierno del IA a la época en la que el entusiasmo por la IA se redujo ante varios fracasos de ésta. Algunos eventos de esta época fueron:
El fracaso de la traducción automática, informe AlPAC (1966).
Descenso de investigaciones coneccionistas, Minsky y Papert (1969), Perceptrons.
James Lighthill en el artículo Artificial Intelligence: A General Survey (1973), conocido como informe Lighthill, critica las prospectivas del IA.
En los 70s, la DARPA recorta fondos de investigación en IA.
En contraste a la lógica booleana de los sistemas simbólicos, se introducen técnicas basadas en la teoría de la probabilidad. En los 80s, se utilizan los Modelos Ocultos de Markov (HMM) en aplicaciones secuenciales, como reconocimiento de voz.
Judea Pearl (1988) introduce, en su libro Probabilisitic Reasoning in Intelligen Systems, el uso de redes bayesianas.
En los 90s, IBM introduce modelos estadísticos para la traducción automática que dan un impulso importante al area, permitiendo el desarrollo de mejores traductores.
En 1996, la misma IBM logra crear Deep Blue un sistema diseñado para jugar ajedrez que fue capaz de vencer al campeón mundial de este juego: Yury Kaspárov.
A finales del siglo XX y principios del XXI, los modelos dominantes eran los modelos estadísticos.
Una de las áreas más prominentes hasta nuestros tiempos sigue siendo el Aprendizaje Automático, basado en técnicas estadísticas y en modelos de aprendizaje.
Asimismo, ha tenido un gran auge el llamado aprendizaje profundo, área que surge de las perspectivas coneccionistas y que actualmente son la perspectiva dominante en la IA actual.