Grupo Alianza Empresarial

INTELIGENCIA ARTIFICIAL, BIOCHIPS, MYCIN, SISTEMAS EXPERTOS, REDES NEURONALES


LA INTELIGENCIA ARTIFICIAL UN POCO DE HISTORIA

1950. El nacimiento real de la IA se produjo en este año, cuando Norbet Wiener desarrolló el principio de la retroalimentación. Esta técnica consiste, por ejemplo, en la tecnología del termostato, comparar la temperatura actual del entorno con la deseada y, según los resultados aumentarla o disminuirla.

1955. Newell y Simon desarrollan la Teoría de la lógica. Este desarrollo permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y nudos, seleccionando únicamente las ramas que más parecían acercarse ala solución correcta del problema.

1956. En una conferencia en Vermont, John McCarthy propone el término "Inteligencia Artificial" para denominar el estudio del tema. Después se prepara el terreno par el futuro en la investigación de la IA.

1957. Aparece la primera versión de "The General Problem Solver" (GPS), un programa capaz de solucionar problemas de sentido común. El GPS utilizaba la teoría de la retroalimentación de Wiener.

1958. McCarthy anuncia su nuevo desarrollo el lenguaje LISP (LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la IA.

1963. El MIT recibe una subvención de 2,2 millones de dólares del gobierno de los Estados Unidos en concepto de investigación en el campo de la IA.

1970. Se produce el advenimiento de los Sistemas Expertos. Los Sistemas Expertos se han utilizado para ayudar a los médicos a diagnosticar enfermedades e informar a los mineros a encontrar vetas de mineral. Al mismo tiempo Davir Marr propone nuevas teorías sobre la capacidad de reconocimiento visual de las diferentes máquinas.

1972. Aparece el lenguaje PROLOGUE basado en las teorías de Minsky.

1980. Las ventas de hardware y software relacionados con la IA se contabilizan por 425 millones de dólares sólo en 1986. Compañías como DuPont, General Motors, y Boeing utilizan sistemas expertos a principios de la década de los 80 y éstos sistemas expertos se convertirán en un standard a finales de la misma.

En los 90. La IA se utiliza de forma efectiva en la Guerra del Golfo sobre sistemas de misiles visores para los soldados y otros avances, y al mismo tiempo, invade nuestros hogares y vida cotidiana en muchos más lugares.

LA HEURÍSTICA

La heurística es el análisis y la extrapolación de datos basados en experiencias pasadas y en sus consecuencias, este apartado es de una importancia vital para la IA interna en los juegos de ordenador.

Por ejemplo, un enemigo podrá intentar una aproximación, grabando los resultados de esa aproximación en su memoria. Si fracasa en su intento de eliminar al jugador, la próxima vez que intente algo parecido sabrá que, bajo las mismas circunstancias, ha fracasado una vez e intentará otra ruta de aproximación al jugador. Si por el contrario tiene éxito, aún podrá obtener un aprendizaje de sus actos, y extrayendo aquellas acciones que más han contribuido a la consecución del fin, que es eliminar al jugador; así la próxima vez que el ordenador se encuentre en semejante situación. La heurística, por tanto, permite tener enemigos con memoria.

LOS SISTEMAS EXPERTOS

Un sistema experto puede definirse como un sistema basado en los conocimientos que imita el pensamiento de un experto para resolver problemas de un terreno particular de aplicación.

Una de las características principales de los sistemas expertos es que están basados en reglas, es decir, contienen conocimientos predefinidos que se utilizan para tomar todas las decisiones.

Un sistema experto genérico consta de dos módulos principales:

La base de conocimientos del sistema experto con respecto a un tema específico para el que se diseña el sistema. Este conocimiento se codifica según una notación específica que incluye reglas, predicados, redes semánticas y objetos.

El motor de inferencia que es el que combina los hechos y las preguntas particulares, utilizando la base de conocimiento, seleccionando los datos y pasos apropiados para presentar los resultados.

Historia de los sistemas expertos:

1965 DENDRAL, el primer sistema experto

- En 1965 Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue éste estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego "árbol".

- Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, esta era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos.

- La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.

1972 MYCIN

- MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características de la persona, tales como el peso corporal de este. Después del reconocido éxito que tuvo.

1973 TIERESIAS

- El cometido de este sistema experto era el de servir de intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su base de datos. El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso lo que se necesita.

1979 XCON, primer programa que sale del laboratorio

- Su usuario fue la Digital Equipament Corporation (DEC).

- El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978.

- En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC.

- En 1980 se instauró totalmente en DEC y en 1984 el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC.

80-8 La revolución de los Sistemas Expertos

- En estos 5 años se crearon diversos sistemas expertos como el DELTA, de General Electric Company, para la reparación de locomotoras diesel y eléctricas. "Aldo en Disco" para la reparación de calderas hidróstaticas giratorias usadas para la eliminación de bacterias.

- Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las "máquinas Lisp", que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las "herramientas de desarrollo de sistemas expertos".

1987 XCON empieza a no ser rentable

- Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA.

1987 El fin del LISP

- En 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje "C" lo que acabó con el LISP.

REDES NEURONALES

- Las redes neuronales son dispositivos inspirados en la funcionalidad de las neuronas biológicas, aplicados al reconocimiento de patrones que las convierten aptas para modelar y efectuar predicciones en sistemas muy complejos.

- Es un conjunto de técnicas matemáticas para modelar las conexiones / relaciones entre un conjunto de datos.

- Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la IA simbólica o tradicional. La IA simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la "máquina" realice algunas operaciones básicas entre ellos.

- Una Red Neuronal: el Perceptrón unicapa

- Es un conjunto de neuronas no unidas entre sí, de manera que cada una de las entradas del sistema se conectan a cada neurona, produciendo cada una de ellas su salida individual.

- Existen tres métodos de aprendizaje para un Perceptrón:

Aprendizaje supervisado: se presentan al Perceptrón unas entradas con las correspondientes salidas que se quiere que sean aprendidas.

Aprendizaje no supervisado: solo se presentan al Perceptrón las entradas y, para esas entradas, la red debe dar una salida parecida.

Aprendizaje por refuerzo: se combinan los dos anteriores, y cada cierto tiempo se presenta a la red una valoración global de como lo está haciendo.

- Podría parecer que el Perceptrón tiene una potencia ilimitada para aprender, pero Minsky y Paper pusieron graves deficiencias del Perceptrón en su libro "Perceptrons". Según ellos el Perceptrón unicapa era incapaz de aprender las funciones que no fuesen linealmente separables.

- Las redes neuronales todavía se han de desarrollar mucho. Aún se debe estudiar para que sirven realmente, conocer en que tareas pueden resultar realmente útiles, ya que por ejemplo es difícil saber cuánto tiempo necesita una red para aprender cierta tarea, cuántas neuronas necesitamos como mínimo para realizar cierta tarea, etc...

- En la robótica, las redes neuronales también parecen prometer mucho, sobre todo en su sensorización.

ROBÓTICA

- Son unas máquinas controladas por ordenador y programada para moverse, manipular objetos y realzar trabajos a la vez que interacciona con su entorno. Los robots son capaces de realizar tareas repetitivas de forma más rápida, barata y precisa que los seres humanos.

- El diseño de un manipulador robótico se inspira en el brazo humano. Las pinzas están diseñadas para imitar la función y estructura de la mano humana. Muchos robots están equipados con pinzas especializadas para agarrar dispositivos concretos.

- Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. Una computadora calcula los ángulos de articulación necesarios para llevar la pinza a la posición deseada.

- En 1995 funcionaban unos 700.000 robots en el mundo. Más de 500.000 se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o desagradables para los humanos. En los laboratorios médicos, los robots manejan materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros casos, los robots se emplean en tareas repetitivas en las que el rendimiento de una persona podría disminuir con el tiempo. Los robots pueden realizar estas operaciones repetitivas de alta precisión durante 24 horas al día.

- Uno de los principales usuarios de robots es la industria del automóvil. La empresa General Motors utiliza aproximadamente 16.000 robots para trabajos como soldadura, pintura, carga de máquinas, transferencia de piezas y montaje. El montaje industrial exige una mayor precisión que la soldadura o la pintura y emplea sistemas de sensores de bajo costo y computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de aparatos electrónicos, para montar microchips.

- Se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y ciertos robots especializados de altísima precisión pueden ayudar en operaciones quirúrgicas delicadas en los ojos. La investigación en telecirugía emplea robots controlados de forma remota por cirujanos expertos; estos robots podrían algún día efectuar operaciones en campos de batalla distantes.

- Los robots crean productos manufacturados de mayor calidad y menor costo. Sin embargo, también pueden provocar la pérdida de empleos, especialmente en cadenas de montaje industriales.

- Las máquinas automatizadas ayudarán cada vez más a los humanos en la fabricación de nuevos productos, el mantenimiento de las infraestructuras y el cuidado de hogares y empresas. Los robots podrán fabricar nuevas autopistas, construir estructuras para edificios, limpiar corrientes subterráneas o cortar el césped.

- Puede que los cambios más espectaculares en los robots del futuro provengan de su capacidad de razonamiento cada vez mayor. El campo de la inteligencia artificial está pasando rápidamente de los laboratorios universitarios a la aplicación práctica en la industria, y se están desarrollando máquinas capaces de realizar tareas cognitivas como la planificación estratégica o el aprendizaje por experiencia. El diagnóstico de fallos en aviones o satélites, el mando en un campo de batalla o el control de grandes fábricas correrán cada vez más a cargo de ordenadores inteligentes.

OTROS TEMAS