Francisco Serradilla es poeta y doctor en Informática. Su línea principal de investigación se refiere al desarrollo de Softbots (Robots Software) y Agentes Inteligentes en Internet. Ha colaborado abundamentemente con Almacén como articulista. Computación creativa y otros sueños se publicará los 25 de cada mes.
En su famoso artículo de 1950 Turing definió lo que él denominó el “juego de la imitación”, conocido posteriormente como el “test de Turing” en honor a su creador.
El test de Turing se enunció como un experimento mental en el cual un entrevistador dialogaba a través de un terminal (en esa época no había videoconferencia) con un programa, por un lado, y con un humano, por otro. El entrevistador no sabía en cuál de los terminales se encontraba el humano, y su objetivo era averiguarlo. Tanto al humano como al programa se les permitía cualquier tipo de subterfugio con tal de persuadir al entrevistador de su naturaleza humana. Si el entrevistador se equivocaba en su elección, podríamos decir que el programa había pasado el test, lo que para Turing significaba que el programa podría considerarse inteligente, porque era indistinguible de un humano.
Desde los años sesenta del siglo pasado se viene pretendiendo construir un programa que pase el test en sentido literal, es decir, tal y como fue enunciado por Turing. Probablemente el primer programa de este tipo fue ELIZA, construido en 1966 por Joseph Weizenbaum. Era un programa enormemente simple que simulaba un terapeuta rogeriano. Weizenbaum descubrió con asombro que su secretaria se implicaba emocionalmente con el programa a pesar de saber que era un programa. La leyenda urbana dice que la secretaria creía hablar con un humano, pero parece ser que es falsa.
En la película Blade Runner se menciona un test, el test de Voight-Kampf, diseñado para distinguir a los replicantes de los humanos, ¿les suena? Efectivamente, se ve que Philip K. Dick (escritor del libro en el que está basada la película) había oído hablar del test de Turing. En la película, los replicantes no son capaces de engañar al entrevistador, pero se especula con la existencia de un nuevo tipo de replicante que sí podrá hacerlo.
Con el auge de la Web aparecieron programas denominados chatterbots, o “robots de diálogo”, con el propósito de participar en chats con humanos. Ha habido algunos chatterbots muy divertidos, como uno que simulaba el diablo e intentaba convencerte de que le vendieras tu alma, u otro que decía ser John Lennon y al que se le podía preguntar por todo tipo de detalles acerca de la vida del músico. Desde 1990 se viene convocando un premio de 3.000 dólares al mejor programa de este estilo, y un premio adicional de 25.000 dólares para el primero que supere el test de Turing ante un jurado, engañando a más del 30% de sus miembros. Este año el robot elbot ha quedado bastante cerca de conseguirlo.
La mayor parte de estos programas, incluido ELIZA, no pretenden comprender al usuario, sino simplemente elegir la respuesta correcta de una base de datos, y por tanto son relativamente poco “inteligentes” en el sentido profundo del término. No obstante, Google tampoco entiende en el sentido profundo las páginas que indexa, y sin embargo hace bastante bien su tarea. Incluso se especula con que google pueda utilizar esta información como modelo de conocimiento para crear Inteligencia Artificial. La pregunta es: ¿es realmente necesario entender lo que se hace para hacerlo mejor?
Resulta difícil definir cuándo algo es inteligente, así que el test de Turing es una metáfora. Lo que Turing pretendía con él era dar una definición empírica de inteligencia, indicando que, si una máquina es suficientemente buena en una tarea –tan buena como un humano– hasta el punto que su producción sea indistinguible de la del humano, esa máquina debe ser considerada inteligente, y que en última instancia en eso debería consistir la Inteligencia Artificial.
El los años de la guerra fría, jugar bien al ajedrez no sólo se consideraba signo de inteligencia de un individuo, sino símbolo de la excelencia de un país y, en última instancia, de un modelo de sociedad. No en vano las dos grandes potencias de la época luchaban en silencio por producir jugadores de ajedrez capaces de llegar a campeones mundiales. Actualmente la máquina “Deep Blue” ha demostrado que está al nivel de los grandes maestros mundiales, e incluso estará en breve en condiciones de ser campeona del mundo. ¿Pasa este programa el test de Turing? Probablemente.
En el ámbito de la música existe un programa comercial, llamado “Band in a Box”, capaz de componer piezas musicales en el estilo que se le indique, de manera completamente autónoma, es decir, no graba la música que interpreta un humano sino que crea sus propias composiciones, e ¡incluso les da un nombre!. Muchos músicos lo utilizan como herramienta para estudiar. ¿Pasa este programa el test de Turing? Probablemente.
¿Y puede una máquina ir más allá? Es decir, ¿puede haber una inteligencia “de verdad”, sea lo que fuere eso, imbuida dentro de una máquina? Hay quien defiende que sí y hay quien defiende que no.
Pero de eso hablaremos en otro artículo.
________________________
Repositorio de chatterbots:
http://www.simonlaven.com/.
2008-10-25 13:05
Como siempre, Francisco, un muy sugerente artículo,
Siento no poder extenderme mucho aquí. Estoy muy interesado en una máquina de hacer arte, no solo conceptualmente. Ya señalas un músico electro-mecanico. Pero tambien es posible crear un conjunto que integre computadoras y dispositivos mecánicos que fabriquen obras de arte (tanto pinturas como esculturas). Guardo una serie de mensajes y discusiones en Usenet que son el borrador de un proyecto que algún día quisiera poner en limpio: Scherezada Lovelace: Maquina ‘primitiva’ de hacer arte
2008-10-28 11:57
Paco, qué bien que escribas de esto.
Unas cuantas cositas: según lo que he leído, entonces, entiendo que Turing realmente consideraba que el resultado era lo que definía la inteligencia artificial, no el cómo: no la comprensión, sino el logro de la realización. Y, también entiendo, entonces, que son bases de datos cada vez más capaces de elegir las respuestas adecuadas (sin comprender absolutamente nada): ¿las combinan entre sí, supongo?, quiero decir, no son respuestas de las que cojan una, sino varias y las combinen hasta formar la que dan, ¿o no? Aprenden por ensayo y error, ¿sí?: esta no vale, no la escojo más, al archivo de los “eliminados”; esta vale, al archivo de los de “pregunta con forma x, tema y”, por ejemplo.
La estrategia del ajedrez, se me hace mucho más fácil entender que la procese un robot, aunque en el ajedrez haya creación y jugadas maestras, que el que un robot pueda contestar a un chiste con una buena respuesta o a una pregunta con una respuesta sarcástica. Quizá simplemente sea difícil quitarle la cara humana a esa conversación y ser capaz de trasladarlo todo a ceros y unos.
Un beso.
2009-01-19 00:58
¿Qué es entender algo “profundamente”? ¿Consiste en ser capaz de establecer relaciones entre conceptos, formando grupos, y poder cargarlas en memoria una vez se sugiere un elemento de un determinado grupo? Quizá la “inteligencia general” no sea más que una suma de todas esas habilidades, de todos esos algoritmos para producir música, para ser un digno poponente en el ajedrez… es decir, ¿cómo definimos algo inteligente? me parece muy curiosa la definición de “algo que se desenvuelva como el cerebro humano en una cantidad considerable de tareas”. En principio nacemos sin saber nada de ninguna de las ciencias que se han desarrollado a lo largo de la historia, y de alguna forma, se nos educa, se nos meten esos algoritmos para abordar diferentes problemas desde pequeños. Partimos con ciertas capacidades y medios, pero aún así se nos tiene que enseñar. Las máquinas que creamos parten con <em>nada</em>. Hay que planificar hasta el más mínimo detalle en su construcción, y eso nos lleva a la posblidad de que creamos que no son inteligentes. Pero es que no surgen de un proceso de evolución equiparable al que han sufrido los demás sistemas inteligentes sobre el planeta : todos los seres vivos parecen traer de serie un sistema que los hace capaces de abordar problemas más o menos complejos o de realizar procesos básicos para la vida, de forma “natural” e “incosciente”. Los niños quizá no nazcan con la pieza de software que permite resolver ecuaciones, pero sí con la pieza de software que les permite aprender, incorporar otras piezas de software.
No sé mucho del tema pero me parece fascinante.
2009-01-19 01:10
Releyendo todo, me surge la duda si sería preciso definir, antes de meterse en harina, qué es comprender, y que es la inteligencia. ¿Es que pretendemos averiguarlo a mitad de camino, viendo qué definición se ajusta más a nuestros razonamientos? Es curioso lo difícil que resulta definir la palabra “comprender”. Más que nada porque no parece que la idea de que la comprensión se base en extensas bases de datos, el número de vínculos establecidos en base a una infinidad de categorizaciones de los mismos, y en la capacidad de búsqueda, agrade demasiado. Como nosotros parece que funcionamos más bien de forma “gráfica”, creando imágenes mentales de los conceptos, podría hacérsenos difícil aceptar que un sistema inteligente no tiene po qué funcionar así. Bajo esta premisa, Google es inteligente. No al estilo humano, pero lo es. De hecho, aprende, reordenando su índice según dicta un Pagerank (creado por seres humanos, eso sí). Porque ha sido programado para ello. Quizá la inteligencia y la comprensión radiquen en la capacidad para obtener información de montañas de datos, estructurarlos y tener capacidad de recuperarlos y hacer algo útil con ellos, como responder a los estímulos del medio; haciendo uso de ciertos algoritmos que han surgido tras un lento proceso de selección natural, ya sea en las praderas de África o en un laboratorio.
2009-01-19 13:08
Interesantes reflexiones, Sergio, estoy totalmente de acuerdo en que la definición de inteligencia es esquiva y además evoluciona con el tiempo para excluir a lo “no humano”.
Sobre el comentario de que google es inteligente también estoy de acuerdo; y con el tiempo lo será más, a medida que encontremos nuevos algoritmos para explotar el conocimiento almacenado en sus índices.
2009-02-03 17:33
“Fíjese”,dijo Holmes:“el cerebro del hombre es originariamente como un desván vacío.¿Qué meter en él?. El tonto lo llena con cuanto trasto se le cruza,restando así lugar a cosas esenciales y verdaderamente útiles…”
¿Puede hacer eso un programa, cualesquiera sea o aún su autor aunque no sea tonto?