El programa de software avanzado A.B.E.R.R.O.N, desarrollado por la NASA a finales de 2003 y oculto bajo el pseudónimo de Antonio Martínez Ron (Fogonazos), rastrea sistemáticamente la red en busca de pequeños resquicios de irrealidad y vulnerabilidades del sistema. Con la Guía para Perplejos, los científicos pretenden ir más allá: estudiar el lado más oscuro del programa y enfrentarle a las paradojas de la creación literaria. Cada día 23, en LdN.
El profesor Darío Floreano lleva diez años trabajando con robots en su laboratorio de la Escuela Politécnica Federal de Lausana, en Suiza. Su especialidad es la denominada robótica evolutiva, una disciplina que consiste en recrear la evolución de los seres vivos en sistemas de inteligencia artificial y en la que ha conseguido avances significativos.
Mediante un sistema de complejos algoritmos, el profesor y su equipo diseñan pequeños robots a los que someten a acciones semejantes a las que actúan en la evolución y cuyas respuestas determinan qué individuos sobreviven y cuáles se quedan por el camino. La supervivencia de estos robots viene determinada por la presencia de una serie de genes, o elementos de software, que condicionan en qué medida perciben el entorno y responden a él.
Gracias a estos trabajos, el laboratorio de Floreano ha generado comunidades de pequeños robots que no sólo son capaces de interactuar para su supervivencia sino que han desarrollado la capacidad de comunicarse entre sí.
La comunicación entre estos robots se produce mediante un sencillo sistema de luces, detectadas por sus sensores luminosos. Los pequeños autómatas disponen de luces y ruedas y tienen libertad para aproximarse a una serie de plataformas que contienen comida o veneno y que alimentan o descargan sus baterías, respectivamente.
Ejemplo de comunicación cooperativa entre robots
Al cabo de unas 50 generaciones, la mayoría de los grupos de robots comienzan a informarse unos a otros mediante luces sobre dónde se encuentra la comida y dónde el veneno. Por norma general, algunas comunidades tienden a indicar la presencia de comida mediante la luz azul mientras que otras optan por anunciar la presencia de veneno con luces rojas.
Llegados a este punto, y para sorpresa de los científicos, los individuos de algunos grupos comienzan a desarrollar conductas mentirosas más propias de los seres humanos que de los robots. En concreto, algunos autómatas aprenden a encender las luces para señalizar a los otros el veneno como comida y luego se deslizan discretamente hasta la fuente de energía más próxima para recargar sus baterías sin avisar a sus compañeros.
Al mismo tiempo, tal y como explicaba recientemente la revista Discover, también aparecen robots que adoptan el papel de héroes: señalan el peligro y mueren sólo para salvar al resto de individuos del grupo.
Aunque el propio Floreano manifiesta que nunca habría esperado ver este tipo de conducta en robots, los resultados son demasiado aislados como para sacar conclusiones precipitadas. Lo que parece claro es que su trabajo nos pone en la pista sobre cómo surgió la comunicación entre las primeras criaturas vivas.
Referencias: Robots evolve and learn how to lie (Discover), Robot swarms ‘evolve’ effective communication (New Scientist), Evolutionary Conditions for the Emergence of Communication in Robots (Current Biology)
2008-08-24 15:20
Sorprendente, e inquietante. Lo primero que se me ocurre es que, o bien el programador es incapaz de NO transmitir al robot su propia idiosincrasia, o bien que la mentira (en este caso supongo que directamente relacionada con el afán de supervivencia) es intrínseca a cualquier forma de inteligencia. Si tiene que ver con el afán de supervivencia no quiero ni pensar en futuros androides con su capacidad intelectiva multiplicada por millones con respecto a estas “chapas”.
Saludos
2008-08-24 16:09
“...los resultados son demasiado aislados como para sacar conclusiones precipitadas”.
Creo que ahí está la clave de todo. Este artículo me suena sensacionalista. En cuanto al vídeo, no parece indicar que los robots se avisen entre sí, sino que cambian el color de la luz al entrar en carga, o sea, lo que vemos todos los días en los leds de muchos aparatos domésticos cuando los ponemos en carga. Si los robots están diseñados para identificar el color azul y seguirlo la cosa no tiene ningún misterio.
Por otra parte, si es verdad que se han detectado esa clase de reacciones como mentir o ser un héroe, resulta extraño que el único vídeo disponible sea tan poco significativo y no muestre nada de eso, ¿no?
Quizá haya otros vídeos más reveladores, pero imagino que si los hubiera Aberron los habría enlazado.
En resumen: no me creo nada de esto.
2008-08-24 23:55
Aparte de creer o dejar de creer en el tema, si es cierto que lo que hacen es usar “software” a modo de genoma, no es tan extraño encontrar segun que conductas. Al fin y al cabo, en la evolucion, hay cientos de pruebas y patrones, y poca deferencia hay entre nuestras funciones cerebrales y sencillos algoritmos, ¿no?
2008-08-25 16:16
No es el primer experimento de este tipo y en general las conclusiones suelen ser parecidas.
En las inteligencias basadas en algoritmos genénitos aplicadas a este tipo de ensayos se acaban desarrollando comportamientos parecidos a los animales. Esto es bastante lógico ya que los algoritmos genéticos se basan en la aleatoriedad de mutaciones y en la supervivencia y cruce de los “genes” más aptos de forma similar a los seres vivos. Si a esto le sumas que las generaciones no tardan ni días, ni meses, ni años en reproducirse, sino unos poco milisegundos (en caso genomas pequeños, algoritmos sencillos y pruebas de aptitud rápidamente mesurables) pues son “inteligencias” que evolucionan muy rápido.
No es ciencia oscura ni magia, pero tampoco inteligencia, no hay un razonamiento detrás de su comportamiento son automatas que van mejorando la efectividad de sus reglas de decisión con el paso del tiempo.
2008-08-25 16:44
Gede, dices: “No es ciencia oscura ni magia, pero tampoco inteligencia, no hay un razonamiento detrás de su comportamiento son automatas que van mejorando la efectividad de sus reglas de decisión con el paso del tiempo.”
No creo que sea muy diferente cómo se han desarrollado los animales, incluido el hombre, la mayor parte de nuestros comportamientos tampoco están guiados por un razonamiento, sería imposible vivir si así fuera, y muchas veces el razonamiento no es más que una justificación de un comportamiento, no su causa.
2008-08-25 17:50
-“muchas veces el razonamiento no es más que una justificación de un comportamiento, no su causa.”
Razón no te falta
2008-08-25 20:23
Estoy de acuerdo con lo que dices, a lo que me refiero es que yo siento: tengo hambre. Automáticamente -> tengo que comer, ahora bien pienso: no me apetece cocinar -> burger.
Muchos de nuestros comportamientos, los que son más animales y que son registrados por nuestra parte del cerebro más antigua si que son automáticos: me pegas -> te pego. Pero afortunadamente somos mucho más que eso y para la mayor parte de nuestra reacciones tenemos un control racional y una memoria que nos hace valorar y medir. No somos autómatas, estos robots si.
2008-08-25 23:30
“Por otra parte, si es verdad que se han detectado esa clase de reacciones como mentir o ser un héroe, resulta extraño que el único vídeo disponible sea tan poco significativo y no muestre nada de eso, ¿no?
Quizá haya otros vídeos más reveladores, pero imagino que si los hubiera Aberron los habría enlazado.”
Por lo que leí, el comportamiento interesante se encontró luego de miles de generaciones en un ambiente simulado. Luego se trasladó a robots reales. Es lógico pensar que en el video hayan mostrado los robots reales en vez de la simulación porque éstos son siempre más interesantes que un montón de puntos en la pantalla.
Por otro lado, no me parece imposible que se logre este tipo de comportamientos complejos e inesperados a partir de reglas simples. Una de las demostraciones más interesantes de “comportamiento emergente” es el famoso juego de la vida (http://es.wikipedia.org/wiki/Juego_de_la_vida).
2008-08-27 14:37
Este artículo es sensacionalista, no es posible directamente. Para mentir tienes que tener conciencia de ti mismo, no creo que ese robot programado linealmente la tenga, tiene instrucciones y opciones, si no programas la de la mentira…. de donde la saca? son unos y ceros. Estamos muy lejos aún de la inteligencia artificial.
2008-08-27 16:09
Mario, depende a qué llames mentir. Pero míralo así: para saber que mientes tienes que tener conciencia de que lo haces, pero para mentir de manera que des información falsa a otro robot, tal y como parece que hacen, no.
2008-08-30 21:06
Gede ha dicho:
“Muchos de nuestros comportamientos, los que son más animales y que son registrados por nuestra parte del cerebro más antigua si que son automáticos: me pegas -> te pego. Pero afortunadamente somos mucho más que eso y para la mayor parte de nuestra reacciones tenemos un control racional y una memoria que nos hace valorar y medir. No somos autómatas, estos robots si.”
Desde mi humilde punto de vista me parece que puede ser simplemente un algoritmo mucho mas complejo, pero un algoritmo de todas formas.
Cuando dices que nuestros comportamientos mas animales sí que son mucho mas sencillos y que hoy en dia no, estamos hablando de aprendizaje, cultura, etc. podríamos compararlo (en menor medida) a la “experiencia” que puedan ganar estas “chapas” a lo largo de su existencia.
No se si el articulo es sensacionalista o no, pero de no serlo me parece un avance impresionante…
PD: felicidades por el blog! es apasionante.
2008-09-01 12:43
Yo no estoy de acuerdo en que seamos 100% racionales, es decir, no en el modo de que todas nuestras acciones son meditadas y concienzudamente tomadas.
Por ejemplo, el simple hecho de andar y querer ir a un lugar no implica que ande de manera consciente, lo unico que quiero es andar, y una parte interna de mi cerebro compuesta por cientos de miles de controladores se encarga de poner en sincronica todos los sistemas que son necesarios para poder dar un simple paso (huesos, musculos, articulaciones, vision, obstaculos, equilibrio, etc) y todo ello actua de manera inconsciente (al menos yo no se controlar todo eso por mi mismo, yo solo se andar, una tarea de alto nivel)
Bajo mi punto de vista el cerebro es un sistema compuesto por millones de pequeñas porciones de codigo que se encargan de realizar tareas muy concretas y pequeñas cada una de ellas, y se van agrupando (incluso reutilizando en varios casos) para hacer bloques de tareas superiores (a veces de manera totalmente aleatoria) y estos bloques se vuelven a agrupar, así una y otra vez, hasta que finalmente tenemos aquellas procesos principales que conocemos, como andar, pensar, ver, tocar, coger, etc…
De hecho, si un solo ser vivo tuviese que ser consciente de todo lo que se ejecuta y como lo ejecuta en su propio cerebro, es muy probable que muriesemos por incapacidad absoluta de controlar todo. Por ello, el sistema mas factible que parece utilizar el cerebro es el de estimulos y reacciones en agentes organizados en agencias en las neuronas.
Un libro muy interesante sobre este tema es The Society of Mind, de Marvin Minsky, fundador del instituto de inteligencia artificial del MIT y libro de texto obligatorio en esa asignatura.
El modo en que han generado el software de estos automatas (no os equivoqueis, somos automatas, por mucho que pensemos que tenemos conciencia de nosotros mismos) es basicamente un subsistema de agentes que se interralacionan entre si y que aprenden a funcionar como creen lo hace el cerebro.
Eso sí, espero que no aprendan a programar para crear nuevos agentes :)
2008-09-03 07:54
A mi me parece muy interesante lo de los robots, y si este avanze es cierto y no sensacionalista, excelente.
Lo que si me preocupa, es que algunas personas piensen que los procesos que se realizan en nuestro cerebro sean así de sencillos… pues yo no lo creo, yo creo que los procesos realizados en nuestro cerebro son mucho más complejos que los procesor que ejecute un robot mediante el software.
¿Si estos robots representan “la forma en que surgió la comunicación entre las primeras criaturas vivas”, a quién representa el Dario Floriano?. ¿ a la sabia naturaleza, al tiempo, o a… ? Saquen sus conclusiones.
2008-09-05 22:00
al fin y al cabo, hemos de admitir que nuestro cerebro es un autómata, puesto que ante un estímulo en su nivel mas bajo como puede ser un impulso nervioso, una neurona está programada para responder con otro impulso, el cual puede mandar o no mandar ( de ahí vienen los famosos unos y ceros ).
Es el conjunto de respuestas y de impulsos nerviosos el que poco a poco decide a donde van los impulsos, y al fin y al cabo, al caminar siempre movemos el mismo músculo y empujamos el hueso hacia la misma dirección, sin importar en que estemos pensando, en nuestro estado de ánimo…
A mi me parece que lo que nos suele pasar es que apartamos la idea de ser autómatas puesto que ésta nos puede quitar cierta personalidad. Sin embargo ésta es forjada ( según mi punto de vista poco experimentado ) como la memoria y los datos que el cerebro recoje y que debido a experiencias anteriores, y analizando sus resultados, decide si la reacción a un estímolo ha de ejecutarse de igua forma que antes o debería actuar de forma diferente.
En verdad me he liado un poco, pero estudiándolo detenidamente se puede ver que en realidad hay una seudolibertad de elección.