El Curioso experimento de Inteligencia Artificial de Facebook

Muy buenas,

Por motivos de trabajo, por un lado, y porque hay temas que me fascinan, desde hace un tiempo estoy leyendo y buscando un montón de información acerca de una serie de tópicos que, ya en la actualidad, están empezando a tomar relevancia en nuestras vidas.

Hablo, de ahí el título del post, sobre aprendizaje de máquinas e inteligencia artificial, algo de lo que hablé hace unos meses en el blog y que, por muy técnico que pueda parecer, cualquier persona, con un mínimo de curiosidad, puede entender y albergar, como poco, una opinión al respecto.

El caso es que, curiosamente, cuando escribí ese post, algo estaba sucediendo en Facebook que, de haberlo sabido, me habría hecho buscar información casi de forma tan feroz como lo he hecho en estos días.

El asunto

En Julio de este año, la revista digital Fast Company publicó un interesante artículo (accesible haciendo click aquí) sobre unos ingenieros de FAIR (Facebook Artificial Intelligence Research: la división de investigación de inteligencia artificial de Facebook) que publicaron un trabajo (el famoso "paper", que se dice en inglés) acerca de su experiencia y los procedimientos para entrenar y enseñar estrategias de negociación a un sistema de inteligencia artificial.

El anuncio, con link al trabajo y al código del proyecto está disponible haciendo click aquí.

Hasta aquí, nada nuevo: cientos de compañías están trabajando en temas parecidos para todo tipo de propósitos...

Lo diferente de este experimento no es su propósito (enseñar a un sistema a negociar) sino lo que sucedió a raíz del mismo.

¿Cómo lo hicieron?

Como digo, todo parte de enseñar a la máquina a negociar cosas: el experimento era relativamente sencillo (se ponen objetos con ciertos valores, se le dan a la máquina ciertos valores que priorizan ciertos objetos sobre otros y la máquina intenta maximizar una transacción o un reparto de los mismos).

La máquina utilizaba lenguaje natural (inglés, en este caso) y, en los primeros experimentos, a través de una ventana de texto, se utilizó a personas para hacer la simulación (la máquina hablaba, a través de texto, en inglés, con personas que iban escribiendo respuestas, intentando sacar más beneficio que la máquina y, ésta a su vez, intentando hacer lo mismo).

Trabajar con personas es lento y caro: tienes que teclear las respuestas, pensar las cosas y demás, lo cual lleva tiempo... Además, las personas no somos buenas en matemáticas y, como la máquina aprende siempre y no olvida jamás, eventualmente se vuelve cada vez mejor en el asunto (hasta aquí, nada nuevo bajo el sol).

Alguien, entonces, tuvo una idea genial: en lugar de utilizar a personas, hagamos una copia del programa y pongamos a ambas instancias frente a frente, para ver qué hacen...

¿Cuál es la ventaja? Es más rápido, es mucho más barato y, además, la máquina puede aprender y hacerse cada vez mejor, una vez que todo el conocimiento, que no dejan de ser registros en un sistema, puede ser compartido con el otro (factorizas la curva de aprendizaje, en definitiva).

Así que, como suena a idea genial, decidieron hacerlo y dejaron a las máquinas hablarse, a ver qué pasaba...

¿Y qué pasó?

Una de las cosas que los ingenieros de Facebook no contemplaron fue que, en ningún momento, al programa se le incentivó el uso correcto del inglés (recordemos: la máquina hablaba inglés con las personas y parte del experimento es también que esta parte sea bien utilizada: la máquina debía expresarse correctamente en el idioma de Shakepeare para que las personas pudieran entenderla y negociar correctamente).

¿Por qué esto es importante? Porque en cuanto pusieron a los dos programas, frente a frente, según fueron avanzando en su propósito (negociar el reparto de una serie de objetos), las máquinas empezaron a desarrollar su propio lenguaje, momento en el cual los ingenieros dejaron de entenderlas.

¿Y?

Esta es la parte que debería preocuparte: dos sistemas que, afortunadamente, estaban completamente aislados y que sólo fueron diseñados para hacer un propósito muy concreto, (nivel de inteligencia artificial 1) empezaron a desarrollar un lenguaje propio para optimizar su estrategia y su comunicación, todo ello sin haber sido, en ningún momento, el propósito del experimento y, sobre todo, que el principal motivo del mismo era observar cómo las máquinas lidiaban con su misión y si, de pronto, las máquinas crean su propio lenguaje, dejas de entender qué está pasando, ocasión en la que ya puedes apagar el invento o parar y corregirlo, porque has perdido todo el control.

La Prensa y Los Rumores

Cuando esto pasó, se desataron todas las alarmas en cientos de publicaciones: se llegó incluso a rumorear que se decidió, dentro de Facebook, parar el invento, porque les dio miedo lo que estaba pasando.

Nada como pasar por Snopes.com (una página web que se dedica a confirmar o a desbancar leyendas urbanas o cosas que circulan por la red), buscar la historia y entender un poquito más el asunto (podéis acceder al artículo haciendo click aquí).

En esta página se explica toda la historia y se contextualiza un poco toda la movida: la realidad es que, efectivamente, en el experimento, las máquinas empezaron a desarrollar su propio lenguaje para negociar la una contra la otra, pero que el experimento no se ha apagado y que, actualmente, trabajan para incentivar en su lógica el correcto uso del lenguaje natural.

Es decir: a Terminator y a Skynet no se les espera de momento...

De momento...

¿Por qué esto es importante?

Esta historia es importante, no ya sólo por el experimento en sí (crear sistemas que pueden negociar con un humano y ganarle sistemáticamente, porque repito, la máquina no olvida jamás y, cada vez que pierde, aprende el porqué para evitarlo la próxima vez), sino porque en el diseño del experimento, una vez que empezó, se descubrió que a nadie se le ocurrió que el programa tuviera en cuenta el correcto uso del lenguaje natural.

Es decir: en un experimento pequeño de Inteligencia Artificial Estrecha, no deja de ser pintoresco descubrir que las máquinas, al hablar entre sí, empiecen a crear expresiones idiomáticas ininteligibles para nosotros...

Pero la tecnología no deja de avanzar y evolucionar: en un par de décadas, quizás, llegaremos al siguiente paradigma, que es la creación de Inteligencia Artificial Genérica (Nivel 2), donde la máquina ya no sólo es capaz de trabajar en un problema concreto, sino que es capaz de afrontar cualquier problema que le pongas y ser capaz de aprenderlo y resolverlo sin ayuda de ningún tipo.

Y aquí es donde entra el verdadero dilema: un fallo como el del experimento de Facebook en el código de ese programa y ahí sí que podremos tener un problema, porque tendrás delante de ti algo que es capaz de resolver un montón de cosas por sí mismo, de forma más rápida y más eficiente que cualquier ser humano (o grupo de).

Y ese es un primer escenario que te puede preocupar: ahora imagina el caso de que esa misma máquina dé con otro sistema similar al suyo y que, para comunicarse entre sí,  dedican crear su propio lenguaje, momento en el que podrás perder el control sobre qué diablos están hablando y para qué.

En ese momento, tu y yo estaremos fuera del circuito y, como repito, si esas máquinas no tienen contemplado ningún mecanismo que les evite hacer según qué cosas, a lo mejor son capaces de encontrar la fórmula para auto-defenderse, si por algún casual son capaces de llegar a entender que están a un cable de distancia de ser apagadas...

Esta es la última parte del invento, la que de verdad es tan fascinante como aterradora: el día en el que la máquina sea capaz de ser auto-consciente de lo que es (Inteligencia de Nivel 3)...

Tiempos interesantes se avecinan y, según parece, viviremos para verlo (esto sí que va a ser algo para alucinar de verdad).

Eso eso todo: seguiremos informando.


Paquito
Emilio: sugerenciasapaquito (arroba) yahoo (punto) es
Twitter: @paquito4ever

Comentarios

  1. Buenos días,

    Ya leí algo parecido hace poco, pero la verdad, hasta donde yo pude entender, lo que las máquinas habían hecho era deformar el lenguaje, no se si me explico.

    El lenguaje humano, sea en el idioma que sea es algo siempre abstracto aunque tenga su estructura lógica fundamental, no es como las matemáticas, que ese si que es un lenguaje universal cuyas leyes y principios de funcionamiento son inmutables e inalterables en cualquier lugar del universo.

    Las máquinas aunque hayan "Hablado" en inglés (Como podían hacerlo en euskera, frisón o bengalí), "Piensan" de manera matemática, y a partir de ahí es donde a mi lego entender, surgen los problemas en cuanto a intentar estructurar algo abstracto partiendo de un núcleo de tipo lógico, como es el corazón de una máquina de este tipo.

    Yo estoy convencido de que si reseteas a esas dos máquinas a cero, y las haces recomenzar todo el proceso antes andado, les pasaría exactamente igual, sólo que el resultado sería seguramente distinto, esto es, se inventarían otro lenguaje.

    Y como colofón una cita de Picasso... "Las computadoras no serán nunca inteligentes, sólo saben dar respuestas"

    Antxon.

    ResponderEliminar
    Respuestas
    1. Buenas:

      Gracias por la visita y el comentario: como siempre, todo un honor :-))

      He visto fragmentos de la conversación entre los robots: efectivamente, empezaron a deformar el lenguaje, hasta un punto en el que, simplemente, uno no sabe qué es lo que está pasando (el motivo por el que decidieron parar el experimento y refinar los parámetros de uso del lenguaje).

      Leyendo dichos fragmentos, en mi corto entender, lo que creo es que las máquinas estaban intentando confundir al oponente: es como jugar con frases con dobles negativos y cosas así.

      Otra cosa curiosa del experimento es que, según iba avanzando, las máquinas empezaron a desarrollar estrategias de negociación casi ajedrecistas, esto es: aceptaban al principio un sacrificio en uno de los elementos para, más tarde, volverlo a traer a la mesa de negociación (ya digo que el experimento es la mar de interesante).

      Existen otros experimentos curiosos (si alguien ve mi historial de búsquedas, se va a pensar que me he vuelto loco): en otra experiencia, conducida esta vez por Google, a la máquina le dio por filosofar y empezó a hacer preguntas y dar respuestas que, más allá de hacerte pensar, te podían dejar complejo (la máquina se auto-consideró parte de la raza humana y, como tal, decía que su objetivo era buscar la vida eterna).

      Por el momento, sólo son juguetitos, pero los juguetitos se basan en la información que se les provee y los parámetros de programación para llegar a conclusiones.

      Mi ejemplo (y aquí paro) es si uno coge y le mete "El príncipe" de Maquiavelo a una máquina para computar estrategias de comportamiento: la máquina utilizará el training data que se le ofrece para empezar a desarrollar planteamientos que, según evolucione en su exposición a datos reales, podrá refinar o, por el contrario, armar hasta los dientes.

      La parte que me alivia es que, en el caso del experimento de Facebook, las máquinas desarrollaron por sí mismas la teoría del Equilibrio de Nash, esto es: cuando los agentes cooperan, se maximiza el beneficio para todas las partes.

      Quizás esa sea una gran lección en esta historia: las máquinas, inicialmente contrapuestas para hacerle la púa entre sí, llegaron a la conclusión, después de miles y miles de intentos de negociación, que lo mejor era llevarse bien y llegar a acuerdos.

      Un abrazo y, de nuevo, mil gracias por la visita y por el comentario :-)

      Eliminar
  2. Muy buenas,

    El General Problem Solver (GPS) de Newell y Simon data de 1957. La esencia del asunto es: Cualquier Problema que se pueda plantear, en sus términos, se puede resolver.
    La cuestión interesante es, en relación al bombo y bombo y bombo de Facebook y su investigación en IA: cómo reducir cuestiones hipercomplejas del mundo real, así la negociación, por ejemplo, a los parámetros, muy exigentes, del GPS.

    Inicialmente el GPS sólo fue capaz de resolver problemas más simples, e.g. las torres de Hanoi. Ir proponiéndole problemas de complejidad o de dificultad creciente (no confundir ambos términos) se volvía una tarea cada vez más costosa pues ponía la carga no en los intentos de solución sino en los de planteamiento de los problemas.

    Si se acepta la idea de que hay un "Espacio del Problema" y un "Espacio de la Solución" esto quizá se vea más claro. Es muy humano forjar expectativas sobre este último sin haber explorado suficientemente el primero. ¿Quién no ha oído, y en boca de directivos, además, la frase "No me habléis de problemas, yo quiero soluciones"?

    Lo costoso es plantear bien los problemas y explorarlos, además de prever las conexiones con otros problemas en el ámbito de un proyecto.

    Las pérdidas de control derivan de la falta de definición y de responsabilidad en los altos niveles de decisión de las compañías, que premian los fracasos de sus directivos y despiden a los trabajadores involucrados, cuando debería ser exactamente al revés.

    Seguiré opinando.

    Hasta luego,

    Pedro Miguel Lucía


    ResponderEliminar
    Respuestas
    1. Muy buenas:

      Gracias por pasarte por aquí: todo un honor :-))

      Efectivamente, los modelos teóricos no son nuevos: lo que es nuevo es la aproximación (recomiendo ver algunas charlas de un ex investigador de Microsoft, ahora en Google, llamado Blaise Aguera y Arcas) donde los descubrimientos de un brillante español, premio Nobel, sobre la estructura neuronal, se utiliza como el modelo actual para desarrollar aprendizaje profundo aplicado a la inteligencia artificial.

      Lo más interesante son los últimos experimentos, donde a la máquina no se le da ningún parámetro y se observa si es capaz de entender lo que debe hacer y cómo.

      Existe un experimento de Google, donde crean una simulación de un dummy al que, sin decirle nada, aprende a andar, correr, saltar o evitar obstáculos...

      La parte más interesante (muy interesante) es cómo la máquina consigue hacerlo y, observando la forma de andar y correr, uno se pregunta si la máquina ha encontrado nuevas formas de hacerlo, más eficientes de lo que nosotros hacemos actualmente.

      En otro experimento, en este caso con un propósito concreto (el desarrollo del chasis de un coche), la máquina llegó finalmente a un diseño que se parecía sospechosamente a la clavícula de un ser humano.

      Esto se está utilizando ahora para partes de aviones en Airbus, donde las máquinas llegan a diseños "extraños", pero que no pierden ni un ápice de los requerimientos que las partes poseen para funcionar correctamente, con la mitad de peso.

      La clave también está en la capacidad de cómputo: hace 40 años, un experimento de estos requería capacidades nunca imaginadas que, 40 años más tarde, están al alcance de casi cualquiera (puedes correr experimentos pequeños en un ordenador casero y, si eres una empresa, con unos cuantos miles de euros, puedes comprar tiempo de cómputo en cualquier proveedor en Internet de dicho servicio).

      Lo interesante de esta historia (se lo decía a Antxon, la persona que comentó anteriormente) es observar cómo las máquinas decidieron jugar con el lenguaje, además de, una vez corregido el tema de su correcto uso, en términos de legibilidad, como poco a poco las máquinas empezaron a entender que la cooperación es la mejor fórmula en un proceso con objetivos discrepantes (es muy costoso hacerse la púa para ganar una negociación).

      Lo único que recomendaría a esta gente es que contraten a unos cuantos filósofos: están jugando a frotar la lámpara y no saben qué tipo de genio puede salir...

      Esa es la parte que a mí me preocupa...

      Un abrazo y, de nuevo, mil gracias por la visita y el comentario :-)

      Eliminar
  3. Muy interesante....pero a mí, que soy una cobarde, casi que me da miedito eh

    ResponderEliminar
    Respuestas
    1. Buenas:

      Existe toda una corriente de gente que está trabajando y dándole pensadas al asunto (hay un montón de cosas que se deberían poner en la mesa antes de llegar al siguiente estadio).

      Inteligencia Artificial Estrecha es lo que se está haciendo ahora y, entre esa y el siguiente nivel (Inteligencia Artificial General) hay un enorme salto en términos de esfuerzo y capacidad.

      Pero entre la Inteligencia Artificial General y el último nivel, "Superinteligencia Artificial", hay apenas un paso (y, cuando se dé ese paso, ahí sí que podemos tener un problema).

      Por lo demás: recuerda que, ya a día de hoy, estás trabajando y usando un montón de servicios que utilizan, de una forma o de otra, algún tipo de mecanismo de inteligencia artificial estrecha.

      Por lo menos, está bien saberlo :-))

      No tengamos miedo... Todavía...

      Un abrazo y mil gracias por la visita y el comentario.

      Eliminar
  4. Todo esto empieza a dar bastante miedo.

    ResponderEliminar
    Respuestas
    1. Buenas:

      No hay que tener miedo... Todavía: en el experimento, una vez que corrigieron el tema de la gramática, descubrieron dos cosas muy interesantes:

      1. En un momento determinado, las máquinas aprendieron a sacrificar cosas que, más tarde, volvían a meter en la negociación (un "gambit", que dicen los ingleses, del tamaño de mis posts :-)).

      2. Según continuaron, las máquinas descubrieron que, en lugar de intentarse hacer la púa, les resultaba más conveniente cooperar.

      No sabemos cómo acabará la historia, pero sí sabemos que ya hay gente dando la voz de alarma sobre escenarios negativos (crear algo que sea más inteligente que toda la humanidad junta puede ser una oportunidad acojonante para mil y una cosas, al igual que se puede convertir en una amenaza de algo que no podremos controlar y que, quizás, puede decidir en un determinado momento que, más que una ayuda, somos un estorbo o, peor, que como especie, somos contraproducentes para el bien común del planeta).

      Habrá que seguir hablando de esto, pero no hay que tener miedo... De momento :-)

      Un abrazo y, como al resto, un placer y un honor el recibir tu visita y tu comentario.

      Eliminar
  5. Buenos días,
    pasar de un estado de miedo irracional a otro de inteligente e informada prudencia es cierto que no va a ser fácil.
    Pasar de escenarios de inteligencia artificial dispersa, que encontramos por todos los sitios, a otro de IA agrupada en proyectos unificados es en el esfuerzo en el que están quienes pueden permitirse pagar sus beneficios, i.e. los que les reportarían a los que los financien.
    Eso es lo que da miedo.
    Quienes puedan juntar el capital necesario para eso da miedo. Dirigirán la evolución de las máquinas hacia eso, como han ido dirigiendo los beneficios de otras tecnologías nuevas hacia la guerra y no hacia la paz. Por paralelismo pensemos en la revolución biológica.
    Descreo de la narrativa de tipo ciencia ficción que enfoca la cuestión hacia una autoevolución de las máquinas hacia no sabemos dónde.
    Me resulta más probable y posible la evolución de la IA dirigida por humanos en su propio beneficio. Es inmediata y ya lo están haciendo, disimulándola con las bondades de la tecnología.
    ¿Harán a las máquinas de IA preguntas tales como cuántos humanos sobramos(excepto ellos, claro)?
    Eso es lo que creo más inquietante.
    Por todo lo anterior expuse sobre esta cuestión una llamada sobre el General Problem Solver.
    Yo deduzco de él que la evolución natural es un proceso ciego y poco eficiente y que la evolución artificial, es un proceso dirigido y altamente eficaz, que no eficiente.
    A partir de aquí es donde surgen las preguntas.
    ¿Quién dirige tal evolución?
    Un solo ejemplo, rebuscado y complicado, pero válido quizá. Las cámaras que captan imágenes públicas por todos los sitios. ¿Qué leyes regulan el uso de esos datos?
    Acaba de aparecer en Portugal un software capaz de interpretar lo que decimos en tiempo real mientras estamos siendo tomados por una cámara. ¿Leyes?¿Bastan las modestas Leyes de Protección de Datos en cada país para protegernos?
    A partir de la posibilidad técnica, una función puede recombinarse con otras. Aunque el uso de ese software se prohiba podrá usarse en otras aplicaciones de grado más elevado, y así sucesivamente.
    Alguien tendrá que quererlo, tendrá que tener ese proyecto, querrá 'evolucionar' sus aplicaciones, léase adaptarlas, con otros propósitos.
    ¿Cómo saber que esos propósitos cumplen con unos mínimos de 'bondad' o al menos que no vayan a perjudicarnos?
    A mí me sigue dando miedo lo de siempre: el hambre, el miedo, el frío, la muerte, la violencia, la injusticia, la estupidez, etc. No tengo que buscar vampiros ni máquinas descontroladas.
    Un abrazo a todos,
    Pedro


    ResponderEliminar
    Respuestas
    1. Muy buenas:

      Gracias de nuevo por pasarte por aquí: todo un honor :-))

      Efectivamente, das en la clave: "Quien controle el invento"... Depende de las manos en las que esté y los propósitos de uso, la cosa puede ser más o menos aterradora.

      También existe otra variante y es que, si la máquina alcanza el tercer estadio (súper inteligencia artificial), quizás llegue a entender su situación, momento en el que, a lo mejor, le dé por corregirla, sea por las buenas, sea por las malas.

      Este tipo de planteamientos son los verdaderamente preocupantes, porque no sabemos qué pasara en ese momento, pero sí sabemos que, el tono, empezará a partir de los propietarios de la tecnología y sus objetivos de uso de la misma (a partir de ahí, no tenemos ni idea de qué puede pasar).

      Mil gracias por el resto de reflexiones, por la visita y por el comentario :-)

      Eliminar

Publicar un comentario

Todo comentario, siempre y cuando sea educado, es bienvenido.

Quizás te pueda interesar...

Tener un coche en Holanda

Es cuestión de organizarse

ChatGPT - Ahora empieza lo bueno

"No hay huevos" - La compra de Twitter por Elon Musk

Para mí Tanya es Ucrania