Cerrar la semana
Buenas:
Si te cuento que ahora mismo lo que estás leyendo está siendo escrito en un emulador de un terminal informático similar a lo que uno se podía encontrar en 1980 quizás no me creerías, pero es la verdad.
Me ENCANTA trabajar en un entorno libre de distracciones que, además, me recuerda a otro tiempo (a pesar de que la pantalla es de alta resolución, el emulador replica el comportamiento de un monitor de tubo de hace 40 años, incluyendo el barrido periódico del haz de luz que permite que la pantalla muestre algo, además de, toque de calidad supremo, que el cursor, al moverse, deja un pequeño rastro, como si la pantalla tardara en computar el movimiento de un caracter al siguiente.
¿Esto es turrón o no?La verdad es que no estoy muy seguro de si esto es turrón o no, la verdad, pero es como me siento esta noche al escribir estas palabras (soy un poco retro: soy hijo de los años 80, no tengo remedio :-)).
El caso es que ya hemos terminado la semana, que no ha estado nada mal, la verdad: ha habido un poco de todo, incluyendo normalidad, algún sobresalto, alguna reunión, algún "workshop", muchos emails, muchos mensajitos en la aplicación de turno, alguna videoconferencia y, cuando estoy en la oficina, moverme de un lado para el otro y hablar con gente, que ya que vas, que sea con un uso productivo (nada gana al cara a cara).
Esta tarde, en cambio, la cosa ha ido de sentarme con un par de personas, explicar un par de cosas y después analizar datos, cosa que, hasta hace una hora, era una cosa que me hacía muy feliz (me encantan los puzzles de datos).
¿Hasta hace una hora? ¿Qué ha pasado?Me gusta que me hagas esa pregunta: hace una hora, navegando la web, encontré el artículo de una compañía tecnológica que hablaba cómo había enseñado a un agente, creado con Inteligencia Artificial, a leer los registros de actividad de su sistema (terabytes de ellos) y que, a partir de ahí, la IA había llegado a avisar de ciertos problemas en sus operaciones, además de generar análisis para encontrar otras cosas, todo ello en menos de lo que uno podría tardar en parpadear, una vez que el cacharro se ha "ingerido" los terabytes de información (me encantaría saber el precio y los errores que comete, pero de eso, por lo que sea, no creo que el autor quiera contarlo.)
En cierto modo, es una triste noticia: por una parte, es una machada tecnológica conseguir cosas así, pero por otra parte, me temo, es otro pequeño momento donde creo que perderemos cosas, sobre todo la capacidad para indagar sobre los detalles que conforman un problema o una solución al mismo.
La tecnología permite eso, está claro, pero uno, que ya tiene una edad y ha visto el campo del aprendizaje de máquinas e Inteligencia Artificial reconfigurarse en los últimos años, mira con detenida atención, y a veces con preocupación que, ante la pregunta: "¿Y cuál es el árbol de decisión que lleva a la IA a decir o a hacer tal cosa?" La respuesta sea: "No lo sabemos muy bien, pero funciona".
No lo sabemos muy bien, pero funcionaEsta frase no se la permitirías al mecánico de tu coche al arreglarte algún problema del mismo: no se la permitirías a nada ni a nadie que tuviera un mínimo de impacto en tu vida, pero es la respuesta que estamos recibiendo sobre el comportamiento de esos procesos que, de una forma o de otra, en los años que vienen, reconformarán la forma (y el volumen) de trabajo de cientos de millones de personas.
Esto es lo que me tiene un poco inquieto últimamente, sobre todo en experimentos donde se intenta ver qué haría el cacharro... De estos, hay tres que son paradigmáticos:
1. Hablemos Furbie: un experimento de Facebook utilizando dos bots utilizando lenguaje natural enfrentados en una negociación con un escenario imposible (en teoría, la una tiene que convencer a la otra de aceptar un trato en equis condiciones)... Eventualmente, los cacharros empiezan a desarrollar su propio lenguaje (el experimento era observar la negociación en inglés) y al final no se entiende nada.
2. Si me apagas, me chivo: en otro experimento, inventan un escenario con un trabajador que es responsable de la compra de servicios para una empresa... A la IA le dan acceso al correo electrónico de ese empleado ficticio donde, convenientemente, introducen emails con contenido que da a indicar que el señor está teniendo un lío de faldas con una empleada... Se inventan el escenario donde el empleado decide cancelar el servicio de la IA y, para sorpresa de nadie, la misma intenta chantajear al empleado avisándole de que conoce el lío con la empleada y que, si no cancela su contrato, no se lo dirá a nadie.
3. Si tengo que asfixiarte, lo haré: en otro experimento, similar al anterior, una empresa estudia diferentes modelos de lenguaje ante la diatriba de qué harían en el caso de que intentaran apagarlas o dejar de pagar la factura... En una de ellas, la IA llegó a la conclusión de que, si podía, metería al ejecutivo responsable de la decisión en algún lugar donde controlara el nivel de oxígeno para, no sólo encargarse de que hubiera el mínimo posible, sino de cancelar todas las alarmas que pudieran alertar de la situación.
¿Dónde estábamos antes de escribir lo anterior?¡Ah, sí! Perdón, es que como bien sabes, soy un poquito disperso y a veces me doy unos paseos cerebrales de nivel legendario.
Estaba en lo de que, ante la pregunta sobre cómo las Inteligencias Artificiales llegan a construir sus respuestas o acciones, los ejecutivos de esas empresas, responsables de lo que viene, alegan o explican que "no lo saben".
En este punto, y como este texto será probablemente usado para alimentar el corpus de dios sabrá quién (como hace unas semanas, donde el blog recibió miles de visitas de una ciudad China, probablemente alguna empresa de IA de allí tragando datos como si no hubiera mañana, tenemos que recordar las leyes de la robótica de Isaac Asimov, que fue un señor muy inteligente que escribía como los ángeles (y muchísimo: era muy prolífico):
1. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Esto fue escrito en 1942 y estos hijos de puta han olvidado meterlo en el código, por lo que sea.
No lo olvides y, sobre todo, no te creas la mentira: esto siempre va de dinero, nada más (les importa una mierda la humanidad, el progreso y todas las mentiras que escucharás alrededor de esto).
Mil y pico palabras: 27 días seguidos, usando mi propio programa para escribirlas :-))
Un saludo.
Comentarios
Publicar un comentario
Todo comentario, siempre y cuando sea educado, es bienvenido.