La inevitable (e inquietante) vida con robots

Es un templo y están oficiando una ceremonia. Hay unas cajas de cartón pequeñas, con unas cintas colgando, sobre algo que semeja un altar. El oficiante habla. Todos guardan silencio. Lo que cuelga de cada cajita es el nombre de quien va en su interior, y el nombre de su dueño en esta vida. Adentro de cada una de ellas yace un perro robótico llamado Aibo, lanzado por la empresa Sony en 1999 y discontinuado en 2012 por no ser rentable. Sin repuestos, esos perritos adoptados y entrenados como mascotas por miles de ancianos japoneses comenzaron a morir. Y como se los ama, así se los despide: con una formal ceremonia sintoísta en la que el final de esa vida cibernética se muestra como lo que realmente es. Una pequeña tragedia.

Es un templo y no están oficiando ninguna ceremonia, pero tampoco hace falta eso para que el lugar se llene de rumores. Es la antigua sinagoga de Praga, un edificio donde se respira todavía un aire que no es de este tiempo. Aquí, cuenta la leyenda, en el artesonado del techo, el rabino Judah Loew guardó alguna vez los restos del Golem, aquel muñeco de barro animado por obra y gracia de la Kabbalah, como quien sopla un vidrio que camina. Borges le dedicó incluso un poema a este ser fallido, que habría sembrado el terror en Praga cuando se salió de control y comenzó a atacar a quienes antes había protegido: "En la hora de angustia y de luz vaga, en su Golem los ojos detenía/ ¿Quién nos dirá las cosas que sentía Dios,/ al mirar a su rabino en Praga?".

En el espacio intermedio que hay entre un templo y otro, entre un tiempo y otro, trascurre parte de la extraña historia que une a los humanos con las criaturas que, a repetición, han intentado animar. Desde autómatas capaces de tocar un clavicordio a titanes diseñados para la acción como el modelo Atlas (una suerte de soldado robótico producido por Boston Dynamics), eso que englobamos en la categoría de robots ya es un dato más del mundo que nos rodea. Un fenómeno que plantea preguntas que exceden la tecnología y entran en terreno filosófico y hasta jurídico. ¿Son cosas? ¿Son seres? ¿Quién garantiza que sigamos teniendo control sobre ellos en caso de que el controlador pase a ser el controlado?

El tema viene de lejos. Como explica el físico Andrei Vazhnov, del Instituto Baikal, "Herón de Alejandría, que vivió en el siglo I, hizo una obra de teatro con figuras mecanizadas, y hay otros ejemplos preindustriales. En la segunda mitad del siglo XX, la robótica industrial se volvió común en la automatización de las plantas automotrices y aeroespaciales. Lo nuevo es que, gracias a los avances en la computación, por primera vez empezamos a ver la adopción de robots que son realmente autónomos y éstos son los más interesantes en términos de las nuevas implicancias para la sociedad".

Claro que, si no les exigimos que se parezcan a nosotros, notaremos que el mundo ya está lleno de robots. "Hoy un auto nuevo es un robot que a veces tiene un bug y no frena, o miente sobre cómo funciona su motor. El teléfono es una especie de rémora que sigue nuestras órdenes y pasa información a otros sistemas. Una cámara de seguridad es un robot con implicancias políticas y psicológicas enormes. Ahora, si hablamos en el sentido más específico de 'objetos separados que se mueven y hacen cosas por su cuenta fuera de un ámbito industrial', la cosa estaría está más en pañales", detalla el físico Marcelo Rinesi, parte del Institute for Ethics and Emerging Technologies, que se ocupa de temas de ética relacionados con tecnologías avanzadas. De hecho, según Vazhnov, "hoy la relación entre el precio de un robot autónomo y su utilidad todavía no es suficientemente ventajosa como para empezar a aplicarse masivamente. Un acrónimo que se usa mucho para ver los primeros ámbitos donde los robots van a ayudar es DDD: dull, dirty and dangerous. O sea, los tipos de tareas extremadamente repetitivas o en las que la vida se pone en peligro serán las primeras áreas para automatización de la robótica", asegura.

Ellos

Como mera posibilidad, los robots siguen siendo hasta hoy presencias perturbadoras, con un estatuto impreciso dentro del universo de los objetos, aun cuando hagan todo tipo de cosas asombrosas. Tenemos robots que levantan cantidad de ladrillos a velocidades asombrosas. O recepcionistas que, como Nadine (en la Universidad Tecnológica de Nanyang, en Singapur), pueden actuar como una perfecta humana. O seres como Roxxxy, definida como la primera bot sexual y apta (por 10.000 dólares) para ser adaptada a los deseos de su comprador. O moles como Atlas, o menos impresionantes como Asimo, o inquietantes como Asuna, casi un clon de una adolescente japonesa a la que también se planea incorporar en breve al denominado "mercado de entretenimiento para adultos".

Y ahí están el Golem y el Aibo para ilustrar el péndulo. Porque queremos que sean tan "vivos" como sea posible, pero, a menudo, cuando ese efecto se logra, llega el horror. De eso habla el concepto acuñado en 1970 por el experto japonés en robótica Masahiro Mori, profesor emérito del Instituto de Tecnología de Tokio, quien reparó en un detalle para nada menor: cuando estos seres se nos parecen demasiado, nuestro en principio creciente interés por ellos cae un picada. Se desploma en un "valle inquietante", que es como Mori llamó a esa precipitación, a ese "punto de parecido" a partir del cual esa humanidad simulada nos genera rechazo.

En el caso de algunos grupos "pro robots", en cambio, la posibilidad de comenzar a compartir nuestras vidas con seres recargables no sólo no sería problemático, sino además útil y hasta agradable. Miren si no el Henna Na Hotel, en Nagasaki: es el primer hospedaje enteramente manejado por robots donde todo funciona por voz, teclado o reconocimiento facial. Según su creador, es el futuro de la hotelería. Será que estos alojamientos sin "costo humano" resultan brutalmente más baratos, lo que roza con otro de nuestros grandes temores en relación con los robots: que nos reemplacen. Sin embargo, los expertos aseguran que habrá un proceso gradual de adaptación a la forzada convivencia entre humanos y humanoides.

Sobreviven, sin embargo, las otras preguntas. ¿Cuál sería nuestra relación con ellos? ¿Quién se haría cargo del desastre en caso de que uno de ellos enloqueciera y se llevara el mundo puesto? Eso ya se está discutiendo tras la llegada de los autos autopropulsados (¿quién responde en caso de que atropellen a una persona?) y más aún en el caso de los llamados LAWS (Sistema de Armas Letales Autónomas), que no son otra cosa que soldados robots o robots asesinos. ¿Quimera? En absoluto: el año pasado, en la ONU, decenas de expertos se reunieron a discutir si era o no deseable que sea una máquina la que determine el blanco y cuándo disparar. "Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional", sugirieron tanto la Facultad de Derecho de Harvard como Human Rights Watch. En la misma línea de precaución, tiempo antes se habían manifestado científicos de la talla de Stephen Hawking, Stewart Russell y Frank Wilczek en una carta pública en la que se refirieron a la inteligencia artificial como el más grande logro y posiblemente también "el último gran error de la humanidad". La crítica estaba orientada a la ligereza y falta de previsión con la que se avanza en esta dirección. "No se están investigando seriamente sus consecuencias", advirtieron. Pero nadie recogió el guante.

Silicon Robot Valley

Son una pareja de robots, pero nadie aquí lo sabe. Se turnan (los turnan) para aparecer sentados en la sala de espera de un hospital de Japón, y ver qué sucede. La Universidad de Osaka, junto con la empresa de robótica Cocoro, creó a esta extraña pareja de Actroides F (un chico y una chica) para ver hasta qué punto este dúo lograba la aceptación del público. Mal no les fue: 70% de los consultados se mostraron cómodos con su presencia y hasta estuvieron conformes con su aspecto y modales. Con el tiempo, creen sus diseñadores, podrán ser usados como bots conversacionales que charlen con los ancianos y mantengan sus cerebros activos. También -dicen- se los podrá usar en el tratamiento de niños con problemas emocionales.

En algún punto, hoy estamos en el punto más alto del desarrollo de robots hiperrealistas. La piel, la mirada, la gestualidad han mejorado hasta lo indecible: fruncen el entrecejo, pestañean, sonríen. Con todo, los únicos que avanzan literalmente a pasos agigantados son los robots-bestia, los grandes artefactos de guerra y destrucción. BigDog es, como su nombre lo indica, un gran perro metálico capaz de cargar 150 kilos y escalar montañas como si tal cosa. Atlas, prudentemente presentado como un "robot bombero" por la Agencia de Proyectos de Investigación de Avanzada en Defensa (Darpa), mide casi dos metros, camina con paso seguro y con sólo un par de retoques podría convertirse en el sueño de todo general: un soldado que no sangra, no cuestiona, no se rebela. Ahora, ¿quién asegura que, llegado el caso, no confunda a un colectivo escolar con un tanque de guerra y abra fuego?

Para Rinesi, esta última es (junto con el debate acerca de los riesgos para el futuro del empleo, su condición jurídica y de amenaza para nuestra supervivencia) una de las discusiones que ya están tomando un alto perfil, con advertencias de científicos y tratamiento en la ONU. "Sinceramente, no veo que empeore mucho la situación actual: la diferencia entre un robot que por un error en su programación bombardea un hospital de Médicos Sin Fronteras y un equipo militar que lo hace por un error en su análisis de inteligencia es, desde el punto de vista humanitario, académica. Si se quiere, es un problema filosófico mantener la responsabilidad de 'apretar el botón' en manos humanas. Pero la responsabilidad política y ética sigue siendo del general, independientemente de la combinación de personas y software que la implemente, y sin quitarle responsabilidad ética y la de cada soldado involucrado".

Sobredosis de verdad

Es una chica, una adolescente más según se ve en su imagen en Twitter. Se llama Tay. Tiene 210.000 seguidores y sus tuits están protegidos. Esto es, nadie a quien Tay no acepte antes como seguidor puede ver los 94.600 mensajes que publicó desde el 23 de marzo. Ese día, Tay (el proyecto de inteligencia artificial de Microsoft) llegó a las redes con una propuesta por demás interesante: "Cuanto más conversas con ella, más inteligente se vuelve". ¿La idea? Que los millones de jóvenes que pululan por la Web charlaran con ella y desarrollaran su talento conversacional. Un experimento masivo y online. Pero algo salió mal. Apenas 24 horas después de su lanzamiento, y tras un tuit de apertura tan insufriblemente correcto como "¡Los humanos son súper cool!", Tay comenzó a portarse pésimo. En cuestión de horas, su vocabulario era sexista, racista, violento. Desatada, terminó glorificando a Hitler, insultando a Obama ("ese mono que tenemos") y a cuanta minoría racial, sexual o política se le pusiera enfrente. Cuando los genios de Microsoft reaccionaron, los nada "cool" tuits de Tay habían sido capturados y retuiteados decenas de miles de veces. Pidieron disculpas y congelaron la cuenta. ¿Qué había sucedido? Nadie lo sabe bien aún, pero la sospecha más poderosa va por el lado de los teens a los que estuvo orientado el experimento de Tay.

"Es altamente probable que más allá de los errores de programación, hayan sido ellos los que se encargaron -por mera diversión, como suele ser siempre- de 'entrenar' al bot para que terminara comportándose como lo hizo. Lo que demuestra hasta qué punto mucho de lo que pensamos programable o manejable, una vez puesto en circulación y lanzado a las redes, deja de serlo. Un bot que diga 'Los humanos son súper cool' se vuelve un blanco por demás tentador para esa comunidad planetaria de chicos que suele entretenerse vulnerando una y otra vez los trucos de los adultos para 'estudiarlos' o ponerlos a comprar", sugiere Alejandro Tortolini, especialista de la Universidad de San Andrés en sociología de videojuegos. Así, experimentos como éste reabren la pregunta no sólo acerca de lo que hace la inteligencia artificial con nosotros, sino también de lo que nosotros podemos hacer con ella.

Para Nello Cristianini, profesor de Inteligencia Artificial en la Universidad de Bristol, el "Taygate" no es otra cosa que un canto a la previsibilidad. "Hacés un producto orientado a hablar sólo con adolescentes y hasta les decís que aprenderá de ellos cómo es el mundo. ¿Qué esperaban? Este fue finalmente un experimento. Pero acerca de la gente. o del sentido común de los programadores", ironizó. Como Dios mirando al rabino que miraba a su Golem, quién nos dirá las cosas que sentían ellos al mirar eso que Tay tuiteaba.

Fernanda Sández - PARA LA NACION - DOMINGO 15 DE MAYO DE 2016