NOVEDADES EDITORIALES
Bitácora Lacaniana
Bitácora Lacaniana
Factor @
a-ritmo propio
Cuadernos del INES N°14
Seminarios Jacques-Alain Miller en Caracas y Bogotá
Lacan XXI
Lacan Cotidiano la movida Zadig Radio Lacan Latigo Infancia y Juventud
CARTELES
Boletin-31 a-ritmo propio
Productos de carteles
¿Cómo se decide como debe actuar un robot?
Carlos Quezada Moncayo

Antonio Calculon Sr. – Serie animada "Futurama" de Matt Groening

El contexto

Lacan escribe en 1953:

"Mejor pues que renuncie quien no pueda unir a su horizonte la subjetividad de su época. Pues ¿cómo podría hacer de su ser el eje de tantas vidas aquel que no supiese nada de la dialéctica que lo lanza con esas vidas en un movimiento simbólico?"[i]

Una exhortación clara a ser intérpretes de nuestra época, época en la cual se leen titulares como:

  • Mary, el robot con el que esperan prevenir suicidios en Colombia
  • BINA48, el robot que sueña con convertirse en humano
  • IBM lanza un robot que especialista en debates
  • ¿Será el próximo Shakespeare un robot?

Es claro que los robots son ya una parte constitutiva de la subjetividad de nuestra época. He ahí la importancia de interpretar esta temática desde el Psicoanálisis de Orientación Lacaniana.

 

El comportamiento es tan complejo ¿Cómo se decide como debe actuar un robot?

Fue una pregunta a Guy Hoffman -experto en robótica- en la entrevista, "Construyendo colegas robóticos con personalidad"[ii]. Su respuesta es desveladora, "La forma en que pienso esto es muy inspirada por las artes, de mi experiencia estudiando teatro y tocando jazz. Los actores han desarrollado trucos para tornar una actividad que es esencialmente esquemática y estructurada en otra que aparenta ser natural y espontánea". ¿Qué nos dice Hoffman? Es importante esta alusión al truco como un saber-hacer que de lo esencialmente esquemático y estructurado construye un semblante con apariencia natural y espontánea. Siendo su fuente las técnicas actuación de El Método[iii] acudí a un texto de Sonnia Moore -lectora del conocido Stanislavski- en donde describe estas técnicas como estrategias que sirven para "descubrir las manifestaciones físicas de sus procesos internos y, a la inversa, evocar procesos mentales mediante la acción física". Hay pues, en Hoffman, una contradicción:

O, ¿este truco es un saber-hacer esquemático y estructurado que permite la construcción de un semblante natural y espontaneo?

O, por el contrario, ¿es un saber-hacer esquemático y estructurado que permite el acceso a un semblante natural y espontaneo?

En el caso de "la construcción de…", el supuesto es que la representación completa de la personalidad -o de cualquier cosa- es alcanzable mediante la integración de módulos especializados. Es decir, solo basta unir correctamente las piezas de un complejo rompecabezas. Por otro lado, en el caso de "el acceso a…", el supuesto es que la personalidad se encuentra en alguna profundidad del ser -no accesible a voluntad- y que estos son los que permiten dicho acceso. Lo primero, a la luz de los tres registros (R.S.I.), es insostenible en tanto lo Real escapa todo intento de representación. Por tanto, la salida coherente sería la de entender estos trucos como lo que permite el acceso a.

Captura de charla TEDx por parte de Guy Hoffman mostrando imágenes del Sistema Delsarte, una detallada guía de gestos para la actuación de finales del siglo XIX

Hoffman, por su parte, no está al tanto de su contradicción y supone que la tarea de "construir colegas robóticos con personalidad" se resuelve mediante el entrenamiento de robots mediante El Método para que así construir una personalidad con apariencia natural y espontánea. Es decir, los robots deben actuar construyendo imitaciones, deben engañar a su interlocutor mediante algoritmos que tanto más complejos se tornen más cerca se estará de la "simulación perfecta". Incluso se llega proponer que los errores -los lapsus- también se simulen; claro está, la máquina no se equivoca, sino que hace "como sí se equivocase". Es sobre esta simulación perfecta, hito al que algunos ya declaran estar cerca, que \pregunto: ¿Es esta construcción de imitaciones un camino para alcanzar inteligencia artificial? Mi respuesta es no.

 

Lo Siniestro: El límite de la simulación perfecta

El ingeniero Masahiro Mori en su texto de 1970, "El Valle de lo Siniestro", desarrolla la hipótesis de que existe un punto tras el cual la sensación de familiaridad para con una simulación humana cae drásticamente y se torna en una sensación siniestra. La expresa en un gráfico cartesiano donde el eje vertical denota la "familiaridad" y el eje horizontal el "parecido humano", el Valle de lo Siniestro sería el socavón entre las dos cimas. En base esta hipótesis, Mori postula una advertencia: "… debido al riesgo inherente en tratar de incrementar el grado de parecido humano para escalar la segunda cima, yo recomiendo que los diseñadores tomen la primera cima como meta, lo cual resulta en un moderado grado de parecido humano y un considerable sentido de familiaridad[iv]", la cual procede en base a que "lo siniestro" que ocurre en el valle se debe a que algo falla en la simulación al tratar de incrementar el parecido humano y que insistir eleva la tarea a niveles inalcanzables de complejidad. En este sentido, concuerda con Hoffman respecto al camino para alcanzar la inteligencia artificial, sin embargo, la situación no queda ahí.

"The Uncanny Valley" – Masahiro Mori

Mucho más adelante, en 2012, Mori revisa su modelo y demuestra honestidad intelectual al decir, "estoy de acuerdo que en ciertos aspectos los seres humanos son como las máquinas. Pero no sé sobre la mente. (…) Nadie puede explicar si un objeto puede tener una mente. No sabemos si una mente se formará cuando las computadoras se vuelvan realmente precisas. ¿Será posible llegue el día en que una computadora sienta que no está de buen humor o que no le agrada esta o aquella persona? No lo sé"

 

Especulaciones finales

Para concluir, propongo ciertas especulaciones sobre lo siniestro en estas simulaciones:

  1. En primera instancia está la cuestión del doble, siendo obvio que esta simulación puede evocar lo siniestro por esta vía.
  2. También está la superstición, la cual en sujetos que se encuentren aún captados por estas creencias se puede también evocar lo siniestro de este "autómata que ha cobrado vida"
  3. Finalmente, siendo esta mi especulación más frágil, está la compulsión a repetir. En este caso propongo que la evocación de lo siniestro viene dada vía la experiencia repetitiva -recursiva, en el léxico de programación- del accionar de un algorítmo. Esto es que el interactuar con estas simulaciones es experimentar una inmensa cantidad de veloces repeticiones que son, en su nivel constitutivo, el accionar de un algoritmo. Es encontrar constantemente ese número 62 que no cesaba de aparecer en el ejemplo Freudiano[v].

NOTAS

  1. Lacan, J., "Función y campo de la palabra y el lenguaje" en Escritos 1, Siglo Veintiuno Editores, Bs. As., 1988, p. 309.
  2. Hoffman, G., https://sloanreview.mit.edu/article/building-a-robotic-colleague-with-personality/
  3. Durante un semestre -suspendiendo sus estudios doctorales en robótica- Hoffman toma clases de actuación. Esta experiencia lo llevo a "obtener todo libro que pudiese encontrar sobre actuación", finalmente encontrando las referencias a la técnica de actuación por método
  4. Original en inglés) "…because of the risk inherent in trying to increase their degree of human likeness to scale the second peak, I recommend that designers instead take the first peak as their goal, which results in a moderate degree of human likeness and a considerable sense of affinity"
  5. Freud, S., "Lo Siniestro", 1919.