Antonio Calculon Sr. – Serie animada "Futurama" de Matt Groening
El contexto
Lacan escribe en 1953:
"Mejor pues que renuncie quien no pueda unir a su horizonte la subjetividad de su época. Pues ¿cómo podría hacer de su ser el eje de tantas vidas aquel que no supiese nada de la dialéctica que lo lanza con esas vidas en un movimiento simbólico?"[i]
Una exhortación clara a ser intérpretes de nuestra época, época en la cual se leen titulares como:
Es claro que los robots son ya una parte constitutiva de la subjetividad de nuestra época. He ahí la importancia de interpretar esta temática desde el Psicoanálisis de Orientación Lacaniana.
El comportamiento es tan complejo ¿Cómo se decide como debe actuar un robot?
Fue una pregunta a Guy Hoffman -experto en robótica- en la entrevista, "Construyendo colegas robóticos con personalidad"[ii]. Su respuesta es desveladora, "La forma en que pienso esto es muy inspirada por las artes, de mi experiencia estudiando teatro y tocando jazz. Los actores han desarrollado trucos para tornar una actividad que es esencialmente esquemática y estructurada en otra que aparenta ser natural y espontánea". ¿Qué nos dice Hoffman? Es importante esta alusión al truco como un saber-hacer que de lo esencialmente esquemático y estructurado construye un semblante con apariencia natural y espontánea. Siendo su fuente las técnicas actuación de El Método[iii] acudí a un texto de Sonnia Moore -lectora del conocido Stanislavski- en donde describe estas técnicas como estrategias que sirven para "descubrir las manifestaciones físicas de sus procesos internos y, a la inversa, evocar procesos mentales mediante la acción física". Hay pues, en Hoffman, una contradicción:
O, ¿este truco es un saber-hacer esquemático y estructurado que permite la construcción de un semblante natural y espontaneo?
O, por el contrario, ¿es un saber-hacer esquemático y estructurado que permite el acceso a un semblante natural y espontaneo?
En el caso de "la construcción de…", el supuesto es que la representación completa de la personalidad -o de cualquier cosa- es alcanzable mediante la integración de módulos especializados. Es decir, solo basta unir correctamente las piezas de un complejo rompecabezas. Por otro lado, en el caso de "el acceso a…", el supuesto es que la personalidad se encuentra en alguna profundidad del ser -no accesible a voluntad- y que estos son los que permiten dicho acceso. Lo primero, a la luz de los tres registros (R.S.I.), es insostenible en tanto lo Real escapa todo intento de representación. Por tanto, la salida coherente sería la de entender estos trucos como lo que permite el acceso a.
Captura de charla TEDx por parte de Guy Hoffman mostrando imágenes del Sistema Delsarte, una detallada guía de gestos para la actuación de finales del siglo XIX
Hoffman, por su parte, no está al tanto de su contradicción y supone que la tarea de "construir colegas robóticos con personalidad" se resuelve mediante el entrenamiento de robots mediante El Método para que así construir una personalidad con apariencia natural y espontánea. Es decir, los robots deben actuar construyendo imitaciones, deben engañar a su interlocutor mediante algoritmos que tanto más complejos se tornen más cerca se estará de la "simulación perfecta". Incluso se llega proponer que los errores -los lapsus- también se simulen; claro está, la máquina no se equivoca, sino que hace "como sí se equivocase". Es sobre esta simulación perfecta, hito al que algunos ya declaran estar cerca, que \pregunto: ¿Es esta construcción de imitaciones un camino para alcanzar inteligencia artificial? Mi respuesta es no.
Lo Siniestro: El límite de la simulación perfecta
El ingeniero Masahiro Mori en su texto de 1970, "El Valle de lo Siniestro", desarrolla la hipótesis de que existe un punto tras el cual la sensación de familiaridad para con una simulación humana cae drásticamente y se torna en una sensación siniestra. La expresa en un gráfico cartesiano donde el eje vertical denota la "familiaridad" y el eje horizontal el "parecido humano", el Valle de lo Siniestro sería el socavón entre las dos cimas. En base esta hipótesis, Mori postula una advertencia: "… debido al riesgo inherente en tratar de incrementar el grado de parecido humano para escalar la segunda cima, yo recomiendo que los diseñadores tomen la primera cima como meta, lo cual resulta en un moderado grado de parecido humano y un considerable sentido de familiaridad[iv]", la cual procede en base a que "lo siniestro" que ocurre en el valle se debe a que algo falla en la simulación al tratar de incrementar el parecido humano y que insistir eleva la tarea a niveles inalcanzables de complejidad. En este sentido, concuerda con Hoffman respecto al camino para alcanzar la inteligencia artificial, sin embargo, la situación no queda ahí.
"The Uncanny Valley" – Masahiro Mori
Mucho más adelante, en 2012, Mori revisa su modelo y demuestra honestidad intelectual al decir, "estoy de acuerdo que en ciertos aspectos los seres humanos son como las máquinas. Pero no sé sobre la mente. (…) Nadie puede explicar si un objeto puede tener una mente. No sabemos si una mente se formará cuando las computadoras se vuelvan realmente precisas. ¿Será posible llegue el día en que una computadora sienta que no está de buen humor o que no le agrada esta o aquella persona? No lo sé"
Especulaciones finales
Para concluir, propongo ciertas especulaciones sobre lo siniestro en estas simulaciones:
NOTAS