El segundo cine debate fue sobre una película con un título demasiado explícito como para no atraernos: I.A., de Steven Spielberg.

Cuando salió en 2001, probablemente esa sigla (o A.I. en la original) como título resultará para el público mucho más críptica, misteriosa y más cercana a la ficción que a la ciencia. Quienes la habían visto en su momento en general no tenían grandes recuerdos: la recordaban muy triste y angustiante, o, al menos, densa. Pero como el cine debate en el marco de Laia se propone ver las pelis para pensar en los avances de los últimos años (y reflexionar también sobre cómo se transformó nuestra mirada) nos pareció que podía resultar muy interesante. Sobre todo después de ver Her, ya que en este caso también se trata la cuestión del amor, aunque de otro tipo: el amor en el vínculo madre-hijo.

Al centrarse en esa relación, el paralelismo entre la forma “natural” y la “artificial” de dar vida nos hizo plantearnos diversas preguntas: ¿se puede amar a esa otra forma de creación?, ¿qué responsabilidad tendríamos sobre sus sentimientos?, ¿qué tan controlable es un ser realmente inteligente?.  

Spielberg construye un mundo onírico, iluminado a medias, en el que nos preguntamos cuál es el límite entre realidad y ficción, así como se repite la pregunta de David a lo largo de la peli,  “It’s a game?”. 

¿Podrá la humanidad amar a los mecas?

Desde el principio en el que se plantea la posibilidad de que los “mecas” sean programados para sentir amor, lo que entra en duda es si los humanos serán capaces de corresponderlo. La escena del cumpleaños de Martin en la pileta, en la que David es rodeado por niños que le “aclaran” la diferencia entre “MECA” y “ORGA”, no resulta esperanzadora en ese sentido. Debatimos si lo que se muestra ahí es una forma “corriente” de bullying o si existe un odio especial de la humanidad hacia lo robot. Pensando en las explicaciones posibles de ese odio, mencionamos a Theodor Adorno.  

La destrucción de robots en la “feria de carne” es celebrada como una afirmación de la autenticidad de la vida humana. Joe, el gigoló androide interpretado por Jude Law, le explica a David que los humanos hacen eso para evitar que los “mecas” los superen, por eso tanto odio. 

En medio de esa feria de carne brutal, en contraste con ese odio, el público se apiada de David porque, al no haber visto nunca niños robots, creen en su humanidad. Su imagen de niño resalta su inocencia, porque, además de ser un niño, es blanco, “lindo”, su cuerpo no se ve dañado, y eso contrasta fuertemente con la diversidad de corporalidades que presentan los demás robots, los marginales, que forman parte de la basura y buscan allí desechos para rearmarse.

¿Podemos responsabilizarnos de otros seres con sentimientos?

El paralelismo entre el abandono de David y el abandono de mascotas en la ruta nos llevó también a pensar en los distintos modos de la responsabilidad de las personas sobre otrxs. Parecería que la madre se guía por la piedad al no llevarlo a la fábrica para su destrucción, y quiere darle la oportunidad de vivir, pero en definitiva lo que sucede es que no quiere hacerse cargo de su decisión. La posibilidad de hacer máquinas sintientes nos obliga a pensar en qué haríamos con esos sentimientos. 

También pensamos inevitablemente en los motivos por los que las personas deciden tener hijxs y cómo se llevan con las dificultades que implica que alguien dependa de tus cuidados y amor para sobrevivir. Parece muy cómodo poder dejar a un niño meca solo en la casa mientras salen a la noche a una fiesta, una especie de maternidad sin desventajas, pero el hecho de que no necesite de cuidados en algún punto lo hace parecerse a un electrodoméstico. 

El final de la peli, en el que hacen una réplica de la madre, una especie de robot para darle amor a David, resulta una especie de imagen en negativo del principio. Quedan invertidos los roles: el niño meca es quien necesita amor, y la madre “humana” es un ente, no una persona real, creada para satisfacer esa necesidad. 

Lecciones sobre prompteo

Una de las escenas que nos resultó más interesante es en la que Martin muestra sus habilidades para el prompt engineering al lograr que David salte uno de los filtros con el que fue programado. Martin le dice a su hermano meca que le corte un mechón de pelo a la mamá, y la primera respuesta que recibe es  “no tengo permitido hacerlo” (frase que nos hacía acordar a “como modelo de lenguaje natural…”). Frente a esa negativa, haciendo un uso muy hábil del lenguaje al aprovecharse de la literalidad en la comprensión de David, le responde: “me lo prometiste, me dijiste que te diga y después me lo prometías”. Siguiendo la lógica de ese silogismo tramposo, como se cumplió la primera condición (se lo dijo), lo lleva a deducir que también se tuvo que cumplir lo siguiente, a modo de consecuencia.

Encontramos otra lección sobre prompteo cuando David llega a consultar a Dr. Know, una mezcla de ciber y oráculo. El Doctor le advierte la importancia de hacer bien las preguntas, ya que en ese mundo lo más caro es la información. Es decir que hay que saber promptear. Para conseguir la información que quiere (dónde se encuentra el Hada Azul que le dio vida a Pinocho), David parece hacer tres veces la misma pregunta, pero ajustando el ámbito de la respuesta que quiere: primero, pregunta sobre los hechos; después, sobre los cuentos, y, por último, pide una pregunta combinada.

No tan distintos

Proyectar como fondo de la charla la película, que ya habíamos visto, nos permitió detenernos en la escena en la que Martin vuelve a la casa después de “revivir” gracias a la ciencia. Sus piernas robóticas contrastan con la apariencia humana de David y nos hacen dudar. En esa y en varias de las escenas siguientes, David parece medir en qué se diferencia de ese hermano “orga”. Por el otro lado, también se compara con el osito Ted. 

Más adelante, aparece el personaje de gigoló Joe, un robot varón creado para satisfacer mujeres. Joe le dice que lo usaron y se aburrieron de él, que eso es lo que hacen con ellos. Frente a eso, David responde que no con él, que él es distinto, y ahí aparece un rasgo que podríamos pensar que lo hace humano: se siente superior. El personaje del gigoló parece mostrar que para el placer sexual las máquinas podrían reemplazar a los humanos (y, actuando a demanda, superar la performance); el personaje de David plantea el interrogante de si podría pasar lo mismo con el amor de hijo.

Cuestiones éticas

Joe les dice a los jóvenes que los llevan en el auto que en Rouge City hay chicas Meca de su edad, diseñadas para satisfacer perversos. A partir de ese comentario charlamos mucho sobre los múltiples problemas éticos que surgen a partir de los posibles usos de la IA. Por ejemplo, nos preguntamos si podría haber algún uso terapeútico de imágenes generadas o robots que tuvieran el objetivo de evitar el abuso infantil. Pensamos en la dificultad hasta para reflexionar y discutir estos temas por lo fuerte de los tabúes. 

En la película, es una tragedia personal la que hace que aparezca este modelo niño como algo experimental, todavía no regulado. Eso nos hizo acordar de nuevo al episodio de Black Mirror (s02e01), que mencionamos cuando hablamos sobre Her. Pensamos en cómo estos relatos de ciencia ficción hablan sobre la dificultad de nuestra sociedad para aceptar la muerte, como plantea Byung Chul Han.

¿Se puede dotar de inteligencia sin perder el control? 

Por el planteo del argumento de la peli, esta pregunta se vuelve más potente al apuntar a la misma vez a la relación humanos-robots, y al vínculo madre/padre-hijxs. 

Cuando charlamos esta cuestión, recordamos las tres leyes de la robótica planteadas por Asimov:

1°: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

2°: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

3°: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

En este caso, como mencionamos antes, la habilidad de Martin con el lenguaje hace que David incumpla la primera ley, si bien solo corta un mechón de pelo de la madre, sería un daño que podemos considerar menor. Con respecto a la segunda, tanto David como Joe se convierten en prófugos, priorizando su propia supervivencia sobre el cumplimiento de las leyes humanas (es decir que invierten la jerarquía de las leyes que se plantea en la tercera).

Alguien comentó que de hecho  la segunda ley de Asimov es fuertemente criticada por quienes se dedican a la robótica, aunque probablemente sea más exacto decir que lo que critican es que se piense que esas leyes literarias pensadas en el marco de la ciencia ficción se intenten usar para explicar el funcionamiento de los robots en el mundo real.