Florentina Guaita, Clarisa Vittoni, Marcela Basch, Malena Saenz
Durante el primer semestre de 2024, desde Laia organizamos tres jornadas del taller “Dueñas de los prompts”, una propuesta de experimentación lúdica con modelos de lenguaje, orientado especialmente a profesionales del lenguaje y personas con formación en humanidades. Allí observamos el rol que la tecnología nos ofrece en el marco del capitalismo de vigilancia: las personas suelen tomarse como consumidoras u objetos de control, antes que ciudadanas o agentes. Nos propusimos buscar el lugar más activo posible en relación con los grandes modelos de lenguaje, y por eso elegimos trabajar con LlaMA3 y Mistral, considerados abiertos. Tardamos poco en entender que esta categoría abría nuevas dudas, y que nos interesaba explorarlas.
Desde nuestra coyuntura latinoamericana, nos propusimos —y nos proponemos— imaginar modos de beneficiarnos con los desarrollos de inteligencia artificial generativa, con plena conciencia de sus aspectos preocupantes. No nos centramos en las amenazas, pero tampoco las negamos ni minimizamos. Al contrario, por la complejidad del panorama, nos resulta imprescindible pensar qué espacios se abren para posibles intervenciones, que nos permitan ir más allá del necesario análisis crítico y construir, siguiendo a Smith y Fressoli (2021), nuevos imaginarios de cambio.
“Lo que está en juego es si somos o no capaces de concebir un modelo alternativo de desarrollo tecnológico, un modelo que persiga tecnologías entrañables, no alienantes”. (Quintanilla, 2017)
¿Se puede hablar de una IA abierta?
Dentro de la comunidad open source, se fue estableciendo cierto consenso acerca de los beneficios sociales que puede traer la IA de código abierto (Open Source Initiative, 2024). Ahora bien, si precisar el carácter abierto del código para caracterizarlo como open source ya implicaba cierto nivel de dificultad, aplicar esta clasificación a los modelos de IA generativa se vuelve una tarea aún más compleja.
Como ejemplo que bordea el absurdo está OpenAI, la empresa que creó ChatGPT3, el primer modelo de lenguaje que se posicionó masivamente: a pesar de su nombre, sus productos son privativos, es decir, cerrados. En este caso, el nombre de la compañía tiene que ver con su origen como entidad sin fines de lucro, que tenía la misión de asegurar que la inteligencia artificial fuese desarrollada de forma abierta y pública. Sin embargo, en 2019, OpenAI cerró de manera progresiva el código de sus productos, amparada en los peligros potenciales de herramientas tan poderosas en manos de cualquier persona (OpenAI, Wikipedia, 2024). Esa visión es atendible, pero oculta los peligros derivados de que esas herramientas estén en manos de pocas empresas. En todo caso, al igual que ocurre por ejemplo con la energía y las armas nucleares, la pregunta es quién puede decidir a quién se habilita para acceder a un dispositivo con un potencial de destrucción desconocido.
Dejando a un lado este ejemplo extremo, la definición de IA abierta es un tema de discusión por diferentes motivos. Lo más controversial es acordar qué componentes resulta necesario publicar para cumplir con las libertades que enumera la Open Source Initiative en su definición de “abierto”: las de de usar, estudiar, compartir y mejorar el sistema. En la definición actual, incluyen, además del código, tanto los parámetros y pesos del modelo, como los set de datos utilizados para el entrenamiento. En el caso de los modelos de IA, pareciera que esos datos de entrenamiento son tan importantes como el código, o incluso más.
Hay varios modelos que han publicado su código, pero no sus datasets. Esto se debe a cuestiones técnicas y legales, relacionadas con la complejidad de publicar sets de datos tan grandes y la evidente pero no siempre declarada inclusión de material protegido con copyright, o incluso por licencias Creative Commons (que no habilitan cualquier uso de las publicaciones). De hecho, los modelos que usamos en los talleres Dueñas de los prompts, LlaMA3 y Mistral (y también el reciente Deepseek), son de este tipo: están disponibles el código y los parámetros, pero no son completamente públicos los sets de entrenamiento.
Más allá de la opacidad en cuanto a los datos, cuando llevamos a cabo los encuentros, los presentamos como modelos “abiertos” porque permiten descargar el código para correrlos localmente en el hardware propio del laboratorio. De ese modo, a diferencia de lo que ocurre con los modelos privativos que nos prestan sus servicios a través de “la nube”, podemos asegurar la protección de la privacidad de lo prompteado y lo generado (y que ninguna empresa use esa información para reentrenar su modelo con fines que desconocemos). Además, al contar con estos modelos descargados, nos independizamos de las decisiones futuras de las empresas, que podrían modificar los sistemas o dejar de publicarlos. A su vez, podemos finetunearlos, refinarlos, es decir, entrenarlos para que funcionen mejor en tareas específicas.
“Los límites de mi lenguaje son los límites de mi mundo”: nuevas categorías para nuevos escenarios
En medio de esta controversia, como profesionales de letras conscientes del poder simbólico de las palabras, trabajamos en la búsqueda de una que sintetizara esta disputa, trascendiera los binarismos y nombrara los matices. Ni abierto, ni cerrado: necesitábamos un entre, una inclinación desde donde perfilar modelos escurridizos. Así, en ese juego de lo que podría quedarse a mitad de camino y de opuestos excluyentes, nuestra apuesta fue por la unión.
Ni abierto, ni cerrado: entornado. La RAE define al participio del verbo entornar como “Volver la puerta o la ventana sin cerrarla del todo/Cerrar los ojos de manera incompleta/Inclinar, ladear, trastornar”, y equipara con los sinónimos “entrecerrar” y “entreabrir”. El vaso medio lleno y medio vacío. Precisamente aquello que ocurre de manera incompleta o no “del todo”, nos abre un espacio de acción, un lugar desde el que disputar lo que se presenta como inevitable.
Así, la categoría de ‘modelos entornados’ iluminó más preguntas. Nos preguntamos en qué medida el hecho de que la IA generativa funcione a partir de prompts, instrucciones en lenguaje natural, supone una modificación del escenario previo en el que el conocimiento técnico, en especial de los lenguajes de programación, se presentaba como dominante. Nos cuestionamos si esta forma de dar instrucciones, junto al uso de modelos de código abierto, podría permitirnos un mayor acceso a la tecnología a quienes nos formamos en comunicación, letras o análisis del discurso, y si nos daría un rol más interesante en la discusión sobre los alcances, límites e implicancias de los desarrollos tecnológicos. Nos detuvimos en la paradoja de que el lenguaje natural está lejos de ser un sistema sencillo o transparente, aunque genere —en su uso por los chatbots de los LLMs— una ilusión de transparencia. Llegamos a la conclusión —siempre provisoria— de que quizás nuestro rol como profesionales del lenguaje sea mostrar esas “opacidades a plena luz”, en palabras del doctor en Física Rodrigo Díaz: tanto las del lenguaje natural como las del funcionamiento de los LLMs.
De esta manera, frente a la visión de que las herramientas de IA que generan texto podrían reemplazar el trabajo de quienes nos dedicamos a la escritura, nos arriesgamos a especular si la llegada de los prompts podría reposicionar nuestros saberes y permitirnos entornar la puerta: descubrir nuevas oportunidades. Además, como el funcionamiento de estos modelos puede resultar oscuro incluso para quienes los diseñan y programan, las personas con más y menos conocimientos técnicos se ven, de alguna manera, igualadas en la incertidumbre de cara al futuro.
Por supuesto, eso no significa que la IA generativa sea por sí misma democratizadora ni mucho menos. Pero nos entusiasma intuir, en la incertidumbre, grietas desde las que atisbar, en palabras de Barthes, la cocina del sentido. Creemos que, en busca de una IA inclusiva y ética, trabajar sobre las palabras con las que conceptualizamos las nuevas realidades puede ayudar; algo así como poner un pie en el vano de la puerta para impedir que se cierre del todo.