Fuente: Bloghemia
Link de Origen:
https://www.bloghemia.com/2024/11/la-idiotez-artificial-por-slavoj-zizek.html
Slavoj Žižek explora cómo los
chatbots deben manejar comentarios ofensivos y la dificultad de capturar la
ironía y matices en el lenguaje humano.
No hay nada nuevo sobre los “chatbots” que
son capaces de mantener una conversación en lenguaje natural, que entienden la
intención básica de un usuario y que ofrecen respuestas en base a reglas y
datos preestablecidos. Pero la capacidad de esos chatbots ha aumentado
marcadamente en los últimos meses, y eso generó nerviosismo y pánico en muchos
círculos. Mucho se ha hablado de que los chatbots auguran el fin de los ensayos
estudiantiles tradicionales. Pero hay un tema que merece mayor atención y es
cómo deberían responder los chatbots cuando los interlocutores humanos usan
comentarios agresivos, sexistas o racistas para invitar al bot a responder con
sus propias fantasías malhabladas. ¿Se debería programar a las IA para que
respondan en el mismo tono que las preguntas que se formulan?
Si decidimos que se implemente algún
tipo de regulación, luego debemos determinar hasta dónde debería llegar la
censura. ¿Se prohibirán las posiciones políticas que algunos grupos consideren
“ofensivas”? ¿Qué pasará con las expresiones de solidaridad con los palestinos
de Cisjordania o el argumento de que Israel es un estado apartheid (algo que el
expresidente norteamericano Jimmy Carter alguna vez incluyó en el título de un
libro)? ¿Se los bloqueará por considerárselos “antisemitas”?
El problema no termina ahí. Como
advierte el artista y escritor James Bridle, las nuevas IA “se basan en la
apropiación sistemática de la cultura existente”, y la noción de que, “en
realidad, son informadas o valiosas es sumamente peligrosa”. Por lo tanto,
también deberíamos ser cautelosos con los nuevos generadores de imágenes de IA.
“En su intento por entender y replicar la totalidad de la cultura visual
humana”, observa Bridle, “también parecen haber recreado nuestros temores más
oscuros. Quizás esta sea solo una señal de que estos sistemas son realmente muy
buenos a la hora de imitar la conciencia humana, hasta el horror que acecha en
las profundidades de la existencia: nuestros miedos a la inmundicia, a la
muerte y a la corrupción”.
Ahora bien, ¿qué tan buenas son las
nuevas IA en cuanto a aproximarse a la conciencia humana? Consideremos el bar
que recientemente publicitó un trago especial con el siguiente anuncio: “Compre
una cerveza por el precio de dos y reciba una segunda cerveza absolutamente
gratis”. Para cualquier ser humano, se trata, obviamente, de una broma. La
clásica oferta especial de “compre uno, lleve uno” se reformula y se cancela a
sí misma. Es una expresión de cinismo que se considerará una honestidad
cómica, todo por impulsar las ventas. ¿Un chatbot entendería algo de todo esto?
La palabra “joder” presenta un
problema similar. Si bien designa algo que a la mayoría de la gente le gusta
hacer (copulación), también adquiere una valencia negativa (“¡Estamos jodidos!”
o “¡Qué te jodan!”). El lenguaje y la realidad son confusos. ¿La IA está
preparada para discernir estas diferencias?
En su ensayo de 1805 “Sobre la
paulatina elaboración del pensamiento mientras se habla” (cuya primera
publicación póstuma fue en 1878), el poeta alemán Heinrich von Kleist invierte
el saber común de que uno no debería abrir la boca para hablar a menos que
tenga una idea clara de lo que va a decir: “Si un pensamiento se expresa de
manera confusa, no significa que este pensamiento se haya concebido de manera
confusa. Por el contrario, es muy posible que las ideas que se expresan de la
manera más confusa son las que se pensaron con mayor claridad”.
La relación entre lenguaje y
pensamiento es extraordinariamente complicada. En un pasaje de uno de los
discursos de Stalin de principios de los años 1930, propone medidas radicales
para “detectar y combatir sin piedad inclusive a quienes se oponen a la
colectivización solo en sus pensamientos -sí, lo digo en serio, deberíamos
combatir hasta los pensamientos de la gente”-. Uno podría tranquilamente
suponer que este pasaje no había sido preparado con anticipación. Después de
dejarse llevar por el momento, Stalin enseguida tomó conciencia de lo que
acababa de decir. Pero, en lugar de dar marcha atrás, decidió aferrarse a su
hipérbole.
Como dijo Jacques Lacan más
tarde, fue un momento de verdad que surge por sorpresa mediante el acto de la
enunciación. Louis Althusser identificó un fenómeno similar en la
interacción entre prise y surprise. Alquien que, de repente, entiende (“prise”)
una idea se sorprenderá (“surprise”) por lo que ha logrado. Nuevamente, ¿un
chatbot es capaz de esto?
El problema no es que los
chatbots sean estúpidos; es que no son lo suficientemente “estúpidos”. No es
que sean ingenuos (y que no entiendan la ironía y la reflexividad); es que no
son lo suficientemente ingenuos (no perciben que la ingenuidad puede ocultar
cierta perspicacia). El verdadero peligro, entonces, no es que la gente crea
que un chatbot es una persona real; es que comunicarse con chatbots haga que
las personas reales hablen como chatbots -y se pierdan todos los matices y las
ironías, y se obsesionen por decir solo lo que uno piensa que quiere decir.
Cuando yo era más joven, un amigo
acudió a un psicoanalista para tratarse luego de una experiencia traumática. La
idea que tenía mi amigo sobre lo que estos analistas esperan de sus pacientes
era un cliché, de modo que se pasó la primera sesión haciendo “asociaciones
libres” falsas sobre cuánto odiaba a su padre y sobre cuánto le deseaba la
muerte. La reacción del analista fue ingeniosa: adoptó una postura ingenua
“pre-freudiana” y le reprochó a mi amigo que no respetara a su padre (“¿Cómo
puede hablar así de la persona que hizo de usted lo que usted es hoy?”). Esta
ingenuidad fingida envió un mensaje claro: no me creo sus “asociaciones” falsas.
¿Acaso un chatbot podría descifrar este subtexto?
Lo más probable es que no, porque es
como la interpretación de Rowan Williams del príncipe Myshkin en El idiota de
Dostoyevsky. Según la lectura estándar, Myshkin, “el idiota”, es un “hombre
piadoso, positivamente bueno y hermoso” que es arrojado a una locura aislada
por las brutalidades y pasiones duras del mundo real. Pero en la relectura
radical de Williams, Myshkin representa el ojo de una tormenta: por más bueno y
piadoso que pueda ser, es el que provoca los estragos y la muerte que
presencia, debido a su papel en la red compleja de relaciones que lo rodea.
No es solo que Myshkin sea un simplón
ingenuo. Es que su particular personalidad obtusa hace que no sea consciente de
los efectos desastrosos que tiene en los demás. Es una persona simple que
literalmente habla como un chatbot. Su “bondad” reside en el hecho de que, al
igual que un chatbot, reacciona ante los desafíos sin ironía, diciendo
perogrulladas desprovistas de toda reflexividad, tomando todo al pie de la
letra y basándose en un mecanismo de completado mental automático en lugar de
una formación de ideas auténtica. Por esta razón, los nuevos chatbots se
llevarán muy bien con los ideólogos de todo tipo, desde quienes hoy se
mantienen alertas (“woke”) hasta los nacionalistas del movimiento “MAGA” que
prefieren seguir dormidos.
Gráfica y lectura anexa recomendada:
https://www.sinpermiso.info/textos/nace-el-campo-de-la-estupidez-artificial
Comentarios
Publicar un comentario