Nos Disparan desde el Campanario La idiotez artificial… por Slavoj Žižek

 



Fuente: Bloghemia

Link de Origen:

https://www.bloghemia.com/2024/11/la-idiotez-artificial-por-slavoj-zizek.html

 

Slavoj Žižek explora cómo los chatbots deben manejar comentarios ofensivos y la dificultad de capturar la ironía y matices en el lenguaje humano. 



No hay nada nuevo sobre los “chatbots” que son capaces de mantener una conversación en lenguaje natural, que entienden la intención básica de un usuario y que ofrecen respuestas en base a reglas y datos preestablecidos. Pero la capacidad de esos chatbots ha aumentado marcadamente en los últimos meses, y eso generó nerviosismo y pánico en muchos círculos. Mucho se ha hablado de que los chatbots auguran el fin de los ensayos estudiantiles tradicionales. Pero hay un tema que merece mayor atención y es cómo deberían responder los chatbots cuando los interlocutores humanos usan comentarios agresivos, sexistas o racistas para invitar al bot a responder con sus propias fantasías malhabladas. ¿Se debería programar a las IA para que respondan en el mismo tono que las preguntas que se formulan?

Si decidimos que se implemente algún tipo de regulación, luego debemos determinar hasta dónde debería llegar la censura. ¿Se prohibirán las posiciones políticas que algunos grupos consideren “ofensivas”? ¿Qué pasará con las expresiones de solidaridad con los palestinos de Cisjordania o el argumento de que Israel es un estado apartheid (algo que el expresidente norteamericano Jimmy Carter alguna vez incluyó en el título de un libro)? ¿Se los bloqueará por considerárselos “antisemitas”?

El problema no termina ahí. Como advierte el artista y escritor James Bridle, las nuevas IA “se basan en la apropiación sistemática de la cultura existente”, y la noción de que, “en realidad, son informadas o valiosas es sumamente peligrosa”. Por lo tanto, también deberíamos ser cautelosos con los nuevos generadores de imágenes de IA. “En su intento por entender y replicar la totalidad de la cultura visual humana”, observa Bridle, “también parecen haber recreado nuestros temores más oscuros. Quizás esta sea solo una señal de que estos sistemas son realmente muy buenos a la hora de imitar la conciencia humana, hasta el horror que acecha en las profundidades de la existencia: nuestros miedos a la inmundicia, a la muerte y a la corrupción”.

Ahora bien, ¿qué tan buenas son las nuevas IA en cuanto a aproximarse a la conciencia humana? Consideremos el bar que recientemente publicitó un trago especial con el siguiente anuncio: “Compre una cerveza por el precio de dos y reciba una segunda cerveza absolutamente gratis”. Para cualquier ser humano, se trata, obviamente, de una broma. La clásica oferta especial de “compre uno, lleve uno” se reformula y se cancela a sí misma. Es una expresión de cinismo que se considerará una honestidad cómica, todo por impulsar las ventas. ¿Un chatbot entendería algo de todo esto?

La palabra “joder” presenta un problema similar. Si bien designa algo que a la mayoría de la gente le gusta hacer (copulación), también adquiere una valencia negativa (“¡Estamos jodidos!” o “¡Qué te jodan!”). El lenguaje y la realidad son confusos. ¿La IA está preparada para discernir estas diferencias?

En su ensayo de 1805 “Sobre la paulatina elaboración del pensamiento mientras se habla” (cuya primera publicación póstuma fue en 1878), el poeta alemán Heinrich von Kleist invierte el saber común de que uno no debería abrir la boca para hablar a menos que tenga una idea clara de lo que va a decir: “Si un pensamiento se expresa de manera confusa, no significa que este pensamiento se haya concebido de manera confusa. Por el contrario, es muy posible que las ideas que se expresan de la manera más confusa son las que se pensaron con mayor claridad”.

La relación entre lenguaje y pensamiento es extraordinariamente complicada. En un pasaje de uno de los discursos de Stalin de principios de los años 1930, propone medidas radicales para “detectar y combatir sin piedad inclusive a quienes se oponen a la colectivización solo en sus pensamientos -sí, lo digo en serio, deberíamos combatir hasta los pensamientos de la gente”-. Uno podría tranquilamente suponer que este pasaje no había sido preparado con anticipación. Después de dejarse llevar por el momento, Stalin enseguida tomó conciencia de lo que acababa de decir. Pero, en lugar de dar marcha atrás, decidió aferrarse a su hipérbole.

Como dijo Jacques Lacan más tarde, fue un momento de verdad que surge por sorpresa mediante el acto de la enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre prise y surprise. Alquien que, de repente, entiende (“prise”) una idea se sorprenderá (“surprise”) por lo que ha logrado. Nuevamente, ¿un chatbot es capaz de esto?

El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente “estúpidos”. No es que sean ingenuos (y que no entiendan la ironía y la reflexividad); es que no son lo suficientemente ingenuos (no perciben que la ingenuidad puede ocultar cierta perspicacia). El verdadero peligro, entonces, no es que la gente crea que un chatbot es una persona real; es que comunicarse con chatbots haga que las personas reales hablen como chatbots -y se pierdan todos los matices y las ironías, y se obsesionen por decir solo lo que uno piensa que quiere decir.

Cuando yo era más joven, un amigo acudió a un psicoanalista para tratarse luego de una experiencia traumática. La idea que tenía mi amigo sobre lo que estos analistas esperan de sus pacientes era un cliché, de modo que se pasó la primera sesión haciendo “asociaciones libres” falsas sobre cuánto odiaba a su padre y sobre cuánto le deseaba la muerte. La reacción del analista fue ingeniosa: adoptó una postura ingenua “pre-freudiana” y le reprochó a mi amigo que no respetara a su padre (“¿Cómo puede hablar así de la persona que hizo de usted lo que usted es hoy?”). Esta ingenuidad fingida envió un mensaje claro: no me creo sus “asociaciones” falsas. ¿Acaso un chatbot podría descifrar este subtexto?

Lo más probable es que no, porque es como la interpretación de Rowan Williams del príncipe Myshkin en El idiota de Dostoyevsky. Según la lectura estándar, Myshkin, “el idiota”, es un “hombre piadoso, positivamente bueno y hermoso” que es arrojado a una locura aislada por las brutalidades y pasiones duras del mundo real. Pero en la relectura radical de Williams, Myshkin representa el ojo de una tormenta: por más bueno y piadoso que pueda ser, es el que provoca los estragos y la muerte que presencia, debido a su papel en la red compleja de relaciones que lo rodea.

No es solo que Myshkin sea un simplón ingenuo. Es que su particular personalidad obtusa hace que no sea consciente de los efectos desastrosos que tiene en los demás. Es una persona simple que literalmente habla como un chatbot. Su “bondad” reside en el hecho de que, al igual que un chatbot, reacciona ante los desafíos sin ironía, diciendo perogrulladas desprovistas de toda reflexividad, tomando todo al pie de la letra y basándose en un mecanismo de completado mental automático en lugar de una formación de ideas auténtica. Por esta razón, los nuevos chatbots se llevarán muy bien con los ideólogos de todo tipo, desde quienes hoy se mantienen alertas (“woke”) hasta los nacionalistas del movimiento “MAGA” que prefieren seguir dormidos.

 

Gráfica y lectura anexa recomendada:

https://www.sinpermiso.info/textos/nace-el-campo-de-la-estupidez-artificial

 


Comentarios