Nos Disparan desde el Campanario La IA piensa por nosotros. Sobre saberes, sesgos y repeticiones… Por Xavier Alcober Fanjul
Fuente: FILOSOFÍA&CO
Link de origen:
https://filco.es/la-ia-piensa-por-nosotros/
La inteligencia artificial no solo
automatiza tareas, también reconfigura las formas en que las sociedades piensan
y acuerdan lo que consideran verdadero. A través de repeticiones, sesgos y
procesos de entrenamiento, los modelos generativos inciden en la conciencia
colectiva.
La conciencia colectiva
La conciencia colectiva puede
considerarse como una especie de macroproyecto a largo plazo que cada
sociedad va construyendo progresivamente. En principio, es un concepto más
sociológico que filosófico, aunque la filosofía tiene mucho que decir en este
tema.
En teoría, la conciencia colectiva
modela nuestro sentido de pertenencia e identidad a un colectivo y también
nuestro comportamiento. Quizá su idea comenzó a fraguarse en el siglo XVIII,
cuando el filósofo Jean-Jacques
Rousseau utilizó el término de «voluntad general». Posteriormente,
varias aportaciones fueron ampliando y refinando este concepto, especialmente
aquellas relacionadas con el estudio de la psicología de masas y la noción del
alma colectiva de un grupo social.
El impulsor de la conciencia
colectiva
Pero fue el sociólogo francés Émile Durkheim, a finales del siglo XIX, quien la
desarrolló significativamente hasta acercarla a su definición más
contemporánea: un conjunto de creencias, ideas, actitudes morales o
conocimientos compartidos que funcionan como una fuerza unificadora dentro de
la sociedad. Según Durkheim, los individuos se agrupan en unidades colectivas y
la sociedad llega a existir porque estas personas se sienten solidarias entre
sí, consiguiendo que esas sociedades sean más funcionales.
Durkheim afirmaba rotundamente que la
conciencia colectiva es la fuente de esta solidaridad. La condición
necesaria para su formación es que existan esas conciencias individuales,
aunque no es condición suficiente. Añadió que la conciencia colectiva es
distinta de la individual y, generalmente, predomina sobre ella.
En su obra La división del
trabajo social, Émile Durkheim diferencia las sociedades tradicionales de las
industrializadas. En las primeras, la religión desempeña un papel muy
importante, uniendo a sus miembros por medio de la creación de una conciencia
común; los contenidos de la conciencia de un individuo son ampliamente
compartidos por otros individuos, dando lugar a lo que denominaba una
solidaridad mecánica, modelada gracias a la afinidad mutua. En el segundo caso
observó que funcionaba a través de una división del trabajo, por lo que surge
una solidaridad orgánica basada en la confianza.
Un concepto en desarrollo
Profundizando en esta línea, el
sociólogo inglés Anthony Giddens pensaba que las conciencias colectivas
difieren en cuatro dimensiones: volumen (cantidad de personas que comparte una
misma conciencia colectiva), intensidad (el grado en que la sienten sus
miembros), rigidez (los niveles de definición) y contenido (la forma que adopta
entre extremos de la sociedad).
William McDougall, un psicólogo
inglés, añadió otra reflexión: el pensamiento y la acción de cada miembro
de una sociedad puede ser muy distinto del pensamiento y la acción de cada
miembro aislado.
El filósofo Edmund
Husserl, uno de los padres de la fenomenología, plantea una
interesante cuestión: ¿qué sucede cuando se observa una noche estrellada, pero
no se contempla ni una sola estrella, sino múltiples estrellas? Husserl explicó
que los conjuntos están constituidos por un enlace colectivo, que tiene la
función de unir a los objetos que advertimos con los otros objetos de los que
tenemos conciencia como de fondo.
Por último, Carl Jung amplió la
definición de conciencia colectiva hacia una versión más en línea con el
psicoanálisis.
Fábricas de inteligencia
En cualquier caso, la conciencia
colectiva podría ser una forma más de conocimiento en un escenario
heterogéneo. Ahora un nuevo actor va entrando en escena: la IA.
ChatGPT de la compañía OpenAI no
necesita presentación: es el que ha conseguido acercar la inteligencia
artificial (IA) al gran público. Su gran éxito estriba en generar textos
relativamente persuasivos y coherentes, de forma que al usuario le parece estar
interaccionando con una persona y no con una máquina. Es esa respuesta con
aparente capacidad retórica de la IA uno de los factores que más fascina al
interlocutor, consiguiendo transferir su mensaje con confianza y credibilidad.
Por supuesto, esa persuasión puede suponer un riesgo si la respuesta es
errónea, siendo aconsejable una dosis de escepticismo, evaluando la calidad o
falsedad de sus respuestas.
ChatGPT es un modelo de IA
generativa, pero hay gran diversidad de modelos y propuestas de la IA que
se manifiestan en productos funcionales muy distintos. Por ejemplo, a nivel
industrial, viene utilizándose con éxito durante años el denominado machine
learning (ML), basado en su capacidad para identificar patrones en datos
masivos y elaborar predicciones.
Es muy útil para el mantenimiento
preventivo en las fábricas, pudiendo detectar componentes de una máquina
que comienzan a presentar síntomas de fatiga o disfuncionalidad (vibraciones o
temperatura excesiva, etc.); advierte con tiempo suficiente como para poder
intervenir de forma precisa, sin necesidad de parar la producción. Otras
aplicaciones exitosas que utilizan distintos modelos son los sistemas de
visión, ya sea identificando imágenes o detectando defectos de fabricación en
una línea de producción.
Jen-Hsun Huang, CEO de Nvidia, el
principal fabricante de chips de IA, califica a los potentes centros de
datos de IA en la nube como verdaderas «fábricas de inteligencia». Define a la
IA en cuatro categorías, que se van desplegando progresivamente: perceptivas
(lenguaje, imágenes, reconocimiento, etc.), generativas (creación de
contenido), agentes (generador de programas, servicio al cliente, atención de
pacientes, etc.) y físicas (vehículos autónomos, robots, etc.).
No obstante, si nos centramos en la
IA generativa, sus modelos son similares a unas redes neuronales
interconectadas; no se programan con reglas explícitas, sino que aprenden de
millones de ejemplos. Esta fase de aprendizaje es clave para después desplegar
con éxito toda su funcionalidad.
Muchas propuestas están basadas en el
denominado «gran modelo de lenguaje» o LLM (large language model) y pueden
ofrecer ensayos, diagnósticos o programas informáticos, entre muchas opciones.
Básicamente, un LLM calcula las
probabilidades de que cierta palabra siga a la cadena de palabras que le
precede. Así se generan frases, párrafos y textos completos. Cuantos más
datos se utilizan en el entrenamiento, mejor son las respuestas. Para mejorar
en determinados ámbitos, incluso se puede introducir una capa extra denominada
refuerzo del aprendizaje.
En cualquier caso, la IA generativa
se beneficia de disponer de una base ingente de datos privilegiada y poder
capitalizar ese conocimiento en sus respuestas. En síntesis, accede a buena
parte de todo el conocimiento acumulado en la historia de la humanidad. Puede
utilizar fuentes de texto, imágenes, vídeo o audio, por ejemplo. No tiene
limitaciones de memoria, si se compara con los humanos.
La IA produce respuestas
estadísticas, aunque sin comprender los conceptos, intenciones o
implicaciones del mensaje que genera. En consonancia con los humanos que
generaron esos textos, la IA también puede ofrecer respuestas con sesgos
pronunciados.
Hay múltiples propuestas para la
mejora de la IA generativa como, por ejemplo, utilizar modelos híbridos,
basados en LLM junto a otras opciones, así como incorporar capas extra que
aporten ciertas ventajas, como los denominados modelos de razonamiento y
cadenas de pensamiento. En este caso, el sistema es más lento a cambio de
obtener más precisión en su respuesta. Otras posibilidades de mejora pasan por
diluir el efecto de caja negra en sus algoritmos (una mayor visualización y
comprensión de cómo genera sus respuestas) o utilizar menos capacidad de
proceso y energía.
Un escenario complejo
Tal como se ha apuntado, la IA se
convierte en un nuevo actor que irrumpe en el escenario de un determinado
grupo social compuesto por individuos, aunque quede enmarcada en segundo
término. En este contexto, las máquinas ayudan e influyen, a través de
distintas funcionalidades, en cada individuo, desde abajo hacia arriba, hasta
alcanzar impacto a nivel de grupo o comunidad (bottom-up). Las máquinas son
capaces de efectuar aportaciones provenientes de su amplia base de datos de
aprendizaje o quizá de nuevas versiones generadas sintéticamente.
Por supuesto, el proceso de formación
de una conciencia colectiva es lento e imperceptible, con inercias
acusadas, que incluso le pueden conferir una sensación de perpetuidad.
Tradicionalmente, se podría asimilar como una sucesión de múltiples
aportaciones en el transcurso del tiempo para construir de forma incremental
esa conciencia colectiva.
Quizá la IA pueda inducir a acelerar
o catalizar propuestas (a través de los individuos), para engrosar ese
relato colectivo. Se pueden intensificar ciertos aspectos o distorsionarlos
sensiblemente. Al fin y al cabo, tradicionalmente, ciertas aportaciones a la
conciencia colectiva se comportan como resonancias culturales que, a fuerza de
repetirse, acaban sonando como verdades. Al final, se refuerza repitiendo.
En este sentido, conviene recordar
las palabras del filósofo y lingüista norteamericano George Lakoff:
entendemos las situaciones en términos de nuestro sistema conceptual, de forma
que las verdades son relativas.
La metáfora booleana
Leibniz (filósofo, matemático y mucho más) fue uno de
los precursores del álgebra en el siglo XVII. Posteriormente surgió la
lógica booleana como una rama del álgebra, utilizada con éxito para realizar
búsquedas precisas en bases de datos, en la teoría de conjuntos y en otros
ámbitos. Los operadores booleanos conectan términos que amplían o limitan los
resultados de una búsqueda, optimizando así la obtención de información
específica.
Con la intención de explorar, de
forma superficial y descriptiva, algunas posibilidades operativas de la
IA, se podría aplicar la lógica booleana como una capa de razonamiento en un
modelo LLM, con el fin de acotar la búsqueda hacia determinados aspectos y
aportar contexto, logrando así resultados más relevantes.
En este ámbito, la conciencia
colectiva sería equivalente a un subconjunto de elementos pertenecientes a
un conjunto más amplio, compuesto por las experiencias, conocimientos y
creencias individuales de un determinado grupo social. Este grupo funcionaría
como una especie de gran base de datos distribuida, con una copia potencial en
cada individuo. Por ejemplo, el operador de intersección condicional (AND)
podría aplicarse como filtro sobre un número significativo de conciencias
individuales, con el fin de identificar el subconjunto común entre ellas, es
decir, la conciencia colectiva.
Aunque este marco es una entelequia,
sirve como base para explorar posibilidades futuras. Los algoritmos de la
IA podrían detectar elementos comunes que aún no están integrados en ese subconjunto
de la conciencia colectiva, e inducir su incorporación. También podrían
introducir elementos no tan comunes —excluidos del resultado del operador AND—
que, a fuerza de repetirse, configuren una nueva versión de conciencia
colectiva.
Quizá eso refuerce rasgos como el
narcisismo, la agresividad o contribuya a perpetuar ciertos sesgos y
seudoverdades. Adicionalmente, los resultados podrían ajustarse teniendo en
cuenta las cuatro dimensiones de Giddens: volumen, intensidad, rigidez y
contenido. Incluso parte de esa nueva conciencia colectiva podría llegar a
configurarse a partir de una propuesta sintética generada por la propia IA.
Eclosión de inteligencias
artificiales
Obviamente, la conciencia colectiva
no puede describirse como un mero subconjunto sobre el que se aplica una
operación AND, y ya está. La IA no tiene acceso directo a las conciencias
individuales, pero sí a múltiples perfiles, hábitos personales y un gran número
de relatos sociales y colectivos generados por esa comunidad.
Pero aun así, ¿de qué IA estamos
hablando? Como se ha comentado, existen múltiples tipos de inteligencia
artificial, muchas de ellas desarrolladas desde iniciativas privadas que
compiten entre sí en el mercado. Sus potenciales influencias pueden sumarse,
anularse, quedar atenuadas o incluso resultar irrelevantes.
A nivel empresarial, muchas compañías
están implantando proyectos de IA en áreas funcionales diversas (fabricación,
ventas, logística, etc.), con el objetivo principal de aumentar la
productividad. Sin embargo, los resultados esperados tardan en aparecer, y
algunas cuestiones siguen sin resolverse.
El responsable de IA en una empresa
comprueba que hay versiones de inteligencia artificial muy visibles —especialmente
aquellas en las que la compañía ha invertido directamente— y otras más
discretas, integradas por terceros en otros productos. A la vez, sus
aplicativos interactúan con múltiples herramientas que también contienen IA
integrada por otras empresas: desde procesadores de texto hasta bots de
atención al cliente o bases de datos.
En definitiva, asistimos a una
eclosión de inteligencias artificiales distintas que comparten un mismo
entorno, con propósitos diversos y, en ocasiones, incluso contradictorios.
Muchas de ellas ni siquiera son reconocidas por la propia empresa que las
utiliza. Por tanto, aunar objetivos, conseguir cierto sincronismo o evitar
desfases de propagación entre distintas IA no es una tarea sencilla. Si esto ya
ocurre en un entorno relativamente controlado como el empresarial, no digamos
lo que puede suceder a nivel de grandes colectivos en un espacio abierto y a
gran escala.
A partir de aquí, para simplificar, cuando
hablemos de «la IA» nos referiremos a un término amplio que engloba múltiples
alternativas y posibilidades.
Los procesos y la conciencia
colectiva
Estamos acostumbrados a pensar la
tecnología en clave de objetos: materiales (un taladro, una pantalla) o
inmateriales (software, datos). En este sentido, solemos asociar la IA con una
cosa: un ordenador, un centro de datos, un robot, un software o un coche
autoguiado, entre otros. Esta visión no ha cambiado demasiado desde los tiempos
de Platón, quien, desde una perspectiva metafísica, concebía el mundo como un
catálogo de objetos y sustancias.
En filosofía ha sido frecuente
reflexionar sobre las cosas, pero también interesa analizar lo que las
cosas hacen. Esta segunda vía es conocida como filosofía del proceso. En ella,
el mundo no es una colección de objetos, sino un proceso de devenir (más que de
ser). Ya en la filosofía presocrática hay rastros de esta perspectiva, como el
flujo radical propuesto por Heráclito.
Posteriormente, el enfoque continúa en el idealismo de Hegel y en el
pragmatismo de James, Dewey o Peirce.
Un ejemplo claro de filosofía del
proceso se encuentra en las ideas de Alfred North Whitehead y Henri Bergson. Whitehead
defendía que la realidad consiste en procesos más que en objetos materiales.
Bergson, por su parte, hablaba del tiempo como duración, distinguiendo entre
el tiempo vivido —inseparable de la experiencia— y el tiempo científico,
entendido como una medida meramente cuantitativa. Curiosamente, Whitehead
también fue matemático y realizó aportaciones al álgebra y la lógica.
La filosofía del proceso se adentra
en la metafísica como teoría general de la realidad. Se centra en lo que
existe y en los términos en los que esa realidad debe comprenderse y
explicarse. Las entidades y las experiencias forman parte de ese devenir. En
este marco, la IA deja de ser una cosa para convertirse en una narrativa o en
una colección de narrativas que se vinculan con otras. De hecho, en muchos
procesos, las dos versiones del tiempo (medida y vivencia) confluyen: la IA se
asocia tanto a una medición como a una experiencia.
El filósofo neerlandés Peter-Paul
Verbeek, en la línea de la posfenomenología, plantea la filosofía de la
tecnología como un análisis empírico de las tecnologías. En lugar de crear un
marco para analizar las características universales de cada tecnología, parte
de la propia tecnología como punto de inicio.
Lo ilustra con el ejemplo de una
ecografía obstétrica: una imagen generada a partir de múltiples ecos de
retorno, presentada en un formato visual arbitrario pero familiar (podría
mostrarse de otros modos). Esa imagen puede dar lugar a decisiones
trascendentales. Además, recuerda que no vemos al feto y a la madre por
separado, sino al feto en un entorno.
Siguiendo esta línea, la formación de
la conciencia colectiva también podría analizarse como el resultado de múltiples
procesos —políticos, religiosos, económicos, etc.—, todos ellos dinámicos y en
transformación. La IA formaría parte de ese entorno de flujos complejos, lo que
abre nuevas vías de análisis a futuro. Se trataría de entender todo esto como
una narrativa (otro proceso más) que emerge de otros procesos y relatos.
Aunque la IA se dirige al individuo,
también cabe pensarla como un potencial co-narrador de la
historia. Por ejemplo, si llegara a influir en las decisiones de los
individuos —induciéndolos a comprar ciertos productos mediante recomendaciones
ajustadas a su perfil estadístico— podría modificar la historia personal de ese
consumidor. También los gobiernos podrían emplear la IA para promover ciertas
ideas favorables a sus intereses, ya sea en su propio país o en otros,
utilizando redes sociales, bots, clics publicitarios u otros recursos para
difundir mensajes.
Algunas de estas ideas podrían acabar
consolidándose en relatos sociales. Siguiendo la analogía de la montaña,
podrían constituir un campo base desde el que ascender hacia una cumbre: quizá
una versión de conciencia colectiva.
Navegar en un entorno dinámico y
complejo
La IA puede desplegarse a través de
múltiples canales en la sociedad. En un contexto de aceleración
tecnológica, se vuelve aún más difícil gestionar sus limitaciones y efectos
adversos, así como articular una integración significativa con los seres
humanos.
Una normativa o un código de buenas
prácticas no basta para prevenir los efectos indeseados de la IA, como el
refuerzo de formas existentes de opresión o la promoción de la codicia y la
explotación. Para que estos sistemas contribuyan al bien común, es necesario
identificar y enfrentar sus sesgos y limitaciones estructurales, y diseñarlos
de forma que sean más transparentes, responsables y alineados con valores
éticos.
Adoptar una perspectiva relacional
permite cuestionar la premisa de que la IA está totalmente separada de la
experiencia y la conciencia humanas. Desde esta óptica, los sistemas de IA
no son entidades externas, sino que están ya integrados en procesos sociales
más amplios. Esta comprensión puede facilitar el desarrollo de tecnologías que
respondan mejor a las necesidades y valores humanos, en lugar de regirse
exclusivamente por la lógica del beneficio o la eficiencia.
Aflorar las contradicciones
Si Theodor W. Adorno despertara en
plena era de la IA, probablemente reafirmaría muchas de sus tesis.
Sostenía que una sociedad que contradice su propio concepto —la humanidad— no
puede tener conciencia plena de sí misma. En su concepción de la dialéctica, no
hay una síntesis conciliadora que resuelva las tensiones: las contradicciones
persisten, visibles y sin resolver, en la propia realidad.
Desde una perspectiva crítica, esto
implica la necesidad de visibilizar las contradicciones generadas por la
integración de la IA en la vida social, sin ocultarlas ni neutralizarlas. Es
precisamente el flujo dialéctico lo que permite que esas tensiones emerjan, se
piensen y se discutan colectivamente.
Émile Durkheim, por su parte,
defendía la idea de conciencia colectiva: una dimensión de lo social que
trasciende al individuo y configura nuestros pensamientos y acciones. Aunque su
visión puede parecer excesiva, sigue siendo útil para pensar cómo se construye
—y se disputa— esa conciencia común. La IA, al amplificar ciertas tendencias y
sesgos, influye de forma creciente en este proceso colectivo.
¿Quién controla esta dinámica? ¿Quién
se beneficia? No hay una única respuesta. Empresas privadas, instituciones
públicas, colectivos diversos: todos participan, con intenciones que oscilan
entre el interés propio, la ingenuidad y una amplia gama de posiciones
intermedias.
Mitigar lo inevitable
Resolver todos los efectos negativos
de la IA es improbable, pero sí pueden desarrollarse estrategias para
atenuarlos. Existen múltiples vías aún por explorar o en proceso de desarrollo.
Algunas de ellas incluyen:
Reforzar los marcos jurídicos y
éticos;
Fomentar organismos de
estandarización;
Garantizar la independencia de los
comités de vigilancia;
Promover el intercambio de
información entre entidades de monitoreo;
Establecer auditorías independientes
en aplicaciones críticas;
Incentivar el uso de modelos abiertos
y explicables (XAI);
Proteger con mayor rigor los datos y
la privacidad;
Elevar la alfabetización tecnológica
de la población;
Fiscalizar las bases de datos de
entrenamiento;
Etiquetar los contenidos generados o
modificados por IA;
Mejorar la gobernanza en empresas e
instituciones.
Incluso la propia tecnología puede
ser parte de la solución: por ejemplo, sistemas compuestos por tres
modelos distintos de IA que cotejan sus resultados en una forma de votación
implícita, o tecnologías capaces de detectar automáticamente si un contenido ha
sido generado o manipulado mediante IA.
Contra la fe ciega en el progreso
La IA puede ofrecer beneficios
significativos. Sin embargo, Adorno —como otros filósofos— advirtió sobre
el peligro de una confianza ciega en el progreso científico. El conocimiento,
decía, no debe perseguirse como fin en sí mismo, sino estar vinculado a un
proyecto de emancipación humana. Una idea sencilla de formular, pero difícil de
llevar a la práctica.
Xavier Alcober Fanjul nació en
Barcelona, es ingeniero y consultor y un apasionado de la filosofía. Tiene
experiencia en docencia técnica e implantación de aplicaciones de
automatización industrial. Ha publicado múltiples artículos en medios técnicos
y también ha participado en distintos foros de tecnología.
Comentarios
Publicar un comentario