ChatGPT, valor y conocimiento
Invité a mi colega y coautor de nuestro último libro, Guglielmo Carchedi, a escribir este post (Michael Roberts).
Guglielmo Carchedi
En un comentario sobre el artículo de Michael Roberts sobre inteligencia artificial (IA) y las nuevas máquinas de aprendizaje de idiomas (LLMs), el autor y comentarista Jack Rasmus planteó algunas preguntas pertinentes, que me sentí obligado a responder.
Jack dijo: “El análisis de Marx de la maquinaria y su visión de que la maquinaria es un valor-trabajo congelado transferido a la mercancía a medida que se deprecia, se aplica completamente a las máquinas basadas en software de IA con la capacidad cada vez mayor de automantenerse y actualizar su propio código sin intervención humana, es decir, ¿no se deprecian?”.
Mi respuesta a la pregunta legítima de Jack presupone el desarrollo de una epistemología marxista (una teoría del conocimiento), un área de investigación que ha permanecido relativamente inexplorada y subdesarrollada.
En mi opinión, una de las principales características de un abordaje marxista es hacer una distinción entre «producción objetiva» (la producción de cosas objetivas) y «producción mental» (la producción de conocimiento). Lo que es más importante, el conocimiento debe ser visto como material, no como inmaterial ni como un reflejo de la realidad material. Esto nos permite distinguir entre dos tipos de medios de producción (MP): los objetivos y los mentales; pero ambos son materiales. Marx se concentró principalmente, pero no exclusivamente, en el primero. Sin embargo, en sus obras hay muchas pistas sobre cómo debemos entender el conocimiento.
Una máquina es un MP objetivo; el conocimiento incorporado a ella (o incorpóreo) es un MP mental. Por lo tanto, la IA (incluido el ChatGPT) debe ser vista como MP mental. En mi opinión, considerando que el conocimiento es material, los MP mentales son tan materiales como los MP objetivos. Por lo tanto, los MP mentales tienen valor y producen plusvalía si son el resultado del trabajo mental humano realizado para el capital. Por lo tanto, la IA implica trabajo humano. Solo que se trata de trabajo mental.
Así como los MP objetivos, los MP mentales aumentan la productividad y eliminan trabajo humano. Su valor se puede medir en horas de trabajo. La productividad de un MP mental puede ser medida, por ejemplo, por el número de veces que el ChatGPT es vendido, descargado o aplicado a los procesos de trabajo mental. Así como un MP objetivo, su valor aumenta a medida que se le adicionan (por el trabajo humano) mejoras (más conocimiento) y disminuye debido al desgaste. Por lo tanto, los PM mentales (IA) no solo se deprecian, sino también que lo hacen a un ritmo muy rápido. Esta depreciación se debe a la competencia tecnológica (obsolescencia), y no a la depreciación física. Y, así como los MP objetivos, su productividad afectará la redistribución de la plusvalía. A medida que los modelos más nuevos de ChatGPT sustituyen los más antiguos, debido a las diferencias de productividad y sus efectos sobre la redistribución de la plusvalía (teoría de precios de Marx), los modelos más antiguos pierden valor frente a los más nuevos y más productivos.
Jack pregunta: “¿Esa capacidad se basa en el trabajo humano o no? Si no, ¿qué significa un ‘no’ para el concepto clave de Marx de la composición orgánica del capital y, a su vez, para su apoyo (MR y mío – GC) frecuentemente declarado a la hipótesis de la caída tendencial de la tasa de ganancia?«.
Mi respuesta arriba fue que esta «capacidad», de hecho, no se basa solo en el trabajo humano (mental), sino que es trabajo humano. Desde esta perspectiva, no hay problema alguno con el concepto de Marx de la composición orgánica del capital (C)[1]. Dado que la IA, y por lo tanto el ChatGPT, son nuevas formas de conocimiento, de MP mentales, el numerador de C es la suma del valor de los MP objetivos más los MP mentales. El denominador es la suma del capital variable gastado en ambos sectores. Por lo tanto, la tasa de ganancia es la plusvalía generada en ambos sectores dividida por (a) la suma de los MP en ambos sectores más (b) el capital variable gastado también en ambos sectores. Así, la ley de la caída tendencial de la tasa de ganancia no es alterada por los MP mentales.
Para entender mejor los puntos arriba, necesitamos desentrañar y desarrollar la teoría del conocimiento implícita de Marx. Eso es lo que hacen los siguientes párrafos, aunque en una versión extremadamente sucinta.
Considere primero las computadoras clásicas. Ellas transforman conocimientos basados en la lógica formal, la lógica booleana o el álgebra, lo que excluye la posibilidad de que un mismo enunciado sea verdadero y falso al mismo tiempo. La lógica formal y, por lo tanto, las computadoras excluyen las contradicciones. Si pudieran percibirlas, estas serían errores lógicos. Lo mismo se aplica a las computadoras cuánticas.
En otras palabras, la lógica formal explica procesos de trabajo mental predeterminados (donde el resultado del proceso es conocido de antemano y, por lo tanto, no contradictorio con el conocimiento que entra en ese proceso de trabajo), pero excluye los procesos de trabajo mental abiertos (en los que el resultado surge como algo nuevo, aún no conocido). Un proceso abierto se basa en un stock de conocimiento potencial y sin forma, que tiene una naturaleza contradictoria debido a la naturaleza contradictoria de los elementos sedimentados en él. A diferencia de la lógica formal, la lógica abierta [o lógica dialéctica, ndt.] se basa en contradicciones, incluida la contradicción entre los aspectos potenciales y realizados del conocimiento. Esta es la fuente de las contradicciones entre aspectos de la realidad, incluidos los elementos del conocimiento.
Volviendo al ejemplo anterior, para procesos de trabajo mental abiertos, A=A y también A¹A. No hay contradicción aquí. A=A porque A, como entidad realizada, es igual a sí misma por definición; pero también es igual a A¹A porque la A realizada puede ser contradictoria con la A potencial.
Esto también se aplica a la Inteligencia Artificial (IA). Al igual que las computadoras, la IA funciona sobre la base de la lógica formal. Por ejemplo, cuando cuestionado si A=A y también si, al mismo tiempo, puede ser igual a A¹A, el ChatGPT responde negativamente. Como funciona sobre la base de la lógica formal, la IA carece de la reserva de conocimiento potencial para extraer más conocimiento. Ella no consigue concebir contradicciones porque no consigue concebir el potencial. Estas contradicciones son el humus del pensamiento creativo, es decir, de la generación de nuevos conocimientos, aún desconocidos. La IA solo puede recombinar, seleccionar y duplicar formas de conocimiento ya existentes. En tareas como visión, reconocimiento de imágenes, razonamiento, comprensión lectora y de juegos, ellas pueden tener un desempeño mucho mejor que el de los humanos. Pero no pueden generar nuevos conocimientos.
Considere el reconocimiento facial, una técnica que compara la fotografía de un individuo con una base de datos de rostros conocidos para encontrar una correspondencia. La base de datos consta de un número de rostros conocidos. [Para] encontrar una correspondencia selecciona un rostro ya realizado, es decir, ya conocido. No hay generación de nuevos conocimientos (nuevos rostros). El reconocimiento facial puede encontrar una correspondencia mucho más rápido que un ser humano. Esto torna el trabajo humano más productivo. Pero la selección no es creación. La selección es un proceso mental predeterminado; la creación es un proceso mental abierto.
Vea otro ejemplo. El ChatGPT parece emular la escritura creativa humana. De hecho, no lo hace. Él obtiene su conocimiento de abundantes datos de texto (los objetos de producción mental). Los textos son divididos en partes más pequeñas, frases, palabras o sílabas, los llamados tokens [fichas]. Cuando el ChatGPT escribe un fragmento, no elige el próximo token conforme a la lógica del argumento (como hacen los humanos). En su lugar, elige el token más probable. El resultado escrito es una cadena de tokens ensamblados sobre la base de la combinación estadísticamente más probable. Esta es una selección y recombinación de elementos de conocimiento ya realizados, y no la creación de nuevos conocimientos.
Lea también | El capitalismo y la Inteligencia Artificial
Como Chomsky et al. (2023) afirman: “La IA toma grandes cantidades de datos, busca padrones en ellos y se torna cada vez más competente en la generación de resultados estadísticamente probables –como lenguaje y pensamiento aparentemente humanos–… [El ChatGPT] simplemente resume los argumentos padrones de la literatura”.
Puede suceder que el ChatGPT produzca un texto que los humanos nunca hayan pensado. Pero eso seguiría siendo un resumen y una reformulación de datos ya conocidos. Ninguna escritura creativa podría emerger de esto, porque el nuevo conocimiento realizado solo puede emerger de las contradicciones inherentes al conocimiento potencial.
Morozov (2023) proporciona un ejemplo relevante: “La obra de arte Fountain, de Marcel Duchamp, de 1917. Antes de la obra de Duchamp, un minjitorio era solo un minjitorio. Pero, con un cambio de perspectiva, Duchamp lo convirtió en una obra de arte. Cuando se le preguntó qué tenían en común el portabotellas, la pala de nieve y el minjitorio de Duchamp, el ChatGPT respondió correctamente que todos eran objetos del cotidiano que Duchamp transformó en arte. Pero cuando se le preguntó qué objetos actuales podría Duchamp transformar en arte, sugirió smartphones, patines electrónicos y máscaras faciales. No hay indicio de ninguna «inteligencia» genuina aquí. Se trata de una máquina estadística bien administrada, pero previsible”.
Marx proporciona la estructura teórica adecuado para la comprensión del conocimiento. Los seres humanos, además de ser individuos concretos únicos, son también portadores de relaciones sociales, como individuos abstractos. Como individuos abstractos, «humanos» es una designación general que oblitera las diferencias entre los individuos, todos ellos con tienen intereses y visiones del mundo diferentes. Incluso si las máquinas (computadoras) pudiesen pensar, no podrían pensar como seres humanos determinados por clase, con concepciones diferentes y determinadas por clase sobre lo que es verdadero y falso, correcto o incorrecto. Creer que las computadoras sean capaces de pensar como seres humanos no solo es erróneo, también es una ideología pro capital, porque eso es estar ciego al contenido de clase del conocimiento almacenado en la fuerza de trabajo y, por lo tanto, a las contradicciones inherentes a la generación de conocimiento.
Fuente: Michael Roberts, ChatGPT, Valor y conocimiento
Traducción: Natalia Estrada.
[1] La composición orgánica del capital (C) es el resultado de la división del capital constante (máquinas y otros medios de producción) por el capital variable (salarios). C = c/v.