{"id":74345,"date":"2023-06-07T11:56:52","date_gmt":"2023-06-07T11:56:52","guid":{"rendered":"https:\/\/litci.org\/es\/?p=74345"},"modified":"2024-11-03T13:27:07","modified_gmt":"2024-11-03T13:27:07","slug":"chatgpt-valor-y-conocimiento","status":"publish","type":"post","link":"https:\/\/litci.org\/es\/chatgpt-valor-y-conocimiento\/","title":{"rendered":"ChatGPT, valor y conocimiento"},"content":{"rendered":"\n<p><em>Invit\u00e9 a mi colega y coautor de nuestro \u00faltimo libro, Guglielmo Carchedi, a escribir este post (Michael Roberts).<\/em><\/p>\n\n\n\n<p>Guglielmo Carchedi<\/p>\n\n\n\n<p>En un comentario sobre el art\u00edculo de Michael Roberts sobre <a href=\"https:\/\/thenextrecession.wordpress.com\/2023\/05\/30\/acemoglu-ai-and-automation\/\" target=\"_blank\" rel=\"noopener\">inteligencia artificial (IA) y las nuevas m\u00e1quinas de aprendizaje de idiomas (LLMs),<\/a> el autor y comentarista Jack Rasmus plante\u00f3 algunas preguntas pertinentes, que me sent\u00ed obligado a responder.<\/p>\n\n\n\n<p>Jack dijo: \u201c<em>El an\u00e1lisis de Marx de la maquinaria y su visi\u00f3n de que la maquinaria es un valor-trabajo congelado transferido a la mercanc\u00eda a medida que se deprecia, se aplica completamente a las m\u00e1quinas basadas en software de IA con la capacidad cada vez mayor de automantenerse y actualizar su propio c\u00f3digo sin intervenci\u00f3n humana, es decir, \u00bfno se deprecian?\u201d.<\/em><\/p>\n\n\n\n<p>Mi respuesta a la pregunta leg\u00edtima de Jack presupone el desarrollo de una epistemolog\u00eda marxista (una teor\u00eda del conocimiento), un \u00e1rea de investigaci\u00f3n que ha permanecido relativamente inexplorada y subdesarrollada.<\/p>\n\n\n\n<p>En mi opini\u00f3n, una de las principales caracter\u00edsticas de un abordaje marxista es hacer una distinci\u00f3n entre \u00abproducci\u00f3n objetiva\u00bb (la producci\u00f3n de cosas objetivas) y \u00abproducci\u00f3n mental\u00bb (la producci\u00f3n de conocimiento). Lo que es m\u00e1s importante, el conocimiento debe ser visto como material, no como <em>inmaterial<\/em> ni como un reflejo de la realidad material. Esto nos permite distinguir entre dos tipos de medios de producci\u00f3n (MP): los objetivos y los mentales; pero ambos son materiales. Marx se concentr\u00f3 principalmente, pero no exclusivamente, en el primero. Sin embargo, en sus obras hay muchas pistas sobre c\u00f3mo debemos entender el conocimiento.<\/p>\n\n\n\n<p>Una m\u00e1quina es un MP objetivo; el conocimiento incorporado a ella (o incorp\u00f3reo) es un MP mental. Por lo tanto, la IA (incluido el ChatGPT) debe ser vista como MP mental. En mi opini\u00f3n, considerando que el conocimiento es material, los MP mentales son tan materiales como los MP objetivos. Por lo tanto, los MP mentales tienen valor y producen plusval\u00eda si son el resultado del trabajo mental humano realizado para el capital. Por lo tanto, la IA implica trabajo humano. Solo que se trata de trabajo mental.<\/p>\n\n\n\n<p>As\u00ed como los MP objetivos, los MP mentales aumentan la productividad y eliminan trabajo humano. Su valor se puede medir en horas de trabajo. La productividad de un MP mental puede ser medida, por ejemplo, por el n\u00famero de veces que el ChatGPT es vendido, descargado o aplicado a los procesos de trabajo mental. As\u00ed como un MP objetivo, su valor aumenta a medida que se le adicionan (por el trabajo humano) mejoras (m\u00e1s conocimiento) y disminuye debido al desgaste. Por lo tanto, los PM mentales (IA) no solo se deprecian, sino tambi\u00e9n que lo hacen a un ritmo muy r\u00e1pido. Esta depreciaci\u00f3n se debe a la competencia tecnol\u00f3gica (obsolescencia), y no a la depreciaci\u00f3n f\u00edsica. Y, as\u00ed como los MP objetivos, su productividad afectar\u00e1 la redistribuci\u00f3n de la plusval\u00eda. A medida que los modelos m\u00e1s nuevos de ChatGPT sustituyen los m\u00e1s antiguos, debido a las diferencias de productividad y sus efectos sobre la redistribuci\u00f3n de la plusval\u00eda (teor\u00eda de precios de Marx), los modelos m\u00e1s antiguos pierden valor frente a los m\u00e1s nuevos y m\u00e1s productivos.<\/p>\n\n\n\n<p>Jack pregunta: \u201c<em>\u00bfEsa capacidad se basa en el trabajo humano o no? Si no, \u00bfqu\u00e9 significa un &#8216;no&#8217; para el concepto clave de Marx de la composici\u00f3n org\u00e1nica del capital y, a su vez, para su apoyo (MR y m\u00edo &#8211; GC) frecuentemente declarado a la hip\u00f3tesis de la ca\u00edda tendencial de la tasa de ganancia?<\/em>\u00ab.<\/p>\n\n\n\n<p>Mi respuesta arriba fue que esta \u00abcapacidad\u00bb, de hecho, no se basa solo en el trabajo humano (mental), sino que <strong>es trabajo humano<\/strong>. Desde esta perspectiva, no hay problema alguno con el concepto de Marx de la composici\u00f3n org\u00e1nica del capital (C)<a href=\"#_ftn1\" id=\"_ftnref1\">[1]<\/a>. Dado que la IA, y por lo tanto el ChatGPT, son nuevas formas de conocimiento, de MP mentales, el numerador de C es la suma del valor de los MP objetivos m\u00e1s los MP mentales. El denominador es la suma del capital variable gastado en ambos sectores. Por lo tanto, la tasa de ganancia es la plusval\u00eda generada en ambos sectores dividida por (a) la suma de los MP en ambos sectores m\u00e1s (b) el capital variable gastado tambi\u00e9n en ambos sectores. As\u00ed, la ley de la ca\u00edda tendencial de la tasa de ganancia no es alterada por los MP mentales.<\/p>\n\n\n\n<p>Para entender mejor los puntos arriba, necesitamos desentra\u00f1ar y desarrollar la teor\u00eda del conocimiento impl\u00edcita de Marx. Eso es lo que hacen los siguientes p\u00e1rrafos, aunque en una versi\u00f3n extremadamente sucinta.<\/p>\n\n\n\n<p>Considere primero las computadoras cl\u00e1sicas. Ellas transforman conocimientos basados \u200b\u200ben la l\u00f3gica formal, la l\u00f3gica booleana o el \u00e1lgebra, lo que excluye la posibilidad de que un mismo enunciado sea verdadero y falso al mismo tiempo. La l\u00f3gica formal y, por lo tanto, las computadoras excluyen las contradicciones. Si pudieran percibirlas, estas ser\u00edan errores l\u00f3gicos. Lo mismo se aplica a las computadoras cu\u00e1nticas.<\/p>\n\n\n\n<p>En otras palabras, la l\u00f3gica formal explica procesos de trabajo mental predeterminados (donde el resultado del proceso es conocido de antemano y, por lo tanto, no contradictorio con el conocimiento que entra en ese proceso de trabajo), pero excluye los procesos de trabajo mental abiertos (en los que el resultado surge como algo nuevo, a\u00fan no conocido). Un proceso abierto se basa en un stock de conocimiento potencial y sin forma, que tiene una naturaleza contradictoria debido a la naturaleza contradictoria de los elementos sedimentados en \u00e9l. A diferencia de la l\u00f3gica formal, la l\u00f3gica abierta [o l\u00f3gica dial\u00e9ctica, <em>ndt<\/em>.] se basa en contradicciones, incluida la contradicci\u00f3n entre los aspectos potenciales y realizados del conocimiento. Esta es la fuente de las contradicciones entre aspectos de la realidad, incluidos los elementos del conocimiento.<\/p>\n\n\n\n<p>Volviendo al ejemplo anterior, para procesos de trabajo mental abiertos, A=A y tambi\u00e9n A\u00b9A. No hay contradicci\u00f3n aqu\u00ed. A=A porque A, como entidad realizada, es igual a s\u00ed misma por definici\u00f3n; pero tambi\u00e9n es igual a A\u00b9A porque la A realizada puede ser contradictoria con la A potencial.<\/p>\n\n\n\n<p>Esto tambi\u00e9n se aplica a la Inteligencia Artificial (IA). Al igual que las computadoras, la IA funciona sobre la base de la l\u00f3gica formal. Por ejemplo, cuando cuestionado si A=A y tambi\u00e9n si, al mismo tiempo, puede ser igual a A\u00b9A, el ChatGPT responde negativamente. Como funciona sobre la base de la l\u00f3gica formal, la IA carece de la reserva de conocimiento potencial para extraer m\u00e1s conocimiento. Ella no consigue concebir contradicciones porque no consigue concebir el potencial. Estas contradicciones son el <em>humus<\/em> del pensamiento creativo, es decir, de la generaci\u00f3n de nuevos conocimientos, a\u00fan desconocidos. La IA solo puede recombinar, seleccionar y duplicar formas de conocimiento ya existentes. En tareas como visi\u00f3n, reconocimiento de im\u00e1genes, razonamiento, comprensi\u00f3n lectora y de juegos, ellas pueden tener un desempe\u00f1o mucho mejor que el de los humanos. Pero no pueden generar nuevos conocimientos.<\/p>\n\n\n\n<p>Considere el reconocimiento facial, una t\u00e9cnica que compara la fotograf\u00eda de un individuo con una base de datos de rostros conocidos para encontrar una correspondencia. La base de datos consta de un n\u00famero de rostros conocidos. [Para] encontrar una correspondencia selecciona un rostro ya realizado, es decir, ya conocido. No hay generaci\u00f3n de nuevos conocimientos (nuevos rostros). El reconocimiento facial puede encontrar una correspondencia mucho m\u00e1s r\u00e1pido que un ser humano. Esto torna el trabajo humano m\u00e1s productivo. Pero la selecci\u00f3n no es creaci\u00f3n. La selecci\u00f3n es un proceso mental predeterminado; la creaci\u00f3n es un proceso mental abierto.<\/p>\n\n\n\n<p>Vea otro ejemplo. El ChatGPT parece emular la escritura creativa humana. De hecho, no lo hace. \u00c9l obtiene su conocimiento de abundantes datos de texto (los objetos de producci\u00f3n mental). Los textos son divididos en partes m\u00e1s peque\u00f1as, frases, palabras o s\u00edlabas, los llamados tokens [fichas]. Cuando el ChatGPT escribe un fragmento, no elige el pr\u00f3ximo token conforme a la l\u00f3gica del argumento (como hacen los humanos). En su lugar, elige el token m\u00e1s probable. El resultado escrito es una cadena de tokens ensamblados sobre la base de la combinaci\u00f3n estad\u00edsticamente m\u00e1s probable. Esta es una selecci\u00f3n y recombinaci\u00f3n de elementos de conocimiento ya realizados, y no la creaci\u00f3n de nuevos conocimientos.<\/p>\n\n\n\n<p>Lea tambi\u00e9n | <a href=\"https:\/\/litci.org\/es\/el-capitalismo-y-la-inteligencia-artificial\/\">El capitalismo y la Inteligencia Artificial<\/a><\/p>\n\n\n\n<p>Como Chomsky et al. (2023) afirman: \u201c<em>La IA toma grandes cantidades de datos, busca padrones en ellos y se torna cada vez m\u00e1s competente en la generaci\u00f3n de resultados estad\u00edsticamente probables \u2013como lenguaje y pensamiento aparentemente humanos\u2013&#8230; [El ChatGPT] simplemente resume los argumentos padrones de la literatura<\/em>\u201d.<\/p>\n\n\n\n<p>Puede suceder que el ChatGPT produzca un texto que los humanos nunca hayan pensado. Pero eso seguir\u00eda siendo un resumen y una reformulaci\u00f3n de datos ya conocidos. Ninguna escritura creativa podr\u00eda emerger de esto, porque el nuevo conocimiento realizado solo puede emerger de las contradicciones inherentes al conocimiento potencial.<\/p>\n\n\n\n<p>Morozov (2023) proporciona un ejemplo relevante: \u201c<em>La obra de arte Fountain, de Marcel Duchamp, de 1917. Antes de la obra de Duchamp, un minjitorio era solo un minjitorio. Pero, con un cambio de perspectiva, Duchamp lo convirti\u00f3 en una obra de arte. Cuando se le pregunt\u00f3 qu\u00e9 ten\u00edan en com\u00fan el portabotellas, la pala de nieve y el minjitorio de Duchamp, el ChatGPT respondi\u00f3 correctamente que todos eran objetos del cotidiano que Duchamp transform\u00f3 en arte. Pero cuando se le pregunt\u00f3 qu\u00e9 objetos actuales podr\u00eda Duchamp transformar en arte, sugiri\u00f3 smartphones, patines electr\u00f3nicos y m\u00e1scaras faciales. No hay indicio de ninguna \u00abinteligencia\u00bb genuina aqu\u00ed. Se trata de una m\u00e1quina estad\u00edstica bien administrada, pero previsible<\/em>\u201d.<\/p>\n\n\n\n<p>Marx proporciona la estructura te\u00f3rica adecuado para la comprensi\u00f3n del conocimiento. Los seres humanos, adem\u00e1s de ser individuos concretos \u00fanicos, son tambi\u00e9n portadores de relaciones sociales, como individuos abstractos. Como individuos abstractos, \u00abhumanos\u00bb es una designaci\u00f3n general que oblitera las diferencias entre los individuos, todos ellos con tienen intereses y visiones del mundo diferentes. Incluso si las m\u00e1quinas (computadoras) pudiesen pensar, no podr\u00edan pensar como seres humanos determinados por clase, con concepciones diferentes y determinadas por clase sobre lo que es verdadero y falso, correcto o incorrecto. Creer que las computadoras sean capaces de pensar como seres humanos no solo es err\u00f3neo, tambi\u00e9n es una ideolog\u00eda pro capital, porque eso es estar ciego al contenido de clase del conocimiento almacenado en la fuerza de trabajo y, por lo tanto, a las contradicciones inherentes a la generaci\u00f3n de conocimiento.<\/p>\n\n\n\n<p>Fuente: Michael Roberts, <a href=\"https:\/\/thenextrecession.wordpress.com\/2023\/06\/04\/chatgpt-value-and-knowledge\/\" target=\"_blank\" rel=\"noopener\">ChatGPT, Valor y conocimiento<\/a><\/p>\n\n\n\n<p>Traducci\u00f3n: Natalia Estrada.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<p><a id=\"_ftn1\" href=\"#_ftnref1\">[1]<\/a> La composici\u00f3n org\u00e1nica del capital (C) es el resultado de la divisi\u00f3n del capital constante (m\u00e1quinas y otros medios de producci\u00f3n) por el capital  variable (salarios). C = c\/v.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Invit\u00e9 a mi colega y coautor de nuestro \u00faltimo libro, Guglielmo Carchedi, a escribir este post (Michael Roberts). Guglielmo Carchedi En un comentario sobre el art\u00edculo de Michael Roberts sobre inteligencia artificial (IA) y las nuevas m\u00e1quinas de aprendizaje de idiomas (LLMs), el autor y comentarista Jack Rasmus plante\u00f3 algunas preguntas pertinentes, que me sent\u00ed [&hellip;]<\/p>\n","protected":false},"author":5,"featured_media":74346,"menu_order":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"litci_post_political_author":"","_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[17738],"tags":[],"class_list":["post-74345","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/litci.org\/es\/wp-content\/uploads\/2023\/06\/1366_2000.jpeg?fit=1292%2C840&ssl=1","fimg_url":"https:\/\/i0.wp.com\/litci.org\/es\/wp-content\/uploads\/2023\/06\/1366_2000.jpeg?fit=1292%2C840&ssl=1","categories_names":["Ciencia"],"author_info":{"name":"Kely","pic":"https:\/\/secure.gravatar.com\/avatar\/19003bf6219614b90207b39bd4a2733ce9cf96693efdfd639b15a829beed53d1?s=96&d=mm&r=g"},"political_author":null,"tagline":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/posts\/74345","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/comments?post=74345"}],"version-history":[{"count":4,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/posts\/74345\/revisions"}],"predecessor-version":[{"id":77959,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/posts\/74345\/revisions\/77959"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/media\/74346"}],"wp:attachment":[{"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/media?parent=74345"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/categories?post=74345"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/litci.org\/es\/wp-json\/wp\/v2\/tags?post=74345"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}