qua maio 22, 2024
quarta-feira, maio 22, 2024

ChatGPT, valor e conhecimento



Convidei meu colega e coautor de nosso último livro, Guglielmo Carchedi, para escrever esta postagem (Michael Roberts).

Guglielmo Carchedi

Em um comentário sobre o artigo de Michael Roberts sobre inteligência artificial (IA) e as novas máquinas de aprendizagem de idiomas (LLMs), o autor e comentarista Jack Rasmus levantou algumas questões pertinentes, que me senti obrigado a responder.

Jack disse: “A análise de Marx sobre maquinário e sua visão de que o maquinário é um valor-trabalho congelado transferido para a mercadoria à medida que se deprecia, aplica-se completamente às máquinas baseadas em software de IA com a capacidade cada vez maior de se automanter e atualizar seu próprio código sem intervenção humana – ou seja, não se depreciam?”

Minha resposta à pergunta legítima de Jack pressupõe o desenvolvimento de uma epistemologia marxista (uma teoria do conhecimento), uma área de pesquisa que permaneceu relativamente inexplorada e subdesenvolvida.

Em minha opinião, uma das principais características de uma abordagem marxista é fazer uma distinção entre “produção objetiva” (a produção de coisas objetivas) e “produção mental” (a produção de conhecimento). Mais importante ainda, o conhecimento deve ser visto como material, não como imaterial, nem como um reflexo da realidade material. Isso nos permite distinguir entre dois tipos de meios de produção (MP) – os objetivos e os mentais; mas ambos são materiais. Marx concentrou-se principalmente, mas não exclusivamente, no primeiro. No entanto, há em suas obras muitas pistas de como devemos entender o conhecimento.

Uma máquina é um MP objetivo; o conhecimento incorporado a ela (ou desincorporado) é um MP mental. Portanto, a IA (incluindo o ChatGPT) deve ser vista como MP mental. Em minha opinião, considerando que o conhecimento é material, os MP mentais são tão materiais quanto os MP objetivos. Portanto, os MP mentais têm valor e produzem mais-valia se forem o resultado do trabalho mental humano realizados para o capital. Portanto, a IA envolve trabalho humano. Só que se trata de trabalho mental.

Assim como os MP objetivos, os MP mentais aumentam a produtividade e eliminam trabalho humano. Seu valor pode ser medido em horas de trabalho. A produtividade de um MP mental pode ser medida, por exemplo, pelo número de vezes que o ChatGPT é vendido, baixado ou aplicado a processos de trabalho mental. Assim como um MP objetivo, seu valor aumenta à medida que melhorias (mais conhecimento) são adicionadas a ele (pelo trabalho humano) e diminui devido ao desgaste. Portanto, os MP mentais (IA) não apenas se depreciam, mas também o fazem em um ritmo muito rápido. Essa depreciação se deve à concorrência tecnológica (obsolescência), e não à depreciação física. E, assim como os MP objetivos, sua produtividade afetará a redistribuição da mais-valia. À medida que os modelos mais novos de ChatGPT substituem os mais antigos, devido aos diferenciais de produtividade e seus efeitos sobre a redistribuição da mais-valia (teoria de preços de Marx), os modelos mais antigos perdem valor para os mais novos e mais produtivos.

Jack pergunta: “Essa capacidade é baseada no trabalho humano ou não? Se não, o que um ‘não’ significa para o conceito-chave de Marx sobre a composição orgânica do capital e, por sua vez, para o seu (MR e meu – GC) apoio frequentemente declarado à hipótese da queda tendencial da taxa de lucro?”

Minha resposta acima foi que essa “capacidade”, de fato, não se baseia apenas no trabalho humano (mental), mas é trabalho humano. Sob essa perspectiva, não há problema algum com o conceito de Marx sobre a composição orgânica do capital (C)1. Como a IA e, portanto, o ChatGPT, são novas formas de conhecimento, de MP mentais, o numerador de C é a soma do valor dos MP objetivos mais os MP mentais. O denominador é a soma do capital variável gasto em ambos os setores. Portanto, a taxa de lucro é a mais-valia gerada em ambos os setores dividida por (a) a soma dos MP em ambos os setores mais (b) o capital variável gasto também em ambos os setores. Assim, a lei da queda tendencial da taxa de lucro não é alterada pelos MP mentais.

Para entender melhor os pontos acima, precisamos desvendar e desenvolver a teoria do conhecimento implícita de Marx. É isso que os parágrafos a seguir fazem, embora em uma versão extremamente sucinta.

Considere primeiro os computadores clássicos. Eles transformam o conhecimento com base na lógica formal, na lógica booleana ou na álgebra, o que exclui a possibilidade de a mesma afirmação ser verdadeira e falsa ao mesmo tempo. A lógica formal e, portanto, os computadores excluem as contradições. Se eles pudessem percebê-las, elas seriam erros lógicos. O mesmo se aplica aos computadores quânticos.

Em outras palavras, a lógica formal explica processos de trabalho mental pré-determinados (em que o resultado do processo é conhecido de antemão e, portanto, não contraditório com o conhecimento que entra nesse processo de trabalho), mas exclui processos de trabalho mental abertos (em que o resultado surge como algo novo, ainda não conhecido). Um processo aberto baseia-se em um estoque de conhecimento potencial e sem forma, que tem uma natureza contraditória devido à natureza contraditória dos elementos sedimentados nele. Diferentemente da lógica formal, a lógica aberta [ou lógica dialética, ndt] baseia-se em contradições, incluindo a contradição entre os aspectos potenciais e realizados do conhecimento. Essa é a fonte das contradições entre os aspectos da realidade, incluindo os elementos do conhecimento.

Voltando ao exemplo anterior, para processos de trabalho mental abertos, A=A e também A¹A. Não há contradição aqui. A=A porque A, como entidade realizada, é igual a si mesmo por definição; mas também é igual a A¹A porque o A realizado pode ser contraditório com o A potencial.

Isso também se aplica à Inteligência Artificial (IA). Assim como os computadores, a IA funciona com base na lógica formal. Por exemplo, quando questionado se A=A e também se, ao mesmo tempo, pode ser igual a A¹A, o ChatGPT responde negativamente. Como funciona com base na lógica formal, a IA não tem o reservatório de conhecimento potencial para extrair mais conhecimento. Ela não consegue conceber contradições porque não consegue conceber o potencial. Essas contradições são o húmus do pensamento criativo, ou seja, da geração de novos conhecimentos, ainda desconhecidos. A IA só pode recombinar, selecionar e duplicar formas de conhecimento já existentes. Em tarefas como visão, reconhecimento de imagens, raciocínio, compreensão de leitura e jogos, elas podem ter um desempenho muito melhor que o dos humanos. Mas não podem gerar novos conhecimentos.

Considere o reconhecimento facial, uma técnica que compara a fotografia de um indivíduo com um banco de dados de rostos conhecidos para encontrar uma correspondência. O banco de dados consiste em um número de rostos conhecidos. Encontrar uma correspondência seleciona um rosto já realizado, ou seja, já conhecido. Não há geração de novos conhecimentos (novos rostos). O reconhecimento facial pode encontrar uma correspondência muito mais rapidamente do que um ser humano. Isso torna o trabalho humano mais produtivo. Mas seleção não é criação. A seleção é um processo mental predeterminado; a criação é um processo mental aberto.

Veja outro exemplo. O ChatGPT parece emular a escrita criativa humana. Na verdade, isso não acontece. Ele obtém seu conhecimento de abundantes dados de texto (os objetos de produção mental). Os textos são divididos em partes menores, frases, palavras ou sílabas, os chamados tokens. Quando o ChatGPT escreve um trecho, ele não escolhe o próximo token conforme a lógica do argumento (como fazem os humanos). Em vez disso, ele escolhe o token mais provável. O resultado escrito é uma cadeia de tokens montada com base na combinação estatisticamente mais provável. Isso é uma seleção e recombinação de elementos de conhecimento já realizados, e não a criação de novos conhecimentos. 

Como Chomsky et al. (2023) afirmam: “A IA pega grandes quantidades de dados, procura padrões neles e se torna cada vez mais proficiente na geração de resultados estatisticamente prováveis – como linguagem e pensamento aparentemente semelhantes aos humanos… [O ChatGPT] apenas resume os argumentos padrão da literatura”.

Pode acontecer que o ChatGPT produza um texto que nunca tenha sido pensado por humanos. Mas, isso ainda seria um resumo e uma reformulação de dados já conhecidos. Nenhuma escrita criativa poderia emergir disso, porque o novo conhecimento realizado pode emergir somente das contradições inerentes ao conhecimento potencial.

Morozov (2023) fornece um exemplo relevante: “A obra de arte Fountain, de Marcel Duchamp, de 1917. Antes da obra de Duchamp, um mictório era apenas um mictório. Mas, com uma mudança de perspectiva, Duchamp transformou-o em uma obra de arte. Quando perguntado sobre o que o porta-garrafas, a pá de neve e o mictório de Duchamp  tinham em comum, o ChatGPT respondeu corretamente que todos eram objetos do cotidiano que Duchamp transformou em arte. Mas, quando perguntado sobre quais objetos atuais Duchamp poderia transformar em arte, ele sugeriu smartphones, patinetes eletrônicos e máscaras faciais. Não há indício de nenhuma “inteligência” genuína aqui. Trata-se de uma máquina estatística bem administrada, mas previsível”.

Marx fornece a estrutura teórica adequada para a compreensão do conhecimento. Os seres humanos, além de serem indivíduos concretos únicos, também são portadores de relações sociais, como indivíduos abstratos. Como indivíduos abstratos, “humanos” é uma designação geral que oblitera as diferenças entre os indivíduos, todos eles com interesses e visões de mundo diferentes. Mesmo que as máquinas (computadores) pudessem pensar, elas não poderiam pensar como seres humanos determinados por classe, com concepções diferentes e determinadas por classe sobre o que é verdadeiro e falso, certo ou errado. Acreditar que os computadores sejam capazes de pensar como seres humanos, não é apenas errado, é também uma ideologia pró-capital, porque isso é estar cego para o conteúdo de classe do conhecimento armazenado na força de trabalho e, portanto, para as contradições inerentes à geração de conhecimento.

Fonte: Michael Roberts, ChatGPT, Value and Knowledge


1     A composição orgânica do capital (C) é o resultado da divisão do capital constante (máquinas e outros meios de produção) pelo capital variável (salários). C = c/v.

Tradução: Marcos Margarido

Confira nossos outros conteúdos

Artigos mais populares