Via Open Democracy
Pense em um ajuste de mínimos quadrados; você está tentando avaliar a correlação entre duas variáveis ajustando uma linha reta a pontos dispersos, então você calcula a soma dos quadrados das distâncias de todos os pontos à linha e minimiza isso. O aprendizado de máquina faz algo muito semelhante. Ele transforma seus dados em vetores no espaço de recursos para que você possa tentar encontrar limites entre as classes minimizando as somas das distâncias, conforme definido pela função objetivo.
Esses padrões são considerados como reveladores de algo significativo sobre o mundo. Eles assumem o neoplatonismo das ciências matemáticas; uma crença em uma camada da realidade que pode ser melhor percebida matematicamente. Mas esses são padrões baseados em correlação e não em causalidade; por mais complexa que seja a computação, não há compreensão ou mesmo bom senso.
As redes neurais que fazem a classificação de imagens são facilmente enganadas por poses estranhas de objetos familiares. Assim, um ônibus escolar de lado é classificado com segurança como um limpa-neve. No entanto, os cavaleiros arrogantes da IA estão entrando em contextos sociais confusos, esperando poder extrair percepções que antes eram de domínio do discurso.
A aprendizagem profunda já está seriamente fora de seu alcance.
Isso retardará a adoção da IA enquanto descobrimos para que ela é realmente boa? Não, não vai; porque o que estamos vendo é a “IA sob austeridade”, a adoção de métodos mecânicos para resolver as coisas após a crise financeira.
A maneira como a IA obtém sua otimização a partir de cálculos baseados em um vasto conjunto de entradas discretas corresponde exatamente à maneira como o neoliberalismo vê o melhor resultado proveniente de um mercado livre de restrições. A IA é vista como uma forma de resolver o problema da quadratura do círculo entre os serviços destruídos e o aumento da demanda sem ter que desafiar a lógica subjacente.
A descoberta de padrões da IA se presta à previsão e, portanto, à preempção, que pode direcionar o que resta dos recursos públicos para onde os problemas surgirão, seja crime, abuso infantil ou demência. Mas não há uma maneira óbvia de reverter operações como a retropropagação para o raciocínio humano, o que não apenas coloca em risco o devido processo, mas também produz irreflexão no sentido que Hannah Arendt deu a esse termo, ou seja, a incapacidade de criticar instruções, a falta de reflexão sobre as consequências, um compromisso com a crença de que uma ordem correta está sendo executada.
A objeção usual aos julgamentos algorítmicos é a indignação com os falsos positivos, especialmente quando eles resultam de dados de entrada tendenciosos. Mas o problema subjacente é a imposição de uma otimização baseada em uma única ideia do que é melhor, com uma classificação resultante dos que merecem e dos que não merecem.
O que corremos o risco com a adoção acrítica da IA é a insensibilidade algorítmica, que não será salva com a presença de um ser humano no circuito, porque esse ser humano será subsumido pela instituição interessada no circuito.
Ao descartar nossas condições comuns e compartilhadas como se não tivessem valor preditivo, as operações de direcionamento da IA eliminam qualquer reconhecimento das causas de todo o sistema, ocultando a política da situação.
Ao descartar nossas condições comuns e compartilhadas como se não tivessem valor preditivo, as operações de direcionamento da IA eliminam qualquer reconhecimento das causas sistêmicas que ocultam a política da situação.
O acoplamento algorítmico das distâncias vetoriais e das diferenças sociais se tornará a maneira mais fácil de administrar um ambiente hostil, como o criado por Theresa May para atingir os imigrantes.
Mas as sobreposições com a política de extrema direita não param por aí. O caráter de “conhecer por meio da IA” envolve simplificações redutivas com base em dados inatos à análise, e simplificar problemas sociais a questões de exclusão com base em características inatas é precisamente a política do populismo de direita.
Devemos nos perguntar se as gigantescas corporações de IA não hesitariam em colocar as alavancas da correlação em massa à disposição de regimes que buscam o renascimento nacional por meio do etnocentrismo racionalizado. Ao mesmo tempo em que Daniel Guerin escrevia seu livro em 1936 examinando os laços entre o fascismo e as grandes empresas, a IBM de Thomas Watson e sua subsidiária alemã Dehomag estavam fornecendo com entusiasmo aos nazistas a tecnologia de cartões perfurados Hollerith. Agora vemos as fotos de Davos de Jair Bolsonaro sentado no almoço entre Tim Cook, da Apple, e Satya Nadella, da Microsoft.
Enquanto isso, as correlações algorítmicas dos estudos de associação de todo o genoma são usadas para sustentar noções de realismo racial e sustentar uma narrativa de hierarquia genômica. Essa já é uma reunificação histórica da estatística e da supremacia branca, já que a matemática da regressão logística e da correlação, que é tão central para o aprendizado de máquina, foi na verdade desenvolvida pelos eugenistas eduardianos Francis Galton e Karl Pearson.
Precisa ser mais do que a redução dos conjuntos de dados, porque isso deixa o núcleo da IA intocado. Precisa ser mais do que a participação inclusiva na elite da engenharia, porque isso, embora importante, não transformará a IA por si só. Precisa ser mais do que uma IA ética, porque a maior parte da IA ética funciona como relações públicas para acalmar os temores do público, enquanto o setor prossegue com suas atividades. Precisa ser mais do que ideias de justiça expressas em forma de lei, porque isso imagina que a sociedade já é um campo de jogo equilibrado e ofusca as assimetrias estruturais que geram as injustiças perfeitamente legais que vemos se aprofundar todos os dias.
É preciso mais do que a redução dos conjuntos de dados, pois isso deixa o núcleo da IA intocado.
Acho que um bom começo é seguir algumas orientações dos estudos de tecnologia feministas e decoloniais que colocaram em dúvida nossas ideias de ferro fundido sobre objetividade e neutralidade. A teoria do ponto de vista sugere que as posições de desvantagem social e política podem se tornar locais de vantagem analítica e que somente perspectivas parciais e situadas podem ser a fonte de uma visão fortemente objetiva. Da mesma forma, uma ética feminista do cuidado considera a relacionalidade como fundamental, estabelecendo um relacionamento entre o pesquisador e seus sujeitos de pesquisa, o que ajudaria a superar a consciência de espectador da IA.
Para centralizar as vozes marginais e a relacionalidade, sugiro que uma IA antifascista envolva alguns tipos de conselhos populares, para colocar a perspectiva dos grupos marginalizados no centro da prática da IA e transformar o aprendizado de máquina em uma forma de pedagogia crítica. Essa formação de IA não se apressaria simplesmente em otimizar os hiperparâmetros, mas questionaria a origem da problemática, ou seja, as forças estruturais que construíram o problema e o priorizaram.
Atualmente, a IA está a serviço do que Bergson chamou de problemas prontos; problemas baseados em suposições não examinadas e agendas institucionais, pressupondo soluções construídas com o mesmo amianto conceitual. Ter agência é reinventar o problema, tornar algo recém-realizado que, assim, se torna possível, ao contrário do provável; o possível é algo imprevisível, não um rearranjo de fatos existentes.
Dada a captura corporativa da IA, qualquer transformação real exigirá uma mudança nas relações de produção. Uma coisa que marca o último ano ou mais é o sinal de dissidência interna no Google, Amazon, Microsoft, Salesforce e assim por diante sobre os propósitos sociais para os quais seus algoritmos estão sendo usados. Na década de 1970, os trabalhadores de uma fábrica de armas do Reino Unido criaram o plano Lucas, que propunha a reestruturação abrangente de seu local de trabalho para uma produção socialmente útil. Eles não apenas questionaram o propósito do trabalho, mas o fizeram afirmando o papel dos trabalhadores organizados, o que sugere que a atual dissidência dos trabalhadores da tecnologia se tornará transformadora quando eles se virem criando a possibilidade de uma nova sociedade no lugar da antiga.
Estou sugerindo que uma IA antifascista é aquela que toma partido do possível contra o provável, e o faz no ponto de encontro entre sujeitos organizados e trabalhadores organizados. Mas ela também pode exigir alguma resistência organizada das comunidades.
Um thread é uma sequência de instruções programadas executadas por um microprocessador. Em uma GPU da Nvidia, um dos chips de IA, um warp é um conjunto de threads executados em paralelo. Como é estranho que a linguagem dos teares tenha nos acompanhado desde a época dos luditas até a era da IA. A luta pela autodeterminação na vida cotidiana pode exigir um novo movimento ludita, como os residentes e pais em Chandler, Arizona, que bloquearam as vans autônomas da Waymo. “Eles não nos perguntaram se queríamos fazer parte de seu teste beta”, disse uma mãe cujo filho quase foi atropelado por uma delas. Os luditas, lembre-se, não eram contrários à tecnologia, mas tinham como objetivo “acabar com todo maquinário que prejudicasse a comunidade”.
O reconhecimento de padrões preditivos da aprendizagem profunda está sendo aplicado em nossas vidas com a resolução granular do Lidar. Ou seremos ordenados por ele ou nos organizaremos. Portanto, a questão de uma IA antifascista é a questão da auto-organização e da produção autônoma do eu que está se organizando.
Portanto, a questão de uma IA antifascista é a questão da auto-organização e da produção autônoma do eu que está se organizando.
Perguntar “como podemos prever quem fará X?” é fazer a pergunta errada. Já conhecemos as consequências destrutivas na psique individual e coletiva da pobreza, do racismo e da negligência sistêmica. Não precisamos de IA como alvo, mas como algo que ajude a elevar populações inteiras.
A verdadeira IA é importante não porque anuncia a inteligência das máquinas, mas porque nos confronta com as injustiças não resolvidas de nosso sistema atual. Uma IA antifascista é um projeto baseado na solidariedade, na ajuda mútua e no cuidado coletivo. Não precisamos de máquinas autônomas, mas de uma técnica que faça parte de um movimento pela autonomia social.
Minha proposta aqui é que precisamos desenvolver uma IA antifascista.