Nos últimos anos, a indústria de IA e executivos como Sam Altman, CEO da OpenAI, conduziram de forma muito inteligente a conversa sobre IA generativa para servir aos seus próprios interesses. Segundo eles, a IA generativa é uma tecnologia transformadora que está a melhorar muitos aspetos diferentes da nossa sociedade, mas particularmente o acesso à saúde e à educação.
No entanto, sabiam que haveria críticos, por isso procuraram antecipar os problemas que esses críticos identificariam desde o início. Em vez de levar a sério as críticas reais, a indústria reconheceu que precisava de definir a sua própria narrativa para as potenciais desvantagens da IA. Foi precisamente por isso que, enquanto Altman exaltava os muitos resultados surpreendentes que a sua revolução da IA traria, apresentou um aviso: a IA também poderia representar uma ameaça existencial para a humanidade.
Não se tratava, contudo, de uma ameaça atual. A IA no presente era algo maravilhoso, sem qualquer motivo para não avançar a toda a velocidade com a sua adoção. Mas havia um cenário em que as empresas de IA desenvolviam uma inteligência artificial geral (AGI) ou superinteligência artificial — essencialmente, um cenário em que o computador excedia as capacidades da mente humana e podia exercer poder sobre nós. Pode pensar nisso como o cenário de Matrix: as máquinas assumem o controlo e todos ficamos sujeitos à sua vontade.
Este cenário de ficção científica não é nada realista. Há sérias dúvidas sobre se um computador pode alguma vez replicar o pensamento e a cognição humanos da forma como os CEO de tecnologia querem acreditar — em parte porque esperam um dia fundir os seus cérebros com máquinas para viver para sempre. Apresentar esse cenário foi uma jogada calculada: já havia um monte de gente na indústria prontos a acreditar nisso e isso afastou as preocupações reais sobre o que a IA generativa estava a fazer no aqui e agora.
Na semana passada, fiquei impressionado com duas histórias que contrastavam a ameaça real com a ameaça fabricada e, particularmente, como essa ameaça fabricada permite que os danos sociais reais se perpetuem.
Por um lado, uma nova declaração contra a superinteligência da IA foi assinada por um grupo de pessoas que gostam de acreditar que são muito inteligentes, mas que foram enganadas por alguns vigaristas muito eficazes, se é que não são elas próprias más pessoas. Os signatários incluíam um elenco variado de idiotas, incluindo o “padrinho da IA” Geoffrey Hinton, o proscrito príncipe Harry, o bilionário da Virgin Richard Branson, o agitador de extrema direita Steve Bannon e a figura dos media de direita Glenn Beck.
A declaração, simplesmente, apela à proibição do desenvolvimento da superinteligência da IA até que haja um consenso científico de que isso pode ser feito com segurança e que o público tenha sido convencido. Tenho a certeza de que algumas pessoas assinaram porque uma máquina todo-poderosa parece ser algo importante a evitar, sem considerar como assim estão a ajudar a justificar as fantasias de alguns entusiastas da tecnologia. Enquanto os fiéis seguidores se dedicam ao seu jogo de parecer sérios, os danos reais da IA generativa continuam a aumentar.
Ao mesmo tempo que a declaração recebia muita atenção da imprensa, um vídeo deepfake estava a agitar as eleições presidenciais irlandesas. Os eleitores irlandeses vão às urnas a 24 de outubro para eleger um novo presidente para um mandato de sete anos, e as sondagens mostram que a candidata de esquerda Catherine Connolly é a clara favorita. Embora a presidência seja mais uma função cerimonial, há claramente forças de direita que não estão satisfeitas com a possibilidade de o país ter outro presidente de esquerda, após catorze anos de Michael Higgins no cargo. Ainda não está claro quem está por trás do vídeo deepfake e quais podem ser as suas motivações.
O vídeo deepfake foi apresentado como uma reportagem da emissora nacional RTÉ e mostrava Connolly a retirar-se da corrida, seguido por comentários de repórteres sobre o que parecia ser um anúncio chocante dias antes da votação. É difícil não ver isso como uma tentativa de diminuir os votos para Connolly, fazendo o público acreditar que a eleição presidencial já acabou, sem necessidade de votar. As empresas de redes sociais agiram tardiamente para retirar versões do vídeo das plataformas Meta e do YouTube, mas não antes de ele se ter espalhado por toda a parte e ter sido visto por muitos milhares de eleitores.
É impossível dizer qual será o efeito do vídeo nesta fase. Certamente haverá uma investigação sobre o assunto nos próximos meses, e será interessante ver o que ela revelará. Mas para alguém como Hinton, que defende a ideia de que o risco existencial é a principal coisa em que devemos nos concentrar, a ponto de desconsiderar as preocupações mais fundamentadas dos seus colegas, questões como a proliferação de vídeos deepfake são distrações da ameaça real.
O vídeo deepfake de Connolly é o tipo de coisa em que devemos realmente nos concentrar quando se trata de IA, mas não é isso que pessoas como Altman querem ver ou que Hinton nos incentiva a pensar. São esses danos atuais que nos mostram a verdadeira natureza de como a IA generativa interage com a nossa sociedade e o tipo de resultados sociais e políticos que ela possibilita. A IA generativa está a poluir o ambiente de informação de tal forma que muitas pessoas já não conseguem distinguir se estão a ver lixo de IA ou algo real, deixando-as vulneráveis à manipulação por parte de agentes mal-intencionados. Quando recorrem à IA generativa para obter notícias, as informações que recebem deturpam a história em 45% das vezes, de acordo com o maior estudo realizado até agora sobre o assunto.
Repressão digital suave
Como a inteligência artificial garante a continuidade da hegemonia capitalista
Rezgar Akrawi
Empresas como a Google e a Meta provaram que nunca tiveram muito respeito pela sociedade que exploram incessantemente para gerar mais lucros em resposta à onda da IA generativa. Degradaram a capacidade dos seus utilizadores de obter informações precisas, seja através da introdução de visões gerais de IA ou dando menos ênfase à divulgação de conteúdo noticioso real. Em vez disso, têm-se concentrado mais em impor ferramentas de IA ao público, independentemente da sua fiabilidade, e até mesmo inundando a área com porcarias de IA e chatbots destinados a aumentar o envolvimento, o que significa mais tempo na plataforma, mais olhos nos anúncios e no fim do dia mais lucros com publicidade.
Os problemas com a IA generativa são infinitos. Os custos ambientais da tecnologia têm sido bem discutidos nos últimos dois anos, já que os centros de dados que a alimentam exigem grandes quantidades de água e quantidades obscenas de eletricidade, o que cria pressão para construir ainda mais fábricas de geração de energia a combustíveis fósseis, numa altura em que deveríamos estar a fazer exatamente o oposto. Mas isso é apenas a ponta do iceberg.
Muito antes de Connolly ser alvo de um deepfake político, um grupo muito maior de pessoas — especialmente mulheres e meninas — foi vítima de aplicações de nudez e deepfakes explícitos, possibilitados por geradores de imagens alimentados por modelos de IA generativa. Mais recentemente, uma série de artigos foi publicada sobre os riscos para a saúde mental que podem advir da dependência de chatbots, incluindo tudo, desde colapsos nervosos e internamento até ao pior resultado possível, que é o suicídio de jovens — às vezes até com orientação do chatbot sobre como fazê-lo.
Os governos estão a acordar tardiamente para os malefícios das redes sociais, especialmente porque as empresas priorizam os lucros e o valor para os acionistas acima de qualquer outra métrica possível. As empresas já não se preocupam com os danos individuais que os seus produtos podem causar, nem com as perturbações políticas e sociais para as quais podem contribuir. As respostas dos líderes políticos estão abertas a críticas, como por que razão tantos se concentram em limites de idade em vez de uma regulamentação muito mais ampla que reconheça que não são apenas os adolescentes que são prejudicados pela forma como as empresas governam as suas plataformas. Mas é bastante claro que é necessário tomar medidas para controlar estas fontes de perturbação social.
A regulamentação das redes sociais demorou muito tempo a chegar e, mesmo assim, veio de forma imperfeita. Mas os governos não parecem prontos para lidar com a realidade de que os chatbots e os geradores de imagens e vídeos estão a acelerar os danos causados pelas redes sociais. O enquadramento crítico enganador do argumento da superinteligência levou os governos a perseguir essa pista falsa, enquanto tentam apresentar-se como favoráveis ao investimento em tecnologia para atrair uma pequena fatia dos biliões de dólares que estão a ser gastos em IA generativa e centros de dados. Em suma, estão a sacrificar o bem-estar dos seus cidadãos e, possivelmente, os alicerces de uma sociedade democrática por uma oportunidade de investimento a curto prazo.
A IA generativa nada mais é do que uma forma de suicídio social que deve ser controlada antes que seja tarde demais. Não se pode permitir que ela atinja o nível de proliferação que as redes sociais alcançaram, pois então pode ser impossível revertê-la adequadamente, mas também porque os danos sociais dessa fase da revolução digital (se ainda quisermos chamá-la assim) serão amplificados a um grau inimaginável.
Quantas pessoas precisam de ser desligadas da realidade, levadas à dependência de chatbots e colocadas em risco de perder a sanidade mental antes que os governos tomem medidas contra esses agentes do caos? O tempo está a esgotar-se para acordar para as ameaças reais representadas pela IA generativa e reconhecer que nenhum centro de dados gigantesco ou escritório da OpenAI vale os custos para a sociedade de permitir que essa tecnologia ganhe espaço nas nossas comunidades. Não precisamos apenas de rejeitar a tecnologia dos EUA, mas todo o modelo de tecnologia digital que o Vale do Silício impôs ao mundo.
Paris Marx é um escritor canadiano especialista em tecnologia. Apresenta o podcast Tech Won't Save Us e é autor do livro Road to Nowhere: What Silicon Valley Gets Wrong about the Future of Transportation (Verso, 2022). Artigo publicado na sua página Disconnect