Sábado, 14/03/26

quem decide os limites éticos da IA na guerra?

quem decide os limites éticos da IA na guerra?
quem decide os limites éticos da IA na guerra? – Reprodução

A empresa não se opõe ao uso militar de IA de forma geral. Ela resistiu especificamente à vigilância de americanos e a aplicação em armas autônomas, mas apoia o uso para missão de espionagem e inteligência contra estrangeiros. Também apoia fortemente restrições de exportação de semicondutores para a China, uma postura bastante alinhada ao interesse nacional americano.

Não é exatamente a empresa “woke” que Trump tentou retratar ao ser contrariado.

Mas o fato de a Anthropic ter desafiado o governo americano serve para escancarar o momento sensível que vivemos com a chegada de uma das tecnologias mais poderosas da história.

Ainda hoje as empresas desenvolvem os modelos mais poderosos do mundo sem qualquer estrutura regulatória clara, governos querem usar essa tecnologia para segurança nacional sem muita prestação de contas pública, e a sociedade civil tem pouquíssima influência nas decisões.

Alguns anos atrás, no fim de uma palestra minha sobre IA, em um evento de uma big tech, uma pessoa da plateia me fez a seguinte pergunta: “O que você acha do futuro que estamos criando?”.

Eu respondi que a sociedade não estava criando o futuro, mas o futuro estava sendo imposto por quem domina o desenvolvimento da tecnologia que, neste momento, é composto por um seleto grupo de pouquíssimas pessoas.


T LB

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *