Mudança de planos: Google concorda em usar IA para armas e vigilância

Quebrando uma promessa feita há alguns anos, uma das maiores representantes do segmento tecnológico da atualidade resolveu explorar outros caminhos. Em uma polêmica mudança de planos, Google concorda em usar IA para armas e vigilância.

Sendo assim, suas ferramentas impulsionadas por inteligência artificial (IA) agora poderão ser usadas para conflitos armados ou para vigiar alvos — sendo esta uma área bastante abrangente e que pode ter diversas aplicações práticas, pacíficas ou não.

A mudança foi revelada na última terça-feira (04) e marca uma nova fase do Google. A multinacional destacou que pretende promover o desenvolvimento e a implantação desses recursos “com responsabilidade”.

Afirmaram que terá supervisão humana para garantir o feedback e alinhamento com objetivos dos contratantes, além “preservar a responsabilidade social e os princípios amplamente aceitos de leis internacionais e direitos humanos”.

Em uma publicação feita em um blog na última terça-feira, James Manyika, vice-presidente do Google, e Demis Hassabis, líder do laboratório de IA Google DeepMind, compartilharam um pouco mais sobre o posicionamento.

Leia mais

  • Guerra de drones: drones caçadores que combatem outros drones na Ucrânia
  • Piranha 5: drone de bolso vira arma russa na guerra contra a Ucrânia
  • China proíbe venda de peças para drones ao exército dos EUA

Mudança de planos do Google pode equipar forças governamentais com IA

Segundo os executivos, a ascensão de ferramentas de IA com uma tecnologia de uso geral demandou mudanças nas políticas internas. Para complementar, concluíram com as seguintes afirmações:

“Acreditamos que democracias devem liderar o desenvolvimento de IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos. Acreditamos que companhias, governos e organizações que compartilham esses valores devem trabalhar em conjunto para criar uma IA que proteja as pessoas, promova o crescimento global e auxilie na segurança nacional”.

Acreditamos que democracias devem liderar o desenvolvimento de IA, guiadas por valores fundamentais como liberdade, igualdade e respeito pelos direitos humanos.

Em 2018, o Google fez uma promessa que não iria aplicar inteligência artificial para usar em armas ou vigilância após a polêmica do Project Maven. Se tivessem assinado esse contrato, o projeto do Pentágono teria acesso ao software de IA que forneceria imagens capturadas por drones.

Em 2021, a companhia começou a demonstrar sinais que a sua promessa sobre não se envolver nesse segmento poderia não durar muito tempo, porque começaram a analisar contratos miliares mais uma vez.

E, no início deste ano, o The Washington Post reportou que funcionários do Google trabalharam em múltiplas instâncias com o Ministro da Defesa de Israel para expandir o uso das ferramentas de IA utilizadas pelo governo.

Se tiver interesse em ler, no Blog do Google, o post original dos executivos sobre este assunto, clique aqui.

E aí? O que achou do direcionamento da gigante da tecnologia? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Mundo Conectado.

Fonte: Google | engadget

Conteúdo Relacionado
Starlink tem concorrência! China começa a lançar seus próprios satélites

Quanto mais, melhor!

Starlink tem concorrência! China começa a lançar seus próprios satélites

Adicionar aos favoritos o Link permanente.