Google proíbe o desenvolvimento de software de inteligência artificial que pode ser usado em armas, disse o presidente-executivo da empresa, Sundar Pichai, estabelecendo novas diretrizes éticas estritas sobre como a gigante de tecnologia deve conduzir seus negócios em uma era de IA cada vez mais poderosa.

As novas regras podem dar o tom para a implantação da IA ​​muito além do Google, já que rivais no Vale do Silício e em todo o mundo competem pela supremacia em carros autônomos, assistentes automatizados, robótica, IA militar e outras indústrias.

“Reconhecemos que essa tecnologia poderosa levanta questões igualmente poderosas sobre seu uso”, escreveu Pichai em um post no blog . “Como líder em IA, sentimos uma responsabilidade especial para acertar isso”.

Os princípios éticos são uma resposta a uma tempestade de renúncias de funcionários e críticas públicas sobre um contrato do Google com o Departamento de Defesa para software que poderia ajudar a analisar o vídeo, que os críticos argumentaram ter empurrado a empresa um passo mais perto do “negócio da guerra”.

Executivos do Google disseram na semana passada que não renovariam o acordo para o esforço do Exército dos EUA, conhecido como Projeto Maven, quando expirar no ano que vem.

Google proíbe o desenvolvimento de “IA”

O Google, disse Pichai, não buscará o desenvolvimento da IA ​​quando ela puder ser usada para violar a lei internacional, causar danos gerais ou vigiar as pessoas em violação das “normas internacionalmente aceitas de direitos humanos”.

A empresa, no entanto, continuará a trabalhar com governos e militares em segurança cibernética, treinamento, assistência médica veterinária, busca e resgate e recrutamento militar, disse Pichai.

A gigante da Web – famosa por seu antigo mantra “Não seja mau” – está concorrendo a dois contratos multibilionários do Departamento de Defesa para serviços de escritório e nuvem.

A empresa-mãe do Google, de US $ 800 bilhões, Alphabet, é considerada uma das maiores autoridades do mundo em inteligência artificial e emprega alguns dos principais talentos do ramo, incluindo sua subsidiária em Londres, a DeepMind.

Mas a empresa está mergulhada em uma competição acirrada por pesquisadores, engenheiros e tecnologias com firmas chinesas de IA e concorrentes domésticos, como Facebook e Amazon, que poderiam disputar os tipos de contratos lucrativos que o Google diz que vai desistir.

Mais detalhes

Os princípios oferecem detalhes limitados sobre como a empresa procuraria seguir suas regras. Mas Pichai delineou sete princípios fundamentais para suas aplicações de inteligência artificial, incluindo que eles sejam socialmente benéficos, sejam construídos e testados quanto à segurança e evitem criar ou reforçar preconceitos injustos.

A empresa, disse Pichai, também avaliaria seu trabalho em IA examinando o quão de perto sua tecnologia poderia ser “adaptável a um uso prejudicial”.

Um representante do Google que pediu anonimato para falar abertamente sobre o processo disse que a empresa vem desenvolvendo os princípios éticos há meses e que contrata consultores externos para realizar análises internas para garantir que as diretrizes da IA ​​sejam aplicadas.

IA é uma peça fundamental das ferramentas da Web do Google, incluindo pesquisa e reconhecimento de imagens e tradução automática de idiomas. Mas também é fundamental para suas ambições futuras, muitas das quais envolvem minas éticas próprias, incluindo a divisão Waymo autônoma e o Google Duplex, um sistema que pode ser usado para fazer reservas de restaurantes imitando a voz de um humano pelo telefone.

Mas os novos limites do Google parecem ter feito pouco para desacelerar os pesquisadores e engenheiros tecnológicos do Pentágono, que dizem que outros empreiteiros ainda competirão para ajudar a desenvolver tecnologias para a defesa militar e nacional.

Peter Highnam, vice-diretor da Agência de Projetos de Pesquisa Avançada de Defesa, agência do Pentágono que não lidou com o Projeto Maven, mas acredita ter ajudado a inventar a Internet, disse que há “centenas, senão milhares de escolas e empresas que fazem lances agressivos” no DARPA, programas de pesquisa em tecnologias como a AI.

“Nosso objetivo, nosso objetivo, é criar e prevenir surpresas tecnológicas. Então, estamos analisando o que é possível ”, disse John Everett, vice-diretor do Gabinete de Inovação da Informação da DARPA, em uma entrevista na quarta-feira. “Qualquer organização é livre para participar desta exploração em andamento ou não.”

FONTE