Quem governará a IA? A corrida das nações para regular a inteligência artificial

Quem governará a IA A corrida das nações para regular a inteligência artificial

A inteligência artificial (IA) é um termo muito amplo: pode referir-se a muitas atividades realizadas por máquinas computacionais, com ou sem intervenção humana. A nossa familiaridade com as tecnologias de IA depende em grande parte de onde elas desempenham um papel nas nossas vidas, por exemplo, em ferramentas de reconhecimento facial, chatbots, software de edição de fotos ou carros autónomos.

O termo “inteligência artificial” também evoca gigantes da tecnologia – Google, Meta, Alibaba, Baidu – e players emergentes – OpenAI e Anthropic, entre outros. Embora os governos venham à mente com menos facilidade, são eles que moldam as regras sob as quais os sistemas de IA operam.

Desde 2016, diferentes regiões e nações interessadas em novas tecnologias na Europa, Ásia-Pacífico e América do Norte implementaram regulamentos que visam a inteligência artificial. Outras nações estão ficando para trás, comoAustrália [nota do editor: onde trabalham os autores deste artigo], que ainda estuda a possibilidade de adotar tais regras.

Existe atualmente mais de 1 políticas e estratégias públicas em IA no mundo. A União Europeia, a China, os Estados Unidos e o Reino Unido tornaram-se figuras importantes no desenvolvimento e governança de IA, enquanto um cimeira internacional sobre segurança da IA no Reino Unido no início de novembro.

Acelere a regulamentação da IA

Os esforços regulatórios da IA ​​começaram a acelerar em abril de 2021, quando a UE propôs um quadro regulamentar inicial denominado Lei de IA. Estas regras visam estabelecer obrigações para fornecedores e utilizadores, com base nos riscos associados às diferentes tecnologias de IA.

Considerando que a A lei europeia sobre IA estava suspensa, a China propôs seus próprios regulamentos de IA. Nos meios de comunicação chineses, os decisores políticos têm falado do seu desejo de ser o primeiro a agir e fornecer liderança global no desenvolvimento e governança de IA.

Embora a UE tenha adoptado uma abordagem abrangente, a China regulamentou aspectos específicos da IA, um após o outro. Esses aspectos vão desde "recomendações algorítmicas" (por exemplo plataformas como o YouTube) ao síntese de imagem ou voz ou tecnologias usadas para gerar “deepfake” e aIA generativa.

A governação chinesa da IA ​​será complementada por outros regulamentos, ainda por vir. Este processo iterativo permite que os reguladores reforcem a sua conhecimento burocrático e a sua capacidade regulamentar, e permite flexibilidade para implementar nova legislação face aos riscos emergentes.

Um aviso para os Estados Unidos?

O progresso nas regulamentações chinesas de IA pode ter sido um alerta para os Estados Unidos. Em abril, um legislador influente, Chuck Shumer, disse que o seu país não deveria “permitir que a China assumisse a primeira posição em termos de inovação, nem escrevesse as regras do caminho” quando se trata de IA.

Em 30 de outubro de 2023, a Casa Branca emitiu um decreto (ordem executiva) em IA segura, protegida e confiável. Esta ordem executiva tenta esclarecer questões muito amplas de equidade e direitos civis, ao mesmo tempo que aborda aplicações específicas da tecnologia.

Juntamente com os intervenientes dominantes, os países com setores de TI em crescimento, como o Japão, Taiwan, Brasil, Itália, Sri Lanka e Índia, também procuraram implementar estratégias defensivas para mitigar potenciais riscos associados à integração generalizada da IA.

Estas regulamentações globais de IA refletem uma corrida contra a influência estrangeira. Geopoliticamente, os Estados Unidos competem com a China, seja económica ou militarmente. A UE sublinha a criação do seu próprio soberania digital e se esforça para ser independente dos Estados Unidos.

A nível nacional, estas regulamentações podem ser vistas como favorecendo as grandes empresas tecnológicas estabelecidas em detrimento dos concorrentes emergentes. Isto porque muitas vezes é dispendioso cumprir a legislação, exigindo recursos que as pequenas empresas podem não ter.

Alphabet, Meta e Tesla apoiaram chamadas para um Regulamentação de IA. Ao mesmo tempo, Google, de propriedade da Alphabet, assim como a Amazon, investiu bilhões na Anthropic, concorrente da OpenAI; enquanto a xAI, de propriedade de Elon Musk, o chefe da Tesla, acaba de lançar seu primeiro produto, um chatbot chamado Grok.

Uma visão compartilhada

A lei europeia sobre IA, os regulamentos chineses sobre IA e a ordem executiva da Casa Branca mostram que os países envolvidos partilham interesses comuns. Juntos, eles prepararam o terreno para "Declaração de Bletchley", publicado em 1er Novembro, em que 28 países, incluindo os Estados Unidos, o Reino Unido, a China, a Austrália e vários membros da UE [nota do editor: incluindo a França e a própria União Europeia], estão empenhados em cooperar em matéria de segurança da IA.

Os países ou regiões consideram que a IA contribui para o seu desenvolvimento económico, a sua segurança nacional e a sua liderança internacional. Apesar dos riscos reconhecidos, todas as jurisdições estão a trabalhar para apoiar o desenvolvimento e a inovação da IA.

Até 2026, os gastos globais em sistemas centrados em IA poderão ultrapassar 300 bilhões de dólares americanos, de acordo com uma estimativa. Até 2032, de acordo com um relatório da Bloomberg, o mercado generativo de IA só poderia valer US$ 1,3 trilhão.

Esses números tendem a dominar a cobertura mediática da IA, bem como os supostos benefícios da utilização da IA ​​para empresas tecnológicas, governos e empresas de consultoria. Vozes críticas são muitas vezes deixado de lado.

Interesses divergentes

Para além das promessas económicas, os países também estão a recorrer a sistemas de IA para defesa, segurança cibernética e aplicações militares.

Na Cúpula Internacional de Segurança de IA no Reino Unido, as tensões internacionais eram evidentes. Embora a China tenha apoiado a declaração de Bletchley feita no primeiro dia da cimeira, esta foi excluída dos eventos públicos no segundo dia.

Um dos pontos de divergência é o sistema de crédito social da China, que opera de uma forma pouco transparente. O Lei de IA A União Europeia considera que sistemas de classificação social deste tipo criam um risco inaceitável.

Os Estados Unidos veem os investimentos da China em IA como ameaça à sua segurança nacional e económica, especialmente em termos de ataques cibernéticos e campanhas de desinformação. É claro que estas tensões provavelmente dificultarão a colaboração global em regulamentações vinculativas de IA.

Os limites das regras atuais

Os regulamentos existentes sobre IA também têm limitações significativas. Por exemplo, não existe uma definição clara e comum entre as jurisdições dos diferentes tipos de tecnologias de IA.

As atuais definições jurídicas de IA tendem a ser muito amplas, levantando preocupações sobre a sua aplicabilidade na prática, uma vez que os regulamentos abrangem uma vasta gama de sistemas que apresentam riscos diferentes e podem merecer tratamentos diferentes.

Da mesma forma, muitos regulamentos não definem claramente as noções de risco, segurança, transparência, justiça e não discriminação, o que coloca problemas na garantia precisa de qualquer conformidade legal.

Estamos também a ver jurisdições locais iniciarem os seus próprios regulamentos dentro do quadro nacional, para abordar preocupações específicas e equilibrar a regulação e o desenvolvimento económico da IA.

Então o Califórnia apresentou dois projetos de lei destinados a regulamentar a IA no emprego. Xangai propôs um sistema para classificar, gerenciar e supervisionar o desenvolvimento da IA ​​em nível municipal.

No entanto, definir de forma restrita as tecnologias de IA, como fez a China, representa o risco de as empresas encontrarem formas de contornar as regras.

Vá em frente

Conjuntos de “melhores práticas” para a governação da IA ​​estão a emergir de jurisdições locais e nacionais e de organizações transnacionais, sob o controlo de grupos como o Conselho Consultivo da ONU sobre IA e o Instituto Nacional de Padrões e Tecnologia os Estados Unidos. As formas de governação que existem no Reino Unido, nos Estados Unidos, na Europa e, em menor medida, na China, provavelmente servirão de quadro para a governação global.

A colaboração global na governação da IA ​​será sustentada pelo consenso ético e, mais importante, pelos interesses nacionais e geopolíticos.

Fanyang, pesquisador da Melbourne Law School, da Universidade de Melbourne e do ARC Centre of Excellence for Automated Decision-Making and Society., Universidade de Melbourne et Ausma Bernot, pesquisador de pós-doutorado, Escola Australiana de Pós-Graduação em Policiamento e Segurança, Universidade Charles Sturt

Este artigo foi republicado a partir de A Conversação sob licença Creative Commons. Leia oartigo original.

As opiniões expressas neste artigo não refletem necessariamente as da InfoChrétienne.

Crédito da imagem: Creative Commons / Flickr

Na seção Mídia >



Notícias recentes >