O governador da Califórnia, Gavin Newsom, vetou o que se tornaria uma das políticas mais abrangentes sobre a segurança da inteligência artificial nos EUA.
O projeto de lei seria um dos primeiros a responsabilizar os desenvolvedores de IA por qualquer dano severo causado por suas tecnologias. Ele recebeu críticas contundentes de alguns democratas proeminentes e grandes empresas de tecnologia, incluindo a OpenAI, criadora do ChatGPT, e a firma de capital de risco Andreessen Horowitz, que alertaram que isso poderia estagnar a inovação no estado.
Newsom descreveu a legislação como “bem-intencionada”, mas afirmou em um comunicado que ela aplicaria “padrões rigorosos até mesmo às funções mais básicas”. A regulamentação deve ser baseada em “evidências empíricas e ciência”, disse ele, referindo-se à sua própria ordem executiva sobre IA e outros projetos de lei que assinou, que regulam a tecnologia em torno de riscos conhecidos, como deepfakes.
LISTA GRATUITA
Ações Fora do Radar
Garanta seu acesso gratuito a lista mensal de ações que entregou retornos 5x superior ao Ibovespa
O debate em torno do projeto de lei SB 1047 da Califórnia destaca o desafio que os legisladores em todo o mundo enfrentam ao controlar os riscos da IA enquanto apoiam a tecnologia emergente. Os formuladores de políticas dos EUA ainda não aprovaram nenhuma legislação abrangente sobre a tecnologia desde que o lançamento do ChatGPT, há dois anos, desencadeou um boom global da IA generativa.
O senador democrata da Califórnia, Scott Wiener, que apresentou o projeto, chamou o veto de Newsom de “retrocesso para todos que acreditam na supervisão de grandes corporações”. Em uma declaração postada no X, Wiener disse: “Estamos todos menos seguros como resultado disso.”
Cuidado razoável
O SB 1047 exigiria que as empresas que desenvolvem modelos de IA poderosos tomassem cuidados razoáveis para garantir que suas tecnologias não causassem “dano severo”, como vítimas em massa ou danos à propriedade acima de US$ 500 milhões. As empresas teriam que tomar precauções específicas, incluindo a manutenção de um botão de desligamento que pudesse desativar sua tecnologia. Os modelos de IA também estariam sujeitos a testes de terceiros para garantir que minimizassem riscos graves.
Continua depois da publicidade
O projeto de lei também criaria proteções para denunciantes em empresas de IA que desejassem compartilhar preocupações de segurança. Empresas que não estivessem em conformidade com o projeto poderiam ser processadas pelo procurador-geral da Califórnia.
Os apoiadores da legislação afirmaram que ela criaria padrões legais sensatos. No entanto, investidores de capital de risco, líderes de startups e empresas como a OpenAI alertaram que isso desaceleraria a inovação e afastaria as empresas de IA do estado.
“A revolução da IA está apenas começando, e o status único da Califórnia como líder global em IA está impulsionando o dinamismo econômico do estado,” escreveu Jason Kwon, diretor de estratégia da OpenAI, em uma carta no mês passado se opondo à legislação. “O SB 1047 ameaçaria esse crescimento, desaceleraria o ritmo da inovação e levaria engenheiros e empreendedores de classe mundial da Califórnia a deixar o estado em busca de maiores oportunidades em outros lugares.”
Continua depois da publicidade
Legisladores opositores
Legisladores, incluindo a ex-presidente da Câmara Nancy Pelosi, o representante Ro Khanna e a prefeita de São Francisco, London Breed, também expressaram sua oposição, ecoando preocupações da indústria de tecnologia de que o projeto poderia prejudicar a liderança da Califórnia em inovação em IA. Newsom disse recentemente que estava preocupado que o projeto pudesse ter um “efeito inibidor” no desenvolvimento da IA.
O projeto havia recebido apoio de alguns nomes importantes da tecnologia no final do mês passado, nos dias que antecederam sua aprovação pela legislatura da Califórnia. Elon Musk inesperadamente expressou seu apoio, embora tenha dito que é uma “decisão difícil e que irá chatear algumas pessoas.” A rival da OpenAI, Anthropic, que tem uma reputação voltada para a segurança, disse que os “benefícios do projeto provavelmente superam seus custos”, embora a empresa tenha afirmado que alguns aspectos permanecem “preocupantes ou ambíguos para nós.”
Wiener defendeu o projeto, enfatizando que suas disposições se aplicam apenas a empresas que gastam mais de US$ 100 milhões no treinamento de grandes modelos ou US$ 10 milhões na afinação de modelos, limites que isentariam a maioria das startups menores. O legislador também observou que o Congresso historicamente tem sido lento para regular a tecnologia em si.
Continua depois da publicidade
Ao anunciar seu veto, Newsom disse que consultará especialistas externos, incluindo a acadêmica e empreendedora em IA Fei-Fei Li, para “desenvolver diretrizes viáveis” sobre a tecnologia e continuar trabalhando com a legislatura estadual sobre o tema.
O governador também assinou um projeto de lei no domingo, SB 896, que regula como as agências estaduais usam IA.
© 2024 Bloomberg L.P.