Tag: Califórnia

  • Califórnia Impõe Regras Para IA: Transparência e Segurança em Destaque na Nova Lei

    Califórnia Impõe Regras Para IA: Transparência e Segurança em Destaque na Nova Lei

    A Califórnia deu um passo significativo em direção à regulamentação da inteligência artificial com o Governador Gavin Newsom sancionando uma nova lei estadual que exigirá que as principais empresas de IA, muitas das quais sediadas no estado, divulguem publicamente como planejam mitigar os riscos potencialmente catastróficos apresentados por modelos avançados de IA.

    A lei também cria mecanismos para relatar incidentes críticos de segurança, estende proteções a denunciantes para funcionários de empresas de IA e inicia o desenvolvimento do CalCompute, um consórcio governamental encarregado de criar um cluster de computação pública para pesquisa e inovação em IA segura, ética e sustentável. Ao obrigar empresas, incluindo OpenAI, Meta, Google DeepMind e Anthropic, a seguir essas novas regras em casa, a Califórnia pode efetivamente definir o padrão para a supervisão da IA.

    Um Equilíbrio Entre Segurança e Inovação

    Newsom apresentou a lei como um equilíbrio entre proteger o público e incentivar a inovação. Em um comunicado, ele escreveu:

    A Califórnia provou que podemos estabelecer regulamentações para proteger nossas comunidades, ao mesmo tempo em que garantimos que a crescente indústria de IA continue a prosperar. Esta legislação atinge esse equilíbrio.

    A SB 53: Foco na Transparência

    A legislação, elaborada pelo Senador Estadual Scott Wiener, segue uma tentativa fracassada de aprovar uma lei semelhante sobre IA no ano passado. Wiener disse que a nova lei, conhecida pelo nome abreviado SB 53 (para Senate Bill 53), foca na transparência em vez da responsabilidade, uma mudança de sua proposta anterior, o projeto de lei SB 1047, que Newsom vetou no ano passado.

    Reações da Indústria: Divididas, Mas com Pontos em Comum

    Apoio à Transparência

    As reações da indústria à nova legislação foram divididas. Jack Clark, cofundador da empresa de IA Anthropic, que apoiou a SB 53, escreveu no X:

    Elogiamos [o Governador da Califórnia] por sancionar a SB 53 [de Scott Wiener], estabelecendo requisitos de transparência para empresas de IA de ponta que nos ajudarão a todos a ter melhores dados sobre esses sistemas e as empresas que os constroem. A Anthropic tem orgulho de ter apoiado este projeto de lei.

    Ele enfatizou que, embora os padrões federais ainda sejam importantes para evitar um mosaico de regras estaduais, a Califórnia criou um quadro que equilibra a segurança pública com a inovação contínua.

    Harmonização e Cooperação

    A OpenAI disse aos veículos de notícias que estava “satisfeita em ver que a Califórnia criou um caminho crítico para a harmonização com o governo federal – a abordagem mais eficaz para a segurança da IA”, acrescentando que, se implementada corretamente, a lei permitiria a cooperação entre os governos federal e estadual na implantação de IA. O porta-voz da Meta, Christopher Sgro, disse de forma semelhante à mídia que a empresa “apoia a regulamentação equilibrada da IA”, chamando a SB 53 de “um passo positivo nessa direção”, e disse que a Meta espera trabalhar com os legisladores para proteger os consumidores e, ao mesmo tempo, fomentar a inovação.

    Alcance Global e Mecanismos da Lei

    Apesar de ser uma lei estadual, a legislação da Califórnia terá alcance global, já que 32 das 50 principais empresas de IA do mundo estão sediadas no estado. O projeto de lei exige que as empresas de IA relatem incidentes ao Gabinete de Serviços de Emergência da Califórnia e protege os denunciantes, permitindo que engenheiros e outros funcionários levantem preocupações de segurança sem arriscar suas carreiras. A SB 53 também inclui penalidades civis por não conformidade, aplicáveis pelo procurador-geral do estado, embora especialistas em política de IA como Miles Brundage observem que essas penalidades são relativamente fracas, mesmo em comparação com as aplicadas pelo AI Act da UE.

    Críticas e Preocupações

    Necessidade de Transparência e Robustez

    Miles Brundage, que anteriormente foi chefe de pesquisa de políticas na OpenAI, disse em uma postagem no X que, embora a SB 53 representasse “um passo à frente”, havia necessidade de “transparência real” nos relatórios, limiares de risco mínimos mais fortes e avaliações tecnicamente robustas de terceiros.

    Risco para Startups e Inovação

    Collin McCune, chefe de assuntos governamentais na Andreessen Horowitz, também alertou que a lei “corre o risco de eliminar startups, desacelerar a inovação e consolidar os maiores players”, e disse que estabelece um precedente perigoso para a regulamentação estado a estado que poderia criar “um mosaico de 50 regimes de conformidade que as startups não têm recursos para navegar”. Várias empresas de IA que fizeram lobby contra o projeto de lei também apresentaram argumentos semelhantes.

    Conclusão: Um Debate em Curso

    A Califórnia visa promover a transparência e a responsabilidade no setor de IA com o requisito de divulgações públicas e relatórios de incidentes; no entanto, críticos como McCune argumentam que a lei pode tornar a conformidade desafiadora para empresas menores e consolidar o domínio da IA das Big Tech.

    Visão do Secure AI Project

    Thomas Woodside, cofundador do Secure AI Project, um copatrocinador da lei, chamou as preocupações em torno das startups de “exageradas”.

    Ele disse à Fortune:

    Este projeto de lei se aplica apenas a empresas que treinam modelos de IA com uma enorme quantidade de poder de computação que custa centenas de milhões de dólares, algo que uma pequena startup não pode fazer. Isso é para relatar coisas muito sérias que dão errado, proteções a denunciantes e um nível muito basic de transparência. As outras obrigações nem se aplicam a empresas com menos de US$ 500 milhões em receita anual.