Opinião: GPT-4, segurança jurídica e os reais objetivos por trás dos pedidos de suspensão

       

Luciana Sterzo*

Um fato sobre as novas e avançadas tecnologias, como é o caso da inteligência artificial, é que, dificilmente, anda-se para trás. Acompanhamos, nas últimas décadas, toda sorte de evoluções e, ainda bem, vemos que as questões éticas e regulatórias não são deixadas de lado. É verdade que nem sempre o ritmo da garantia de segurança jurídica acompanha o timing das novidades e esse é, sem dúvidas, um ponto de atenção.

A novidade (já não tão nova) é o pedido de suspensão dos avanços dos treinamentos da IAs mais poderosas que o ChatGPT (agora, GPT-4). Mais de mil pessoas - incluindo Elon Musk, dono do Twitter, da Tesla e da SpaceX, Steve Wozniak, cofundador da Apple, Jaan Tallinn, cofundador do Skype e Evan Sharp, cofundador do Pinterest - assinaram a carta que pede uma pausa de seis meses nas evoluções de inteligência artificial sob a justificativa de que “sistemas de IA que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade".

Sim, podem. De maneira objetiva e direta, há riscos diversos. Mantendo a linha de exemplos recentes, repercutiu negativamente a notícia de que o GPT-4 mentiu. Ora, uma inteligência artificial chegar ao ponto de, assim como os humanos, mentir, é assustador. E foi em um teste de ética. E a divulgação de tal ‘feito’ foi realizada por seu próprio criador, a OpenAI, que apontou, em seu mais recente relatório, que há “temores em relação ao GPT-4, por suas capacidades preocupantes, como a habilidade de criar planos de longa data e agir em cima deles, acúmulo de poder e recursos, e comportamentos cada vez mais autoritários”.

Dito isso, voltemos à carta assinada por Elon Musk – quem, ouso dizer, não se apresenta, em diversos momentos, como um exemplo de comportamento ético -, que, vale destacar, foi um dos fundadores, em 2015, da OpenAI, dona do ChatGPT (sua saída da empresa não foi das mais amigáveis). A preocupação com o avanço da inteligência artificial é de extrema importância – no Brasil e no mundo. São muitos os dilemas éticos e morais que precisam ser devidamente debatidos e regulados.

Entretanto, proponho uma reflexão quanto aos objetivos por trás do pedido de suspensão: é difícil saber se a preocupação é genuína ou apenas uma oportunidade para que, com a interrupção dos testes atuais, outras empresas desenvolvam suas próprias IAs, concorrentes do GPT-4 (a exemplo do frustrado Bard, do Google, que gerou prejuízo de mais de US$ 100 bilhões à empresa).

Traçando um paralelo com a realidade do Brasil em relação a temáticas de tecnologia e inteligência artificial, avalio, com preocupação, as questões regulatórias por aqui. Temos, desde 2020, uma discussão sobre o Projeto de Lei 21/2020, conhecido como ‘Marco Regulatório da Inteligência Artificial’. Repito: desde 2020. Seu texto foi aprovado na Câmara dos Deputados em setembro de 2021 (um ano e meio atrás) e recebeu algumas adições do Senado Federal, mas, desde então, não evoluiu. Quando – e se – for regulamentado no Brasil, considerando o avanço da tecnologia, estará totalmente defasado. Aliás, já está. Afinal, em 2020 e 2021 sequer se imaginava o que seria o hoje famoso ChatGPT. O texto não aborda, por exemplo, a propriedade intelectual dos materiais criados e dos dados usados para treinar inteligências artificiais.

Em tempo: a Agência de Proteção de Dados da Itália bloqueou, com efeito imediato, o uso do GPT-4 no país, por suspeita de desrespeito à legislação envolvendo a privacidade dos dados pessoais e da não verificação da idade dos usuários.

GPT-4, pedido de suspensão de treinamentos, IA mentindo, Marco Regulatório da Inteligência Artificial parado no Congresso Nacional e tantos outros temas que renderiam longos debates, como os titulares dos direitos de conteúdos gerados por IAs, continuarão repercutindo no universo jurídico e no dia a dia dos mundos de negócios e tecnologia. A pergunta que não quer calar: GPT-4, qual será a resolução do pedido de suspensão dos treinamentos de inteligência artificial? “Não sou capaz de prever ou especular sobre o resultado de pedidos de suspensão de treinamentos de inteligência artificial, já que isso depende de fatores legais, éticos e políticos complexos e em constante mudança”. É sobre isso: fatores legais, éticos e políticos.

*Luciana Sterzo é advogada, professora de MBA, especialista em Direito Tributário e diretora jurídica da Tecnobank
Postagem Anterior Próxima Postagem