AiotAiot


Regulamentação do ChatGPT e as reais necessidades

Não devemos coibir o desenvolvimento dessas tecnologias e o trabalho com elas, mas sim direcionar e estabilizar as expectativas entre empresas e usuários

19/06/2023

Regulamentação do ChatGPT e as reais necessidades
Tamanho fonte

Por Lorena Lage*

A regulamentação das tecnologias de Inteligência Artificial, especialmente diante das recentes evoluções do ChatGPT, vem sendo destaque no debate dos que se impressionam com a capacidade descomunal dessas tecnologias de produzir conteúdo e estabelecer conversas com raciocínio lógico e ágil, tal como um ser humano poderia agir, bem como dos que se preocupam no que diz respeito à substituição de muitos profissionais pelos computadores.

A Inteligência Artificial é uma área da tecnologia que se propõe a transferir e ensinar a capacidade humana de “pensar” para os computadores. O objetivo dessa área da Ciência da Computação é igualar e até mesmo superar a capacidade e as habilidades de raciocínio humano.

A tecnologia GPT, sigla em inglês para “Generative Pre-Trained Transformer” que, em português, significa “Transformador Pré-treinado Generativo” é um dos modelos de linguagem baseadas em Inteligência Artificial, utilizando-se de uma arquitetura de rede neural denominada “Transformer”, que foi projetada para gerar textos com coerência e similares aos desenvolvidos pelo ser humano, a partir de entradas de texto que geram o “input” necessário para o desenvolvimento das respostas da tecnologia.

A ferramenta, que pode ser acessada por qualquer pessoa por meio do site “chat.openai.com”, desenvolvida pela OpenAI, uma empresa de pesquisa em IA com sede nos Estados Unidos, processa um volume descomunal de informações armazenadas em bancos de dados virtuais para responder às mais diversas perguntas dos mais variados temas, destacando-se a sua limitação atual para conhecimento de conteúdos aos quais tenha sido alimentado, até o marco temporal de setembro de 2021.

Para avaliar a situação que envolve as discussões relacionadas à regulamentação do ChatGPT, antes de mais nada, faz-se necessário abordar quanto à regulamentação da Inteligência Artificial em si , tendo em vista que o foco da regulamentação deve ser na área de estudo e não em cada ferramenta, modelo de linguagem ou eventual nova tecnologia, já que as preocupações vem com a possibilidade do desenvolvimento das IAs e os impactos destas no mercado e na sociedade.

Caso a preocupação da regulamentação se limite a um modelo de linguagem ou a uma ferramenta específica, poderemos demandar tempo, energia e esforços demais para algo que, quando for regulamentado – diante da morosidade do legislativo – poderá já ser aprovado de forma desatualizada e sem atender às expectativas e anseios da sociedade.

Um exemplo prático desta rápida e intensa evolução é a própria OpenAI, que surgiu em 2015 e de lá até 2023 já contou com grandes saltos de versões diferentes e, por consequência, preocupações e anseios diferentes quanto à tecnologia. Portanto, se falarmos tão somente da regulamentação quanto ao ChatGPT, podemos tendenciosamente, e de forma precipitada, excluir outras versões, ferramentas e tecnologias que estão para serem desenvolvidas, relacionadas à IAs, além de outras versões e nomenclaturas que podem ser utilizadas no futuro, para a referência à tecnologias análogas.

Em termos de regulamentação, quando se trata de aspectos relacionados à área da Ciência da Computação, tal como a própria Inteligência Artificial, que estamos tratando nesse momento, é importante avaliar sua real necessidade. A União Europeia está, desde 2020, discutindo um marco regulatório, e o Brasil também conta com alguns projetos de lei em andamento, com pedidos de priorização para que se dê celeridade a eles. Mas, ficam os questionamentos: realmente é necessário? Precisamos de regulamentações sobre o tema de forma tão ágil e imediatista?

Em um cenário em que ainda se supõe quais seriam os possíveis danos e efetivas (e reais) preocupações de impactos à sociedade, ter uma legislação que não seja tão bem discutida e que pode acabar se tornando uma legislação taxativa – que traria disposições objetivas e expressas sobre como o desenvolvimento de uma IA, tal como o ChatGPT, pode ou não ocorrer – pode não ser o melhor caminho, já que assim podemos impedir ou até mesmo dificultar as criações e evoluções tecnológicas que vão ser importantes para o aprendizado e o desenvolvimento da tecnologia.

O entendimento que temos na doutrina jurídica na atualidade é de direcionar legislações da área da Ciência da Computação para estruturas principiológicas – que permitem direcionamentos com base nos princípios mais adequados para o desenvolvimento de IAs, sem referências expressas às tecnologias e ferramentas existentes na atualidade, mas com direcionamentos quanto às reais preocupações para os comportamentos adequados e aceitáveis do ser humano para a programação e criação de uma IA, por exemplo.

Um exemplo prático é que se temos receio objetivamente da ferramenta com base em uma IA ser preconceituosa, tal como o Chat GPT, o ideal e a forma mais adequada de uma regulamentação para IAs tratar o tema de forma preventiva é por meio de direcionamentos principiológicos sobre o desenvolvimento de tecnologias que não integrem na sua codificação formas de resultados que teriam vieses, sendo basilar que haja a inserção de conteúdos que permitam à IA aprender sobre vieses que não sejam tolerados pela sociedade e que não podem ser utilizados como resultados possíveis.

Ao invés de levarmos a discussão para pensamentos objetivos, tais como a “prisão de um robô” pela ação preconceituosa, tal como no exemplo acima, neste momento é de suma importância que os esforços da doutrina, da jurisprudência e dos legisladores sejam no sentido de focar no direcionamento dos princípios adequados e desejáveis para serem seguidos no desenvolvimento de uma IA, tal como o ChatGPT.

Defendo que a ideia é direcionar para resoluções, a princípio mais subjetivas, mas que teriam resultados muito mais interessantes de forma preventiva e educativa, já que não trataríamos de um ponto específico ou de uma tecnologia específica, podendo abranger, inclusive, para todo e qualquer tipo de preconceito relacionado, como no caso aqui exemplificado. Esse é apenas um dos exemplos, dentre os vários que podemos analisar, pensando na forma de agir, na forma de criar códigos, de desenvolver e de permitir o desenvolvimento dessas tecnologias.

Não podemos ir contra a tecnologia, temos que agir lado a lado, dando direcionamentos sobre o que é adequado, sobre o que não é adequado, de forma principiológica e norteadora para as ações dos desenvolvedores de IAs.

Pensando então nas regulamentações que já existem e em impactos nos negócios que estão atuando com Inteligência Artificial e, por consequência também com o ChatGPT, temos o Código Civil, o Marco Civil da Internet, a Lei da Liberdade Econômica e a própria Constituição Federal, que consagra direcionamentos mínimos sobre os direitos que devem ser preservados e as responsabilidades já existentes relacionadas à temática. Temos legislações que já trazem esse resguardo mínimo para o mercado.

A regulamentação não pode vir para gerar impactos, de forma a coibir o desenvolvimento dessas tecnologias e o trabalho com essas tecnologias, mas sim para direcionar e estabilizar as expectativas entre empresas e usuários.

Entendo que não devemos ter a preocupação de regulamentar de forma taxativa e imediata, agindo com desespero, tal como explicitado anteriormente, pois assim, tendemos a criar uma legislação que pode ser aprovada já estando desatualizada e sem estar de acordo com as melhores práticas para o momento diante do ágil desenvolvimento da área tecnológica.

O momento atual é importante para ouvir o mercado, ouvir os profissionais e estudiosos da área técnica, para agir de forma interdisciplinar e consciente, a fim de que a regulamentação seja principiológica, norteadora e direcionadora – não gerando qualquer tipo de excedente nessa legislação, trazendo pontos que não são preocupações do momento.

A sociedade tem muitas dúvidas relacionadas à responsabilidade civil das Inteligências Artificiais, contando com discussões esbarrando no direito penal, indo além do direito civil, mas não é o momento de pânico ou desespero, porque as situações ainda estão começando a acontecer e a doutrina e jurisprudência vão estar a cargo, a partir de legislações que já existem, para guiar e resgatar a segurança jurídica.

É hora de comunicação interdisciplinar e atuação conjunta para assegurar o desenvolvimento das tecnologias, com responsabilidade.

* Lorena Lage, CEO e co-fundadora da L&O Advogados

TAGS

#ChatGPT#GPT (Generative Pre-trained Transformer)#inteligência artificial#lei#open AI#regulamentacao#Transformer

COMPARTILHE

Notícias Relacionadas