O ChatGPT é uma inteligência artificial (IA) generativa criada pela empresa OpenAI. Lançada em novembro do ano passado, a ferramenta se popularizou rapidamente, atingindo 100 milhões de usuários em seus primeiros dois meses de existência.
Sob o formato chatbot, ou seja, um software que simula a fala humana e é capaz de “bater papo” com usuários, o ChatGPT tem como objetivo funcionar como um assistente virtual.
Apesar de a intenção ser boa, surgiram diversos questionamentos sobre o uso desse tipo de plataforma – principalmente quando estudantes recorreram a ela para “colar” em provas e tarefas escolares.
A inteligência artificial generativa é uma tecnologia capaz de gerar conteúdo original . No caso do ChatGPT, isso acontece no formato de texto, mas outras ferramentas possibilitam a geração de imagens ou músicas, por exemplo.
Por trás disso, está a aprendizagem de máquina – do inglês, machine learning. Ou seja, a tecnologia pesquisa em uma base de dados já existente para fazer suas “criações” e também é treinada à medida que entra em contato com novas informações enviadas pelos próprios usuários durante as interações. É por isso que a IA generativa está em constante atualização.
Um dos principais recursos utilizados pelos criadores de inteligências artificiais é aquilo que se chama de “redes generativas adversariais” (GAN, na sigla em inglês).
Gerador: responsável por criar novos exemplos para serem utilizados pela IA.
Discriminador: realiza a checagem de fatos da IA, avaliando a qualidade dos novos exemplos gerados e verificando se coincidem com dados reais.
O GAN é um processo interativo entre essas duas ferramentas. O discriminador recebe amostras aleatórias que classifica como verdadeiras ou falsas. Ao concluir esse processo, é enviada uma espécie de feedback ao gerador, que passa a ser ajustado para melhorar a qualidade dos exemplos criados por ele.
Embora essa ferramenta funcione de maneira a gerar as respostas mais fidedignas possíveis, a IA generativa tem alguns problemas.
Nem sempre a inteligência artificial consegue compreender completamente os comandos efetuados, principalmente quando é exigido um conhecimento contextual sobre o tema. Dessa forma, podem ser geradas respostas incorretas ou imprecisas.
Dados não são neutros. Eles refletem o pensamento da sociedade que os produz – incluindo preconceitos. Como a IA é treinada com base nessas evidências e não tem a capacidade de questioná-las, há o risco de que produza informações enviesadas.
As bases de dados fornecidas para o treinamento da IA são verificadas periodicamente, não constantemente. No caso do ChatGPT, por exemplo, até o momento são utilizadas apenas informações disponibilizadas até setembro de 2021.
Há, ainda, uma questão ética por trás dessa tecnologia – como a transparência sobre a origem dos dados utilizados na sua construção. Nesse contexto, na Europa, por exemplo, está sendo criada a primeira lei para regulamentação da inteligência artificial, chamada “ AI ACT ”. O projeto legislativo foi aprovado por duas comissões do Parlamento Europeu, com o acréscimo de emendas. O texto traz trechos dedicados ao formato generativo.
Recentemente, o Google anunciou que utilizará a IA generativa em seus mecanismos de busca. A ideia é que ao responder uma pesquisa do usuário (como a pergunta “o que é ChatGPT?”), o Google já entregue as principais informações sintetizadas em um texto resumido, apontando os links que serviram como referência para o resultado.
O mecanismo de buscas já utiliza IA em algumas ferramentas. É o caso do Google Tradutor, que melhorou suas traduções e a compreensão contextual das frases digitadas à medida que os usuários foram incrementando suas bases de dados. Mas a utilização do sistema generativo é algo inteiramente novo – e que promete tornar as pesquisas mais precisas no futuro.
Por Ana Carolina Stobbe
Gostou deste conteúdo? Deixe seu comentário abaixo ou compartilhe com seus amigos!
MAPA DO SITE