Uma inteligência artificial escreveu um artigo científico sobre si mesma

Nas eleições municipais de 2020, o G1 conseguiu gerar reportagens quase em tempo real com os resultados das apurações de cada um dos municípios brasileiros. Como você deve imaginar, não é uma tarefa fácil escrever sobre os resultados das eleições: além de toda a responsabilidade que o tema exige, é necessário acessar e acompanhar os dados oficiais, contextualizar os resultados, informar sobre as candidaturas. Como diminuir o tempo entre a publicação dos resultados oficiais e noticiar isso? A solução encontrada pelo portal utilizar inteligência artificial para criar as reportagens, que passariam por revisão humana antes de serem publicadas no site.

A primeira reflexão ética surge aqui: quais os limites de uso da inteligência artificial em atividades humanas? Seríamos “substituíveis” por algoritmos?

O uso da IA na produção ou correção de texto não se limitou a situações pontuais, como no exemplo da cobertura das eleições de 2020. Existem serviços que prometem revisar completamente um texto — uma redação, por exemplo — empregando os recursos da tecnologia. Como todo tipo de tecnologia, a aplicação da IA tem o seu lado bom e o seu lado ruim: se por um lado, pode auxiliar estudantes a melhorar a sua capacidade de escrita e de argumentação, por outro, pode coletar dados pessoais — além de não ser tão precisa quanto a sua propaganda defende. Além disso, o emprego da IA na educação pode servir como método de coleta de dados e de redução de custos (muitas vezes, sem qualquer transparência sobre isso) [1]. Em outra perspectiva, a IA poderia ser empregada para melhorar práticas de educação baseada em evidências.

A inteligência artificial não é uma tecnologia recente: já era uma questão prevista por Alan Turing ainda na década de 1940 [2], com o seu famoso “o jogo da imitação” [3]. De lá para cá, a inteligência artificial ganhou campos de pesquisa e de desenvolvimento dentro e fora da academia, alavancada pelo desenvolvimento dos computadores, dos algoritmos e da diversificação de suas aplicações [4]. Hoje é possível gerar rostos que não existem ou criar imagens com elementos gráficos personalizados (como um astronauta montado em um cavalo sobre a Lua). Até mesmo smartphones utilizam inteligência artificial para compreender o uso do aparelho e regular a capacidade de processamento e de uso de memória com base na rotina do usuário. Embora possua muitas aplicações, a inteligência artificial ainda falha em muitos tópicos e ainda não deve ser encarada como uma prática superior ao raciocínio dos humanos, como defende Gary Marcus neste texto para a Scientific American.

Coleta e análise de dados, previsões matemáticas, projeções: essas são algumas aplicações que a IA pode ter na ciência e que, de certa forma, torna o processo de produção do conhecimento científico mais preciso em seus resultados e mais amplo em suas possibilidades. Algoritmos que relacionam referências e seus impactos na comunidade científica são outra aplicação interessante da IA na ciência — você pode ler mais sobre isso aqui [5]. Mas uma das questões mais profundas e importantes do uso da IA na ciência está em como ela pode ser utilizada na publicação dos resultados de uma pesquisa. Se a tecnologia é capaz de ser utilizada para diversos fins, por que não seria para produzir textos acadêmicos?

O mais conhecido sistema de uso da inteligência artificial para a produção de textos acadêmicos é o da OpenAI, empresa responsável pelos algoritmos DALL-E e GPT-3. Este último consegue pesquisar informações e transformá-lo em um texto científico, incluindo resumo, citações e referências (e já foi utilizado até para produzir novos textos de autores falecidos). É um bom caminho se você não sabe exatamente pode onde começar a pesquisar ou obter dados sobre a sua pesquisa. Mas pode ser um problema se você o utilizar como substituto do trabalho humano.

A produção dos textos acadêmicos — como artigos científicos — é algo muito importante na comunidade científica. Utilizar dados e textos sem os devidos créditos é uma prática condenável, conhecida como plágio [6]; a autoria também conta: existe uma relação entre artigos publicados, reputação de uma revista científica e aceitação na comunidade científica que mede o impacto e a importância de um determinado estudo para os cientistas. Agora, imagine que uma inteligência artificial fique responsável por produzir artigos científicos: quem seria o autor do texto? Como seria o processo de validação do que é apresentado? Há algum conflito de interesses por parte dos autores? Todos concordam explicitamente na cessão dos direitos de uso do texto?

Uma IA escrevendo sobre si mesma poderia se parecer com o Chaves no clássico episódio dos churros?

Essas foram algumas perguntas que intrigaram o pesquisador Gary Marcus ao propor o desafio de escrita para uma IA: escrever um artigo científico, com referências, citações e tudo o mais, descrevendo a si mesma. Segundo Gary, a produção do artigo, após as suas instruções, levou pouco mais de duas horas — o tempo de produção do texto é proporcional a quantidade de informações que o algoritmo tem que processar para realizar a escrita; como não há muitos estudos sobre as inteligências artificiais que escrevem sobre si mesmas, é provável que este tempo aumente a medida em que o tema seja abordado pela academia.

O artigo “Can GPT-3 write an academic paper on itself, with minimal human input?” (O GPT-3 pode escrever um artigo acadêmico sobre si mesmo, com o mínimo de entrada humana?, em tradução livre), totalmente escrito pela IA após as instruções de Gary Marcus, foi submetido ao repositório francês HAL e o preprint disponível neste link.

Até o momento, o artigo passa pela revisão por pares e ainda não foi oficialmente avaliado. Mas toda o contexto da produção do artigo traz pontos importantes sobre as novas dinâmicas na produção do conhecimento científico. Novas diretrizes éticas deverão ser adotadas para garantir a transparência no uso de IA para escrever artigos científicos, não apenas para evitar que pesquisadores potencialize a sua capacidade de publicação, inflando artificialmente a sua produção acadêmica. Uma ideia que há algum tempo vem sendo adotada é a de indicar o papel de cada autor na elaboração do artigo. Essa é uma maneira de dar transparência as contribuições efetivas do trabalho — o que pode ser inviável em artigos com muitos autores.  

. . . . .

[1] Como informa essa reportagem da Agência Pública: https://apublica.org/2020/04/laureate-usa-robos-no-lugar-de-professores-sem-que-alunos-saibam/
[2] https://archive.nytimes.com/www.nytimes.com/library/cyber/surf/1106surf-turing.html
[3] “O humano mais humano”
[4] O que me faz pensar, imediatamente, no filme “AI – Inteligência Artificial” (2001) e no fato de ser impossível não chorar com o final da obra.  
[5] Como discutimos no texto: Research Rabbit e os caminhos do coelho pesquisador
[6] Sobre o plágio, leia: A questão do plágio na ciência

Imagem de destaque por Freepik/Starline

. . . . .


O ccult.org é um projeto de divulgação científica independente sobre temas de cultura científica e ensino de ciências da natureza criado e mantido por F. C. Gonçalves desde fevereiro de 2019. Conheça o projeto.

Você pode contribuir financeitamente com o ccult.org. A partir de R$ 1 por mês, você ajuda o projeto a crescer cada vez mais, recebe brindes especiais e ainda concorre a prêmios exclusivos! Acesse: apoia.se/siteccult e saiba mais.

Acompanhe o ccult.org no Facebook, Instagram e Mastodon.

Mais do ccult.org