The Publication Plan é uma organização sem fins lucrativos que aborda Diretrizes para Publicações e, dessa forma, busca disseminar informações aos editores e autores de artigos científicos. Confira as conclusões sobre uma consulta a alguns especialistas nesta tradução livre do Post intitulado Language-generating AI in science: transformational or deformational? [1].
Conclusões Principais
Large language models (LLMs) são algoritmos de inteligência artificial que reconhecem, resumem e geram linguagem humana a partir de grandes conjuntos de dados baseados em texto. Os LLMs poderiam muito bem capacitar os cientistas a extrair informações de big data; no entanto, pesquisadores da Universidade de Michigan estão preocupados com o fato de que, sem regulamentação apropriada, os LLMs podem ameaçar o profissionalismo científico e intensificar a desconfiança pública na ciência.
Um relatório recente examinou a potencial mudança social trazida pelos LLMs. Em uma sessão subsequente de perguntas e respostas da Nature , a coautora do relatório, professora Shobita Parthasarathy , descreveu o impacto dos LLMs nas disciplinas científicas. Ela destacou o potencial dos LLMs para ajudar grandes editoras científicas a automatizar aspectos da revisão por pares, gerar consultas científicas e até mesmo avaliar resultados, mas alertou que, sem regulamentação sistemática, os LLMs podem exacerbar as desigualdades existentes e simplificar demais os dados complexos.
Sem regulamentação apropriada, os LLMs podem ameaçar o profissionalismo científico e intensificar a desconfiança pública na ciência.
Os desenvolvedores não são obrigados a divulgar a precisão de um LLM e os processos dos modelos não são transparentes, o que significa que os usuários podem não saber que os LLMs podem cometer erros, incluir informações desatualizadas e remover nuances importantes. Além disso, os leitores são incapazes de distinguir o texto gerado pelo LLM do texto gerado por humanos, destacando assim que a tecnologia pode ser empregada para distribuir desinformação e gerar artigos científicos falsos .
Para que o potencial dos LLMs seja realizado na ciência, o professor Parthasarathy pede aos órgãos governamentais que imponham transparência em seu uso, estipulando que aqueles que desenvolvem LLMs devem divulgar os processos dos modelos e deixar claro onde os LLMs foram usados para gerar uma saída.
== REFERÊNCIA ==
MORRIS, Olivia. Language-generating AI in science: transformational or deformational? The Publication Plan Blog, Oct. 13, 2022. Disponível em: https://thepublicationplan.com/2022/10/13/language-generating-ai-in-science-transformational-or-deformational Acesso em: 03 fev. 2023.
== MATÉRIA RELACIONADA ==
DUDZIAK, Elisabeth Adriana. O efeito ChatGPT baseado em Inteligência Artificial e o ensino nas Universidades. Portal ABCD, jan. 2023. Disponível em: https://www.abcd.usp.br/noticias/ia-e-o-ensino-nas-universidades/ Acesso em: …