Cabeçalho do site
Bem-vindo
Esqueci minha senha

Inteligência Artificial geradora de linguagem na ciência: transformacional ou deformacional?

Fonte: The Publication Plan Blog

The Publication Plan é uma organização sem fins lucrativos que aborda Diretrizes para Publicações e, dessa forma, busca disseminar informações aos editores e autores de artigos científicos. Confira as conclusões sobre uma consulta a alguns especialistas nesta tradução livre do Post intitulado Language-generating AI in science: transformational or deformational? [1].

Conclusões Principais

  • A inteligência artificial geradora de linguagem pode ter um impacto fortalecedor na ciência, mas a falta de transparência e a simplificação excessiva de dados complexos podem ameaçar o profissionalismo científico.
  • Os autores pedem aos órgãos governamentais que imponham regulamentação sistemática para ajudar a realizar o potencial de grandes modelos de linguagem na ciência.

Large language models (LLMs) são algoritmos de inteligência artificial que reconhecem, resumem e geram linguagem humana a partir de grandes conjuntos de dados baseados em texto. Os LLMs poderiam muito bem capacitar os cientistas a extrair informações de big data; no entanto, pesquisadores da Universidade de Michigan estão preocupados com o fato de que, sem regulamentação apropriada, os LLMs podem ameaçar o profissionalismo científico e intensificar a desconfiança pública na ciência.

Um relatório recente  examinou a potencial mudança social trazida pelos LLMs. Em uma sessão subsequente de perguntas e respostas da Nature , a coautora do relatório, professora Shobita Parthasarathy , descreveu o impacto dos LLMs nas disciplinas científicas. Ela destacou o potencial dos LLMs para ajudar grandes editoras científicas a automatizar aspectos da revisão por pares, gerar consultas científicas e até mesmo avaliar resultados, mas alertou que, sem regulamentação sistemática, os LLMs podem exacerbar as desigualdades existentes e simplificar demais os dados complexos.

Sem regulamentação apropriada, os LLMs podem ameaçar o profissionalismo científico e intensificar a desconfiança pública na ciência.

Os desenvolvedores não são obrigados a divulgar a precisão de um LLM e os processos dos modelos não são transparentes, o que significa que os usuários podem não saber que os LLMs podem cometer erros, incluir informações desatualizadas e remover nuances importantes. Além disso, os leitores são incapazes de distinguir o texto gerado pelo LLM do texto gerado por humanos, destacando assim que a tecnologia pode ser empregada para distribuir desinformação e gerar artigos científicos falsos .

Para que o potencial dos LLMs seja realizado na ciência, o professor Parthasarathy pede aos órgãos governamentais que imponham transparência em seu uso, estipulando que aqueles que desenvolvem LLMs devem divulgar os processos dos modelos e deixar claro onde os LLMs foram usados ​​para gerar uma saída.

== REFERÊNCIA ==

MORRIS, Olivia. Language-generating AI in science: transformational or deformational? The Publication Plan Blog, Oct. 13, 2022. Disponível em: https://thepublicationplan.com/2022/10/13/language-generating-ai-in-science-transformational-or-deformational Acesso em: 03 fev. 2023.

== MATÉRIA RELACIONADA ==

DUDZIAK, Elisabeth Adriana. O efeito ChatGPT baseado em Inteligência Artificial e o ensino nas Universidades. Portal ABCD, jan. 2023. Disponível em: https://www.abcd.usp.br/noticias/ia-e-o-ensino-nas-universidades/  Acesso em: …

AnteriorPróxima
© 2012 - 2024 ABCD - Agência de Bibliotecas e Coleções Digitais