Por Adriana Costa
(A convite do De Rerum Natura)
"Autores" não humanos e implicações para a integridade da publicação científica e dos conhecimentos médicos. Este é o titulo de um recente artigo publicado há escassos dias assinado pelos autores ao lado identificados.
Depois de investigar fonte e autores, passei a leitura do texto. Pela importância que se me afigura ter, partilho aqui algumas passagens traduzidas e adaptadas.
As tecnologias de inteligência artificial (IA) destinadas a redigir textos aumentam rapidamente em número e sofisticação. Elas incluem ferramentas de escrita, gramática, linguagem, referências, análise estatística e normas de informação. Mas não são apenas os autores que as usam, os editores também o fazem para analisar submissões no respeitante a plágio, manipulação de imagem, questões éticas, validação de referências, descoberta pós-publicação.Em Novembro de 2022, a OpenAI lançou uma nova ferramenta de linguagem natural chamada ChatGPT, evolução de um chatbot, concebido para simular conversas humanas em resposta a pedidos ou perguntas. Imediatamente surgiu uma discussão focada no seu potencial para bons e maus fins.Muitas das preocupações centraram-se na sua utilização por parte dos estudantes para cometerem fraude nos trabalhos académicos, incluindo exames de licenciatura em medicina.
Mas em Janeiro de 2023, a Nature deu conta de duas pré-publicações e de dois artigos já publicados nas áreas da ciência e da saúde que tinham tido a "ajuda" do ChatGPT. A revista reconheceu o erro e prometeu corrigi-lo. No entanto, estes artigos e os seus "autores" não humanos foram indexados no PubMed e no Google Scholar.
Porém, a revista passou a proibir a nomeação desta e de outras ferramentas congéneres como "autor acreditado num trabalho de investigação" porque "a atribuição de autoria implica a responsabilização pelo trabalho, e as ferramentas de IA não podem assumir tal responsabilidade". Também aconselha os investigadores que as utilizam a referir o seu uso nas secções de Métodos ou Agradecimentos dos textos. Outras revistas e instituições estão a seguir o exemplo, desde recusarem texto gerado por elas, exigirem total transparência, responsabilidade e responsabilização pelo seu uso.
A Conferência Internacional sobre Aprendizagem Automática anunciou uma nova política: "Os artigos que incluem texto gerado a partir de um modelo linguístico de grande escala (LLM) como o ChatGPT são proibidos, a menos que o texto produzido seja apresentado como parte da análise de dados do artigo".
Quem experimentou o ChatGPT, colocando-lhe questões sobre temas controversos ou importantes (por exemplo, se a vacinação infantil causa autismo) e técnicas e éticas, recebeu respostas de texto tendencialmente bem escritas mas com informações desactualizadas, falsas ou fabricadas, sem referências exactas ou completas e, pior, com "provas" inexistentes. Isto mostra que o modelo, além de não poder ser responsabilizado, não pode ser considerado fonte de confiança,
Nesta era de desinformação e desconfiança generalizada, o uso responsável de modelos de linguagem de IA é vital para promover e proteger a credibilidade e integridade da investigação médica e a confiança no conhecimento médico.
Sem comentários:
Enviar um comentário