Pesquisadores analisam riscos de LLMs, como Chat GPT
Os Large Language Models (LLMs) – “Modelos de Linguagem Grandes”, em português – são modelos de inteligência artificial desenvolvidos para compreender e produzir textos em linguagem natural, com coerência e semântica. O Chat GPT, desenvolvido pela OpenAI, é um exemplo de LLM.
Se, por um lado, é uma ferramenta que pode otimizar e acelerar a disseminação de conhecimento, por outro, há riscos de que os chatbots LLM produzam discursos que causem danos aos indivíduos e instituições democráticas.
No texto “How should we regulate LLM Chatbots? Lesson from content moderation”, Jeffrey Howard (UCL) e Beatriz Kira (University of Sussex e pesquisadora do GDPP) defendem que empresas e governos assumam “responsabilidade de prevenir a propagação de discursos prejudiciais através de chatbots LLM”, com reflexões sobre regulamentação da moderação de conteúdos nas plataformas de redes sociais.
Os pesquisadores analisam os riscos apresentados pelos chatbots LLM, e a responsabilidade ética das empresas, além do papel do Estado nesse processo.
Confira o conteúdo na íntegra, em inglês, no portal “The Digital Constitucionalist”.