Skip to main content
Como regular os chats de inteligência artificial?
Como regular os chats de inteligência artificial?

Pesquisadores analisam riscos de LLMs, como Chat GPT

Os Large Language Models (LLMs) –  “Modelos de Linguagem Grandes”, em português –  são modelos de inteligência artificial desenvolvidos para compreender e produzir textos em linguagem natural, com coerência e semântica. O Chat GPT, desenvolvido pela OpenAI, é um exemplo de LLM. 

Se, por um lado, é uma ferramenta que pode otimizar e acelerar a disseminação de conhecimento, por outro, há riscos de que os chatbots LLM  produzam discursos que causem danos aos indivíduos e instituições democráticas. 

No texto “How should we regulate LLM Chatbots? Lesson from content moderation”, Jeffrey Howard (UCL) e Beatriz Kira (University of Sussex e pesquisadora do GDPP) defendem que  empresas e governos assumam “responsabilidade de prevenir a propagação de discursos prejudiciais através de chatbots LLM”, com reflexões sobre regulamentação da moderação de conteúdos nas plataformas de redes sociais. 
Os pesquisadores analisam os riscos apresentados pelos chatbots LLM, e a responsabilidade ética das empresas, além do papel do Estado nesse processo.

Confira o conteúdo na íntegra, em inglês, no portal “The Digital Constitucionalist”.